nltk.download()下载失败

今天准备理解一下 TF-IDF,于是下载安装nltk包,但是import word_tokenize后使用word_tokenize进行分词,报错:
LookupError:


Resource [93mpunkt[0m not found.
Please use the NLTK Downloader to obtain the resource:
nltk.download(‘punkt’)
Attempted to load [93mtokenizers/punkt/english.pickle[0m
Searched in:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’


意思应该是需要 nltk.download(‘punkt’),于是在Python中运行:
import nltk
nltk.download(‘punkt’)
报错:无法连接。
又试: nltk.download(),but:
nltk.download()下载失败

好吧,佛了。
于是,,,去官网直接下载:https://github.com/nltk/nltk_data。
nltk.download()下载失败
下载packages就好。
放入之前报错中的:
- ‘C:\Users\Administrator/nltk_data’
- ‘D:\Python3.6\nltk_data’
- ‘D:\Python3.6\share\nltk_data’
- ‘D:\Python3.6\lib\nltk_data’
- ‘C:\Users\Administrator\AppData\Roaming\nltk_data’
- ‘C:\nltk_data’
- ‘D:\nltk_data’
- ‘E:\nltk_data’
- ‘’
任一文件夹下就OK,oh,记得这里将 packages 重命名成 nltk_data。
然后,,以为大功告成?不!继续报错,哈哈~ 怎么的呢,往下看
找到 nltk-data 中 punkt 所在目录,oh,
nltk.download()下载失败

这里要进入 punkt.zip 将 punkt 文件拖出来,与 punkt.zip 同级,然后 punkt.zip 就可以删掉啦,于是才大功告成,呼~
再试一下 word_tokenize,木问题啦!
我想,后续如果要用到其他数据文件,类似punkt的处理。