pyechats词云

目录

1.准备语料库
相关资料下载

2.分词 ​

3.词频统计

4.Wordcloud词云

1.语料库

#绘图工具
import matplotlib.pyplot as plt
from wordcloud import WordCloud
#中文分词组件
import jieba

#1、准备语料库
#‘r’: 以只读模式打开
txt1 = open(‘C:\Users\爱提莫\Desktop\文本挖掘\鬼吹灯词库.txt’, ‘r’, encoding=‘utf8’).read()
#word.txt,随便放点中文文章

2.使用结巴分词

#2、使用结巴分词
words_ls = jieba.cut(txt1, cut_all=True)
#jieba.cut():第一个参数为需要分词的字符串,第二个cut_all控制是否为全模式
words_split = " ".join(words_ls)

3、分词

wc = WordCloud() # 字体这里有个坑,一定要设这个参数。否则会显示一堆小方框wc.font_path=“simhei.ttf” # 黑体
wc.font_path=“simhei.ttf”
#可以对全部文本进行自动分词
my_wordcloud = wc.generate(words_split)
pyechats词云

4.词云展示

plt.imshow(my_wordcloud)
plt.axis(“off”)
plt.show()

wc.to_file(‘zzz.png’) # 保存图片文件
pyechats词云