标签:__ Jieba word text 模式 词云 words txt 好玩
jieba(结巴)是一个强大的分词库,完美支持中文分词
一、
结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式
精确模式:试图将句子最精确地切开,适合文本分析;
全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
首先尝试一下精确模式
Perfect!
接下来试试全模式
emmmm小学生分成三个部分
然后是搜索引擎模式
def get_text(): txt = open("English.txt", "r", encoding='UTF-8').read() txt = txt.lower() for ch in '!"#$%&()*+,-./:;<=>?@[\\]^_‘{|}~': txt = txt.replace(ch, " ") # 将文本中特殊字符替换为空格 return txt file_txt = get_text() words = file_txt.split() # 对字符串进行分割,获得单词列表 counts = {} for word in words: if len(word) == 1: continue else: counts[word] = counts.get(word, 0) + 1 items = list(counts.items()) items.sort(key=lambda x: x[1], reverse=True) for i in range(5): word, count = items[i] print("{0:<5}->{1:>5}".format(word, count))
选择了一篇英语六级考试的阅读理解,然后用着代码去计算里面一些长度的词的个数
结果如下:
二、
词云的制作
完成安装jieba , wordcloud ,matplotlib
(1)打开taglue官网,点击import words,把运行的结果copy过来。
(2)选择形状,在这里是网上下载的图片进行的导入。
(3)选择字体。
(4)点击Visualize生成图片。
from wordcloud import WordCloud import matplotlib.pyplot as plt import jieba def create_word_cloud(filename): text = open("哈姆雷特.txt".format(filename)).read() wordlist = jieba.cut(text, cut_all=True) wl = " ".join(wordlist) wc = WordCloud( background_color="black", max_words=2000, font_path='simsun.ttf', height=1200, width=1600, max_font_size=100, random_state=100, ) myword = wc.generate(wl) plt.imshow(myword) plt.axis("off") plt.show() wc.to_file('img_book.png') if __name__ == '__main__': create_word_cloud('mytext')
这里选择了一篇哈姆雷特
运行后
标签:__,Jieba,word,text,模式,词云,words,txt,好玩 来源: https://www.cnblogs.com/Coylin/p/10645257.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。