ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

中文词频统计与词云生成

2019-03-22 18:43:34  阅读:388  来源: 互联网

标签:中文 word struct pos len 词云 path 词频 data


作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822

1. 下载一长篇中文小说。

2. 从文件读取待分析文本。

3. 安装并使用jieba进行中文分词。

pip install jieba

import jieba

jieba.lcut(text)

4. 更新词库,加入所分析对象的专业词汇。

jieba.add_word('天罡北斗阵')  #逐个添加

jieba.load_userdict(word_dict)  #词库文本文件

参考词库下载地址:https://pinyin.sogou.com/dict/

转换代码:scel_to_text

# -*- coding: utf-8 -*-
import struct
import os
 
# 拼音表偏移,
startPy = 0x1540;
 
# 汉语词组表偏移
startChinese = 0x2628;
 
# 全局拼音表
GPy_Table = {}
 
# 解析结果
# 元组(词频,拼音,中文词组)的列表
 
 
# 原始字节码转为字符串
def byte2str(data):
    pos = 0
    str = ''
    while pos < len(data):
        c = chr(struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0])
        if c != chr(0):
            str += c
        pos += 2
    return str
 
# 获取拼音表
def getPyTable(data):
    data = data[4:]
    pos = 0
    while pos < len(data):
        index = struct.unpack('H', bytes([data[pos],data[pos + 1]]))[0]
        pos += 2
        lenPy = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
        pos += 2
        py = byte2str(data[pos:pos + lenPy])
 
        GPy_Table[index] = py
        pos += lenPy
 
# 获取一个词组的拼音
def getWordPy(data):
    pos = 0
    ret = ''
    while pos < len(data):
        index = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
        ret += GPy_Table[index]
        pos += 2
    return ret
 
# 读取中文表
def getChinese(data):
    GTable = []
    pos = 0
    while pos < len(data):
        # 同音词数量
        same = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
 
        # 拼音索引表长度
        pos += 2
        py_table_len = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
 
        # 拼音索引表
        pos += 2
        py = getWordPy(data[pos: pos + py_table_len])
 
        # 中文词组
        pos += py_table_len
        for i in range(same):
            # 中文词组长度
            c_len = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
            # 中文词组
            pos += 2
            word = byte2str(data[pos: pos + c_len])
            # 扩展数据长度
            pos += c_len
            ext_len = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
            # 词频
            pos += 2
            count = struct.unpack('H', bytes([data[pos], data[pos + 1]]))[0]
 
            # 保存
            GTable.append((count, py, word))
 
            # 到下个词的偏移位置
            pos += ext_len
    return GTable
 
 
def scel2txt(file_name):
    print('-' * 60)
    with open(file_name, 'rb') as f:
        data = f.read()
 
    print("词库名:", byte2str(data[0x130:0x338])) # .encode('GB18030')
    print("词库类型:", byte2str(data[0x338:0x540]))
    print("描述信息:", byte2str(data[0x540:0xd40]))
    print("词库示例:", byte2str(data[0xd40:startPy]))
 
    getPyTable(data[startPy:startChinese])
    getChinese(data[startChinese:])
    return getChinese(data[startChinese:])
 
if __name__ == '__main__':
    # scel所在文件夹路径
    in_path = r"F:\text"   #修改为你的词库文件存放文件夹
    # 输出词典所在文件夹路径
    out_path = r"F:\text"  # 转换之后文件存放文件夹
    fin = [fname for fname in os.listdir(in_path) if fname[-5:] == ".scel"]
    for f in fin:
        try:
            for word in scel2txt(os.path.join(in_path, f)):
                file_path=(os.path.join(out_path, str(f).split('.')[0] + '.txt'))
                # 保存结果
                with open(file_path,'a+',encoding='utf-8')as file:
                    file.write(word[2] + '\n')
            os.remove(os.path.join(in_path, f))
        except Exception as e:
            print(e)
            pass

  

5. 生成词频统计

6. 排序

7. 排除语法型词汇,代词、冠词、连词等停用词。

stops

tokens=[token for token in wordsls if token not in stops]

8. 输出词频最大TOP20,把结果存放到文件里

import jieba
sg = open(r'F:/sanguo.txt','r',encoding='utf-8').read()
tt = open(r'F:/stops_chinese.txt','r',encoding='utf-8').read()
stops = tt.split() 
#jieba.load_userdict(r'F:\text/sg.txt')

wordsls = jieba.lcut(sg)
tokens = [token for token in wordsls if token not in stops]
print(len(wordsls),len(tokens))
wcdict = {}
for word in tokens:
    if len(word)==1:
        continue
    else:
        wcdict[word] = wcdict.get(word,0)+1
wcls = list(wcdict.items())
wcls.sort(key=lambda x:x[1],reverse=True)
for i in range(20):
    print(wcls[i])

  

 

9. 生成词云。

  • 安装词云:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple wordcloud

         

  1. 下载安装:下载 https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud
  2. 安装 找到下载文件的路径  pip install wordcloud-1.5.0-cp37-cp37m-win_amd64.whl
  • 配置:
  1. 在WordCloud安装的目录下找到WordCloud.py文件,对源码进行修改。
  2. 编辑wordcloud.py,找到FONT_PATH,将DroidSansMono.ttf修改成msyh.ttf。这个msyh.ttf表示微软雅黑中文字体。
  3. 在同一个目录下放置msyh.ttf字体文件供程序调用(字体可以在C:\Windows\Fonts复制)
  • 使用:
  1. 引入模块

            from wordcloud import WordCloud

            import matplotlib.pyplot as plt

  1. 导入文本
  2.   准备生成词云的文本word_text =' '.join(wordlist)  #是以空格分隔的字符串
  3. 生成词云
  4. mywc = WordCloud().generate(wl_split)
  5. 显示词云

   plt.imshow(mywc)

   plt.axis("off")

   plt.show()

cut_text = " ".join(tokens)
from wordcloud import WordCloud
ciyun = WordCloud().generate(cut_text)
import matplotlib.pyplot as plt
plt.imshow(ciyun)
plt.axis("off")
plt.show()

  

 

  • 保存词云

   mywc.to_file(r'F:\threekings.png')

        

       

 改变词云长度和宽度,背景颜色:

 

标签:中文,word,struct,pos,len,词云,path,词频,data
来源: https://www.cnblogs.com/hycolins/p/10579794.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有