ICode9

精准搜索请尝试: 精确搜索
  • Python 词云2019-10-17 12:57:59

    穿过长长的县道,便是雪国。 在看黄杏元的GIS书籍,按照图论中用相邻矩阵来表示图是应该和书上一样全写出来的。但在寻找最短路径时候只用到了第一行向量,所以分析过程就简化了。 之后考虑会使用Python或者C++来实现一个简单图的Dijkstra算法,目前只是计划,具体什么时候写看时间吧。 i

  • 微博爬虫及舆情分析-3.文本清理与制作词云2019-09-15 15:01:50

    1、文本清理 import pandas as pd import pymysql from sqlalchemy import create_engine import re import jieba import jieba.analyse #1.从数据库导入微博数据并查看 mblog_frame = pd.read_csv('mblog.csv',index_col=None) mblog_frame.head(2) # 2.清除text中的非

  • 词云技术jieba实例(仅供参考)2019-09-08 11:39:20

    文中所用数据与上一篇博客所用数据出自同一网站,存入的文件就不再声明了,直接打开 jieba的实际应用 目的 将中文数据进行可视化,使人一眼看出重要的信息,本文的数据选用51job网站的工作需求介绍。 代码实现 #引入jieba、词云、matplotlib、json、numpy、PIL模块(json是用来打开

  • Python爬虫+简易词云的制作2019-08-20 18:36:29

    Python爬虫+简易词云的制作写在前面再识Python简介:应用场景:Python命令行执行:基本语法:连接数据库:Python爬虫主要步骤:第一种爬虫:urllib基本库+Beautiful SoupurllibBeautiful Soup第二种爬虫:Scrapy+xpathScrapyxpath简易词云 写在前面 这篇博客是我在大连参加实训时所作,大部

  • python学习笔记之jieba库及词云的使用2019-07-24 09:04:05

    jieba库 jieba库一般用于分词 例如: "中华人民共和国是一个伟大的国家" 输出 :['中华人民共和国', '是', '一个', '伟大', '的', '国家'] # 第一个就是分词分的尽量长,主要掌握这一个 ret = jieba.lcut("中华人民共和国是一个伟大的国家") print(ret) # 输出 ['中华人民共

  • Python学习第六天学习汇总(python文件处理和词云的使用)2019-07-19 20:51:14

    目录 一、文件的使用 二、文本词频统计 三、词云的使用 今天的课后练习实例题 总结 Python学习第六天学习汇总(python文件处理和词云的使用) 一、文件的使用 文件处理分为三个步骤: 文件的打开 对打开的文件的操作 关闭文件 原理流程图: 1.1 文件的打开 ​ 使用open方法 注:

  • 7.19 wordcloud库的基本介绍2019-07-19 20:01:41

    目录 7.19 wordcloud库的基本介绍 wordcloud概述 基本使用 常规方法 配置对象参数 mask参数详解 7.19 wordcloud库的基本介绍 wordcloud概述 词云以词语为基本单位,更加直观和艺术的展示文本 基本使用 wordcloud库把词云当作一个WordCloud对象 wordcloud.WordCloud()代表

  • 050 实例12-政府工作报告词云2019-07-18 16:56:45

    目录 一、"政府工作报告词云"问题分析 1.1 问题分析 二、"政府工作报告词云"实例讲解(上) 2.1 政府工作报告词云 2.2 新时代中国特色社会主义 2.3 2018年一号文件 2.4 新时代中国特色社会主义 2.5 2018年一号文件 三、"政府工作报告词云"实例讲解(下) 3.1 政府工作报告词云 3.

  • ECharts大屏可视化【词云,堆积柱状图,折线图,南丁格尔玫瑰图】2019-07-16 17:52:39

    一.简介   参考ECharts快速入门:https://www.cnblogs.com/yszd/p/11166048.html 二.代码实现 1 <!DOCTYPE html> 2 <html> 3 <head> 4    <meta charset="UTF-8"> 5    <title>ECharts入门</title> 6 </head> 7 <body> 8

  • Python 绘制词云2019-07-14 09:01:24

    文本内容:data(包含很多条文本) 1、分词: import jiebadata_cut = data.apply(jieba.lcut) 2、去除停用词: stoplist.txt:链接:https://pan.baidu.com/s/1lN1J8aUFOwqXpYMzuqVA7w  提取码:nk7z  with open(r'D:\数据文件\stoplist.txt', encoding='utf-8') as f: txt = f.read(

  • 红楼梦词云分析2019-06-26 18:48:48

    ~~~~~~~~~~~~~~~~~~~~步骤~~~~~~~~~~~~~~~~~~~~ ~~                         ~~ 1):红楼梦文本  《红楼梦》曹雪芹  高鄂 著第一回 甄士隐梦幻识通灵 贾雨村风尘怀闺秀列位看官:你道此书从何而来?说起根由,虽近荒唐,细按则深有趣味。待在下将此来历注明,方

  • 《蚁人2》豆瓣影评爬虫+简单情感分析+词云2019-06-20 21:54:40

    打算把豆瓣上的短评爬下来作为分析的素材。 然而并没有成功爬到所有的短评,一波三折,最终只爬到了500条,当然这也是豆瓣目前可见的最大数量,本文将细致分析爬虫的整个过程,并对爬到的数据加以分析,蚁小见大。   整篇文章共包含爬和文本分析两部分,因为爬到的数据包含信息较少,所以分

  • python好玩的词云和Jieba库的使用2019-06-14 15:53:14

    一、安装jieba库 :\>pip install jieba #或者 pip3 install jieba 二、jieba库解析 jieba库主要提供提供分词功能,可以辅助自定义分词词典。 jieba库中包含的主要函数如下: jieba.cut(s)                                                          

  • 爬取唐诗宋词生成词云2019-06-01 12:49:00

    Python 高并发线程爬取诗词之诗词分析 本节所讲内容: 1、5分钟快速了解爬虫概念 2、beautifulsoup 匹配原则 3、wordcloud 使用详情 实战:爬取中国唐诗宋词,体验文人雅士最常用的词语!   1、5分钟快速了解爬虫 爬虫(spider:网络蜘蛛):是一个用脚本代替浏览器请求服务器获取服务器资源的程

  • jieba分词以及wordcloud词云2019-05-06 17:44:26

    1.从网上下载一份 天龙八部的txt文档以及一份通用的jieba停用词表   2.下载一个背景  图片.jpg   3.检查一个字体文件   C:/Windows/Fonts/simsun.ttc   # -*- coding:utf-8 -*-import jiebaimport jieba.analysefrom PIL import Imageimport numpy as npfrom wordcloud im

  • 用Python实现一个词频统计(词云+图)2019-04-04 13:45:09

    第一步:首先需要安装工具python   第二步:在电脑cmd后台下载安装如下工具: (有一些是安装好python电脑自带有哦) 有一些会出现一种情况就是安装不了词云展示库 有下面解决方法,需看请复制链接查看:https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 第三步: 1.准备好你打算统计的

  • jieba 库的使用和好玩的词云2019-04-03 23:40:37

    jieba库的使用:   (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。      精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析      全模式:将语句中所有可能是词的词语都切分出来

  • jieba库使用和好玩的词云2019-04-02 22:40:30

    jieba库的使用:   (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式、全模式和搜索引擎模式,下面是三种模式的特点。      精确模式:试图将语句最精确的切分,不存在冗余数据,适合做文本分析      全模式:将语句中所有可能是词的词语都切分出来

  • Jieba库使用和好玩的词云2019-04-02 21:39:54

    jieba(结巴)是一个强大的分词库,完美支持中文分词 一、 结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式 精确模式:试图将句子最精确地切开,适合文本分析; 全模式:把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式:在精确模式的基础上,对长词再次

  • jieba库使用和好看的词云2019-03-31 14:38:53

    用jieba库统计文本词频及云词图的生成 一、安装jieba库 :\>pip install jieba #或者 pip3 install jieba 二、jieba库解析 jieba库主要提供提供分词功能,可以辅助自定义分词词典。 jieba库中包含的主要函数如下: jieba.cut(s)                              

  • 中文词频统计与词云生成2019-03-25 19:52:39

    作业来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822 作业要求: 1. 下载一长篇中文小说。 下载了《粤港澳大湾区发展纲要》 2. 从文件读取待分析文本。   text=open('artical.txt',encoding='utf-8').read();    e=''',,.。??!!-::《》< >"“”、\n \r

  • 中文词频统计与词云生成2019-03-25 18:53:36

    作业来自:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822 中文词频统计 1. 下载一长篇中文小说。 2. 从文件读取待分析文本。 3. 安装并使用jieba进行中文分词。 pip install jieba import jieba jieba.lcut(text) 4. 更新词库,加入所分析对象的专业词汇。 jieba.add

  • 中文词频统计与词云生成2019-03-25 18:43:39

    作业来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822 任务: 1. 下载一长篇中文小说 2. 从文件读取待分析文本 1 novel = open(r'E:\三体.txt', 'r', encoding='utf8').read() 3. 安装并使用jieba进行中文分词 pip install jieba import jieba jieba.lcut(te

  • 中文词频统计与词云生成2019-03-25 13:53:06

    作业要求来源:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822 1. 下载一长篇中文小说。 2. 从文件读取待分析文本。 f = open("红楼梦.txt", "r", encoding='gb18030') novel = f.read() f.close() 3. 安装并使用jieba进行中文分词。    4. 更新词库,

  • 中文词频统计与词云生成2019-03-23 12:49:51

    本次作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE1/homework/2822 中文词频统计 1. 下载一长篇中文小说。 2-7: # 从文件读取待分析文本with open(r'D:\\学习\\明朝那些事儿.txt', 'r', encoding='utf-8') as f: text = f.read()# 使用jieba进行中文分词impor

专注分享技术,共同学习,共同进步。侵权联系[admin#icode9.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有