ICode9

精准搜索请尝试: 精确搜索
  • 2.安装Spark与Python练习2022-03-02 23:03:55

    1、检查基础环境hadoop,jdk   启动hdfs查看进程   2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark)   4、配置文件    配置Spark的classPath,并加上最后一行代码             5、环境变量               6、试运行Python代

  • 2.安装Spark与Python练习2022-03-02 15:33:04

    一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写

  • 安装Spark与Python练习2022-03-02 12:00:31

    一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件  

  • elasticsearch算法之搜索模型(一)2022-03-02 08:33:21

    面对海量的信息,我们很容易被淹没在信息的海洋中;当我们需要查找某个信息的时候,我们就会输入能够体现我们意图的关键字,搜索引擎会通过解析我们的关键字从而构造相应的查询表示方法;然后搜索引擎通过构造的查询在内存存储的文档集合中查找跟用户需求相关的文档,并根据相关度进行排序;以

  • 利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化2022-02-25 23:33:39

    目录利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化安装jieba库安装wordcloud打开pycharm编写代码 利用jieba库和wordcloud库,进行中文词频统计并利用词云图进行数据可视化 安装jieba库 打开cmd输入pip install jieba 验证:python -m pip list 安装wordclou

  • Python | 分析txt文档特定词汇的词频,以《天龙八部》为例2022-02-04 17:32:18

    首先要将txt文件另存为utf-8格式的文件,然后才能进行处理。  import re from pymysql import DataError with open (r"C:\Users\ausa\Desktop\tianlong.txt","rb") as f: data = f.read().decode() pat11 = "乔峰" pat12 = "乔大哥" pat13 = "萧峰&

  • 文本数据分词,词频统计,可视化 - Python2022-01-10 16:01:19

    词频、分词和可视化结合爬虫,做一些作业。 爬虫库requests 词频统计库collections 数据处理库numpy 结巴分词库jieba 可视化库pyecharts等等。 数据的话直接从网上抠一些东西,这里抠一篇新闻。要导入的库,一次性导入: 1 import collections 2 import re 3 import jieba 4 impor

  • 用Python 实行第三方库(WordCloud词云库 )2022-01-02 12:34:24

    WordCloud词云库会根据你给出的字符串,对词频进行统计,然后以不同的大小显示出来,使它更加直观和艺术的实现词频的可视化。 1、使用词云库前,先通过cmd来进行下载词云库,命令:pip install wordcloud 2、安装成功后,点开IDIE,输入import wordcloud来导入词云库,查看是否能运行 (我这边显

  • TF-IDF笔记整理2022-01-02 11:05:11

    TF-IDF(term frequency–inverse document frequency)是一种用于信息检索与数据挖掘的常用加权技术。TF是词频(Term Frequency),IDF是逆文本频率指数(Inverse Document Frequency)。 还是比较简单的,整理了资料供大家观看。 tf(term frequency )-统计词频 idf(inverse document freque

  • 调用MapReduce进行词频统计2021-12-30 13:30:56

    一、需求描述 Hadoop综合大作业 要求: 1.将待分析的文件(不少于10000英文单词)上传到HDFS。 2.调用MapReduce对文件中各个单词出现的次数进行统计。 3.将统计结果下载本地。 4.写一篇博客描述你的分析过程和分析结果。 本次大作业,我们需要实现的是调用MapReduce对文件中各个单词出

  • 大数据词频统计作业2021-12-28 23:00:56

    一、 需求描述 Hadoop综合大作业 要求: 1.将待分析的文件(不少于10000英文单词)上传到HDFS。 2.调用MapReduce对文件中各个单词出现的次数进行统计。 3.将统计结果下载本地。 4.写一篇博客描述你的分析过程和分析结果。 本次大作业,我们需要实现的是调用MapReduce对文件中各个单

  • 092021-12-22 02:00:28

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 09 hive2021-12-21 01:01:34

    .安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME          修改Hive配置文件 gedit            配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show gra

  • 092021-12-17 23:04:03

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 092021-12-17 19:33:07

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 09 Hive安装与操作2021-12-17 08:34:13

      一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启

  • 092021-12-17 01:04:33

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 09 Hive安装与操作2021-12-16 10:36:20

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 09 Hive安装与操作2021-12-15 23:31:44

    一.安装Hive 下载解压重命名权限配置环境变量 $HIVE_HOME修改Hive配置文件 gedit配置mysql驱动下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls在mysql新建hive数据库 show databases;配置mysql允许hive接入 show grants for 'hive'@'localhost';启停启动Hadoop--

  • 09 Hive安装与操作2021-12-15 01:03:38

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 092021-12-14 23:02:31

    一.安装Hive 下载解压重命名权限     配置环境变量  $HIVE_HOME     修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'l

  • 09 Hive安装与操作2021-12-14 18:34:32

    一.安装Hive 下载解压重命名权限 配置环境变量  $HIVE_HOME 修改Hive配置文件 gedit 配置mysql驱动 下载合适版本的mysql jar包,拷贝到/usr/local/hive/lib目录下 ls 在mysql新建hive数据库 show databases; 配置mysql允许hive接入  show grants for 'hive'@'localhost'; 启停

  • 092021-12-13 21:31:42

    一.安装Hive                                             二、Hive操作                                 三、hive进行词频统计

  • 192. 统计词频2021-12-08 11:04:47

    写一个 bash 脚本以统计一个文本文件 words.txt 中每个单词出现的频率。 为了简单起见,你可以假设: words.txt只包括小写字母和 ' ' 。 每个单词只由小写字母组成。 单词间由一个或多个空格字符分隔。 不要担心词频相同的单词的排序问题,每个单词出现的频率都是唯一的。 你可以使

  • 0词频统计简单 LeetCode383. 赎金信2021-12-04 11:32:27

    383. 赎金信 描述 为了不在赎金信中暴露字迹,从杂志上搜索各个需要的字母,组成单词来表达意思。 给你一个赎金信 (ransomNote) 字符串和一个杂志(magazine)字符串,判断 ransomNote 能不能由 magazines 里面的字符构成。 如果可以构成,返回 true ;否则返回 false 。 magazine 中的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有