ICode9

精准搜索请尝试: 精确搜索
  • 4.RDD操作2022-03-27 20:03:42

    一、 RDD创建 1.从本地文件系统中加载数据创建RDD 创建SparkContext以及从文件系统中加载数据创建RDD   与原txt文件对比     2.从HDFS加载数据创建RDD 启动hdfs   上传文件   查看文件     加载 停止hdfs     3.通过并行集合(列表)创建RDD 输入列表、字符串、生成数

  • 4.RDD操作2022-03-27 11:02:05

    RDD操作   一、 RDD创建 1.从本地文件系统中加载数据创建RDD 2.从HDFS加载数据创建RDD 3.通过并行集合(列表)创建RDD 二、RDD操作 转换操作 1.转换操作    1.filter(func)     显式定义函数     lambda函数 2.map(func)  显式定义函数  lambda函数 字符串

  • 4.RDD操作2022-03-26 19:31:16

    一、 RDD创建 1.从本地文件系统中加载数据创建RDD       2.从HDFS加载数据创建RDD            加载      停止hdfs      3.通过并行集合(列表)创建RDD     输入列表、字符串、生成数组       二、 RDD操作 转换操作 1. filter(func)传入lambda匿名函数显式

  • 4.RDD操作2022-03-26 19:04:13

    4.RDD操作   一、 RDD创建 从本地文件系统中加载数据创建RDD     从HDFS加载数据创建RDD 启动hdfs     上传文件      查看文件     加载 停止hdfs     通过并行集合(列表)创建RDD 输入列表、字符串、生成数组 二、 RDD操作 转换操作 filter(func) 传入lambda

  • 用python对modern family 摩登家庭 1~11季剧本台词的词频分析2022-03-25 10:00:31

    摩登家庭这部美剧学英语应该不模式,某宝上买了1~11季的台词,想对里面得单词出现频率做个统计,高频出现的单词应该就是日常常用的,应该牢牢记住。出现次数太低的也可以不用学了。 分析程序用的是python语言。 其中单词总量:23298个,分析结果以txt文本文件保存。词频结果下载 按流水号,单词

  • 2.安装Spark与Python练习2022-03-08 20:01:43

    一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.试运行Python代码     二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小

  • 2.安装Spark与Python练习2022-03-08 17:32:16

    一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 5.环境变量 6.试运行Python代码 二、Python编程练习:英文文本的词频统计 1.准备文本文件 2.读文件 3.统计每个单词出现的次数

  • 安装Spark与Python练习2022-03-08 17:03:49

    一、安装Spark   1.检查基础环境hadoop,jdk           2.下载spark   3.解压,文件夹重命名、权限   4.配置文件        5.环境变量    6.试运行Python代码      二、Python编程练习:英文文本的词频统计   1.准备文本文件   2.读文件,预处理:大小写,

  • 2.安装Spark与Python练习2022-03-08 14:32:55

    2.安装Spark与Python练习 一、安装Spark 检查基础环境 下载spark 解压,文件夹重命名、权限                  4.配置文件与环境变量                          5.试运行Python代码       二、Python编程练习:英文文本的词频统计   准备文本文件  

  • 2、安装Spark与Python练习2022-03-08 13:34:23

    一、安装Spark 1、检查基础环境hadoop、jdk 2、下载Spark(略) 3、解压、文件夹重命名、权限(略) 4、配置文件      5、环境变量      6、试运行Python代码              二、Python编程练习:英文文本的词频统计 1、准备文本       2、编写代码    3、运行结果

  • 2.安装Spark与Python练习2022-03-08 13:00:22

    一、安装Spark 检查基础环境hadoop,jdk   下载spark 解压,文件夹重命名、权限 配置文件     环境变量 试运行Python代码   二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文

  • 2.安装Spark与Python练习2022-03-07 14:34:13

    一、安装Spark 检查基础环境hadoop,jdk               2.配置文件      3.环境变量      4.试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本文件    2、读文件、预处理、分词、统计每个单词出现的次数、按词频大小排序    3、结果写

  • 2.安装Spark与Python练习2022-03-07 14:02:11

    一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码             二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果

  • 安装Spark与Python练习2022-03-07 01:01:21

    一、安装Spark 检查基础环境hadoop,jdk 配置文件 环境变量 试运行Python代码     二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件    

  • 安装Spark与Python练习2022-03-06 21:01:46

    一、安装Spark 检查基础环境hadoop,jdk       下载Spark         二.Python编程练习:英语文本的词频统计 源代码 # 导入模块 # 导入字符串模块 import string # 2读取文件,并分词 list_dict = {} # 创建一个空字典,放词频与单词,无序排列 data = [] # 创建一个空列表,放词

  • 2.安装Spark与Python练习2022-03-06 19:35:23

    一、安装Spark 1.检查基础环境hadoop,jdk   2.下载spark (已完成,略过) 3.解压,文件夹重命名、权限 (已完成,略过) 4.配置文件 (已完成,略过) 5.环境变量      6.试运行Python代码       二、Python编程练习:英文文本的词频统计 1.准备文本文件      2.读文件 path='/home/had

  • 安装Spark与Python练习2022-03-06 19:04:50

    一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 1.jdk、hadoop环境       2.spark环境               二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词

  • 2.安装Spark与Python练习2022-03-06 19:01:26

    一、安装Spark 1.检查基础环境hadoop,jdk       2.下载spark (已完成,略过) 3.解压,文件夹重命名、权限 (已完成,略过) 4.配置文件 (已完成,略过) 5.环境变量      6.试运行Python代码           二、Python编程练习:英文文本的词频统计 1.准备文本文件                

  • 2.安装Spark与Python练习2022-03-06 18:34:57

    1、检查基础环境hadoop,jdk   启动hdfs查看进程       2、下载spark(已完成,略) 3、解压,文件夹重命名、权限(已完成,略) 4、配置文件(已完成,略) 5、环境变量   6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本文件 2、读文件 path='/home/hadoop/wc/f1.

  • 2.安装Spark与Python练习2022-03-06 17:31:07

    一、安装Spark 环境配置:   启动spark:    试运行python代码:     二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果写文件  思路:先读取文件文本内容,使用循环将内容中的每一个标

  • 2.安装Spark与Python练习2022-03-06 11:33:58

    基础环境—环境准备检查 下载安装文件   安装文件   配置相关文件        配置环境变量            运行pyspark       在pyspark中运行代码      统计词频        

  • 2.安装Spark与Python练习2022-03-05 16:01:18

    2.安装Spark与Python练习 1,配置相关文件与环境变量     2,在pyspark中运行代码   3,Python实现英文文本的词频统计  

  • 2.安装Spark与Python练习2022-03-05 14:31:42

    一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码          二、Python编程练习:英文文本的词频统计 准备文本文件 读文件 预处理:大小写,标点符号,停用词 分词 统计每个单词出现的次数 按词频大小排序 结果

  • 安装spark与python练习2022-03-03 21:31:16

    一、安装Spark 1、检查基础环境hadoop,jdk   2.下载spark 原有3.解压,文件夹重命名、权限 原有4.配置文件     5.环境变量     6.试运行Python代码   二、Python编程练习:英文文本的词频统计 1.准备文本文件   2.代码   3.结果处理          

  • 2.安装Spark与Python练习2022-03-03 16:04:36

    一、安装Spark 1.检查基础环境hadoop,jdk   2.下载spark3.解压,文件夹重命名、权限4.配置文件     5.环境变量     6.试运行Python代码   二、Python编程练习:英文文本的词频统计 1.准备文本文件   2.代码   3.结果处理            

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有