ICode9

精准搜索请尝试: 精确搜索
  • 2.安装Spark与Python练习2022-03-06 18:34:57

    1、检查基础环境hadoop,jdk   启动hdfs查看进程       2、下载spark(已完成,略) 3、解压,文件夹重命名、权限(已完成,略) 4、配置文件(已完成,略) 5、环境变量   6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本文件 2、读文件 path='/home/hadoop/wc/f1.

  • 2.安装spark和python练习2022-03-03 20:33:27

    一、下载spark 1.检查基础环境hadoop,jdk      2.解压,文件夹重命名、权限           3.配置文件        4.环境变量    5.试运行python代码      二、Python编程练习:英文文本的词频统计 1.准备文档,在百度复制一篇英语文章    在wc.py中编写代码 path='/h

  • 2.安装Spark与Python练习2022-03-02 23:03:55

    1、检查基础环境hadoop,jdk   启动hdfs查看进程   2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark)   4、配置文件    配置Spark的classPath,并加上最后一行代码             5、环境变量               6、试运行Python代

  • 2.安装Spark与Python练习2022-03-02 11:32:43

    一、安装Spark   1、检查基础环境hadoop,jdk echo $JAVA_HOME java -version start-dfs.sh jps hadoop version   2、配置文件 cp ./conf/spark-env.sh.template ./conf/spark-env.sh gedit ./conf/spark-env.sh   3、环境变量 gedit ~/.bashrc   4、试运行Pytho

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有