ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

RDD编程

2021-07-11 18:52:26  阅读:177  来源: 互联网

标签:rdd 分区 编程 RDD persist textFile


RDD编程

1.RDD编程概述—-整个spark的核心
2.pari RDD
3.共享变量【重要】
4.数据读写
5.WordCount程序解析

1.RDD编程概述

1.RDD创建,
01.Spark采用textFile()方法从文件系统中加载数据创建RDD
该方法把文件的URI作为参数,这个URI可以是:
001.本文件系统的地址;
002.或者是分布式文件系统HDFS的地址
003.或者是Amazon s3的地址
val lines = sc.textFile(“file:///usr/local/spark/mycode/wordcount/word.txt”)
这里的lines就是一个rdd,并且rdd中的元素是String类型

02.可通过SparkContext的parallelize()方法,在Driver中已经存在的集合上创建
val arr = Array(1,2,3,4,5)
val rdd = sc.parallelize(arr)
rdd中的每个元素都是int类型
或者也可以通过列表创建

2.RDD操作
01转换操作
02行动操作
触发计算
常见如下:
count()
collect()
first()
take(n)
reduce(func)
foreach(func)
03惰性机制

持久化,(解决重复计算的问题)
标记为持久化
1.可以使用persist()方法对一个RDD标记为持久化
2,持久化后的RDD将会被保留在计算节点的内存中被后面的行动操作继续使用
3,persist(MEMORY_ONLY)
persist(MEMORY_AND_DISK)
cache()
unpersist()

3.分区
增加并行度:RDD通常很大,会被分成很多个分区。
减少通信开销

手动设置分区
01,创建RDD时:调用textFile和parallelize方法时手动指定分区数:sc.textFile(path,partitionNum)
02,通过转换操作得到新的RDD时,直接调用repartition方法即可
这种情况常常用在计算进行了大半部分的时候,因为之前很多数据集都已经计算完全,所有不再需要很多的线程来计算,所以减少分区的数量很有必要。

 

标签:rdd,分区,编程,RDD,persist,textFile
来源: https://blog.51cto.com/lawsonabs/3036547

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有