标签:filter val Filter action 算子 println spark
package sparkcore
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
object Demo03Filter {
def main(args: Array[String]): Unit = {
//创建spark环境
val conf: SparkConf = new SparkConf().setAppName("Filter").setMaster("local")
//spark 上下文对象
val sc = new SparkContext(conf)
//创建一个RDD
val listRDD: RDD[Int] = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8))
/**
* filter算子,函数返回true保留数据,函数返回false过滤数据
*/
/**
* 转换算子:懒执行,需要action算子出发执行
* 操作算子:触发任务执行,每一个action算子都会出发一个任务
*
*/
println("filter之前")
val filterRDD: RDD[Int] =listRDD.filter(i => {
println("filter"+i)
i%2==1
})
println("filter之后")
//每一个action算子出发执行的时候都会将前面的代码执行一遍
filterRDD.foreach(println)
filterRDD.foreach(println)
}
}
标签:filter,val,Filter,action,算子,println,spark 来源: https://www.cnblogs.com/xiguabigdata/p/15022265.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。