ICode9

精准搜索请尝试: 精确搜索
  • 三、Spark设计与运行原理,基本操作2022-03-09 11:33:57

    1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 (1)Spark Core:Spark核心组件,它实现了Spark的基本功能,包含任务调度、内存管理、错误恢复、与存储系统交互等模块。Spark Core中还包含了对弹性分布式数据集(Resilient Distr

  • 3.Spark设计与运行原理,基本操作2022-03-09 11:32:43

    一.请用图文阐述Spark生态系统的组成及各组件的功能。 1. Spark Core Spark Core是整个Spark生态系统的核心组件,是一种大数据分布式处理框架,实现了MapReduce同时还提供了filter、join、groupByKey等更丰富的算子。 2. Mesos、Yarn 资源管理、资源任务调度 3. Spark Streaming Spar

  • 图解大数据 | 流式数据处理-Spark Streaming2022-03-08 23:34:31

    作者:韩信子@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/84 本文地址:http://www.showmeai.tech/article-detail/179 声明:版权所有,转载请联系平台与作者并注明出处 1.Spark Streaming解读 1)Spark Streaming简介 Spark Streaming是Spark核心API的一个扩展,可以实现实时数

  • 3.Spark设计与运行原理,基本操作2022-03-08 11:00:28

    1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 2.请阐述Spark的几个主要概念及相互关系:    RDD,DAG,Application, job,stage,task,Master, worker, driver,executor,Claster Manager   RDD任务划分原理窄依赖不会sh

  • Spark设计与运行原理,基本操作2022-03-08 09:34:50

    1.Spark已打造出结构一体化、功能多样化的大数据生态系统,请用图文阐述Spark生态系统的组成及各组件的功能。 目前,Spark生态系统已经发展成为一个可应用于大规模数据处理的统一分析引擎,它是基于内存计算的大数据并行计算框架,适用于各种各样的分布式平台系统。在Spark生态圈中包含了

  • Spark创建RDD的四种方式2022-03-08 01:33:03

    在Spark中创建RDD的创建方式可以分为四种:  ps:本文代码基于spark on zeppelin实现 1、从集合(内存)中创建RDD 从集合中创建RDD,Spark主要提供了两个方法:parallelize和makeRDD  // 使用parallelize方法 val rdd1 = sc.parallelize(List(1,2,3,4)) //使用makeRDD方法 val rdd2=sc.mak

  • GraphX中顶点和边的RDD操作2022-03-03 17:04:23

      GraphX 公开了存储在图中的顶点和边的 RDD 视图。但是,由于 GraphX 在优化的数据结构中维护了顶点和边,并且这些数据结构提供了额外的功能,所以顶点和边分别返回为 VertexRDDVertexRDD 和 EdgeRDDEdgeRDD。 一、顶点RDD(VertexRDDs)   VertexRDD[A] 扩展了 RDD[(VertexId, A)] 并

  • GraphX中的图构造器2022-03-03 16:35:33

      GraphX 提供了几种从 RDD 或磁盘上的顶点和边的集合构建图的方法。 默认情况下,所有图构建器都不会重新划分图的边; 相反,边会留在它们的默认分区中(例如它们在 HDFS 中的原始块)。Graph.groupEdges 要求对图进行重新分区,因为它假定相同的边将位于同一分区上,因此您必须在调用之前调

  • Spark学习记录2022-03-01 17:33:09

    SpringStrongGuo Hadoop与Spark Hadoop主要解决,海量数据的存储和海量数据的分析计算。 Spark主要解决海量数据的分析计算。 Spark运行模式 1)Local:运行在一台机器上。 测试用。 2)Standalone:是Spark自身的一个调度系统。 对集群性能要求非常高时用。国内很少使用。 3)Yarn:采

  • 大数据:Spark实战经验总结(python版)2022-02-28 23:02:01

    人工智能 大数据,Spark,Hadoop,python,pyspark 大数据:Spark实战经验总结 1. RDD持久化1)RDD的惰性机制:2)RDD持久化 --- (解决惰性机制的效率问题):(1)效率低的背景:(2)增加持久化(缓存):(3)实际开发中,持久化(缓存)写法: 大数据,Spark,Hadoop,python,pyspark 大数据:Spark实战经验总结

  • spark学习 RDD编程2022-02-27 22:34:44

    RDD创建: 从从文件系统中加载数据创建RDD:   1.Spark采用textFile()从文件系统中加载数据创建RDD 可以使本地,分布式系统等   2.把文件的url作为参数 可以是本地文件系统的地址,分布式文件系统HDFS的地址等等 从本地文件中加载数据: sc为系统自动创建的sparkcontext,不用我们创建 从

  • 初识 Spark - 7000字+15张图解,学习 Spark 入门基础知识2022-02-23 20:05:43

    欢迎关注「数人之道」公众号 获取更多数据知识、干货、资讯! 延伸阅读: 初识 Spark | 带你理解 Spark 中的核心抽象概念:RDDSpark RDD 的概念、操作、依赖关系https://mp.weixin.qq.com/s?__biz=MzkwNTI4MDEzOQ==&mid=2247485795&idx=1&sn=5ec304fde1d31f6e269d8ddcb07e8c1c&chks

  • Spark框架——WordCount案例实现2022-02-22 17:04:09

    package wordcount import org.apache.spark.rdd.RDD import org.apache.spark.{SparkConf, SparkContext} object Spark01_WordCount { def main(args: Array[String]): Unit = { //TODO 建立与spark的连接 val sparConf = new SparkConf().setMaster("local"

  • foldByKey和combineByKey2022-02-22 14:34:52

    函数签名 def foldByKey(zeroValue: V)(func: (V, V) => V): RDD[(K, V)] 函数说明 当分区内计算规则和分区间计算规则相同时,aggregateByKey 就可以简化为 foldByKey val dataRDD1 = sparkContext.makeRDD(List(("a",1),("b",2),("c",3))) val dataRDD2 = dataRDD1.foldByKe

  • spark_core_032022-02-20 22:32:49

    package com.atguigu.bigata.spark.core.rdd.builder.operator.action import org.apache.spark.{SparkConf, SparkContext} import scala.collection.mutable /** * @auther :atom * @date :2022/2/20 20:40 * wordCount的九种写法 */ object Spark01_RDD_Operator_Action

  • Spark源码——shuffle2022-02-18 21:33:03

    原理回顾    一个RDD的两个分区的数据shuffle到另一个RDD的两个分区中后,如果上一个RDD还存在其他分区没执行完毕的话,不能往下执行,就会造成当前RDD内存数据挤压 所以中间就需要落盘操作,中间需要磁盘文件File shuffle一定会有落盘,但是效率慢,如何提高效率?落盘数据量越少速度就会变

  • Spark学习:如何在DataFrame上做数据处理?2022-02-09 21:03:01

    对于在DataFrame上的数据处理,SparkSql支持两种:一类是Sql;另一类是DataFrame开发算子 一、Sql语句 对于任意的DataFrame,都可以使用createTempView(生命周期仅限于SparkSession)或createGlobalTempView(可以跨SparkSession)创建临时表,之后在临时表上用sql语句进行灵活地增删

  • PySpark之Spark的内核调度2022-02-09 12:31:14

    一、RDD依赖 一、为什么要设计宽窄依赖 窄依赖 Spakr可以并行计算如果有一个分区数据丢失,主需要从父RDD的对应1个分区重新计算即可,不需要重新计算整个任务,提高容错 宽依赖 宽依赖是划分Stage的依据 构建Lineage血缘关系 RDD只支持粗粒度转换,即只记录单个块上执行的

  • Spark集群角色2022-02-07 10:04:50

    Driver:是一个JVM Process 进程,编写的Spark应用程序就运行在Driver上,由Driver进程执行; Master(ResourceManager):是一个JVM Process 进程,主要负责资源的调度和分配,并进行集群的监控等职责; Worker(NodeManager):是一个JVM Process 进程,一个Worker运行在集群中的一台服务器上,

  • Spark框架介绍2022-02-06 10:01:16

    一、Spark是什么 一、定义 Apache Spark是用于大规模数据处理的统一分析引擎 二、Spark更快的原因 数据结构(编程模型):Spark框架核心 RDD:弹性分布式数据集,认为是列表List Spark 框架将要处理的数据封装到集合RDD中,调用RDD中函数处理数据 RDD 数据可以放到内存中,内存不足可

  • Spark追妻系列(Pair RDD下集)2022-02-05 20:30:53

    忙忙碌碌一天,啥都没干 小谈:         今天啥也没干,不知不觉已经是大年初五了,再过五六七八天就要开始考科目四了,希望早早拿到驾照 combineByKey   先解释一个每个参数的意义 createCombiner:分组内的创建组合的函数,通俗点就是将都进来的数据进行初始化,把当前的值作为

  • Spark追妻系列(Value类型的RDD)2022-02-03 17:33:22

    今天是大年初三,猴赛雷 小谈         这几天每天晚上给她发一个红包,拜年红包而且还可以添加表情包。感觉现在过年好没有年味吖。嗑瓜子磕的嗓子都疼了。         Spark中的算子有很多,有Value类型,双Value类型,这两天写的都是Value类型的,昨天讲的是关于map的映射

  • SparkSQL 的创建 DataFrame2022-02-02 12:01:58

    1.1   创建 DataFrame With a SparkSession, applications can create DataFrames from an existing RDD, from a Hive table, or from Spark data sources. 有了 SparkSession 之后, 通过 SparkSession有 3 种方式来创建DataFrame: 2          通过 Spark 的数据源创

  • SparkCore中的Key-Value 类型 RDD 的数据分区器2022-02-01 23:02:41

    1.1 HashPartitioner HashPartitioner分区的原理:对于给定的key,计算其hashCode,并除以分区的个数取余,如果余数小于 0,则用余数+分区的个数(否则加0),最后返回的值就是这个key所属的分区ID。 1.2 RangePartitioner HashPartitioner 分区弊端: 可能导致每个分区中数据量的不均匀,极端情况下

  • Spark Core简介2022-02-01 22:03:25

    第 1 章 RDD 概述   1.1 什么是 RDD     RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象。 1.2 RDD 的 5 个主要属性(property) •           A list of partitions              多个分区. 分区可以看成是数据集的

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有