ICode9

精准搜索请尝试: 精确搜索
首页 > 数据库> 文章详细

spark sql 概述

2022-07-26 11:03:47  阅读:231  来源: 互联网

标签:数据源 DataFrame api 概述 conf sql spark


目录

spark

  • 基于内存的计算引擎,计算速度非常快,但是只涉及数据的计算,没有涉及数据的存储。

spark sql

  • Spark sql不仅仅支持sql操作,还提供了例如外部数据源,以及各种优化
  • spark sql不仅提供了sql的api,还提供了DataFrame和Dataset的api
    ** spark sql 操作数据有两种方式,一种是通过sql语句,一种是通过其自带的DataFrame的api
    ** DataFrame在操作结构化数据的时候,引入了schema(每列的名称、类型)表结构,其实就是相当于给表的每一列加入了字段,比如torch里的tensor,只是结构化数据,但是没有每个列的信息,DataFrame通过字段名来更好地描述数据。

DataFrame

  • DataFrame是一个分布式的行集合。

使用方法

  • 首先创建一个SparkSession对象。
点击查看代码
conf = SparkConf
config = ()
conf.setAll(config)
spark = SparkSession.builder.config(conf=conf).getOrCreate()
* 然后创建DataFrame ** 调用方法spark.read.xxx,其中xxx是数据源的具体类型,比如 jsonDF = spark.read.json(x.json),数据源可以是RDD,CSV,json,parquet,orc,jdbc

标签:数据源,DataFrame,api,概述,conf,sql,spark
来源: https://www.cnblogs.com/chkplusplus/p/16519973.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有