ICode9

精准搜索请尝试: 精确搜索
  • 大数据技术之Hive 第2章 Hive安装 以及基本操作2022-06-08 02:02:33

    2.2 MySql安装 0)为什么需要Mysql 原因在于Hive默认使用的元数据库为derby,开启Hive之后就会占用元数据库,且不与其他客户端共享数据,如果想多窗口操作就会报错,操作比较局限。以我们需要将Hive的元数据地址改为MySQL,可支持多窗口操作。 1)检查当前系统是否安装过Mysql [wolffy@hadoop10

  • 大数据技术之Hive 第3章 Hive数据类型 基本数据类型 和 集合数据类型2022-06-08 02:01:56

    第3章 Hive数据类型 3.1 基本数据类型 Hive数据类型 Java数据类型 长度 例子 TINYINT byte 1byte有符号整数 20 SMALINT short 2byte有符号整数 20 INT int 4byte有符号整数 20 BIGINT long 8byte有符号整数 20 BOOLEAN boolean 布尔类型,true或者false TRUE FALSE

  • 大数据技术之Hive 第4章 DDL数据定义语言2022-06-08 02:01:47

    第4章 DDL数据定义语言 4.1 创建数据库 CREATE DATABASE [IF NOT EXISTS] database_name [COMMENT database_comment] [LOCATION hdfs_path] [WITH DBPROPERTIES (property_name=property_value, ...)]; 1)创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db

  • 大数据技术之Hive 第5章 DML数据操作语言2022-06-08 02:01:19

    第5章 DML数据操作 5.1 数据导入 5.1.1 向表中装载数据(Load) 1)语法 hive> load data [local] inpath '数据的path' [overwrite] into table student [partition (partcol1=val1,…)]; (1)load data:表示加载数据 (2)local:表示从本地加载数据到hive表;否则从HDFS加载数据到hive表 (3)inp

  • 大数据技术之Hive 第6章 查询 基本查询2022-06-08 02:00:58

    第6章 查询 https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Select 查询语句语法: SELECT [ALL | DISTINCT] select_expr, select_expr, ... FROM table_reference [WHERE where_condition] [GROUP BY col_list] [ORDER BY col_list] [CLUSTER BY col_list

  • 大数据技术之Hive 第6章 查询 Join语句 和Order By 、Distribute By 、Sort By 、Cluster By2022-06-08 02:00:08

    6.3 Join语句 6.3.1 等值Join Hive支持通常的SQL JOIN语句。 1)案例实操 (1)根据员工表和部门表中的部门编号相等,查询员工编号、员工名称和部门名称; hive (default)> select e.empno, e.ename, d.deptno, d.dname from emp e join dept d on e.deptno = d.deptno; 6.3.2 表的别名 1)

  • hive SQL 初学者题目,实战题目 字符串函数,日期拼接,开窗函数。。。。2022-06-07 22:01:42

    sql:Hive实现按照指定格式输出每七天的消费平均数输出格式:2018-06-01~2018-06-07 12.29...2018-08-10~2018-08-16 80.67 答案:-- 1、先将日期进行切分得到年月日select split(date_time,'/'),cost from f; 将日期格式转换成上面的格式 select concat_ws('-',split(date_time,'/')),

  • hive存储格式2022-06-07 20:02:53

    格式类型 Hive支持的存储数据的格式主要有:TEXTFILE 文本格式文件(行式存储)、 SEQUENCEFILE 二进制序列化文件(行式存储)、ORC(列式存储)、PARQUET(列式存储)等。 hive的存储格式通常是:textfile 、 sequencefile 、 rcfile 、 orc 、自定义 set hive.default.fileformat=TextFile; 默认

  • hive-day03_排序和行列转换2022-06-06 19:00:18

    4、Hive查询语法(DQL) SELECT [ALL | DISTINCT] select_expr, select_expr, ... FROM table_reference [WHERE where_condition] [GROUP BY col_list] [ORDER BY col_list] [CLUSTER BY col_list | [DISTRIBUTE BY col_list] [SORT BY col_list] ] [LIMIT [offset,] rows] 4.1 全

  • 7.Spark SQL2022-06-06 12:03:32

    未交原因:忘记交了   1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 spark出现的目的是为了替代Mapreduce,解决Mapreduce计算短板。我们知道最初的计算框架叫 mapreduce,他的缺点是计算速度慢,还有一个就是代码比较麻烦,所以有了 hive;hive 是把类 sql 的语句转换成 mapred

  • Hive参数与性能企业级调优2022-06-06 12:00:51

    Hive作为大数据平台举足轻重的框架,以其稳定性和简单易用性也成为当前构建企业级数据仓库时使用最多的框架之一。 但是如果我们只局限于会使用Hive,而不考虑性能问题,就难搭建出一个完美的数仓,所以Hive性能调优是我们大数据从业者必须掌握的技能。本文将给大家讲解Hive性能调优的一些

  • 大数据--Hive的安装以及三种交互方式2022-06-06 11:03:59

    1.3 Hive的安装(前提是:mysql和hadoop必须已经成功启动了) 在之前博客中我有记录安装JDK和Hadoop和Mysql的过程,如果还没有安装,请先进行安装配置好,对应的随笔我也提供了百度云下载连接。 安装JDK: https://www.cnblogs.com/wyh-study/p/12014368.html 安装Hadoop https://www.cnblo

  • Hive-day03_hive介绍和三种交互方式2022-06-01 21:34:46

    Hive1.2.1_hive介绍和三种交互方式 1、Hive基本概念 1.1 Hive简介 Hive本质是将SQL转换为MapReduce的任务进行运算,底层由HDFS来提供数据存储,说白了hive可以理解为一个将SQL转换为MapReduce的任务的工具,甚至更近一步说hive就是一个MapReduce客户端。 思考:计算文件user.txt中张三出

  • Hive安装部署2022-05-31 20:06:25

    1)把apache-hive-3.1.2-bin.tar.gz上传到linux的/opt/software目录下 2)解压apache-hive-3.1.2-bin.tar.gz到/opt/module/目录下面 [atguigu@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/ 3)修改apache-hive-3.1.2-bin.tar.gz的名称

  • 大数据基础之Hive2022-05-31 18:01:19

    http://hive.apache.org/ The Apache Hive ™ data warehouse software facilitates reading, writing, and managing large datasets residing in distributed storage using SQL. Structure can be projected onto data already in storage. A command line tool and JDBC dr

  • SQL与Database2022-05-31 17:33:16

    SQL-Structured Query Language 语言简洁,易学易用 DDL:Create、Drop、Alter DML:ISUD(Insert、Select、Update、Delete) 权限 Grant、Revoke 场景 olap(Analysis) oltp(Transaction) Database BigData Hadoop生态查询引擎 组件 定位 架构 开发语言 存储 元数据 查询 安装

  • hive --service metastore2022-05-28 08:31:58

      hiveserver2:如果要通过jdbc连接hive,则需要启动hiveserver2。常见jdbc客户端:beeline bin/hive --service metastore & metastore:提供一个数据接口,获取hive元数据。获取获取元数据的方式:1直连mysql获取2连接metastore,通过metastore连接mysql

  • 大数据Hadoop之——Hadoop图形化管理系统Hue(Hue环境部署)2022-05-20 22:03:46

    目录一、概述二、Hue架构三、Hue安装1)安装数据源2)安装docker3)通过Docker快速安装3)通过CM安装集成到CDH1、添加服务2、将 Hue 服务添加到 CDH3、自定义角色分配4、数据库设置5、安装完成6、启动hue服务7、创建账户4)官方demo演示四、Hue简单使用1)通过Hue操作HDFS2)通过Hue操作Impala3

  • 大叔经验分享(135)hive开启ldap认证2022-05-20 17:03:20

    hive-site.xml 1 接入ldap或ad域 <property> <name>hive.server2.authentication</name> <value>LDAP</value> </property> <property> <name>hive.server2.authentication.ldap.url</name> <value>ldap

  • 大叔经验分享(133)hive元数据中location修复2022-05-19 16:34:52

    假如hive中table或者partition的location错误或者丢失,需要批量修复,可以参考如下步骤: 修复table的location hdfs dfs -ls /data/hive/warehouse/$db | awk '{print $8}' |sed '1d' | awk -F '/' '{print "alter table "$5"."$7" set locati

  • HIVE初始化失败2022-05-13 00:01:47

    schematool -dbType mysql -initSchema 时报错 检查: 1,mysql已经开启了远程 2.mysql的hive用户和密码正确 解决:配置文件多了一个空格!!!!!!

  • 7.Spark SQL2022-05-11 23:02:00

    ------------恢复内容开始------------ 1.请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。   Shark提供了类似于Hive的功能,与Hive不同的是,Shark把SQL语句转换成Spark作业,而不是MAPreduce作业。为了实现Hive的兼容,Shark重用了Hive中的Hive SQL解析、逻辑执行计划翻译、执

  • 7. Spark SQL2022-05-11 22:03:54

    1.分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 SparkSQL出现的原因   hive是shark的前身,shark是sparkSQL的前身,sparkSQL产生的根本原因是其完全脱离了hive的限制,hive是hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduce的程序复杂性。同时也由

  • 7. Spark SQL2022-05-11 22:03:41

    1. 请分析SparkSQL出现的原因,并简述SparkSQL的起源与发展。 1.1 出现原因   SparkSQL的出现源于shark存在线程安全问题和维护语法补丁问题,所以将SparkSQL拿出独立发展。SparkSQL代码由于摆脱了对Hive的依赖性,SparkSQL无论在数据兼容、性能优化、组件扩展方面都得到了极大的方便

  • hive sql中的四个by2022-05-09 12:33:37

    1.order by col_list:   全局排序,默认为升序asc ,因此只有一个reducer,只有一个reduce task的结果,   比如文件名是000000_0,会导致当输入规模较大时,需要较长的计算时间。   如果指定了hive.mapred.mode=strict(默认值是nonstrict),这时就必须指定limit来限制输出条数,   原

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有