ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

大数据技术之Hive 第8章 函数 系统内置函数

2022-06-08 03:34:05  阅读:173  来源: 互联网

标签:内置 函数 Hive cost hive 2017 数据 orderdate name


第8章 函数

8.1 系统内置函数

1)查看系统自带的函数

hive> show functions;

2)显示自带的函数的用法

hive> desc function upper;

3)详细显示自带的函数的用法

hive> desc function extended upper;

8.2 常用内置函数

8.2.1 空字段赋值

1)函数说明

NVL:给值为NULL的数据赋值,它的格式是NVL( value,default_value)。它的功能是如果value为NULL,则NVL函数返回default_value的值,否则返回value的值,如果两个参数都为NULL ,则返回NULL。

2)数据准备:采用员工表

3)查询:如果员工的comm为NULL,则用-1代替

hive (default)> select comm,nvl(comm, -1) from emp;

4)查询:如果员工的comm为NULL,则用领导id代替

hive (default)> select comm, nvl(comm,mgr) from emp;

8.2.2 CASE WHEN THEN ELSE END

1)数据准备

name dept_id sex
悟空 A
大海 A
宋宋 B
凤姐 A
婷姐 B
婷婷 B

2)需求

求出不同部门男女各多少人。结果如下:

dept_Id   男    女

A   		2    1

B   		1    2

3)创建本地emp_sex.txt,导入数据

[wolffy@hadoop102 datas]$ vi emp_sex.txt

悟空	A	男

大海	A	男

宋宋	B	男

凤姐	A	女

婷姐	B	女

婷婷	B	女

4)创建hive表并导入数据

create table emp_sex(
name string, 
dept_id string, 
sex string) 
row format delimited fields terminated by "\t";
load data local inpath '/opt/module/hive/datas/emp_sex.txt' into table emp_sex;

5)按需求查询数据

select 
 dept_id,
 sum(case sex when '男' then 1 else 0 end) male_count,
 sum(case sex when '女' then 1 else 0 end) female_count
from 
 emp_sex
group by
 dept_id;

8.2.3 行转列

1)相关函数说明

  • CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字符串;
  • CONCAT_WS(separator, str1, str2,...):它是一个特殊形式的 CONCAT()。第一个参数是剩余参数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接的字符串之间;
注意: CONCAT_WS must be "string or array<string>
  • COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重汇总,产生array类型字段。

2)数据准备

name constellation blood_type
孙悟空 白羊座 A
大海 射手座 A
宋宋 白羊座 B
猪八戒 白羊座 A
凤姐 射手座 A
苍老师 白羊座 B

3)需求

把星座和血型一样的人归类到一起。结果如下:

射手座,A 大海|凤姐

白羊座,A 孙悟空|猪八戒

白羊座,B 宋宋|苍老师

4)创建本地constellation.txt,导入数据

[wolffy@hadoop102 datas]$ vim person_info.txt
孙悟空	白羊座	A

大海	射手座	A

宋宋	白羊座	B

猪八戒	白羊座	A

凤姐	射手座	A

苍老师	白羊座	B

5)创建hive表并导入数据

create table person_info(

name string, 

constellation string, 

blood_type string) 

row format delimited fields terminated by "\t";

load data local inpath "/opt/module/hive/datas/person_info.txt" into table person_info;

6)按需求查询数据

SELECT t1.c_b , CONCAT_WS("|",collect_set(t1.name))
FROM (
SELECT NAME ,CONCAT_WS(',',constellation,blood_type) c_b
FROM person_info
)t1 
GROUP BY t1.c_b

8.2.4 列转行

1)函数说明

EXPLODE(col):将hive一列中复杂的array或者map结构拆分成多行。

LATERAL VIEW

用法:LATERAL VIEW udtf(expression) tableAlias AS columnAlias

解释:用于和split, explode等UDTF一起使用,它能够将一列数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。lateral view首先为原始表的每行调用UDTF,UTDF会把一行拆分成一或者多行,lateral view再把结果组合,产生一个支持别名表的虚拟表。

2)数据准备

表6-7 数据准备

movie category
《疑犯追踪》 悬疑,动作,科幻,剧情
《Lie to me》 悬疑,警匪,动作,心理,剧情
《战狼2》 战争,动作,灾难

3)需求

将电影分类中的数组数据展开。结果如下:

《疑犯追踪》 悬疑

《疑犯追踪》 动作

《疑犯追踪》 科幻

《疑犯追踪》 剧情

《Lie to me》 悬疑

《Lie to me》 警匪

《Lie to me》 动作

《Lie to me》 心理

《Lie to me》 剧情

《战狼2》 战争

《战狼2》 动作

《战狼2》 灾难

4)创建本地movie.txt,导入数据

[wolffy@hadoop102 datas]$ vi movie_info.txt
《疑犯追踪》	悬疑,动作,科幻,剧情
《Lie to me》	悬疑,警匪,动作,心理,剧情
《战狼2》	战争,动作,灾难

5)创建hive表并导入数据

create table movie_info(
  movie string, 
  category string) 
row format delimited fields terminated by "\t";
load data local inpath "/opt/module/hive/datas/movie_info.txt" into table movie_info;

6)按需求查询数据

SELECT movie,category_name 
FROM movie_info 
lateral VIEW
explode(split(category,",")) movie_info_tmp  AS category_name ;

8.2.5 窗口函数(开窗函数)

1)相关函数说明

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的改变而变化。

场景:分组排序,如取某年级每个班学习成绩排名前10的学生。分组聚合

CURRENT ROW:当前行

n PRECEDING:往前n行数据

n FOLLOWING:往后n行数据

UNBOUNDED:起点,

​ UNBOUNDED PRECEDING 表示从前面的起点,

UNBOUNDED FOLLOWING表示到后面的终点

LAG(col,n,default_val):往前第n行数据

LEAD(col,n, default_val):往后第n行数据

NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从1开始,对于每一行,NTILE返回此行所属的组的编号。注意:n必须为int类型。

比如说:

ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW(表示从窗口起点到当前行)

ROWS BETWEEN 2 PRECEDING AND 1 FOLLOWING(表示往前2行到往后1行)

ROWS BETWEEN 2 PRECEDING AND 1 CURRENT ROW(表示往前2行到当前行)

ROWS BETWEEN CURRENT ROW AND UNBOUNDED FOLLOWING(表示当前行到终点)

2)数据准备:name,orderdate,cost

jack,2017-01-01,10

tony,2017-01-02,15

jack,2017-02-03,23

tony,2017-01-04,29

jack,2017-01-05,46

jack,2017-04-06,42

tony,2017-01-07,50

jack,2017-01-08,55

mart,2017-04-08,62

mart,2017-04-09,68

neil,2017-05-10,12

mart,2017-04-11,75

neil,2017-06-12,80

mart,2017-04-13,94

3)需求

(1)查询在2017年4月份购买过的顾客及总人数

(2)查询顾客的购买明细及月购买总额

(3)上述的场景, 将每个顾客的cost按照日期进行累加

(4)查询每个顾客上次的购买时间

(5)查询前20%时间的订单信息

4)创建本地business.txt,导入数据

[wolffy@hadoop102 datas]$ vi business.txt

5)创建hive表并导入数据

create table business(

name string, 

orderdate string,

cost int

) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

load data local inpath "/opt/module/hive/datas/business.txt" into table business;

6)按需求查询数据

(1) 查询在2017年4月份购买过的顾客及总人数

select name,count(*) over () 

from business 

where substring(orderdate,1,7) = '2017-04' 

group by name;

(2) 查询顾客的购买明细及月购买总额

select name,orderdate,cost,sum(cost) over(partition by month(orderdate)) from

business;

(3) 将每个顾客的cost按照日期进行累加

select name,orderdate,cost, 

sum(cost) over() as sample1,--所有行相加 

sum(cost) over(partition by name) as sample2,--按name分组,组内数据相加 

sum(cost) over(partition by name order by orderdate) as sample3,--按name分组,组内数据累加 

sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,--和sample3一样,由起点到当前行的聚合 

sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5, --当前行和前面一行做聚合 

sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,--当前行和前边一行及后面一行 

sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 --当前行及后面所有行 

from business;

rows必须跟在Order by 子句之后,对排序的结果进行限制,使用固定的行数来限制分区中的数据行数量

(4) 查看顾客上次的购买时间

select name,orderdate,cost, 

lag(orderdate,1,'1900-01-01') over(partition by name order by orderdate ) as time1, lag(orderdate,2) over (partition by name order by orderdate) as time2 

from business;

(5) 查询前20%时间的订单信息

select * from (

  select name,orderdate,cost, ntile(5) over(order by orderdate) sorted

  from business

) t

where sorted = 1;

8.2.6 Rank

1)函数说明

RANK() 排序相同时会重复,总数不会变

DENSE_RANK() 排序相同时会重复,总数会减少

ROW_NUMBER() 会根据顺序计算

2)数据准备

name subject score
孙悟空 语文 87
孙悟空 数学 95
孙悟空 英语 68
大海 语文 94
大海 数学 56
大海 英语 84
宋宋 语文 64
宋宋 数学 86
宋宋 英语 84
婷婷 语文 65
婷婷 数学 85
婷婷 英语 78

3)需求

计算每门学科成绩排名。

4)创建本地score.txt,导入数据

[wolffy@hadoop102 datas]$ vi score.txt

5)创建hive表并导入数据

create table score(

name string,

subject string, 

score int) 

row format delimited fields terminated by "\t";

load data local inpath '/opt/module/hive/datas/score.txt' into table score;

6)按需求查询数据

select name,
subject,
score,
rank() over(partition by subject order by score desc) rp,
dense_rank() over(partition by subject order by score desc) drp,
row_number() over(partition by subject order by score desc) rmp
from score;
name   subject score  rp    drp   rmp
孙悟空  数学   95    1    1    1
宋宋   数学   86    2    2    2
婷婷   数学   85    3    3    3
大海   数学   56    4    4    4
宋宋   英语   84    1    1    1
大海   英语   84    1    1    2
婷婷   英语   78    3    2    3
孙悟空  英语   68    4    3    4
大海   语文   94    1    1    1
孙悟空  语文   87    2    2    2
婷婷   语文   65    3    3    3
宋宋   语文   64    4    4    4

扩展:求出每门学科前三名的学生?

8.2.7 其他常用函数

常用日期函数
unix_timestamp:返回当前或指定时间的时间戳
select unix_timestamp();
15913307853
from_unixtime:将时间戳转为日期格式
select from_unixtime(15913307853);
current_date:当前日期
select current_date();
current_timestamp:当前的日期加时间
SELECT current_timestamp();
to_date:抽取日期部分

year:获取年
month:获取月
day:获取日
hour:获取时
minute:获取分
second:获取秒
weekofyear:当前时间是一年中的第几周
dayofmonth:当前时间是一个月中的第几天
months_between: 两个日期间的月份
add_months:日期加减月
select add_months('2020-11-02',1);

datediff:两个日期相差的天数

date_add:日期加天数
date_sub:日期减天数
last_day:日期的当月的最后一天
date_format();格式化日期

常用取整函数
round: 四舍五入
ceil: 向上取整
floor: 向下取整

常用字符串操作函数
upper: 转大写
lower: 转小写
length: 长度
trim: 前后去空格
lpad: 向左补齐,到指定长度
rpad: 向右补齐,到指定长度
regexp_replace: SELECT regexp_replace('100-200', '(\d+)', 'num') ;
使用正则表达式匹配目标字符串,匹配成功后替换!

集合操作
size: 集合中元素的个数
map_keys: 返回map中的key
map_values: 返回map中的value
array_contains: 判断array中是否包含某个元素
sort_array: 将array中的元素排序

IT学习网站

牛牛IT网站

大数据高薪训练营 完结

搜狗截图20220608012235

链接:https://pan.baidu.com/s/1ssRD-BYOiiMw30EV_BLMWQ
提取码:dghu
失效加V:x923713

QQ交流群 欢迎加入

WechatIMG135

标签:内置,函数,Hive,cost,hive,2017,数据,orderdate,name
来源: https://www.cnblogs.com/niuniu2022/p/16354078.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有