ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

hive 如何调优

2020-05-26 12:06:56  阅读:243  来源: 互联网

标签:map set 文件 mapred reduce hive 如何 调优


  hive 常见调优方法:

  1. 0.11前版本开启MapJoin,之后的版本默认开启

    MapJoin是Hive的一种优化操作,其适用于小表JOIN大表的场景,由于表的JOIN操作是在Map端且在内存进行的,所以其并不需要启动Reduce任务也就不需要经过shuffle阶段,从而能在一定程度上节省资源提高JOIN效率

  2. 行列过滤

    列处理:在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。

    行处理:在分区剪裁中,当使用外关联时,只拿需要的分区,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤。

    //过滤前
     SELECT a.id FROM bigtable a  LEFT JOIN ori b ON a.id = b.id  WHERE b.id <= 10;
     //过滤后
     SELECT a.id FROM ori a  LEFT JOIN bigtable b ON (b.id <= 10 AND a.id = b.id);
  3. 采用分桶技术

  4. 采用分区技术

  5. 合理设置map数

     减少map数:合并小文件

     

    set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
    
     set mapred.max.split.size=100000000;
     set mapred.min.split.size.per.node=100000000;
     set mapred.min.split.size.per.rack=100000000;
     前面三个参数确定合并文件块的大小,大于文件块大小128m的,按照128m来分隔,小于128m,大于100m的,按照100m来分隔,把那些小于100m的(包括小文件和分隔大文件剩下的)进行合并

    增加map数

     set mapred.reduce.tasks=10;
     create table t_1 as 
     select * from t 
     distribute by rand(123); 
     ​
     此时会将a表的记录,随机的分散到包含10个文件的t_1表中,再用t_1代替上面sql中的t表,则会用10个map任务去完成。
     每个map任务处理大于12M(几百万记录)的数据,效率肯定会好很多。

     

  6. 合理设置Reduce数

    reduce个数的设定极大影响任务执行效率,默认如果reduce的输入(map的输出)总大小不超过1G,那么只会有一个reduce任务;用了order by 则永远只有一个reduce

    • 增加

      调整reduce个数方法一: 
       调整hive.exec.reducers.bytes.per.reducer参数的值;
       set hive.exec.reducers.bytes.per.reducer=500000000; (500M)
       select pt,count(1) from table where pt = '2019-01-01' group by pt; 这次有20个reduce
                
       调整reduce个数方法二; 
       set mapred.reduce.tasks = 10;
       select pt,count(1) from table where pt = '2019-01-01' group by pt;这次有10个reduce
    • 减少

       set mapred.reduce.tasks= ;

      启动和初始化reduce也会消耗时间和资源,有多少个reduce,就会有多少个输出文件,如果生成了很多个小文件这些小文件作为下一个任务的输入,则也会出现小文件过多的问题;

       为避免设置无效 要检查是否使用了group by,是否禁用了Order by ,是否有笛卡尔积。

        7.常用参数

  

SET hive.merge.mapfiles = true; -- 默认true,在map-only任务结束时合并小文件
SET hive.merge.mapredfiles = true; -- 默认false,在map-reduce任务结束时合并小文件(比如只有map的任务)
SET hive.merge.size.per.task = 268435456; -- 默认256M
SET hive.merge.smallfiles.avgsize = 16777216; -- 当输出文件的平均大小小于该值时,启动一个独立的map-reduce任务进行文件merge

 

 

标签:map,set,文件,mapred,reduce,hive,如何,调优
来源: https://www.cnblogs.com/successok/p/12964635.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有