ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Hadoop部分参数调优

2021-11-28 12:02:13  阅读:170  来源: 互联网

标签:vcores resource Hadoop yarn mapreduce 调优 参数 memory nodemanager


企业开发场景案例 需求: 从1G数据中,统计每个单词出现次数。服务器3台,每台配置4G内存,4核CPU,4线程。 需求分析: 1G / 128m = 8个MapTask;1个ReduceTask;1个mrAppMaster 平均每个节点运行10个 / 3台≈ 3个任务(4 3 3)

HDFS参数调优

修改:hadoop-env.sh
​
export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS -Xmx1024m" 
export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS -Xmx1024m"
修改hdfs-site.xml
​
<!-- NameNode有一个工作线程池,默认值是10 -->
<property>   
    <name>dfs.namenode.handler.count</name>   
    <value>21</value>
</property>
修改core-site.xml
​
<!-- 配置垃圾回收时间为60分钟 -->
<property>   
    <name>fs.trash.interval</name>   
    <value>60</value>
</property>

MapReduce参数调优

修改mapred-site.xml
<!-- 环形缓冲区大小,默认100m -->
<property> 
    <name>mapreduce.task.io.sort.mb</name> 
    <value>100</value>
</property> 
<!-- 环形缓冲区溢写阈值,默认0.8 -->
<property> 
    <name>mapreduce.map.sort.spill.percent</name> 
    <value>0.80</value>
</property> 
<!-- merge合并次数,默认10个 -->
<property> 
    <name>mapreduce.task.io.sort.factor</name> 
    <value>10</value>
</property> 
<!-- maptask内存,默认1g;maptask堆内存大小默认和该值大小一致mapreduce.map.java.opts -->
<property> 
    <name>mapreduce.map.memory.mb</name> 
    <value>-1</value> 
    <description>The amount of memory to request from the schedulerfor each map task. 
    If this is notspecified or is non-positive, 
    it is inferred from mapreduce.map.java.opts andmapreduce.job.heap.memory-mb.ratio. 
    If java-opts are also not specified, we setit to 1024. 
    </description>
</property> 
<!-- matask的CPU核数,默认1个 -->
<property> 
    <name>mapreduce.map.cpu.vcores</name> 
    <value>1</value>
</property> 
<!-- matask异常重试次数,默认4次 --><property> 
    <name>mapreduce.map.maxattempts</name> 
    <value>4</value>
</property> 
<!-- 每个Reduce去Map中拉取数据的并行数。默认值是5 -->
<property> 
    <name>mapreduce.reduce.shuffle.parallelcopies</name> 
    <value>5</value>
</property> 
<!-- Buffer大小占Reduce可用内存的比例,默认值0.7 -->
<property> 
    <name>mapreduce.reduce.shuffle.input.buffer.percent</name>
    <value>0.70</value>
</property> 
<!-- Buffer中的数据达到多少比例开始写入磁盘,默认值0.66。-->
<property> 
    <name>mapreduce.reduce.shuffle.merge.percent</name>
    <value>0.66</value>
</property> 
<!-- reducetask内存,默认1g;reducetask堆内存大小默认和该值大小一致mapreduce.reduce.java.opts -->
<property> 
    <name>mapreduce.reduce.memory.mb</name> 
    <value>-1</value> 
    <description>The amount of memory to request from the schedulerfor each reduce task. 
    If this is notspecified or is non-positive, 
    it is inferred from mapreduce.reduce.java.opts and mapreduce.job.heap.memory-mb.ratio.
    If java-opts arealso not specified, we set it to 1024. 
    </description>
</property> 
<!-- reducetask的CPU核数,默认1个 -->
<property> 
    <name>mapreduce.reduce.cpu.vcores</name> 
    <value>2</value>
</property> 
<!-- reducetask失败重试次数,默认4次 -->
<property> 
    <name>mapreduce.reduce.maxattempts</name> 
    <value>4</value>
</property> 
<!-- 当MapTask完成的比例达到该值后才会为ReduceTask申请资源。默认是0.05 -->
<property> 
    <name>mapreduce.job.reduce.slowstart.completedmaps</name>
    <value>0.05</value>
</property> 
<!-- 如果程序在规定的默认10分钟内没有读到数据,将强制超时退出 -->
<property> 
    <name>mapreduce.task.timeout</name>
    <value>600000</value>
</property>

Yarn参数调优

修改yarn-site.xml配置参数如下:
​
<!-- 选择调度器,默认容量 -->
<property>   
    <description>Theclass to use as the resource scheduler.</description>  
    <name>yarn.resourcemanager.scheduler.class</name>
    <value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property> 
<!-- ResourceManager处理调度器请求的线程数量,默认50;如果提交的任务数大于50,可以增加该值,但是不能超过3台 * 4线程 = 12线程(去除其他应用程序实际不能超过8) -->
<property>   
    <description>Numberof threads to handle scheduler interface.</description>    
    <name>yarn.resourcemanager.scheduler.client.thread-count</name>    
    <value>8</value>
</property> 
<!-- 是否让yarn自动检测硬件进行配置,默认是false,如果该节点有很多其他应用程序,建议手动配置。如果该节点没有其他应用程序,可以采用自动 -->
<property> 
    <description>Enableauto-detection of node capabilities such as memoryand CPU.</description> 
    <name>yarn.nodemanager.resource.detect-hardware-capabilities</name>
    <value>false</value>
</property>
<!-- 是否将虚拟核数当作CPU核数,默认是false,采用物理CPU核数 -->
<property> 
    <description>Flagto determine if logical processors(such as hyperthreads)should be counted as cores. 
    Only applicableon Linux whenyarn.nodemanager.resource.cpu vcores is set to -1
    and yarn.nodemanager.resource.detect-hardware capabilitiesis true.    
    </description>    
    <name>yarn.nodemanager.resource.count-logical-processors-as-cores</name>
    <value>false</value>
</property>
<!-- 虚拟核数和物理核数乘数,默认是1.0 -->
<property>
    <description>Multiplierto determine how to convert phyiscal cores to vcores.
    This value is used if yarn.nodemanager.resource.cpu-vcores isset to -1(which implies 
    auto calculate vcores) 
    and yarn.nodemanager.resource.detect-hardware-capabilitiesis set to true. 
    Thenumber of vcores willbe calculated asnumber of CPUs *multiplier. 
    </description>
    <name>yarn.nodemanager.resource.pcores-vcores-multiplier</name>
    <value>1.0</value>
</property>
<!-- NodeManager使用内存数,默认8G,修改为4G内存 -->
<property>
    <description>Amountof physical memory,in MB,that can be allocated forcontainers. 
    If set to -1 and yarn.nodemanager.resource.detect-hardware-capabilitiesis true,
    it is automaticallycalculated(in case of Windows and Linux).
    In other cases, thedefault is 8192MB.
    </description>   
    <name>yarn.nodemanager.resource.memory-mb</name> 
    <value>4096</value>
</property>
<!-- nodemanager的CPU核数,不按照硬件环境自动设定时默认是8个,修改为4个 -->
<property>  
    <description>Numberof vcores that can be allocated forcontainers.
    This is used by the RM scheduler when allocating resourcesfor containers.
    This is not used to limit the number of CPUsused by YARN containers.
    If it isset to -1 and yarn.nodemanager.resource.detect-hardware-capabilitiesis true,
    it is automatically determinedfrom the hardware in case of Windows and Linux.
    Inother cases,number of vcores is 8 by default.
    </description>
    <name>yarn.nodemanager.resource.cpu-vcores</name>
    <value>4</value></property>
<!-- 容器最小内存,默认1G -->
<property>
    <description>Theminimum allocation for every container request at the RM  in MBs.
    Memory requests lower than this will be set to the value ofthis property.
    Additionally, a nodemanager that is configured to have less memorythanthis value 
    will be shut down by the resource manager.
    </description>
    <name>yarn.scheduler.minimum-allocation-mb</name>
    <value>1024</value>
</property>
<!-- 容器最大内存,默认8G,修改为2G -->
<property>
    <description>Themaximum allocation for every container request at the RM in MBs.
    Memory requests higher than this will throw an InvalidResourceRequestException.
    </description>  
    <name>yarn.scheduler.maximum-allocation-mb</name>  
    <value>2048</value>
</property> 
<!-- 容器最小CPU核数,默认1个 -->
<property>  
    <description>Theminimum allocation for every container request at the RM in terms of virtual CPU cores.
    Requests lower than this will be setto thevalue of this property.Additionally,
    a node manager that is configured to have fewer virtual cores than this value
    will be shut down by theresource manager.
    </description>
    <name>yarn.scheduler.minimum-allocation-vcores</name>
    <value>1</value>
</property>
<!-- 容器最大CPU核数,默认4个,修改为2个 -->
<property>
    <description>Themaximum allocation for every container request at the RM in terms of virtual CPU cores.
    Requests higher than this will throwan InvalidResourceRequestException.
    </description>
    <name>yarn.scheduler.maximum-allocation-vcores</name>
    <value>2</value>
</property>
<!-- 虚拟内存检查,默认打开,修改为关闭 -->
<property>
    <description>Whethervirtual memory limits will be enforced for containers.</description>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>
<!-- 虚拟内存和物理内存设置比例,默认2.1 -->
<property>
    <description>Ratiobetween virtual memory to physical memory when settingmemory limits for containers.
    Container allocations are expressed in terms of physical memory,
    and virtual memory usage is allowed to exceed this allocation by thisratio.
    </description> 
    <name>yarn.nodemanager.vmem-pmem-ratio</name>  
    <value>2.1</value>
</property>

标签:vcores,resource,Hadoop,yarn,mapreduce,调优,参数,memory,nodemanager
来源: https://blog.csdn.net/m0_60073082/article/details/121589038

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有