YARN和MapReduce的内存优化怎么配置

本篇内容主要讲解“YARN和MapReduce的内存优化怎么配置”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“YARN和MapReduce的内存优化怎么配置”吧!

创新互联建站服务项目包括涧西网站建设、涧西网站制作、涧西网页制作以及涧西网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,涧西网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到涧西省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!

在Hadoop2.x中, YARN负责管理MapReduce中的资源(内存, CPU等)并且将其打包成Container。
使之专注于其擅长的数据处理任务, 将无需考虑资源调度. 如下图所示    
     YARN和MapReduce的内存优化怎么配置    
YARN会管理集群中所有机器的可用计算资源. 基于这些资源YARN会调度应用(比如MapReduce)发来的资源请求, 然后YARN会通过分配Co
ntainer来给每个应用提供处理能力, Container是YARN中处理能力的基本单元, 是对内存, CPU等的封装. 


目前我这里的服务器情况:6台slave,每台:32G内存,2*6核CPU。

由于hadoop 1.x存在JobTracker和TaskTracker,资源管理有它们实现,在执行mapreduce作业时,资源分为map task和reduce task。
所有存在下面两个参数分别设置每个TaskTracker可以运行的任务数:

  • <property>

  •         <name>mapred.tasktracker.map.tasks.maximum</name>

  •         <value>6</value>

  •         <description><![CDATA[CPU数量=服务器CPU总核数 / 每个CPU的核数;服务器CPU总核数 = more /proc/cpuinfo | grep 'processor' | wc -l;每个CPU的核数 = more /proc/cpui nfo | grep 'cpu cores']]></description>

  • </property>

  • <property>

  •         <name>mapred.tasktracker.reduce.tasks.maximum</name>

  •         <value>4</value>

  •         <description>一个task tracker最多可以同时运行的reduce任务数量</description>

  • </property>

但是在hadoop 2.x中,引入了Yarn架构做资源管理,在每个节点上面运行NodeManager负责节点资源的分配,而slot也不再像1.x那样区分Map slot和Reduce slot。在Yarn上面Container是资源的分配的最小单元。

Yarn集群的内存分配配置在yarn-site.xml文件中配置:

  • <property>

  •         <name>yarn.nodemanager.resource.memory-mb</name>

  •         <value>22528</value>

  •         <discription>每个节点可用内存,单位MB</discription>

  •     </property>

  •     

  •     <property>

  •         <name>yarn.scheduler.minimum-allocation-mb</name>

  •         <value>1500</value>

  •         <discription>单个任务可申请最少内存,默认1024MB</discription>

  •     </property>

  •     

  •     <property>

  •         <name>yarn.scheduler.maximum-allocation-mb</name>

  •         <value>16384</value>

  •         <discription>单个任务可申请最大内存,默认8192MB</discription>

  •     </property>


 

由于我Yarn集群还需要跑Spark的任务,而Spark的Worker内存相对需要大些,所以需要调大单个任务的最大内存(默认为8G)。

而Mapreduce的任务的内存配置:

  • <property>

  •         <name>mapreduce.map.memory.mb</name>

  •         <value>1500</value>

  •         <description>每个Map任务的物理内存限制</description>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.reduce.memory.mb</name>

  •         <value>3000</value>

  •         <description>每个Reduce任务的物理内存限制</description>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.map.java.opts</name>

  •         <value>-Xmx1200m</value>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.reduce.java.opts</name>

  •         <value>-Xmx2600m</value>

  •     </property>


mapreduce.map.memory.mb:每个map任务的内存,应该是大于或者等于Container的最小内存。
按照上面的配置:每个slave可以运行map的数据<= 22528/1500,reduce任务的数量<=22528/3000  。

mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts


mapreduce.map.java.opts / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80

在yarn container这种模式下,JVM进程跑在container中,mapreduce.{map|reduce}.java.opts 能够通过Xmx设置JVM最大的heap的使用,
一般设置为0.75倍的memory.mb,

则预留些空间会存储java,scala code等。

到此,相信大家对“YARN和MapReduce的内存优化怎么配置”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

当前标题:YARN和MapReduce的内存优化怎么配置
当前地址:https://www.cdcxhl.com/article38/pppjsp.html

成都网站建设公司_创新互联,为您提供面包屑导航小程序开发品牌网站设计网站导航网站营销微信小程序

广告

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 创新互联

h5响应式网站建设