1. Hadoop MapReduce 是一个 分布式计算框架,用于轻松编写分布式应用程序,这些应用程序以可靠,容错的方式并行处理大型硬件集群(数千个节点)上的大量数据(多TB数据集)
2. MapReduce 是一种面向海量数据处理的一种指导思想,也是一种用于对大规模数据进行分布式计算的编程模型。
• MapReduce易于编程: 它简单的实现一些接口,就可以完成一个分布式程序
• 良好的扩展性: 当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
• 高容错性: MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。
• 适合PB级以上海量数据的离线处理: 可以实现上千台服务器集群并发工作,提供数据处理能力。
• 实时计算性能差: MapReduce 主要应用于离线作业,无法做到秒级或者是亚秒级别的数据响应。
• 不能进行流式计算: 流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。
• 不擅长DAG(有向无环图)计算 多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。
一个完整的MapReduce程序在分布式运行时有三类实例进程: (1)MrAppMaster:负责整个程序的过程调度及状态协调。 (2)MapTask:负责Map阶段的整个数据处理流程。 (3)ReduceTask:负责Reduce阶段的整个数据处理流程。
• 用户编写的程序代码分成三个部分: Mapper、Reducer和Driver(客户端提交作业驱动程序)
• 用户自定义的Mapper和Reducer都要继承各自的父类。
Mapper阶段:
1. 用户自定义的Mapper要继承自己的父类
2. Mapper的输入数据是KV对的形式(KV的类型可自定义)
3. Mapper中的业务逻辑写在map()方法中
4. Mapper的输出数据是KV对的形式(KV的类型可自定义)
5. map()方法(MapTask进程)对每一个
Reducer阶段:
1. 用户自定义的Reducer要继承自己的父类
2. Reducer的输入数据类型对应Mapper的输出数据类型,也是KV
3. Reducer的业务逻辑写在reduce()方法中
4. ReduceTask进程对每一组相同k的
Driver: 描述的是提交Job对象需要的各种必要的信息。
MapReduce内置了很多默认属性,比如: 排序(key的字典序)、分组(reduce阶段key相同的为一组,一组调用一次reduce处理)等,这些都和数据的K有关,所以说kv的类型数据确定是及其重要的。
Java类型 |
Hadoop Writable类型 |
Boolean |
BooleanWritable |
Byte |
ByteWritable |
Int |
IntWritable |
Float |
FloatWritable |
Long |
LongWritable |
Double |
DoubleWritable |
String |
Text |
Map |
MapWritable |
Array |
ArrayWritable |
Null |
NullWritable |
网页题目:MapReduce的基础知识
文章起源:http://www.csdahua.cn/qtweb/news1/433251.html
网站建设、网络推广公司-快上网,是专注品牌与效果的网站制作,网络营销seo公司;服务项目有等
声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电话:028-86922220;邮箱:631063699@qq.com。内容未经允许不得转载,或转载时需注明来源: 快上网