乐趣区

关于后端:MapReduce的基础知识

1、什么是 MapReduce

  1. Hadoop MapReduce 是一个 分布式计算框架,用于轻松编写分布式应用程序,这些应用程序以牢靠,容错的形式并行处理大型硬件集群(数千个节点)上的大量数据(多 TB 数据集)
  2. MapReduce 是一种 面向海量数据 解决的一种指导思想,也是一种用于对大规模数据进行分布式计算的编程模型。

2、Map Reduce 的优缺点

2.1 长处

  • MapReduce 易于编程: 它简略的实现一些接口,就能够实现一个分布式程序
  • 良好的扩展性: 当你的计算资源不能失去满足的时候,你能够通过简略的减少机器来扩大它的计算能力。
  • 高容错性: MapReduce 设计的初衷就是使程序可能部署在便宜的 PC 机器上,这就要求它具备很高的容错性。比方其中一台机器挂了,它能够把下面的计算工作转移到另外一个节点上运行,不至于这个工作运行失败,而且这个过程不须要人工参加,而齐全是由 Hadoop 外部实现的。
  • 适宜 PB 级以上海量数据的离线解决: 能够实现上千台服务器集群并发工作,提供数据处理能力。

    2.2 毛病

  • 实时计算性能差: MapReduce 次要利用于离线作业,无奈做到秒级或者是亚秒级别的数据响应。
  • 不能进行流式计算: 流式计算的输出数据是动静的,而 MapReduce 的输出数据集是动态的,不能动态变化。这是因为 MapReduce 本身的设计特点决定了数据源必须是动态的。
  • 不善于 DAG(有向无环图)计算
    多个应用程序存在依赖关系,后一个应用程序的输出为前一个的输入。在这种状况下,MapReduce 并不是不能做,而是应用后,每个 MapReduce 作业的输入后果都会写入到磁盘,会造成大量的磁盘 IO,导致性能十分的低下。

3、MapReduce 过程

一个残缺的 MapReduce 程序在分布式运行时有三类实例过程:
(1)MrAppMaster:负责整个程序的过程调度及状态协调。
(2)MapTask:负责 Map 阶段的整个数据处理流程。
(3)ReduceTask:负责 Reduce 阶段的整个数据处理流程。

4、MapReduce 编程标准

  • 用户编写的程序代码分成三个局部:Mapper、Reducer 和 Driver(客户端提交作业驱动程序)
  • 用户自定义的 Mapper 和 Reducer 都要继承各自的父类。

Mapper 阶段

  1. 用户自定义的 Mapper 要继承本人的父类
  2. Mapper 的输出数据是 KV 对的模式(KV 的类型可自定义)
  3. Mapper 中的业务逻辑写在 map()办法中
  4. Mapper 的输入数据是 KV 对的模式(KV 的类型可自定义)
  5. map()办法(MapTask 过程)对每一个 <K,V> 调用一次

Reducer 阶段

  1. 用户自定义的 Reducer 要继承本人的父类
  2. Reducer 的输出数据类型对应 Mapper 的输入数据类型,也是 KV
  3. Reducer 的业务逻辑写在 reduce()办法中
  4. ReduceTask 过程对每一组雷同 k 的 <k,v> 组调用一次 reduce()办法

Driver:形容的是提交 Job 对象须要的各种必要的信息。

MapReduce 内置了很多默认属性,比方:排序(key 的字典序 )、分组(reduce 阶段 key 雷同的为一组,一组调用一次 reduce 解决) 等,这些都和数据的 K 无关,所以说 kv 的类型数据确定是及其重要的。

5、罕用数据序列化类型

Java 类型 Hadoop Writable 类型
Boolean BooleanWritable
Byte ByteWritable
Int IntWritable
Float FloatWritable
Long LongWritable
Double DoubleWritable
String Text
Map MapWritable
Array ArrayWritable
Null NullWritable
退出移动版