MapReduce执行流程

技术MapReduce执行流程 MapReduce执行流程数据处理总流程
MapReduce计算框架体现的是一个分治的思想。及将待处理的数据分片在每个数据分片上并行运行相同逻辑的map()函数,然后将每

MapReduce执行流程

数据处理总流程

MapReduce计算框架体现的是一个分治的思想。及将待处理的数据分片在每个数据分片上并行运行相同逻辑的地图()函数,然后将每一个数据分片的处理结果汇集到减少()函数进行规约整理,最后输出结果。

总体上来说MapReduce的处理流程从逻辑上看并不复杂。对于应用Hadoop进行数据分析的开发人员来说,只需实现地图()方法和减少()方法就能完成大部分的工作。正是因为Hadoop逻辑上和开发上都不复杂使它被广泛的应用于各行各业。

Map阶段

地图阶段更为详细的处理过程如图所示:

一般情况下用户需要处理分析的数据都在HDFS上。因此,MapReduce计算框架会是使用输入格式(组织。阿帕奇。Hadoop。MapReduce)的子类将输入数据分片(输入脚本).分片后的数据将作为MapTask的输入,地图任务会根据地图()中的程序逻辑将数据分为钾钒合金键值对。

为了更好的理解数据分片的过程和实现的逻辑,本文以输入格式的一个子类文件输入格式为例研究数据分片的过程。

文件输入格式类将数据分片,然而这里所说的分片并不是将数据物理上分成多个数据块而是逻辑分片。

PS:并不是所有文件都可以分片,比如爽快压缩的文件就无法分割。

数据逻辑分片的核心方法是getSplits():

public ListInputSplit getSplits(job context作业)引发IOException()。

ListInputSplit=new ArrayListInputSplit();

列表文件状态文件=列表状态(作业);

对于(文件状态文件:文件){ 0

路径路径=文件。GetPath();

长长度=文件。getlen();

如果(长度!=0) {

块位置[]blkLocations;

LocatedFileStatus的文件实例){ 0

blkLocations=((定位的文件状态)文件)。getBlockLocations();

} else {

文件系统fs=路径。getfile system(作业。get configuration());

blkLocations=fs。获取文件块位置(文件,0,长度);

}

if (isSplitable(作业,路径)){ 0

长块大小=文件。getblocksize();

long splitSize=computeSplitSize(blockSize、minSize、maxSize);

长字节长度=长度;

while(((双)字节剩余)/splitSize SPLIT _ SLOP){ 0

int blkIndex=getBlockIndex(blkLocations,length-bytesRemaining);

splits.add(makeSplit(路径,长度-字节电子邮件,splitSize,

blkLocations[blkIndex].getHosts(),

blkLocations[blkIndex].getCachedHosts()));

bytesRemaining-=splitSize;

}

if (bytesRemaining!=0) {

int blkIndex=getBlockIndex(blkLocations,length-bytesRemaining);

splits.add(makeSplit(路径,长度-字节标记,字节标记,

blkLocations[blkIndex].getHosts()

,
blkLocations[blkIndex].getCachedHosts()));
}
} else { // not splitable
splits.add(makeSplit(path, 0, length, blkLocations[0].getHosts(),
blkLocations[0].getCachedHosts()));
}
} else {
//Create empty hosts array for zero length files
splits.add(makeSplit(path, 0, length, new String[0]));
}
}
。。。。。。
return splits;
}

其流程图如下所示:

getSplits()中的BlockLocation类保存待处理文件的数据块信息,它包含了数据块所在DataNode的hostname,带有缓存副本的数据块所在的节点的hostname,访问数据块所在DataNode的IP:端口号,在拓扑网络中的绝对路径名,数据块在整个数据文件中的偏移量,数据块长度,是否是坏块。getSplits()会依据这些信息创建一个FileSplit完成一个逻辑分片,然后将所有的逻辑分片信息保存到List中。List中的InputSplit包含四个内容,文件的路径,文件开始的位置,文件结束的位置,数据块所在的host。
除了getSplits()方法另一比较重要的算法是computeSplitSize()方法,它负责确定数据分片的大小,数据分片的大小对程序的性能会有一定的影响,最好将数据分片的大小设置的和HDFS中数据分片的大小一致。确定分片大小的算法是:

Math.max(minSize, Math.min(maxSize, blockSize)) 
set mapred.max.split.size=256000000;2.x版本默认约是128M,我们集群配置的是256M 
set mapred.min.split.size=10000000;2.x版本默认是约10M,我们集群配置的是1 
blockSize 在hdfs-site.xml参数dfs.block.size中配置,我们集群设置的是默认的是134217728=128M 
set mapred.map.tasks 对map task数量仅仅是参考的作用,我们集群默认的是2 
对应的是set mapred.reduce.tasks,我们集群默认的是-1 
reducer数量可能起作用的 
hive.exec.reducers.bytes.per.reducer=256000000 
hive.exec.reducers.max=1009 
min( hive.exec.reducers.max ,总输入数据量/hive.exec.reducers.bytes.per.reducer) 

其中,minSize是配置文件中设置的分片最小值,minSize则为最大值,blockSize为HDFS中数据块的大小。
完成逻辑分片后,FileInputFormat的各个子类向MapTask映射k-v键值对(如TextInputFormat)。FileInputFormat的子类是对数据分片中的数据进行处理。

TextInputFormat中createRecorderReader()将InputSplit解析为k-v传给mapTask,该方法中用到了LineRecordReader它继承自RecordReader。

MapTask最终是通过调用nextKeyValue()方法来遍历分片中的数据并且将行数以及每一行的的数据分别作为key和value传递给map()方法。map()方法按照开发工程师编写的逻辑对输入的key和value进行处理后会组成新的k-v对然后写出到一个内存缓冲区中。
每个MapTask都有一个内存缓冲区,对缓冲区读写是典型的生产者消费者模式。这里内存缓冲区的结构设计对MapTask的IO效率有着直接的影响。Hadoop采用了环形内存缓冲区,当缓冲区数据量达到阈值消费者线程SpillThread开始将数据写出,于此同时充当生产者的writer()函数依然可以将处理完的数据写入到缓冲区中。生产者和消费者之间的同步是通过可重入互斥锁spillLock来完成的。
在写磁盘之前,线程会对缓冲区内的数据进行分区,以决定各个数据会传输到哪个Reduce中。而在每个分区中会按key进行排序(如果此时有个Combiner则它会在排序后的输出上运行一次,以压缩传输的数据)

mapred-site.xml 文件中 
mapreduce.task.io .sort.mb=300M 
mapreduce.map.sort.spill.percent 配置的默认只0.8 

用户可以通过继承Partitiner类并且实现getPartitioner()方法,从而定制自己的分区规则。默认的分区规则是通过key的hashCode来完成分区的。
环形缓冲区在达到溢写的阈值后,溢写到磁盘(每次溢写都会新建一个溢写文件)最后合并溢写文件,形成一个分区有序的中间结果。另外可以对中间结果进行压缩,以减少传输的数据量。

Reduce阶段

Reduce阶段更为详细的流程如下图所示:

ReduceTask对数据进行规约的第一步就是从MapTask的输出磁盘上将数据拉取过来。这个过程重点分析shuffle类和Fetcher类。Shuffle类如下图所示:

Shuffle类中的init()方法负责初始化Shuffle阶段需要的上下文,并且在Shuffle的最后阶段调用归并排序方法。Shuffle类的核心方法为run()方法。

public RawKeyValueIterator run() throws IOException, InterruptedException {
	。。。。。。 
	// Start the map-output fetcher threads 
	Boolean isLocal = localMapFiles != null;
	final int numFetchers = isLocal  1 : 
	jobConf.getint(MRJobConfig.SHUFFLE_PARALLEL_COPIES, 5);
	FetcherK,V[] fetchers = new Fetcher[numFetchers];
	if (isLocal) {
		fetchers[0] = new LocalFetcherK, V(jobConf, reduceId, scheduler, 
		merger, reporter, metrics, this, reduceTask.getShuffleSecret(), 
		localMapFiles);
		fetchers[0].start();
	} else {
		for (int i=0; i  numFetchers; ++i) {
			fetchers[i] = new FetcherK,V(jobConf, reduceId, scheduler, merger,  
			reporter, metrics, this,reduceTask.getShuffleSecret());
			fetchers[i].start();
		}
	}
	。。。。。。 
	eventFetcher.shutDown();
	for (FetcherK,V fetcher : fetchers) {
		fetcher.shutDown();
	}
	scheduler.close();
	copyPhase.complete();
	// copy is already complete 
	taskStatus.setPhase(TaskStatus.Phase.SORT);
	reduceTask.statusUpdate(umbilical);
	RawKeyValueIterator kvIter = null;
	。。。。。。 
	return kvIter;
}

在run()方法中它是通过启动fetcher线程来拉取数据的。首先需要判断将要拉取的数据是否具有本地性,如果数据在本地则直接传入文件的地址否则创建fetcher线程来从其他节点远程拉取数据。Fetcher类类图如下:

Fetcher继承自Thread类因此它重写了run()方法并且调用了copyFromHost()方法。copyFromHost()方法首先获取指定host上运行完成的MapTaskID然后循环的从Map段读取数据直到所有的数据都读取完成。

 protected void copyFromHost(MapHost host) throws IOException {
	。。。。。。 
	ListTaskAttemptID maps = scheduler.getMapsForHost(host);
	。。。。。。 
	while (!remaining.isEmpty()  failedTasks == null) {
		try {
			failedTasks = copyMapOutput(host, input, remaining, fetchRetryEnabled);
		}
		catch (IOException e) {
			。。。。。
		}
	}
}

读取数据是在copyMapOutput()方法中完成的,方法中用到了ShufferHeader类它实现了Writable接口从而可以完成序列化与反序列化的工作,它调用readFields()方法从数据流中读取数据。

mapreduce.task.io .sort.factor =25 

读取数据过程中需要注意的是,如果中间结果小则复制到内存缓冲区中否则复制到本地磁盘中。当内存缓冲区达到大小阈值或者文件数阈值则溢写到本地磁盘,与此同时后台线程会不停的合并溢写文件形成大的有序的文件。
在Shuffle-copy阶段进行的同时Shuffle-Sort也在处理数据,这个阶段就是针对内存中的数据和磁盘上的数据进行归并排序。
复制完所有的map输出做循环归并排序合并数据。举个例子更加好理解,若合并因子为10,50个输出文件,则合并5次,最后剩下5个文件不符合合并条件,则将这5个文件交给Reduce处理。
Reduce阶段会接收到已经排完序的k-v对,然后对k-v对进行逻辑处理最后输出结果k-v对到HDFS中.

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/77300.html

(0)

相关推荐

  • Navicat如何生成更新数据库结构同步的数据库

    技术Navicat如何生成更新数据库结构同步的数据库小编给大家分享一下Navicat如何生成更新数据库结构同步的数据库,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让

    攻略 2021年11月23日
  • 怎么使用web设计模式中享元模式

    技术怎么使用web设计模式中享元模式这篇文章主要讲解了“怎么使用web设计模式中享元模式”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么使用web设计模式中享元模式”吧

    攻略 2021年11月14日
  • 怎么用Java设计一个短链接生成系统

    技术怎么用Java设计一个短链接生成系统这篇文章主要讲解了“怎么用Java设计一个短链接生成系统”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Java设计一个短链接

    攻略 2021年12月11日
  • 两台服务器做数据主从备份(读写分离主从同步需要锁吗)

    技术如何用两台服务器实现数据库的主从同步与分离这期内容当中小编将会给大家带来有关如何用两台服务器实现数据库的主从同步与分离,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。使用背景:在网联

    攻略 2021年12月18日
  • QTableWidget添加表头菜单 并 可以通过表头菜单隐藏选中列

    技术QTableWidget添加表头菜单 并 可以通过表头菜单隐藏选中列 QTableWidget添加表头菜单 并 可以通过表头菜单隐藏选中列一、首先需要给QTableWidget安装事件
    二、重新实现

    礼包 2021年10月27日
  • phpmysql数据库可以更新吗(php如何获取mysql更新)

    技术php如何实现mysql更新这篇文章给大家分享的是有关php如何实现mysql更新的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。 php实现mysql更新的方法

    攻略 2021年12月15日