扣丁学堂简述大数据MapReduce理解

2018-04-28 13:15:04 476浏览

        对大数据分析感兴趣的小伙伴你需要了解很多的大数据开发方面的知识与技能,本篇文章扣丁学堂大数据培训小编就给大家分享一下大数据MapReduce理解。



扣丁学堂简述大数据MapReduce理解



        为什么需要MapReduce?因为MapReduce可以分而治之,将计算大数据的复杂任务分解成若干简单小任务。简单的意思是:计算规模变小、就近节点计算数据、并行任务。



        一句话版本:


        输入文件 ->map任务】split --> map --> partition --> sort --> combine(写内存缓冲区) ~~ spill(独立线程写磁盘) --> merge --> map输出结果 ~~~ reduce任务】copy --> merge -->reduce --> 输出文件


        Mmap任务开始并处理分配到的多个split数据。



        Partition


        作用:将map阶段的输出分配给相应的reducerpartition == reducer

        默认是HashPartitioner。之后将输出数据写入内存缓冲区memory buff



        spill:


        当memory buff的数据到达一定阈值时,默认80%,将出发溢写spill,先锁住这80%的内存,将这部分数据写进本地磁盘,保存为一个临时文件。此阶段由单独线程控制,与写memory buff线程同步进行。



        sort & combine


        在spill写文件之前,要对80%的数据(格式)进行排序,先partitionkey,保证每个分区内key有序,如果job设置了combine,则再进行combine操作,将 这样的数据合并成,最终输出一个spill文件。



        多个spill文件通过多路归并排序,再合并成一个文件,这是map阶段的最终输出。同时还有一个索引文件(file.out.index),记录每个partition的起始位置、长度。



        reduce阶段:


        copy:多线程并发从各个mapper上拉属于本reducer的数据块(根据partition),获取后存入内存缓冲区,使用率达到阈值时写入磁盘。



        merge:一直启动,由于不同map的输出文件是没有sort的,因此在写入磁盘前需要merge,知道没有新的map端数据写入。最后启动merge对所有磁盘中的数据归并排序,形成一个最终文件作为reducer输入文件,至此shuffle阶段结束。



        reduce:和combine类似,都是将相同的key合并计算,最终结果写到HDFS上。



         好了,对于大数据MapReduce的理解就先简单说这些,学习大数据不是一朝一夕的事情,对大数据分析感兴趣的小伙伴小编建议你选择专业的大数据培训机构学习,只有跟着专业的老师学才能保证你学到专业实用的技能。



        小编给想要学习大数据分析的小伙伴推荐专业的大数据培训机构扣丁学堂,扣丁学堂不仅有专业的老师和课程,还有大量的大数据视频教程供学员观看学习哦。扣丁学堂大数据学习群:209080834

扣丁学堂微信公众号

关注微信公众号获取更多学习资料



查看更多关于“大数据培训资讯”的相关文章>>

标签: 扣丁学堂简述大数据MapReduce理解 大数据培训 大数据视频教程 大数据在线学习 大数据在线视频 大数据分析教程 大数据基础教程 大数据入门教程 大数据在线学习 大数据云计算

热门专区

暂无热门资讯

课程推荐

微信
微博
15311698296

全国免费咨询热线

邮箱:codingke@1000phone.com

官方群:148715490

北京千锋互联科技有限公司版权所有   北京市海淀区宝盛北里西区28号中关村智诚科创大厦4层
京ICP备12003911号-6   Copyright © 2013 - 2019

京公网安备 11010802030908号