开发者社区> 问答> 正文

有什么方法可以解决Hadoop MapReduce和早期Spark在shuffle过程中的问题?

有什么方法可以解决Hadoop MapReduce和早期Spark在shuffle过程中的问题?

展开
收起
游客fbdr25iajcjto 2021-12-06 21:21:24 732 0
1 条回答
写回答
取消 提交回答
  • 1) 将map任务给每个partition的reduce任务输出的bucket合并到同一个文件中,这解决了bucket数量很多,但是本身数据体积不大时,造成shuffle很频繁,磁盘I/O成为性能瓶颈的问题;

    2) map任务逐条输出计算结果,而不是一次性输出到内存,并使用AppendOnlyMap缓存及其聚合算法对中间结果进行聚合,这大大减小了中间结果所占的内存大小;

    3) 对SizeTrackingAppendOnlyMap和SizeTrackingPairBuffer等缓存进行溢出判断,当超出myMemoryThreshold的大小时,将数据写入磁盘,防止内存溢出;

    4) reduce任务对拉取到的map任务中间结果逐条读取,而不是一次性读入内存,并在内存中进行聚合和排序(其本质上也使用了AppendOnlyMap缓存),这也大大减小了数据占用的内存;

    5) reduce任务将要拉取的Block按照BlockManager地址划分,然后将同一BlockMananger地址中的Block累积为少量网络请求,减少网络I/O。

    2021-12-06 21:40:37
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
《构建Hadoop生态批流一体的实时数仓》 立即下载
零基础实现hadoop 迁移 MaxCompute 之 数据 立即下载
CIO 指南:如何在SAP软件架构中使用Hadoop 立即下载

相关实验场景

更多