开发者社区> 问答> 正文

为什么我的hadoop作业中某些mapTask成功了却还会重跑?

为什么我的hadoop作业中某些mapTask成功了却还会重跑?

展开
收起
封神 2016-04-11 13:29:32 2593 0
1 条回答
写回答
取消 提交回答
  • 专注在大数据分布式计算、数据库及存储领域,拥有13+年大数据引擎、数据仓库、宽表引擎、平台研发经验,6年云智能大数据产品技术一号位经验,10年技术团队管理经验;云智能技术架构/云布道师; 研发阿里历代的大数据技术产品包括ODPS、DLA、ADB,最近五年主导宽表引擎研发、DLA、ADB湖仓研发;

    由于reduce需要从map端复制输出数据, 如果执行该map的nodemanager停止工作, 就会导致reduce无法获取该map的输出, 于是mr appmaster会把这个成功的map标记为失败,重新调度到其他nodemanager上运行。 因为同一个task执行多次的结果是一样的,所以这个问题并不影响作业结果的正确性.

    2019-07-17 18:40:37
    赞同 展开评论 打赏
问答分类:
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
《构建Hadoop生态批流一体的实时数仓》 立即下载
零基础实现hadoop 迁移 MaxCompute 之 数据 立即下载
CIO 指南:如何在SAP软件架构中使用Hadoop 立即下载

相关实验场景

更多