开发者社区> 问答> 正文

我的hadoop mapreduce Job有killed tasks,是怎么回事

我的hadoop mapreduce Job有killed tasks,是怎么回事

展开
收起
封神 2016-04-08 19:59:05 3379 0
1 条回答
写回答
取消 提交回答
  • 专注在大数据分布式计算、数据库及存储领域,拥有13+年大数据引擎、数据仓库、宽表引擎、平台研发经验,6年云智能大数据产品技术一号位经验,10年技术团队管理经验;云智能技术架构/云布道师; 研发阿里历代的大数据技术产品包括ODPS、DLA、ADB,最近五年主导宽表引擎研发、DLA、ADB湖仓研发;

    Hadoop有一个推测执行的功能(speculative execution),Hadoop的调度系统会自动判断那些跑的比较慢的task,然后启动另外一个进程执行这些task,也就是一个task会有多个attempt同时执行,执行的慢的attemp会被kill,所以你看到了killed task。默认推测执行是打开的(mapred.map.tasks.speculative.execution和mapred.reduce.tasks.speculative.execution都是true),所以一般job都有killed task。

    另外,根据mapreduce job的特点,同一个task执行多次的结果是一样的,所以task只要有一次执行成功,job就是成功的,被kill的task对job的结果没有影响。

    2019-07-17 18:39:57
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
《构建Hadoop生态批流一体的实时数仓》 立即下载
零基础实现hadoop 迁移 MaxCompute 之 数据 立即下载
CIO 指南:如何在SAP软件架构中使用Hadoop 立即下载

相关实验场景

更多