开发者社区> 问答> 正文

在e-mapreduce跑spark streaming,计划1分钟打印一条日志发现没有打印

在e-mapreduce跑spark streaming,1分钟打印一条日志发现没有打印。

展开
收起
封神 2016-04-19 13:47:04 3892 0
1 条回答
写回答
取消 提交回答
  • 专注在大数据分布式计算、数据库及存储领域,拥有13+年大数据引擎、数据仓库、宽表引擎、平台研发经验,6年云智能大数据产品技术一号位经验,10年技术团队管理经验;云智能技术架构/云布道师; 研发阿里历代的大数据技术产品包括ODPS、DLA、ADB,最近五年主导宽表引擎研发、DLA、ADB湖仓研发;

    其实这个问题可能有很多原因,最有可能的原因是:客户的资源配置少了。
    按照此客户为例:
    他申请一个集群,其中一个master,另一个是slave,slave有6core。
    他启动2个executor,每个1core。再job 配置了两个receiver。

    spark streaming会启动一些receiver守护task,占用task的资源,周期性的批处理需要再一些新的task。
    此job就会立即占住2core,随后的周期性的批处理就卡主了(没有资源了)。

    这里只需要 启动2个executor,把每个1core,改成2core就可以了

    2019-07-17 18:44:36
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
PostgresChina2018_赖思超_PostgreSQL10_hash索引的WAL日志修改版final 立即下载
Kubernetes下日志实时采集、存储与计算实践 立即下载
日志数据采集与分析对接 立即下载