在e-mapreduce跑spark streaming,1分钟打印一条日志发现没有打印。
其实这个问题可能有很多原因,最有可能的原因是:客户的资源配置少了。
按照此客户为例:
他申请一个集群,其中一个master,另一个是slave,slave有6core。
他启动2个executor,每个1core。再job 配置了两个receiver。
spark streaming会启动一些receiver守护task,占用task的资源,周期性的批处理需要再一些新的task。
此job就会立即占住2core,随后的周期性的批处理就卡主了(没有资源了)。
这里只需要 启动2个executor,把每个1core,改成2core就可以了
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。