[MaxCompute MapReduce实践]通过简单瘦身,解决Dataworks 10M文件限制问题

  1. 云栖社区>
  2. 阿里巴巴大数据 —玩家社区>
  3. 博客>
  4. 正文

[MaxCompute MapReduce实践]通过简单瘦身,解决Dataworks 10M文件限制问题

隐林 2018-08-31 12:30:20 浏览2368
展开阅读全文

用户在DataWorks上执行MapReduce作业的时候,文件大于10M的JAR和资源文件不能上传到Dataworks,导致无法使用调度去定期执行MapReduce作业。


解决方案:

第一步:大于10M的resources通过MaxCompute CLI客户端上传,

客户端下载地址:https://help.aliyun.com/document_detail/27971.html

客户端配置AK、EndPoint:https://help.aliyun.com/document_detail/27804.html


add jar C:\test_mr\test_ab.jar -f;//添加资源,大于10M

第二步:目前通过MaxCompute CLI上传的资源,在Dataworks左侧资源列表是找不到的,只能通过list resourc

网友评论

登录后评论
0/500
评论
隐林
+ 关注