开发者社区> 问答> 正文

根据值将RDD拆分为多个RDD而不执行`collect()`和`filter()`[duplicate]

我想基于行中的值将RDD拆分为多个RDD。行中的值是预先知道的并且本质上是固定的。

例如

source_rdd = sc.parallelize([('a',1),('a',2),('a',3),('b',4),('b',5),('b',6)])
应该分成两个RDD,一个只a包含一个,另一个只包含b作为键

我已经尝试过groupByKey方法,并且能够在collect()对分组RDD 执行操作后成功完成,由于内存限制,我无法在生产中执行此操作
a_rdd, b_rdd = source_rdd.keyBy(lambda row: row[0]).groupByKey().collect()
当前的实现是应用多个过滤操作来获得每个RDD
a_rdd = source_rdd.filter(lambda row: row[0] == 'a')
b_rdd = source_rdd.filter(lambda row: row[0] == 'b')
这可以进一步优化,在生产中使用不适合内存的数据的最佳方法是什么?

用法:这些RDD将被转换为不同的数据帧(每个键一个),每个数据帧具有不同的模式,并作为输出存储在S3中。

展开
收起
社区小助手 2018-12-06 15:27:45 6057 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    你也可以用toDF。Aslo,a_rdd并且b_rdd不在rdd您的代码中,因为它们被收集!

    df = source_rdd.keyBy(lambda row: row[0]).groupByKey()
    a_rdd = df.filter(lambda row: row[0] == 'a')
    b_rdd = df.filter(lambda row: row[0] == 'b')

    2019-07-17 23:18:33
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Lazy-Join Optimizations withou 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载