开发者社区> 问答> 正文

在spark上运行c ++

我打算使用rdd.pipe()运算符在spark上运行一个c ++程序,以便了解并行运行程序的可能好处。

在终端我运行它像这样:

./program program_mode -t input -i output
在spark driver 我尝试过:

mapDataset.pipe(s"/path/to/program program_mode -t $mapDataset -i /path/to/output"
其中mapDataset是我已成功加载到spark驱动程序中的输入rdd(类型.fasta文件),但这不起作用。一般的问题是程序希望通过标志输入,但是在spark中,输入是在我调用哪个管道的rdd中。

有没有关于如何正确实现此通信的解决方法?

展开
收起
社区小助手 2018-12-12 11:12:28 1998 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    如果你的程序使用流,则更改其行为方式。

    而不是ifstream在命令行上打开文件时,传入stdin您的函数。输出流相同。

    2019-07-17 23:20:02
    赞同 展开评论 打赏
问答分类:
问答标签:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载