开发者社区> 问答> 正文

如何缓存spark streaming Dataset <Row>

我有一个sparkDataset,它流式传输csv文件的目录。所以我有这些问题:

如何缓存流数据集。
如何在YARN中提交我的spark流媒体作业,我的流媒体作业应该永远运行,直到用户手动中断。

展开
收起
社区小助手 2018-12-06 15:30:29 2174 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    您可以使用缓存或持久功能缓存流数据,如下所示

    dstream.persist()
    仅在您多次使用流时才执行此操作。对于reducebywindow和reducebyKeyandWindow操作,这是自动完成的。

    在流工作中,为了保持工作正常运行,您需要启动spark流上下文并启动此上下文

    val ssc = new StreamingContext(sc, Seconds(1))
    // your logic goes here
    ssc.start()
    如果您的工作在运行几个小时后被杀死(并且您的群集已经过kerborized),那么请检查kerberos门票是否即将到期。这可能导致长时间运行的作业失败。

    编辑:注意:如果您正在专门讨论结构化流媒体。不支持缓存流数据集。

    2019-07-17 23:18:34
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载