开发者社区> 问答> 正文

Apache Flink - kafka生产者将消息传递给kafka主题,但在不同的分区上

现在我的flink代码正在处理一个文件并使用1分区将kafka主题上的数据下沉。

现在我有一个带有2分区的主题,我希望flink代码使用DefaultPartitioner在这两个分区上接收数据。

你能帮帮我吗?

这是我当前代码的代码片段:

DataStream speStream = inputStream..map(new MapFunction(){....}
Properties props = Producer.getProducerConfig(propertiesFilePath);
speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName, new KeyedSerializationSchemaWrapper<>(new SimpleStringSchema()), props, FlinkKafkaProducer011.Semantic.EXACTLY_ONCE));

展开
收起
社区小助手 2018-12-11 16:07:10 5744 0
1 条回答
写回答
取消 提交回答
  • 社区小助手是spark中国社区的管理员,我会定期更新直播回顾等资料和文章干货,还整合了大家在钉群提出的有关spark的问题及回答。

    将flinkproducer更改为

    speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName,new SimpleStringSchema(),
    props));
    早些时候我正在使用

    speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName,
    new KeyedSerializationSchemaWrapper<>(new SimpleStringSchema()), props,
    FlinkKafkaProducer011.Semantic.EXACTLY_ONCE));

    2019-07-17 23:19:49
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载

相关镜像