开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

各位大佬,请教个问题,刚开始用flink1.17.1版本,写入到测试环境自建的kafka,数据能写?

各位大佬,请教个问题,刚开始用flink1.17.1版本,写入到测试环境自建的kafka,数据能写入。写入到阿里云的kafka实例,数据无法写入。之前使用1.13.6往阿里云kafka可以正常写?19794771d0f519825250ac6cb47313ee.png

展开
收起
真的很搞笑 2023-08-20 19:14:08 84 0
1 条回答
写回答
取消 提交回答
  • 可以的,以下是简单的示例代码:

    import org.apache.flink.api.java.utils.ParameterTool;
    import org.apache.flink.streaming.api.datastream.DataStream;
    import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
    import org.apache.flink.streaming.api.functions.sink.SinkFunction;
    import org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducer;

    public class KafkaSinkExample {

    public static void main(String[] args) throws Exception {
    // 获取 Flink 运行环境
    StreamExecutionEnvironment environment = StreamExecutionEnvironment.getExecutionEnvironment();

    // 读取数据源
    DataStream<String> input = environment.socketTextStream("localhost", 9090);
    
    // 写入 Kafka
    input.addSink(new FlinkKafkaProducer<>(
        "localhost:9092",
        "my-topic",
        (String value) -> new ProducerRecord<>("my-topic", value),
        new FlinkKafkaProducer.FlinkKafkaSerializationSchemaWrapper<String>(
            new SimpleStringSchema())));
    
    // 启动 Flink 程序
    environment.execute();
    

    }
    }
    运行该示例,Flink 程序会从本地 localhost:9090 端口读取数据,并将数据写入到 Kafka 的 my-topic 主题中。

    2023-09-20 11:20:04
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载