开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink1.14.4 flink消费kafka数据到mysql,我们这边数据一直没有进到mysq

flink1.14.4 flink消费kafka数据到mysql,我们这边数据一直没有进到mysql,任务一停数据才会一起写到mysql。有谁知道这咋回事么?

展开
收起
码字王 2023-01-05 19:38:24 1112 6
5 条回答
写回答
取消 提交回答
  • 滚动播出

    2023-01-12 10:34:40
    赞同 展开评论 打赏
  • 滾动播出

    2023-01-10 20:27:37
    赞同 展开评论 打赏
  • 滚动播出

    2023-01-09 19:16:53
    赞同 展开评论 打赏
  • 你这看着像是 checkpoint 的时候才存储了 加个滚动窗口吧

    此答案来自钉钉群“【2】Apache Flink China 社区"

    2023-01-06 10:02:36
    赞同 展开评论 打赏
  • Flink 将 Kafka 中的数据写入 MySQL 的过程是这样的:Flink 从 Kafka 中消费数据,然后将数据缓存在内存或磁盘中,定时或者达到一定数量时再将数据批量写入 MySQL。

    因此,如果你的 Flink 任务中的数据一直没有写入 MySQL,可能是因为数据缓存在 Flink 中的原因。可以考虑以下解决方案:

    1.调整 Flink 任务的内存或磁盘大小,使其能够缓存更多的数据,以降低写入 MySQL 的频率。

    2.调整 Flink 任务的写入 MySQL 的频率,使其能够更快地将数据写入 MySQL。例如,可以通过设置 Flink 任务的批次大小或触发时间间隔来控制写入 MySQL 的频率。

    3.如果你的 Flink 任务在运行时突然停止,那么可能会导致剩余的数据一次性写入 MySQL。这种情况下,可以考虑使用

    4.checkpointing 功能来保证数据的完整性。checkpointing 可以在 Flink 任务运行时定期将任务状态保存到外部存储,以便在任务停止时恢复任务。

    此外,你还可以检查 MySQL 的连接是否正常,以及 Flink 任务中配置的 MySQL 连接信息是否正确。如果 MySQL 连接有问题,Flink 也无法将数据写入 MySQL。

    最后,你还可以使用 Flink 的日志功能来查看 Flink 任务的运行情况,以便找出问题的根本原因。

    2023-01-05 22:46:48
    赞同 1 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载

    相关镜像