实时计算 Flink版操作报错合集之如何通过savepoint恢复Flink CDC任务

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
简介: 在使用实时计算Flink版过程中,可能会遇到各种错误,了解这些错误的原因及解决方法对于高效排错至关重要。针对具体问题,查看Flink的日志是关键,它们通常会提供更详细的错误信息和堆栈跟踪,有助于定位问题。此外,Flink社区文档和官方论坛也是寻求帮助的好去处。以下是一些常见的操作报错及其可能的原因与解决策略。

问题一:Flink CDC我使用cdc从oracle同步数据到doris,数据全部加载到内存后,报错怎么办?

Flink CDC里我使用cdc从oracle同步数据到doris,这边将数据全部加载到内存后,报错如下:2024-01-09 15:11:00,825 WARN org.apache.flink.runtime.taskmanager.Task [] - Sink sink-doris.testdb.COMPINTRODUCTION (1/1)#0 (c91bf92bf11229d32044a8499c550254) switched from RUNNING to FAILED with failure cause: java.io.IOException: Could not perform checkpoint 1 for operator Sink sink-doris.testdb.COMPINTRODUCTION (1/1)#0.

at org.apache.flink.streaming.runtime.tasks.StreamTask.triggerCheckpointOnBarrier(StreamTask.java:1274)

at org.apache.flink.streaming.runtime.io.checkpointing.CheckpointBarrierHandler.notifyCheckpoint(CheckpointBarrierHandler.java:147)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler.triggerCheckpoint(SingleCheckpointBarrierHandler.java:287)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler.access$100(SingleCheckpointBarrierHandler.java:64)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler$ControllerImpl.triggerGlobalCheckpoint(SingleCheckpointBarrierHandler.java:493)

at org.apache.flink.streaming.runtime.io.checkpointing.AbstractAlignedBarrierHandlerState.triggerGlobalCheckpoint(AbstractAlignedBarrierHandlerState.java:74)

at org.apache.flink.streaming.runtime.io.checkpointing.AbstractAlignedBarrierHandlerState.barrierReceived(AbstractAlignedBarrierHandlerState.java:66)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler.lambda$processBarrier$2(SingleCheckpointBarrierHandler.java:234)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler.markCheckpointAlignedAndTransformState(SingleCheckpointBarrierHandler.java:262)

at org.apache.flink.streaming.runtime.io.checkpointing.SingleCheckpointBarrierHandler.processBarrier(SingleCheckpointBarrierHandler.java:231)

at org.apache.flink.streaming.runtime.io.checkpointing.CheckpointedInputGate.handleEvent(CheckpointedInputGate.java:181)

at org.apache.flink.streaming.runtime.io.checkpointing.CheckpointedInputGate.pollNext(CheckpointedInputGate.java:159)

at org.apache.flink.streaming.runtime.io.AbstractStreamTaskNetworkInput.emitNext(AbstractStreamTaskNetworkInput.java:110)

at org.apache.flink.streaming.runtime.io.StreamOneInputProcessor.processInput(StreamOneInputProcessor.java:65)

at org.apache.flink.streaming.runtime.tasks.StreamTask.processInput(StreamTask.java:496)

at org.apache.flink.streaming.runtime.tasks.mailbox.MailboxProcessor.runMailboxLoop(MailboxProcessor.java:203)

at org.apache.flink.streaming.runtime.tasks.StreamTask.runMailboxLoop(StreamTask.java:809)

at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:761)

at org.apache.flink.runtime.taskmanager.Task.runWithSystemExitMonitoring(Task.java:958)

at org.apache.flink.runtime.taskmanager.Task.restoreAndInvoke(Task.java:937)

at org.apache.flink.runtime.taskmanager.Task.doRun(Task.java:766)

at org.apache.flink.runtime.taskmanager.Task.run(Task.java:575)

at java.lang.Thread.run(Thread.java:748)

Caused by: org.apache.doris.flink.exception.DorisRuntimeException: stream load error: cancelled: Cancelled, see more in null,要怎么解决?



参考答案:

这个错误是由于Flink CDC在执行checkpoint时出现了问题。你可以尝试以下方法来解决这个问题:

  1. 增加checkpoint的超时时间。在Flink配置文件中,找到taskmanager.network.memory.mintaskmanager.network.memory.max这两个参数,将它们设置为更大的值,例如:
taskmanager.network.memory.min: 64mb
taskmanager.network.memory.max: 256mb
  1. 增加checkpoint的频率。在Flink配置文件中,找到execution.checkpointing.interval参数,将其设置为一个较大的值,例如:
execution.checkpointing.interval: 5000ms
  1. 检查Doris集群的状态,确保它正常运行并且没有负载过高的情况。如果Doris集群出现问题,可能会导致Flink CDC无法正常执行checkpoint。
  2. 如果问题仍然存在,可以尝试重启Flink和Doris集群,以清除可能的临时问题。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/590819



问题二:Flink CDC里flink source 运行一段时间 报这个错误 怎么解决?

Flink CDC里flink source 运行一段时间 报这个错误 The Source Context has been closed already 怎么解决?



参考答案:

这个错误提示表明Flink CDC的Source Context已经被关闭。要解决这个问题,你可以尝试以下步骤:

  1. 检查Flink CDC的配置:确保Flink CDC的配置正确,并且与Debezium引擎和数据库之间的连接设置一致。检查配置文件中的数据库连接信息、Debezium引擎配置等是否正确。
  2. 检查网络连接:确保Flink CDC和Debezium引擎之间的网络连接正常。检查防火墙设置、网络路由等是否允许通信。
  3. 重启Flink CDC:尝试重新启动Flink CDC,以确保所有组件都处于正确的状态。
  4. 检查Debezium引擎的状态:确保Debezium引擎正在运行并且没有遇到任何错误。你可以查看Debezium引擎的日志文件以获取更多信息。
  5. 检查数据库状态:确保数据库处于正常状态,并且没有任何错误或异常情况。检查数据库的日志文件以获取更多信息。

如果以上步骤都没有解决问题,你可能需要进一步调查和调试,以确定具体的原因并采取适当的措施来解决该问题。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/590817



问题三:在使用Flink CDC时,除了指定savepoint路径外,恢复任务还需要提供哪些信息?

在使用Flink CDC时,除了指定savepoint路径外,恢复任务还需要提供哪些信息?当尝试通过手动保存的savepoint(路径为/data/bigdata/flksavepoint/savepoint-8bf7c8-d01d1e73c7c2)恢复Flink CDC从MySQL到StarRocks的任务时,在sql-client端提交作业时报错,请问如何解读这些错误信息?



参考答案:

现在只能先在 flink-conf 里设置 execution.savepoint.path 指定 savepoint 路径解决。在conf/flink-conf.yaml 后面加上 execution.savepoint.path: /flink-1.18.0/savepoint/savepoint-98578e-2e3d6f4f9f86 指定。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/590816



问题四:Flink CDC里这个问题是什么?

Flink CDC里这个问题是什么?Caused by: com.github.shyiko.mysql.binlog.event.deserialization.EventDataDeserializationException: Failed to deserialize data of EventHeaderV4{timestamp=1704770282000, eventType=ROWS_QUERY, serverId=70181, headerLength=19, dataLength=1788, nextPosition=385937391, flags=128}这个bug在2.3.0版本修复了是么?



参考答案:

这个问题是由于Flink CDC在处理MySQL binlog事件时,遇到了反序列化错误。具体来说,是在尝试反序列化EventHeaderV4对象时出现了问题。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/590815



问题五:Flink CDC里为什么通过maven打包之后一直报这个异常?

我是一个dotnet程序员,近期因为项目需要刚刚上手了java和FlinkCDC,我的代码写完了在idea中能够正常运行,但是不知道为什么通过maven打包之后一直报这个异常? Exception in thread "main" java.lang.reflect.InaccessibleObjectException: Unable to make field private static final long java.util.Properties.serialVersionUID accessible: module java.base does not "opens java.util" to unnamed module @6a396c1e

<plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-shade-plugin</artifactId>
            <version>3.1.1</version>
            <executions>
                <!-- Run shade goal on package phase -->
                <execution>
                    <phase>package</phase>
                    <goals>
                        <goal>shade</goal>
                    </goals>
                    <configuration>
                        <artifactSet>
                            <excludes>
                                <exclude>org.apache.flink:force-shading</exclude>
                                <exclude>com.google.code.findbugs:jsr305</exclude>
</excludes>
                        </artifactSet>
                        <filters>
                            <filter>
                                <artifact>*:*</artifact>
                                <excludes>
                                    <exclude>META-INF/*.SF</exclude>
                                    <exclude>META-INF/*.DSA</exclude>
                                    <exclude>META-INF/*.RSA</exclude>
                                </excludes>
                            </filter>
                        </filters>
                        <transformers combine.children="append">
                            <!-- TODO:这个防止多个connector的相同类名覆盖-->
                            <transformer implementation="org.apache.maven.plugins.shade.resource.ServicesResourceTransformer"/>
                            <!--指定 主类-->
                            <transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
                                <mainClass>com.sjzy.FlinkCDC</mainClass>
                            </transformer>
                        </transformers>
                    </configuration>
                </execution>
            </executions>
        </plugin>
    </plugins>
</build>



参考答案:

ava -jar xxx.jar.看pom配置 应该依赖没打进去 或者指定一下classpath。



关于本问题的更多回答可点击进行查看:

https://developer.aliyun.com/ask/590812

相关实践学习
基于Hologres轻松玩转一站式实时仓库
本场景介绍如何利用阿里云MaxCompute、实时计算Flink和交互式分析服务Hologres开发离线、实时数据融合分析的数据大屏应用。
Linux入门到精通
本套课程是从入门开始的Linux学习课程,适合初学者阅读。由浅入深案例丰富,通俗易懂。主要涉及基础的系统操作以及工作中常用的各种服务软件的应用、部署和优化。即使是零基础的学员,只要能够坚持把所有章节都学完,也一定会受益匪浅。
相关文章
zdl
|
2月前
|
消息中间件 运维 大数据
大数据实时计算产品的对比测评:实时计算Flink版 VS 自建Flink集群
本文介绍了实时计算Flink版与自建Flink集群的对比,涵盖部署成本、性能表现、易用性和企业级能力等方面。实时计算Flink版作为全托管服务,显著降低了运维成本,提供了强大的集成能力和弹性扩展,特别适合中小型团队和业务波动大的场景。文中还提出了改进建议,并探讨了与其他产品的联动可能性。总结指出,实时计算Flink版在简化运维、降低成本和提升易用性方面表现出色,是大数据实时计算的优选方案。
zdl
171 56
|
15天前
|
监控 关系型数据库 MySQL
Flink CDC MySQL同步MySQL错误记录
在使用Flink CDC同步MySQL数据时,常见的错误包括连接错误、权限错误、表结构变化、数据类型不匹配、主键冲突和
57 16
|
2月前
|
消息中间件 资源调度 关系型数据库
如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理
本文介绍了如何在Flink on YARN环境中配置Debezium CDC 3.0,以实现实时捕获数据库变更事件并将其传输到Flink进行处理。主要内容包括安装Debezium、配置Kafka Connect、创建Flink任务以及启动任务的具体步骤,为构建实时数据管道提供了详细指导。
119 9
|
3月前
|
存储 运维 监控
实时计算Flink版在稳定性、性能、开发运维、安全能力等等跟其他引擎及自建Flink集群比较。
实时计算Flink版在稳定性、性能、开发运维和安全能力等方面表现出色。其自研的高性能状态存储引擎GeminiStateBackend显著提升了作业稳定性,状态管理优化使性能提升40%以上。核心性能较开源Flink提升2-3倍,资源利用率提高100%。提供一站式开发管理、自动化运维和丰富的监控告警功能,支持多语言开发和智能调优。安全方面,具备访问控制、高可用保障和全链路容错能力,确保企业级应用的安全与稳定。
55 0
|
8月前
|
消息中间件 缓存 关系型数据库
Flink CDC产品常见问题之upsert-kafka增加参数报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
8月前
|
Oracle 关系型数据库 MySQL
flink cdc 插件问题之报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
8月前
|
Java 关系型数据库 MySQL
Flink CDC有见这个报错不?
【2月更文挑战第29天】Flink CDC有见这个报错不?
117 2
|
8月前
|
存储 关系型数据库 MySQL
Flink CDC产品常见问题之写hudi的时候报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
8月前
|
监控 关系型数据库 MySQL
Flink CDC产品常见问题之使用3.0测试mysql到starrocks启动报错如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
8月前
|
资源调度 关系型数据库 测试技术
Flink CDC产品常见问题之没有报错但是一直监听不到数据如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。

相关产品

  • 实时计算 Flink版