问题一:我刚刚看了一下Flink文档,好像没有哪里说支持动态topic,所以是不支持?
我刚刚看了一下Flink文档,好像没有哪里说支持动态topic,所以是不支持?
参考回答:
支持的,根据正则来匹配的,new FlinkKafkaConsume时,参数可以是正则匹配
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/573372
问题二:Flink CDC 我flink 读取kafka数据然后入库到starrocks不知道问题出在哪了?
Flink CDC 各位我flink 读取kafka数据然后入库到starrocks
CREATE TABLE mall_activity (
id bigint,
create_time TIMESTAMP,
create_by bigint,
create_by_name string,
update_time TIMESTAMP,
update_by bigint,
update_by_name string,
activity_name string,
appointment_start_time TIMESTAMP,
end_time TIMESTAMP,
exchange_end_time TIMESTAMP,
exchange_start_time TIMESTAMP,
pick_end_time TIMESTAMP,
pick_start_time TIMESTAMP,
term string,
year
int,
PRIMARY KEY (id) NOT ENFORCED
) WITH (
'connector' = 'starrocks',
'jdbc-url' = 'jdbc:mysql://devdata2:9030',
'load-url' = 'devdata2:8030',
'database-name' = 'service_geek_coin',
'table-name' = 'mall_activity',
'username' = 'xxxx',
'password' = 'xxxxx',
'sink.semantic' = 'exactly-once',
'sink.label-prefix' = 'mall_activity_20231118',
'sink.properties.partial_update' = 'true'
);
不知道问题出在哪了?
参考回答:
排查下看看日志的log有没有异常输出,如果没有看下自己的任务是不是全量同步(全量同步如果资源不足, 任务也会卡住,不报错,也不写数据到Starrocks)
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572337
问题三:Flink CDC有那位大佬有成功的写出OracleCDC的DDL同步吗?
Flink CDC有那位大佬有成功的写出OracleCDC的DDL同步吗? 有没有什么特殊的配置需要开启的?
参考回答:
Flink CDC 支持 Oracle DDL 同步功能,并不需要特殊的配置。在 Oracle 数据源上启用日志挖掘功能。具体步骤如下:
- 执行 FLINK-CDC 工具安装包中的
enable_miner.sh
脚本。 - 修改 Oracle 用户的权限,授予必要的权限给 FLINK-CDC 用户。
- 在 FLINK-CDC 客户端的属性文件中指定 Oracle 日志文件的位置及格式,以及 Oracle 的服务器 IP 地址等信息。
- 启动 FLINK-CDC 客户端,并指定相应的 Oracle 数据源及 DDL 信息。
- 当新的 DDL 变更发生时,FLINK-CDC 将自动检测并同步到目标库中。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572336
问题四:我看到最新的flink cdc, postgresql 依然不支持 这个模式,请问是底层不太好实现?
我看到最新的flink cdc, postgresql 依然不支持 StartupOptions.specificOffset 这个模式,请问是底层不太好实现嘛,还是有其他有问题?有没有位大佬自己实现该功能的
参考回答:
应该是Debezium不支持吧,得看dbz支不支持
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572329
问题五:Flink CDC有什么办法或者什么方法可以回滚这种操作之类的吗?
Flink CDC我现在有个这个场景就是监听mysql读出来的数据我会落库到日志表中,但是如果这条数据因为网络原因反正各种原因抛出了异常,虽然有重新执行机制但是有次数限制,打比方3次执行完3次都异常然后监听会停止,这个时候我重新启动监听,那么他不会读我异常的这条数据,而是继续读取新的数据,这样就永远丢失这条数据了,有什么办法或者什么方法可以回滚这种操作之类的吗?
参考回答:
flink-cdc就是保证你不多不少,建议你从上一个执行的检查点继续,报错是绕不过去这个binlog对应的数据吧,从flink官网看哈,但其实你还是绕不过去那个错误的点位,建议全量重跑下
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/572334