开发者社区> 问答> 正文

Flink任务写入kafka 开启了EOS,statebackend为rocksdb

Hi,咨询各位一个问题我们有个任务,statebackend为rocksdb 增量执行cp,flink读取kafka经过处理然后写入到kafka,producer开启了EOS,最近发现任务有反压,source端日志量有积压,然后准备改一下资源分配多加一些资源(没有修改并行度,代码未做修改)从cp恢复任务,任务被cancel之后然后从cp恢复发现起不来了连续两次都不行,由于客户端日志保存时间太短当时没来得及去查看客户端日志,所以没有找到客户端日志,*来自志愿者整理的flink邮件归档

展开
收起
游客sadna6pkvqnz6 2021-12-07 16:42:35 684 0
1 条回答
写回答
取消 提交回答
  • 有没有可能是没分配uid,然后dag发生了变化,导致的恢复不了状态*来自志愿者整理的flink

    2021-12-07 20:17:03
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载