开发者社区> 问答> 正文

flink on yarn ha 高可用问题

flink on yarn ha模式下 state.checkpoints.dir: hdfs://namenode-host:port/flink-checkpoints这个配置怎么配置能进行namenode能自动切换 现在只能指定namenode的hostname,假设这个namenode节点挂了,或者standby状态,flink任务checkpoint就报错,只能把节点起来,而且要将其切换为active节点 目前hadoop namenode已经进行ha部署了,手动kill 一个namenode进程能自动切换;暂时理解flink中这个配置貌似只能配死一个

请问如何解决这个问题,保证flink的高可用*来自志愿者整理的flink邮件归档

展开
收起
雪哥哥 2021-12-07 15:51:27 912 0
1 条回答
写回答
取消 提交回答
  • Hi, 这问题其实跟 Flink 无关,请了解下 HDFS nameservice。正确配置 HDFS 后,在 Flink 中填写路径时就不需要写死 name node 地址了*来自志愿者整理的flink

    2021-12-07 16:22:21
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载