在flink1.17Application模式中 客户端执行 flink run-application -t yarn-application 跑批,有没有办法同步获取任务执行结果后再退出客户端 ?
在 Flink 的 Application 模式下,可以通过以下方法在客户端中同步获取任务执行结果后再退出:
1.使用 Flink 的 Web 界面:
2.使用 Flink 的 REST API:
3.使用 Flink 的客户端命令行界面:
在Apache Flink 1.17的Application模式中,要同步获取任务执行结果后再退出客户端,您可以使用StreamExecutionEnvironment.execute()
方法。此方法会阻塞直到作业完成或者出现错误。在这个例子中,execute()
方法将启动并运行整个数据流作业。一旦作业完成,它将返回一个JobExecutionResult
对象,通过该对象,您可以获取作业的执行结果。
可以自定义source 没有消费到数据后 就退出jvm 或者 试试flink 批处理。此回答整理自钉群“【①群】Apache Flink China社区”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。