flink on yarn per-job的模式, hadoop_classpath 没有将 had

flink on yarn per-job的模式, hadoop_classpath 没有将 hadoop/share/hadoop/mapreduce 下来的依赖项打上。

flink cluster模式,是有的,这个问题有人知道吗?

展开
收起
云上静思 2022-12-29 10:04:26 1396 分享 版权
2 条回答
写回答
取消 提交回答
  • 你可以改写启动脚本 然后启动的时候把你需要的Jar地址都加入环境变量

    类似这样,想加啥加啥

    回答4.png

    此答案来自钉钉群“【2】Apache Flink China 社区"

    2022-12-30 10:16:45
    赞同 展开评论
  • 这个错误可能是由于在 flink on yarn per-job 模式下,hadoop_classpath 环境变量没有正确地配置导致的。

    hadoop_classpath 环境变量用于指定 Hadoop 的依赖项,其中包含了 Hadoop MapReduce 依赖的 jar 包和其他资源文件。在 flink on yarn per-job 模式下,hadoop_classpath 必须正确地配置,才能保证 Flink 程序能够正确地运行。

    具体来说,你可以在 flink-conf.yaml 文件中,找到 hadoop_classpath 配置项,并将 hadoop/share/hadoop/mapreduce 下的依赖项添加到 hadoop_classpath 中。例如:

    hadoop_classpath: "/path/to/hadoop-mapreduce/*"

    在这里,"/path/to/hadoop-mapreduce/*" 表示 hadoop-mapreduce 目录下的所有文件。你可以根据你的实际情况来修改这个路径,以便正确地配置 hadoop_classpath 环境变量。

    如果上述步骤还是无法解决问题,你可以尝试检查日志文件,以便找出更多的信息,并基于这些信息来进一步调试程序。

    2022-12-29 18:14:39
    赞同 展开评论

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

收录在圈子:
实时计算 Flink 版(Alibaba Cloud Realtime Compute for Apache Flink,Powered by Ververica)是阿里云基于 Apache Flink 构建的企业级、高性能实时大数据处理系统,由 Apache Flink 创始团队官方出品,拥有全球统一商业化品牌,完全兼容开源 Flink API,提供丰富的企业级增值功能。
还有其他疑问?
咨询AI助理