开发者社区> 问答> 正文

操作hive时无法连接TestHACluster:8020怎么解决?

请教大家一个问题 , hadoop服务TestHACluster,可是我用api访问时候,填写了path hdfs://TestHACluster/user/flink/test   就会去访问TestHACluster:8020, 但是我是没有那个端口的,针对这种情况怎么处理下。 因为这个问题,我后面去操作hive时候也是会提示问题,无法连接TestHACluster:8020 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream<String> input = env.fromCollection(Arrays.asList("1","2"));

StreamingFileSink<String> sink = StreamingFileSink.forRowFormat( new Path("hdfs://TestHACluster/user/flink/test"), new SimpleStringEncoder<String>(Encoder.UTF_8)) .withBucketAssigner(new DateTimeBucketAssigner<>()) .build(); input.addSink(sink); env.execute();*来自志愿者整理的FLINK邮件归档

展开
收起
雪哥哥 2021-12-04 17:03:57 796 0
1 条回答
写回答
取消 提交回答
  • 对于cdh集群的hdfs,默认端口是8020,这里你用 hdfs://TestHACluster/user/flink/test 或者 hdfs://TestHACluster:8020/user/flink/test,其实效果是一样的, 你这里应该是flink无法解析TestHACluster这个Namespace,hdfs做了HA的情况,应该是需要添加hive-site.xml,hdfs-site.xml,我也去测试下!*来自志愿者整理的FLINK邮件归档

    2021-12-04 17:17:13
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载