请教大家一个问题 , hadoop服务TestHACluster,可是我用api访问时候,填写了path hdfs://TestHACluster/user/flink/test 就会去访问TestHACluster:8020, 但是我是没有那个端口的,针对这种情况怎么处理下。 因为这个问题,我后面去操作hive时候也是会提示问题,无法连接TestHACluster:8020 StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); DataStream<String> input = env.fromCollection(Arrays.asList("1","2"));
StreamingFileSink<String> sink = StreamingFileSink.forRowFormat( new Path("hdfs://TestHACluster/user/flink/test"), new SimpleStringEncoder<String>(Encoder.UTF_8)) .withBucketAssigner(new DateTimeBucketAssigner<>()) .build(); input.addSink(sink); env.execute();*来自志愿者整理的FLINK邮件归档
对于cdh集群的hdfs,默认端口是8020,这里你用 hdfs://TestHACluster/user/flink/test 或者 hdfs://TestHACluster:8020/user/flink/test,其实效果是一样的, 你这里应该是flink无法解析TestHACluster这个Namespace,hdfs做了HA的情况,应该是需要添加hive-site.xml,hdfs-site.xml,我也去测试下!*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。