Flink CDC中那位老师遇到以下写法,数据可以正常写到hdfs, 但是表和库在hive看不到,是由于HadoopCatalog类型 元数据没有托管到元数据服务的原因吗?:// 通过catalog判断表是否存在,不存在就创建,存在就加载 Table table = catalog.tableExists(tableIdentifier)? catalog.loadTable(tableIdentifier): catalog.createTable(tableIdentifier,schema,partitionSpec,tableProperties);?我是用iceberg的 HadoopCatalog 写的数据,但是手动建了外部表关联下表目录才可以查,数据都可以正常写,只是表使用hive show tables 命令查不到,需要手动建了外部表关联下表目录才可以查,我改成 hivecatalog 是可以自动创建库和表的,想再试下 HadoopCatalog,使用修复命令?我就想达到,自动创建库和表,使用 beeline 命令可以直接查,不用手动操作。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。