请问下dataworks同步datahub数据报错,同步的位点大于最大位点时间戳,如何解决,我的任务是每天t+1跑的,昨天写入datahub任务挂了,凌晨补完了,但是无论重跑昨天分区还是今天分区都解决不了?
您好,同步的位点大于最大位点时间戳可能有以下原因:
DataWorks 配置的任务时间范围不包含数据源的数据。
DataWorks 配置的任务时间范围大于 1 天,建议您将时间范围设置为 1 天以内。
DataHub 的数据有延迟,请您检查 DataHub 的数据是否有延迟。
您可以尝试通过以下方式解决该问题:
检查 DataWorks 配置的任务时间范围是否包含数据源的数据。
将任务时间范围设置为 1 天以内。
等待 DataHub 的数据延迟结束。
如果您仍然无法解决该问题,请您提交工单给我们。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。