开发者社区 > 大数据与机器学习 > 大数据开发治理DataWorks > 正文

你好,想问一下由于文件数超过400个,数据量过大,数据集成超过24小时报错怎么搞?

你好,想问一下由于文件数超过400个,数据量过大,数据集成超过24小时报错怎么搞?

展开
收起
雪哥哥 2022-11-27 20:58:45 268 0
1 条回答
写回答
取消 提交回答
  • 天下风云出我辈,一入江湖岁月催,皇图霸业谈笑中,不胜人生一场醉。

    OSSreader插件读取OSS执行时间超过RDS侧允许的最大文件数datax本身没有限制,主要看任务配置的jvm参数,但是不建议object参数配置*,容易导致内存溢出。

    2023-01-12 16:58:52
    赞同 展开评论 打赏

DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。

热门讨论

热门文章

相关电子书

更多
Cloud Foundry on Cloud-- 开源PaaS集成技术实现 立即下载
DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
《DataWorks 数据集成实时同步》 立即下载