DataWorks百问百答29:数据写入OSS,有哪些不需要后缀随机UUD的场景?

本文涉及的产品
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
简介: 数据写入OSS,不需要后缀随机UUD场景案例

用户场景:

292.png


用户从其他数据库同步数据文件到OSS时,产生的文件名,后缀通常会带上随机的UUID信息(如上图),有些用户不想要有这种后缀名称的情况。

解決方案:

如果您不需要后缀随机的UUID,您可以配置一下writeSingleObject这个参数信息:
"writeSingleObject" : "true"。


具体案例odps同步到oss脚本逻辑如下:

{
    "type": "job",
    "steps": [
        {
            "stepType": "odps",
            "parameter": {
                "partition": [
                    "pt=${bizdate}"
                ],
                "datasource": "odps_first",
                "column": [
                    "item_id",
                    "shop_id",
                    "utctimestamp",
                    "item_title",
                    "pic_url",
                    "pic_url_list",
                    "roperties",
                    "sale_time",
                    "cprice"
                ],
                "table": "test_0526"
            },
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "oss",
            "parameter": {
                "fileName": "",
                "datasource": "test_oss",
                "writeSingleObject": "true",
                "column": [
                    {
                        "name": "item_id",
                        "type": "BIGINT"
                    },
                    {
                        "name": "shop_id",
                        "type": "BIGINT"
                    },
                    {
                        "name": "sutctimestamp",
                        "type": "BIGINT"
                    },
                    {
                        "name": "item_title",
                        "type": "BIGINT"
                    },
                    {
                        "name": "pic_url",
                        "type": "BIGINT"
                    },
                    {
                        "name": "pic_url_list",
                        "type": "BIGINT"
                    },
                    {
                        "name": "properties",
                        "type": "BIGINT"
                    },
                    {
                        "name": "sale_time",
                        "type": "BIGINT"
                    },
                    {
                        "name": "cprice",
                        "type": "BIGINT"
                    }
                ],
                "writeMode": "truncate",
                "fieldDelimiter": "\t",
                "encoding": "UTF-8",
                "fileFormat": "csv",
                "object": "test_detail_199"
            },
            "name": "Writer",
            "category": "writer"
        }
    ],
    "version": "2.0",
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    },
    "setting": {
        "errorLimit": {
            "record": ""
        },
        "speed": {
            "throttle": false,
            "concurrent": 1
        }
    }
}


OSS结果展现:
配置完 writeSingleObject 这个参数,完成同步后,在OSS管理控制台看到的文件结果如下:(可以看到显示的文件名,是以脚本中参数“object”配置的为准)

291.png

注意:
1、“writeSingleObject”参数目前只对 csv、text文件类型生效。
2、“writeSingleObject”参数各个资源组生效情况:

  •  独享数据集成资源组所有region都支持;
  •  自定义资源组需要看Datax版本情况是否支持;
  •  公共(默认)资源组国内region都支持,海外region不支持,因为海外region公共(默认)资源组版本比较低,会有设置了“writeSingleObject”这个参数,但是不生效的情况存在,建议使用独享数据集成资源组跑同步任务。


DataWorks百问百答历史记录 请点击这里查看>>

更多DataWorks技术和产品信息,欢迎加入【DataWorks钉钉交流群】

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
一站式大数据开发治理平台DataWorks初级课程
DataWorks 从 2009 年开始,十ー年里一直支持阿里巴巴集团内部数据中台的建设,2019 年双 11 稳定支撑每日千万级的任务调度。每天阿里巴巴内部有数万名数据和算法工程师正在使用DataWorks,承了阿里巴巴 99%的据业务构建。本课程主要介绍了阿里巴巴大数据技术发展历程与 DataWorks 几大模块的基本能力。 课程目标  通过讲师的详细讲解与实际演示,学员可以一边学习一边进行实际操作,可以深入了解DataWorks各大模块的使用方式和具体功能,让学员对DataWorks数据集成、开发、分析、运维、安全、治理等方面有深刻的了解,加深对阿里云大数据产品体系的理解与认识。 适合人群  企业数据仓库开发人员  大数据平台开发人员  数据分析师  大数据运维人员  对于大数据平台、数据中台产品感兴趣的开发者
相关文章
|
1月前
|
分布式计算 DataWorks 数据处理
"DataWorks高级技巧揭秘:手把手教你如何在PyODPS节点中将模型一键写入OSS,实现数据处理的完美闭环!"
【10月更文挑战第23天】DataWorks是企业级的云数据开发管理平台,支持强大的数据处理和分析功能。通过PyODPS节点,用户可以编写Python代码执行ODPS任务。本文介绍了如何在DataWorks中训练模型并将其保存到OSS的详细步骤和示例代码,包括初始化ODPS和OSS服务、读取数据、训练模型、保存模型到OSS等关键步骤。
81 3
|
4月前
|
数据采集 DataWorks 数据挖掘
提升数据分析效率:DataWorks在企业级数据治理中的应用
【8月更文第25天】本文将探讨阿里巴巴云的DataWorks平台如何通过建立统一的数据标准、规范以及实现数据质量监控和元数据管理来提高企业的数据分析效率。我们将通过具体的案例研究和技术实践来展示DataWorks如何简化数据处理流程,减少成本,并加速业务决策。
500 54
|
4月前
|
SQL 分布式计算 DataWorks
利用DataWorks构建高效数据管道
【8月更文第25天】本文将详细介绍如何使用阿里云 DataWorks 的数据集成服务来高效地收集、清洗、转换和加载数据。我们将通过实际的代码示例和最佳实践来展示如何快速构建 ETL 流程,并确保数据管道的稳定性和可靠性。
210 56
|
4月前
|
分布式计算 DataWorks 关系型数据库
DataWorks产品使用合集之ODPS数据怎么Merge到MySQL数据库
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
DataWorks 关系型数据库 MySQL
DataWorks产品使用合集之mysql节点如何插入数据
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据采集 JSON DataWorks
DataWorks产品使用合集之支持哪些数据引擎
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
4月前
|
数据采集 DataWorks 安全
DataWorks产品使用合集之如何实现数据过滤
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
2天前
|
分布式计算 DataWorks 大数据
DataWorks产品体验评测报告
DataWorks产品体验评测报告
28 8
|
4月前
|
DataWorks Kubernetes 大数据
飞天大数据平台产品问题之DataWorks提供的商业化服务如何解决
飞天大数据平台产品问题之DataWorks提供的商业化服务如何解决
|
4月前
|
SQL DataWorks 安全
DataWorks产品使用合集之如何实现分钟级调度
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。

相关产品

  • 大数据开发治理平台 DataWorks