DataWorks百问百答50:MongoDB的Object字段如何同步到ODPS?

简介: MongoDB的Object字段如何同步到ODPS?

数据


original字段为Object,下面是MongoDB里的数据,应该如何同步至ODPS?

{
  "_id" : ObjectId("yyyyy"),
  "tags" : [ ],
  "status" : "delete",
  "category" : "xx",
  "chainId" : "xxxxx",
  "filename" : "xxxxx",
  "name" : "xxxx",
  "createdTime" : ISODate("xxxxxx"),
  "fileType" : "xxxx",
  "bucket" : "xxxx",
  "appId" : "xxxxx",
  "path" : "2018/07/18",
  "directory" : "r8xdcsdfdwH",
  "creator" : "XcdcdscdRF",
  "modifiedTime" : ISODate("2018-07-18T08:10:37.2.cdcdcd"),
  "sort" : cqfcerferf,
  "original" : {
    "creator" : "54cced",
    "modifiedTime" : ISODate("2018-07-16T11:01:19.cedcwedweZ")
  },
  "id" : "7cwecwecea",
  "extendData" : {

  },
  "fileSize" : 4235345440,
  "meta" : {
    "ImageHeight" : "454325345",
    "ImageWidth" : "452345348"
  }
}

配置json案例:

注意:不能用大写只识别小写的配置

  • DOCUMENT.STRING改为document.string
  • DOCUMENT.DATE改为document.date
{
    "type": "job",
    "steps": [
        {
            "stepType": "mongodb",
            "parameter": {
                "datasource": "数据源名",
                "column": [
                 
                    {
                        "name": "staddswds",
                        "type": "string"
                    },
                    {
                        "name": "sorsdst",
                        "type": "int"
                    },
                    {
                        "name": "original.creator",
                        "type": "document.string"//注意小写
                    },
                    {
                        "name": "original.modifiedTime",
                        "type": "document.date"//注意小写
                    }
                ],
                "collectionName": "files"
            },
            "name": "Reader",
            "category": "reader"
        },
        {
            "stepType": "odps",
            "parameter": {
                "partition": "ds=${bizdate}",
                "truncate": true,
                "compress": false,
                "datasource": "数据源名",
                "column": [
                    "staddswds",
                    "sorsdst",
                    "original_creator",
                    "original_modifiedTime"
                ],
                "emptyAsNull": false,
                "guid": "odps.sssssdf",
                "table": "表名"
            },
            "name": "Writer",
            "category": "writer"
        }
    ],
    "version": "2.0",
    "order": {
        "hops": [
            {
                "from": "Reader",
                "to": "Writer"
            }
        ]
    },
    "setting": {
        "jvmOption": "",
        "errorLimit": {
            "record": "0"
        },
        "speed": {
            "throttle": false,
            "concurrent": 3
        }
    }
}

DataWorks百问百答历史记录 请点击这里查看>>

更多DataWorks技术和产品信息,欢迎加入【DataWorks钉钉交流群】

相关实践学习
基于Hologres轻量实时的高性能OLAP分析
本教程基于GitHub Archive公开数据集,通过DataWorks将GitHub中的项⽬、行为等20多种事件类型数据实时采集至Hologres进行分析,同时使用DataV内置模板,快速搭建实时可视化数据大屏,从开发者、项⽬、编程语⾔等多个维度了解GitHub实时数据变化情况。
相关文章
|
DataWorks 关系型数据库 Serverless
DataWorks数据集成同步至Hologres能力介绍
本次分享的主题是DataWorks数据集成同步至Hologres能力,由计算平台的产品经理喆别(王喆)分享。介绍DataWorks将数据集成并同步到Hologres的能力。DataWorks数据集成是一款低成本、高效率、全场景覆盖的产品。当我们面向数据库级别,向Hologres进行同步时,能够实现简单且快速的同步设置。目前仅需配置一个任务,就能迅速地将一个数据库实例内的所有库表一并传输到Hologres中。
317 12
|
DataWorks 关系型数据库 Serverless
DataWorks数据集成同步至Hologres能力介绍
本文由DataWorks PD王喆分享,介绍DataWorks数据集成同步至Hologres的能力。DataWorks提供低成本、高效率的全场景数据同步方案,支持离线与实时同步。通过Serverless资源组,实现灵活付费与动态扩缩容,提升隔离性和安全性。文章还详细演示了MySQL和ClickHouse整库同步至Hologres的过程。
|
分布式计算 DataWorks NoSQL
DataWorks产品使用合集之怎么在同步脚本里进行列转行
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
存储 运维 DataWorks
DataWorks产品使用合集之怎么实现时间字段进行分区同步
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
SQL DataWorks 关系型数据库
DataWorks操作报错合集之如何处理在DI节点同步到OceanBase数据库时,出现SQLException: Not supported feature or function
DataWorks是阿里云提供的一站式大数据开发与治理平台,支持数据集成、数据开发、数据服务、数据质量管理、数据安全管理等全流程数据处理。在使用DataWorks过程中,可能会遇到各种操作报错。以下是一些常见的报错情况及其可能的原因和解决方法。
504 0
|
7月前
|
机器学习/深度学习 传感器 分布式计算
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
数据才是真救命的:聊聊如何用大数据提升灾难预警的精准度
478 14
|
9月前
|
数据采集 分布式计算 DataWorks
ODPS在某公共数据项目上的实践
本项目基于公共数据定义及ODPS与DataWorks技术,构建一体化智能化数据平台,涵盖数据目录、归集、治理、共享与开放六大目标。通过十大子系统实现全流程管理,强化数据安全与流通,提升业务效率与决策能力,助力数字化改革。
314 4
|
8月前
|
机器学习/深度学习 运维 监控
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
运维不怕事多,就怕没数据——用大数据喂饱你的运维策略
577 0
|
7月前
|
传感器 人工智能 监控
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
数据下田,庄稼不“瞎种”——聊聊大数据如何帮农业提效
231 14
|
7月前
|
机器学习/深度学习 传感器 监控
吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全
吃得安心靠数据?聊聊用大数据盯紧咱们的餐桌安全
227 1

相关产品

  • 大数据开发治理平台 DataWorks
  • 推荐镜像

    更多