Terraform中DataSource的深度分析

简介: DataSource是Terraform官方提供的插件功能,各个Provider可以实现自己的DataSource能力,目的是通过DataSource中的定义过滤需要的数据,一是简化模板编写时数据过滤的复杂性,二是各个资源对Data源的引用保持一致,比如想要知道“华北2”的Region下都有哪些可用区,就可以用DataSource,如果想指定第一个可用区,就可以这样使用“${data.alicloud_zones.0.id}”。

一、DataSource功能介绍

DataSource是Terraform官方提供的插件功能,各个Provider可以实现自己的DataSource能力,目的是通过DataSource中的定义过滤需要的数据,一是简化模板编写时数据过滤的复杂性,二是各个资源对Data源的引用保持一致,比如想要知道“华北2”下CPU为1核,内存为1G的ECS实例类型是什么,就可以用DataSource,如果想引用这个数据源,就可以这样使用"${data.alicloud_instance_types.1c1g.instance_types.0.id}"。

二、阿里云DataSource的功能增强

阿里云的DataSource在Terraform原生的功能上做了增强:

  • 不仅可以作为资源引用过滤使用,还支持导出过滤结果;
  • 并且在"plan"时就可以看到文件(原生的功能只能在实"apply"时才可使用,很不方便);
  • 更强大的是在过滤ECS实例类型时如果入参没有可选的资源,会提示支持的类型都有哪些;

DataSource目前支持Region、可用区、镜像、ECS实例类型、VPC、keyPair,如果有用户想知道都有哪些镜像ID,就可以通过DataSource执行后查看导出的文件获取数据,即便是不用于Terraform中也可以做为一个小工具使用。源码详见 https://github.com/alibaba/terraform-provider/tree/master/alicloud 中以data_source开头的文件。

三、例子

下面以ECS实例类型为例,深度讲解如何使用:

需求场景:想要创建一台ECS,条件:Region是华北2,CPU为1核,内存1G,想要知道有哪些实例类型可用。

datasource的代码如下:

data "alicloud_instance_types" "1c1g" {
    cpu_core_count = 1
    memory_size = 1
    "output_file" = "instance_type.json"  //重点是这句,指明导出的文件名
}

执行“terraform plan”,即可看到输出的文件 instance_type.json的文件,我们查看文件内容如下:
image

返回字段说明如下:

  • 除了入参"cpu_core_count"和"memory_size"外,我们看到还有两个返回参数,一个是family,一个是id,family即是ECS实例类型家族,id即是具体的实例类型。

在创建ECS时可以如下引用
image

怎么样,是不是很简单?
如果你曾经被阿里云的ECS复杂约束而困扰,如果你不知道去哪里找实例类型、镜像、可用区,如果你输入的实例类型不符合要求,但又不知道怎么写是正确的,快快用起DataSource功能吧。

相关实践学习
2分钟自动化部署人生模拟器
本场景将带你借助云效流水线Flow实现人生模拟器小游戏的自动化部署
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
6月前
|
流计算
【极数系列】Flink集成DataSource读取集合数据(07)
【极数系列】Flink集成DataSource读取集合数据(07)
53 0
|
4月前
|
SQL 存储 JSON
DataWorks产品使用合集之没有dev环境的project,如何创建数据集成任务时完成网络与资源配置
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
6月前
|
数据采集 分布式计算 DataWorks
DataWorks产品使用合集之DataWorks中配置节点上下文输出参数如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
121 1
|
6月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之DataWorks基础属性:调度参数典型场景配置示例如何解决
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
67 0
|
6月前
|
分布式计算 DataWorks 大数据
MaxCompute操作报错合集之在使用 MaxCompute 的 MMA(Multi-Modal Analytics)进行跨 Region 数据迁移时,在配置数据源时遇到错误,如何解决
MaxCompute是阿里云提供的大规模离线数据处理服务,用于大数据分析、挖掘和报表生成等场景。在使用MaxCompute进行数据处理时,可能会遇到各种操作报错。以下是一些常见的MaxCompute操作报错及其可能的原因与解决措施的合集。
|
6月前
|
JSON druid OLAP
OLAP 数据平台 Druid 第一步,编写 Spec 配置
OLAP 数据平台 Druid 第一步,编写 Spec 配置
80 0
|
6月前
|
分布式计算 MaxCompute
在MaxCompute中,资源(Resource)是特有的概念
在MaxCompute中,资源(Resource)是特有的概念
53 6
|
消息中间件 Java Kafka
Flink的DataSource三部曲之一:直接API
《Flink的DataSource三部曲》系列通过实战熟悉和了解flink的数据源,从内置到自定义逐步上手。
126 0
Flink的DataSource三部曲之一:直接API
|
Kubernetes 开发工具 git
应用中心最佳实践之 -- 多集群多参数发布实战
如果一个用户账号下有多个集群的情况,希望将一个应用同时发布到多个集群里面,并且不同集群环境有不同的参数,这里就可以使用应用中心的多集群发布功能。
1659 0
应用中心最佳实践之 -- 多集群多参数发布实战
|
SQL druid 数据可视化
【Druid】(九)E-MapReduce Druid 集群集成 Superset(数据探查与可视化平台 )1
【Druid】(九)E-MapReduce Druid 集群集成 Superset(数据探查与可视化平台 )1
331 0
【Druid】(九)E-MapReduce Druid 集群集成 Superset(数据探查与可视化平台 )1