调用 DescribeWorkflow 查询单个工作流的详细信息。
请求信息 请求行 RequestLine
GET /gs/workflow/{workflowName} HTTP/1.1 特有请求头 RequestHead
无,请参考 公共请求头部。
请求体 RequestBody
无
返回信息 返回行 ResponseLine
HTTP/1.1 200 OK 特有返回头 ResponseHead
无,请参考 公共返回头部。
返回体 ResponseBody
{ "create_time": "2020-01-15 16:30:25 +0800 CST", "duration": "1h15m33.529968361s", "finish_time": "0001-01-01 00:00:00 +0000 UTC", "input_data_size": "0", "job_name": "wgs-gpu-97xfn", "job_namespace": "1171330362041663", "output_data_size": "0", "status": "Running", "total_bases": "0", "total_reads": "0", "user_input_data": "{"wgs_oss_region":"cn-shenzhen","wgs_fastq_first_name":"fastq/huada/MGISEQ-200019SZ0002402","wgs_fastq_second_name":"fastq/huada/MGISEQ-200019SZ0002402","wgs_bucket_name":"gene-shenzhen","wgs_vcf_file_name":"output/vcf/huada.vcf","wgs_bam_file_name":"output/bam/huada.bam","wgs_reference_file":"hg19","wgs_service":"g"}" } 表 1. 返回体解释 名称 类型 描述 create_time String 工作流创建时间。 duration String 工作流经过时长。 finish_time String 任务结束时间。 input_data_size String 输入数据大小。 job_name String 工作流名称。 job_namespace String 工作流所在命名空间。 output_data_size String 输出数据大小。 status String 工作流当前状态。 total_bases String 碱基对个数。 total_reads String Reads 个数。 user_input_data String 用户输入参数。 示例 请求示例(Python)
#!/usr/bin/env python #coding=utf-8
from aliyunsdkcore.client import AcsClient from aliyunsdkcore.request import CommonRequest import os client = AcsClient(os.environ['accessKeyID'], os.environ['accessKeySecret'], 'cn-beijing')
request = CommonRequest() request.set_accept_format('json') request.set_method('GET') request.set_protocol_type('https') # https | http request.set_domain('cs.cn-beijing.aliyuncs.com') request.set_version('2015-12-15')
request.add_query_param('RegionId', "cn-beijing") request.add_header('Content-Type', 'application/json') request.set_uri_pattern('/gs/workflow/wgs-gpu-97xfn')
response = client.do_action_with_exception(request)
print(response)
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。