读取Maxcomputer报表数据定时邮件发送

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 数仓产出的报表基本用于大屏展示所用,但也有些数据需要每天按时推送至领导邮箱,这些数据在Dataworks如何每天定时定点推送出去呢

1.概述

我们数仓ADS层产出物,基本上都是同步到MySql中,供下游展示及报表查询使用,但经常会碰到Leader需要每天看一眼某某数据,登录BI系统有时不太方便,这就需要我们开发人员将产出的数据每天定时定点推送Leader邮箱,方便Leader查阅。这里我们使用Python3读取MaxComputer表数据存储到服务器中,然后读取服务器使用邮件发送出去

2.实现

1.发送前的准备

1.有个邮箱,设置好授权码

2.因为是在DataWorks上调度,所以要有独享调度资源组

3.创建PyODPS 3脚本文件

2.模块导入

将Python所需要的模块导入

fromemail.mimeimportimagefromosimportwritefromtimeimportsleep, timefromodpsimportODPSimportodpsfromodps.dfimportDataFrameimportpandasaspdimportdatetimeimportsmtplibfromemail.mime.textimportMIMETextfromemail.mime.multipartimportMIMEMultipartfromemail.headerimportHeaderfromemail.mime.imageimportMIMEImagefrompandas.core.indexes.apiimportall_indexes_sameimportparamiko

如果发现有的模块ODPS上并没有,则需要install进来

1.资源组列表,找到所要用的调度资源组里的运维助手

image.png

2.创建命令

image.png

3.编写好名称等,输入命令内容,比如这里需要paramiko

image.png


3.构造服务器中文件路径

首先我们先链接服务器,构造出一个文件路径,方便后续ODPS数据写入

defserver_path():
ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
stdin, stdout, stderr=ssh.exec_command('touch '+r'/xxx/'+yesterday+"xxx.xlsx")
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'w+')
returnfile_path

4.读取ODPS

读取ODPS中的报表数据,写入上面的服务器中

defodps_server_exce(file_path):
writer=pd.ExcelWriter(file_path)
#读取ODPS SQL语句odps_sql1='SELECT xxx,xxx,xxx,xxx,xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
odps_sql2='SELECT xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
#将读取的数据放入数组中witho.execute_sql(odps_sql1).open_reader() asreader:
alist1=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist1.append(blist) 
witho.execute_sql(odps_sql2).open_reader() asreader:
alist2=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist2.append(blist)
#构造Excel Sheet1,并设置表头df=pd.DataFrame(alist1,columns=["xxx","xxx","xxx","xxx","xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
#构造Excel Sheet2,并设置表头df=pd.DataFrame(alist2,columns=["xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
writer.save()
#关闭sftp_open文件file_path.close()

5.发送邮件

编写邮件标题、内容、附件

defsend_mail(path):
#链接服务器ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'rb')
smtp_server='smtp.xxx'#服务器sender='xxx'#发送人passwd='xxx'#口令recevier= ['xxx,xxx,xxx']#收件人cc=['xxx,xxx'] #抄送人message=MIMEMultipart('related')
title=yesterday+"_xxx"#标题message['Subject']=Header(title,'utf-8')
message['From'] =sendermessage['To'] =','.join(recevier)
message['Cc'] =','.join(cc)
#编写邮件正文message.attach(MIMEText('''xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'''))
#构造邮件附件  att1=MIMEText(file_path.read(),'base64','utf-8')
att1['Content-Type'] ='application/octet-stream'att1.add_header('Content-Disposition', 'attachment', filename=yesterday+"_xxx.xlsx")
message.attach(att1)
#发送邮件smtp=smtplib.SMTP_SSL(smtp_server,xxx) 
smtp.login(sender,passwd)
smtp.sendmail(sender,message['To'].split(',')+message['Cc'].split(','),message.as_string())
print("发送成功")
#关闭sftp_open文件 file_path.close()

6.脚本全文

fromemail.mimeimportimagefromosimportwritefromtimeimportsleep, timefromodpsimportODPSimportodpsfromodps.dfimportDataFrameimportpandasaspdimportdatetimeimportsmtplibfromemail.mime.textimportMIMETextfromemail.mime.multipartimportMIMEMultipartfromemail.headerimportHeaderfromemail.mime.imageimportMIMEImagefrompandas.core.indexes.apiimportall_indexes_sameimportparamikobizdate= (datetime.date.today() +datetime.timedelta(days=-1)).strftime("%Y%m%d") 
yesterday= (datetime.date.today() +datetime.timedelta(days=-1)).strftime("%Y-%m-%d")
defserver_path():
ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
stdin, stdout, stderr=ssh.exec_command('touch '+r'/xxx/'+yesterday+"xxx.xlsx")
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'w+')
returnfile_pathdefodps_server_exce(file_path):
writer=pd.ExcelWriter(file_path)
#读取ODPS SQL语句odps_sql1='SELECT xxx,xxx,xxx,xxx,xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
odps_sql2='SELECT xxx,xxx FROM xxx WHERE ds = \"%s\"'%(bizdate)
#将读取的数据放入数组中witho.execute_sql(odps_sql1).open_reader() asreader:
alist1=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist1.append(blist) 
witho.execute_sql(odps_sql2).open_reader() asreader:
alist2=[]
forrecordinreader:
blist=[]
foriinrecord:
blist.append(i[1])
alist2.append(blist)
#构造Excel Sheet1,并设置表头df=pd.DataFrame(alist1,columns=["xxx","xxx","xxx","xxx","xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
#构造Excel Sheet2,并设置表头df=pd.DataFrame(alist2,columns=["xxx","xxx"])
df.to_excel(writer,sheet_name="xxx",index=False)
writer.save()
#关闭sftp_open文件file_path.close()
defsend_mail(path):
#链接服务器ssh=paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(hostname='xxx',port=22,username='xxx',password='xxx')
sftp_client=ssh.open_sftp()
file_path=sftp_client.open(r'/xxx/'+yesterday+"xxx.xlsx",'rb')
smtp_server='smtp.xxx'#服务器sender='xxx'#发送人passwd='xxx'#口令recevier= ['xxx,xxx,xxx']#收件人cc=['xxx,xxx'] #抄送人message=MIMEMultipart('related')
title=yesterday+"_xxx"#标题message['Subject']=Header(title,'utf-8')
message['From'] =sendermessage['To'] =','.join(recevier)
message['Cc'] =','.join(cc)
#编写邮件正文message.attach(MIMEText('''xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx'''))
#构造邮件附件  att1=MIMEText(file_path.read(),'base64','utf-8')
att1['Content-Type'] ='application/octet-stream'att1.add_header('Content-Disposition', 'attachment', filename=yesterday+"_xxx.xlsx")
message.attach(att1)
#发送邮件smtp=smtplib.SMTP_SSL(smtp_server,xxx) 
smtp.login(sender,passwd)
smtp.sendmail(sender,message['To'].split(',')+message['Cc'].split(','),message.as_string())
print("发送成功")
#关闭sftp_open文件 file_path.close()
if__name__=='__main__':
file_path=linux_path()
odpsDataToExcel(file_path)
sendTomail(file_path)

7.设置定时

DataWorks上右侧调度配上界面,配置好时间几点发送,调度选择独享调度资源组,依赖上游为ODPS表

image.png

3.总结

以上就是使用Python3编写代码在DataWorks实现定时邮件推送功能,实现的方法应该有很多,目前依靠阿里云组件目前我们采用的是这种方式,若有不足之处,欢迎指正。

拜了个拜

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
目录
相关文章
|
4月前
|
关系型数据库 MySQL API
Flink CDC产品常见问题之读取不到或读取不全消息如何解决
Flink CDC(Change Data Capture)是一个基于Apache Flink的实时数据变更捕获库,用于实现数据库的实时同步和变更流的处理;在本汇总中,我们组织了关于Flink CDC产品在实践中用户经常提出的问题及其解答,目的是辅助用户更好地理解和应用这一技术,优化实时数据处理流程。
|
4月前
|
Java 数据处理 调度
Dataphin常见问题之离线管道同步数据datax就报连接超时如何解决
Dataphin是阿里云提供的一站式数据处理服务,旨在帮助企业构建一体化的智能数据处理平台。Dataphin整合了数据建模、数据处理、数据开发、数据服务等多个功能,支持企业更高效地进行数据治理和分析。
|
2月前
|
运维 DataWorks 数据管理
数据管理DMS使用问题之正在使用“同步表”功能,如何设置数据同步的过期时间
阿里云数据管理DMS提供了全面的数据管理、数据库运维、数据安全、数据迁移与同步等功能,助力企业高效、安全地进行数据库管理和运维工作。以下是DMS产品使用合集的详细介绍。
数据管理DMS使用问题之正在使用“同步表”功能,如何设置数据同步的过期时间
|
3月前
|
SQL 监控 数据处理
实时计算 Flink版产品使用问题之加了一个条件,初次同步的时候,会先把所有符合条件的数据读出来吗
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
23天前
|
消息中间件 存储 关系型数据库
实时计算 Flink版产品使用问题之同步时,上游批量删除大量数据(如20万条),如何提高删除效率
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
|
2月前
|
SQL 分布式计算 DataWorks
MaxCompute产品使用合集之整库离线同步至MC的配置中,是否可以清除原表所有分区数据的功能
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
消息中间件 关系型数据库 MySQL
实时计算 Flink版产品使用问题之任务在同步过程中新增同步表后选择全量初始化历史数据,是否会阻塞原先其余表的增量同步
实时计算Flink版作为一种强大的流处理和批处理统一的计算框架,广泛应用于各种需要实时数据处理和分析的场景。实时计算Flink版通常结合SQL接口、DataStream API、以及与上下游数据源和存储系统的丰富连接器,提供了一套全面的解决方案,以应对各种实时计算需求。其低延迟、高吞吐、容错性强的特点,使其成为众多企业和组织实时数据处理首选的技术平台。以下是实时计算Flink版的一些典型使用合集。
实时计算 Flink版产品使用问题之任务在同步过程中新增同步表后选择全量初始化历史数据,是否会阻塞原先其余表的增量同步
|
2月前
|
存储 DataWorks 安全
DataWorks产品使用合集之如何配置参数来控制同步任务每次读取数据的条数
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
3月前
|
机器学习/深度学习 分布式计算 DataWorks
MaxCompute产品使用合集之离线同步到实时同步表时,数据应该如何处理
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
3月前
|
分布式计算 DataWorks 安全
DataWorks产品使用合集之抽取数据时数据源报警提示连接数较高,该在哪里进行修改
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
17 0