用sql-client.sh生成的job在cancle过后 如何实现断点续传?
您好!如果您使用sql-client.sh生成的job在cancle过后,可以尝试以下方法实现断点续传:
sqoop export
--connect jdbc:mysql://localhost/dbname
--username user
--password pass
--table tablename
--export-dir /tmp
--input-fields-terminated-by '\t'
--input-lines-terminated-by '
'
--input-optionally-enclosed-by '\"'
--columns "col1,col2,col3"
--update-key col1
--update-mode allowinsert
--where "col1='value1'" > progress.txt
sqoop import
--connect jdbc:mysql://localhost/dbname
--username user
--password pass
--table tablename
--target-dir /tmp
--delete-target-dir
--fields-terminated-by '\t'
--lines-terminated-by '
'
--columns "col1,col2,col3"
--where "col1='value1'" < progress.txt
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。