开发者社区> 问答> 正文

在Dataworks中如何配置用户留存模型的任务节点?

在Dataworks中如何配置用户留存模型的任务节点?

展开
收起
不吃核桃 2024-08-13 21:13:43 31 0
1 条回答
写回答
取消 提交回答
  • 在Dataworks中配置用户留存模型的任务节点,需要设置节点ID、节点名称(可自定义为留存模型的表名)、节点类型为ODPS SQL,并在节点任务配置中指定jar包路径、配置文件、Spark配置以及输入输出表等参数。具体配置示例如下:
    bash
    jar -classpath 云端文件/res?id=xxx 类名.tools.OdpsCltWrapper
    "--class" <留存模型的jar包>
    "--properties-file" 云端文件/res?id=xxx
    "--conf"
    "--conf" "spark.executor.extraJavaOptions=-Dfile.encoding=UTF-8 -Dsun.jnu.encoding=UTF-8"
    "--conf" "spark.driver.extraJavaOptions=-Dfile.encoding=UTF-8 -Dsun.jnu.encoding=UTF-8"
    "--master" yarn-cluster
    云端文件/res?id=xxx "--rTable" <输入表的表名> "--wTable" <输出表的表名: 即构建的留存模型> "--stat_date" ${bizdate} "--window" 180;

    2024-08-14 08:00:36
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
DataWorks调度任务迁移最佳实践-2020飞天大数据平台实战应用第一季 立即下载
DataWorks商业化资源组省钱秘籍-2020飞天大数据平台实战应用第一季 立即下载

相关实验场景

更多