助力工业物联网,工业大数据之其他维度:组织机构【十六】

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 助力工业物联网,工业大数据之其他维度:组织机构【十六】

01:其他维度:组织机构

  • 目标实现组织机构维度的设计及构建
  • 路径
  • step1:需求
  • step2:设计
  • step3:实现
  • 实施
  • 统计不同服务人员的工单数、核销数等
  • 设计
  • org_employee:员工信息表【员工id、员工编码、员工名称、用户系统id】
select empid,empcode,empname,userid from org_employee;
  • org_empposition:员工岗位信息表【员工id、岗位id】
select empid,positionid from org_empposition;
  • org_position:岗位信息表【岗位id、岗位编码、岗位名称、部门id】
select positionid,posicode,posiname,orgid from org_position;
  • org_organization:部门信息表【部门id、部门编码、部门名称】
select orgid,orgcode,orgname from org_organization;

  • 实现
  • 建维度表
-- 创建组织机构维度表,组织机构人员是经常变动的,所以按照日期分区
create external table if not exists one_make_dws.dim_emporg(
    empid string comment '人员id'   
    , empcode string comment '人员编码(erp对应的账号id)'
    , empname string comment '人员姓名'
    , userid string comment '用户系统id(登录用户名)'
    , posid string comment '岗位id'
    , posicode string comment '岗位编码'
    , posiname string comment '岗位名称'
    , orgid string comment '部门id'
    , orgcode string comment '部门编码'
    , orgname string comment '部门名称'
) comment '组织机构维度表'
partitioned by (dt string)
stored as orc
location '/data/dw/dws/one_make/dim_emporg';
  • 抽取数据
-- 先根据dwd层的表进行关联,然后分别把数据取出来
insert overwrite table one_make_dws.dim_emporg partition(dt='20210101')
select
    emp.empid as empid
    , emp.empcode as empcode
    , emp.empname as empname
    , emp.userid as userid
    , pos.positionid as posid
    , pos.posicode as posicode
    , pos.posiname as posiname
    , org.orgid as orgid
    , org.orgcode as orgcode
    , org.orgname as orgname
from  one_make_dwd.org_employee emp
left join one_make_dwd.org_empposition emppos
    on emp.empid = emppos.empid and emp.dt = '20210101' and emppos.dt = '20210101'
left join one_make_dwd.org_position pos
    on emppos.positionid = pos.positionid and pos.dt = '20210101'
left join one_make_dwd.org_organization org
    on pos.orgid = org.orgid and org.dt = '20210101';
  • 小结
  • 实现组织机构维度的设计及构建

02:其他维度:仓库、物流

  • 目标实现仓库维度、物流维度的构建
  • 路径
  • step1:仓库维度
  • step2:物流维度
  • 实施
  • 仓库维度
  • 建表
-- 仓库维度表
create external table if not exists one_make_dws.dim_warehouse(
    code string comment '仓库编码'
    , name string comment '仓库名称'
    , company_id string comment '所属公司'
    , company string comment '公司名称'
    , srv_station_id string comment '所属服务网点ID'
    , srv_station_name string comment '所属服务网点名称'
)comment '仓库维度表'
partitioned by (dt string)
stored as orc
location '/data/dw/dws/one_make/dim_warehouse';
  • 加载
insert overwrite table one_make_dws.dim_warehouse partition(dt='20210101')
select
    warehouse.code as code
    , warehouse.name as name
    , warehouse.company as company_id
    , cmp.compmay as compmay
    , station.id as srv_station_id
    , station.name as srv_station_name
from
    one_make_dwd.ciss_base_warehouse warehouse
-- 关联公司信息表
left join (
     select
           ygcode as company_id, max(companyname) as compmay
     from one_make_dwd.ciss_base_baseinfo where dt='20210101'
     -- 需要对company信息进行分组去重,里面有一些重复数据 
     group by ygcode) cmp
     on warehouse.dt = '20210101' and cmp.company_id = warehouse.company
-- 关联服务网点和仓库关系表
left join one_make_dwd.ciss_r_serstation_warehouse station_r_warehouse
     on station_r_warehouse.dt = '20210101' and station_r_warehouse.warehouse_code = warehouse.code
-- 关联服务网点表 
left join one_make_dwd.ciss_base_servicestation station
     on station.dt = '20210101' and station.id = station_r_warehouse.service_station_id;
  • 物流维度
  • 建表
-- 物流维度表(和服务属性表类似)
create external table if not exists one_make_dws.dim_logistics(
    prop_name string comment '字典名称'
    , type_id string comment '属性id'
    , type_name string comment '属性名称'
)comment '物流维度表'
partitioned by (dt string)
stored as orc
location '/data/dw/dws/one_make/dim_logistics';
  • 加载
insert overwrite table one_make_dws.dim_logistics partition(dt = '20210101')
select
    dict_t.dicttypename as prop_name
    , dict_e.dictid as type_id
    , dict_e.dictname as type_name
from  one_make_dwd.eos_dict_type dict_t
inner join one_make_dwd.eos_dict_entry dict_e
    on dict_t.dt = '20210101'
        and dict_e.dt = '20210101'
        and dict_t.dicttypeid = dict_e.dicttypeid
        and dict_t.dicttypename in (
            '物流公司'
            , '物流类型'
        )
order by dict_t.dicttypename, dict_e.dictid;
  • 使用如下写法会好一些
insert overwrite table one_make_dws.dim_logistics partition (dt = '20210101')
select dict_t.dicttypename as prop_name
     , dict_e.dictid       as type_id
     , dict_e.dictname     as type_name
from one_make_dwd.eos_dict_type dict_t
        inner join one_make_dwd.eos_dict_entry dict_e on dict_t.dt = '20210101'
        and dict_e.dt = '20210101'
        and dict_t.dicttypeid = dict_e.dicttypeid   -- 通过状态字符串进行关联
        and dict_t.dicttypename in ('物流公司', '物流类型') -- 通过和物流相关的字样进行过滤
order by prop_name, type_id;
  • 小结
  • 实现仓库维度、物流维度的构建

附录一:常见问题

1.错误:没有开启Cross Join

Exception in thread "main" org.apache.spark.sql.AnalysisException: Detected implicit cartesian product for INNER join between logical plans.Use the CROSS JOIN syntax to allow cartesian products between these relations
  • Spark2.x默认不允许执行笛卡尔积,除非显示申明cross join或者开启属性:spark.sql.crossJoin.enabled true

2.错误:Unable to move source

Error: org.apache.spark.sql.AnalysisException: org.apache.hadoop.hive.ql.metadata.HiveException: Unable to move source hdfs://hadoop.bigdata.cn:9000/data/dw/dws/one_make/dim_warehouse/.hive-staging_hive_2020-12-23_04-26-01_363_5663538019799519260-16/-ext-10000/part-00000-63069107-6405-4e31-a55a-6bdeefcd7d9b-c000 to destination hdfs://hadoop.bigdata.cn:9000/data/dw/dws/one_make/dim_warehouse/dt=20210101/part-00000-63069107-6405-4e31-a55a-6bdeefcd7d9b-c000; (state=,code=0)
  • 重启SparkSQL的ThriftServer,与MetaStore构建新的会话连接


相关实践学习
钉钉群中如何接收IoT温控器数据告警通知
本实验主要介绍如何将温控器设备以MQTT协议接入IoT物联网平台,通过云产品流转到函数计算FC,调用钉钉群机器人API,实时推送温湿度消息到钉钉群。
阿里云AIoT物联网开发实战
本课程将由物联网专家带你熟悉阿里云AIoT物联网领域全套云产品,7天轻松搭建基于Arduino的端到端物联网场景应用。 开始学习前,请先开通下方两个云产品,让学习更流畅: IoT物联网平台:https://iot.console.aliyun.com/ LinkWAN物联网络管理平台:https://linkwan.console.aliyun.com/service-open
目录
相关文章
|
4月前
|
监控 JavaScript NoSQL
【开源视频联动物联网平台】写一个物联网项目捐献给Dromara组织
【开源视频联动物联网平台】写一个物联网项目捐献给Dromara组织
102 1
|
27天前
|
分布式计算 搜索推荐 物联网
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
大数据及AI典型场景实践问题之通过KafKa+OTS+MaxCompute完成物联网系统技术重构如何解决
|
4月前
|
监控 物联网 大数据
智慧工地管理平台系统源码基于物联网、云计算、大数据等技术
智慧工地平台APP通过对施工过程人机料法环的全面感知、互联互通、智能协同,提高施工现场的生产效率、管理水平和决策能力,实现施工管理的数字化、智能化、精益化。
94 0
|
4月前
|
NoSQL 物联网 大数据
【补充】助力工业物联网,工业大数据之AirFlow安装
【补充】助力工业物联网,工业大数据之AirFlow安装
82 1
|
4月前
|
Prometheus 数据可视化 Cloud Native
助力工业物联网,工业大数据之服务域:可视化工具Grafana介绍【三十八】
助力工业物联网,工业大数据之服务域:可视化工具Grafana介绍【三十八】
139 1
|
4月前
|
存储 SQL Oracle
助力工业物联网,工业大数据之服务域:项目总结【三十九】
助力工业物联网,工业大数据之服务域:项目总结【三十九】
80 1
|
4月前
|
SQL Prometheus 监控
助力工业物联网,工业大数据之服务域:node_exporter插件【三十七】
助力工业物联网,工业大数据之服务域:node_exporter插件【三十七】
60 1
|
15天前
|
存储 大数据 数据挖掘
【数据新纪元】Apache Doris:重塑实时分析性能,解锁大数据处理新速度,引爆数据价值潜能!
【9月更文挑战第5天】Apache Doris以其卓越的性能、灵活的架构和高效的数据处理能力,正在重塑实时分析的性能极限,解锁大数据处理的新速度,引爆数据价值的无限潜能。在未来的发展中,我们有理由相信Apache Doris将继续引领数据处理的潮流,为企业提供更快速、更准确、更智能的数据洞察和决策支持。让我们携手并进,共同探索数据新纪元的无限可能!
61 11
|
20天前
|
存储 分布式计算 大数据
MaxCompute 数据分区与生命周期管理
【8月更文第31天】随着大数据分析需求的增长,如何高效地管理和组织数据变得至关重要。阿里云的 MaxCompute(原名 ODPS)是一个专为海量数据设计的计算服务,它提供了丰富的功能来帮助用户管理和优化数据。本文将重点讨论 MaxCompute 中的数据分区策略和生命周期管理方法,并通过具体的代码示例来展示如何实施这些策略。
51 1
|
25天前
数据平台问题之在数据影响决策的过程中,如何实现“决策/行动”阶段
数据平台问题之在数据影响决策的过程中,如何实现“决策/行动”阶段

热门文章

最新文章