数据仓库元数据管理

元数据(MetaData)狭义的解释是用来描述数据的数据。广义的来看,除了业务逻辑直接读写处理的那些业务数据,所有其它用来维持整个系统运转所需的信息/数据都可以叫作元数据。如数据库中表的Schema信息,任务的血缘关系,用户和脚本/任务的权限映射关系信息等。

管理元数据的目的,是为了让用户能够更高效的使用数据,也是为了让平台管理人员能更加有效的做好数据的维护管理工作。

但通常这些元数据信息是散落在平台的各个系统,各种流程之中的,它们的管理也可能或多或少可以通过各种子系统自身的工具,方案或流程逻辑来实现。

元数据管理平台很重要的一个功能就是信息的收集,至于收集哪些信息,取决于业务的需求和需要解决的目标问题。

元数据管理平台还需要考虑如何以恰当的形式对这些元数据信息进行展示;进一步的,如何将这些元数据信息通过服务的形式提供给周边上下游系统使用,真正帮助大数据平台完成质量管理的闭环工作。

应该收集那些信息,没有绝对的标准,但是对大数据开发平台来说,常见的元数据信息包括:

  • 表结构信息

  • 数据的空间存储,读写记录,权限归属和其它各类统计信息

  • 数据的血缘关系信息

  • 数据的业务属性信息

数据血缘关系。血缘信息或者叫做Lineage的血统信息是什么,简单的说就是数据之间的上下游来源去向关系,数据从哪里来到哪里去。如果一个数据有问题,可以根据血缘关系往上游排查,看看到底在哪个环节出了问题。此外也可以通过数据的血缘关系,建立起生产这些数据的任务之间的依赖关系,进而辅助调度系统的工作调度,或者用来判断一个失败或错误的任务可能对哪些下游数据造成影响等等。

分析数据的血缘关系看起来简单,但真的要做起来,并不容易,因为数据的来源多种多样,加工数据的手段,所使用的计算框架可能也各不相同,此外也不是所有的系统天生都具备获取相关信息的能力。而针对不同的系统,血缘关系具体能够分析到的粒度可能也不一样,有些能做到表级别,有些甚至可以做到字段级别。

以Hive表为例,通过分析Hive脚本的执行计划,是可以做到相对精确的定位出字段级别的数据血缘关系的。而如果是一个MapReduce任务生成的数据,从外部来看,可能就只能通过分析MR任务输出的Log日志信息来粗略判断目录级别的读写关系,从而间接推导数据的血缘依赖关系了。

数据的业务属性信息。业务属性信息都有哪些呢?如一张数据表的统计口径信息,这张表干什么用的,各个字段的具体统计方式,业务描述,业务标签,脚本逻辑的历史变迁记录,变迁原因等,此外还包括对应的数据表格是由谁负责开发的,具体数据的业务部门归属等。数据的业务属性信息,首先是为业务服务的,它的采集和展示也就需要尽可能的和业务环境相融合,只有这样才能真正发挥这部分元数据信息的作用。

很长一段时间内,市面都没有成熟的大数据元数据管理解决方案。直到2015年,Hortonworks终于坐不住了,约了一众小伙伴公司倡议:咱们开始整个数据治理方案吧。然后,包含数据分类、集中策略引擎、数据血缘、安全和生命周期管理功能的Atlas应运而生。(类似的产品还有Linkedin 在2016年新开源的项目 WhereHows )

Atlas简介

Atlas是Hadoop平台元数据框架;

Atlas是一组可扩展的核心基础治理服务,使企业能够有效,高效地满足Hadoop中的合规性要求,并能与整个企业数据生态系统集成;

Apache Atlas为组织提供了开放的元数据管理和治理功能,以建立数据资产的目录,对这些资产进行分类和治理,并为IT团队、数据分析团队提供围绕这些数据资产的协作功能。


Atlas由元数据的收集,存储和查询展示三部分核心组件组成。此外,还会有一个管理后台对整体元数据的采集流程以及元数据格式定义和服务的部署等各项内容进行配置管理。

Atlas包括以下组件:

  • Core。Atlas功能核心组件,提供元数据的获取与导出(Ingets/Export)、类型系统(Type System)、元数据存储索引查询等核心功能

  • Integration。Atlas对外集成模块。外部组件的元数据通过该模块将元数据交给Atlas管理

  • Metadata source。Atlas支持的元数据数据源,以插件形式提供。当前支持从以下来源提取和管理元数据

    • Hive

    • HBase

    • Sqoop

    • Kafka

    -Storm

  • Applications。Atlas的上层应用,可以用来查询由Atlas管理的元数据类型和对象

  • Graph Engine(图计算引擎)。Altas使用图模型管理元数据对象。图数据库提供了极大的灵活性,并能有效处理元数据对象之间的关系。除了管理图对象之外,图计算引擎还为元数据对象创建适当的索引,以便进行高效的访问。在Atlas 1.0 之前采用Titan作为图存储引擎,从1.0开始采用 JanusGraph 作为图存储引擎。JanusGraph 底层又分为两块:

    • Metadata Store。采用 HBase 存储 Atlas 管理的元数据;

    • Index Store。采用Solr存储元数据的索引,便于高效搜索;

安装配置

重点讲解Atlas,不对Atlas的依赖组件做讲解,组件均采用单机模式安装。编译才能安装。

安装依赖

Maven 3.6.3(完成)

HBase 1.1.2(不需要安装,需要软件包)

Solr 5.5.1(不需要安装,需要软件包)

atlas 1.2.0(需要编译)

官方只提供了源码,没有提供二进制的安装版本,因此Atlas需要编译。

安装步骤

  • 1、准备软件包

    apache-atlas-1.2.0-sources.tar.gz

    solr-5.5.1.tgz

    hbase-1.1.2.tar.gz

  • 2、解压缩源码,修改配置

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    # 解压缩
    [root@Linux122 ~]# cd /opt/lagou/software
    [root@Linux122 software]# tar zxvf apache-atlas-1.2.0-sources.tar.gz
    [root@Linux122 software]# cd apache-atlas-sources-1.2.0/

    # 修改配置
    [root@Linux122 apache-atlas-sources-1.2.0]# vi pom.xml

    # 修改
    645 <npm-for-v2.version>3.10.8</npm-for-v2.version>
    652 <hadoop.version>2.9.2</hadoop.version>
  • 3、将HBase、Solr的包拷贝到对应的目录中

    如果不拷贝这些包,就需要下载,下载 HBase 和 Solr 时速度很慢。这里提前下载完所需的这两个组件,拷贝到对应目录中。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    [root@Linux122 apache-atlas-sources-1.2.0]# cd /opt/lagou/software/apache-atlas-sources-1.2.0

    # 创建目录
    [root@Linux122 apache-atlas-sources-1.2.0]# cd distro/
    [root@Linux122 distro]# mkdir solr
    [root@Linux122 distro]# mkdir hbase

    # 拷贝软件包
    [root@Linux122 distro]# cp /opt/lagou/software/solr-5.5.1.tgz ./solr/
    [root@Linux122 distro]# cp /opt/lagou/software/hbase-1.1.2.tar.gz ./hbase/
  • 4、maven设置阿里镜像

    备注:重要,否则非常慢

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    [root@Linux122 distro]# cd $MAVEN_HOME/conf

    # 在配置文件中添加
    [root@Linux122 conf]# vi settings.xml

    # 加在 158 行后
    <mirror>
    <id>alimaven</id>
    <name>aliyun maven</name>
    <url>http://maven.aliyun.com/nexus/content/groups/public/</url >
    <mirrorOf>central</mirrorOf>
    </mirror>
  • 5、Atlas编译

    1
    2
    3
    4
    5
    [root@Linux122 conf]# cd /opt/lagou/software/apache-atlas-sources-1.2.0

    [root@Linux122 apache-atlas-sources-1.2.0]# export MAVEN_OPTS="-Xms2g -Xmx2g"

    [root@Linux122 apache-atlas-sources-1.2.0]# mvn clean -DskipTests package -Pdist,embedded-hbase-solr

    编译完的软件位置:/opt/lagou/software/apache-atlas-sources-1.2.0/distro/target

    编译完的软件:apache-atlas-1.2.0-bin.tar.gz

  • 6、Atlas安装

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    [root@Linux122 apache-atlas-sources-1.2.0]# cd /opt/lagou/software/apache-atlas-sources-1.2.0/distro/target

    # 解压缩
    [root@Linux122 target]# tar zxvf apache-atlas-1.2.0-bin.tar.gz
    [root@Linux122 target]# mv apache-atlas-1.2.0/ /opt/lagou/servers/atlas-1.2.0

    # 修改 /etc/profile,设置环境变量 ATLAS_HOME
    [root@Linux122 target]# vi /etc/profile

    # ATLAS_HOME
    export ATLAS_HOME=/opt/lagou/servers/atlas-1.2.0
    export PATH=$PATH:$ATLAS_HOME/bin

    [root@Linux122 target]# source /etc/profile

    # 启动服务(第一次启动服务的时间比较长)
    [root@Linux122 target]# cd $ATLAS_HOME/bin
    [root@Linux122 bin]# ./atlas_start.py

    # 检查后台进程 (1个atlas、2个HBase、1个solr后台进程)
    [root@Linux122 bin]# ps -ef | grep atlas

    # 停止服务
    [root@Linux122 bin]# ./atlas_stop.py

    检查 solr 的状态:

    1
    2
    3
    4
    cd /opt/lagou/servers/atlas-1.2.0/solr/bin
    ./solr status

    Solr process 25038 running on port 9838 { "solr_home":"/opt/lagou/servers/atlas- 1.2.0/solr/server/solr", "version":"5.5.1 c08f17bca0d9cbf516874d13d221ab100e5b7d58 - anshum - 2016-04-30 13:28:18", "startTime":"2020-07-31T11:58:45.638Z", "uptime":"0 days, 14 hours, 55 minutes, 11 seconds", "memory":"54.8 MB (%11.2) of 490.7 MB", "cloud":{ "ZooKeeper":"localhost:2181", "liveNodes":"1", "collections":"3"}}

    检查 zk 状态:

    1
    echo stat|nc localhost 2181

    Web服务:http://linux122:21000/login.jsp


    用户名 / 口令:admin / admin

    账号的信息存储在文件 $ATLAS_HOME/conf/users-credentials.properties 中。其中 Password 通过如下方式产生sha256sum 摘要信息:


Hive血缘关系导入

  • 1、配置HIVE_HOME环境变量

    将 $ATLAS_HOME/conf/atlas-application.properties 拷贝到 $HIVE_HOME/conf 目录下

    1
    [root@Linux122 bin]# ln -s $ATLAS_HOME/conf/atlas-application.properties $HIVE_HOME/conf/atlas-application.properties
  • 2、拷贝jar包

    1
    2
    3
    4
    5
    6
    7
    8
    # $ATLAS_HOME/server/webapp/atlas/WEB-INF/lib/ 目录下的3个jar, 拷贝到 $ATLAS_HOME/hook/hive/atlas-hive-plugin-impl/ 目录下
    jackson-jaxrs-base-2.9.9.jar
    jackson-jaxrs-json-provider-2.9.9.jar
    jackson-module-jaxb-annotations-2.9.9.jar

    ln -s $ATLAS_HOME/server/webapp/atlas/WEB-INF/lib/jackson-jaxrs-base-2.9.9.jar $ATLAS_HOME/hook/hive/atlas-hive-plugin-impl/jackson-jaxrs-base-2.9.9.jar
    ln -s $ATLAS_HOME/server/webapp/atlas/WEB-INF/lib/jackson-jaxrs-json-provider-2.9.9.jar $ATLAS_HOME/hook/hive/atlas-hive-plugin-impl/jackson-jaxrs-json-provider-2.9.9.jar
    ln -s $ATLAS_HOME/server/webapp/atlas/WEB-INF/lib/jackson-module-jaxb-annotations-2.9.9.jar $ATLAS_HOME/hook/hive/atlas-hive-plugin-impl/jackson-module-jaxb-annotations-2.9.9.jar
  • 3、修改Hive的配置

    hive-site.xml增加 hook

    1
    2
    3
    4
    5
    6
    7
    [root@Linux122 conf]# cd $HIVE_HOME/conf
    [root@Linux122 conf]# vi hive-site.xml

    <property>
    <name>hive.exec.post.hooks</name>
    <value>org.apache.atlas.hive.hook.HiveHook</value>
    </property>

    $HIVE_HOME/conf/hive-env.sh中添加HIVE_AUX_JARS_PATH变量

    1
    2
    3
    4
    5
    [root@Linux122 conf]# vi /etc/profile

    export HIVE_AUX_JARS_PATH=/opt/lagou/servers/atlas-1.2.0/hook/hive

    [root@Linux122 conf]# source /etc/profile
  • 4、批量导入hive数据

    备注:Hive能正常启动;在执行的过程中需要用户名/口令:admin/admin

    1
    2
    [root@Linux122 target]# cd $ATLAS_HOME/bin
    [root@Linux122 bin]# ./import-hive.sh

    成功导出可以看见最后的提示信息:Hive Meta Data imported successfully!!!

    在浏览器中可以看见:Search 中的选项有变化


    Hive hook 可捕获以下操作:

    • create database

    • create table/view, create table as select

    • load, import, export

    • DMLs (insert)

    • alter database

    • alter table

    -alter view

与电商业务集成

开发(建库、建表) => 导入数据 => 执行Hive脚本

导入Hive的血缘关系

电商业务建表语句(可省略):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
-- 创建DataBases;
CREATE DATABASE ODS;
CREATE DATABASE DIM;
CREATE DATABASE DWD;
CREATE DATABASE DWS;
CREATE DATABASE ADS;

-- 创建ODS表
DROP TABLE IF EXISTS `ods.ods_trade_orders`;
CREATE EXTERNAL TABLE `ods.ods_trade_orders`(
`orderid` int,
`orderno` string,
`userid` bigint,
`status` tinyint,
`productmoney` decimal(10,0),
`totalmoney` decimal(10,0),
`paymethod` tinyint,
`ispay` tinyint,
`areaid` int,
`tradesrc` tinyint,
`tradetype` int,
`isrefund` tinyint,
`dataflag` tinyint,
`createtime` string,
`paytime` string,
`modifiedtime` string
)
COMMENT '订单表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/orders/';

DROP TABLE IF EXISTS `ods.ods_trade_order_product`;
CREATE EXTERNAL TABLE `ods.ods_trade_order_product`(
`id` string,
`orderid` decimal(10,2),
`productid` string,
`productnum` string,
`productprice` string,
`money` string,
`extra` string,
`createtime` string
)
COMMENT '订单明细表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/order_product/';

DROP TABLE IF EXISTS `ods.ods_trade_product_info`;
CREATE EXTERNAL TABLE `ods.ods_trade_product_info`(
`productid` bigint,
`productname` string,
`shopid` string,
`price` decimal(10,0),
`issale` tinyint,
`status` tinyint,
`categoryid` string,
`createtime` string,
`modifytime` string
)
COMMENT '产品信息表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/product_info/';

DROP TABLE IF EXISTS `ods.ods_trade_product_category`;
CREATE EXTERNAL TABLE `ods.ods_trade_product_category`(
`catid` int,
`parentid` int,
`catname` string,
`isshow` tinyint,
`sortnum` int,
`isdel` tinyint,
`createtime` string,
`level` tinyint
)
COMMENT '产品分类表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/product_category';

DROP TABLE IF EXISTS `ods.ods_trade_shops`;
CREATE EXTERNAL TABLE `ods.ods_trade_shops`(
`shopid` int,
`userid` int,
`areaid` int,
`shopname` string,
`shoplevel` tinyint,
`status` tinyint,
`createtime` string,
`modifytime` string
)
COMMENT '商家店铺表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/shops';

DROP TABLE IF EXISTS `ods.ods_trade_shop_admin_org`;
CREATE EXTERNAL TABLE `ods.ods_trade_shop_admin_org`(
`id` int,
`parentid` int,
`orgname` string,
`orglevel` tinyint,
`isdelete` tinyint,
`createtime` string,
`updatetime` string,
`isshow` tinyint,
`orgType` tinyint
)
COMMENT '商家地域组织表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/shop_org/';

DROP TABLE IF EXISTS `ods.ods_trade_payments`;
CREATE EXTERNAL TABLE `ods.ods_trade_payments`(
`id` string,
`paymethod` string,
`payname` string,
`description` string,
`payorder` int,
`online` tinyint
)
COMMENT '支付方式表'
PARTITIONED BY (`dt` string)
row format delimited fields terminated by ','
location '/user/data/trade.db/payments/';

-- 创建DIM表
DROP TABLE IF EXISTS dim.dim_trade_product_cat;
create table if not exists dim.dim_trade_product_cat(
firstId int, -- 一级商品分类id
firstName string, -- 一级商品分类名称
secondId int, -- 二级商品分类Id
secondName string, -- 二级商品分类名称
thirdId int, -- 三级商品分类id
thirdName string -- 三级商品分类名称
)
partitioned by (dt string)
STORED AS PARQUET;

drop table if exists dim.dim_trade_shops_org;
create table dim.dim_trade_shops_org(
shopid int,
shopName string,
cityId int,
cityName string ,
regionId int ,
regionName string
)
partitioned by (dt string)
STORED AS PARQUET;

drop table if exists dim.dim_trade_payment;
create table if not exists dim.dim_trade_payment(
paymentId string, -- 支付方式id
paymentName string -- 支付方式名称
)
partitioned by (dt string)
STORED AS PARQUET;

drop table if exists dim.dim_trade_product_info;
create table dim.dim_trade_product_info(
`productId` bigint,
`productName` string,
`shopId` string,
`price` decimal,
`isSale` tinyint,
`status` tinyint,
`categoryId` string,
`createTime` string,
`modifyTime` string,
`start_dt` string,
`end_dt` string
)
COMMENT '产品表'
STORED AS PARQUET;

-- 创建DWD表
-- 订单事实表(拉链表)
DROP TABLE IF EXISTS dwd.dwd_trade_orders;
create table dwd.dwd_trade_orders(
`orderId` int,
`orderNo` string,
`userId` bigint,
`status` tinyint,
`productMoney` decimal,
`totalMoney` decimal,
`payMethod` tinyint,
`isPay` tinyint,
`areaId` int,
`tradeSrc` tinyint,
`tradeType` int,
`isRefund` tinyint,
`dataFlag` tinyint,
`createTime` string,
`payTime` string,
`modifiedTime` string,
`start_date` string,
`end_date` string
)
COMMENT '订单事实拉链表'
partitioned by (dt string) STORED AS PARQUET;

-- 创建DWS表
DROP TABLE IF EXISTS dws.dws_trade_orders;
create table if not exists dws.dws_trade_orders(
orderid string, -- 订单id
cat_3rd_id string, -- 商品三级分类id
shopid string, -- 店铺id
paymethod tinyint, -- 支付方式
productsnum bigint, -- 商品数量
paymoney double, -- 订单商品明细金额
paytime string -- 订单时间
)
partitioned by (dt string)
STORED AS PARQUET;

-- 订单明细表宽表
DROP TABLE IF EXISTS dws.dws_trade_orders_w;
create table if not exists dws.dws_trade_orders_w(
orderid string, -- 订单id
cat_3rd_id string, -- 商品三级分类id
thirdname string, -- 商品三级分类名称
secondname string, -- 商品二级分类名称
firstname string, -- 商品一级分类名称
shopid string, -- 店铺id
shopname string, -- 店铺名
regionname string, -- 店铺所在大区
cityname string, -- 店铺所在城市
paymethod tinyint, -- 支付方式
productsnum bigint, -- 商品数量
paymoney double, -- 订单明细金额
paytime string -- 订单时间
)
partitioned by (dt string)
STORED AS PARQUET;

-- 创建ADS表
-- ADS层订单分析表
DROP TABLE IF EXISTS ads.ads_trade_order_analysis;
create table if not exists ads.ads_trade_order_analysis(
areatype string, -- 区域范围:区域类型(全国、大 区、城市)
regionname string, -- 区域名称
cityname string, -- 城市名称
categorytype string, -- 商品分类类型(一级、二级)
category1 string, -- 商品一级分类名称
category2 string, -- 商品二级分类名称
totalcount bigint, -- 订单数量
total_productnum bigint, -- 商品数量
totalmoney double -- 支付金额
)
partitioned by (dt string)
row format delimited fields terminated by ',';

使用Sqoop加载数据(可省略):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/orders/dt=2020-07-21/ \
--table lagou_trade_orders \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/payments/dt=2020-07-21/ \
--table lagou_payments \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/product_category/dt=2020-07- 21/ \
--table lagou_product_category \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/product_info/dt=2020-07-21/ \
--table lagou_product_info \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/order_product/dt=2020-07-21/ \
--table lagou_order_product \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \ --password 12345678 \
--target-dir /user/data/trade.db/shop_org/dt=2020-07-21/ \
--table lagou_shop_admin_org \ --delete-target-dir \
--num-mappers 1 \ --fields-terminated-by ','

sqoop import \
--connect jdbc:mysql://linux123:3306/ebiz \
--username hive \
--password 12345678 \
--target-dir /user/data/trade.db/shops/dt=2020-07-21/ \
--table lagou_shops \
--delete-target-dir \
--num-mappers 1 \
--fields-terminated-by ','

alter table ods.ods_trade_orders add partition(dt='2020-07- 21');
alter table ods.ods_trade_payments add partition(dt='2020-07- 21');
alter table ods.ods_trade_product_category add partition(dt='2020-07-21');
alter table ods.ods_trade_product_info add partition(dt='2020- 07-21');
alter table ods.ods_trade_order_product add partition(dt='2020-07-21');
alter table ods.ods_trade_shop_admin_org add partition(dt='2020-07-21');
alter table ods.ods_trade_shops add partition(dt='2020-07- 21');

电商业务脚本(省略了ODS层数据加载):

1
2
3
4
5
6
7
8
9
10
11
12
13
14
# 加载DIM层数据
sh /data/script/trade/dim_load_product_cat.sh 2020-07-21
sh /data/script/trade/dim_load_shop_org.sh 2020-07-21
sh /data/script/trade/dim_load_payment.sh 2020-07-21
sh /data/script/trade/dim_load_product_info.sh 2020- 07-21

# 加载DWD层数据
sh /data/script/trade/dwd_load_trade_orders.sh 2020-07-21

# 加载DWS层数据
sh /data/script/trade/dws_load_trade_orders.sh 2020-07-21

# 加载ADS层数据
sh /data/script/trade/ads_load_trade_order_analysis.sh 2020-07-21

创建 Classfication:order_analysis

创建Glossary:ODS层 => 电商业务

查看血缘关系 ads_trade_order_analysis: