数栈是云原生—站式数据中台PaaS,咱们在github和gitee上有一个乏味的开源我的项目:FlinkX,FlinkX是一个基于Flink的批流对立的数据同步工具,既能够采集动态的数据,也能够采集实时变动的数据,是全域、异构、批流一体的数据同步引擎。大家喜爱的话请给咱们点个star!star!star!
github开源我的项目:https://github.com/DTStack/fl...
gitee开源我的项目:https://gitee.com/dtstack_dev...
「表格存储」是 NoSQL 的数据存储服务,是基于云计算技术构建的一个分布式结构化和半结构化数据的存储和治理服务。
表格存储的数据模型以「二维表」为核心。
表有行和列的概念,然而与传统数据库不一样,表格存储的表是稠密的
每一行能够有不同的列,能够动静减少或者缩小属性列,建表时不须要为表的属性列定义严格的 schema。
一、概述
OTS的数据迁徙能够应用「DataX」实现全量数据迁徙。但因为局部数据表的数据量较大,无奈在指定的工夫窗口内实现全量迁徙,且目前DataX只能针对主键值进行范畴查问,暂不反对依照属性列范畴抽取数据。
所以能够按如下两种形式实现全量+增量的数据迁徙:
- 分区键蕴含范畴信息(如工夫信息、自增ID),则以指定range为切分点,分批次迁徙。
- 分区键不蕴含范畴信息,则能够采纳在利用侧双写的模式将数据分批次迁徙,写入指标环境同一张业务表。利用OTS的主键唯一性,抉择对反复数据执行笼罩原有行的策略来保证数据唯一性。
总而言之,言而总之,咱们不生产数据,此刻,咱们是大数据的搬运工。
接下来呢,本文就以利用侧调整为双写模式为例,具体阐明OTS数据迁徙、校验过程。
其中OTS数据迁徙流程具体如下图所示:
OTS数据迁徙之筹备工作
- 预迁徙阶段:双写模式中的大表全量迁徙
- 正式迁徙阶段:双写模式中的增量表全量迁徙、其余小表的全量迁徙
二、预迁徙阶段
1、 筹备工作
为保障新老环境的数据一致性,须要在开始数据迁徙前,对指标环境的OTS数据表进行数据清空操作,Delete操作是通过DataX工具间接删除表内数据,无需从新建表。
具体操作如下:
1) 配置DataX工作
在应用DataX执行数据清空前,需配置对应数据表应用DataX执行Delete工作所需的json文件。在清空数据的配置中,reader与writer均配置指标端的连贯信息,且数据写入模式配置DeleteRow即可,具体内容如下:
{
"job": { "setting": { "speed": { "channel": "5" } }, "content": [{ "reader": { "name": "otsreader", "parameter": { "endpoint": "http://xxx.vpc.ots.yyy.com/", "accessId": "dest_accessId", "accessKey": "dest_accessKey", "instanceName": " dest_instanceName", "table": " tablename ", "column": [{ "name": "xxxxx" }, { "name": "xxxxx" } ], "range": { "begin": [{ "type": "INF_MIN" }], "end": [{ "type": "INF_MAX" }] } } }, "writer": { "name": "otswriter", "parameter": { "endpoint": "http://xxx.vpc.ots.yun.yyy.com/", "accessId": "dest_accessId", "accessKey": "dest_accessKey", "instanceName": " dest_instanceName", "table": " tablename ", "primaryKey": [{ "name": "xxxxx", "type": "string" }], "column": [{ "name": "xxxxx", "type": "string" }, { "name": "xxxxx", "type": "string" } ], "writeMode": "DeleteRow" } } }]}
}
2 )执行datax工作
- 登录datax所在ECS后,进入datax所在门路
- 在对应的工具机别离执行del_pre.sh脚本,即可开始指标环境对应表的数据清空,具体命令如下:
sh del_pre.sh
- del_pre.sh脚本内容如下:
!/bin/bash
nohup python datax.py del_table_1.json --jvm="-Xms16G -Xmx16G" > del_table_1.log &
2、 数据迁徙
在不停服务的状况下把源环境内数据量较大的数据表全副迁徙到指标环境内对应的数据表。
1)配置DataX工作
在DataX对数据表配置相应的json文件,迁徙配置的具体内容如下:
{
"job": { "setting": { "speed": { "channel": "5" } }, "content": [{ "reader": { "name": "otsreader", "parameter": { "endpoint": "http://xxx.vpc.ots.yyy.com/", "accessId": "src_accessId", "accessKey": "src_ accessKey ", "instanceName": " src_instanceName", "table": "tablename", "column": [{ "name": "xxxxx" }, { "name": "xxxxx" } ], "range": { "begin": [{ "type": "INF_MIN" }], "end": [{ "type": "INF_MAX" }] } } }, "writer": { "name": "otswriter", "parameter": { "endpoint": "http://xxx.vpc.ots.yun.zzz.com/", "accessId": "dest_accessId", "accessKey": "dest_accessKey", "instanceName": " dest_instanceName", "table": " tablename ", "primaryKey": [{ "name": "xxxxx", "type": "string" }], "column": [{ "name": "xxxxx", "type": "string" }, { "name": "xxxxx", "type": "string" } ], "writeMode": "PutRow" } } }]}
}
需注意,因为OTS自身是NoSQL零碎,在迁徙数据的配置中,必须配置所有的属性列,否则会缺失对应属性列的值。
2) 执行datax工作
- 登录datax所在ECS后,进入datax所在门路
- 在对应的工具机别离执行pre_transfer.sh脚本,即可开始专有域OTS到专有云OTS的数据迁徙,具体命令如下:
sh pre_transfer.sh
- pre_transfer.sh脚本内容如下:
!/bin/bash
nohup python datax.py table_1.json --jvm="-Xms16G -Xmx16G" >table_1.log &
呐,此时,万事俱备,数据只待迁徙!
在迁徙之前,让咱们最初再对焦一下数据迁徙的指标:
上面,进入正式迁徙阶段!
三、正式迁徙阶段
1、OTS数据静默
OTS的数据静默次要是通过观察对应表的数据是否存在变动来判断,校验形式次要包含行数统计、内容统计。
1)行数统计
因OTS自身不提供count接口,所以采纳在hive创立OTS内部表的形式,读取OTS数据并计算对应数据表的行数,具体操作如下:
- 创立内部表
- 启动hive,创立上述数据表对应的内部表;为进步统计效率,内部表能够只读取OTS的主键列,建表语句示例如下:
CREATE EXTERNAL TABLE t_oilcard_expenses_old
(h_card_no string)
STORED BY 'com.aliyun.openservices.tablestore.hive.TableStoreStorageHandler'
WITH SERDEPROPERTIES(
"tablestore.columns.mapping"="card_no")
TBLPROPERTIES ("tablestore.endpoint"="$endpoint ","tablestore.instance"="instanceName","tablestore.access_key_id"="ak","tablestore.access_key_secret"="sk","tablestore.table.name"="tableName");
- 进入脚本所在门路
- 登录Hadoop集群master所在ECS,进入hive所在目录
- 执行行数统计
- 执行pre_all_count.sh脚本,即可开始源环境内OTS对应表的行数统计
nohup sh pre_all_count.sh >pre_all_count.log &
- pre_all_count.sh脚本内容如下:
!/bin/bash
./bin/hive -e "use ots;select count(h_card_no) from tableName;" >table.rs &
间断执行两次行数统计,若两次统计后果统一则阐明数据曾经静默,数据写入以进行。
2)内容统计
因为局部数据表分区键对应的值比拟繁多,导致数据全副存储在同一个分区。若采纳hive统计行数会耗时太久,所以对于这个表应用datax将OTS数据导入oss的形式进行内容统计,具体操作如下:
- 进入脚本所在门路
- 登录上述表格对应的ECS,进入datax所在门路;
- 执行内容校验
a、执行check_table.sh脚本,即可将源环境内OTS数据表导出到OSS;
sh check_table.sh
- check_table.sh脚本内容如下:
!/bin/bash
nohup python datax.py table.json --jvm="-Xms8G -Xmx8G">ots2oss01.log &
b、获取OSS object的ETAG值,写入对应文件table_check01.rs
间断执行两次内容统计,比照两次导出object的ETAG值,若后果统一则阐明数据曾经静默,数据写入以进行。
2、OTS数据迁徙
1)筹备工作
为保障迁徙后新老环境数据统一,避免指标环境因测试产生遗留脏数据,在进行数据迁徙前,须要将指标环境的OTS的其余全量表进行数据清空。
「数据清空形式」次要有Drop、Delete,两者的区别如下:
a、Drop表操作
登录OTS图形化客户端所在工具机,应用如下信息连贯指定OTS实例,并进行对应表的drop操作;
AK: dest_accessId
SK: dest_accessKey
InstanceName: InstanceName
Endpoint:endpoint
确认删除后,再在客户端从新创立对应的数据。
b、 Delete表操作
Delete操作是通过DataX工具间接删除表内数据,无需从新建表。DataX所需的配置文件参考2.1.1所示。
- 登录datax所在ECS后,进入datax所在门路
- 在对应的工具机别离执行delete脚本,即可开始指标环境OTS的对应表的数据清空,具体命令如下:
sh del_table_01.sh
- del_table_01.sh脚本内容如下:
!/bin/bash
nohup python datax.py del_table.json --jvm="-Xms16G -Xmx16G">del_table.log &
2)数据迁徙
在源环境进行服务的状况下把双写模式中的增量表全量迁徙以及其余小表全副迁徙到指标环境内对应的数据表。
具体操作如下:
a、配置DataX工作
在DataX对上述数据表配置相应的json文件,迁徙配置的具体内容参考2.2.1,在迁徙数据的配置中,须要列全所有的属性列。
b、执行DataX工作
- 登录DataX所在ECS后,进入DataX所在门路
- 在对应的工具机别离执行transfer.sh脚本,即可开始专有域OTS到专有云OTS的数据迁徙,具体命令如下:
sh transfer.sh
- transfer.sh脚本内容如下:
!/bin/bash
nohup python datax.py Table.json >Table.log &
3、OTS数据校验
新老环境OTS的数据校验形式均包含行数统计、内容统计,具体如下:
1)源环境数据统计
源环境OTS数据表的数据量统计根据数据静默期间最初一次的统计后果即可。
2)指标环境数据统计
a、行数统计
因OTS自身不提供count接口,且指标环境ODPS反对创立OTS内部表,所以采纳在ODPS创立OTS内部表的形式,读取OTS数据并计算对应数据表的行数,具体操作如下:
- 创立内部表
- 登录odpscmd,创立上述数据表对应的内部表;
- 进入脚本所在门路
- 登录odpscmd工具所在ECS,进入odps所在门路;
- 执行行数统计
- 执行newots_count.sh脚本,即可进行指标环境内OTS对应表的行数统计;
nohup sh newots_count.sh >newots_count.log &
- newots_count.sh脚本内容如下:
!/bin/bash
./bin/odpscmd -e "select count(h_card_no) from tableName;" >table.rs &
b、 内容统计
因为源环境的局部数据表采纳内容统计的形式进行数据校验,为了不便比照数据是否统一,所以指标环境也采纳内容统计的形式,具体操作参考3.1.2。