数据上云应该选择全量抽取还是增量抽取

40次阅读

共计 2417 个字符,预计需要花费 7 分钟才能阅读完成。

作者:向师富 转自:阿里巴巴数据中台官网 https://dp.alibaba.com
概述
数据抽取是指从源数据抽取所需要的数据,是构建数据中台的第一步。数据源一般是关系型数据库,近几年,随着移动互联网的蓬勃发展,出现了其他类型的数据源,典型的如网站浏览日期、APP 浏览日志、IoT 设备日志
从技术实现方式来讲,从关系型数据库获取数据,可以细分为全量抽取、增量抽取 2 种方式,两种方法分别适用于不用的业务场景

增量抽取

  • 时间戳方式

用时间戳方式抽取增量数据很常见,业务系统在源表上新增一个时间戳字段,创建、修改表记录时,同时修改时间戳字段的值。抽取任务运行时,进行全表扫描,通过比较抽取任务的业务时间、时间戳字段来决定抽取哪些数据。
此种数据同步方式,在准确率方面有两个弊端:
1、只能获取最新的状态,无法捕获过程变更信息,比如电商购物场景,如果客户下单后很快支付,隔天抽取增量数据时,只能获取最新的支付状态,下单时的状态有可能已经丢失。针对此种问题,需要根据业务需求来综合判定是否需要回溯状态。
2、会丢失已经被 delete 的记录。如果在业务系统中,将记录物理删除。也就无法进行增量抽取。一般情况下,要求业务系统不删除记录,只对记录进行打标。

业务系统维护时间戳
如果使用了 Oracle、DB2 等传统关系型数据库,需要业务系统维护时间戳字段,业务系统在更新业务数据时,在代码中更新时间戳字段。此种方法很常见,不过由于需要编码实现,工作量会变大,有可能会出现漏变更的情形

触发器维护时间戳
典型的关系型数据库,都支持触发器。当数据库记录有变更时,调用特定的函数,更新时间戳字段。典型的样例如下:

数据库维护时间戳
MySQL 可以自动实现变更字段的维护,一定程度上减轻了开发工作量。具体的实现样例如下:
创建记录

最终的结果如下:

更新记录

最终的结果如下,数据库自动变更了时间戳字段:

  • 分析 MySQL binlog 日志

近几年,随着互联网的蓬勃发展,互联网公司一般使用 MySQL 作为主数据库,由于是开源数据库,很多公司都做了定制化开发。其中一个很大的功能点是通过订阅 MySQL binlog 日志,实现了读写分离、主备实时同步,典型的示意图如下:

解析 binlog 日志,给数据同步带来了新的方法,将解析之后结果发送到 Hive/MaxCompute 等大数据平台,实现秒级延时的数据同步。

解析 binlog 日志增量同步方式技术很先进,有 3 个非常大的优点:
1. 数据延时小。在阿里巴巴双 11 场景,在巨大的数据量之下,可以做到秒级延时;
2. 不丢失数据,可以捕获数据 delete 的情形;
3. 对业务表无额外要求,可以缺少时间戳字段;

当然,这种同步方式也有些缺点:
1. 技术门槛很高。一般公司的技术储备不够,不足以自行完成整个系统搭建。目前国内也仅限于头部的互联网公司、大型的国企、央企。不过随着云计算的快速发展,在阿里云上开放了工具、服务,可以直接实现实时同步,经典的组合是 MySQL、DTS、Datahub、MaxCompute;
2. 资源成本比较高,要求有一个系统实时接收业务库的 binlog 日志,一直处于运行状态,占用资源较多
3. 业务表中需要有主键,以便进行数据排序

  • 分析 Oracle Redo Log 日志

Oracle 是功能非常强大的数据库,通过 Oracle GoldenGate 实时解析 Redo Log 日志,并将解析后的结果发布到指定的系统

全量抽取
全量抽取是将数据源中的表或视图的数据原封不动的从数据库中抽取出来,并写入到 Hive、MaxCompute 等大数据平台中,有点类似于业务库之间的数据迁移。
全量同步比较简单,常用于小数据量的离线同步场景。不过这种同步方法,也有两个弊端,与增量离线同步一模一样:
1. 只能获取最新的状态 
2. 会丢失已经被 delete 的记录

业务库表同步策略

  • 同步架构图
    从业务视角,可以将离线数据表同步细分为 4 个场景,总体架构图表如下:

原则上,在数据上云这个环节,建议只进行数据镜像同步。不进行业务相关的数据转换工作。从 ETL 策略转变为 ELT,出发点有 3 个:
1. 机器成本。在库外进行转换,需要额外的机器,带来新的成本;
2. 沟通成本。业务系统的开发人员,也是数据中台的用户,这些技术人员对原始的业务库表很熟悉,如果进行了额外的转换,他们需要额外的学习其他工具、产品;
3. 执行效率。库外的转换机器性能,一般会低于 MaxCompute、Hadoop 集群,增加了执行时间;
同步过程中,建议全表所有字段上云,减少后期变更成本

  • 小数据量表
    来源数据每日全量更新,采用数据库直连方式全量抽取,写入每日 / 每月全量分区表。
  • 日志型表
    原始日志增量抽取到每日增量表,按天增量存储。因为日志数据表现为只会有新增不会有修改的情况,因此不需要保存全量表。
  • 大数据量表
    数据库直连方式通过业务时间戳抽取增量数据到今日增量分区表,再将今日增量分区表 merge 前一日全量分区表,写入今日全量分区表。
  • 小时 / 分钟增量表 / 不定期全量
    来源数据更新频率较高,达到分钟 / 小时级别,从源数据库通过时间戳抽取增量数据到小时 / 分钟增量分区表,将 N 个小时 / 分钟增量分区表 merge 入每日增量分区表,再将今日增量分区表 merge 前一日全量分区表,写入今日全量分区表。

更多内容详见阿里巴巴数据中台官网 https://dp.alibaba.com
阿里巴巴数据中台团队,致力于输出阿里云数据智能的最佳实践,助力每个企业建设自己的数据中台,进而共同实现新时代下的智能商业!
阿里巴巴数据中台解决方案,核心产品:
Dataphin,以阿里巴巴大数据核心方法论 OneData 为内核驱动,提供一站式数据构建与管理能力;
Quick BI,集阿里巴巴数据分析经验沉淀,提供一站式数据分析与展现能力;
Quick Audience,集阿里巴巴消费者洞察及营销经验,提供一站式人群圈选、洞察及营销投放能力,连接阿里巴巴商业,实现用户增长。

原文链接

本文为云栖社区原创内容,未经允许不得转载。

正文完
 0