大主子表关联的性能优化方法

26次阅读

共计 5348 个字符,预计需要花费 14 分钟才能阅读完成。

【摘要】主子表是数据库最常见的关联关系之一,最典型的包括合同和合同条款、订单和订单明细、保险保单和保单明细、银行账户和账户流水、电商用户和订单、电信账户和计费清单或流量详单。当主子表的数据量较大时,关联计算的性能将急剧降低,在增加服务器负载的同时严重影响用户体验。作为面向过程的结构化数据计算语言,集算器 SPL 可通过有序归并的方法,显著提升大主子表关联计算的性能。下面就来乾学院一探究竟:大主子表关联的性能优化方法。
一、原理解释
所谓主子表关联计算,就是针对主表的每条记录,按关联字段找到子表中对应的一批记录。以订单(主表)和订单明细(子表)为例,两者以订单 ID 为关联字段。下图显示了关联计算过程中对主表中一条记录的处理情况,红色箭头代表没找到对应记录(不可关联),绿色箭头代表找到了对应记录(可关联):
                                             
假设订单(主表)有 m 条记录,订单明细(子表)有 n 条记录,在不考虑优化算法时,主表中每一条记录的关联都需要遍历子表,相应的时间复杂度为 O(n)。而主表一共有 m 条记录,所以整个计算的复杂度就是 O(m*n),显然过高。虽然数据库一般会采用 hash 方案来优化,但在数据量较大或较多表关联时,仍然会面临时难以并行、使用外存缓存数据的问题,性能依旧会急剧下降。
而对于集算器来说,针对大主子表关联算法,可以通过两步来实现显著优化:数据有序化、归并关联。
l  数据有序化
对主表和子表,首先分别按照关联字段排序,形成有序数据。
l  归并关联
首先在主表和子表上分别用指针指向第一条记录,然后开始比对,对于主表的第一条记录,如果子表遇到匹配的记录,则表示可以关联,记录后子表指针前移;如果遇到不匹配的记录,表示主表第一条记录的关联计算完成,此时子表指针不动,主表指针下移一位,指向第二条记录。以此类推……
优化后,单条记录的关联计算可用下图示意:

可以看到,经过优化,主表中单条记录的关联只需比对部分数据,不再需要遍历子表。事实上,对主表所有记录的关联,才会遍历一次子表,也就是复杂度为 O(n)。再加上主表本身会遍历一次,因此整个计算的复杂度就是 O(m+n)。
这样,经过集算器优化后,算法的时间复杂度变为线性,而且不再需要生成落地的中间数据,性能自然得到大幅提升。
当然,需要注意的是,有序化本身也会耗费时间,因此这种优化方法不适合只做一次的关联算法。但在实际业务中,关联算法通常会反复执行,这时有序化的开销就是一次性的,完全可以忽略不计。
二、具体实现
下面还是以订单和订单明细为例,说明集算器优化大主子表关联的方法。
首先进行数据有序化(注意,这是一次性动作)。集算器脚本“数据有序化.dfx”如下:

A1 连接 Oracle 数据源,A5 关闭数据源。集算器可连接大部分常用数据源,包括数据库、Excel、阿里云、SAP 等等。
A2、B2:用 SQL 语句分别取订单和订单明细,并按关联字段排序。由于数据量较大,无法一次性读入内存,因此这里用到了游标函数 cursor。
A3、B3:分别创建组表文件“订单.ctx”和“订单明细.ctx”,用于存储有序化之后的数据。这里需要指定字段名,其中带 #号的字段是主键,。数据将按主键排序,且主键的值不可重复。
A4-B4:将游标追加写入组表文件。
其次,对于通常会反复执行的关联算法,可以用集算器脚本“归并关联.dfx”实现如下:

A1、B1:读入组表文件“订单.ctx”和“订单明细.ctx”。注意组表默认为列式存储,因此只需读入后续计算需要的字段,从而大幅降低 I /O。
A2:对有序游标 A1、B1 进行归并关联,其中“主表”、“子表”是别名,方便后续引用,如果省略别名,后续可以通过默认别名_1、_2 引用。注意,函数 joinx 默认进行内关联,可用选项 @1 指定左关联,或者 @f 指定全关联。如果有多个游标都要与 A1 关联,可用分号依次隔开。
A3:对关联结果进行后续计算,例如汇总产品数量。事实上后续计算可以支持任意算法,也不是本文的讨论范围了。
上面介绍了集算器 SPL 脚本的写法,而在实际执行时,还需要部署集算器的运行环境。有两种部署方式可供选择:内嵌部署和独立部署。
l  内嵌部署
内嵌部署时,集算器的用法类似内嵌数据库,应用系统使用集算器驱动(JDBC)执行同一个 JVM 下的集算器脚本。
下面是 Java 调用“归并关联.dfx”的代码

在上述 JAVA 代码中,集算器脚本以文件的形式保存,调用语法类似存储过程。而如果脚本很简单,也可以不保存脚本文件,直接书写表达式,调用语法类似 SQL,这时第 5 行可以写成:

这篇文章详细介绍了 JAVA 调用集算器的过程:http://doc.raqsoft.com.cn/esproc/tutorial/bjavady.html
除了使用 Java 代码,也可以通过报表访问集算器,这时按照访问一般数据库的方法即可,具体可参考《让 Birt 报表脚本数据源变得既简单又强大》。
对于脚本“数据有序化.dfx”,可以用同样的方法执行。不过这个脚本通常只执行一次,所以也可以直接在命令行中执行,windows 用法如下:

Linux 下用法类似,可以参考 http://doc.raqsoft.com.cn/esproc/tutorial/minglinghang.html
l  独立部署
独立部署时,集算器的用法类似远程数据库,应用系统可以使用集算器驱动(JDBC 或 ODBC 驱动)访问集算服务器。这种情况下,应用系统和集算器服务器通常部署在不同的机器上。
例如集算服务器的 IP 地址为 192.168.0.2,端口号为 8281,那么 JAVA 应用系统可以通过如下代码访问:

关于集算服务器的部署和使用,详细内容可参考 http://doc.raqsoft.com.cn/esproc/tutorial/fuwuqi.html
关于 JDBC 和 ODBC 驱动的部署方法,可分别参考
http://doc.raqsoft.com.cn/esproc/tutorial/jdbcbushu.html
http://doc.raqsoft.com.cn/esproc/tutorial/odbcbushu.html
三、多线程优化
前面介绍了基本的优化思路和实现方法,也就是针对数据本身的优化。而现实中服务器都是多核心 CPU,因此可以进一步对上述算法进行多线程优化。
多线程优化的原理,是将主表和子表各分为 N 段,使用 N 个线程同时进行关联计算。
原理虽简单,但真正实现的时候,就会发现很多难题:
l  分段效率
想把数据分为 N 段,就要先找到每一段的起始行号,如果用遍历的笨办法数行号,显然会白白消耗大量的 I / O 资源。
l  数据跨段
理论上,关联字段值相同的子表记录,应该分到同一段。如果对子表随意分段,很可能形成跨段的数据。
l  分段对齐
更进一步,理论上,子表的第 i 段数据,应该与主表的第 i 段数据对齐,也就是主子表关联字段值的范围应该一致。如果两者各自独立分段,则可能导致分段数据难以对齐。
l  二次计算
如果后续计算不涉及聚合,例如只是过滤,那么只需将 N 个线程的计算结果直接合并。但如果后续计算涉及聚合,比如 sum 或分组汇总,那就要单独再进行二次计算聚合。
好在集算器已经充分解决了上述难题,分段时不会耗费 IO 资源、关联字段值相同的记录会分在同一段、子表和主表会保持对齐、各种二次计算无需单独实现。
具体来说,首先,数据有序化脚本需要做如下修改(红色字体为修改部分):

B3:生成“订单明细多线程.ctx”时,数据按“# 订单 ID”分段。这将保证订单 ID 相同的记录,将来会分到同一段。
归并关联的脚本需修改如下:

A1:@m 表示对数据分段,形成多线程游标(也叫多路并行游标)。其中线程数量是默认值,由系统参数“最大并行数”决定,也可手工修改。例如希望生成 4 线程游标,A1 应写成:

B1:同样生成多线程游标,并与 A1 的多线程游标对齐。
A2-A3:归并关联,再执行后续算法。这两步写法上没变化,但底层会自动进行多线程合并和二次计算,从而降低了程序员的编程难度。
四、结构优化
在前面算法的基础上,还可以进一步提升计算性能,那就是以层次结构存储数据,直接记录关联关系。
具体来说,先用“结构优化有序化.dfx”生成组表文件:

B4:在主表的基础上附加子表,命名为订单明细。与主表不同的是,子表默认继承了主表的主键,因此可以省略订单 ID,只需要写另一个主键产品 ID。这样,2 个表写在了一个组表文件中,从而才能形成层次结构。
B5:向子表写入数据。
此时,组表“多层订单.ctx”将按层次结构存储,逻辑示意图如下:

可以看到,每条主表记录与对应的子表记录,在逻辑上已经紧密相关,无需额外关联,这样便可大幅提高关联算法的性能。
进行关联计算时,使用以下脚本“结构优化归并关联.dfx”:

A1、B1:打开主表,以及附加在主表上的子表。
A2、B2:以多线程方式分别读取主表和子表。需要注意的是,多层组表里的实表之间天然具备相关性,因此无需特意指定子表和主表的分段关系,代码比之前更清晰简单。
A3,A4:归并关联并执行后续算法,这两步没变化。
五、数据更新
前面的优化方式都基于库表全量导出为组表文件的情况,但实际业务中数据库表总会发生变化,因此需要考虑数据更新的问题,也就是要将变化的数据定时更新到组表文件中。
显然,更新数据应选择在无人查询组表文件时进行,一般都是半夜或凌晨。而更新的频率,则需要按照数据实时性要求来设定,例如每天一次或每周一次。至于更新的方式,需要按照数据的变化规律来考虑,最常见的是数据追加,有时也会遇到增删改。
下面先看数据追加:
订单和订单明细每天都会产生新记录,假设需要在每天凌晨 2 点将昨天新增的记录追加到组表文件中。下图显示了 2018/11/23 新增记录的情况,注意,有些订单(订单 ID:20001)并没有对应的订单明细:

把主子表追加到组表文件中的脚本“追加组文件.dfx”如下:

A2、B2:计算昨天的起止时间,以便查询新增数据。函数 now 获取当前时间点,理论上应该是 2018-11-24 02:00:00。A2 是昨天的起始时间点,即 2018-11-22 00:00:00。B2 是终止时间点,即 2018-11-23 00:00:00。之所以在集算器中计算起止时间,主要是为了增加可读性和移植性。实际上也可以在 SQL 中计算。
A4:取出新增的主表和子表记录。这里用一句 SQL 取两张表的数据,主要是为了提高效率。由于有些订单并没有对应的订单明细,因此用订单左关联订单明细,且将对应不上的订单明细置空。计算结果如下:
 
A5、B5:拆出新增的主子表记录,结果示例如下:

A6-B8:将主表和子表追加到组表文件中。
脚本写完之后,还需要在每天的 02:00:00 定时执行,这可以使用操作系统内置的任务调度。
在 Windows 下,建立如下的 bat 批处理文件,:

再使用 windows 内置的 ” 计划任务 ”,定时执行批处理文件即可。
在 linux 下,建立如下的 sh 批处理文件,:

再使用 crontab 命令,定时执行批处理文件即可。
当然也可使用图形化工具定时执行脚本,比如 Quartz。
需要注意的是,大多数情况下,能够选择无人使用组表文件的时候进行追加,但有些业务中组表文件全天都要使用,而有些项目对容错要求更高,要求追加失败时再次追加,这类项目就需要更加细致的追加方法,详情可参考《基于文件系统实现可追加的数据集市》。
除了追加这种主要的更新方式,业务中也会遇到增删改都存在的情况。
在这种情况下,就需要知道哪些是删除的记录,哪些是修改或新增的记录。如果条件允许,可以在原表中新加“标记”字段,并将维护状态记录在该字段中。如果不方便修改原表,则应当创建对应的“维护日志表”。例如下面两张表,分别是订单和订单明细的维护日志。

根据维护日志更新组表文件,可使用下面的脚本:

A2、B2: 从数据库查出应删除的记录
A3、B3: 从数据查出应修改和新增的记录
A5、B5: 对组表进行删除操作。
A6、B6: 从组表进行修改新增操作。
A7、B7: 清空维护日志表,以便下次继续更新数据。
六、T+ 0 实时计算
通过定时追加,能保证组表文件与昨天的数据同步,从而实现 T + 1 计算,但有时需要进行实时大主表关联,即 T + 0 计算。
对于 T + 0 计算,需要将两种不同的数据源进行混合计算,由于 SQL 或 SP 的数据模型较为封闭,因此难以实现混合计算,而使用集算器就非常简单。
比如对组表文件定时追加后,数据库当天又产生了如下新数据:

可使用如下脚本实现 T + 0 实时计算:

A1: 算出当天的起始时间点,即 2018-11-26 00:00:00。
A3: 针对数据库当天产生的新数据,进行关联计算。由于当天数据量较小,因此性能可以接受。
A4-A7: 针对组表文件历史数据,进行高性能关联计算。
A8: 合并当天和历史,并进行二次计算,以获得最终计算结果。其中符号 | 表示纵向合并,这是实现混合计算的关键。事实上,这种写法也表明集算器支持任意数据源之间的混合计算,比如 Excel 与 elasticSearch 之间。
关于 T + 0 计算更多的细节,可参考相关文章《实时报表 T+0 的实现方案》

正文完
 0