微服务之数据同步Porter

34次阅读

共计 2966 个字符,预计需要花费 8 分钟才能阅读完成。

Porter 是一款数据同步中间件,主要用于解决同构 / 异构数据库之间的表级别数据同步问题。
背景
在微服务架构模式下深刻的影响了应用和数据库之间的关系,不像传统多个服务共享一个数据库,微服务架构下每个服务都要有自己的数据库。如果你想获得微服务带来的好处,每个服务独有一个数据库是必须的,因为微服务强调的就是松耦合。我们希望数据库就和服务一样,要有充分的独立性、可以和服务一起部署、一起扩展、一起重构。同时,还需要兼顾数据中心的数据聚合、DBA 的多种数据库备份、报表中心的业务报表等等矛盾问题。因此便产生了「Porter」项目。
微服务改造过程中,无法避免的一个坎,那就是垂直拆库,根据不同的子服务,把过去的「一库多服」拆分成「一库一服」。
一库多服还是一库一服?
不管是否是微服务架构,应用的各个模块之间都需要频繁的通信、协作、共享数据,实现系统的整体价值。区别点在于单体应用是通过本地方法调用来完成;在微服务中是通过远程 API 调用完成。而共享数据最贱的方式就是采用共享数据库模式,也就是单体应用中最常用的方式,一般只有一个数据库,如图一库多服和一库一服的方式:
一库多服的架构模式通常会被认为是微服务架构下的反范式,它的问题在于:
稳定性:单点故障,一个数据库挂掉,整批服务全部停止。服务独立性被扼杀?
耦合性:数据在一起,会给贪图方便的开发或者 DBA 工程师编写很多数据间高度依赖的程序或者工具;
扩展性:无法针对某一个服务进行精准优化或扩展,服务会大体分为两个读多写少、写多读少,数据库优化是根据服务而来的,不是一篇而论。
所以随行付内部一般推荐的做法:是为每一个微服务准备一个单独的数据库,即一库一服模式。这种模式更加适合微服务架构,它满足每一个服务是独立开发、独立部署、独立扩展的特性。当需要对一个服务进行升级或者数据架构改动的时候,无须影响到其他的服务。需要对某个服务进行扩展的时候,也可以手术式的对某一个服务进行局部扩容。
那么问题来了,在改造中我们发现,以下问题,诞生了该项目:
报表中心和前端详细页都存在 SQL Join 方式,经历我们一库一服的拆分后,无法在继续使用 SQL Join 方式了 … 数据中心,做得是数据聚合,数据拆分后,给数据中心带来了很大的麻烦 … 微服务之后,各个应用模块对数据库的要求出现了分歧,数据库类型多元化自主选择还是统一 … 等等 …
Porter 介绍
Porter 是一个集中式的数据处理通道,所有的数据都在这个数据处理平台汇聚、分发。Porter 是一个无中心、插件友好型分布式数据同步中间件。默认注册中心插件实现为 zookeeper, 当然,你也可以基于注册中心接口实现自定义注册中心模块。在 Porter 的主流程外分布着集群插件、源端消费插件、源端消息转换器插件、目标端写入插件、告警插件、自定义数据定义插件等插件模块,除了集群插件、告警插件是 Porter 任务节点全局作用域外,其余插件模块都随着同步任务的不同而相应组合。得益于良好的设计模式,Porter 才能为大家呈现如此灵活的扩展性与易用性。
功能
Porter 始于 2017 年,提供数据同步功能,但并不仅仅局限于数据同步,在随行付内部广泛使用。主要提供一下功能:
原生支持 Oracle|Mysql 到 Jdbc 关系型数据库最终一致同步插件友好化,支持自定义源端消费插件、目标端载入插件、告警插件等插件二次开发。支持自定义源端、目标端表、字段映射支持节点基于配置文件的同步任务配置。支持管理后台同步任务推送,节点、任务管理。提供任务运行指标监控,节点运行日志、任务异常告警。支持节点资源限流、分配。基于 Zookeeper 集群插件的分布式架构。支持自定义集群插件。
架构设计
Porter 节点通过注册中心实现分布式集群,并根据资源需求动态扩缩容。Portert 与注册中心协商了一套任务、节点、统计接口,Porter 节点通过监听注册中心接口数据的变化实现任务的分配管理。配置管理后台遵守并实现注册中心的接口规范,实现对 Porter 节点远程管理。注册中心同样有一套分布式锁机制,用于任务资源的分配。在这个机制外,Porter 节点可以通过本地配置文件的方式实现任务的定义。
原理介绍:
1、基于 Canal 开源产品,获取 MySql 数据库增量日志数据。2、管理系统架构。管理节点 (web manager) 管理工作节点任务编排、数据工作节点 (TaskWork) 汇报工作进度 3、基于 Zookeeper 集群插件的分布式架构。支持自定义集群插件 4、基于 Kafka 消息组件,每张表对应一个 Topic,数据节点分 Topic 消费工作
处理流程
为了保证数据的一致性,源端数据提取与目标端插入采用单线程顺序执行,中间阶段通过多线程执行提高数据处理速度。对照上图就是 SelectJob 与 LoadJob 单线程执行,ExtractJob、TransformJob 线程并行执行,然后在 LoadJob 阶段对数据包进行排序,顺序写入目标端。
正如文章开头所说,告警插件与注册中心插件在多个任务间共享,每个任务根据源端与目标端的类型、源端数据格式选择与之相匹配的处理插件。也就是说告警插件、注册中心插件与 Porter 节点配置相关,数据消费插件、目标端插件、自定义数据处理插件等插件与任务配置相关。
插件化设计
Porter 通过 SPI 规范结合单例、工厂、监听者模式等设计模式,实现了极大的灵活性与松耦合,满足不同场景的二次开发。具体涵盖如下四个方面的插件化设计:注册中心插件源端消费插件目标端载入插件自定义数据处理插件
集群机制
Porter 的集群模式依赖集群插件,默认的集群插件基于 zookeeper 实现。Porter 任务节点和管理节点并不是强制绑定关系,任务部署可以通过任务配置文件,也可以通过管理节点推送。管理节点还可以管理节点、收集、展示监控指标信息等,是一个不错的、简化运维的管理平台。同样的,可以基于 zookeeper 数据结构协议实现你自己的管理平台。集群模式下的系统结构:
zookeeper 集群模式插件
zookeeper 数据结构协议:Porter 的集群机制主要有以下功能:
实现节点任务的负载,当前任务节点失效后自动漂移到其他任务节点实现任务节点与管理节点的通信实现任务处理进度的存储与拉取实现统计指标数据的上传 (最新的开发版本支持自定义统计指标上传客户端,原生支持 kafka) 用于节点、任务抢占的分布式锁实现基于文件系统的单机模式插件
最新开发版支持 Porter 任务节点以单机模式运行, 不依赖管理后台和 zookeeper,通过配置文件配置任务。单机模式是一种特殊的集群模式,仅支持部分集群功能,但简化了任务部署的复杂性,灵活多变。
实现任务处理进度的存储与拉取实现统计指标数据的上传 Porter 任务节点运行模式的配置方式
zookeeper 集群配置
porter.cluster.strategy=ZOOKEEPERporter.cluster.client.url=127.0.0.1:2181porter.cluster.client.sessionTimeout=100000
单机模式配置
porter.cluster.strategy=STANDALONEporter.cluster.client.home=/path/.porter

正文完
 0