共计 2715 个字符,预计需要花费 7 分钟才能阅读完成。
什么是 KeyDB?
KeyDB 是 Redis 的高性能分支,专一于多线程,内存效率和高吞吐量。除了多线程之外,KeyDB 还具备仅在 Redis Enterprise 中可用的性能,例如 Active Replication,FLASH 存储反对以及一些基本不可用的性能,例如间接备份到 AWS S3。
KeyDB 与 Redis 协定,模块和脚本放弃齐全兼容性。这包含脚本和事务的原子性保障。因为 KeyDB 与 Redis 开发放弃同步,因而 KeyDB 是 Redis 性能的超集,从而使 KeyDB 取代了现有 Redis 部署。
在雷同的硬件上,KeyDB 每秒能够执行的查问数量是 Redis 的两倍,而提早却升高了 60%。Active-Replication 简化了热备用故障转移,使您能够轻松地在正本上调配写操作并应用基于 TCP 的简略负载平衡 / 故障转移。KeyDB 的高性能可让您在更少的硬件上做更多的事件,从而升高了经营老本和复杂性。在此处查看残缺的基准测试后果和设置信息:
- https://docs.keydb.dev/blog/2019/10/07/blog-post/
走进 KeyDB
KeyDB 我的项目是从 redis fork 进去的分支。家喻户晓 redis 是一个单线程的 kv 内存存储系统,而 KeyDB 在 100% 兼容 redis API 的状况下将 redis 革新成多线程。
我的项目 git 地址:
- https://github.com/JohnSully/KeyDB
网上公开的技术细节比拟少,本文根本是通过浏览源码总结进去的,如有错漏之处欢送斧正。
多线程架构
线程模型
KeyDB 将 redis 原来的主线程拆分成了主线程和 worker 线程。每个 worker 线程都是 io 线程,负责监听端口,accept 申请,读取数据和解析协定。如图所示:KeyDB 应用了 SO_REUSEPORT
个性,多个线程能够绑定监听同个端口。
每个 worker 线程做了 cpu 绑核,读取数据也应用了 SO_INCOMING_CPU
个性,指定 cpu 接收数据。
解析协定之后每个线程都会去操作内存中的数据,由一把全局锁来管制多线程拜访内存数据。
主线程其实也是一个 worker 线程,包含了 worker 线程的工作内容,同时也包含只有主线程才能够实现的工作内容。在 worker 线程数组中下标为 0 的就是主线程。
主线程的次要工作在实现serverCron
,包含:
- 解决统计
- 客户端链接治理
- db 数据的 resize 和 reshard
- 解决 aof
- replication 主备同步
- cluster 模式下的工作
链接治理
在 redis 中所有链接治理都是在一个线程中实现的。在 KeyDB 的设计中,每个 worker 线程负责一组链接,所有的链接插入到本线程的链接列表中保护。链接的产生、工作、销毁必须在同个线程中。每个链接新增一个字段
int iel; /* the event loop index we're registered with */
用来示意链接属于哪个线程接管。
KeyDB 保护了三个要害的数据结构做链接治理:
clients_pending_write
:线程专属的链表,保护同步给客户链接发送数据的队列clients_pending_asyncwrite
:线程专属的链表,保护异步给客户链接发送数据的队列clients_to_close
:全局链表,保护须要异步敞开的客户链接
分成同步和异步两个队列,是因为 redis 有些联动 api,比方pub/sub
,pub 之后须要给 sub 的客户端发送音讯,pub 执行的线程和 sub 的客户端所在线程不是同一个线程,为了解决这种状况,KeyDB 将须要给非本线程的客户端发送数据保护在异步队列中。
同步发送的逻辑比较简单,都是在本线程中实现,以下图来阐明如何同步给客户端发送数据:如上文所提到的,一个链接的创立、接收数据、发送数据、开释链接都必须在同个线程执行。异步发送波及到两个线程之间的交互。KeyDB 通过管道在两个线程中传递音讯:
int fdCmdWrite; // 写管道
int fdCmdRead; // 读管道
本地线程须要异步发送数据时,先查看 client 是否属于本地线程,非本地线程获取到 client 专属的线程 ID,之后给专属的线程管到发送 AE_ASYNC_OP::CreateFileEvent
的操作,要求增加写 socket 事件。专属线程在解决管道音讯时将对应的申请增加到写事件中,如图所示:redis 有些敞开客户端的申请并非齐全是在链接所在的线程执行敞开,所以在这里保护了一个全局的异步敞开链表。
锁机制
KeyDB 实现了一套相似 spinlock 的锁机制,称之为 fastlock。
fastlock 的次要数据结构有:
struct ticket
{
uint16_t m_active; // 解锁 +1
uint16_t m_avail; // 加锁 +1
};
struct fastlock
{
volatile struct ticket m_ticket;
volatile int m_pidOwner; // 以后解锁的线程 id
volatile int m_depth; // 以后线程反复加锁的次数
};
应用原子操作 __atomic_load_2
,__atomic_fetch_add
,__atomic_compare_exchange
来通过比拟 m_active=m_avail
判断是否能够获取锁。fastlock 提供了两种获取锁的形式:
- try_lock:一次获取失败,间接返回
- lock:忙等,每
1024 * 1024
次忙等后应用sched_yield
被动交出 cpu,挪到 cpu 的工作开端期待执行。
在 KeyDB 中将 try_lock
和事件联合起来,来防止忙等的状况产生。每个客户端有一个专属的 lock,在读取客户端数据之前会先尝试加锁,如果失败,则退出,因为数据还未读取,所以在下个 epoll_wait
处理事件循环中能够再次解决。
Active-Replica
KeyDB 实现了多活的机制,每个 replica 可设置成可写非只读,replica 之间相互同步数据。次要个性有:
- 每个 replica 有个 uuid 标记,用来去除环形复制
- 新减少 rreplay API,将增量命令打包成 rreplay 命令,带上本地的 uuid
- key,value 加上工夫戳版本号,作为抵触校验,如果本地有雷同的 key 且工夫戳版本号大于同步过去的数据,新写入失败。采纳以后工夫戳向左移 20 位,再加上后 44 位自增的形式来获取 key 的工夫戳版本号。
文档
- https://docs.keydb.dev/docs/commands
感激浏览,心愿对你有所帮忙 :)
起源:又一款内存数据库横空出世,比 Redis 更强,性能间接飙升一倍!