Redis Cluster 采纳去中心化的路由计划,cluster 中的每个 node 都能够感知到残缺路由表,为了可能正确地拜访到数据,路由表的正确性保障至关重要。
在 cluster 节点数量肯定的状况下,有两种状况能够导致路由的变动,即主从关系变更和 slot resharding。
同时,须要思考 server 重启和 partition 复原后如何去更新本地旧的路由信息。
本文将联合代码片段逐个剖析。
主从关系变更
failover
执行 failover 后,首先在本地做变更,而后通过 gossip 信息流传,使得路由在 cluster 内打平。
本节点变更
不论是被动 failover 还是被动 failover,流程的最初一步都须要调用 clusterFailoverReplaceYourMaster
函数。
从代码能够看出,有以下 5 个步骤,
1)批改节点 flag 标识
/* 1) Turn this node into a master. */
clusterSetNodeAsMaster(myself);
void clusterSetNodeAsMaster(clusterNode *n) {if (nodeIsMaster(n)) return;
if (n->slaveof) {clusterNodeRemoveSlave(n->slaveof,n);
if (n != myself) n->flags |= CLUSTER_NODE_MIGRATE_TO;
}
n->flags &= ~CLUSTER_NODE_SLAVE;
n->flags |= CLUSTER_NODE_MASTER;
n->slaveof = NULL;
/* Update config and state. */
clusterDoBeforeSleep(CLUSTER_TODO_SAVE_CONFIG|
CLUSTER_TODO_UPDATE_STATE);
}
去掉 CLUSTER_NODE_SLAVE 标识,变更为 CLUSTER_NODE_MASTER,勾销本地路由表中原有的主从关系。
2)接管 slot
/* 2) Claim all the slots assigned to our master. */
clusterNode *oldmaster = myself->slaveof;
for (j = 0; j < CLUSTER_SLOTS; j++) {if (clusterNodeGetSlotBit(oldmaster,j)) {clusterDelSlot(j);
clusterAddSlot(myself,j);
}
}
将 oldmaster 负责的 slot 全副交给以后节点。
3)更新 cluster state 状态,并保留 config。
/* 3) Update state and save config. */
clusterUpdateState();
clusterSaveConfigOrDie(1);
在保留配置前须要先执行 clusterUpdateState
函数。
对于被动 failover 的状况,必然是以后节点先检测到了 node fail,那么对于配置了 cluster-require-full-coverage 参数的实例,须要将 cluster 状态更新为 CLUSTER_FAIL。
4)播送路由变更
/* 4) Pong all the other nodes so that they can update the state
* accordingly and detect that we switched to master role. */
clusterBroadcastPong(CLUSTER_BROADCAST_ALL);
遍历本地路由表中所有意识的节点,发送 pong 音讯,告知它们新的路由信息。
5)重置 mf 状态
/* 5) If there was a manual failover in progress, clear the state. */
resetManualFailover();
留神:
如果,此时在该节点上执行 cluster nodes
命令,会看到该节点曾经切换为 master,且携带 slot,而原来的 master 仍然是 master,只是不再负责 slot。
路由打平
上一小结步骤 4)中收回的 pong 音讯,会在 cluster 其余 node 引起路由更改。
为表述不便,做如下假如。
失常 cluster 中有以下关系:A1 为 slave,A 是 A1 的 master,负责 0-100 slot,路人节点 B。
那么,路由在 A/A1/B 三者之间打平,须要以下 5 个步骤。
① 新主节点 A1 更新,A1(myself) role slave → master,接管 slot,此时 A 仍是 master,但没有了 slots,播送 pong
② 原主节点 A 更新,A1 role slave → master,接管 slots,A(myself) role master → slave,抹掉 slots。A 路由更新实现。
③ 路人节点 B 更新,A1 role slave → master,[接管 slots],A 还是 master,但不负责 slots。
④ 新主节点 A1 收到 A 的 ping,或者被动 ping A,A role master → slave。A1 路由更新实现。
⑤ 路人节点 B 同 ④ 逻辑(期待额定的 pingpong)。路人 B 路由更新实现。
实际上,以上 5 个步骤中,① 必然第一个执行,因为网络的不牢靠,③ 和 ⑤ 的产生程序是不确定的。
如果 ③ 产生在 ⑤ 之前,那么路由打平逻辑如下图所示,
而如果 ③ 产生在 ⑤ 之后,那么路由打平逻辑将做如下变更,
重点区别在路人节点 B 上对于 A/A1 的更新!
留神:
对于 node 信息的变更,肯定要以“当事人”说的为准!
A1 对原 master 节点 A 的 role 信息变更肯定产生在 A 本人的 role 变更之后!
A1 做 failover 后,只更改了本人的信息,不去改 A 的 role,至于 A 要怎么改,须要 A 发信息来同步。
replication
执行 CLUSTER REPLICATE <NODE ID>
后,仅对本地路由表做了更改,路由打平须要依附 ping-pong 音讯实现。
else if (!strcasecmp(c->argv[1]->ptr,"replicate") && c->argc == 3) {
...
/* Set the master. */
clusterSetMaster(n);
clusterDoBeforeSleep(CLUSTER_TODO_UPDATE_STATE|CLUSTER_TODO_SAVE_CONFIG);
addReply(c,shared.ok);
}
在某节点收到 ping 或者 pong 音讯时,对 role 信息进行校验,外围逻辑如下,
int clusterProcessPacket(clusterLink *link) {
...
/* Check for role switch: slave -> master or master -> slave. */
if (sender) {
if (!memcmp(hdr->slaveof,
CLUSTER_NODE_NULL_NAME, sizeof(hdr->slaveof)))
{
/* sender claimed it is a master. */
clusterSetNodeAsMaster(sender);
} else {
/* sender claimed it is a slave. */
clusterNode *master = clusterLookupNode(hdr->slaveof);
...
/* Master node changed for this slave? */
if (master && sender->slaveof != master) {if (sender->slaveof)
clusterNodeRemoveSlave(sender->slaveof,sender);
// 绑定新的主从关系
clusterNodeAddSlave(master,sender);
sender->slaveof = master;
clusterDoBeforeSleep(CLUSTER_TODO_SAVE_CONFIG);
}
}
}
...
}
当检测到 sender 的 master 发生变化时,调用 clusterNodeRemoveSlave
函数,把它从原来的主从关系绑定中释放出来,绑定新的主从关系。
slot 变更
在 slot resharding 的过程中,会产生 slot ownership 的从新绑定,具体过程曾经在之前的博客《Redis 源码剖析之数据迁徙》中具体介绍过,这里只阐明路由打平逻辑。
在 slot 迁徙的最初一步,更改指标节点路由时,有以下逻辑,
else if (!strcasecmp(c->argv[1]->ptr,"setslot") && c->argc >= 4) {
...
else if (!strcasecmp(c->argv[3]->ptr,"node") && c->argc == 5) {
...
if (n == myself &&
server.cluster->importing_slots_from[slot])
{if (clusterBumpConfigEpochWithoutConsensus() == C_OK) {}
server.cluster->importing_slots_from[slot] = NULL;
}
clusterDelSlot(slot);
clusterAddSlot(n,slot);
}
}
在 clusterBumpConfigEpochWithoutConsensus
函数中,迁徙指标节点要保障本人的 configEpoch 为 cluster 中最大。
其余节点在 ping-pong 音讯解决中,通过 diff 对路由进行相应的变更,代码如下,
int clusterProcessPacket(clusterLink *link) {
...
clusterNode *sender_master = NULL; /* Sender or its master if slave. */
int dirty_slots = 0; /* Sender claimed slots don't match my view? */
if (sender) {sender_master = nodeIsMaster(sender) ? sender : sender->slaveof;
if (sender_master) {
dirty_slots = memcmp(sender_master->slots,
hdr->myslots, sizeof(hdr->myslots)) != 0;
}
}
if (sender && nodeIsMaster(sender) && dirty_slots)
clusterUpdateSlotsConfigWith(sender,
senderConfigEpoch,hdr->myslots);
...
}
以上代码能够看出,当某节点看到的 sender 负责的 slot,与 sender 提交的信息不统一时,调用 clusterUpdateSlotsConfigWith
函数进行路由改正。
void clusterUpdateSlotsConfigWith(clusterNode *sender, uint64_t senderConfigEpoch, unsigned char *slots) {
...
if (server.cluster->slots[j] == NULL ||
server.cluster->slots[j]->configEpoch < senderConfigEpoch)
{
...
clusterDelSlot(j);
clusterAddSlot(sender,j);
...
}
...
}
路由信息依据 configEpoch 更新,configEpoch 越大表明路由越新。
留神,该函数中有一个逻辑须要分外留神,要害代码如下,
clusterNode *curmaster, *newmaster = NULL;
curmaster = nodeIsMaster(myself) ? myself : myself->slaveof;
if (server.cluster->importing_slots_from[j]) continue;
if (server.cluster->slots[j] == NULL ||
server.cluster->slots[j]->configEpoch < senderConfigEpoch)
{
...
if (server.cluster->slots[j] == curmaster)
newmaster = sender;
}
...
if (newmaster && curmaster->numslots == 0) {clusterSetMaster(sender);
}
如果以后节点或以后节点的 master 失去某 slot 的所有权时,newmaster 会记录 slot 所有权被谁夺走了。如果全副被夺走了,那么就认对方为本人的 master。
有这样一种状况,假如当初集群路由关系如下,
A 往 C 迁徙最初一个 slot,失常步骤如下:
① 目标 C 执行 SETSLOT
命令,C 领有 slot 1
② 源节点 A 执行 SETSLOT
命令,A 失去 slot 1
然而 ①② 不是原子操作,A 在执行 SETSLOT
命令之前,有可能会先收到 C 的 ping 或者 pong,依照下面代码剖析的逻辑,A 就成了 C 的 slave,即 A1 slaveof A,A slaveof C。
过期修复
当 server 重启或 partition 复原后,可能会因为本地路由信息过旧而搞乱整个 cluster 路由,在 Redis Cluster 中应用 CLUSTERMSG_TYPE_UPDATE 类型音讯对此进行解决。代码大抵如下,
int clusterProcessPacket(clusterLink *link) {
...
if (sender && dirty_slots) {
int j;
for (j = 0; j < CLUSTER_SLOTS; j++) {if (bitmapTestBit(hdr->myslots,j)) {if (server.cluster->slots[j] == sender ||
server.cluster->slots[j] == NULL) continue;
if (server.cluster->slots[j]->configEpoch > senderConfigEpoch)
{clusterSendUpdate(sender->link, server.cluster->slots[j]);
break;
}
}
}
}
}
如果本地看到的 slot j 的所有者信息比 sender 申明的要新,那么,告诉它去做更新。
typedef struct {
uint64_t configEpoch; /* Config epoch of the specified instance. */
char nodename[CLUSTER_NAMELEN]; /* Name of the slots owner. */
unsigned char slots[CLUSTER_SLOTS/8]; /* Slots bitmap. */
} clusterMsgDataUpdate;
CLUSTERMSG_TYPE_UPDATE 音讯中会通知对方,该 slot 应该属于谁。
在以上代码中,只是在查看到第一个 slot 信息呈现 diff 时,发送 CLUSTERMSG_TYPE_UPDATE 音讯,如果呈现多个 slot 有不同的持有信息,那么须要屡次信息交互。
以上便是 Redis Cluster 中路由更新的所有状况。