共计 4243 个字符,预计需要花费 11 分钟才能阅读完成。
redis 在运行过程中须要一些探活机制来保障对另一端的感知能力。
slave 重建 replication 阶段
当因为网络或其余起因导致主从 link 断开后,slave 会尝试重建 replication。在这个过程中,slave 的复制状态机 repl_state 变量会通过一系列流传,最终为 REPL_STATE_CONNECTED 状态。
repl_state 在很多状态的停留时间都有超时设定,以便出错后尽早是否资源。server.repl_transfer_lastio 变量起到了计时器的作用,它记录了 slave 上一次从 master 进行 io 交互(即读写事件)的工夫。
REPL_STATE_CONNECTING 超时
在 REPL_STATE_CONNECTING 阶段,slave 会主从 connet master,该过程应用了非阻塞 IO,在 replicationCron
函数里周期性查看是否超时。
/* Non blocking connection timeout? */
if (server.masterhost &&
(server.repl_state == REPL_STATE_CONNECTING ||
slaveIsInHandshakeState()) &&
(time(NULL)-server.repl_transfer_lastio) > server.repl_timeout)
{serverLog(LL_WARNING,"Timeout connecting to the MASTER...");
cancelReplicationHandshake();}
REPL_STATE_TRANSFER 超时
在 REPL_STATE_TRANSFER 阶段,slave 会从 master 接管 rdb 文件,通常不会在一次 read 里实现,所以须要在 replicationCron
函数里周期性查看该过程是否超时。
/* Bulk transfer I/O timeout? */
if (server.masterhost &&
server.repl_state == REPL_STATE_TRANSFER &&
(time(NULL)-server.repl_transfer_lastio) > server.repl_timeout)
{cancelReplicationHandshake();
}
如果 rdb 数据量过大,可能须要做一些额定解决,上面进行阐明。
1)如果 master dump rdb 工夫过长,在 slave 侧,master client 迟迟没有发来数据,回调函数 readSyncBulkPayload
不会触发,那么 repl_transfer_lastio 变量始终得不到刷新,会在超时查看中 cancelReplicationHandshake
,导致此次主从同步的失败。因而,master 对于正在期待接管 rdb 的 slave,会周期性地发送 \n
做探活。
// master 解决逻辑
listRewind(server.slaves,&li);
while((ln = listNext(&li))) {
client *slave = ln->value;
int is_presync =
(slave->replstate == SLAVE_STATE_WAIT_BGSAVE_START ||
(slave->replstate == SLAVE_STATE_WAIT_BGSAVE_END &&
server.rdb_child_type != RDB_CHILD_TYPE_SOCKET));
if (is_presync) {if (write(slave->fd, "\n", 1) == -1) {/* Don't worry about socket errors, it's just a ping. */}
}
}
2)在 slave 接管到 rdb 文件后,如果 rdb 过大,加载过程会 hang 住,repl_ack_time 变量得不到刷新,让 master 认为 slave 挂掉了,因而,在 rdbLoadRio
时定期发送 \n
做探活。
// slave 解决逻辑
if (server.masterhost && server.repl_state == REPL_STATE_TRANSFER)
replicationSendNewlineToMaster();
...
void replicationSendNewlineToMaster(void) {
static time_t newline_sent;
if (time(NULL) != newline_sent) {newline_sent = time(NULL);
if (write(server.repl_transfer_s,"\n",1) == -1) {/* Pinging back in this stage is best-effort. */}
}
}
master 收到 \n
后在 processInlineBuffer
函数中刷新 client->repl_ack_time 工夫,避免 client 检测超时。
// master 解决逻辑
if (querylen == 0 && getClientType(c) == CLIENT_TYPE_SLAVE)
c->repl_ack_time = server.unixtime;
master-slave 失常 replication 阶段
当主从失常进行 replication 时,master 会向 slave 继续发送 commands stream,以维持主从 dataset 状态的统一。
master 与 slave 在此过程中会发送一些探活包,以感知主从复制的状态。
slave 探活
slave 的探活依赖于 client.lastinteraction 变量,它记录了本实例上一次从该 client fd 读到数据的工夫,在 read 事件回调函数 readQueryFromClient
中更新。
咱们晓得,在 master 与 slave 看来,对方都是一种携带非凡 flag 的 client。
在 replicationCron
函数里会查看 master 是否失常。若异样,则开释 master client。
// slave 解决逻辑
if (server.masterhost && server.repl_state == REPL_STATE_CONNECTED &&
(time(NULL)-server.master->lastinteraction) > server.repl_timeout)
{serverLog(LL_WARNING,"MASTER timeout: no data nor PING received...");
freeClient(server.master);
}
client.lastinteraction 变量的更新须要依赖于 master 的解决逻辑。
对于本人所意识的 slave 节点,master 会周期性地发送 ping 命令,这个周期由配置参数 repl-ping-replica-period 决定,单位为 s。
// master 解决逻辑
if ((replication_cron_loops % server.repl_ping_slave_period) == 0 &&
listLength(server.slaves))
{
int manual_failover_in_progress =
server.cluster_enabled &&
server.cluster->mf_end &&
clientsArePaused();
// 跳过处于 mf 过程中的 slave
if (!manual_failover_in_progress) {ping_argv[0] = createStringObject("PING",4);
replicationFeedSlaves(server.slaves, server.slaveseldb,
ping_argv, 1);
decrRefCount(ping_argv[0]);
}
}
slave 收到 pong 回复后刷新 lastinteraction 值,并每秒进行超时查看。
master 探活
master 的探活依赖于 client.repl_ack_time 变量,它记录了上一次收到 slave 的 REPLCONF 命令的工夫。
在 replicationCron
函数里会查看 slave 是否失常。若异样,则开释 slave client。
// master 解决逻辑
/* Disconnect timedout slaves. */
if (listLength(server.slaves)) {
listIter li;
listNode *ln;
listRewind(server.slaves,&li);
while((ln = listNext(&li))) {
client *slave = ln->value;
// 留神:这里是 SLAVE_STATE_ONLINE 状态的 slave,// 必然将 slave fd 挂上了写事件回调。if (slave->replstate != SLAVE_STATE_ONLINE) continue;
if (slave->flags & CLIENT_PRE_PSYNC) continue;
if ((server.unixtime - slave->repl_ack_time) > server.repl_timeout)
{
serverLog(LL_WARNING, "Disconnecting timedout replica: %s",
replicationGetSlaveName(slave));
freeClient(slave);
}
}
}
为什么 master 的探活不像 slave 那样通过 ping 实现呢?
这是因为 master 须要晓得它所意识的每个 slave 的 repl offset,因而,slave 每秒发送 REPLCONF ACK <reploff>
(offset 值取自 client->reploff 变量,在 slave processCommand 后更新),这同样达到了 ping 的目标。
// slave 解决逻辑
if (server.masterhost && server.master &&
!(server.master->flags & CLIENT_PRE_PSYNC))
replicationSendAck();
master 收到 REPLCONF 命令后,会刷新 repl_ack_time 值,并每秒进行超时查看。
cluster 模式下的探活
redis cluster 模式下的探活,通过 cluster gossip 音讯进行平等地探活,在之前的文章里有进行具体地阐明。