关于持久化:Xline-持久化存储设计与实现

41次阅读

共计 13245 个字符,预计需要花费 34 分钟才能阅读完成。

01、引言

在 Xline 晚期的原型阶段,咱们采纳了基于内存的存储来实现数据的长久化。这尽管简化了 Xline 原型设计的复杂度,进步了我的项目的开发和迭代速度,但带来的影响也是显著的:因为数据都存储在内存当中,因而一旦当过程 crash 后,节点的数据恢复须要依赖于从其余失常节点上拉取全量数据,这就须要较长的复原工夫。基于此方面的思考,Xline 在最新公布的版本 v0.3.0 中引入了一个 Persistent Storage Layer,来将数据长久化到磁盘当中,同时向下层调用方屏蔽掉无关的底层细节。

02、存储引擎选型

目前业界支流的存储引擎根本可分为基于 B+ Tree 的存储引擎和基于 LSM Tree 的存储引擎。他们有着各自的劣势与劣势。

B+ Tree 读写放大剖析

B+ Tree 在读取数据时,须要先沿着根节点,逐渐向上层索引,直到最初拜访到最底层的叶子结点,每层拜访对应了一次磁盘 IO。而写入数据时,同样也沿着根节点向下搜寻,找到对应的叶子结点后写入数据。

为了不便剖析,咱们进行相干约定,B+ Tree 的 block size 为 B,故每个外部节点蕴含 O(B)个子节点,叶子节点蕴含 O(B)条数据,假如数据集大小为 N,则 B + Tree 的高度为

写放大:B+ Tree 的每次 insert 都会在叶子节点写入数据,不管数据理论大小是多少,每次都须要写入大小为 B 的数据块,因而写放大是 O(B)读放大:B+ Tree 的一次查问须要从根节点一路查到具体的某个叶子节点,所以须要等于层数大小的 I /O,也就是

, 即读放大为

LSM Tree 读写放大剖析

LSM Tree 在数据写入时,先以文件追加的模式写入一个内存文件 memtable(Level 0),当 memtable 达到固定大小时,将其转换成 immutable memtable,并合并到下一个 level 中。而对于数据的读取,则须要先在 memtable 中进行查找,当查找失败时,则向下逐层查找,直到找到该元素为止。LSM Tree 常采纳 Bloom Filter 来优化读取操作,过滤掉那些不存在于数据库中的元素。假如数据集大小为 N,放大因子为 k,最小层一个文件大小为 B,每层文件的单个文件大小雷同都为 B,不过每层文件个数不同。写放大:假如写入一个 record,在本层写满 k 次后会被 compact 到下一层。因而均匀单层写放大应为

。一共有

层,故写放大为

读放大:最坏的状况下,数据被 compact 到最初一层,须要顺次在每一层进行二分查找,直到在最初一层找到. 对于最高层 

,数据大小为 O(N), 须要进行二分查找,须要 

次磁盘读操作对于次高层 

, 数据大小为 

, 须要进行 

次磁盘读操作对于 

, 数据大小为 

,须要进行 

次磁盘读操作……以此类推,最终读放大为 R = 

总结

从读写放大的复杂度剖析来看,基于 B+ Tree 的存储引擎更加适宜读多写少的场景,而基于 LSM Tree 的存储引擎则更加适宜写多读少的场景。

Xline 作为一款由 Rust 编写的开源分布式 KV 存储软件,在抉择长久化存储引擎方面,须要有如下的思考:

  1. 从性能方面:对于存储引擎而言,往往容易成为零碎的性能瓶颈之一,因而必须抉择高性能的存储引擎。而高性能的存储引擎必然要由高性能的语言来编写,同时要优先思考异步实现。优先思考 Rust 语言,其次是 C/C++ 语言。
  2. 从开发的角度:优先思考 Rust 语言实现,这样可能在以后阶段缩小一些额定的开发工作。
  3. 从保护的角度:
    • 思考引擎的背地支持者:优先思考大型商业公司,开源社区
    • 业界须要有宽泛应用,以便于在前期 debug、tuning 过程中可能有更多借鉴教训
    • 知名度和受欢迎水平 (github star) 该当较高,以便于吸引优良的贡献者参加
  4. 从性能角度:须要存储引擎提供事务语义,反对根本的 KV 相干操作,反对批处理操作等。

需要的优先级排列为:性能 > 保护 >= 性能 > 开发

咱们次要调研了 Sled、ForestDB、RocksDB,bbolt 和 badger 等多个开源嵌入式数据库。其中,可能同时满足咱们后面提到的四点要求的只有 RocksDB。RocksDB 由 Facebook 实现并开源,目前在业界有着良好的利用生产实践,同时版本仍然放弃着稳固的公布速度,在性能上也能够完满地笼罩咱们的需要。

Xline 次要服务于跨云数据中心的一致性元数据管理,其工作场景次要是读多写少的场景。有些读者可能会有疑难,RocksDB 不是基于 LSM Tree 的存储引擎吗?而基于 LSM Tree 的存储引擎该当更加适宜写多读少的利用场景,那为什么还要抉择应用 RocksDB 呢?

确实,从实践上讲,最合适的存储引擎该当是基于 B+ Tree 的存储引擎。但思考到像 Sled、ForestDB 等基于 B+ Tree 的嵌入式数据库短少大型利用生产的实际,同时版本保护也处于停滞状态。通过了取舍后,咱们抉择了 RocksDB 作为 Xline 的存储后端。同时为了思考到将来可能会有更加适合的存储引擎可供替换,咱们在 Persistent Storage Layer 的设计上做了良好的接口拆散与封装,能够最大水平地升高前期更换存储引擎的老本。

03、长久化存储层设计与实现

在开始探讨长久化存储层的设计与实现之前,咱们须要先明确咱们对长久化存储的需要预期:

  1. 正如后面所说,在做出相应的 trade-off 后,咱们采纳了 RocksDB 作为 Xline 的后端存储引擎。因而,咱们不能排除将来会替换这一存储引擎的可能,StorageEnginne 的设计必须合乎 OCP 准则,满足可配置,易替换的准则。
  2. 咱们须要为下层使用者,提供根底的 KV 接口
  3. 要实现一套齐备的 Recover 机制。

整体架构与写入流程

咱们先来看看 Xline 以后的整体架构,如下图所示:

从上到下,Xline 的整体架构能够被划分为 拜访层,共识模块,业务逻辑模块,存储 API 层和存储引擎层。其中存储 API 层次要负责别离向业务模块和共识模块提供业务相干的 StorageApi,同时屏蔽底层的 Engine 的实现细节。而存储引擎层则负责理论数据的落盘操作。

咱们以一次 PUT 申请为例,来看看数据的写入过程。当 client 向 Xline Server 发动一次 Put 申请时,会产生如下事件:

  1. KvServer 接管到用户发送来的 PutRequest 后,会先对申请进行合法性检查,查看通过后,通过本身 CurpClient 向 Curp Server 发动一次 propose 的 rpc 申请
  2. Curp Server 接管到 Propose 申请后,会先进入到 fast path 流程中。它会将申请中的 cmd 保留到 Speculative Executed Pool (aka. spec_pool)中,来判断是否与以后 spec_pool 中的命令是否抵触,抵触则返回 ProposeError::KeyConflict,并期待 slow path 实现,否则持续走以后的 fast_path
  3. 在 fast_path 中,一个命令如果既不抵触,又不反复,则会通过特定的 channel 告诉后盾的 cmd_worker 去执行。cmd_worker 一旦开始执行,会将对应的命令保留到 CommandBoard 中,以便 track 命令的执行状况。
  4. 当集群中的多个节点达成了共识后,则会提交状态机日志,并将这条日志长久化到 CurpStore 中,最初 apply 这条日志。在 apply 的过程中,会调用对应的 CommandExecutor,也就是业务模块中,各个 server 对应的 store 模块,将理论的数据通过 DB 长久化到后端数据库中。

接口设计

下图是 StorageApi 和 StorageEngine 两个 trait 以及相应的数据结构之间的互相关系

Storage Engine LayerStorage Engine Layer 次要定义了 StorageEngine trait 以及相干的谬误。StorageEngine Trait 定义(engine/src/engine_api.rs):

/// Write operation
#[non_exhaustive]
#[derive(Debug)]
pub enum WriteOperation<'a> {
    /// `Put` operation
    Put {table: &'a str, key: Vec<u8>, value: Vec<u8>},
    /// `Delete` operation
    Delete {table: &'a str, key: &'a [u8] },
    /// Delete range operation, it will remove the database entries in the range [from, to)
    DeleteRange {table: &'a str, from: &'a [u8], to: &'a [u8] },
}

/// The `StorageEngine` trait
pub trait StorageEngine: Send + Sync + 'static + std::fmt::Debug {
    /// Get the value associated with a key value and the given table
    ///
    /// # Errors
    /// Return `EngineError::TableNotFound` if the given table does not exist
    /// Return `EngineError` if met some errors
    fn get(&self, table: &str, key: impl AsRef<[u8]>) -> Result<Option<Vec<u8>>, EngineError>;

    /// Get the values associated with the given keys
    ///
    /// # Errors
    /// Return `EngineError::TableNotFound` if the given table does not exist
    /// Return `EngineError` if met some errors
    fn get_multi(
        &self,
        table: &str,
        keys: &[impl AsRef<[u8]>],
    ) -> Result<Vec<Option<Vec<u8>>>, EngineError>;

    /// Get all the values of the given table
    /// # Errors
    /// Return `EngineError::TableNotFound` if the given table does not exist
    /// Return `EngineError` if met some errors
    #[allow(clippy::type_complexity)] // it's clear that (Vec<u8>, Vec<u8>) is a key-value pair
    fn get_all(&self, table: &str) -> Result<Vec<(Vec<u8>, Vec<u8>)>, EngineError>;

    /// Commit a batch of write operations
    /// If sync is true, the write will be flushed from the operating system
    /// buffer cache before the write is considered complete. If this
    /// flag is true, writes will be slower.
    ///
    /// # Errors
    /// Return `EngineError::TableNotFound` if the given table does not exist
    /// Return `EngineError` if met some errors
    fn write_batch(&self, wr_ops: Vec<WriteOperation<'_>>, sync: bool) -> Result<(), EngineError>;}

相干的谬误定义

#[non_exhaustive]
#[derive(Error, Debug)]
pub enum EngineError {
    /// Met I/O Error during persisting data
    #[error("I/O Error: {0}")]
    IoError(#[from] std::io::Error),
    /// Table Not Found
    #[error("Table {0} Not Found")]
    TableNotFound(String),
    /// DB File Corrupted
    #[error("DB File {0} Corrupted")]
    Corruption(String),
    /// Invalid Argument Error
    #[error("Invalid Argument: {0}")]
    InvalidArgument(String),
    /// The Underlying Database Error
    #[error("The Underlying Database Error: {0}")]
    UnderlyingError(String),
}

MemoryEngine(engine/src/memory_engine.rs) 和 RocksEngine(engine/src/rocksdb_engine.rs) 则实现了 StorageEngine trait。其中 MemoryEngine 次要用于测试,而 RocksEngine 的定义如下:

/// `RocksDB` Storage Engine
#[derive(Debug, Clone)]
pub struct RocksEngine {
    /// The inner storage engine of `RocksDB`
    inner: Arc<rocksdb::DB>,
}

/// Translate a `RocksError` into an `EngineError`
impl From<RocksError> for EngineError {#[inline]
    fn from(err: RocksError) -> Self {let err = err.into_string();
        if let Some((err_kind, err_msg)) = err.split_once(':') {
            match err_kind {"Corruption" => EngineError::Corruption(err_msg.to_owned()),
                "Invalid argument" => {if let Some(table_name) = err_msg.strip_prefix("Column family not found:") {EngineError::TableNotFound(table_name.to_owned())
                    } else {EngineError::InvalidArgument(err_msg.to_owned())
                    }
                }
                "IO error" => EngineError::IoError(IoError::new(Other, err_msg)),
                _ => EngineError::UnderlyingError(err_msg.to_owned()),
            }
        } else {EngineError::UnderlyingError(err)
        }
    }
}

impl StorageEngine for RocksEngine {/// omit some code}

StorageApi Layer

业务模块

业务模块的 StorageApi 定义

/// The Stable Storage Api
pub trait StorageApi: Send + Sync + 'static + std::fmt::Debug {
    /// Get values by keys from storage
    fn get_values<K>(&self, table: &'static str, keys: &[K]) -> Result<Vec<Option<Vec<u8>>>, ExecuteError>
    where
        K: AsRef<[u8]> + std::fmt::Debug;

    /// Get values by keys from storage
    fn get_value<K>(&self, table: &'static str, key: K) -> Result<Option<Vec<u8>>, ExecuteError>
    where
        K: AsRef<[u8]> + std::fmt::Debug;

    /// Get all values of the given table from the storage
    fn get_all(&self, table: &'static str) -> Result<Vec<(Vec<u8>, Vec<u8>)>, ExecuteError>;

    /// Reset the storage
    fn reset(&self) -> Result<(), ExecuteError>;

    /// Flush the operations to storage
    fn flush_ops(&self, ops: Vec<WriteOp>) -> Result<(), ExecuteError>;}

在业务模块,DB(xline/src/storage/db.rs) 负责将 StorageEngine 转换成为 StorageApi 供下层调用,它的定义如下:

/// Database to store revision to kv mapping
#[derive(Debug)]
pub struct DB<S: StorageEngine> {
    /// internal storage of `DB`
    engine: Arc<S>,
}

impl<S> StorageApi for DB<S>
where
    S: StorageEngine
{/// omit some code}

在业务模块中的不同 Server 领有本人的 Store 后端,其外围数据结构正是 StorageApi Layer 中的 DB。

共识模块

Curp 模块的 StorageApi 定义(curp/src/server/storage/mod.rs)

/// Curp storage api
#[async_trait]
pub(super) trait StorageApi: Send + Sync {
    /// Command
    type Command: Command;

    /// Put `voted_for` in storage, must be flushed on disk before returning
    async fn flush_voted_for(&self, term: u64, voted_for: ServerId) -> Result<(), StorageError>;

    /// Put log entries in the storage
    async fn put_log_entry(&self, entry: LogEntry<Self::Command>) -> Result<(), StorageError>;

    /// Recover from persisted storage
    /// Return `voted_for` and all log entries
    async fn recover(&self,) -> Result<(Option<(u64, ServerId)>, Vec<LogEntry<Self::Command>>), StorageError>;
}


而 RocksDBStorage(curp/src/server/storage/rocksdb.rs) 就是后面架构图中提到的 CurpStore,负责将 StorageApi 转换成底层的 RocksEngine 操作。

/// `RocksDB` storage implementation
pub(in crate::server) struct RocksDBStorage<C> {
    /// DB handle
    db: RocksEngine,
    /// Phantom
    phantom: PhantomData<C>,
}

#[async_trait]
impl<C: 'static + Command> StorageApi for RocksDBStorage<C> {
    /// Command
    type Command = C;
    /// omit some code
}

实现相干

数据视图
在引入了 Persistent Storage Layer,Xline 中通过逻辑表 table 来宰割不同的命名空间,目前它对应了底层的 Rocksdb 中的 Column Family。

以后有如下几张表:

  1. curp:存储 curp 相干的长久化信息,包含了 log entries,以及 voted_for 和对应的 term 信息
  2. lease: 保留了已授予的 lease 信息
  3. kv: 保留 kv 信息
  4. auth: 保留了以后 Xline 的 auth enable 状况以及相应的 enable revision
  5. user: 保留了 Xline 中增加的 user 信息
  6. role: 保留了 Xline 中增加的 role 信息
  7. meta: 保留了以后被 applied 的 log index

可扩展性
Xline 之所以将存储相干操作,拆分成了 StorageEngine 和 StorageApi 两个不同的 trait 并扩散到两个不同的层级上,是为了隔离变动。StorageEngine trait 提供机制,StorageApi 则由下层的模块来定义,不同的模块能够有本人的定义,实现特定的存储策略。而 StorageApi 层的 CurpStore 和 DB 则负责实现这两个 trait 之间的转换。因为下层调用者不间接依赖于底层的 Storage Engine 相干内容,因而前面即使更换存储引擎也不会导致下层模块的代码须要做出大量的批改。

Recover 过程
对于 Recover 过程而言,重要不过两件事件,第一是 recover 哪些数据,第二是什么时候做 recover?咱们先来看不同模块之间 recover 所波及到的数据。

共识模块

在共识模块中,因为 RocksDBStorage 是专属于 Curp Server 应用的,因而能够间接将 recover 退出到相应的 StorageApi trait 中。具体实现如下:

#[async_trait]
impl<C: 'static + Command> StorageApi for RocksDBStorage<C> {
    /// Command
    type Command = C;
    /// omit some code
    async fn recover(&self,) -> Result<(Option<(u64, ServerId)>, Vec<LogEntry<Self::Command>>), StorageError> {
        let voted_for = self
            .db
            .get(CF, VOTE_FOR)?
            .map(|bytes| bincode::deserialize::<(u64, ServerId)>(&bytes))
            .transpose()?;

        let mut entries = vec![];
        let mut prev_index = 0;
        for (k, v) in self.db.get_all(CF)? {
            // we can identify whether a kv is a state or entry by the key length
            if k.len() == VOTE_FOR.len() {continue;}
            let entry: LogEntry<C> = bincode::deserialize(&v)?;
            #[allow(clippy::integer_arithmetic)] // won't overflow
            if entry.index != prev_index + 1 {
                // break when logs are no longer consistent
                break;
            }
            prev_index = entry.index;
            entries.push(entry);
        }

        Ok((voted_for, entries))
    }
}

对于共识模块而言,在 recover 过程中,会先从底层的 db 中加载 voted_for 以及相应的 term,这是处于共识算法的安全性保障,为了防止在同一个 term 内投出两次票。随后加载对应的 log entries。

业务模块

对于业务模块而言,不同的 Server 会领有不同的 Store,它们独特依赖于底层 DB 所提供的机制。因而,对应的 recover 并不定义在 StorageApi 这个 trait,而是以独立的办法存在于
LeaseStore(xline/src/storage/lease_store/mod.rs)、AuthStore(xline/src/storage/auth_store/store.rs) 和 KvStore(xline/src/storage/kv_store.rs) 当中。

/// Lease store
#[derive(Debug)]
pub(crate) struct LeaseStore<DB>
where
    DB: StorageApi,
{
    /// Lease store Backend
    inner: Arc<LeaseStoreBackend<DB>>,
}

impl<DB> LeaseStoreBackend<DB>
where
    DB: StorageApi,
{
    /// omit some code
    /// Recover data form persistent storage
    fn recover_from_current_db(&self) -> Result<(), ExecuteError> {let leases = self.get_all()?;
        for lease in leases {
            let _ignore = self
                .lease_collection
                .write()
                .grant(lease.id, lease.ttl, false);
        }
        Ok(())
    }
}

impl<S> AuthStore<S>
where
    S: StorageApi,
{
    /// Recover data from persistent storage
    pub(crate) fn recover(&self) -> Result<(), ExecuteError> {let enabled = self.backend.get_enable()?;
        if enabled {self.enabled.store(true, AtomicOrdering::Relaxed);
        }
        let revision = self.backend.get_revision()?;
        self.revision.set(revision);
        self.create_permission_cache()?;
        Ok(())
    }
}

其中,LeaseStore 和 AuthStore 的 recover 逻辑较为简单,这里不过多展开讨论,咱们重点探讨 KvStore 的 recover 过程,其流程图如下

Recover 的机会

Xline 的 recover 机会次要位于零碎的启动初期,会优先执行业务模块的 recover,随后是共识模块的 recover。其中因为 KvStore 的 recover 依赖于 LeaseStore 的 recover,因而 LeaseStore 的 recover 须要位于 KvStore 的 recover 之前,对应代码 (xline/src/server/xline_server.rs) 如下:

impl<S> XlineServer<S>
where
    S: StorageApi,
{
    /// Start `XlineServer`
    #[inline]
    pub async fn start(&self, addr: SocketAddr) -> Result<()> {
        // lease storage must recover before kv storage
        self.lease_storage.recover()?;
        self.kv_storage.recover().await?;
        self.auth_storage.recover()?;
        let (kv_server, lock_server, lease_server, auth_server, watch_server, curp_server) =
            self.init_servers().await;
        Ok(Server::builder()
            .add_service(RpcLockServer::new(lock_server))
            .add_service(RpcKvServer::new(kv_server))
            .add_service(RpcLeaseServer::from_arc(lease_server))
            .add_service(RpcAuthServer::new(auth_server))
            .add_service(RpcWatchServer::new(watch_server))
            .add_service(ProtocolServer::new(curp_server))
            .serve(addr)
            .await?)
    }

共识模块的 recover 过程 (curp/src/server/curp_node.rs) 如下,其函数调用链为:XlineServer::start -> XlineServer::init_servers -> CurpServer::new -> CurpNode::new

// utils
impl<C: 'static + Command> CurpNode<C> {
    /// Create a new server instance
    #[inline]
    pub(super) async fn new<CE: CommandExecutor<C> + 'static>(
        id: ServerId,
        is_leader: bool,
        others: HashMap<ServerId, String>,
        cmd_executor: CE,
        curp_cfg: Arc<CurpConfig>,
        tx_filter: Option<Box<dyn TxFilter>>,
    ) -> Result<Self, CurpError> {
        // omit some code
        // create curp state machine
        let (voted_for, entries) = storage.recover().await?;
        let curp = if voted_for.is_none() && entries.is_empty() {
            Arc::new(RawCurp::new(
                id,
                others.keys().cloned().collect(),
                is_leader,
                Arc::clone(&cmd_board),
                Arc::clone(&spec_pool),
                uncommitted_pool,
                curp_cfg,
                Box::new(exe_tx),
                sync_tx,
                calibrate_tx,
                log_tx,
            ))
        } else {
            info!("{} recovered voted_for({voted_for:?}), entries from {:?} to {:?}",
                id,
                entries.first(),
                entries.last());
            Arc::new(RawCurp::recover_from(
                id,
                others.keys().cloned().collect(),
                is_leader,
                Arc::clone(&cmd_board),
                Arc::clone(&spec_pool),
                uncommitted_pool,
                curp_cfg,
                Box::new(exe_tx),
                sync_tx,
                calibrate_tx,
                log_tx,
                voted_for,
                entries,
                last_applied.numeric_cast(),))
        };   
        // omit some code
        Ok(Self {
            curp,
            spec_pool,
            cmd_board,
            shutdown_trigger,
            storage,
        })
    }

04 性能评估

在 v0.3.0 的新版本中,咱们除了引入了 Persistent Storage Layer 以外,还对 CURP 的局部内容做了一些大型的重构。在重构结束,增加新性能后,前不久通过了 validation test 和 Integration test。性能局部的测试信息,曾经在 Xlinev0.4.0 中释放出来。性能报告请参考链接:https://github.com/datenlord/Xline/blob/master/img/xline-key-perf.png

05、往期举荐

【寻人启事】达坦科技继续招人 ing
Xline v0.4.0: 一个用于元数据管理的分布式
KV 存储数据库隔离级别及 MVCC
欢送回复邮箱 info@dantenlord.io 加群理解更多信息~

Xline 是一个用于元数据管理的分布式 KV 存储。
Xline 我的项目以 Rust 语言写就,欢送大家参加咱们的开源我的项目!
GitHub 链接:https://github.com/datenlord/Xline
Xline 官网:www.xline.cloudXline
Discord: https://discord.gg/XyFXGpSfvb

正文完
 0