关于数据结构和算法:搜索中常见数据结构与算法探究一

1次阅读

共计 8994 个字符,预计需要花费 23 分钟才能阅读完成。

1 前言

ES 当初曾经被宽泛的应用在日常的搜寻中,Lucene 作为它的内核值得咱们深入研究,比方 FST,上面就用两篇分享来介绍一些本文的主题:

  1. 第一篇次要介绍数据结构和算法根底和分析方法,以及一些罕用的典型的数据结构;
  2. 第二篇次要介绍图论,以及自动机,KMP,FST 等算法;
    上面开始第一篇

2 引言

“算法是计算机科学畛域最重要的基石之一“
“编程语言尽管该学,然而学习计算机算法和实践更重要,因为计算机算法和实践更重要,因为计算机语言和开发平台突飞猛进,但万变不离其宗的是那些算法和实践,例如数据结构、算法、编译原理、计算机体系结构、关系型数据库原理等等。“——《算法的力量》

2.1 提出问题

2.1.1 案例一

设有一组 N 个数而要确定其中第 k 个最大者,咱们称之为 抉择问题。惯例的解法如下:

  1. 该问题的一种解法就是将这 N 个数读进一个数组中,在通过某种简略的算法,比方冒泡排序法,以递加程序将数组排序,而后返回地位 k 上的元素。
  2. 略微好一点的算法能够先把前 k 个元素读入数组并对其排序。接着,将剩下的元素再一一读入。当新元素被读到时,如果它小于数组中的第 k 个元素则疏忽之,否则就将其放到数组中正确的地位上,同时将数组中的一个元素挤出数组。当算法终止时,位于第 k 个地位上的元素作为答案返回。

这两种算法编码都很简略,然而咱们天然要问:哪个算法更好?哪个算法更重要?还是两个算法都足够好?应用 N =30000000 和 k =15000000 进行模仿将发现,两个算法在正当的工夫量内均不能完结;每一种算法都须要计算机解决若干工夫能力实现。
其实还有很多能够解决这个问题,比方二叉堆,归并算法等等。

2.2.2 案例二

输出是由一些字母形成的一个二维数组以及一组单词组成。指标是要找出字谜中的单词,这些单词可能是程度、垂直、或沿对角线上任何方向搁置。下图所示的字谜由单词 this、two、fat 和 that 组成。

当初至多也有两种直观的算法来求解这个问题:

  1. 对单词表中的每个单词,咱们查看每一个有序三元组(行,列,方向)验证是否有单词存在。这须要大量嵌套的 for 循环,但它基本上是直观的算法。
  2. 对于每一个尚未越出迷板边缘的有序四元组(行,列,方向,字符数)咱们能够测试是否所指的单词在单词表中。这也导致应用大量嵌套的 for 循环。

上述两种办法相对来说都不难编码,但如果减少行和列的数量,则下面提出的两种解法均须要相当长的工夫。

以上两个案例中,咱们能够看到要写一个工作程序并不够。如果这个程序在微小的数据集上运行,那么运行工夫就变成了重要问题。

那么,应用自动机实践能够疾速的解决这个问题,下一篇中给大家具体的剖析。

3 数据结构与算法根底

3.1 数据结构根底

3.1.1 什么是数据结构

在计算机领域中,数据是信息的载体,是可能输出到计算机中并且能被计算机辨认、存储和解决的符号的总称。数据结构是指数据元素和数据元素之间的互相关系或数据的组织模式。数据元素是数据的的根本单位,数据元素有若干根本项组成。

3.1.2 数据之间的关系

数据之前的关系分为两类:

  1. 逻辑关系
    示意数据之间的形象关系,按每个元素可能具备的前趋数和间接后继数将逻辑构造分为线性构造和非线性构造。逻辑关系或逻辑构造有如下特点:
  • 只是形容数据结构中数据元素之间的分割法则;
  • 是从具体问题中形象进去的数学模型,是独立于计算机存储器的(与硬件无关)

逻辑构造的分类如下:

  • 线性构造
  • 树形构造
  • 图状构造
  • 其余构造

2)物理关系
逻辑关系在计算中的具体实现办法,分为顺序存储办法、链式存储办法、索引存储办法、散列存储办法。物理关系或物理构造有如下特点:

  • 是数据的逻辑构造在计算机存储其中的映像;
  • 存储构造是通过计算机程序来实现,因而是依赖于具体的计算机语言的;

物理构造分类如下:

  • 程序构造
  • 链式构造
  • 索引构造

3.2 算法根底

3.2.1 根底概念

算法是为求解一个问题须要遵循的、被分明指定的简略指令的汇合。对于一个问题,一旦某种算法给定并且被确定是正确的,那么重要的一步就是确定该算法将须要多少诸如工夫或空间等资源量的问题。如果一个问题的求解算法居然须要长达一年工夫,那么这种算法就很难能有什么用途。同样,一个须要若干个 GB 的内存的算法在以后的大多数机器上也是无奈应用的。

3.2.2 数学根底

一般来说,估算算法资源耗费所需的剖析是一个实践问题,因而须要一套数学分析法,咱们先从数学定义开始。

  • 定理 1:如果存在失常数 c 和 n0,使得当 N >= n0 时,T(N) <= cf(N),则记为 T(N) = O(f(N))。
  • 定理 2:如果存在失常数 c 和 n0,使得当 N >=n0 时,T(N) <= cg(N),则记为 T(N) = Ω(g(N))。
  • 定理 3:T(N) = θ(h(N))当且仅当 T(N) = O(h(N)) 和 T(N) = Ω(h(N))。
  • 定理 4:如果对每一个失常数 c 都存在常数 n0 使得当 N >n0 时,T(N) < cp(N),则 T(N) = o(p(N))。

这些定义的目标是要在函数间建设一种绝对的级别。给定两个函数,通常存在一些点,在这些点上一个函数的值小于另一个函数的值,因而,个别声称 f(N)<g(N),是没有什么意义的。于是,咱们比拟他们的绝对增长率。当将绝对增长率利用到算法剖析时,会明确它是重要的度量。

如果用传统的不等式来计算增长率,那么第一个定义 T(N) = O(f(N))是说 T(N)的增长率小于或者等于 f(N)的增长率。第二个定义 T(N) = Ω(g(N))是说 T(N)增长率大于或者等于 g(N)的增长率。第三个定义 T(N) = θ(h(N))是说 T(N)的增长率等于 h(N)的增长率。最初一个定义 T(N) = o(p(N))说的则是 T(N)的增长率小于 p(N)的增长率。他不同于大 O,因为大 O 蕴含增长率雷同的可能性。

要证实某个函数 T(N) = O(f(N)),通常不是模式的应用这些定义,而是应用一些已知的后果(比如说 T(N) = O(log(N)))。一般来说,这就意味着证实是非常简单的计算而不应波及微积分,除非遇到非凡状况。如下是常见的已知函数后果

  • c(常数函数)
  • logN(对数函数)
  • logN^2(对数平方函数)
  • N(线性函数)
  • NlogN
  • N^2(二次函数)
  • N^3(三次函数)
  • 2^N(指数函数)

在应用已知函数后果时,有几点须要留神:

  1. 首先,将常数或低阶项放进大 O 是十分坏的习惯。不要写成 T(N) = O(2*N^2)或 T(N) = O(N^2 + N)。这两种情景下,正确的模式是 T(N) = O(N^2)。也就是说低阶项个别能够被疏忽,而常数也能够弃掉。
  2. 其次,咱们总可能通过计算极限 limN→∞f(N)/g(N)(极限公式)来确定两个函数 f(N)和 g(N)的绝对增长率。该极限能够有四种可能的值:
    极限是 0:这意味着 f(N) = o(g(N))。
    极限是 c != 0:这意味着 f(N) = θ(g(N))。
    极限是∞:这意味着 g(N) = o(f(N))。
    极限摆动:二者无关。

3.2.3 复杂度函数

失常状况下的复杂度函数蕴含如下两种:
工夫复杂度
空间复杂度

工夫和空间的度量并没有一个固定的规范,然而在失常状况下,工夫复杂度的单位基本上是以一次内存拜访或者一次 IO 来决定。空间复杂度是指在算法执行过程中须要占用的存储空间。对于一个算法来说,工夫复杂度和空间复杂度往往是相互影响,当谋求一个好的工夫复杂度时,可能会使空间复杂度变差,即可能占用更多的存储空间;反之,当谋求一个较好的空间复杂度时,可能会使工夫复杂度变差,即可能占用较长的运算工夫。

3.3 常识储备

3.3.1 质数分辨定理(HashTree 的实践根底)

简略的说就是,n 个不同的质数能够分辨的间断数的个数和他们的伺机雷同。分辨是指这些间断的整数不可能有雷同的余数序列。

3.3.2 Hash 算法

1)Hash
Hash 个别翻译成散列,也能够间接音译成哈希,就是把任意长度的输出,通过散列算法变换成固定长度的输入,该输出就是散列值。不同的输出可能散列成雷同的值,确定的散列值不可能确定一个输出。

2)常见的 Hash 算法

  • MD4:音讯摘要算法;
  • MD5:音讯摘要算法,MD4 的降级版本;
  • SHA-1:SHA- 1 的设计和 MD4 雷同原理,并模拟该算法
    自定义 HASH 算法:程序设计者能够自定义 HASH 算法,比方 java 中重写的 hashCode()办法

3)Hash 碰撞
解决 Hash 碰撞常见的办法有一下几种:

  • 拆散链接法(链表法):做法是将散列到同一个值的所有元素保留在一个表中,例如 JDK 中的 HashMap;
  • 探测散列表:当产生 Hash 碰撞时,尝试寻找另外一个单元格,直到晓得到空的单元为止。包含:线性探测法,平方探测法,双散列。

3.3.3 树结构的基本概念

  • 树的递归定义:一棵树是一些节点的汇合。这个汇合能够是空集;若不是空集,则树由根节点 root 以及 0 个或多个非空的子树组成,这些子树中每一棵的根都被来自根 root 的一条有向的边所连贯;
  • 树叶节点:没有儿子节点称为树叶;
  • 深度:对于任意节点 ni,ni 的深度为从根到 ni 的惟一门路的长;
  • 高度:对于任意节点 ni,ni 的高度为从 ni 到一片树叶的最长门路的长。
  • 树的遍历:树的遍历分为两种,先序遍历和后续遍历;

3.3.4 二叉搜寻树

二叉搜寻树是一棵二叉树,其中每个节点都不能有多于两个子节点。
对于二叉查找树的每一个节点 X,它的左子树中所有项的值都小于 X 节点中的项,而它的右子树中所有项的值大于 X 中的项;

4 常见数据结构与算法剖析

4.1 线性数据结构

4.1.1 HashMap

1)总述
HashMap 是开发中最罕用的数据结构之一,数据常驻于内存中,对于小的数据量来说,HashMap 的增删改查的效率都十分高,复杂度靠近于 O(1)。

2)数据结构和算法

  • HashMap 由一个 hash 函数和一个数组组成;
  • 数据插入,当进入到 map 的时候,依据 hash(key)找到对应点地位,如果地位为空,间接保留,如果地位不为空,则应用链表的形式解决;为了解决遍历链表所减少的工夫,JDK 中的链表在大小增大到 8 时,将调演变成红黑树以升高工夫复杂度。为什么开始应用链表,前面应用红黑树:
    • 数据量较小的时候,链表的查问效率相对来说也比拟高,应用红黑树占用空间比链表要大;
    • 为什么抉择 8,请参考泊松散布;
  • 查找和删除的过程,同插入的过程相似;
  • HashMap 能够反对主动扩容,扩容机制须要看具体的实现;

3)优缺点

  • 长处:动静可变长存储数据,疾速的查问速度,查问复杂度靠近 O(1);
  • 毛病:只反对小数据量的内存查问;

4)应用场景

  • 在内存中小数据量的数据保留和疾速查找;

4.1.2 Bloom Filter(布隆过滤器)

1)总述
布隆过滤器算法为大数据量的查找提供了疾速的办法,工夫复杂度为 O(k),布隆过滤器的语义为:

  • 布隆过滤器的输入为否定的后果肯定为真;
  • 布隆过滤器的输入为必定的后果不肯定为真;

2)数据结构和算法
布隆过滤器的具体构造和算法为:

  • 布隆过滤器蕴含 k 个 hash 函数,每个函数能够把 key 散列成一个整数(下标);
  • 布隆过滤器蕴含了一个长度为 n 的 bit 数组(向量数组),每个 bit 的初始值为 0;
  • 当某个 key 退出的时候,用 k 个 hash 函数计算出 k 个散列值,并把数组中对应的比特置为 1;
  • 判断某个 key 是否在汇合时,用 k 个 hash 函数算出 k 个值,并查问数组中对应的比特位,如果所有的 bit 位都为 1,认为在汇合中;
  • 布隆过滤器的大小须要提前评估,并且不能扩容;

布隆过滤器的插入过程如下:

判断某个 key 是否在汇合时,用 k 个 hash 函数算出 k 个值,并查问数组中对应的比特位,如果所有的 bit 位都为 1,认为在汇合中

  • 布隆过滤器无奈删除数据;
  • 布隆过滤器查问的工夫复杂度为 O(k);
  • 布隆过滤器空间的占用在初始化的时候曾经固定不能扩容。

3)优缺点

  • 长处:布隆过滤器在工夫和空间上都有微小的劣势。布隆过滤器存储空间和插入 / 查找时间都是常数。布隆过滤器不须要存储数据自身,节俭空间。
  • 毛病:布隆过滤器的毛病是有误差。元素越多误差越高。能够通过进步 hash 函数的个数和扩充 bit 数组的长度来升高误差率;

4)场景

  • 应用场景:缓存击穿,判断有无。

4.1.3 SkipList(跳表)

1)总述
跳表是一种非凡的链表,相比个别的链表有更高的查找效率,可比较二差查找树,均匀冀望的插入,查找,删除的工夫复杂度都是 O(logN);

2)数据结构和算法
跳表可视为程度排列(Level)、垂直排列(Row)的地位(Position)的二维汇合。每个 Level 是一个列表 Si,每个 Row 蕴含存储间断列表中雷同 Entry 的地位,跳表的各个地位能够通过以下形式进行遍历。

  • After(P):返回和 P 在同一 Level 的前面的一个地位,若不存在则返回 NULL;
  • Before(P):返回和 P 在同一 Level 的后面的一个地位,若不存在则返回 NULL;
  • Below(P):返回和 P 在同一 Row 的上面的一个地位,若不存在则返回 NULL;
  • Above(P):返回和 P 在同一 Row 的下面的一个地位,若不存在则返回 NULL;

有程序关系的多个 Entry(K,V)汇合 M 能够由跳表实现,跳表 S 由一系列列表 {S0,S1,S2,……,Sh} 组成,其中 h 代表的跳表的高度。每个列表 Si 依照 Key 顺序存储 M 项的子集,此外 S 中的列表满足如下要求:

  • 列表 S0 中蕴含了汇合 M 的每个一个 Entry;
  • 对于 i = 1,……,h- 1 列表 Si 蕴含列表 Si- 1 中 Entry 的随机子集;

Si 中的 Entry 是从 Si- 1 中的 Entry 汇合中随机抉择的,对于 Si- 1 中的每一个 Entry,以 1 / 2 的概率来决定是否须要拷贝到 Si 中,咱们冀望 S1 有大概 n / 2 个 Entry,S2 中有大概 n / 4 个 Entry,Si 中有 n /2^i。跳表的高度 h 大概是 logn。从一个列表到下一个列表的 Entry 数减半并不是跳表的强制要求;
插入的过程形容,以上图为例,插入 Entry58:

  • 找到底层列表 S0 中 55 的地位,在其后插入 Entry58;
  • 假如随机函数取值为 1,紧着回到 20 的地位,在其后插入 58,并和底层列表 S0 的 - Entry58 链接起来造成 Entry58 的 Row;
  • 假如随机函数取值为 0,则插入过程终止;

下图为随机数为 1 的后果图:

删除过程:同查找过程。

工夫复杂度

  • 查找包含两个循环,外层循环是从下层 Level 到底层 Level,内层循环是在同一个 Level,从左到右;
  • 跳表的高度大概率为 O(logn),所以外层循环的次数大概率为 O(logn);
  • 在下层查找比对过的 key,不会再上层再次查找比对,任意一个 key 被查找比对的概率为 1 /2,因而内存循环比对的冀望次数是 2 也就是 O(1);
  • 因而最终的工夫复杂度函数 O(n) = O(1)*O(logn) 也就是 O(logn);

空间复杂度

  • Level i 冀望的元素个数为 n/2^i;
  • 跳表中所有的 Entry(蕴含同一个 Entry 的 Row 中的元素)Σ n/2^i = nΣ1/2^i,其中有级数公式失去 Σ1/2^i < 2;
  • 冀望的列表空间为 O(n);

3)优缺点

  • 长处:疾速查找,算法实现简略;
  • 毛病:跳表在链表的根底上减少了多级索引以晋升查问效率,应用空间来换取工夫,必然会减少存储的累赘。

4)应用场景
许多开源的软件都在应用跳表:

  • Redis 中的有序汇合 zset
  • LevelDB Hbase 中的 memtable
  • Lucene 中的 Posting List

4.2 简略非线性数据结构

4.2.1 AVL

1)总述
AVL 树是带有平衡条件的二叉查找树,这个平衡条件必须要容易放弃,而且它保障树的深度必须是 O(logN)。在 AVL 树中任何节点的两个子树的高度最大差异为 1。

2)数据结构和算法
AVL 树实质上还是一棵二叉查找树,有以下特点:

  • AVL 首先是一棵二叉搜寻树;
  • 带有平衡条件:每个节点的左右子树的高度之差的绝对值最多为 1;
  • 当插入节点或者删除节点时,树的构造发生变化导致毁坏特点二时,就要进行旋转保障树的均衡;

针对旋转做详细分析如下:
咱们把必须从新均衡的节点叫做 a,因为任意节点最多有两个儿子,因而呈现高度不均衡就须要 a 点的两棵子树的高度差 2。能够看出,这种不均衡可能呈现一下四种状况:

  • 对 a 的左儿子的左子树进行一次插入;
  • 对 a 的左儿子的右子树进行一次插入;
  • 对 a 的右儿子的左子树进行一次插入;
  • 对 a 的右儿子的柚子树进行一次插入;

情景 1 和 4 是对于 a 的对称,而 2 和 3 是对于 a 点的对称。因而实践上解决两种状况。
第一种状况是插入产生在外侧的状况,该状况通过对树的一次单旋转而实现调整。第二种状况是插入产生在内侧的状况,这种状况通过略微简单些的双旋转来解决。

单旋转的简略示意图如下:

双旋转的简略示意图如下:

3)优缺点

  • 长处:应用二叉查找算法工夫复杂度为 O(logN),构造清晰简略;
  • 毛病:插入和删除都须要进行再均衡,节约 CPU 资源;

4)应用场景

  • 大量数据的查找和保留;

.4.2.2 Red Black Tree

1)总述
红黑树是一种自均衡的二叉查找树,是 2 -3- 4 树的一种等同,它能够在 O(logN)内做查找,插入和删除。

2)数据结构和算法
在 AVL 的根底之上,红黑树又减少了如下特点:

  • 每个节点或者是红色,或者是彩色;
  • 根节点是彩色;
  • 如果一个节点时红色的,那么它的子节点必须是彩色的;
  • 从一个节点到一个 null 援用的每一条门路必须蕴含雷同数目的彩色节点;

红黑树的示意图如下(图片来源于网络):

那么将一个节点插入到红黑树中,须要执行哪些步骤呢?

  • 将红黑树当做一棵二叉搜寻树,将节点插入;
  • 将插入的节点着色为红色;
  • 通过一系列的旋转和着色等操作,使之从新成为一棵红黑树;

在第二步中,被插入的节点被着为红色之后,他会违反哪些个性呢

  • 对于个性 1,显然是不会违反;
  • 对于个性 2,显然也是不会违反;
  • 对于个性 4,显然也是不会违反;
  • 对于个性 3,有可能会违反,咱们将状况形容如下
    • 被插入的节点是根节点:间接把此节点涂为彩色;
    • 被插入的节点的父节点是彩色:什么也不须要做。节点被插入后,依然是红黑树;
    • 被插入的节点的父节点是红色:此种状况下与个性 3 违反,所以将状况剖析如下:
      • 以后节点的父节点是红色,且以后节点的祖父节点的另一个子节点也是红色。解决策略为:将父节点置为彩色、将叔叔节点置为彩色、将祖父节点置为红色;
      • 以后节点的父节点是红色,叔叔节点时彩色,且以后节点是其父节点的右子节点。将父节点作为新的以后节点、以新的以后节点作为支点进行左旋;
      • 以后节点的父节点是红色,叔叔节点时彩色,且以后节点时父节点的左子节点。将父节点置为彩色、将祖父节点置为红色、以祖父节点为支点进行右旋;

定理:一棵含有 n 个节点的红黑树的高度至少为 2log(N+1),证实过程请查看参考资料。
由此定理可推论红黑树的工夫复杂度为 log(N);

3)优缺点

  • 长处:查问效率高,插入和删除的失衡的代销比 AVL 要小很多;
  • 毛病:红黑树不谋求齐全均衡;

4)应用场景

  • 红黑树的利用很宽泛,次要用来存储有序的数据,工夫复杂度为 log(N),效率十分高。例如 java 中的 TreeSet、TreeMap、HashMap 等

4.2.3 B+Tree

1)总述
提起 B +Tree 都会想到赫赫有名的 MySql 的 InnoDB 引擎,该引擎应用的数据结构就是 B +Tree。B+Tree 是 B -Tree(均衡多路查找树)的一种改进,使得更适宜实现存储索引构造,也是该篇分享中惟一一个与磁盘有关系的数据结构。首先咱们先理解一下磁盘的相干货色。

零碎从磁盘读取数据到内存时是以磁盘块(block)为根本单位,位于同一块磁盘块中的数据会被一次性读取进去。InnoDB 存储引擎中有页(Page)的概念,页是引擎治理磁盘的根本单位。

2)数据结构和算法
首先,先理解一下一棵 m 阶 B -Tree 的个性:

  • 每个节点最多有 m 个子节点;
  • 除了根节点和叶子结点外,其余每个节点至多有 m / 2 个子节点;
  • 若根节点不是叶子节点,则至多有两个子节点;
  • 所有的叶子结点都是同一深度;
  • 每个非叶子节点都蕴含 n 个关键字
  • 关键字的个数的关系为 m/2-1 < n < m -1

B-Tree 很适宜作为搜寻来应用,然而 B -Tree 有一个毛病就是针对范畴查找反对的不太敌对,所以才有了 B +Tree;
那么 B +Tree 的个性在 B -Tree 的根底上又减少了如下几点:

  • 非叶子节点只存储键值信息;
  • 所有的叶子节点之间都有一个链指针(不便范畴查找);
  • 数据记录都寄存在叶子节点中;

咱们将上述特点形容整顿成下图(假如一个页(Page)只能写四个数据):

这样的数据结构能够进行两种运算,一种是针对主键的范畴查找和分页查找,另外一种是从根节点开始,进行随机查找;

3)优缺点

  • 长处:利用磁盘能够存储大量的数据,简略的表构造在深度为 3 的 B +Tree 上能够保留大略上亿条数据;B+Tree 的深度大略也就是 2~4,深度少就象征这 IO 会缩小;B+Tree 的工夫复杂度 log(m)N
  • 毛病:插入或者删除数据有可能会导致数据页决裂;即便主键是递增的也无奈防止随机写,这点 LSM-Tree 很好的解决了;无奈反对全文索引;

4)应用场景

  • 应用场景大多数数据库的引擎,例如 MySql,MongoDB 等

4.2.4 HashTree

1)总述
HashTree 是一种非凡的树状构造,依据质数分辨定理,树每层的个数为 1、2、3、5、7、11、13、17、19、23、29…..

2)数据结构和算法
从 2 起的间断质数,间断 10 个质数接能够分辨大概 6464693230 个数,而依照目前 CPU 的计算程度,100 次取余的整数除法操作简直不算什么难事。

咱们抉择质数分辨算法来构建一颗哈希树。抉择从 2 开始的间断质数来构建一个 10 层的哈希树。第一层节点为根节点,根节点先有 2 个节点,第二层的每个节点蕴含 3 个子节点;以此类推,即每层节点的数据都是间断的质数。对质数进行取余操作失去的数据决定了解决的门路。上面咱们以随机插入 10 个数(442 9041 3460 3164 2997 3663 8250 908 8906 4005)为例,来图解 HashTree 的插入过程,如下:

HashTree 的节点查找过程和节点插入过程相似,就是对关键字用质数取余,依据余数确定下一节点的分叉门路,晓得找到指标节点。如上图,在从对象中查找所匹配的对象,比拟次数不超过 10 次,也就是说工夫复杂度最多是 o(1).

删除的过程和查找相似。

3)优缺点:

  • 长处:构造简略,查找迅速,构造不变。
  • 毛病:非有序性。

4.2.5 其余数据结构

鉴于篇幅无限,余下重要数据结构将在下一篇文章中再来一起探讨,敬请期待!

作者:郑冰 潘坤

京东云官网:https://www.jdcloud.com/cn/pa…

正文完
 0