前言
排序算法是数组相干算法的基础知识之一,它们的经典思维能够用于很多算法之中。这里具体介绍和总结 7 种最常见排序算法,并用 Go 做了实现,同时对比这几种算法的工夫复杂度、空间复杂度和稳定性。后一部分是对 Go 规范库排序实现的源码浏览和剖析,了解官网是如何通过将以上排序算法进行组合来进步排序性能,实现生产环境的排序实际。
排序算法分类
常见的这 7 种排序算法别离是:
- 抉择排序
- 冒泡排序
- 插入排序
- 希尔排序
- 归并排序
- 疾速排序
- 堆排序
咱们能够依据算法特点像复杂度、是否比拟元素、内外部排序等特点对它们做分类,比方下面的算法都是 外部排序的。个别能够基于算法是否比拟了元素,将排序分为两类:
- 比拟类排序:通过比拟来决定元素间的绝对秩序。因为其均匀工夫复杂度不能冲破 $O(N\log N)$,因而也称为非线性工夫比拟类排序。
- 非比拟类排序:不通过比拟来决定元素间的绝对秩序。它能够冲破基于比拟排序的工夫下界,以线性工夫运行,因而也称为线性工夫非比拟类排序。次要实现有:桶排序、计数排序和基数排序。
通过这个的分类,能够先有一个根本的意识,就是比拟类排序算法的均匀工夫复杂度较好的状况下是 $O(N\log N)$(一遍找元素 $O(N)$,一遍找地位 $O(\log N)$)。
注:有反复大量元素的数组,能够通过三向切分疾速排序,将均匀工夫复杂度升高到 $O(N)$
比拟类排序算法
因为非比拟排序有其局限性,所以它们并不罕用。本文将要介绍的 7 种算法都是比拟类排序。
抉择排序
原理:遍历数组,从中抉择最小元素,将它与数组的第一个元素替换地位。持续从数组剩下的元素中抉择出最小的元素,将它与数组的第二个元素替换地位。循环以上过程,直到将整个数组排序。
工夫复杂度剖析:$O(N^{2})$。抉择排序大概须要 $N^{2}/2$ 次比拟和 $N$ 次替换,它的运行工夫与输出无关,这个特点使得它对一个曾经排序的数组也须要很多的比拟和替换操作。
实现:
// 抉择排序 (selection sort)
package sorts
func SelectionSort(arr []int) []int {for i := 0; i < len(arr); i++ {
min := i
for j := i + 1; j < len(arr); j++ {if arr[j] < arr[min] {min = j}
}
tmp := arr[i]
arr[i] = arr[min]
arr[min] = tmp
}
return arr
}
冒泡排序
原理:遍历数组,比拟并将大的元素与下一个元素替换地位,在一轮的循环之后,能够让未排序 i 的最大元素排列到数组右侧。在一轮循环中,如果没有产生元素地位替换,那么阐明数组曾经是有序的,此时退出排序。
工夫复杂度剖析:$O(N^{2})$
实现:
// 冒泡排序 (bubble sort)
package sorts
func bubbleSort(arr []int) []int {
swapped := true
for swapped {
swapped = false
for i := 0; i < len(arr)-1; i++ {if arr[i+1] < arr[i] {arr[i+1], arr[i] = arr[i], arr[i+1]
swapped = true
}
}
}
return arr
}
插入排序
原理:数组先看成两局部,排序序列和未排序序列。排序序列从第一个元素开始,该元素能够认为曾经被排序。遍历数组,每次将扫描到的元素与之前的元素相比拟,插入到有序序列的适当地位。
工夫复杂度剖析:插入排序的工夫复杂度取决于数组的排序序列,如果数组曾经局部有序了,那么未排序元素较少,须要的插入次数也就较少,工夫复杂度较低。
- 均匀状况下插入排序须要 $N^{2}/4$ 次比拟以及 $N^{2}/4$ 次替换;
- 最坏的状况下须要 $N^{2}/2$ 比拟以及 $N^{2}/2$ 次替换,最坏的状况是数组都是未排序序列(倒序)的;
- 最好的状况下须要 $ N-1$ 次比拟和 0 次替换,最好的状况就是数组曾经是排序序列。
实现:
// 插入排序 (insertion sort)
package sorts
func InsertionSort(arr []int) []int {for currentIndex := 1; currentIndex < len(arr); currentIndex++ {temporary := arr[currentIndex]
iterator := currentIndex
for ; iterator > 0 && arr[iterator-1] >= temporary; iterator-- {arr[iterator] = arr[iterator-1]
}
arr[iterator] = temporary
}
return arr
}
希尔排序
原理 :希尔排序,也称递加增量排序算法,本质是插入排序的优化( 分组插入排序)。对于大规模的数组,插入排序很慢,因为它只能替换相邻的元素地位,每次只能将未排序序列数量缩小 1。希尔排序的呈现就是为了解决插入排序的这种局限性,通过替换不相邻的元素地位,使每次能够将未排序序列的缩小数量变多。
希尔排序应用插入排序对距离 d 的序列进行排序。通过一直减小 d,最初令 d=1,就能够使得整个数组是有序的。
工夫复杂度:$O(dN*M)$,M 示意已排序序列长度,d 示意距离,即 N 的若干倍乘于递增序列的长度
实现:
// 希尔排序 (shell sort)
package sorts
func ShellSort(arr []int) []int {for d := int(len(arr) / 2); d > 0; d /= 2 {for i := d; i < len(arr); i++ {for j := i; j >= d && arr[j-d] > arr[j]; j -= d {arr[j], arr[j-d] = arr[j-d], arr[j]
}
}
}
return arr
}
归并排序
原理:将数组分成两个子数组,别离进行排序,而后再将它们归并起来(自上而下)。
具体算法形容:先思考合并两个有序数组,基本思路是比拟两个数组的最后面的数,谁小就先取谁,取了后相应的指针就往后移一位。而后再比拟,直至一个数组为空,最初把另一个数组的残余局部复制过去即可。
再思考递归合成,基本思路是将数组分解成 left
和right
,如果这两个数组外部数据是有序的,那么就能够用下面合并数组的办法将这两个数组合并排序。如何让这两个数组外部是有序的?能够二分,直至合成出的小组只含有一个元素时为止,此时认为该小组外部已有序。而后合并排序相邻二个小组即可。
归并算法是 分治法 的一个典型利用,所以它有两种实现办法:
- 自上而下的递归:每次将数组对半分成两个子数组再归并(分治)
- 自下而上的迭代:先归并子数组,而后成对归并失去的子数组
工夫复杂度剖析: $O(N\log N)$
实现:
// 归并排序 (merge sort)
package sorts
func merge(a []int, b []int) []int {var r = make([]int, len(a)+len(b))
var i = 0
var j = 0
for i < len(a) && j < len(b) {if a[i] <= b[j] {r[i+j] = a[i]
i++
} else {r[i+j] = b[j]
j++
}
}
for i < len(a) {r[i+j] = a[i]
i++
}
for j < len(b) {r[i+j] = b[j]
j++
}
return r
}
// Mergesort 合并两个数组
func Mergesort(items []int) []int {if len(items) < 2 {return items}
var middle = len(items) / 2
var a = Mergesort(items[:middle])
var b = Mergesort(items[middle:])
return merge(a, b)
}
疾速排序
原理:疾速排序也是分治法的一个利用,先随机拿到一个基准 pivot,通过一趟排序将数组分成两个独立的数组,左子数组小于或等于 pivot,右子数组大于等于 pivot。而后可在对这两个子数组递归持续以上排序,最初使整个数组有序。
具体算法形容:
- 从数组中筛选一个切分元素,称为“基准”(pivot)
- 排序数组,把所有比基准值小的元素排到基准后面,所有比基准值大的元素排到基准前面(雷同元素不对地位做要求)。这个排序实现后,基准就排在数组的两头地位。这个排序过程称为“分区”(partition)
- 递归地把小于基准值元素的子数组和大于基准值的子数组排序
空间复杂度剖析:疾速排序是原地排序,不须要辅助数据,然而递归调用须要辅助栈,最好状况下是递归 $\log 2N$ 次,所以空间复杂度为 $O(\log 2N)$,最坏状况下是递归 $N-1$ 次,所以空间复杂度是 $O(N)$。
工夫复杂度剖析:
- 最好的状况是每次基准都正好将数组对半分,这样递归调用起码,工夫复杂度为 $O(N \log N)$
- 最坏的状况是每次分区过程,基准都是从最小元素开始,对应工夫复杂度为 $O(N^{^{2}})$
算法改良:
- 分区过程中更正当地抉择基准(pivot)。间接抉择分区的第一个或最初一个元素做 pivot 是不适合的,对于曾经排好序,或者靠近排好序的状况,会进入最差状况,工夫复杂度为 $O(N^{2})$
- 因为疾速排序在小数组中也会递归调用本人,对于小数组,插入排序比疾速排序的性能更好,因而在小数组中能够切换到插入排序
- 更快地分区(三向切分疾速排序):对于有大量反复元素的数组,能够将数组切分为三局部,别离对应小于 pivot、等于 pivot 和大于 pivot 切分元素
实现:
// 三向切分疾速排序 (quick sort)
package sorts
import ("math/rand")
func QuickSort(arr []int) []int {if len(arr) <= 1 {return arr}
pivot := arr[rand.Intn(len(arr))]
lowPart := make([]int, 0, len(arr))
highPart := make([]int, 0, len(arr))
middlePart := make([]int, 0, len(arr))
for _, item := range arr {
switch {
case item < pivot:
lowPart = append(lowPart, item)
case item == pivot:
middlePart = append(middlePart, item)
case item > pivot:
highPart = append(highPart, item)
}
}
lowPart = QuickSort(lowPart)
highPart = QuickSort(highPart)
lowPart = append(lowPart, middlePart...)
lowPart = append(lowPart, highPart...)
return lowPart
}
堆排序
原理:堆排序是利用“沉积”(heap)这种数据结构的一种排序算法。因为堆是一个近似齐全二叉树构造,满足子节点的键值或索引小于(或大于)它的父节点。
具体算法形容:
- 将待排序数组构建成大根堆,这个堆为初始的无序区
- 将堆顶元素 $R_{1}$ 与最初一个元素 $R_{n}$ 替换,此时失去新的无序区($R_{1},R_{2},…R_{n-1}$)和新的有序区($R_{n}$),并且满足 $R_{1,2,…n-1}<= R_{n}$
- 因为替换后新的堆顶 $R_{1}$ 可能违反堆的性质,须要对以后无序区调整为新堆,而后再次将 $R_{1}$ 与无序区最初一个元素替换,失去新的无序区 $R_{1},R_{2}…R_{n-2}$ 和新的有序区 $R_{n-1},R_{n}$。一直反复此过程直到有序区的元素个数为 $n-1$,则整个排序过程实现
工夫复杂度剖析:一个堆的高度为 $\log N$,因而在堆中插入元素和删除最大元素的工夫复杂度为 $O(\log N)$。堆排序会对 N 个节点进行下沉操作,因为工夫复杂度为 $O(N \log N)$
实现:
// 堆排序 (heap sort)
package sorts
type maxHeap struct {slice []int
heapSize int
}
func buildMaxHeap(slice []int) maxHeap {h := maxHeap{slice: slice, heapSize: len(slice)}
for i := len(slice) / 2; i >= 0; i-- {h.MaxHeapify(i)
}
return h
}
func (h maxHeap) MaxHeapify(i int) {
l, r := 2*i+1, 2*i+2
max := i
if l < h.size() && h.slice[l] > h.slice[max] {max = l}
if r < h.size() && h.slice[r] > h.slice[max] {max = r}
if max != i {h.slice[i], h.slice[max] = h.slice[max], h.slice[i]
h.MaxHeapify(max)
}
}
func (h maxHeap) size() int { return h.heapSize}
func HeapSort(slice []int) []int {h := buildMaxHeap(slice)
for i := len(h.slice) - 1; i >= 1; i-- {h.slice[0], h.slice[i] = h.slice[i], h.slice[0]
h.heapSize--
h.MaxHeapify(0)
}
return h.slice
}
算法复杂度比拟
上面是各排序算法的复杂度和稳定性比拟:
排序算法 | 工夫复杂度(均匀) | 工夫复杂度(最好) | 工夫复杂度(最坏) | 空间复杂度 | 稳定性 | 备注 |
---|---|---|---|---|---|---|
抉择排序 | $O(N^{2})$ | $O(N^{2})$ | $O(N^{2})$ | $O(1)$ | 不稳固 | |
冒泡排序 | $O(N^{2})$ | $O(N)$ | $O(N^{2})$ | $O(1)$ | 稳固 | |
插入排序 | $O(N^{2})$ | $O(N)$ | $O(N^{2})$ | $O(1)$ | 稳固 | 工夫复杂度和初始程序无关 |
希尔排序 | $O(N^{1.3})$ | $O(N)$ | $O(N^{2})$ | $O(1)$ | 不稳固 | 改进版插入排序 |
归并排序 | $O(N \log N)$ | $O(N \log N)$ | $O(N \log N)$ | $O(N)$ | 稳固 | |
疾速排序 | $O(N \log N)$ | $O(N \log N)$ | $O(N^{2})$ | $O(N \log N)$ | 不稳固 | |
堆排序 | $O(N \log N)$ | $O(N \log N)$ | $O(N \log N)$ | $O(1)$ | 不稳固 | 无奈利用局部性原理 |
注:
- 稳固:如果 a 本来在 b 后面,而 a=b,排序之后 a 依然在 b 的后面。
- 不稳固:如果 a 本来在 b 的后面,而 a=b,排序之后 a 可能会呈现在 b 的前面。
比照这里排序的工夫复杂度,归并排序、疾速排序和堆排序的均匀工夫复杂度都是 $O(N \log N)$。然而再比拟最坏的状况,能够看到堆排序的下界也是 $O(N \log N)$,而快排最坏的工夫复杂度是 $O(N^{2})$。你可能会问,按剖析后果来说,堆排序应该是理论应用的更好抉择,但为什么业界的排序实现更多是疾速排序?
实际上在算法剖析中,大 $O$ 的作用是给出一个规模的下界,而不是增长数量的下界。因而,算法复杂度一样只是阐明随着数据量的减少,算法工夫代价增长的趋势雷同,并不是执行的工夫就一样,这外面有很多常量参数的差异,比方在公式里各个排序算法的后面都省略了一个 $c$,这个 $c$ 对于堆排序来说是 100,可能对于疾速排序来说就是 10,但因为是常数级所以不影响大 $O$。
这里有一份均匀排序工夫的 Benchmark 测试数据(数据集是随机整数,工夫单位 s):
数据规模 | 疾速排序 | 归并排序 | 希尔排序 | 堆排序 |
---|---|---|---|---|
1000 w | 0.75 | 1.22 | 1.77 | 3.57 |
5000 w | 3.78 | 6.29 | 9.48 | 26.54 |
1 亿 | 7.65 | 13.06 | 18.79 | 61.31 |
因为堆排序每次取一个最大值和堆底部的数据交换,从新筛选堆,把堆顶的 X 调整到位,有很大可能是仍旧调整到堆的底部(堆的底部 X 显然是比拟小的数,才会在底部),而后再次和堆顶最大值替换,再调整下来,能够说堆排序做了许多无用功。
总结起来就是,快排的最坏工夫尽管复杂度高,然而在统计意义上,这种数据呈现的概率极小,而堆排序过程里的替换跟快排过程里的替换尽管都是常量工夫,然而常量时间差很多。
Go 规范库排序源码剖析
梳理完最罕用的 7 种排序算法后,咱们持续来看下 Go 在规范库里是怎么做的排序实现。
规范库的 sort
包的目录树如下(以 Go 1.15.5 为例):
$ tree .
.
├── example_interface_test.go // 提供对 []struct 排序的 example
├── example_keys_test.go // 依据 struct 里对某一字段的自定义比拟,来对 []struct 排序的 example
├── example_multi_test.go // 依据用户定义好的 less 办法做排序的 example
├── example_search_test.go // sort.Search 提供对排序数组二分查找某一元素的 example
├── example_test.go // 根本的各种数组排序的 example
├── example_wrapper_test.go // 对 sort.Interface 接口的实现(封装),排序的 example
├── export_test.go
├── genzfunc.go
├── search.go // 二分查找的实现
├── search_test.go
├── slice.go
├── slice_go113.go
├── slice_go14.go
├── slice_go18.go
├── sort.go // 次要代码,提供对 slice 和自定义汇合的排序实现
├── sort_test.go
└── zfuncversion.go
其中带有 example_*
前缀的文件是 sort 包的示例代码,有官网 example 来阐明排序的应用办法。很有必要看一遍,能够了解 sort 包怎么应用,和在一些绝对简单场景下如何排序。
排序的次要代码在 sort.go
这个文件里。实现的排序算法有:插入排序(insertionSort)、堆排序(heapSort)、疾速排序(quickSort)、希尔排序(ShellSort)和归并排序(SymMerge)。
sort 包依据稳定性,将排序办法分为两类:不稳固排序和稳固排序
不稳固排序
不稳固排序入口函数是 Sort(data interface)
,为反对任意元素类型的 slice 的排序,sort 包定义了一个 Interface 接口和承受该接口参数类型的 Sort 函数:
// A type, typically a collection, that satisfies sort.Interface can be
// sorted by the routines in this package. The methods require that the
// elements of the collection be enumerated by an integer index.
type Interface interface {
// Len is the number of elements in the collection.
Len() int
// Less reports whether the element with
// index i should sort before the element with index j.
Less(i, j int) bool
// Swap swaps the elements with indexes i and j.
Swap(i, j int)
}
// Sort sorts data.
// It makes one call to data.Len to determine n, and O(n*log(n)) calls to
// data.Less and data.Swap. The sort is not guaranteed to be stable.
func Sort(data Interface) {n := data.Len()
quickSort(data, 0, n, maxDepth(n))
}
只有排序数组的元素类型实现了 sort.Interface
,就能够通过 sort.Sort(data)
进行排序。其中 maxDepth(n)
是快排递归的最大深度,也是 快排切换堆排的阈值,它的实现:
// maxDepth returns a threshold at which quicksort should switch
// to heapsort. It returns 2*ceil(lg(n+1)).
func maxDepth(n int) int {
var depth int
for i := n; i > 0; i >>= 1 {depth++}
return depth * 2
}
须要留神的一点是,sort.Sort
调用的 quickSort
排序函数,并不是最常见的快排(参考本文 3.6 大节),quickSort
的整体框架比较复杂,流程如下:
func quickSort(data Interface, a, b, maxDepth int) {
// a 是第一个索引,b 是最初一个索引。如果 slice 长度大于 12,会一周走上面排序循环
for b-a > 12 {
// 如果递归到了最大深度,就应用堆排序
if maxDepth == 0 {heapSort(data, a, b)
return
}
// 循环一次,最大深度 -1,相当于又深刻(递归)了一层
maxDepth--
// 这是应用的是 三向切分疾速排序,通过 doPivot 进行快排的分区
// doPivot 的实现比较复杂,a 是数据集的右边,b 是数据集的左边,// 它取一点为轴,把不大于中位数的元素放右边,大于轴的元素放左边,// 返回小于中位数局部数据的最初一个下标,以及大于轴局部数据的第一个下标。// 下标地位 a...mlo,pivot,mhi...b
// data[a...mlo] <= data[pivot]
// data[mhi...b] > data[pivot]
mlo, mhi := doPivot(data, a, b)
// 防止较大规模的子问题递归调用,保障栈深度最大为 maxDepth
// 解释:因为循环必定比递归调用节省时间,然而两个子问题只能一个进行循环,另一个只能用递归。这里是把较小规模的子问题进行递归,较大规模子问题进行循环。if mlo-a < b-mhi {quickSort(data, a, mlo, maxDepth)
a = mhi // i.e., quickSort(data, mhi, b)
} else {quickSort(data, mhi, b, maxDepth)
b = mlo // i.e., quickSort(data, a, mlo)
}
}
// 如果元素的个数小于 12 个(无论是递归的还是首次进入),就先应用希尔排序,距离 d=6
if b-a > 1 {
// Do ShellSort pass with gap 6
// It could be written in this simplified form cause b-a <= 12
for i := a + 6; i < b; i++ {if data.Less(i, i-6) {data.Swap(i, i-6)
}
}
insertionSort(data, a, b)
}
}
这里 insertionSort
的和 3.3 节实现的插排的实现是一样的;heapSort
这里是构建最大堆,通过 siftDown
来对 heap 进行调整,保护堆的性质:
// siftDown implements the heap property on data[lo, hi).
// first is an offset into the array where the root of the heap lies.
func siftDown(data Interface, lo, hi, first int) {
root := lo
for {
child := 2*root + 1
if child >= hi {break}
if child+1 < hi && data.Less(first+child, first+child+1) {child++}
if !data.Less(first+root, first+child) {return}
data.Swap(first+root, first+child)
root = child
}
}
func heapSort(data Interface, a, b int) {
first := a
lo := 0
hi := b - a
// Build heap with greatest element at top.
for i := (hi - 1) / 2; i >= 0; i-- {siftDown(data, i, hi, first)
}
// Pop elements, largest first, into end of data.
for i := hi - 1; i >= 0; i-- {data.Swap(first, first+i)
siftDown(data, lo, i, first)
}
}
在下面疾速排序的原理咱们有提到过:如果每次分区过程,基准(pivot)都是从最小元素开始,那么对应工夫复杂度为 $O(N^{^{2}})$ , 这是快排最差的排序场景。为防止这种状况,quickSort
里的 doPivot
选取了两个基准,进行三向切分,进步疾速排序的效率:doPivot
在切分之前,先应用 medianOfThree
函数抉择一个必定不是最大和最小的值作为轴,放在了切片首位。而后把不小于 data[pivot] 的数据放在了 $[lo, b)$ 区间,把大于 data[pivot] 的数据放在了 $(c, hi-1]$ 区间(其中 data[hi-1] >= data[pivot])。即 slice 会被切分成三个区间:
$$ \left\{\begin{matrix} data[lo, b-1) \\ data[b-1, c) \\ data, data[m1], data[m2] into data[m1].
func medianOfThree(data Interface, m1, m0, m2 int) {
// sort 3 elements
if data.Less(m1, m0) {
data.Swap(m1, m0)
}
// data[m0] <= data[m1]
if data.Less(m2, m1) {
data.Swap(m2, m1)
// data[m0] <= data[m2] && data[m1] < data[m2]
if data.Less(m1, m0) {
data.Swap(m1, m0)
}
}
// now data[m0] <= data[m1] <= data[m2]
}
func doPivot(data Interface, lo, hi int) (midlo, midhi int) {
m := int(uint(lo+hi) >> 1) // Written like this to avoid integer overflow.
if hi-lo > 40 {
// Tukey's ``Ninther,'' median of three medians of three.
s := (hi - lo) / 8
medianOfThree(data, lo, lo+s, lo+2*s)
medianOfThree(data, m, m-s, m+s)
medianOfThree(data, hi-1, hi-1-s, hi-1-2*s)
}
medianOfThree(data, lo, m, hi-1)
// Invariants are:
// data[lo] = pivot (set up by ChoosePivot)
// data[lo < i < a] < pivot
// data[a <= i < b] <= pivot
// data[b <= i < c] unexamined
// data > pivot
// data[hi-1] >= pivot
pivot := lo
a, c := lo+1, hi-1
for ; a < c && data.Less(a, pivot); a++ {
}
b := a
for {
for ; b < c && !data.Less(pivot, b); b++ {// data[b] <= pivot
}
for ; b < c && data.Less(pivot, c-1); c-- {// data[c-1] > pivot
}
if b >= c {
break
}
// data[b] > pivot; data[c-1] <= pivot
data.Swap(b, c-1)
b++
c--
}
// If hi-c<3 then there are duplicates (by property of median of nine).
// Let's be a bit more conservative, and set border to 5.
protect := hi-c < 5
if !protect && hi-c < (hi-lo)/4 {
// Lets test some points for equality to pivot
dups := 0
if !data.Less(pivot, hi-1) {// data[hi-1] = pivot
data.Swap(c, hi-1)
c++
dups++
}
if !data.Less(b-1, pivot) {// data[b-1] = pivot
b--
dups++
}
// m-lo = (hi-lo)/2 > 6
// b-lo > (hi-lo)*3/4-1 > 8
// ==> m < b ==> data[m] <= pivot
if !data.Less(m, pivot) {// data[m] = pivot
data.Swap(m, b-1)
b--
dups++
}
// if at least 2 points are equal to pivot, assume skewed distribution
protect = dups > 1
}
if protect {
// Protect against a lot of duplicates
// Add invariant:
// data[a <= i < b] unexamined
// data[b <= i < c] = pivot
for {
for ; a < b && !data.Less(b-1, pivot); b-- {// data[b] == pivot
}
for ; a < b && data.Less(a, pivot); a++ {// data[a] < pivot
}
if a >= b {
break
}
// data[a] == pivot; data[b-1] < pivot
data.Swap(a, b-1)
a++
b--
}
}
// Swap pivot into middle
data.Swap(pivot, b-1)
return b - 1, c
}
稳固排序
sort 包中应用的稳固排序算法为 symMerge
, 这里用到的归并排序算法是一种旧址排序算法:首先,它把 slice 依照每 blockSize=20
个元素为一个 slice,进行插排;循环合并相邻的两个 block,每次循环 blockSize 扩充二倍,直到 blockSize > n
为止。
func Stable(data Interface) {stable(data, data.Len())
}
func stable(data Interface, n int) {
blockSize := 20 // 初始 blockSize 设置为 20
a, b := 0, blockSize
// 对每个块(以及残余有余 blockSize 的一个块)进行查问排序
for b <= n {insertionSort(data, a, b)
a = b
b += blockSize
}
insertionSort(data, a, n)
for blockSize < n {
a, b = 0, 2*blockSize
// 每两个 blockSize 进行合并
for b <= n {symMerge(data, a, a+blockSize, b)
a = b
b += 2 * blockSize
}
// 残余一个多 blockSize 进行合并
if m := a + blockSize; m < n {symMerge(data, a, m, n)
}
blockSize *= 2
}
}
// SymMerge merges the two sorted subsequences data[a:m] and data[m:b] using
// the SymMerge algorithm from Pok-Son Kim and Arne Kutzner, "Stable Minimum
// Storage Merging by Symmetric Comparisons", in Susanne Albers and Tomasz
// Radzik, editors, Algorithms - ESA 2004, volume 3221 of Lecture Notes in
// Computer Science, pages 714-723. Springer, 2004.
//
// Let M = m-a and N = b-n. Wolog M < N.
// The recursion depth is bound by ceil(log(N+M)).
// The algorithm needs O(M*log(N/M + 1)) calls to data.Less.
// The algorithm needs O((M+N)*log(M)) calls to data.Swap.
//
// The paper gives O((M+N)*log(M)) as the number of assignments assuming a
// rotation algorithm which uses O(M+N+gcd(M+N)) assignments. The argumentation
// in the paper carries through for Swap operations, especially as the block
// swapping rotate uses only O(M+N) Swaps.
//
// symMerge assumes non-degenerate arguments: a < m && m < b.
// Having the caller check this condition eliminates many leaf recursion calls,
// which improves performance.
func symMerge(data Interface, a, m, b int) {
// Avoid unnecessary recursions of symMerge
// by direct insertion of data[a] into data[m:b]
// if data[a:m] only contains one element.
if m-a == 1 {
// Use binary search to find the lowest index i
// such that data[i] >= data[a] for m <= i < b.
// Exit the search loop with i == b in case no such index exists.
i := m
j := b
for i < j {h := int(uint(i+j) >> 1)
if data.Less(h, a) {i = h + 1} else {j = h}
}
// Swap values until data[a] reaches the position before i.
for k := a; k < i-1; k++ {data.Swap(k, k+1)
}
return
}
// Avoid unnecessary recursions of symMerge
// by direct insertion of data[m] into data[a:m]
// if data[m:b] only contains one element.
if b-m == 1 {
// Use binary search to find the lowest index i
// such that data[i] > data[m] for a <= i < m.
// Exit the search loop with i == m in case no such index exists.
i := a
j := m
for i < j {h := int(uint(i+j) >> 1)
if !data.Less(m, h) {i = h + 1} else {j = h}
}
// Swap values until data[m] reaches the position i.
for k := m; k > i; k-- {data.Swap(k, k-1)
}
return
}
mid := int(uint(a+b) >> 1)
n := mid + m
var start, r int
if m > mid {
start = n - b
r = mid
} else {
start = a
r = m
}
p := n - 1
for start < r {c := int(uint(start+r) >> 1)
if !data.Less(p-c, c) {start = c + 1} else {r = c}
}
end := n - start
if start < m && m < end {rotate(data, start, m, end)
}
if a < start && start < mid {symMerge(data, a, start, mid)
}
if mid < end && end < b {symMerge(data, mid, end, b)
}
}
// Rotate two consecutive blocks u = data[a:m] and v = data[m:b] in data:
// Data of the form 'x u v y' is changed to 'x v u y'.
// Rotate performs at most b-a many calls to data.Swap.
// Rotate assumes non-degenerate arguments: a < m && m < b.
func rotate(data Interface, a, m, b int) {
i := m - a
j := b - m
for i != j {
if i > j {swapRange(data, m-i, m, j)
i -= j
} else {swapRange(data, m-i, m+j-i, i)
j -= i
}
}
// i == j
swapRange(data, m-i, m, i)
}
以上是稳固排序办法 Stable
的全副代码。
排序 example
为利用 sort 包里排序函数 Sort
(不稳固排序 ),咱们须要让被排序的 slice 类型实现 sort.Interface
接口,以整形切片为例:
type IntSlice []int
func (p IntSlice) Len() int { return len(p) }
func (p IntSlice) Less(i, j int) bool {return p[i] < p[j] }
func (p IntSlice) Swap(i, j int) {p[i], p[j] = p[j], p[i] }
func main() {sl := IntSlice([]int{89, 14, 8, 9, 17, 56, 95, 3})
fmt.Println(sl) // [89 14 8 9 17 56 95 3]
sort.Sort(sl)
fmt.Println(sl) // [3 8 9 14 17 56 89 95]
}
总结
本文次要具体介绍了咱们常见的 7 种排序算法的原理,实现和工夫复杂度剖析,并浏览 Go 源码里 sort 包的实现,剖析官网如何通过将以上排序算法进行组合来进步排序性能,实现生产环境的排序实际。
参考
- 十大经典排序算法
- 程序员必知必会的十大排序算法
- 算法 - 排序
- TheAlgorithms/Go
- Package sort
- 三向切分的疾速排序
- 疾速排序 VS 归并排序 VS 堆排序
- 疾速排序算法的优化思路
- 一文搞懂 Go 语言中的切片排序
- 从 sort.go 看排序算法的工程实际
- 问答 | Go sort 包应用与源码分析
- sort 包源码剖析