导言
Go 基于 I/O multiplexing 和 goroutine scheduler 构建了一个简洁而高性能的原生网络模型(基于 Go 的 I/O 多路复用 netpoller
),提供了 goroutine-per-connection
这样简略的网络编程模式。在这种模式下,开发者应用的是同步的模式去编写异步的逻辑,极大地升高了开发者编写网络应用时的心智累赘,且借助于 Go runtime scheduler 对 goroutines 的高效调度,这个原生网络模型不管从适用性还是性能上都足以满足绝大部分的利用场景。
然而,在工程性上能做到如此高的普适性和兼容性,最终裸露给开发者提供接口 / 模式如此简洁,其底层必然是基于非常复杂的封装,做了很多取舍,也有可能放弃了一些谋求极致性能的设计和理念。事实上 Go netpoller
底层就是基于 epoll/kqueue/iocp 这些 I/O 多路复用技术来做封装的,最终暴露出 goroutine-per-connection
这样的极简的开发模式给使用者。
Go netpoller 在不同的操作系统,其底层应用的 I/O 多路复用技术也不一样,能够从 Go 源码目录构造和对应代码文件理解 Go 在不同平台下的网络 I/O 模式的实现。比方,在 Linux 零碎下基于 epoll,freeBSD 零碎下基于 kqueue,以及 Windows 零碎下基于 iocp。
本文将基于 Linux 平台来解析 Go netpoller 之 I/O 多路复用的底层是如何基于 epoll 封装实现的,从源码层层推动,全面而深度地解析 Go netpoller 的设计理念和实现原理,以及 Go 是如何利用 netpoller
来构建它的原生网络模型的。次要波及到的一些概念:I/O 模型、用户 / 内核空间、epoll、Linux 源码、goroutine scheduler 等等,我会尽量简略地解说,如果有对相干概念不相熟的同学,还是心愿能提前相熟一下。
用户空间与内核空间
古代操作系统都是采纳虚拟存储器,那么对 32 位操作系统而言,它的寻址空间(虚拟存储空间)为 4G(2 的 32 次方)。操作系统的外围是内核,独立于一般的应用程序,能够拜访受爱护的内存空间,也有拜访底层硬件设施的所有权限。为了保障用户过程不能间接操作内核(kernel),保障内核的平安,操心零碎将虚拟空间划分为两局部,一部分为内核空间,一部分为用户空间。针对 Linux 操作系统而言,将最高的 1G 字节(从虚拟地址 0xC0000000 到 0xFFFFFFFF),供内核应用,称为内核空间,而将较低的 3G 字节(从虚拟地址 0x00000000 到 0xBFFFFFFF),供各个过程应用,称为用户空间。
古代的网络服务的支流曾经实现从 CPU 密集型到 IO 密集型的转变,所以服务端程序对 I/O 的解决必不可少,而一旦操作 I/O 则必然要在用户态和内核态之间来回切换。
I/O 模型
在神作《UNIX 网络编程》里,总结演绎了 5 种 I/O 模型,包含同步和异步 I/O:
- 阻塞 I/O (Blocking I/O)
- 非阻塞 I/O (Nonblocking I/O)
- I/O 多路复用 (I/O multiplexing)
- 信号驱动 I/O (Signal driven I/O)
- 异步 I/O (Asynchronous I/O)
操作系统上的 I/O 是用户空间和内核空间的数据交互,因而 I/O 操作通常蕴含以下两个步骤:
- 期待网络数据达到网卡(读就绪)/ 期待网卡可写(写就绪) –> 读取 / 写入到内核缓冲区
- 从内核缓冲区复制数据 –> 用户空间(读)/ 从用户空间复制数据 -> 内核缓冲区(写)
而断定一个 I/O 模型是同步还是异步,次要看第二步:数据在用户和内核空间之间复制的时候是不是会阻塞以后过程,如果会,则是同步 I/O,否则,就是异步 I/O。基于这个准则,这 5 种 I/O 模型中只有一种异步 I/O 模型:Asynchronous I/O,其余都是同步 I/O 模型。
这 5 种 I/O 模型的比照如下:
Non-blocking I/O
什么叫非阻塞 I/O,顾名思义就是:所有 I/O 操作都是立即返回而不会阻塞以后用户过程。I/O 多路复用通常状况下须要和非阻塞 I/O 搭配应用,否则可能会产生意想不到的问题。比方,epoll 的 ET(边缘触发) 模式下,如果不应用非阻塞 I/O,有极大的概率会导致阻塞 event-loop 线程,从而升高吞吐量,甚至导致 bug。
Linux 下,咱们能够通过 fcntl
零碎调用来设置 O_NONBLOCK
标记位,从而把 socket 设置成 Non-blocking。当对一个 Non-blocking socket 执行读操作时,流程是这个样子:
当用户过程收回 read 操作时,如果 kernel 中的数据还没有筹备好,那么它并不会 block 用户过程,而是立即返回一个 EAGAIN error。从用户过程角度讲,它发动一个 read 操作后,并不需要期待,而是马上就失去了一个后果。用户过程判断后果是一个 error 时,它就晓得数据还没有筹备好,于是它能够再次发送 read 操作。一旦 kernel 中的数据筹备好了,并且又再次收到了用户过程的 system call,那么它马上就将数据拷贝到了用户内存,而后返回。
所以,Non-blocking I/O 的特点是用户过程须要一直的被动询问 kernel 数据好了没有。下一节咱们要讲的 I/O 多路复用须要和 Non-blocking I/O 配合能力施展出最大的威力!
I/O 多路复用
所谓 I/O 多路复用指的就是 select/poll/epoll 这一系列的多路选择器:反对繁多线程同时监听多个文件描述符(I/O 事件),阻塞期待,并在其中某个文件描述符可读写时收到告诉。I/O 复用其实复用的不是 I/O 连贯,而是复用线程,让一个 thread of control 可能解决多个连贯(I/O 事件)。
select & poll
#include <sys/select.h>
/* According to earlier standards */
#include <sys/time.h>
#include <sys/types.h>
#include <unistd.h>
int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
// 和 select 紧密结合的四个宏:void FD_CLR(int fd, fd_set *set);
int FD_ISSET(int fd, fd_set *set);
void FD_SET(int fd, fd_set *set);
void FD_ZERO(fd_set *set);
select 是 epoll 之前 Linux 应用的 I/O 事件驱动技术。
了解 select 的关键在于了解 fd_set,为阐明不便,取 fd_set 长度为 1 字节,fd_set 中的每一 bit 能够对应一个文件描述符 fd,则 1 字节长的 fd_set 最大能够对应 8 个 fd。select 的调用过程如下:
- 执行 FD_ZERO(&set), 则 set 用位示意是
0000,0000
- 若 fd=5, 执行 FD_SET(fd, &set); 后 set 变为 0001,0000(第 5 地位为 1)
- 再退出 fd=2, fd=1,则 set 变为
0001,0011
- 执行 select(6, &set, 0, 0, 0) 阻塞期待
- 若 fd=1, fd=2 上都产生可读事件,则 select 返回,此时 set 变为
0000,0011
(留神:没有事件产生的 fd=5 被清空)
基于下面的调用过程,能够得出 select 的特点:
- 可监控的文件描述符个数取决于 sizeof(fd_set) 的值。假如服务器上 sizeof(fd_set)=512,每 bit 示意一个文件描述符,则服务器上反对的最大文件描述符是 512*8=4096。fd_set 的大小调整可参考【原创】技术系列之 网络模型(二)中的模型 2,能够无效冲破 select 可监控的文件描述符下限
- 将 fd 退出 select 监控集的同时,还要再应用一个数据结构 array 保留放到 select 监控集中的 fd,一是用于在 select 返回后,array 作为源数据和 fd_set 进行 FD_ISSET 判断。二是 select 返回后会把以前退出的但并无事件产生的 fd 清空,则每次开始 select 前都要从新从 array 获得 fd 逐个退出(FD_ZERO 最先),扫描 array 的同时获得 fd 最大值 maxfd,用于 select 的第一个参数
- 可见 select 模型必须在 select 前循环 array(加 fd,取 maxfd),select 返回后循环 array(FD_ISSET 判断是否有事件产生)
所以,select 有如下的毛病:
- 最大并发数限度:应用 32 个整数的 32 位,即 32*32=1024 来标识 fd,尽管可批改,然而有以下第 2, 3 点的瓶颈
- 每次调用 select,都须要把 fd 汇合从用户态拷贝到内核态,这个开销在 fd 很多时会很大
- 性能衰减重大:每次 kernel 都须要线性扫描整个 fd_set,所以随着监控的描述符 fd 数量增长,其 I/O 性能会线性降落
poll 的实现和 select 十分类似,只是形容 fd 汇合的形式不同,poll 应用 pollfd 构造而不是 select 的 fd_set 构造,poll 解决了最大文件描述符数量限度的问题,然而同样须要从用户态拷贝所有的 fd 到内核态,也须要线性遍历所有的 fd 汇合,所以它和 select 只是实现细节上的辨别,并没有实质上的区别。
epoll
epoll 是 Linux kernel 2.6 之后引入的新 I/O 事件驱动技术,I/O 多路复用的外围设计是 1 个线程解决所有连贯的 期待音讯筹备好
I/O 事件,这一点上 epoll 和 select&poll 是大同小异的。但 select&poll 谬误预估了一件事,当数十万并发连贯存在时,可能每一毫秒只有数百个沉闷的连贯,同时其余数十万连贯在这一毫秒是非沉闷的。select&poll 的应用办法是这样的: 返回的沉闷连贯 == select(全副待监控的连贯)
。
什么时候会调用 select&poll 呢?在你认为须要找出有报文达到的沉闷连贯时,就应该调用。所以,select&poll 在高并发时是会被频繁调用的。这样,这个频繁调用的办法就很有必要看看它是否有效率,因为,它的轻微效率损失都会被 高频
二字所放大。它有效率损失吗?不言而喻,全副待监控连贯是数以十万计的,返回的只是数百个沉闷连贯,这自身就是无效率的体现。被放大后就会发现,解决并发上万个连贯时,select&poll 就齐全力不从心了。这个时候就该 epoll 上场了,epoll 通过一些新的设计和优化,基本上解决了 select&poll 的问题。
epoll 的 API 十分简洁,波及到的只有 3 个零碎调用:
#include <sys/epoll.h>
int epoll_create(int size); // int epoll_create1(int flags);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
其中,epoll_create 创立一个 epoll 实例并返回 epollfd;epoll_ctl 注册 file descriptor 期待的 I/O 事件(比方 EPOLLIN、EPOLLOUT 等) 到 epoll 实例上;epoll_wait 则是阻塞监听 epoll 实例上所有的 file descriptor 的 I/O 事件,它接管一个用户空间上的一块内存地址 (events 数组),kernel 会在有 I/O 事件产生的时候把文件描述符列表复制到这块内存地址上,而后 epoll_wait 解除阻塞并返回,最初用户空间上的程序就能够对相应的 fd 进行读写了:
#include <unistd.h>
ssize_t read(int fd, void *buf, size_t count);
ssize_t write(int fd, const void *buf, size_t count);
epoll 的工作原理如下:
与 select&poll 相比,epoll 分清了高频调用和低频调用。例如,epoll_ctl 相对来说就是非频繁调用的,而 epoll_wait 则是会被高频调用的。所以 epoll 利用 epoll_ctl 来插入或者删除一个 fd,实现用户态到内核态的数据拷贝,这确保了每一个 fd 在其生命周期只须要被拷贝一次,而不是每次调用 epoll_wait 的时候都拷贝一次。epoll_wait 则被设计成简直没有入参的调用,相比 select&poll 须要把全副监听的 fd 汇合从用户态拷贝至内核态的做法,epoll 的效率就高出了一大截。
在实现上 epoll 采纳红黑树来存储所有监听的 fd,而红黑树自身插入和删除性能比较稳定,工夫复杂度 O(logN)。通过 epoll_ctl 函数增加进来的 fd 都会被放在红黑树的某个节点内,所以,反复增加是没有用的。当把 fd 增加进来的时候时候会实现要害的一步:该 fd 会与相应的设施(网卡)驱动程序建设回调关系,也就是在内核中断处理程序为它注册一个回调函数,在 fd 相应的事件触发(中断)之后(设施就绪了),内核就会调用这个回调函数,该回调函数在内核中被称为:ep_poll_callback
,这个回调函数其实就是把这个 fd 增加到 rdllist 这个双向链表(就绪链表)中。epoll_wait 实际上就是去查看 rdllist 双向链表中是否有就绪的 fd,当 rdllist 为空(无就绪 fd)时挂起以后过程,直到 rdllist 非空时过程才被唤醒并返回。
相比于 select&poll 调用时会将全副监听的 fd 从用户态空间拷贝至内核态空间并线性扫描一遍找出就绪的 fd 再返回到用户态,epoll_wait 则是间接返回已就绪 fd,因而 epoll 的 I/O 性能不会像 select&poll 那样随着监听的 fd 数量减少而呈现线性衰减,是一个十分高效的 I/O 事件驱动技术。
因为应用 epoll 的 I/O 多路复用须要用户过程本人负责 I/O 读写,从用户过程的角度看,读写过程是阻塞的,所以 select&poll&epoll 实质上都是同步 I/O 模型,而像 Windows 的 IOCP 这一类的异步 I/O,只须要在调用 WSARecv 或 WSASend 办法读写数据的时候把用户空间的内存 buffer 提交给 kernel,kernel 负责数据在用户空间和内核空间拷贝,实现之后就会告诉用户过程,整个过程不须要用户过程参加,所以是真正的异步 I/O。
延长
另外,我看到有些文章说 epoll 之所以性能高是因为利用了 Linux 的 mmap 内存映射让内核和用户过程共享了一片物理内存,用来寄存就绪 fd 列表和它们的数据 buffer,所以用户过程在 epoll_wait
返回之后用户过程就能够间接从共享内存那里读取 / 写入数据了,这让我很纳闷,因为首先看 epoll_wait
的函数申明:
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
第二个参数:就绪事件列表,是须要在用户空间分配内存而后再传给 epoll_wait
的,如果内核会用 mmap 设置共享内存,间接传递一个指针进去就行了,基本不须要在用户态分配内存,多此一举。其次,内核和用户过程通过 mmap 共享内存是一件极度危险的事件,内核无奈确定这块共享内存什么时候会被回收,而且这样也会赋予用户过程间接操作内核数据的权限和入口,非常容易呈现大的系统漏洞,因而个别极少会这么做。所以我很狐疑 epoll 是不是真的在 Linux kernel 里用了 mmap,我就去看了下最新版本(5.3.9)的 Linux kernel 源码:
/*
* Implement the event wait interface for the eventpoll file. It is the kernel
* part of the user space epoll_wait(2).
*/
static int do_epoll_wait(int epfd, struct epoll_event __user *events,
int maxevents, int timeout)
{
...
/* Time to fish for events ... */
error = ep_poll(ep, events, maxevents, timeout);
}
// 如果 epoll_wait 入参时设定 timeout == 0, 那么间接通过 ep_events_available 判断以后是否有用户感兴趣的事件产生,如果有则通过 ep_send_events 进行解决
// 如果设置 timeout > 0,并且以后没有用户关注的事件产生,则进行休眠,并增加到 ep->wq 期待队列的头部;对期待事件描述符设置 WQ_FLAG_EXCLUSIVE 标记
// ep_poll 被事件唤醒后会从新查看是否有关注事件,如果对应的事件曾经被抢走,那么 ep_poll 会持续休眠期待
static int ep_poll(struct eventpoll *ep, struct epoll_event __user *events, int maxevents, long timeout)
{
...
send_events:
/*
* Try to transfer events to user space. In case we get 0 events and
* there's still timeout left over, we go trying again in search of
* more luck.
*/
// 如果一切正常, 有 event 产生, 就开始筹备数据 copy 给用户空间了
// 如果有就绪的事件产生,那么就调用 ep_send_events 将就绪的事件 copy 到用户态内存中,// 而后返回到用户态,否则判断是否超时,如果没有超时就持续期待就绪事件产生,如果超时就返回用户态。// 从 ep_poll 函数的实现能够看到,如果有就绪事件产生,则调用 ep_send_events 函数做进一步解决
if (!res && eavail &&
!(res = ep_send_events(ep, events, maxevents)) && !timed_out)
goto fetch_events;
...
}
// ep_send_events 函数是用来向用户空间拷贝就绪 fd 列表的,它将用户传入的就绪 fd 列表内存简略封装到
// ep_send_events_data 构造中,而后调用 ep_scan_ready_list 将就绪队列中的事件写入用户空间的内存;// 用户过程就能够拜访到这些数据进行解决
static int ep_send_events(struct eventpoll *ep,
struct epoll_event __user *events, int maxevents)
{
struct ep_send_events_data esed;
esed.maxevents = maxevents;
esed.events = events;
// 调用 ep_scan_ready_list 函数查看 epoll 实例 eventpoll 中的 rdllist 就绪链表,// 并注册一个回调函数 ep_send_events_proc,如果有就绪 fd,则调用 ep_send_events_proc 进行解决
ep_scan_ready_list(ep, ep_send_events_proc, &esed, 0, false);
return esed.res;
}
// 调用 ep_scan_ready_list 的时候会传递指向 ep_send_events_proc 函数的函数指针作为回调函数,// 一旦有就绪 fd,就会调用 ep_send_events_proc 函数
static __poll_t ep_send_events_proc(struct eventpoll *ep, struct list_head *head, void *priv)
{
...
/*
* If the event mask intersect the caller-requested one,
* deliver the event to userspace. Again, ep_scan_ready_list()
* is holding ep->mtx, so no operations coming from userspace
* can change the item.
*/
revents = ep_item_poll(epi, &pt, 1);
// 如果 revents 为 0,阐明没有就绪的事件,跳过,否则就将就绪事件拷贝到用户态内存中
if (!revents)
continue;
// 将以后就绪的事件和用户过程传入的数据都通过 __put_user 拷贝回用户空间,
// 也就是调用 epoll_wait 之时用户过程传入的 fd 列表的内存
if (__put_user(revents, &uevent->events) || __put_user(epi->event.data, &uevent->data)) {list_add(&epi->rdllink, head);
ep_pm_stay_awake(epi);
if (!esed->res)
esed->res = -EFAULT;
return 0;
}
...
}
从 do_epoll_wait
开始层层跳转,咱们能够很分明地看到最初内核是通过 __put_user
函数把就绪 fd 列表和事件返回到用户空间,而 __put_user
正是内核用来拷贝数据到用户空间的规范函数。此外,我并没有在 Linux kernel 的源码中和 epoll 相干的代码里找到 mmap 零碎调用做内存映射的逻辑,所以根本能够得出结论:epoll 在 Linux kernel 里并没有应用 mmap 来做用户空间和内核空间的内存共享,所以那些说 epoll 应用了 mmap 的文章都是误会。
Go netpoller 外围
Go netpoller 基本原理
Go netpoller 通过在底层对 epoll/kqueue/iocp 的封装,从而实现了应用同步编程模式达到异步执行的成果。总结来说,所有的网络操作都以网络描述符 netFD 为核心实现。netFD 与底层 PollDesc 构造绑定,当在一个 netFD 上读写遇到 EAGAIN 谬误时,就将以后 goroutine 存储到这个 netFD 对应的 PollDesc 中,同时调用 gopark 把以后 goroutine 给 park 住,直到这个 netFD 上再次发生读写事件,才将此 goroutine 给 ready 激活从新运行。显然,在底层告诉 goroutine 再次发生读写等事件的形式就是 epoll/kqueue/iocp 等事件驱动机制。
总所周知,Go 是一门跨平台的编程语言,而不同平台针对特定的性能有不必的实现,这当然也包含了 I/O 多路复用技术,比方 Linux 里的 I/O 多路复用有 select
、poll
和 epoll
,而 freeBSD 或者 MacOS 里则是 kqueue
,而 Windows 里则是基于异步 I/O 实现的 iocp
,等等;因而,Go 为了实现底层 I/O 多路复用的跨平台,别离基于上述的这些不同平台的零碎调用实现了多版本的 netpollers,具体的源码门路如下:
src/runtime/netpoll_epoll.go
src/runtime/netpoll_kqueue.go
src/runtime/netpoll_solaris.go
src/runtime/netpoll_windows.go
src/runtime/netpoll_aix.go
src/runtime/netpoll_fake.go
本文的解析基于 epoll
版本,如果读者对其余平台的 netpoller 底层实现感兴趣,能够在浏览完本文后自行翻阅其余 netpoller 源码,所有实现版本的机制和原理根本相似,所以理解了 epoll
版本的实现后再去学习其余版本实现应该没什么阻碍。
接下来让咱们通过剖析最新的 Go 源码(v1.15.3),全面分析一下整个 Go netpoller 的运行机制和流程。
数据结构
netFD
net.Listen("tcp", ":8888")
办法返回了一个 TCPListener,它是一个实现了 net.Listener
接口的 struct,而通过 listener.Accept()
接管的新连贯 TCPConn 则是一个实现了 net.Conn
接口的 struct,它内嵌了 net.conn
struct。仔细阅读下面的源码能够发现,不论是 Listener 的 Accept 还是 Conn 的 Read/Write 办法,都是基于一个 netFD
的数据结构的操作,netFD
是一个网络描述符,相似于 Linux 的文件描述符的概念,netFD 中蕴含一个 poll.FD 数据结构,而 poll.FD 中蕴含两个重要的数据结构 Sysfd 和 pollDesc,前者是真正的系统文件描述符,后者对是底层事件驱动的封装,所有的读写超时等操作都是通过调用后者的对应办法实现的。
netFD
和 poll.FD
的源码:
// Network file descriptor.
type netFD struct {
pfd poll.FD
// immutable until Close
family int
sotype int
isConnected bool // handshake completed or use of association with peer
net string
laddr Addr
raddr Addr
}
// FD is a file descriptor. The net and os packages use this type as a
// field of a larger type representing a network connection or OS file.
type FD struct {
// Lock sysfd and serialize access to Read and Write methods.
fdmu fdMutex
// System file descriptor. Immutable until Close.
Sysfd int
// I/O poller.
pd pollDesc
// Writev cache.
iovecs *[]syscall.Iovec
// Semaphore signaled when file is closed.
csema uint32
// Non-zero if this file has been set to blocking mode.
isBlocking uint32
// Whether this is a streaming descriptor, as opposed to a
// packet-based descriptor like a UDP socket. Immutable.
IsStream bool
// Whether a zero byte read indicates EOF. This is false for a
// message based socket connection.
ZeroReadIsEOF bool
// Whether this is a file rather than a network socket.
isFile bool
}
pollDesc
后面提到了 pollDesc 是底层事件驱动的封装,netFD 通过它来实现各种 I/O 相干的操作,它的定义如下:
type pollDesc struct {runtimeCtx uintptr}
这里的 struct 只蕴含了一个指针,而通过 pollDesc 的 init 办法,咱们能够找到它具体的定义是在 runtime.pollDesc
这里:
func (pd *pollDesc) init(fd *FD) error {serverInit.Do(runtime_pollServerInit)
ctx, errno := runtime_pollOpen(uintptr(fd.Sysfd))
if errno != 0 {
if ctx != 0 {runtime_pollUnblock(ctx)
runtime_pollClose(ctx)
}
return syscall.Errno(errno)
}
pd.runtimeCtx = ctx
return nil
}
// Network poller descriptor.
//
// No heap pointers.
//
//go:notinheap
type pollDesc struct {
link *pollDesc // in pollcache, protected by pollcache.lock
// The lock protects pollOpen, pollSetDeadline, pollUnblock and deadlineimpl operations.
// This fully covers seq, rt and wt variables. fd is constant throughout the PollDesc lifetime.
// pollReset, pollWait, pollWaitCanceled and runtime·netpollready (IO readiness notification)
// proceed w/o taking the lock. So closing, everr, rg, rd, wg and wd are manipulated
// in a lock-free way by all operations.
// NOTE(dvyukov): the following code uses uintptr to store *g (rg/wg),
// that will blow up when GC starts moving objects.
lock mutex // protects the following fields
fd uintptr
closing bool
everr bool // marks event scanning error happened
user uint32 // user settable cookie
rseq uintptr // protects from stale read timers
rg uintptr // pdReady, pdWait, G waiting for read or nil
rt timer // read deadline timer (set if rt.f != nil)
rd int64 // read deadline
wseq uintptr // protects from stale write timers
wg uintptr // pdReady, pdWait, G waiting for write or nil
wt timer // write deadline timer
wd int64 // write deadline
}
这里重点关注外面的 rg
和 wg
,这里两个 uintptr “ 万能指针 ” 类型,取值别离可能是 pdReady
、pdWait
、期待 file descriptor 就绪的 goroutine 也就是 g
数据结构以及 nil
,它们是实现唤醒 goroutine 的要害。
runtime.pollDesc
蕴含本身类型的一个指针,用来保留下一个 runtime.pollDesc
的地址,以此来实现链表,能够缩小数据结构的大小,所有的 runtime.pollDesc
保留在 runtime.pollCache
构造中,定义如下:
type pollCache struct {
lock mutex
first *pollDesc
// PollDesc objects must be type-stable,
// because we can get ready notification from epoll/kqueue
// after the descriptor is closed/reused.
// Stale notifications are detected using seq variable,
// seq is incremented when deadlines are changed or descriptor is reused.
}
因为 runtime.pollCache
是一个在 runtime 包里的全局变量,因而须要用一个互斥锁来防止 data race 问题,从它的名字也能看出这是一个用于缓存的数据结构,也就是用来进步性能的,具体如何实现呢?
const pollBlockSize = 4 * 1024
func (c *pollCache) alloc() *pollDesc {lock(&c.lock)
if c.first == nil {const pdSize = unsafe.Sizeof(pollDesc{})
n := pollBlockSize / pdSize
if n == 0 {n = 1}
// Must be in non-GC memory because can be referenced
// only from epoll/kqueue internals.
mem := persistentalloc(n*pdSize, 0, &memstats.other_sys)
for i := uintptr(0); i < n; i++ {pd := (*pollDesc)(add(mem, i*pdSize))
pd.link = c.first
c.first = pd
}
}
pd := c.first
c.first = pd.link
lockInit(&pd.lock, lockRankPollDesc)
unlock(&c.lock)
return pd
}
Go runtime 会在调用 poll_runtime_pollOpen
往 epoll 实例注册 fd 之时首次调用 runtime.pollCache.alloc
办法时批量初始化大小 4KB 的 runtime.pollDesc
构造体的链表,初始化过程中会调用 runtime.persistentalloc
来为这些数据结构调配不会被 GC 回收的内存,确保这些数据结构只能被 epoll
和kqueue
在内核空间去援用。
再往后每次调用这个办法则会先判断链表头是否曾经调配过值了,若是,则间接返回表头这个 pollDesc
,这种批量初始化数据进行缓存而后每次都间接从缓存取数据的形式是一种很常见的性能优化伎俩,在这里这种形式能够无效地晋升 netpoller 的吞吐量。
Go runtime 会在敞开 pollDesc
之时调用 runtime.pollCache.free
开释内存:
func (c *pollCache) free(pd *pollDesc) {lock(&c.lock)
pd.link = c.first
c.first = pd
unlock(&c.lock)
}
实现原理
应用 Go 编写一个典型的 TCP echo server:
package main
import (
"log"
"net"
)
func main() {listen, err := net.Listen("tcp", ":8888")
if err != nil {log.Println("listen error:", err)
return
}
for {conn, err := listen.Accept()
if err != nil {log.Println("accept error:", err)
break
}
// start a new goroutine to handle the new connection.
go HandleConn(conn)
}
}
func HandleConn(conn net.Conn) {defer conn.Close()
packet := make([]byte, 1024)
for {
// block here if socket is not available for reading data.
n, err := conn.Read(packet)
if err != nil {log.Println("read socket error:", err)
return
}
// same as above, block here if socket is not available for writing.
_, _ = conn.Write(packet[:n])
}
}
下面是一个基于 Go 原生网络模型(基于 netpoller)编写的一个 TCP server,模式是 goroutine-per-connection
,在这种模式下,开发者应用的是同步的模式去编写异步的逻辑而且对于开发者来说 I/O 是否阻塞是无感知的,也就是说开发者无需思考 goroutines 甚至更底层的线程、过程的调度和上下文切换。而 Go netpoller 最底层的事件驱动技术必定是基于 epoll/kqueue/iocp 这一类的 I/O 事件驱动技术,只不过是把这些调度和上下文切换的工作转移到了 runtime 的 Go scheduler,让它来负责调度 goroutines,从而极大地升高了程序员的心智累赘!
Go 的这种同步模式的网络服务器的根本架构通常如下:
下面的示例代码中相干的在源码里的几个数据结构和办法:
// TCPListener is a TCP network listener. Clients should typically
// use variables of type Listener instead of assuming TCP.
type TCPListener struct {
fd *netFD
lc ListenConfig
}
// Accept implements the Accept method in the Listener interface; it
// waits for the next call and returns a generic Conn.
func (l *TCPListener) Accept() (Conn, error) {if !l.ok() {return nil, syscall.EINVAL}
c, err := l.accept()
if err != nil {return nil, &OpError{Op: "accept", Net: l.fd.net, Source: nil, Addr: l.fd.laddr, Err: err}
}
return c, nil
}
func (ln *TCPListener) accept() (*TCPConn, error) {fd, err := ln.fd.accept()
if err != nil {return nil, err}
tc := newTCPConn(fd)
if ln.lc.KeepAlive >= 0 {setKeepAlive(fd, true)
ka := ln.lc.KeepAlive
if ln.lc.KeepAlive == 0 {ka = defaultTCPKeepAlive}
setKeepAlivePeriod(fd, ka)
}
return tc, nil
}
// TCPConn is an implementation of the Conn interface for TCP network
// connections.
type TCPConn struct {conn}
// Conn
type conn struct {fd *netFD}
type conn struct {fd *netFD}
func (c *conn) ok() bool { return c != nil && c.fd != nil}
// Implementation of the Conn interface.
// Read implements the Conn Read method.
func (c *conn) Read(b []byte) (int, error) {if !c.ok() {return 0, syscall.EINVAL}
n, err := c.fd.Read(b)
if err != nil && err != io.EOF {err = &OpError{Op: "read", Net: c.fd.net, Source: c.fd.laddr, Addr: c.fd.raddr, Err: err}
}
return n, err
}
// Write implements the Conn Write method.
func (c *conn) Write(b []byte) (int, error) {if !c.ok() {return 0, syscall.EINVAL}
n, err := c.fd.Write(b)
if err != nil {err = &OpError{Op: "write", Net: c.fd.net, Source: c.fd.laddr, Addr: c.fd.raddr, Err: err}
}
return n, err
}
net.Listen
调用 net.Listen
之后,底层会通过 Linux 的零碎调用 socket
办法创立一个 fd 调配给 listener,并用以来初始化 listener 的 netFD
,接着调用 netFD 的 listenStream
办法实现对 socket 的 bind&listen 操作以及对 netFD
的初始化(次要是对 netFD 里的 pollDesc 的初始化),调用链是 runtime.runtime_pollServerInit
–> runtime.poll_runtime_pollServerInit
–> runtime.netpollGenericInit
,次要做的事件是:
- 调用
epollcreate1
创立一个 epoll 实例epfd
,作为整个 runtime 的惟一 event-loop 应用; - 调用
runtime.nonblockingPipe
创立一个用于和 epoll 实例通信的管道,这里为什么不必更新且更轻量的 eventfd 呢?我集体猜想是为了兼容更多以及更老的零碎版本; - 将
netpollBreakRd
告诉信号量封装成epollevent
事件构造体注册进 epoll 实例。
相干源码如下:
// 调用 linux 零碎调用 socket 创立 listener fd 并设置为为阻塞 I/O
s, err := socketFunc(family, sotype|syscall.SOCK_NONBLOCK|syscall.SOCK_CLOEXEC, proto)
// On Linux the SOCK_NONBLOCK and SOCK_CLOEXEC flags were
// introduced in 2.6.27 kernel and on FreeBSD both flags were
// introduced in 10 kernel. If we get an EINVAL error on Linux
// or EPROTONOSUPPORT error on FreeBSD, fall back to using
// socket without them.
socketFunc func(int, int, int) (int, error) = syscall.Socket
// 用下面创立的 listener fd 初始化 listener netFD
if fd, err = newFD(s, family, sotype, net); err != nil {poll.CloseFunc(s)
return nil, err
}
// 对 listener fd 进行 bind&listen 操作,并且调用 init 办法实现初始化
func (fd *netFD) listenStream(laddr sockaddr, backlog int, ctrlFn func(string, string, syscall.RawConn) error) error {
...
// 实现绑定操作
if err = syscall.Bind(fd.pfd.Sysfd, lsa); err != nil {return os.NewSyscallError("bind", err)
}
// 实现监听操作
if err = listenFunc(fd.pfd.Sysfd, backlog); err != nil {return os.NewSyscallError("listen", err)
}
// 调用 init,外部会调用 poll.FD.Init,最初调用 pollDesc.init
if err = fd.init(); err != nil {return err}
lsa, _ = syscall.Getsockname(fd.pfd.Sysfd)
fd.setAddr(fd.addrFunc()(lsa), nil)
return nil
}
// 应用 sync.Once 来确保一个 listener 只持有一个 epoll 实例
var serverInit sync.Once
// netFD.init 会调用 poll.FD.Init 并最终调用到 pollDesc.init,// 它会创立 epoll 实例并把 listener fd 退出监听队列
func (pd *pollDesc) init(fd *FD) error {
// runtime_pollServerInit 通过 `go:linkname` 链接到具体的实现函数 poll_runtime_pollServerInit,// 接着再调用 netpollGenericInit,而后会依据不同的零碎平台去调用特定的 netpollinit 来创立 epoll 实例
serverInit.Do(runtime_pollServerInit)
// runtime_pollOpen 外部调用了 netpollopen 来将 listener fd 注册到
// epoll 实例中,另外,它会初始化一个 pollDesc 并返回
ctx, errno := runtime_pollOpen(uintptr(fd.Sysfd))
if errno != 0 {
if ctx != 0 {runtime_pollUnblock(ctx)
runtime_pollClose(ctx)
}
return syscall.Errno(errno)
}
// 把真正初始化实现的 pollDesc 实例赋值给以后的 pollDesc 代表本身的指针,// 后续应用间接通过该指针操作
pd.runtimeCtx = ctx
return nil
}
var (
// 全局惟一的 epoll fd,只在 listener fd 初始化之时被指定一次
epfd int32 = -1 // epoll descriptor
)
// netpollinit 会创立一个 epoll 实例,而后把 epoll fd 赋值给 epfd,// 后续 listener 以及它 accept 的所有 sockets 无关 epoll 的操作都是基于这个全局的 epfd
func netpollinit() {epfd = epollcreate1(_EPOLL_CLOEXEC)
if epfd < 0 {epfd = epollcreate(1024)
if epfd < 0 {println("runtime: epollcreate failed with", -epfd)
throw("runtime: netpollinit failed")
}
closeonexec(epfd)
}
r, w, errno := nonblockingPipe()
if errno != 0 {println("runtime: pipe failed with", -errno)
throw("runtime: pipe failed")
}
ev := epollevent{events: _EPOLLIN,}
*(**uintptr)(unsafe.Pointer(&ev.data)) = &netpollBreakRd
errno = epollctl(epfd, _EPOLL_CTL_ADD, r, &ev)
if errno != 0 {println("runtime: epollctl failed with", -errno)
throw("runtime: epollctl failed")
}
netpollBreakRd = uintptr(r)
netpollBreakWr = uintptr(w)
}
// netpollopen 会被 runtime_pollOpen 调用,注册 fd 到 epoll 实例,// 留神这里应用的是 epoll 的 ET 模式,同时会利用万能指针把 pollDesc 保留到 epollevent 的一个 8 位的字节数组 data 里
func netpollopen(fd uintptr, pd *pollDesc) int32 {
var ev epollevent
ev.events = _EPOLLIN | _EPOLLOUT | _EPOLLRDHUP | _EPOLLET
*(**pollDesc)(unsafe.Pointer(&ev.data)) = pd
return -epollctl(epfd, _EPOLL_CTL_ADD, int32(fd), &ev)
}
咱们后面提到的 epoll 的三个根本调用,Go 在源码里实现了对那三个调用的封装:
#include <sys/epoll.h>
int epoll_create(int size);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
// Go 对下面三个调用的封装
func netpollinit()
func netpollopen(fd uintptr, pd *pollDesc) int32
func netpoll(block bool) gList
netFD 就是通过这三个封装来对 epoll 进行创立实例、注册 fd 和期待事件操作的。
Listener.Accept()
netpoll
accept socket 的工作流程如下:
- 服务端的 netFD 在
listen
时会创立 epoll 的实例,并将 listenerFD 退出 epoll 的事件队列 - netFD 在
accept
时将返回的 connFD 也退出 epoll 的事件队列 - netFD 在读写时呈现
syscall.EAGAIN
谬误,通过 pollDesc 的waitRead
办法将以后的 goroutine park 住,直到 ready,从 pollDesc 的waitRead
中返回
Listener.Accept()
接管来自客户端的新连贯,具体还是调用 netFD.accept
办法来实现这个性能:
// Accept implements the Accept method in the Listener interface; it
// waits for the next call and returns a generic Conn.
func (l *TCPListener) Accept() (Conn, error) {if !l.ok() {return nil, syscall.EINVAL}
c, err := l.accept()
if err != nil {return nil, &OpError{Op: "accept", Net: l.fd.net, Source: nil, Addr: l.fd.laddr, Err: err}
}
return c, nil
}
func (ln *TCPListener) accept() (*TCPConn, error) {fd, err := ln.fd.accept()
if err != nil {return nil, err}
tc := newTCPConn(fd)
if ln.lc.KeepAlive >= 0 {setKeepAlive(fd, true)
ka := ln.lc.KeepAlive
if ln.lc.KeepAlive == 0 {ka = defaultTCPKeepAlive}
setKeepAlivePeriod(fd, ka)
}
return tc, nil
}
func (fd *netFD) accept() (netfd *netFD, err error) {
// 调用 poll.FD 的 Accept 办法承受新的 socket 连贯,返回 socket 的 fd
d, rsa, errcall, err := fd.pfd.Accept()
if err != nil {
if errcall != "" {err = wrapSyscallError(errcall, err)
}
return nil, err
}
// 以 socket fd 结构一个新的 netFD,代表这个新的 socket
if netfd, err = newFD(d, fd.family, fd.sotype, fd.net); err != nil {poll.CloseFunc(d)
return nil, err
}
// 调用 netFD 的 init 办法实现初始化
if err = netfd.init(); err != nil {fd.Close()
return nil, err
}
lsa, _ := syscall.Getsockname(netfd.pfd.Sysfd)
netfd.setAddr(netfd.addrFunc()(lsa), netfd.addrFunc()(rsa))
return netfd, nil
}
netFD.accept
办法里会再调用 poll.FD.Accept
,最初会应用 Linux 的零碎调用 accept
来实现新连贯的接管,并且会把 accept 的 socket 设置成非阻塞 I/O 模式:
// Accept wraps the accept network call.
func (fd *FD) Accept() (int, syscall.Sockaddr, string, error) {if err := fd.readLock(); err != nil {return -1, nil, "", err}
defer fd.readUnlock()
if err := fd.pd.prepareRead(fd.isFile); err != nil {return -1, nil, "", err}
for {
// 应用 linux 零碎调用 accept 接管新连贯,创立对应的 socket
s, rsa, errcall, err := accept(fd.Sysfd)
// 因为 listener fd 在创立的时候曾经设置成非阻塞的了,// 所以 accept 办法会间接返回,不论有没有新连贯到来;如果 err == nil 则示意失常建设新连贯,间接返回
if err == nil {return s, rsa, "", err}
// 如果 err != nil,则判断 err == syscall.EAGAIN,符合条件则进入 pollDesc.waitRead 办法
switch err {
case syscall.EAGAIN:
if fd.pd.pollable() {
// 如果以后没有产生期待的 I/O 事件,那么 waitRead 会通过 park goroutine 让逻辑 block 在这里
if err = fd.pd.waitRead(fd.isFile); err == nil {continue}
}
case syscall.ECONNABORTED:
// This means that a socket on the listen
// queue was closed before we Accept()ed it;
// it's a silly error, so try again.
continue
}
return -1, nil, errcall, err
}
}
// 应用 linux 的 accept 零碎调用接管新连贯并把这个 socket fd 设置成非阻塞 I/O
ns, sa, err := Accept4Func(s, syscall.SOCK_NONBLOCK|syscall.SOCK_CLOEXEC)
// On Linux the accept4 system call was introduced in 2.6.28
// kernel and on FreeBSD it was introduced in 10 kernel. If we
// get an ENOSYS error on both Linux and FreeBSD, or EINVAL
// error on Linux, fall back to using accept.
// Accept4Func is used to hook the accept4 call.
var Accept4Func func(int, int) (int, syscall.Sockaddr, error) = syscall.Accept4
pollDesc.waitRead
办法次要负责检测以后这个 pollDesc 的下层 netFD 对应的 fd 是否有『期待的』I/O 事件产生,如果有就间接返回,否则就 park 住以后的 goroutine 并继续期待直至对应的 fd 上产生可读 / 可写或者其余『期待的』I/O 事件为止,而后它就会返回到外层的 for 循环,让 goroutine 继续执行逻辑。
poll.FD.Accept() 返回之后,会结构一个对应这个新 socket 的 netFD,而后调用 init() 办法实现初始化,这个 init 过程和后面 net.Listen() 是一样的,调用链:netFD.init() –> poll.FD.Init() –> poll.pollDesc.init(),最终又会走到这里:
var serverInit sync.Once
func (pd *pollDesc) init(fd *FD) error {serverInit.Do(runtime_pollServerInit)
ctx, errno := runtime_pollOpen(uintptr(fd.Sysfd))
if errno != 0 {
if ctx != 0 {runtime_pollUnblock(ctx)
runtime_pollClose(ctx)
}
return syscall.Errno(errno)
}
pd.runtimeCtx = ctx
return nil
}
而后把这个 socket fd 注册到 listener 的 epoll 实例的事件队列中去,期待 I/O 事件。
Conn.Read/Conn.Write
咱们先来看看 Conn.Read
办法是如何实现的,原理其实和 Listener.Accept
是一样的,具体调用链还是首先调用 conn 的 netFD.Read
,而后外部再调用 poll.FD.Read
,最初应用 Linux 的零碎调用 read: syscall.Read
实现数据读取:
// Implementation of the Conn interface.
// Read implements the Conn Read method.
func (c *conn) Read(b []byte) (int, error) {if !c.ok() {return 0, syscall.EINVAL}
n, err := c.fd.Read(b)
if err != nil && err != io.EOF {err = &OpError{Op: "read", Net: c.fd.net, Source: c.fd.laddr, Addr: c.fd.raddr, Err: err}
}
return n, err
}
func (fd *netFD) Read(p []byte) (n int, err error) {n, err = fd.pfd.Read(p)
runtime.KeepAlive(fd)
return n, wrapSyscallError("read", err)
}
// Read implements io.Reader.
func (fd *FD) Read(p []byte) (int, error) {if err := fd.readLock(); err != nil {return 0, err}
defer fd.readUnlock()
if len(p) == 0 {
// If the caller wanted a zero byte read, return immediately
// without trying (but after acquiring the readLock).
// Otherwise syscall.Read returns 0, nil which looks like
// io.EOF.
// TODO(bradfitz): make it wait for readability? (Issue 15735)
return 0, nil
}
if err := fd.pd.prepareRead(fd.isFile); err != nil {return 0, err}
if fd.IsStream && len(p) > maxRW {p = p[:maxRW]
}
for {
// 尝试从该 socket 读取数据,因为 socket 在被 listener accept 的时候设置成
// 了非阻塞 I/O,所以这里同样也是间接返回,不论有没有可读的数据
n, err := syscall.Read(fd.Sysfd, p)
if err != nil {
n = 0
// err == syscall.EAGAIN 示意以后没有期待的 I/O 事件产生,也就是 socket 不可读
if err == syscall.EAGAIN && fd.pd.pollable() {
// 如果以后没有产生期待的 I/O 事件,那么 waitRead
// 会通过 park goroutine 让逻辑 block 在这里
if err = fd.pd.waitRead(fd.isFile); err == nil {continue}
}
// On MacOS we can see EINTR here if the user
// pressed ^Z. See issue #22838.
if runtime.GOOS == "darwin" && err == syscall.EINTR {continue}
}
err = fd.eofError(n, err)
return n, err
}
}
conn.Write
和 conn.Read
的原理是统一的,它也是通过相似 pollDesc.waitRead
的 pollDesc.waitWrite
来 park 住 goroutine 直至期待的 I/O 事件产生才返回复原执行。
pollDesc.waitRead/pollDesc.waitWrite
pollDesc.waitRead
外部调用了 poll.runtime_pollWait
–> runtime.poll_runtime_pollWait
来达成无 I/O 事件时 park 住 goroutine 的目标:
//go:linkname poll_runtime_pollWait internal/poll.runtime_pollWait
func poll_runtime_pollWait(pd *pollDesc, mode int) int {err := netpollcheckerr(pd, int32(mode))
if err != pollNoError {return err}
// As for now only Solaris, illumos, and AIX use level-triggered IO.
if GOOS == "solaris" || GOOS == "illumos" || GOOS == "aix" {netpollarm(pd, mode)
}
// 进入 netpollblock 并且判断是否有期待的 I/O 事件产生,// 这里的 for 循环是为了始终等到 io ready
for !netpollblock(pd, int32(mode), false) {err = netpollcheckerr(pd, int32(mode))
if err != 0 {return err}
// Can happen if timeout has fired and unblocked us,
// but before we had a chance to run, timeout has been reset.
// Pretend it has not happened and retry.
}
return 0
}
// returns true if IO is ready, or false if timedout or closed
// waitio - wait only for completed IO, ignore errors
func netpollblock(pd *pollDesc, mode int32, waitio bool) bool {
// gpp 保留的是 goroutine 的数据结构 g,这里会依据 mode 的值决定是 rg 还是 wg,// 后面提到过,rg 和 wg 是用来保留期待 I/O 就绪的 gorouine 的,前面调用 gopark 之后,// 会把以后的 goroutine 的形象数据结构 g 存入 gpp 这个指针,也就是 rg 或者 wg
gpp := &pd.rg
if mode == 'w' {gpp = &pd.wg}
// set the gpp semaphore to WAIT
// 这个 for 循环是为了期待 io ready 或者 io wait
for {
old := *gpp
// gpp == pdReady 示意此时已有期待的 I/O 事件产生,// 能够间接返回 unblock 以后 goroutine 并执行响应的 I/O 操作
if old == pdReady {
*gpp = 0
return true
}
if old != 0 {throw("runtime: double wait")
}
// 如果没有期待的 I/O 事件产生,则通过原子操作把 gpp 的值置为 pdWait 并退出 for 循环
if atomic.Casuintptr(gpp, 0, pdWait) {break}
}
// need to recheck error states after setting gpp to WAIT
// this is necessary because runtime_pollUnblock/runtime_pollSetDeadline/deadlineimpl
// do the opposite: store to closing/rd/wd, membarrier, load of rg/wg
// waitio 此时是 false,netpollcheckerr 办法会查看以后 pollDesc 对应的 fd 是否是失常的,// 通常来说 netpollcheckerr(pd, mode) == 0 是成立的,所以这里会执行 gopark
// 把以后 goroutine 给 park 住,直至对应的 fd 上产生可读 / 可写或者其余『期待的』I/O 事件为止,// 而后 unpark 返回,在 gopark 外部会把以后 goroutine 的形象数据结构 g 存入
// gpp(pollDesc.rg/pollDesc.wg) 指针里,以便在前面的 netpoll 函数取出 pollDesc 之后,// 把 g 增加到链表里返回,接着从新调度 goroutine
if waitio || netpollcheckerr(pd, mode) == 0 {
// 注册 netpollblockcommit 回调给 gopark,在 gopark 外部会执行它,保留以后 goroutine 到 gpp
gopark(netpollblockcommit, unsafe.Pointer(gpp), waitReasonIOWait, traceEvGoBlockNet, 5)
}
// be careful to not lose concurrent READY notification
old := atomic.Xchguintptr(gpp, 0)
if old > pdWait {throw("runtime: corrupted polldesc")
}
return old == pdReady
}
// gopark 会停住以后的 goroutine 并且调用传递进来的回调函数 unlockf,从下面的源码咱们能够晓得这个函数是
// netpollblockcommit
func gopark(unlockf func(*g, unsafe.Pointer) bool, lock unsafe.Pointer, reason waitReason, traceEv byte, traceskip int) {
if reason != waitReasonSleep {checkTimeouts() // timeouts may expire while two goroutines keep the scheduler busy
}
mp := acquirem()
gp := mp.curg
status := readgstatus(gp)
if status != _Grunning && status != _Gscanrunning {throw("gopark: bad g status")
}
mp.waitlock = lock
mp.waitunlockf = unlockf
gp.waitreason = reason
mp.waittraceev = traceEv
mp.waittraceskip = traceskip
releasem(mp)
// can't do anything that might move the G between Ms here.
// gopark 最终会调用 park_m,在这个函数外部会调用 unlockf,也就是 netpollblockcommit,// 而后会把以后的 goroutine,也就是 g 数据结构保留到 pollDesc 的 rg 或者 wg 指针里
mcall(park_m)
}
// park continuation on g0.
func park_m(gp *g) {_g_ := getg()
if trace.enabled {traceGoPark(_g_.m.waittraceev, _g_.m.waittraceskip)
}
casgstatus(gp, _Grunning, _Gwaiting)
dropg()
if fn := _g_.m.waitunlockf; fn != nil {
// 调用 netpollblockcommit,把以后的 goroutine,// 也就是 g 数据结构保留到 pollDesc 的 rg 或者 wg 指针里
ok := fn(gp, _g_.m.waitlock)
_g_.m.waitunlockf = nil
_g_.m.waitlock = nil
if !ok {
if trace.enabled {traceGoUnpark(gp, 2)
}
casgstatus(gp, _Gwaiting, _Grunnable)
execute(gp, true) // Schedule it back, never returns.
}
}
schedule()}
// netpollblockcommit 在 gopark 函数里被调用
func netpollblockcommit(gp *g, gpp unsafe.Pointer) bool {
// 通过原子操作把以后 goroutine 形象的数据结构 g,也就是这里的参数 gp 存入 gpp 指针,// 此时 gpp 的值是 pollDesc 的 rg 或者 wg 指针
r := atomic.Casuintptr((*uintptr)(gpp), pdWait, uintptr(unsafe.Pointer(gp)))
if r {
// Bump the count of goroutines waiting for the poller.
// The scheduler uses this to decide whether to block
// waiting for the poller if there is nothing else to do.
atomic.Xadd(&netpollWaiters, 1)
}
return r
}
pollDesc.waitWrite
的外部实现原理和 pollDesc.waitRead
是一样的,都是基于 poll.runtime_pollWait
–> runtime.poll_runtime_pollWait
,这里就不再赘述。
netpoll
后面曾经从源码的层面剖析完了 netpoll 是如何通过 park goroutine 从而达到阻塞 Accept/Read/Write 的成果,而通过调用 gopark,goroutine 会被搁置在某个期待队列中,这里是放到了 epoll 的 “interest list” 里,底层数据结构是由红黑树实现的 eventpoll.rbr
,此时 G 的状态由 _Grunning
为_Gwaitting
,因而 G 必须被手动唤醒(通过 goready),否则会失落工作,应用层阻塞通常应用这种形式。
所以咱们当初能够来从整体的层面来概括 Go 的网络业务 goroutine 是如何被布局调度的了:
首先,client 连贯 server 的时候,listener 通过 accept 调用接管新 connection,每一个新 connection 都启动一个 goroutine 解决,accept 调用会把该 connection 的 fd 连带所在的 goroutine 上下文信息封装注册到 epoll 的监听列表里去,当 goroutine 调用
conn.Read
或者conn.Write
等须要阻塞期待的函数时,会被gopark
给封存起来并使之休眠,让 P 去执行本地调度队列里的下一个可执行的 goroutine,往后 Go scheduler 会在循环调度的runtime.schedule()
函数以及 sysmon 监控线程中调用runtime.nepoll
以获取可运行的 goroutine 列表并通过调用 injectglist 把剩下的 g 放入全局调度队列或者以后 P 本地调度队列去从新执行。那么当 I/O 事件产生之后,netpoller 是通过什么形式唤醒那些在 I/O wait 的 goroutine 的?答案是通过
runtime.netpoll
。
runtime.netpoll
的外围逻辑是:
- 依据调用方的入参 delay,设置对应的调用
epollwait
的 timeout 值; - 调用
epollwait
期待产生了可读 / 可写事件的 fd; - 循环
epollwait
返回的事件列表,解决对应的事件类型,组装可运行的 goroutine 链表并返回。
// netpoll checks for ready network connections.
// Returns list of goroutines that become runnable.
// delay < 0: blocks indefinitely
// delay == 0: does not block, just polls
// delay > 0: block for up to that many nanoseconds
func netpoll(delay int64) gList {
if epfd == -1 {return gList{}
}
// 依据特定的规定把 delay 值转换为 epollwait 的 timeout 值
var waitms int32
if delay < 0 {waitms = -1} else if delay == 0 {waitms = 0} else if delay < 1e6 {waitms = 1} else if delay < 1e15 {waitms = int32(delay / 1e6)
} else {
// An arbitrary cap on how long to wait for a timer.
// 1e9 ms == ~11.5 days.
waitms = 1e9
}
var events [128]epollevent
retry:
// 超时期待就绪的 fd 读写事件
n := epollwait(epfd, &events[0], int32(len(events)), waitms)
if n < 0 {
if n != -_EINTR {println("runtime: epollwait on fd", epfd, "failed with", -n)
throw("runtime: netpoll failed")
}
// If a timed sleep was interrupted, just return to
// recalculate how long we should sleep now.
if waitms > 0 {return gList{}
}
goto retry
}
// toRun 是一个 g 的链表,存储要复原的 goroutines,最初返回给调用方
var toRun gList
for i := int32(0); i < n; i++ {ev := &events[i]
if ev.events == 0 {continue}
// Go scheduler 在调用 findrunnable() 寻找 goroutine 去执行的时候,// 在调用 netpoll 之时会查看以后是否有其余线程同步阻塞在 netpoll,// 若是,则调用 netpollBreak 来唤醒那个线程,防止它长时间阻塞
if *(**uintptr)(unsafe.Pointer(&ev.data)) == &netpollBreakRd {
if ev.events != _EPOLLIN {println("runtime: netpoll: break fd ready for", ev.events)
throw("runtime: netpoll: break fd ready for something unexpected")
}
if delay != 0 {
// netpollBreak could be picked up by a
// nonblocking poll. Only read the byte
// if blocking.
var tmp [16]byte
read(int32(netpollBreakRd), noescape(unsafe.Pointer(&tmp[0])), int32(len(tmp)))
atomic.Store(&netpollWakeSig, 0)
}
continue
}
// 判断产生的事件类型,读类型或者写类型等,而后给 mode 复制相应的值,// mode 用来决定从 pollDesc 里的 rg 还是 wg 里取出 goroutine
var mode int32
if ev.events&(_EPOLLIN|_EPOLLRDHUP|_EPOLLHUP|_EPOLLERR) != 0 {mode += 'r'}
if ev.events&(_EPOLLOUT|_EPOLLHUP|_EPOLLERR) != 0 {mode += 'w'}
if mode != 0 {
// 取出保留在 epollevent 里的 pollDesc
pd := *(**pollDesc)(unsafe.Pointer(&ev.data))
pd.everr = false
if ev.events == _EPOLLERR {pd.everr = true}
// 调用 netpollready,传入就绪 fd 的 pollDesc,// 把 fd 对应的 goroutine 增加到链表 toRun 中
netpollready(&toRun, pd, mode)
}
}
return toRun
}
// netpollready 调用 netpollunblock 返回就绪 fd 对应的 goroutine 的形象数据结构 g
func netpollready(toRun *gList, pd *pollDesc, mode int32) {
var rg, wg *g
if mode == 'r' || mode == 'r'+'w' {rg = netpollunblock(pd, 'r', true)
}
if mode == 'w' || mode == 'r'+'w' {wg = netpollunblock(pd, 'w', true)
}
if rg != nil {toRun.push(rg)
}
if wg != nil {toRun.push(wg)
}
}
// netpollunblock 会根据传入的 mode 决定从 pollDesc 的 rg 或者 wg 取出过后 gopark 之时存入的
// goroutine 形象数据结构 g 并返回
func netpollunblock(pd *pollDesc, mode int32, ioready bool) *g {
// mode == 'r' 代表过后 gopark 是为了期待读事件,而 mode == 'w' 则代表是期待写事件
gpp := &pd.rg
if mode == 'w' {gpp = &pd.wg}
for {
// 取出 gpp 存储的 g
old := *gpp
if old == pdReady {return nil}
if old == 0 && !ioready {
// Only set READY for ioready. runtime_pollWait
// will check for timeout/cancel before waiting.
return nil
}
var new uintptr
if ioready {new = pdReady}
// 重置 pollDesc 的 rg 或者 wg
if atomic.Casuintptr(gpp, old, new) {
// 如果该 goroutine 还是必须期待,则返回 nil
if old == pdWait {old = 0}
// 通过万能指针还原成 g 并返回
return (*g)(unsafe.Pointer(old))
}
}
}
// netpollBreak 往通信管道里写入信号去唤醒 epollwait
func netpollBreak() {
// 通过 CAS 防止反复的唤醒信号被写入管道,// 从而缩小零碎调用并节俭一些系统资源
if atomic.Cas(&netpollWakeSig, 0, 1) {
for {
var b byte
n := write(netpollBreakWr, unsafe.Pointer(&b), 1)
if n == 1 {break}
if n == -_EINTR {continue}
if n == -_EAGAIN {return}
println("runtime: netpollBreak write failed with", -n)
throw("runtime: netpollBreak write failed")
}
}
}
Go 在多种场景下都可能会调用 netpoll
查看文件描述符状态,netpoll
里会调用 epoll_wait
从 epoll 的 eventpoll.rdllist
就绪双向链表返回,从而失去 I/O 就绪的 socket fd 列表,并依据取出最后调用 epoll_ctl
时保留的上下文信息,复原 g
。所以执行完netpoll
之后,会返回一个就绪 fd 列表对应的 goroutine 链表,接下来将就绪的 goroutine 通过调用 injectglist
退出到全局调度队列或者 P 的本地调度队列中,启动 M 绑定 P 去执行。
具体调用 netpoll
的中央,首先在 Go runtime scheduler 循环调度 goroutines 之时就有可能会调用 netpoll
获取到已就绪的 fd 对应的 goroutine 来调度执行。
首先 Go scheduler 的外围办法 runtime.schedule()
里会调用一个叫 runtime.findrunable()
的办法获取可运行的 goroutine 来执行,而在 runtime.findrunable()
办法里就调用了 runtime.netpoll
获取已就绪的 fd 列表对应的 goroutine 列表:
// One round of scheduler: find a runnable goroutine and execute it.
// Never returns.
func schedule() {
...
if gp == nil {gp, inheritTime = findrunnable() // blocks until work is available
}
...
}
// Finds a runnable goroutine to execute.
// Tries to steal from other P's, get g from global queue, poll network.
func findrunnable() (gp *g, inheritTime bool) {
...
// Poll network.
if netpollinited() && (atomic.Load(&netpollWaiters) > 0 || pollUntil != 0) && atomic.Xchg64(&sched.lastpoll, 0) != 0 {atomic.Store64(&sched.pollUntil, uint64(pollUntil))
if _g_.m.p != 0 {throw("findrunnable: netpoll with p")
}
if _g_.m.spinning {throw("findrunnable: netpoll with spinning")
}
if faketime != 0 {
// When using fake time, just poll.
delta = 0
}
list := netpoll(delta) // 同步阻塞调用 netpoll,直至有可用的 goroutine
atomic.Store64(&sched.pollUntil, 0)
atomic.Store64(&sched.lastpoll, uint64(nanotime()))
if faketime != 0 && list.empty() {
// Using fake time and nothing is ready; stop M.
// When all M's stop, checkdead will call timejump.
stopm()
goto top
}
lock(&sched.lock)
_p_ = pidleget() // 查找是否有闲暇的 P 能够来就绪的 goroutine
unlock(&sched.lock)
if _p_ == nil {injectglist(&list) // 如果以后没有闲暇的 P,则把就绪的 goroutine 放入全局调度队列期待被执行
} else {
// 如果以后有闲暇的 P,则 pop 出一个 g,返回给调度器去执行,// 并通过调用 injectglist 把剩下的 g 放入全局调度队列或者以后 P 本地调度队列
acquirep(_p_)
if !list.empty() {gp := list.pop()
injectglist(&list)
casgstatus(gp, _Gwaiting, _Grunnable)
if trace.enabled {traceGoUnpark(gp, 0)
}
return gp, false
}
if wasSpinning {
_g_.m.spinning = true
atomic.Xadd(&sched.nmspinning, 1)
}
goto top
}
} else if pollUntil != 0 && netpollinited() {pollerPollUntil := int64(atomic.Load64(&sched.pollUntil))
if pollerPollUntil == 0 || pollerPollUntil > pollUntil {netpollBreak()
}
}
stopm()
goto top
}
另外,sysmon
监控线程会在循环过程中查看间隔上一次 runtime.netpoll
被调用是否超过了 10ms,若是则会去调用它拿到可运行的 goroutine 列表并通过调用 injectglist 把 g 列表放入全局调度队列或者以后 P 本地调度队列期待被执行:
// Always runs without a P, so write barriers are not allowed.
//
//go:nowritebarrierrec
func sysmon() {
...
// poll network if not polled for more than 10ms
lastpoll := int64(atomic.Load64(&sched.lastpoll))
if netpollinited() && lastpoll != 0 && lastpoll+10*1000*1000 < now {atomic.Cas64(&sched.lastpoll, uint64(lastpoll), uint64(now))
list := netpoll(0) // non-blocking - returns list of goroutines
if !list.empty() {
// Need to decrement number of idle locked M's
// (pretending that one more is running) before injectglist.
// Otherwise it can lead to the following situation:
// injectglist grabs all P's but before it starts M's to run the P's,
// another M returns from syscall, finishes running its G,
// observes that there is no work to do and no other running M's
// and reports deadlock.
incidlelocked(-1)
injectglist(&list)
incidlelocked(1)
}
}
...
}
Go runtime 在程序启动的时候会创立一个独立的 M 作为监控线程,叫 sysmon
,这个线程为零碎级的 daemon 线程,无需 P 即可运行,sysmon
每 20us~10ms 运行一次。sysmon
中以轮询的形式执行以下操作(如下面的代码所示):
- 以非阻塞的形式调用
runtime.netpoll
,从中找出能从网络 I/O 中唤醒的 g 列表,并通过调用 injectglist 把 g 列表放入全局调度队列或者以后 P 本地调度队列期待被执行,调度触发时,有可能从这个全局 runnable 调度队列获取 g。而后再循环调用startm
,直到所有 P 都不处于_Pidle
状态。 - 调用
retake
,抢占长时间处于_Psyscall
状态的 P。
综上,Go 借助于 epoll/kqueue/iocp 和 runtime scheduler 等的帮忙,设计出了本人的 I/O 多路复用 netpoller,胜利地让 Listener.Accept
/ conn.Read
/ conn.Write
等办法从开发者的角度看来是同步模式。
Go netpoller 的价值
通过后面对源码的剖析,咱们当初晓得 Go netpoller 依靠于 runtime scheduler,为开发者提供了一种弱小的同步网络编程模式;然而,Go netpoller 存在的意义却远不止于此,Go netpoller I/O 多路复用搭配 Non-blocking I/O 而打造进去的这个原生网络模型,它最大的价值是把网络 I/O 的控制权牢牢把握在 Go 本人的 runtime 里,对于这一点咱们须要从 Go 的 runtime scheduler 说起,Go 的 G-P-M 调度模型如下:
G 在运行过程中如果被阻塞在某个 system call 操作上,那么不光 G 会阻塞,执行该 G 的 M 也会解绑 P(本质是被 sysmon 抢走了),与 G 一起进入 sleep 状态。如果此时有 idle 的 M,则 P 与其绑定继续执行其余 G;如果没有 idle M,但依然有其余 G 要去执行,那么就会创立一个新的 M。当阻塞在 system call 上的 G 实现 syscall 调用后,G 会去尝试获取一个可用的 P,如果没有可用的 P,那么 G 会被标记为 _Grunnable
并把它放入全局的 runqueue 中期待调度,之前的那个 sleep 的 M 将再次进入 sleep。
当初分明为什么 netpoll 为什么肯定要应用非阻塞 I/O 了吧?就是为了防止让操作网络 I/O 的 goroutine 陷入到零碎调用从而进入内核态,因为一旦进入内核态,整个程序的控制权就会产生转移(到内核),不再属于用户过程了,那么也就无奈借助于 Go 弱小的 runtime scheduler 来调度业务程序的并发了;而有了 netpoll 之后,借助于非阻塞 I/O,G 就再也不会因为零碎调用的读写而 (长时间) 陷入内核态,当 G 被阻塞在某个 network I/O 操作上时,实际上它不是因为陷入内核态被阻塞住了,而是被 Go runtime 调用 gopark 给 park 住了,此时 G 会被搁置到某个 wait queue 中,而 M 会尝试运行下一个 _Grunnable
的 G,如果此时没有 _Grunnable
的 G 供 M 运行,那么 M 将解绑 P,并进入 sleep 状态。当 I/O available,在 epoll 的 eventpoll.rdr
中期待的 G 会被放到 eventpoll.rdllist
链表里并通过 netpoll
中的 epoll_wait
零碎调用返回搁置到全局调度队列或者 P 的本地调度队列,标记为 _Grunnable
,期待 P 绑定 M 复原执行。
Goroutine 的调度
这一大节次要是讲解决网络 I/O 的 goroutines 阻塞之后,Go scheduler 具体是如何像后面几个章节所说的那样,防止让操作网络 I/O 的 goroutine 陷入到零碎调用从而进入内核态的,而是封存 goroutine 而后让出 CPU 的使用权从而令 P 能够去调度本地调度队列里的下一个 goroutine 的。
舒适提醒:这一大节属于延长浏览,波及到的知识点更偏零碎底层,须要有肯定的汇编语言根底能力通读,另外,这一节对 Go scheduler 的解说仅仅波及外围的一部分,不会把整个调度器都讲一遍(事实上如果真要解析 Go scheduler 的话恐怕重开一篇几万字的文章能力根本讲清楚。。。),所以也要求读者对 Go 的并发调度器有足够的理解,因而这一节可能会稍显深奥。当然这一节也可抉择不读,因为通过后面的整个解析,我置信读者应该曾经可能根本把握 Go netpoller 解决网络 I/O 的外围细节了,以及能从宏观层面理解 netpoller 对业务 goroutines 的根本调度了。而这一节次要是通过对 goroutines 调度细节的分析,可能加深读者对整个 Go netpoller 的彻底了解,接上后面几个章节,造成一个残缺的闭环。如果对调度的底层细节没趣味的话这也能够间接跳过这一节,对了解 Go netpoller 的基本原理影响不大,不过还是倡议有条件的读者能够看看。
从源码可知,Go scheduler 的调度 goroutine 过程中所调用的外围函数链如下:
runtime.schedule --> runtime.execute --> runtime.gogo --> goroutine code --> runtime.goexit --> runtime.goexit1 --> runtime.mcall --> runtime.goexit0 --> runtime.schedule
Go scheduler 会一直循环调用
runtime.schedule()
去调度 goroutines,而每个 goroutine 执行实现并退出之后,会再次调用runtime.schedule()
,使得调度器回到调度循环去执行其余的 goroutine,一直循环,永不停歇。当咱们应用
go
关键字启动一个新 goroutine 时,最终会调用runtime.newproc
–>runtime.newproc1
,来失去 g,runtime.newproc1
会先从 P 的gfree
缓存链表中查找可用的 g,若缓存未失效,则会新创建 g 给以后的业务函数,最初这个 g 会被传给runtime.gogo
去真正执行。
这里首先须要理解一个 gobuf 的构造体,它用来保留 goroutine 的调度信息,是 runtime.gogo
的入参:
// gobuf 存储 goroutine 调度上下文信息的构造体
type gobuf struct {// The offsets of sp, pc, and g are known to (hard-coded in) libmach.
//
// ctxt is unusual with respect to GC: it may be a
// heap-allocated funcval, so GC needs to track it, but it
// needs to be set and cleared from assembly, where it's
// difficult to have write barriers. However, ctxt is really a
// saved, live register, and we only ever exchange it between
// the real register and the gobuf. Hence, we treat it as a
// root during stack scanning, which means assembly that saves
// and restores it doesn't need write barriers. It's still
// typed as a pointer so that any other writes from Go get
// write barriers.
sp uintptr // Stack Pointer 栈指针
pc uintptr // Program Counter 程序计数器
g guintptr // 持有以后 gobuf 的 goroutine
ctxt unsafe.Pointer
ret sys.Uintreg
lr uintptr
bp uintptr // for GOEXPERIMENT=framepointer
}
执行 runtime.execute()
,进而调用 runtime.gogo
:
func execute(gp *g, inheritTime bool) {_g_ := getg()
// Assign gp.m before entering _Grunning so running Gs have an
// M.
_g_.m.curg = gp
gp.m = _g_.m
casgstatus(gp, _Grunnable, _Grunning)
gp.waitsince = 0
gp.preempt = false
gp.stackguard0 = gp.stack.lo + _StackGuard
if !inheritTime {_g_.m.p.ptr().schedtick++
}
// Check whether the profiler needs to be turned on or off.
hz := sched.profilehz
if _g_.m.profilehz != hz {setThreadCPUProfiler(hz)
}
if trace.enabled {
// GoSysExit has to happen when we have a P, but before GoStart.
// So we emit it here.
if gp.syscallsp != 0 && gp.sysblocktraced {traceGoSysExit(gp.sysexitticks)
}
traceGoStart()}
// gp.sched 就是 gobuf
gogo(&gp.sched)
}
这里还须要理解一个概念:g0,Go G-P-M 调度模型中,g 代表 goroutine,而实际上一共有三种 g:
- 执行用户代码的 g;
- 执行调度器代码的 g,也即是 g0;
- 执行
runtime.main
初始化工作的 main goroutine;
第一种 g 就是应用 go
关键字启动的 goroutine,也是咱们接触最多的一类 g;第三种 g 是调度器启动之后用来执行的一系列初始化工作的,包含但不限于启动 sysmon
监控线程、内存初始化和启动 GC 等等工作;第二种 g 叫 g0,用来执行调度器代码,g0 在底层和其余 g 是一样的数据结构,然而性质上有很大的区别,首先 g0 的栈大小是固定的,比方在 Linux 或者其余 Unix-like 的零碎上个别是固定 8MB,不能动静伸缩,而一般的 g 初始栈大小是 2KB,可按需扩大,g0 其实就是线程栈,咱们晓得每个线程被创立进去之时都须要操作系统为之调配一个初始固定的线程栈,就是后面说的 8MB 大小的栈,g0 栈就代表了这个线程栈,因而每一个 m 都须要绑定一个 g0 来执行调度器代码,而后跳转到执行用户代码的中央。
runtime.gogo
是真正去执行 goroutine 代码的函数,这个函数由汇编实现,为什么须要用汇编?因为 gogo
的工作是实现线程 M 上的堆栈切换:从零碎堆栈 g0 切换成 goroutine gp
,也就是 CPU 使用权和堆栈的切换,这种切换实质上是对 CPU 的 PC、SP 等寄存器和堆栈指针的更新,而这一类精度的底层操作别说是 Go,就算是最贴近底层的 C 也无奈做到,这种水平的操作已超出所有高级语言的领域,因而只能借助于汇编来实现。
runtime.gogo
在不同的 CPU 架构平台上的实现各不相同,然而外围原理必由之路,咱们这里选用 amd64 架构的汇编实现来剖析,我会在要害的中央加上解释:
// func gogo(buf *gobuf)
// restore state from Gobuf; longjmp
TEXT runtime·gogo(SB), NOSPLIT, $16-8
// 将第一个 FP 伪寄存器所指向的 gobuf 的第一个参数存入 BX 寄存器,
// gobuf 的一个参数即是 SP 指针
MOVQ buf+0(FP), BX
MOVQ gobuf_g(BX), DX // 将 gp.sched.g 保留到 DX 寄存器
MOVQ 0(DX), CX // make sure g != nil
// 将 tls (thread local storage) 保留到 CX 寄存器,而后把 gp.sched.g 放到 tls[0],// 这样当前调用 getg() 之时就能够通过 TLS 间接获取到以后 goroutine 的 g 构造体实例,// 进而能够失去 g 所在的 m 和 p,TLS 里一开始存储的是零碎堆栈 g0 的地址
get_tls(CX)
MOVQ DX, g(CX)
// 上面的指令则是对函数栈的 BP/SP 寄存器 (指针) 的存取,// 最初进入到指定的代码区域,执行函数栈帧
MOVQ gobuf_sp(BX), SP // restore SP
MOVQ gobuf_ret(BX), AX
MOVQ gobuf_ctxt(BX), DX
MOVQ gobuf_bp(BX), BP
// 这里是在清空 gp.sched,因为后面曾经把 gobuf 里的字段值都存入了寄存器,// 所以 gp.sched 就能够提前清空了,不须要等到前面 GC 来回收,加重 GC 的累赘
MOVQ $0, gobuf_sp(BX) // clear to help garbage collector
MOVQ $0, gobuf_ret(BX)
MOVQ $0, gobuf_ctxt(BX)
MOVQ $0, gobuf_bp(BX)
// 把 gp.sched.pc 值放入 BX 寄存器
// PC 指针指向 gogo 退出时须要执行的函数地址
MOVQ gobuf_pc(BX), BX
// 用 BX 寄存器里的值去批改 CPU 的 IP 寄存器,// 这样就能够依据 CS:IP 寄存器的段地址 + 偏移量跳转到 BX 寄存器里的地址,也就是 gp.sched.pc
JMP BX
runtime.gogo
函数接管 gp.sched
这个 gobuf
构造体实例,其中保留了函数栈寄存器 SP/PC/BP,如果相熟操作系统原理的话能够晓得这些寄存器是 CPU 进行函数调用和返回时切换对应的函数栈帧所需的寄存器,而 goroutine 的执行和函数调用的原理是统一的,也是 CPU 寄存器的切换过程,所以这里的几个寄存器以后存的就是 G 的函数执行栈,当 goroutine 在解决网络 I/O 之时,如果恰好处于 I/O 就绪的状态的话,则失常实现 runtime.gogo
,并在最初跳转到特定的地址,那么这个地址是哪里呢?
咱们晓得 CPU 执行函数的时候须要晓得函数在内存里的代码段地址和偏移量,而后能力去取来函数栈执行,而典型的提供代码段地址和偏移量的寄存器就是 CS 和 IP 寄存器,而 JMP BX
指令则是用 BX 寄存器去更新 IP 寄存器,而 BX 寄存器里的值是 gp.sched.pc
,那么这个 PC 指针到底是指向哪里呢?让咱们来看另一处源码。
家喻户晓,启动一个新的 goroutine 是通过 go
关键字来实现的,而 go compiler 会在编译期间利用 cmd/compile/internal/gc.state.stmt
和 cmd/compile/internal/gc.state.call
这两个函数将 go
关键字翻译成 runtime.newproc
函数调用,而 runtime.newproc
接管了函数指针和其大小之后,会获取 goroutine 和调用处的程序计数器,接着再调用 runtime.newproc1
:
// Create a new g in state _Grunnable, starting at fn, with narg bytes
// of arguments starting at argp. callerpc is the address of the go
// statement that created this. The caller is responsible for adding
// the new g to the scheduler.
//
// This must run on the system stack because it's the continuation of
// newproc, which cannot split the stack.
//
//go:systemstack
func newproc1(fn *funcval, argp unsafe.Pointer, narg int32, callergp *g, callerpc uintptr) *g {
...
memclrNoHeapPointers(unsafe.Pointer(&newg.sched), unsafe.Sizeof(newg.sched))
newg.sched.sp = sp
newg.stktopsp = sp
// 把 goexit 函数地址存入 gobuf 的 PC 指针里
newg.sched.pc = funcPC(goexit) + sys.PCQuantum // +PCQuantum so that previous instruction is in same function
newg.sched.g = guintptr(unsafe.Pointer(newg))
gostartcallfn(&newg.sched, fn)
newg.gopc = callerpc
newg.ancestors = saveAncestors(callergp)
newg.startpc = fn.fn
if _g_.m.curg != nil {newg.labels = _g_.m.curg.labels}
if isSystemGoroutine(newg, false) {atomic.Xadd(&sched.ngsys, +1)
}
casgstatus(newg, _Gdead, _Grunnable)
...
}
这里能够看到,newg.sched.pc
被设置了 runtime.goexit
的函数地址,newg
就是前面 runtime.gogo
执行的 goroutine,因而 runtime.gogo
最初的汇编指令 JMP BX
是跳转到了 runtime.goexit
,让咱们来持续看看这个函数做了什么:
// The top-most function running on a goroutine
// returns to goexit+PCQuantum. Defined as ABIInternal
// so as to make it identifiable to traceback (this
// function it used as a sentinel; traceback wants to
// see the func PC, not a wrapper PC).
TEXT runtime·goexit<ABIInternal>(SB),NOSPLIT,$0-0
BYTE $0x90 // NOP
CALL runtime·goexit1(SB) // does not return
// traceback from goexit1 must hit code range of goexit
BYTE $0x90 // NOP
这个函数也是汇编实现的,然而非常简单,就是间接调用 runtime·goexit1
:
// Finishes execution of the current goroutine.
func goexit1() {
if raceenabled {racegoend()
}
if trace.enabled {traceGoEnd()
}
mcall(goexit0)
}
调用 runtime.mcall
函数:
// func mcall(fn func(*g))
// Switch to m->g0's stack, call fn(g).
// Fn must never return. It should gogo(&g->sched)
// to keep running g.
// 切换回 g0 的零碎堆栈,执行 fn(g)
TEXT runtime·mcall(SB), NOSPLIT, $0-8
// 取入参 funcval 对象的指针存入 DI 寄存器,此时 fn.fn 是 goexit0 的地址
MOVQ fn+0(FP), DI
get_tls(CX)
MOVQ g(CX), AX // save state in g->sched
MOVQ 0(SP), BX // caller's PC
MOVQ BX, (g_sched+gobuf_pc)(AX)
LEAQ fn+0(FP), BX // caller's SP
MOVQ BX, (g_sched+gobuf_sp)(AX)
MOVQ AX, (g_sched+gobuf_g)(AX)
MOVQ BP, (g_sched+gobuf_bp)(AX)
// switch to m->g0 & its stack, call fn
MOVQ g(CX), BX
MOVQ g_m(BX), BX
// 把 g0 的栈指针存入 SI 寄存器,前面须要用到
MOVQ m_g0(BX), SI
CMPQ SI, AX // if g == m->g0 call badmcall
JNE 3(PC)
MOVQ $runtime·badmcall(SB), AX
JMP AX
// 这两个指令是把 g0 地址存入到 TLS 里,// 而后从 SI 寄存器取出 g0 的栈指针,// 替换掉 SP 寄存器里存的以后 g 的栈指针
MOVQ SI, g(CX) // g = m->g0
MOVQ (g_sched+gobuf_sp)(SI), SP // sp = m->g0->sched.sp
PUSHQ AX
MOVQ DI, DX
// 入口处的第一个指令曾经把 funcval 实例对象的指针存入了 DI 寄存器,// 0(DI) 示意取出 DI 的第一个成员,即 goexit0 函数地址,再存入 DI
MOVQ 0(DI), DI
CALL DI // 调用 DI 寄存器里的地址,即 goexit0
POPQ AX
MOVQ $runtime·badmcall2(SB), AX
JMP AX
RET
能够看到 runtime.mcall
函数的次要逻辑是从以后 goroutine 切换回 g0 的零碎堆栈,而后调用 fn(g),此处的 g 即是以后运行的 goroutine,这个办法会保留以后运行的 G 的 PC/SP 到 g->sched 里,以便该 G 能够在当前被从新复原执行,因为也波及到寄存器和堆栈指针的操作,所以也须要应用汇编实现,该函数最初会在 g0 零碎堆栈下执行 runtime.goexit0
:
func goexit0(gp *g) {_g_ := getg()
casgstatus(gp, _Grunning, _Gdead)
if isSystemGoroutine(gp, false) {atomic.Xadd(&sched.ngsys, -1)
}
gp.m = nil
locked := gp.lockedm != 0
gp.lockedm = 0
_g_.m.lockedg = 0
gp.preemptStop = false
gp.paniconfault = false
gp._defer = nil // should be true already but just in case.
gp._panic = nil // non-nil for Goexit during panic. points at stack-allocated data.
gp.writebuf = nil
gp.waitreason = 0
gp.param = nil
gp.labels = nil
gp.timer = nil
if gcBlackenEnabled != 0 && gp.gcAssistBytes > 0 {
// Flush assist credit to the global pool. This gives
// better information to pacing if the application is
// rapidly creating an exiting goroutines.
scanCredit := int64(gcController.assistWorkPerByte * float64(gp.gcAssistBytes))
atomic.Xaddint64(&gcController.bgScanCredit, scanCredit)
gp.gcAssistBytes = 0
}
dropg()
if GOARCH == "wasm" { // no threads yet on wasm
gfput(_g_.m.p.ptr(), gp)
schedule() // never returns}
if _g_.m.lockedInt != 0 {print("invalid m->lockedInt =", _g_.m.lockedInt, "\n")
throw("internal lockOSThread error")
}
gfput(_g_.m.p.ptr(), gp)
if locked {
// The goroutine may have locked this thread because
// it put it in an unusual kernel state. Kill it
// rather than returning it to the thread pool.
// Return to mstart, which will release the P and exit
// the thread.
if GOOS != "plan9" { // See golang.org/issue/22227.
gogo(&_g_.m.g0.sched)
} else {
// Clear lockedExt on plan9 since we may end up re-using
// this thread.
_g_.m.lockedExt = 0
}
}
schedule()}
runtime.goexit0
的次要工作是就是
- 利用 CAS 操作把 g 的状态从
_Grunning
更新为_Gdead
; - 对 g 做一些清理操作,把一些字段值置空;
- 调用
runtime.dropg
解绑 g 和 m; - 把 g 放入 p 存储 g 的
gfree
链表作为缓存,后续如果须要启动新的 goroutine 则能够间接从链表里取而不必从新初始化分配内存。 - 最初,调用
runtime.schedule()
再次进入调度循环去调度新的 goroutines,永不停歇。
另一方面,如果 goroutine 处于 I/O 不可用状态,咱们后面曾经剖析过 netpoller 利用非阻塞 I/O + I/O 多路复用防止了陷入零碎调用,所以此时会调用 runtime.gopark
并把 goroutine 临时封存在用户态空间,并休眠以后的 goroutine,因而不会阻塞 runtime.gogo
的汇编执行,而是通过 runtime.mcall
调用 runtime.park_m
:
func gopark(unlockf func(*g, unsafe.Pointer) bool, lock unsafe.Pointer, reason waitReason, traceEv byte, traceskip int) {
if reason != waitReasonSleep {checkTimeouts() // timeouts may expire while two goroutines keep the scheduler busy
}
mp := acquirem()
gp := mp.curg
status := readgstatus(gp)
if status != _Grunning && status != _Gscanrunning {throw("gopark: bad g status")
}
mp.waitlock = lock
mp.waitunlockf = unlockf
gp.waitreason = reason
mp.waittraceev = traceEv
mp.waittraceskip = traceskip
releasem(mp)
// can't do anything that might move the G between Ms here.
mcall(park_m)
}
func park_m(gp *g) {_g_ := getg()
if trace.enabled {traceGoPark(_g_.m.waittraceev, _g_.m.waittraceskip)
}
casgstatus(gp, _Grunning, _Gwaiting)
dropg()
if fn := _g_.m.waitunlockf; fn != nil {ok := fn(gp, _g_.m.waitlock)
_g_.m.waitunlockf = nil
_g_.m.waitlock = nil
if !ok {
if trace.enabled {traceGoUnpark(gp, 2)
}
casgstatus(gp, _Gwaiting, _Grunnable)
execute(gp, true) // Schedule it back, never returns.
}
}
schedule()}
runtime.mcall
办法咱们在后面曾经介绍过,它次要的工作就是是从以后 goroutine 切换回 g0 的零碎堆栈,而后调用 fn(g),而此时 runtime.mcall
调用执行的是 runtime.park_m
,这个办法里会利用 CAS 把以后运行的 goroutine — gp 的状态 从 _Grunning
切换到 _Gwaiting
,表明该 goroutine 已进入到期待唤醒状态,此时封存和休眠 G 的操作就实现了,只需期待就绪之后被从新唤醒执行即可。最初调用 runtime.schedule()
再次进入调度循环,去执行下一个 goroutine,充分利用 CPU。
至此,咱们实现了对 Go netpoller 原理分析的整个闭环。
Go netpoller 的问题
Go netpoller 的设计不堪称不精美、性能也不堪称不高,配合 goroutine 开发网络应用的时候就一个字:爽。因而 Go 的网络编程模式是及其简洁高效的,然而,没有任何一种设计和架构是完满的,goroutine-per-connection
这种模式尽管简略高效,然而在某些极其的场景下也会暴露出问题:goroutine 尽管十分轻量,它的自定义栈内存初始值仅为 2KB,前面按需扩容;海量连贯的业务场景下,goroutine-per-connection
,此时 goroutine 数量以及耗费的资源就会呈线性趋势暴涨,尽管 Go scheduler 外部做了 g 的缓存链表,能够肯定水平上缓解高频创立销毁 goroutine 的压力,然而对于瞬时性暴涨的长连贯场景就无能为力了,大量的 goroutines 会被一直创立进去,从而对 Go runtime scheduler 造成极大的调度压力和强占系统资源,而后资源被强占又反过来影响 Go scheduler 的调度,进而导致性能降落。
Reactor 网络模型
目前 Linux 平台上支流的高性能网络库 / 框架中,大都采纳 Reactor 模式,比方 netty、libevent、libev、ACE,POE(Perl)、Twisted(Python)等。
Reactor 模式实质上指的是应用 I/O 多路复用(I/O multiplexing) + 非阻塞 I/O(non-blocking I/O)
的模式。
通常设置一个主线程负责做 event-loop 事件循环和 I/O 读写,通过 select/poll/epoll_wait 等零碎调用监听 I/O 事件,业务逻辑提交给其余工作线程去做。而所谓『非阻塞 I/O』的核心思想是指防止阻塞在 read() 或者 write() 或者其余的 I/O 零碎调用上,这样能够最大限度的复用 event-loop 线程,让一个线程能服务于多个 sockets。在 Reactor 模式中,I/O 线程只能阻塞在 I/O multiplexing 函数上(select/poll/epoll_wait)。
Reactor 模式的根本工作流程如下:
- Server 端实现在
bind&listen
之后,将 listenfd 注册到 epollfd 中,最初进入 event-loop 事件循环。循环过程中会调用select/poll/epoll_wait
阻塞期待,若有在 listenfd 上的新连贯事件则解除阻塞返回,并调用socket.accept
接管新连贯 connfd,并将 connfd 退出到 epollfd 的 I/O 复用(监听)队列。 - 当 connfd 上产生可读 / 可写事件也会解除
select/poll/epoll_wait
的阻塞期待,而后进行 I/O 读写操作,这里读写 I/O 都是非阻塞 I/O,这样才不会阻塞 event-loop 的下一个循环。然而,这样容易割裂业务逻辑,不易了解和保护。 - 调用
read
读取数据之后进行解码并放入队列中,期待工作线程解决。 - 工作线程解决完数据之后,返回到 event-loop 线程,由这个线程负责调用
write
把数据写回 client。
accept 连贯以及 conn 上的读写操作若是在主线程实现,则要求是非阻塞 I/O,因为 Reactor 模式一条最重要的准则就是:I/O 操作不能阻塞 event-loop 事件循环。实际上 event loop 可能也能够是多线程的,只是一个线程里只有一个 select/poll/epoll_wait。
下面提到了 Go netpoller 在某些场景下可能因为创立太多的 goroutine 而过多地耗费系统资源,而在事实世界的网络业务中,服务器持有的海量连贯中在极短的工夫窗口内只有极少数是 active 而大多数则是 idle,就像这样(非实在数据,仅仅是为了比喻):
那么为每一个连贯指派一个 goroutine 就显得太过侈靡了,而 Reactor 模式这种利用 I/O 多路复用进而只须要应用大量线程即可治理海量连贯的设计就能够在这样网络业务中大显神通了:
在绝大部分利用场景下,我举荐大家还是遵循 Go 的 best practices,应用原生的 Go 网络库来构建本人的网络应用。然而,在某些极度谋求性能、压迫系统资源以及技术栈必须是原生 Go(不思考 C/C++ 写中间层而 Go 写业务层)的业务场景下,咱们能够思考本人构建 Reactor 网络模型。
gnet
gnet 是一个基于事件驱动的高性能和轻量级网络框架。它间接应用 epoll 和 kqueue 零碎调用而非标准 Go 网络包:net 来构建网络应用,它的工作原理相似两个开源的网络库:netty 和 libuv,这也使得gnet
达到了一个远超 Go net 的性能体现。
gnet
设计开发的初衷不是为了取代 Go 的规范网络库:net,而是为了发明出一个相似于 Redis、Haproxy 能高效解决网络包的 Go 语言网络服务器框架。
gnet
的卖点在于它是一个高性能、轻量级、非阻塞的纯 Go 实现的传输层(TCP/UDP/Unix Domain Socket)网络框架,开发者能够应用 gnet
来实现本人的应用层网络协议(HTTP、RPC、Redis、WebSocket 等等),从而构建出本人的应用层网络应用:比方在 gnet
上实现 HTTP 协定就能够创立出一个 HTTP 服务器 或者 Web 开发框架,实现 Redis 协定就能够创立出本人的 Redis 服务器等等。
gnet,在某些极其的网络业务场景,比方海量连贯、高频短连贯、网络小包等等场景,gnet 在性能和资源占用上都远超 Go 原生的 net 包(基于 netpoller)。
gnet
曾经实现了 Multi-Reactors
和 Multi-Reactors + Goroutine Pool
两种网络模型,也得益于这些网络模型,使得 gnet
成为一个高性能和低损耗的 Go 网络框架:
???? 性能
- [x] 高性能 的基于多线程 /Go 程网络模型的 event-loop 事件驱动
- [x] 内置 goroutine 池,由开源库 ants 提供反对
- [x] 内置 bytes 内存池,由开源库 bytebufferpool 提供反对
- [x] 整个生命周期是无锁的
- [x] 简略易用的 APIs
- [x] 基于 Ring-Buffer 的高效且可重用的内存 buffer
- [x] 反对多种网络协议 /IPC 机制:
TCP
、UDP
和Unix Domain Socket
- [x] 反对多种负载平衡算法:
Round-Robin(轮询)
、Source-Addr-Hash(源地址哈希)
和Least-Connections(起码连接数)
- [x] 反对两种事件驱动机制:Linux 里的
epoll
以及 FreeBSD/DragonFly/Darwin 里的kqueue
- [x] 反对异步写操作
- [x] 灵便的事件定时器
- [x] SO_REUSEPORT 端口重用
- [x] 内置多种编解码器,反对对 TCP 数据流分包:LineBasedFrameCodec, DelimiterBasedFrameCodec, FixedLengthFrameCodec 和 LengthFieldBasedFrameCodec,参考自 netty codec,而且反对自定制编解码器
- [x] 反对 Windows 平台,基于
IOCP 事件驱动机制Go 规范网络库 - [] 实现
gnet
客户端
参考 & 延长浏览
- The Go netpoller
- Nonblocking I/O
- epoll(7) — Linux manual page
- I/O Multiplexing: The
select
andpoll
Functions - The method to epoll’s madness
- Scalable Go Scheduler Design Doc
- Scheduling In Go : Part I – OS Scheduler
- Scheduling In Go : Part II – Go Scheduler
- Scheduling In Go : Part III – Concurrency
- Goroutines, Nonblocking I/O, And Memory Usage
- IO 多路复用与 Go 网络库的实现
- 对于 select 函数中 timeval 和 fd_set 从新设置的问题
- A Million WebSockets and Go
- Going Infinite, handling 1M websockets connections in Go
- 字节跳动在 Go 网络库上的实际