共计 8906 个字符,预计需要花费 23 分钟才能阅读完成。
微信公众号【Java 技术江湖】一位阿里 Java 工程师的技术小站。(关注公众号后回复”Java“即可领取 Java 基础、进阶、项目和架构师等免费学习资料,更有数据库、分布式、微服务等热门技术学习视频,内容丰富,兼顾原理和实践,另外也将赠送作者原创的 Java 学习指南、Java 程序员面试指南等干货资源)
基本概念说明
用户空间与内核空间
现在操作系统都是采用虚拟存储器,那么对 32 位操作系统而言,它的寻址空间(虚拟存储空间)为 4G(2 的 32 次方)。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。为了保证用户进程不能直接操作内核(kernel),保证内核的安全,操作系统将虚拟空间划分为两部分,一部分为内核空间,一部分为用户空间。针对 linux 操作系统而言,将最高的 1G 字节(从虚拟地址 0xC0000000 到 0xFFFFFFFF),供内核使用,称为内核空间,而将较低的 3G 字节(从虚拟地址 0x00000000 到 0xBFFFFFFF),供各个进程使用,称为用户空间。
进程切换
为了控制进程的执行,内核必须有能力挂起正在 CPU 上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。因此可以说,任何进程都是在操作系统内核的支持下运行的,是与内核紧密相关的。
从一个进程的运行转到另一个进程上运行,这个过程中经过下面这些变化:
- 保存处理机上下文,包括程序计数器和其他寄存器。
- 更新 PCB 信息。
- 把进程的 PCB 移入相应的队列,如就绪、在某事件阻塞等队列。选择另一个进程执行,并更新其 PCB。
- 更新内存管理的数据结构。
- 恢复处理机上下文。
进程的阻塞
正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得 CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用 CPU 资源的。
文件描述符
文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表述指向文件的引用的抽象化概念。
文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于 UNIX、Linux 这样的操作系统。
缓存 IO
缓存 IO 又被称作标准 IO,大多数文件系统的默认 IO 操作都是缓存 IO。在 Linux 的缓存 IO 机制中,操作系统会将 IO 的数据缓存在文件系统的页缓存(page cache)中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。
缓存 IO 的缺点:
数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。
IO 模型介绍
作者:cooffeelis
链接:https://www.jianshu.com/p/511…
來源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
常用的 5 种 IO 模型:
blocking IO
nonblocking IO
IO multiplexing
signal driven IO
asynchronous IO
再说一下 IO 发生时涉及的对象和步骤:
对于一个 network IO (这里我们以 read 举例),它会涉及到两个系统对象:
- 一个是调用这个 IO 的 process (or thread)
- 一个就是系统内核(kernel)
当一个 read 操作发生时,它会经历两个阶段:
- 等待数据准备, 比如 accept(), recv()等待数据
(Waiting for the data to be ready)
- 将数据从内核拷贝到进程中, 比如 accept()接受到请求,recv()接收连接发送的数据后需要复制到内核, 再从内核复制到进程用户空间
(Copying the data from the kernel to the process)
对于 socket 流而言, 数据的流向经历两个阶段:
- 第一步通常涉及等待网络上的数据分组到达,然后被复制到内核的某个缓冲区。
- 第二步把数据从内核缓冲区复制到应用进程缓冲区。
记住这两点很重要,因为这些 IO Model 的区别就是在两个阶段上各有不同的情况。
阻塞 I/O(blocking IO)
- *
在 linux 中,默认情况下所有的 socket 都是 blocking,一个典型的读操作流程大概是这样:
阻塞 IO 流程
当用户进程调用了 recvfrom 这个系统调用,kernel 就开始了 IO 的第一个阶段:准备数据(对于网络 IO 来说,很多时候数据在一开始还没有到达。比如,还没有收到一个完整的 UDP 包。这个时候 kernel 就要等待足够的数据到来)。这个过程需要等待,也就是说数据被拷贝到 操作系统内核的缓冲区 中是需要一个过程的。而在用户进程这边,整个进程会被阻塞(当然,是进程自己选择的阻塞)。当 kernel 一直等到数据准备好了,它就会 将数据从 kernel 中拷贝到用户内存,然后 kernel 返回结果,用户进程才解除 block 的状态,重新运行起来。
所以,blocking IO 的特点就是在 IO 执行的两个阶段都被 block 了。
非阻塞 I/O(nonblocking IO)
- *
linux 下,可以通过设置 socket 使其变为 non-blocking。当对一个 non-blocking socket 执行读操作时,流程是这个样子:
非阻塞 I/O 流程
当用户进程发出 read 操作时,如果 kernel 中的数据还没有准备好,那么它并不会 block 用户进程,而是立刻返回一个 error。从用户进程角度讲,它发起一个 read 操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个 error 时,它就知道数据还没有准备好,于是它可以再次发送 read 操作。一旦 kernel 中的数据准备好了,并且又再次收到了用户进程的 system call,那么它马上就将数据拷贝到了用户内存,然后返回。
所以,nonblocking IO 的特点是用户进程需要不断的主动询问 kernel 数据好了没有。
值得注意的是, 此时的非阻塞 IO 只是应用到等待数据上, 当真正有数据到达执行 recvfrom 的时候, 还是同步阻塞 IO 来的, 从图中的 copy data from kernel to user 可以看出
I/O 多路复用(IO multiplexing)
- *
IO multiplexing 就是我们说的 select,poll,epoll,有些地方也称这种 IO 方式为 event driven IO。select/epoll 的好处就在于单个 process 就可以同时处理多个网络连接的 IO。它的基本原理就是 select,poll,epoll 这个 function 会不断的轮询所负责的所有 socket,当某个 socket 有数据到达了,就通知用户进程。
I/O 多路复用流程
这个图和 blocking IO 的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个 system call (select 和 recvfrom),而 blocking IO 只调用了一个 system call (recvfrom)。但是,用 select 的优势在于它可以同时处理多个 connection。
所以,如果处理的连接数不是很高的话,使用 select/epoll 的 web server 不一定比使用 multi-threading + blocking IO 的 web server 性能更好,可能延迟还更大。select/epoll 的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)
IO 复用的实现方式目前主要有 select、poll 和 epoll。
select 和 poll 的原理基本相同:
- 注册待侦听的 fd(这里的 fd 创建时最好使用非阻塞)
- 每次调用都去检查这些 fd 的状态,当有一个或者多个 fd 就绪的时候返回
- 返回结果中包括已就绪和未就绪的 fd
相比 select,poll 解决了单个进程能够打开的文件描述符数量有限制这个问题:select 受限于 FD_SIZE 的限制,如果修改则需要修改这个宏重新编译内核;而 poll 通过一个 pollfd 数组向内核传递需要关注的事件,避开了文件描述符数量限制。
此外,select 和 poll 共同具有的一个很大的缺点就是包含大量 fd 的数组被整体复制于用户态和内核态地址空间之间,开销会随着 fd 数量增多而线性增大。
select 和 poll 就类似于上面说的就餐方式。但当你每次都去询问时,老板会把所有你点的饭菜都轮询一遍再告诉你情况,当大量饭菜很长时间都不能准备好的情况下是很低效的。于是,老板有些不耐烦了,就让厨师每做好一个菜就通知他。这样每次你再去问的时候,他会直接把已经准备好的菜告诉你,你再去端。这就是事件驱动 IO 就绪通知的方式 -epoll。
epoll 的出现,解决了 select、poll 的缺点:
- 基于事件驱动的方式,避免了每次都要把所有 fd 都扫描一遍。
- epoll_wait 只返回就绪的 fd。
- epoll 使用 nmap 内存映射技术避免了内存复制的开销。
- epoll 的 fd 数量上限是操作系统的最大文件句柄数目, 这个数目一般和内存有关,通常远大于 1024。
目前,epoll 是 Linux2.6 下最高效的 IO 复用方式,也是 Nginx、Node 的 IO 实现方式。而在 freeBSD 下,kqueue 是另一种类似于 epoll 的 IO 复用方式。
此外,对于 IO 复用还有一个水平触发和边缘触发的概念:
- 水平触发:当就绪的 fd 未被用户进程处理后,下一次查询依旧会返回,这是 select 和 poll 的触发方式。
- 边缘触发:无论就绪的 fd 是否被处理,下一次不再返回。理论上性能更高,但是实现相当复杂,并且任何意外的丢失事件都会造成请求处理错误。epoll 默认使用水平触发,通过相应选项可以使用边缘触发。
点评:
I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪状态,select()函数就可以返回。
所以, IO 多路复用,本质上不会有并发的功能,因为任何时候还是只有一个进程或线程进行工作,它之所以能提高效率是因为 selectepoll 把进来的 socket 放到他们的 ‘ 监视 ’ 列表里面,当任何 socket 有可读可写数据立马处理,那如果 selectepoll 手里同时检测着很多 socket,一有动静马上返回给进程处理,总比一个一个 socket 过来, 阻塞等待, 处理高效率。
当然也可以多线程 / 多进程方式,一个连接过来开一个进程 / 线程处理,这样消耗的内存和进程切换页会耗掉更多的系统资源。
所以我们可以结合 IO 多路复用和多进程 / 多线程 来高性能并发,IO 复用负责提高接受 socket 的通知效率,收到请求后,交给进程池 / 线程池来处理逻辑。信号驱动
上文的就餐方式还是需要你每次都去问一下饭菜状况。于是,你再次不耐烦了,就跟老板说,哪个饭菜好了就通知我一声吧。然后就自己坐在桌子那里干自己的事情。更甚者,你可以把手机号留给老板,自己出门,等饭菜好了直接发条短信给你。这就类似信号驱动的 IO 模型。
流程如下:
- 开启套接字信号驱动 IO 功能
- 系统调用 sigaction 执行信号处理函数(非阻塞,立刻返回)
- 数据就绪,生成 sigio 信号,通过信号回调通知应用来读取数据。
此种 io 方式存在的一个很大的问题:Linux 中信号队列是有限制的,如果超过这个数字问题就无法读取数据。
异步非阻塞
异步 I/O(asynchronous IO)
- *
linux 下的 asynchronous IO 其实用得很少。先看一下它的流程:
异步 IO 流程
用户进程发起 read 操作之后,立刻就可以开始去做其它的事。而另一方面,从 kernel 的角度,当它受到一个 asynchronous read 之后,首先它会立刻返回,所以不会对用户进程产生任何 block。然后,kernel 会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel 会给用户进程发送一个 signal,告诉它 read 操作完成了。
阻塞 IO, 非阻塞 IO 与 同步 IO, 异步 IO 的区别和联系
阻塞 IO VS 非阻塞 IO:
概念:
阻塞和非阻塞关注的是 程序在等待调用结果(消息,返回值)时的状态.
阻塞调用是指调用结果返回之前,当前线程会被挂起。调用线程只有在得到结果之后才会返回。非阻塞调用指在不能立刻得到结果之前,该调用不会阻塞当前线程。
例子:你打电话问书店老板有没有《分布式系统》这本书,你如果是阻塞式调用,你会一直把自己“挂起”,直到得到这本书有没有的结果,如果是非阻塞式调用,你不管老板有没有告诉你,你自己先一边去玩了,当然你也要偶尔过几分钟 check 一下老板有没有返回结果。在这里阻塞与非阻塞与是否同步异步无关。跟老板通过什么方式回答你结果无关。
- *
分析:
阻塞 IO 会一直 block 住对应的进程直到操作完成,而非阻塞 IO 在 kernel 还准备数据的情况下会立刻返回。
同步 IO VS 异步 IO:
概念:
同步与异步同步和异步关注的是___消息通信机制 ___(synchronous communication/ asynchronous communication)所谓同步,就是在发出一个_调用_时,在没有得到结果之前,该_调用_就不返回。但是一旦调用返回,就得到返回值了。换句话说,就是由_调用者_主动等待这个_调用_的结果。而异步则是相反,_调用_在发出之后,这个调用就直接返回了,所以没有返回结果。换句话说,当一个异步过程调用发出后,调用者不会立刻得到结果。而是在_调用_发出后,_被调用者_通过状态、通知来通知调用者,或通过回调函数处理这个调用。
典型的异步编程模型比如 Node.js 举个通俗的例子:你打电话问书店老板有没有《分布式系统》这本书,如果是同步通信机制,书店老板会说,你稍等,”我查一下 ”,然后开始查啊查,等查好了(可能是 5 秒,也可能是一天)告诉你结果(返回结果)。而异步通信机制,书店老板直接告诉你我查一下啊,查好了打电话给你,然后直接挂电话了(不返回结果)。然后查好了,他会主动打电话给你。在这里老板通过“回电”这种方式来回调。
- *
分析:
在说明同步 IO 和异步 IO 的区别之前,需要先给出两者的定义。Stevens 给出的定义(其实是 POSIX 的定义)是这样子的:
A synchronous I/O operation causes the requesting process to be blocked until that I/O operation completes;
An asynchronous I/O operation does not cause the requesting process to be blocked;
两者的区别就在于同步 IO 做”IO operation”的时候会将 process 阻塞。按照这个定义,之前所述的 阻塞 IO, 非阻塞 IO,IO 复用都属于同步 IO。
有人可能会说,非阻塞 IO 并没有被 block 啊。这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的 IO 操作,就是例子中的 recvfrom 这个 system call。非阻塞 IO 在执行 recvfrom 这个 system call 的时候,如果 kernel 的数据没有准备好,这时候不会 block 进程。但是,当 kernel 中数据准备好的时候,recvfrom 会将数据从 kernel 拷贝到用户内存中,这个时候进程是被 block 了,在这段时间内,进程是被 block 的。
而异步 IO 则不一样,当进程发起 IO 操作之后,就直接返回再也不理睬了,直到 kernel 发送一个信号,告诉进程说 IO 完成。在这整个过程中,进程完全没有被 block。
IO 模型的形象举例
最后,再举几个不是很恰当的例子来说明这四个 IO Model:
有 A,B,C,D 四个人在钓鱼:
A 用的是最老式的鱼竿,所以呢,得一直守着,等到鱼上钩了再拉杆;
B 的鱼竿有个功能,能够显示是否有鱼上钩,所以呢,B 就和旁边的 MM 聊天,隔会再看看有没有鱼上钩,有的话就迅速拉杆;
C 用的鱼竿和 B 差不多,但他想了一个好办法,就是同时放好几根鱼竿,然后守在旁边,一旦有显示说鱼上钩了,它就将对应的鱼竿拉起来;
D 是个有钱人,干脆雇了一个人帮他钓鱼,一旦那个人把鱼钓上来了,就给 D 发个短信。
Select/Poll/Epoll 轮询机制
select,poll,epoll 本质上都是同步 I /O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的
Select/Poll/Epoll 都是 IO 复用的实现方式,上面说了使用 IO 复用,会把 socket 设置成 non-blocking,然后放进 Select/Poll/Epoll 各自的监视列表里面,那么,他们的对 socket 是否有数据到达的监视机制分别是怎样的?效率又如何?我们应该使用哪种方式实现 IO 复用比较好?下面列出他们各自的实现方式,效率,优缺点:
(1)select,poll 实现需要自己不断轮询所有 fd 集合,直到设备就绪,期间可能要睡眠和唤醒多次交替。而 epoll 其实也需要调用 epoll_wait 不断轮询就绪链表,期间也可能多次睡眠和唤醒交替,但是它是设备就绪时,调用回调函数,把就绪 fd 放入就绪链表中,并唤醒在 epoll_wait 中进入睡眠的进程。虽然都要睡眠和交替,但是 select 和 poll 在“醒着”的时候要遍历整个 fd 集合,而 epoll 在“醒着”的时候只要判断一下就绪链表是否为空就行了,这节省了大量的 CPU 时间。这就是回调机制带来的性能提升。
(2)select,poll 每次调用都要把 fd 集合从用户态往内核态拷贝一次,并且要把 current 往设备等待队列中挂一次,而 epoll 只要一次拷贝,而且把 current 往等待队列上挂也只挂一次(在 epoll_wait 的开始,注意这里的等待队列并不是设备等待队列,只是一个 epoll 内部定义的等待队列)。这也能节省不少的开销。
Java 网络编程模型
上文讲述了 UNIX 环境的五种 IO 模型。基于这五种模型,在 Java 中,随着 NIO 和 NIO2.0(AIO)的引入,一般具有以下几种网络编程模型:
- BIO
- NIO
- AIO
BIO
BIO 是一个典型的网络编程模型,是通常我们实现一个服务端程序的过程,步骤如下:
- 主线程 accept 请求阻塞
- 请求到达,创建新的线程来处理这个套接字,完成对客户端的响应。
- 主线程继续 accept 下一个请求
这种模型有一个很大的问题是:当客户端连接增多时,服务端创建的线程也会暴涨,系统性能会急剧下降。因此,在此模型的基础上,类似于 tomcat 的 bio connector,采用的是线程池来避免对于每一个客户端都创建一个线程。有些地方把这种方式叫做伪异步 IO(把请求抛到线程池中异步等待处理)。
NIO
JDK1.4 开始引入了 NIO 类库,这里的 NIO 指的是 New IO,主要是使用 Selector 多路复用器来实现。Selector 在 Linux 等主流操作系统上是通过 epoll 实现的。
NIO 的实现流程,类似于 select:
- 创建 ServerSocketChannel 监听客户端连接并绑定监听端口,设置为非阻塞模式。
- 创建 Reactor 线程,创建多路复用器 (Selector) 并启动线程。
- 将 ServerSocketChannel 注册到 Reactor 线程的 Selector 上。监听 accept 事件。
- Selector 在线程 run 方法中无线循环轮询准备就绪的 Key。
- Selector 监听到新的客户端接入,处理新的请求,完成 tcp 三次握手,建立物理连接。
- 将新的客户端连接注册到 Selector 上,监听读操作。读取客户端发送的网络消息。
- 客户端发送的数据就绪则读取客户端请求,进行处理。
相比 BIO,NIO 的编程非常复杂。
AIO
JDK1.7 引入 NIO2.0,提供了异步文件通道和异步套接字通道的实现。其底层在 windows 上是通过 IOCP,在 Linux 上是通过 epoll 来实现的(LinuxAsynchronousChannelProvider.java,UnixAsynchronousServerSocketChannelImpl.java)。
- 创建 AsynchronousServerSocketChannel,绑定监听端口
- 调用 AsynchronousServerSocketChannel 的 accpet 方法,传入自己实现的 CompletionHandler。包括上一步,都是非阻塞的
- 连接传入,回调 CompletionHandler 的 completed 方法,在里面,调用 AsynchronousSocketChannel 的 read 方法,传入负责处理数据的 CompletionHandler。
- 数据就绪,触发负责处理数据的 CompletionHandler 的 completed 方法。继续做下一步处理即可。
- 写入操作类似,也需要传入 CompletionHandler。
其编程模型相比 NIO 有了不少的简化。
对比
. | 同步阻塞 IO | 伪异步 IO | NIO | AIO |
---|---|---|---|---|
客户端数目:IO 线程 | 1 : 1 | m : n | m : 1 | m : 0 |
IO 模型 | 同步阻塞 IO | 同步阻塞 IO | 同步非阻塞 IO | 异步非阻塞 IO |
吞吐量 | 低 | 中 | 高 | 高 |
编程复杂度 | 简单 | 简单 | 非常复杂 | 复杂 |
微信公众号【黄小斜】作者是蚂蚁金服 JAVA 工程师,目前在蚂蚁财富负责后端开发工作,专注于 JAVA 后端技术栈,同时也懂点投资理财,坚持学习和写作,用大厂程序员的视角解读技术与互联网,我的世界里不只有 coding!关注公众号后回复”架构师“即可领取 Java 基础、进阶、项目和架构师等免费学习资料,更有数据库、分布式、微服务等热门技术学习视频,内容丰富,兼顾原理和实践,另外也将赠送作者原创的 Java 学习指南、Java 程序员面试指南等干货资源