关于后端:必知必会的大厂面试计算机基础和概念

27次阅读

共计 4569 个字符,预计需要花费 12 分钟才能阅读完成。

最近在翻阅文章时,看到敌人举荐的《程序员的自我涵养》,这是一本讲链接、装载与库的计算机图书,看了下目录后感觉挺有意思。

因而决定每读一章就将其读书笔记整顿记录下来,分享给大家。

目录:

不要让 CPU 打盹

在计算机倒退晚期,CPU 资源非常低廉。如果一个 CPU 只能运行一个程序,那么当程序在读写磁盘(进行 I/O 操作)时,CPU 就闲暇下来了。这在过后几乎就是微小的节约。

CPU 只能和一个程序 A“聊天“,其余来再多的程序 BCD,都没有任何操作的空间。就像早年的手机,打电话和上网(语音 / 数据)只能二选一,作为 CPU 的你,并不能多线程操作。

因而机智的人们很快就编写了一些监控程序,心愿来解决这个问题。

多道程序(Multiprogramming)

多道程序起,操作系统正式具备同时运行多个程序的能力。

其是让 CPU 一次读取多个程序放入内存中。当某个程序临时毋庸应用 CPU 时,监控程序就把另外的正在期待 CPU 资源的程序启动,以此使得 CPU 可能充沛地利用起来。这种策略确实大大的进步了 CPU 资源的利用率。

实在场景

你在 Windows 上点击鼠标 10 分钟当前零碎才有反馈,那是如许无奈的事件。因为没有优先级辨别,天然一路排下来也就不晓得要等到什么时候了,相当于半饿死。

存在的问题

外围问题在于程序之间的调度策略太毛糙。对于多道程序来删,程序之间局部轻重缓急,也就是说不存在优先级的辨别。因而如果有些程序急需应用 CPU 来实现一些工作,那么很有可能会很长时间后才有机会被调配到 CPU,才得以持续往下运行。

分时系统(Time-Sharing System)

程序运行模式改为合作的模式,在原有的多道程序持续降级革新,即每个程序运行一段时间当前都被动让出 CPU 给其余程序,使得一段时间内每个程序都有机会运行一小段。

实在场景

比方你点击一下鼠标或按下一个键盘按键后,他会相较前者可能更快的失去响应,因为他好歹是存在切换的可能性。

存在问题

这时候的监控程序曾经比原有多道程序的模式曾经简单了不少,残缺的操作系统雏形曾经根本造成,很晚期的 Windows(Windows 95 和 Windows NT 之前),MacOS X 之前的 MacOS 版本都是采纳这种分时系统的形式来进行程序调度。

其依然存在问题,外围在于若一个程序始终在进行一个耗时计算,便会始终霸占着 CPU 不放,那么操作系统也没有不放,就会导致其余程序都只能有限期待,相当于就是零碎假死了。

多任务零碎(Multi-tasking)

背景

在分时系统中,一个程序死循环就会导致系统假死,并且其运行效率并不高,只能解决过后的交互式环境。

放在当初来讲,曾经齐全没法很好的运行。因而过后业界也在钻研更为先进的操作系统模式,也就是当初最为风行也是最相熟的多任务零碎。

解决方案

在多任务零碎中,所有的应用程序都以进行(Process)的形式运行,其有以下特点:

  • 每个过程都有本人独立的地址空间,因而各过程之间互相隔离。
  • 每个 CPU 都由操作系统对立进行调配。
  • 每个过程依据其优先级的高下都有机会失去 CPU。

但须要留神的是,若是过程运行超出了指定的工夫,操作系统就会暂停该过程,将 CPU 资源分配给其余期待运行的过程。这种 CPU 的调配形式个别称作抢占式(Preemptive)。

通过这种形式,操作系统就能够强制剥夺 CPU 资源并且调配给它认为目前最须要资源的过程,如果调配给每个过程的工夫都很短,即 CPU 在多个过程间疾速切换,就能够造成多个过程同时在运行的假象。

内存不够用怎么办

在晚期的计算机中,程序是间接运行在物理内存上的,拜访的内存地址都是物理地址。假如只是一个过程在跑,可能内存资源还够用,但实际上为了更无效地利用硬件资源,咱们必须运行多个程序,CPU 的利用率才会比拟高。这时候就会遇到一个重大的问题,那就是如何将计算机上无限的物理内存调配给多个程序应用?

就像上图,每个程序他都想申请 1GB 的内容,而计算机本身只有 1GB 的物理内存,基本没有方法真正的执行。

实在场景和问题

可能会有小伙伴想,煎鱼你举的例子太极其了,咱们举个”失常“点的例子。假如计算机有 128MB 内存,程序 A 运行须要 10MB,程序 B 须要 100MB,程序 C 须要 20 MB。假如该几个程序运行时,咱们依照其想要的一调配,不就好了吗?

但事实并不是这样,这种简略的内存调配策略存在许多的问题:

  • 地址空间不隔离:所有程序都间接拜访物理地址,各程序所应用的内存空间并不是互相独立,很容易改写到其余程序的内存地址。
  • 内存应用效率低:没有无效的内存管理机制,一会运行程序 A,一会运行程序 B,就须要常常要将大量数据换出换入,效率非常低下。
  • 程序运行的地址不确定:每次程序运行时,都须要从内存中给其调配一块足够大的闲暇区域,但这些内存区域地位是不确定的,给程序编写造成了肯定的麻烦。

解决办法

解决上述问题的解决思路,就是万能的法宝:减少中间层,即应用一种间接的地址拜访办法。把程序给出的地址看作是一种虚拟地址(Virtual Address),而后通过某些映射的办法,将这个虚拟地址最终转换成理论的物理地址。

上述提到了两个十分重要的内存概念:

  • 物理地址空间:是实实在在存在的,存在于计算机中,且对每一台计算机来说只有惟一的一个,你能够将其设想为物理内存。
  • 虚拟地址空间:是指虚构的、人们设想进去的地址空间。其实它并不存在,每个过程都有本人的独立虚拟空间,且每个过程只能拜访本人的地址空间。

如此一来,操作系统只须要管制虚拟地址到物理地址的映射过程,就能够保障任意一个程序锁你拜访的物理内存区域和另外一个程序不重叠,以达到地址空间隔离的成果。

另外须要分明虚拟存储的实现须要依附硬件的反对,对于不同的 CPU 来说不同。但大多采纳 MMU(Memory Management Unit)的部件来进行页映射:

CPU 收回的是虚拟地址(Virtual Address),也就是日常程序中所看到的是虚拟地址。通过 MMU 转换后就会变成物理地址(Physical Address)。

目前常见的 MMU 均已集成在 CPU 外部了,不会再以独立部件存在。

线程的那些事

线程(Thread),有时候被称为轻量级过程,是程序执行流程的最小单元。一个规范的线程由线程 ID、以后指令指针(PC)、寄存器汇合和堆栈组成。

通常一个过程由一个到多个线程组成,各个线程之间共享程序的内存空间(包含代码段、数据段、堆等)及一些过程级的资源(如关上文件和信号)。

为什么须要多线程

  • 某个操作可能会陷入长时间期待,期待的线程会进入睡眠状态,无奈继续执行。多线程执行能够无效利用期待的工夫。典型的例子是期待网络响应,这时候就能够切换了。
  • 某个操作会耗费大量的工夫,如果只有一个线程,程序和用户之间的交互会中断。多线程的状况下,能够让一个线程负责交互,另外一个线程负责计算。
  • 程序逻辑自身就要求并发操作,例如一个多端下载软件。
  • 多 CPU 或多核计算机,其自身就具备同时执行多个线程的能力。
  • 绝对于多过程利用,多线程在数据共享方面效率会高很多。

线程的拜访权限

线程能够拜访过程内存里的所有数据,甚至在晓得堆栈地址的状况下,能够拜访其余线程里的堆栈信息。其公有存储空间次要分为:栈、线程部分存储(Thread Local Storage,TLS)、寄存器(包含 PC 寄存器)。

线程调度和工夫片

在单处理器对应多线程的状况下,并发是一种模仿解决的状态。操作系统会让这些多线程程序轮流执行,每次仅执行一小段时间(通常是几十到几百毫秒),这样子线程就“看起来”在同时执行。

一直在处理器上切换不同的线程行为称之为线程调度(Thread Schedule),通常领有至多三种状态,别离是:

  • 运行(Running):此时线程正在执行。
  • 就绪(Ready):此时线程能够立即运行,但 CPU 曾经被占用,临时无奈调配。
  • 期待(Waiting):此时线程正在期待某一事件(例如:I/O 事件)产生,无奈执行。

处于运行状态中的线程都会领有一段能够执行的工夫,这段时间段称为工夫片(Time Slice)。其根本流转:

  • 当工夫片用尽的时候,过程进入就绪状态。
  • 当工夫片用尽之前,过程若开始期待某个事件,那么它将进入期待状态。

每当一个线程来到运行状态时,调度零碎就会抉择一个以后是就绪状态的线程继续执行。而一个处于期待状态的线程在实现所期待的事件后,就会进入就绪状态。

线程优先级

在 Windows 和 Linux 中,线程的优先级能够通过用户手动设置,零碎也会依据线程的体现主动调整优先级,以使得调度更有效率。常见的个别有两类线程:

  • IO 密集型线程(IO Bound Thread):频繁期待,像是网络调用。
  • CPU 密集型线程(CPU Bound Thread):很少期待,次要是计算为主。

常见的线程调度形式如下:

  • 轮转法:让各个线程轮流执行一小段时间,这也决定了线程之间存在交织执行的特点。
  • 优先级调度:在具备优先级调度的零碎中,线程都领有各自的线程优先级,具备高优先级的线程会更早的执行,低优先级的线程经常要期待到零碎中曾经没有高优先级的可执行线程时才能够执行。

IO 密集型线程总是会比 CPU 密集型线程容易失去优先级的晋升。但在优先级调度下,存在一种线程饿死的景象。一个线程被饿死,是说它的优先级比拟低,在它执行之前,总是有较高优先级的线程要执行。因而低优先级线程始终无奈执行。

为了防止饿死景象,调度零碎会逐渐晋升那些期待了过长时间的得不到执行的线程优先级。这样的形式,一个线程只有期待足够长的工夫,其优先级最终肯定会进步到足够让他执行的水平。线程优先级扭转个别有三种形式:

  • 用户指定优先级。
  • 依据进入期待状态的频繁水平晋升或升高优先级。
  • 长时间得不到执行而被晋升优先级。

可抢占线程和不可抢占线程

线程在用尽工夫片之后会被强制剥夺继续执行的权力,而进入就绪状态,这个过程叫做抢占(Preemption),即之后执行的别的线程抢占了以后线程。

目前以可抢占式线程居多,非抢占式线程在今日曾经非常少见。

三种线程模型

日常在程序中应用的线程其实并不是内核线程,而是存在于用户态的用户线程。用户态并不一定在操作系统内核中对应等同数量的内核线程。接下来将介绍三种常见的用户态多线程库的实现形式。

一对一模型

一对一模型指的是一个用户应用的线程就惟一对应一个内核应用的线程。

长处:

  • 线程之间的并发是真正的并发。
  • 线程阻塞时,其余线程执行不会受到影响。

毛病:

  • 操作系统限度了内核线程的数量,因而一对一线程会让用户的线程数受限。
  • 内核线程调度时,上下文切换的开销较大,导致用户线程的执行效率降落。

多对一模型

多对一模型指的是多个用户线程映射到一个内核线程上,线程之间的切换由用户态的代码来进行。

长处:

  • 线程切换绝对于一对一模型来说高效许多。

毛病:

  • 如果一个用户线程阻塞,那么所有的线程豆浆无奈执行,因为内核线程也被阻塞住了。

多对多模型

多对多模型指的是将多个用户线程映射到多数但不止一个内核线程上。

长处:

  • 一个用户线程阻塞,并不会导致其它用户线程也阻塞。

毛病:

  • 性能晋升不如一对一模型高。

总结

本文次要波及到 CPU、内存、线程。咱们可能从其的一些关注点晓得为什么 CPU 调度会这样子倒退,又经验了什么货色。内存为什么会呈现虚拟内存,物理内存,其之间又是如何互相转换的。

另外还理解到线程的根本分类和常见调度形式等,这些都是计算机根本的软硬件常识,十分值得大家认真思考。

正文完
 0