关于操作系统:操作系统课程设计pintos-project1实验摘记

70次阅读

共计 19676 个字符,预计需要花费 50 分钟才能阅读完成。

前言:本篇意在记录本学期结束的操作系统课程设计 pintos project1 实验报告和实现过程。整个试验参考了多篇文章也查阅了一些代码,其中局部内容或与其余文章雷同,还请见谅。

第一局部 我的项目概述

一、Pintos 简介

Pintos 是一个基于 80×86 架构的简略操作系统框架,它反对内核级线程、可能加载和运行用户程序,也领有文件系统,不过,这些性能均以一种简略的模式实现。

二、我的项目要求

1、我的项目一 线程治理

在这一我的项目中,咱们须要进行三局部的改良,以实现如下性能:

  • 第一局部:从新实现 timer_sleep () 函数,以防止线程在就绪和运行状态间的不停切换。
  • 第二局部:实现优先级调度
  • 第三局部:实现多级反馈调度

最终目标:使该项目标 27 个检测点全副通过。

三、环境搭建与配置

1、在 VMware Workstation 中装置 Ubuntu 18.04LTS 虚拟机,并进行根本的配置。

2、在终端运行装置 Bochs Simulator 命令

sudo apt-get install bochs

3、应用 VIM 关上 /utils/pintos-gdb,并编辑GDBMACROS 变量

GDBMACROS=/home/pisces/pintos-anon-master-f685123/src/utils/gdb-macros

4、应用 VIM 关上 Makefile 并将 LOADLIBES 变量名编辑为LDLIBS

LDLIBS = -lm

5、在 /src/utils 中输出 make 来编译utils

6、编辑 /src/threads/Make.vars:将SIMULATOR 的类型更改为bochs

SIMULATOR = --bochs

7、在 /src/threads 并运行来编译线程目录make

8、编辑/utils/pintos

(1)$sim 变量的类型为bochs

$sim = "bochs" if !defined $sim;

(2)替换 kernel.bin 为残缺门路

my $name = find_file ('/home/pisces/pintos-anon-master-f685123/src/threads/build/kernel.bin');

(3)替换 loader.bin 为残缺门路

$name = find_file ("/home/pisces/pintos-anon-master-f685123/src/threads/build/loader.bin")

9、关上 ~/.bashrc 并增加如下语句至最初一行

export PATH=/home/pisces/pintos-anon-master-f685123/src/utils:$PATH

10、从新关上终端输出 source ~/.bashrc 并运行

11、在 Pintos 下关上终端输出 pintos run alarm-multiple 会呈现如下情景

12、在 /threads/build 下进行 makemake check将会呈现如下后果

此时,咱们的环境就配置好了,因为我的项目一还未做批改,因而呈现 20 个 failed 是失常状况。

第二局部 我的项目一 线程治理的实现

一、线程治理概述

对于 alarm 系列测试来说,须要解决的是忙等问题,因而须要引入“线程三态模型”,将临时不必的 线程挂起(yield CPU),能够进步零碎的吞吐率。

对于 priority、preempt 系列测试来说,须要实现一个线程模式的“优先队列”数据结构来反对优先级调度,因而能够应用”堆“数据结构(heap)来实现,然而应用 O(n) 的扫描算法也能够通过测试,因而 以求简略实现和保证系统的吞吐量失常,应用一般的扫描算法来实现优先级调度。根本思维是,零碎在 调度时,从 ready_list 中抉择优先级最高的线程取得 CPU 的执行,线程死亡或被阻塞或有新线程退出 时,从新进行调度,并进行数据结构上的保护。

priority_donation 要解决的基本问题是“优先级翻转”问题,即低优先级的线程 能够比高优先级的线程先运行,产生一品种死锁的景象。因而,须要应用“信号量”(semaphore)、“条件变量”(condition)和锁(lock)等数据结构。根本思维是,信号量的期待队列该当设计为优先队列,获取锁要思考优先级捐献状况,开释锁时要思考抢占状况。

多级反馈队列 mlfqs 在实现浮点数运算后,依据官网给出的调度公式计算出 nice 以及 recent_cpu,同时对 timer.c 中的 timer_interrupt () 函数进行批改即可实现。

二、代码文件阐明

在我的项目一中将会用到如下文件和文件夹

(1)文件夹性能阐明

文件夹 性能
threads 根本内核的代码
devices IO 设施接口,定时器、键盘、磁盘等代码
lib 实现了 C 规范库,该目录代码会与 Pintos kernel 一起编译,用户的程序也要在此目 录下运行。内核程序和用户程序都能够应用 #include 的形式来引入这个目录下的头 文件

(2)threads/ 文件夹中文件阐明

文件 性能
loader.h 内核加载器
loader.S
kernel.lds.S 连贯脚本,用于连贯内核,设置负载地址的内核
init.h 内核的初始化,包含 main() 函数
init.c
thread.h 实现根底线程性能
thread.c
switch.h 汇编语言实现惯例的用于替换的线程
switch.S
start.S 跳转到主函数

(3)devices/ 文件夹中文件阐明

文件 性能
timer.h 实现零碎计时器,默认使每秒运行 100 次
timer.c
vga.h 显示驱动程序,负责将文本打印在屏幕上
vga.c
serial.h 串行端口驱动程序,通过 printf() 函数调用,将内容并传入输出层
serial.c
disk.h 反对磁盘进行读写操作
disk.c
kbd.h 反对磁盘进行读写操作
kbd.c
input.h 输出层程序,将传入的字符组成输出队列
input.c
intq.h 中断队列程序,治理内核线程和中断处理程序
intq.c

三、项目分析

线程治理这一项目标动手点是 timer_sleep() 函数,以下展现该函数的整体构造:

/* Sleeps for approximately TICKS timer ticks.  Interrupts must
   be turned on. */
void timer_sleep(int64_t ticks)
{int64_t start = timer_ticks(); // 获取开始的工夫

  ASSERT(intr_get_level() == INTR_ON);
  while (timer_elapsed(start) < ticks) // 查看以后工夫是否小于设定的睡眠工夫
    thread_yield();                    // 将以后线程放入就绪队列,并调度下一个线程}

在第 5 行中,首先取得了线程休眠的开始工夫,timer_ticks()函数在获取工夫的过程中采纳了关中断保留程序状态字,而后开中断恢复程序状态字的方法以避免在执行过程中产生中断,因为后续程序也用到了开关中断的操作,因而将在接下来进行介绍。

在第 7 行中,断言了以后中断的状态,确保中断是关上的状态。

接下来是重点局部,首先看 timer_elapsed() 函数,其整体构造如下:

/* Returns the number of timer ticks elapsed since THEN, which
   should be a value once returned by timer_ticks(). */
int64_t
timer_elapsed(int64_t then)
{return timer_ticks() - then;
}

咱们能够看到这个函数理论是计算以后线程曾经休眠的工夫,它将后果返回至 timer_sleep() 函数后,利用 while 循环判断休眠工夫是否曾经达到 ticks 工夫(这里的 ticks 工夫是传入的拟休眠工夫的局部变量,而不是全局变量系统启动后到当初的工夫),如果没有达到,就将不停的进行thread_yield()

thread_yield()函数的整体构造如下所示:

/* Yields the CPU.  The current thread is not put to sleep and
   may be scheduled again immediately at the scheduler's whim. */
void thread_yield(void)
{struct thread *cur = thread_current(); // 获取以后页面的初始地位(指针指向开始)enum intr_level old_level;

  ASSERT(!intr_context());

  old_level = intr_disable();                // 关中断
  if (cur != idle_thread)                    // 如果以后线程不是闲暇线程
    list_push_back(&ready_list, &cur->elem); // 把以后线程放入就绪队列
  cur->status = THREAD_READY;                // 批改程序状态为就绪
  schedule();                                // 调度下一个线程
  intr_set_level(old_level);                 // 开中断
}

(1)页面指针的获取

在第 5 行,cur指针通过调用 thread_current() 函数来获取指向页面初始地位的指针,因为该函数也进行了多级嵌套,在此仅简要形容一下函数性能实现的流程。首先,这一函数获取了 esp 寄存器的值,这一寄存器是指向栈顶的寄存器,为了获取指向页首的指针,咱们晓得 Pintos 中一页的大小是 2 的 12 次方,因而其做法就是将 1 这个数字在二进制下左移 12 位并取反后,再与 esp 寄存器中的值相与,即可取得页首指针。

(2)原子化操作

所谓原子化操作即为开篇所提到的关中断和开中断操作,其别离由以下两个语句实现:

old_level = intr_disable();                // 关中断
//// 其余操作
intr_set_level(old_level);                 // 开中断

其根本实现步骤是利用堆栈的 push 和 pop 语句失去程序状态字寄存器的值,并利用 CLI 指令关中断,复原时,将值 mov 进寄存器,并 STI 开中断。

(3)线程的切换

这一步骤体现在 11-14 行代码中,如果以后线程不是闲暇线程,则把它退出就绪队列,退出的形式是通过指针的扭转使其与前后的线程关联起来,造成一个队列,并将这一线程批改为就绪状态。

schedule()函数的实现是获取以后线程和行将要运行的线程,其中的 prev = switch_threads(cur, next); 语句利用纯汇编的形式将寄存器中的值改为指向下一线程的值,thread_schedule_tail(prev)函数将行将运行的线程标记为运行状态,并判断原先线程是否曾经进入沦亡的状态,如果是便顺便清空页表信息。因为这些操作过于底层,对其的了解较为通俗,仅在此表明粗心,暂不深刻。

由此能够得悉 thread_yield() 函数的作用便是将以后线程放入就绪队列,并调度下一线程。而 timer_sleep() 函数便是在限定的工夫内,使运行的程序不停的放入就绪队列,从而达到休眠的目标。

当然这样去做的一大毛病,就是线程一直的在运行和就绪的状态来回切换,极大的耗费资源,由此咱们将进行改良。

四、线程治理实现第一局部——timer_sleep()函数的从新实现

1、实现思维

因为本来的 timer_sleep() 函数采纳运行和就绪间切换的办法过于耗费 CPU 的资源,思考到 Pintos 提供了线程阻塞这一模式(见下方线程状态构造体),因而我打算在线程构造体中退出一个用于记录线程睡眠工夫的变量,通过利用 Pintos 的时钟中断(见下方工夫中断函数),即每个 tick 将会执行一次,这样每次检测时将记录线程睡眠工夫的变量自减 1,当该变量为 0 时即可代表可能唤醒该线程,从而防止资源的过多开销。

线程状态构造体:

enum thread_status
{
  THREAD_RUNNING,     /* Running thread. */
  THREAD_READY,       /* Not running but ready to run. */
  THREAD_BLOCKED,     /* Waiting for an event to trigger. 阻塞状态 */
  THREAD_DYING        /* About to be destroyed. */
};

工夫中断函数:

/* Timer interrupt handler. */
static void
timer_interrupt(struct intr_frame *args UNUSED)
{
  ticks++;
  thread_tick();}

2、实现步骤

(1)改写线程构造体,在构造体中减少记录线程睡眠工夫的变量ticks_blocked

struct thread
  {
    /* Owned by thread.c. */
    tid_t tid;                          /* Thread identifier. */
    enum thread_status status;          /* Thread state. */
    char name[16];                      /* Name (for debugging purposes). */
    uint8_t *stack;                     /* Saved stack pointer. */
    int priority;                       /* Priority. */
    struct list_elem allelem;           /* List element for all threads list. */
    int64_t ticks_blocked;              // 减少的变量 -> 记录要阻塞的工夫

    /* Shared between thread.c and synch.c. */
    struct list_elem elem;              /* List element. */

#ifdef USERPROG
    /* Owned by userprog/process.c. */
    uint32_t *pagedir;                  /* Page directory. */
#endif

    /* Owned by thread.c. */
    unsigned magic;                     /* Detects stack overflow. */
  };

(2)改写线程创立函数,减少记录线程睡眠工夫的变量的赋初值操作t->ticks_blocked = 0;

tid_t
thread_create (const char *name, int priority,
               thread_func *function, void *aux) 
{
  struct thread *t;
  struct kernel_thread_frame *kf;
  struct switch_entry_frame *ef;
  struct switch_threads_frame *sf;
  tid_t tid;

  ASSERT (function != NULL);

  /* Allocate thread. */
  t = palloc_get_page (PAL_ZERO);
  if (t == NULL)
    return TID_ERROR;

  /* Initialize thread. */
  init_thread (t, name, priority);
  tid = t->tid = allocate_tid ();
  t->ticks_blocked = 0;    // 减少的初始化操作

  /* Stack frame for kernel_thread(). */
  kf = alloc_frame (t, sizeof *kf);
  kf->eip = NULL;
  kf->function = function;
  kf->aux = aux;

  /* Stack frame for switch_entry(). */
  ef = alloc_frame (t, sizeof *ef);
  ef->eip = (void (*) (void)) kernel_thread;

  /* Stack frame for switch_threads(). */
  sf = alloc_frame (t, sizeof *sf);
  sf->eip = switch_entry;
  sf->ebp = 0;

  /* Add to run queue. */
  thread_unblock (t);

  return tid;
}

(3)改写 timer_sleep() 函数,获取以后的要阻塞的线程,为其设置阻塞工夫,并调用 Pintos 的线程阻塞函数(要留神这一操作不可被中断,因而要退出开关中断操作)

void
timer_sleep (int64_t ticks)
{if (ticks <= 0)
  {return;}
 ASSERT (intr_get_level () == INTR_ON);
 enum intr_level old_level = intr_disable ();
 struct thread *current_thread = thread_current ();
 current_thread->ticks_blocked = ticks;            // 设置阻塞工夫
 thread_block ();                                  // 调用阻塞函数
 intr_set_level (old_level);
}

(4)在 timer_interrupt() 中退出 thread_foreach (blocked_thread_check, NULL); 以对所有被阻塞线程进行阻塞工夫的计算

static void
timer_interrupt (struct intr_frame *args UNUSED)
{
  ticks++;
  thread_tick ();
  thread_foreach (blocked_thread_check, NULL);
}

(5)实现 blocked_thread_check() 函数

thread.h 中申明:

void blocked_thread_check (struct thread *t, void *aux UNUSED);

thread.c 中实现:

实现逻辑即为如果这个线程处于阻塞态且阻塞工夫还未完结,则减小其阻塞工夫并判断当其不必再被阻塞,便调用 Pintos 函数 thread_unblock() 将线程放入就绪队列并更改为就绪态。

void
blocked_thread_check (struct thread *t, void *aux UNUSED)
{if (t->status == THREAD_BLOCKED && t->ticks_blocked > 0)
  {
      t->ticks_blocked--;
      if (t->ticks_blocked == 0)
      {thread_unblock(t);
      }
  }
}

至此 timer_sleep() 的唤醒机制便编写实现了。

3、实现后果

此时,在 /threads/build 从新 make check 的后果如下所示:

五、线程治理实现第二局部——优先级调度的实现

1、保障插入线程至就绪队列时放弃优先级队列

(1)实现思路:

因为 Pintos 预置函数 list_insert_ordered() 的存在,能够间接应用这个函数实现线程插入时依照优先级实现,因而只须要将波及间接在开端插入线程的函数中的语句进行替换即可。

(2)实现步骤:

实现一个优先级比拟函数thread_cmp_priority():

/* priority compare function. */
bool
thread_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED)
{return list_entry(a, struct thread, elem)->priority > list_entry(b, struct thread, elem)->priority;
}

调用 Pintos 预置函数 list_insert_ordered() 替换 thread_unblock()init_thread()thread_yield() 中的 list_push_back() 函数:

void
thread_unblock (struct thread *t) 
{
  enum intr_level old_level;

  ASSERT (is_thread (t));

  old_level = intr_disable ();
  ASSERT (t->status == THREAD_BLOCKED);
  list_insert_ordered (&ready_list, &t->elem, (list_less_func *) &thread_cmp_priority, NULL);
  t->status = THREAD_READY;
  intr_set_level (old_level);
}
static void
init_thread (struct thread *t, const char *name, int priority)
{
  enum intr_level old_level;

  ASSERT (t != NULL);
  ASSERT (PRI_MIN <= priority && priority <= PRI_MAX);
  ASSERT (name != NULL);

  memset (t, 0, sizeof *t);
  t->status = THREAD_BLOCKED;
  strlcpy (t->name, name, sizeof t->name);
  t->stack = (uint8_t *) t + PGSIZE;
  t->priority = priority;
  t->magic = THREAD_MAGIC;

  old_level = intr_disable ();
  list_insert_ordered (&all_list, &t->allelem, (list_less_func *) &thread_cmp_priority, NULL);
  intr_set_level (old_level);
}
void
thread_yield (void) 
{struct thread *cur = thread_current ();
  enum intr_level old_level;
  
  ASSERT (!intr_context ());

  old_level = intr_disable ();
  if (cur != idle_thread) 
    list_insert_ordered (&ready_list, &cur->elem, (list_less_func *) &thread_cmp_priority, NULL);
  cur->status = THREAD_READY;
  schedule ();
  intr_set_level (old_level);
}

(3)测试后果:

alarm_priority 测试顺利通过!

2、优先级机制的持续改良

(1)思路与实现步骤

依据 Pintos 给到的测试用例来看,咱们能够晓得,当一个线程的优先级被扭转,则须要立刻思考所有线程依据优先级的排序,因而须要在设置优先级函数 thread_set_priority() 中退出 thread_yield () 函数以确保每次批改线程优先级后立即对就绪队列的线程进行从新排序。另外,还须要思考创立线程时的非凡状况,如果创立的线程优先级高于正在运行的线程的优先级,则须要将正在运行的线程退出就绪队列,并且使新建线程筹备运行。代码如下:

void
thread_set_priority (int new_priority) 
{thread_current ()->priority = new_priority;
  thread_yield (); // 退出线程依照优先级排序函数的调用}
tid_t
thread_create (const char *name, int priority,
               thread_func *function, void *aux) 
{
  struct thread *t;
  struct kernel_thread_frame *kf;
  struct switch_entry_frame *ef;
  struct switch_threads_frame *sf;
  tid_t tid;

  ASSERT (function != NULL);

  /* Allocate thread. */
  t = palloc_get_page (PAL_ZERO);
  if (t == NULL)
    return TID_ERROR;

  /* Initialize thread. */
  init_thread (t, name, priority);
  tid = t->tid = allocate_tid ();
  t->ticks_blocked = 0;

  /* Stack frame for kernel_thread(). */
  kf = alloc_frame (t, sizeof *kf);
  kf->eip = NULL;
  kf->function = function;
  kf->aux = aux;

  /* Stack frame for switch_entry(). */
  ef = alloc_frame (t, sizeof *ef);
  ef->eip = (void (*) (void)) kernel_thread;

  /* Stack frame for switch_threads(). */
  sf = alloc_frame (t, sizeof *sf);
  sf->eip = switch_entry;
  sf->ebp = 0;

  /* Add to run queue. */
  thread_unblock (t); // 不思考以后运行的过程,新过程在就绪队列中依照优先级排序

  // 新退出的语句  
  if (thread_current ()->priority < priority)
  {thread_yield ();// 如果以后运行过程优先级还是小于新过程,则要把以后运行过程放入就绪队列
    // 因为以后运行过程优先级曾经是最高的了,而新创建过程优先级还高的话阐明此时新过程优先级最高,则要把它进行执行
  }

  return tid;
}

(2)测试后果:

priority_change、priority_fifo 和 priority_preempt 均已通过测试!

3、通过其余优先级测试程序的具体实现

(1)实现思路:

priority-donate-one 测试用例表明,如果一个线程在获取锁时发现另一个比本人优先级更低的线程曾经领有雷同的锁,那么这个线程将会捐献本人的优先级给另一个线程,即晋升另一个线程的优先级与本人雷同。

priority-donate-multiple 与 priority-donate-multiple2 测试用例表明,在复原线程捐献后的优先级时,也要思考其余线程对这个线程的捐献状况,即须要提供一个数据后果来记录给这个线程捐献优先级的所有线程。

priority-donate-nest 测试用例表明,优先级捐献能够是递归的,因此须要数据后果记录线程正在期待哪个另外线程开释锁。

priority-donate-lower 测试用例表明,如果线程处于捐献状态,在批改时线程优先级仍然是被捐献的优先级,但开释锁后线程的优先级变成了批改后的优先级。

priority-sema 和 priority-condvar 测试用例表明,须要将信号量的期待队列实现为优先级队列,同时也要将 condition 的 waiters 队列实现为优先级队列。

priority-donate-chain 测试用例表明,开释锁后如果线程没有被捐献,则须要立刻复原原来的优先级。

(2)实现步骤:

在 thread 构造体中退出记录根本优先级、记录线程持有锁和记录线程期待锁的数据结构:

struct thread
{
    ...
    int base_priority;                  /* Base priority. 新加的 */
    struct list locks;                  /* Locks that the thread is holding. 新加的 */
    struct lock *lock_waiting;          /* The lock that the thread is waiting for. 新加的 */
    ...
}

将上述数据结构在 init_thread 中初始化:

static void
init_thread (struct thread *t, const char *name, int priority)
{
  ...
  t->base_priority = priority;
  list_init (&t->locks);
  t->lock_waiting = NULL;
  ...
}

在 lock 构造体中退出记录捐献和记录最大优先级的数据结构:

struct lock 
{
...
    struct list_elem elem;      /* List element for priority donation. 新加的 */
    int max_priority;          /* Max priority among the threads acquiring the lock. 新加的 */
};

批改 synch.c 中的 lock_acquire 函数,使其可能以循环的形式实现递归捐献,并通过批改锁的 max_priority 成员,再通过 thread_update_priority 函数更新优先级来实现优先级捐献:

void lock_acquire (struct lock *lock)
{struct thread *current_thread = thread_current ();
   struct lock *l;
   enum intr_level old_level;
 
   ASSERT (lock != NULL);
   ASSERT (!intr_context ());
   ASSERT (!lock_held_by_current_thread (lock));
 
   if (lock->holder != NULL && !thread_mlfqs)
   {
     current_thread->lock_waiting = lock;
     l = lock;
     while (l && current_thread->priority > l->max_priority)
     {
       l->max_priority = current_thread->priority;
       thread_donate_priority (l->holder);
       l = l->holder->lock_waiting;
     }
}

实现 thread_donate_priority 和 lock_cmp_priority,以达到对线程优先级的更新和在队列中地位的从新排布:

void thread_donate_priority (struct thread *t)
{enum intr_level old_level = intr_disable ();
   thread_update_priority (t);
 
   if (t->status == THREAD_READY)
   {list_remove (&t->elem);
     list_insert_ordered (&ready_list, &t->elem, thread_cmp_priority, NULL);
   }
   intr_set_level (old_level);
}
bool lock_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED)
{return list_entry (a, struct lock, elem)->max_priority > list_entry (b, struct lock, elem)->max_priority;
}

实现 thread_hold_the_lock 和 lock_cmp_priority,以达到对线程领有锁的记录,同时依据锁记录的线程最大优先级更新以后线程的优先级并从新调度:

void thread_hold_the_lock(struct lock *lock)
{enum intr_level old_level = intr_disable ();
  list_insert_ordered (&thread_current ()->locks, &lock->elem, lock_cmp_priority, NULL);

  if (lock->max_priority > thread_current ()->priority)
  {thread_current ()->priority = lock->max_priority;
    thread_yield ();}

  intr_set_level (old_level);
}
bool lock_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED)
{return list_entry (a, struct lock, elem)->max_priority > list_entry (b, struct lock, elem)->max_priority;
}

批改 lock_release 函数,扭转锁的开释行为,并实现 thread_remove_lock:

void lock_release (struct lock *lock) 
{ASSERT (lock != NULL);
  ASSERT (lock_held_by_current_thread (lock));
    
  //new code
  if (!thread_mlfqs)
    thread_remove_lock (lock);

  lock->holder = NULL;
  sema_up (&lock->semaphore);
}
void thread_remove_lock (struct lock *lock)
{enum intr_level old_level = intr_disable ();
  list_remove (&lock->elem);
  thread_update_priority (thread_current ());
  intr_set_level (old_level);
}

实现 thread_update_priority,该函数实现开释锁时优先级的变动,如果以后线程还有锁,则获取其领有锁的 max_priority,如果它大于 base_priority 则更新被捐献的优先级:

void thread_update_priority (struct thread *t)
{enum intr_level old_level = intr_disable ();
  int max_priority = t->base_priority;
  int lock_priority;

  if (!list_empty (&t->locks))
  {list_sort (&t->locks, lock_cmp_priority, NULL);
    lock_priority = list_entry (list_front (&t->locks), struct lock, elem)->max_priority;
    if (lock_priority > max_priority)
      max_priority = lock_priority;
  }

  t->priority = max_priority;
  intr_set_level (old_level);
}

批改 thread_set_priority 函数,实现对新优先级的变换:

void thread_set_priority (int new_priority)
{if (thread_mlfqs)
    return;

  enum intr_level old_level = intr_disable ();

  struct thread *current_thread = thread_current ();
  int old_priority = current_thread->priority;
  current_thread->base_priority = new_priority;

  if (list_empty (&current_thread->locks) || new_priority > old_priority)
  {
    current_thread->priority = new_priority;
    thread_yield ();}

  intr_set_level (old_level);
}

接下来实现 sema 和 condvar 这两个优先队列,批改 cond_signal 函数,申明并实现比拟函数 cond_sema_cmp_priority:

void cond_signal (struct condition *cond, struct lock *lock UNUSED)
{ASSERT (cond != NULL);
  ASSERT (lock != NULL);
  ASSERT (!intr_context ());
  ASSERT (lock_held_by_current_thread (lock));

  if (!list_empty (&cond->waiters))
  {list_sort (&cond->waiters, cond_sema_cmp_priority, NULL);
    sema_up (&list_entry (list_pop_front (&cond->waiters), struct semaphore_elem, elem)->semaphore);
  }
}
bool cond_sema_cmp_priority (const struct list_elem *a, const struct list_elem *b, void *aux UNUSED)
{struct semaphore_elem *sa = list_entry (a, struct semaphore_elem, elem);
  struct semaphore_elem *sb = list_entry (b, struct semaphore_elem, elem);
  return list_entry(list_front(&sa->semaphore.waiters), struct thread, elem)->priority > list_entry(list_front(&sb->semaphore.waiters), struct thread, elem)->priority;
}

最初把信号量的期待队列实现为优先级队列:

void sema_up (struct semaphore *sema)
{
  enum intr_level old_level;

  ASSERT (sema != NULL);

  old_level = intr_disable ();
  if (!list_empty (&sema->waiters))
  {list_sort (&sema->waiters, thread_cmp_priority, NULL);
    thread_unblock (list_entry (list_pop_front (&sema->waiters), struct thread, elem));
  }

  sema->value++;
  thread_yield ();
  intr_set_level (old_level);
}
void sema_down (struct semaphore *sema)
{
  enum intr_level old_level;

  ASSERT (sema != NULL);
  ASSERT (!intr_context ());

  old_level = intr_disable ();
  while (sema->value == 0)
    {list_insert_ordered (&sema->waiters, &thread_current ()->elem, thread_cmp_priority, NULL);
      thread_block ();}
  sema->value--;
  intr_set_level (old_level);
}

(3)实现后果:

至此对于优先级的测试案例就全副通过了!

六、线程治理实现第三局部——多级反馈调度的实现

1、实现思路

依据官网试验领导 Pintos Projects: 4.4BSD Scheduler (neu.edu)的阐明,须要实现维持 64 个队列的优先级,同时须要一些计算公式来计算以后优先级,计算公式如下图:

因而须要在 timer_interrupt 函数中固定工夫更新优先级,每 4 个 ticks 更新一次,同时保障 recent_cpu 自增 1。

2、实现过程:

(1)实现运算逻辑:新建 fixed_point.h 文件,并依照计算公式编写运算程序

#ifndef __THREAD_FIXED_POINT_H
#define __THREAD_FIXED_POINT_H

/* Basic definitions of fixed point. */
typedef int fixed_t;
/* 16 LSB used for fractional part. */
#define FP_SHIFT_AMOUNT 16
/* Convert a value to a fixed-point value. */
#define FP_CONST(A) ((fixed_t)(A << FP_SHIFT_AMOUNT))
/* Add two fixed-point value. */
#define FP_ADD(A,B) (A + B)
/* Add a fixed-point value A and an int value B. */
#define FP_ADD_MIX(A,B) (A + (B << FP_SHIFT_AMOUNT))
/* Subtract two fixed-point value. */
#define FP_SUB(A,B) (A - B)
/* Subtract an int value B from a fixed-point value A. */
#define FP_SUB_MIX(A,B) (A - (B << FP_SHIFT_AMOUNT))
/* Multiply a fixed-point value A by an int value B. */
#define FP_MULT_MIX(A,B) (A * B)
/* Divide a fixed-point value A by an int value B. */
#define FP_DIV_MIX(A,B) (A / B)
/* Multiply two fixed-point value. */
#define FP_MULT(A,B) ((fixed_t)(((int64_t) A) * B >> FP_SHIFT_AMOUNT))
/* Divide two fixed-point value. */
#define FP_DIV(A,B) ((fixed_t)((((int64_t) A) << FP_SHIFT_AMOUNT) / B))
/* Get the integer part of a fixed-point value. */
#define FP_INT_PART(A) (A >> FP_SHIFT_AMOUNT)
/* Get the rounded integer of a fixed-point value. */
#define FP_ROUND(A) (A >= 0 ? ((A + (1 << (FP_SHIFT_AMOUNT - 1))) >> FP_SHIFT_AMOUNT) \
                : ((A - (1 << (FP_SHIFT_AMOUNT - 1))) >> FP_SHIFT_AMOUNT))
#endif /* threads/fixed-point.h */

(2)批改 timer_interrupt 函数,实现每 4 个 ticks 更新一次,同时保障 recent_cpu 自增 1 的要求:

static void
timer_interrupt (struct intr_frame *args UNUSED)
{
  ticks++;
  thread_tick ();
  thread_foreach (blocked_thread_check, NULL);

    //new code
  if (thread_mlfqs)
  {mlfqs_inc_recent_cpu();
    if (ticks % TIMER_FREQ == 0)
      mlfqs_update_load_avg_and_recent_cpu();
    else if (ticks % 4 == 0)
      mlfqs_update_priority(thread_current());
  }
}

(3)实现 recent_cpu 自增函数

void mlfqs_inc_recent_cpu()
{ASSERT(thread_mlfqs);
  ASSERT(intr_context());

  struct thread *cur = thread_current();
  if (cur == idle_thread)
    return;
  cur->recent_cpu = FP_ADD_MIX(cur->recent_cpu, 1);
}

(4)实现 mlfqs_update_load_avg_and_recent_cpu 函数

void
mlfqs_update_load_avg_and_recent_cpu()
{ASSERT(thread_mlfqs);
  ASSERT(intr_context());

  size_t ready_cnt = list_size(&ready_list);
  if (thread_current() != idle_thread)
    ++ready_cnt;
  load_avg = FP_ADD (FP_DIV_MIX (FP_MULT_MIX (load_avg, 59), 60), FP_DIV_MIX(FP_CONST(ready_cnt), 60));

  struct thread *t;
  struct list_elem *e;
  for (e = list_begin(&all_list); e != list_end(&all_list); e = list_next(e))
  {t = list_entry(e, struct thread, allelem);
    if (t != idle_thread)
    {t->recent_cpu = FP_ADD_MIX (FP_MULT (FP_DIV (FP_MULT_MIX (load_avg, 2), \ 
                      FP_ADD_MIX (FP_MULT_MIX (load_avg, 2), 1)), t->recent_cpu), t->nice);
      mlfqs_update_priority(t);
    }
  }
}

(5)实现 mlfqs_update_priority 函数

void
mlfqs_update_priority(struct thread *t)
{ASSERT(thread_mlfqs);

  if (t == idle_thread)
    return;

  t->priority = FP_INT_PART (FP_SUB_MIX (FP_SUB (FP_CONST (PRI_MAX), \ 
                             FP_DIV_MIX (t->recent_cpu, 4)), 2 * t->nice));
  if (t->priority < PRI_MIN)
    t->priority = PRI_MIN;
  else if (t->priority > PRI_MAX)
    t->priority = PRI_MAX;
}

(6)在 thread 构造体中加入成员并在 init_thread 中初始化:

struct thread
{
   ...
   int nice;                           /* Niceness. */
   fixed_t recent_cpu;                 /* Recent CPU. */ 
   ...
}
static void init_thread (struct thread *t, const char *name, int priority)
{
  ...
  t->nice = 0;
  t->recent_cpu = FP_CONST (0);
  ...
}

(7)在 thread.c 中申明全局变量 load_avg:

fixed_t load_avg;

(8)在 thread_start 中初始化 load_avg:

void
thread_start (void) 
{load_avg = FP_CONST (0);
  ...
}

(9)在 thread.h 中蕴含浮点运算头文件:

#include "fixed_point.h"

(10)在 thread.c 中批改 thread_set_nice、thread_get_nice、thread_get_load_avg、thread_get_recent_cpu 函数:

/* Sets the current thread's nice value to NICE. */
void
thread_set_nice (int nice UNUSED) 
{
  /* Solution Code */
  thread_current()->nice = nice;
  mlfqs_update_priority(thread_current());
  thread_yield();}

/* Returns the current thread's nice value. */
int
thread_get_nice (void) 
{
  /* Solution Code */
  return thread_current()->nice;}

/* Returns 100 times the system load average. */
int
thread_get_load_avg (void) 
{
  /* Solution Code */
  return FP_ROUND (FP_MULT_MIX (load_avg, 100));
}

/* Returns 100 times the current thread's recent_cpu value. */
int
thread_get_recent_cpu (void) 
{
  /* Solution Code */
  return FP_ROUND (FP_MULT_MIX (thread_current()->recent_cpu, 100));
}

3、实现后果:

至此,27 个测试均已通过,我的项目一全副实现。

正文完
 0