COMP3230 Principles of Operating Systems
Bob Jiang
Date: December 15, 2021
如答案有不妥之处,欢迎批评指正
If there are any inaccuracies in the answers, criticisms and corrections are welcome.
*For more about the HKU COMP3230 Course Material, please refer to Github[1]*
This is not a standard & official answer, just for self-review purposes 个人复习用途,非官方答案
试卷来源 SOURCE:HKU library2
Q1 — Multiple Choices Questions
Ans: ABDE, for question C:
To be precise, it depends on whether or not the OS schedules another process to run after terminating the current process. If yes, then there is certainly a context switch; otherwise, it is only a "partial context switch".
- Context Switch是一个更加接近硬件层面(寄存器层面有没有发生切换)的概念,而Mode Switch是操作系统层面的概念
- System Call属于软件中断, 有Interrupt就一定会发生从用户进程到内核进程的切换
- 用户态和内核态切换一定会发生Context Swicth
- 无论是用户进程和用户进程之间切换还是用户进程和内核进程之间切换,都会发生Context Switch
Ans:BDE
- 线程共享堆区、代码区和数据区,全局变量是共有的;栈区维护的是局部变量,是线程独有的
- 线程A调用signal后陷入到内核态,而后不会返回线程A的用户态,而是根据调度算法确定下一个要被调度的线程;因此B不一定立马调度到等待在那个条件变量上的线程
- C:加锁不代表发生中断;锁通常是在用户空间实现的同步机制,而中断和上下文切换是由操作系统内核管理的
- 对POSIX而言,
trap就是一种中断,有锁保护的时候就会去获取锁,首先会发生中断到内核态,如果锁有人用了,那么线程就会进入阻塞态再重新调度;没有锁的话,就直接访问,不会陷入内核态
Ans: ABC
- Dynamic relocation是指在程序运行时,操作系统能够将程序中的某些地址(通常是指针或跳转指令中的地址)映射到实际内存地址的过程;分段是指将程序的内存空间划分为不同的逻辑段,每个段具有不同的属性和权限。这些段包括代码段、数据段、堆、栈等。分段是一种在程序执行期间为不同类型的数据提供不同保护级别和访问权限的机制。
- 分段解决了一些问题,帮助我们实现了更高效的虚拟内存。不只是动态重定位,通过避免地址空间的逻辑段之间的大量潜在的内存浪费,分段能更好地支持稀疏地址空间。它还很快,因为分段要求的算法很容易,很适合硬件完成,地址转换的开销极小。分段还有一个附加的好处:代码共享。如果代码放在独立的段中,这样的段就可能被多个运行的程序共享。
- 内部碎片指的是分段中的一个段(segment)内部出现的未被充分利用的空间。这种情况发生在一个段所分配的内存空间超过了该段所实际需要的内存空间。例如,如果一个段被分配了100个单位的内存,但实际只需要80个单位,那么这个段内部就有20个单位的内部碎片;外部碎片是指未分配的零散内存块,这些内存块的总和足够满足一个段的内存需求,但由于它们分散在内存中,因此无法被有效利用。外部碎片的形成主要是由于先前分配的段被释放,但由于内存空间不连续,无法被新的段使用。
- 外部碎片是操作系统导致的,内部碎片是进程导致的;分段存储会产生外存碎片、不会产生内存碎片
Ans: B
- TLB misses表示在TLB中没有找到所需的映射,需要进行内存页表的查找,这可能导致较长的内存访问延迟
- 如果某个进程不发生TLB misses,会一直占用进程;不miss的情况实际上更多
Ans: ABC
- Virtual memory和Physical memory不同。128bytes的virtual memory对应512Bytes的physical,Bounds是偏移量
Ans: AD
- Key of solving this question is to detect whether the deadlock meets 4 requirements:
- Mutual exclusion condition 使用互斥锁--> 不用互斥锁
- Wait-for condition (hold-and-wait condition) 可以申请一部分资源,再申请另一部分资源--> 申请所有的资源都是原子操作(一次性可以申请所有资源)
- No-preemption condition --> 可以强行回收资源
- Circular-wait condition --> 更改顺序,如:银行家算法 如果每把锁按照固定顺序,就不会发生死锁; 圈一样的循环等待
- Thread1->1, Thread2->2
- Thread1->1, Thread2->3, Thread3->2
Ans: ADEF
- G: 只有P操作才会使线程进入阻塞,
sem_post()是V操作,用于增加信号量的值;sem_wait()是P操作,用于减少信号量的值
semaphore mutex=1; //临界区互斥信号量
semaphore empty=n; //空闲缓冲区
semaphore full=0; //缓冲区初始化为空
producer ()//生产者进程
{
while(1)
{
produce an item in nextp; //生产数据
P(empty); //获取空缓冲区单元
P(mutex); //进入临界区.
add nextp to buffer; //将数据放入缓冲区
V(mutex); //离开临界区,释放互斥信号量
V(full); //满缓冲区数加1
}
}
consumer ()//消费者进程
{
while(1)
{
P(full); //获取满缓冲区单元
P(mutex); // 进入临界区
remove an item from buffer; //从缓冲区中取出数据
V (mutex); //离开临界区,释放互斥信号量
V (empty) ; //空缓冲区数加1
consume the item; //消费数据
}
}
Ans: ABC
- Limitation of hard link
- Can’t create a hard link to directory (软连接也不可以)
- Can’t create hard link to files in other disk partitions (i.e. another file system) (但是软连接可以)
- read文件的时候可能会储存在缓存中,则不需要block进程
- file descriptor和inode类似,就是一个数字,不是数据结构
Q2 Scheduling
FIFO
RR with 1 ms time slice
RR with 100ms time slice
Multilevel feedback queue(MLFQ) with 4 levels.The time slice for the highest priority level is 1 ms, and it doubles for each lower-priority level, i.e., 2ms, 4ms, and 8ms for the other three levels respectively. Assume that priority boosting is disabled.
针对规则4的解释:whether B uses up the time slice within a continuous 4 ms when being scheduled需要连续用完时间片才会降级
Q3 Concurrency
确定哪里是全局变量,哪里可能发生竞态
在这道题里, Buy这个操作转换成汇编语言需要多步进行,比如,他需要把coffee储存在寄存器中再进行比较,这样子就容易被打断进一步产生问题,因此,最好的解决方案是强行规定顺序,让一个线程先开始,一个线程进行自旋等待。
在这里,我们令A先去拿咖啡,则
Thread A
if (noteA == 1 && coffee == 0) {
buy;
}
noteA = 0;
Thread B
while (noteA == 1) ;
if (noteB == 1 && coffee == 0) {
buy();
}
noteB = 0:
Pthread_mutex_lock(&mutex);
if (coffee = 0){
Buy ();
}
Pthread_mutex_unlock(&mutex);
Q4 Paging
a)
According to the question, the virtual address is 52-bit and physical address is 40-bit. The page size is 4KiB and this single-level paging scheme needs the entry size to be in a unit of bytes and is a power of 2.
页表是一种将虚拟地址映射到物理地址的数据结构。操作系统通过虚拟页号(VPN)检索数组,并在该索引处查找页表项(PTE),以便找到期望的物理帧号(PFN)
-
, PTE是
Page table entry, 偏移量(页面大小)在物理内存和虚拟内存中都相等 -
只与有关,与(有多少个frame)有关
-
是offset的位数,等于,只和页面大小有关
-
注意读题,如控制位和对齐要求
b)
Thus,
c)
假设:
- Each page directory entry consists of a valid bit and a page frame number (which is the physical location of a valid smaller page table) (Page table/directory和Page size一样)表的大小一样
- 构建多级页表的目标:使页表的每一部分都能放入一个页
- Page directory Entry和Page Table Entry大小相同(页表项和页目录大小相同)
思路:
- 假设不进行分级,那么这个page的大小为: ,那么他的
page table的大小为, 物理内存为 - 由此可知,页表有个页表项,因此, 每个页表项大小为
- 对于一个256KB的页表(节点),它能存储个页表项
- 因为每个页最多能存储个页表项,总共有个页表项,因此最多储存个叶子节点
- 对于上述叶子节点的上一级,由于其表的大小和表的项大小相同,因此,储存这个叶子节点需要个页表,也就是需要4个上级页表
- 这4个上级页表需要一个顶级目录管理
- 因此,这是一个三级文件结构
d)
- Don't use TLB: 没有缓存
VM address->TOP顶级页表(Physical address) ->next directory->directory->required page->content
e)
-
由上面的分析可知,要真正获取一个内存中的内容实际需要加载两次内存: 一次是读取页表,一次是根据页表找到对应内存,因此可以进行时间上的优化;
-
将最常访问的几个(一般8-128个左右)页表项储存到访问速度更快的硬件中,一般是在MMU(内存管理单元),这个小表的名称为TLB(Translation Lookaside Buffer),可以称其为快表;
-
在寻址时,会先查询TLB,在miss后再查PT; 快表的命中率很高,这是由于程序的局部性原理,并且程序最常访问的页没几个;
-
缓存的是从虚拟内存地址到物理内存地址的映射,读取一个即可:
5ns
Q5 Locality
数据访问集中化
- Fault Rate(故障率): 发生在程序试图访问虚拟内存中未加载到物理内存(RAM)中的页面时,触发中断的次数,越少越好
- Instruction Rate(指令速率): 每秒执行多少个指令,希望越多越好
Fault Rate越低越好, Instruction Rate越高越好:综上,我们认为比较优秀的方案是2048和4096
由题目可知,随着Page Size的增加, Fault Rate先减小后增加, Instruction Rate先增加后减少.
- 当Page Size过大时:
- 页面占用内存过多,导致内存可用空间变少,故障率增加;因为中断消耗CPU时间,所以中断越多,指令速率越低
- 当Page Size过小时:
- 页面过小时,会频繁发生swap导致的故障;同上
Ans:
i) Page Fault应该相对较低,因为大部分Page都已经加载到了内存里面去。
ii) 由题意,它说了是Working set of M pages,所以我们认为都是活跃的page,也就意味着,最坏的情况下User Bit都为1(用了就为1),需要遍历一圈才能够找到一个User Bit为0的进行驱逐;最好的情况下,是找一次就找到了User Bit为0的进行驱逐,因此可以认为
i) ALRU
- Assumption 驱逐策略: When all use bits set to 1, still use
FIFOpolicy. 我假设当use bit都为1的时候,按照FIFO的规则进行驱逐,因此选择驱逐4号page.
ii) LFU
The hit rate is
iii) FIFO
The hit rate is
iv)Clock
The hit rate is
Q6
Assumption: 有10个direct pointer
由题意,系统中只有Super Block的信息被load到了内存中,这意味着其他所有信息都要通过I/O获得。同时Assume利用System memory(内存)去做缓存。
Assume the 3rd block data can be access by direct pointer. root -> home -> c3230 -> bin -> monitor -> root -> usr -> bin -> monitor. Since root have been duplicate access and access to each node need 2 times of disk block accesses.(root已经加载到内存中不需要重复加载)monitor中的指针Access 3rd Block的Inode,继续读取Block的内容,因为Inode不储存data,所以还要再access磁盘,因此monitor需要再读取两次,因此答案应该是2+2+2+2+2+2+2+2=16次
(由图可知,读取第三个Block需要先从Inode找到Direct Pointer第三个指针,再进行读取;一次是读取指针指向的磁盘)
同上,但是不需要再访问root -> usr -> bin -> monitor,因此可以省略6次,总计10次。
- 随机读取: 编译器不可预测要访问哪个位置的变量,随机指定位置
- Ans: multi-level更快
- 顺序读取:依次遍历数组/链表中的所有元素
- Ans: 二者差不多
附录:知识点复习
虚拟内存知识点复习
- 虚拟内存三大实现机制:
- Page and frame 分页
- Swap 交换
- Page Fault 缺页异常
Process Address Space
-
每一个process有自己的地址空间
-
单位转换:
-
Responsibility of OS(软件)
- Setup MMU
- keep track of utilization of physical memory
-
三个假设
- Assumption 1
- Assume the address space of a process is relatively small, i.e., size of physical memory is much larger than a process's address space.
- Assumption 2
- Assume the process's address space must be placed contiguously in physical memory.
- Assumption 3
- Assume that the address space of every process is exactly the same size.
- Assumption 1
-
Dynamic Relocation
- Dynamic relocation是指在程序运行时,操作系统能够将程序中的某些地址(通常是指针或跳转指令中的地址)映射到实际内存地址的过程;分段是指将程序的内存空间划分为不同的逻辑段,每个段具有不同的属性和权限。这些段包括代码段、数据段、堆、栈等。分段是一种在程序执行期间为不同类型的数据提供不同保护级别和访问权限的机制。
Segmentation Paging
Improve Paging
Find Free Page Frame
CLOCK页面驱逐策略: 假设操作系统有一个进程,有M个页面,同时这M个Page已经被全部分配到了物理frame上; 循环中找找User Bit为0的页面进行驱逐
LRU和LFU的区别是,LRU每次找距离当前位置最远的驱逐,LFU每次找出现次数最小的进行驱逐(同样次数按照FIFO)
- 近似LRU算法采用一种更简化的方法来估计页面的使用情况,以减少开销。
- 使用一个被称为"use bit"的标志位来表示一个页面是否最近被访问。当一个页面被加载到内存时,或者当再次引用该页面时,硬件会将该页面的use bit设置为1。
- 为了清除use bit,系统会定期将所有页面的use bit重置为0。这样,不活跃的页面的use bit将会被清零。
- 近似LRU的思想是,被频繁使用的页面在不久的将来可能会再次被访问,因此只关注最近的访问情况。
File system 相关知识复习
Files and Directories
- 机械硬盘HDD最小存储单位Sector(
512Byte),读取单位logical Block(4KB,不一定相连);SSD是晶体管储存的page为最小单位读写,但是读取整个Block,擦除也是擦除整个block(效率相对较低) - SSD:存储读写效率高;HDD存储稳定,容量大,成本低
- Random I/O: SSD >> HDD
- Sequential I/O: SSD > HDD
- 文件的永久储存: Files and directories
- 每一个文件都有一个Inode Number, Inode是一个数据结构(文件的Meta Data)
- Directory本质也是一个文件:
file name + Low level id(inode)
- 文件系统:
- File integrity, Security, file management, storage management...
- 文件的抽象:
- 多个File descriptors对应一个Inode
- Inode的数据存储在磁盘中
- Hard link: 硬连接
- 创建多个文件路径都对应同一个inode
- Symbolic link: 软连接-快捷方式
- create another file that contains the pathname of original file as its data, 新创建一个文件,文件内容是路径;删除软连接不影响inode中硬连接的数量
File system implementation
- Super block中储存基本磁盘信息:
- 文件系统格式
- No. of inode available
- where is the inode table(就一块,在磁盘里,每一个单元是inode的具体信息): 存储inode data
- where is the inode bitmap: 一串二进制数字,一个文件被创建/可用就生成1,一个文件被删除就改成0
- inode of root directory: 告诉根目录位置,就可以按照树形结构去寻找了
- Inode:
- 要通过Inode找到存储在磁盘上的文件,inode needs to have some way to tell us which data blocks are associated to this file in the disk, 这会影响文件在系统中的最大大小;指针越多,可存储文件越大
- Inode中的指针类型
- direct(指向实际数据块)
- indirect(指向block)
- double indirect pointer...
- Disadvantage
- Used up some space in the inode to store the pointers 导致Inode结构体大
- Disk blocks used by a file may be scattered all over the disk 分散而不是连续存的
- Advantages
- Can support a very large file size
- Brings all pointers together (centralized) into the inode
- facilitate searching for a particular data block,树状结构寻找时间较短log
- Linked list
- cons:
- 安全性,一个断了就找不到了
- 随机访问较慢
- cons:
- Tabular: The logical structure is like a linked list, but the pointers in a tabular approach are centralized, i.e., stored at one or a few disk blocks rather than spread over many blocks.It is faster than linked-list approach as again the pointers are centralized. However, compared with multi-level index, the table can be very large (as basically all the pointers are just "direct pointers").
- 优势:
- 数据块位置的指针是集中管理的,便于查找和修改。
- 表格可以被缓存,直接读到内存中,从而提高搜索速度,改善访问时间。
- 劣势:
- 随着磁盘规模的增加,块分配表可能变得相当庞大,占用较多的存储空间。
- 对于大型磁盘,可能需要更复杂的机制来管理块分配表,以避免性能问题。
- Tabluar虽然是list,但是他实际上是由指针构成的,每个位置实际上存储的是指向下一个位置的指针,因此无论是随机查找还是顺序查找都需要从起点开始一个一个找
- 优势:
- Caching and buffering:
- 在没有缓存的情况下,磁盘I/O每读一个文件夹至少需要两次操作: inode+data
- Inode table是储存在磁盘里的,所以刚上电的时候就要做磁盘I/O,Inode table只能告诉我们磁盘编号,我们还要拿着这个编号去找数据存在磁盘的什么位置
- 如果要读取txt文件中的某个block,就需要I/O了
常见API
锁
// 互斥锁类型,用于在多线程环境中确保对共享资源的互斥访问
pthread _mutex t pthread _mutex_init()
// 初始化互斥锁
pthread mutex lock()
//解锁互斥锁,允许其他线程锁定该互斥锁
pthread _mutex_unlock()
// 销毁互斥锁
pthread _mutex_destory()
条件变量
pthread _cond_t
// 初始化条件变量
pthread _cond_ init(pthread_cond_t *cond, const pthread_condattr_t *attr)
// 等待条件变量的信号,同时释放关联的互斥锁,使得其他线程可以进入临界区
pthread_cond_wait(&cond, &mutex)
// 发送信号给等待在条件变量上的一个线程,使其从等待中醒来
pthread_cond_signal(&cond)
// 发送信号给等待在条件变量上的所有线程,使它们从等待中醒来
pthread_cond_broadcast(&cond)
// 销毁条件变量
pthread_cond_destory(&cond)
信号量
sem_post()是V操作,用于增加信号量的值;sem_wait()是P操作,用于减少信号量的值
// 信号量类型,用于在线程之间同步和互斥的控制
sema_t
// 初始化
sema_init(&sema, 0, 100)
// 尝试获取信号量,如果信号量的值大于零,则将其减一并继续执行;如果为零,则阻塞等待
sema_wait(sema_t *sema)
// 释放信号量,将其值加一。如果有其他线程在等待信号量,则其中一个线程将被唤醒。
sema_post(sema_t *sema)
sema_destroy(sema_t *sema)
死锁的发生条件和破除方法
- Mutual exclusion condition 使用互斥锁--> 不用互斥锁
- Wait-for condition (hold-and-wait condition) 可以申请一部分资源,再申请另一部分资源--> 申请所有的资源都是原子操作(一次性可以申请所有资源)
- No-preemption condition --> 可以强行回收资源
- Circular-wait condition --> 更改顺序,如:银行家算法 如果每把锁按照固定顺序,就不会发生死锁; 圈一样的循环等待
POSIX互斥锁
自旋锁
Test&Set
Compare&Swap
Fetch&Add
Readers&Writers
- 信号量方法
- 条件变量+互斥锁方法