《Linux内核设计与实现》读书笔记(十四)- 块I/O层
最近太忙,居然過了2個月才更新第十四章。。。。
主要內容:
- 塊設備簡介
- 內核訪問塊設備的方法
- 內核I/O調度程序
?
1. 塊設備簡介
I/O設備主要有2類:
- 字符設備:只能順序讀寫設備中的內容,比如 串口設備,鍵盤
- 塊設備:能夠隨機讀寫設備中的內容,比如 硬盤,U盤
字符設備由于只能順序訪問,所以應用場景也不多,這篇文章主要討論塊設備。
塊設備是隨機訪問的,所以塊設備在不同的應用場景中存在很大的優化空間。
?
塊設備中最重要的一個概念就是塊設備的最小尋址單元。
塊設備的最小尋址單元就是扇區,扇區的大小是2的整數倍,一般是 512字節。
扇區是物理上的最小尋址單元,而邏輯上的最小尋址單元是塊。
為了便于文件系統管理,塊的大小一般是扇區的整數倍,并且小于等于頁的大小。
?
查看扇區和I/O塊的方法:
[wangyubin@localhost]$ sudo fdisk -lWARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted. Disk /dev/sda: 500.1 GB, 500107862016 bytes, 976773168 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 4096 bytes I/O size (minimum/optimal): 4096 bytes / 4096 bytes Disk identifier: 0x00000000上面的 Sector size 就是扇區的值,I/O size就是 塊的值
從上面顯示的結果,我們發現有個奇怪的地方,扇區的大小有2個值,邏輯大小是 512字節,而物理大小卻是 4096字節。
其實邏輯大小 512字節是為了兼容以前的軟件應用,而實際物理大小 4096字節是由于硬盤空間越來越大導致的。
具體的來龍去脈請參考:4KB扇區的原因
?
2. 內核訪問塊設備的方法
內核通過文件系統訪問塊設備時,需要先把塊讀入到內存中。所以文件系統為了管理塊設備,必須管理[塊]和內存頁之間的映射。
內核中有2種方法來管理 [塊] 和內存頁之間的映射。
- 緩沖區和緩沖區頭
- bio
?
2.1 緩沖區和緩沖區頭
每個 [塊] 都是一個緩沖區,同時對每個 [塊] 都定義一個緩沖區頭來描述它。
由于 [塊] 的大小是小于內存頁的大小的,所以每個內存頁會包含一個或者多個 [塊]
?
緩沖區頭定義在 <linux/buffer_head.h>: include/linux/buffer_head.h
struct buffer_head {unsigned long b_state; /* 表示緩沖區狀態 */struct buffer_head *b_this_page;/* 當前頁中緩沖區 */struct page *b_page; /* 當前緩沖區所在內存頁 */sector_t b_blocknr; /* 起始塊號 */size_t b_size; /* buffer在內存中的大小 */char *b_data; /* 塊映射在內存頁中的數據 */struct block_device *b_bdev; /* 關聯的塊設備 */bh_end_io_t *b_end_io; /* I/O完成方法 */void *b_private; /* 保留的 I/O 完成方法 */struct list_head b_assoc_buffers; /* 關聯的其他緩沖區 */struct address_space *b_assoc_map; /* 相關的地址空間 */atomic_t b_count; /* 引用計數 */ };?
整個 buffer_head 結構體中的字段是減少過的,以前的內核中字段更多。
各個字段的含義通過注釋都很明了,只有 b_state 字段比較復雜,它涵蓋了緩沖區可能的各種狀態。
enum bh_state_bits {BH_Uptodate, /* 包含可用數據 */BH_Dirty, /* 該緩沖區是臟的(說明緩沖的內容比磁盤中的內容新,需要回寫磁盤) */BH_Lock, /* 該緩沖區正在被I/O使用,鎖住以防止并發訪問 */BH_Req, /* 該緩沖區有I/O請求操作 */BH_Uptodate_Lock,/* 由內存頁中的第一個緩沖區使用,使得該頁中的其他緩沖區 */BH_Mapped, /* 該緩沖區是映射到磁盤塊的可用緩沖區 */BH_New, /* 緩沖區是通過 get_block() 剛剛映射的,尚且不能訪問 */BH_Async_Read, /* 該緩沖區正通過 end_buffer_async_read() 被異步I/O讀操作使用 */BH_Async_Write, /* 該緩沖區正通過 end_buffer_async_read() 被異步I/O寫操作使用 */BH_Delay, /* 緩沖區還未和磁盤關聯 */BH_Boundary, /* 該緩沖區處于連續塊區的邊界,下一個塊不在連續 */BH_Write_EIO, /* 該緩沖區在寫的時候遇到 I/O 錯誤 */BH_Ordered, /* 順序寫 */BH_Eopnotsupp, /* 該緩沖區發生 “不被支持” 錯誤 */BH_Unwritten, /* 該緩沖區在磁盤上的位置已經被申請,但還有實際寫入數據 */BH_Quiet, /* 該緩沖區禁止錯誤 */BH_PrivateStart,/* 不是表示狀態,分配給其他實體的私有數據區的第一個bit */ };?
在2.6之前的內核中,主要就是通過緩沖區頭來管理 [塊] 和內存之間的映射的。
用緩沖區頭來管理內核的 I/O 操作主要存在以下2個弊端,所以在2.6開始的內核中,緩沖區頭的作用大大降低了。
- 弊端 1
對內核而言,操作內存頁是最為簡便和高效的,所以如果通過緩沖區頭來操作的話(緩沖區 即[塊]在內存中映射,可能比頁面要小),效率低下。
而且每個 [塊] 對應一個緩沖區頭的話,導致內存的利用率降低(緩沖區頭包含的字段非常多)
- 弊端 2
每個緩沖區頭只能表示一個 [塊],所以內核在處理大數據時,會分解為對一個個小的 [塊] 的操作,造成不必要的負擔和空間浪費。
?
2.2 bio
bio結構體的出現就是為了改善上面緩沖區頭的2個弊端,它表示了一次 I/O 操作所涉及到的所有內存頁。
/** I/O 操作的主要單元,針對 I/O塊和更低級的層 (ie drivers and* stacking drivers)*/ struct bio {sector_t bi_sector; /* 磁盤上相關扇區 */struct bio *bi_next; /* 請求列表 */struct block_device *bi_bdev; /* 相關的塊設備 */unsigned long bi_flags; /* 狀態和命令標志 */unsigned long bi_rw; /* 讀還是寫 */unsigned short bi_vcnt; /* bio_vecs的數目 */unsigned short bi_idx; /* bio_io_vect的當前索引 *//* Number of segments in this BIO after* physical address coalescing is performed.* 結合后的片段數目*/unsigned int bi_phys_segments;unsigned int bi_size; /* 剩余 I/O 計數 *//** To keep track of the max segment size, we account for the* sizes of the first and last mergeable segments in this bio.* 第一個和最后一個可合并的段的大小*/unsigned int bi_seg_front_size;unsigned int bi_seg_back_size;unsigned int bi_max_vecs; /* bio_vecs數目上限 */unsigned int bi_comp_cpu; /* 結束CPU */atomic_t bi_cnt; /* 使用計數 */struct bio_vec *bi_io_vec; /* bio_vec 鏈表 */bio_end_io_t *bi_end_io; /* I/O 完成方法 */void *bi_private; /* bio結構體創建者的私有方法 */ #if defined(CONFIG_BLK_DEV_INTEGRITY)struct bio_integrity_payload *bi_integrity; /* data integrity */ #endifbio_destructor_t *bi_destructor; /* bio撤銷方法 *//** We can inline a number of vecs at the end of the bio, to avoid* double allocations for a small number of bio_vecs. This member* MUST obviously be kept at the very end of the bio.* 內嵌在結構體末尾的 bio 向量,主要為了防止出現二次申請少量的 bio_vecs*/struct bio_vec bi_inline_vecs[0]; };幾個重要字段說明:
- bio 結構體表示正在執行的 I/O 操作相關的信息。
- bio_io_vec 鏈表表示當前 I/O 操作涉及到的內存頁
- bio_vec 結構體表示 I/O 操作使用的片段
- bi_vcnt bi_io_vec鏈表中bi_vec的個數
- bi_idx 當前的 bi_vec片段,通過 bi_vcnt(總數)和 bi_idx(當前數),就可以跟蹤當前 I/O 操作的進度
?
bio_vec 結構體很簡單,定義如下:
struct bio_vec {struct page *bv_page; /* 對應的物理頁 */unsigned int bv_len; /* 緩沖區大小 */unsigned int bv_offset; /* 緩沖區開始的位置 */ };每個 bio_vec 都是對應一個頁面,從而保證內核能夠方便高效的完成 I/O 操作
?
2.3 2種方法的對比
緩沖區頭和bio并不是相互矛盾的,bio只是緩沖區頭的一種改善,將以前緩沖區頭完成的一部分工作移到bio中來完成。
bio中對應的是內存中的一個個頁,而緩沖區頭對應的是磁盤中的一個塊。
對內核來說,配合使用bio和緩沖區頭 比 只使用緩沖區頭更加的方便高效。
bio相當于在緩沖區上又封裝了一層,使得內核在 I/O操作時只要針對一個或多個內存頁即可,不用再去管理磁盤塊的部分。
?
使用bio結構體還有以下好處:
- bio結構體很容易處理高端內存,因為它處理的是內存頁而不是直接指針
- bio結構體既可以代表普通頁I/O,也可以代表直接I/O
- bio結構體便于執行分散-集中(矢量化的)塊I/O操作,操作中的數據可以取自多個物理頁面
?
3. 內核I/O調度程序
緩沖區頭和bio都是內核處理一個具體I/O操作時涉及的概念。
但是內核除了要完成I/O操作以外,還要調度好所有I/O操作請求,盡量確保每個請求能有個合理的響應時間。
?
下面就是目前內核中已有的一些 I/O 調度算法。
3.1 linus電梯
為了保證磁盤尋址的效率,一般會盡量讓磁頭向一個方向移動,等到頭了再反過來移動,這樣可以縮短所有請求的磁盤尋址總時間。
磁頭的移動有點類似于電梯,所有這個 I/O 調度算法也叫電梯調度。
linux中的第一個電梯調度算法就是 linus本人所寫的,所有也叫做 linus 電梯。
?
linus電梯調度主要是對I/O請求進行合并和排序。
當一個新請求加入I/O請求隊列時,可能會發生以下4種操作:
?
linus電梯調度程序在2.6版的內核中被其他調度程序所取代了。
?
3.2 最終期限I/O調度
linus電梯調度主要考慮了系統的全局吞吐量,對于個別的I/O請求,還是有可能造成饑餓現象。
而且讀寫請求的響應時間要求也是不一樣的,一般來說,寫請求的響應時間要求不高,寫請求可以和提交它的應用程序異步執行,
但是讀請求一般和提交它的應用程序時同步執行,應用程序等獲取到讀的數據后才會接著往下執行。
因此在 linus 電梯調度程序中,還可能造成 寫-饑餓-讀(wirtes-starving-reads)這種特殊問題。
?
為了盡量公平的對待所有請求,同時盡量保證讀請求的響應時間,提出了最終期限I/O調度算法。
最終期限I/O調度 算法給每個請求設置了超時時間,默認情況下,讀請求的超時時間500ms,寫請求的超時時間是5s
但一個新請求加入到I/O請求隊列時,最終期限I/O調度和linus電梯調度相比,多出了以下操作:
?
最終期限I/O調度 算法也不能嚴格保證響應時間,但是它可以保證不會發生請求在明顯超時的情況下仍得不到執行。
最終期限I/O調度 的實現參見: block/deadline-iosched.c
?
3.3 預測I/O調度
最終期限I/O調度算法優先考慮讀請求的響應時間,但系統處于寫操作繁重的狀態時,會大大降低系統的吞吐量。
因為讀請求的超時時間比較短,所以每次有讀請求時,都會打斷寫請求,讓磁盤尋址到讀的位置,完成讀操作后再回來繼續寫。
這種做法保證讀請求的響應速度,卻損害了系統的全局吞吐量(磁頭先去讀再回來寫,發生了2次尋址操作)
?
預測I/O調度算法是為了解決上述問題而提出的,它是基于最終期限I/O調度算法的。
但有一個新請求加入到I/O請求隊列時,預測I/O調度與最終期限I/O調度相比,多了以下操作:
?
預測I/O調度算法中最重要的是保證等待期間不要浪費,也就是提高預測的準確性,
目前這種預測是依靠一系列的啟發和統計工作,預測I/O調度程序會跟蹤并統計每個應用程序的I/O操作習慣,以便正確預測應用程序的讀寫行為。
?
如果預測的準確率足夠高,那么預測I/O調度和最終期限I/O調度相比,既能提高讀請求的響應時間,又能提高系統吞吐量。
預測I/O調度的實現參見: block/as-iosched.c
?
注:預測I/O調度是linux內核中缺省的調度程序。
?
3.4 完全公正的排隊I/O調度
完全公正的排隊(Complete Fair Queuing, CFQ)I/O調度 是為專有工作負荷設計的,它和之前提到的I/O調度有根本的不同。
CFQ I/O調度 算法中,每個進程都有自己的I/O隊列,
CFQ I/O調度程序以時間片輪轉調度隊列,從每個隊列中選取一定的請求數(默認4個),然后進行下一輪調度。
?
CFQ I/O調度在進程級提供了公平,它的實現位于: block/cfq-iosched.c
?
3.5 空操作的I/O調度
空操作(noop)I/O調度幾乎不做什么事情,這也是它這樣命名的原因。
空操作I/O調度只做一件事情,當有新的請求到來時,把它與任一相鄰的請求合并。
?
空操作I/O調度主要用于閃存卡之類的塊設備,這類設備沒有磁頭,沒有尋址的負擔。
空操作I/O調度的實現位于: block/noop-iosched.c
?
3.6 I/O調度程序的選擇
2.6內核中內置了上面4種I/O調度,可以在啟動時通過命令行選項 elevator=xxx 來啟用任何一種。
elevator選項參數如下:
| 參數 | I/O調度程序 |
| as | 預測 |
| cfq | 完全公正排隊 |
| deadline | 最終期限 |
| noop | 空操作 |
如果啟動預測I/O調度,啟動的命令行參數中加上 elevator=as
轉載于:https://www.cnblogs.com/wang_yb/p/3299092.html
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的《Linux内核设计与实现》读书笔记(十四)- 块I/O层的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: MySQL学习笔记_2_MySQL创建数
- 下一篇: 内置函数与lambda匿名函数