如何基于LSM-tree架构实现一写多读
簡介:傳統(tǒng)MySQL基于binlog復(fù)制的主備架構(gòu)有它的局限性,包括存儲空間有限,備份恢復(fù)慢,主備復(fù)制延遲等問題,為了解決用戶對于云上RDS(X-Engine)大容量存儲,以及彈性伸縮的訴求,PolarDB推出了歷史庫(基于X-Engine引擎的一寫多讀)產(chǎn)品,支持物理復(fù)制,提供一寫多讀的能力,目前已經(jīng)在阿里云官網(wǎng)售賣。本文主要闡述如何基于LSM-tree結(jié)構(gòu)的存儲引擎實現(xiàn)數(shù)據(jù)庫的一寫多讀能力。
作者 | 雁閑
來源 | 阿里技術(shù)公眾號
一 前言
PolarDB是阿里巴巴自研的新一代云原生關(guān)系型數(shù)據(jù)庫,在存儲計算分離架構(gòu)下,利用了軟硬件結(jié)合的優(yōu)勢,為用戶提供具備極致彈性、海量存儲、高性能、低成本的數(shù)據(jù)庫服務(wù)。X-Engine是阿里巴巴自研的新一代存儲引擎,作為AliSQL的核心引擎之一已廣泛用于阿里巴巴集團核心業(yè)務(wù),包括交易歷史庫,釘釘歷史庫,圖片空間等。X-Engine基于LSM-tree架構(gòu),其核心特征是數(shù)據(jù)以追加寫方式寫入,高壓縮低成本,適用于寫多讀少,有低成本訴求的業(yè)務(wù)場景。傳統(tǒng)MySQL基于binlog復(fù)制的主備架構(gòu)有它的局限性,包括存儲空間有限,備份恢復(fù)慢,主備復(fù)制延遲等問題,為了解決用戶對于云上RDS(X-Engine)大容量存儲,以及彈性伸縮的訴求,PolarDB推出了歷史庫(基于X-Engine引擎的一寫多讀)產(chǎn)品,支持物理復(fù)制,提供一寫多讀的能力,目前已經(jīng)在阿里云官網(wǎng)售賣。本文主要闡述如何基于LSM-tree結(jié)構(gòu)的存儲引擎實現(xiàn)數(shù)據(jù)庫的一寫多讀能力。
二 LSM-tree數(shù)據(jù)庫引擎
LSM-Tree全稱是Log Structured Merge Tree,是一種分層,有序,面向磁盤設(shè)計的數(shù)據(jù)結(jié)構(gòu),其核心思想是利用磁盤批量的順序?qū)懸入S機寫性能高的特點,將所有更新操作都轉(zhuǎn)化為追加寫方式,提升寫入吞吐。LSM-tree類的存儲引擎最早源于Google三駕馬車之一的BigTable的存儲引擎以及它的開源實現(xiàn)LevelDB。LSM-tree存儲引擎有幾個特點,首先增量數(shù)據(jù)像日志一樣,通過追加方式寫入,順序落盤;其次,數(shù)據(jù)按照key來進行有序組織,這樣在內(nèi)存和磁盤中會形成一顆顆小的“有序樹”;最后,各個“有序樹”可以進行歸并,將內(nèi)存中的增量數(shù)據(jù)遷移到磁盤上,磁盤上的多個“有序樹”可以進行歸并,優(yōu)化樹的形狀,整個LSM-tree是一個有序的索引組織結(jié)構(gòu)。
在云原生數(shù)據(jù)庫時代,一寫多讀技術(shù)已被廣泛應(yīng)用于生產(chǎn)環(huán)境中,主要云產(chǎn)商都有其標桿產(chǎn)品,典型代表包括亞馬遜的Aurora,阿里云的PolarDB以及微軟云的Socrates。它的核心思想是計算存儲分離,將有狀態(tài)的數(shù)據(jù)和日志下推到分布式存儲,計算節(jié)點無狀態(tài),多個計算節(jié)點共享一份數(shù)據(jù),數(shù)據(jù)庫可以低成本快速擴展讀性能。Aurora是這個領(lǐng)域的開山鼻祖,實現(xiàn)了業(yè)內(nèi)第一個一寫多讀的數(shù)據(jù)庫,計算節(jié)點Scale up,存儲節(jié)點Scale out,并將日志模塊下推到存儲層,計算節(jié)點之間,計算與存儲節(jié)點之間傳輸redo日志,計算節(jié)點基于Quorum協(xié)議寫多副本保證可靠性,存儲層提供多版本頁服務(wù)。PolarDB與Aurora類似,也采用了存儲計算分離架構(gòu),與Aurora相比,PolarDB它自己的特色,存儲基座是一個通用的分布式文件系統(tǒng),大量采用OS-bypass和zero-copy技術(shù),存儲的多副本一致性由ParallelRaft協(xié)議保證。PolarDB計算節(jié)點與存儲節(jié)點同時傳輸數(shù)據(jù)頁和redo日志,計算節(jié)點與計算節(jié)點之間只傳遞位點信息。與Aurora的“日志即數(shù)據(jù)庫”理念一樣,Socrates的節(jié)點之間只傳輸redo日志,也實現(xiàn)了多版本頁服務(wù),它的特點是將數(shù)據(jù)庫存儲層的持久性與可用性分開,抽象出一套日志服務(wù)。整個數(shù)據(jù)庫分為3層,一層計算服務(wù),一層page server服務(wù)和一層日志服務(wù),這樣設(shè)計的好處是可以分層進行優(yōu)化,提供更靈活和細粒度的控制。
雖然Aurora,PolarDB和Socrates在設(shè)計上各有特點,但它們都共同踐行了存儲計算分離思想,數(shù)據(jù)庫層面提供一寫多讀的能力。深入到存儲引擎這一層來說,這幾個產(chǎn)品都是基于B+tree的存儲引擎,如果基于LSM-tree存儲引擎來做呢?LSM-tree有它自己的特點,追加順序?qū)?#xff0c;數(shù)據(jù)分層存儲,磁盤上數(shù)據(jù)塊只讀更有利于壓縮。X-Engine引擎云上產(chǎn)品RDS(X-Engine)已經(jīng)充分發(fā)揮了LSM-tree高壓縮低成本特點,同樣的數(shù)據(jù)量,存儲空間只占到RDS(InnoDB)的1/3甚至更少,RDS(X-Engine)傳統(tǒng)的主備架構(gòu),依然面臨著主備復(fù)制延遲大,備份恢復(fù)慢等問題。基于LSM-tree引擎實現(xiàn)一寫多讀,不僅計算資源和存儲資源解耦,多個節(jié)點共享一份數(shù)據(jù)還能進一步壓縮存儲成本。
基于LSM-tree引擎實現(xiàn)一寫多讀面臨著與B+tree引擎不一樣的技術(shù)挑戰(zhàn),首先是存儲引擎日志不一樣,LSM-tree引擎是雙日志流,需要解決雙日志流的物理復(fù)制問題;其次是數(shù)據(jù)組織方式不一樣,LSM-tree引擎采用分層存儲,追加寫入新數(shù)據(jù),需要解決多個計算節(jié)點一致性物理快照以及Compation問題。最后,作為數(shù)據(jù)庫引擎,還需要解決一寫多讀模式下DDL的物理復(fù)制問題。同時,為了產(chǎn)品化,充分發(fā)揮B+tree引擎和LSM-tree引擎的各自優(yōu)勢,還面臨著新的挑戰(zhàn),即如何在一個數(shù)據(jù)庫產(chǎn)品中同時實現(xiàn)兩個存儲引擎(InnoDB,X-Engine)的一寫多讀。
三 LSM-tree引擎一寫多讀的關(guān)鍵技術(shù)
1 PolarDB整體架構(gòu)
PolarDB支持X-Engine引擎后,X-Engine引擎與InnoDB引擎仍然獨立存在。兩個引擎各自接收寫入請求,數(shù)據(jù)和日志均存儲在底層的分布式存儲上,其中idb文件表示的是InnoDB的數(shù)據(jù)文件,sst文件表示的是X-Engine的數(shù)據(jù)文件。這里最主要的點在于InnoDB與XEngine共享一份redo日志,X-Engine寫入時,將wal日志嵌入到InnoDB的redo中,Replica節(jié)點和Standby節(jié)點在解析redo日志后,分發(fā)給InnoDB引擎和XEngine引擎分別回放進行同步。
PolarDB(X-Engine)架構(gòu)圖
X-Engine引擎架構(gòu)
X-Engine引擎采用LSM-tree結(jié)構(gòu),數(shù)據(jù)以追加寫的方式寫入內(nèi)存,并周期性物化到磁盤上,內(nèi)存中數(shù)據(jù)以memtable形式存在,包括一個活躍的active memtable和多個靜態(tài)的immutable。磁盤上數(shù)據(jù)分層存儲,總共包括3層,L0,L1和L2,每一層數(shù)據(jù)按塊有序組織。X-Engine最小空間分配單位是一個extent,默認是2M,每個extent包含若干個block,默認是16k。數(shù)據(jù)記錄緊湊存儲在block中,由于追加寫特點,磁盤上的數(shù)據(jù)塊都是只讀的,因此X-Engine引擎可以默認對block進行壓縮,另外block中的記錄還會進行前綴編碼,綜合這些使得X-Engine的存儲空間相對于InnoDB引擎只有1/3,部分場景(比如圖片空間)甚至能壓縮到1/7。有利就有弊,追加寫帶來了寫入優(yōu)勢,對于歷史版本數(shù)據(jù)需要通過Compaction任務(wù)來進行回收。有關(guān)X-Engine的核心技術(shù)可以參考發(fā)表在Sigmod19的論文,《X-Engine: An Optimized Storage Engine for Large-scale E-commerce Transaction Processing》
X-Engine整體架構(gòu)
2 物理復(fù)制架構(gòu)
物理復(fù)制的核心是通過引擎自身的日志來完成復(fù)制,避免寫額外的日志帶來的成本和性能損失。MySQL原生的復(fù)制架構(gòu)是通過binlog日志進行復(fù)制,寫事務(wù)需要同時寫引擎日志和binlog日志,這帶來的問題是一方面單個事務(wù)在關(guān)鍵寫路徑上需要寫兩份日志,寫性能受制于二階段提交和binlog的串行寫入,另一方面binlog復(fù)制是邏輯復(fù)制,復(fù)制延遲問題也使得復(fù)制架構(gòu)的高可用,以及只讀庫的讀服務(wù)能力大打折扣,尤其是在做DDL操作時,這個延遲會進一步放大。
在InnoDB中有redo和undo兩種日志,undo日志可以理解為一種特殊的“data”,所以實際上InnoDB的所有操作都能通過redo日志來保證持久性。因此,在進行復(fù)制時,只需要在主從節(jié)點復(fù)制redo日志即可。X-Engine引擎包含兩種日志,一種是wal日志(WriteAheadLog),用于記錄前臺的事務(wù)的操作;另一種是Slog(StorageLog),用于記錄LSM-tree形狀變化的操作,主要指Compaction/Flush等。wal日志保證了前臺事務(wù)的原子性和持久性,Slog則保證了X-Engine內(nèi)部LSM-tree形狀變化的原子性和持久性,這兩個日志缺一不可,都需要復(fù)制同步。
共享存儲下的物理復(fù)制
Primary-Replica物理復(fù)制架構(gòu)
LSM-tree引擎一寫多讀的能力是對PolarDB進行功能增強,體現(xiàn)在架構(gòu)層面就是充分利用已有的復(fù)制鏈路,包括Primary->Replica傳遞日志信息鏈路和Replica->Primary傳遞協(xié)同控制信息鏈路。InnoDB事務(wù)由若干個mtr(Mini-Transaction)組成,寫入redo日志的最小單位是mtr。我們在Innodb的redo日志新增一種日志類型用于表示X-Engine日志,將X-Engine的事務(wù)內(nèi)容作為一個mtr事務(wù)寫入到redo日志中,這樣Innodb的redo和X-Engine的wal日志能共享一條復(fù)制鏈路。由于Primary和Replica共享一份日志和數(shù)據(jù),Dump_thread只需要傳遞位點信息,由Replica根據(jù)位點信息去讀redo日志。Replica解析日志,根據(jù)日志類型來分發(fā)日志給不同的回放引擎,這種架構(gòu)使得所有復(fù)制框架與之前的復(fù)制保持一致,只需要新增解析、分發(fā)X-Engine日志邏輯,新增X-Engine的回放引擎,充分與InnoDB引擎解耦。
由于LSM-tree追加寫特點,內(nèi)存memtable中數(shù)據(jù)會周期性的Flush到磁盤,為了保證Primary和Replica讀到一致性物理視圖,Primary和Replica需要同步SwitchMemtable,需要新增一條SwitchMemtable控制日志來協(xié)調(diào)。redo日志持久化后,Primary通過日志方式將位點信息主動推送給Replica,以便Replica及時回放最新的日志,減少同步延遲。對于Slog日志,既可以采用類似于redo的日志方式來主動“push”方式來同步位點,也可以采用Replica主動“pull”的方式來同步。SLog是后臺日志,相對于前臺事務(wù)回放實時性要求不高,不必要將redo位點和SLog位點都放在一條復(fù)制鏈路增加復(fù)雜性,所以采用了Replica的“pull”的方式來同步SLog。
災(zāi)備集群間的物理復(fù)制
Primary-Standby物理復(fù)制架構(gòu)
與共享集群復(fù)制不同,災(zāi)備集群有獨立一份存儲,Primary—>Standby需要傳遞完整的redo日志。Stanby與Replica區(qū)別在于日志來源不同,Replica從共享存儲上獲取日志,Standy從復(fù)制鏈路獲取日志,其它解析和回放路徑是一樣的。是否將Slog日志作為redo日志一部分傳遞給Standby是一個問題,Slog日志由Flush/Compaction動作產(chǎn)生,記錄的是LSM-tree形狀的物理變化。如果也通過redo日志鏈路同步給Standby,會帶來一些復(fù)雜性,一方面是X-Engine內(nèi)部寫日志的方式需要改動,需要新增新增文件操作相關(guān)的物理日志來確保主從物理結(jié)構(gòu)一致,故障恢復(fù)的邏輯也需要適配;另一方面,Slog作為后臺任務(wù)的操作日志,意味著復(fù)制鏈路上的所有角色都需要同構(gòu);如果放棄同構(gòu),那么Standy節(jié)點可能會觸發(fā)Flush/Compaction任務(wù)寫日志,這與物理復(fù)制中,只允許Primary寫日志是相違背的。實際上,Slog同步寫入到redo log中不是必須的,因為Slog是后臺日志,這個動作不及時回放并不影響數(shù)據(jù)視圖的正確性,因此,復(fù)制鏈路上只包含redo日志(X-Engine wal日志和InnoDB redo日志),Standby自己控制Flush/Compaction產(chǎn)生Slog日志,這樣Standby也不必與Primary節(jié)點物理同構(gòu),整個架構(gòu)與現(xiàn)有體系相匹配,同時也更加靈活。
3 并行物理復(fù)制加速
X-Engine的事務(wù)包括兩個階段,第一個階段是讀寫階段,這個階段事務(wù)操作數(shù)據(jù)會緩存在事務(wù)上下文中,第二階段是提交階段,將操作數(shù)據(jù)寫入到redo日志持久化,隨后寫到memtable中供讀操作訪問。對于Standby/Replica節(jié)點而言,回放過程與Primary節(jié)點類似,從redo中解析到事務(wù)日志,然后將事務(wù)回放到memtable中。事務(wù)之間不存在沖突,通過Sequence版本號來確定可見性。并行回放的粒度是事務(wù),需要處理的一個關(guān)鍵問題就是可見性問題。事務(wù)串行回放時,Sequence版本號都是連續(xù)遞增的,事務(wù)可見性不存在問題。在并行回放場景下,我們?nèi)匀恍枰P?#xff0c;通過引入“滑動窗口”機制,只有連續(xù)一段沒有空洞的Sequence才能推進全局的Sequence版本號,這個全局Sequence用于讀操作獲取快照。
并行復(fù)制框架
一寫多讀架構(gòu)下,為了保證同一數(shù)據(jù)庫實例的Primary、Replica、Standby三個角色的內(nèi)存鏡像完全一致,新增了一種SwitchMemtableLog,該Log Record在RW的switch_memtable過程中產(chǎn)生,因此RO、Standby不再主動觸發(fā)switch_memtable操作,而是通過從RW上同步SwitchMemtableLog進行switch_memtable。SwitchMemtable操作是一個全局的屏障點,以防止當(dāng)前可寫memtable在插入過程中switch從而導(dǎo)致數(shù)據(jù)錯亂。另外,對于2PC事務(wù),并發(fā)控制也需要做適配。一個2PC事務(wù)除了數(shù)據(jù)本身的日志,還包括BeginPrepare、EndPrepare、Commit、Rollback四類日志,寫入過程中保證BeginPrepare和EndPrepare寫入到一個WriteBatch中并順序落盤,因此可以保證同一個事務(wù)的Prepare日志都會被解析到一個ReplayTask中。在并行回放過程中,由于無法保證Commit或Rollback日志一定后于Prepare日志被回放,因此如果Commit、Rollback日志先于Prepare日志被回放,那么在全局的recovered_transaction_map中插入一個key對xid的空事務(wù),對應(yīng)的事務(wù)狀態(tài)為Commit或Rollback;隨后Prepare日志完成回放時,如果發(fā)現(xiàn)recovered_transaction_map中已經(jīng)存在對應(yīng)的事務(wù),那么可以根據(jù)事務(wù)的狀態(tài)來決定直接提交事務(wù)還是丟棄事務(wù)。
對于B+Tree的物理復(fù)制,LSM-tree的物理復(fù)制并不是真正的“物理”復(fù)制。因為B+Tree傳遞的redo的內(nèi)容是數(shù)據(jù)頁面的修改,而LSM-tree傳遞的redo內(nèi)容是KeyValue值。這帶來的結(jié)果是,B+tree物理復(fù)制可以基于數(shù)據(jù)頁粒度做并發(fā)回放,而LSM-tree的物理復(fù)制是基于事務(wù)粒度的并發(fā)回放。B+tree并發(fā)回放有它自身的復(fù)雜性,比如需要解決系統(tǒng)頁回放與普通數(shù)據(jù)頁回放先后順序問題,并且還需要解決同一個mtr中多個數(shù)據(jù)頁并發(fā)回放可能導(dǎo)致的物理視圖不一致問題。LSM-tree需要解決多個節(jié)點在同樣位置SwitchMemtable,以及2PC事務(wù)回放等問題。
4 MVCC(多版本并發(fā)控制)
物理復(fù)制技術(shù)解決了數(shù)據(jù)同步的問題,為存儲計算分離打下了基礎(chǔ)。為了實現(xiàn)彈性,動態(tài)升降配,增刪只讀節(jié)點的能力,需要只讀節(jié)點具備一致性讀的能力,另外RW節(jié)點和RO節(jié)點共享一份數(shù)據(jù),歷史版本回收也是必需要考慮的問題。
一致性讀
X-Engine提供快照讀的能力,通過多版本機制來實現(xiàn)讀寫不互斥效果。從上述的X-Engine架構(gòu)圖可以看到,X-Engine的數(shù)據(jù)實際上包括了內(nèi)存和磁盤兩部分,不同于InnoDB引擎內(nèi)存中page是磁盤上page的緩存,X-Engine中內(nèi)存數(shù)據(jù)與磁盤數(shù)據(jù)完全異構(gòu),一份“快照”需要對應(yīng)的是內(nèi)存+磁盤數(shù)據(jù)。X-Engine采用追加寫方式,新數(shù)據(jù)進來會產(chǎn)生新的memtable,后臺任務(wù)做flush/compaction任務(wù)也會產(chǎn)生新的extent。那么如何獲取一致性視圖呢?X-Engine內(nèi)部實際上是通過MetaSnapshot+Snapshot來管理,首先每個MetaSnapshot對應(yīng)一組memtable和L0,L1, L2的extents,這樣在物理上確定了數(shù)據(jù)范圍,然后通過Snapshot來處理行級版本的可見性,這里的Snapshot實際上就是一個事務(wù)提交序列號Sequence。不同于InnoDB事務(wù)編號采用開始序,需要通過活躍事務(wù)視圖來判斷記錄的可見性;X-Engine事務(wù)采用提交序,每條記錄有一個唯一遞增序列號Sequence,判斷行級版本的可見性只需要比較Sequence即可。在一寫多讀的模式下,Replica節(jié)點與Primary節(jié)點共享一份磁盤數(shù)據(jù),而磁盤數(shù)據(jù)是有內(nèi)存中數(shù)據(jù)定期dump出來的,因此需要保證Primary和Replica節(jié)點有相同的切memtable位點,從而保證數(shù)據(jù)視圖的一致性。
一寫多讀下的Compaction
在一寫多讀場景下,Replica可以通過類似于Primary的快照機制來實現(xiàn)快照讀,需要處理的問題是歷史版本回收問題。歷史版本的回收,依賴于Compaction任務(wù)來完成,這里的回收包括兩部分,一部分MetaSnapshot的回收,主要確認哪些memtable和extents可以被物理回收掉,另一部分是行級多版本回收,這里主要是確認哪些歷史版本行可以被回收掉。對于MetaSnapshot的回收,Primary會收集所有Replica節(jié)點上的最小不再使用的MetaSnapshot版本號,X-Engine引擎的每個索引都是一個LSM-tree,因此匯報MetaSnaphot版本號是索引粒度的。Primary收集完MetaSnapshot版本號,計算最小可以回收的MetaSnapshot進行資源回收操作,回收操作以Slog日志的方式同步給Replica節(jié)點。Replica節(jié)點在回放日志進行資源回收時,需要將內(nèi)存和磁盤資源分開,內(nèi)存資源在各個節(jié)點是獨立的,磁盤資源是共享的,因此Replica節(jié)點的內(nèi)存資源可以獨立釋放,而磁盤資源則統(tǒng)一由Primary節(jié)點來釋放。對于行級多版本的回收,同樣需要由Primary節(jié)點收集所有Replica節(jié)點最小序列號Sequence,由Primary節(jié)點通過Compaction任務(wù)來消除。這塊匯報鏈路復(fù)用PolarDB的ACK鏈路,只是新增了X-Engine的匯報信息。
5 DDL的物理復(fù)制如何實現(xiàn)
物理復(fù)制相對于邏輯復(fù)制一個關(guān)鍵優(yōu)勢在于DDL,對于DDL而言,邏輯復(fù)制可以簡單理解為復(fù)制SQL語句,DDL在從庫上會重新再執(zhí)行一遍。邏輯復(fù)制對于比較重的DDL操作,比如Alter table影響非常大,一個Alter變更操作在主庫執(zhí)行需要半小時,那么復(fù)制到從庫也需要再執(zhí)行半小時,那么主從延遲最大可能就會是1個小時,這個延遲對只讀庫提供讀服務(wù)產(chǎn)生嚴重影響。
Server層復(fù)制
DDL操作同時涉及到Server層和引擎層,包括字典,緩存以及數(shù)據(jù)。最基礎(chǔ)的DDL操作,比如
Create/Drop操作,在一寫多讀架構(gòu)下,要考慮數(shù)據(jù)與數(shù)據(jù)字典,數(shù)據(jù)與字典緩存一致性等問題。一寫多讀的基礎(chǔ)是物理復(fù)制,物理復(fù)制日志只在引擎層流動,不涉及到Server層,因此需要新增日志來解決DDL操作導(dǎo)致的不一致問題。我們新增了meta信息變更的日志,并作為redo日志的一部分同步給從節(jié)點,這個meta信息變更日志主要包括兩部分內(nèi)容,一個是字典同步,主要是同步MDL鎖,確保Primary/Replica節(jié)點字典一致;另一個是字典緩存同步,Replica上的內(nèi)存是獨立的,Server層緩存的字典信息也需要更新,因此要新增日志來處理,比如Drop Table/Drop db/Upate function/Upate precedure等操作。另外,還需要同步失效Replica的QueryCache,避免使用錯誤的查詢緩存。
引擎層復(fù)制
X-Engine引擎與InnoDB引擎一樣是索引組織表,在X-Engine內(nèi)部,每個索引都是一個LSM-tree結(jié)構(gòu),內(nèi)部稱為Subtable,所有寫入都是在Subtable中進行,Subtable的生命周期與DDL操作緊密相關(guān)。用戶發(fā)起建表動作會產(chǎn)生Subtable,這個是物理LSM-tree結(jié)構(gòu)的載體,然后才能有后續(xù)的DML操作;同樣的,用戶發(fā)起刪表動作后,所有這個Subtable的DML操作都應(yīng)該執(zhí)行完畢。Create/Drop Table操作涉及到索引結(jié)構(gòu)的產(chǎn)生和消亡,會同時產(chǎn)生redo控制日志和SLog日志,在回放時,需要解決redo控制日志和SLog日志回放的時序問題。這里我們將對應(yīng)Subtable的redo日志的LSN位點持久化到SLog中,作為一個同步位點,Replica回放時,兩個回放鏈路做協(xié)調(diào)即可,redo日志記錄的是前臺操作,Slog記錄的是后臺操作,因此兩個鏈路做協(xié)同時,需要盡量避免redo復(fù)制鏈路等待Slog復(fù)制鏈路。比如,對于Create操作,回放Slog時,需要等待對應(yīng)的redo日志的LSN位點回放完畢才推進;對于DROP操作,回放SLog也需要協(xié)同等待,避免回放前臺事務(wù)找不到Subtable。
OnlineDDL復(fù)制技術(shù)
對于Alter Table操作,X-Engine實現(xiàn)了一套OnlineDDL機制,詳細實現(xiàn)原理可以參考內(nèi)核月報。在一寫多讀架構(gòu)下,X-Engine引擎在處理這類Alter操作時采用了物理復(fù)制,實際上對于Replica而言,由于是同一份數(shù)據(jù),并不需要重新生成物理extent,只需要同步元信息即可。對于Standby節(jié)點,需要通過物理extent復(fù)制來重新構(gòu)建索引。DDL復(fù)制時,實際上包含了基線和增量部分。DDL復(fù)制充分利用了X-Engine的分層存儲以及LSM-tree結(jié)構(gòu)追加寫特點,在獲取快照后,利用快照直接構(gòu)建L2作為基線數(shù)據(jù),這部分數(shù)據(jù)以extent塊復(fù)制形式,通過redo通道傳遞給Standby,而增量數(shù)據(jù)則與普通的DML事務(wù)一樣,所以整個操作都是通過物理復(fù)制進行,大大提高了復(fù)制效率。這里需要限制的僅僅是在Alter操作過程中,禁止做到L2的compaction即可。整個OnlineDDL過程與InnoDB的OnlineDDL流程類似,也是包括3個階段,prepare階段,build階段和commit階段,其中prepare階段需要獲取快照,commit階段元數(shù)據(jù)生效,需要通過MDL鎖來確保字典一致。與基于B+tree的OnlineDDL復(fù)制相比,基線部分,B+tree索引復(fù)制的是物理頁,而LSM-tree復(fù)制的是物理extent;增量部分B+tree索引是通過記增量日志,回放增量日志到數(shù)據(jù)頁寫redo日志進行同步,LSM-tree則是通過DML前臺操作寫redo的方式同步。
OnlineDDL復(fù)制
6 雙引擎技術(shù)
Checkpoint位點推進
通過wal-in-redo技術(shù),我們將X-Engine的wal日志嵌入到了InnoDB的redo中,首先要處理的一個問題就是redo日志的回收問題。日志回收首先涉及到一個位點問題,融合進redo日志后,X-Engine內(nèi)部將RecoveryPoint定義為<lsn, Sequence>,lsn表示redo日志的位點,Sequence為對應(yīng)的X-Engine的事務(wù)的版本號。Redo日志回收與Checkpoint(檢查點)強相關(guān),確保Checkpoint位點及時推進是需要考慮的問題,否則redo日志的堆積一方面影響磁盤空間,另一方面也影響恢復(fù)速度。這里有一個基本的原則是,Checkpoint=min(innodb-ckpt-lsn, xengine-ckpt-lsn),xengine-ckpt-lsn就是來源于X-Engine的RecoveryPoint,確保任何引擎有內(nèi)存數(shù)據(jù)沒有落盤時,對應(yīng)的redo日志不能被清理。為了避免X-Engine的checkpoint推進影響整體位點推進,內(nèi)部會確保xengine-ckpt-lsn與全局的redo-lsn保持一定的閥值,超過閥值則會強制將memtable落盤,推進檢查點。
數(shù)據(jù)字典與DDL
X-Engine作為一個數(shù)據(jù)庫引擎有自己獨立的字典,InnoDB也有自己的字典,兩份字典在一個系統(tǒng)里面肯定會存在問題。為了解決問題,這里有兩種思路,一是X-Engine仍然保留自己的數(shù)據(jù)字典,在做DDL時,通過2PC事務(wù)來保證一致性,這帶來的問題是需要有協(xié)調(diào)者。一般情況下,MySQL的協(xié)調(diào)者是binlog日志,在binlog關(guān)閉時是tclog日志。顯然,從功能和性能角度,我們都不會強依賴binlog日志。我們采用了另外一種思路,X-Engine不再用自身引擎存儲元數(shù)據(jù),所有元數(shù)據(jù)均通過InnoDB引擎持久化,X-Engine元數(shù)據(jù)實際上是InnoDB字典的一份緩存,那么在做DDL變更時,元數(shù)據(jù)部分實際上只涉及InnoDB引擎,通過事務(wù)能保證DDL的原子性。
通過元數(shù)據(jù)歸一化我們解決了元數(shù)據(jù)的原子性問題,但X-Engine數(shù)據(jù)和InnoDB元數(shù)據(jù)如何保證一致也是個問題。比如一個DDL操作,alter table xxx engine = xengine,這個DDL是將innodb表轉(zhuǎn)為xengine表,由于表結(jié)構(gòu)變更是Innodb字典修改,數(shù)據(jù)是在修改X-Engine,是一個跨引擎事務(wù),跨引擎事務(wù)需要通過協(xié)調(diào)者保證一致性。為了避免引入binlog作為協(xié)調(diào)者依賴,tclog作為協(xié)調(diào)者沒有經(jīng)過大規(guī)模生產(chǎn)環(huán)境驗證,我們選擇了另外一種處理方式,具體來說,在涉及跨引擎事務(wù)時,優(yōu)先提交X-Engine事務(wù),然后再提交InnoDB事務(wù)。對于DDL來說,就是“先數(shù)據(jù),后元數(shù)據(jù)”,元數(shù)據(jù)提交了,才真正表示這個DDL完成。如果中途失敗,則結(jié)合“延遲刪除”的機制,來保證垃圾數(shù)據(jù)能被最終清理掉,通過一個后臺任務(wù)來周期性的對比X-Engine數(shù)據(jù)與InnoDB的字典,以InnoDB字典為準,結(jié)合X-Engine內(nèi)存元信息,確認這部分數(shù)據(jù)是否有用。
CrashRecovery
X-Engine與InnoDB引擎一樣是MySQL的一個插件,X-Enigne作為一個可選的插件,啟動順序在Innodb之后。每個引擎在恢復(fù)階段都需要通過redo日志來將數(shù)據(jù)庫恢復(fù)到宕機前狀態(tài)。在雙引擎形態(tài)下,所有redo都在InnoDB中,那意味著無論是InnoDB引擎還是X-Engine引擎在讀取日志恢復(fù)時,都需要掃描整個redo日志,相當(dāng)于整個恢復(fù)階段掃描了兩遍redo,這可能使得整個宕機恢復(fù)過程非常長,降低了系統(tǒng)的可用性。為了解決這個問題,我們將X-Engine的恢復(fù)階段細分,并且調(diào)整引擎的啟動順序,在InnoDB啟動前,先完成X-Engine的初始化以及Slog等恢復(fù)過程,處于恢復(fù)redo的狀態(tài)。在InnoDB啟動時,根據(jù)類型將日志分發(fā)X-Engine引擎,整個流程與正常同步redo日志的過程一致。當(dāng)redo日志分發(fā)完畢,相當(dāng)于InnoDB引擎和X-Engine引擎自身的宕機恢復(fù)過程已經(jīng)完成,然后走正常XA-Recovery和Post-Recovery階段即可,這個流程與之前保持一致。
HA
PolarDB支持雙引擎后,整個升降級流程中都會嵌套有X-Engine引擎的邏輯,比如在Standby升級為RW前,需要確保X-Engine的回放流水線完成,并將未決的事務(wù)保存起來,以便后續(xù)通過XA_Recovery繼續(xù)推進。RW降級為Standby的時候需要等待X-Engine寫流水線回放,同時如果還殘留有未決事務(wù),需要在切換過程中將這部分未決事務(wù)遍歷出來存入Recovered_transactions_集合供后續(xù)并發(fā)回放使用。
四 LSM-tree VS B+tree
上節(jié)我們詳細描述了基于LSM-tree架構(gòu)的存儲引擎,實現(xiàn)一寫多讀所需要的關(guān)鍵技術(shù),并結(jié)合PolarDB雙引擎介紹了一些工程實現(xiàn)。現(xiàn)在我們跳出來看看基于B+tree和基于LSM-tree兩種數(shù)據(jù)組織結(jié)構(gòu)在實現(xiàn)技術(shù)上的對比。首先要回到一個基本點,B+tree是原地更新,而LSM-tree是追加寫,這帶來的區(qū)別就是B+tree的數(shù)據(jù)視圖在內(nèi)存和外存一個緩存映射關(guān)系,而LSM-tree是一個疊加的關(guān)系。因而需要面對的技術(shù)問題也不同,B+tree需要刷臟,需要有double-write(在PolarFS支持16k原子寫后,消除了這個限制);LSM-tree需要Compaction來回收歷史版本。在一寫多讀的模式下面臨的問題也不一樣,比如,B+tree引擎復(fù)制是單redo日志流,LSM-tree引擎是雙日志流;B+tree在處理并行回放時,可以做到更細粒度的頁級并發(fā),但是需要處理SMO(SplitMergeOperation)問題,避免讀節(jié)點讀到“過去頁”或是“未來頁”。而LSM-tree是事務(wù)級別的并發(fā),為了保證RW和RO節(jié)點“內(nèi)存+磁盤”的一致性視圖,需要RW和RO在相同的位點做Switch Memtable。下表以InnoDB引擎和X-Engine引擎為例,列出了一些關(guān)鍵的區(qū)別點。
五 LSM-tree引擎業(yè)內(nèi)發(fā)展狀況
目前業(yè)內(nèi)LSM-tree類型引擎比較熱的是Rocksdb,它的主要應(yīng)用場景是作為一個KeyValue引擎使用。Facebook將Rocksdb引擎引入到了他們的MySQL8.0分支,類似于X-Engine之于AliSQL,主要服務(wù)于他們的用戶數(shù)據(jù)庫UDB業(yè)務(wù),存儲用戶數(shù)據(jù)和消息數(shù)據(jù),采用的仍然是基于binlog的主備復(fù)制結(jié)構(gòu),目前沒有看到有做存儲計算分離,以及一寫多讀的事情。另外,github上有一個rocksdb-cloud項目,將rocksdb作為底座,架在AWS等云服務(wù)上提供NoSQL接口服務(wù),相當(dāng)于做了存儲計算分離,但并不支持物理復(fù)制和一寫多讀。在數(shù)據(jù)庫領(lǐng)域,阿里巴巴的Oceanbase和谷歌的Spanner的底層存儲引擎都是基于LSM-tree結(jié)構(gòu),這顯示了LSM-tree作為數(shù)據(jù)庫引擎的可行性,這兩個數(shù)據(jù)庫都是基于Share-Nothing的架構(gòu)。基于Share-Storage的數(shù)據(jù)庫,到目前為止還沒有成熟的產(chǎn)品,PolarDB(X-Engine)是業(yè)內(nèi)第一個基于LSM-tree結(jié)構(gòu)的實現(xiàn)的一寫多讀方案,對于后來者有很好的借鑒意義,LSM-tree這種結(jié)構(gòu)天然將內(nèi)存和磁盤存儲分離,我們充分利用了磁盤存儲只讀的特點,通過壓縮將其成本優(yōu)勢發(fā)揮出來,結(jié)合一寫多讀的能力,將成本優(yōu)勢發(fā)揮到極致。
六 性能測試
基于X-Engine引擎實現(xiàn)一寫多讀能力后,我們采用基準測試工具sysbench對性能做了摸底,主要對比了RDS(X-Engine),PolarDB(X-Engine)以及PolarDB(InnoDB)的性能。
1 測試環(huán)境
測試的client和數(shù)據(jù)庫server均從阿里云官網(wǎng)購買。client采用ecs,規(guī)格是ecs.c7.8xlarge(32core,64G),測試sysbench版本是sysbench-1.0.20,測試的數(shù)據(jù)庫server包括RDS(X-Engine),PolarDB(X-Engine),PolarDB(InnoDB)均采用8core32G規(guī)格,配置文件采用線上默認的配置。測試場景覆蓋了全內(nèi)存態(tài)和IO-bound的幾種典型的workload。測試表數(shù)目是250張表,全內(nèi)存態(tài)單表行數(shù)為25000行,IO-bound的表行數(shù)為300萬行。
2 測試結(jié)果
RDS VS PolarDB
上面左圖是小表全內(nèi)存場景,右圖是大表io-bound場景。PolarDB(X-Engine)相比RDS(X-Engine)主要是寫入路徑發(fā)生了變化,最核心的區(qū)別是RDS主備架構(gòu)依賴binlog做復(fù)制,而PolarDB形態(tài)只需要redo日志即可。PolarDB形態(tài)的寫相關(guān)workload的性能相比RDS形態(tài),無論在全內(nèi)存態(tài),還是IO-bound場景,都有很大的性能提升。
B+tree VS LSM-tree
上圖是小表全內(nèi)存場景,下圖是大表io-bound場景。PolarDB形態(tài)下,X-Engine引擎相對于InnoDB引擎還有差距,這個差距主要來源于range查詢,另外更新場景導(dǎo)致的多版本,也會導(dǎo)致更新時需要做range查詢,這些因素導(dǎo)致了讀寫相關(guān)的workload,InnoDB引擎比X-Engine表現(xiàn)更優(yōu)秀。同時我們可以看到,在IO-bound場景,X-Engine引擎寫入更有優(yōu)勢。
七 未來展望
PolarDB(X-Engine)解決方案很好解決了用戶的歸檔存儲問題,但目前來看還不夠徹底。第一,技術(shù)上雖然PolarDB支持了雙引擎,但我們還沒有充分將兩個引擎結(jié)合起來。一個可行的思路是在線歸檔一體化,用戶的在線數(shù)據(jù)采用默認的引擎InnoDB,通過設(shè)定一定的規(guī)則,PolarDB內(nèi)部自動將部分歷史數(shù)據(jù)進行歸檔并轉(zhuǎn)換為X-Engine引擎存儲,整個過程對用戶透明。第二,目前的存儲都落在PolarDB的高性能存儲PolarStore上,為了進一步降低成本,X-Engine引擎可以將部分冷數(shù)據(jù)存儲在OSS上,這個對于分層存儲是非常友好和自然的。實際上,基于LSM-tree的存儲引擎有很強的可塑性,我們目前的工作只是充分發(fā)揮了存儲優(yōu)勢,未來還可以對內(nèi)存中數(shù)據(jù)結(jié)構(gòu)進行進一步探索,比如做內(nèi)存數(shù)據(jù)庫等都是可以探索的方向。
原文鏈接
本文為阿里云原創(chuàng)內(nèi)容,未經(jīng)允許不得轉(zhuǎn)載。?
總結(jié)
以上是生活随笔為你收集整理的如何基于LSM-tree架构实现一写多读的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: iOS App 启动优化
- 下一篇: 慢SQL治理分享