Spark的failover容错机制是什么
生活随笔
收集整理的這篇文章主要介紹了
Spark的failover容错机制是什么
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
這篇文章主要介紹“Spark的failover容錯機制是什么”,在日常操作中,相信很多人在Spark的failover容錯機制是什么問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Spark的failover容錯機制是什么”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
driver端的checkpoint
恢復Driver的現場
;
executor端的replication
解決單臺executor掛掉后,未保存的數據丟失的問題。
WAL: 在Driver和Receiver中實現,用于解決:
數據不丟失的問題)
任務分配的問題)
-
藍色的箭頭表示讀取數據,存儲在executor的內存中,如果開啟了WAL,將會把數據寫入到存在容錯文件系統的日志文件中(executor端的wal)
-
青色的箭頭表示提醒driver, 接收到的數據塊的元信息發送給driver中的SparkContext, 這些元數據包括:executor內存中數據塊的引用ID和日志文件中數據塊的偏移信息(driver端的wal)
-
黃色箭頭表示checkpoint這些計算,用于重現driver現場。流式處理會周期的被checkpoint到文件中(driver端的checkpoint)
Spark的RDD的五大特性是什么?
總結
以上是生活随笔為你收集整理的Spark的failover容错机制是什么的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python归并排序理解不了_一日一技:
- 下一篇: 批量删除微博代码