flink source 同步_为什么说 Flink + AI 值得期待?
生活随笔
收集整理的這篇文章主要介紹了
flink source 同步_为什么说 Flink + AI 值得期待?
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
去年11月的 Flink Forward Asia 2019 上Flink 社區提出了未來發展的幾個主要方向,其中之一就是擁抱AI [1]。實際上,近年來AI 持續火熱,各種計算框架、模型和算法層出不窮,從某種角度上來說,這個賽道已經有些擁擠了。在這種情況下, Flink將怎樣擁抱AI,又會為用戶帶來什么新的價值?Flink AI 的優劣勢分別在哪里?本文將通過對這些問題的討論來分析Flink AI 的發展方向。 為了解決第一個問題,我們需要引入一個實時訓練的鏈路(圖4)。圖4在這個鏈路中,線上的數據在用于推理預測之外還會實時生成樣本并用于在線模型訓練。在這個過程中,模型是動態更新的,因此可以更好的契合樣本發生的變化。不論是純在線還是純離線的鏈路,都并非適合所有的AI場景。和Lambda的思想類似,我們可以把兩者結合(圖5)。圖5同樣的,為了解決系統復雜度和可運維性的問題(也就是上面提到的第二個問題),我們希望在數據預處理的部分用一個流批統一的引擎來避免維護兩套代碼(圖6)。不僅如此,我們還需要數據預處理和推理預測能夠支持離線,近線和在線的各種Latency要求,所以使用Flink是一個非常合適的選擇。尤其是對于數據預處理環節而言,Flink 在流和批上全面完整的 SQL支持可以大大提高的開發效率。圖 6除此之外,為了進一步降低系統的復雜度,Flink也在模型訓練環節進行了一系列努力(圖7)。
Lambda架構,流批統一和AI實時化
Flink 在AI 中的價值其實和大數據中Lambda架構 [2]和流批統一這兩個概念有關系,Flink為大數據實時化帶來的價值也將同樣使AI受益。不妨讓我們簡單回顧一下大數據的發展過程。從Google奠基性的“三架馬車” [3][4][5] 論文發表后的很長一段時間內,大數據的發展主線上都只有批計算的身影。后來隨著大家認識到數據時效性的重要作用,Twitter 開源的流計算引擎Storm [6] 紅極一時,各種流計算引擎也紛紛登場,其中也包括了Flink。由于成本、計算準確性和容錯性等方面的考慮,各家企業紛紛使用起了被稱為Lambda架構的解決方案,在同一個架構下融合批計算和流計算,以便在成本,容錯和數據時效性之間達到一個平衡。Lambda架構在解決數據時效性的同時也存在一些問題,其中最受詬病的就是其系統復雜度和可維護性。用戶需要為Batch Layer 和 Speed Layer 各維護一套引擎和代碼,還需要保證二者之間的計算邏輯完全一致(圖1)。圖1為了解決這個問題,各個計算引擎不約而同的開始了流批統一的嘗試,試圖使用同一套引擎來執行流和批的任務(圖2)。經過若干年的大浪淘沙,Spark [7] 和Flink成為了目前處于第一梯隊的兩款主流計算引擎。Flink 是從流計算逐漸進入到批計算,一個非常典型的成功案例就是使用同一套標準的SQL語句對流和批進行查詢,并保證最終結果一致性[8]。而Spark 則是采用微批 (Micro Batch) 的方式從批計算進入到流計算提出了Spark Streaming,但是在時延的表現上始終遜色一些。圖2可以看到,在大數據的發展過程中,Lambda架構和流批一體背后的原始驅動力是數據實時化。同樣是向數據要價值,AI對數據時效性的要求同大數據是一致的。因此AI實時化也將會是一個重要的發展方向。在觀察目前主流的AI場景和技術架構時,我們也會發現它們與大數據平臺有很多聯系和相似之處。目前的 AI大致可以分為數據預處理(也稱數據準備/特征工程等),模型訓練和推理預測三個主要階段。下面我們逐一來看一看在每個階段中AI實時化需求有哪些,又有什么樣的問題待解決。為了便于與大數據的架構做類比,我們姑且認為流計算和批計算作為一種計算類型的劃分維度已經將所有基于數據的計算一分為二,沒有遺漏了。AI的各個階段根據場景不同,也可以歸為二者之一。數據預處理(數據準備/特征工程)數據預處理階段是模型訓練和推理預測的前置環節,很多時候它更多的是一個大數據問題。根據數據預處理后的下游不同,數據預處理可能是批計算也可能是流計算,計算類型和下游一致。在一個典型的離線訓練(批計算)和在線預測(流計算)場景下,訓練和預測時要求產生輸入數據的預處理邏輯是一致的(比如相同的樣本拼接邏輯),這里的需求和Lambda架構中的需求一樣,因此一個流批統一的引擎會格外有優勢。這樣可以避免批作業和流作業使用兩個不同的引擎,省去了維護邏輯一致的兩套代碼的麻煩。模型訓練目前而言AI訓練階段基本上是批計算(離線訓練)產生靜態模型(Static Model)的過程。這是因為目前絕大多數的模型是基于獨立同分布(IID)的統計規律實現的,也就是從大量的訓練樣本中找到特征和標簽之間的統計相關性(Correlation),這些統計相關性通常不會突然變化,因此在一批樣本上訓練出的數據在另一批具有相同的特征分布的樣本上依然適用。然而這樣的離線模型訓練產生的靜態模型依然可能存在一些問題。首先樣本數據可能隨著時間推移會發生分布變化,這種情況下,在線預測的樣本分布和訓練樣本的分布會產生偏移,從而使模型預測的效果變差。因此靜態模型通常需要重新訓練,這可以是一個定期過程或者通過對樣本和模型的預測效果進行監控來實現(注意這里的監控本身其實是一個典型的流計算需求)。另外,在有些場景下,預測階段的樣本分布可能無法在訓練階段就知曉。舉例來說,在阿里雙十一,微博熱搜,高頻交易等這類樣本分布可能發生無法預測的分布改變的場景下,如何迅速更新模型來得到更好的預測結果是十分有價值的。因此一個理想的AI計算架構中,應該把如何及時更新模型納入考慮。在這方面流計算也有著一些獨特的優勢。事實上,阿里巴巴在搜索推薦系統中已經在使用在線機器學習,并且在雙十一這樣的場景下取得了良好的效果。推理預測推理預測環節的環境和計算類型比較豐富,既有批處理(離線預測)又有流處理。流式預測又大致可以分為在線 (Online) 預測和近線 (Nearline) 預測。在線預測通常處于用戶訪問的關鍵鏈路(Critical Path中),因此對latency的要求極高,比如毫秒級。而近線預測要求略低一些,通常在亞秒級到秒級。目前大多數純流式分布式計算(Native Stream Processing)引擎可以滿足近線數據預處理和預測的需求,而在線數據預處理和預測則通常需要將預測代碼寫進應用程序內部來滿足極致的低延遲要求。因此在線預測的場景也比較少看到大數據引擎的身影。在這方面Flink的Stateful Function [9] 是一個獨特的創新,Stateful Function的設計初衷是在Flink上通過若干有狀態的函數來構建一個在線應用,通過它可以做到超低延遲的在線預測服務,這樣用戶可以在離線,近線和在線三種場景下使用同一套代碼同一個引擎來進行數據預處理和預測。綜上所述,可以看到在機器學習的每個主要階段中對AI實時化都有重要的需求,那什么樣的系統架構能夠有效滿足這樣的需求呢?Flink和AI實時化的架構
目前最典型的AI架構示例是離線訓練配合在線推理預測(圖3)。圖3正如之前提到的,這個架構存在兩個問題:模型更新的周期通常比較長。
離線和在線的預處理可能需要維護兩套代碼。
流批一體算法庫Alink
Deep Learning on Flink (flink-ai-extended [11])
流批統一的迭代語義和高性能實現
Flink ML Pipeline [12]:幫助用戶方便的存儲和復用一個機器學習的完整計算邏輯。
Flink Python API(PyFlink [13]):Python 是AI 的母語,PyFlink為用戶提供AI中最重要的編程接口。
Notebook Integration [14](Zeppelin):為用戶的AI實驗提供友好的API。
原生Kubernetes支持 [15]:和Kubernetes集成來支持基于云原生的的開發、部署和運維。
AI Flow:兼顧流計算的大數據 + AI 頂層工作流抽象和配套服務(即將開源)。
Stateful Function[9]:提供堪比在線應用的超低延遲數據預處理和推理預測。
?
寫在最后
Apache Flink 從一個簡單的流計算想法開始,直到今天成長為一個業界流行的實時計算開源項目,使所有人受益,這個過程中離不開Flink社區中數以百計的代碼貢獻者和數以萬計的用戶。我們相信Flink在AI上也能夠有所作為,也歡迎更多的人能夠加入到Flink社區,同我們一起共創并共享AI實時化的價值。Flink AI,未來可期。參考資料:[1]https://ververica.cn/developers/the-number-of-github-stars-doubled-in-only-one-year/[MOU1]?[2] https://en.wikipedia.org/wiki/Lambda_architecture[3]https://static.googleusercontent.com/media/research.google.com/en//archive/gfs-sosp2003.pdf[4]https://static.googleusercontent.com/media/research.google.com/en//archive/mapreduce-osdi04.pdf[5]https://static.googleusercontent.com/media/research.google.com/en//archive/bigtable-osdi06.pdf[6] https://storm.apache.org/[7] https://spark.apache.org/[8]https://ci.apache.org/projects/flink/flink-docs-release-1.10//dev/table/sql/index.html[9] https://statefun.io/[10] https://github.com/alibaba/alink[11] https://github.com/alibaba/flink-ai-extended[12]https://cwiki.apache.org/confluence/display/FLINK/FLIP-39+Flink+ML+pipeline+and+ML+libs[13]https://ci.apache.org/projects/flink/flink-docs-release-1.10/tutorials/python_table_api.html[14]?https://mp.weixin.qq.com/s/a6Zau9c1ZWTSotl_dMg0Xg[15]https://ci.apache.org/projects/flink/flink-docs-stable/ops/deployment/kubernetes.html[16]https://cwiki.apache.org/confluence/display/FLINK/FLIP-27%3A+Refactor+Source+Interface賈揚清在線發邀請函
邀請你來看直播
CAFFE之父、ONNX創始人、阿里巴巴集團副總裁?賈揚清?在線直播《 人工智能算法和系統的進化》。
點擊文末“閱讀原文”或識別下方二維碼,收藏鏈接,2月20日?19:00 -?20:30?看直播。
「 更多干貨,更多收獲?」服務社區抗疫軟件與智能外呼機器人!我們已經準備好了什么是人機對話模型?阿里小蜜團隊寫了1.5萬字關注機器智能把握未來可能戳我,接收賈揚清的邀請函總結
以上是生活随笔為你收集整理的flink source 同步_为什么说 Flink + AI 值得期待?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 中国潜水员刷新记录!用的华为WATCH
- 下一篇: 菜鸟裹裹怎么删除包裹信息