TensorFlow是什么?TensorFlow入门与实践 架构与设计详解
生活随笔
收集整理的這篇文章主要介紹了
TensorFlow是什么?TensorFlow入门与实践 架构与设计详解
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
TensorFlow是什么?
TensorFlow基于數(shù)據(jù)流圖,用于大規(guī)模分布式數(shù)值計算的開源框架。節(jié)點表示某種抽象的計算,邊表示節(jié)點之間相互聯(lián)系的張量。計算圖實例TensorFlow支持各種異構(gòu)的平臺,支持多CPU/GPU,服務(wù)器,移動設(shè)備,具有良好的跨平臺的特性;TensorFlow架構(gòu)靈活,能夠支持各種網(wǎng)絡(luò)模型,具有良好的通用性;此外,TensorFlow架構(gòu)具有良好的可擴展性,對OP的擴展支持,Kernel特化方面表現(xiàn)出眾。
TensorFlow最初由Google大腦的研究員和工程師開發(fā)出來,用于機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)方面的研究,于2015.10宣布開源,在眾多深度學(xué)習(xí)框架中脫穎而出,在Github上獲得了最多的Star量。
本文將闡述TensorFlow的系統(tǒng)架構(gòu),幫助讀者加深理解TensorFlow的工作機理。
本文假設(shè)讀者已經(jīng)了解TensorFlow的基本編程模型,包括計算圖, OP, Tensor, Session等基本概念。
系統(tǒng)概述
TensorFlow的系統(tǒng)結(jié)構(gòu)以C API為界,將整個系統(tǒng)分為「前端」和「后端」兩個子系統(tǒng):前端系統(tǒng):提供編程模型,負責(zé)構(gòu)造計算圖;
后端系統(tǒng):提供運行時環(huán)境,負責(zé)執(zhí)行計算圖。TensorFlow系統(tǒng)架構(gòu)如上圖所示,重點關(guān)注系統(tǒng)中如下4個基本組件,它們是系統(tǒng)分布式運行機制的核心。
Client
Client是前端系統(tǒng)的主要組成部分,它是一個支持多語言的編程環(huán)境。它提供基于計算圖的編程模型,方便用戶構(gòu)造各種復(fù)雜的計算圖,實現(xiàn)各種形式的模型設(shè)計。
Client通過Session為橋梁,連接TensorFlow后端的「運行時」,并啟動計算圖的執(zhí)行過程。
Distributed Master
在分布式的運行時環(huán)境中,Distributed Master根據(jù)Session.run的Fetching參數(shù),從計算圖中反向遍歷,找到所依賴的「最小子圖」。
然后,Distributed Master負責(zé)將該「子圖」再次分裂為多個「子圖片段」,以便在不同的進程和設(shè)備上運行這些「子圖片段」。
最后,Distributed Master將這些「子圖片段」派發(fā)給Work Service;隨后Work Service啟動「子圖片段」的執(zhí)行過程。
Worker Service
對于每以個任務(wù),TensorFlow都將啟動一個Worker Service。Worker Service將按照計算圖中節(jié)點之間的依賴關(guān)系,根據(jù)當(dāng)前的可用的硬件環(huán)境(GPU/CPU),調(diào)用OP的Kernel實現(xiàn)完成OP的運算(一種典型的多態(tài)實現(xiàn)技術(shù))。
另外,Worker Service還要負責(zé)將OP運算的結(jié)果發(fā)送到其他的Work Service;或者接受來自其他Worker Service發(fā)送給它的OP運算的結(jié)果。
Kernel Implements
Kernel是OP在某種硬件設(shè)備的特定實現(xiàn),它負責(zé)執(zhí)行OP的運算。
組件交互組件交互如上圖所示,假設(shè)存在兩個任務(wù):/job:ps/task:0: 負責(zé)模型參數(shù)的存儲和更新/job:worker/task:0: 負責(zé)模型的訓(xùn)練或推理接下來,我們將進一步抽絲剝繭,逐漸挖掘出TensorFlow計算圖的運行機制。
客戶端
Client基于TensorFlow的編程接口,構(gòu)造計算圖。目前,TensorFlow主流支持Python和C++的編程接口,并對其他編程語言接口的支持日益完善。
此時,TensorFlow并未執(zhí)行任何計算。直至建立Session會話,并以Session為橋梁,建立Client與后端運行時的通道,將Protobuf格式的GraphDef發(fā)送至Distributed Master。
也就是說,當(dāng)Client對OP結(jié)果進行求值時,將觸發(fā)Distributed Master的計算圖的執(zhí)行過程。
如下圖所示,Client構(gòu)建了一個簡單計算圖。它首先將w與x進行矩陣相乘,再與截距b按位相加,最后更新至s。構(gòu)造計算圖Distributed Master
在分布式的運行時環(huán)境中,Distributed Master根據(jù)Session.run的Fetching參數(shù),從計算圖中反向遍歷,找到所依賴的最小子圖。
然后Distributed Master負責(zé)將該子圖再次分裂為多個「子圖片段」,以便在不同的進程和設(shè)備上運行這些「子圖片段」。
最后,Distributed Master將這些圖片段派發(fā)給Work Service。隨后Work Service啟動「本地子圖」的執(zhí)行過程。
Distributed Master將會緩存「子圖片段」,以便后續(xù)執(zhí)行過程重復(fù)使用這些「子圖片段」,避免重復(fù)計算。執(zhí)行圖計算如上圖所示,Distributed Master開始執(zhí)行計算子圖。在執(zhí)行之前,Distributed Master會實施一系列優(yōu)化技術(shù),例如「公共表達式消除」,「常量折疊」等。隨后,Distributed Master負責(zé)任務(wù)集的協(xié)同,執(zhí)行優(yōu)化后的計算子圖。
子圖片段子圖片段如上圖所示,存在一種合理的「子圖片段」劃分算法。Distributed Master將模型參數(shù)相關(guān)的OP進行分組,并放置在PS任務(wù)上。其他OP則劃分為另外一組,放置在Worker任務(wù)上執(zhí)行。
SEND/RECV節(jié)點插入SEND/RECV節(jié)點如上圖所示,如果計算圖的邊被任務(wù)節(jié)點分割,Distributed Master將負責(zé)將該邊進行分裂,在兩個分布式任務(wù)之間插入SEND和RECV節(jié)點,實現(xiàn)數(shù)據(jù)的傳遞。
隨后,Distributed Master將「子圖片段」派發(fā)給相應(yīng)的任務(wù)中執(zhí)行,在Worker Service成為「本地子圖」,它負責(zé)執(zhí)行該子圖的上的OP。
Worker Service
對于每個任務(wù),都將存在相應(yīng)的Worker Service,它主要負責(zé)如下3個方面的職責(zé):處理來自Master的請求;
調(diào)度OP的Kernel實現(xiàn),執(zhí)行本地子圖;
協(xié)同任務(wù)之間的數(shù)據(jù)通信。執(zhí)行本地子圖Worker Service派發(fā)OP到本地設(shè)備,執(zhí)行Kernel的特定實現(xiàn)。它將盡最大可能地利用多CPU/GPU的處理能力,并發(fā)地執(zhí)行Kernel實現(xiàn)。
另外,TensorFlow根據(jù)設(shè)備類型,對于設(shè)備間的SEND/RECV節(jié)點進行特化實現(xiàn):使用cudaMemcpyAsync的API實現(xiàn)本地CPU與GPU設(shè)備的數(shù)據(jù)傳輸;
對于本地的GPU之間則使用端到端的DMA,避免了跨host CPU昂貴的拷貝過程。對于任務(wù)之間的數(shù)據(jù)傳遞,TensorFlow支持多協(xié)議,主要包括:gRPC over TCP
RDMA over Converged EthernetKernel Implements
TensorFlow的運行時包含200多個標準的OP,包括數(shù)值計算,多維數(shù)組操作,控制流,狀態(tài)管理等。每一個OP根據(jù)設(shè)備類型都會存在一個優(yōu)化了的Kernel實現(xiàn)。在運行時,運行時根據(jù)本地設(shè)備的類型,為OP選擇特定的Kernel實現(xiàn),完成該OP的計算。TensorFlow Core其中,大多數(shù)Kernel基于Eigen::Tensor實現(xiàn)。Eigen::Tensor是一個使用C++模板技術(shù),為多核CPU/GPU生成高效的并發(fā)代碼。但是,TensorFlow也可以靈活地直接使用cuDNN實現(xiàn)更高效的Kernel。
此外,TensorFlow實現(xiàn)了矢量化技術(shù),使得在移動設(shè)備,及其滿足高吞吐量,以數(shù)據(jù)為中心的應(yīng)用需求,實現(xiàn)更高效的推理。
如果對于復(fù)合OP的子計算過程很難表示,或執(zhí)行效率低下,TensorFlow甚至支持更高效的Kernle實現(xiàn)的注冊,其擴展性表現(xiàn)相當(dāng)優(yōu)越。
技術(shù)棧
最后,按照TensorFlow的軟件層次,通過一張表格羅列TensorFlow的技術(shù)棧,以便更清晰地對上述內(nèi)容做一個簡單回顧。作者:劉光聰
鏈接:http://www.jianshu.com/p/a5574ebcdeab
來源:簡書
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。復(fù)制代碼復(fù)制代碼
轉(zhuǎn)載于:https://juejin.im/post/59fbdf4af265da43305dd2b8
總結(jié)
以上是生活随笔為你收集整理的TensorFlow是什么?TensorFlow入门与实践 架构与设计详解的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 如何获取url中的参数并传递给ifram
- 下一篇: 封装一个信号量集操作函数的工具