谷歌开源MobileNets:在移动设备上高效运行的计算机视觉模型
吳唯 編譯自 Google Research Blog
量子位出品 | 公眾號 QbitAI
今早谷歌在自家的科研博客上發文,宣布開源MobileNets——一組移動端優先的計算機視覺模型。通過TensorFlow Mobile,這些模型可以在脫機狀態下在移動設備上高效運行。
量子位將原文編譯如下:
近幾年來,伴隨著神經網絡不斷將視覺識別技術向前推進,深度學習已經為計算機視覺領域的進步貢獻了太多太多。而這其中的許多技術,包括對物體、地標、logo和文本的識別等,都是通過云視覺API在聯網設備上實現的。
但我們相信,移動設備計算力的不斷提升,將可能讓用戶在脫機狀態下隨時、隨地地接觸到這些技術。然而,在設備端和嵌入式應用上的視覺識別面臨著諸多挑戰——在資源受限的環境下,這些模型必須利用有限的計算力、能耗和空間來保證運行的速度與精確度。
今天我們很高興地宣布開放MobileNets,一個為TensorFlow所準備、移動端優先的計算機視覺模型包,其設計考慮了設備端和嵌入式應用上首先的資源,力圖最大化地提升精確度。MobileNets具有小規模、低延遲、低功耗的特點,為多種不同應用案例中的資源限制進行了參數化設計。和Inception這類主流的大型模型一樣,這些模型同樣可以用于分類、檢測、嵌入、分割等任務。
這次開源包含了MobileNets的模型定義,它在TensorFlow上使用了TF-Slim以及其他16個用于全規模移動項目的預訓練ImageNet分類檢查點。通過TensorFlow Mobile,這些模型能夠在移動設備上高效運行。
△?根據你的預期的延遲和模型大小選擇合適的MobileNet模型。神經網絡在內存和磁盤上占用的空間與參數的數量成正比。網絡的延遲和功耗規模與乘積累加運算(MACs)的數字相對應。Top-1和Top-5的準確率是在ILSVRC的數據集上進行測量的。
致謝:
核心貢獻者:Andrew G. Howard, Menglong Zhu, Bo Chen, Dmitry Kalenichenko, Weijun Wang, Tobias Weyand, Marco Andreetto, Hartwig Adam
特別感謝: Benoit Jacob, Skirmantas Kligys, George Papandreou, Liang-Chieh Chen, Derek Chow, Sergio Guadarrama, Jonathan Huang, Andre Hentz, Pete Warden
Code:
https://github.com/tensorflow/models/blob/master/slim/README.md
Paper:
https://arxiv.org/abs/1704.04861
TensorFlow Mobie的官方指南:
https://www.tensorflow.org/mobile/
【完】
總結
以上是生活随笔為你收集整理的谷歌开源MobileNets:在移动设备上高效运行的计算机视觉模型的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ES2016 ES2017
- 下一篇: CoreML的入门例子