解读小米MoGA:超过MobileNetV3的移动端GPU敏感型搜索
作者丨安靜怡
學校丨吉林大學
研究方向丨神經網絡模型壓縮
近日,小米?AI?實驗室?AutoML?團隊展示了最新成果?MoGA?(作者:初祥祥,張勃,許瑞軍),超過由?Google Brain?和?Google AI?強強聯合的代表作?MobileNetV3?,并且公布了?MoGA?源碼和預訓練模型。MoGA?將真實場景的使用設備移動端?GPU?作為考量,模型可以直接服務于手機端視覺產品。
截止發稿,谷歌還未公布?V3?的模型代碼,小米?AutoML?團隊此時推出?MoGA,在?ImageNet 1K?分類任務?200M?量級從移動端?GPU?維度超過?MobileNetV3。可以說,該方法基于?FairNAS?改進,且結果也超過了?FairNAS。
源碼:https://github.com/xiaomi-automl/MoGA
在?FairNAS?基礎上,MoGA?每層的可選擇運算模塊(choice block)從?6?個增加到了?12?個,超網的訓練依然很快收斂。
文章的第二個觀點來自于對?MobileNet?三部曲的分析,從V1?到?V3,各項指標均在提升,但模型參數量反而增多。這對設計多目標的優化條件給出了方向。文章認為,除了業務指標?Top-1 Acc,模型在設備端的運行時間是作為衡量模型的關鍵指標,而非乘加數,所以在目標中剔除乘加數。
另外,之前的方法都是在盡量壓縮參數量,這對多目標優化極為不利。在非損人不能利己的帕累托邊界上,必須有舍才有得。文章認為,參數量是模型能力的表征,所以選擇鼓勵增加參數量反而能增大搜索范圍,從而獲得高參數但低時延的模型。
圖?9?給出了三款模型?MoGA-A,B,C?的可視化展示。
表?3?是對當前同量級?SOTA?模型的對比。MoGA-C?比?MobileNetV3 Large?有更高的精度,更短的移動端?GPU?時延(SNPE、MACE?結果一致),從?SNPE?結果看,MoGA-B?也超過了?V3,所以本文揭示了不僅要?GPU-Aware,還需要?Framework-aware,不同的框架對模型也有不同的要求。另外?300M?模型?MoGA-A?也是再次刷新記錄,達到了?75.9%。
消去實驗
總結
▲?16個主流網絡在12個數據集上的遷移表現, Google Brain
參考文獻
點擊以下標題查看更多往期內容:?
KDD Cup 2019 AutoML Track冠軍團隊技術分享
神經網絡架構搜索(NAS)綜述 | 附資料推薦
小米拍照黑科技:基于NAS的圖像超分辨率算法
深度解讀:小米AI實驗室最新成果FairNAS
自動機器學習(AutoML)最新綜述
NAS-FPN:基于自動架構搜索的特征金字塔網絡
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學習心得或技術干貨。我們的目的只有一個,讓知識真正流動起來。
??來稿標準:
? 稿件確系個人原創作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?
? 如果文章并非首發,請在投稿時提醒并附上所有已發布鏈接?
? PaperWeekly 默認每篇文章都是首發,均會添加“原創”標志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發送?
? 請留下即時聯系方式(微信或手機),以便我們在編輯發布時和作者溝通
?
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點擊 |?閱讀原文?| 下載論文 & 源碼
總結
以上是生活随笔為你收集整理的解读小米MoGA:超过MobileNetV3的移动端GPU敏感型搜索的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: KDD Cup 2019 AutoML
- 下一篇: 后 BERT 时代的那些 NLP 预训练