Jeff Dean盘点谷歌AI 2019:纵横16大方向,一文汇集重要开源算法
乾明邊策十三郭一璞發(fā)自凹非寺
量子位報道 公眾號QbitAI
又一年,Jeff Dean 代表 Google AI,總結(jié)過去一年 AI 大趨勢。
這是姐夫作為 Google AI 大總管的例行年度匯報,也是全球 AI——乃至前沿技術(shù)第一大廠的肌肉展示。
他說,過去的 2019 年,是非常激動人心的一年。
依舊是學術(shù)和應用兩開花,開源和新技術(shù)同步推進。
從基礎(chǔ)研究開始,到技術(shù)在新興領(lǐng)域的應用,再到展望 2020。
雖然匯報格式?jīng)]有變化,但人工智能技術(shù),又往前邁出了一大步。
Jeff Dean 總結(jié)了16 個大方面的 AI 成果,并透露全年 AI 論文發(fā)表數(shù)達754 篇,平均每天都有 2 篇論文發(fā)表。
涵蓋 AutoML、機器學習算法、量子計算、感知技術(shù)、機器人、醫(yī)療 AI、AI 向善……
樁樁件件,不僅在當前推動了 AI 作用社會方方面面,而且也是對未來趨勢的小小展示。
毫不夸張地說,欲知 2019 AI 技術(shù)進展,看 Jeff 這篇總結(jié)再合適不過;欲知 2020 AI 會走向何方,看 Jeff 這篇也能獲益良多。
為了方便閱讀,我們先整理了一個小目錄給你:
機器學習算法:理解神經(jīng)網(wǎng)絡(luò)中動態(tài)訓練性質(zhì)
AutoML:持續(xù)關(guān)注,實現(xiàn)機器學習自動化
自然語言理解:結(jié)合多種方式、任務,提高技術(shù)水平
機器感知:對圖像、視頻、環(huán)境更深入理解和感知
機器人技術(shù):自監(jiān)督方式訓練,發(fā)布機器人測試基準
量子計算:首次實現(xiàn)量子優(yōu)越性
AI 在其他學科的應用:從蒼蠅的腦子到數(shù)學,還有化學分子研究和藝術(shù)創(chuàng)作
手機 AI 應用:本地部署的語音、圖像識別模型,還有更強的翻譯、導航和拍照
健康和醫(yī)療:已用于乳腺癌、皮膚病的臨床診斷
AI 輔助殘障人士:用圖像識別、語音轉(zhuǎn)寫技術(shù)造福弱勢群體
AI 促進社會公益:預告洪水、保護動植物、教小朋友識字學數(shù)學,還砸了 1 個多億做了 20 個公益項目
開發(fā)者工具打造和造福研究者社區(qū):TensorFlow 迎來全面升級
開放 11 個數(shù)據(jù)集:從強化學習到自然語言處理,再到圖像分割
頂會研究和 Google 研究的全球擴張:發(fā)表大量論文,投入大量資源資助教師、學生和各方面研究人員進行研究
人工智能倫理:推進人工智能在公平、隱私保護、可解釋性方面研究進展
展望 2020 年及以后:深度學習革命將繼續(xù)重塑我們對計算和計算機的看法。
機器學習算法
2019 年,Google 在機器學習算法和方法的許多不同領(lǐng)域進行了研究。
一個主要的焦點是理解神經(jīng)網(wǎng)絡(luò)中動態(tài)訓練的性質(zhì)。
在下面這項研究中,研究人員的實驗結(jié)果表明,縮放數(shù)據(jù)并行量可以讓模型收斂更快有效。
論文地址:
https://arxiv.org/pdf/1811.03600.pdf
與數(shù)據(jù)并行性相比,模型并行性可以是擴展模型的有效方法。
GPipe 是一個可以讓模型并行化更加有效的庫:
當整個模型的一部分在處理某些數(shù)據(jù)時,其他部分可以做別的工作,計算不同的數(shù)據(jù)。
這種 pipline 方法可以組合在一起,來模擬更有效的 batch 大小。
GPipe 庫地址:
https://ai.googleblog.com/2019/03/introducing-gpipe-open-source-library.html
當機器學習模型能夠獲取原始輸入數(shù)據(jù),并學習“disentangled”高級表示形式時,它們是非常有效的。
這些表示形式通過用戶希望模型能夠區(qū)分的屬性來區(qū)分不同種類的示例。
機器學習算法的進步,主要是為了鼓勵學習更好的表示法,以此來推廣到新的示例、問題及領(lǐng)域。
2019 年,Google 在不同的背景下研究了這方面的問題:
比如,他們檢查了哪些屬性影響了從無監(jiān)督數(shù)據(jù)中學習的表示,以便更好地理解什么因素能夠有助于良好的表示和有效的學習。
博客地址:
https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html
Google 表明可以使用 margin 分布的統(tǒng)計量來預測泛化差距,有助于了解哪種模型最有效地進行了泛化。
除此之外,還在強化學習的背景下研究了 Off-Policy 分類,以便更好地理解哪些模型可能泛化得最好。
博客地址:
http://ai.googleblog.com/2019/07/predicting-generalization-gap-in-deep.html
研究了為強化學習指定獎勵功能的方法,使學習系統(tǒng)可以更直接地從真實目標中進行學習。
博客地址:
http://ai.googleblog.com/2019/02/learning-to-generalize-from-sparse-and.html
AutoML
Google 在 2019 年依然持續(xù)關(guān)注著 AutoML。
這種方法可以實現(xiàn)機器學習許多方面的自動化,并且在某些類型的機器學習元決策方面,通??梢匀〉酶玫慕Y(jié)果,比如:
Google 展示了如何使用神經(jīng)結(jié)構(gòu)搜索技術(shù),在計算機視覺問題上獲得更好的結(jié)果,其在 ImageNet 上的正確率為 84.4%,而參數(shù)比以前的最佳模型少 8 倍。
博客地址:
http://ai.googleblog.com/2019/05/efficientnet-improving-accuracy-and.html
Google 展示了一種神經(jīng)架構(gòu)搜索方法,展示了如何找到適合特定硬件加速器的高效模型。從而為移動設(shè)備提供高精度、低計算量的運行模型。
博客地址:
http://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html
Google 展示了如何將 AutoML 工作擴展到視頻模型領(lǐng)域,如何找到能夠?qū)崿F(xiàn)最先進結(jié)果的架構(gòu),以及能夠匹配手工模型性能的輕量級架構(gòu)。
結(jié)果使計算量減少了 50 倍。
博客地址:
http://ai.googleblog.com/2019/10/video-architecture-search.html
Google 開發(fā)了用于表格數(shù)據(jù)的 AutoML 技術(shù),并合作發(fā)布了這項技術(shù),作為 Google Cloud AutoML Tables 的新產(chǎn)品。
博客地址:
http://ai.googleblog.com/2019/05/an-end-to-end-automl-solution-for.html
展示了如何在不使用任何訓練步驟,來更新被評估模型的權(quán)重的情況下,找到有趣的神經(jīng)網(wǎng)絡(luò)架構(gòu),讓結(jié)構(gòu)搜索的計算效率更高。
博客地址:
http://ai.googleblog.com/2019/08/exploring-weight-agnostic-neural.html
探索了發(fā)現(xiàn) NLP 任務的體系結(jié)構(gòu)。這些任務的性能明顯優(yōu)于普通的 Transformer 模型,并且大大降低了計算成本。
博客地址:
http://ai.googleblog.com/2019/06/applying-automl-to-transformer.html
研究證明了自動學習數(shù)據(jù)增強方法可以擴展到語音識別模型中。
與現(xiàn)有的人類 ML-expert 驅(qū)動的數(shù)據(jù)增強方法相比,可以在較少數(shù)據(jù)情況下獲得了顯著更高的準確性。
博客地址:
http://ai.googleblog.com/2019/04/specaugment-new-data-augmentation.html
推出了第一款使用 AutoML 進行關(guān)鍵字識別和口語識別的語音應用程序。
在實驗中,發(fā)現(xiàn)了比人類設(shè)計更好的模型:效率更高,性能也更好。
博客地址:
https://www.isca-speech.org/archive/Interspeech_2019/abstracts/1916.html
自然語言理解
在過去幾年里,自然語言理解、翻譯、自然對話、語音識別和相關(guān)任務的模型取得了顯著進展。
Google 在 2019 年工作的一個主題是:
通過結(jié)合各種方式或任務來提高技術(shù)水平,以此來訓練更強大的模型。
比如,只用 1 個模型,在 100 種語言之間進行翻譯訓練(而不是使用 100 個不同的模型),從而顯著提高了翻譯質(zhì)量。
博客地址:
http://ai.googleblog.com/2019/10/exploring-massively-multilingual.html
展示了如何將語音識別和語言模型結(jié)合起來,并在多種語言上訓練系統(tǒng),可以顯著提高語音識別的準確性。
博客地址:
http://ai.googleblog.com/2019/09/large-scale-multilingual-speech.html
研究證明,訓練一個聯(lián)合模型來完成語音識別、翻譯和文本到語音的生成任務是有可能的。
并且還具有一定的優(yōu)勢,例如在生成的翻譯音頻中保留說話人的聲音, 以及更簡單的整體學習系統(tǒng)。
博客地址:
http://ai.googleblog.com/2019/05/introducing-translatotron-end-to-end.html
研究展示了如何結(jié)合許多不同的目標,來生成在語義檢索方面明顯更好的模型。
例如,在 GoogleTalk to Books 中提問,“什么香味能喚起回憶?”
結(jié)果是,“對我來說,茉莉花的香味和烤盤的香味,讓我想起了我無憂無慮的童年。”
博客地址:
http://ai.googleblog.com/2019/07/multilingual-universal-sentence-encoder.html
展示了如何使用對抗性訓練程序來顯著提高語言翻譯的質(zhì)量和魯棒性。
博客地址:
http://ai.googleblog.com/2019/07/robust-neural-machine-translation.html
隨著基于 seq2seq、Transformer、BERT、Transformer-XL 和 ALBERT 等模型的發(fā)展,Google 的語言理解技術(shù)能力不斷提高。并已經(jīng)應用到了許多核心產(chǎn)品和功能中。
2019 年,BERT 在核心搜索和排名算法中的應用,帶來了過去五年里搜索質(zhì)量的最大提升(也是有史以來最大的提升之一)。
機器感知
在過去十年中,用于更好地了解靜態(tài)圖像的模型取得了顯著進步。
接下來是 Google 在過去一年中,在這個領(lǐng)域中的主要研究。
包括圖像和視頻的更深入的理解,以及對生活和環(huán)境的感知,具體有:
研究了鏡頭中更細粒度的視覺理解,支持更強大的視覺搜索。
博客地址:
https://www.blog.google/products/search/helpful-new-visual-features-search-lens-io/
展示了 Nest Hub Max 的智能相機功能,例如快速手勢、面部匹配和智能視頻通話取景。
博客地址:
https://blog.google/products/google-nest/hub-max-io/
研究了更好的視頻深度預測模型。
博客地址:
https://ai.googleblog.com/2019/05/moving-camera-moving-people-deep.html
研究使用時間周期一致性,學習對視頻進行細粒度時間理解的更好表示。
博客地址:
https://ai.googleblog.com/2019/08/video-understanding-using-temporal.html
學習文本、語音和視頻中與未標記視頻在時間上一致的表示形式。
博客地址:
https://ai.googleblog.com/2019/09/learning-cross-modal-temporal.html
也能夠通過對過去的觀察,來預測未來的視覺輸入。
博客地址:
https://ai.googleblog.com/2019/03/simulated-policy-learning-in-video.html
并證明了模型可以更好地理解視頻中的動作序列。
博客地址:
https://ai.googleblog.com/2019/04/capturing-special-video-moments-with.html
機器人技術(shù)
機器學習在機器人控制中的應用是 Google 的重要研究領(lǐng)域。Google 認為,這是使機器人能夠在復雜的現(xiàn)實世界環(huán)境(比如日常家庭、企業(yè))中有效運行的重要工具。
Google2019 年在機器人技術(shù)中所做的工作包括:
1、在通過自動強化學習進行遠程機器人導航中,Google 展示了如何將強化學習與遠程項目結(jié)合,使機器人能夠更有效地在復雜的環(huán)境(例如 Google 辦公大樓)中導航。
相關(guān)鏈接:
http://ai.googleblog.com/2019/02/long-range-robotic-navigation-via.html
2、在PlaNet中,Google 展示了只從圖像中有效地學習世界模型,以及如何利用這種模型以更少的學習次數(shù)完成任務。
相關(guān)鏈接:
http://ai.googleblog.com/2019/02/introducing-planet-deep-planning.html
3、在TossingBot上,Google 將物理定律和深度學習統(tǒng)一起來,讓機器人通過實驗來學習直觀物理原理,然后將物體按照學習到的規(guī)律扔進盒子里。
相關(guān)鏈接:
http://ai.googleblog.com/2019/03/unifying-physics-and-deep-learning-with.html
4、在 Soft Actor-Critic 的研究中中,Google 證明了,訓練強化學習算法的方式,既可以通過最大化期望的獎勵,也可以通過最大化策略的熵來實現(xiàn)。
這可以幫助機器人學習得更快,并且對環(huán)境的變化更加魯棒。
相關(guān)鏈接:
http://ai.googleblog.com/2019/01/soft-actor-critic-deep-reinforcement.html
5、Google 還發(fā)展了機器人的自監(jiān)督學習算法,讓機器人以自監(jiān)督的方式,通過分解物體的方式物來學習組裝物體。這表明機器人可以和兒童一樣,從拆解中學到知識。
相關(guān)鏈接:
http://ai.googleblog.com/2019/10/learning-to-assemble-and-to-generalize.html
6、最后,Google 還推出了低成本機器人的基準測試ROBEL,這是一個針對低成本機器人的開源平臺,幫助其他開發(fā)者更快更方便地研發(fā)機器人硬件。
相關(guān)鏈接:
http://ai.googleblog.com/2019/10/robel-robotics-benchmarks-for-learning.html
量子計算
在 2019 年,Google 在量子計算上取得了重大圖片,首次向世人展示了量力優(yōu)越性:在一項計算任務中,量子計算機的速度遠遠超過經(jīng)典計算機。
原本經(jīng)典計算機需要計算 10000 年的任務,量子計算機僅需 200 秒即可完成。這項研究登上了今年 10 月 24 日 Nature 雜志的封面。
Google 用于量子計算的 Sycamore 處理器
GoogleCEO 皮查伊說:“它的意義就像第一枚火箭成功地脫離地球引力,飛向太空邊緣。”量子計算機會在材料科學、量子化學和大規(guī)模優(yōu)化等領(lǐng)域中發(fā)揮重要的作用。
Google 還在努力使量子算法更易于表達、更易于控制硬件,并且 Google 已經(jīng)找到了在量子計算中使用經(jīng)典機器學習技術(shù)的方法。
AI 在其他學科的應用
人工智能和機器學習在其他科學領(lǐng)域的應用方面,Google 發(fā)了很多論文,主要是在多組織協(xié)作方面。
論文集:
https://research.google/pubs/?area=general-science
今年的重點有:
蒼蠅大腦交互性自動 3D 重建,用機器學習模型來精心繪制蒼蠅大腦的每個神經(jīng)元,Jeff Dean 稱這是映射蒼蠅大腦結(jié)構(gòu)的的里程碑。
相關(guān)博客:
https://ai.googleblog.com/2019/08/an-interactive-automated-3d.html
在為偏微分方程學習更好的仿真方法中,Google 用機器學習加速偏微分方程計算,這也是研究氣候變化、流體動力學、電磁學、熱傳導和廣義相對論等基礎(chǔ)計算問題的核心。
Burgers 方程的兩種解法仿真
Google 還用機器學習模型判斷氣味,用 GNN 判斷分子結(jié)構(gòu),來預測它聞起來是什么味兒。
相關(guān)報道:
Google 造出 AI 調(diào)香師:看一眼分子結(jié)構(gòu),就知道它聞起來什么味兒
同樣在化學方面,Google 還做了一個強化學習框架來優(yōu)化分子。
相關(guān)論文:
https://www.nature.com/articles/s41598-019-47148-x
藝術(shù)創(chuàng)作方面,GoogleAI 的努力就更多了,比如 AI+AR 的藝術(shù)表現(xiàn)
https://www.blog.google/outreach-initiatives/arts-culture/how-artists-use-ai-and-ar-collaborations-google-arts-culture/
用機器重新編排舞蹈:
https://www.blog.google/technology/ai/bill-t-jones-dance-art/
AI 作曲的新探索:
https://www.blog.google/technology/ai/behind-magenta-tech-rocked-io/
還延伸出了一個好玩的 AI 作曲 Doodle:
https://www.blog.google/technology/ai/honoring-js-bach-our-first-ai-powered-doodle/
手機 AI 應用
Google 做的很多事情都是借機器學習賦予手機新的能力,這些模型都能在手機端運行,就算開了飛行模式,這些功能依然可以使用。
現(xiàn)在,手機端語音識別模型、視覺模型、手寫識別模型都已經(jīng)實現(xiàn)了。
相關(guān)博客:
語音識別
https://ai.googleblog.com/2019/03/an-all-neural-on-device-speech.html
視覺模型
https://ai.googleblog.com/2019/11/introducing-next-generation-on-device.html
手寫識別模型
https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html
Jeff Dean 稱,這為實現(xiàn)更強大的新功能鋪平了道路。
此外,今年 Google 在手機上的亮點有:
Live Caption 功能,手機上任何應用播放的視頻,它都能給自動加上字幕。
相關(guān)博客:
https://ai.googleblog.com/2019/10/on-device-captioning-with-live-caption.html
Recorder 應用,讓你能搜索手機錄下的音頻中的內(nèi)容。
相關(guān)博客:
https://ai.googleblog.com/2019/12/the-on-device-machine-learning-behind.html
Google 翻譯的拍照翻譯功能也做了升級,新增支持阿拉伯語、印地語、馬來語、泰語和越南語等多種語言的支持,而且不只是英語和其他語言翻譯,英語之外的其他語言互譯也可以了,還能自動找到相機畫幅中的文字在哪里。
相關(guān)博客:
https://www.blog.google/products/translate/google-translates-instant-camera-translation-gets-upgrade/
還在 ARCore 里發(fā)布了一個面部增強 API,幫你實現(xiàn)實時的 AR 玩法。
面部增強 API:
https://developers.google.com/ar/develop/java/augmented-faces/
還有移動端手勢識別,這個做好之后就能做手勢交互了。
相關(guān)報道:
Google 開源手勢識別器,手機能用,運行流暢,還有現(xiàn)成的 App,但是被我們玩壞了
還用 RNN 改進了手機屏幕上的手寫輸入識別。
相關(guān)博客:
https://ai.googleblog.com/2019/03/rnn-based-handwriting-recognition-in.html
在導航定位方面,GPS 往往只是大致定位,但 AI 可以發(fā)揮關(guān)鍵作用。
結(jié)合 Google 街景的數(shù)據(jù),舉著手機轉(zhuǎn)一圈,手機就會變成一個認路的朋友一樣,照著街景和地圖給你指出來:這是哪棟樓,這是哪條街,這是南這是北,你該朝這兒走。
相關(guān)博客:
https://ai.googleblog.com/2019/02/using-global-localization-to-improve.html
另外,為了保證用戶隱私,Google 也一直在研究聯(lián)合學習,下面這篇論文就是 2019 年 Google 團隊轉(zhuǎn)寫的關(guān)于聯(lián)合學習進展的文章:
https://arxiv.org/abs/1912.04977
還有老生常談的手機拍照,Google2019 年提升了手機自拍的能力。
相關(guān)博客:
https://ai.googleblog.com/2019/04/take-your-best-selfie-automatically.html
背景虛化和人像模式也在 2019 年獲得了提升。
相關(guān)博客:
https://ai.googleblog.com/2019/12/improvements-to-portrait-mode-on-google.html
夜景挑戰(zhàn)拍星星也有巨大的提升,還發(fā)了 SIGGRAPH Asia 的論文。
相關(guān)博客:
https://ai.googleblog.com/2019/11/astrophotography-with-night-sight-on.html
相關(guān)論文:
https://arxiv.org/abs/1905.03277
https://arxiv.org/abs/1910.11336
健康和醫(yī)療
2019 年是 Google Health 團隊經(jīng)歷的第一個完整年。
在 2018 年末,Google 將 Google Research 健康團隊、Deepmind Health 和與健康相關(guān)的硬件部門重組,新建了 Google Health 團隊。
1、在疾病的診斷和及早發(fā)現(xiàn)上,Google 做出了多項成果:
用深度學習模型發(fā)現(xiàn)乳腺癌,準確性高于人類專家,降低了診斷中的假陽性和假陰性案例。這項研究不久前剛登上 Nature 雜志。
相關(guān)鏈接:
谷歌 AI 乳腺癌檢測超過人類,LeCun 質(zhì)疑引起討論,但平胸妹子可能不適用
另外,Google 還在皮膚疾病診斷、預測急性腎損傷、發(fā)現(xiàn)早期肺癌方面均做出一些新成果。
2、Google 將機器學習與其他技術(shù)結(jié)合用在其他醫(yī)療技術(shù)中,比如在顯微鏡中加入增強顯示技術(shù),幫助醫(yī)生快速定位病灶。
相關(guān)鏈接:
AI 實時篩查癌細胞,普通顯微鏡簡單改裝就能用,谷歌新突破登上 Nature 子刊
Google 還為病理學家構(gòu)建了以人為中心的相似圖像搜索工具,允許檢查相似病例來幫助醫(yī)生做出更有效的診斷。
AI 輔助殘障人士
AI 與我們的生活越來越緊密。在過去的一年里,Google 用 AI 為我們的日常生活提供幫助。
我們可以很容易看到美麗的圖像,聽到喜歡的歌曲,或與親人交談、然而,全球有超過十億人無法用這些方式了解世界。
機器學習技術(shù)可以通過將這些視聽信號轉(zhuǎn)換成其他信號,為殘障人士服務。Google 提供的 AI 助手技術(shù)有:
Lookout 幫助盲人或視力低下的人識別其周圍環(huán)境信息。
實時轉(zhuǎn)錄技術(shù)Live Transcribe幫助聾啞或聽障礙人士將語音快速轉(zhuǎn)化為文字。
相關(guān)鏈接:
谷歌 AI 拜大年:為聾啞人帶來科技福利,首頁涂鴉有驚喜
Euphonia 項目實現(xiàn)了個性化的語音到文本轉(zhuǎn)換。對于患有漸凍癥等疾病導致口齒不清的人,這項研究,提高了自動語音識別的準確率。
另外還有一個 Parrotron 項目,也是使用端到端神經(jīng)網(wǎng)絡(luò)來幫助改善交流,但是研究重點是語音到語音的轉(zhuǎn)換。
對于盲人和弱視人群,Google 利用 AI 技術(shù)來產(chǎn)生圖像的描述。當屏幕閱讀器遇到無描述的圖像或圖形時,Chrome 現(xiàn)在可以自動創(chuàng)建描述內(nèi)容。
音頻形式讀取文本的工具 Lens for Google Go,極大地幫助了那些文盲用戶在單詞的世界中獲取信息。
AI 促進社會公益
Jeff Dean 說,機器學習對解決許多重大社會問題有巨大的意義,Google 一直在一些社會問題領(lǐng)域做出努力,致力于讓其他人能用創(chuàng)造力和技能來解決這些問題。
比如洪水問題,每年都有數(shù)億人遭受洪水影響。Google 用機器學習、計算和更好的數(shù)據(jù)庫,來做出洪水預測,并給受影響地區(qū)的數(shù)百萬人發(fā)送警報。
甚至,他們還辦了一個 workshop,找了許多研究人員來專門解決這個問題。
相關(guān)博客:
https://www.blog.google/technology/ai/tracking-our-progress-on-flood-forecasting/
https://ai.googleblog.com/2019/09/an-inside-look-at-flood-forecasting.html
https://ai.googleblog.com/2019/03/a-summary-of-google-flood-forecasting.html
另外,Google 還做了一些機器學習和動植物研究相關(guān)的工作。
他們與七個野生動物保護組織合作,用機器學習幫助分析野生動物的照片數(shù)據(jù),找到這些野生動物的群落都在哪里。
相關(guān)博客:
https://www.blog.google/products/earth/ai-finds-where-the-wild-things-are/
Google 還和美國海洋和大氣管理局合作,借助水下的聲音數(shù)據(jù)判斷鯨的種群位置。
相關(guān)博客:
https://www.blog.google/technology/ai/pattern-radio-whale-songs/
Google 發(fā)布了一套工具,用機器學習研究生物多樣性。
相關(guān)博客:
A New Workflow for Collaborative Machine Learning Research in Biodiversity
https://ai.googleblog.com/2019/10/a-new-workflow-for-collaborative.html
他們還舉辦了一個 Kaggle 比賽,用計算機視覺給木薯葉子上的各種疾病分類。木薯是非洲第二大碳水化合物來源,木薯的病害影響人們的視頻安全問題。
https://www.kaggle.com/c/cassava-disease
Google Earth 的 Timelapse 功能也得到了更新,甚至你還可以從這里看到人口流動和遷移的數(shù)據(jù)。
相關(guān)博客:
https://ai.googleblog.com/2019/06/an-inside-look-at-google-earth-timelapse.html
https://ai.googleblog.com/2019/11/new-insights-into-human-mobility-with.html
對于教育方面,Google 做了帶語音識別技術(shù)的 Bolo 應用,指導小朋友們學英語。這個應用部署在了本地,可以離線運行,它已經(jīng)幫助 80 萬印度兒童識字,小朋友們累計讀了了 10 億單詞,在印度 200 個村子的試點中,64% 的小朋友閱讀能力有所提高。
仿佛是一個 Google 版的英語流利說。
相關(guān)博客:
https://www.blog.google/technology/ai/bolo-literacy/
除了識字,還有數(shù)學、物理等更復雜的學習科目。Google 做了 Socratic 應用來幫高中生學數(shù)學。
此外,為了讓 AI 在公益方面發(fā)揮更大的作用,Google 舉辦了 AI Impact Challenge,收集到了來自 119 個國家超過 2600 個提案。
最終 20 個能解決重大社會問題和環(huán)境問題的提案脫穎而出,Google 在這些提案項目上投入了 2500 萬美元(超過 1.7 億人民幣)的資助,做出了一些成績,包括:
無國界醫(yī)生組織(MSF)創(chuàng)建了一個免費手機 App,用圖像識別工具幫助條件不好的地方的診所醫(yī)生分析抗菌圖像,為給病人用什么藥提供建議,這個項目已經(jīng)在約旦試點。
無國界醫(yī)生組織的項目報道:
https://www.doctorswithoutborders.org/what-we-do/news-stories/news/msf-receives-google-grant-develop-new-free-smartphone-app-help
世界上有十億人靠小型農(nóng)場過活,但一旦發(fā)生病蟲害,就會斷了他們的活路。
因此,一家名叫 Wadhwani AI 的 NPO,用圖像分類模型來辨別農(nóng)場中的害蟲,并對于應該噴哪種農(nóng)藥、何時噴藥給出建議,提高了農(nóng)作物的產(chǎn)量。
熱帶雨林的非法砍伐是氣候變化的主要影響因素,一個名叫“雨林連接(Rainforest Connection)”的組織用深度學習進行生物聲學檢測,拿一些舊手機就可以跟蹤雨林的健康狀況,檢測其中的威脅。
Google 資助的 20 個公益項目
開發(fā)者工具打造和造福研究者社區(qū)
作為全球第一 AI 大廠,Google 也是開源先鋒,不斷為社區(qū)發(fā)光發(fā)熱,一方面是集中在 TensorFlow 上。
Jeff Dean 說,因為 TensorFlow 2.0 發(fā)布,對于開源社區(qū)來說,過去一年是激動人心的一年。
這是 TensorFlow 發(fā)布以來,第一次重大升級,使構(gòu)建 ML 系統(tǒng)和應用程序比以往任何時候都要容易。
量子位相關(guān)報道如下:
GoogleTF2.0 凌晨發(fā)布!“改變一切,力壓 PyTorch”
在 TensorFlow Lite 中,他們增加了對快速移動 GPU 推理的支持;并發(fā)布了 Teachable Machine 2.0,不需要寫代碼,只需一個按鈕就能訓練一個機器學習模型。
量子位相關(guān)報道如下:
TensorFlow Lite 發(fā)布重大更新!支持移動 GPU、推斷速度提升4-6 倍
還有 MLIR,一個開源的機器學習編譯器基礎(chǔ)工具,解決了日益增長的軟件和硬件碎片的復雜性,使構(gòu)建人工智能應用程序的更容易。
在 NeurIPS 2019 上,他們展示了如何使用開源的高性能機器學習研究系統(tǒng) JAX:
https://nips.cc/Conferences/2019
此外,他們也開源了用于構(gòu)建感知和多模態(tài)應用 ML pipelines 的框架 MediaPipe:
https://github.com/google/mediapipe
以及高效浮點神經(jīng)網(wǎng)絡(luò)推理操作符庫 XNNPACK:
https://github.com/google/XNNPACK
當然,Google 還放出了一些羊毛給大家薅。
Jeff Dean 介紹稱,截止 2019 年底,他們讓全球超過 1500 名研究人員通過 TensorFlow Research Cloud 免費訪問了 Cloud TPU,他們在 Coursera 上的入門課程已經(jīng)有超過了 10 萬名學生等等。
同時,他也介紹了一些“暖心”案例,比如在 TensorFlow 的幫助下,一名大學生發(fā)現(xiàn)了兩顆新的行星,并建立了一種方法來幫助其他人發(fā)現(xiàn)更多的行星。
還有大學生們使用 TensorFlow 來識別洛杉磯的坑洞和危險的道路裂縫等等。
另一方面是在開放數(shù)據(jù)集上。
開放 11 個數(shù)據(jù)集
2018 年發(fā)布了數(shù)據(jù)集搜索引擎后,Google 今年依舊在這方面努力,并盡自己的努力,給這個搜索引擎添磚加瓦。
過去一年,Google 在各個領(lǐng)域開放了 11 個數(shù)據(jù)集,下面開始資源大放送,請收好~
Open Images V5,在注釋集中加入分割掩碼(segmentation masks),樣本規(guī)模達到 280 萬,橫跨 350 個類別,量子位報道:
280 萬樣本!Google 開放史上最大分割掩碼數(shù)據(jù)集,開啟新一輪挑戰(zhàn)賽
“自然問題”數(shù)據(jù)集,第一個使用自然發(fā)生的查詢,并通過閱讀整個頁面找到答案的數(shù)據(jù)集,而不是從一小段中提取答案,30 萬對問答,BERT 都達不到 70 分,量子位報道:
Google 發(fā)布超難問答數(shù)據(jù)集「自然問題」:30 萬對問答,BERT 都達不到 70 分
用于檢測 deepfakes 的數(shù)據(jù)集:
https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html
足球模擬環(huán)境 Google Research Football,智能體可以在這個宛若 FIFA 的世界里自由踢球,學到更多踢球技巧,量子位報道:
Google 造了個虛擬足球場,讓 AI 像打 FIFA 一樣做強化學習訓練丨開源有 API
地標數(shù)據(jù)集 Google-Landmarks-v2:包括 500 萬張圖片,地標數(shù)量達到 20 萬,量子位報道:
500 萬張圖片,20 萬處地標風景,Google 又放出大型數(shù)據(jù)集
YouTube-8M Segments 數(shù)據(jù)集,一個大規(guī)模的分類和時間定位數(shù)據(jù)集,包括 YouTube-8M 視頻 5 秒片段級別的人工驗證標簽:
https://ai.googleblog.com/2019/06/announcing-youtube-8m-segments-dataset.html
AVA Spoken Activity 數(shù)據(jù)集,一個多模態(tài)音頻+視覺視頻的感知對話數(shù)據(jù)集:
https://research.google.com/ava/
PAWS 和 PAWS-X:用于機器翻譯,兩個數(shù)據(jù)集都由高度結(jié)構(gòu)化的句子對組成,并且相互之間的詞匯重疊度很高,其中約占一半的句子具有對應的多語言釋譯:
https://ai.googleblog.com/2019/10/releasing-paws-and-paws-x-two-new.html
讓兩個人進行對話,通過數(shù)字助手模擬人類的對話的自然語言對話數(shù)據(jù)集:
https://ai.googleblog.com/2019/09/announcing-two-new-natural-language.html
Visual Task Adaptation Benchmark:這是對標 GLUE、ImageNet,Google 推出的視覺任務適應性基準。
有助于用戶更好地理解哪些哪些視覺表征可以泛化到更多其他的新任務上,從而減少所有視覺任務上的數(shù)據(jù)需求:
http://ai.googleblog.com/2019/11/the-visual-task-adaptation-benchmark.html
最大的面向任務的對話的公開數(shù)據(jù)庫——模式引導對話數(shù)據(jù)集,有跨越 17 個域的超過 18000 個對話:
http://ai.googleblog.com/2019/10/introducing-schema-guided-dialogue.html
頂會研究和 Google 研究的全球擴張
根據(jù) Google 官方統(tǒng)計,Googler 在過去一年發(fā)表了 754 篇論文。
Jeff Dean 也列舉了一些頂會戰(zhàn)績:
CVPR 有 40 多篇論文,ICML 有 100 多篇論文,ICLR 有 60 多篇論文,ACL 有 40 多篇論文,ICCV 有 40 多篇論文,NeurIPS 有超過 120 篇等等。
他們還在 Google 舉辦了 15 個獨立的研討會,主題從改善全球洪水預警,到如何使用機器學習來建立更好地為殘疾人服務的系統(tǒng),到加速開發(fā)用于量子處理器(NISQ)的算法、應用程序和工具等等。
并通過年度博士獎學金項目在全球資助了 50 多名博士生,也對創(chuàng)業(yè)公司提供了支持等等。
同樣,2019 年 Google 研究地點依舊在全球擴張,在班加羅爾開設(shè)了一個研究辦公室。同時,Jeff Dean 也發(fā)出了招聘需求:如果有興趣,趕緊到碗里來~
人工智能倫理
和往年一樣,這篇報道最開篇,其實 Jeff 首先談到的就是 Google 在人工智能倫理上的工作。
這也是 Google 在 AI 實踐和道德倫理、技術(shù)向善方面的明確宣示。
2018 年,Google 發(fā)布了 AI 七原則并圍繞這些原則展開應用實踐。2019 年 6 月,Google 交出成績單,展示了如何在研究和產(chǎn)品開發(fā)中,將這些原則付諸實施。
報告鏈接:
https://www.blog.google/technology/ai/responsible-ai-principles/
Jeff Dean 說,由于這些原則基本覆蓋人工智能和機器學習研究中最活躍的領(lǐng)域,比如機器學習系統(tǒng)中的偏見、安全、公平、可靠性、透明度和隱私等等。
因此 Google 的目標是將這些領(lǐng)域的技術(shù)應用到工作中,并不斷進行研究,以繼續(xù)推進相關(guān)技術(shù)發(fā)展。
一方面,Google 還在 KDD’19、AIES 19 等學術(shù)會議上發(fā)表了多篇論文,來探討機器學習模型的公平性和可解釋性。
比如,對 Activation Atlases 如何幫助探索神經(jīng)網(wǎng)絡(luò)行為,以及如何幫助機器學習模型的可解釋性進行研究。
相關(guān)鏈接:
Exploring Neural Networks with Activation Atlases
https://ai.googleblog.com/2019/03/exploring-neural-networks.html
另一方面,Google 的努力也都落到了實處,切實的拿出了的產(chǎn)品。
比如,發(fā)布了 TensorFlow Privacy,來幫助訓練保證隱私的機器學習模型。
相關(guān)鏈接:
Introducing TensorFlow Privacy: Learning with Differential Privacy for Training Data
https://blog.tensorflow.org/2019/03/introducing-tensorflow-privacy-learning.html
此外,Google 還發(fā)布了一個新的數(shù)據(jù)集,以幫助研究識別 deepfakes。
相關(guān)鏈接:
Contributing Data to Deepfake Detection Research
https://ai.googleblog.com/2019/09/contributing-data-to-deepfake-detection.html
展望 2020 年及以后
最后,Jeff 也站在過去 10 年的發(fā)展歷程上,對 2020 年及以后的研究動向進行了展望。
他說,在過去的十年里,機器學習和計算機科學領(lǐng)域取得了顯著的進步,我們現(xiàn)在讓計算機比以往任何時候都更有能力去看、聽和理解語言。
在我們的口袋里,有了復雜的計算設(shè)備,可以利用這些能力,更好地幫助我們完成日常生活中的許多任務。
我們圍繞這些機器學習方法,通過開發(fā)專門的硬件,重新設(shè)計了我們的計算平臺,使我們能夠處理更大的問題。
這些這改變了我們對數(shù)據(jù)中心中的計算設(shè)備的看法,而深度學習革命,將繼續(xù)重塑我們對計算和計算機的看法。
與此同時,他也指出,還有大量未解決的問題。這也是 Google 在 2020 年及以后的研究方向:
第一,如何構(gòu)建能夠處理數(shù)百萬任務的機器學習系統(tǒng),并能夠自動成功地完成新任務?
第二,如何才能在人工智能研究的重要領(lǐng)域,如避免偏見、提高可解釋性和可理解性、改善隱私和確保安全等方面,取得最先進的進展?
第三,如何應用計算和機器學習在重要的科學新領(lǐng)域取得進展?比如氣候科學、醫(yī)療保健、生物信息學和許多其他領(lǐng)域等等。
第四,關(guān)于機器學習和計算機科學研究社區(qū)追求的思想和方向,如何確保有更多不同的研究人員提出和探索?我們?nèi)绾尾拍茏詈玫刂С謥碜圆煌尘暗男卵芯咳藛T進入這一領(lǐng)域?
最后的最后,你怎么看 Google AI 在過去一年的突破與進展?
歡迎在留言區(qū)互動~
報告?zhèn)魉烷T:
https://ai.googleblog.com/2020/01/google-research-looking-back-at-2019.html
Google 2019 論文傳送門:
https://research.google/pubs/?year=2019
總結(jié)
以上是生活随笔為你收集整理的Jeff Dean盘点谷歌AI 2019:纵横16大方向,一文汇集重要开源算法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 太阳系可能有成千上万的星际访客
- 下一篇: 传小红书正寻求新一轮4-5亿美元融资 估