麻省理工学院的学生们愚弄了谷歌图像识别技术,计算机视觉算法仍然很容易被骗
文章來源:ATYUN AI平臺?
人工智能圖像識別技術已經取得了一些令人驚嘆的進步,但正如一項新的研究表明的那樣,這些系統仍然可以被那些愚弄的例子所絆倒。
一群麻省理工學院的學生最近愚弄了谷歌開發的一種圖像分類器,這群學生周三發布的一篇論文詳細描述了一種可以更快地欺騙系統的技術。這種欺騙谷歌系統的方法提供了一個真實的例子,說明基于人工智能的圖像識別系統是如何被黑客入侵的。
論文地址:https://arxiv.org/pdf/1712.07113.pdf
該團隊的新算法從一個它想用來欺騙另一個系統的圖像開始,從他們的論文中的一個例子看出,有一只小狗的圖片,然后開始改變像素以使圖像看起來更像源圖像;在這種情況下,系統識別出來的對象是兩名滑雪愛好者。當系統起作用的時候,“對抗”算法就會對圖像識別系統提出挑戰,這個系統的版本會迅速移動到任何一個人都能識別的范圍(查看上面的視頻)。但是,在所有的時間里,這個算法只保留了破壞像素的正確組合,讓系統認為它是在看著一只狗。這聽起來可能微不足道,但該團隊強調,真正的機器學習算法——無論是在自動駕駛汽車還是在社交媒體上——都可能被欺騙,甚至可能被濫用。“系統安全是非常重要的,并且不能被利用。”該研究中的一名成員Anish Athalye說道。
研究人員在谷歌的云視覺API上測試了他們的方法——這是一個很好的測試案例,部分原因是谷歌沒有發布任何關于計算機視覺軟件的工作原理,甚至是系統用來對圖像進行分類的所有標簽。這項技術能夠掃描數碼照片,識別所描繪的對象。但API并不完美。當像素被改變或形狀和顏色被改變時,圖像識別可以被欺騙來對圖像進行錯誤分類。該團隊表示,到目前為止,他們只嘗試了谷歌的系統,但他們的技術在其他圖像識別系統上應該也可以運行。
Athalye和他的同事們通過對圖片進行細微的調整而設計了一個計算機程序。在另一項測試中,他們成功地欺騙了谷歌的API,該系統誤將一架直升飛機認作一組步槍。
這是一個引人注目的黑客攻擊,因為它在一個“黑箱”條件下的一個實際的谷歌產品上運行,在這種情況下,研究人員無法訪問目標技術的內部工作,他們只得到了關于系統如何決策的部分信息。其他試圖愚弄圖像識別技術的嘗試主要集中在“白箱”系統上,這些系統的底層計算機制是已知的。
為了利用谷歌圖像識別系統,麻省理工學院的研究人員使用了一種被稱為自然進化策略(NES)的計算機算法。這基本上幫助他們猜測圖像識別是如何對圖像進行分類的。
他們的程序將為谷歌提供一組經過修改的圖片,觀察他們如何分類,并在提交另一批文件之前做出相應的修改。在他們自己的演示中,他們使用了大約100萬張圖片,直到他們的程序最終設計出一個愚弄了谷歌系統的程序。
這肯定存在很多問題。但是,麻省理工學院的研究人員發現,他們的方法比之前的在黑箱條件下的方法速度快了1000倍。麻省理工學院的學生Andrew Ilyas說,它可以做到這一點,因為他們的程序會在圖像上調整大量的像素,而不是每次都是幾個像素。
谷歌拒絕就這項研究發表評論,但該公司的人工智能程序員也一直在研究保護基于機器學習系統的方法。這家搜索巨頭還與包括微軟和Facebook在內的其他公司一起推廣人工智能技術的最佳實踐。
有很多研究人員正在研究類似這樣的對抗的例子,但是對于像自動駕駛汽車這樣的安全關鍵的應用,人工智能在對抗攻擊是不可能的,或者至少是更困難的情況下,才會被信任。
本文轉自ATYUN人工智能媒體平臺,原文鏈接:麻省理工學院的學生們愚弄了谷歌圖像識別技術,計算機視覺算法仍然很容易被騙
更多推薦
亞馬遜推出自主學習系統,使Alexa自動檢測錯誤的理解并及時糾正
適合創業公司的幾種云服務器品牌對比評估
蝙蝠會是下一代無人機技術的關鍵嗎?
Facebook利用AI和衛星圖像評估自然災害造成的影響
歡迎關注ATYUN官方公眾號,商務合作及內容投稿請聯系郵箱:bd@atyun.com?
總結
以上是生活随笔為你收集整理的麻省理工学院的学生们愚弄了谷歌图像识别技术,计算机视觉算法仍然很容易被骗的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 《Nature-Inspired Met
- 下一篇: 人力资源管理专业知识与实务(初级)【9】