AI圈的杠精惹不起:图灵奖得主“认输”关闭社交账号
經歷了長達兩周的「罵戰」,Yann LeCun不知是感覺失望還是心累,于今日宣布,將退出推特,不會再在該平臺上發表言論。
Yann LeCun 在推特上的最后發聲:
請社交網絡上的所有人不要再互相攻擊了,特別是對 Timnit Gebru 的攻擊,以及對于我之前言論的攻擊。無論是口頭還是任何其他方式的沖突,都只會得到傷害和相反的結果。我反對一切形式的歧視。這將是我在推特上最后一篇帖子。
由于PULSE建立在StyleGAN的基礎上,而StyleGAN所用的數據集是FFHQ,這個數據集里包含了90%以上的白人人臉。PULSE的特點在于,可以將多個不同但相似的人臉圖像聚合為同一個低分辨率圖像。
許多算法都試圖從低分辨率恢復高分辨率圖像,這可能是錯誤的方法,原始圖像實際上是信息稀疏的。因此,奧巴馬的打碼圖像還原后也不一定是奧巴馬,我們會堅持認為那張圖像的原型必然是奧巴馬,也是由于記憶先驗導致的偏見。PULSE提供的不是錯誤的答案,也不是故意的,但提供了有偏見的答案。
針對這張圖,Yann LeCun在推特上發表了這么一句話:“當數據有偏見時,機器學習系統就變得有偏見。這個人臉上采樣系統讓每個人看起來都像白人,因為網絡是在FlickFaceHQ數據集上預訓練的,而這個數據集主要包含白人圖像。”
這為LeCun招來了不少的批評,很多專家認為LeCun在提出狹隘甚至錯誤的觀點誤導人們,并紛紛提出了自己的質疑。LeCun對這些質疑一一回應,但仍得不到理解。
一開始爭論的焦點在于:AI產生偏見的原因是否只是數據集導致?算法本身的缺陷能不能成為原因?盡管LeCun后來在一系列的推文中一條一條地解釋自己的觀點,指出自己同意各位專家的質疑,只是自己的論點建立在特定的條件下,數據確實不是AI偏見的唯一來源。
爭論中走向了真正的“偏見”
作為AI的公平性、問責制和透明性的領先研究者,Timnit Gebru首先在推文中對 LeCun 的言論表示「失望」,并指出機器學習系統中的偏見僅來自數據的觀點是不正確的。她還建議Yann LeCun查看她之前做過的課程,因為她才是專家。
Yann LeCun后來在Timnit Gebru 的推特評論區連寫 17 條回復:表示自己同意她的觀點。
Timnit Gebru對此的回應卻是:我出于自己的理智不再與您交流,因為這不值得我花費時間。
Yann LeCun回應:我很遺憾您不愿意討論實質內容。我曾希望從這種交流中學到一些東西。FB中有幾個小組完全專注于ML / AI的公平性,偏見和社會影響。
有人批評Yann LeCun,并稱其向Timnit Gebru講授她的專業知識,居高臨下,并涉及言論霸凌。
另外還有人說,Yann LeCun給該領域的專家提供了推文教程,沒有問任何問題,沒有進行真正的討論,沒有尊重她的專家地位,也沒有要求澄清她的任何觀點,還要求她控制情緒,那么又希望她如何參與?其中還有人特別強調了Timnit Gebru的黑人女性身份,暗示Yann LeCun存在歧視行為。甚至還有人直接批評Yann LeCun在進行對女性的“直男”說教。
也有很多人在為Yann LeCun辯護,表示他的行為是理性、冷靜和有耐心的,并且也稱得上是AI偏見方面的專家,他不應該為自己沒做錯的事情道歉。
Yann LeCun后來在推文中向Timnit Gebru表示贊賞她在AI道德、公平方面的工作,并對自己的交流方式道歉,希望她能和Facebook AI的研究員一起交流如何一起和偏見作斗爭。
不過事情并非如此簡單,Yann LeCun又因為另一個言論被卷進了漩渦。當有人說,機器學習研究者應該在選擇數據的時候更加小心,Yann LeCun回應道,這主要是機器學習工程師而不是研究者的責任。人們又開始批評Yann LeCun在推卸責任,忽視學術研究對AI偏見的影響力。人們也提醒Yann LeCun,作為領域的領軍人物,發表言論應該更加小心。其他人則指出,研究人員在一定程度上必須使用有缺陷的數據集來取得進步。
盡管在這次漫長的爭論中,還是有很多人為Yann LeCun辯護。但或許,對于Yann LeCun來說,這種爭論早就脫離了正軌,不應該出現,這本身就是一種失敗,是將社交網絡應用于AI社區交流的失敗。由于自己話語的分量,當其中涉及了敏感話題,無論怎么辯解,都會陷入矛盾的中心被圍觀,最后卻得不到有意義的結果。一向直言不諱的Yann LeCun,這次也心累了。
總結
以上是生活随笔為你收集整理的AI圈的杠精惹不起:图灵奖得主“认输”关闭社交账号的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 警惕!这道"菜"不要随便吃 最近已致多人
- 下一篇: 苹果变脸:AirPods耳机坏了 售后不