智能算法把奥巴马识别成白人,AI也学会歧视了?
在人工智能愈發普及的當下,越來越多的地鐵、商場或其他公共場所,都已出現了人臉識別的儀器。
按理說,這樣先進的技術,本該讓人們的生活更便捷,更自由。然而,在某些時候,這些技術非但沒能造福人類,反而揭開了人類社會中最丑陋的傷疤。
比如,最近一種新的AI去馬賽克算法PULSE,就犯了“種族歧視”的大忌,將美國前總統奧巴馬打了馬賽克的圖片識別成了白人。
在美國的BLM(黑命貴)運動愈演愈烈的背景下,怒不可遏的大眾在網上開始了對AI技術的又一輪口誅筆伐。
而網友們怒罵的火力,全都集中在了一個名叫楊立昆的AI大神身上。
這位大神之所以躺槍,是因為身為FB公司首席AI科學家,并且拿過圖靈獎的他,實在不忍看到AI技術遭到大眾如此誤解與貶損,于是便在推特上為PULSE算法“出頭”辯護。
楊立昆解釋說,這種情況往往是由于數據偏差導致的,PULSE算出來的人臉之所以傾向于白人,是因為神經網絡是在FlickFaceHQ上訓練的,而上面的大部分照片都是白人。
盡管楊立昆的解釋已經十分冷靜與客觀,但怒火中燒的網友仍將種族歧視的帽子扣在了他頭上,并對他展開了鋪天蓋地的謾罵。
最后,這位被網友“噴怕了”的AI大神,不得不宣布退出了推特。
不過,雖然楊立昆選擇了主動避退,但人們對于“AI歧視”的爭議卻不會就此終止,實際上,這次AI識別技術的失誤,只是眾多類似事件中的一角。
早在2015年,谷歌就在自己的網站中,加入了一個通過機器識別照片中的內容,并自動打標簽分類的功能。
谷歌推出這項功能的初衷,本是為了方便用戶管理和搜索。然而,這個心智不成熟的AI,卻在實際操作中“抽風”,將一位黑人程序員和其女友的照片打上了“Gorilla”(大猩猩)的標簽。
頓時,黑人程序員小哥心中一陣MMP……
而這樣的情況,也讓人禁不住發問:為什么現在連AI也開始沾染上人類“歧視”的惡習了呢?
實際上,AI 本是一種工具,本身并無偏好與喜惡,而AI所具有的“歧視”與“偏見”,往往是背后算法訓練的數據所導致的。
目前的人工智能背后需要即為大量的數據去訓練,盡管人工智能本身并沒有“歧視”與“偏見”,但背后數據的研究人員卻會因為個人的因素,以至于在訓練數據的選擇上就會產生偏向性。
通常情況下,在創建 AI 算法的過程中會有許多工程師參與,而這些工程師通常來自高收入國家的白人家庭,他們的思想、價值觀與階層意識,都導致了經由他們制造出來的 AI ,也不可避免地帶上了與之類似的色彩。
如果用于訓練的數據里白人比黑人更多,那顯然白人的識別率就會更高。
然而,盡管人工智能在被制造的過程中,會不可避免地受到人類研究者的影響,但人類卻學會了用一種“AI制AI”的方式,來消解人工智能可能存在的偏見。
比如,舊金山就曾經推出過一種“偏見緩解工具”,該工具使用人工智能技術自動編輯警方報告中的嫌疑人種族等信息。它的目的是在決定某人被指控犯罪時,讓檢察官不受種族偏見的影響。
根據舊金山地區檢察官辦公室的說法, 這個工具不僅會刪除關于種族的描述,同時還會進一步刪除關于眼睛顏色和頭發顏色等可能有意無意對檢察官造成暗示的信息,甚至地點和社區名稱也將會被刪除。從而避免歧視現象的發生。
由此可見,人工智能所帶有的“偏見”,并非一個無法消除的弊端,經過人們對算法的改進,以及完善研發之初的測試和驗證,就能避免在后續研發過程中AI無意識創造“偏見”。
而類似偏見緩解工具這樣的AI技術,也進一步說明了,AI的發展并非會真的加深人類社會中固有的歧視,相反,它有可能會為糾正這種人類數千年來的痼疾提供一個新的解決方案。
而這,也正是人工智能技術發展的初衷之一——讓更多的人平等而有尊嚴地生活下去。
總結
以上是生活随笔為你收集整理的智能算法把奥巴马识别成白人,AI也学会歧视了?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 浙大团队研发铜基沸石纱布口罩,1分钟杀灭
- 下一篇: 哈佛研究人员开发基于折纸造型高精度微型手