美五大科技巨头语音识别系统被曝存偏见 黑人语音误识率比白人高1倍
圖1:研究人員表示,亞馬遜智能音箱 Echo 中的語(yǔ)音識(shí)別系統(tǒng)存在種族偏見(jiàn)
騰訊科技訊,3 月 24 日消息,據(jù)外媒報(bào)道,自從 iPhone 誕生以來(lái),我們就可以通過(guò)口述的形式發(fā)送短信。把亞馬遜搭載智能助手 Alexa 的智能音箱放在咖啡桌上,我們就可以從房間的任何地方點(diǎn)歌。與其他設(shè)備相比,它們可能更深入地理解某些聲音。
然而最新研究顯示,來(lái)自美國(guó)五大科技公司——亞馬遜、蘋(píng)果、谷歌、IBM 以及微軟的語(yǔ)音識(shí)別系統(tǒng),在黑人用戶中的識(shí)別錯(cuò)誤要比在白人用戶多出近倍。
斯坦福大學(xué)研究人員得出結(jié)論稱,這些系統(tǒng)在白人中錯(cuò)誤識(shí)別單詞的可能性約為 19%。在黑人中,錯(cuò)誤率躍升至 35%。其中,大約2% 的白人音頻片段被這些系統(tǒng)認(rèn)為是不可讀的。而在黑人中,這各比例上升到 20%。
這項(xiàng)研究采用了一種異常全面的方法來(lái)衡量語(yǔ)音識(shí)別系統(tǒng)中的偏差,為人工智能技術(shù)迅速進(jìn)入日常生活提供了另一個(gè)警示信號(hào)。
其他研究表明,隨著面部識(shí)別系統(tǒng)進(jìn)入警察部門(mén)和其他政府機(jī)構(gòu),在試圖識(shí)別女性和有色人種時(shí),它們的準(zhǔn)確性可能會(huì)大大降低。單獨(dú)的測(cè)試已經(jīng)發(fā)現(xiàn)了“聊天機(jī)器人”、翻譯服務(wù)和其他旨在處理和模仿書(shū)面或口頭語(yǔ)言的系統(tǒng)中,都存在性別歧視和種族歧視行為。
紐約大學(xué)研究新技術(shù)中的偏見(jiàn)和歧視的統(tǒng)計(jì)學(xué)教授拉維·史洛夫(Ravi Shroff)說(shuō):“我不明白為什么在這些技術(shù)發(fā)布之前,這些公司沒(méi)有進(jìn)行更多的盡職調(diào)查。我不明白為什么這些問(wèn)題總是層出不窮。”
所有這些系統(tǒng)都是通過(guò)分析大量數(shù)據(jù)來(lái)學(xué)習(xí)的。例如,面部識(shí)別系統(tǒng)通過(guò)識(shí)別數(shù)千張面孔的數(shù)字圖像中的模式來(lái)學(xué)習(xí)。
在許多情況下,這些系統(tǒng)模仿了他們?cè)跀?shù)據(jù)中發(fā)現(xiàn)的偏見(jiàn),類似于孩子從父母那里染上的“壞習(xí)慣”。例如,聊天機(jī)器人通過(guò)分析大量的人類對(duì)話來(lái)學(xué)習(xí)。如果這種對(duì)話將女性與家務(wù)聯(lián)系在一起,將男性與首席執(zhí)行官的工作聯(lián)系起來(lái),那么聊天機(jī)器人也會(huì)這樣做。
斯坦福大學(xué)的研究表明,領(lǐng)先的語(yǔ)音識(shí)別系統(tǒng)可能存在缺陷,因?yàn)檫@些公司在培訓(xùn)技術(shù)時(shí)使用的數(shù)據(jù)并沒(méi)有盡可能多樣化。這些系統(tǒng)的任務(wù)主要是從白人那里學(xué)習(xí),而黑人參與相對(duì)較少。
參與這項(xiàng)研究的斯坦福大學(xué)研究人員之一、專門(mén)研究非裔美國(guó)人語(yǔ)音的約翰·里克福德(John Rickford)說(shuō):“這可能是五家最大的語(yǔ)音識(shí)別公司,但他們都在犯同樣的錯(cuò)誤。我們的假設(shè)是,這些公司很好地代表了所有種族,但事實(shí)并非如此。”
圖2:蘋(píng)果負(fù)責(zé)軟件工程的高級(jí)副總裁克雷格·費(fèi)德里吉(Craig Federighi)在 2018 年的一次會(huì)議上談到了 Siri
這項(xiàng)研究測(cè)試了來(lái)自蘋(píng)果、亞馬遜、谷歌、IBM 和微軟五大科技巨頭公開(kāi)可用的工具,任何人都可以用它們來(lái)構(gòu)建語(yǔ)音識(shí)別服務(wù)。這些工具不一定是蘋(píng)果用來(lái)構(gòu)建 Siri 的工具,或者亞馬遜用來(lái)構(gòu)建 Alexa 的工具,但它們可能會(huì)與 Siri 和 Alexa 等服務(wù)共享底層技術(shù)和實(shí)踐。
每種工具都在去年 5 月底和 6 月初進(jìn)行了測(cè)試,現(xiàn)在它們的操作方式可能會(huì)有所不同。研究還指出,在測(cè)試這些工具時(shí),蘋(píng)果工具的設(shè)置與其他工具不同,需要些額外的工程才能進(jìn)行測(cè)試。
蘋(píng)果和微軟拒絕對(duì)這項(xiàng)研究發(fā)表評(píng)論。亞馬遜的一位女發(fā)言人指出,該公司在一個(gè)網(wǎng)頁(yè)上表示,它正在不斷改進(jìn)其語(yǔ)音識(shí)別服務(wù)。IBM 沒(méi)有回復(fù)記者的置評(píng)請(qǐng)求。
谷歌發(fā)言人賈斯汀·伯爾(Justin Burr)表示,該公司致力于提高準(zhǔn)確性。他說(shuō):“幾年來(lái),我們一直致力于準(zhǔn)確識(shí)別語(yǔ)音變體的挑戰(zhàn),并將繼續(xù)這樣做。”
研究人員使用這些系統(tǒng)對(duì) 42 名白人和 73 名黑人進(jìn)行了采訪。然后,他們將每組的結(jié)果進(jìn)行了比較。結(jié)果顯示,與白人相比,黑人語(yǔ)音的錯(cuò)誤識(shí)別率明顯更高。
表現(xiàn)最好的系統(tǒng)來(lái)自微軟,它錯(cuò)誤識(shí)別了大約 15% 的白人音頻和 27% 的黑人音頻。與此同時(shí),蘋(píng)果的系統(tǒng)是表現(xiàn)最差的,在白人和黑人的情況下,分別有 23% 和 45% 的情況識(shí)別失敗。
這些黑人測(cè)試者來(lái)自美國(guó)北卡羅來(lái)納州東部一個(gè)以非洲裔美國(guó)人為主的農(nóng)村社區(qū),那里是紐約西部和華盛頓特區(qū)的一個(gè)中型城市,他們用語(yǔ)言學(xué)家所說(shuō)的“非裔美國(guó)人地道英語(yǔ)”說(shuō)話,這是一種有時(shí)由城市地區(qū)和美國(guó)其他地區(qū)的非裔美國(guó)人說(shuō)的英語(yǔ)。
白人測(cè)試者則來(lái)自美國(guó)加州,包括來(lái)自該州首府薩克拉門(mén)托,另一些人來(lái)自大約 500 公里外的一個(gè)以白人為主的農(nóng)村地區(qū)。
研究發(fā)現(xiàn),當(dāng)比較黑人和白人說(shuō)出的相同短語(yǔ)時(shí),“種族差距”同樣大。這表明問(wèn)題出在訓(xùn)練系統(tǒng)識(shí)別聲音的方式上。根據(jù)研究人員的說(shuō)法,這些公司似乎沒(méi)有對(duì)代表非裔美國(guó)人白話英語(yǔ)的足夠數(shù)據(jù)進(jìn)行培訓(xùn)。
圖3:各種消費(fèi)產(chǎn)品都在使用語(yǔ)音識(shí)別技術(shù),比如谷歌智能助手 Google Assistant
斯坦福大學(xué)工程學(xué)教授、參與這項(xiàng)研究的莎拉德·戈?duì)?Sharad Goel)說(shuō):“結(jié)果并不是孤立的,問(wèn)題也并不局限于某一家特定的公司。我們?cè)谒?5 家公司的語(yǔ)音識(shí)別系統(tǒng)中都看到了相似的模式。”
這些公司都已經(jīng)意識(shí)到了這個(gè)問(wèn)題。例如,2014 年,谷歌研究人員發(fā)表了一篇論文,描述了早期語(yǔ)音識(shí)別中存在的偏見(jiàn)問(wèn)題。
去年 11 月份,前谷歌首席執(zhí)行官兼董事長(zhǎng)埃里克·施密特(Eric Schmidt)在斯坦福大學(xué)發(fā)表了演講,主題就是“合乎道德的”人工智能。他說(shuō),谷歌和硅谷的其他公司都很清楚,人工智能系統(tǒng)的構(gòu)建方式需要修正。
施密特當(dāng)時(shí)表示:“我們知道這些數(shù)據(jù)存在偏見(jiàn),你不需要把這當(dāng)作一個(gè)新的事實(shí)來(lái)大喊大叫。人類都有偏見(jiàn),我們的系統(tǒng)也是如此。問(wèn)題是:我們?cè)撛趺醋觯?rdquo;
像谷歌這樣的公司可能很難收集到正確的數(shù)據(jù),而且他們可能沒(méi)有足夠的動(dòng)力來(lái)收集這些數(shù)據(jù)。馬薩諸塞大學(xué)阿默斯特分校專門(mén)研究人工智能技術(shù)的教授布倫丹·奧康納(Brendan O‘Connor)說(shuō):“這個(gè)問(wèn)題很難解決,這些數(shù)據(jù)很難收集。我們正在打一場(chǎng)硬仗。”
這些公司可能面臨“先有雞還是先有蛋”的問(wèn)題。如果他們的服務(wù)主要由白人使用,他們將難以收集可以為黑人服務(wù)的數(shù)據(jù)。如果他們?cè)谑占@些數(shù)據(jù)時(shí)遇到困難,這些服務(wù)將繼續(xù)主要由白人使用。
華盛頓大學(xué)教授諾亞·史密斯(Noah Smith)說(shuō):“當(dāng)你開(kāi)始思考這些反饋循環(huán)時(shí),你會(huì)覺(jué)得有點(diǎn)兒可怕。這是一個(gè)令人感到十分擔(dān)憂的問(wèn)題。”(騰訊科技審校/金鹿)
總結(jié)
以上是生活随笔為你收集整理的美五大科技巨头语音识别系统被曝存偏见 黑人语音误识率比白人高1倍的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 扩容效率提升10倍,腾讯云发布一站式资源
- 下一篇: 受新冠病毒疫情影响 SpaceX无限期推