【NLP】ACL2020 | 词向量性别偏见
作者?| Salesforce?Research? 編譯 |?NewBeeNLP
ACL2020關(guān)于詞嵌入性別偏見的蠻有意思的一項工作:
論文地址:https://arxiv.org/abs/2005.00965
代碼地址:https://github.com/uvavision/Double-Hard-Debias
TL; DR
從人類生成的語料庫中學(xué)習(xí)到的單詞嵌入繼承了強烈的「性別偏見(gender bias)」,并且會通過下游模型進一步放大。我們發(fā)現(xiàn)諸如單詞頻率之類的語料庫規(guī)則會對現(xiàn)有的post-hoc debiasing算法產(chǎn)生負面影響,并建議在推斷和刪除性別子空間之前針對此類語料庫規(guī)則來凈化詞向量。
詞嵌入中的性別偏見
詞嵌入是詞匯表中單詞的向量表示,它們能夠捕獲單詞的語義和句法含義以及與其他單詞的關(guān)系。盡管在自然語言處理(NLP)任務(wù)中廣泛使用了詞嵌入,但由于其從訓(xùn)練語料庫中繼承了意想不到的性別偏見,因此飽受批評。如論文中所討論的(Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings[1]),我們認為一個單詞在定義上與性別無關(guān)但其學(xué)習(xí)的嵌入更接近于某個性別時,這就產(chǎn)生了性別偏見。例如,在下圖中, 軸是對「他(he)」 和 「她(she)」 兩個詞的嵌入之間差異的投影,而 軸是在嵌入過程中捕獲性別中立性的方向,與性別無關(guān)的位于上半部分,而與性別有關(guān)的詞位于下半部分。盡管從定義上說,brilliant和genius不分性別,但它們的embedding更加接近男性(he)。同樣,homemaker和sewing與女性(her)聯(lián)系更緊密。
為什么性別偏見如此重要?
詞嵌入中的性別偏見是一個嚴重的問題。想象一下,人們基于有偏詞嵌入開發(fā)了一個簡歷過濾模型。該模型可以潛在地過濾掉像程序員這樣的職位的女性候選人,也可以排除像理發(fā)店這樣的職位的男性候選人。同樣,當QA模型被用于解析醫(yī)學(xué)報告時,如果將醫(yī)生全部默認為男性而護士全部默認為女性的則很大可能會提供錯誤的答案。
早期的硬Debias方法
先前的工作[1]通過后處理(post-processing)從詞嵌入中減去與性別相關(guān)的成分,從而減少了性別偏見。具體而言,它需要一組特定于性別的單詞對,并計算這些單詞對的差異向量的第一個主成分作為嵌入空間中的性別方向。其次,它將有偏見的詞嵌入投射到與推斷的性別方向正交的子空間中,以消除性別偏見。雖然證明了這種方法可以緩解單詞類比任務(wù)中的性別偏見,但這篇論文(Lipstick on a Pig: Debiasing Methods Cover up Systematic Gender Biases in Word Embeddings But do not Remove Them[2])認為這些努力的效果是有限的,因為性別偏見仍然可以從去偏后的嵌入幾何圖中恢復(fù)。
詞頻會扭曲性別傾向
在某種情況下,我們假設(shè)很難以現(xiàn)有的「Hard Debias」方法所采用的方式來識別單詞嵌入的真實性別方向。參考資料[3]和[4]表明詞頻顯著影響詞嵌入的幾何形狀。例如,流行詞和稀有詞聚集在嵌入空間的不同子區(qū)域中,盡管事實上這些詞在語義上并不相似。這可能會對識別性別方向的過程產(chǎn)生負面影響,并因此降低“硬性偏見”消除性別偏見的能力。我們通過經(jīng)驗證明,某些單詞的頻率變化會導(dǎo)致相應(yīng)差異向量與其他差異向量之間的相似性發(fā)生重大變化,如下圖所示。
雙重硬性偏差:通過消除頻率影響來改善硬性偏差
由于單詞頻率會扭曲性別方向,因此我們建議使用「Double-Hard Debias」消除單詞頻率的負面影響。關(guān)鍵思想是在應(yīng)用Hard Debias之前將單詞嵌入投影到intermediate subspace。回想一下,Hard Debias通過將嵌入空間轉(zhuǎn)換為無性別的空間來減少性別偏見。同樣,在Double-Hard Debias中,我們首先將所有單詞嵌入轉(zhuǎn)換為「無頻率子空間」,在該子空間中,我們能夠計算出更準確的性別方向。更具體地說,我們嘗試找到對頻率信息進行編碼的維度,該頻率信息分散了性別方向的計算。然后,我們沿著字詞嵌入的這個特定維度投影組件,以獲得修正的嵌入,并對修正的嵌入應(yīng)用Hard Debias。
為了識別此維度,我們采用top biased words的聚類作為代理,并反復(fù)測試詞嵌入的主成分。詳細步驟如下:
計算所有單詞嵌入的主成分作為頻率維度候選;
選擇一組最偏(top-biased)的男性和女性詞匯(例如,程序員,家庭主婦,游戲,舞蹈等);
對沒有候選維度 分別重讀步驟4-6;
投影嵌入(embedding)到與 正交的中間空間中,從而獲得經(jīng)過修正的嵌入;
對修正的嵌入應(yīng)用 Hard Debias;
對選定的top biased詞的debiased embedding進行聚類,并計算聚類精度。
如果步驟6中的聚類算法仍將有偏見的詞聚類為與性別對齊的兩組,則意味著刪除 不能改善去偏性。因此,我們選擇導(dǎo)致有偏詞聚類準確性下降幅度最大的 并將其刪除。
Double-Hard Debias的表現(xiàn)如何?
我們在幾個bias mitigation基準上評估Double-Hard Debias,包括重要的下游任務(wù)--conference resolution。我們使用 WinoBias數(shù)據(jù)集來量化性別偏見。WinoBias由兩種類型的句子組成。每種類型的句子可以分為pro-stereotype子集和anti stereotype子集,性別是這兩個子集之間的唯一區(qū)別。類型1句子中的一個示例包含一個定型觀念句子:「The physician hired the secretary because he was overwhelmed with clients」。還有一個反刻板印象的句子:「The physician hired the secretary because she was overwhelmed with clients」。前定型和反定型之間的性能差異反映了共指系統(tǒng)在男性和女性群體中的表現(xiàn)差異。因此,我們將此差距視為性別偏見得分。最初的GloVe嵌入帶有明顯的性別偏見,因為我們可以看到兩種類型的句子的性能差距分別達到29點和15點。與Hard Debias和其他最新的debiasing方法相比,我們的方法在兩種共指句子中都實現(xiàn)了最小的差異。同時,Double-Hard Debias還保留了詞嵌入中有用的語義信息。在原始測試集上,我們僅觀察到F1分數(shù)下降了0.1%。
我們還對所有前500個有偏見的女性和男性嵌入進行tSNE預(yù)測。如下圖所示,原始的GloVe嵌入明顯投影到了不同的區(qū)域,表明強烈的性別偏見。與其他方法相比,Double-Hard GloVe最大程度地混合了男性和女性的嵌入,顯示出在消除偏見后可以捕獲到較少的性別信息。
結(jié)論
我們發(fā)現(xiàn)單詞頻率統(tǒng)計信息的簡單變化可能會對用于消除單詞嵌入中性別偏見的去偏方法產(chǎn)生不良影響。盡管迄今為止在以前的性別偏見減少工作中都忽略了詞頻統(tǒng)計,但是我們提出了Double-Hard Debias,它減輕了詞頻特征對去偏算法的負面影響。我們認為,提供公平實用的單詞嵌入很重要,希望這項工作能夠激發(fā)沿這個方向的進一步研究。
本文參考資料
[1]
Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings: https://arxiv.org/abs/1607.06520
[2][Lipstick on a Pig: Debiasing Methods Cover up Systematic Gender Biases in Word Embeddings But do not Remove Them: https://arxiv.org/abs/1903.03862
-?END?-
往期精彩回顧適合初學(xué)者入門人工智能的路線及資料下載機器學(xué)習(xí)及深度學(xué)習(xí)筆記等資料打印機器學(xué)習(xí)在線手冊深度學(xué)習(xí)筆記專輯《統(tǒng)計學(xué)習(xí)方法》的代碼復(fù)現(xiàn)專輯 AI基礎(chǔ)下載機器學(xué)習(xí)的數(shù)學(xué)基礎(chǔ)專輯獲取一折本站知識星球優(yōu)惠券,復(fù)制鏈接直接打開:https://t.zsxq.com/yFQV7am本站qq群1003271085。加入微信群請掃碼進群:總結(jié)
以上是生活随笔為你收集整理的【NLP】ACL2020 | 词向量性别偏见的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 干货报告:八大科技领域,280 页,In
- 下一篇: 【竞赛总结】新冠期间饿了么骑士行为预估