ACL 2022 | 清华大学、DeepMind等指出现有小样本学习方法并不稳定有效,提出评价框架...
?作者?|?清華大學、DeepMind等
來源?|?機器之心
以 GPT-3 為代表的預(yù)訓練語言模型的發(fā)展,引發(fā)對小樣本自然語言理解任務(wù)的極大關(guān)注。各種方法不斷發(fā)展并展現(xiàn)出日漸強大的小樣本自然語言理解性能。然而,來自清華大學、DeepMind 等團隊的研究者近期的一項研究指出:相同基準再評估結(jié)果表明,現(xiàn)有小樣本學習方法并不足夠穩(wěn)定有效,小樣本自然語言理解發(fā)展尚面臨巨大挑戰(zhàn)!
評價準則的差異極大阻礙了已有小樣本學習方法基于統(tǒng)一的標準公平比較,也無法客觀評價該領(lǐng)域的真實進展。近期,來自清華大學、DeepMind 等團隊研究者在論文《FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding》中指出:現(xiàn)有小樣本學習方法并不穩(wěn)定有效,且目前已有工作不存在單一的小樣本學習方法能夠在大多數(shù) NLU 任務(wù)上取得優(yōu)勢性能。小樣本自然語言理解領(lǐng)域發(fā)展依然面臨著嚴峻的挑戰(zhàn)!該工作被 ACL 2022 主會接收。
論文標題:
FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding
論文鏈接:
https://arxiv.org/abs/2109.12742
代碼鏈接:
https://github.com/THUDM/FewNLU
Leaderboard地址:
https://fewnlu.github.io/
本文貢獻如下:
1. 該研究提出了一個新的小樣本自然語言理解評價框架 FewNLU,并且從三個關(guān)鍵方面(即測試集小樣本學習性能、測試集和驗證集相關(guān)性、以及穩(wěn)定性) 量化評估該評價準則的優(yōu)勢;
2. 研究者對該領(lǐng)域相關(guān)工作進行重新評估,結(jié)果表明:已有工作未準確估計現(xiàn)有小樣本學習方法的絕對性能和相對差距;目前尚不存在單一在大多數(shù) NLU 任務(wù)取得優(yōu)勢性能的方法;不同方法的增益是優(yōu)勢互補的,最佳組合模型的性能接近于全監(jiān)督 NLU 系統(tǒng)等關(guān)鍵結(jié)論;
3. 此外本文提出 FewNLU,并構(gòu)建了 Leaderboard,希望幫助促進小樣本自然語言理解領(lǐng)域未來研究工作的發(fā)展。
小樣本自然語言理解評價框架
1.1 模型選擇對小樣本學習是必要的嗎?
初步實驗結(jié)果表明(如表格 1 所示),就如已有大多數(shù)工作那樣基于一組(根據(jù)既往實驗經(jīng)驗)預(yù)先固定的超參數(shù)的實驗設(shè)置,并不是最佳選擇。實驗條件的細微變化或者擾動都會帶來性能的急劇波動。基于小的驗證集在不同實驗中分別進行模型選擇是不可或缺的。
1.2 小樣本自然語言理解評價框架
基于上述結(jié)論,本文為小樣本自然語言理解提出一種更穩(wěn)健且有效的評價框架,如算法 1 所示。
該評價框架中有兩個關(guān)鍵設(shè)計選擇,分別是如何構(gòu)建數(shù)據(jù)拆分以及確定關(guān)鍵搜索超參數(shù)。
1.3 如何構(gòu)建數(shù)據(jù)拆分?
本文首先提出數(shù)據(jù)拆分構(gòu)建的三個關(guān)鍵指標:(1) 最終測試集小樣本學習性能、 (2) 測試集和驗證集關(guān)于一個超參數(shù)空間分布的相關(guān)性、以及 (3) 關(guān)于實驗執(zhí)行次數(shù)的穩(wěn)定性。
基于此,本文對多種不同的數(shù)據(jù)拆分策略進行了量化實驗和討論,包括 (1) K 折交叉驗證 (K-Fold CV)[2], (2) 最短描述距離(MDL)[2],(3) Bagging [9], (4) 隨機采樣策略 (5) 模型指導的拆分策略 (6) 以及本文提出的多次數(shù)據(jù)劃分(Multi-Splits)。
實驗結(jié)果如表格 2、3 和圖 1 所示。表格 2、3 的實驗結(jié)果表明:從小樣本性能和相關(guān)性看,多次數(shù)據(jù)劃分 (Multi-Splits) 是比其他幾個基準方案更好的數(shù)據(jù)拆分策略。?
此外,由圖 1 可知,Multi-Splits 的優(yōu)勢還源于增大執(zhí)行次數(shù) K 的取值并不會對訓練集和驗證集的數(shù)據(jù)量產(chǎn)生影響,相反會進一步增加該結(jié)果的置信度,故實驗過程中總可以選擇盡可能增大 K 的取值。然而對于 CV 和 MDL,較大的 K 值會導致失敗 (Failure Mode),較小的 K 值導致高隨機性不穩(wěn)定的結(jié)果;同時在實踐中很難先驗地知道應(yīng)該如何取值。故 Multi-Splits 是更具實際使用意義的數(shù)據(jù)拆分策略。
小樣本學習方法重新評價
基于統(tǒng)一的評價框架下,本文對目前已有最先進的小樣本學習方法進行重新評價。本文還嘗試探索了多種不同小樣本學習方法和技術(shù)組合可以實現(xiàn)的最佳性能(如表格 5 中的 "Our Best" 所示)。重新評價實驗結(jié)果如表格所示。
重新評估結(jié)果可揭示如下關(guān)鍵結(jié)論:
結(jié)論 1:小樣本學習方法的絕對性能和相對性能差異,在先前文獻中未被準確估計。此外小樣本方法(例如 ADAPET)在像 DeBERTa 這樣的大型模型上的優(yōu)勢會顯著降低。半監(jiān)督小樣本方法(例如 iPET 和 Noisy Student)增益在較大的模型也可以保持一致性。
結(jié)論 2:不同小樣本學習方法的增益在很大程度上是互補的。通過將目前各種先進方法加以組合,它們可以在很大程度上實現(xiàn)優(yōu)于任意單一方法的小樣本學習性能。目前最佳組合方法的小樣本學習性能,接近 RoBERTa 上實現(xiàn)的全監(jiān)督性能;然而和目前 DeBERTa 上實現(xiàn)的最優(yōu)全監(jiān)督性能相比,它仍然存在較大的差異性。
結(jié)論 3:目前已有相關(guān)工作中不存在單一的小樣本學習方法能夠在大多數(shù) NLU 任務(wù)上取得主導性優(yōu)勢性能。這為未來進一步開發(fā)出具有跨任務(wù)一致性和魯棒性的小樣本學習方法提出新的挑戰(zhàn)。
參考文獻
[1] Timo Schick and Hinrich Schütze. 2021b. It’s not just size that matters: Small language models are also few-shot learners. pages 2339–2352.?
[2] Ethan Perez, Douwe Kiela, and Kyunghyun Cho. 2021. True few-shot learning with language models. CoRR, abs/2105.11447.?
[3] Rakesh R. Menon, Mohit Bansal, Shashank Srivastava, and Colin Raffel. 2021. Improving and simplifying pattern exploiting training. CoRR, abs/2103.11955.?
[4] Timo Schick and Hinrich Schütze. 2021a. Exploiting cloze-questions for few-shot text classification and natural language inference. In EACL, pages 255–269. Association for Computational Linguistics.?
[5] Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, and Jie Tang. 2021b. GPT understands, too. CoRR, abs/2103.10385.?
[6] Qizhe Xie, Minh-Thang Luong, Eduard H. Hovy, and Quoc V. Le. 2020. Self-training with noisy student improves imagenet classification. In CVPR, pages 10684-10695. IEEE.?
[7] Tianyu Gao, Adam Fisch, and Danqi Chen. 2020. Making pre-trained language models better few-shot learners. CoRR, abs/2012.15723.?
[8] Tianyi Zhang, Felix Wu, Arzoo Katiyar, Kilian Q. Weinberger, and Yoav Artzi. 2020. Revisiting few-sample BERT fine-tuning. CoRR, abs/2006.05987.?
[9] Leo Breiman. 1996. Bagging predictors. Mach. Learn., 24(2):123–140.
🔍
現(xiàn)在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關(guān)注」訂閱我們的專欄吧
·
總結(jié)
以上是生活随笔為你收集整理的ACL 2022 | 清华大学、DeepMind等指出现有小样本学习方法并不稳定有效,提出评价框架...的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2021陕西省最低工资标准 不同地区会
- 下一篇: 微信自动转账怎么回事