【完结】 12篇文章带你完全进入NLP领域,掌握核心技术
專欄《NLP》第一階段正式完結了。在本專欄中,我們從NLP中常用的機器學習算法開始,介紹了NLP中常用的算法和模型;從樸素貝葉斯講到XLnet,特征抽取器從RNN講到transformerXL。這篇文章我們就一起回顧一下這些文章。
作者&編輯 | 小Dream哥
1 樸素貝葉斯
貝葉斯分類器在早期的自然語言處理任務中有著較多實際的應用,例如大部分的垃圾郵件處理都是用的貝葉斯分類器。
貝葉斯決策論是在統計概率框架下進行分類決策的基本方法。對于分類任務來說,在所有相關概率都已知的情況下,貝葉斯決策論考慮如何基于這些概率和誤判損失來預測分類。
【NLP】經典分類模型樸素貝葉斯解讀
2?隱馬爾科夫模型(HMM)
HMM早期在語音識別、分詞等序列標注問題中有著廣泛的應用。
HMM是非常適合用于序列標注問題的。HMM模型引入了馬爾科夫假設,即T時刻的狀態僅僅與前一時刻的狀態相關。
【NLP】用于語音識別、分詞的隱馬爾科夫模型HMM
3 條件隨機場(CRF)
隱馬爾科夫模型引入了馬爾科夫假設,即當前時刻的狀態只與其前一時刻的狀態有關。但是,在序列標注任務中,當前時刻的狀態,應該同該時刻的前后的狀態均相關。于是,在很多序列標注任務中,引入了條件隨機場。
這里詳細了介紹條件隨機場的理論和及其在實體識別中的應用和Tensorflow中的實現。
【NLP】用于序列標注問題的條件隨機場(Conditional Random Field, CRF)
4?循環神經網絡(RNN)
對于一些序列輸入的信息,例如語音、語言等,不同時刻之間的輸入存在相互的影響,需要一種模型能夠“記憶”歷史輸入的信息,進而對整個序列進行完整的特征提取和表征。
循環神經網絡(RNN)就是面對這樣的需求提出來的,它能夠“記憶”序列輸入的歷史信息,從而能夠較好的對整個序列進行語義建模。
RNN雖然理論上可以很漂亮的解決序列數據的訓練,但是它也像DNN一樣有梯度消失的問題,當序列很長的時候問題尤其嚴重。雖然同選擇合適的激活函數等方法能夠一定程度的減輕該問題。但人們往往更青睞于使用RNN的變種。
【NLP】 深度學習NLP開篇-循環神經網絡(RNN)
5?LSTM
LSTM在原本RNN的基礎上增加了CEC的內容,CEC保證了誤差以常數的形式在網絡中流動,這部分通過引入細胞狀態C來體現。
并且,為了解決輸入和輸出在參數更新時的矛盾,在CEC的基礎上添加3個門使得模型變成非線性的,就可以調整不同時序的輸出對模型后續動作的影響。
【NLP】 NLP中應用最廣泛的特征抽取模型-LSTM
6?NLP中Attention機制
人類在對信息進行處理的過程中,注意力不是平均分散的,而是有重點的分布。受此啟發,做計算機視覺的朋友,開始在視覺處理過程中加入注意力機制(Attention)。隨后,做自然語言處理的朋友們,也開始引入這個機制。在NLP的很多任務中,加入注意力機制后,都取得了非常好的效果。
在NLP中,Attention機制是什么呢?從直覺上來說,與人類的注意力分配過程類似,就是在信息處理過程中,對不同的內容分配不同的注意力權重。
【NLP】 聊聊NLP中的attention機制
7?特征抽取器Tranformer
Transformer中最重要的特點就是引入了Attention,特別是Multi-Head Attention。作為一個序列輸入的特征抽取器,其編碼能力強大,沒有明顯的缺點。短期內難以看到可以匹敵的競爭對手。
【NLP】 理解NLP中網紅特征抽取器Tranformer
8?BERT
BERT,全稱是Pre-training of Deep Bidirectional Transformers for Language Understanding。注意其中的每一個詞都說明了BERT的一個特征。
Pre-training說明BERT是一個預訓練模型,通過前期的大量語料的無監督訓練,為下游任務學習大量的先驗的語言、句法、詞義等信息。
Bidirectional 說明BERT采用的是雙向語言模型的方式,能夠更好的融合前后文的知識。
Transformers說明BERT采用Transformers作為特征抽取器。
Deep說明模型很深,base版本有12層,large版本有24層。
總的來說,BERT是一個用Transformers作為特征抽取器的深度雙向預訓練語言理解模型。
【NLP】 深入淺出解析BERT原理及其表征的內容
9 transformerXL
TransformerXL是Transformer一種非常重要的改進,通過映入Recurrence機制和相對位置編碼,增強了Transformer在長文本輸入上的特征抽取能力。
TransformerXL學習的依賴關系比RNN長80%,比傳統Transformer長450%,在短序列和長序列上都獲得了更好的性能,并且在評估階段比傳統Transformer快1800+倍。
【NLP】TransformerXL:因為XL,所以更牛
10 GPT及GPT2.0
GPT,特別是GPT2.0是一個大型無監督語言模型,能夠生產連貫的文本段落,在許多語言建?;鶞噬先〉昧?SOTA 表現。而且該模型在沒有任務特定訓練的情況下,能夠做到初步的閱讀理解、機器翻譯、問答和自動摘要。
【NLP】GPT:第一個引入Transformer的預訓練模型
11 XLnet
XLnet集合了目前兩大預訓練模型的優點,在結構上,XLnet采用改進后的transofmerXL作為特征抽取器。在訓練模式上,XLnet實現了BERT的雙向語言模型,引入了PLM和雙流自注意力模型,避免了BERT MLM的缺點。
【NLP】XLnet:GPT和BERT的合體,博采眾長,所以更強
12 NLP綜述
從詞向量開始,到最新最強大的BERT等預訓練模型,梗概性的介紹了深度學習近20年在NLP中的一些重大的進展。
【技術綜述】深度學習在自然語言處理中的應用
知識星球推薦
掃描上面的二維碼,就可以加入我們的星球,助你成長為一名合格的自然語言處理算法工程師。
知識星球主要有以下內容:
(1) 聊天機器人??紤]到聊天機器人是一個非常復雜的NLP應用場景,幾乎涵蓋了所有的NLP任務及應用。所以小Dream哥計劃以聊天機器人作為切入點,通過介紹聊天機器人的原理和實踐,逐步系統的更新到大部分NLP的知識,會包括語義匹配,文本分類,意圖識別,語義匹配命名實體識別、對話管理以及分詞等。
(2) 知識圖譜。知識圖譜對于NLP各項任務效果好壞的重要性,就好比基礎知識對于一個學生成績好壞的重要性。他是NLP最重要的基礎設施,目前各大公司都在著力打造知識圖譜,作為一個NLP工程師,必須要熟悉和了解他。
(3) NLP預訓練模型?;诤A繑祿?#xff0c;進行超大規模網絡的無監督預訓練。具體的任務再通過少量的樣本進行Fine-Tune。這樣模式是目前NLP領域最火熱的模式,很有可能引領NLP進入一個全新發展高度。你怎么不深入的了解?
總結
希望經過這個專欄,想入門NLP的小伙伴們對這個領域已經有了基本的概念和了解。后續我們還會按照不同的NLP任務,深入各個任務跟大家進行介紹,敬請關注。
有三AI夏季劃
有三AI夏季劃進行中,歡迎了解并加入,系統性成長為中級CV算法工程師。
轉載文章請后臺聯系
侵權必究
往期精選
【每周NLP論文推薦】從預訓練模型掌握NLP的基本發展脈絡
【每周NLP論文推薦】 NLP中命名實體識別從機器學習到深度學習的代表性研究
【每周NLP論文推薦】 介紹語義匹配中的經典文章
【每周NLP論文推薦】 開發聊天機器人必讀的重要論文
總結
以上是生活随笔為你收集整理的【完结】 12篇文章带你完全进入NLP领域,掌握核心技术的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【NLP】有三AI-NLP专栏首季总结与
- 下一篇: 【每周NLP论文推荐】 掌握实体关系抽取