Attention函数手册
生活随笔
收集整理的這篇文章主要介紹了
Attention函数手册
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
Attention基本公式及其變種
一元@煉丹筆記目前的諸多機(jī)器學(xué)習(xí)相關(guān)的問題,諸如推薦問題中的序列處理,時(shí)間序列的預(yù)測(cè),文本分類等問題都會(huì)涉及到Attention函數(shù)的使用,Attention已經(jīng)成為了這些問題在建模時(shí)的最為核心的模塊。
而我們?cè)趯?shí)踐的過程中發(fā)現(xiàn),attention計(jì)算方式的不同對(duì)于不同的問題會(huì)有些許影響,有的時(shí)候影響還很大,所以在本文我們看看有哪些常用的attention函數(shù)。
1.softmax函數(shù)
softmax函數(shù)是使用最多的函數(shù)也是最為常見的函數(shù),在實(shí)踐中往往也可以取得不錯(cuò)的效果。
2.TopN softmax
同樣地,也是先使用softmax函數(shù)進(jìn)行計(jì)算,然后取softmax最大的N個(gè)值進(jìn)行保留,將其它的值全部設(shè)置為0,該方法曾經(jīng)出現(xiàn)在一些推薦相關(guān)的問題建模中,可以取得非常不錯(cuò)的效果。
Attention函數(shù)手冊(cè)!總結(jié)
以上是生活随笔為你收集整理的Attention函数手册的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 没什么是一次排序解决不了的,如果有,那就
- 下一篇: AAAI21最佳论文Runners Up