【读论文0628】Does Learning Require Memorization? A Short Tale about a Long Tail∗
這篇記錄沒啥用,這個論文我沒看懂
Does Learning Require Memorization? A Short Tale about a Long Tail
發(fā)表時間:STOC 2020 (ACM SIGACT Symposium on Theory of Computing)
論文內(nèi)容
研究問題
分類模型對訓(xùn)練數(shù)據(jù)的記憶是否必要。
Intuition
即使標(biāo)簽隨機分配,模型也能達(dá)到很低的訓(xùn)練誤差。這種不可預(yù)測的標(biāo)簽也能擬合,只有通過全部記住樣本和它對應(yīng)的標(biāo)簽。
具體分析
泛化誤差:
errP(h)=errS(h)+(errP(h)?errS(h))\text{err}_P(h)=\text{err}_S(h) + (\text{err}_P(h)-\text{err}_S(h))errP?(h)=errS?(h)+(errP?(h)?errS?(h))
- errp(h)\text{err}_p(h)errp?(h)–泛化誤差
- errs(h)\text{err}_s(h)errs?(h)–經(jīng)驗/估計誤差
- PPP–數(shù)據(jù)分布
- SSS–訓(xùn)練集
通過模型復(fù)雜度或者算法穩(wěn)定性近似。
應(yīng)該是這個論文里最重要的一個結(jié)論:
err ̄(π,F,A)≤(opt)(π,F)+τ1?E[errS(A,1)]\overline{\text{err}} (\pi,\mathcal{F},\mathcal{A})\le \text(opt)(\pi, \mathcal{F})+ \tau_1\cdot \textbf{E}[\text{err}_S(\mathcal{A},1)]err(π,F,A)≤(opt)(π,F)+τ1??E[errS?(A,1)]
- err ̄(π,F,A)\overline{\text{err}} (\pi,\mathcal{F},\mathcal{A})err(π,F,A)是對算法A\mathcal{A}A的期望泛化誤差。
- (opt)(π,F)\text(opt)(\pi, \mathcal{F})(opt)(π,F) 是任意算法最小可達(dá)誤差。
什么意思。。。沒懂
τ1:=Eα~π ̄N[α2?(1?α)n?1]Eα~π ̄N[α?(1?α)n?1]\tau_1:=\frac{\textbf{E}_{\alpha\sim \overline{\pi}^N}[\alpha^2\cdot (1-\alpha)^{n-1}]}{\textbf{E}_{\alpha\sim \overline{\pi}^N}[\alpha\cdot (1-\alpha)^{n-1}]}τ1?:=Eα~πN?[α?(1?α)n?1]Eα~πN?[α2?(1?α)n?1]?
π ̄N\overline{\pi}^NπN平滑版本的π\(zhòng)piπ。π\(zhòng)piπ是類別頻率邊界分布。
總結(jié)
以上是生活随笔為你收集整理的【读论文0628】Does Learning Require Memorization? A Short Tale about a Long Tail∗的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 企业微信私聊安全吗?
- 下一篇: 数据库系统---数据挖掘