LASSO与Item Response Theory模型中的隐变量选择
LASSO與Item Response Theory模型中的隱變量選擇
- Item Response Theory簡介
- 統(tǒng)計(jì)模型
- Latent Traits Selection
- 兩參數(shù)模型的LASSO
- BIC for tuning
- Latent traits selection的EM算法
這是Latent Variable Selection for Multidimensional Item Response Theory Models via L1 Regularization的簡單介紹。
Item Response Theory簡介
在心理學(xué)中,有很多用于測量個(gè)人特質(zhì)(trait)與dichotomous-response、polytomous-response item(就是用一些二選或者多選的問題來看被試者在一些具體場景中的反應(yīng))的量表和實(shí)驗(yàn),基于這些量表與實(shí)驗(yàn)的測量結(jié)果,心理學(xué)家可以發(fā)掘item-trait之間的關(guān)系。
下面是幾個(gè)二選的例子(如何應(yīng)對壞男人)
下面是兩個(gè)多選問題的例子(gender-orientation的測試)
統(tǒng)計(jì)模型
Item Response Theory (IRT)就是很常用的描述item-trait relation的統(tǒng)計(jì)模型。用θ=(θ1,?,θK)T\theta=(\theta^1,\cdots,\theta^K)^Tθ=(θ1,?,θK)T表示被試者的特質(zhì)向量(這個(gè)是不可測量的),每一個(gè)分量表示被試者的一種潛在特質(zhì);考慮JJJ個(gè)二選題組成的量表,用YjY_jYj?表示被試者對第jjj個(gè)問題的回答,假設(shè)我們討論兩參數(shù)模型
P(Yj=1∣θ)=F(ajTθ+bj)P(Y_j=1|\theta)=F(a_j^T\theta+b_j)P(Yj?=1∣θ)=F(ajT?θ+bj?)
其中aj=(aj1,?,ajK)Ta_j=(a_{j1},\cdots,a_{jK})^Taj?=(aj1?,?,ajK?)T,F(?)F(\cdot)F(?)是一個(gè)累積分布函數(shù),定義
A=(a1,?,aJ),b=(b1,?,bJ)TA = (a_1,\cdots,a_J),b=(b_1,\cdots,b_J)^TA=(a1?,?,aJ?),b=(b1?,?,bJ?)T
稱aja_jaj?為discrimination parameter vector,bjb_jbj?為difficulty parameter。如果ajk≠0a_{jk} \ne 0ajk??=0,就可以認(rèn)為特質(zhì)kkk在被試者對第jjj個(gè)問題做出1的回應(yīng)中起到了一定作用。于是,為了構(gòu)建特質(zhì)與被試者在不同情景中的反應(yīng)之間的關(guān)系,我們希望找出在被試者對每一個(gè)問題做出回應(yīng)的過程中起作用的那些特質(zhì),這個(gè)正是variable selection可以解決的。正式描述的話就是我們希望估計(jì)一個(gè)0-1矩陣
Λ=(λjk)J×K,λjk=Iajk≠0\Lambda=(\lambda_{jk})_{J \times K}, \lambda_{jk}=I_{a_{jk} \ne 0}Λ=(λjk?)J×K?,λjk?=Iajk??=0?
用來描述item-trait relation。
另外,關(guān)于FFF有兩種流行的選擇:
Normal Ogive Model
P(Yj=1∣θ,aj,bj)=∫?∞ajTθ+bje?u222πduP(Y_j=1|\theta,a_j,b_j)=\int_{-\infty}^{a_j^T\theta+b_j}\frac{e^{-\frac{u^2}{2}}}{\sqrt{2\pi}}duP(Yj?=1∣θ,aj?,bj?)=∫?∞ajT?θ+bj??2π?e?2u2??du
Logistics Model
P(Yj=1∣θ,aj,bj)=exp?(ajTθ+bj)1+exp?(ajTθ+bj)P(Y_j=1|\theta,a_j,b_j)=\frac{\exp(a_j^T\theta+b_j)}{1+\exp(a_j^T\theta+b_j)}P(Yj?=1∣θ,aj?,bj?)=1+exp(ajT?θ+bj?)exp(ajT?θ+bj?)?
在原文中,作者也討論了一種三參數(shù)模型:
P(Yj=1∣θ,aj,bj,cj)=cj+(1?cj)F(ajTθ+bj)P(Y_j=1|\theta,a_j,b_j,c_j)=c_j+(1-c_j)F(a_j^T\theta+b_j)P(Yj?=1∣θ,aj?,bj?,cj?)=cj?+(1?cj?)F(ajT?θ+bj?)
cjc_jcj?表示guessing probability。
Latent Traits Selection
兩參數(shù)模型的LASSO
假設(shè)有NNN個(gè)被試者,他們對JJJ個(gè)問題的回答用Y=(Yij)N×JY=(Y_{ij})_{N \times J}Y=(Yij?)N×J?表示,他們的特質(zhì)滿足θ1,?,θN~iidN(0,Σ)\theta_1,\cdots,\theta_N \sim_{iid} N(0,\Sigma)θ1?,?,θN?~iid?N(0,Σ)(概率密度記為?(θ)\phi(\theta)?(θ)),記Θ=(θ1,?,θN)\Theta=(\theta_1,\cdots,\theta_N)Θ=(θ1?,?,θN?),于是兩參數(shù)模型的似然函數(shù)為(包含complete data YYY與missing data Θ\ThetaΘ)
L(A,b∣Y,Θ)=∏i=1N?(θi)∏j=1J[F(ajTθi+bj)]yij[1?F(ajTθi+bj)]1?yijL(A,b|Y,\Theta)=\prod_{i=1}^N\phi(\theta_i)\prod_{j=1}^J [F(a_j^T \theta_i+b_j)]^{y_{ij}} \left[1-F(a_j^T\theta_i+b_j) \right]^{1-y_{ij}}L(A,b∣Y,Θ)=i=1∏N??(θi?)j=1∏J?[F(ajT?θi?+bj?)]yij?[1?F(ajT?θi?+bj?)]1?yij?
complete data的對數(shù)似然為
l(A,b∣Y)=log?∫Θ∈RK×NL(A,b∣Y,Θ)dΘl(A,b|Y)=\log \int_{\Theta \in \mathbb{R}^{K \times N}} L(A,b|Y,\Theta)d \Thetal(A,b∣Y)=log∫Θ∈RK×N?L(A,b∣Y,Θ)dΘ
用complete data的對數(shù)似然扣掉discrimination parameter的LASSO penalty作為score function,最大化score function可以得到參數(shù)的LASSO估計(jì):
(A^η,b^η)=arg?max?l(A,b∣Y)?η∥A∥1(\hat A_{\eta},\hat b_{\eta})=\argmax \ \ l(A,b|Y)-\eta \left\| A\right\|_1(A^η?,b^η?)=argmax??l(A,b∣Y)?η∥A∥1?
其中η>0\eta>0η>0是regularization parameter,
∥A∥1=∑j=1J∑k=1K∣ajk∣\left\|A\right\|_1=\sum_{j=1}^J \sum_{k=1}^K |a_{jk}|∥A∥1?=j=1∑J?k=1∑K?∣ajk?∣
如果η=0\eta=0η=0,那么LASSO估計(jì)退化為MLE。
BIC for tuning
原文作者采用BIC選擇regularization parameter η\etaη,IRT的BIC定義為
BIC(Λ?)=?2max?Λ(A)=Λ?,bl(A,b∣Y)+∥A∥0log?N∥A∥0=∑j,kIajk≠0BIC(\Lambda^*)=-2\max_{\Lambda(A)=\Lambda^*,b}l(A,b|Y)+\left\|A \right\|_0\log N \\ \left\| A\right\|_0=\sum_{j,k}I_{a_{jk} \ne 0}BIC(Λ?)=?2Λ(A)=Λ?,bmax?l(A,b∣Y)+∥A∥0?logN∥A∥0?=j,k∑?Iajk??=0?
在兩參數(shù)模型的LASSO中,我們可以按下面的步驟做tuning:
對于η\etaη取值的一個(gè)范圍,計(jì)算出對應(yīng)的BICBICBIC后選出BICBICBIC最小的η?\eta^*η?作為regularization parameter。
Latent traits selection的EM算法
這部分我暫時(shí)不關(guān)注,所以貼原文(希望了解更多細(xì)節(jié)與數(shù)值實(shí)驗(yàn)的同學(xué)可以自行閱讀全文)
總結(jié)
以上是生活随笔為你收集整理的LASSO与Item Response Theory模型中的隐变量选择的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: UA PHYS515A 电磁理论V 电磁
- 下一篇: UA MATH567 高维统计专题1 稀