《机器学习概论》习题答案
生活随笔
收集整理的這篇文章主要介紹了
《机器学习概论》习题答案
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
## 判斷題
VC維是用來(lái)解決假設(shè)空間里的無(wú)限假設(shè)空間問(wèn)題。 [正確]
基于實(shí)例的遷移學(xué)習(xí)的基本假設(shè)是源領(lǐng)域和目標(biāo)領(lǐng)域中數(shù)據(jù)形式是相同的。[正確]
在所有聚類算法中,同一個(gè)對(duì)象只能屬于一個(gè)類 [錯(cuò)誤]
Boosting每一輪會(huì)增加分類錯(cuò)誤樣本的權(quán)重。[正確]
決策樹(shù)ID3算法找到的是假設(shè)空間的局部最優(yōu)解。[正確]
為了避免評(píng)估的偏差(bias),訓(xùn)練集和測(cè)試集應(yīng)該相互獨(dú)立。[正確]
高斯混合模型中各個(gè)分布是獨(dú)立同分布的。[錯(cuò)誤]
伯努利分布下很容易計(jì)算置信區(qū)間,但正態(tài)分布下就難以計(jì)算置信區(qū)間。[錯(cuò)誤]
聚類的相似度度量需要滿足傳遞性 [正確]
不可知學(xué)習(xí)器、一致學(xué)習(xí)器、VC維等可以用來(lái)計(jì)算樣本的復(fù)雜度。[正確]
一般來(lái)講,基于實(shí)例的遷移學(xué)習(xí)將數(shù)量較多的源領(lǐng)域數(shù)據(jù)的知識(shí)遷移到目標(biāo)領(lǐng)域。[正確]
核函數(shù)需要通過(guò)顯式的輸入空間到特征空間的映射來(lái)表示。[錯(cuò)誤]
隱馬爾可夫模型主要要解決評(píng)估問(wèn)題和解碼問(wèn)題兩個(gè)問(wèn)題。[正確]
EM問(wèn)題可以求解缺少標(biāo)簽情況下的極大似然。[錯(cuò)誤]
支持向量機(jī)屬于貝葉斯分類器。[錯(cuò)誤]## 單選題
如果一個(gè)維度為d的樣本不能被假設(shè)空間打散,那么假設(shè)空間的VC維為?[D]
A d+1
B d-1
C d
D 不確定 [選D]VC維是用來(lái)解決什么假設(shè)空間里的問(wèn)題的?[C]
A 不可知空間
B 有限假設(shè)空間
C 無(wú)限假設(shè)空間
D 樣本空間集成學(xué)習(xí)對(duì)弱監(jiān)督器的要求是?[A]
A 效果要好于隨機(jī)
B 任意效果即可
C 效果一定大于1/2
D 效果可以等于隨機(jī)下列哪項(xiàng)是貝葉斯公式[B]
A P(h|D)=P(D|h)P(D)/P(h)
B P(h|D)=P(D|h)P(h)/P(D)
C P(h|D)=P(D)P(h)/P(D|h)
D P(h|D)=P(D)P(h)下列哪項(xiàng)是極大后驗(yàn)假設(shè)
A h=argmax(h){P(D|h)P(h)}[選A]
B h=argmax(h){P(h|D)P(h)}
C h=argmax(h){P(D|h)P(D)}
D h=argmax(h){P(D|h)}[不選D]為了避免評(píng)估的偏差(bias),訓(xùn)練集和測(cè)試集應(yīng)該?[A]
A 相互獨(dú)立
B 訓(xùn)練集樣本數(shù)遠(yuǎn)遠(yuǎn)大于測(cè)試集
C 訓(xùn)練集樣本不包含測(cè)試集樣本即可
D 同分布Boosting每一輪會(huì)增加哪些樣本的權(quán)重? [B]
A 分類正確的
B 分類錯(cuò)誤的
C 樣本數(shù)少的類別
D 樣本數(shù)多的類別下列說(shuō)法正確的是[A]
A 加權(quán)多數(shù)可以用于不同學(xué)習(xí)器。
B Bagging一般用于融合不同學(xué)習(xí)器。
C Bagging每一輪使用的訓(xùn)練集相同。
D Boosting的每一輪之間可以并行。EM算法的收斂條件可以是?[A]
A 每一輪參數(shù)變化小于某一值
B 迭代到一定輪次之后
C 分類正確率到達(dá)一定值
D 錯(cuò)誤率降低到一定值我們通過(guò)分情況討論,討論了不可知學(xué)習(xí)器、一致學(xué)習(xí)器、VC維等,可以用來(lái)計(jì)算?[B]
A 出錯(cuò)界限[不選A]
B 樣本復(fù)雜度
C 樣本空間維度
D 假設(shè)空間維度構(gòu)建 KD-Tree 時(shí),確定分割維度后分割的值按照哪個(gè)統(tǒng)計(jì)指標(biāo)更合適[C]
A 均值
B 眾數(shù)
C 中位數(shù)
D 方差支持向量機(jī)屬于[B]
A 基于實(shí)例的分類器
B 最大間隔分類器[]
C 神經(jīng)網(wǎng)絡(luò)分類器[不選C]
D 貝葉斯分類器 [不選D]利用 KD-Tree 查詢給定數(shù)據(jù)點(diǎn)的最近鄰居時(shí),以下哪種情況可以被剪枝[B]
A 當(dāng)前樹(shù)節(jié)點(diǎn)所包含數(shù)據(jù)的邊界距離查詢點(diǎn)的距離小于已知最小距離[不選A]
B 當(dāng)前樹(shù)節(jié)點(diǎn)所包含數(shù)據(jù)的邊界距離查詢點(diǎn)的距離大于已知最小距離
C 當(dāng)前樹(shù)節(jié)點(diǎn)所包含數(shù)據(jù)的邊界距離查詢點(diǎn)的距離大于已知最大距離
D 當(dāng)前樹(shù)節(jié)點(diǎn)所包含數(shù)據(jù)的邊界距離查詢點(diǎn)的距離小于已知最大距離前向算法的復(fù)雜度是多少?[A]
A O(N^2T)
B O(NT)
C O(TN^T)
D O(NT^2)EM問(wèn)題可以求解哪些情況下的極大似然?[A]
A 缺失數(shù)據(jù)
B 含有隱變量[不選B]
C 數(shù)據(jù)不符合正態(tài)分布
D 缺少標(biāo)簽 [不選D]我們已知用戶的購(gòu)物行為和社交網(wǎng)絡(luò)兩個(gè)領(lǐng)域的知識(shí),我們通過(guò)構(gòu)建兩個(gè)任務(wù)并且共享用戶偏好的學(xué)習(xí),這種遷移學(xué)習(xí)屬于?[C]
A 基于實(shí)例的遷移學(xué)習(xí)[不選A]
B 基于特征的遷移學(xué)習(xí)[不選B]
C 基于參數(shù)的遷移學(xué)習(xí)
D 深度遷移學(xué)習(xí)對(duì)于一個(gè)r維的空間,假設(shè)空間H是一個(gè)線性平面,那么H的VC維是?[C]
A r[不選A]
B r-1
C r+1
D 無(wú)窮[不選D]將一個(gè)能夠區(qū)分不同動(dòng)物的模型遷移到區(qū)分不同魚(yú)的任務(wù)中,屬于哪一種遷移學(xué)習(xí)?
A 基于實(shí)例的遷移學(xué)習(xí)[不選A]
B 基于特征的遷移學(xué)習(xí)[選B]
C 基于參數(shù)的遷移學(xué)習(xí)
D 深度遷移學(xué)習(xí)下列哪項(xiàng)是極大似然假設(shè)
A h=argmax(h){P(D|h)P(h)}[不選A]
B h=argmax(h){P(h|D)P(h)}[不選B]
C h=argmax(h){P(D|h)P(D)}[不選C]
D h=argmax(h){P(D|h)}最小均方誤差算法用梯度下降法訓(xùn)練時(shí),更新權(quán)重所乘的小常數(shù) c 作用是
A 防止溢出[不選A]
B 控制學(xué)習(xí)速度[選B]
C 平滑誤差計(jì)算
D 篩選特征下列關(guān)于Boosting的說(shuō)法正確的是
A 每一輪提高錯(cuò)誤樣本的權(quán)重。[選A]
B 每一輪降低錯(cuò)誤樣本的權(quán)重。[不選B]
C 不容易受到噪聲影響。
D 不會(huì)過(guò)擬合。[不選D]如果任意一個(gè)有限集合樣本集合X能夠被假設(shè)空間H打散,那么這個(gè)假設(shè)空間的VC維是?
A 不存在[不選A]
B 0
C 1
D 無(wú)窮[選D]EM算法中,計(jì)算新一輪迭代的模型參數(shù)是在哪一步?
A 參數(shù)初始化階段[不選A]
B E步驟[不選B]
C M步驟[選C]
D 反向傳播階段參數(shù)p的N%置信區(qū)間是一個(gè)以N%的概率包含p的區(qū)間,那么N%是什么?
A 區(qū)間面積[不選A]
B 置信度[選B]
C 標(biāo)準(zhǔn)差
D 準(zhǔn)確率[不選D]如果用 X 表示樣例,Y 表示標(biāo)簽,無(wú)監(jiān)督學(xué)習(xí)關(guān)注的分布是
A P(Y)[不選A]
B P(Y|X)[不選]
C P(X)
D P(X|Y)
總結(jié)
以上是生活随笔為你收集整理的《机器学习概论》习题答案的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 魔兽世界怀旧服怎么完成诺格弗格药剂任务
- 下一篇: C++的isalpha、isalnum、