大数据算法岗位面试题
神經(jīng)網(wǎng)絡(luò)
1、簡述反向傳播原理 (阿里),面試官微信發(fā)了一道反向傳播的算數(shù)題,要求算出結(jié)果并解釋 (要能計算的)?
2、sigmoid和ReLU的優(yōu)劣?
3、梯度消失問題和損失函數(shù)有關(guān)嗎??
4、Dropout為什么能防止過擬合??
5、Batch Normalization有什么好處??
6、講講Adam優(yōu)化算法
7、能想到哪些衡量兩個向量之間距離的方法(L1, L2, cosine,或者深度學習里訓練MLP作為距離函數(shù),注意normalization)?
8、衡量兩個字符串之間距離的方法?(樓主答了edit distance和Jaccard distance,不知道還有沒有其他常用的)?
9、LSTM相比普通RNN有哪些優(yōu)勢?為什么能解決梯度消失??
10、LSTM和GRU用哪個好?(樓主表示兩個之間沒有絕對的優(yōu)劣..面試官表示認同,說實際應(yīng)用里確實會因為計算速度而選擇GRU)?
11、梯度消失梯度爆炸怎么解決?
12、RNN容易梯度消失,怎么解決(LSTM)?
13、LSTM跟RNN有啥區(qū)別?
14、KMeans講講,KMeans有什么缺點,K怎么確定?
15、卷積層和池化層有什么區(qū)別?
16、防止過擬合有哪些方法?
17、闡述SVM原理,為何使用對偶性以及對偶性原理,SVM如何解決多分類,SVM與LR對比。?
18、闡述GBDT、xgboost、lightGBM的異同,xgb的優(yōu)勢,lgb的優(yōu)勢,二者的并行如何實現(xiàn)。?
19、闡述word2vec的原理,為何使用哈弗曼樹,如何構(gòu)建哈夫曼,負采樣的原理。?
20、對于一個取值較多的類別變量在不能進行onehot的情況下如何使用?
1、給定一個query和一個doc,能想到哪些衡量相關(guān)性的方法(答了bag of words, LSTM encode, CNN encode, bi-directional attention等等);面試官最后提到一種match-CNN說樓主可以面試完研究一下
3、LSTM、GRU、RNN的原理以及差別
4、梯度消失與梯度爆炸的產(chǎn)生原因,如何避免?
5、CNN的原理,卷積為何有效?1*1卷積的作用?
6、HMM與CRF的原理,差別,是全局最優(yōu)還是局部最優(yōu)以及為什么。
7、講一下其中的LR、SVM,以及區(qū)別和聯(lián)系
?
獲取更多相關(guān)大數(shù)據(jù)技術(shù)資料可以掃描下方微信二維碼:
總結(jié)
以上是生活随笔為你收集整理的大数据算法岗位面试题的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: springboot1——第一个spri
- 下一篇: JVM学习01总体概述