python人工智能面试题_人工智能面试题分享(含答案)
該樓層疑似違規(guī)已被系統(tǒng)折疊 隱藏此樓查看此樓
1、深度學(xué)習(xí)框架TensorFlow中有哪四種常用交叉熵?
答: tf.nn.weighted_cross_entropy_with_logits
tf.nn.sigmoid_cross_entropy_with_logits
tf.nn.softmax_cross_entropy_with_logits
tf.nn.sparse_softmax_cross_entropy_with_logits
2、什么叫過擬合,避免過擬合都有哪些措施?
答:過擬合:就是在機器學(xué)習(xí)中,我么測試模型的時候,提高了在訓(xùn)練數(shù)據(jù)集的表現(xiàn)力時候,
但是在訓(xùn)練集上的表現(xiàn)力反而下降了。
解決方案:
1.正則化 ;
2.在訓(xùn)練模型過程中,調(diào)節(jié)參數(shù)。學(xué)習(xí)率不要太大;
3.對數(shù)據(jù)進行交叉驗證;
4.選擇適合訓(xùn)練集合測試集數(shù)據(jù)的百分比,選取合適的停止訓(xùn)練標準,使對機器的訓(xùn)練在合適;
5.在神經(jīng)網(wǎng)絡(luò)模型中,我們可以減小權(quán)重;
3、什么是核函數(shù)?
核函數(shù)是將線性不可分的特征隱射到高位特征空間,從而讓支持向量機在這個高維空間線性可分,也就是使用核函數(shù)可以向高維空間映射并解決非線性的分類問題。包括線性核函數(shù),多項式核函數(shù),高斯核函數(shù)等,其中高斯核函數(shù)最為常用。
4、深度學(xué)習(xí)框架TensorFlow中常見的核函數(shù)都有哪些?
SVM高斯核函數(shù),應(yīng)為如果想要分割非線性數(shù)據(jù)集,改變線性分類器隱射到數(shù)據(jù)集,就要改變SVM損失函數(shù)中的核函數(shù)
線性核函數(shù)
多項式核函數(shù)
5、樸素貝葉斯方法的優(yōu)勢是什么?
樸素貝葉斯有穩(wěn)定的分類效率
對于小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能處理多分類問題,可以再數(shù)據(jù)超出內(nèi)存時,去增量訓(xùn)練
對缺失數(shù)據(jù)不太敏感,算法比較簡單,常用于文本分類。
6、什么是監(jiān)督學(xué)習(xí)的標準方法?
所有的回歸算法和分類算法都屬于監(jiān)督學(xué)習(xí)并且明確的給給出初始值在訓(xùn)練集中有特征和標簽,并且通過訓(xùn)練獲得一個模型,在面對只有特征而沒有標簽的數(shù)據(jù)時,能進行預(yù)測。
7、在機器學(xué)習(xí)中,模型的選擇是指什么?
根據(jù)一組不同復(fù)雜度的模型表現(xiàn),從某個模型中挑選最好的模型。選擇一個最好模型后,在新的數(shù)據(jù)上來評價其預(yù)測誤差等評價和指標。
8、圖形數(shù)據(jù)庫Neo4J的優(yōu)劣勢?
優(yōu)勢:1.更快的數(shù)據(jù)庫操作,前提是數(shù)據(jù)量足夠大。
2. 數(shù)據(jù)更加直觀,相應(yīng)的SQL語句更加好寫。
3.更靈活,不管有什么新的數(shù)據(jù)需要儲存,都是一律的節(jié)點,只需要考慮節(jié)點屬性和邊屬性。
4.數(shù)據(jù)庫的操作不會隨著數(shù)據(jù)庫的增大有明顯的降低。
劣勢:1.極慢的插入速度。
2.超大的節(jié)點。當一個節(jié)點的邊非常多,
有關(guān)這個節(jié)點的操作速度就會大大下降
9、LR和SVM的聯(lián)系與區(qū)別是什么?
都是分類算法
如果不考慮核函數(shù),LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的。
LR和SVM都是監(jiān)督學(xué)習(xí)算法
LR和SVM的損失函數(shù)不同
SVM只考慮局部的邊界線附近的點 ,LR考慮全局,遠離的點對邊界線的確定也起作用。
總結(jié)
以上是生活随笔為你收集整理的python人工智能面试题_人工智能面试题分享(含答案)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 虽然屏保不再保屏屏保没有了
- 下一篇: 这只雷鸟人到底经历了什么这只雷鸟人到底经