P2 邹博机器学习logistic回归
ML/DL
(1)數(shù)據(jù)->模型(,建模,what);
(2)模型->參數(shù)(How,SGD、BGD及其變種+動量、方向、Newton、BFGS、L-BFGS),可用包實現(xiàn),優(yōu)化成為瓶頸;
重點:給定數(shù)據(jù),求模型;
ResNet:殘差,梯度可以傳過去;優(yōu)化方法少,對模型進行優(yōu)化,適應(yīng)梯度下降的要求;
分類:logistic回歸、softmax回歸;
用線性回歸解決分類問題?
不建議用回歸解決分類;不建議混著用;
一個softmax三分類和3個logistic回歸;二分類是分類問題的基礎(chǔ);
閾值:0.5;
ML:選擇模型;選擇模型的損失函數(shù);
y服從(2點分布)m個樣本的二項分布,使用MLE(最大似然估計);
logistic得到的是概率值;
求對數(shù),求偏導(dǎo),得到梯度;(目標函數(shù)是似然函數(shù),梯度上升算法)
h^(thta)model不同,形式相同;二項分布和高斯分布都是指數(shù)分布;
logistic回歸:對數(shù)線性;
升維、
特征:關(guān)于x是非線性的,關(guān)于thta是線性的。模型使用線性回歸或者邏輯回歸;
NLL:負對數(shù)似然;
目標函數(shù):樣本關(guān)于thta的聯(lián)合概率;
對數(shù)似然更容易求導(dǎo)數(shù)。
特征學(xué)習(xí);
總結(jié)
以上是生活随笔為你收集整理的P2 邹博机器学习logistic回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【tensorflow】——创建tens
- 下一篇: 【TensorFlow】——不同shap