python 逻辑回归权重_Python 逻辑回归
參數(shù)含義:
1.penalty:字符串,指定了正則化策略。默認(rèn)為"l2"
(1)如果為"l2",則優(yōu)化的目標(biāo)函數(shù)為:0.5*||w||^2_2+C*L(w),C>0, L(w)為極大似然函數(shù)。
(2)如果為"l1",則優(yōu)化的目標(biāo)函數(shù)為||w||_1+C*L(w),C>0, L(w)為極大似然函數(shù)。
2.dual:布爾值。默認(rèn)為False。如果等于True,則求解其對偶形式。
只有在penalty="l2"并且solver="liblinear"時(shí)才有對偶形式。如果為False,則求解原始形式。
當(dāng)n_samples > n_features,偏向于dual=False。
3.tol:閾值。判斷迭代是否收斂或者是否滿足精度的要求。
4.C:float,默認(rèn)為1.0.指定了正則化項(xiàng)系數(shù)的倒數(shù)。必須是一個(gè)正的浮點(diǎn)數(shù)。C值越小,正則化項(xiàng)就越大。
5.fit_intercept:bool值。默認(rèn)為True。如果為False,就不會計(jì)算b值。
6.intercept_scaling:float, default 1。
只有當(dāng)solver="liblinear"并且 fit_intercept=True時(shí),才有意義。
在這種情況下,相當(dāng)于在訓(xùn)練數(shù)據(jù)最后一列增加一個(gè)特征,該特征恒為1。其對應(yīng)的權(quán)重為b。
7.class_weight:dict or 'balanced', default: None。
(1)如果是字典,則給出每個(gè)分類的權(quán)重。按照{(diào)class_label: weight}這種形式。
(2)如果是"balanced":則每個(gè)分類的權(quán)重與該分類在樣本集中出現(xiàn)的頻率成反比。
n_samples / (n_classes * np.bincount(y))
(3)如果未指定,則每個(gè)分類的權(quán)重都為1。
8.random_state: int, RandomState instance or None, default: None
(1):如果為整數(shù),則它指定了隨機(jī)數(shù)生成器的種子。
(2):如果為RandomState實(shí)例,則它指定了隨機(jī)數(shù)生成器。
(3):如果為None,則使用默認(rèn)的隨機(jī)數(shù)生成器。
9.solver: 字符串,指定求解最優(yōu)化問題的算法。
{'newton-cg', 'lbfgs', 'liblinear', 'sag', 'saga'},default: 'liblinear'
(1)solver='liblinear',對于小數(shù)據(jù)集,'liblinear'是很好的選擇。
對于大規(guī)模數(shù)據(jù)集,'sag'和'saga'處理起來速度更快。
(2)solver='newton-cg',采用牛頓法
(3)solver='lbfgs',采用L-BFGS擬牛頓法。
(4)solver='sag',采用Stochastic Average Gradient descent算法。
(5)對于多分類問題,只有'newton-cg','sag','saga'和'lbfgs'處理多項(xiàng)損失;
'liblinear'僅限于'ovr'方案。
(6)newton-cg', 'lbfgs' and 'sag' 只能處理 L2 penalty,
'liblinear' and 'saga' 能處理 L1 penalty。
10.max_iter: 指定最大迭代次數(shù)。default: 100。只對'newton-cg', 'sag' and 'lbfgs'適用。
11.multi_class:{'ovr', 'multinomial'}, default: 'ovr'。指定對分類問題的策略。
(1)multi_class='ovr',采用'one_vs_rest'策略。
(2)multi_class='multinomal',直接采用多分類邏輯回歸策略。
12.verbose: 用于開啟或者關(guān)閉迭代中間輸出日志功能。
13.warm_start: 布爾值。如果為True,那么使用前一次訓(xùn)練結(jié)果繼續(xù)訓(xùn)練。否則從頭開始訓(xùn)練。
14.n_jobs: int, default: 1。指定任務(wù)并行時(shí)的CPU數(shù)量。如果為-1,則使用所有可用的CPU。
屬性:
1.coef_:權(quán)重向量。
2.intercept_:截距b值。
3.n_iter_:實(shí)際迭代次數(shù)。
方法:
1.fit(X,y): 訓(xùn)練模型。
2.predict(X): 用訓(xùn)練好的模型進(jìn)行預(yù)測,并返回預(yù)測值。
3.predict_log_proba(X): 返回一個(gè)數(shù)組,數(shù)組元素依次是X預(yù)測為各個(gè)類別的概率的對數(shù)值。
4.predict_proba(X): 返回一個(gè)數(shù)組,數(shù)組元素依次是X預(yù)測為各個(gè)類別的概率值。
5.score(X,y): 返回預(yù)測的準(zhǔn)確率。
'''
菊
總結(jié)
以上是生活随笔為你收集整理的python 逻辑回归权重_Python 逻辑回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python 输入10个整数_2019-
- 下一篇: swiper高度自适应_小程序自定义导航