3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习

發(fā)布時間:2023/12/10 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

機器學(xué)習(xí)算法課程定位、目標(biāo)
定位
課程以算法、案例為驅(qū)動的學(xué)習(xí),伴隨淺顯易懂的數(shù)學(xué)知識
作為人工智能領(lǐng)域(數(shù)據(jù)挖掘/機器學(xué)習(xí)方向)的提升課程,掌握更深更有效的解決問題技能
目標(biāo)
應(yīng)用Scikit-learn實現(xiàn)數(shù)據(jù)集的特征工程
掌握機器學(xué)習(xí)常見算法原理
應(yīng)用Scikit-learn實現(xiàn)機器學(xué)習(xí)算法的應(yīng)用,結(jié)合場景解決實際問題
機器學(xué)習(xí)概述
了解機器學(xué)習(xí)定義以及應(yīng)用場景
什么是機器學(xué)習(xí)
1、 背景介紹
人工智能范圍

2、定義
機器學(xué)習(xí)是從數(shù)據(jù)中自動分析獲得規(guī)律(模型),并利用規(guī)律對未知數(shù)據(jù)進行預(yù)測

3、解釋
alphago

廣告推薦

機器學(xué)習(xí)定義
為什么需要機器學(xué)習(xí)
解放生產(chǎn)力:
智能客服:不知疲倦24小時小時作業(yè)
量化投資:避免更多的編寫策略、交易人員
醫(yī)療:幫助醫(yī)生輔助醫(yī)療
機器學(xué)習(xí)應(yīng)用場景
機器學(xué)習(xí)的應(yīng)用場景非常多,可以說滲透到了各個行業(yè)領(lǐng)域當(dāng)中。醫(yī)療、航空、教育、物流、電商等等領(lǐng)域的各種場景。

用在挖掘、預(yù)測領(lǐng)域:

應(yīng)用場景:店鋪銷量預(yù)測、量化投資、廣告推薦、企業(yè)客戶分類、SQL語句安全檢測分類…
傳統(tǒng)預(yù)測

量化投資

用在圖像領(lǐng)域:

應(yīng)用場景:街道交通標(biāo)志檢測、圖片商品識別檢測等等
用在自然語言處理領(lǐng)域:

應(yīng)用場景:文本分類、情感分析、自動聊天、文本檢測等等
當(dāng)前重要的是掌握一些機器學(xué)習(xí)算法等技巧,從某個業(yè)務(wù)領(lǐng)域切入解決問題。
學(xué)習(xí)框架和資料介紹
1、學(xué)習(xí)框架
框架

2、書籍資料
學(xué)習(xí)書籍

3、提深內(nèi)功(但不是必須)
深度學(xué)習(xí)
特征工程
了解特征工程在機器學(xué)習(xí)當(dāng)中的重要性
應(yīng)用sklearn實現(xiàn)特征預(yù)處理
應(yīng)用sklearn實現(xiàn)特征抽取
應(yīng)用sklearn實現(xiàn)特征選擇
應(yīng)用PCA實現(xiàn)特征的降維
說明機器學(xué)習(xí)算法監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的區(qū)別
說明監(jiān)督學(xué)習(xí)中的分類、回歸特點
說明機器學(xué)習(xí)算法目標(biāo)值的兩種數(shù)據(jù)類型
說明機器學(xué)習(xí)(數(shù)據(jù)挖掘)的開發(fā)流程
特征工程介紹
學(xué)習(xí)目標(biāo)
目標(biāo)
說出機器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)集結(jié)構(gòu)組成
了解特征工程在機器學(xué)習(xí)當(dāng)中的重要性
知道特征工程的分類
應(yīng)用

1、什么是特征工程
特征工程是使用專業(yè)背景知識和技巧處理數(shù)據(jù),使得特征能在機器學(xué)習(xí)算法上發(fā)揮更好的作用的過程。

意義:會直接影響機器學(xué)習(xí)的效果
2、為什么需要特征工程(Feature Engineering)
機器學(xué)習(xí)領(lǐng)域的大神Andrew Ng(吳恩達(dá))老師說“Coming up with features is difficult, time-consuming, requires expert knowledge. “Applied machine learning” is basically feature engineering. ”

注:業(yè)界廣泛流傳:數(shù)據(jù)和特征決定了機器學(xué)習(xí)的上限,而模型和算法只是逼近這個上限而已。

我們從一個簡單的例子理解一下:

貓2

問題:從歷史數(shù)據(jù)當(dāng)中獲得規(guī)律?這些歷史數(shù)據(jù)是怎么的格式?
3、數(shù)據(jù)集的構(gòu)成
3.1 可用數(shù)據(jù)集
可用數(shù)據(jù)集

Kaggle:https://www.kaggle.com/datasets

UCI:http://archive.ics.uci.edu/ml/index.php

3.2 數(shù)據(jù)集構(gòu)成
結(jié)構(gòu):特征值+目標(biāo)值
數(shù)據(jù)集結(jié)構(gòu)

注:有些數(shù)據(jù)集可以沒有目標(biāo)值,對于每一行數(shù)據(jù)我們可以稱之為樣本。

為什么需要這樣的結(jié)構(gòu)?后面結(jié)合機器學(xué)習(xí)算法去解釋

特征工程的位置與Pandas比較?
特征工程過程

pandas:一個數(shù)據(jù)讀取非常方便以及基本的處理格式的工具
sklearn:對于特征的處理提供了強大的接口
特征工程包含內(nèi)容
特征抽取
特征預(yù)處理
特征降維
4、特征工程所需工具
4.1Scikit-learn工具介紹
scikitlearn

Python語言的機器學(xué)習(xí)工具
Scikit-learn包括許多知名的機器學(xué)習(xí)算法的實現(xiàn)
Scikit-learn文檔完善,容易上手,豐富的API
目前穩(wěn)定版本0.18
4.2 安裝
pip3 install Scikit-learn==0.18
安裝好之后可以通過以下命令查看是否安裝成功

import sklearn
注:安裝scikit-learn需要Numpy,Pandas等庫

4.3 Scikit-learn包含的內(nèi)容
scikitlearn接口

分類、聚類、回歸
特征工程
模型選擇、調(diào)優(yōu)
特征提取
學(xué)習(xí)目標(biāo)
目標(biāo)
應(yīng)用DictVectorizer實現(xiàn)對類別特征進行數(shù)值化、離散化
應(yīng)用CountVectorizer實現(xiàn)對文本特征進行數(shù)值化
應(yīng)用TfidfVectorizer實現(xiàn)對文本特征進行數(shù)值化
說出兩種文本特征提取的方式區(qū)別
應(yīng)用

什么是特征提取呢?

文本特征提取圖

字典特征提取圖

演示案例:特征提取例子演示

1、特征提取
1.1包括將任意數(shù)據(jù)(如文本或圖像)轉(zhuǎn)換為可用于機器學(xué)習(xí)的數(shù)字特征
注:特征值化是為了計算機更好的去理解數(shù)據(jù)

字典特征提取(特征離散化)
文本特征提取
圖像特征提取(深度學(xué)習(xí)將介紹)
1.2 特征提取API
sklearn.feature_extraction
2、字典特征提取
作用:對字典數(shù)據(jù)進行特征值化

sklearn.feature_extraction.DictVectorizer(sparse=True,…)
DictVectorizer.fit_transform(X) X:字典或者包含字典的迭代器返回值:返回sparse矩陣
DictVectorizer.inverse_transform(X) X:array數(shù)組或者sparse矩陣 返回值:轉(zhuǎn)換之前數(shù)據(jù)格式
DictVectorizer.get_feature_names() 返回類別名稱
2.1應(yīng)用
我們對以下數(shù)據(jù)進行特征提取

[{‘city’: ‘北京’,‘temperature’:100}
{‘city’: ‘上海’,‘temperature’:60}
{‘city’: ‘深圳’,‘temperature’:30}]
dictvec結(jié)果

2.2流程分析
實例化類DictVectorizer
調(diào)用fit_transform方法輸入數(shù)據(jù)并轉(zhuǎn)換(注意返回格式)
def dict_vec():

# 實例化dict dict = DictVectorizer(sparse=False) # diaoyong fit_transformdata = dict.fit_transform([{'city': '北京','temperature':100},{'city': '上海','temperature':60},{'city': '深圳','temperature':30}])# 打印每一個列的名稱 print(dict.get_feature_names()) print(data)return None

注意觀察沒有加上sparse=False參數(shù)的結(jié)果

sparse矩陣

這個結(jié)果并不是我們想要看到的,所以加上參數(shù),得到想要的結(jié)果

我們會議之前在做pandas的離散化時候,也實現(xiàn)了類似的效果,那在這里我們把這個處理數(shù)據(jù)的技巧用專業(yè)的稱呼"one-hot"編碼,之前我們也解釋過為什么需要這種離散化的了,是分析數(shù)據(jù)的一種手段。比如下面例子:

onehot

onehot1

2.3 總結(jié)
對于特征當(dāng)中存在類別信息的我們都會做one-hot編碼處理

3、文本特征提取
作用:對文本數(shù)據(jù)進行特征值化

sklearn.feature_extraction.text.CountVectorizer(stop_words=[])

返回詞頻矩陣
CountVectorizer.fit_transform(X) X:文本或者包含文本字符串的可迭代對象 返回值:返回sparse矩陣
CountVectorizer.inverse_transform(X) X:array數(shù)組或者sparse矩陣 返回值:轉(zhuǎn)換之前數(shù)據(jù)格
CountVectorizer.get_feature_names() 返回值:單詞列表
sklearn.feature_extraction.text.TfidfVectorizer
3.1應(yīng)用
我們對以下數(shù)據(jù)進行特征提取

[“l(fā)ife is short,i like python”,
“l(fā)ife is too long,i dislike python”]
countvec結(jié)果

3.2 流程分析
實例化類CountVectorizer
調(diào)用fit_transform方法輸入數(shù)據(jù)并轉(zhuǎn)換 (注意返回格式,利用toarray()進行sparse矩陣轉(zhuǎn)換array數(shù)組)
def countvec():

# 實例化conunt count = CountVectorizer()data = count.fit_transform(["life is is short,i like python", "life is too long,i dislike python"])# 內(nèi)容 print(count.get_feature_names()) print(data.toarray())return None

問題:如果我們將數(shù)據(jù)替換成中文?
“人生苦短,我喜歡Python” “生活太長久,我不喜歡Python”
那么最終得到的結(jié)果是

不支持單個中文字

為什么會得到這樣的結(jié)果呢,仔細(xì)分析之后會發(fā)現(xiàn)英文默認(rèn)是以空格分開的。其實就達(dá)到了一個分詞的效果,所以我們要對中文進行分詞處理

3.3jieba分詞處理
jieba.cut()
返回詞語組成的生成器
需要安裝下jieba庫

pip3 install jieba
3.4 案例分析
對以下三句話進行特征值化

今天很殘酷,明天更殘酷,后天很美好,
但絕對大部分是死在明天晚上,所以每個人不要放棄今天。

我們看到的從很遠(yuǎn)星系來的光是在幾百萬年之前發(fā)出的,
這樣當(dāng)我們看到宇宙時,我們是在看它的過去。

如果只用一種方式了解某樣事物,你就不會真正了解它。
了解事物真正含義的秘密取決于如何將其與我們所了解的事物相聯(lián)系。
分析
準(zhǔn)備句子,利用jieba.cut進行分詞
實例化CountVectorizer
將分詞結(jié)果變成字符串當(dāng)作fit_transform的輸入值
三段中文結(jié)果

def cutword():

# 將三個句子用jieba.cut處理 contetn1 = jieba.cut("今天很殘酷,明天更殘酷,后天很美好,但絕對大部分是死在明天晚上,所以每個人不要放棄今天。") contetn2 = jieba.cut("我們看到的從很遠(yuǎn)星系來的光是在幾百萬年之前發(fā)出的,這樣當(dāng)我們看到宇宙時,我們是在看它的過去。") contetn3 = jieba.cut("如果只用一種方式了解某樣事物,你就不會真正了解它。了解事物真正含義的秘密取決于如何將其與我們所了解的事物相聯(lián)系。")# 先將著三個轉(zhuǎn)換成列表 c1 = ' '.join(list(contetn1)) c2 = ' '.join(list(contetn2)) c3 = ' '.join(list(contetn3))return c1, c2, c3

def chvec():

# 實例化conunt count = CountVectorizer(stop_words=['不要', '我們', '所以'])# 定義一個分詞的函數(shù) c1, c2, c3 = cutword()data = count.fit_transform([c1, c2, c3])# 內(nèi)容 print(count.get_feature_names()) print(data.toarray())return None

請看問題:

詞語占比

該如何處理某個詞或短語在多篇文章中出現(xiàn)的次數(shù)高這種情況

3.5 Tf-idf文本特征提取
TF-IDF的主要思想是:如果某個詞或短語在一篇文章中出現(xiàn)的概率高,并且在其他文章中很少出現(xiàn),則認(rèn)為此詞或者短語具有很好的類別區(qū)分能力,適合用來分類。
TF-IDF作用:用以評估一字詞對于一個文件集或一個語料庫中的其中一份文件的重要程度。
3.5.1 公式
詞頻(term frequency,tf)指的是某一個給定的詞語在該文件中出現(xiàn)的頻率
逆向文檔頻率(inverse document frequency,idf)是一個詞語普遍重要性的度量。某一特定詞語的idf,可以由總文件數(shù)目除以包含該詞語之文件的數(shù)目,再將得到的商取以10為底的對數(shù)得到
tfidf公式

最終得出結(jié)果可以理解為重要程度。

注:假如一篇文件的總詞語數(shù)是100個,而詞語"非常"出現(xiàn)了5次,那么"非常"一詞在該文件中的詞頻就是5/100=0.05。而計算文件頻率(IDF)的方法是以文件集的文件總數(shù),除以出現(xiàn)"非常"一詞的文件數(shù)。所以,如果"非常"一詞在1,000份文件出現(xiàn)過,而文件總數(shù)是10,000,000份的話,其逆向文件頻率就是lg(10,000,000 / 1,0000)=3。最后"非常"對于這篇文檔的tf-idf的分?jǐn)?shù)為0.05 * 3=0.15
3.5.2 案例
def tfidfvec():

# 實例化conunt tfidf = TfidfVectorizer()# 定義一個分詞的函數(shù) c1, c2, c3 = cutword()data = tfidf.fit_transform([c1, c2, c3])# 內(nèi)容 print(tfidf.get_feature_names()) print(data.toarray())return None

3.6 Tf-idf的重要性
分類機器學(xué)習(xí)算法進行文章分類中前期數(shù)據(jù)處理方式
特征預(yù)處理
學(xué)習(xí)目標(biāo)
目標(biāo)
了解數(shù)值型數(shù)據(jù)、類別型數(shù)據(jù)特點
應(yīng)用MinMaxScaler實現(xiàn)對特征數(shù)據(jù)進行歸一化
應(yīng)用StandardScaler實現(xiàn)對特征數(shù)據(jù)進行標(biāo)準(zhǔn)化
應(yīng)用

什么是特征預(yù)處理?

特征預(yù)處理圖

1、什么是特征預(yù)處理

scikit-learn的解釋

provides several common utility functions and transformer classes to change raw feature vectors into a representation that is more suitable for the downstream estimators.
翻譯過來:通過一些轉(zhuǎn)換函數(shù)將特征數(shù)據(jù)轉(zhuǎn)換成更加適合算法模型的特征數(shù)據(jù)過程

可以通過上面那張圖來理解

1.1 包含內(nèi)容
數(shù)值型數(shù)據(jù)的無量綱化:
歸一化
標(biāo)準(zhǔn)化
1.2 特征預(yù)處理API
sklearn.preprocessing
為什么我們要進行歸一化/標(biāo)準(zhǔn)化?
特征的單位或者大小相差較大,或者某特征的方差相比其他的特征要大出幾個數(shù)量級,容易影響(支配)目標(biāo)結(jié)果,使得一些算法無法學(xué)習(xí)到其它的特征
約會對象數(shù)據(jù)
約會對象數(shù)據(jù)

我們需要用到一些方法進行無量綱化,使不同規(guī)格的數(shù)據(jù)轉(zhuǎn)換到同一規(guī)格

2、歸一化
2.1定義
通過對原始數(shù)據(jù)進行變換把數(shù)據(jù)映射到(默認(rèn)為[0,1])之間

2.2公式
歸一化公式

作用于每一列,max為一列的最大值,min為一列的最小值,那么X’’為最終結(jié)果,mx,mi分別為指定區(qū)間值默認(rèn)mx為1,mi為0

那么怎么理解這個過程呢?我們通過一個例子

歸一化計算過程

2.3 API
sklearn.preprocessing.MinMaxScaler (feature_range=(0,1)… )
MinMaxScalar.fit_transform(X)
X:numpy array格式的數(shù)據(jù)[n_samples,n_features]
返回值:轉(zhuǎn)換后的形狀相同的array
2.4 數(shù)據(jù)計算
我們對以下數(shù)據(jù)進行運算,在dating.txt中。保存的就是之前的約會對象數(shù)據(jù)

milage,Liters,Consumtime,target
40920,8.326976,0.953952,3
14488,7.153469,1.673904,2
26052,1.441871,0.805124,1
75136,13.147394,0.428964,1
38344,1.669788,0.134296,1
分析
1、實例化MinMaxScalar

2、通過fit_transform轉(zhuǎn)換

def mm():
“”"
對二維數(shù)組進行歸一化處理
:return:
“”"
data = pd.read_csv("./data/datingtest/dating.txt")

mm = MinMaxScaler(feature_range=(2, 3))data = mm.fit_transform(data[['milage','Liters','Consumtime']])print(data)return None

問題:如果數(shù)據(jù)中異常點較多,會有什么影響?
異常點對歸一化影響

2.5 歸一化總結(jié)
注意最大值最小值是變化的,另外,最大值與最小值非常容易受異常點影響,所以這種方法魯棒性較差,只適合傳統(tǒng)精確小數(shù)據(jù)場景。

怎么辦?

3、標(biāo)準(zhǔn)化
3.1定義
通過對原始數(shù)據(jù)進行變換把數(shù)據(jù)變換到均值為0,標(biāo)準(zhǔn)差為1范圍內(nèi)

3.2 公式
標(biāo)準(zhǔn)化公式

作用于每一列,mean為平均值,σ為標(biāo)準(zhǔn)差

所以回到剛才異常點的地方,我們再來看看標(biāo)準(zhǔn)化

標(biāo)準(zhǔn)化異常點影響

對于歸一化來說:如果出現(xiàn)異常點,影響了最大值和最小值,那么結(jié)果顯然會發(fā)生改變
對于標(biāo)準(zhǔn)化來說:如果出現(xiàn)異常點,由于具有一定數(shù)據(jù)量,少量的異常點對于平均值的影響并不大,從而方差改變較小。
3.3 API
sklearn.preprocessing.StandardScaler( )
處理之后每列來說所有數(shù)據(jù)都聚集在均值0附近標(biāo)準(zhǔn)差差為1
StandardScaler.fit_transform(X)
X:numpy array格式的數(shù)據(jù)[n_samples,n_features]
返回值:轉(zhuǎn)換后的形狀相同的array
3.4 數(shù)據(jù)計算
同樣對上面的數(shù)據(jù)進行處理

[[90,2,10,40],
[60,4,15,45],
[75,3,13,46]]
分析
1、實例化StandardScaler

2、通過fit_transform轉(zhuǎn)換

def std():
“”"
標(biāo)準(zhǔn)化處理
“”"
data = pd.read_csv("./data/datingtest/dating.txt")

std = StandardScaler()data = std.fit_transform(data[['milage','Liters','Consumtime']])print(data) return None

3.5 標(biāo)準(zhǔn)化總結(jié)
在已有樣本足夠多的情況下比較穩(wěn)定,適合現(xiàn)代嘈雜大數(shù)據(jù)場景。
特征選擇
學(xué)習(xí)目標(biāo)
目標(biāo)
知道特征選擇的嵌入式、過濾式以及包裹氏三種方式
應(yīng)用VarianceThreshold實現(xiàn)刪除低方差特征
了解相關(guān)系數(shù)的特點和計算
應(yīng)用相關(guān)性系數(shù)實現(xiàn)特征選擇
應(yīng)用

在講什么是特征選擇之前,我們得先介紹一個降維的概念
1、降維
降維是指在某些限定條件下,降低隨機變量(特征)個數(shù),得到一組“不相關(guān)”主變量的過程

降低隨機變量的個數(shù)
降維

相關(guān)特征(correlated feature)
的相對濕度與降雨量之間的相關(guān)
等等
正是因為在進行訓(xùn)練的時候,我們都是使用特征進行學(xué)習(xí)。如果特征本身存在問題或者特征之間相關(guān)性較強,對于算法學(xué)習(xí)預(yù)測會影響較大

2、降維的兩種方式
特征選擇
主成分分析(可以理解一種特征提取的方式)
3、什么是特征選擇
3.1 定義
數(shù)據(jù)中包含冗余或無關(guān)變量(或稱特征、屬性、指標(biāo)等),旨在從原有特征中找出主要特征。

鳥類特征選擇

3.2 方法
Filter(過濾式):主要探究特征本身特點、特征與特征和目標(biāo)值之間關(guān)聯(lián)
方差選擇法:低方差特征過濾
相關(guān)系數(shù)
Embedded (嵌入式):算法自動選擇特征(特征與目標(biāo)值之間的關(guān)聯(lián))
決策樹:信息熵、信息增益
正則化:L1、L2
深度學(xué)習(xí):卷積等
Wrapper (包裹式)
對于Embedded方式,只能在講解算法的時候在進行介紹,更好的去理解

3.3 模塊
sklearn.feature_selection
4、過濾式
4.1低方差特征過濾
刪除低方差的一些特征,前面講過方差的意義。再結(jié)合方差的大小來考慮這個方式的角度。

特征方差小:某個特征大多樣本的值比較相近
特征方差大:某個特征很多樣本的值都有差別
4.1.1 API
sklearn.feature_selection.VarianceThreshold(threshold = 0.0)
刪除所有低方差特征
Variance.fit_transform(X)
X:numpy array格式的數(shù)據(jù)[n_samples,n_features]
返回值:訓(xùn)練集差異低于threshold的特征將被刪除。默認(rèn)值是保留所有非零方差特征,即刪除所有樣本中具有相同值的特征。
4.1.2 數(shù)據(jù)計算
我們對某些股票的指標(biāo)特征之間進行一個篩選,數(shù)據(jù)在"factor_regression_data/factor_returns.csv"文件當(dāng)中,除去’index,‘date’,'return’列不考慮(這些類型不匹配,也不是所需要指標(biāo))

一共這些特征

pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense
index,pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense,date,return
0,000001.XSHE,5.9572,1.1818,85252550922.0,0.8008,14.9403,1211444855670.0,2.01,20701401000.0,10882540000.0,2012-01-31,0.027657228229937388
1,000002.XSHE,7.0289,1.588,84113358168.0,1.6463,7.8656,300252061695.0,0.326,29308369223.2,23783476901.2,2012-01-31,0.08235182370820669
2,000008.XSHE,-262.7461,7.0003,517045520.0,-0.5678,-0.5943,770517752.56,-0.006,11679829.03,12030080.04,2012-01-31,0.09978900335112327
3,000060.XSHE,16.476,3.7146,19680455995.0,5.6036,14.617,28009159184.6,0.35,9189386877.65,7935542726.05,2012-01-31,0.12159482758620697
4,000069.XSHE,12.5878,2.5616,41727214853.0,2.8729,10.9097,81247380359.0,0.271,8951453490.28,7091397989.13,2012-01-31,-0.0026808154146886697
分析
1、初始化VarianceThreshold,指定閥值方差

2、調(diào)用fit_transform

def var():
“”"
刪除所有低方差特征
:return:
“”"
data = pd.read_csv("./data/factor_regression_data/factor_returns.csv")

var = VarianceThreshold(threshold=1.0)data = var.fit_transform(data.iloc[:, 1:10]) return None

4.2 相關(guān)系數(shù)
皮爾遜相關(guān)系數(shù)(Pearson Correlation Coefficient)
反映變量之間相關(guān)關(guān)系密切程度的統(tǒng)計指標(biāo)
4.2.2 公式計算案例(了解,不用記憶)
公式
相關(guān)系數(shù)公式

比如說我們計算年廣告費投入與月均銷售額
廣告費表

那么之間的相關(guān)系數(shù)怎么計算

廣告費統(tǒng)計系數(shù)結(jié)果

最終計算:

相關(guān)系數(shù)計算數(shù)字結(jié)果

= 0.9942

所以我們最終得出結(jié)論是廣告投入費與月平均銷售額之間有高度的正相關(guān)關(guān)系。

4.2.2 特點
相關(guān)系數(shù)的值介于–1與+1之間,即–1≤ r ≤+1。其性質(zhì)如下:

當(dāng)r>0時,表示兩變量正相關(guān),r<0時,兩變量為負(fù)相關(guān)
當(dāng)|r|=1時,表示兩變量為完全相關(guān),當(dāng)r=0時,表示兩變量間無相關(guān)關(guān)系
當(dāng)0<|r|<1時,表示兩變量存在一定程度的相關(guān)。且|r|越接近1,兩變量間線性關(guān)系越密切;|r|越接近于0,表示兩變量的線性相關(guān)越弱
一般可按三級劃分:|r|<0.4為低度相關(guān);0.4≤|r|<0.7為顯著性相關(guān);0.7≤|r|<1為高度線性相關(guān)
這個符號:|r|為r的絕對值, |-5| = 5

4.2.2 API
from scipy.stats import pearsonr
x : (N,) array_like
y : (N,) array_like Returns: (Pearson’s correlation coefficient, p-value)
4.3、 案例:股票的財務(wù)指標(biāo)相關(guān)性計算
我們剛才的股票的這些指標(biāo)進行相關(guān)性計算, 假設(shè)我們以

factor = [‘pe_ratio’,‘pb_ratio’,‘market_cap’,‘return_on_asset_net_profit’,‘du_return_on_equity’,‘ev’,‘earnings_per_share’,‘revenue’,‘total_expense’]
這些特征當(dāng)中的兩兩進行計算,得出相關(guān)性高的一些特征

指標(biāo)相關(guān)性結(jié)果

分析
兩兩特征之間進行相關(guān)性計算
data = pd.read_csv("./data/factor_regression_data/factor_returns.csv")

for i in range(len(factor)):
for j in range(i, len(factor)-1):
print(“指標(biāo)%s與指標(biāo)%s之間的相關(guān)性大小為%f” % (factor[i], factor[j+1], pearsonr(data[factor[i]], data[factor[j+1]])[0]))
從中我們得出

指標(biāo)revenue與指標(biāo)total_expense之間的相關(guān)性大小為0.995845
指標(biāo)return_on_asset_net_profit與指標(biāo)du_return_on_equity之間的相關(guān)性大小為0.818697
我們也可以通過畫圖來觀察結(jié)果

import matplotlib.pyplot as plt
plt.scatter(data[‘revenue’], data[‘total_expense’])
plt.show()
這兩對指標(biāo)之間的相關(guān)性較大,可以做之后的處理,比如合成這兩個指標(biāo)。
主成分分析
學(xué)習(xí)目標(biāo)
目標(biāo)
應(yīng)用PCA實現(xiàn)特征的降維
應(yīng)用
用戶與物品類別之間主成分分析
1、什么是主成分分析(PCA)
定義:高維數(shù)據(jù)轉(zhuǎn)化為低維數(shù)據(jù)的過程,在此過程中可能會舍棄原有數(shù)據(jù)、創(chuàng)造新的變量

作用:是數(shù)據(jù)維數(shù)壓縮,盡可能降低原數(shù)據(jù)的維數(shù)(復(fù)雜度),損失少量信息。

應(yīng)用:回歸分析或者聚類分析當(dāng)中
對于信息一詞,在決策樹中會進行介紹

那么更好的理解這個過程呢?我們來看一張圖

PCA解釋圖

1.1 計算案例理解(了解,無需記憶)
假設(shè)對于給定5個點,數(shù)據(jù)如下

(-1,-2)
(-1, 0)
( 0, 0)
( 2, 1)
( 0, 1)
PCA計算圖

要求:將這個二維的數(shù)據(jù)簡化成一維? 并且損失少量的信息

PCA坐標(biāo)軸結(jié)果

這個過程如何計算的呢?找到一個合適的直線,通過一個矩陣運算得出主成分分析的結(jié)果(不需要理解)

PCA運算過程

1.2 API
sklearn.decomposition.PCA(n_components=None)
將數(shù)據(jù)分解為較低維數(shù)空間
n_components:
小數(shù):表示保留百分之多少的信息
整數(shù):減少到多少特征
PCA.fit_transform(X) X:numpy array格式的數(shù)據(jù)[n_samples,n_features]
返回值:轉(zhuǎn)換后指定維度的array
1.3 數(shù)據(jù)計算
先拿個簡單的數(shù)據(jù)計算一下

[[2,8,4,5],
[6,3,0,8],
[5,4,9,1]]
def pca():
“”"
主成分分析進行降維
:return:
“”"
pca = PCA(n_components=0.7)

data = pca.fit_transform([[2,8,4,5],[6,3,0,8],[5,4,9,1]])print(data)return None

2、案例:探究用戶對物品類別的喜好細(xì)分降維
instacart

數(shù)據(jù)如下:

order_products__prior.csv:訂單與商品信息

字段:order_id, product_id, add_to_cart_order, reordered
products.csv:商品信息

字段:product_id, product_name, aisle_id, department_id
orders.csv:用戶的訂單信息
字段:order_id,user_id,eval_set,order_number,….
aisles.csv:商品所屬具體物品類別
字段: aisle_id, aisle
2.1 需求
instacart效果

instacartPCA結(jié)果

2.2 分析
合并表,使得user_id與aisle在一張表當(dāng)中
進行交叉表變換
進行降維
2.3 完整代碼

去讀四張表的數(shù)據(jù)

prior = pd.read_csv("./data/instacart/order_products__prior.csv")
products = pd.read_csv("./data/instacart/products.csv")
orders = pd.read_csv("./data/instacart/orders.csv")
aisles = pd.read_csv("./data/instacart/aisles.csv")

合并四張表

mt = pd.merge(prior, products, on=[‘product_id’, ‘product_id’])
mt1 = pd.merge(mt, orders, on=[‘order_id’, ‘order_id’])
mt2 = pd.merge(mt1, aisles, on=[‘a(chǎn)isle_id’, ‘a(chǎn)isle_id’])

pd.crosstab 統(tǒng)計用戶與物品之間的次數(shù)關(guān)系(統(tǒng)計次數(shù))

cross = pd.crosstab(mt2[‘user_id’], mt2[‘a(chǎn)isle’])

PCA進行主成分分析

pc = PCA(n_components=0.95)
data = pc.fit_transform(cross)
機器學(xué)習(xí)算法簡介
學(xué)習(xí)目標(biāo)
目標(biāo)
說明機器學(xué)習(xí)算法監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的區(qū)別
說明機器學(xué)習(xí)算法目標(biāo)值的兩種數(shù)據(jù)類型
說明監(jiān)督學(xué)習(xí)中的分類、回歸特點
說明機器學(xué)習(xí)(數(shù)據(jù)挖掘)的開發(fā)流程
應(yīng)用

1、機器學(xué)習(xí)算法類別
1.1 按照學(xué)習(xí)方式分類
監(jiān)督學(xué)習(xí)(supervised learning)(預(yù)測)
定義:輸入數(shù)據(jù)是由輸入特征值和目標(biāo)值所組成。函數(shù)的輸出可以是一個連續(xù)的值(稱為回歸),或是輸出是有限個離散值(稱作分類)。
分類 k-近鄰算法、貝葉斯分類、決策樹與隨機森林、邏輯回歸、神經(jīng)網(wǎng)絡(luò)
回歸 線性回歸、嶺回歸
標(biāo)注 隱馬爾可夫模型 (不做要求)
無監(jiān)督學(xué)習(xí)(unsupervised learning)
定義:輸入數(shù)據(jù)是由輸入特征值所組成。
聚類 k-means
半監(jiān)督和強化學(xué)習(xí)
1.2 區(qū)別
監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)區(qū)別

1.3 理解監(jiān)督無監(jiān)督
1.4 關(guān)于監(jiān)督學(xué)習(xí)中的分類與回歸區(qū)別
要理解這兩個概念,我們從兩個數(shù)據(jù)類別來看。

數(shù)據(jù)類別圖

1.4.1 兩種數(shù)據(jù)類型
離散型數(shù)據(jù):由記錄不同類別個體的數(shù)目所得到的數(shù)據(jù),又稱計數(shù)數(shù)據(jù),所有這些數(shù)據(jù)全部都是整數(shù),而且不能再細(xì)分,也不能進一步提高他們的精確度。
連續(xù)型數(shù)據(jù):變量可以在某個范圍內(nèi)取任一數(shù),即變量的取值可以是連續(xù)的,如,長度、時間、質(zhì)量值等,這類整數(shù)通常是非整數(shù),含有小數(shù)部分。
注:只要記住一點,離散型是區(qū)間內(nèi)不可分,連續(xù)型是區(qū)間內(nèi)可分

數(shù)據(jù)的類型將是機器學(xué)習(xí)中監(jiān)督學(xué)習(xí)不同問題不同處理的依據(jù)?

貓狗

票房預(yù)測

結(jié)合剛才講過的數(shù)據(jù)類型,針對這兩個例子的輸出結(jié)果,得出結(jié)論

分類:目標(biāo)值數(shù)據(jù)類型為離散型
分類是監(jiān)督學(xué)習(xí)的一個核心問題,在監(jiān)督學(xué)習(xí)中,當(dāng)輸出變量取有限個離散值時,預(yù)測問題變成為分類問題,最基礎(chǔ)的便是二分類問題,即判斷是非,從兩個類別中選擇一個作為預(yù)測結(jié)果;
回歸:目標(biāo)值數(shù)據(jù)類型為連續(xù)型
回歸是監(jiān)督學(xué)習(xí)的另一個重要問題?;貧w用于預(yù)測輸入變量和輸出變量之間的關(guān)系,輸出是連續(xù)型的值。
2、機器學(xué)習(xí)開發(fā)流程
開發(fā)流程

2.1 理解模型這個概念
指對于某個實際問題或客觀事物,應(yīng)用合適的算法得到的結(jié)果,稱之為模型。

相當(dāng)于對問題,抽象成數(shù)學(xué)問題。模型 = 算法 + 數(shù)據(jù)
分類算法
知道數(shù)據(jù)集的分為訓(xùn)練集和測試集
知道sklearn的轉(zhuǎn)換器和估計器流程
了解sklearn的分類、回歸數(shù)據(jù)集
說明K-近鄰算法的距離公式
說明K-近鄰算法的超參數(shù)K值以及取值問題
說明K-近鄰算法的優(yōu)缺點
應(yīng)用KNeighborsClassifier實現(xiàn)分類
了解分類算法的評估標(biāo)準(zhǔn)準(zhǔn)確率
說明樸素貝葉斯算法的原理
說明樸素貝葉斯算法的優(yōu)缺點
應(yīng)用MultinomialNB實現(xiàn)文本分類
應(yīng)用模型選擇與調(diào)優(yōu)
說明決策樹算法的原理
說明決策樹算法的優(yōu)缺點
應(yīng)用DecisionTreeClassifier實現(xiàn)分類
說明隨機森林算法的原理
說明隨機森林算法的優(yōu)缺點
應(yīng)用RandomForestClassifier實現(xiàn)分類
數(shù)據(jù)集介紹與劃分
學(xué)習(xí)目標(biāo)
目標(biāo)
知道數(shù)據(jù)集的分為訓(xùn)練集和測試集
知道sklearn的分類、回歸數(shù)據(jù)集
應(yīng)用

拿到的數(shù)據(jù)是否全部都用來訓(xùn)練一個模型?

1、 數(shù)據(jù)集的劃分
機器學(xué)習(xí)一般的數(shù)據(jù)集會劃分為兩個部分:

訓(xùn)練數(shù)據(jù):用于訓(xùn)練,構(gòu)建模型
測試數(shù)據(jù):在模型檢驗時使用,用于評估模型是否有效
劃分比例:

訓(xùn)練集:70% 80% 75%
測試集:30% 20% 30%
API
sklearn.model_selection.train_test_split(arrays, *options)
x 數(shù)據(jù)集的特征值
y 數(shù)據(jù)集的標(biāo)簽值
test_size 測試集的大小,一般為float
random_state 隨機數(shù)種子,不同的種子會造成不同的隨機采樣結(jié)果。相同的種子采樣結(jié)果相同。
return ,測試集特征訓(xùn)練集特征值值,訓(xùn)練標(biāo)簽,測試標(biāo)簽(默認(rèn)隨機取)
結(jié)合后面的數(shù)據(jù)集作介紹

2、sklearn數(shù)據(jù)集介紹
2.1分類和回歸數(shù)據(jù)集
分類數(shù)據(jù)集
分類數(shù)據(jù)集

sklearn.datasets.fetch_20newsgroups(data_home=None,subset=‘train’)
subset: ‘train’或者’test’,‘a(chǎn)ll’,可選,選擇要加載的數(shù)據(jù)集.訓(xùn)練集的“訓(xùn)練”,測試集的“測試”,兩者的“全部”
回歸數(shù)據(jù)集
回歸數(shù)據(jù)集

2.2 API
sklearn.datasets
加載獲取流行數(shù)據(jù)集
datasets.load_()
獲取小規(guī)模數(shù)據(jù)集,數(shù)據(jù)包含在datasets里
datasets.fetch_(data_home=None)
獲取大規(guī)模數(shù)據(jù)集,需要從網(wǎng)絡(luò)上下載,函數(shù)的第一個參數(shù)是data_home,表示數(shù)據(jù)集下載的目錄,默認(rèn)是 ~/scikit_learn_data/
2.3 返回類型
load和fetch返回的數(shù)據(jù)類型datasets.base.Bunch(字典格式)
data:特征數(shù)據(jù)數(shù)組,是 [n_samples * n_features] 的二維 numpy.ndarray 數(shù)組
target:標(biāo)簽數(shù)組,是 n_samples 的一維 numpy.ndarray 數(shù)組
DESCR:數(shù)據(jù)描述
feature_names:特征名,新聞數(shù)據(jù),手寫數(shù)字、回歸數(shù)據(jù)集沒有
target_names:標(biāo)簽名
sklearn轉(zhuǎn)換器和估計器
學(xué)習(xí)目標(biāo)
目標(biāo)
知道sklearn的轉(zhuǎn)換器和估計器流程
應(yīng)用

1、轉(zhuǎn)換器和估計器
1.1 轉(zhuǎn)換器
想一下之前做的特征工程的步驟?

1、實例化 (實例化的是一個轉(zhuǎn)換器類(Transformer))
2、調(diào)用fit_transform(對于文檔建立分類詞頻矩陣,不能同時調(diào)用)
我們把特征工程的接口稱之為轉(zhuǎn)換器,其中轉(zhuǎn)換器調(diào)用有這么幾種形式

fit_transform
fit
transform
這幾個方法之間的區(qū)別是什么呢?我們看以下代碼就清楚了

In [1]: from sklearn.preprocessing import StandardScaler

In [2]: std1 = StandardScaler()

In [3]: a = [[1,2,3], [4,5,6]]

In [4]: std1.fit_transform(a)
Out[4]:
array([[-1., -1., -1.],
[ 1., 1., 1.]])

In [5]: std2 = StandardScaler()

In [6]: std2.fit(a)
Out[6]: StandardScaler(copy=True, with_mean=True, with_std=True)

In [7]: std2.transform(a)
Out[7]:
array([[-1., -1., -1.],
[ 1., 1., 1.]])
從中可以看出,fit_transform的作用相當(dāng)于transform加上fit。但是為什么還要提供單獨的fit呢, 我們還是使用原來的std2來進行標(biāo)準(zhǔn)化看看

In [8]: b = [[7,8,9], [10, 11, 12]]

In [9]: std2.transform(b)
Out[9]:
array([[3., 3., 3.],
[5., 5., 5.]])

In [10]: std2.fit_transform(b)
Out[10]:
array([[-1., -1., -1.],
[ 1., 1., 1.]])
1.2 估計器(sklearn機器學(xué)習(xí)算法的實現(xiàn))
在sklearn中,估計器(estimator)是一個重要的角色,是一類實現(xiàn)了算法的API

1、用于分類的估計器:
sklearn.neighbors k-近鄰算法
sklearn.naive_bayes 貝葉斯
sklearn.linear_model.LogisticRegression 邏輯回歸
sklearn.tree 決策樹與隨機森林
2、用于回歸的估計器:
sklearn.linear_model.LinearRegression 線性回歸
sklearn.linear_model.Ridge 嶺回歸
3、用于無監(jiān)督學(xué)習(xí)的估計器
sklearn.cluster.KMeans 聚類
1.3 估計器工作流程
估計器工作流程
K-近鄰算法
學(xué)習(xí)目標(biāo)
目標(biāo)
說明K-近鄰算法的距離公式
說明K-近鄰算法的超參數(shù)K值以及取值問題
說明K-近鄰算法的優(yōu)缺點
應(yīng)用KNeighborsClassifier實現(xiàn)分類
了解分類算法的評估標(biāo)準(zhǔn)準(zhǔn)確率
應(yīng)用
Facebook簽到位置預(yù)測
問題:回憶分類問題的判定方法
什么是K-近鄰算法
地圖K緊鄰算法

你的“鄰居”來推斷出你的類別
1、K-近鄰算法(KNN)
1.1 定義
如果一個樣本在特征空間中的k個最相似(即特征空間中最鄰近)的樣本中的大多數(shù)屬于某一個類別,則該樣本也屬于這個類別。

來源:KNN算法最早是由Cover和Hart提出的一種分類算法

1.2 距離公式
兩個樣本的距離可以通過如下公式計算,又叫歐式距離

距離公式

2、電影類型分析
假設(shè)我們有現(xiàn)在幾部電影

電影類型分析

其中? 號電影不知道類別,如何去預(yù)測?我們可以利用K近鄰算法的思想

電影距離計算

2.1 問題
如果去的最近的電影數(shù)量不一致?
2.2 K-近鄰算法數(shù)據(jù)的特征工程處理
結(jié)合前面的約會對象數(shù)據(jù),分析K-近鄰算法需要做什么樣的處理
3、K-近鄰算法API
sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm=‘a(chǎn)uto’)
n_neighbors:int,可選(默認(rèn)= 5),k_neighbors查詢默認(rèn)使用的鄰居數(shù)
algorithm:{‘a(chǎn)uto’,‘ball_tree’,‘kd_tree’,‘brute’},可選用于計算最近鄰居的算法:‘ball_tree’將會使用 BallTree,‘kd_tree’將使用 KDTree。‘a(chǎn)uto’將嘗試根據(jù)傳遞給fit方法的值來決定最合適的算法。 (不同實現(xiàn)方式影響效率)
4、案例:預(yù)測簽到位置
FBlocation介紹

數(shù)據(jù)介紹:

train.csv,test.csv
row_id:登記事件的ID
xy:坐標(biāo)
準(zhǔn)確性:定位準(zhǔn)確性
時間:時間戳
place_id:業(yè)務(wù)的ID,這是您預(yù)測的目標(biāo)
4.1 分析
對于數(shù)據(jù)做一些基本處理(這里所做的一些處理不一定達(dá)到很好的效果,我們只是簡單嘗試,有些特征我們可以根據(jù)一些特征選擇的方式去做處理)

1、縮小數(shù)據(jù)集范圍 DataFrame.query()

2、處理日期數(shù)據(jù) pd.to_datetime pd.DatetimeIndex

3、增加分割的日期數(shù)據(jù)

4、刪除沒用的日期數(shù)據(jù) DataFrame.drop

5、將簽到位置少于n個用戶的刪除

place_count = data.groupby(‘place_id’).count()

tf = place_count[place_count.row_id > 3].reset_index()

data = data[data[‘place_id’].isin(tf.place_id)]

分割數(shù)據(jù)集

標(biāo)準(zhǔn)化處理

k-近鄰預(yù)測

4.2 代碼
def knncls():
“”"
K近鄰算法預(yù)測入住位置類別
:return:
“”"
# 一、處理數(shù)據(jù)以及特征工程
# 1、讀取收,縮小數(shù)據(jù)的范圍
data = pd.read_csv("./data/FBlocation/train.csv")

# 數(shù)據(jù)邏輯篩選操作 df.query() data = data.query("x > 1.0 & x < 1.25 & y > 2.5 & y < 2.75")# 2、處理時間戳日期 time_value = pd.to_datetime(data['time'], unit='s')time_value = pd.DatetimeIndex(time_value)# 加入時間的其它的特征 data['day'] = time_value.daydata['weekday'] = time_value.weekdaydata['hour'] = time_value.hour# 刪除time這一列特征 data = data.drop(['time'], axis=1)print(data)# 刪除入住次數(shù)少于三次位置 place_count = data.groupby('place_id').count()tf = place_count[place_count.row_id > 3].reset_index()data = data[data['place_id'].isin(tf.place_id)]# 3、取出特征值和目標(biāo)值 y = data['place_id'] # y = data[['place_id']]x = data.drop(['place_id', 'row_id'], axis=1)# 4、數(shù)據(jù)分割與特征工程?# (1)、數(shù)據(jù)分割 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)# (2)、標(biāo)準(zhǔn)化 std = StandardScaler()# 隊訓(xùn)練集進行標(biāo)準(zhǔn)化操作 x_train = std.fit_transform(x_train) print(x_train)# 進行測試集的標(biāo)準(zhǔn)化操作 x_test = std.fit_transform(x_test)# 二、算法的輸入訓(xùn)練預(yù)測 # K值:算法傳入?yún)?shù)不定的值 理論上:k = 根號(樣本數(shù)) # K值:后面會使用參數(shù)調(diào)優(yōu)方法,去輪流試出最好的參數(shù)[1,3,5,10,20,100,200] knn = KNeighborsClassifier(n_neighbors=1)# 調(diào)用fit() knn.fit(x_train, y_train)# 預(yù)測測試數(shù)據(jù)集,得出準(zhǔn)確率 y_predict = knn.predict(x_test)print("預(yù)測測試集類別:", y_predict)print("準(zhǔn)確率為:", knn.score(x_test, y_test))return None

4.3 結(jié)果分析
準(zhǔn)確率: 分類算法的評估之一
1、k值取多大?有什么影響?
k值取很小:容易受到異常點的影響

k值取很大:受到樣本均衡的問題

2、性能問題?
距離計算上面,時間復(fù)雜度高

5、K-近鄰總結(jié)
優(yōu)點:
簡單,易于理解,易于實現(xiàn),無需訓(xùn)練
缺點:
懶惰算法,對測試樣本分類時的計算量大,內(nèi)存開銷大
必須指定K值,K值選擇不當(dāng)則分類精度不能保證
使用場景:小數(shù)據(jù)場景,幾千~幾萬樣本,具體場景具體業(yè)務(wù)去測試
模型選擇與調(diào)優(yōu)
學(xué)習(xí)目標(biāo)
目標(biāo)
說明交叉驗證過程
說明超參數(shù)搜索過程
應(yīng)用GridSearchCV實現(xiàn)算法參數(shù)的調(diào)優(yōu)
應(yīng)用
Facebook簽到位置預(yù)測調(diào)優(yōu)
1、為什么需要交叉驗證
交叉驗證目的:為了讓被評估的模型更加準(zhǔn)確可信

2、什么是交叉驗證(cross validation)
交叉驗證:將拿到的訓(xùn)練數(shù)據(jù),分為訓(xùn)練和驗證集。以下圖為例:將數(shù)據(jù)分成5份,其中一份作為驗證集。然后經(jīng)過5次(組)的測試,每次都更換不同的驗證集。即得到5組模型的結(jié)果,取平均值作為最終結(jié)果。又稱5折交叉驗證。

2.1 分析
我們之前知道數(shù)據(jù)分為訓(xùn)練集和測試集,但是為了讓從訓(xùn)練得到模型結(jié)果更加準(zhǔn)確。做以下處理

訓(xùn)練集:訓(xùn)練集+驗證集
測試集:測試集
交叉驗證過程

問題:那么這個只是對于參數(shù)得出更好的結(jié)果,那么怎么選擇或者調(diào)優(yōu)參數(shù)呢?
3、超參數(shù)搜索-網(wǎng)格搜索(Grid Search)
通常情況下,有很多參數(shù)是需要手動指定的(如k-近鄰算法中的K值),這種叫超參數(shù)。但是手動過程繁雜,所以需要對模型預(yù)設(shè)幾種超參數(shù)組合。每組超參數(shù)都采用交叉驗證來進行評估。最后選出最優(yōu)參數(shù)組合建立模型。

超參數(shù)

3.1 模型選擇與調(diào)優(yōu)
sklearn.model_selection.GridSearchCV(estimator, param_grid=None,cv=None)
對估計器的指定參數(shù)值進行詳盡搜索
estimator:估計器對象
param_grid:估計器參數(shù)(dict){“n_neighbors”:[1,3,5]}
cv:指定幾折交叉驗證
fit:輸入訓(xùn)練數(shù)據(jù)
score:準(zhǔn)確率
結(jié)果分析:
bestscore:在交叉驗證中驗證的最好結(jié)果_
bestestimator:最好的參數(shù)模型
cvresults:每次交叉驗證后的驗證集準(zhǔn)確率結(jié)果和訓(xùn)練集準(zhǔn)確率結(jié)果
4、Facebook簽到位置預(yù)測K值調(diào)優(yōu)
使用網(wǎng)格搜索估計器

使用網(wǎng)格搜索和交叉驗證找到合適的參數(shù)

knn = KNeighborsClassifier()

param = {“n_neighbors”: [3, 5, 10]}

gc = GridSearchCV(knn, param_grid=param, cv=2)

gc.fit(x_train, y_train)

print(“選擇了某個模型測試集當(dāng)中預(yù)測的準(zhǔn)確率為:”, gc.score(x_test, y_test))

訓(xùn)練驗證集的結(jié)果

print(“在交叉驗證當(dāng)中驗證的最好結(jié)果:”, gc.best_score_)
print(“gc選擇了的模型K值是:”, gc.best_estimator_)
print(“每次交叉驗證的結(jié)果為:”, gc.cv_results_)
樸素貝葉斯算法
學(xué)習(xí)目標(biāo)
目標(biāo)
說明條件概率與聯(lián)合概率
說明貝葉斯公式、以及特征獨立的關(guān)系
記憶貝葉斯公式
知道拉普拉斯平滑系數(shù)
應(yīng)用貝葉斯公式實現(xiàn)概率的計算
應(yīng)用
20類新聞文章分類預(yù)測
1、 什么是樸素貝葉斯分類方法
垃圾郵件分類

文章分類

2、 概率基礎(chǔ)
2.1 概率(Probability)定義
概率定義為一件事情發(fā)生的可能性
扔出一個硬幣,結(jié)果頭像朝上
某天是晴天
P(X) : 取值在[0, 1]
2.2 女神是否喜歡計算案例
在講這兩個概率之前我們通過一個例子,來計算一些結(jié)果:

計算概率

問題如下:
概率問題

那么其中有些問題我們計算的結(jié)果不正確,或者不知道計算,我們有固定的公式去計算

2.3 條件概率與聯(lián)合概率
聯(lián)合概率:包含多個條件,且所有條件同時成立的概率
記作:P(A,B)
特性:P(A, B) = P(A)P(B)
條件概率:就是事件A在另外一個事件B已經(jīng)發(fā)生條件下的發(fā)生概率
記作:P(A|B)
特性:P(A1,A2|B) = P(A1|B)P(A2|B)
注意:此條件概率的成立,是由于A1,A2相互獨立的結(jié)果(記憶)

這樣我們計算結(jié)果為:

p(程序員, 勻稱) = P(程序員)P(勻稱) =3/7*(4/7) = 12/49
P(產(chǎn)品, 超重|喜歡) = P(產(chǎn)品|喜歡)P(超重|喜歡)=1/2 * 1/4 = 1/8
那么,我們知道了這些知識之后,繼續(xù)回到我們的主題中。樸素貝葉斯如何分類,這個算法經(jīng)常會用在文本分類,那就來看文章分類是一個什么樣的問題?

文章分類引入

這個了類似一個條件概率,那么仔細(xì)一想,給定文章其實相當(dāng)于給定什么?結(jié)合前面我們將文本特征抽取的時候講的?所以我們可以理解為

文章分類引入2

但是這個公式怎么求?前面并沒有參考例子,其實是相似的,我們可以使用貝葉斯公式去計算

3、 貝葉斯公式
3.1 公式
貝葉斯公式

那么這個公式如果應(yīng)用在文章分類的場景當(dāng)中,我們可以這樣看:

貝葉斯公式理解

公式分為三個部分:

P?:每個文檔類別的概率(某文檔類別數(shù)/總文檔數(shù)量)
P(W│C):給定類別下特征(被預(yù)測文檔中出現(xiàn)的詞)的概率
計算方法:P(F1│C)=Ni/N (訓(xùn)練文檔中去計算)
Ni為該F1詞在C類別所有文檔中出現(xiàn)的次數(shù)
N為所屬類別C下的文檔所有詞出現(xiàn)的次數(shù)和
P(F1,F2,…) 預(yù)測文檔中每個詞的概率
如果計算兩個類別概率比較:

概率前面比較大小

所以我們只要比較前面的大小就可以,得出誰的概率大

3.2 文章分類計算
假設(shè)我們從訓(xùn)練數(shù)據(jù)集得到如下信息
分類計算例子

計算結(jié)果
科技:P(科技|影院,支付寶,云計算) = ?(影院,支付寶,云計算|科技)?P(科技)=(8/100)?(20/100)?(63/100)?(30/90) = 0.00456109

娛樂:P(娛樂|影院,支付寶,云計算) = ?(影院,支付寶,云計算|娛樂)?P(娛樂)=(56/121)?(15/121)?(0/121)?(60/90) = 0
思考:我們計算出來某個概率為0,合適嗎?
3.3 拉普拉斯平滑系數(shù)
目的:防止計算出的分類概率為0

平滑系數(shù)公式

P(娛樂|影院,支付寶,云計算) =P(影院,支付寶,云計算|娛樂)P(娛樂) =P(影院|娛樂)*P(支付寶|娛樂)P(云計算|娛樂)P(娛樂)=(56+1/121+4)(15+1/121+4)(0+1/121+14)(60/90) = 0.00002
3.4 API
sklearn.naive_bayes.MultinomialNB(alpha = 1.0)
樸素貝葉斯分類
alpha:拉普拉斯平滑系數(shù)
4、案例:20類新聞分類
新聞分類介紹

4.1 分析
分割數(shù)據(jù)集

tfidf進行的特征抽取

樸素貝葉斯預(yù)測
4.2 代碼
def nbcls():
“”"
樸素貝葉斯對新聞數(shù)據(jù)集進行預(yù)測
:return:
“”"
# 獲取新聞的數(shù)據(jù),20個類別
news = fetch_20newsgroups(subset=‘a(chǎn)ll’)

# 進行數(shù)據(jù)集分割 x_train, x_test, y_train, y_test = train_test_split(news.data, news.target, test_size=0.3)# 對于文本數(shù)據(jù),進行特征抽取 tf = TfidfVectorizer()x_train = tf.fit_transform(x_train) # 這里打印出來的列表是:訓(xùn)練集當(dāng)中的所有不同詞的組成的一個列表 print(tf.get_feature_names()) # print(x_train.toarray())# 不能調(diào)用fit_transform x_test = tf.transform(x_test)# estimator估計器流程 mlb = MultinomialNB(alpha=1.0)mlb.fit(x_train, y_train)# 進行預(yù)測 y_predict = mlb.predict(x_test)print("預(yù)測每篇文章的類別:", y_predict[:100]) print("真實類別為:", y_test[:100])print("預(yù)測準(zhǔn)確率為:", mlb.score(x_test, y_test))return None

5、總結(jié)
優(yōu)點:
樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有穩(wěn)定的分類效率。
對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類。
分類準(zhǔn)確度高,速度快
缺點:
由于使用了樣本屬性獨立性的假設(shè),所以如果特征屬性有關(guān)聯(lián)時其效果不好
決策樹
學(xué)習(xí)目標(biāo)
目標(biāo)
說明信息熵的公式以及作用
說明信息增益的公式作用
應(yīng)用信息增益實現(xiàn)計算特征的不確定性減少程度
了解決策樹的三種算法實現(xiàn)
應(yīng)用
泰坦尼克號乘客生存預(yù)測
1、認(rèn)識決策樹
決策樹思想的來源非常樸素,程序設(shè)計中的條件分支結(jié)構(gòu)就是if-then結(jié)構(gòu),最早的決策樹就是利用這類結(jié)構(gòu)分割數(shù)據(jù)的一種分類學(xué)習(xí)方法

怎么理解這句話?通過一個對話例子

相親對話

想一想這個女生為什么把年齡放在最上面判斷!!!!!!!!!

2、決策樹分類原理詳解
為了更好理解決策樹具體怎么分類的,我們通過一個問題例子?

銀行貸款數(shù)

問題:如何對這些客戶進行分類預(yù)測?你是如何去劃分?
有可能你的劃分是這樣的

貸款劃分1

那么我們怎么知道這些特征哪個更好放在最上面,那么決策樹的真是劃分是這樣的

貸款劃分2

2.1 原理
信息熵、信息增益等
需要用到信息論的知識!!!問題:通過例子引入信息熵

2.2 信息熵
那來玩?zhèn)€猜測游戲,猜猜這32支球隊那個是冠軍。并且猜測錯誤付出代價。每猜錯一次給一塊錢,告訴我是否猜對了,那么我需要掏多少錢才能知道誰是冠軍? (前提是:不知道任意球隊的信息、歷史比賽記錄、實力等)

足球隊

為了使代價最小,可以使用二分法猜測:

我可以把球編上號,從1到32,然后提問:冠 軍在1-16號嗎?依次詢問,只需要五次,就可以知道結(jié)果。

二分法猜測

我們來看這個式子:

32支球隊,log32=5比特
64支球隊,log64=6比特
香農(nóng)

香農(nóng)指出,它的準(zhǔn)確信息量應(yīng)該是,p為每個球隊獲勝的概率(假設(shè)概率相等,都為1/32),我們不用錢去衡量這個代價了,香濃指出用比特:

H = -(p1logp1 + p2logp2 + … + p32log32) = - log32
2.2.1 信息熵的定義
H的專業(yè)術(shù)語稱之為信息熵,單位為比特。
信息熵公式

“誰是世界杯冠軍”的信息量應(yīng)該比5比特少,特點(重要):

當(dāng)這32支球隊奪冠的幾率相同時,對應(yīng)的信息熵等于5比特
只要概率發(fā)生任意變化,信息熵都比5比特大
2.2.2 總結(jié)(重要)
信息和消除不確定性是相聯(lián)系的
當(dāng)我們得到的額外信息(球隊歷史比賽情況等等)越多的話,那么我們猜測的代價越小(猜測的不確定性減小)

問題: 回到我們前面的貸款案例,怎么去劃分?可以利用當(dāng)?shù)弥硞€特征(比如是否有房子)之后,我們能夠減少的不確定性大小。越大我們可以認(rèn)為這個特征很重要。那怎么去衡量減少的不確定性大小呢?
2.3 決策樹的劃分依據(jù)之一------信息增益
2.3.1 定義與公式
特征A對訓(xùn)練數(shù)據(jù)集D的信息增益g(D,A),定義為集合D的信息熵H(D)與特征A給定條件下D的信息條件熵H(D|A)之差,即公式為:

信息增益公式

公式的詳細(xì)解釋:

信息增益公式詳解

注:信息增益表示得知特征X的信息而息的不確定性減少的程度使得類Y的信息熵減少的程度

2.3.2 貸款特征重要計算
銀行貸款數(shù)

我們以年齡特征來計算:
1、g(D, 年齡) = H(D) -H(D|年齡) = 0.971-[5/15H(青年)+5/15H(中年)+5/15H(老年]

2、H(D) = -(6/15log(6/15)+9/15log(9/15))=0.971

3、H(青年) = -(3/5log(3/5) +2/5log(2/5))
H(中年)=-(3/5log(3/5) +2/5log(2/5))
H(老年)=-(4/5og(4/5)+1/5log(1/5))
我們以A1、A2、A3、A4代表年齡、有工作、有自己的房子和貸款情況。最終計算的結(jié)果g(D, A1) = 0.313, g(D, A2) = 0.324, g(D, A3) = 0.420,g(D, A4) = 0.363。所以我們選擇A3 作為劃分的第一個特征。這樣我們就可以一棵樹慢慢建立

2.4 決策樹的三種算法實現(xiàn)
當(dāng)然決策樹的原理不止信息增益這一種,還有其他方法。但是原理都類似,我們就不去舉例計算。

ID3
信息增益 最大的準(zhǔn)則
C4.5
信息增益比 最大的準(zhǔn)則
CART
分類樹: 基尼系數(shù) 最小的準(zhǔn)則 在sklearn中可以選擇劃分的默認(rèn)原則
優(yōu)勢:劃分更加細(xì)致(從后面例子的樹顯示來理解)
2.5 決策樹API
class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,random_state=None)
決策樹分類器
criterion:默認(rèn)是’gini’系數(shù),也可以選擇信息增益的熵’entropy’
max_depth:樹的深度大小
random_state:隨機數(shù)種子
其中會有些超參數(shù):max_depth:樹的深度大小
其它超參數(shù)我們會結(jié)合隨機森林講解
3、案例:泰坦尼克號乘客生存預(yù)測
泰坦尼克號數(shù)據(jù)
在泰坦尼克號和titanic2數(shù)據(jù)幀描述泰坦尼克號上的個別乘客的生存狀態(tài)。這里使用的數(shù)據(jù)集是由各種研究人員開始的。其中包括許多研究人員創(chuàng)建的旅客名單,由Michael A. Findlay編輯。我們提取的數(shù)據(jù)集中的特征是票的類別,存活,乘坐班,年齡,登陸,home.dest,房間,票,船和性別。

1、乘坐班是指乘客班(1,2,3),是社會經(jīng)濟階層的代表。

2、其中age數(shù)據(jù)存在缺失。

數(shù)據(jù):http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt

泰坦尼克號數(shù)據(jù)

3.1 分析
選擇我們認(rèn)為重要的幾個特征 [‘pclass’, ‘a(chǎn)ge’, ‘sex’]
填充缺失值
特征中出現(xiàn)類別符號,需要進行one-hot編碼處理(DictVectorizer)
x.to_dict(orient=“records”) 需要將數(shù)組特征轉(zhuǎn)換成字典數(shù)據(jù)
數(shù)據(jù)集劃分
決策樹分類預(yù)測
3.2 代碼
def decisioncls():
“”"
決策樹進行乘客生存預(yù)測
:return:
“”"
# 1、獲取數(shù)據(jù)
titan = pd.read_csv(“http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt”)

# 2、數(shù)據(jù)的處理 x = titan[['pclass', 'age', 'sex']]y = titan['survived']# print(x , y) # 缺失值需要處理,將特征當(dāng)中有類別的這些特征進行字典特征抽取 x['age'].fillna(x['age'].mean(), inplace=True)# 對于x轉(zhuǎn)換成字典數(shù)據(jù)x.to_dict(orient="records") # [{"pclass": "1st", "age": 29.00, "sex": "female"}, {}]dict = DictVectorizer(sparse=False)x = dict.fit_transform(x.to_dict(orient="records"))print(dict.get_feature_names()) print(x)# 分割訓(xùn)練集合測試集 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)# 進行決策樹的建立和預(yù)測 dc = DecisionTreeClassifier(max_depth=5)dc.fit(x_train, y_train)print("預(yù)測的準(zhǔn)確率為:", dc.score(x_test, y_test))return None

由于決策樹類似一個樹的結(jié)構(gòu),我們可以保存到本地顯示

3.3 保存樹的結(jié)構(gòu)到dot文件
1、sklearn.tree.export_graphviz() 該函數(shù)能夠?qū)С鯠OT格式
tree.export_graphviz(estimator,out_file='tree.dot’,feature_names=[‘’,’’])
2、工具:(能夠?qū)ot文件轉(zhuǎn)換為pdf、png)
安裝graphviz
ubuntu:sudo apt-get install graphviz Mac:brew install graphviz
3、運行命令
然后我們運行這個命令
dot -Tpng tree.dot -o tree.png
export_graphviz(dc, out_file="./tree.dot", feature_names=[‘a(chǎn)ge’, ‘pclass=1st’, ‘pclass=2nd’, ‘pclass=3rd’, ‘女性’, ‘男性’])
4、 決策樹總結(jié)
優(yōu)點:
簡單的理解和解釋,樹木可視化。
缺點:
決策樹學(xué)習(xí)者可以創(chuàng)建不能很好地推廣數(shù)據(jù)的過于復(fù)雜的樹,這被稱為過擬合。
改進:
減枝cart算法(決策樹API當(dāng)中已經(jīng)實現(xiàn),隨機森林參數(shù)調(diào)優(yōu)有相關(guān)介紹)
隨機森林
注:企業(yè)重要決策,由于決策樹很好的分析能力,在決策過程應(yīng)用較多, 可以選擇特征
集成學(xué)習(xí)方法之隨機森林
學(xué)習(xí)目標(biāo)
目標(biāo)
說名隨機森林每棵決策樹的建立過程
知道為什么需要隨機有放回(Bootstrap)的抽樣
說明隨機森林的超參數(shù)
應(yīng)用
泰坦尼克號乘客生存預(yù)測
1、 什么是集成學(xué)習(xí)方法
集成學(xué)習(xí)通過建立幾個模型組合的來解決單一預(yù)測問題。它的工作原理是生成多個分類器/模型,各自獨立地學(xué)習(xí)和作出預(yù)測。這些預(yù)測最后結(jié)合成組合預(yù)測,因此優(yōu)于任何一個單分類的做出預(yù)測。

2、 什么是隨機森林
在機器學(xué)習(xí)中,隨機森林是一個包含多個決策樹的分類器,并且其輸出的類別是由個別樹輸出的類別的眾數(shù)而定。

隨機森林

例如, 如果你訓(xùn)練了5個樹, 其中有4個樹的結(jié)果是True, 1個數(shù)的結(jié)果是False, 那么最終投票結(jié)果就是True

投票

3、 隨機森林原理過程
學(xué)習(xí)算法根據(jù)下列算法而建造每棵樹:

用N來表示訓(xùn)練用例(樣本)的個數(shù),M表示特征數(shù)目。
1、一次隨機選出一個樣本,重復(fù)N次, (有可能出現(xiàn)重復(fù)的樣本)
2、隨機去選出m個特征, m <<M,建立決策樹
采取bootstrap抽樣
3.1 為什么采用BootStrap抽樣
為什么要隨機抽樣訓(xùn)練集?  
如果不進行隨機抽樣,每棵樹的訓(xùn)練集都一樣,那么最終訓(xùn)練出的樹分類結(jié)果也是完全一樣的
為什么要有放回地抽樣?
如果不是有放回的抽樣,那么每棵樹的訓(xùn)練樣本都是不同的,都是沒有交集的,這樣每棵樹都是“有偏的”,都是絕對“片面的”(當(dāng)然這樣說可能不對),也就是說每棵樹訓(xùn)練出來都是有很大的差異的;而隨機森林最后分類取決于多棵樹(弱分類器)的投票表決。
3.2 API
class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’, max_depth=None, bootstrap=True, random_state=None, min_samples_split=2)

隨機森林分類器
n_estimators:integer,optional(default = 10)森林里的樹木數(shù)量120,200,300,500,800,1200
criteria:string,可選(default =“gini”)分割特征的測量方法
max_depth:integer或None,可選(默認(rèn)=無)樹的最大深度 5,8,15,25,30
max_features="auto”,每個決策樹的最大特征數(shù)量
If “auto”, then max_features=sqrt(n_features).
If “sqrt”, then max_features=sqrt(n_features) (same as “auto”).
If “l(fā)og2”, then max_features=log2(n_features).
If None, then max_features=n_features.
bootstrap:boolean,optional(default = True)是否在構(gòu)建樹時使用放回抽樣
min_samples_split:節(jié)點劃分最少樣本數(shù)
min_samples_leaf:葉子節(jié)點的最小樣本數(shù)
超參數(shù):n_estimator, max_depth, min_samples_split,min_samples_leaf
3.3 代碼

隨機森林去進行預(yù)測

rf = RandomForestClassifier()

param = {“n_estimators”: [120,200,300,500,800,1200], “max_depth”: [5, 8, 15, 25, 30]}

超參數(shù)調(diào)優(yōu)

gc = GridSearchCV(rf, param_grid=param, cv=2)

gc.fit(x_train, y_train)

print(“隨機森林預(yù)測的準(zhǔn)確率為:”, gc.score(x_test, y_test))
4、總結(jié)
在當(dāng)前所有算法中,具有極好的準(zhǔn)確率
能夠有效地運行在大數(shù)據(jù)集上,處理具有高維特征的輸入樣本,而且不需要降維
能夠評估各個特征在分類問題上的重要性
回歸與聚類算法
說明線性回歸的原理
應(yīng)用LinearRegression或SGDRegressor實現(xiàn)回歸預(yù)測
記憶回歸算法的評估標(biāo)準(zhǔn)及其公式
說明線性回歸的缺點
說明過擬合與欠擬合的原因以及解決方法
說明嶺回歸的原理即與線性回歸的不同之處
說明正則化對于權(quán)重參數(shù)的影響
說明L1和L2正則化的區(qū)別
說明邏輯回歸的原理
知道邏輯回歸的應(yīng)用場景
說明分類(主要針對二分類)問題的評估標(biāo)準(zhǔn)
應(yīng)用classification_report實現(xiàn)精確率、召回率計算
應(yīng)用roc_auc_score實現(xiàn)指標(biāo)計算
應(yīng)用joblib實現(xiàn)模型的保存與加載
說明K-means算法原理
說明K-means的性能評估標(biāo)準(zhǔn)輪廓系數(shù)
說明K-means的優(yōu)缺點
線性回歸
學(xué)習(xí)目標(biāo)
目標(biāo)
記憶線性回歸的原理過程
應(yīng)用LinearRegression或SGDRegressor實現(xiàn)回歸預(yù)測
記憶回歸算法的評估標(biāo)準(zhǔn)及其公式
應(yīng)用
波士頓房價預(yù)測
回憶一下回歸問題的判定是什么?
1、 線性回歸的原理
1.1 線性回歸應(yīng)用場景
房價預(yù)測
銷售額度預(yù)測
金融:貸款額度預(yù)測、利用線性回歸以及系數(shù)分析因子和選股
銷售額度

1.2 什么是線性回歸
1.2.1定義與公式
線性回歸(Linear regression)是利用回歸方程(函數(shù))對一個或多個自變量(特征值)和因變量(目標(biāo)值)之間關(guān)系進行建模的一種分析方式。

特點:只有一個自變量的情況稱為單變量回歸,大于一個自變量情況的叫做多元回歸
線性回歸公式

那么怎么理解呢?我們來看幾個例子

期末成績:0.7×考試成績+0.3×平時成績
房子價格 = 0.02×中心區(qū)域的距離 + 0.04×城市一氧化氮濃度 + (-0.12×自住房平均房價) + 0.254×城鎮(zhèn)犯罪率
上面兩個例子,我們看到特征值與目標(biāo)值之間建立的一個關(guān)系,這個可以理解為回歸方程。

1.2.2 線性回歸的特征與目標(biāo)的關(guān)系分析
線性回歸當(dāng)中的關(guān)系有兩種,一種是線性關(guān)系,另一種是非線性關(guān)系。在這里我們只能畫一個平面更好去理解,所以都用單個特征舉例子。

線性關(guān)系
線性關(guān)系圖

多變量線性關(guān)系

注釋:如果在單特征與目標(biāo)值的關(guān)系呈直線關(guān)系,或者兩個特征與目標(biāo)值呈現(xiàn)平面的關(guān)系

更高維度的我們不用自己去想,記住這種關(guān)系即可

非線性關(guān)系
非線性關(guān)系

注釋:為什么會這樣的關(guān)系呢?原因是什么?我們后面 講解過擬合欠擬合重點介紹

如果是非線性關(guān)系,那么回歸方程可以理解為:w1x1+w2x22+w3x32

2、線性回歸的損失和優(yōu)化原理(理解記憶)
假設(shè)剛才的房子例子,真實的數(shù)據(jù)之間存在這樣的關(guān)系

真實關(guān)系:真實房子價格 = 0.02×中心區(qū)域的距離 + 0.04×城市一氧化氮濃度 + (-0.12×自住房平均房價) + 0.254×城鎮(zhèn)犯罪率
那么現(xiàn)在呢,我們隨意指定一個關(guān)系(猜測)

隨機指定關(guān)系:預(yù)測房子價格 = 0.25×中心區(qū)域的距離 + 0.14×城市一氧化氮濃度 + 0.42×自住房平均房價 + 0.34×城鎮(zhèn)犯罪率
請問這樣的話,會發(fā)生什么?真實結(jié)果與我們預(yù)測的結(jié)果之間是不是存在一定的誤差呢?類似這樣樣子

誤差

那么存在這個誤差,我們將這個誤差給衡量出來

2.1 損失函數(shù)
總損失定義為:

線性回歸損失函數(shù)

y_i為第i個訓(xùn)練樣本的真實值
h(x_i)為第i個訓(xùn)練樣本特征值組合預(yù)測函數(shù)
又稱最小二乘法
如何去減少這個損失,使我們預(yù)測的更加準(zhǔn)確些?既然存在了這個損失,我們一直說機器學(xué)習(xí)有自動學(xué)習(xí)的功能,在線性回歸這里更是能夠體現(xiàn)。這里可以通過一些優(yōu)化方法去優(yōu)化(其實是數(shù)學(xué)當(dāng)中的求導(dǎo)功能)回歸的總損失!!!

2.2 優(yōu)化算法
如何去求模型當(dāng)中的W,使得損失最小?(目的是找到最小損失對應(yīng)的W值)

線性回歸經(jīng)常使用的兩種優(yōu)化算法

正規(guī)方程
正規(guī)方程

理解:X為特征值矩陣,y為目標(biāo)值矩陣。直接求到最好的結(jié)果

缺點:當(dāng)特征過多過復(fù)雜時,求解速度太慢并且得不到結(jié)果

損失行數(shù)求解1

梯度下降(Gradient Descent)
梯度下降公式

理解:α為學(xué)習(xí)速率,需要手動指定(超參數(shù)),α旁邊的整體表示方向

沿著這個函數(shù)下降的方向找,最后就能找到山谷的最低點,然后更新W值

使用:面對訓(xùn)練數(shù)據(jù)規(guī)模十分龐大的任務(wù) ,能夠找到較好的結(jié)果

我們通過兩個圖更好理解梯度下降的過程

單變量的梯度下降

多變量的梯度下降

所以有了梯度下降這樣一個優(yōu)化算法,回歸就有了"自動學(xué)習(xí)"的能力

3、 線性回歸API
sklearn.linear_model.LinearRegression(fit_intercept=True)
通過正規(guī)方程優(yōu)化
fit_intercept:是否計算偏置
LinearRegression.coef_:回歸系數(shù)
LinearRegression.intercept_:偏置
sklearn.linear_model.SGDRegressor(loss=“squared_loss”, fit_intercept=True, learning_rate =‘invscaling’, eta0=0.01)
通過使用SGD優(yōu)化
loss:損失類型 *
fit_intercept:是否計算偏置
learning_rate : string, optional
學(xué)習(xí)率填充
‘constant’: eta = eta0
‘optimal’: eta = 1.0 / (alpha * (t + t0)) [default]
‘invscaling’: eta = eta0 / pow(t, power_t)
power_t=0.25:存在父類當(dāng)中
SGDRegressor.coef_:回歸系數(shù)
SGDRegressor.intercept_:偏置
sklearn提供給我們兩種實現(xiàn)的API, 可以根據(jù)選擇使用

4、波士頓房價預(yù)測
數(shù)據(jù)介紹
房價數(shù)據(jù)集介紹

屬性

給定的這些特征,是專家們得出的影響房價的結(jié)果屬性。我們此階段不需要自己去探究特征是否有用,只需要使用這些特征。到后面量化很多特征需要我們自己去尋找

4.1 分析
回歸當(dāng)中的數(shù)據(jù)大小不一致,是否會導(dǎo)致結(jié)果影響較大。所以需要做標(biāo)準(zhǔn)化處理。同時我們對目標(biāo)值也需要做標(biāo)準(zhǔn)化處理。

數(shù)據(jù)分割與標(biāo)準(zhǔn)化處理
回歸預(yù)測
線性回歸的算法效果評估
4.2 回歸性能評估
均方誤差(Mean Squared Error)MSE)評價機制:

線性回歸評估

注:y^i為預(yù)測值,ˉy為真實值

sklearn.metrics.mean_squared_error(y_true, y_pred)
均方誤差回歸損失
y_true:真實值
y_pred:預(yù)測值
return:浮點數(shù)結(jié)果
4.2 代碼
def mylinearregression():
“”"
線性回歸預(yù)測房子價格
:return:
“”"
lb = load_boston()
#
# print(lb.data)
#
# print(lb.target)

# 對數(shù)據(jù)集進行劃分 x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.3, random_state=24)# 需要做標(biāo)準(zhǔn)化處理對于特征值處理 std_x = StandardScaler()x_train = std_x.fit_transform(x_train) x_test = std_x.fit_transform(x_test) # print(x_train)# 對于目標(biāo)值進行標(biāo)準(zhǔn)化 std_y = StandardScaler()y_train = std_y.fit_transform(y_train) y_test = std_y.transform(y_test) # print(y_train) # y_test = std_y.inverse_transform(y_train) # print(y)y_test = std_y.inverse_transform(y_test)# 使用線性模型進行預(yù)測 # 使用正規(guī)方程求解 lr = LinearRegression() # # 此時在干什么? lr.fit(x_train, y_train)y_lr_predict = std_y.inverse_transform(lr.predict(x_test))print(lr.coef_)print("正規(guī)方程預(yù)測的結(jié)果為:", y_lr_predict)print("正規(guī)方程的均方誤差為:", mean_squared_error(y_test, y_lr_predict))# 梯度下降進行預(yù)測 sgd = SGDRegressor() # sgd.fit(x_train, y_train) print("SGD的權(quán)重參數(shù)為:", sgd.coef_) # y_sgd_predict = std_y.inverse_transform(sgd.predict(x_test)) # print("SGD的預(yù)測的結(jié)果為:", y_sgd_predict) # # # 怎么評判這兩個哪個好? print("SGD的均方誤差為:", mean_squared_error(y_test, y_sgd_predict))return None

當(dāng)我們嘗試去修改學(xué)習(xí)率的時候

sgd = SGDRegressor(learning_rate=‘constant’, eta0=0.5)
可以看到效果會更好,此時我們可以通過調(diào)參數(shù),找到學(xué)習(xí)率效果更好的值。

這里的案例數(shù)據(jù)比較簡單,所以效果非常不錯??梢栽跀?shù)據(jù)量、特征復(fù)雜的數(shù)據(jù)中進行測試

4.3 正規(guī)方程和梯度下降對比
正規(guī)方程和梯度下降對比

文字對比
梯度下降 正規(guī)方程
需要選擇學(xué)習(xí)率 不需要
需要迭代求解 一次運算得出
特征數(shù)量較大可以使用 需要計算方程,時間復(fù)雜度高O(n3)
選擇:
小規(guī)模數(shù)據(jù):
LinearRegression(不能解決擬合問題)
嶺回歸
大規(guī)模數(shù)據(jù):SGDRegressor
5、總結(jié)
線性回歸的損失函數(shù)-均方誤差
線性回歸的優(yōu)化方法
正規(guī)方程
梯度下降
線性回歸的性能衡量方法-均方誤差
sklearn的SGDRegressor API 參數(shù)
欠擬合與過擬合
學(xué)習(xí)目標(biāo)
目標(biāo)
說明線性回歸(不帶正則化)的缺點
說明過擬合與欠擬合的原因以及解決方法
應(yīng)用

問題:訓(xùn)練數(shù)據(jù)訓(xùn)練的很好啊,誤差也不大,為什么在測試集上面有問題呢?
當(dāng)算法在某個數(shù)據(jù)集當(dāng)中出現(xiàn)這種情況,可能就出現(xiàn)了過擬合現(xiàn)象。

1、 什么是過擬合與欠擬合
欠擬合
欠擬合

過擬合
過擬合

分析
第一種情況:因為機器學(xué)習(xí)到的天鵝特征太少了,導(dǎo)致區(qū)分標(biāo)準(zhǔn)太粗糙,不能準(zhǔn)確識別出天鵝。
第二種情況:機器已經(jīng)基本能區(qū)別天鵝和其他動物了。然后,很不巧已有的天鵝圖片全是白天鵝的,于是機器經(jīng)過學(xué)習(xí)后,會認(rèn)為天鵝的羽毛都是白的,以后看到羽毛是黑的天鵝就會認(rèn)為那不是天鵝。
1.1 定義
過擬合:一個假設(shè)在訓(xùn)練數(shù)據(jù)上能夠獲得比其他假設(shè)更好的擬合, 但是在測試數(shù)據(jù)集上卻不能很好地擬合數(shù)據(jù),此時認(rèn)為這個假設(shè)出現(xiàn)了過擬合的現(xiàn)象。(模型過于復(fù)雜)
欠擬合:一個假設(shè)在訓(xùn)練數(shù)據(jù)上不能獲得更好的擬合,并且在測試數(shù)據(jù)集上也不能很好地擬合數(shù)據(jù),此時認(rèn)為這個假設(shè)出現(xiàn)了欠擬合的現(xiàn)象。(模型過于簡單)
欠擬合過擬合圖示

那么是什么原因?qū)е履P蛷?fù)雜?線性回歸進行訓(xùn)練學(xué)習(xí)的時候變成模型會變得復(fù)雜,這里就對應(yīng)前面再說的線性回歸的兩種關(guān)系,非線性關(guān)系的數(shù)據(jù),也就是存在很多無用的特征或者現(xiàn)實中的事物特征跟目標(biāo)值的關(guān)系并不是簡單的線性關(guān)系。
2、 原因以及解決辦法
欠擬合原因以及解決辦法
原因:學(xué)習(xí)到數(shù)據(jù)的特征過少
解決辦法:增加數(shù)據(jù)的特征數(shù)量
過擬合原因以及解決辦法
原因:原始特征過多,存在一些嘈雜特征, 模型過于復(fù)雜是因為模型嘗試去兼顧各個測試數(shù)據(jù)點
解決辦法:
正則化
在這里針對回歸,我們選擇了正則化。但是對于其他機器學(xué)習(xí)算法如分類算法來說也會出現(xiàn)這樣的問題,除了一些算法本身作用之外(決策樹、神經(jīng)網(wǎng)絡(luò)),我們更多的也是去自己做特征選擇,包括之前說的刪除、合并一些特征

模型復(fù)雜

如何解決?
正則化

在學(xué)習(xí)的時候,數(shù)據(jù)提供的特征有些影響模型復(fù)雜度或者這個特征的數(shù)據(jù)點異常較多,所以算法在學(xué)習(xí)的時候盡量減少這個特征的影響(甚至刪除某個特征的影響),這就是正則化

注:調(diào)整時候,算法并不知道某個特征影響,而是去調(diào)整參數(shù)得出優(yōu)化的結(jié)果

2.1 正則化類別
L2正則化
作用:可以使得其中一些W的都很小,都接近于0,削弱某個特征的影響
優(yōu)點:越小的參數(shù)說明模型越簡單,越簡單的模型則越不容易產(chǎn)生過擬合現(xiàn)象
Ridge回歸
L1正則化
作用:可以使得其中一些W的值直接為0,刪除這個特征的影響
LASSO回歸
2.2 拓展-原理(了解)
線性回歸的損失函數(shù)用最小二乘法,等價于當(dāng)預(yù)測值與真實值的誤差滿足正態(tài)分布時的極大似然估計;嶺回歸的損失函數(shù),是最小二乘法+L2范數(shù),等價于當(dāng)預(yù)測值與真實值的誤差滿足正態(tài)分布,且權(quán)重值也滿足正態(tài)分布(先驗分布)時的最大后驗估計;LASSO的損失函數(shù),是最小二乘法+L1范數(shù),等價于等價于當(dāng)預(yù)測值與真實值的誤差滿足正態(tài)分布,且且權(quán)重值滿足拉普拉斯分布(先驗分布)時的最大后驗估計
線性回歸的改進-嶺回歸
學(xué)習(xí)目標(biāo)
目標(biāo)
說明嶺回歸的原理即與線性回歸的不同之處
說明正則化對于權(quán)重參數(shù)的影響
說明L1和L2正則化的區(qū)別
應(yīng)用
波士頓房價預(yù)測
1、 帶有L2正則化的線性回歸-嶺回歸
嶺回歸,其實也是一種線性回歸。只不過在算法建立回歸方程時候,加上正則化的限制,從而達(dá)到解決過擬合的效果

1.1 API
sklearn.linear_model.Ridge(alpha=1.0)
具有l(wèi)2正則化的線性回歸
alpha:正則化力度,也叫 λ
λ取值:0~1 1~10
coef_:回歸系數(shù)
sklearn.linear_model.RidgeCV(BaseRidgeCV, RegressorMixin)
具有l(wèi)2正則化的線性回歸,可以進行交叉驗證
coef:回歸系數(shù)
class _BaseRidgeCV(LinearModel):
def init(self, alphas=(0.1, 1.0, 10.0),
fit_intercept=True, normalize=False, scoring=None,
cv=None, gcv_mode=None,
store_cv_values=False):
1.2 觀察正則化程度的變化,對結(jié)果的影響?
正則化力度

正則化力度越大,權(quán)重系數(shù)會越小
正則化力度越小,權(quán)重系數(shù)會越大
1.3 波士頓房價預(yù)測
rd = Ridge(alpha=1.0)

rd.fit(x_train, y_train)
print(“嶺回歸的權(quán)重參數(shù)為:”, rd.coef_)

y_rd_predict = std_y.inverse_transform(rd.predict(x_test))

print(“嶺回歸的預(yù)測的結(jié)果為:”, y_rd_predict)

print(“嶺回歸的均方誤差為:”, mean_squared_error(y_test, y_rd_predict))
分類算法-邏輯回歸與二分類
學(xué)習(xí)目標(biāo)
目標(biāo)
說明邏輯回歸的損失函數(shù)
說明邏輯回歸的優(yōu)化方法
說明sigmoid函數(shù)
知道邏輯回歸的應(yīng)用場景
知道精確率、召回率指標(biāo)的區(qū)別
知道F1-score指標(biāo)說明召回率的實際意義
說明如何解決樣本不均衡情況下的評估
了解ROC曲線的意義說明AUC指標(biāo)大小
應(yīng)用classification_report實現(xiàn)精確率、召回率計算
應(yīng)用roc_auc_score實現(xiàn)指標(biāo)計算
應(yīng)用
癌癥患者預(yù)測
邏輯回歸(Logistic Regression)是機器學(xué)習(xí)中的一種分類模型,邏輯回歸是一種分類算法,雖然名字中帶有回歸,但是它與回歸之間有一定的聯(lián)系。由于算法的簡單和高效,在實際中應(yīng)用非常廣泛。

1、邏輯回歸的應(yīng)用場景
廣告點擊率
是否為垃圾郵件
是否患病
金融詐騙
虛假賬號
看到上面的例子,我們可以發(fā)現(xiàn)其中的特點,那就是都屬于兩個類別之間的判斷。邏輯回歸就是解決二分類問題的利器

2、 邏輯回歸的原理
2.1 輸入
邏輯回歸輸入

邏輯回歸的輸入就是一個線性回歸的結(jié)果。

2.2 激活函數(shù)
sigmoid函數(shù)
sigmoid公式

分析
回歸的結(jié)果輸入到sigmoid函數(shù)當(dāng)中
輸出結(jié)果:[0, 1]區(qū)間中的一個概率值,默認(rèn)為0.5為閾值
邏輯回歸最終的分類是通過屬于某個類別的概率值來判斷是否屬于某個類別,并且這個類別默認(rèn)標(biāo)記為1(正例),另外的一個類別會標(biāo)記為0(反例)。(方便損失計算)

輸出結(jié)果解釋(重要):假設(shè)有兩個類別A,B,并且假設(shè)我們的概率值為屬于A(1)這個類別的概率值?,F(xiàn)在有一個樣本的輸入到邏輯回歸輸出結(jié)果0.6,那么這個概率值超過0.5,意味著我們訓(xùn)練或者預(yù)測的結(jié)果就是A(1)類別。那么反之,如果得出結(jié)果為0.3那么,訓(xùn)練或者預(yù)測結(jié)果就為B(0)類別。
所以接下來我們回憶之前的線性回歸預(yù)測結(jié)果我們用均方誤差衡量,那如果對于邏輯回歸,我們預(yù)測的結(jié)果不對該怎么去衡量這個損失呢?我們來看這樣一張圖
邏輯回歸運算過程

那么如何去衡量邏輯回歸的預(yù)測結(jié)果與真實結(jié)果的差異呢?

2.3 損失以及優(yōu)化
2.3.1 損失
邏輯回歸的損失,稱之為對數(shù)似然損失,公式如下:

分開類別:
單個對數(shù)似然損失

怎么理解單個的式子呢?這個要根據(jù)log的函數(shù)圖像來理解

單個損失解釋

綜合完整損失函數(shù)
完整對數(shù)似然損失

看到這個式子,其實跟我們講的信息熵類似。

接下來我們呢就帶入上面那個例子來計算一遍,就能理解意義了。

損失計算過程

我們已經(jīng)知道,log§, P值越大,結(jié)果越小,所以我們可以對著這個損失的式子去分析

2.3.2 優(yōu)化
同樣使用梯度下降優(yōu)化算法,去減少損失函數(shù)的值。這樣去更新邏輯回歸前面對應(yīng)算法的權(quán)重參數(shù),提升原本屬于1類別的概率,降低原本是0類別的概率。

拓展-關(guān)于邏輯回歸的損失和線性回歸的損失優(yōu)化問題
均方誤差這種損失函數(shù),是一定能夠通過梯度下降找到最優(yōu)解。

3、邏輯回歸API
sklearn.linear_model.LogisticRegression(solver=‘liblinear’, penalty=‘l2’, C = 1.0)
solver:優(yōu)化求解方式(默認(rèn)開源的liblinear庫實現(xiàn),內(nèi)部使用了坐標(biāo)軸下降法來迭代優(yōu)化損失函數(shù))
sag:隨機平均梯度下降
penalty:正則化的種類
C:正則化力度
默認(rèn)將類別數(shù)量少的當(dāng)做正例

4、 案例:癌癥分類預(yù)測-良/惡性乳腺癌腫瘤預(yù)測
數(shù)據(jù)介紹
癌癥數(shù)據(jù)

原始數(shù)據(jù)的下載地址:https://archive.ics.uci.edu/ml/machine-learning-databases/

數(shù)據(jù)描述

(1)699條樣本,共11列數(shù)據(jù),第一列用語檢索的id,后9列分別是與腫瘤

相關(guān)的醫(yī)學(xué)特征,最后一列表示腫瘤類型的數(shù)值。

(2)包含16個缺失值,用”?”標(biāo)出。

4.1 分析
缺失值處理
標(biāo)準(zhǔn)化處理
邏輯回歸預(yù)測
4.2 代碼
def logisticregression():
“”"
邏輯回歸進行癌癥預(yù)測
:return: None
“”"
# 1、讀取數(shù)據(jù),處理缺失值以及標(biāo)準(zhǔn)化
column_name = [‘Sample code number’, ‘Clump Thickness’, ‘Uniformity of Cell Size’, ‘Uniformity of Cell Shape’,
‘Marginal Adhesion’, ‘Single Epithelial Cell Size’, ‘Bare Nuclei’, ‘Bland Chromatin’,
‘Normal Nucleoli’, ‘Mitoses’, ‘Class’]

data = pd.read_csv("https://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/breast-cancer-wisconsin.data",names=column_name)# 刪除缺失值 data = data.replace(to_replace='?', value=np.nan)data = data.dropna()# 取出特征值 x = data[column_name[1:10]]y = data[column_name[10]]# 分割數(shù)據(jù)集 x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3)# 進行標(biāo)準(zhǔn)化 std = StandardScaler()x_train = std.fit_transform(x_train)x_test = std.transform(x_test)# 使用邏輯回歸 lr = LogisticRegression()lr.fit(x_train, y_train)print("得出來的權(quán)重:", lr.coef_)# 預(yù)測類別 print("預(yù)測的類別:", lr.predict(x_test))# 得出準(zhǔn)確率 print("預(yù)測的準(zhǔn)確率:", lr.score(x_test, y_test)) return None

在很多分類場景當(dāng)中我們不一定只關(guān)注預(yù)測的準(zhǔn)確率!!!!!

手機評判好壞

比如以這個癌癥舉例子!!!我們并不關(guān)注預(yù)測的準(zhǔn)確率,而是關(guān)注在所有的樣本當(dāng)中,癌癥患者有沒有被全部預(yù)測(檢測)出來。

5、分類的評估方法
5.1 精確率與召回率
5.1.1混淆矩陣
在分類任務(wù)下,預(yù)測結(jié)果(Predicted Condition)與正確標(biāo)記(True Condition)之間存在四種不同的組合,構(gòu)成混淆矩陣(適用于多分類)

混淆矩陣

5.1.2 精確率(Precision)與召回率(Recall)
精確率:預(yù)測結(jié)果為正例樣本中真實為正例的比例(了解)
精確率

召回率:真實為正例的樣本中預(yù)測結(jié)果為正例的比例(查的全,對正樣本的區(qū)分能力)
召回率

那么怎么更好理解這個兩個概念

精確率與召回率理解

還有其他的評估標(biāo)準(zhǔn),F1-score,反映了模型的穩(wěn)健型

F1

5.1.3 分類評估報告API
sklearn.metrics.classification_report(y_true, y_pred, labels=[], target_names=None )
y_true:真實目標(biāo)值
y_pred:估計器預(yù)測目標(biāo)值
labels:指定類別對應(yīng)的數(shù)字
target_names:目標(biāo)類別名稱
return:每個類別精確率與召回率
print(“精確率和召回率為:”, classification_report(y_test, lr.predict(x_test), labels=[2, 4], target_names=[‘良性’, ‘惡性’]))
假設(shè)這樣一個情況,如果99個樣本癌癥,1個樣本非癌癥,不管怎樣我全都預(yù)測正例(默認(rèn)癌癥為正例),準(zhǔn)確率就為99%但是這樣效果并不好,這就是樣本不均衡下的評估問題

問題:如何衡量樣本不均衡下的評估?
5.2 ROC曲線與AUC指標(biāo)
5.2.1 知道TPR與FPR
TPR = TP / (TP + FN)
所有真實類別為1的樣本中,預(yù)測類別為1的比例
FPR = FP / (FP + FN)
所有真實類別為0的樣本中,預(yù)測類別為1的比例
5.2.2 ROC曲線
ROC曲線的橫軸就是FPRate,縱軸就是TPRate,當(dāng)二者相等時,表示的意義則是:對于不論真實類別是1還是0的樣本,分類器預(yù)測為1的概率是相等的,此時AUC為0.5
ROC

5.2.3AUC指標(biāo)
AUC的概率意義是隨機取一對正負(fù)樣本,正樣本得分大于負(fù)樣本的概率
AUC的最小值為0.5,最大值為1,取值越高越好
AUC=1,完美分類器,采用這個預(yù)測模型時,不管設(shè)定什么閾值都能得出完美預(yù)測。絕大多數(shù)預(yù)測的場合,不存在完美分類器。
0.5<AUC<1,優(yōu)于隨機猜測。這個分類器(模型)妥善設(shè)定閾值的話,能有預(yù)測價值。
AUC=0.5,跟隨機猜測一樣(例:丟銅板),模型沒有預(yù)測價值。
AUC<0.5,比隨機猜測還差;但只要總是反預(yù)測而行,就優(yōu)于隨機猜測,因此不存在 AUC<0.5 的情況。
最終AUC的范圍在[0.5, 1]之間,并且越接近1越好

5.2.4 AUC計算API
from sklearn.metrics import roc_auc_score
sklearn.metrics.roc_auc_score(y_true, y_score)
計算ROC曲線面積,即AUC值
y_true:每個樣本的真實類別,必須為0(反例),1(正例)標(biāo)記
y_score:每個樣本預(yù)測的概率值

0.5~1之間,越接近于1約好

y_test = np.where(y_test > 2.5, 1, 0)

print(“AUC指標(biāo):”, roc_auc_score(y_test, lr.predict(x_test)))
5.2.5、總結(jié)
AUC只能用來評價二分類
AUC非常適合評價樣本不平衡中的分類器性能
AUC會比較預(yù)測出來的概率,而不僅僅是標(biāo)簽類
6、Scikit-learn的算法實現(xiàn)總結(jié)
scikit-learn把梯度下降求解的單獨分開,叫SGDclassifier和SGDRegressor,他們的損失都是分類和回歸對應(yīng)的損失,比如分類:有l(wèi)og loss, 和 hingle loss(SVM)的,回歸如:比如 均方誤差, 其它的API是一樣的損失,求解并不是用梯度下降的,所以一般大規(guī)模的數(shù)據(jù)都是用scikit-learn其中SGD的方式求解
模型保存和加載
學(xué)習(xí)目標(biāo)
目標(biāo)
應(yīng)用joblib實現(xiàn)模型的保存與加載
應(yīng)用

當(dāng)訓(xùn)練或者計算好一個模型之后,那么如果別人需要我們提供結(jié)果預(yù)測,就需要保存模型(主要是保存算法的參數(shù))

1、sklearn模型的保存和加載API
from sklearn.externals import joblib
保存:joblib.dump(rf, ‘test.pkl’)
加載:estimator = joblib.load(‘test.pkl’)
2、線性回歸的模型保存加載案例
保存

使用線性模型進行預(yù)測

使用正規(guī)方程求解

lr = LinearRegression()

此時在干什么?

lr.fit(x_train, y_train)

保存訓(xùn)練完結(jié)束的模型

joblib.dump(lr, “test.pkl”)
加載

通過已有的模型去預(yù)測房價

model = joblib.load(“test.pkl”)
print(“從文件加載進來的模型預(yù)測房價的結(jié)果:”, std_y.inverse_transform(model.predict(x_test)))
無監(jiān)督學(xué)習(xí)-K-means算法
學(xué)習(xí)目標(biāo)
目標(biāo)
說明K-means算法原理
說明K-means的性能評估標(biāo)準(zhǔn)輪廓系數(shù)
說明K-means的優(yōu)缺點
應(yīng)用
instacart用戶聚類
回憶非監(jiān)督學(xué)習(xí)的特點?
1、 什么是無監(jiān)督學(xué)習(xí)
人員聚類

一家廣告平臺需要根據(jù)相似的人口學(xué)特征和購買習(xí)慣將美國人口分成不同的小組,以便廣告客戶可以通過有關(guān)聯(lián)的廣告接觸到他們的目標(biāo)客戶。
Airbnb 需要將自己的房屋清單分組成不同的社區(qū),以便用戶能更輕松地查閱這些清單。
一個數(shù)據(jù)科學(xué)團隊需要降低一個大型數(shù)據(jù)集的維度的數(shù)量,以便簡化建模和降低文件大小。
我們可以怎樣最有用地對其進行歸納和分組?我們可以怎樣以一種壓縮格式有效地表征數(shù)據(jù)?這都是無監(jiān)督學(xué)習(xí)的目標(biāo),之所以稱之為無監(jiān)督,是因為這是從無標(biāo)簽的數(shù)據(jù)開始學(xué)習(xí)的。

2、 無監(jiān)督學(xué)習(xí)包含算法
聚類
K-means(K均值聚類)
降維
PCA
3、 K-means原理
我們先來看一下一個K-means的聚類效果圖

K-means如何聚類效果

3.1 K-means聚類步驟
1、隨機設(shè)置K個特征空間內(nèi)的點作為初始的聚類中心
2、對于其他每個點計算到K個中心的距離,未知的點選擇最近的一個聚類中心點作為標(biāo)記類別
3、接著對著標(biāo)記的聚類中心之后,重新計算出每個聚類的新中心點(平均值)
4、如果計算得出的新中心點與原中心點一樣,那么結(jié)束,否則重新進行第二步過程
我們以一張圖來解釋效果

K-means過程分析

4、K-meansAPI
sklearn.cluster.KMeans(n_clusters=8,init=‘k-means++’)
k-means聚類
n_clusters:開始的聚類中心數(shù)量
init:初始化方法,默認(rèn)為’k-means ++’
labels_:默認(rèn)標(biāo)記的類型,可以和真實值比較(不是值比較)
5、 案例:k-means對Instacart Market用戶聚類
5.1 分析
1、降維之后的數(shù)據(jù)
2、k-means聚類
3、聚類結(jié)果顯示
5.2 代碼

取500個用戶進行測試

cust = data[:500]
km = KMeans(n_clusters=4)
km.fit(cust)
pre = km.predict(cust)
問題:如何去評估聚類的效果呢?
6、Kmeans性能評估指標(biāo)
6.1 輪廓系數(shù)
輪廓系數(shù)公式

注:對于每個點i 為已聚類數(shù)據(jù)中的樣本 ,b_i 為i 到其它族群的所有樣本的距離最小值,a_i 為i 到本身簇的距離平均值。最終計算出所有的樣本點的輪廓系數(shù)平均值

6.2 輪廓系數(shù)值分析

分析過程(我們以一個藍(lán)1點為例)

1、計算出藍(lán)1離本身族群所有點的距離的平均值a_i

2、藍(lán)1到其它兩個族群的距離計算出平均值紅平均,綠平均,取最小的那個距離作為b_i

根據(jù)公式:極端值考慮:如果b_i >>a_i: 那么公式結(jié)果趨近于1;如果a_i>>>b_i: 那么公式結(jié)果趨近于-1
6.3 結(jié)論
如果b_i>>a_i:趨近于1效果越好, b_i<<a_i:趨近于-1,效果不好。輪廓系數(shù)的值是介于 [-1,1] ,越趨近于1代表內(nèi)聚度和分離度都相對較優(yōu)。

6.4 輪廓系數(shù)API
sklearn.metrics.silhouette_score(X, labels)
計算所有樣本的平均輪廓系數(shù)
X:特征值
labels:被聚類標(biāo)記的目標(biāo)值
6.5 用戶聚類結(jié)果評估
silhouette_score(cust, pre)
7、K-means總結(jié)
特點分析:采用迭代式算法,直觀易懂并且非常實用
缺點:容易收斂到局部最優(yōu)解(多次聚類)
注意:聚類一般做在分類之前

總結(jié)

以上是生活随笔為你收集整理的机器学习的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

日日干夜夜干 | 国产精品办公室沙发 | 亚洲自偷自拍另类第1页 | 亚洲成a人片在线观看日本 | 国产精品爱久久久久久久 | 欧美日本免费一区二区三区 | 免费无码午夜福利片69 | 无码国产激情在线观看 | 国产性生交xxxxx无码 | 午夜精品久久久久久久 | 国产精品高潮呻吟av久久4虎 | 免费播放一区二区三区 | 人妻尝试又大又粗久久 | 色综合久久中文娱乐网 | 免费无码午夜福利片69 | 国产99久久精品一区二区 | 无码人妻久久一区二区三区不卡 | 亚洲乱码中文字幕在线 | 在线精品亚洲一区二区 | 免费观看黄网站 | 中文精品久久久久人妻不卡 | 波多野结衣乳巨码无在线观看 | 日本www一道久久久免费榴莲 | 亚洲精品国产精品乱码视色 | 精品成在人线av无码免费看 | 久久99精品国产麻豆 | 亚洲综合精品香蕉久久网 | www国产亚洲精品久久网站 | 日韩精品乱码av一区二区 | 一二三四在线观看免费视频 | 久久久成人毛片无码 | 国产成人精品久久亚洲高清不卡 | 东京热一精品无码av | 一本久道高清无码视频 | 国产人妖乱国产精品人妖 | а天堂中文在线官网 | 久久久精品人妻久久影视 | 日日摸夜夜摸狠狠摸婷婷 | 亚洲精品一区二区三区四区五区 | 午夜嘿嘿嘿影院 | 国产精品久久国产三级国 | 无码毛片视频一区二区本码 | 蜜臀av在线播放 久久综合激激的五月天 | 亚拍精品一区二区三区探花 | 2019nv天堂香蕉在线观看 | 乌克兰少妇xxxx做受 | 成人无码影片精品久久久 | 伊人久久大香线蕉午夜 | 伊人久久大香线蕉亚洲 | 国产精品办公室沙发 | 国产va免费精品观看 | 波多野结衣av一区二区全免费观看 | 精品国产一区av天美传媒 | 无码中文字幕色专区 | 色窝窝无码一区二区三区色欲 | 成人性做爰aaa片免费看不忠 | 无码乱肉视频免费大全合集 | 成人无码精品1区2区3区免费看 | 无遮挡国产高潮视频免费观看 | 国产色xx群视频射精 | 偷窥日本少妇撒尿chinese | 女人被男人躁得好爽免费视频 | 国产精品理论片在线观看 | 99久久精品无码一区二区毛片 | 丰满人妻一区二区三区免费视频 | 日日干夜夜干 | 97人妻精品一区二区三区 | 强辱丰满人妻hd中文字幕 | 精品欧美一区二区三区久久久 | 国产色视频一区二区三区 | 在线а√天堂中文官网 | 精品国产一区二区三区av 性色 | 久久国产精品二国产精品 | 99久久婷婷国产综合精品青草免费 | 欧美猛少妇色xxxxx | 激情内射日本一区二区三区 | 大肉大捧一进一出视频出来呀 | 久久综合给久久狠狠97色 | 国产成人精品一区二区在线小狼 | 麻豆精产国品 | 少妇久久久久久人妻无码 | 久久无码中文字幕免费影院蜜桃 | 亚洲人成网站免费播放 | 国产香蕉尹人综合在线观看 | 伦伦影院午夜理论片 | 亚洲精品午夜无码电影网 | 欧美自拍另类欧美综合图片区 | 久久国产精品偷任你爽任你 | 精品国偷自产在线视频 | 国产精品香蕉在线观看 | 亚洲成av人影院在线观看 | 四虎影视成人永久免费观看视频 | 国产艳妇av在线观看果冻传媒 | 国产性生交xxxxx无码 | 亚洲国产欧美在线成人 | 国产性生交xxxxx无码 | 日韩精品乱码av一区二区 | 日本一卡二卡不卡视频查询 | 亚洲欧美精品aaaaaa片 | 国产精品美女久久久久av爽李琼 | 久久久久久久人妻无码中文字幕爆 | 色综合视频一区二区三区 | 亚洲精品久久久久avwww潮水 | √天堂资源地址中文在线 | 国产小呦泬泬99精品 | 日本熟妇大屁股人妻 | 亚洲欧洲日本综合aⅴ在线 | 国产激情无码一区二区 | 我要看www免费看插插视频 | 色婷婷av一区二区三区之红樱桃 | 免费男性肉肉影院 | 国产区女主播在线观看 | 鲁一鲁av2019在线 | 国内揄拍国内精品少妇国语 | 欧美国产日产一区二区 | 欧美激情一区二区三区成人 | 国产人妖乱国产精品人妖 | 妺妺窝人体色www在线小说 | 99re在线播放 | 人妻与老人中文字幕 | 精品久久综合1区2区3区激情 | 久久久久久久久蜜桃 | 国产成人无码区免费内射一片色欲 | 亚洲国产av美女网站 | 国产猛烈高潮尖叫视频免费 | 强奷人妻日本中文字幕 | 亚洲男人av天堂午夜在 | 国产精品久久久久久久影院 | 国产无套粉嫩白浆在线 | 四虎国产精品免费久久 | 亚洲一区二区观看播放 | 久久久久免费精品国产 | 六月丁香婷婷色狠狠久久 | 18禁黄网站男男禁片免费观看 | 大肉大捧一进一出视频出来呀 | 久久国产精品二国产精品 | 国产97人人超碰caoprom | 亚洲熟妇色xxxxx亚洲 | 婷婷五月综合激情中文字幕 | 无码人妻出轨黑人中文字幕 | 少妇的肉体aa片免费 | 日韩亚洲欧美中文高清在线 | 美女黄网站人色视频免费国产 | 3d动漫精品啪啪一区二区中 | 成人三级无码视频在线观看 | 国产97人人超碰caoprom | 国产高潮视频在线观看 | 色综合久久久无码中文字幕 | 未满小14洗澡无码视频网站 | a国产一区二区免费入口 | 国产绳艺sm调教室论坛 | 国产欧美精品一区二区三区 | 好屌草这里只有精品 | 波多野结衣 黑人 | 中国女人内谢69xxxx | 人人爽人人澡人人人妻 | 在线观看国产一区二区三区 | 国产精品对白交换视频 | 日本丰满护士爆乳xxxx | 亚洲综合在线一区二区三区 | 亚洲精品成人av在线 | 波多野结衣一区二区三区av免费 | 国产精品va在线观看无码 | 国产av久久久久精东av | 欧美丰满少妇xxxx性 | 欧美性猛交内射兽交老熟妇 | 国产两女互慰高潮视频在线观看 | 亚洲 另类 在线 欧美 制服 | 精品午夜福利在线观看 | 老太婆性杂交欧美肥老太 | 国产sm调教视频在线观看 | 人人妻人人澡人人爽欧美一区 | 亚洲乱码日产精品bd | 精品厕所偷拍各类美女tp嘘嘘 | 青青久在线视频免费观看 | 亚洲精品欧美二区三区中文字幕 | 六月丁香婷婷色狠狠久久 | 日韩少妇白浆无码系列 | 国产人成高清在线视频99最全资源 | 成人aaa片一区国产精品 | 欧美日本精品一区二区三区 | 国产成人精品视频ⅴa片软件竹菊 | 国产成人无码一二三区视频 | 蜜桃av抽搐高潮一区二区 | 免费无码的av片在线观看 | 久久伊人色av天堂九九小黄鸭 | 久久精品人人做人人综合试看 | 性色av无码免费一区二区三区 | 女人色极品影院 | 久久久久99精品成人片 | 国产69精品久久久久app下载 | 精品水蜜桃久久久久久久 | 国产精品免费大片 | 久久精品中文字幕一区 | 色综合视频一区二区三区 | 亚洲国产午夜精品理论片 | 国产一区二区三区四区五区加勒比 | 国产香蕉尹人视频在线 | 97精品国产97久久久久久免费 | 内射白嫩少妇超碰 | 国产av一区二区三区最新精品 | 露脸叫床粗话东北少妇 | 少妇高潮一区二区三区99 | 久久久成人毛片无码 | 亚洲欧美日韩综合久久久 | 欧美日韩久久久精品a片 | 亚洲中文字幕在线无码一区二区 | 久久综合给合久久狠狠狠97色 | 日韩av激情在线观看 | 国产超级va在线观看视频 | 1000部夫妻午夜免费 | 国产一区二区三区日韩精品 | 色综合久久久无码网中文 | 97色伦图片97综合影院 | 欧美野外疯狂做受xxxx高潮 | 亚洲日本va午夜在线电影 | 日产精品高潮呻吟av久久 | 国产精品视频免费播放 | 无套内谢老熟女 | 国产精品久久久久久亚洲毛片 | 中文亚洲成a人片在线观看 | 日本熟妇人妻xxxxx人hd | 熟妇激情内射com | 成 人影片 免费观看 | av无码久久久久不卡免费网站 | 性欧美牲交在线视频 | 一本无码人妻在中文字幕免费 | 亚洲国产欧美日韩精品一区二区三区 | 大色综合色综合网站 | 国产做国产爱免费视频 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲成av人在线观看网址 | 久久久久免费看成人影片 | 亚洲精品中文字幕久久久久 | 亚洲精品成人福利网站 | 88国产精品欧美一区二区三区 | 亚洲一区二区三区国产精华液 | 无码国内精品人妻少妇 | 亚洲色成人中文字幕网站 | 久久久精品成人免费观看 | 亚洲精品综合一区二区三区在线 | 亚洲人成网站免费播放 | 最新国产麻豆aⅴ精品无码 | 亚洲熟妇色xxxxx欧美老妇y | 大肉大捧一进一出好爽视频 | 日产精品高潮呻吟av久久 | 俄罗斯老熟妇色xxxx | 亚洲一区二区三区含羞草 | 日韩人妻少妇一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 老熟妇乱子伦牲交视频 | 欧美丰满少妇xxxx性 | 久久精品中文字幕一区 | 精品久久久久香蕉网 | 美女毛片一区二区三区四区 | 国产亚洲人成在线播放 | 欧美熟妇另类久久久久久不卡 | 国内精品人妻无码久久久影院蜜桃 | 久久国语露脸国产精品电影 | 性欧美牲交在线视频 | 又大又硬又黄的免费视频 | 国产精品igao视频网 | 内射后入在线观看一区 | 黑人玩弄人妻中文在线 | 大肉大捧一进一出好爽视频 | 亚洲色偷偷男人的天堂 | 99久久精品无码一区二区毛片 | 欧美自拍另类欧美综合图片区 | 久久aⅴ免费观看 | 亚洲国产精品美女久久久久 | 小鲜肉自慰网站xnxx | 少妇愉情理伦片bd | 亚洲色大成网站www | 国产亚洲精品久久久久久久久动漫 | ass日本丰满熟妇pics | 成 人 网 站国产免费观看 | 亚洲色大成网站www | 天天躁夜夜躁狠狠是什么心态 | 欧美日韩人成综合在线播放 | 成 人 免费观看网站 | 精品乱子伦一区二区三区 | 中文字幕日韩精品一区二区三区 | 久久精品丝袜高跟鞋 | 精品欧美一区二区三区久久久 | 亚洲精品国产第一综合99久久 | 国产av一区二区精品久久凹凸 | 国产精品成人av在线观看 | 欧美一区二区三区视频在线观看 | 亚洲男女内射在线播放 | 成人影院yy111111在线观看 | 久久国产精品偷任你爽任你 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产精品久久久久久久影院 | 久久亚洲中文字幕无码 | 欧美日韩人成综合在线播放 | 日韩欧美成人免费观看 | 国产三级精品三级男人的天堂 | 日韩少妇内射免费播放 | 天下第一社区视频www日本 | 成人三级无码视频在线观看 | 四虎影视成人永久免费观看视频 | 成人免费视频一区二区 | 久久午夜夜伦鲁鲁片无码免费 | 国产精品久久久久9999小说 | 久久久久亚洲精品男人的天堂 | 中文字幕乱码亚洲无线三区 | 三上悠亚人妻中文字幕在线 | 日本熟妇人妻xxxxx人hd | 久久久久成人片免费观看蜜芽 | 精品夜夜澡人妻无码av蜜桃 | 日日碰狠狠丁香久燥 | 精品无码国产自产拍在线观看蜜 | 伊在人天堂亚洲香蕉精品区 | 嫩b人妻精品一区二区三区 | 国产办公室秘书无码精品99 | 精品国产av色一区二区深夜久久 | 亚洲成av人影院在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 激情内射日本一区二区三区 | 狂野欧美性猛交免费视频 | 午夜理论片yy44880影院 | 欧洲熟妇精品视频 | 天天av天天av天天透 | 精品欧美一区二区三区久久久 | 丰满少妇高潮惨叫视频 | 亚洲精品国产a久久久久久 | 成人片黄网站色大片免费观看 | 无码av免费一区二区三区试看 | 日日摸日日碰夜夜爽av | 国产成人综合在线女婷五月99播放 | 天天摸天天碰天天添 | av在线亚洲欧洲日产一区二区 | 爽爽影院免费观看 | 性欧美牲交xxxxx视频 | 国产熟妇另类久久久久 | 国产精品无码一区二区桃花视频 | 国产99久久精品一区二区 | 夜精品a片一区二区三区无码白浆 | 国产成人无码av一区二区 | 成熟女人特级毛片www免费 | 国产网红无码精品视频 | 两性色午夜免费视频 | 67194成是人免费无码 | 国产精品自产拍在线观看 | 99久久久国产精品无码免费 | 67194成是人免费无码 | 老太婆性杂交欧美肥老太 | 精品日本一区二区三区在线观看 | 鲁一鲁av2019在线 | 日本一区二区更新不卡 | 波多野结衣av在线观看 | 久久综合给久久狠狠97色 | 久久午夜无码鲁丝片午夜精品 | 亚洲国产午夜精品理论片 | 青草青草久热国产精品 | 1000部夫妻午夜免费 | 亚洲 另类 在线 欧美 制服 | 熟女少妇人妻中文字幕 | 人人妻人人澡人人爽欧美精品 | 国产做国产爱免费视频 | 人妻少妇精品无码专区二区 | 国产两女互慰高潮视频在线观看 | 精品久久久中文字幕人妻 | 国产成人精品视频ⅴa片软件竹菊 | 色五月五月丁香亚洲综合网 | 亚洲性无码av中文字幕 | 女人色极品影院 | 99久久99久久免费精品蜜桃 | 成 人影片 免费观看 | 成人亚洲精品久久久久 | 在线成人www免费观看视频 | 久久国产36精品色熟妇 | 亚洲天堂2017无码中文 | 久久久久成人片免费观看蜜芽 | 欧美 日韩 亚洲 在线 | 国产又爽又猛又粗的视频a片 | 亚洲啪av永久无码精品放毛片 | 亚洲а∨天堂久久精品2021 | 精品人妻人人做人人爽 | 久久亚洲中文字幕精品一区 | 在线播放免费人成毛片乱码 | 精品 日韩 国产 欧美 视频 | 日日噜噜噜噜夜夜爽亚洲精品 | 久久这里只有精品视频9 | 欧美真人作爱免费视频 | 爆乳一区二区三区无码 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | aⅴ亚洲 日韩 色 图网站 播放 | 久久久久免费看成人影片 | 内射巨臀欧美在线视频 | 成人精品一区二区三区中文字幕 | 亚洲熟妇自偷自拍另类 | 女人被爽到呻吟gif动态图视看 | 国产一区二区不卡老阿姨 | 国产亚洲精品久久久ai换 | 最近免费中文字幕中文高清百度 | 国产乱人偷精品人妻a片 | 精品一区二区三区无码免费视频 | 大乳丰满人妻中文字幕日本 | 国产精品鲁鲁鲁 | 纯爱无遮挡h肉动漫在线播放 | 精品 日韩 国产 欧美 视频 | 国产成人无码专区 | 日本乱人伦片中文三区 | 国产一区二区三区四区五区加勒比 | 日日夜夜撸啊撸 | 无遮挡国产高潮视频免费观看 | 国产凸凹视频一区二区 | 亚洲精品一区二区三区四区五区 | 久久久亚洲欧洲日产国码αv | 99久久精品国产一区二区蜜芽 | 亚洲男女内射在线播放 | 国产精品久久久久无码av色戒 | 中文亚洲成a人片在线观看 | 午夜福利试看120秒体验区 | 亚洲中文字幕久久无码 | 中文字幕日产无线码一区 | 国产真人无遮挡作爱免费视频 | 欧美精品无码一区二区三区 | 国产人成高清在线视频99最全资源 | 搡女人真爽免费视频大全 | 疯狂三人交性欧美 | 色一情一乱一伦一视频免费看 | 久久久国产精品无码免费专区 | 国产真实伦对白全集 | 久久国产36精品色熟妇 | 日韩精品久久久肉伦网站 | 国产香蕉尹人综合在线观看 | 激情亚洲一区国产精品 | 少妇性荡欲午夜性开放视频剧场 | 亚洲乱码日产精品bd | 性做久久久久久久久 | 色噜噜亚洲男人的天堂 | 国产电影无码午夜在线播放 | 精品国偷自产在线 | 国内揄拍国内精品人妻 | 久久久亚洲欧洲日产国码αv | 国产精品无码一区二区桃花视频 | 女人被男人爽到呻吟的视频 | 亚洲中文字幕av在天堂 | 激情综合激情五月俺也去 | 爱做久久久久久 | 日本又色又爽又黄的a片18禁 | 丰满诱人的人妻3 | 国产精品人人妻人人爽 | 欧美黑人乱大交 | 亚洲熟悉妇女xxx妇女av | 无码一区二区三区在线观看 | 日本护士毛茸茸高潮 | 国产精品99爱免费视频 | 国产一精品一av一免费 | 无码毛片视频一区二区本码 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲综合色区中文字幕 | 中文字幕无码日韩专区 | 久久久国产精品无码免费专区 | 亚洲日本va午夜在线电影 | 国产综合在线观看 | 日本熟妇大屁股人妻 | 2020久久香蕉国产线看观看 | 少妇愉情理伦片bd | 亚洲一区二区三区偷拍女厕 | 永久免费观看美女裸体的网站 | 亚洲一区二区三区播放 | 国产精品嫩草久久久久 | 男女超爽视频免费播放 | 亚洲精品一区国产 | 成熟人妻av无码专区 | 无码帝国www无码专区色综合 | 大色综合色综合网站 | 图片区 小说区 区 亚洲五月 | 少妇厨房愉情理9仑片视频 | 波多野结衣高清一区二区三区 | 欧美日韩一区二区三区自拍 | 亚洲综合无码久久精品综合 | 亚洲精品成人福利网站 | 三上悠亚人妻中文字幕在线 | 波多野结衣高清一区二区三区 | 久久精品国产精品国产精品污 | 一区二区三区乱码在线 | 欧洲 | 国产综合在线观看 | 欧美老人巨大xxxx做受 | 久久久久久亚洲精品a片成人 | 色 综合 欧美 亚洲 国产 | 亚洲精品国偷拍自产在线观看蜜桃 | 丰满少妇人妻久久久久久 | 久久久久人妻一区精品色欧美 | 精品无人国产偷自产在线 | 精品亚洲韩国一区二区三区 | 亚洲色大成网站www国产 | 秋霞特色aa大片 | 欧美老妇交乱视频在线观看 | 永久免费观看美女裸体的网站 | 成人欧美一区二区三区黑人 | 精品一区二区不卡无码av | 亚洲欧美精品伊人久久 | 欧美激情一区二区三区成人 | 中文亚洲成a人片在线观看 | www国产亚洲精品久久网站 | 十八禁视频网站在线观看 | 97久久国产亚洲精品超碰热 | 亚洲欧美日韩国产精品一区二区 | 人妻少妇被猛烈进入中文字幕 | 中文字幕人成乱码熟女app | 性生交片免费无码看人 | 亚洲第一网站男人都懂 | 无码人妻丰满熟妇区毛片18 | 国产成人精品三级麻豆 | 中文精品久久久久人妻不卡 | 人妻有码中文字幕在线 | 强开小婷嫩苞又嫩又紧视频 | 亚洲欧洲中文日韩av乱码 | 国内老熟妇对白xxxxhd | 欧美第一黄网免费网站 | 国产一区二区三区日韩精品 | 日韩视频 中文字幕 视频一区 | 欧美黑人巨大xxxxx | 国产人妻精品一区二区三区不卡 | 国产精品igao视频网 | 亚洲 欧美 激情 小说 另类 | 人人妻人人藻人人爽欧美一区 | 亚洲精品国产精品乱码不卡 | 国产精品成人av在线观看 | 波多野42部无码喷潮在线 | 精品国产麻豆免费人成网站 | 国产精品二区一区二区aⅴ污介绍 | 欧美一区二区三区视频在线观看 | 亚洲精品久久久久久久久久久 | 欧美日韩亚洲国产精品 | 欧美日韩色另类综合 | 久久久av男人的天堂 | 大肉大捧一进一出好爽视频 | 无码人妻出轨黑人中文字幕 | 中文字幕 人妻熟女 | 亚洲午夜久久久影院 | 天天爽夜夜爽夜夜爽 | 一本久久a久久精品vr综合 | 久久99精品久久久久久动态图 | 国产精品无码mv在线观看 | 亚拍精品一区二区三区探花 | 亚洲色欲色欲天天天www | 国产成人精品一区二区在线小狼 | 欧美国产日韩久久mv | 激情亚洲一区国产精品 | 久久亚洲中文字幕精品一区 | 在线观看国产午夜福利片 | aⅴ在线视频男人的天堂 | 国产成人精品久久亚洲高清不卡 | 久久视频在线观看精品 | 日韩欧美中文字幕公布 | 丝袜足控一区二区三区 | 国产熟妇高潮叫床视频播放 | 国产成人无码专区 | 男女性色大片免费网站 | 熟妇激情内射com | 国产亚洲精品久久久久久国模美 | 999久久久国产精品消防器材 | 人人妻人人澡人人爽人人精品 | 国产精品久久久久影院嫩草 | 熟女俱乐部五十路六十路av | a片免费视频在线观看 | 久久综合久久自在自线精品自 | 天天摸天天透天天添 | 精品水蜜桃久久久久久久 | 亚洲综合色区中文字幕 | 国内精品久久毛片一区二区 | 又黄又爽又色的视频 | 欧美日韩视频无码一区二区三 | 亚洲日韩av片在线观看 | 国产三级精品三级男人的天堂 | 老子影院午夜精品无码 | 久久无码人妻影院 | 国产精品久久久久久久影院 | 性色av无码免费一区二区三区 | 中文无码伦av中文字幕 | 久久久亚洲欧洲日产国码αv | 国产免费无码一区二区视频 | 人人爽人人爽人人片av亚洲 | 少妇性l交大片欧洲热妇乱xxx | 国产偷国产偷精品高清尤物 | 亚洲人成网站免费播放 | 国精产品一区二区三区 | av在线亚洲欧洲日产一区二区 | 99精品无人区乱码1区2区3区 | 久久国产精品偷任你爽任你 | 无码帝国www无码专区色综合 | 99视频精品全部免费免费观看 | 亚洲一区二区三区含羞草 | 亚洲欧美日韩成人高清在线一区 | 国内精品九九久久久精品 | 亚洲 欧美 激情 小说 另类 | 国产特级毛片aaaaaa高潮流水 | 亚洲成av人片在线观看无码不卡 | 免费观看的无遮挡av | 中文字幕乱码人妻无码久久 | 国产精品无码成人午夜电影 | 亚洲日韩精品欧美一区二区 | 丝袜人妻一区二区三区 | 国产va免费精品观看 | 午夜男女很黄的视频 | 国产成人无码午夜视频在线观看 | 97色伦图片97综合影院 | 亚洲色欲色欲欲www在线 | 中文字幕乱码人妻二区三区 | 亚洲伊人久久精品影院 | 国产真实乱对白精彩久久 | 精品aⅴ一区二区三区 | 日本丰满熟妇videos | 午夜精品久久久久久久 | 成年美女黄网站色大免费全看 | 人人澡人人透人人爽 | 日韩av无码一区二区三区不卡 | 无码午夜成人1000部免费视频 | 日日摸天天摸爽爽狠狠97 | 国产免费无码一区二区视频 | 麻豆国产丝袜白领秘书在线观看 | 亚洲天堂2017无码中文 | 人人妻人人澡人人爽欧美精品 | 青青久在线视频免费观看 | 久久精品中文字幕一区 | 97人妻精品一区二区三区 | 久久亚洲中文字幕精品一区 | 激情五月综合色婷婷一区二区 | 国产成人午夜福利在线播放 | 成人亚洲精品久久久久 | 亚洲色欲色欲欲www在线 | 久久zyz资源站无码中文动漫 | 国产亚洲精品久久久闺蜜 | 18黄暴禁片在线观看 | 精品成人av一区二区三区 | 色综合久久88色综合天天 | 无码纯肉视频在线观看 | 免费观看又污又黄的网站 | 国产片av国语在线观看 | 亚洲男人av天堂午夜在 | 国产亚洲精品久久久久久久久动漫 | 未满成年国产在线观看 | 无码播放一区二区三区 | 四虎影视成人永久免费观看视频 | 午夜无码人妻av大片色欲 | 欧美第一黄网免费网站 | 奇米影视7777久久精品 | 三上悠亚人妻中文字幕在线 | 国产精品igao视频网 | www国产精品内射老师 | www成人国产高清内射 | 欧美肥老太牲交大战 | 国产精品99爱免费视频 | 国产精品无套呻吟在线 | 一区二区三区乱码在线 | 欧洲 | 国产人妻久久精品二区三区老狼 | 国产av一区二区精品久久凹凸 | 99er热精品视频 | 真人与拘做受免费视频一 | 九九热爱视频精品 | 国产真实夫妇视频 | 成人欧美一区二区三区黑人 | 夜夜高潮次次欢爽av女 | 4hu四虎永久在线观看 | 欧美freesex黑人又粗又大 | 俄罗斯老熟妇色xxxx | 国产亚洲tv在线观看 | 亚洲国产高清在线观看视频 | 999久久久国产精品消防器材 | 扒开双腿吃奶呻吟做受视频 | 波多野结衣高清一区二区三区 | 日韩精品一区二区av在线 | 内射爽无广熟女亚洲 | 麻豆成人精品国产免费 | 免费观看又污又黄的网站 | 99久久久国产精品无码免费 | 精品aⅴ一区二区三区 | 国产九九九九九九九a片 | √8天堂资源地址中文在线 | 国产在线一区二区三区四区五区 | 成人女人看片免费视频放人 | 无人区乱码一区二区三区 | 麻豆国产人妻欲求不满 | 荫蒂被男人添的好舒服爽免费视频 | 人妻无码αv中文字幕久久琪琪布 | 5858s亚洲色大成网站www | 欧美日本日韩 | 日本高清一区免费中文视频 | 日欧一片内射va在线影院 | 国产区女主播在线观看 | 久久亚洲a片com人成 | 日韩精品乱码av一区二区 | 日日摸日日碰夜夜爽av | 久久久久亚洲精品中文字幕 | 国产莉萝无码av在线播放 | 精品水蜜桃久久久久久久 | 亚洲 激情 小说 另类 欧美 | 亚洲成色www久久网站 | 久久久久久亚洲精品a片成人 | 乱人伦人妻中文字幕无码 | 台湾无码一区二区 | av无码电影一区二区三区 | 国产精品久久久一区二区三区 | 免费无码午夜福利片69 | 伊人久久大香线蕉av一区二区 | 日本大香伊一区二区三区 | 久久综合网欧美色妞网 | 丰满妇女强制高潮18xxxx | 成人一在线视频日韩国产 | 国产sm调教视频在线观看 | 久久久中文字幕日本无吗 | 乱人伦人妻中文字幕无码久久网 | 国产亚洲精品精品国产亚洲综合 | 国产av一区二区三区最新精品 | 性欧美大战久久久久久久 | 久久国产自偷自偷免费一区调 | av无码久久久久不卡免费网站 | 国产午夜亚洲精品不卡下载 | 波多野结衣乳巨码无在线观看 | 激情人妻另类人妻伦 | 国产一区二区三区日韩精品 | 国产精品第一区揄拍无码 | 久久精品成人欧美大片 | 成人性做爰aaa片免费看 | 377p欧洲日本亚洲大胆 | 久久人人97超碰a片精品 | 中文字幕无码免费久久9一区9 | 久久久久久亚洲精品a片成人 | 精品无码成人片一区二区98 | 老子影院午夜伦不卡 | 国产无套内射久久久国产 | 欧美 丝袜 自拍 制服 另类 | 乱码午夜-极国产极内射 | 久久人人爽人人爽人人片ⅴ | 亚洲aⅴ无码成人网站国产app | 久久国产36精品色熟妇 | 亚洲精品国产精品乱码视色 | 婷婷五月综合缴情在线视频 | 97久久国产亚洲精品超碰热 | 国产一区二区不卡老阿姨 | 俺去俺来也www色官网 | 六月丁香婷婷色狠狠久久 | 激情国产av做激情国产爱 | 久久久久99精品成人片 | av人摸人人人澡人人超碰下载 | 在线观看欧美一区二区三区 | 欧美老妇与禽交 | 青青草原综合久久大伊人精品 | 99久久久国产精品无码免费 | 色诱久久久久综合网ywww | 国产乱人伦av在线无码 | 国产成人精品视频ⅴa片软件竹菊 | 在线播放亚洲第一字幕 | 最近免费中文字幕中文高清百度 | 成人精品天堂一区二区三区 | 亚洲小说图区综合在线 | 国产成人久久精品流白浆 | 欧美日韩综合一区二区三区 | 成人精品一区二区三区中文字幕 | 国产色视频一区二区三区 | 国产免费无码一区二区视频 | 亚洲人交乣女bbw | 99久久久无码国产aaa精品 | 丰满少妇女裸体bbw | 又大又硬又黄的免费视频 | 真人与拘做受免费视频 | 亚洲欧美日韩综合久久久 | 免费观看激色视频网站 | 免费乱码人妻系列无码专区 | 精品国偷自产在线视频 | 日韩亚洲欧美中文高清在线 | 一个人看的www免费视频在线观看 | 熟妇激情内射com | 牛和人交xxxx欧美 | 久久综合九色综合欧美狠狠 | 午夜性刺激在线视频免费 | 欧美 丝袜 自拍 制服 另类 | 国产在线精品一区二区三区直播 | 亚洲精品国偷拍自产在线麻豆 | 中文亚洲成a人片在线观看 | 国产精品办公室沙发 | 色婷婷欧美在线播放内射 | 少妇高潮一区二区三区99 | 日韩欧美成人免费观看 | 欧美老人巨大xxxx做受 | 久久国产精品偷任你爽任你 | 荫蒂被男人添的好舒服爽免费视频 | 日本一区二区更新不卡 | 国产精品丝袜黑色高跟鞋 | 亚洲va欧美va天堂v国产综合 | 老熟女重囗味hdxx69 | 久久亚洲中文字幕无码 | 激情国产av做激情国产爱 | 久久精品国产99精品亚洲 | 久久99精品久久久久婷婷 | 亚洲欧美国产精品久久 | 久久精品99久久香蕉国产色戒 | 又湿又紧又大又爽a视频国产 | 图片小说视频一区二区 | 在线 国产 欧美 亚洲 天堂 | 88国产精品欧美一区二区三区 | 免费看少妇作爱视频 | 欧美人与牲动交xxxx | 男女猛烈xx00免费视频试看 | 国产美女极度色诱视频www | 男人的天堂2018无码 | 久久久久久av无码免费看大片 | 无码av免费一区二区三区试看 | 久久午夜无码鲁丝片午夜精品 | 98国产精品综合一区二区三区 | 久久久久国色av免费观看性色 | 人人妻在人人 | 精品无码av一区二区三区 | 未满成年国产在线观看 | 日产国产精品亚洲系列 | 国产三级久久久精品麻豆三级 | 成熟妇人a片免费看网站 | 天堂久久天堂av色综合 | 国产香蕉尹人综合在线观看 | www一区二区www免费 | 欧美自拍另类欧美综合图片区 | 俺去俺来也在线www色官网 | 久久综合九色综合97网 | 成人欧美一区二区三区黑人免费 | 精品偷拍一区二区三区在线看 | 亚洲综合伊人久久大杳蕉 | 精品国产一区二区三区四区在线看 | 国产免费久久精品国产传媒 | 日韩亚洲欧美精品综合 | 国产亚洲精品久久久久久 | 少妇厨房愉情理9仑片视频 | 国产综合在线观看 | 色综合久久网 | 欧美真人作爱免费视频 | 中文字幕无码热在线视频 | 国产偷抇久久精品a片69 | 国产亚洲精品久久久闺蜜 | 国产热a欧美热a在线视频 | 国产亚洲精品久久久ai换 | 国产在线精品一区二区三区直播 | 男女猛烈xx00免费视频试看 | 亚洲精品无码国产 | 亚洲娇小与黑人巨大交 | 国产性生大片免费观看性 | 国产亚洲精品久久久久久久久动漫 | 丝袜足控一区二区三区 | 成人aaa片一区国产精品 | 装睡被陌生人摸出水好爽 | 免费男性肉肉影院 | 国产激情无码一区二区 | 爽爽影院免费观看 | 亚洲自偷精品视频自拍 | 天堂а√在线地址中文在线 | 久久久久av无码免费网 | 思思久久99热只有频精品66 | 少妇高潮喷潮久久久影院 | 最近免费中文字幕中文高清百度 | 午夜精品久久久久久久 | 欧美丰满熟妇xxxx性ppx人交 | 久久亚洲国产成人精品性色 | 男人的天堂2018无码 | 一本大道久久东京热无码av | 国产精品视频免费播放 | 性啪啪chinese东北女人 | 四虎国产精品免费久久 | 少妇性俱乐部纵欲狂欢电影 | 国产亚洲精品久久久久久大师 | 国产另类ts人妖一区二区 | 国产精品亚洲а∨无码播放麻豆 | 亚洲成a人片在线观看无码3d | 无套内谢的新婚少妇国语播放 | 亚洲伊人久久精品影院 | 无遮无挡爽爽免费视频 | 亚洲毛片av日韩av无码 | 久久精品中文字幕一区 | 婷婷五月综合缴情在线视频 | 亚洲国产一区二区三区在线观看 | 欧美放荡的少妇 | 特大黑人娇小亚洲女 | 日本一卡2卡3卡四卡精品网站 | 国产熟女一区二区三区四区五区 | 国产一区二区三区精品视频 | 日产精品99久久久久久 | 日韩成人一区二区三区在线观看 | 亚洲熟妇自偷自拍另类 | 亚洲欧美国产精品专区久久 | 久久精品99久久香蕉国产色戒 | 亚洲日韩中文字幕在线播放 | 少妇激情av一区二区 | 99久久久无码国产精品免费 | 国产成人精品视频ⅴa片软件竹菊 | 久久午夜无码鲁丝片 | 色欲人妻aaaaaaa无码 | 亚洲国产精品无码久久久久高潮 | 99精品视频在线观看免费 | 免费人成网站视频在线观看 | 成人精品天堂一区二区三区 | 国产精品亚洲一区二区三区喷水 | 国产免费无码一区二区视频 | 又粗又大又硬又长又爽 | 国产亚洲精品久久久久久大师 | 熟妇女人妻丰满少妇中文字幕 | 女人被男人爽到呻吟的视频 | 十八禁真人啪啪免费网站 | 理论片87福利理论电影 | 少妇高潮喷潮久久久影院 | 久久人人爽人人爽人人片ⅴ | 一本久久a久久精品亚洲 | 蜜桃视频插满18在线观看 | 玩弄少妇高潮ⅹxxxyw | 国内少妇偷人精品视频 | 伊人久久大香线蕉亚洲 | 色欲人妻aaaaaaa无码 | 欧美亚洲日韩国产人成在线播放 | 欧美精品国产综合久久 | 中文字幕乱妇无码av在线 | 狠狠色丁香久久婷婷综合五月 | 久久精品人妻少妇一区二区三区 | 亚洲精品国偷拍自产在线麻豆 | 国产在热线精品视频 | 久9re热视频这里只有精品 | 精品 日韩 国产 欧美 视频 | 欧美日本日韩 | 国产精品美女久久久网av | 亚拍精品一区二区三区探花 | 国产成人无码av一区二区 | 国产成人午夜福利在线播放 | 欧美 丝袜 自拍 制服 另类 | 久久久精品人妻久久影视 | 亚洲色大成网站www国产 | 激情国产av做激情国产爱 | 性生交片免费无码看人 | 久久久www成人免费毛片 | 国语自产偷拍精品视频偷 | 国产人妻精品一区二区三区不卡 | 国产精品va在线观看无码 | 樱花草在线播放免费中文 | 久久国内精品自在自线 | 亚洲自偷自拍另类第1页 | 图片小说视频一区二区 | 欧美国产日韩久久mv | 狠狠cao日日穞夜夜穞av | 粉嫩少妇内射浓精videos | 中文字幕+乱码+中文字幕一区 | 四虎永久在线精品免费网址 | 天堂久久天堂av色综合 | 国产熟妇另类久久久久 | 中文字幕无码热在线视频 | 强伦人妻一区二区三区视频18 | 永久免费精品精品永久-夜色 | 麻豆果冻传媒2021精品传媒一区下载 | 久久无码中文字幕免费影院蜜桃 | 国产综合在线观看 | 午夜精品久久久久久久 | 人人超人人超碰超国产 | 六十路熟妇乱子伦 | 扒开双腿疯狂进出爽爽爽视频 | 精品久久久久香蕉网 | 日本爽爽爽爽爽爽在线观看免 | 国产高潮视频在线观看 | 国产国产精品人在线视 | 1000部啪啪未满十八勿入下载 | 伦伦影院午夜理论片 | 亚洲成av人影院在线观看 | 色综合久久88色综合天天 | 亚洲精品久久久久久久久久久 | 成熟人妻av无码专区 | 欧美喷潮久久久xxxxx | 在线播放无码字幕亚洲 | 日产精品高潮呻吟av久久 | 精品日本一区二区三区在线观看 | 成在人线av无码免观看麻豆 | 大胆欧美熟妇xx | 美女扒开屁股让男人桶 | 国产激情无码一区二区app | 人妻天天爽夜夜爽一区二区 | 一个人免费观看的www视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 欧洲vodafone精品性 | 狠狠色噜噜狠狠狠狠7777米奇 | 成人免费视频视频在线观看 免费 | 67194成是人免费无码 | 欧美人与物videos另类 | 欧美人与善在线com | 88国产精品欧美一区二区三区 | 在线 国产 欧美 亚洲 天堂 | 成在人线av无码免费 | 乌克兰少妇xxxx做受 | 成人欧美一区二区三区黑人免费 | 东京一本一道一二三区 | 国产激情无码一区二区app | 国产免费观看黄av片 | 波多野结衣高清一区二区三区 | 精品无码一区二区三区的天堂 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | √天堂中文官网8在线 | 一区二区三区高清视频一 | 久久99精品久久久久久动态图 | 亚洲国产成人a精品不卡在线 | 好男人www社区 | 国产亚av手机在线观看 | 精品乱子伦一区二区三区 | 免费视频欧美无人区码 | 成人影院yy111111在线观看 | 成人女人看片免费视频放人 | 国产精品人人爽人人做我的可爱 | 午夜肉伦伦影院 | 亚洲色无码一区二区三区 | 娇妻被黑人粗大高潮白浆 | 国产suv精品一区二区五 | 天海翼激烈高潮到腰振不止 | 青春草在线视频免费观看 | 丰满人妻翻云覆雨呻吟视频 | ass日本丰满熟妇pics | 日日摸日日碰夜夜爽av | 国产三级久久久精品麻豆三级 | 青春草在线视频免费观看 | 亚洲欧美日韩综合久久久 | 亚洲成在人网站无码天堂 | 女人高潮内射99精品 | 亚洲人成无码网www | 国产真人无遮挡作爱免费视频 | 在线欧美精品一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 久久亚洲精品中文字幕无男同 | 亚洲色www成人永久网址 | 亚洲精品国产a久久久久久 | 在线看片无码永久免费视频 | 国产av无码专区亚洲awww | 国产艳妇av在线观看果冻传媒 | 对白脏话肉麻粗话av | 久久人人爽人人人人片 | 亚洲另类伦春色综合小说 | 亚洲va欧美va天堂v国产综合 | 久在线观看福利视频 | 欧美丰满熟妇xxxx性ppx人交 | 国产无套内射久久久国产 | 疯狂三人交性欧美 | 狂野欧美激情性xxxx | 六十路熟妇乱子伦 | 国产精品怡红院永久免费 | 国产精品亚洲一区二区三区喷水 | 啦啦啦www在线观看免费视频 | 欧美人与物videos另类 | 无码纯肉视频在线观看 | 女人被男人躁得好爽免费视频 | 免费观看激色视频网站 | 秋霞成人午夜鲁丝一区二区三区 | av无码不卡在线观看免费 | 97久久超碰中文字幕 | 国产亚洲精品久久久久久大师 | 在线 国产 欧美 亚洲 天堂 | 国产精品永久免费视频 | 无码任你躁久久久久久久 | 爆乳一区二区三区无码 | 欧美丰满少妇xxxx性 | 荫蒂被男人添的好舒服爽免费视频 | 国精产品一品二品国精品69xx | 荫蒂被男人添的好舒服爽免费视频 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产sm调教视频在线观看 | 欧美精品无码一区二区三区 | 理论片87福利理论电影 | 国产av一区二区三区最新精品 | 小sao货水好多真紧h无码视频 | 扒开双腿疯狂进出爽爽爽视频 | 奇米影视7777久久精品 | 亚洲精品一区二区三区在线观看 | 国产美女极度色诱视频www | 国产精品人妻一区二区三区四 | 国产va免费精品观看 | 午夜精品一区二区三区的区别 | 亚洲成a人片在线观看日本 | 奇米影视7777久久精品 | 久久久久久亚洲精品a片成人 | 亚洲一区二区三区在线观看网站 | 无码一区二区三区在线观看 | 熟妇人妻无乱码中文字幕 | 亚洲综合久久一区二区 | 国产欧美精品一区二区三区 | 美女扒开屁股让男人桶 | 亚洲午夜福利在线观看 | 在线视频网站www色 | 婷婷五月综合激情中文字幕 | 亚洲国产成人av在线观看 | 久久久中文久久久无码 | 国产精品人人妻人人爽 | 精品久久久中文字幕人妻 | 日韩精品一区二区av在线 | 国产精品久久国产三级国 | 无遮无挡爽爽免费视频 | 久久精品国产精品国产精品污 | 亚洲精品一区二区三区在线 | 玩弄中年熟妇正在播放 | 亚洲精品一区二区三区大桥未久 | 日本欧美一区二区三区乱码 | 国产精品丝袜黑色高跟鞋 | 日本熟妇人妻xxxxx人hd | 国产麻豆精品精东影业av网站 | 蜜臀aⅴ国产精品久久久国产老师 | 国产亚洲人成a在线v网站 | 秋霞特色aa大片 | 老司机亚洲精品影院无码 | 中文字幕乱妇无码av在线 | 成人免费视频视频在线观看 免费 | 亚洲日本在线电影 | 波多野42部无码喷潮在线 | 成人无码影片精品久久久 | 国产猛烈高潮尖叫视频免费 | 亚洲国产精品一区二区美利坚 | 成人无码视频在线观看网站 | 色诱久久久久综合网ywww | 成人片黄网站色大片免费观看 | 岛国片人妻三上悠亚 | 青春草在线视频免费观看 | 久久精品国产一区二区三区 | 欧美zoozzooz性欧美 | 久久国产自偷自偷免费一区调 | 国产精品永久免费视频 | 欧美成人高清在线播放 | 日韩少妇内射免费播放 | 四虎4hu永久免费 | 亚洲欧美国产精品专区久久 | 国产精品丝袜黑色高跟鞋 | 色婷婷av一区二区三区之红樱桃 | 国产成人精品视频ⅴa片软件竹菊 | 婷婷丁香五月天综合东京热 | 国产精品人人爽人人做我的可爱 | 亚洲 欧美 激情 小说 另类 | 亚洲精品综合一区二区三区在线 | 一本色道久久综合亚洲精品不卡 | 强伦人妻一区二区三区视频18 | 国产明星裸体无码xxxx视频 | 成人综合网亚洲伊人 | 亚洲人成人无码网www国产 | 美女扒开屁股让男人桶 | 欧美性猛交xxxx富婆 | 人妻有码中文字幕在线 | www国产亚洲精品久久久日本 | 秋霞成人午夜鲁丝一区二区三区 | 婷婷五月综合缴情在线视频 | 久久久久久久人妻无码中文字幕爆 | 人妻有码中文字幕在线 | 国产精品内射视频免费 | 欧洲美熟女乱又伦 | 红桃av一区二区三区在线无码av | 午夜精品一区二区三区在线观看 | 在教室伦流澡到高潮hnp视频 | 真人与拘做受免费视频 | 亚洲s色大片在线观看 | 日本爽爽爽爽爽爽在线观看免 | 亚洲国产精品久久久天堂 | 国产高潮视频在线观看 | 久久国产精品偷任你爽任你 | 婷婷丁香五月天综合东京热 | 亚洲中文字幕av在天堂 | 亚洲国产欧美在线成人 | 中文字幕人妻无码一区二区三区 | 国产午夜亚洲精品不卡下载 | 18无码粉嫩小泬无套在线观看 | 欧美 日韩 人妻 高清 中文 | 露脸叫床粗话东北少妇 | 一本一道久久综合久久 | 久久久国产一区二区三区 | 国产成人一区二区三区在线观看 | 图片区 小说区 区 亚洲五月 | 免费网站看v片在线18禁无码 | 伊人久久大香线蕉午夜 | 国产乱子伦视频在线播放 | 久久午夜夜伦鲁鲁片无码免费 | yw尤物av无码国产在线观看 | 亚洲色在线无码国产精品不卡 | 久久99精品国产.久久久久 | 无码播放一区二区三区 | 荫蒂被男人添的好舒服爽免费视频 | 少妇高潮喷潮久久久影院 | 人人妻人人澡人人爽人人精品浪潮 | 日本高清一区免费中文视频 | 久久精品视频在线看15 | 中文字幕 亚洲精品 第1页 | 亚洲精品一区二区三区大桥未久 | 日本爽爽爽爽爽爽在线观看免 | 在线精品亚洲一区二区 | 强伦人妻一区二区三区视频18 | 国产69精品久久久久app下载 | 丰满人妻翻云覆雨呻吟视频 | 国产精品亚洲一区二区三区喷水 | 亚洲国产精品一区二区美利坚 | 精品无码一区二区三区的天堂 | 精品国产国产综合精品 | 欧美猛少妇色xxxxx | 在线看片无码永久免费视频 | 久久精品国产亚洲精品 | 女人被男人爽到呻吟的视频 | 少妇无码av无码专区在线观看 | 丰满少妇熟乱xxxxx视频 | 国内丰满熟女出轨videos | 性生交片免费无码看人 | 中文字幕亚洲情99在线 | 国产熟妇高潮叫床视频播放 | 亚洲综合无码久久精品综合 | 亚洲日韩乱码中文无码蜜桃臀网站 | 东京无码熟妇人妻av在线网址 | 亚洲s码欧洲m码国产av | 最新国产麻豆aⅴ精品无码 | 亚洲精品欧美二区三区中文字幕 | 国内综合精品午夜久久资源 | 国产av无码专区亚洲awww | 亚洲日本在线电影 | 久久99精品国产麻豆 | 男女超爽视频免费播放 | 高清不卡一区二区三区 | 成 人 网 站国产免费观看 | 久久国产精品偷任你爽任你 | 久久久久人妻一区精品色欧美 | 久久亚洲国产成人精品性色 | 无码国产色欲xxxxx视频 | 欧美 日韩 人妻 高清 中文 | 午夜性刺激在线视频免费 | 成在人线av无码免观看麻豆 | 伊人久久大香线焦av综合影院 | 色欲人妻aaaaaaa无码 | 啦啦啦www在线观看免费视频 | 男人和女人高潮免费网站 | 双乳奶水饱满少妇呻吟 | 国产激情精品一区二区三区 | 亚洲自偷自偷在线制服 | 激情综合激情五月俺也去 | 精品国产aⅴ无码一区二区 | 精品国产一区二区三区四区 | 夫妻免费无码v看片 | 久久zyz资源站无码中文动漫 | 熟妇人妻无码xxx视频 | 少妇无套内谢久久久久 | 久久久久久国产精品无码下载 | 人人妻人人澡人人爽精品欧美 | 久久精品中文字幕一区 | 欧美丰满熟妇xxxx | 又大又硬又黄的免费视频 | 性生交片免费无码看人 | 国产精品18久久久久久麻辣 | 99精品久久毛片a片 | 国产sm调教视频在线观看 | 99国产欧美久久久精品 | 奇米影视7777久久精品人人爽 | 亚洲人成网站在线播放942 | 麻豆果冻传媒2021精品传媒一区下载 | 精品久久久无码人妻字幂 | 中文字幕乱码中文乱码51精品 | 无码人妻丰满熟妇区毛片18 | 亚洲码国产精品高潮在线 | 国产精品内射视频免费 | 精品久久久久久亚洲精品 | 午夜无码区在线观看 | 日韩视频 中文字幕 视频一区 | 好屌草这里只有精品 | 精品国产一区二区三区av 性色 | aⅴ亚洲 日韩 色 图网站 播放 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产午夜手机精彩视频 | 蜜臀av在线播放 久久综合激激的五月天 | 久久精品国产99久久6动漫 | 国产精品香蕉在线观看 | 少妇无码一区二区二三区 | 人妻少妇精品无码专区二区 | www国产亚洲精品久久久日本 | 亚洲日韩av一区二区三区四区 | 亚洲日韩一区二区 | 亚洲爆乳大丰满无码专区 | 秋霞特色aa大片 | 少女韩国电视剧在线观看完整 | 亚洲色无码一区二区三区 | 国产午夜手机精彩视频 | 麻豆成人精品国产免费 | 午夜免费福利小电影 | 在线观看免费人成视频 | 久久久亚洲欧洲日产国码αv | 福利一区二区三区视频在线观看 | 少妇人妻大乳在线视频 | 亚洲欧美日韩国产精品一区二区 | 亚洲欧美日韩综合久久久 | 无码人中文字幕 | 国产黄在线观看免费观看不卡 | 婷婷丁香五月天综合东京热 | 国产成人一区二区三区在线观看 | 国内精品九九久久久精品 | 午夜不卡av免费 一本久久a久久精品vr综合 | 大乳丰满人妻中文字幕日本 | 人妻少妇精品无码专区动漫 | 亚洲阿v天堂在线 | 内射白嫩少妇超碰 | 国产精品美女久久久久av爽李琼 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲无人区一区二区三区 | 麻豆果冻传媒2021精品传媒一区下载 | 日本又色又爽又黄的a片18禁 | 性色av无码免费一区二区三区 | 在线成人www免费观看视频 | 成人免费视频在线观看 | 亚洲欧美精品aaaaaa片 | 亚洲精品成人av在线 | 一本大道伊人av久久综合 | 亚洲成a人片在线观看无码3d | 欧美日韩色另类综合 | 久久久精品成人免费观看 | 久久精品人人做人人综合 | 亚洲中文字幕久久无码 | 中文字幕亚洲情99在线 | 日本护士xxxxhd少妇 | av无码电影一区二区三区 | 国产综合久久久久鬼色 | 久久精品女人的天堂av | 最新国产麻豆aⅴ精品无码 | 国产人妻人伦精品1国产丝袜 | 一本色道久久综合亚洲精品不卡 | 女人被男人爽到呻吟的视频 | 国产手机在线αⅴ片无码观看 | 日韩av无码中文无码电影 | 亚洲精品成a人在线观看 | 精品久久久无码人妻字幂 | 一本久久a久久精品vr综合 | 久久精品国产日本波多野结衣 | 天天做天天爱天天爽综合网 | 中文字幕+乱码+中文字幕一区 | 正在播放东北夫妻内射 | 国产亚洲精品久久久久久大师 | 亚洲熟妇色xxxxx亚洲 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久久久久av无码免费看大片 | 无遮无挡爽爽免费视频 | 久久精品女人的天堂av | 无码人妻av免费一区二区三区 | 亚洲精品久久久久久一区二区 | 无码av最新清无码专区吞精 | 婷婷六月久久综合丁香 | 亚洲欧美综合区丁香五月小说 | 3d动漫精品啪啪一区二区中 | 色妞www精品免费视频 | 99精品无人区乱码1区2区3区 | 精品国产精品久久一区免费式 | 亚洲天堂2017无码 | 亚洲色欲久久久综合网东京热 | 国产精品永久免费视频 | 夜夜高潮次次欢爽av女 | 精品人妻中文字幕有码在线 | 红桃av一区二区三区在线无码av | 国产精品亚洲а∨无码播放麻豆 | 97夜夜澡人人双人人人喊 | 精品夜夜澡人妻无码av蜜桃 | 国产色在线 | 国产 | 国产又粗又硬又大爽黄老大爷视 | 久久综合激激的五月天 | 夜夜高潮次次欢爽av女 | 麻豆国产人妻欲求不满谁演的 | 国产精品人妻一区二区三区四 | 国内精品久久久久久中文字幕 | 伊人色综合久久天天小片 | 无遮无挡爽爽免费视频 | 内射爽无广熟女亚洲 | 久久久精品国产sm最大网站 | 亚洲伊人久久精品影院 | 丝袜足控一区二区三区 | 99久久精品午夜一区二区 | 欧美人与善在线com | 一本加勒比波多野结衣 | 欧美怡红院免费全部视频 | 免费看男女做好爽好硬视频 | 日本一区二区更新不卡 | 欧美自拍另类欧美综合图片区 | 亚洲码国产精品高潮在线 | 在线天堂新版最新版在线8 | 午夜嘿嘿嘿影院 | 国产人成高清在线视频99最全资源 | 欧美激情一区二区三区成人 | 午夜理论片yy44880影院 | 亚洲经典千人经典日产 | 国产亚洲精品久久久闺蜜 | 国产9 9在线 | 中文 | 九九综合va免费看 | 国产精品内射视频免费 | 国产人妻精品一区二区三区不卡 | 国产午夜福利100集发布 | 亚洲综合另类小说色区 | 狠狠综合久久久久综合网 | 久久久久成人片免费观看蜜芽 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲精品欧美二区三区中文字幕 | 国产情侣作爱视频免费观看 | 欧洲精品码一区二区三区免费看 | 无遮挡啪啪摇乳动态图 | 九一九色国产 | 国产两女互慰高潮视频在线观看 | 免费观看黄网站 | 国产色在线 | 国产 | 欧美丰满熟妇xxxx性ppx人交 | 色综合久久中文娱乐网 | 午夜精品一区二区三区在线观看 | 免费无码的av片在线观看 | 免费网站看v片在线18禁无码 | 亚洲啪av永久无码精品放毛片 | 亚洲午夜无码久久 | 国产一区二区三区日韩精品 | 欧美日韩视频无码一区二区三 | 无码帝国www无码专区色综合 | 少妇一晚三次一区二区三区 | 欧美刺激性大交 | 人人澡人摸人人添 | 国产精品久久国产精品99 | 日本丰满护士爆乳xxxx | 一本大道伊人av久久综合 | 久久天天躁狠狠躁夜夜免费观看 | 乱码av麻豆丝袜熟女系列 | 亚洲精品国产精品乱码不卡 | 夜夜躁日日躁狠狠久久av | 波多野结衣一区二区三区av免费 | 国产色在线 | 国产 | 欧美精品免费观看二区 | 精品偷拍一区二区三区在线看 | 疯狂三人交性欧美 | 欧美丰满熟妇xxxx性ppx人交 | 久久综合久久自在自线精品自 | 宝宝好涨水快流出来免费视频 | 欧美性猛交xxxx富婆 | 狠狠色丁香久久婷婷综合五月 | av在线亚洲欧洲日产一区二区 | 中文字幕无码热在线视频 | 久久99精品久久久久久 | 欧美猛少妇色xxxxx | 国产精品无码一区二区桃花视频 | v一区无码内射国产 | 一本久久a久久精品vr综合 | 国产精品无套呻吟在线 | 久久精品中文字幕大胸 | 国产猛烈高潮尖叫视频免费 | 成年美女黄网站色大免费全看 | 国产精品沙发午睡系列 | 最近的中文字幕在线看视频 | 久久无码人妻影院 | 东京热男人av天堂 | 国产av一区二区三区最新精品 | 午夜免费福利小电影 | 大地资源网第二页免费观看 | 在线a亚洲视频播放在线观看 | 澳门永久av免费网站 | 未满成年国产在线观看 | 无遮无挡爽爽免费视频 | 久久久精品欧美一区二区免费 | 精品一区二区不卡无码av | 精品久久久中文字幕人妻 | 一本久久伊人热热精品中文字幕 | 国产精品久久久久7777 | 福利一区二区三区视频在线观看 | 欧美日韩精品 | 老熟女乱子伦 | 日本www一道久久久免费榴莲 | 中文字幕人成乱码熟女app | 99re在线播放 | 2020久久超碰国产精品最新 | 国产日产欧产精品精品app | 亚洲精品一区二区三区在线 | 鲁鲁鲁爽爽爽在线视频观看 | 国产成人精品必看 | 国产亚洲日韩欧美另类第八页 | 亚洲自偷自拍另类第1页 | 超碰97人人做人人爱少妇 | 东京热一精品无码av | 中文无码成人免费视频在线观看 | aⅴ亚洲 日韩 色 图网站 播放 | 国产精品高潮呻吟av久久 | 久久人妻内射无码一区三区 | 18禁黄网站男男禁片免费观看 | 又大又紧又粉嫩18p少妇 | 国产精品办公室沙发 | 99久久人妻精品免费二区 | 丝袜人妻一区二区三区 | 国产在线aaa片一区二区99 | 老司机亚洲精品影院无码 | 国产精品久久久 | 人人澡人摸人人添 | 在线a亚洲视频播放在线观看 | 久久亚洲国产成人精品性色 | 精品久久久无码中文字幕 | 免费人成网站视频在线观看 | 无码人妻精品一区二区三区下载 | 亚洲日韩中文字幕在线播放 | 正在播放东北夫妻内射 | 四虎影视成人永久免费观看视频 | 波多野结衣一区二区三区av免费 | 欧美老人巨大xxxx做受 | 国产内射老熟女aaaa | 日日碰狠狠躁久久躁蜜桃 | 7777奇米四色成人眼影 | 国色天香社区在线视频 | 乱人伦中文视频在线观看 | 亚洲成av人片天堂网无码】 | 精品午夜福利在线观看 | 精品国产青草久久久久福利 | 亚洲色www成人永久网址 | 天堂无码人妻精品一区二区三区 | 亚洲欧美日韩成人高清在线一区 | 国产精品手机免费 | 乌克兰少妇xxxx做受 | 久久99精品久久久久久 | 熟女少妇人妻中文字幕 | 色欲综合久久中文字幕网 | 无码人妻久久一区二区三区不卡 | 免费看男女做好爽好硬视频 | 精品久久久久香蕉网 | 欧美变态另类xxxx | 久久久久av无码免费网 | 高清无码午夜福利视频 | 乱码午夜-极国产极内射 | 亚洲 a v无 码免 费 成 人 a v | 久久久中文字幕日本无吗 | 无码人妻少妇伦在线电影 | 国产成人午夜福利在线播放 | 久久综合激激的五月天 | 日韩欧美中文字幕在线三区 | 日日天日日夜日日摸 | 四虎国产精品免费久久 | 国产精品无码一区二区三区不卡 | 亚洲精品欧美二区三区中文字幕 | 无码人妻黑人中文字幕 | 又粗又大又硬又长又爽 | 国产特级毛片aaaaaa高潮流水 | 丝袜美腿亚洲一区二区 | 高潮毛片无遮挡高清免费 | 亚洲 另类 在线 欧美 制服 | 狠狠色丁香久久婷婷综合五月 | 国产suv精品一区二区五 | 夜精品a片一区二区三区无码白浆 | 久久aⅴ免费观看 | 亚洲成色www久久网站 | 精品人妻人人做人人爽 | 中文字幕日韩精品一区二区三区 | 亚洲欧美日韩成人高清在线一区 | 在教室伦流澡到高潮hnp视频 | 色偷偷人人澡人人爽人人模 | 久久精品国产亚洲精品 | 久久精品国产一区二区三区肥胖 | 综合激情五月综合激情五月激情1 | 午夜福利不卡在线视频 | 欧美亚洲国产一区二区三区 | 理论片87福利理论电影 | √天堂中文官网8在线 | 亚洲va欧美va天堂v国产综合 | 大胆欧美熟妇xx | 亚洲精品鲁一鲁一区二区三区 | 人妻无码久久精品人妻 | 亚洲精品综合一区二区三区在线 | 无码人妻少妇伦在线电影 | 亚洲精品久久久久avwww潮水 | 色诱久久久久综合网ywww | 风流少妇按摩来高潮 | 人妻插b视频一区二区三区 | 国产精品久久久av久久久 | 日日橹狠狠爱欧美视频 | 免费看少妇作爱视频 | 欧美日韩在线亚洲综合国产人 | 波多野结衣av一区二区全免费观看 | 成人免费无码大片a毛片 | 97久久国产亚洲精品超碰热 | 亚洲精品久久久久avwww潮水 | 无码人妻精品一区二区三区下载 | 日韩av激情在线观看 | 老熟妇乱子伦牲交视频 | 小sao货水好多真紧h无码视频 | 色噜噜亚洲男人的天堂 | 亚洲精品国产精品乱码视色 | 伊在人天堂亚洲香蕉精品区 | 天天av天天av天天透 | 老头边吃奶边弄进去呻吟 | 熟女俱乐部五十路六十路av | 天堂一区人妻无码 | 成年女人永久免费看片 | 美女黄网站人色视频免费国产 | 国产sm调教视频在线观看 | 欧美人与禽zoz0性伦交 | 欧美人与善在线com | 樱花草在线播放免费中文 | 扒开双腿疯狂进出爽爽爽视频 | 国产猛烈高潮尖叫视频免费 | 国产suv精品一区二区五 | 欧洲精品码一区二区三区免费看 | 色欲人妻aaaaaaa无码 | 少女韩国电视剧在线观看完整 | 国产免费久久精品国产传媒 | av在线亚洲欧洲日产一区二区 | 精品国产青草久久久久福利 | 草草网站影院白丝内射 | 欧美人与禽猛交狂配 | 国产熟女一区二区三区四区五区 | 18精品久久久无码午夜福利 | 爆乳一区二区三区无码 | av无码不卡在线观看免费 | 亚洲午夜福利在线观看 | 中国女人内谢69xxxx | 亚洲乱码日产精品bd | 中文字幕乱码人妻无码久久 | 成人欧美一区二区三区黑人免费 | 少妇久久久久久人妻无码 | 成 人 网 站国产免费观看 | 久久国产精品萌白酱免费 | 国产精品久久久久久亚洲影视内衣 | 岛国片人妻三上悠亚 | 午夜精品一区二区三区的区别 | 亚洲成在人网站无码天堂 | 亚洲gv猛男gv无码男同 | 97精品人妻一区二区三区香蕉 | 丰满人妻翻云覆雨呻吟视频 | 老太婆性杂交欧美肥老太 | 理论片87福利理论电影 | 成人欧美一区二区三区黑人 | 日韩精品久久久肉伦网站 | 无人区乱码一区二区三区 | 东京热男人av天堂 | 中文字幕无码免费久久9一区9 | 亚洲男人av香蕉爽爽爽爽 | 精品人妻人人做人人爽夜夜爽 | 亚洲国产av精品一区二区蜜芽 | 人人妻人人澡人人爽欧美一区 | 99久久人妻精品免费一区 | 熟妇人妻激情偷爽文 | 国产欧美精品一区二区三区 | 日本熟妇浓毛 | 欧美日本免费一区二区三区 | 国产在线一区二区三区四区五区 | 真人与拘做受免费视频一 | 亚洲欧美国产精品久久 | 午夜精品久久久久久久久 | 377p欧洲日本亚洲大胆 | 免费无码肉片在线观看 | 国产精品香蕉在线观看 | 久久综合色之久久综合 | 国产精品沙发午睡系列 | 国产成人综合色在线观看网站 | 黑人粗大猛烈进出高潮视频 | 久青草影院在线观看国产 | 日本饥渴人妻欲求不满 | 色综合久久88色综合天天 | 精品无码av一区二区三区 | 天堂а√在线中文在线 | 日本在线高清不卡免费播放 | 久久国产精品_国产精品 | 欧美老人巨大xxxx做受 | а√资源新版在线天堂 | 又粗又大又硬又长又爽 | 乱人伦人妻中文字幕无码 | 无码精品人妻一区二区三区av | 成人性做爰aaa片免费看不忠 | 强开小婷嫩苞又嫩又紧视频 | 国产无套粉嫩白浆在线 | 妺妺窝人体色www婷婷 | 性做久久久久久久久 | 午夜无码人妻av大片色欲 | 亚洲中文字幕va福利 | 狠狠cao日日穞夜夜穞av | 国产凸凹视频一区二区 | 国产精品无码一区二区桃花视频 | 18黄暴禁片在线观看 | 国产精品亚洲一区二区三区喷水 | 欧美国产日韩亚洲中文 | 国产福利视频一区二区 | 日本www一道久久久免费榴莲 | 成人无码精品1区2区3区免费看 | 日本xxxx色视频在线观看免费 | 国内少妇偷人精品视频免费 | 国产极品美女高潮无套在线观看 | 中文字幕乱妇无码av在线 | 成人动漫在线观看 | 国产明星裸体无码xxxx视频 | 日韩欧美成人免费观看 | 丝袜美腿亚洲一区二区 | 国产精品亚洲а∨无码播放麻豆 | 免费观看的无遮挡av | 水蜜桃亚洲一二三四在线 | 婷婷丁香五月天综合东京热 | 97人妻精品一区二区三区 | 国产无套内射久久久国产 | 一个人免费观看的www视频 | 亚洲爆乳无码专区 |