干货来袭!3天0基础Python实战项目快速学会人工智能必学数学基础全套(含源码)(第3天)概率分析篇:条件概率、全概率与贝叶斯公式
-
第1天:線性代數(shù)篇:矩陣、向量、實(shí)戰(zhàn)編程
-
第2天:微積分篇:極限與導(dǎo)數(shù)、梯度下降、積分、實(shí)戰(zhàn)編程
-
第3天:概率分析篇:條件概率與全概率、貝葉斯公式、實(shí)戰(zhàn)項(xiàng)目
目錄
- 前言
- 一、概率與機(jī)器學(xué)習(xí)
- 1.1 概率
- 1.2 機(jī)器學(xué)習(xí)中的概率
- 二、條件概率與全概率
- 2.1 條件概率
- 2.2 全概率
- 三、貝葉斯公式與樸素貝葉斯
- 3.1. 貝葉斯公式
- 3.2 樸素貝葉斯
- 四、實(shí)戰(zhàn):Python實(shí)現(xiàn)樸素貝葉斯
- 4.1 安裝python庫Scikit-learn庫
- 4.1.1 安裝numpy+mkl和scipy
- 4.1.2 安裝Sklearn
- 4.2 代碼詳解
- 總結(jié)
前言
非常抱歉,至上次博主更新人工智能關(guān)于《高等數(shù)學(xué)》相關(guān)應(yīng)用及知識(shí)點(diǎn),已經(jīng)停更了差不多一年了,主要是博主工作上遇到公司組織架構(gòu)調(diào)整,之后又是各種新項(xiàng)目,一直拖更到現(xiàn)在。不過這些都不是理由,更多得是懶了。任何時(shí)候行動(dòng)起來,都不算晚,所以選擇今天8月8日這個(gè)好日子,趕緊給大家更新一版。
同時(shí)為了回報(bào)粉絲們的持續(xù)關(guān)注,這段時(shí)間開始,博主不僅會(huì)把人工智能必學(xué)數(shù)學(xué)基礎(chǔ)最后一篇概率分析篇更新完,還會(huì)陸陸續(xù)續(xù)更新一些關(guān)于博主以前做過的一些人工智能實(shí)戰(zhàn)項(xiàng)目,歡迎大家繼續(xù)關(guān)注。
接下來進(jìn)入正題,對(duì)于人工智能概率分析這塊來說,其實(shí)說起來不復(fù)雜,運(yùn)用到的數(shù)學(xué)知識(shí)或數(shù)學(xué)公式可能就那么幾個(gè),但是由于現(xiàn)實(shí)中很多問題都可以用概率來解釋分析,它的運(yùn)用會(huì)具有一定復(fù)雜性,甚至有時(shí)我們無法理解其中的原因。
這里面究其根本,我覺得就是現(xiàn)實(shí)中各種事情的發(fā)生概率,其實(shí)并不是單一事件引起的,更多是比較復(fù)雜的多因素決定的,而且很有可能隨著時(shí)間發(fā)展,其決定因素又會(huì)發(fā)生變化,所以大家到最后可能就會(huì)更加暈圈。
不過我覺得大家也不要太糾結(jié),因?yàn)橹灰覀?strong>掌握了其中基本原理,再經(jīng)過幾次實(shí)戰(zhàn),你就會(huì)對(duì)概率的認(rèn)識(shí)越來越清晰了,而且研究深入到最后,你就可以到達(dá)目前人工智能關(guān)于強(qiáng)化學(xué)習(xí)的領(lǐng)域,說不定哪天你就能開發(fā)出一個(gè)類似阿法爾狗的牛逼程序。
老樣子,既然是分享數(shù)學(xué)知識(shí),還是得繼續(xù)拿出嚴(yán)謹(jǐn)?shù)乃季S和態(tài)度來。我又翻出10多年前我的概率論課本、筆記,教材是我們學(xué)校出版的,我們主要學(xué)習(xí)的是前面6章,從隨機(jī)概率、條件概率、隨機(jī)變量、隨機(jī)向量、隨機(jī)變量的數(shù)字特征到大數(shù)定律等。
看起來我們大學(xué)時(shí)候要學(xué)習(xí)的概率相關(guān)知識(shí)還是有點(diǎn)多,但對(duì)于人工智能入門來說,其實(shí)最重要的就只有最前面的第一章和第二章,也就是隨機(jī)概率和條件概率。
這次小伙伴們看到我這門課成績(jī),可以不用激動(dòng)了,成績(jī)沒上90分,主要那時(shí)候,我剛好讀大二,玩網(wǎng)易剛出來的游戲《夢(mèng)幻西游》上癮了,學(xué)習(xí)興趣和熱情遠(yuǎn)沒有像大一那樣高了。不知道有沒有小伙伴們像我一樣在讀大學(xué)的時(shí)候控制不住我自己。
還好現(xiàn)在我已經(jīng)控制住我自己了,把玩游戲的時(shí)間拿出來,今年目標(biāo)學(xué)習(xí)12本技術(shù)相關(guān)書籍(目前已經(jīng)學(xué)習(xí)了6本了)和聽50本樊登讀書,已經(jīng)努力實(shí)現(xiàn)了不少了,有望年底全部實(shí)現(xiàn)。也希望小伙伴們也能活到老,學(xué)到老!大家共勉,加油!
接下來跟著我繼續(xù)三天掌握人工智能必學(xué)數(shù)學(xué)基礎(chǔ)最后一天的學(xué)習(xí)吧!
一、概率與機(jī)器學(xué)習(xí)
1.1 概率
有些小伙伴玩過下面這種俄羅斯大轉(zhuǎn)盤的游戲,我們就從這個(gè)概率的簡(jiǎn)單應(yīng)用場(chǎng)景來說。
俄羅斯大轉(zhuǎn)盤總共有0-36,共37個(gè)數(shù)字。其中有18個(gè)紅色數(shù)字、18個(gè)黑色數(shù)字以及1個(gè)綠色數(shù)字。大家可以思考這么一個(gè)問題:如果每次下注黑色區(qū)域1元,正確返還2元,重復(fù)3700次,預(yù)期收益多少?(當(dāng)然警察叔叔經(jīng)常教育我們十賭九輸,這里僅供演示,用數(shù)學(xué)告訴大家真相,大家千萬別禁不住誘惑,賭博害人)
18/37*1 + (18+1)/37 *(-1) = -1/37
3700 X (-1/37) = -100
從上面計(jì)算可以看出,最終結(jié)果我們是會(huì)輸?shù)?00元,玩得越多,輸?shù)脑蕉唷Y€博就是讓你大概率輸,所以千萬別迷上賭博,不然遲早一天傾家蕩產(chǎn)。
那概率到底是什么呢?我們從百度百科找下答案:
概率,亦稱“或然率”,它是反映隨機(jī)事件出現(xiàn)的可能性大小。隨機(jī)事件是指在相同條件下,可能出現(xiàn)也可能不出現(xiàn)的事件。例如,從一批有正品和次品的商品中,隨意抽取一件,“抽得的是正品”就是一個(gè)隨機(jī)事件。設(shè)對(duì)某一隨機(jī)現(xiàn)象進(jìn)行了n次試驗(yàn)與觀察,其中A事件出現(xiàn)了m次,即其出現(xiàn)的頻率為m/n。經(jīng)過大量反復(fù)試驗(yàn),常有m/n越來越接近于某個(gè)確定的常數(shù)(此論斷證明詳見伯努利大數(shù)定律)。該常數(shù)即為事件A出現(xiàn)的概率,常用P(A)表示。
舉例來說,我們拋1元硬幣,出現(xiàn)一面為國徽,一面為1元的概率就分別為1/2。
1.2 機(jī)器學(xué)習(xí)中的概率
我們關(guān)聯(lián)起來的機(jī)器學(xué)習(xí)中的概率應(yīng)用一般就是在分類情況下,機(jī)器學(xué)習(xí)模型直接預(yù)測(cè)的結(jié)果就是某種情況對(duì)應(yīng)的概率。比如說人臉識(shí)別中,我們從所有圖片中進(jìn)行預(yù)測(cè),去預(yù)測(cè)出圖片是人臉的概率有多大,我們可以設(shè)定一個(gè)95%的閾值,概率超過95%以上是人臉,我們就認(rèn)為是人臉,否則就不是。
其實(shí)現(xiàn)實(shí)生活中有很多東西都和概率有關(guān),人工智能也有很大一部分是利用歷史的數(shù)據(jù),來預(yù)測(cè)未來發(fā)生某種事件的概率。細(xì)心的小伙伴們,如果擅于利用好概率,說不定哪天你就可以成為一個(gè)厲害的預(yù)言家了。
二、條件概率與全概率
2.1 條件概率
我們舉個(gè)紙牌游戲的例子來說明條件概率吧。
有兩張黑牌、兩張紅牌,從中抽取一張,如果為紅牌,退還下注并獎(jiǎng)勵(lì)1.1倍,玩家是否應(yīng)該下注?如果抽取的第一張為紅牌,游戲繼續(xù),玩家是否應(yīng)該下注?
我們分析一下第一種情況,分別從兩張黑牌、兩張紅牌抽到該牌的概率都是1/2,假設(shè)每次下注為1,那么抽到黑牌,我們就損失1,抽到紅牌我們就獎(jiǎng)勵(lì)1.1,那第一種情況我們的收益就應(yīng)該計(jì)算如下:
1/21.1 + 1/2(-1) = 0.05 > 0 建議下注
第二種情況,在我們已經(jīng)抽了一張紅牌的情況下,就只剩3張牌了,那么抽到黑牌的概率就變?yōu)?/3,抽到紅牌的概率就變?yōu)?/3,那收益計(jì)算就應(yīng)該變?yōu)?#xff1a;
1/31.1 + 2/3(-1) = -0.3 < 0 不建議下注
這里就可以看出,在某些事件發(fā)生的情況下,我們的選擇就可能會(huì)發(fā)生變化,也可以延伸出我們條件概率的定義。百度百科定義如下:
條件概率是指事件A在事件B發(fā)生的條件下發(fā)生的概率。條件概率表示為:P(A|B),讀作“A在B發(fā)生的條件下發(fā)生的概率”。若只有兩個(gè)事件A,B,那么
P ( A ∣ B ) = P ( A B ) P ( B ) P(A \mid B)=\frac{P(A B)}{P(B)} P(A∣B)=P(B)P(AB)?
P(AB)就是A與B同時(shí)發(fā)生的概率。拿上面的例子來計(jì)算:第一張抽到紅牌和第二張抽到紅牌的概率就為(1/21/3)/(1/2) = 1/3。第一張抽到紅牌和第二張抽到黑牌的概率就為(1/22/3)/(1/2) = 2/3。
假設(shè)小明最近暗戀上了同一棟樓的一個(gè)女神,為了追求女神,他觀察了女神和自己的出門時(shí)間。下表列出了小明的出門時(shí)間分布(8-9點(diǎn))和女神的出門時(shí)間分布(8-8:30),如果小明今天計(jì)劃8:15-8:30出門,遇到女神的概率是多少?(假設(shè)同一時(shí)間段即會(huì)相遇)
我們用條件概率的定義公式,就可以很簡(jiǎn)單計(jì)算如下:
1)小明出門時(shí)間可以選擇4個(gè)時(shí)間段,選擇8:15-8:30的概率為1/4,記為P(B);
2)女神出門時(shí)間可以選擇2個(gè)時(shí)間段,選擇8:15-8:30的概率為1/2,記為P(A);
3)小明在8:15-8:30出門的情況下,女神同時(shí)出門的概率為1/4*1/2 = 1/8,記為P(AB);
4)那小明計(jì)劃8:15-8:30出門,遇到女神的概率我們就可以記為P(A|B),那運(yùn)用公式可以計(jì)算為:P(A|B)= P(AB)/P(B) = (1/8)/(1/4) = 1/2
2.2 全概率
全概率公式為概率論中的重要公式,它將對(duì)一復(fù)雜事件A的概率求解問題轉(zhuǎn)化為了在不同情況下發(fā)生的簡(jiǎn)單事件的概率的求和問題。百度百科對(duì)全概率的定義如下:
若事件A1,A2,…構(gòu)成一個(gè)完備事件組且都有正概率,則對(duì)任意一個(gè)事件B,有如下公式成立:
P(B)=P(BA1)+P(BA2)+…+P(BAn)=P(B|A1)P(A1) + P(B|A2)P(A2) + … + P(B|An)P(An).
我們舉個(gè)例子來說明,如下圖所示:
1)B1發(fā)生的情況下A發(fā)生的概率為1/4,可以記為P(A|B1)
2)B2發(fā)生的情況下A發(fā)生的概率為1/5,可以記為P(A|B2)
3)B1發(fā)生的概率為1/3,可以記為P(B1)
4)B2發(fā)生的概率為2/3,可以記為P(B2)
那我們可以按照公司計(jì)算A發(fā)生的概率:
P ( A ) = P ( B 1 ) ? P ( A ∣ B 1 ) + P ( B 2 ) ? P ( A ∣ B 2 ) = 1 4 × 1 3 + 1 5 × 2 3 = 13 60 \begin{aligned} P(A) &=P\left(B_{1}\right) \cdot P\left(A \mid \ B_{1} \right)+P\left(B_{2}\right) \cdot P\left(A \mid \ B_{2} \right) \\ &=\frac{1}{4} \times \frac{1}{3}+\frac{1}{5} \times \frac{2}{3} \\ &=\frac{13}{60} \end{aligned} P(A)?=P(B1?)?P(A∣?B1?)+P(B2?)?P(A∣?B2?)=41?×31?+51?×32?=6013??
總的來說,概率是反映隨機(jī)事件出現(xiàn)的可能性大小的量度,而條件概率則是給定某事件A的條件下,另一事件B發(fā)生的概率。全概率公式則是利用條件概率,將復(fù)雜事件A分割為若干簡(jiǎn)單事件概率的求和問題。
三、貝葉斯公式與樸素貝葉斯
3.1. 貝葉斯公式
遇到問題找百度,我們繼續(xù)通過百度百科來了解下貝葉斯公式:
貝葉斯定理由英國數(shù)學(xué)家貝葉斯 ( Thomas Bayes 1702-1761 ) 發(fā)展,用來描述兩個(gè)條件概率之間的關(guān)系,比如 P(A|B) 和 P(B|A)。
按照乘法法則,可以立刻導(dǎo)出:P(A∩B) =P(A)*P(B|A)=P(B)*P(A|B)。如上公式也可變形為:P(A|B)=P(B|A)*P(A)/P(B)。
貝葉斯公式也稱為貝葉斯法則, 盡管它是一個(gè)數(shù)學(xué)公式,但其原理毋需數(shù)字也可明了。如果你看到一個(gè)人總是做一些好事,則那個(gè)人多半會(huì)是一個(gè)好人。這就是說,當(dāng)你不能準(zhǔn)確知悉一個(gè)事物的本質(zhì)時(shí),你可以依靠與事物特定本質(zhì)相關(guān)的事件出現(xiàn)的多少去判斷其本質(zhì)屬性的概率。 用數(shù)學(xué)語言表達(dá)就是:支持某項(xiàng)屬性的事件發(fā)生得愈多,則該屬性成立的可能性就愈大。
簡(jiǎn)單來說,就是在已知一些條件下(部分事件發(fā)生的概率),實(shí)現(xiàn)對(duì)目標(biāo)事件發(fā)生概率更準(zhǔn)確的預(yù)測(cè),我們接著用個(gè)例子來應(yīng)用貝葉斯公式:
1)A發(fā)生的概率為13/60
2)B1發(fā)生的概率為1/3
3)B1發(fā)生的情況下A發(fā)生的概率為1/4
計(jì)算A發(fā)生的情況下B1發(fā)生的概率:
P ( B 1 ∣ A ) = P ( B 1 ) × P ( A ∣ B 1 ) P ( A ) = 1 3 × 1 4 13 60 = 5 13 \begin{aligned} P\left(B_{1} \mid A\right) &=P\left(B_{1}\right) \times \frac{P\left(A \mid B_{1}\right)}{P(A)} \\ &=\frac{1}{3} \times \frac{\frac{1}{4}}{\frac{13}{60}} \\ &=\frac{5}{13} \end{aligned} P(B1?∣A)?=P(B1?)×P(A)P(A∣B1?)?=31?×6013?41??=135??
貝葉斯公式還可以利用全概率公式延伸如下:
P ( B i ∣ A ) = P ( B i ) ? P ( A ∣ B i ) P ( A ) = P ( B i ) ? P ( A ∣ B i ) ∑ j = 1 n P ( A ∣ B j ) P ( B j ) P\left(B_{i} \mid A\right)=\frac{P\left(B_{i}\right) * P\left(A \mid B_{i}\right)}{P(A)}=\frac{P\left(B_{i}\right) * P\left(A \mid B_{i}\right)}{\sum_{j=1}^{n} P\left(A \mid B_{j}\right) P\left(B_{j}\right)} P(Bi?∣A)=P(A)P(Bi?)?P(A∣Bi?)?=∑j=1n?P(A∣Bj?)P(Bj?)P(Bi?)?P(A∣Bi?)?
**其核心就是:基于樣本信息(X)與結(jié)果分布(y)統(tǒng)計(jì)條件概率,再計(jì)算新樣本對(duì)應(yīng)的事件概率。**舉個(gè)例來說明:
已知:女神喜歡一個(gè)人的概率是0.1,她對(duì)喜歡的人笑的概率是0.5,她平時(shí)笑的概率是0.2,那女神對(duì)你笑,喜歡你的概率是多少?遇到問題,我們先不用慌,先定義下各個(gè)事件,然后應(yīng)用公式計(jì)算
1)女神笑的概率,記為P(A);
2)女神喜歡一個(gè)人的概率,記為P(B);
3)女神對(duì)你笑的情況下,喜歡你的概率,記為P(B|A);
4)女神喜歡你的情況下,對(duì)你笑的概率,記為P(A|B);
那運(yùn)用貝葉斯公式可以計(jì)算為:P(B|A)= P(B) * P(A|B) / P(A) = 0.1*0.5/0.2 = 0.25
3.2 樸素貝葉斯
定義:以貝葉斯定理為基礎(chǔ),假設(shè)特征之間相互獨(dú)立,先通過訓(xùn)練數(shù)據(jù)集,學(xué)習(xí)從輸入到輸出的概率分布,再基于學(xué)習(xí)到的模型及輸入,求出使得后驗(yàn)概率最大的輸出實(shí)現(xiàn)分類。
P ( Y ∣ X ) = P ( Y ) ? P ( X ∣ Y ) P ( X ) P(Y \mid X)=P(Y) * \frac{P(X \mid Y)}{P(X)} P(Y∣X)=P(Y)?P(X)P(X∣Y)?
特征之間相互獨(dú)立
P ( X ∣ Y = y i ) = ∏ j = 1 m P ( x j ∣ Y = y i ) P ( y i ∣ x 1 , x 2 … , x m ) = P ( y i ) ∏ j = 1 m P ( x j ∣ y i ) P ( x 1 , x 2 … , x m ) = P ( y i ) ∏ j = 1 m P ( x j ∣ y i ) ∏ j = 1 m P ( x j ) \begin{gathered} P\left(X \mid Y=y_{i}\right)=\prod_{j=1}^{m} P\left(x_{j} \mid Y=y_{i}\right) \\ P\left(y_{i} \mid x_{1}, x_{2} \ldots, x_{m}\right)=\frac{P\left(y_{i}\right) \prod_{j=1}^{m} P\left(x_{j} \mid y_{i}\right)}{P\left(x_{1}, x_{2} \ldots, x_{m}\right)}=\frac{P\left(y_{i}\right) \prod_{j=1}^{m} P\left(x_{j} \mid y_{i}\right)}{\prod_{j=1}^{m} P\left(x_{j}\right)} \end{gathered} P(X∣Y=yi?)=j=1∏m?P(xj?∣Y=yi?)P(yi?∣x1?,x2?…,xm?)=P(x1?,x2?…,xm?)P(yi?)∏j=1m?P(xj?∣yi?)?=∏j=1m?P(xj?)P(yi?)∏j=1m?P(xj?∣yi?)??
這樣直接看公式,大家可能看不懂,那我們用個(gè)案例來說明:
1)我們有4個(gè)樣本,每個(gè)樣本有Gender性別、Age年齡、Device使用設(shè)備 3個(gè)X特征;
2)每個(gè)樣本有y這個(gè)label,用來表示是否會(huì)購買某個(gè)產(chǎn)品,會(huì)購買我們記為1,不會(huì)則記為0;
3)計(jì)算第一個(gè)樣本下,y=1的概率
首先用數(shù)學(xué)的方式表述下這個(gè)問題:
1)定義 Gender為X1
2)定義Age 為X2
3)定義Device為X3
4)求解概率P(y=1|X1=0,X2=0,X3=0)
接下來就可以使用樸素貝葉斯公式來計(jì)算,具體如下:
P ( y = 1 ) = 2 4 = 1 2 P ( x 1 = 0 ∣ y = 1 ) = 1 2 P ( x 2 = 0 ∣ y = 1 ) = 1 2 P ( x 3 = 0 ∣ y = 1 ) = 1 2 P ( x 1 = 0 ) = 2 4 P ( x 2 = 0 ) = 1 4 P ( x 3 = 0 ) = 3 4 P ( y = 1 ∣ x 1 = 0 , x 2 = 0 , x 3 = 0 ) = P ( y = 1 ) × ( P ( x 1 = 0 ∣ y = 1 ) ? P ( x 2 = 0 ∣ y = 1 ) ? P ( x 3 = 0 ∣ y = 1 ) ) P ( x 1 = 0 ) ? P ( x 2 = 0 ) ? P ( x 3 = 0 ) = 1 2 × ( 1 2 × 1 2 × 1 2 ) 2 4 × 1 4 × 3 4 = 2 3 \begin{aligned} &P(y=1)=\frac{2}{4}=\frac{1}{2} \\ &P\left(x_{1}=0 \mid y=1\right)=\frac{1}{2} \quad P\left(x_{2}=0 \mid y=1\right)=\frac{1}{2} \quad P\left(x_{3}=0 \mid y=1\right)=\frac{1}{2} \\ &P\left(x_{1}=0\right)=\frac{2}{4} \quad P\left(x_{2}=0\right)=\frac{1}{4} \quad P\left(x_{3}=0\right)=\frac{3}{4} \\ &P\left(y=1 \mid x_{1}=0, x_{2}=0, x_{3}=0\right)=\frac{P(y=1) \times\left(P\left(x_{1}=0 \mid y=1\right) \cdot P\left(x_{2}=0 \mid y=1\right) \cdot P\left(x_{3}=0 \mid y=1\right)\right)}{P\left(x_{1}=0\right) \cdot P\left(x_{2}=0\right) \cdot P\left(x_{3}=0\right)} \\ &=\frac{\frac{1}{2} \times\left(\frac{1}{2} \times \frac{1}{2} \times \frac{1}{2}\right)}{\frac{2}{4} \times \frac{1}{4} \times \frac{3}{4}}=\frac{2}{3} \end{aligned} ?P(y=1)=42?=21?P(x1?=0∣y=1)=21?P(x2?=0∣y=1)=21?P(x3?=0∣y=1)=21?P(x1?=0)=42?P(x2?=0)=41?P(x3?=0)=43?P(y=1∣x1?=0,x2?=0,x3?=0)=P(x1?=0)?P(x2?=0)?P(x3?=0)P(y=1)×(P(x1?=0∣y=1)?P(x2?=0∣y=1)?P(x3?=0∣y=1))?=42?×41?×43?21?×(21?×21?×21?)?=32??
四、實(shí)戰(zhàn):Python實(shí)現(xiàn)樸素貝葉斯
4.1 安裝python庫Scikit-learn庫
百度百科查詢可知:Scikit-learn是GitHub上最受歡迎的機(jī)器學(xué)習(xí)庫之一。Scikit-learn(以前稱為scikits.learn,也稱為sklearn)是針對(duì)Python 編程語言的免費(fèi)軟件機(jī)器學(xué)習(xí)庫。它具有各種分類,回歸和聚類算法,包括支持向量機(jī),隨機(jī)森林,梯度提升,k均值和DBSCAN,并且旨在與Python數(shù)值科學(xué)庫NumPy和SciPy聯(lián)合使用。而我們也可以使用該庫中的樸素貝葉斯模塊CategoricalNB模塊來實(shí)現(xiàn)樸素貝葉斯。
首先我們先來安裝Scikit-learn庫吧。
4.1.1 安裝numpy+mkl和scipy
安裝sklearn之前,需要安裝兩個(gè)庫,即numpy+mkl和scipy。但是不要使用pip3直接在終端安裝,因?yàn)閜ip3默安裝的是numpy,而不是numpy+mkl。
下面是numpy+mkl和scipy的第三方庫下載地址(里面內(nèi)容較多,但是是按照首字母排序的,可以直接搜索numpy+mkl、scipy,尋找到合適的版本下載)
第三方庫下載地址
分別下載下載numpy+mkl和scipy的.whl文件到本地后,安裝輪子工具
pip install wheel在安裝之前,首先要在終端中定位到之前下載Numpy+mkl的地址中,然后再進(jìn)行安裝,比如:
pip install numpy-1.22.2+mkl-cp310-cp310-win_amd64.whl在安裝之前,首先要在終端中定位到之前下載SciPy的地址中,然后再進(jìn)行安裝,比如:
pip install scipy-1.8.0-cp310-cp310-win_amd64.whl4.1.2 安裝Sklearn
安裝完上面的numpy+mkl和scipy后,安裝Sklearn比較簡(jiǎn)單,使用pip install就可以直接安裝了
pip install -U scikit-learn4.2 代碼詳解
我們通過下面這個(gè)用戶基本信息數(shù)據(jù)集進(jìn)行訓(xùn)練,來預(yù)測(cè)器購買商品的概率。
計(jì)算以下用戶購買商品的概率,預(yù)測(cè)其是否會(huì)購買,具體測(cè)試樣本如下:
這里我們可以使用scikit-learn建立一個(gè)樸素貝葉斯機(jī)器學(xué)習(xí)模型,然后使用其進(jìn)行訓(xùn)練及預(yù)測(cè)。
使用Jupyter Notebook演示如下:
全部代碼如下:
總結(jié)
好啦,到這里我們就全部結(jié)束了人工智能必學(xué)數(shù)學(xué)基礎(chǔ)三天學(xué)習(xí)了,相信從頭學(xué)到尾的小伙伴們應(yīng)該不會(huì)再覺得數(shù)學(xué)知識(shí)很難了吧,應(yīng)該也對(duì)繼續(xù)入門學(xué)習(xí)人工智能充滿信心了吧。
如果大家想繼續(xù)了解人工智能相關(guān)學(xué)習(xí)路線和知識(shí)體系,歡迎大家翻閱我的另外一篇博客《重磅 | 完備的人工智能AI 學(xué)習(xí)——基礎(chǔ)知識(shí)學(xué)習(xí)路線,所有資料免關(guān)注免套路直接網(wǎng)盤下載》
這篇博客參考了Github知名開源平臺(tái),AI技術(shù)平臺(tái)以及相關(guān)領(lǐng)域?qū)<?#xff1a;Datawhale,ApacheCN,AI有道和黃海廣博士等約有近100G相關(guān)資料,希望能幫助到所有小伙伴們。
歡迎大家繼續(xù)支持我 關(guān)注、收藏,點(diǎn)贊,一鍵三連。如果有任何問題,也可以隨時(shí)評(píng)論區(qū)留言或者私信我。
本文只供大家學(xué)習(xí)相關(guān)知識(shí)使用,不以任何商業(yè)盈利為目的,轉(zhuǎn)載或分享請(qǐng)注明相關(guān)來源。如涉及到相關(guān)侵權(quán),請(qǐng)聯(lián)系我刪除。
歡迎志同道合者互相交流學(xué)習(xí),可以加我微信號(hào):Zhihua_Steven,或者掃以下二維碼關(guān)注我的微信公眾號(hào)。
總結(jié)
以上是生活随笔為你收集整理的干货来袭!3天0基础Python实战项目快速学会人工智能必学数学基础全套(含源码)(第3天)概率分析篇:条件概率、全概率与贝叶斯公式的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Semantic Segmentatio
- 下一篇: android自动隐藏虚拟键,Andro