基于用户的协同过滤和皮尔逊相关系数
基于用戶的協(xié)同過濾和皮爾遜相關(guān)系數(shù)
2012 年 11 月 05 日?isnowfy?algorithm,?web frameborder="0" hspace="0" marginheight="0" marginwidth="0" scrolling="no" tabindex="0" vspace="0" width="100%" id="I0_1448430258843" name="I0_1448430258843" src="https://apis.google.com/u/0/se/0/_/+1/fastbutton?usegapi=1&size=small&origin=http%3A%2F%2Fwww.isnowfy.com&url=http%3A%2F%2Fwww.isnowfy.com%2Fcollaborative-filtering-and-pearson-correlation-coefficient%2F&gsrc=3p&ic=1&jsh=m%3B%2F_%2Fscs%2Fapps-static%2F_%2Fjs%2Fk%3Doz.gapi.zh_CN.3ZnptyJyqBA.O%2Fm%3D__features__%2Fam%3DAQ%2Frt%3Dj%2Fd%3D1%2Ft%3Dzcms%2Frs%3DAGLTcCO9UqyjRGXu4wYeaqGuwkJDGsrriQ#_methods=onPlusOne%2C_ready%2C_close%2C_open%2C_resizeMe%2C_renderstart%2Concircled%2Cdrefresh%2Cerefresh&id=I0_1448430258843&parent=http%3A%2F%2Fwww.isnowfy.com&pfname=&rpctoken=13579790" data-gapiattached="true" title="+1" style="border-width: 0px; border-style: none; margin: 0px; padding: 0px; vertical-align: baseline; position: static; top: 0px; width: 70px; left: 0px; visibility: visible; height: 15px; background: transparent;"> Go to comment
推薦系統(tǒng)的經(jīng)典算法就是協(xié)同過濾了,協(xié)同過濾算法有兩種,一種是基于物品的,一種是基于用戶的。從很多實驗效果來看基于用戶的協(xié)同過濾算法要好于基于物品的協(xié)同過濾算法。
那么簡單來說基于物品的協(xié)同過濾算法是說我會推薦給你和你喜歡物品相似的物品,而基于用戶的協(xié)同過濾算法是說我把和你相似的用戶喜歡的東西推薦給你。為什么叫協(xié)同過濾呢,因為我們是利用用戶的群體行為來作這些相似操作的。計算物品的相似的時候我們比較不同的人來對他打分來比較,同樣計算用戶相關(guān)性的時候我們就是通過對比他們對相同物品打分的相關(guān)度來計算的,我們來舉個例子。
--------+--------+--------+--------+--------+| X | Y | Z | R | --------+--------+--------+--------+--------+a | 5 | 4 | 1 | 5 | --------+--------+--------+--------+--------+b | 4 | 3 | 1 | ? | --------+--------+--------+--------+--------+c | 2 | 2 | 5 | 1 | --------+--------+--------+--------+--------+
a用戶給X物品打了5分,Y打了4分,Z打了1分,同理b用戶和c用戶,那么很容易看到a用戶和b用戶非常相似,但是b用戶沒有看過R物品,那么我們就可以把和b用戶很相似的a用戶打分很高的R物品推薦給b用戶,這就是基于用戶的協(xié)同過濾。
ok,回到我們協(xié)同過濾的算法上,現(xiàn)在我們知道了基于用戶的協(xié)同過濾需要比較用戶的相關(guān)性,那么如何計算這個相關(guān)性呢,于是我們可以利用兩個用戶對于相同物品的評分來計算相關(guān)性。對于a,b用戶而言,他們都對XYZ物品進行了評價,那么,a我們可以表示為(5,4,1),b可以表示為(4,3,1),經(jīng)典的算法是計算把他們看作是兩個向量,并計算兩個向量間的夾角,或者說計算向量夾角的cosine值來比較,于是a和b的相關(guān)性為。
sim=5?4+4?3+1?152+42+12√?42+32+12√
這個值介于-1到1之間,越大,說明相關(guān)性越大。
到這里似乎cosine還是不錯的,但是考慮這么個問題,用于用戶間的差異,d用戶可能喜歡打高分,e用戶喜歡打低分,f用戶喜歡亂打分。
--------+--------+--------+--------+| X | Y | Z | --------+--------+--------+--------+d | 4 | 4 | 5 | --------+--------+--------+--------+e | 1 | 1 | 2 | --------+--------+--------+--------+f | 4 | 1 | 5 | --------+--------+--------+--------+很顯然用戶d和e對于作品評價的趨勢是一樣的,所以應(yīng)該認為d和e更相似,但是用cosine計算出來的只能是d和f更相似。于是就有皮爾遜相關(guān)系數(shù)(pearson correlation coefficient)。
sim=∑ni=1(Xi?Xˉ)?(Yi?Yˉ)∑ni=1(Xi?Xˉ)2√?∑ni=1(Yi?Yˉ)2√
pearson其實做的事情就是先把兩個向量都減去他們的平均值,然后再計算cosine值。
最后讓我們用實際數(shù)據(jù)來對比下cosine和pearson的效果吧。這里我們用到了movielens的數(shù)據(jù),數(shù)據(jù)是1000多個用戶對于1700個movie的超過10000的評分數(shù)據(jù),數(shù)據(jù)已經(jīng)分成多組,并且每組都是80%的訓練數(shù)據(jù)和20%的測試數(shù)據(jù)。我們在訓練數(shù)據(jù)上對于每個用戶找出和他相似的20個用戶,然后把當前用戶沒看過的這些用戶的movie的評分加權(quán)和,然后選出5篇分數(shù)最高的作為推薦,然后把推薦出來的在測試數(shù)據(jù)上計算一個得分。代碼如下。
最后我們看看結(jié)果。
從圖中可以看出,用pearson來計算用戶相似來進行推薦的話,效果還是要好于cosine的。所以說基于用戶的協(xié)同過濾還是用pearson來做用戶相似是比較好的阿。
《新程序員》:云原生和全面數(shù)字化實踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的基于用户的协同过滤和皮尔逊相关系数的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 自动摘要算法
- 下一篇: 中文分词器分词效果的评测方法