LFW阅读笔记
?? ? ?? 作為一個計算機視覺新入門的小白,第一次嘗試寫博客,試著記錄一下學習狀況,也為了自己以后方便查閱。
??????? LFW(labeled face in the wild),是人臉識別比較常用的數據集,包含了13,233張圖片,5749人,其中1680有2張或以上的圖片,剩下的4069人只有一張圖片,圖片的獲取,是利用Viola-Jones face detector結合OpenCV從網絡獲取,并作了初步的處理,手動添加了人名,統一格式為250*250 jpg。附上官網:http://vis-www.cs.umass.edu/lfw/
?? ? ?? 其構建目的是為了在不受限環境下的測試人臉識別算法提供方便,在Detection-Alignment-Recognition(DAR) pipline中,完成了Detection部分的工作。官方數據集提供了兩種views,view 1:為了試驗者用作model selection and algorithm development,分為了兩個子集,一個用來訓練,一個用來測試。view 2:for performance reporting,官方建議僅在最終reporting的時候使用,以防止算法過度擬合,人為增高準確率(這里不知道理解的準確不準確,如有錯誤,望指正)。在view 2 下,分為了10個子集,可以任選其中9個來用作訓練,剩下的一個用來測試。每次試驗,應該獨立完成,產生10個對應的不同分類器。最終報告可以以ROC(Receiver Operating Characteristic)曲線和PR(Presicion-Recall)曲線呈現,官方要求至少要給出 準確率期望(estimated mean accuracy)和平均標準差(standard error of the mean),對應公式如下:
期望:,
平均標準差:其中,方差為
? ? ? ? 官方給出了兩種訓練方式的原型:
??????? A: Image-Restricted Training
??????? 在這種方式下,不使用名字(name)作為參考, 比如:(10,12)還有(42,50)這兩對都是George_W_Bush,但是并不能直接把(10,42)作為已配對的圖像直接加入訓練集。但如果是(1,2),(2,3)匹配,則可以認為(1,3)也是匹配的。兩種view都支持這種方式。參見pairsDevTrain.txt、pairsDevTest.txt以及 pairs.txt
??????? B: Unrestricted Training 。
??????? 相比第一種方式,如果出現上述情況,則可以直接把(10,42),(10,50),(12,42),(12,50)都加入數據集中。參見peopleDevTrain.txt 、peopleDevTest.txt,但是訓練集和測試集不可以混合使用。在view2數據集中,people.txt支持這種模式,但僅僅是用于生成訓練集。
更多的細節,可以參考官網的tech report,如有出入,已官網為準。
————————————————2016年11月2日更新——————————————
理想情況下,應該有足夠多的數據來保障訓練、校正和測試完全獨立完成,LFW數據集采用一定程度的數據復用,來擴大數據集數量,但為了不虛報或者人為提高準確率,官方有如下用法推薦:大致依照如下步驟進行
(1)算法改進或模型選擇(algorithm development or model selection)
a)使用view1 訓練并測試盡可能多的模型,并做參數調整;
b)保持測試表現最好的模型參數設置(model M*);
(2)展示報告(performance reporting)
a)直接使用view2數據集;
b)循環i=1到10 (for i = 1 to 10)
?i)通過聯合view2下 除了 i 子集的所有子集,形成試驗 i 的訓練集;
ii)將 model M* 的參數設置用于該訓練集,生成分類器 i ;
? ? ? ? iii)使用子集 i 作為測試集;
iv)在測試集上記錄分類器 i 的結果;
c)用10個分類器的結果計算期望準確率和平均標準差(?參考上面給出的公式);
d)最后,確定使用的是那種方式并報告(image-restricted or unrestricted)。
總結
- 上一篇: List<实体>转json
- 下一篇: MATLAB调用C/C++函数的方法