3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

人脸检测:Viola-Jones

發(fā)布時間:2023/12/14 pytorch 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 人脸检测:Viola-Jones 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

這篇論文是2001年投稿、2004年發(fā)表的,作者是Paul Viola和Michael J. Jones。有趣的是當年的論文需要兩年的審議時間,而如今兩個月前的論文就可能過時了,時代在變化。

這篇論文實現(xiàn)了實時的人臉檢測算法,是人臉檢測這一問題最重要的論文之一,現(xiàn)在的OpenCV中人臉檢測的方法就是基于這一論文。

概述

目標檢測任務框架中有三個問題:1、如何選擇待檢測區(qū)域;2、如何提取目標特征;3、如何判斷是不是指定目標。針對這三個問題,Viola-Jones給出的答案是:滑動窗口法,Haar-like特征和Cascading AdaBoost分類器。

人臉檢測

滑動窗口法

使用矩形框,依次滑動遍歷整個圖像,然后不斷增加矩形框的大小,繼續(xù)遍歷。這樣便可以檢測出不同大小的人臉區(qū)域,缺點是檢測的矩形框會有很多,影響速度。

Haar特征

Haar特征就是兩個矩形區(qū)域像素值和相減。如上圖所示,就是拿黑色區(qū)域的像素值和減去白色區(qū)域像素值的和。這樣的矩形窗選擇有很多種,最后得到的Haar特征非常的大,24*24的區(qū)域可以得到160000維特征。

積分圖

在Haar特征的計算中,主要就是求和并相減。如果每個窗口都這樣做,非常影響速度,其中的很多求和操作都是重復的。作者使用了積分圖加快求Haar特征這一操作。

(x,y)處積分圖的值就是該點左上角所有像素值的和。

當計算區(qū)域D的像素和時,只需要使用4+1-(2+3)即可,這樣就避免了多次的求和計算。

級聯(lián)Adaboost

AdaBoost

得到特征以后,如何判斷是不是人臉呢?這時候使用AdaBoost作為人臉的分類器。AdaBoost是一種用于分類的機器學習方法,它使用多個弱分類器組合形成一個強分類器,這部分具體內容可以看看維基百科或者李航的《統(tǒng)計學習方法》。 使用AdaBoost的意義在于:從大量的潛在的候選特征集合中選出少量的關鍵視覺特征。Haar特征維數(shù)龐大,必須借助AdaBoost選取其中最關鍵的一些特征。

級聯(lián)

作者使用多個AdaBoost分類器進行級聯(lián)來區(qū)分是否是人臉。這些分類器中,越往后越復雜,相應的計算時間也就越長。每一級的分類器都將本級分類器認為是圖像的背景區(qū)域(無人臉區(qū)域)丟棄掉, 以便下一級的分類器能夠將主要的計算力和精力放在更像是人臉的區(qū)域。只要前面任何一級認為該區(qū)域不是人臉,那么就停止檢測的過程,檢測窗口滑動到下一個矩形區(qū)域。 作者在論文中采用的分類器的個數(shù)為38個, 盡管分類器的數(shù)目很多, 但是由于采用了這種級聯(lián)的結構使得檢測速度得到提升。

綜合起來,看段視頻就清楚了:

http://weibo.com/tv/v/DnL35Ch2r?fid=1034:9fdac15750897f55067bc247c2c6c6c2

結果

這篇論文發(fā)表于2001年,在700 MHz Pentium III處理器上,384*288的圖片檢測時間為0.067s。

總結

這篇論文是人臉檢測的重要論文之一,它標志著人臉檢測問題達到實用。在OpenCV中的人臉檢測就是使用了這個算法。目標檢測問題框架中有三個問題:1、如何選擇待檢測區(qū)域;2、如何提取目標特征;3如何判斷是不是指定對象。這幾年流行的R-CNN方法也是這樣的框架,只是對其中的一些步驟進行了優(yōu)化。

<p style="letter-spacing:.5px;color:rgb(62,62,62);font-size:16px;margin-left:0em;"><span style="letter-spacing:.5px;"><span style="color:rgb(133,118,106);font-size:12.6316px;text-align:justify;"> 作者丨葛政</span><span style="color:rgb(133,118,106);font-size:12.6316px;"></span></span></p><p style="letter-spacing:0px;margin-left:0em;color:rgb(62,62,62);font-size:16px;line-height:1.5em;"><span style="color:rgb(133,118,106);font-size:12.6316px;letter-spacing:.5px;">學校丨<span style="color:rgb(133,118,106);font-size:12.6316px;letter-spacing:3px;text-align:justify;">早稻田大學碩士生</span></span></p><p style="letter-spacing:0px;margin-left:0em;color:rgb(62,62,62);font-size:16px;line-height:1.5em;"><span style="color:rgb(133,118,106);font-size:12.6316px;letter-spacing:.5px;">研究方向丨深度學習,計算機視覺</span></p><p style="letter-spacing:0px;margin-left:0em;color:rgb(62,62,62);font-size:16px;line-height:1.5em;"><span style="color:rgb(133,118,106);font-size:12.6316px;letter-spacing:.5px;"><span style="color:rgb(133,118,106);font-size:12.6316px;letter-spacing:.5px;">個人博客丨Xraft.Lab</span></span></p><p style="line-height:1.75em;"><br></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">相信做機器學習或深度學習的同學們回家總會有這樣一個煩惱:<strong>親朋好友詢問你從事什么工作的時候,如何通俗地解釋能避免尷尬?</strong></span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">我嘗試過很多名詞來形容自己的工作:機器學習,深度學習,算法工程師/研究員,搞計算機的,程序員…這些詞要么自己覺得不滿意,要么對方聽不懂。經歷無數(shù)次失敗溝通,<strong>最后總結了一個簡單實用的答案:“做人臉識別的”</strong>。</span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">為什么這個答案管用,因為人臉識別在深度學習相關領域的課題中屬于商業(yè)落地情景多,被普及率廣的一項技術,以至于誰說不出幾個人臉識別應用,都有那么點落后于時代的意思。</span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">今天出這篇人臉識別,是基于我過去三個月在人臉識別方向小小的探索,希望能<strong>為非技術從業(yè)者提供人臉識別的基本概念</strong>(第一部分),以及<strong>為人臉識別愛好者和入門人員提供儲備知識和實驗數(shù)據(jù)參考</strong>(第二、第三部分),也歡迎專業(yè)人士提供寶貴的交流意見。&nbsp;</span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><strong><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">本文將從接下來三個方面介紹人臉識別</span></strong><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">,讀者可根據(jù)自身需求選擇性閱讀:</span></p><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;"><br></span></p><ul class="list-paddingleft-2" style="list-style-type:disc;"><li><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">Chapter 1:人臉識別是什么?怎么識別?&nbsp;</span></p></li><li><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">Chapter 2:科研領域近期進展&nbsp;</span></p></li><li><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);line-height:1.75em;text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;text-align:justify;letter-spacing:.5px;">Chapter 3:實驗及細節(jié)</span></p></li></ul><p style="letter-spacing:.5px;font-size:16px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><br></p><h1 style="font-weight:bold;color:rgb(62,62,62);line-height:1.2;border-left-color:rgb(16,142,233);font-size:20px !important;border-left-width:6px !important;border-left-style:solid !important;letter-spacing:1px !important;word-spacing:1px !important;"><a name="t0"></a><span style="letter-spacing:.5px;">Chapter 1</span></h1><p style="text-align:justify;line-height:normal;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(51,51,51);letter-spacing:.5px;font-size:18px;">人臉識別是什么</span></strong><br></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">人臉識別問題宏觀上分為兩類:1. 人臉驗證(又叫人臉比對)2. 人臉識別。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">人臉驗證做的是 1 比 1 的比對,即判斷兩張圖片里的人是否為同一人。<strong>最常見的應用場景便是人臉解鎖</strong>,終端設備(如手機)只需將用戶事先注冊的照片與臨場采集的照片做對比,判斷是否為同一人,即可完成身份驗證。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">人臉識別做的是 1 比 N 的比對,即判斷系統(tǒng)當前見到的人,為事先見過的眾多人中的哪一個。比如<strong>疑犯追蹤,小區(qū)門禁,會場簽到,以及新零售概念里的客戶識別</strong>。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;">這些應用場景的共同特點是:人臉識別系統(tǒng)都事先存儲了大量的不同人臉和身份信息,系統(tǒng)運行時需要將見到的人臉與之前存儲的大量人臉做比對,找出匹配的人臉。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;">兩者在早期(2012年~2015年)是通過不同的算法框架來實現(xiàn)的,想同時擁有人臉驗證和人臉識別系統(tǒng),需要分開訓練兩個神經網絡。而 2015 年 Google 的 <strong>FaceNet</strong>&nbsp;<span style="color:rgb(136,136,136);font-size:15px;letter-spacing:.5px;text-align:justify;">[1]</span> 論文的發(fā)表改變了這一現(xiàn)狀,將兩者統(tǒng)一到一個框架里。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(51,51,51);letter-spacing:.5px;">人臉識別,怎么識別</span></strong></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">這部分只想闡明一個核心思想:<strong>不同人臉由不同特征組成</strong>。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">理解這個思想,首先需要引入的的是“特征”的概念。先看下面這個例子:</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/f39a94ac1ee6e9e9b7be8beb43d6e00b.png" alt="640"></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">假設這 5 個特征足夠形容一張人臉,那每張人臉都可表示為這 5 個特征的組合:</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:center;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">&nbsp;(特征1,特征2,特征3,特征4,特征5)</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">一位雙眼皮,挺鼻梁,藍眼睛,白皮膚,瓜子臉的歐美系小鮮肉即可用特征表示為(見表格加粗項):&nbsp;</span></p><p style="letter-spacing:.5px;text-align:center;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:center;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">(1,1,0,1,0)</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">那么遍歷上面這張?zhí)卣鞅砀褚还部梢源?lt;/span><img src="https://img-blog.csdnimg.cn/img_convert/b355702d7f5632ffd1475c16f27a1b72.png" alt="640"><span style="color:rgb(51,51,51);font-size:15px;">張不同的臉。32 張臉可遠遠不夠覆蓋 70 多億的人口。為了讓不同特征組成的人臉能覆蓋足夠多人臉,我們需要擴充上面那張?zhí)卣鞅怼U張?zhí)卣鞅砜梢詮男小⒘袃蓚€角度展開。&nbsp;</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">列的角度很簡單,只需要增加特征數(shù)量:(特征6.臉型,特征7.兩眼之間距離,特征8.嘴唇厚薄…)實際應用中通常應用 128,256,512 或者 1024 個不同特征,<strong>這么多特征從哪來</strong>,該不會人為一個一個去設計吧?這個問題在后面會解答。&nbsp;</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">從行的角度擴充也很好理解,比如“特征3”,除了值 0 代表藍色,值 1 代表灰色,是不是可以增加一個值 2 代表黑色,值 3 代表沒有頭發(fā)呢?此外,除了這些離散的整數(shù),我們也可以取連續(xù)的小數(shù),比如特征 3 的值 0.1,代表“藍中略微帶黑”,值 0.9 代表“灰中帶藍”……</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">經過這樣的擴充,特征空間便會變得無限大。擴充后特征空間里的一張臉可能表示為:&nbsp;</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:center;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">(0, 1, 0.3, 0.5, 0.1, 2, 2.3, 1.75,…)</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">之前提出的問題:<strong>用于表示人臉的大量特征從哪來?</strong>這便是深度學習(深度神經網絡)發(fā)揮作用的地方。它通過在千萬甚至億級別的人臉數(shù)據(jù)庫上學習訓練后,會自動總結出最適合于計算機理解和區(qū)分的人臉特征。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">算法工程師通常需要一定的可視化手段才能知道機器到底學習到了哪些利于區(qū)分不同人的特征,當然這部分不是本節(jié)重點。&nbsp;</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">闡明了<strong>不同人臉由不同特征組成</strong>后,我們便有了足夠的知識來分析人臉識別,到底怎么識別。&nbsp;</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">現(xiàn)在考慮最簡單最理想的情況,用于區(qū)分不同人的特征只有兩個:特征1和特征2。那么每一張臉都可以表示為一個坐標(特征1,特征2),即特征空間(這個例子里是二維空間)內的一個點。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">人臉識別基于一個默認成立的假設:<strong>同一個人在不同照片里的臉,在特征空間里非常接近</strong>。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">為什么這個假設默認成立,設想一下,一個棕色頭發(fā)的人,在不同光照,遮擋,角度條件下,發(fā)色看起來雖然有輕微的區(qū)別,但依然與真實顏色非常接近,反應在發(fā)色的特征值上,可能是 0 到 0.1 之間的浮動。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;">深度學習的另一任務和挑戰(zhàn)便是在各種極端復雜的環(huán)境條件下,精確的識別各個特征。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/c23a4f2a3998715da1afcaaa2949ef05.png" alt="640"></p><p style="text-align:center;"><br></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(51,51,51);letter-spacing:.5px;"></span><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">上圖是在熊本做大規(guī)模人臉數(shù)據(jù)集去噪演講時用的 PPT,三張山下智久的照片經過神經網絡提取出 128 維的特征后,變成了 3 個在 128 維空間中的點(紅色),石原里美的特征點為綠色。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">這張 PPT 想表達同樣的意思:<strong>同一人的不通照片提取出的特征,在特征空間里距離很近,不同人的臉在特征空間里相距較遠</strong>。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">再來考慮人臉識別領域的兩個問題:<strong>人臉驗證</strong>和<strong>人臉識別</strong>。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(51,51,51);letter-spacing:.5px;text-align:justify;">人臉驗證</span></strong></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">比如 FaceID 人臉解鎖,iPhone 事先存了一張用戶的照片(需要用戶注冊),這張照片變成了轉換成了一連串特征數(shù)值(即特征空間里的一個點),用戶解鎖時,手機只需要對比當前采集到的臉和事先注冊的臉在特征空間里的幾何距離,如果距離足夠近,則判斷為同一人,如果距離不夠近,則解鎖失敗。距離閾值的設定,則是算法工程師通過大量實驗得到的。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(51,51,51);letter-spacing:.5px;text-align:justify;">人臉識別</span></strong></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">同樣考慮一個場景,人臉考勤。公司 X 有員工 A,B,C,公司會要求三名員工在入職的時候各提供一張個人照片用于注冊在公司系統(tǒng)里,靜靜地躺在特征空間中。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">第二天早上員工 A 上班打卡時,將臉對準考勤機器,系統(tǒng)會把當前員工 A 的臉放到特征空間里,與之前特征空間里注冊好的臉一一對比,發(fā)現(xiàn)注冊的臉中距離當前采集到的臉最近的特征臉是員工 A,打卡完畢。</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">知道了人臉識別的基本原理,便能看清它的技術局限。下圖展示了一些容易識別失敗的案例:</span></p><p style="letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/1012c3d54b1c0dbbd993014f5c5d82f6.png" alt="640"></p><p style="text-align:center;"><br></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">在光照較差,遮擋,形變(大笑),側臉等諸多條件下,神經網絡很難提取出與“標準臉”相似的特征,<strong>異常臉在特征空間里落到錯誤的位置,導致識別和驗證失敗</strong>。這是現(xiàn)代人臉識別系統(tǒng)的局限,一定程度上也是深度學習(深度神經網絡)的局限。</span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">面對這種局限,<strong>通常采取三種應對措施,使人臉識別系統(tǒng)能正常運作</strong>:</span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;"><strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">1. 工程角度</span></strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">:</span><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">研發(fā)質量模型,對檢測到人臉質量進行評價,質量較差則不識別/檢驗。</span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;"><strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">2. 應用角度</span></strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">:施加場景限制,比如刷臉解鎖,人臉閘機,會場簽到時,都要求用戶在良好的光照條件下正對攝像頭,以避免采集到質量差的圖片。</span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;"><strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">3. 算法角度</span></strong><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">:提升人臉識別模型性能,在訓練數(shù)據(jù)里添加更多復雜場景和質量的照片,以增強模型的抗干擾能力。</span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;"><span style="color:rgb(51,51,51);font-size:15px;letter-spacing:.5px;text-align:justify;">總而言之,人臉識別/深度學習還遠未達到人們想象的那般智能。希望各位讀者看完第一節(jié)后,有能力分辨社交網絡,自媒體上的信息真?zhèn)?#xff0c;更理性的看待人工智能,給它時間和包容,慢慢成長。</span></p><h1 style="font-weight:bold;color:rgb(62,62,62);line-height:1.2;border-left-color:rgb(16,142,233);font-size:20px !important;border-left-width:6px !important;border-left-style:solid !important;letter-spacing:1px !important;word-spacing:1px !important;text-align:left;"><a name="t1"></a><span style="letter-spacing:.5px;">Chapter 2</span></h1><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:normal;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"> 這部分將從兩個思路跟進現(xiàn)代人臉識別算法:&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">思路1</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">:Metric Learning: Contrastive Loss, Triplet loss 及相關 sampling method。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">思路2</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">:Margin Based Classification: 包含 Softmax with Center loss, Sphereface, NormFace, AM-softmax (CosFace) 和 ArcFace.&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">關鍵字</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">:DeepID2, Facenet, Center loss, Triplet loss, Contrastive Loss, Sampling method, Sphereface, Additive Margin Softmax (CosFace), ArcFace.&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(63,63,63);letter-spacing:.5px;"><br></span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="font-size:18px;color:rgb(63,63,63);letter-spacing:.5px;">思路1:Metric Learning&nbsp;</span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">Contrastive Loss</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">基于深度學習的人臉識別領域最先應用 Metric Learning 思想之一的便是 <strong>DeepID2</strong> </span><span style="font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);">[2]</span><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"> 了,同 Chapter 1 的思想,“特征”在這篇文章中被稱為“DeepID Vector”。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">DeepID2 在同一個網絡同時訓練 Verification 和 Classification(即有兩個監(jiān)督信號)</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">。其中 Verification Loss 便在特征層引入了 Contrastive Loss。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">Contrastive Loss 本質上是使同一個人的照片在特征空間距離足夠近,不同人在特征空間里相距足夠遠直到超過某個閾值 m(聽起來和 Triplet Loss 很像)。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">基于這樣的 insight,DeepID2 在訓練的時候不是以一張圖片為單位了,而是以 Image Pair 為單位,每次輸入兩張圖片,為同一人則 Verification Label 為 1,不是同一人則 Label 為 -1,參數(shù)更新思路見下面公式(截自 DeepID2 論文):</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/f96d60a98de56cf9e9c005bb53f72c6d.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">DeepID2 在 14 年是人臉領域非常有影響力的工作,也掀起了在人臉領域引進 Metric Learning 的浪潮。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">Triplet Loss from FaceNet&nbsp;</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">這篇 15 年來自 Google 的 FaceNet 同樣是人臉識別領域的分水嶺性工作。不僅僅因為他們成功應用了 Triplet Loss 在 benchmark 上取得 state-of-art 的結果,更因為他們<strong>提出了一個絕大部分人臉問題的統(tǒng)一解決框架</strong>,即:識別、驗證、搜索等問題都可以放到特征空間里做,需要專注解決的僅僅是如何將人臉更好的映射到特征空間。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">為此,Google 在 DeepID2 的基礎上,拋棄了分類層即 Classification Loss,將 Contrastive Loss 改進為 Triplet Loss,只為了一個目的:<strong>學到更好的 feature</strong>。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">Triplet Loss 的思想也很簡單,輸入不再是 Image Pair,而是三張圖片(Triplet),分別為 Anchor Face,Negative Face 和 Positive Face。Anchor 與 Positive Face 為同一人,與 Negative Face 為不同人。那么 Triplet Loss 的損失即可表示為:</span><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img src="https://img-blog.csdnimg.cn/img_convert/3c98f74d94515313ab9a609526fd9d4e.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"></span><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">直觀解釋為:在特征空間里 Anchor 與 Positive 的距離要小于 Anchor 與 Negative 的距離超過一個 Margin Alpha。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">有了良好的人臉特征空間,人臉問題便轉換成了 Chapter 1 末尾形容的那樣簡單直觀。附上一張我制作的 Contrastive Loss 和 Triplet Loss 的 PPT:</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/7b06d46afdad1dc58161f85191997964.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><strong><br></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(63,63,63);">Metric Learning 的問題&nbsp;</span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">基于 Contrastive Loss 和 Triplet Loss 的 Metric Learning 符合人的認知規(guī)律,在實際應用中也取得了不錯的效果,但是它<strong>有非常致命的兩個問題</strong>,使應用它們的時候猶如 pain in the&nbsp;ass。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">1. 模型需要很很很很很很很很很很很很很很長時間才能擬合</span></strong><span style="color:rgb(63,63,63);font-size:15px;">(months mentioned in FaceNet paper),Contrastive Loss 和 Triplet Loss 的訓練樣本都基于 pair 或者 triplet 的,可能的樣本數(shù)是 O (N2) 或者 O (N3) 的。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">當訓練集很大時,基本不可能遍歷到所有可能的樣本(或能提供足夠梯度額的樣本),所以一般來說需要很長時間擬合。我在 10000 人,500,000 張左右的亞洲數(shù)據(jù)集上花了近一個月才擬合。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">2. 模型好壞很依賴訓練數(shù)據(jù)的 Sample 方式</span></strong><span style="color:rgb(63,63,63);font-size:15px;">,理想的 Sample 方式不僅能提升算法最后的性能,更能略微加快訓練速度。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">關于這兩個問題也有很多學者進行了后續(xù)研究,下面的內容作為 Metric Learning 的延伸閱讀,不會很詳細。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(63,63,63);">Metric Learning 延伸閱讀</span></strong></span><strong><span style="color:rgb(63,63,63);font-size:15px;">&nbsp;</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">1. Deep Face Recognition </span><span style="font-size:15px;color:rgb(136,136,136);">[3]</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;"><br></span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">為了加速 Triplet Loss 的訓練,這篇文章先用傳統(tǒng)的 softmax 訓練人臉識別模型</span></strong><span style="color:rgb(63,63,63);font-size:15px;">,因為 Classficiation 信號的強監(jiān)督特性,模型會很快擬合(通常小于 2 天,快的話幾個小時)。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">之后移除頂層的 Classificiation Layer,用 Triplet Loss 對模型進行特征層 finetune,取得了不錯的效果。<strong>此外這篇論文還發(fā)布了人臉數(shù)據(jù)集 VGG-Face</strong>。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;"><br></span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">2. In Defense of the Triplet Loss for Person Re-Identification </span><span style="font-size:15px;color:rgb(136,136,136);">[4]</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">這篇文章提出了三個非常有意思的觀點:</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><ul class="list-paddingleft-2" style="list-style-type:disc;"><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">作者說實驗中,平方后的歐幾里得距離(Squared Euclidean Distance)表現(xiàn)不如開方后的真實歐幾里得距離(Non-squared Euclidean Distance),直白來說就是把下圖公式中的平方摘掉。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p></li><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">提出了 Soft-Margin 損失公式替代原始的 Triplet Loss 表達式。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p></li><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"> 引進了 Batch Hard Sampling。</span><br></p></li></ul><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img src="https://img-blog.csdnimg.cn/img_convert/a4c1dddeaf5b96d49ddcb2144711a57b.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">3. Sampling Matters in Deep Embedding Learning </span></strong><span style="color:rgb(136,136,136);"><strong><span style="font-size:15px;letter-spacing:.5px;">[5]</span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">這篇文章提出了兩個有價值的點:</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><ul class="list-paddingleft-2" style="list-style-type:disc;"><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"> 從導函數(shù)角度解釋了為什么第 2 點中提到的 <span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">Non-squared Distance</span> 比 Squared-distance 好,并在這個 insight 基礎上提出了 Margin Based Loss(本質還是 Triplet Loss 的 variant,見下圖,圖片取自原文)。</span></p><p style="line-height:1.75em;"><br></p></li><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">提出了 Distance Weighted Sampling。文章說 FaceNet 中的 Semi-hard Sampling,Deep Face Recognition</span><span style="font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);"> [3]</span><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"> 中的 Random Hard 和 </span><span style="font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);">[4]&nbsp;</span><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">中提到的 Batch Hard 都不能輕易取到會產生大梯度(大 loss,即對模型訓練有幫助的 triplets),然后從統(tǒng)計學的視角使用了 Distance Weighted Sampling Method。</span></p></li></ul><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/a952d319548e938ab562c9777e89bba2.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"> <br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">4. 我的實驗感想</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><ul class="list-paddingleft-2" style="list-style-type:disc;"><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">2、3 點中提到的方式在試驗中都應用過,直觀感受是 Soft-Margin 和Margin Based Loss 都比原始的 Triplet Loss 好用,但是 Margin Based Loss 實驗中更優(yōu)越。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p></li><li><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">Distance Weighted Sampling Method 沒有明顯提升。 </span></p></li></ul><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;">延伸閱讀中有提到大家感興趣的論文,可參考 reference 查看原文。最后,值得注意的是,<strong>Triplet Loss 在行人重識別領域也取得了不錯的效果</strong>,雖然很可能未來會被 Margin Based Classfication 打敗。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:left;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(63,63,63);">思路2:Margin Based Classification&nbsp;</span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">顧名思義,Margin Based Classficiation 不像在 feature 層直接計算損失的 Metric Learning 那樣,對 feature 加直觀的強限制,而是<strong>依然把人臉識別當 classification 任務進行訓練</strong>,通過對 softmax 公式的改造,間接實現(xiàn)了對 feature 層施加 margin 的限制,使網絡最后得到的 feature 更 discriminative。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">這部分先從 <strong>Sphereface</strong></span><span style="font-size:15px;color:rgb(136,136,136);"> [6] </span><span style="color:rgb(63,63,63);font-size:15px;">說起。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">Sphereface&nbsp;</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">先跟隨作者的 insight 理下思路(圖截自原文):</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/e44f9dc2d085c496632aeb8d2f860eec.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">圖 (a) 是用原始 softmax 損失函數(shù)訓練出來的特征,圖 (b) 是歸一化的特征。不難發(fā)現(xiàn)在 softmax 的特征從角度上來看有 latent 分布。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">那么為何不直接去優(yōu)化角度呢?<strong>如果把分類層的權重歸一化</strong>,并且不考慮偏置的話,就得到了改進后的損失函數(shù):</span><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/49782f9d6a1562b5692932b5d5d63f6d.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">不難看出,對于特征 x_i,該損失函數(shù)優(yōu)化的方向是使得其向該類別 y_i 中心靠近,并且遠離其他的類別中心。這個目標跟人臉識別目標是一致的,最小化類內距離并且最大化類間距離。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">然而為了保證人臉比對的正確性,還要保證最大類內距離還要小于最小類間距離。上面的損失函數(shù)并不能保證這一點。所以作者引入了 margin 的思想,這跟 Triples Loss 里面引入 Margin Alpha 的思想是一致的。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">那么作者是如何進一步改進上式,引入 margin 的呢?</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">上式紅框中是樣本特征與類中心的余弦值,我們的目標是縮小樣本特征與類中心的角度,即增大這個值。換句話說,如果這個值越小,損失函數(shù)值越大,即我們對偏離優(yōu)化目標的懲罰越大。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">也就是說,這樣就能進一步的縮小類內距離和增大類間距離,達到我們的目標。基于這樣的思想最終的損失函數(shù)為如下:</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/b00095bf8e065591e754d1054de6ea3a.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">原始的 cos(θ) 被換成了 phi(θ),phi(θ) 的最簡單形式其實是 cos(mθ),之所以在原文中變得復雜,只是為了將定義域擴展到 [0,2π] 上,并保證在定義域內單調遞減。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">而這個 m 便是增加的 margin 系數(shù)。當 m=1 時,phi(θ) 等于 cos(θ),當 m&gt;1 時,phi 變小,損失變大。超參 m 控制著懲罰力度,m 越大,懲罰力度越大。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">為計算方便,m 一般設為整數(shù)。作者從數(shù)學上證明了,m&gt;=3 就能保證最大類內距離小于最小類間距離。實現(xiàn)的時候使用倍角公式。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">另外:Sphereface 的訓練很 tricky,關于其訓練細節(jié),這篇文章并沒有提到,而是參考了作者前一篇文章 </span><span style="font-size:15px;color:rgb(136,136,136);">[10]</span><span style="color:rgb(63,63,63);font-size:15px;">。有關訓練細節(jié)讀者也可以去作者 Github 上去尋找,issues 里面有很多討論。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;"><br></span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;">Normface</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">Sphereface 效果很好,但是它不優(yōu)美。在測試階段,Sphereface 通過特征間的余弦值來衡量相似性,即以角度為相似性的度量。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">但在訓練階段,不知道讀者有沒有注意到,其實 Sphereface 的損失函數(shù)并不是在直接優(yōu)化特征與類中心的角度,而是優(yōu)化特征與類中心的角度在乘上一個特征的長度。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">也就是說,我在上文中關于 Sphereface 損失函數(shù)優(yōu)化方向的表述是不嚴謹?shù)?#xff0c;其實優(yōu)化的方向還有一部分是去增大特征的長度去了。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">我在 MNIST 數(shù)據(jù)集上做過實驗,以下圖片分別為 m=1 和 m=4 時的特征可視化,注意坐標的尺度,就能驗證上述觀點。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/ac0a2bbd4c66c614dca63ae3eef5cdfa.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">然而特征的長度在我們使用模型的時候是沒有幫助的。這就造成了 training 跟 test 之間目標不一致,按照 Normface 作者原話說就是存在一個 gap。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;">于是 Normface 的核心思想就出來了:<strong>為何在訓練的時候不把特征也做歸一化處理?</strong>相應的損失函數(shù)如下:</span><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/eaeef829594306b906bf36bd374ee383.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">其中 W 是歸一化的權重,f_i 是歸一化的特征,兩個點積就是角度余弦值。參數(shù) s 的引入是因為數(shù)學上的性質,保證了梯度大小的合理性,原文中有比較直觀的解釋,這里不是重點。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">如果沒有 s 訓練將無法收斂。關于 s 的設置,可以把它設為可學習的參數(shù)。但是作者更推薦把它當做超參數(shù),其值根據(jù)分類類別多少有相應的推薦值,這部分原文 appendix 里有公式。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">文章中還有指出一點,<strong>FaceNet 中歸一化特征的歐式距離,和余弦距離其實是統(tǒng)一的</strong>。還有關于權重與特征的歸一化,這篇文章有很多有意思的探討,有興趣的讀者建議閱讀原文。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">AM-softmax </span></strong><span style="color:rgb(136,136,136);"><strong><span style="font-size:15px;letter-spacing:.5px;text-align:justify;">[11]</span></strong></span><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"> / CosFace </span></strong><span style="color:rgb(136,136,136);"><strong><span style="font-size:15px;letter-spacing:.5px;text-align:justify;">[12]</span></strong></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">這兩篇文章是同一個東西。Normface 用特征歸一化解決了 Sphereface 訓練和測試不一致的問題。但是卻沒有了 margin 的意味。AM-softmax 可以說是在 Normface 的基礎上引入了 margin。直接上損失函數(shù):</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/1f7270c855a16fd2af0cdce0f5d0adab.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">其中這里的權重和特征都是歸一化的。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">直觀上來看,cos(θ)-m 比 cos(θ) 更小,所以損失函數(shù)值比 Normface 里的更大,因此有了 margin 的感覺。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">m 是一個超參數(shù),控制懲罰的力度,m 越大,懲罰越強。作者推薦 m=0.35。這里引入 margin 的方式比 Sphereface 中的‘溫柔’,不僅容易復現(xiàn),沒有很多調參的 tricks,效果也很好。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">ArcFace </span><span style="font-size:15px;letter-spacing:.5px;text-align:justify;color:rgb(136,136,136);">[13]</span><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">&nbsp;</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">與 AM-softmax 相比,區(qū)別在于 Arcface 引入 margin 的方式不同,損失函數(shù):</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/0f55c8103d4db4ee79930576ffe243e6.png" alt="640"></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"></span><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">乍一看是不是和 AM-softmax一樣?注意 m 是在余弦里面。文章指出基于上式優(yōu)化得到的特征間的 boundary 更為優(yōu)越,具有更強的幾何解釋。&nbsp;</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">然而這樣引入 margin 是否會有問題?仔細想 cos(θ+m) 是否一定比 cos(θ) 小?</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">最后我們用文章中的圖來解釋這個問題,并且也由此做一個本章 Margin-based Classification 部分的總結。</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><br></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong style="font-size:18px;letter-spacing:.5px;text-align:justify;"><span style="color:#3f3f3f;">小結</span></strong></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><strong style="font-size:18px;letter-spacing:.5px;text-align:justify;"><span style="color:#3f3f3f;"><br></span></strong></p><p style="text-align:justify;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/441380fd74c1e730d528de770438e98a.png" alt="640"></p><p style="text-align:justify;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">這幅圖出自于 Arcface,橫坐標為 θ 為特征與類中心的角度,縱坐標為損失函數(shù)分子指數(shù)部分的值(不考慮 s),其值越小損失函數(shù)越大。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">看了這么多基于分類的人臉識別論文,相信你也有種感覺,大家似乎都在損失函數(shù)上做文章,或者更具體一點,大家都是在討論如何設計上圖的 Target logit-θ 曲線。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">這個曲線意味著你要如何優(yōu)化偏離目標的樣本,或者說,根據(jù)偏離目標的程度,要給予多大的懲罰。兩點總結:&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">1. 太強的約束不容易泛化</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">。例如 Sphereface 的損失函數(shù)在 m=3 或 4 的時候能滿足類內最大距離小于類間最小距離的要求。此時損失函數(shù)值很大,即 target logits 很小。但并不意味著能泛化到訓練集以外的樣本。施加太強的約束反而會降低模型性能,且訓練不易收斂。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">2. 選擇優(yōu)化什么樣的樣本很重要</span></strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">。Arcface 文章中指出,給予 θ∈[60° , 90°] 的樣本過多懲罰可能會導致訓練不收斂。優(yōu)化 θ ∈ [30° , 60°] 的樣本可能會提高模型準確率,而過分優(yōu)化 θ∈[0° , 30°] 的樣本則不會帶來明顯提升。至于更大角度的樣本,偏離目標太遠,強行優(yōu)化很有可能會降低模型性能。</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">這也回答了上一節(jié)留下的疑問,上圖曲線 Arcface 后面是上升的,這無關緊要甚至還有好處。因為優(yōu)化大角度的 hard sample 可能沒有好處。這和 FaceNet 中對于樣本選擇的 semi-hard 策略是一個道理。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="color:rgb(63,63,63);letter-spacing:.5px;text-align:justify;"><br></span></strong></span></p><p style="text-align:left;line-height:1.75em;"><span style="font-size:18px;"><strong><span style="font-size:18px;color:rgb(63,63,63);letter-spacing:.5px;text-align:justify;">Margin based classification 延伸閱讀&nbsp;</span></strong></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><strong><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">1. A discriminative feature learning approach for deep face recognition </span></strong><span style="color:rgb(136,136,136);"><strong><span style="font-size:15px;letter-spacing:.5px;text-align:justify;">[14]</span></strong></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">提出了 center loss,加權整合進原始的 softmax loss。通過維護一個歐式空間類中心,縮小類內距離,增強特征的 discriminative power。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><strong> </strong><strong>2. Large-margin softmax loss for convolutional neural networks </strong></span><span style="font-size:15px;letter-spacing:.5px;text-align:justify;color:rgb(136,136,136);"><strong>[10]</strong></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;">Sphereface 作者的前一篇文章,未歸一化權重,在 softmax loss 中引入了 margin。里面也涉及到 Sphereface 的訓練細節(jié)。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:15px;letter-spacing:.5px;text-align:justify;"><br></span></p><p style="text-align:justify;line-height:1.75em;"><em><span style="letter-spacing:.5px;text-align:justify;color:rgb(136,136,136);font-size:12px;">注:思路二由陳超撰寫</span></em></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:normal;"><br></p><h1 style="font-weight:bold;color:rgb(62,62,62);line-height:1.2;border-left-color:rgb(16,142,233);font-size:20px !important;border-left-width:6px !important;border-left-style:solid !important;letter-spacing:1px !important;word-spacing:1px !important;"><a name="t2"></a><span style="letter-spacing:.5px;">Chapter 3</span></h1><p style="margin-left:0em;line-height:normal;"><span style="color:rgb(136,136,136);font-size:12px;text-align:justify;letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">基于前兩章的知識,我在 lfw 上取得了 99.47% 的結果,這個結果訓練在 Vggface2 上,未與 lfw 去重,也沒經歷很痛苦的調參過程,算是 AM-softmax 損失函數(shù)直接帶來的收益吧。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">過程中踩了很多坑,這一章將把前段時間的實驗結果和心得做一個整理,此外也將回答絕大部分工程師在做人臉識別時最關心的一些問題。やりましょう!&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><blockquote><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="text-align:justify;letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);">項目地址:</span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="text-align:justify;letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);"><br></span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="text-align:justify;letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);text-decoration:underline;">https://github.com/Joker316701882/Additive-Margin-Softmax&nbsp;</span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="text-align:justify;letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);text-decoration:underline;"><br></span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="color:rgb(136,136,136);font-size:12px;text-align:justify;">包含代碼可以復現(xiàn)所有實驗結果&nbsp;</span><br></p></blockquote><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><strong><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">一個標準的人臉識別系統(tǒng)包含這幾個環(huán)節(jié)</span></strong><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">:人臉檢測及特征點檢測-&gt;人臉對齊-&gt;人臉識別。</span></p><p style="text-align:justify;margin-left:0em;line-height:1.75em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:18px;"><strong><span style="text-align:justify;color:rgb(63,63,63);letter-spacing:.5px;">人臉檢測 &amp; Landmark檢測</span></strong></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">目前最流行的人臉及 Landmark 檢測是 <strong>MTCNN</strong> </span><span style="text-align:justify;font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);">[7]</span><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">,但是 MTCNN 一方面偶爾檢測不到 face,一方面 Landmark 檢測不夠精準。這兩點都會給后續(xù)的對齊和識別帶來不利影響。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">另外在 COCO Loss </span><span style="color:rgb(136,136,136);text-align:justify;font-size:15px;letter-spacing:.5px;">[8</span><span style="text-align:justify;font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);">]</span><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"> 論文里提到:好的檢測和對齊方法,僅用 softmax 就能達到 99.75%,秒殺目前大多數(shù)最新論文的結果。COCO Loss 的 Github issue </span><span style="text-align:justify;font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);">[16]</span><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"> 里提到了更多細節(jié)。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">此外,因為 alignment 算法性能的區(qū)別,2017 年及以后的論文更加注重相對實驗結果的比較,以排除 alignment 算法引入的優(yōu)劣勢,方便更直觀比較各家的人臉識別算法,lfw 上輕松能達到 99% 以上也是現(xiàn)在更傾向于采用相對結果的原因。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:18px;"><strong><span style="text-align:justify;color:rgb(63,63,63);letter-spacing:.5px;">人臉對齊&nbsp;</span></strong></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">人臉對齊做的是將檢測到的臉和 Landmark 通過幾何變換,將五官變換到圖中相對固定的位置,提供較強的先驗。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">廣泛使用的對齊方法為 Similarity Transformation。更多對其變換方法和實驗可以參考這篇知乎文章&nbsp;<span style="color:rgb(136,136,136);font-size:15px;letter-spacing:.5px;text-align:justify;">[17]</span>。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><blockquote><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);"><span style="font-size:12px;text-align:justify;letter-spacing:.5px;">作者代碼實現(xiàn):</span></span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);"><span style="font-size:12px;text-align:justify;letter-spacing:.5px;"><br></span></span></p><p style="text-align:left;margin-left:0em;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);"><span style="font-size:12px;text-decoration:underline;">https://github.com/Joker316701882/Additive-Margin-Softmax/blob/master/align/align_lfw.py</span></span></p></blockquote><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><strong><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">值得探討的一個問題是:人臉檢測和對齊真的有必要嗎?</span></strong><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">現(xiàn)實應用中常出現(xiàn)人臉 Landmark 無法檢測的情況,沒有 Landmark 就無法使用 Similarity Transoformation。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">針對這個問題也有相關研究,通過使用 <strong>Spatial Transform Network</strong></span><span style="text-align:justify;font-size:15px;letter-spacing:.5px;color:rgb(136,136,136);"> [9]</span><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"> “讓網絡自己學習 alignment”,論文參考 <strong>End-to-End Spatial Transform Face Detection and Recognition</strong>。這方面的研究進展還不充分,所以實際系統(tǒng)中多數(shù)情況下還是使用了 detection-&gt;alignment 這套流程。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:18px;"><strong><span style="text-align:justify;color:rgb(63,63,63);letter-spacing:.5px;">人臉識別</span></strong></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">可以說人臉識別的項目中絕大部分問題都是人臉檢測和對齊的問題。識別模型之間的差距倒沒有那么明顯。不過訓練 AM-softmax 過程中依然碰到了些值得注意的問題。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">Spheraface 里提出的 Resface20,AM-softmax 中也同樣使用,一模一樣復現(xiàn)情況下在 lfw 上只能達到 94%。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">TensorFlow 中能擬合的情況為如下配置:</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><blockquote><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><em><span style="text-align:justify;letter-spacing:.5px;color:rgb(136,136,136);font-size:12px;">Adam, no weight decay, use batch normalization.</span></em></p></blockquote><p style="text-align:justify;margin-left:0em;line-height:1.75em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"> <br></span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(63,63,63);">對應原文配置:</span></p><p style="margin-left:0em;letter-spacing:.5px;text-align:justify;line-height:1.75em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><blockquote style="letter-spacing:.5px;"><p style="margin-left:0em;text-align:justify;line-height:1.75em;"><em><span style="color:rgb(136,136,136);font-size:12px;">Momentum, weight decay, no batch normalization.</span></em></p></blockquote><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">以及在實驗中發(fā)現(xiàn)的: 除了 Adam 以外的任何一個 optimizer 都達不到理想效果,這可能是不同框架底層實現(xiàn)有所區(qū)別的原因,Sphereface,、AM-softmax都是基于 Caffe,本文所有實驗全使用 TensorFlow,結論有區(qū)別也算正常。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">另一點,Sandberg FaceNet 中的 resnet-inception-v1 搬過來套用 AM-softmax 在 lfw 上的結果達不到 97%,這是過程中不太理解的點。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">從其他論文里看,如果 loss 選的沒問題,那諸如 resnet-inception,不同深度的 Resnet,甚至 Mobile-net,Squeezenet 等結構的表現(xiàn)也不該有明顯差距(AM-softmax 的情況下至少也該達到99%)。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">此外,直接套用 Arcface 也無法擬合,需要進一步實驗。&nbsp;</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">最后,關于 Sandberg 的 code 中一個值得關注的點,他將 train_op 定義在了 facenet.train() 函數(shù)里,仔細閱讀這個函數(shù)會發(fā)現(xiàn),Sandberg 的代碼中所有網絡參數(shù)并不是采用每次更新梯度后的值,而是采用滑動平均值作為網絡實際的參數(shù)值。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">也正是因為這個原因,解釋了 Sandberg 在 batch_norm 的參數(shù) configuration中,甚至沒把”is_training”的值交給 placeholder,而是默認 train 和 test 時都采用 local statistics 的模式。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">如果不是因為所有參數(shù)都用了滑動平均,那么這種使用 batch_norm 的做法其實是錯誤的。Sandberg 這樣實現(xiàn)的好壞只能交給實驗結果來評判了。</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="font-size:15px;color:rgb(63,63,63);">如果想正常使用網絡參數(shù)和 batch norm,而不是用滑動平均參數(shù)和全程開著“is_training”,只需要將 facenet.train() 函數(shù)替換成普通的 Optimizer,然后將 batch_norm的“is_training”交給 placeholder 處理,詳細可以參考我的 AM-softmax 實現(xiàn)。</span></p><p style="text-align:justify;margin-left:0em;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/d190e1a6af76674a09532bf4e8600782.png" alt="640"></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;">感謝大家堅持閱讀到最后,以 TensorBoard 的 plot 作為結尾吧!</span></p><p style="text-align:justify;line-height:1.75em;margin-left:0em;"><span style="text-align:justify;font-size:15px;color:rgb(63,63,63);letter-spacing:.5px;"><br></span></p><p style="text-align:center;"><img class="img_loading" src="https://img-blog.csdnimg.cn/img_convert/4501cee825a4ed007756dd4f441491e1.png" alt="640"></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><br></p><h1 style="font-weight:bold;color:rgb(62,62,62);line-height:1.2;border-left-color:rgb(16,142,233);font-size:20px !important;border-left-width:6px !important;border-left-style:solid !important;letter-spacing:1px !important;word-spacing:1px !important;"><a name="t3"></a><span style="letter-spacing:.5px;">參考文獻</span></h1><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="color:rgb(63,63,63);font-size:15px;"><br></span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[1] F. Schroff, D. Kalenichenko, and J. Philbin. Facenet: A unified embedding for face recognition and clustering. In Proc. CVPR, 2015.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[2] Y. Sun, X. Wang, and X. Tang. Deep learning face representation by joint identification-verification. CoRR, abs/1406.4773, 2014.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[3] O. M. Parkhi, A. Vedaldi, and A. Zisserman. Deep face recognition. In BMVC, 2015&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[4] A. Hermans, L. Beyer, and B. Leibe. In defense of the triplet loss for person re-identification. arXiv preprint arXiv:1703.07737, 2017&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[5] Wu, C. Manmatha, R. Smola, A. J. and Krahenb uhl, P. 2017. Sampling matters in deep embedding learning. arXiv preprint arXiv:1706.07567&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[6] W. Liu, Y. Wen, Z. Yu, M. Li, B. Raj, and L. Song. Sphereface: Deep hypersphere embedding for face recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[7] Zhang, K., Zhang, Z., Li, Z., Qiao, Y.: Joint face detection and alignment using multi-task cascaded convolutional networks. arXiv preprint, 2016&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[8] Yu Liu, Hongyang Li, and Xiaogang Wang. 2017. Learning Deep Features via Congenerous Cosine Loss for Person Recognition. arXiv preprint arXiv:1702.06890, 2017&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[9] M. Jaderberg, K. Simonyan, A. Zisserman, and K. Kavukcuoglu. Spatial transformer networks. In NIPS, 2015.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[10] W. Liu, Y. Wen, Z. Yu, and M. Yang. Large-margin softmax loss for convolutional neural networks. In ICML, 2016.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[11] F. Wang, W. Liu, H. Liu, and J. Cheng. Additive margin softmax for face verification. In arXiv:1801.05599, 2018.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[12] CosFace: Large Margin Cosine Loss for Deep Face Recognition&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[13] Deng, J., Guo, J., Zafeiriou, S.: Arcface: Additive angular margin loss for deep face recognition. In: Arxiv preprint. 2018&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[14] Y. Wen, K. Zhang, Z. Li, and Y. Qiao. A discriminative feature learning approach for deep face recognition. In ECCV, 2016.&nbsp;</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[15] Y. Liu, H. Li, and X. Wang. Rethinking feature discrimination and polymerization for large-scale recognition. arXiv:1710.00870, 2017.</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[16] https://github.com/sciencefans/coco_loss/issues/9</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><span style="font-size:12px;color:rgb(136,136,136);">[17]&nbsp;https://zhuanlan.zhihu.com/p/29515986</span></p><p style="margin-left:0em;font-size:16px;letter-spacing:.5px;color:rgb(62,62,62);text-align:justify;line-height:normal;"><br></p><p style="margin-left:0em;font-size:16px;color:rgb(51,51,51);text-align:center;line-height:normal;"><br></p><p style="margin-left:0em;font-size:16px;color:rgb(51,51,51);text-align:center;line-height:normal;"><span style="font-size:18px;letter-spacing:.5px;"></span></p><p style="color:rgb(62,62,62);font-size:16px;letter-spacing:.5px;"><img class="img_loading" style="visibility:visible !important;" src="https://img-blog.csdnimg.cn/img_convert/fc634de9b35b6643faf20a094ea48c1f.png" alt="640?"></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;letter-spacing:.5px;text-align:center;line-height:2em;"><br></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;letter-spacing:.5px;text-align:center;"><strong style="font-family:'Optima-Regular', 'PingFangTC-light';font-size:14px;"><img class="__bg_gif img_loading" style="visibility:visible !important;" src="https://img-blog.csdnimg.cn/img_convert/c5d7acc30176dd2e68007cbc7ac14e00.gif" alt="640?"></strong><span style="font-family:'Optima-Regular', 'PingFangTC-light';font-size:14px;"><strong>#</strong></span><span style="font-family:'Optima-Regular', 'PingFangTC-light';font-size:14px;color:rgb(214,168,65);"><strong>作 者 招 募<span style="color:rgb(0,0,0);">#</span></strong></span></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;letter-spacing:.5px;text-align:center;line-height:normal;"><span style="font-family:'Optima-Regular', 'PingFangTC-light';font-size:14px;color:rgb(214,168,65);"><strong><span style="color:rgb(0,0,0);"><br></span></strong></span></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;letter-spacing:.5px;text-align:center;line-height:1.75em;"><span style="text-decoration:underline;"><strong><span style="font-family:'Optima-Regular', 'PingFangTC-light';"><strong><span style="font-size:12px;"><a href="http://mp.weixin.qq.com/s?__biz=MzIwMTc4ODE0Mw==&amp;mid=2247487954&amp;idx=1&amp;sn=d247e5b99ecb2c37e85d962d7f93d7d7&amp;chksm=96e9ce52a19e474457e04affae41dc6b6fe521154f95ae7122260b46ec91f55ae7c8fb472c3c&amp;scene=21#wechat_redirect" rel="nofollow" target="_blank">讓你的文字被很多很多人看到,喜歡我們不如加入我們</a></span></strong></span></strong></span></p><p style="margin-left:0em;font-size:16px;color:rgb(51,51,51);text-align:center;line-height:1.75em;"><span style="font-size:18px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;font-size:16px;color:rgb(51,51,51);text-align:center;line-height:1.75em;"><span style="font-size:18px;letter-spacing:.5px;">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;&nbsp;</span></p><p style="margin-left:0em;font-size:16px;color:rgb(51,51,51);text-align:center;line-height:1.75em;"><span style="letter-spacing:.5px;"><span style="letter-spacing:.5px;font-size:18px;">&nbsp;</span><span style="color:rgb(51,51,51);font-size:18px;letter-spacing:.5px;">我是彩蛋</span></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);letter-spacing:.5px;"><strong>&nbsp;解鎖新功能:熱門職位推薦!</strong></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:normal;"><br></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="font-size:12px;color:rgb(63,63,63);letter-spacing:.5px;">PaperWeekly小程序升級啦</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:normal;"><br></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);letter-spacing:.5px;"><strong><span style="letter-spacing:.5px;color:rgb(51,51,51);">今日arXiv√猜你喜歡√<strong style="color:rgb(71,168,218);font-size:16px;text-align:justify;"><span style="color:rgb(63,63,63);letter-spacing:.5px;font-size:14px;">熱門職位</span></strong><strong style="color:rgb(63,63,63);"><span style="letter-spacing:.5px;color:rgb(51,51,51);">√</span></strong></span></strong></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:normal;"><br></p><p style="margin-left:0em;letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);letter-spacing:.5px;">找全職找實習都不是問題</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="letter-spacing:.5px;">&nbsp;</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="letter-spacing:.5px;"><strong><span style="letter-spacing:.5px;color:rgb(255,255,255);">&nbsp;解鎖方式&nbsp;</span></strong></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:12px;letter-spacing:.5px;">1. 識別下方二維碼打開小程序</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:12px;letter-spacing:.5px;">2. 用PaperWeekly社區(qū)賬號進行登陸</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:12px;letter-spacing:.5px;">3. 登陸后即可解鎖所有功能</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><br></p><p style="margin-left:0em;letter-spacing:0px;color:rgb(51,51,51);line-height:1.75em;"><span style="letter-spacing:.5px;"><strong><span style="letter-spacing:.5px;color:rgb(255,255,255);">&nbsp;職位發(fā)布&nbsp;</span></strong></span></p><p style="margin-left:0em;letter-spacing:0px;color:rgb(51,51,51);line-height:1.75em;"><span style="color:rgb(63,63,63);font-size:12px;letter-spacing:.5px;">請?zhí)砑有≈治⑿?#xff08;<strong><span style="font-size:12px;letter-spacing:.5px;color:rgb(136,136,136);">pwbot02</span></strong>)進行咨詢</span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="letter-spacing:.5px;">&nbsp;<br></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="color:rgb(63,63,63);letter-spacing:.5px;"><strong>長按識別二維碼,使用小程序</strong></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:1.75em;"><span style="letter-spacing:.5px;"><span style="letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);"></span><span style="letter-spacing:.5px;color:rgb(136,136,136);font-size:12px;text-align:center;">*點擊閱讀原文即可注冊</span><span style="letter-spacing:.5px;font-size:12px;color:rgb(136,136,136);text-decoration:underline;"></span></span></p><p style="margin-left:0em;color:rgb(51,51,51);letter-spacing:0px;line-height:normal;"><br></p><p style="margin-left:0em;display:inline-block;width:180px;"><img border="0" class="img_loading" style="visibility:visible !important;" title="" width="180" src="https://img-blog.csdnimg.cn/img_convert/c9c5398fdbd47c722d4b63b3fbcc5066.png" alt="640?"></p><p style="margin-left:0em;display:inline-block;width:180px;line-height:normal;"><br></p><p><br></p><p style="margin-left:0em;letter-spacing:.5px;line-height:1.75em;"><br></p><p><span style="color:rgb(71,168,218);letter-spacing:.5px;"><strong><span style="color:rgb(71,168,218);letter-spacing:.5px;font-size:14px;">關于PaperWeekly</span></strong><br></span></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;text-align:justify;letter-spacing:.5px;line-height:normal;"><span style="color:rgb(63,63,63);font-size:14px;letter-spacing:.5px;"><br></span></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;text-align:justify;line-height:1.5em;letter-spacing:.5px;"><span style="color:rgb(136,136,136);font-size:14px;letter-spacing:.5px;">PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊<strong>「交流群」</strong>,小助手將把你帶入 PaperWeekly 的交流群里。</span></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;text-align:justify;letter-spacing:.5px;line-height:1.75em;"><br></p><p style="text-align:center;"><img class="img_loading __bg_gif" src="https://img-blog.csdnimg.cn/img_convert/6d4111a55af741ef1c54858739e14e7b.gif" alt="640?"></p><p style="margin-left:0em;color:rgb(62,62,62);font-size:16px;text-align:justify;letter-spacing:.5px;"><span style="letter-spacing:.5px;"><span style="letter-spacing:1px;text-align:justify;font-size:13px;color:rgb(63,63,63);">▽ 點擊 |&nbsp;</span><span style="color:rgb(62,62,62);letter-spacing:1px;text-align:justify;font-size:13px;"><span style="letter-spacing:.5px;color:rgb(171,25,66);">閱讀原文</span>&nbsp;<span style="letter-spacing:.5px;color:rgb(63,63,63);">| 進入作者博客</span></span></span></p></div></div></div>

總結

以上是生活随笔為你收集整理的人脸检测:Viola-Jones的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

夜夜高潮次次欢爽av女 | 成人性做爰aaa片免费看 | 丰满岳乱妇在线观看中字无码 | 亚洲精品美女久久久久久久 | 中文字幕人妻无码一区二区三区 | 午夜福利试看120秒体验区 | 亚洲精品美女久久久久久久 | 熟妇激情内射com | 亚洲色欲色欲天天天www | 国产激情精品一区二区三区 | 中文字幕 人妻熟女 | 国产精品人妻一区二区三区四 | 国内精品人妻无码久久久影院 | 天堂久久天堂av色综合 | 欧美丰满少妇xxxx性 | 免费无码av一区二区 | 蜜臀av在线播放 久久综合激激的五月天 | 成人免费视频在线观看 | 久久国产精品_国产精品 | 88国产精品欧美一区二区三区 | 国产熟女一区二区三区四区五区 | 午夜嘿嘿嘿影院 | 久久久久亚洲精品中文字幕 | 妺妺窝人体色www在线小说 | 内射欧美老妇wbb | 一个人看的www免费视频在线观看 | 97久久精品无码一区二区 | 男人和女人高潮免费网站 | 3d动漫精品啪啪一区二区中 | 美女黄网站人色视频免费国产 | 中文字幕中文有码在线 | 亚洲国产精品毛片av不卡在线 | 亚洲国产精品久久久天堂 | 欧美兽交xxxx×视频 | 久久精品国产99精品亚洲 | 99久久99久久免费精品蜜桃 | 亚洲码国产精品高潮在线 | 18黄暴禁片在线观看 | 色一情一乱一伦一视频免费看 | 波多野结衣 黑人 | 国产在线精品一区二区三区直播 | 无码人妻av免费一区二区三区 | 扒开双腿疯狂进出爽爽爽视频 | 中文字幕无码人妻少妇免费 | 日韩 欧美 动漫 国产 制服 | 午夜不卡av免费 一本久久a久久精品vr综合 | 成人无码影片精品久久久 | 成人精品视频一区二区 | 欧美性生交xxxxx久久久 | 色窝窝无码一区二区三区色欲 | 欧美乱妇无乱码大黄a片 | 久久精品中文字幕大胸 | 欧美日韩久久久精品a片 | 欧美熟妇另类久久久久久多毛 | 又粗又大又硬又长又爽 | 女高中生第一次破苞av | 国产精品久久久一区二区三区 | 99er热精品视频 | 亚洲无人区午夜福利码高清完整版 | 亚洲精品www久久久 | 国产农村乱对白刺激视频 | 国产精品人妻一区二区三区四 | 久久国产自偷自偷免费一区调 | 国产精品美女久久久久av爽李琼 | 狂野欧美性猛xxxx乱大交 | 樱花草在线社区www | 国产亚洲精品精品国产亚洲综合 | 人妻无码αv中文字幕久久琪琪布 | 青青草原综合久久大伊人精品 | 377p欧洲日本亚洲大胆 | 少女韩国电视剧在线观看完整 | 久久精品人人做人人综合试看 | 亚洲欧美日韩国产精品一区二区 | 无码国产激情在线观看 | 亚洲中文字幕在线观看 | av无码电影一区二区三区 | 永久免费观看国产裸体美女 | 中文字幕中文有码在线 | 免费播放一区二区三区 | 成人性做爰aaa片免费看 | 无遮挡啪啪摇乳动态图 | 在线a亚洲视频播放在线观看 | 大胆欧美熟妇xx | 久久久久成人片免费观看蜜芽 | 亚洲人成网站免费播放 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 西西人体www44rt大胆高清 | 性色欲网站人妻丰满中文久久不卡 | 纯爱无遮挡h肉动漫在线播放 | 亚洲 欧美 激情 小说 另类 | 日本丰满熟妇videos | 成人性做爰aaa片免费看不忠 | 中文字幕无码av波多野吉衣 | 麻豆国产97在线 | 欧洲 | 夜夜夜高潮夜夜爽夜夜爰爰 | 狠狠亚洲超碰狼人久久 | 伊人色综合久久天天小片 | 激情人妻另类人妻伦 | 中文无码精品a∨在线观看不卡 | 国产69精品久久久久app下载 | 红桃av一区二区三区在线无码av | 久久综合九色综合欧美狠狠 | 中文字幕色婷婷在线视频 | 日韩少妇白浆无码系列 | 国产日产欧产精品精品app | 综合人妻久久一区二区精品 | 国产av人人夜夜澡人人爽麻豆 | 国产真实夫妇视频 | 性做久久久久久久免费看 | 国产精品久久久av久久久 | 欧美国产日韩亚洲中文 | 丁香花在线影院观看在线播放 | 黑人巨大精品欧美一区二区 | 在线观看欧美一区二区三区 | 国产在线一区二区三区四区五区 | 久久综合给久久狠狠97色 | 精品偷自拍另类在线观看 | 无码成人精品区在线观看 | 无码人妻精品一区二区三区下载 | 亚洲综合久久一区二区 | 51国偷自产一区二区三区 | 亚洲人成无码网www | 装睡被陌生人摸出水好爽 | 东京无码熟妇人妻av在线网址 | 特级做a爰片毛片免费69 | 午夜精品一区二区三区的区别 | www一区二区www免费 | 男女作爱免费网站 | 国产精品香蕉在线观看 | 狂野欧美性猛xxxx乱大交 | 亚洲国产精品一区二区第一页 | 国产色xx群视频射精 | 国产人妖乱国产精品人妖 | 男人的天堂av网站 | 国产深夜福利视频在线 | 任你躁国产自任一区二区三区 | 丰腴饱满的极品熟妇 | 欧美精品免费观看二区 | 少妇性荡欲午夜性开放视频剧场 | 水蜜桃av无码 | 亚洲一区二区三区国产精华液 | 亚洲欧美色中文字幕在线 | 国产一精品一av一免费 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲一区二区三区含羞草 | 欧洲熟妇精品视频 | 久久久婷婷五月亚洲97号色 | 亚洲а∨天堂久久精品2021 | 双乳奶水饱满少妇呻吟 | 久久99精品国产麻豆 | 清纯唯美经典一区二区 | 国产手机在线αⅴ片无码观看 | 76少妇精品导航 | 一本色道婷婷久久欧美 | 亚洲gv猛男gv无码男同 | 欧美真人作爱免费视频 | 无码人妻精品一区二区三区下载 | 人人妻人人澡人人爽精品欧美 | 久精品国产欧美亚洲色aⅴ大片 | av香港经典三级级 在线 | 久久zyz资源站无码中文动漫 | 精品无人区无码乱码毛片国产 | 亚洲日韩av一区二区三区中文 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲人成网站色7799 | 精品成人av一区二区三区 | 亚洲乱码日产精品bd | 国产偷抇久久精品a片69 | 国产精品香蕉在线观看 | www国产亚洲精品久久久日本 | 成年女人永久免费看片 | 波多野结衣av在线观看 | 国产美女极度色诱视频www | 亚洲中文无码av永久不收费 | 久久精品女人天堂av免费观看 | 牲欲强的熟妇农村老妇女 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久99精品国产麻豆蜜芽 | 强辱丰满人妻hd中文字幕 | 亚洲人成网站在线播放942 | 极品尤物被啪到呻吟喷水 | 牛和人交xxxx欧美 | 亚洲国产av精品一区二区蜜芽 | 丝袜足控一区二区三区 | 国内精品人妻无码久久久影院蜜桃 | 1000部啪啪未满十八勿入下载 | 色情久久久av熟女人妻网站 | 久久精品人人做人人综合 | 亚无码乱人伦一区二区 | 51国偷自产一区二区三区 | 亚洲成a人片在线观看无码3d | 国语精品一区二区三区 | 激情内射亚州一区二区三区爱妻 | 亚洲色成人中文字幕网站 | 乱码av麻豆丝袜熟女系列 | 西西人体www44rt大胆高清 | 国产真实夫妇视频 | 在线播放无码字幕亚洲 | 精品一区二区三区无码免费视频 | 东京热男人av天堂 | 草草网站影院白丝内射 | 女高中生第一次破苞av | 曰本女人与公拘交酡免费视频 | 久久久久免费精品国产 | 激情五月综合色婷婷一区二区 | 影音先锋中文字幕无码 | 牛和人交xxxx欧美 | 久久99久久99精品中文字幕 | 任你躁在线精品免费 | 国产亚洲人成在线播放 | 免费无码的av片在线观看 | 中文字幕无码免费久久99 | 国产成人综合在线女婷五月99播放 | 亚洲精品久久久久中文第一幕 | 国产色精品久久人妻 | 国产精品久久久久影院嫩草 | 国产免费无码一区二区视频 | 亚洲精品一区二区三区大桥未久 | 亚洲成在人网站无码天堂 | 欧美一区二区三区视频在线观看 | 日日麻批免费40分钟无码 | 国产av久久久久精东av | 一本无码人妻在中文字幕免费 | 在线播放免费人成毛片乱码 | 国产人成高清在线视频99最全资源 | 久久久亚洲欧洲日产国码αv | 中文毛片无遮挡高清免费 | 欧美精品无码一区二区三区 | 国产另类ts人妖一区二区 | 巨爆乳无码视频在线观看 | 欧美午夜特黄aaaaaa片 | 久久www免费人成人片 | 欧美性生交活xxxxxdddd | 在线视频网站www色 | 中文字幕无码免费久久9一区9 | 国产97色在线 | 免 | 日本熟妇乱子伦xxxx | 精品国产一区二区三区av 性色 | 亚洲国产午夜精品理论片 | 亚洲国产精品无码一区二区三区 | 精品一区二区三区波多野结衣 | 国产特级毛片aaaaaa高潮流水 | 日韩精品无码免费一区二区三区 | 日本一卡2卡3卡四卡精品网站 | 水蜜桃亚洲一二三四在线 | 色综合久久久无码网中文 | 色欲综合久久中文字幕网 | 成人综合网亚洲伊人 | 国内老熟妇对白xxxxhd | 欧美老妇交乱视频在线观看 | 国产人妖乱国产精品人妖 | 国产午夜视频在线观看 | 国产午夜无码视频在线观看 | 日日天干夜夜狠狠爱 | 成人av无码一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 黑森林福利视频导航 | 99久久精品午夜一区二区 | 亚洲一区二区三区香蕉 | 中文精品久久久久人妻不卡 | 国产成人精品一区二区在线小狼 | 亚洲s色大片在线观看 | 国产乱人伦偷精品视频 | 国产疯狂伦交大片 | 国产精品鲁鲁鲁 | 又大又黄又粗又爽的免费视频 | 国产午夜手机精彩视频 | 青草青草久热国产精品 | 国产成人综合色在线观看网站 | 久久熟妇人妻午夜寂寞影院 | av无码久久久久不卡免费网站 | 97久久精品无码一区二区 | 日产精品99久久久久久 | 国产精品亚洲а∨无码播放麻豆 | 奇米影视7777久久精品人人爽 | 51国偷自产一区二区三区 | 亚洲国产精品美女久久久久 | 国产精品igao视频网 | 亚洲人成人无码网www国产 | 国产亚洲日韩欧美另类第八页 | 亚洲欧美国产精品专区久久 | 波多野结衣高清一区二区三区 | 亚洲理论电影在线观看 | 熟妇激情内射com | 午夜免费福利小电影 | 装睡被陌生人摸出水好爽 | 精品国偷自产在线视频 | 精品久久久久久人妻无码中文字幕 | 亲嘴扒胸摸屁股激烈网站 | 男人的天堂av网站 | 亚洲s码欧洲m码国产av | 一本色道婷婷久久欧美 | 无码精品国产va在线观看dvd | 成人动漫在线观看 | 人人妻人人澡人人爽人人精品 | 欧美日韩一区二区免费视频 | 在线看片无码永久免费视频 | 亚洲中文字幕va福利 | 丰满肥臀大屁股熟妇激情视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 无码播放一区二区三区 | 夜夜躁日日躁狠狠久久av | 久久精品国产99久久6动漫 | 色综合天天综合狠狠爱 | 中文字幕人成乱码熟女app | 午夜嘿嘿嘿影院 | 香蕉久久久久久av成人 | 欧美人妻一区二区三区 | 国产亚洲精品久久久久久大师 | 天天拍夜夜添久久精品大 | 国产精品久久久久久亚洲影视内衣 | 久久午夜无码鲁丝片秋霞 | 精品久久久中文字幕人妻 | 麻花豆传媒剧国产免费mv在线 | 1000部夫妻午夜免费 | 国产艳妇av在线观看果冻传媒 | 国产人妻精品午夜福利免费 | 国产福利视频一区二区 | 亚洲人交乣女bbw | 中文字幕色婷婷在线视频 | 免费无码一区二区三区蜜桃大 | 成熟女人特级毛片www免费 | 国产口爆吞精在线视频 | 日本肉体xxxx裸交 | 国产性生大片免费观看性 | 男人和女人高潮免费网站 | 精品国产成人一区二区三区 | 国产熟妇高潮叫床视频播放 | 夜精品a片一区二区三区无码白浆 | 麻豆国产人妻欲求不满谁演的 | 女人被男人爽到呻吟的视频 | 少妇性l交大片欧洲热妇乱xxx | 色五月丁香五月综合五月 | 成人影院yy111111在线观看 | 精品夜夜澡人妻无码av蜜桃 | 国产内射老熟女aaaa | 国产极品美女高潮无套在线观看 | 成人三级无码视频在线观看 | 精品久久久无码中文字幕 | 亚洲精品国产精品乱码不卡 | 97久久超碰中文字幕 | 国产成人精品必看 | 色欲av亚洲一区无码少妇 | 日本高清一区免费中文视频 | 国产人妻久久精品二区三区老狼 | 亚洲色偷偷偷综合网 | 亚洲人成网站在线播放942 | 妺妺窝人体色www在线小说 | 美女黄网站人色视频免费国产 | 欧美日韩亚洲国产精品 | 亚洲色无码一区二区三区 | 成在人线av无码免观看麻豆 | 国产精品美女久久久 | 日韩精品一区二区av在线 | 99久久人妻精品免费二区 | 久久国产自偷自偷免费一区调 | 国产亚洲美女精品久久久2020 | 久久天天躁狠狠躁夜夜免费观看 | 99久久亚洲精品无码毛片 | 国产精品人妻一区二区三区四 | 中文无码精品a∨在线观看不卡 | 亚洲精品中文字幕久久久久 | 亚洲日本在线电影 | 久久精品国产一区二区三区 | 啦啦啦www在线观看免费视频 | 国产无av码在线观看 | 88国产精品欧美一区二区三区 | 精品久久久无码中文字幕 | 无码乱肉视频免费大全合集 | 18精品久久久无码午夜福利 | 又湿又紧又大又爽a视频国产 | 欧洲熟妇色 欧美 | 亚洲日韩一区二区三区 | 亚洲日韩精品欧美一区二区 | 国产精品丝袜黑色高跟鞋 | 激情内射日本一区二区三区 | 国产成人一区二区三区别 | 国产猛烈高潮尖叫视频免费 | 欧美野外疯狂做受xxxx高潮 | 国产精品亚洲lv粉色 | 蜜桃臀无码内射一区二区三区 | 国产免费观看黄av片 | 成人免费视频在线观看 | 日本爽爽爽爽爽爽在线观看免 | 少妇邻居内射在线 | 人人妻人人藻人人爽欧美一区 | 日本一卡2卡3卡四卡精品网站 | 在线看片无码永久免费视频 | 久久精品国产99久久6动漫 | 7777奇米四色成人眼影 | 国产色在线 | 国产 | 日本一区二区三区免费播放 | 日本免费一区二区三区最新 | 国产超级va在线观看视频 | 亚洲热妇无码av在线播放 | 久久久精品人妻久久影视 | 曰韩无码二三区中文字幕 | 3d动漫精品啪啪一区二区中 | 亚洲の无码国产の无码影院 | 亚洲色大成网站www国产 | 人妻有码中文字幕在线 | 国产精品久久久av久久久 | 亚洲 高清 成人 动漫 | 无套内谢的新婚少妇国语播放 | 国产亚洲美女精品久久久2020 | 日本丰满护士爆乳xxxx | 色欲人妻aaaaaaa无码 | 国产日产欧产精品精品app | 人妻夜夜爽天天爽三区 | 久久久精品456亚洲影院 | 亚洲精品一区二区三区大桥未久 | 免费视频欧美无人区码 | 国产亚洲视频中文字幕97精品 | 青草视频在线播放 | 免费无码肉片在线观看 | 人人妻人人藻人人爽欧美一区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 狠狠色噜噜狠狠狠狠7777米奇 | 99久久久国产精品无码免费 | 思思久久99热只有频精品66 | 日韩精品无码一区二区中文字幕 | 久久www免费人成人片 | 国产精品久久久午夜夜伦鲁鲁 | 99精品国产综合久久久久五月天 | 77777熟女视频在线观看 а天堂中文在线官网 | 久青草影院在线观看国产 | 亚洲gv猛男gv无码男同 | 国产69精品久久久久app下载 | 又大又黄又粗又爽的免费视频 | 国产高清av在线播放 | 一本色道婷婷久久欧美 | 97精品国产97久久久久久免费 | 午夜男女很黄的视频 | 亚洲国产精品无码一区二区三区 | а√天堂www在线天堂小说 | 亚洲熟妇色xxxxx欧美老妇 | 中文字幕无码免费久久9一区9 | 无码av最新清无码专区吞精 | 一区二区三区高清视频一 | 色 综合 欧美 亚洲 国产 | 国精品人妻无码一区二区三区蜜柚 | 国产精品无码一区二区三区不卡 | 久久99精品久久久久久 | 无码帝国www无码专区色综合 | 99久久精品无码一区二区毛片 | 国产在线一区二区三区四区五区 | 骚片av蜜桃精品一区 | 午夜精品久久久久久久 | av无码久久久久不卡免费网站 | 色妞www精品免费视频 | 欧美怡红院免费全部视频 | 在线观看免费人成视频 | 亚洲成色在线综合网站 | 国产人成高清在线视频99最全资源 | 熟妇人妻无乱码中文字幕 | 樱花草在线社区www | 久久久中文久久久无码 | 国产人妻人伦精品1国产丝袜 | 久久国产精品_国产精品 | 狠狠色丁香久久婷婷综合五月 | 欧美人与禽猛交狂配 | 男人的天堂av网站 | 欧美人与牲动交xxxx | 人妻无码久久精品人妻 | 无码国内精品人妻少妇 | 亚洲自偷精品视频自拍 | 骚片av蜜桃精品一区 | 午夜时刻免费入口 | 色婷婷香蕉在线一区二区 | 97久久超碰中文字幕 | 99riav国产精品视频 | 男女超爽视频免费播放 | 亚洲精品久久久久久久久久久 | 麻豆av传媒蜜桃天美传媒 | 久久午夜无码鲁丝片 | 欧美老人巨大xxxx做受 | 久久久久久九九精品久 | 亚洲熟熟妇xxxx | 国产性生大片免费观看性 | 国产美女极度色诱视频www | 国产精品久久久久7777 | 日产精品99久久久久久 | 老头边吃奶边弄进去呻吟 | 亚洲自偷自拍另类第1页 | 久久久久成人片免费观看蜜芽 | 在线播放亚洲第一字幕 | 午夜时刻免费入口 | 精品成人av一区二区三区 | 狠狠噜狠狠狠狠丁香五月 | 老司机亚洲精品影院无码 | 一本无码人妻在中文字幕免费 | 成人免费视频视频在线观看 免费 | 国产偷抇久久精品a片69 | 成年美女黄网站色大免费视频 | 夜精品a片一区二区三区无码白浆 | 激情亚洲一区国产精品 | 欧美成人家庭影院 | 一本精品99久久精品77 | 一本久道高清无码视频 | 久久人人爽人人人人片 | 欧美国产亚洲日韩在线二区 | 久久亚洲国产成人精品性色 | 99久久婷婷国产综合精品青草免费 | 激情综合激情五月俺也去 | 激情五月综合色婷婷一区二区 | 日韩欧美中文字幕在线三区 | 一本大道久久东京热无码av | 欧美日韩视频无码一区二区三 | 久久99热只有频精品8 | 天干天干啦夜天干天2017 | 日韩少妇白浆无码系列 | 亚洲另类伦春色综合小说 | 免费男性肉肉影院 | 人人妻人人澡人人爽人人精品 | 最近的中文字幕在线看视频 | 无码人妻丰满熟妇区毛片18 | 在线看片无码永久免费视频 | 久久99久久99精品中文字幕 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲精品中文字幕 | 亚洲欧美综合区丁香五月小说 | 午夜成人1000部免费视频 | 老司机亚洲精品影院无码 | 国产片av国语在线观看 | 国产亲子乱弄免费视频 | 成人欧美一区二区三区黑人免费 | 亚洲热妇无码av在线播放 | 亚洲中文字幕在线无码一区二区 | 久久无码人妻影院 | 少妇邻居内射在线 | 波多野结衣av一区二区全免费观看 | 亚洲国产精品久久久天堂 | 国产乱码精品一品二品 | 精品国产成人一区二区三区 | 中文字幕无码免费久久99 | 午夜时刻免费入口 | 精品久久综合1区2区3区激情 | 国产av人人夜夜澡人人爽麻豆 | 亚洲国产精品一区二区第一页 | 久久久久成人精品免费播放动漫 | 99riav国产精品视频 | 人人妻人人澡人人爽人人精品 | 宝宝好涨水快流出来免费视频 | 亚洲国产精品久久人人爱 | 一本色道久久综合狠狠躁 | 国产综合久久久久鬼色 | 人人爽人人爽人人片av亚洲 | 久久熟妇人妻午夜寂寞影院 | 又大又硬又黄的免费视频 | 在线观看欧美一区二区三区 | 国产成人精品一区二区在线小狼 | 亚洲精品午夜无码电影网 | 小泽玛莉亚一区二区视频在线 | 丰满少妇高潮惨叫视频 | 久久综合香蕉国产蜜臀av | 牲欲强的熟妇农村老妇女视频 | 乌克兰少妇性做爰 | 国产精品手机免费 | 无码毛片视频一区二区本码 | 蜜臀av无码人妻精品 | 丝袜 中出 制服 人妻 美腿 | 亚洲性无码av中文字幕 | 97久久国产亚洲精品超碰热 | 香港三级日本三级妇三级 | 国产av人人夜夜澡人人爽麻豆 | 欧美大屁股xxxxhd黑色 | 99国产精品白浆在线观看免费 | 国产做国产爱免费视频 | 午夜精品久久久久久久久 | 久久精品99久久香蕉国产色戒 | 蜜臀av无码人妻精品 | 中文字幕av无码一区二区三区电影 | 国产精品久久久久久亚洲影视内衣 | 国产明星裸体无码xxxx视频 | 亚洲の无码国产の无码步美 | 四虎影视成人永久免费观看视频 | 国产精品久久久av久久久 | 欧美刺激性大交 | 99riav国产精品视频 | 色诱久久久久综合网ywww | 婷婷六月久久综合丁香 | 一本精品99久久精品77 | 午夜熟女插插xx免费视频 | 激情国产av做激情国产爱 | 九九久久精品国产免费看小说 | 偷窥日本少妇撒尿chinese | 中文字幕无线码免费人妻 | 色欲综合久久中文字幕网 | 狂野欧美激情性xxxx | 在线播放亚洲第一字幕 | 国产精品第一区揄拍无码 | 国产特级毛片aaaaaa高潮流水 | 亚洲热妇无码av在线播放 | 午夜男女很黄的视频 | 欧美日本免费一区二区三区 | 激情综合激情五月俺也去 | 欧美变态另类xxxx | 欧美人与禽zoz0性伦交 | 午夜福利一区二区三区在线观看 | 成人精品视频一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 国产无av码在线观看 | 爆乳一区二区三区无码 | 骚片av蜜桃精品一区 | 久久久精品欧美一区二区免费 | 国产人妻大战黑人第1集 | 18禁止看的免费污网站 | 性色av无码免费一区二区三区 | 波多野42部无码喷潮在线 | 性史性农村dvd毛片 | 国产偷国产偷精品高清尤物 | 亚洲精品一区国产 | 樱花草在线社区www | 国产情侣作爱视频免费观看 | 国产激情综合五月久久 | 少妇性俱乐部纵欲狂欢电影 | 国产精品99爱免费视频 | 精品偷拍一区二区三区在线看 | 国产情侣作爱视频免费观看 | av在线亚洲欧洲日产一区二区 | аⅴ资源天堂资源库在线 | 亚洲の无码国产の无码步美 | 国产乱子伦视频在线播放 | 国产一精品一av一免费 | 亚洲一区二区三区在线观看网站 | 麻花豆传媒剧国产免费mv在线 | 夜夜夜高潮夜夜爽夜夜爰爰 | 波多野结衣 黑人 | 国产精品视频免费播放 | 免费人成在线视频无码 | 色老头在线一区二区三区 | 少妇高潮喷潮久久久影院 | 中文字幕人妻无码一区二区三区 | 成人欧美一区二区三区黑人免费 | 中文毛片无遮挡高清免费 | 最新版天堂资源中文官网 | 国产av无码专区亚洲a∨毛片 | 少妇高潮一区二区三区99 | 久久久久久久女国产乱让韩 | 久久久久成人精品免费播放动漫 | 乱人伦人妻中文字幕无码 | 嫩b人妻精品一区二区三区 | 亚洲色欲色欲欲www在线 | 日本高清一区免费中文视频 | 亚洲一区二区观看播放 | 欧美日韩视频无码一区二区三 | 白嫩日本少妇做爰 | 亚洲а∨天堂久久精品2021 | 亚洲精品久久久久中文第一幕 | 亚洲中文字幕久久无码 | 国产精品亚洲专区无码不卡 | 综合人妻久久一区二区精品 | 亚洲色在线无码国产精品不卡 | 婷婷丁香五月天综合东京热 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲s码欧洲m码国产av | 亚洲日韩中文字幕在线播放 | 大肉大捧一进一出好爽视频 | 国产成人精品三级麻豆 | 真人与拘做受免费视频 | 国产精品久久久久久久影院 | 亚洲中文字幕乱码av波多ji | 久久zyz资源站无码中文动漫 | 日本乱人伦片中文三区 | 久久综合九色综合欧美狠狠 | 亚洲 激情 小说 另类 欧美 | 激情人妻另类人妻伦 | 免费人成在线视频无码 | 天堂а√在线中文在线 | 久久久久人妻一区精品色欧美 | 黑人玩弄人妻中文在线 | 高潮毛片无遮挡高清免费视频 | av小次郎收藏 | 国产莉萝无码av在线播放 | 国产人妻久久精品二区三区老狼 | 中文字幕人妻丝袜二区 | 丰满少妇高潮惨叫视频 | 日韩精品a片一区二区三区妖精 | 曰韩无码二三区中文字幕 | 乱人伦人妻中文字幕无码 | 色一情一乱一伦一区二区三欧美 | 99久久人妻精品免费二区 | 国产午夜无码精品免费看 | 国产特级毛片aaaaaa高潮流水 | 亚洲色欲色欲欲www在线 | 色爱情人网站 | 无码人妻精品一区二区三区不卡 | 久久五月精品中文字幕 | 久久99久久99精品中文字幕 | 99久久人妻精品免费一区 | 初尝人妻少妇中文字幕 | 亚洲中文字幕av在天堂 | 伦伦影院午夜理论片 | 国产精品久久久久久久9999 | 久久这里只有精品视频9 | 无码人妻出轨黑人中文字幕 | 精品久久久中文字幕人妻 | 久久久中文字幕日本无吗 | 亚洲综合伊人久久大杳蕉 | 国产午夜亚洲精品不卡 | 亚洲午夜福利在线观看 | 一本久道高清无码视频 | 亚洲国产综合无码一区 | 亚洲精品一区二区三区婷婷月 | 精品夜夜澡人妻无码av蜜桃 | 亚洲成色www久久网站 | 鲁大师影院在线观看 | 欧美阿v高清资源不卡在线播放 | 伊人色综合久久天天小片 | 国产精品久久久久久亚洲影视内衣 | 亚洲熟妇色xxxxx欧美老妇y | 乱人伦人妻中文字幕无码久久网 | 一个人看的www免费视频在线观看 | 中文字幕无线码免费人妻 | 欧美人与物videos另类 | 国产精品无码一区二区三区不卡 | 欧美老人巨大xxxx做受 | 久久国产劲爆∧v内射 | 红桃av一区二区三区在线无码av | 18禁止看的免费污网站 | 国产亚洲精品久久久闺蜜 | 在线 国产 欧美 亚洲 天堂 | 男女爱爱好爽视频免费看 | 久在线观看福利视频 | 无码人妻精品一区二区三区不卡 | 免费国产成人高清在线观看网站 | 日本一区二区三区免费高清 | 久久国产精品精品国产色婷婷 | 又色又爽又黄的美女裸体网站 | 曰本女人与公拘交酡免费视频 | 夜夜躁日日躁狠狠久久av | 丰满肥臀大屁股熟妇激情视频 | 国内少妇偷人精品视频免费 | 国产激情无码一区二区 | 国内综合精品午夜久久资源 | 少妇人妻av毛片在线看 | 久久久精品国产sm最大网站 | 一区二区三区高清视频一 | 白嫩日本少妇做爰 | 国产在线精品一区二区高清不卡 | 国产精品久久久久无码av色戒 | 精品无码一区二区三区爱欲 | 中文精品久久久久人妻不卡 | 亚洲精品国偷拍自产在线麻豆 | 国产精品鲁鲁鲁 | av无码久久久久不卡免费网站 | 中文字幕 人妻熟女 | 国产人妻人伦精品1国产丝袜 | 一本大道伊人av久久综合 | 国产乱人偷精品人妻a片 | 国产色在线 | 国产 | 波多野结衣av在线观看 | av无码久久久久不卡免费网站 | 99久久久无码国产aaa精品 | 日日摸天天摸爽爽狠狠97 | 对白脏话肉麻粗话av | 亚洲日韩av一区二区三区中文 | 久久天天躁狠狠躁夜夜免费观看 | 无码人妻久久一区二区三区不卡 | 国产av剧情md精品麻豆 | 亚洲欧美日韩国产精品一区二区 | 午夜无码区在线观看 | 人妻无码久久精品人妻 | 国产精品二区一区二区aⅴ污介绍 | 久久亚洲日韩精品一区二区三区 | 性生交大片免费看女人按摩摩 | 啦啦啦www在线观看免费视频 | 国产精品人人爽人人做我的可爱 | 亚洲熟妇自偷自拍另类 | 欧美精品免费观看二区 | 国产精品人人爽人人做我的可爱 | 草草网站影院白丝内射 | 99精品视频在线观看免费 | 无码人妻出轨黑人中文字幕 | 国产精品内射视频免费 | 在线欧美精品一区二区三区 | 久久久久se色偷偷亚洲精品av | 免费乱码人妻系列无码专区 | 丁香啪啪综合成人亚洲 | 久久久精品国产sm最大网站 | 在线 国产 欧美 亚洲 天堂 | 国产人妻人伦精品 | 精品久久久无码人妻字幂 | 日本欧美一区二区三区乱码 | 久久无码专区国产精品s | 亚洲成a人片在线观看无码 | 久久久国产一区二区三区 | 黑人大群体交免费视频 | 麻豆av传媒蜜桃天美传媒 | 国产情侣作爱视频免费观看 | 无码国内精品人妻少妇 | 偷窥日本少妇撒尿chinese | 一区二区三区高清视频一 | 成人精品视频一区二区三区尤物 | 国产精品久久久久9999小说 | 亚洲精品国偷拍自产在线观看蜜桃 | 麻豆精产国品 | 精品午夜福利在线观看 | 国产精品人妻一区二区三区四 | 小鲜肉自慰网站xnxx | 老子影院午夜伦不卡 | 激情亚洲一区国产精品 | 荫蒂添的好舒服视频囗交 | 无码中文字幕色专区 | 牛和人交xxxx欧美 | 欧美精品免费观看二区 | 永久黄网站色视频免费直播 | 午夜精品一区二区三区的区别 | 国产无av码在线观看 | 成人动漫在线观看 | 日韩少妇内射免费播放 | 欧美丰满老熟妇xxxxx性 | 一本久道高清无码视频 | 欧美 日韩 人妻 高清 中文 | 日本又色又爽又黄的a片18禁 | 国产一区二区三区四区五区加勒比 | 日本一卡二卡不卡视频查询 | 美女黄网站人色视频免费国产 | 丰满少妇人妻久久久久久 | 久久国产精品二国产精品 | 国产乱人偷精品人妻a片 | 熟女俱乐部五十路六十路av | 国产精品无码久久av | 好爽又高潮了毛片免费下载 | av香港经典三级级 在线 | 国产精品丝袜黑色高跟鞋 | 国产精品福利视频导航 | 最新国产麻豆aⅴ精品无码 | 亚洲无人区午夜福利码高清完整版 | 久久综合香蕉国产蜜臀av | 国产激情艳情在线看视频 | 国产suv精品一区二区五 | 六月丁香婷婷色狠狠久久 | 国产精品视频免费播放 | 亚洲成a人片在线观看日本 | 少妇厨房愉情理9仑片视频 | 水蜜桃亚洲一二三四在线 | 婷婷六月久久综合丁香 | 国产无遮挡吃胸膜奶免费看 | 中文字幕无码av波多野吉衣 | 乌克兰少妇xxxx做受 | 欧美放荡的少妇 | 狠狠亚洲超碰狼人久久 | 欧美精品一区二区精品久久 | 人妻体内射精一区二区三四 | 特级做a爰片毛片免费69 | 亚洲成a人片在线观看无码 | 中文字幕+乱码+中文字幕一区 | 无码av中文字幕免费放 | 久久99精品久久久久婷婷 | 国产激情无码一区二区app | 在线欧美精品一区二区三区 | 少妇无码一区二区二三区 | 日本免费一区二区三区最新 | 一本一道久久综合久久 | 国产国语老龄妇女a片 | 国产精品第一国产精品 | 精品成人av一区二区三区 | 婷婷色婷婷开心五月四房播播 | 亚洲精品鲁一鲁一区二区三区 | 精品久久久无码中文字幕 | 久久久久成人精品免费播放动漫 | 亚洲人成网站免费播放 | 日日鲁鲁鲁夜夜爽爽狠狠 | 性欧美videos高清精品 | 亚洲精品综合一区二区三区在线 | 1000部啪啪未满十八勿入下载 | 牲欲强的熟妇农村老妇女 | 国产在线一区二区三区四区五区 | 最新国产麻豆aⅴ精品无码 | 曰韩无码二三区中文字幕 | 一本色道婷婷久久欧美 | 国产香蕉尹人综合在线观看 | 亚洲男女内射在线播放 | 久久久亚洲欧洲日产国码αv | 扒开双腿吃奶呻吟做受视频 | 久久久久99精品成人片 | 久久久久99精品国产片 | 妺妺窝人体色www婷婷 | 成人三级无码视频在线观看 | 国产午夜亚洲精品不卡下载 | 人妻夜夜爽天天爽三区 | 日韩欧美群交p片內射中文 | 亚洲 欧美 激情 小说 另类 | 日本一区二区三区免费高清 | 国产精品久久久久7777 | 国内丰满熟女出轨videos | 奇米影视888欧美在线观看 | 国产suv精品一区二区五 | 久久伊人色av天堂九九小黄鸭 | 精品久久久中文字幕人妻 | 国产午夜视频在线观看 | 亚洲春色在线视频 | 丰满护士巨好爽好大乳 | 精品欧洲av无码一区二区三区 | 蜜臀av无码人妻精品 | v一区无码内射国产 | 装睡被陌生人摸出水好爽 | 欧美国产日产一区二区 | 牲欲强的熟妇农村老妇女 | 欧美一区二区三区视频在线观看 | 亚洲乱码日产精品bd | 美女毛片一区二区三区四区 | 老熟女乱子伦 | 蜜桃av抽搐高潮一区二区 | 最近的中文字幕在线看视频 | 欧美高清在线精品一区 | 国产色xx群视频射精 | 领导边摸边吃奶边做爽在线观看 | 丝袜人妻一区二区三区 | 亚洲精品综合一区二区三区在线 | 欧美精品一区二区精品久久 | 欧美性猛交内射兽交老熟妇 | av人摸人人人澡人人超碰下载 | 波多野结衣一区二区三区av免费 | 无码纯肉视频在线观看 | 精品久久久久久人妻无码中文字幕 | 日本在线高清不卡免费播放 | 久热国产vs视频在线观看 | 亚洲国精产品一二二线 | 亚洲中文无码av永久不收费 | 亚洲国产精品毛片av不卡在线 | 77777熟女视频在线观看 а天堂中文在线官网 | 99久久精品午夜一区二区 | 成人精品视频一区二区 | 精品国产一区二区三区四区在线看 | 97久久超碰中文字幕 | 亚洲中文字幕无码中字 | 欧美丰满少妇xxxx性 | 日本一区二区三区免费高清 | 男女性色大片免费网站 | 国语精品一区二区三区 | 国产成人一区二区三区在线观看 | 在教室伦流澡到高潮hnp视频 | 强伦人妻一区二区三区视频18 | 国产莉萝无码av在线播放 | 少妇无码一区二区二三区 | 一区二区三区高清视频一 | 人人爽人人澡人人人妻 | 性欧美videos高清精品 | 性色欲网站人妻丰满中文久久不卡 | 免费观看的无遮挡av | 国产人妻人伦精品1国产丝袜 | 国产无套内射久久久国产 | 国产免费无码一区二区视频 | 帮老师解开蕾丝奶罩吸乳网站 | 国产亚洲日韩欧美另类第八页 | 中文字幕无码热在线视频 | 精品国产一区二区三区四区在线看 | 欧美变态另类xxxx | 亚洲人成无码网www | 国产av无码专区亚洲awww | 免费人成在线视频无码 | 在线亚洲高清揄拍自拍一品区 | 国产熟妇高潮叫床视频播放 | 一本色道久久综合狠狠躁 | 精品国精品国产自在久国产87 | 精品国产青草久久久久福利 | 亚洲娇小与黑人巨大交 | 国产区女主播在线观看 | 国产69精品久久久久app下载 | 国产高清av在线播放 | 久久亚洲中文字幕精品一区 | 国产精品久久久久久亚洲毛片 | 无码人妻精品一区二区三区不卡 | 麻豆av传媒蜜桃天美传媒 | 亚洲成熟女人毛毛耸耸多 | 国产精品.xx视频.xxtv | 给我免费的视频在线观看 | 一二三四社区在线中文视频 | 99国产精品白浆在线观看免费 | 精品无码国产自产拍在线观看蜜 | 国产av无码专区亚洲awww | 久久天天躁夜夜躁狠狠 | 无码人妻av免费一区二区三区 | 国产人妻大战黑人第1集 | 国产人妻久久精品二区三区老狼 | 人妻有码中文字幕在线 | 日本免费一区二区三区最新 | 成人片黄网站色大片免费观看 | 国产精品成人av在线观看 | 小鲜肉自慰网站xnxx | 极品尤物被啪到呻吟喷水 | 18禁止看的免费污网站 | 大肉大捧一进一出视频出来呀 | 无码任你躁久久久久久久 | 色一情一乱一伦一视频免费看 | 成人性做爰aaa片免费看不忠 | 国产精品视频免费播放 | 欧美喷潮久久久xxxxx | 国产猛烈高潮尖叫视频免费 | 波多野结衣高清一区二区三区 | 我要看www免费看插插视频 | 少妇高潮一区二区三区99 | 亚洲色大成网站www | 久久国产精品精品国产色婷婷 | 精品一二三区久久aaa片 | 天堂а√在线中文在线 | 亚洲s码欧洲m码国产av | 无码精品人妻一区二区三区av | 亚洲成a人片在线观看日本 | 亚洲成a人一区二区三区 | 无码av岛国片在线播放 | 少妇愉情理伦片bd | 蜜桃av抽搐高潮一区二区 | 人人妻人人澡人人爽欧美精品 | а√天堂www在线天堂小说 | 一个人看的视频www在线 | 国产亚洲精品久久久久久国模美 | 在教室伦流澡到高潮hnp视频 | 无码人妻丰满熟妇区五十路百度 | 日本大乳高潮视频在线观看 | av无码久久久久不卡免费网站 | 99视频精品全部免费免费观看 | 一本久久a久久精品vr综合 | 亚洲精品综合一区二区三区在线 | www成人国产高清内射 | 国产亚洲欧美日韩亚洲中文色 | 狠狠色噜噜狠狠狠7777奇米 | 国产精品自产拍在线观看 | 精品久久久久久人妻无码中文字幕 | 在线精品亚洲一区二区 | 四虎国产精品免费久久 | 国产口爆吞精在线视频 | 高清国产亚洲精品自在久久 | 久久无码中文字幕免费影院蜜桃 | 国产乱人无码伦av在线a | 亚洲综合色区中文字幕 | 精品无码国产一区二区三区av | 日日天干夜夜狠狠爱 | 亚洲欧美精品伊人久久 | 性色av无码免费一区二区三区 | 国产偷自视频区视频 | 内射欧美老妇wbb | 亚洲啪av永久无码精品放毛片 | 蜜桃视频韩日免费播放 | 色一情一乱一伦一区二区三欧美 | 人妻夜夜爽天天爽三区 | 欧美老妇与禽交 | 久久久国产一区二区三区 | 人人妻人人澡人人爽人人精品 | 亚洲国产精品美女久久久久 | 久久精品中文字幕一区 | 最新国产乱人伦偷精品免费网站 | 夜夜躁日日躁狠狠久久av | 97夜夜澡人人爽人人喊中国片 | 国产热a欧美热a在线视频 | 俄罗斯老熟妇色xxxx | 女人被男人躁得好爽免费视频 | 扒开双腿吃奶呻吟做受视频 | 久久久久久国产精品无码下载 | 帮老师解开蕾丝奶罩吸乳网站 | 东京无码熟妇人妻av在线网址 | 国产猛烈高潮尖叫视频免费 | 欧美大屁股xxxxhd黑色 | 四虎4hu永久免费 | 午夜成人1000部免费视频 | 大肉大捧一进一出视频出来呀 | 国产人妻大战黑人第1集 | 国产国语老龄妇女a片 | 国产办公室秘书无码精品99 | 国产激情无码一区二区 | 国内精品九九久久久精品 | 国产精品国产自线拍免费软件 | 青草视频在线播放 | 人妻少妇被猛烈进入中文字幕 | 亚洲中文无码av永久不收费 | 人妻夜夜爽天天爽三区 | 国产九九九九九九九a片 | 亚洲日本va中文字幕 | www国产亚洲精品久久网站 | 2020久久香蕉国产线看观看 | 亚洲国产精品毛片av不卡在线 | 少女韩国电视剧在线观看完整 | 黑森林福利视频导航 | 日欧一片内射va在线影院 | 99riav国产精品视频 | 强辱丰满人妻hd中文字幕 | 精品国精品国产自在久国产87 | 国产精品鲁鲁鲁 | 亚洲男人av香蕉爽爽爽爽 | 97精品国产97久久久久久免费 | 无码中文字幕色专区 | 亚洲自偷精品视频自拍 | 无码福利日韩神码福利片 | 国产成人综合美国十次 | 国产女主播喷水视频在线观看 | 最新版天堂资源中文官网 | 国产亚洲美女精品久久久2020 | 无码成人精品区在线观看 | 少妇性荡欲午夜性开放视频剧场 | 色妞www精品免费视频 | 欧美国产日产一区二区 | 国产av无码专区亚洲a∨毛片 | 精品久久久中文字幕人妻 | 亚洲а∨天堂久久精品2021 | 亚洲国产午夜精品理论片 | 少妇久久久久久人妻无码 | 亚洲人成人无码网www国产 | 久久国产精品精品国产色婷婷 | 欧美日本日韩 | 欧美日韩一区二区三区自拍 | 精品国产乱码久久久久乱码 | 男女超爽视频免费播放 | 欧美日韩人成综合在线播放 | 欧美亚洲日韩国产人成在线播放 | 日韩人妻无码中文字幕视频 | 国产乱人无码伦av在线a | 国语自产偷拍精品视频偷 | 亚洲成av人综合在线观看 | 激情爆乳一区二区三区 | 大肉大捧一进一出好爽视频 | 99久久99久久免费精品蜜桃 | 欧美野外疯狂做受xxxx高潮 | 亚洲精品久久久久中文第一幕 | 成人试看120秒体验区 | 日本爽爽爽爽爽爽在线观看免 | 国产办公室秘书无码精品99 | 亚洲熟妇色xxxxx欧美老妇 | 欧美日韩亚洲国产精品 | 精品水蜜桃久久久久久久 | 色欲久久久天天天综合网精品 | 亚洲码国产精品高潮在线 | 中文字幕av伊人av无码av | 国产欧美亚洲精品a | 亚洲一区二区三区偷拍女厕 | 无码纯肉视频在线观看 | 强开小婷嫩苞又嫩又紧视频 | 亚洲国产欧美在线成人 | 亚洲人成影院在线无码按摩店 | 色一情一乱一伦一视频免费看 | 麻豆精品国产精华精华液好用吗 | 欧美老妇与禽交 | 东京热无码av男人的天堂 | 国产亚洲精品久久久久久国模美 | 又紧又大又爽精品一区二区 | 国产猛烈高潮尖叫视频免费 | 中文毛片无遮挡高清免费 | 无码人妻精品一区二区三区不卡 | 樱花草在线播放免费中文 | 亚洲国产午夜精品理论片 | 亚洲gv猛男gv无码男同 | 女高中生第一次破苞av | 风流少妇按摩来高潮 | 无码任你躁久久久久久久 | 欧美日韩综合一区二区三区 | 性生交大片免费看l | 樱花草在线播放免费中文 | 欧美黑人乱大交 | 久久综合给久久狠狠97色 | 欧美 日韩 人妻 高清 中文 | 久久久久成人精品免费播放动漫 | 久久久久久久久888 | 欧美 丝袜 自拍 制服 另类 | 国产成人无码一二三区视频 | 强辱丰满人妻hd中文字幕 | 日本www一道久久久免费榴莲 | 国产成人无码av片在线观看不卡 | 女人被男人躁得好爽免费视频 | 人人妻人人藻人人爽欧美一区 | 久久久久久a亚洲欧洲av冫 | 久久久久亚洲精品中文字幕 | 高清不卡一区二区三区 | 亚洲精品久久久久avwww潮水 | 国产超碰人人爽人人做人人添 | 精品久久久久久人妻无码中文字幕 | 天下第一社区视频www日本 | 日韩少妇白浆无码系列 | 中文字幕无码视频专区 | 日韩欧美群交p片內射中文 | 国产精品手机免费 | 伦伦影院午夜理论片 | 性欧美videos高清精品 | 97夜夜澡人人双人人人喊 | 色情久久久av熟女人妻网站 | 强开小婷嫩苞又嫩又紧视频 | 中文精品无码中文字幕无码专区 | 亚洲精品鲁一鲁一区二区三区 | 国产在线精品一区二区三区直播 | 久久99热只有频精品8 | 男人和女人高潮免费网站 | 亚洲一区二区三区 | 国产精品人人爽人人做我的可爱 | 给我免费的视频在线观看 | 国产午夜亚洲精品不卡 | 无码人中文字幕 | 国产女主播喷水视频在线观看 | 日本护士毛茸茸高潮 | 超碰97人人做人人爱少妇 | 四虎国产精品免费久久 | 国产精品高潮呻吟av久久4虎 | 77777熟女视频在线观看 а天堂中文在线官网 | 中文字幕人成乱码熟女app | 国产婷婷色一区二区三区在线 | 国产手机在线αⅴ片无码观看 | 亚洲成av人片在线观看无码不卡 | 国产无遮挡吃胸膜奶免费看 | 国精产品一区二区三区 | 精品偷拍一区二区三区在线看 | av无码电影一区二区三区 | 日韩视频 中文字幕 视频一区 | 亚洲精品美女久久久久久久 | 国产激情综合五月久久 | 性生交大片免费看女人按摩摩 | v一区无码内射国产 | 亚洲а∨天堂久久精品2021 | 亚洲国产成人a精品不卡在线 | 国产sm调教视频在线观看 | 亚洲成熟女人毛毛耸耸多 | 国产免费久久精品国产传媒 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲热妇无码av在线播放 | 呦交小u女精品视频 | 清纯唯美经典一区二区 | 大色综合色综合网站 | 天堂在线观看www | 久久久久久久女国产乱让韩 | 激情五月综合色婷婷一区二区 | 麻豆人妻少妇精品无码专区 | 国产精品沙发午睡系列 | 亚洲精品国偷拍自产在线观看蜜桃 | 日韩av无码一区二区三区 | 综合激情五月综合激情五月激情1 | 人人妻人人藻人人爽欧美一区 | 国产亚洲精品久久久久久国模美 | 天堂在线观看www | 黑人粗大猛烈进出高潮视频 | 婷婷色婷婷开心五月四房播播 | 无人区乱码一区二区三区 | 男女作爱免费网站 | 亚洲精品午夜国产va久久成人 | 亚洲国产成人av在线观看 | 国产情侣作爱视频免费观看 | 十八禁视频网站在线观看 | 樱花草在线播放免费中文 | 日韩精品成人一区二区三区 | 亚洲欧美精品伊人久久 | 免费国产成人高清在线观看网站 | 久久精品国产大片免费观看 | 婷婷综合久久中文字幕蜜桃三电影 | 日本精品高清一区二区 | 久久精品国产精品国产精品污 | 精品水蜜桃久久久久久久 | 精品国产aⅴ无码一区二区 | 天天av天天av天天透 | 亚洲人成网站在线播放942 | 99久久精品无码一区二区毛片 | 国产亚洲欧美在线专区 | 国产午夜亚洲精品不卡 | 天堂一区人妻无码 | 天堂久久天堂av色综合 | 中文字幕久久久久人妻 | 99久久久无码国产精品免费 | 亚洲一区二区三区四区 | 精品国产一区av天美传媒 | 久久久久久九九精品久 | 中文久久乱码一区二区 | 特黄特色大片免费播放器图片 | 无码中文字幕色专区 | 久久 国产 尿 小便 嘘嘘 | 少妇愉情理伦片bd | 免费国产黄网站在线观看 | 人妻插b视频一区二区三区 | 亚洲va欧美va天堂v国产综合 | 97久久精品无码一区二区 | 高中生自慰www网站 | 色综合久久中文娱乐网 | 亚洲精品中文字幕久久久久 | 国产热a欧美热a在线视频 | 少女韩国电视剧在线观看完整 | 欧美精品无码一区二区三区 | 亚洲国产精品久久久天堂 | 亚无码乱人伦一区二区 | 日日麻批免费40分钟无码 | 色欲综合久久中文字幕网 | 中文字幕 亚洲精品 第1页 | 精品日本一区二区三区在线观看 | 亚洲精品国产品国语在线观看 | 草草网站影院白丝内射 | 红桃av一区二区三区在线无码av | 欧美性生交活xxxxxdddd | 国产乱子伦视频在线播放 | 国产精品理论片在线观看 | 国产成人无码专区 | 99久久精品无码一区二区毛片 | 青春草在线视频免费观看 | 又大又紧又粉嫩18p少妇 | 亚洲爆乳大丰满无码专区 | 天下第一社区视频www日本 | 欧美丰满熟妇xxxx性ppx人交 | 久久国产自偷自偷免费一区调 | 精品国偷自产在线 | 亚洲一区av无码专区在线观看 | 色欲综合久久中文字幕网 | 2019午夜福利不卡片在线 | 国精产品一品二品国精品69xx | 荫蒂被男人添的好舒服爽免费视频 | 国产绳艺sm调教室论坛 | 久久国内精品自在自线 | 日韩人妻无码中文字幕视频 | 97se亚洲精品一区 | 99久久精品午夜一区二区 | 人妻少妇精品无码专区二区 | 丰满人妻一区二区三区免费视频 | 亚洲国产高清在线观看视频 | 久久无码专区国产精品s | 性色欲情网站iwww九文堂 | 蜜臀aⅴ国产精品久久久国产老师 | 俺去俺来也www色官网 | 国产精品亚洲一区二区三区喷水 | 亚无码乱人伦一区二区 | 国产一区二区不卡老阿姨 | 日本丰满熟妇videos | 日本一卡二卡不卡视频查询 | 午夜肉伦伦影院 | 精品久久综合1区2区3区激情 | 一区二区传媒有限公司 | 熟妇女人妻丰满少妇中文字幕 | 国产亲子乱弄免费视频 | 欧美高清在线精品一区 | 国产精品久久久久久亚洲影视内衣 | 亚洲 另类 在线 欧美 制服 | 丰满岳乱妇在线观看中字无码 | 国产亚洲欧美在线专区 | 无码毛片视频一区二区本码 | 亚洲精品午夜国产va久久成人 | 亚洲国产av精品一区二区蜜芽 | 免费人成在线视频无码 | 亚洲精品成a人在线观看 | 精品乱子伦一区二区三区 | 熟妇人妻中文av无码 | 高潮喷水的毛片 | 巨爆乳无码视频在线观看 | 玩弄少妇高潮ⅹxxxyw | 成人性做爰aaa片免费看不忠 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 永久免费精品精品永久-夜色 | 国产精品久久久久9999小说 | 亚洲の无码国产の无码步美 | 97色伦图片97综合影院 | 少妇性l交大片欧洲热妇乱xxx | 中文字幕久久久久人妻 | 久久99精品国产麻豆 | 两性色午夜视频免费播放 | 自拍偷自拍亚洲精品10p | 欧美日本免费一区二区三区 | 亚洲综合精品香蕉久久网 | 丰满护士巨好爽好大乳 | 久久国产精品精品国产色婷婷 | 四虎国产精品一区二区 | 亚洲国产精品毛片av不卡在线 | 国产亚洲精品精品国产亚洲综合 | 噜噜噜亚洲色成人网站 | 国产成人精品三级麻豆 | 人人妻人人澡人人爽欧美一区九九 | 亚洲精品一区二区三区大桥未久 | 久久99精品久久久久婷婷 | 99久久人妻精品免费一区 | 日韩av激情在线观看 | 中文精品无码中文字幕无码专区 | а√天堂www在线天堂小说 | 天天摸天天碰天天添 | 亚洲aⅴ无码成人网站国产app | 高潮毛片无遮挡高清免费视频 | 欧美激情一区二区三区成人 | 亚洲中文字幕乱码av波多ji | 国产乱子伦视频在线播放 | 国语精品一区二区三区 | 人妻尝试又大又粗久久 | 又粗又大又硬又长又爽 | 国产精品办公室沙发 | 玩弄少妇高潮ⅹxxxyw | 久久综合狠狠综合久久综合88 | 欧美日韩精品 | 人妻有码中文字幕在线 | 欧美精品一区二区精品久久 | 中文字幕无线码免费人妻 | 中国女人内谢69xxxxxa片 | 日本护士毛茸茸高潮 | 亚洲乱亚洲乱妇50p | 丰满少妇人妻久久久久久 | 国产精品鲁鲁鲁 | 色妞www精品免费视频 | 一个人看的视频www在线 | 一二三四社区在线中文视频 | 国产97色在线 | 免 | 东京热无码av男人的天堂 | 无码吃奶揉捏奶头高潮视频 | 精品aⅴ一区二区三区 | 性色欲情网站iwww九文堂 | 免费人成网站视频在线观看 | 亚洲一区二区三区在线观看网站 | 亚洲毛片av日韩av无码 | 中文字幕无码免费久久99 | 亚洲成在人网站无码天堂 | 国内精品一区二区三区不卡 | 麻豆国产人妻欲求不满谁演的 | 精品久久久久香蕉网 | 最近中文2019字幕第二页 | 欧美 日韩 人妻 高清 中文 | 久久综合狠狠综合久久综合88 | 国产av人人夜夜澡人人爽麻豆 | 精品成在人线av无码免费看 | 国产福利视频一区二区 | 成人综合网亚洲伊人 | 波多野结衣aⅴ在线 | 性欧美熟妇videofreesex | 99国产欧美久久久精品 | 荡女精品导航 | 日韩人妻系列无码专区 | 久久久久人妻一区精品色欧美 | 亚洲国产av美女网站 | 国产午夜视频在线观看 | 成人免费无码大片a毛片 | 一个人看的www免费视频在线观看 | 乱人伦人妻中文字幕无码久久网 | 日本精品高清一区二区 | 激情内射亚州一区二区三区爱妻 | 76少妇精品导航 | 性欧美大战久久久久久久 | 丰满人妻翻云覆雨呻吟视频 | 熟妇女人妻丰满少妇中文字幕 | 精品国产av色一区二区深夜久久 | 两性色午夜视频免费播放 | 国产一区二区三区日韩精品 | 国产色xx群视频射精 | 一本久道久久综合婷婷五月 | 亚洲国产精品美女久久久久 | 久久视频在线观看精品 | 老子影院午夜精品无码 | 夫妻免费无码v看片 | 7777奇米四色成人眼影 | 精品水蜜桃久久久久久久 | 亚洲精品久久久久久一区二区 | 国产偷国产偷精品高清尤物 | 欧美日韩一区二区三区自拍 | 97精品人妻一区二区三区香蕉 | 亚洲精品成a人在线观看 | 图片小说视频一区二区 | 久久久久亚洲精品中文字幕 | 蜜桃视频韩日免费播放 | 无套内谢老熟女 | 免费播放一区二区三区 | 国产综合色产在线精品 | 丝袜人妻一区二区三区 | 55夜色66夜色国产精品视频 | 亚洲国产精品成人久久蜜臀 | 成人无码影片精品久久久 | 国产特级毛片aaaaaa高潮流水 | 成人免费视频一区二区 | 日韩成人一区二区三区在线观看 | 国产精品人人爽人人做我的可爱 | 中文字幕无码日韩专区 | 人妻少妇精品视频专区 | 六月丁香婷婷色狠狠久久 | 国产亚洲精品久久久久久久 | 亚洲伊人久久精品影院 | 人妻熟女一区 | 国产一区二区不卡老阿姨 | 激情五月综合色婷婷一区二区 | 中国女人内谢69xxxx | 国产sm调教视频在线观看 | 久久精品人妻少妇一区二区三区 | 欧美人与禽猛交狂配 | 波多野结衣一区二区三区av免费 | 狠狠色噜噜狠狠狠狠7777米奇 | 久久精品一区二区三区四区 | 综合激情五月综合激情五月激情1 | av在线亚洲欧洲日产一区二区 | 日韩人妻少妇一区二区三区 | 久久亚洲国产成人精品性色 | 亚洲欧美国产精品专区久久 | 精品成在人线av无码免费看 | 精品久久久无码中文字幕 | 日韩精品乱码av一区二区 | 国产一区二区三区日韩精品 | 玩弄少妇高潮ⅹxxxyw | 少妇无码av无码专区在线观看 | 亚洲一区二区三区偷拍女厕 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 久久国产精品_国产精品 | 国产性生大片免费观看性 | 欧美性色19p | 国产精品高潮呻吟av久久 | 一区二区三区乱码在线 | 欧洲 | 亚洲人成网站在线播放942 | 无码人妻精品一区二区三区下载 | 亚洲成a人片在线观看无码3d | 丰满少妇熟乱xxxxx视频 | 成人免费视频在线观看 | 激情人妻另类人妻伦 | 人妻无码αv中文字幕久久琪琪布 | 欧美高清在线精品一区 | 精品无码国产一区二区三区av | 丝袜人妻一区二区三区 | 永久免费观看美女裸体的网站 | 桃花色综合影院 | 永久免费观看国产裸体美女 | 日本肉体xxxx裸交 | 特黄特色大片免费播放器图片 | 日韩少妇白浆无码系列 | 欧美日韩综合一区二区三区 | 中文字幕精品av一区二区五区 | 人妻插b视频一区二区三区 | 伊人久久大香线焦av综合影院 | 国产成人久久精品流白浆 | 国产亚洲美女精品久久久2020 | 亚洲一区二区三区在线观看网站 | 麻花豆传媒剧国产免费mv在线 | 亚洲春色在线视频 | 精品无码国产自产拍在线观看蜜 | 野外少妇愉情中文字幕 | 丰满少妇人妻久久久久久 | 国产精品理论片在线观看 | 99精品视频在线观看免费 | 亚洲va中文字幕无码久久不卡 | 少妇的肉体aa片免费 | 欧美成人午夜精品久久久 | 1000部啪啪未满十八勿入下载 | 99视频精品全部免费免费观看 | 鲁鲁鲁爽爽爽在线视频观看 | 欧美大屁股xxxxhd黑色 | 国产精品亚洲五月天高清 | 国产一区二区三区日韩精品 | 精品少妇爆乳无码av无码专区 | 无码一区二区三区在线 | 熟妇激情内射com | 国产国语老龄妇女a片 | 男人和女人高潮免费网站 | 午夜无码区在线观看 | 免费观看黄网站 | 国产一区二区三区精品视频 | 性欧美大战久久久久久久 | 国产乱人伦偷精品视频 | 色妞www精品免费视频 | 一个人看的www免费视频在线观看 | 国产精品无码久久av | 波多野结衣av在线观看 | 国产高潮视频在线观看 | 国产午夜亚洲精品不卡下载 | 亚洲日本一区二区三区在线 | 丰满少妇高潮惨叫视频 | 亚洲精品久久久久avwww潮水 | 亚洲国产一区二区三区在线观看 | 国产精品亚洲一区二区三区喷水 | 中文字幕无码乱人伦 | 欧美激情内射喷水高潮 | 色五月五月丁香亚洲综合网 | 夜夜影院未满十八勿进 | 亚洲 日韩 欧美 成人 在线观看 | 伦伦影院午夜理论片 | 亚洲成a人片在线观看无码 | 帮老师解开蕾丝奶罩吸乳网站 | 国产色视频一区二区三区 | 国产一区二区三区精品视频 | 日本xxxx色视频在线观看免费 | 久久久久免费精品国产 | 天天拍夜夜添久久精品大 | 性欧美牲交在线视频 | 永久免费精品精品永久-夜色 | 俺去俺来也在线www色官网 | 成人免费视频视频在线观看 免费 | 波多野结衣av一区二区全免费观看 | 夜精品a片一区二区三区无码白浆 | 国产明星裸体无码xxxx视频 | 国产精品成人av在线观看 | 国产国语老龄妇女a片 | 99精品无人区乱码1区2区3区 | 欧美日本日韩 | 牲欲强的熟妇农村老妇女视频 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 精品亚洲韩国一区二区三区 | 国产精品高潮呻吟av久久 | 国产精品视频免费播放 | 亚洲自偷自偷在线制服 | 国产av无码专区亚洲awww | 久久成人a毛片免费观看网站 | 欧美 日韩 亚洲 在线 | 亚洲大尺度无码无码专区 | 国产精品亚洲综合色区韩国 | 欧美日韩一区二区综合 | 精品国产福利一区二区 | 狠狠色丁香久久婷婷综合五月 | 嫩b人妻精品一区二区三区 | 精品aⅴ一区二区三区 | av无码久久久久不卡免费网站 | 国内综合精品午夜久久资源 | 人人妻人人澡人人爽人人精品 | 久久精品国产一区二区三区肥胖 | 成年女人永久免费看片 | 99久久久国产精品无码免费 | 内射欧美老妇wbb | 2020久久香蕉国产线看观看 | 国产成人久久精品流白浆 | 色欲av亚洲一区无码少妇 | 国内老熟妇对白xxxxhd | 亚洲精品成人福利网站 | 无码国产乱人伦偷精品视频 | 国产精品久久久久久久9999 | 亚洲七七久久桃花影院 | 日韩精品久久久肉伦网站 | 国产精品无码永久免费888 | 99re在线播放 | 国产亚洲精品久久久久久大师 | 综合人妻久久一区二区精品 | 欧美35页视频在线观看 | 欧美第一黄网免费网站 | 日日躁夜夜躁狠狠躁 | 国产人妻精品一区二区三区不卡 | 美女扒开屁股让男人桶 | 性色欲网站人妻丰满中文久久不卡 | 欧美人与物videos另类 | 亚洲一区av无码专区在线观看 | 久久精品人人做人人综合 | 精品偷自拍另类在线观看 | 午夜精品一区二区三区的区别 | 一本大道伊人av久久综合 | 日本欧美一区二区三区乱码 | 无套内谢老熟女 | 欧美熟妇另类久久久久久多毛 | 久久久久99精品国产片 | 中文字幕无码人妻少妇免费 | 伊人色综合久久天天小片 | 少妇高潮喷潮久久久影院 | 国产精品久久久av久久久 | 欧美 日韩 人妻 高清 中文 | 男女作爱免费网站 | 国产明星裸体无码xxxx视频 | 丰满护士巨好爽好大乳 | 亚洲精品午夜无码电影网 | 成 人 网 站国产免费观看 | 少妇的肉体aa片免费 | 丰满妇女强制高潮18xxxx | 日本精品少妇一区二区三区 | 又粗又大又硬又长又爽 | 欧美日韩一区二区免费视频 | 人人妻人人澡人人爽人人精品 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 99久久精品无码一区二区毛片 | 亚洲精品一区三区三区在线观看 | 熟妇人妻无乱码中文字幕 | 日本又色又爽又黄的a片18禁 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 永久免费观看国产裸体美女 | 男人和女人高潮免费网站 | 亚洲色大成网站www | 国产麻豆精品精东影业av网站 | 国精品人妻无码一区二区三区蜜柚 | 国产人妻人伦精品1国产丝袜 | 最新国产麻豆aⅴ精品无码 | 国产人妻精品一区二区三区不卡 | aa片在线观看视频在线播放 | 一本色道久久综合狠狠躁 | 性色欲网站人妻丰满中文久久不卡 | 99国产欧美久久久精品 | 任你躁在线精品免费 | 青青草原综合久久大伊人精品 | 国产特级毛片aaaaaa高潮流水 | 98国产精品综合一区二区三区 | 国产精品久久国产精品99 | 日韩精品久久久肉伦网站 | 久久久久av无码免费网 | 又大又紧又粉嫩18p少妇 | 无码任你躁久久久久久久 | 国产莉萝无码av在线播放 | 国精品人妻无码一区二区三区蜜柚 | 欧美日韩一区二区三区自拍 | а√天堂www在线天堂小说 | 亚洲国产成人a精品不卡在线 | 沈阳熟女露脸对白视频 | 国产一区二区三区日韩精品 | 中文字幕无线码 | 日本护士xxxxhd少妇 | 日本精品人妻无码免费大全 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲综合无码一区二区三区 |