基于草图的图像检索的文献综述
以前導師要求寫的文獻綜述,對我隨后的研究工作有了積極的影響,個人感覺越是盡早將看到的、讀到的進行總結(寫綜述),越能進入狀態
另外,我寫的東西我不負責哦~
參考文獻那里有些格式不準確,我也懶得改了,切記勿照抄
第一章 前言
1.1 背景
伴隨著互聯網與移動終端的飛速發展,圖片作為信息的主要載體之一早已融入到人們生活的方方面面。數據量的激增,使人們不得不面臨這樣一個問題:如何快速有效地從龐大的圖片集中篩選出自己想要的內容。目前,對于解決圖像檢索問題,絕大多數檢索系統[1][2]采用的是基于圖像內容檢索(CBIR, Content-Based Image Retrieval)的方法,即通過查詢每張圖片事先標注好的“關鍵字”來進行“關鍵字”的檢索,當然這里的“關鍵字”并不是文字,而是圖像的顏色、紋理、形狀、空間位置關系等特征。
但CBIR并不能完全滿足用戶的需求。例如,用戶所想要檢索的圖片并沒有數字格式,即圖像存于大腦,無法使用CBIR以圖搜圖,用戶也無法通過語言來描述該圖,或描述過程過于復雜,或描述方式不夠準確。鑒于上述場景,行之有效的方法就是讓用戶將腦海里的圖片,以草圖的形式繪制下來,然后通過草圖來檢索圖片:提取圖片庫的特征,與檢索請求中草圖的特征進行相關度計算,系統返回相關度排序后值最大的前k張圖片,記作top-k,該top-k序列的圖片子集即是檢索結果,這就是基于草圖的圖像檢索(SBIR, Sketch-Based Image Retrieval)的核心思路[3][4][8][14]。
1.2 研究方向
SBIR已研究了25余年[9],檢索步驟逐漸歸攏為一個定式:將圖片轉化為草圖,以草圖搜草圖。本文將近10年的研究方向總結為以下三點:
- 圖像轉草圖
 - 圖像草圖化后的特征提取
 - 檢索方式
 
圖像轉草圖,目前多是使用邊緣濾波器,Canny濾波器、Sobel濾波器、Laplace濾波器[5][6][8][21]。對于邊緣提取算法,本文發現近十年來均未討論其算法改進問題,因此認為數學層面或已無創新之處。不過E. Mathias、Zhang Y、Cheng M M等研究團隊均討論到,對于人類而言,使用簡單筆畫“復述”一副圖片,優先繪制的是圖中最吸引眼球的“精彩點”——顯著區域的圖像輪廓[8][14][15]。因此,若能提取出顯著區域再與草圖進行匹配,將大大提高匹配準確率,此內容較為特殊,將放在第二章特征提取方法的其他方法里進行說明。
對于SBIR中的特征提取,除開深度神經網絡(本文立足于傳統意義上的圖像匹配,而深度學習計算量巨大,對于百萬數據集別的圖片集,使用傳統特征提取方法更佳合理),常見的提取方法可以分為以下三類:全局特征描述符(Global descriptor),從整張圖片中提取足以描述整張圖片內容的全局特征;局部特征描述符(Local descriptor),由圖像的單位區域得到圖像的局部特征;其他,從三維圖形檢索借鑒而來的基于物體輪廓的特征提取技術,可歸為局部特征。而檢索方法,則歸為兩類。本文接下來將會分為兩個部分,分別對上述特征提取方法與檢索方法進行詳細介紹,并使用具有代表性的論文來分析使用該特征提取方法、檢索方法的優缺點。
1.3 研究前景
研究者將檢索分為兩個層次:粗粒度(coarse-grained)檢索與細粒度(fine-grained)檢索[18]。對于SBIR而言,粗粒度檢索或稱為類別級別(category-level)檢索,是傳統的草圖檢索(SG-SBIR)形式;細粒度草圖檢索(FG-SBIR, fine-grained SBIR),是一個新興的概念[16][17][18],針對草圖的細節進行圖像匹配,Yu Q [17]拋棄了傳統特征提取方法轉而使用卷積神經網絡,從效果上看比Li K [18]更好。
例如,用戶檢索鞋,SG-SBIR能為用戶返回一系列鞋的圖片,這比用戶輸入文字“鞋”而不是畫出鞋的外觀的檢索方式更加復雜,而FG-SBIR[17][18]卻能根據用戶草圖的細節返回與這些細節對應的鞋,如下圖1所示。
 
 圖 1 FG-SBIR下的鞋物檢索
本文認為細粒度檢索這一概念是很有研究前景的,或是使用SG-SBIR與其它技術結合,克服FG-SBIR中使用神經網絡帶來的計算耗時巨大的缺點,達到FG-SBIR中細粒度檢索的能力。
第二章 特征提取方法
2.1 全局特征描述符
對于全局特征描述符,出發點在于對圖片整體內容的描述,相比局部特征描述符更加“宏觀”,不需要考慮圖像局部的內容,因此擁有計算量較局部特征描述符更少、特征存儲空間更小的優點。它能夠勝任圖像的匹配、分類工作,但卻無法適用于圖像出現局部仿射變換的情況,即當圖像經過透視扭曲后,全局特征描述符無法將其與原圖歸為一類。現有的全局特征描述符主要有下列幾種:GIST, HoG及衍生算法。
2.1.1 GIST
GIST這個概念最初源自Friedman A[10]對用于激活記憶的場景的抽象描述;后被Oliva A等人[11]借用,作為文中提出的一種新型的特征描述符:空間包絡(Spatial Envelope)的理論基礎[11];隨后GIST正式被定義為全局特征描述符,其視覺描述子從以前的5個增長到8個,用于描述場景特征。
作為GIST特征的前身,空間包絡使用5個視覺描述子來描述圖像的視覺特征。它使用離散傅里葉變換(DFT, the discrete Fourier transform)與加窗傅里葉變換(WFT, the windowed Fourier transform)將圖像從空間域轉換到頻譜域,見圖2所示,不同的場景擁有不同的頻譜圖,可以發現,視覺描述子近似的圖片,其頻譜圖的形狀類似。
 
 圖 2 GIST特征提取示意圖
憑借這一規律,作者隨后提出了判別譜模(DST, Discriminant spectral templates)與加窗判別譜模(WDST, windowed Discriminant spectral templates)這兩個特征量,以此度量上述5個視覺描述子。分類時使用了PCA(Principal Component Analysis)降低特征維度,分類算法使用的是K-NN。
Torralba A等人[12]對其進行改良,將分類算法從K-NN改為隱含馬爾科夫模型(HMM, hidden Markov model),Siagian C [13]則是將圖片分塊,如下圖3所示,提取單位區域的GIST特征,進而增加特征信息,經過實驗表明,較原始GIST,分塊提取的準確率更高。
 
 圖 3 改良的GIST特征示意圖
2.1.2 HOG與DPM
HOG作為圖像人體檢測算法的特征描述子表現優異,本質是統計圖像的梯度方向,突出圖像中的紋理與邊緣信息,它的前身是EHD[5][21],對于SBIR近年來并沒有使用傳統的HOG算法,而是使用HOG的改進算法或是衍生算法。
 Tu B等人[20]則是使用HOG改進算法GF-HOG(Gradient Field HOG),結合草圖的筆畫顏色信息來進行圖像檢索,GF-HOG統計的不是圖像所有的像素點的HOG,而是統計圖像中作為邊的像素點的HOG,如下式:
( 2-1 )
M代表圖像中坐標為(x,y)的像素點,若像素點在已提取的邊上,則M(x,y)=1,隨后尋找M附近的空間的梯度方向,得到M的GF-HOG特征值。
由于HOG對目標的形變十分敏感,即若圖像中的物體產生了形變,HOG無法判斷目標形變前后是否是同類物體,而實際上目標形變前后是同一物體,因此人們提出了DPM算法以解決這個問題。
DPM算法對目標的形變具有很強的魯棒性,是一種基于部件的檢測方法。 Li Y[16]將其算法應用于SBIR,不過不同于過去方法[17][18]強調草圖所描述的物體的細節,而是強調草圖描述物體的朝向、觀測視角。Li Y [16]將DPM特征擴充至兩層結構,第一層為傳統DPM特征,稱之為根過濾器(root filter),第二層為含DPM的每個星狀圖的圖信息,稱之為部分過濾器(part filter),而在特征匹配時,不僅匹配DPM的相似度,還會匹配星狀圖的相似圖。Li K[18]中使用了Strongly-Supervised DPM(SS-DPM),因為普通DPM在提取特征后需要使用latent-SVM訓練模型,而latent-SVM的初始值采用自啟發算法,分類可能不準確,而SS-DPM的監督特性能提高latent-SVM分類的準確度。
2.1.3 小結
正如前文所述,全局特征描述符是對圖像整體“場景”的描述,雖能提高特征提取速度,降低特征存儲空間,但大前提是忽略了圖像細節。對于圖像識別領域,放棄了對細節的把控,失去了對圖像內部物體的匹配,計算機并不知道目標圖像內部有什么,這是沒有意義的。因而近幾年研究人員對于全局特征描述符的研究表現冷淡,除了一些應用外,均是從算法層面入手將其轉換為局部特征,因此第二節將會說明上述傳統特征提取的改進算法。
2.2 局部特征描述符
局部特征描述符擁有仿射不變性,與全局特征描述符恰恰相反,它是從單張圖片某一特定區域提取特征。局部特征提取是近年來研究SBIR系統最為推崇的方法,可以說是SBIR的研究熱點。目前比較熱門、特征提取效果較好的方法主要有下列幾種:ShapeContext、SHOG、TENSOR描述子、EI邊緣統計。
2.2.1 ShapeContext與SparkFeature
ShapeContext具有在圖像形狀發生傾斜、位移、大小等平面變換時有較好匹配的特點[21][22],是一種經典的形狀識別特征,與SIFT擁有同等地位[21]。傳統的ShapeContext針對封閉的輪廓提取特征,它抽取封閉輪廓上的等距樣本點與其余樣本點的相對向量作為該點的上下文信息,該描述子在非剛性物體的匹配中具有很好的魯棒性。
對于SBIR而言,草圖若沒有封閉——室外場景多使用線條勾勒,不會產生封閉形狀——ShapeContext描述子效果較差,Eitz M等人[6]優化其算法使之適應SBIR:圖4所示。其步驟為,在提取出圖像的邊緣(黑色線條表示)后,隨機選取邊緣上的點作為特征點(橘色圓圈),記作特征點集UUU,設置閾值γγγ,若特征點iii(紅色點)與附近的點相距d<γd<γd<γ,則納入iii的相臨點集,后統計iii的相臨點集的極坐標直方圖,作為iii的ShapeContext特征,遍歷UUU,得到所有特征點對應的特征值。
 
 圖 4 ShapeContext特征的示意圖
Eitz M等人[6]接著提出了ShapeContext的改進算法SparkFeatures,如下圖5所示。其步驟為,在提取出圖像的邊緣(黑色線條表示)后,對圖像進行隨機采樣,對每個采樣點(綠色圓圈)進行如下操作:從該點出發,隨機方向發散,若能夠到達圖像邊緣,則記錄其距離與向量信息,發散數為定值,統計所有發散到達邊緣點的極坐標直方圖。
 
 圖 5 SparkFeatures特征的示意圖
2.2.2 SHOG
Eitz M[6]提出的改進的HOG特征描述子,不同于HOG的全局特性,SHOG是局部特征描述子,見圖6,在提取出圖像的邊緣(黑色線條表示)后,對圖像進行隨機采樣,對每個采樣點(綠色圓圈)進行如下操作:以該點為中心,設置網格,統計每個網格中包含邊緣的那個網格的HOG特征,后得到所有采樣點的HOG特征集合,稱之為SHOG特征。
 
 圖 6 SHOG特征的示意圖
Eitz M等人[6]的實驗表明,SHOG較ShapeContext與SparkFeatures、EHD、ARP、TENSOR效果更好,不過文中并沒有給出PR曲線,所以其結果存疑。
2.2.3 TENSOR
TENSOR是Eitz M[5]提出的局部特征描述符,對于每個單位區域(Cell)記作CijC_{ij}Cij?,不同于HOG將梯度信息離散化至直方圖,TENSOR使用一個向量TIJT_{IJ}TIJ?來代表該單位區域CijC_{ij}Cij?的梯度信息,設存在一單位向量xxx,通過式2-2
 ( 2-2 )
代表該單位區域CijC_{ij}Cij?的主要梯度方向,其中guvg_{uv}guv?是CijC_{ij}Cij?中的梯度向量,經過式( 2-3 )與式( 2-4 )變換,使GijG_{ij}Gij?擁有全部CijC_{ij}Cij?的梯度信息,
( 2-3 )
 ( 2-4 )
 其中λλλ是拉格朗日乘子,經過frobenius范數變換得到最終的TENSOR特征,記為TIJT_{IJ}TIJ?。
( 2-5 )
 對于TENSOR特征相似度的計算,則是使用frobenius范數的差異,后將所有TENSOR特征進行累加求和,得到兩個特征集合的距離,通過距離來衡量其相似度。
Eitz M等人[21]將TENSOR與HOG在ARP、EHD的檢索結果為基準下進行對比,同樣地(與他們的工作[5]對比),使用15萬Flickr圖片集,為檢測系統的魯棒性,將圖片縮放、旋轉,發現在網格(grid, 每個grid下有多個cell,grid作為多個cell的向量集合,該集合作為描述符的一個特征) 不同大小下,TENSOR的效果更好。不過Eitz M等人的工作[21]較[5]的不同之處在于,使用參數的變化范圍更廣,且手繪草圖的采集方式有兩個,一是臨摹,二是憑借記憶繪制。
論文[5] [21]均提到,對于大量圖片集而言,當時并沒有一個標準來度量檢索結果的好壞,Eitz M等人[5] [21]使用的是,賦予圖片分值,當檢索系統返回對應圖片后,就為該檢索方法加相應分數。為更客觀,在后續工作中建立了一個標準數據集[6][8]。
2.2.4 EI
Y. Cao等人[4]提出了一種新的邊緣特征匹配算法EI(Edgel Index Algorithm),由于特征空間數據量極大(可達55GB,正常服務器無法處理),因此使用高效檢索架構(Structure-consistent Sketch Matching, SSM)對相似度計算(即草圖匹配)進行了優化,并提出了經過簡化的邊緣匹配方式IOCM(Indexable Oriented Chamfer Matching)。如下圖7所示,左側為原始OCM(Oriented Chamfer Matching) [23],右側為作者提出的IOCM(Indexable Oriented Chamfer Matching)。
 圖 7 OCM與IOCM算法示意圖
當待測邊(query contour,紅線)在目標邊(object contour,藍線)由IOCM生成的范圍(綠色區域)內,則帶側邊與目標邊匹配,記作Hitmap,如下式定義:
( 2-6 )
計算各個方向(文中將其離散化為6個)上的Hitmap作為EI算法的特征量。
對于草圖匹配,本文設計了SSM,分為三步,其中D代表Database,Q代表Query:第一步,D->Q,統計Hitmap為D中的圖片打分,該步檢索記作EI-1;第二步,Q->D,使用第一步的分數選出Top-N的圖片與草圖計算相似度,降低了待匹配圖像的數量,該步檢索記作EI-2;第三步,Q,D,使用下式( 2-7 )將EI-1與EI-2的相似度結果融合到一起,作為最終相似度,該步檢索記作EI-S。
( 2-7 )
對于圖像鏈接到草圖方面,[4]使用的是Berkeley detector尋找圖片的邊緣信息。
2.2.5 小結
Eitz M[21]中說到,TENSOR比HOG的效果更好,而后續研究說明,SHOG較ShapeContext以及衍生算法SparkFeature更適合SBIR[6],同時期的Y. Cao [4]則表示,他們提出的方法EI較TENSOR更好,而這些實驗[4][6][21]中的方法并沒有使用統一的數據集在同等的條件下進行比較,因此結論的準確性不得而知,不過Eitz M 等人[6]除了提出的SHOG外,他們另一個貢獻是耗費大量人力物力建立的對SBIR的檢索結果較客觀的評價指標。
上述文章均為未使用SIFT,這是因為SIFT的匹配更加精確,它具有諸多不變性,而手繪草圖具有很強的隨意性(free sketch),精確的搜索將會導致檢索數據集的缺失,草圖檢索需要“模糊”的匹配。
2.3 其他方法
由于Cheng M M研究團隊[15][24]的系列研究,使得從圖像抽取顯著區域的效果變得很好,能夠模擬人類看到圖像后,以此為基準繪制草圖的這一過程中人類所繪制的目標物體,即顯著區域,如下圖8所示,若希望參照左圖繪制草圖,那么人類會尋找左圖的顯著區域:烏鴉,將烏鴉這一內容作為草圖繪制,因此可以預見草圖的樣子大致會與右圖一致。
 圖 8 顯著區域示意圖
上述內容為草圖檢索提供了兩種新的思路:一是借鑒三維圖形檢索中的輪廓匹配方法,由草圖輪廓搜圖像輪廓;二是經過顯著區域的過濾后,再對顯著區域中的圖像使用提取圖像邊緣的傳統草圖檢索方法[14]。
對于第一種思路,即輪廓檢索,目前較新的方法有GALIF[7]、HOAD[25];而對于第二種方法,有ARP、AROP[14]。
2.3.1 GALIF
Eitz M等人[7]提出了基于局部線條的Gabor特征描述符GALIF(Gabor Local Line-based Feature)。GALIF對一個特征點進行8個方向的濾波特征提取,它能夠很好地提取圖像的局部線條特征。
 圖 9 GALIF特征示意圖
如上圖9所示,對于圖像III,使用不同方向的Gabor濾波gig_igi?后產生濾波圖RiR_iRi?,接著將RiR_iRi?分解為n?nn*nn?n的區域,計算各個區域中所有點的灰度平均值作為一個特征量,最后會得到i?n?ni*n*ni?n?n個特征值組成的特征向量,并使其歸一化,這就是GALIF特征的提取方法。
2.3.2 HOAD
Wang F等人[25]提出了HOAD(Histogram of Orientation Angular Distribution)作為三維圖形檢索的特征,如下圖10所示,
 圖 10 HOAD特征示意圖
對于上圖輪廓,首先將該輪廓轉化為封閉圖形,后在該輪廓上均勻采樣,計算采樣點集的重心,后計算重心到每個采樣點的方向,并將該方向離散化后使用直方圖進行統計,最終得到HOAD特征。
2.3.3 ARP與AROP
ARP特征僅僅是粗略地統計了圖像輪廓的像素個數,并沒有考慮到圖像輪廓含有的梯度方向信息,而HOG作為統計圖像梯度信息的特征已在圖像識別領域得到了廣泛的應用,因此Zhang Y等人[14]將ARP特征進行了改進,提出了一種新的特征,記作AROP(Angle, Radius and Orientation Partition),該特征的提取方法見下圖11,
 圖 11 ARP特征示意圖
將圖像(a)按(b)所示分割為多個區域,每個區域擁有自己的角度、半徑信息,統計每個區域的梯度方向信息,類似HOG方法,將每個區域的梯度方向信息離散化,最終得到AROP特征。
第三章 檢索算法
現有的方法多是在提取草圖與圖像的特征后,計算兩者的距離,作為草圖與圖像的相似度,然后對相似度進行排序,返回相似度排序序列中的Top-N作為檢索結果。
對于圖片集十分巨大導致檢索速度變慢的問題,研究人員多是對這個N進行修改,因為在實際情況中,人們在使用手繪檢索時,關心的是檢索的準確度,而不是檢索返回圖片的數量,因此在檢索的時候,只需要匹配某一類別的“關鍵圖”即可,這也是前文提到的類別級別(category-level)檢索的思路。Y. Cao[4]中使用的草圖搜圖片、圖片搜草圖這兩步預處理也是在修改N的大小。
而Eitz M等人[5][6][7]使用了一種類似文本推薦系統BoW(Bag of Words)的方法BoF(Bag of Features)作為檢索算法。實際上BoF算法在[5][6][7]之前就有研究者提出,它的主要思想是,對圖像庫中的所有圖像提取特征,后使用K-means進行聚類產生“詞匯”,使用tf-idf方法統計每幅圖像中的“詞匯”的權重,后用草圖的“詞匯”表乘以權重得到該草圖的“分數”,根據“分數”高低返回圖像集合。
 Wang F等人[25][26]則是提出,使用推薦系統來提高檢索系統的準確性:就系統而言,若含有相當量的歷史用戶,他們已經完成了檢索,即系統中存有他們的歷史草圖,當新用戶進行檢索的時候,推薦系統通過相似度比對該用戶與歷史用戶的手繪風格,若該用戶檢索歷史用戶已經檢索過的內容,系統則將該歷史用戶推薦給新用戶,檢索系統返回這項歷史內容,以此來提高檢索準確性。
第四章 總結
本文敘述了近十年關于基于草圖的圖像檢索的方法,如前文所述,草圖檢索可以分為兩大部分:特征提取與圖像檢索。對于特征提取,本文論述了全局特征描述符與局部特征描述符,全局特征描述符是對圖像整體“場景”的描述,雖能提高特征提取速度,降低特征存儲空間,但大前提是忽略了圖像細節;局部特征描述符,雖能達到對圖像細節把控的目的,但單張圖片含有特征數目過多,致使特征存儲空間過大,并不適合大數據環境下的圖像集。進而在檢索步中進行降維處理,通過降維處理減少特征存儲空間的消耗,這就是BoW技術的應用。BoW技術能顯著地加快特征匹配速度,對于大數據環境而言,BoW技術能夠解決數據爆炸的問題。
正如前文所討論的,結合局部特征描述符與BoW技術,能夠提高草圖檢索的準確性。因此,對于草圖檢索而言,本文認為對,若想在草圖檢索效果上有所提高,除了發現新的特征描述符外,改進BoW技術也是另一個可行的研究點。
參考文獻
[1] X. Yang, X. Qian, and Y. Xue, “Scalable mobile image retrieval by exploring contextual saliency,” IEEE Trans. Image Process., vol. 24, no. 6, pp. 1709–1721, Jun. 2015.
 [2] Guo J M, Prasetyo H. Content-based image retrieval using features extracted from halftoning-based block truncation coding.[J]. IEEE Transactions on Image Processing, 2015, 24(3):1010-24.
 [3] A. Chalechale, G. Naghdy, and A. Mertins, “Edge image description using angular radial partitioning,” Proc. IEE, vol. 151, no. 2, pp. 93–101, Apr. 2004.
 [4] Y. Cao, C. Wang, L. Zhang, and L. Zhang, “Edgel index for largescale sketch-based image search,” IEEE Comput. Soc. Conf. Comput. Vis. Pattern Recog., Jun. 2011, pp. 761–768.
 [5] Eitz M, Hildebrand K, Boubekeur T, et al. A descriptor for large scale image retrieval based on sketched feature lines[C]// Eurographics Symposium on Sketch-Based Interfaces and Modeling. ACM, 2009:29-36.
 [6] Eitz M, Hildebrand K, Boubekeur T, et al. Sketch-Based Image Retrieval: Benchmark and Bag-of-Features Descriptors[J]. IEEE Transactions on Visualization & Computer Graphics, 2011, 17(11):1624-1636.
 [7] Eitz M, Richter R, Boubekeur T,et al. Sketch-Based Shape Retrieval[J]. ACM Transactions on Graphics (Proceedings SIGGRAPH), 2012, 31(4):31-1—31-10
 [8] E. Mathias, H. James, and A. Marc, “How do humans sketch objects?” ACM Trans. Graph., vol. 31, no. 4, pp. 44-1–44-10, 2012.
 [9] Kato T, Kurita T, Otsu N, et al. A sketch retrieval method for full color image database-query by visual example[C]// Iapr International Conference on Pattern Recognition, 1992. Vol.i. Conference A: Computer Vision and Applications, Proceedings. IEEE Xplore, 1992:530-533.
 [10] Friedman A. Framing pictures: the role of knowledge in automatized encoding and memory for gist[J]. J Exp Psychol Gen, 1979, 108(3):316-355.
 [11] Oliva A, Torralba A. Modeling the Shape of the Scene: A Holistic Representation of the Spatial Envelope[M]. Kluwer Academic Publishers, 2001.
 [12] Torralba A, Murphy K P, Freeman W T, et al. Context-based vision system for place and object recognition[C]// IEEE International Conference on Computer Vision, 2003. Proceedings. IEEE, 2003:273-280 vol.1.
 [13] Siagian C, Itti L. Rapid Biologically-Inspired Scene Classification Using Features Shared with Visual Attention[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2007, 29(2):300.
 [14] Zhang Y, Qian X, Tan X, et al. Sketch-Based Image Retrieval by Salient Contour Reinforcement[J]. IEEE Transactions on Multimedia, 2016, 18(8):1604-1615.
 [15] Cheng M M, Zhang G X, Mitra N J, et al. Global contrast based salient region detection[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2011:409-416.
 [16] Li Y, Hospedales T M, Song Y Z, et al. Fine-grained sketch-based image retrieval by matching deformable part models[J]. 2014. in Proc. BMVC, 2014, pp. 1–12.
 [17] Yu Q, Liu F, Song Y Z, et al. Sketch Me That Shoe[C]// Computer Vision and Pattern Recognition. IEEE, 2016:799-807.
 [18] Li K, Pang K, Song Y Z, et al. Synergistic Instance-Level Subspace Alignment for Fine-Grained Sketch-Based Image Retrieval[J]. IEEE Transactions on Image Processing, 2017, PP(99):1-1.
 [19] Ren X, Ramanan D. Histograms of Sparse Codes for Object Detection[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2013:3246-3253.
 [20] Tu B, Collomosse J. Scalable Sketch-Based Image Retrieval Using Color Gradient Features[C]// IEEE International Conference on Computer Vision Workshop. IEEE Computer Society, 2015:1012-1019.
 [21] Eitz M, Hildebrand K, Boubekeur T, et al. An evaluation of descriptors for large-scale image retrieval from sketched feature lines[J]. Computers & Graphics, 2010, 34(5):482-498.
 [22] Belongie S, Malik J, Puzicha J. Shape Matching and Object Recognition Using Shape Contexts[C]// IEEE International Conference on Computer Science and Information Technology. IEEE, 2010:509-522.
 [23] B. Stenger, A. Thayananthan, P. Torr, and R. Cipolla. Modelbased hand tracking using a hierarchical bayesian filter. PAMI, 2006
 [24] Cheng M M, Warrell J, Lin W Y, et al. Efficient Salient Region Detection with Soft Image Abstraction[C]// IEEE International Conference on Computer Vision. IEEE, 2013:1529-1536.
 [25] Wang F, Lin S, Luo X, et al. A Data-Driven Approach for Sketch-Based 3D Shape Retrieval via Similar Drawing‐Style Recommendation[C]// Computer Graphics Forum. 2017.
 [26] Wang F, Lin S, Wu H, et al. Data-driven method for sketch-based 3D shape retrieval based on user similar draw-style recommendation[C]// SIGGRAPH Asia. ACM, 2016:34.
總結
以上是生活随笔為你收集整理的基于草图的图像检索的文献综述的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: Chrome保存整个网页为图片、PDF
 - 下一篇: git 报错:unable to acc