中线提取算法_综述|线结构光中心提取算法研究发展
摘 要: 線結(jié)構(gòu)光掃描是三維重建領(lǐng)域的關(guān)鍵技術(shù)。光條紋中心提取算法是決定線結(jié)構(gòu)光三維重建精度以及光條紋輪廓定位準(zhǔn)確性的重要因素。本文詳細(xì)闡述了光條紋中心提取算法的理論基礎(chǔ)及發(fā)展歷程,將現(xiàn)有算法分為三類,傳統(tǒng)光條紋中心提取算法、基于傳統(tǒng)光條紋中心提取的改進(jìn)算法、基于神經(jīng)網(wǎng)絡(luò)光條紋中心提取算法,并提出每一類算法的優(yōu)勢(shì)與不足。最后,對(duì)線結(jié)構(gòu)光中心提取算法的發(fā)展提出展望,生產(chǎn)更高質(zhì)量的線激光器,擴(kuò)充基于神經(jīng)網(wǎng)絡(luò)的光條紋中心線檢測(cè)模型的訓(xùn)練樣本。
關(guān)鍵詞:中心提取;線結(jié)構(gòu)光;三維重建;光條紋
1.引言
雙目立體視覺(jué)技術(shù)是三維重建領(lǐng)域的關(guān)鍵技術(shù)之一,廣泛應(yīng)用于機(jī)器人視覺(jué)導(dǎo)航,非接
觸性三維測(cè)量,工業(yè)檢測(cè),醫(yī)學(xué)成像,航空測(cè)繪,軍事應(yīng)用和全息投影等領(lǐng)域[1]。雙目視覺(jué)測(cè)量原理是兩臺(tái)平行放置的CCD相機(jī)觀測(cè)同一物體,相機(jī)分別獲取圖像并提取兩幅圖像中的特征點(diǎn)進(jìn)行立體匹配,使用三角測(cè)量法由視差值計(jì)算物點(diǎn)的三維空間坐標(biāo)[2]。立體匹配是雙目視覺(jué)測(cè)量最關(guān)鍵的模塊[3],對(duì)于表面光滑、圖像灰度變化小的物體立體匹配的難度極高[4]。因此引入線結(jié)構(gòu)光掃描技術(shù)主動(dòng)增加圖像的紋理特征,利用雙目相機(jī)采集線結(jié)構(gòu)光條紋[5]如圖 1所示。由于設(shè)備硬件結(jié)構(gòu)的原因激光器投射出的線結(jié)構(gòu)光光條紋通常具有3~12個(gè)像素寬度,需要提取單像素甚至亞像素級(jí)的光條紋中心作為雙目視覺(jué)系統(tǒng)的匹配點(diǎn)[6,7]。因此光條紋中心點(diǎn)的提取是立體視覺(jué)測(cè)量中的關(guān)鍵問(wèn)題,目前使用最廣泛的中心提取算法是Steger C在二十世紀(jì)末提出的基于Hessian矩陣的Steger算法,長(zhǎng)期以來(lái)國(guó)內(nèi)外研發(fā)團(tuán)隊(duì)基于Steger算法以及其他傳統(tǒng)算法不斷做出改進(jìn),顯著提高了中心提取算法精度。本文對(duì)近二十年的光條紋中心提取算法進(jìn)行綜述,將現(xiàn)有算法分為三類,傳統(tǒng)光條紋中心提取算法、基于傳統(tǒng)光條紋中心提取的改進(jìn)算法、基于神經(jīng)網(wǎng)絡(luò)光條紋中心提取算法,并提出各種算法的優(yōu)勢(shì)與不足。
圖1 雙目系統(tǒng)采集線結(jié)構(gòu)光條紋
Fig.1 Structure light stripe of acquisition line of binocular system
2. 傳統(tǒng)光條紋中心提取算法
傳統(tǒng)的光條紋中心提取算法有灰度重心法、閾值法、極值法、邊緣法、中心法、二值形態(tài)學(xué)細(xì)化法、Steger算法、曲線擬合法、深度約束法。本文根據(jù)不同算法的理論基礎(chǔ)與特點(diǎn)將其分為四大類,光條紋幾何中心提取方法、基于光條紋灰度分布特點(diǎn)提取方法、基于形態(tài)學(xué)條紋中心提取方法、光條紋亞像素中心提取方法。
2.1 基于光條紋灰度分布特點(diǎn)提取方法
2.1.1 灰度重心法條紋中心提取
投射到平坦物體表面的線結(jié)構(gòu)光條紋截面光強(qiáng)分布近似服從高斯分布[7]。通過(guò)灰度重心法可以求出條紋橫截面光強(qiáng)分布曲線的高斯中心[8],對(duì)光條紋逐行提取高斯中心,將中心點(diǎn)擬合形成光條紋中心線。
灰度重心法的計(jì)算公式如下:
(1)
光條紋第v列的灰度重心坐標(biāo)為p(xv,v),在包含U行,V列的圖像中坐標(biāo)(u,v)處的像素灰度值為I(u,v),其中u=1,2,3,…,U;v=1,2,3…,V。灰度重心法速度快,實(shí)時(shí)性好,當(dāng)光條紋投射在形態(tài)復(fù)雜的物體表面時(shí),光條紋會(huì)產(chǎn)生較大形變,此時(shí)條紋截面呈現(xiàn)非高斯分布,繼續(xù)使用灰度重心法會(huì)出現(xiàn)中心提取誤差,如圖 2所示。
圖2 中心提取誤差直方圖[45]
Fig.2 Histogram of center extraction error
2.1.2 極值法提取光條紋中心
極值法的原理是對(duì)光條紋橫截面的灰度分布函數(shù)做梯度運(yùn)算,將梯度值為零處的像素點(diǎn)作為光條紋中心點(diǎn),極值法對(duì)截面像素呈高斯分布的光條紋適用性較高[9,10],由于是基于灰度值的方法提取中心點(diǎn),算法易受噪聲影響,信噪比較小的圖像不采用此方法[11,12]。
2.1.3 曲線擬合法提取光條紋中心
由于條紋截面光強(qiáng)分布呈高斯分布[13],對(duì)條紋截面的像素點(diǎn)采用二次拋物線擬合[14]與最小二乘法的高斯曲線擬合[14,15],光條紋每一行截面擬合結(jié)果的局部極大值對(duì)應(yīng)的像素點(diǎn)即為條紋中心[16]。
2.1.4 方向模板法提取光條紋中心
方向模板法最初由胡斌[17]提出,是基于灰度重心法的改進(jìn)算法。線結(jié)構(gòu)光投射到粗糙的物體表面時(shí),光條紋會(huì)發(fā)生形變與偏移,在一定范圍內(nèi),可認(rèn)為光條紋向四個(gè)方向發(fā)生偏移,水平、垂直、左傾45o、右傾45o。對(duì)應(yīng)上述光條紋發(fā)生偏移的四種情況,構(gòu)建四個(gè)方向的模板,分別與條紋截面各行的像素塊做卷積,取響應(yīng)值最大的像素塊中心點(diǎn)作為該行的條紋中心。方向模板法能夠克服白噪聲的影響,并可以在一定程度上修補(bǔ)斷線,但受限于有限的模板方向,紋理復(fù)雜的物面會(huì)使條紋向更多方向發(fā)生偏移。
2.1.5 脊線跟蹤法提取光條紋中心
將光條紋各行橫截面灰度值最大的點(diǎn)連接成條紋脊線,沿脊線切線方向灰度值變換平緩,脊線的法線方向光條紋灰度值逐漸降低。脊線跟蹤法對(duì)噪聲十分敏感[10]。
2.2 光條紋幾何中心提取方法
2.2.1 邊緣法和中心法提取光條紋中心
提取光條紋的兩條邊緣如圖3(a)所示,并以其中一條邊緣作為光條紋中心,邊緣法處理速度快,但會(huì)給三維重建結(jié)果帶來(lái)很大誤差。常用的條紋邊緣提取方法有Canny算法[18],Canny算法需要調(diào)整高低閾值及高斯濾波器大小??紤]光條紋邊緣的連續(xù)性也可以采用鄰域法提取光條紋邊緣[11],提取到的光條紋兩個(gè)邊緣線的列坐標(biāo)分別為u、v,則中心法得到的光條紋中心的列坐標(biāo)y=(u+v)/2。如圖3(b)所示,中心法提取的光條紋中心點(diǎn)準(zhǔn)確性高于邊緣法,但由于圖像噪點(diǎn)影響,邊緣線的提取會(huì)出現(xiàn)誤差導(dǎo)致中心法的效果不佳。
圖3(a) 邊緣法[23] (b) 中心法[23]
Fig.3 (a) arginal method;(b) Central method
2.2.2 閾值法提取光條紋中心
設(shè)定閾值T,在光條紋截面上找到最接近閾值的四個(gè)點(diǎn),用這四個(gè)點(diǎn)在光條紋截面上的坐標(biāo)以及灰度值做線性插值,得到光條紋截面上的兩個(gè)點(diǎn)p,q的坐標(biāo),取p,q的中點(diǎn)即為光條紋中心點(diǎn)如圖4所示。閾值法可以做到實(shí)時(shí)提取中心點(diǎn),但易受到噪聲干擾導(dǎo)致線性插值結(jié)果出現(xiàn)偏差如圖5所示為噪聲對(duì)閾值法的干擾。
圖4閾值法[10] 圖5 噪聲對(duì)閾值法的影響[10]
2.2.3 基于形態(tài)學(xué)條紋中心提取方法
利用細(xì)化法[19]提取光條紋中心骨架,由于光條紋具有一定的寬度,所以需要對(duì)光條紋反復(fù)進(jìn)行形態(tài)學(xué)處理,對(duì)光條紋不斷地進(jìn)行腐蝕操作,剝離光條紋邊界,同時(shí)也要保證剝離邊界后的光條紋中心線是單像素寬度的連通線,連通線保持光條紋原有的拓?fù)浣Y(jié)構(gòu)。由于光照影響,細(xì)化法提取的條紋中心線有毛刺出現(xiàn),使中心線的寬度超過(guò)單像素。
2.2.4 光條紋亞像素中心提取方法
Steger算法利用Hessian矩陣對(duì)圖像求二階方向?qū)?shù)[20],二階方向?qū)?shù)絕對(duì)值最大的方向就是光條紋的法線方向[10]。
Hessian矩陣的表達(dá)式:
(2)
h(x,y)為二維高斯函數(shù),f(x,y)表示Hessian矩陣求二階導(dǎo)數(shù)的圖像。Hessian矩陣對(duì)f(x,y)中像素點(diǎn)(u,v)進(jìn)行5次二維高斯卷積運(yùn)算[9,10],得到絕對(duì)值最大的特征值對(duì)應(yīng)的特征向量就是該點(diǎn)的法線方向。并在法線方向上對(duì)光條紋灰度分布函數(shù)二階泰勒展開(kāi),得到一階過(guò)零點(diǎn)即為光條紋中心點(diǎn)。Hessian矩陣對(duì)圖像求方向?qū)?shù)的過(guò)程運(yùn)算量巨大,無(wú)法達(dá)到實(shí)時(shí)的效果[20]。
3. 基于傳統(tǒng)光條紋中心提取的改進(jìn)算法
傳統(tǒng)光條紋中心提取算法中最常用的有灰度重心法、方向模板法、Steger法,如表1所示算法均存在一定的缺陷。近年來(lái)許多研究人員對(duì)傳統(tǒng)條紋中心提取算法做出改進(jìn)。
表1 光條紋中心提取算法的缺陷
Table 1 Defects in the extraction algorithm of light stripe center
算法
缺陷
灰度重心法
要求光條紋橫截面呈完整的高斯分布
易受環(huán)境噪聲與傳感器引入的誤差的影響
方向模板法
受限于有限的模板方向
物體表面粗糙度會(huì)影響條紋中心提取精度
Steger算法
運(yùn)算量過(guò)大,效率低
高斯核選取不恰當(dāng)會(huì)導(dǎo)致圖像信息失真
3.1 灰度重心法的改進(jìn)
由于高空間相干性,線激光器會(huì)產(chǎn)生隨機(jī)的斑點(diǎn)或顆粒狀的圖案,光條紋截面會(huì)出現(xiàn)寬度不一致的問(wèn)題如圖6所示。張小艷[21]等提出一種自適應(yīng)二值化處理的方法先確定位光條紋各行截面邊界,根據(jù)不同的條紋邊界寬度利用灰度重心法提取光條紋中心點(diǎn),提高了中心線提取準(zhǔn)確性。
圖6 變形的光條紋[27]
劉振[22]等通過(guò)條紋中心點(diǎn)間鄰域灰度變化較平緩的特點(diǎn),引入高斯分布互相關(guān)系數(shù),自適應(yīng)地調(diào)節(jié)互相關(guān)模板大小,結(jié)合互相關(guān)算法與曲線擬合算法精確定位條紋中心點(diǎn),算法對(duì)于高光強(qiáng)背景的情況表現(xiàn)良好。
趙博華[23]等利用形態(tài)學(xué)方法[12]設(shè)定連通域面積閾值,去除噪聲并輸出具有有效光條信息的二值化模板圖像,利用模板與原圖像相乘獲得無(wú)噪聲的光條圖像,使用灰度重心法提取光條中心線,有效的克服了外部噪聲干擾。
粗糙的物體表面會(huì)導(dǎo)致光條紋發(fā)生不規(guī)則的扭曲變形,席劍輝[24]等結(jié)合高斯擬合算法與灰度重心算法提出一種快速提取條紋中心線的方法,先利用差影法提取二值化條紋圖像,創(chuàng)建模板對(duì)圖像進(jìn)行兩次卷積處理并采用中值濾波[25]去除噪點(diǎn),在條紋邊緣的局部鄰域內(nèi)計(jì)算像素點(diǎn)的梯度從而確定光條法線方向,在法線方向上利用灰度重心法獲取光條中心點(diǎn)如圖5所示。算法克服了因粗糙的物面造成的光條紋形變問(wèn)題。
圖5 基于骨架的灰度重心法[31]
趙彬[26]等提出一種自適應(yīng)閾值的加權(quán)重心法提取光條紋中心。將多通道的BGR圖像轉(zhuǎn)換成只有R通道的光條紋圖像,實(shí)驗(yàn)證明R通道的光條紋像素點(diǎn)灰度分布最接近高斯分布。通過(guò)Otsu自適應(yīng)閾值法獲取圖像的最佳分割閾值從而將光條紋與背景分離,提高算法運(yùn)算效率。最后利用加權(quán)灰度重心法提取光條中心點(diǎn),該算法增強(qiáng)了條紋中心點(diǎn)局部鄰域像素的權(quán)重,更精準(zhǔn)的定位中心點(diǎn)坐標(biāo)。
加權(quán)灰度重心法公式:
(3)
其中q為光條紋寬度范圍,W為自適應(yīng)閾值法的最佳閾值。g(x,y)為像素灰度值,yi為像素坐標(biāo)值,y就是光條紋中心坐標(biāo)。
3.2 方向模板法的改進(jìn)
李和平[27]等提出一種基于遺傳算法的光條紋中心提取算法,首先利用遺傳算法[28,29]自動(dòng)選取顏色閾值從圖像中分割出光條紋區(qū)域,再通過(guò)方向模板法獲取光條中心線,采用人機(jī)交互的方式填充斷裂的中心線。算法增強(qiáng)了抗噪聲的能力,實(shí)現(xiàn)了斷線修補(bǔ)。
針對(duì)方向模板法計(jì)算量大,運(yùn)算效率低,光條紋中心提取精度只能達(dá)到像素級(jí)別等問(wèn)題。蘇小勤[30]等基于方向模板法、中心法、灰度重心法,提出了一種快速提取光條紋中心的算法。首先通過(guò)中心法提取光條骨架,利用基于位置的發(fā)現(xiàn)判斷法求取骨架法線方向,在法線方向上對(duì)條紋截面的像素進(jìn)行灰度加權(quán)提取條紋中心。
由于投射面反射率不一致,光條紋會(huì)出現(xiàn)粗細(xì)不均勻的情況。傳統(tǒng)方向模板法四個(gè)方向的高斯模板大小是固定的,當(dāng)局部條紋寬度較小時(shí),中心線會(huì)偏離結(jié)構(gòu)光中心。為克服這一問(wèn)題,王澤浩[31]等提出一種自適應(yīng)方向模板法,首先利用灰度屬性鄰域法[32]對(duì)圖像去噪,根據(jù)不同的條紋截面寬度自動(dòng)調(diào)整方向模板大小,對(duì)結(jié)構(gòu)光中心線有很好的追隨性,提高了中心線提取的準(zhǔn)確率。
方向模板法輸出光條紋三維數(shù)據(jù)的圖像點(diǎn)列,直接使用這些點(diǎn)擬合條紋中心線,會(huì)出現(xiàn)大量毛刺。為了解決以上問(wèn)題,金俊[33]等結(jié)合多幀平均法和方向模板法提出一種基于Bezier曲線擬合的光條中心提取方法。算法使用最大方差閾值分割和灰度領(lǐng)域?qū)傩詫煞薪Y(jié)構(gòu)光條紋的圖像求平均,再與不含光條紋的圖像做差,從而獲得無(wú)噪聲的光條圖像[17]。利用方向模板法初步提取光條紋中心點(diǎn),最后使用基于Bezier曲線的最小二乘法將這些點(diǎn)擬合成完整的光條紋中心線。算法提高了中心線提取速度,并修補(bǔ)斷點(diǎn)。
不同于直線光條紋中心線提取,針對(duì)大曲率的線結(jié)構(gòu)光條紋中心提取問(wèn)題,辛軍強(qiáng)[34]等利用自適應(yīng)閾值法分割光條紋與圖像背景,對(duì)分割出的光條紋采用并行細(xì)化算法提取單像素骨架,通過(guò)方向模板法獲取骨架像素點(diǎn)的法線方向,在法線方向上使用灰度重心法獲取光條紋中心點(diǎn)如圖7所示。算法準(zhǔn)確度較高,可以做到實(shí)時(shí)檢測(cè)。
圖7基于方向模板的灰度重心中心線
3.3 Steger算法的改進(jìn)
張遠(yuǎn)[35]等采用FPGA的遞歸邏輯結(jié)構(gòu)提高Steger算法的運(yùn)算效率,使條紋中心提取算法的精度不受二維高斯卷積核參數(shù)的影響,增加了算法的靈活性。
胡坤[36]等將Steger算法與閾值法結(jié)合,利用閾值法分離光條紋與圖像背景,提取光條紋ROI減小Hessian矩陣的運(yùn)算量。并根據(jù)高斯函數(shù)的可分離性[37],將Hessian矩陣的二維高斯卷積核轉(zhuǎn)換為一維高斯卷積核。該算法提高了Steger算法的運(yùn)算效率。
Steger算法運(yùn)算量大,效率低的最主要因素是Hessian矩陣對(duì)圖像反復(fù)進(jìn)行5次二維高斯卷積運(yùn)算求取光條紋各像素點(diǎn)的法線方向。蔡懷宇[38]等利用PCA[39]方法對(duì)圖像梯度向量的協(xié)方差矩陣進(jìn)行特征分解[40],代替Hessian矩陣計(jì)算光條紋的法線方向,提高了算法運(yùn)算效率。
劉劍[41]等,提出一種Hessian矩陣與區(qū)域增長(zhǎng)算法結(jié)合的條紋中心提取算法,先利用Hessian矩陣確定像素點(diǎn)的法向量,在法線方向上對(duì)條紋灰度分布函數(shù)泰勒展開(kāi)獲得中心點(diǎn)亞像素坐標(biāo)作為初始種子點(diǎn),區(qū)域增長(zhǎng)迭代算法通過(guò)Hessian矩陣確定種子點(diǎn)的切線方向,在該方向的8鄰域內(nèi)尋找下一個(gè)種子點(diǎn)進(jìn)行,將所有種子點(diǎn)擬合形成條紋中心線如圖7所示。該算法克服了噪聲對(duì)中心點(diǎn)提取的影響,相比文[20]算法速度提升了40倍,均方差相比灰度重心法降低了2.02 pixel。
圖7 條紋中心線效果圖
岳龍[42]等針對(duì)物體表面反射率差異較大的情況,基于Steger算法提出一種自適應(yīng)條紋中心提取算法。利用Hessian矩陣計(jì)算光條紋的法向方向,在法向方向上根據(jù)條紋不同的截面寬度調(diào)整高斯函數(shù)的均方差參數(shù)σ,最后對(duì)條紋灰度分布函數(shù)泰勒展開(kāi)獲得條紋中心點(diǎn)。該方法自適應(yīng)地提取曲率變化較大的條紋,一定程度上提高了運(yùn)算效率。
Hessian矩陣高斯函數(shù)的均方差參數(shù)γ與條紋寬度β的關(guān)系:
(4)
程鑫[43]等針對(duì)檢測(cè)對(duì)象為黑色膠體的情況,提出一種基于閾值分割的Hessian矩陣定位和高斯曲線擬合的算法。首先對(duì)圖像采用中值濾波去除噪點(diǎn),通過(guò)閾值法提取光條紋圖像的ROI,并對(duì)ROI的高頻區(qū)域進(jìn)行線性增強(qiáng)提升圖像對(duì)比度。利用極值法找到條紋截面灰度極大值作為初始條紋中心點(diǎn)。將初始中心點(diǎn)帶入Hessian矩陣計(jì)算光條紋的法向方向,在法向方向上對(duì)條紋灰度分布函數(shù)二階泰勒展開(kāi)得到條紋中心點(diǎn)坐標(biāo)。最后采用高斯函數(shù)對(duì)中心點(diǎn)集進(jìn)行函數(shù)逼近的擬合,獲取光條紋精確的中心點(diǎn)坐標(biāo)[44]。算法魯棒性高,能夠增強(qiáng)投射到特殊物體表面的光條紋穩(wěn)定性。
4. 基于神經(jīng)網(wǎng)絡(luò)光條紋中心提取算法
李玥華[45]等提出一種基于BP神經(jīng)網(wǎng)絡(luò)的光條紋中心提取方法。先設(shè)定光條截面中心點(diǎn)的灰度閾值為 IT=50,選取圖像中每列像素的有效光條截面區(qū)域。搭建為三層神經(jīng)網(wǎng)絡(luò),輸出層神經(jīng)元個(gè)數(shù)為1,輸入層個(gè)數(shù)11、隱層神經(jīng)元個(gè)數(shù)設(shè)定為3。通過(guò)Steger算法對(duì)一系列弧形、隨機(jī)、間斷、齒形光條提取光條紋中心點(diǎn)并利用最小二乘法擬合獲取光條紋中心線,將以上四種條紋中心線圖像作為模型訓(xùn)練樣本,訓(xùn)練BP神經(jīng)網(wǎng)絡(luò)。訓(xùn)練后的網(wǎng)絡(luò)模型對(duì)各種復(fù)雜光條紋中心提取誤差均值小于0.02 pixel,算法平均用時(shí)僅為文[120]的0.27%,克服了灰度重心法和Steger算法的缺點(diǎn)。
王勝春[46]等提出了一種基于分區(qū)域多模板匹配的光條紋中心提取算法。先對(duì)圖像提取結(jié)構(gòu)光條紋ROI,提高光條紋在圖像中的比重。根據(jù)光條紋的灰度分布和梯度方向等特征利用ENet神經(jīng)網(wǎng)絡(luò)將條紋分割為多個(gè)區(qū)域如圖8所示。傳統(tǒng)計(jì)算條紋法線的方法是對(duì)圖像全局進(jìn)行梯度計(jì)算,耗時(shí)巨大。針對(duì)這一問(wèn)題該算法首先通過(guò)基于梯度直方圖統(tǒng)計(jì)的區(qū)域劃分方法,確定每個(gè)分割出的光條紋子區(qū)域的法線主方向。每個(gè)條紋子區(qū)域與其對(duì)應(yīng)的方向模板在其法線方向上進(jìn)行互相關(guān)運(yùn)算[47],初步提取光條紋中心點(diǎn)。以初始中心點(diǎn)為基點(diǎn),利用灰度重心法沿著該點(diǎn)所在的子區(qū)域法線方向提取光條亞像素中心點(diǎn)。該算法采用ENet模型代替?zhèn)鹘y(tǒng)的SegNet圖像分割模型,在保證分割效果情況下,運(yùn)算速度提升了18倍,浮點(diǎn)計(jì)算量減少至傳統(tǒng)模型的1/76,參數(shù)設(shè)置減少至1/80??朔嗽肼晫?duì)光條中心提取的干擾,提升算法的提取精度。
圖8 線結(jié)構(gòu)光光條區(qū)段劃分[46]
5.總結(jié)與展望
隨著三維重建領(lǐng)域的快速發(fā)展,線結(jié)構(gòu)光掃描技術(shù)逐漸成熟,結(jié)合不同的工業(yè)生產(chǎn)需求取得了很多創(chuàng)新性成果。本文綜述了線結(jié)構(gòu)光中心提取技術(shù)的三個(gè)不同發(fā)展階段。先介紹了各種傳統(tǒng)的結(jié)構(gòu)光中心提取技術(shù)并指明算法缺陷。針對(duì)傳統(tǒng)算法提取精度差,運(yùn)算量過(guò)大,易受外部環(huán)境噪聲干擾等缺陷以及不同的應(yīng)用場(chǎng)景,總結(jié)了基于不同傳統(tǒng)算法組合的一系列改進(jìn)算法。除此之外,分析了神經(jīng)網(wǎng)絡(luò)結(jié)合線結(jié)構(gòu)光中心提取技術(shù)的應(yīng)用及效果。本文對(duì)線結(jié)構(gòu)光中心提取技術(shù)的發(fā)展提出如下展望:生產(chǎn)更高質(zhì)量的線激光器,避免出現(xiàn)光條紋截面寬度不一致的現(xiàn)象。光條紋截面灰度分布更接近高斯分布的線結(jié)構(gòu)光和亞微米級(jí)的激光器也是提升條紋中心提取技術(shù)的精度關(guān)鍵因素。
本文提到的基于神經(jīng)網(wǎng)絡(luò)的光條紋中心提取算法可以達(dá)到很高的精度。為提高算法魯棒性使其適應(yīng)各種應(yīng)用場(chǎng)景,擴(kuò)充現(xiàn)有的數(shù)據(jù)集并添加具有一定噪聲的隨機(jī)光條圖像是一種很好的方法。由于深度學(xué)習(xí)模型的網(wǎng)絡(luò)結(jié)構(gòu)較為復(fù)雜,提升算法速度是需要解決的關(guān)鍵問(wèn)題。
參考文獻(xiàn)
[1] Shuang Y, Baoyuan C, Lei Z, et al. Encoded lightimage active feature matching approach in binocular stereo vision[C]. Internationalforum on strategic technology, 2016: 406-409.
[2] Tong S, Xu XG, Yi C T, et al. A survey of 3D reconstructiontechnology based on vision[J]. Application Research of Computers.2011, 28(7):411-2417.
佟帥, 徐曉剛, 易成濤, 等. 基于視覺(jué)的三維重建技術(shù)綜述[J]. 計(jì)算機(jī)應(yīng)用研究, 2011, 28(7): 411-417.
[3] Lin J Y, Huang C B, L B, et al. Laser line scanning technologybased on binocular stereo vision[J]. Machine Design and ManufacturingEngineering,2011, (8): 200-202.
林俊義, 黃常標(biāo), 劉斌, 等. 一種基于雙目立體視覺(jué)的激光線掃描技術(shù)[J]. 機(jī)械設(shè)計(jì)與制造, 2011, (8): 200-202.
[4] Zhu S P, Qiang X F. A survey of 3D coordinatevision measurement methods for workpiece feature points[J]. Optics andPrecision Engineering,2000,8(2): 192-197.
祝世平, 強(qiáng)錫富. 工件特征點(diǎn)三維坐標(biāo)視覺(jué)測(cè)量方法綜述[J]. 光學(xué)精密工程, 2000,8(2): 192-197.
[5] Jia Z Y, Fan C N, Liu W, et al. Extraction of light stripe centerof middle matching point in binocular vision measurement[J]. Optics andPrecision Engineering,2016, 24(7): 1582-1591.
賈振元, 樊超楠, 劉巍, 等. 雙目視覺(jué)測(cè)量中等匹配點(diǎn)的光條中心提取[J]. 光學(xué)精密工程, 2016, 24(7): 1582-1591.
[6] Yang J H, Yang X R, Cheng S Y, et al. A survey of the centerextraction of light stripe in 3D vision measurement of line structured light[J].Journal ofGuangdong University of Technology,2014, (1): 74-78.
楊建華, 楊雪榮, 成思源, 等. 線結(jié)構(gòu)光三維視覺(jué)測(cè)量中光條紋中心提取綜述[J]. 廣東工業(yè)大學(xué)學(xué)報(bào), 2014, (1): 74-78.
[7] Wu Q Y, Su X Y, Li J Z, et al. A new algorithm forextracting the center of light band of line structured light[J]. Journal of Sichuan University(Natural Science Edition),2007, 39(4): 151-155.
吳慶陽(yáng), 蘇顯渝, 李景鎮(zhèn), 等. 一種新的線結(jié)構(gòu)光光帶中心提取算法[J]. 四川大學(xué)學(xué)報(bào)(工程科學(xué)版), 2007, 39(4): 151-155.
[8] PERONA P, MALIK J. Scale-space and edge detection using anisotropicdiffusion[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1990, 12(7) : 629-639.
[9] Yang W. Research on the method of extracting the center of structuredlight stripe[D]. Harbin: Harbin Institute of Technology, 2009.
楊尉. 結(jié)構(gòu)光光條中心提取方法研究[D]. 黑龍江: 哈爾濱工業(yè)大學(xué), 2009.
[10] Xu N. Research on imageprocessing method of line structured light stripe[D]. Harbin: HarbinEngineering University, 2007.
許寧. 線結(jié)構(gòu)光光條圖像處理方法研究[D]. 黑龍江: 哈爾濱工程大學(xué), 2007.
[11] Li Y H, Zhou J B, Liu L J.Research progress of line structured light measurement technology[J]. Journalof Hebei University of Science and Technology,2018,39(2): 115-124.
李玥華, 周京博, 劉利劍. 線結(jié)構(gòu)光測(cè)量技術(shù)研究進(jìn)展[J]. 河北科技大學(xué)學(xué)報(bào), 2018, 39(2): 115-124.
[12] JIA Q Q, WANG B X, Luo X Z.Extraction of central positions of light stripe in sub-pixel in 3D surfacemeasurement based on light sectioning method[J]. Optics and PrecisionEngineering. 2010, 18(2): 390-396.
賈倩倩, 王伯雄, 羅秀芝. 光切法形貌測(cè)量中光條中心的亞像素提取[J]. 光學(xué)精密工程, 2010, 18(02):390-396.
[13] Izquierdo M A, Sanchez M T,Ibanez A, et al. Sub-pixel measurement of 3D surfaces by laserscanning[J]. Sensors and Actuators A-physical, 1999, 76(1): 1-8.
[14] He J J, Zhang G J, Research onthe method of strip image processing in structured light 3D visiondetection[J]. Journal of BeijingUniversity of Aeronautics and Astronautics,2003, 29(7): 593-597.
賀俊吉, 張廣軍. 結(jié)構(gòu)光三維視覺(jué)檢測(cè)中光條圖像處理方法研究[J]. 北京航空航天大學(xué)學(xué)報(bào), 2003, 29(7): 593-597.
[15] Lukas J, Fridrich J, Goljan M,et al. Detecting digital image forgeries using sensor pattern noise[C]. conferenceon security steganography and water marking of multimedia contents, 2006.
[16] Cai H Y, Yu Y, Huang Z H, etal. A new method of extracting the center of interference fringes based oncurve fitting[J]. Journal ofOptoelectronics·Laser,2006, 17(1):115-118.
蔡懷宇, 于毅, 黃戰(zhàn)華, 等. 一種基于曲線擬合提取干涉條紋中心點(diǎn)的新方法[J]. 光電子·激光, 2006, 17(1): 115-118.
[17] Hu B, Li D H, Jin G, et al.Detection method of stripe center of structured light based on directiontemplate[J]. Computer Engineering andApplications.2002,38(11): 59-60,109.
胡斌, 李德華, 金剛, 等. 基于方向模板的結(jié)構(gòu)光條紋中心檢測(cè)方法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2002, 38(11): 59-60,109.
[18] Li C M, Wang M M, Liu H Y, etal. Research on the accurate algorithm of extracting the center of linestructured light[J]. Machinery& Electronics,2017, 35(6): 29-31.
李春明, 王萌萌, 劉海洋, 等. 精確的線結(jié)構(gòu)光中心提取算法研究[J]. 機(jī)械與電子, 2017, 35(6): 29-31.
[19] Jang Y F, Jang K Y, Lin J Y.Accurate sub-pixel extraction method of light stripe center in line structuredlight[J]. Laser & Optoelectronics Progress,2015, 52(7): 177-183.
江永付, 江開(kāi)勇, 林俊義. 線結(jié)構(gòu)光光條中心亞像素精確提取方法[J]. 激光與光電子學(xué)進(jìn)展, 2015, 52(7): 177-183.
[20] Steger C. An Unbiased Detectorof Curvilinear Structures[J]. IEEE Transactions on Pattern A nalysis andmachine Intelligence. 1998,20(2): 113 -125.
[21] Zhang X Y, Wang X Q, Bai F Z, etal. An algorithm for extracting the center of light band based on theimproved gray center of gravity method[J]. Laser & Infrared,2016, 46(5): 622-626.
張小艷, 王曉強(qiáng), 白福忠, 等. 基于改進(jìn)灰度重心法的光帶中心提取算法[J]. 激光與紅外, 2016, 46(5): 622-626.
[22] Liu Z, Li S, Feng C.Extraction of laser stripe center based on cross correlation algorithm[J]. Chinese Journal of Lasers,2013, 40(5): 197-202.
劉振, 李聲, 馮常. 基于互相關(guān)算法的激光條紋中心提取[J]. 中國(guó)激光, 2013, 40(5): 197-202.
[23] Zhao B H, Wang B X, Zhang J, etal. The method of extracting the center of light strip on rough metalsurface[J]. Optics and Precision Engineering,2011, 19(9):2138-2145.
趙博華, 王伯雄, 張金, 等. 粗糙金屬表面光條中心提取方法[J]. 光學(xué)精密工程, 2011, 19(9):2138-2145.
[24] Xi J H, Bao H, Ren Y. Fastextraction algorithm of normal center of laser stripe[J]. Science andTechnology & Innovation,
2018, (1):41-43.
席劍輝, 包輝, 任艷. 激光條紋法向中心的快速提取算法研究[J]. 科技與創(chuàng)新, 2018, (1): 41-43.
[25] Xing Wang S J, Deng H J, etal. A new filtering algorithm based on extremum and median[J]. Journalof Image and Graphics,2001, (6): 533-536.
刑藏菊, 王守覺(jué), 鄧浩江, 等. 一種基于極值中值的新型濾波算法[J]. 中國(guó)圖象圖形學(xué)報(bào), 2001,(6): 533-536.
[26] Zhao B, Ma G J. Research onsubpixel location of the center of linear laser stripe[J]. Electronic DesignEngineering,2017, 25(24): 184-188, 193.
趙彬, 馬國(guó)軍. 線激光條紋中心亞像素定位研究[J]. 電子設(shè)計(jì)工程, 2017, 25(24): 184-188,193.
[27] Li H P, Li D H, Zhu Z, etal. Detection method of stripe center of structured light based on geneticalgorithm[J]. Optics and Precision Engineering,2004, 12(1):82-87.
李和平, 李德華, 朱洲, 等. 基于遺傳算法的結(jié)構(gòu)光條紋中心檢測(cè)方法[J]. 光學(xué)精密工程, 2004, 12(1): 82-87.
[28] ZHANG Y J. Image Segmention[M].Beijing: Science Press, 2001.
章毓晉. 圖像分割[M]. 北京:科學(xué)出版社,2001.
[29] FOGEL D B. An introduction tosimulated evolutionary optimization[J]. IEEE-NN, 1994, 5(1): 3-14.
[30] Su X Q, Xiong X M. A fastalgorithm for extracting the center of line structured light[J]. Journal of Computer Applications.2016, 36(1): 238-242.
蘇小勤, 熊顯名. 快速線結(jié)構(gòu)光中心提取算法[J]. 計(jì)算機(jī)應(yīng)用, 2016, 36(1): 238-242.
[31] Wang Z H, Zhang Z W. Themethod of extracting the fringe center of the adaptive direction template linestructure light[J]. Laser Journal, 2017, 38(1): 60-64.
王澤浩, 張中煒. 自適應(yīng)方向模板線結(jié)構(gòu)光條紋中心提取方法[J]. 激光雜志. 2017, 38(1): 60-64.
[32] Fang C. Research onsymmetrical line laser road rutting detection technology[D]. Xian: Chang'anUniversity, 2010.
方翠. 對(duì)稱式線激光路面車轍檢測(cè)技術(shù)研究[D]. 西安: 長(zhǎng)安大學(xué), 2010.
[33] Jin J, Li D H, Li H P. NewMethod for Obtaining the Center of Structured Light Stripe[J]. COMPUTERENGINEERING AND APPLICATIONS,2006, 42(4): 42-44.
金俊, 李德華, 李和平. 結(jié)構(gòu)光三維獲取系統(tǒng)條紋中心線檢測(cè)[J]. 計(jì)算機(jī)工程與應(yīng)用, 2006, 42(4):42-44.
[34] Xin J Q, Wu Y B, Huang J.Research on the method of extracting the center line of high curvature laserstripe[J]. China Computer & Communication,2018, (2): 39-40,46.
辛軍強(qiáng), 吳遠(yuǎn)波, 黃劼. 大曲率激光條紋中心線提取方法研究[J]. 信息與電腦, 2018, (2):39-40,46.
[35] Zhang Y, Zhang G J, Jiang J.Design and implementation of FPGA recursive logic structure of Stegeralgorithm[J]. Transducer and MicrosystemTechnologies.2008, 27(9): 78-81.
張遠(yuǎn), 張廣軍, 江潔. Steger算法的FPGA遞歸邏輯結(jié)構(gòu)設(shè)計(jì)與實(shí)現(xiàn)[J]. 傳感器與微系統(tǒng), 2008, 27(9):78-81.
[36] Hu K, Zhou F Q. A fastsubpixel extraction method of stripe center line[J]. Electro-Optic Technology Application. 2005(06): 60-63.
胡坤, 周富強(qiáng). 一種條紋中心線快速亞像素提取方法[J]. 光電技術(shù)應(yīng)用, 2005(06): 60-63.
[37] Jia Y D. Machine Vision[M].Beijing: Science Press, 2000: 34-63.
賈云得. 機(jī)器視覺(jué)[M]. 北京: 科學(xué)出版社, 2000: 34-63.
[38] Cai H Y, Feng Z D, Huang Z H.A method of extracting stripe center of structured light based on principalcomponent analysis[J]. ChineseJournal of Lasers.2015, 42(3):270-275.
蔡懷宇,馮召東,黃戰(zhàn)華. 基于主成分分析的結(jié)構(gòu)光條紋中心提取方法[J]. 中國(guó)激光, 2015, 42(3): 270-275.
[39] Pearson K. On lines and planesof closest fit to systems of points in space[J]. Philosophical Magazine,1901, 2(6): 559-572.
[40] Abdi H, Williams L J. Principalcomponent analysis[J]. Wiley Interdisciplinary Reviews: ComputationalStatistics,2010,2(4):433-459.
[41] Liu J, Liu L H. Extraction oflaser stripe center based on Hessian matrix and region growth[J]. Laser & Optoelectronics Progress,2019, 56(2): 105-110.
劉劍, 劉麗華. 基于海森矩陣與區(qū)域增長(zhǎng)的激光條紋中心提取[J]. 激光與光電子學(xué)進(jìn)展, 2019, 56(2): 105-110.
[42] Yue L, Guo X Q, Yu J. Researchon Self-adptive Extraction Method of Central Points in Complex Light Stripe[J].Science Technology and Engineering,2016, 16(14): 236-239,244.
岳龍, 郭喜慶, 余錦. 自適應(yīng)復(fù)雜光條紋中心提取方法研究[J]. 科學(xué)技術(shù)與工程, 2016, 16(14):236-239,244.
[43] Cheng X, Lin H, Li S. Researchon the algorithm of strip center extraction of automobile weld sealantstrip[J]. Journal of Applied Optics,2019, 40(5): 823-828.
程鑫, 凌鶴, 李碩. 汽車焊縫密封膠條的光條中心提取算法研究[J]. 應(yīng)用光學(xué), 2019, 40(5): 823-828.
[44] KOKORIAN J,BUJA F, STAUFER U, etal. An optical in-plane displacement measurement technique withsub-nanometer accuracy based on curve-fitting[C]//2014 IEEE 27thInternational Conference on Micro Electro Mechanical Systems (MEMS 2014),January 26-30 2014, San Francisco, CA, USA. 2014: 580-583.
[45] Li Y H, Liu P, Zhou J B, Ren YZ, Jin J Y. Extraction of structured light stripe center based on BP neuralnetwork[J]. Acta
Optica Sinica, 2019, 39(12): 186-194.
李玥華, 劉朋, 周京博, 任有志, 靳江艷. 基于BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)光光條中心提取[J]. 光學(xué)學(xué)報(bào), 2019, 39(12):186-194.
[46] Wang S C, Han Q, Wang H, etal.Extraction method of laser stripe center of rail profile in drivingenvironment[J]. Acta OpticaSinica,2019, 39(2): 167-176.
王勝春, 韓強(qiáng), 王昊, 等. 行車環(huán)境下鋼軌輪廓激光條紋中心的提取方法[J]. 光學(xué)學(xué)報(bào), 2019, 39(2): 167-176.
[47] Chen N, Guo Y K, Zhang X Q.Extraction of stripe center of line structured light based on Hessianmatrix[J]. Digital Technology and Application, 2019, 37(3): 126-127.
陳念, 郭陽(yáng)寬, 張曉青. 基于Hessian矩陣的線結(jié)構(gòu)光光條中心提取[J]. 數(shù)字技術(shù)與應(yīng)用, 2019, 37(3): 126-127.
本文僅做學(xué)術(shù)分享,如有侵權(quán),請(qǐng)聯(lián)系刪文。
往期干貨資源:
總結(jié)
以上是生活随笔為你收集整理的中线提取算法_综述|线结构光中心提取算法研究发展的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 机器人测钢卷直径_酒钢碳钢冷轧钢卷自动焊
- 下一篇: java实训遇到问题解决_「instan