亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于特征匹配的目標(biāo)實時識別方法與流程

文檔序號:12734871閱讀:497來源:國知局
基于特征匹配的目標(biāo)實時識別方法與流程

本發(fā)明涉及計算機(jī)視覺領(lǐng)域,尤其是涉及特征匹配與目標(biāo)識別領(lǐng)域。



背景技術(shù):

近幾年,隨著計算機(jī)視覺的蓬勃發(fā)展和相關(guān)技術(shù)的日臻完善,催生了許多基于計算機(jī)視覺技術(shù)的相關(guān)應(yīng)用,如圖書識別、商標(biāo)檢索、車牌識別以及文字識別等。如何利用實現(xiàn)目標(biāo)的實時精確識別,已成為計算機(jī)視覺領(lǐng)域的熱點問題。在計算機(jī)視覺中,特征匹配一直是眾多學(xué)者研究的熱點問題,隨著研究的深入,已有一些經(jīng)典特征匹配算法相繼提出,從而使得高效的特征匹配算法可以應(yīng)用到目標(biāo)的實時精確識別中。

在特征匹配方面,學(xué)者做了大量工作:Lowe提出并完善了尺度不變特征匹配算法(scale invariant feature transform,SIFT)。該算法在高斯差分(difference ofGaussians,DoG)空間內(nèi)進(jìn)行非極值抑制,然后剔除低對比度的點,并減弱邊緣影響,最后利用梯度直方圖計算特征方向,生成128維描述向量。該算法具有有照度、JPEG壓縮、模糊、視點、尺度與旋轉(zhuǎn)不變性,但算法的魯棒性與實時性不強(qiáng)。Bay等人提出了快速魯棒性特征算法(speeded up robust features,SURF)。該算法在尺度空間內(nèi)使用快速海森矩陣檢測得到候選點,然后利用小波扇形環(huán)繞法定向,同時利用小波響應(yīng)生成64維描述向量。雖然該算法的實時性與魯棒性較SIFT大幅增強(qiáng),但快速海森矩陣魯棒性較弱,所以該算法的魯棒性仍待加強(qiáng)。Leutenegger提出了二進(jìn)制魯棒性尺度不變的特征算法(Binary Robust Invariant Scalable Keypoints,BRISK)。該算法在近似尺度空間中利用基于加速段檢驗的自適應(yīng)通用角點檢測子(Adaptive and Generic corner detection based on the Accelerated Segment Test,AGAST)計算特征分?jǐn)?shù),同時利用長距離迭代法定向,使運(yùn)行效率大幅提升,但尺度空間構(gòu)建沒有進(jìn)行濾波,所以該算法的魯棒性不強(qiáng)。Alahi等人提出一種快速視網(wǎng)膜特征描述子(Fast Retina Keypoint,FREAK)。該描述子利用掃視匹配搜索,速度完全滿足實時需求,但各方面魯棒性還是較弱。Pablo等人提出一種風(fēng)式特征算法(KAZE)。該算法采用任意步長來構(gòu)造穩(wěn)定的非線性尺度空間,采用海森矩陣檢測特征點,同時考慮了區(qū)域交疊帶,使其對于各種變換比SURF、BRISK等更加穩(wěn)健,但非線性尺度空間運(yùn)算復(fù)雜,運(yùn)行效率大幅下降。Pablo等人對KAZE進(jìn)行了改良,提出一種快速風(fēng)式特征算法(Accelerated-KAZE)。該算法利用快速顯示擴(kuò)散方程(Fast Explicit Diffusion,FED),動態(tài)改善了非線性尺度空間的構(gòu)建,使得檢測的運(yùn)行效率與魯棒性大幅增強(qiáng),同時提出一種改進(jìn)的局部差異二進(jìn)制描述符(Modified-Local Difference Binary,M-LDB),使得描述子的速度大大提高,但描述子的魯棒性弱于KAZE描述子。



技術(shù)實現(xiàn)要素:

本發(fā)明旨在進(jìn)一步加強(qiáng)目標(biāo)識別的可靠性與實時性,提出了基于特征匹配的目標(biāo)實時識別方法,使得可靠性較強(qiáng)的目標(biāo)實時識別成為可能。

本發(fā)明采用以下技術(shù)方案,基于特征匹配的目標(biāo)實時識別方法,包括以下步驟:

步驟一:獲取已有目標(biāo)的不同角度的圖像,并根據(jù)獲取的圖像為每一個已有目標(biāo)建立一個模板庫,所有已有目標(biāo)的模板庫構(gòu)成一個模板庫集合;

步驟二:實時獲取待識別目標(biāo)的圖像;

步驟三:利用灰度均勻化算法對待識別目標(biāo)的圖像與某個模板庫中的模板分別進(jìn)行預(yù)處理,得到對應(yīng)的兩張待匹配圖像;其中,模板是指模板庫中存儲的目標(biāo)的某一角度的圖像;

步驟四:利用FARISFD檢測子分別對兩張待匹配圖像進(jìn)行特征檢測獲得兩組特征點;

步驟五:利用ROGFD描述子分別對兩組特征點進(jìn)行特征描述獲得兩組特征向量;

步驟六:利用基于KD樹的BBF算法與雙向匹配法對兩組特征向量進(jìn)行快速匹配得到特征對應(yīng)關(guān)系,再利用PROSAC算法對特征對應(yīng)關(guān)系進(jìn)行計算,得到兩張待匹配圖像間的單應(yīng)性矩陣與內(nèi)點數(shù)目;

步驟七:根據(jù)內(nèi)點數(shù)目與模板圖像特征點數(shù)目計算得到匹配率;

步驟八:重復(fù)步驟三至步驟七,直至模板庫中的所有模板均與待識別目標(biāo)的圖像進(jìn)行匹配完畢且得到各自的匹配率;

步驟九:根據(jù)模板庫中的所有模板分別與待識別目標(biāo)的圖像進(jìn)行匹配得到的所有匹配率,計算得到該模板庫的匹配率平均值;

步驟十:將模板庫集合中的每個模板庫的匹配率平均值進(jìn)行比較,將待識別目標(biāo)判定為匹配率平均值最高的模板庫所對應(yīng)的已有目標(biāo);

完成基于特征匹配的目標(biāo)實時識別。

其中,步驟四具體包括以下步驟:

(401)分別將兩張待匹配圖像的尺度空間的每組中總層數(shù)定為4;

(402)根據(jù)兩張待匹配圖像的行數(shù)與列數(shù)分別求出兩張待匹配圖像的尺度空間的總組數(shù);

(403)將兩張待匹配圖像分別根據(jù)各自的尺度空間的總組數(shù)與尺度空間的每組中總層數(shù),按照SIFT算法分別構(gòu)建兩個尺度空間,其中高斯濾波函數(shù)為其中,x與y分別為像素點的橫縱坐標(biāo);

(404)在兩個尺度空間內(nèi)的每組的上下兩端分別加入過渡層,得到兩個新的尺度空間;其中,上端過渡層由本組最上層經(jīng)過高斯濾波得到,下端過渡層由前組的最上層經(jīng)過降采樣與高斯濾波得到,最底層為原始圖像;

(405)利用FAST算子對兩個新的尺度空間的每一層的每一個點進(jìn)行計算,得到所有點的特征分?jǐn)?shù);

(406)將兩個新的尺度空間的除過渡層外的每一層的每一個點的特征分?jǐn)?shù)與上下層以及同層中共26個相鄰點的特征分?jǐn)?shù)作比較,若該點的特征分?jǐn)?shù)最大或最小,則判定該點為候選點,比較判定后得到兩組候選點;

(407)分別計算兩組候選點的特征分?jǐn)?shù)的微分與二階微分,并根據(jù)兩組候選點的特征分?jǐn)?shù)的微分與二階微分計算得到兩組候選點的亞像素級橫縱坐標(biāo);

(408)利用小波扇形環(huán)繞對兩組具有亞像素級橫縱坐標(biāo)的候選點分別賦予方向得到兩組特征點。

其中,步驟五具體包括以下步驟:

(501)利用Scharr算子分別對兩張待匹配圖像進(jìn)行計算,得到兩張待匹配圖像的圖像梯度;

(502)根據(jù)得到兩張待匹配圖像的圖像梯度分別計算得到兩張待匹配圖像的二階標(biāo)準(zhǔn)偏導(dǎo)數(shù);

(503)以特征點為中心,以24σi為邊長,以特征點方向為縱軸方向,確定一個正方形鄰域;其中,σi為定向的特征點的尺度參數(shù);

(504)將正方形鄰域分成16個相同的子正方形鄰域,將每個子正方形鄰域的大小擴(kuò)展為9σi×9σi,相鄰的擴(kuò)展后的子正方形鄰域有寬度為2σi的交疊帶,所有擴(kuò)展后的子正方形鄰域組成描述網(wǎng)格;

(505)利用高斯核為2.5σi的高斯函數(shù)對每個擴(kuò)展后的子正方形鄰域內(nèi)所有點的二階標(biāo)準(zhǔn)偏導(dǎo)數(shù)及其絕對值進(jìn)行加權(quán)求和,得到4維向量;

(506)連接16個擴(kuò)展后的子正方形鄰域內(nèi)的4維向量得到一個64維向量,對該64維向量歸一化處理到單位長度后得到該特征點的特征向量;

(507)重復(fù)步驟(503)至步驟(506),直至兩張待匹配圖像中的所有特征點均被特征描述完畢且得到各自的特征向量。

本發(fā)明相比背景技術(shù)的優(yōu)點在于:

本發(fā)明提出基于特征匹配的目標(biāo)實時識別方法,首先利用快速自適應(yīng)魯棒性尺度不變的特征檢測子(fast adaptive robust invariant scalable feature detector,FARISFD)與魯棒性交疊的標(biāo)準(zhǔn)特征描述子(robust overlapped gauge feature descriptor,ROGFD)來增強(qiáng)算法的魯棒性與實時性,其次利用基于KD(k-dimensional)樹的BBF(bestbin first)算法與雙向匹配結(jié)合的方法提高搜索效率,再次利用PROSAC(Progressive Sample Consensus)去除錯誤點完成匹配,最后根據(jù)平均匹配率完成目標(biāo)識別。FARISFD與ROGFD較傳統(tǒng)特征檢測子與描述子具有更強(qiáng)的魯棒性與實時性,基于特征匹配的目標(biāo)實時識別方法能夠?qū)崿F(xiàn)可靠性較強(qiáng)的目標(biāo)實時識別。

附圖說明

圖1表示算法流程示意圖。

圖2表示尺度空間的總組數(shù)與尺度空間的每組中總層數(shù)對FARISFD復(fù)現(xiàn)率的影響。

圖3表示圖像尺寸對尺度空間的總組數(shù)最優(yōu)值的影響。

圖4表示FARISFD尺度空間示意圖。

圖5表示ROGFD描述網(wǎng)格示意圖。

具體實施方式

下面結(jié)合附圖和具體實施例對本發(fā)明做進(jìn)一步描述。

本實施方式闡述了基于特征匹配的目標(biāo)實時識別的原理,按照圖像預(yù)處理、特征檢測、特征描述、特征匹配、緊致化、目標(biāo)判別的思路進(jìn)行計算,著重對目標(biāo)實時識別算法流程進(jìn)行優(yōu)化改進(jìn),并分別將特征檢測子和特征描述子與傳統(tǒng)算法進(jìn)行魯棒性和實時性對比,同時實現(xiàn)基于特征匹配的目標(biāo)實時識別方法以說明本發(fā)明的優(yōu)勢所在。其具體步驟如下:

步驟一:獲取已有目標(biāo)的不同角度的圖像,并根據(jù)獲取的圖像為每一個已有目標(biāo)建立一個模板庫,所有已有目標(biāo)的模板庫構(gòu)成一個模板庫集合;

步驟二:實時獲取待識別目標(biāo)的圖像;

步驟三:利用灰度均勻化算法對待識別目標(biāo)的圖像與某個模板庫中的模板分別進(jìn)行預(yù)處理,得到對應(yīng)的兩張待匹配圖像;其中,模板是指模板庫中存儲的目標(biāo)的某一角度的圖像;

步驟四:利用FARISFD檢測子分別對兩張待匹配圖像進(jìn)行特征檢測獲得兩組特征點;

(401)分別將兩張待匹配圖像的尺度空間的每組中總層數(shù)定為4;

(402)根據(jù)兩張待匹配圖像的行數(shù)與列數(shù)分別求出兩張待匹配圖像的尺度空間的總組數(shù);

為使特征點具備尺度不變性,需建立尺度空間。尺度空間的構(gòu)建一般由組與層構(gòu)成,逐組進(jìn)行降采樣,逐層進(jìn)行濾波。對于不同尺寸圖像,總組數(shù)O與每組中總層數(shù)Q過大會導(dǎo)致構(gòu)造尺度空間耗時較長,檢測點過多;O與Q過小會導(dǎo)致匹配率下降,因此研究如何選取尺度空間O與Q具有重要意義。按照Lowe等人的理論、實驗方法及實驗圖像數(shù)據(jù),本文詳細(xì)測定了總層數(shù)與總組數(shù)對FARISFD魯棒性的影響,經(jīng)Lowe等人說明,該實驗方法與實驗圖像數(shù)據(jù)是具有代表性的。

如圖2所示,1圖線為:O定為4,F(xiàn)ARISFD的復(fù)現(xiàn)率隨Q變化的圖線,2圖線為:Q定為4,F(xiàn)ARISFD的復(fù)現(xiàn)率隨O變化的圖線,將實驗結(jié)果分析如下:

(1)隨著Q的增加,F(xiàn)ARISFD的魯棒性先增強(qiáng)后減弱。

這是由于隨著Q增加,濾波程度加深,經(jīng)過非極值抑制計算出的極值點增多,但極值點的穩(wěn)定性下降,Q增加到一定程度后,極值點在變換后的圖像中就難以檢測到了,導(dǎo)致檢測子的魯棒性先增強(qiáng)后減弱。實驗測定Q為4時,F(xiàn)ARISFD魯棒性最強(qiáng)。

(2)隨著O的增加,F(xiàn)ARISFD的總體魯棒性先增強(qiáng)后減弱。

這是由于隨著O增加,降采樣程度加深,經(jīng)過非極值抑制計算出的極值點增多,但極值點的穩(wěn)定性下降,導(dǎo)致檢測子的魯棒性先增強(qiáng)后減弱。由于降采樣的影響,使輸入圖像尺寸對于極值點個數(shù)影響較大,從而影響了O的最優(yōu)值。如圖3所示,經(jīng)過實驗測定,O的最優(yōu)值與圖像尺寸的對數(shù)正相關(guān)。

為改善特征檢測子處理不同圖像的魯棒性與運(yùn)行效率,本文提出一種尺度空間組數(shù)自適應(yīng)選取方法:將每組中層數(shù)定為4,且各組層數(shù)相等,根據(jù)圖像尺寸的對數(shù)來自適應(yīng)選取O,公式如下:

式中,X與Y分別為原始圖像的行數(shù)與列數(shù),[]表示取整(四舍五入)。

(403)將兩張待匹配圖像分別根據(jù)各自的尺度空間的總組數(shù)與尺度空間的每組中總層數(shù),按照SIFT算法分別構(gòu)建兩個尺度空間,其中高斯濾波函數(shù)為其中,x與y分別為像素點的橫縱坐標(biāo);

廣泛使用的濾波方法包括高斯濾波與非線性濾波,雖然KAZE與Accelerated-KAZE使用非線性尺度空間取得了巨大成功,但經(jīng)本實驗測試,在非線性尺度空間內(nèi)檢測與在高斯尺度空間內(nèi)相比各方面魯棒性與速度均較低。又由于降采樣的影響,尺度空間中組與組的圖像尺寸不同,兩組之間層的點對應(yīng)性較差,導(dǎo)致尺度空間連續(xù)性較弱。綜合考慮魯棒性與速度,提出一種基于過渡層的尺度空間構(gòu)建方法,原理如下:

如圖4所示,尺度空間的每組是由原始圖像逐次進(jìn)行0.5倍降采樣獲得,每層是由原始圖像逐次進(jìn)行高斯濾波獲得,進(jìn)化方向由下至上,尺度空間構(gòu)建公式如下:

式中,o表示組,s表示層,S為總層數(shù),x與y分別為像素點的橫縱坐標(biāo),Lo×S+s(x,y)為o組s層進(jìn)化圖像,G(x,y)為高斯函數(shù),I(x,y)為原始圖像。

(404)在兩個尺度空間內(nèi)的每組的上下兩端分別加入過渡層,得到兩個新的尺度空間;其中,上端過渡層由本組最上層經(jīng)過高斯濾波得到,下端過渡層由前組的最上層經(jīng)過降采樣與高斯濾波得到,最底層為原始圖像;

在每組兩端構(gòu)建尺度過渡層(圖4中紅色層),構(gòu)建公式如下:

式中,Zo(x,y)為o組的下端過渡層,Ho(x,y)為o組的上端過渡層。

(405)利用FAST算子對兩個新的尺度空間的每一層的每一個點進(jìn)行計算,得到所有點的特征分?jǐn)?shù);

選擇合適的特征分?jǐn)?shù)計算方法是在尺度空間中找到特征點的必要條件。在眾多特征分?jǐn)?shù)計算方法中,F(xiàn)AST的魯棒性與速度優(yōu)勢是極為顯著的,與海森矩陣等檢測法相比,該算法大幅提高了運(yùn)行速度,同時保證了檢測效果。鑒于BRISK引入AGAST計算分?jǐn)?shù)取得的成功,本實驗引入FAST計算特征分?jǐn)?shù),這是因為AGAST雖然改進(jìn)了FAST的決策樹,提高了檢測效率,但二者計算特征分?jǐn)?shù)方法相同,且OpenCV對FAST計算分?jǐn)?shù)的優(yōu)化強(qiáng)于AGAST,在實驗中基于FAST計算分?jǐn)?shù)比基于AGAST計算更快。

計算特征分?jǐn)?shù)的模板為:以待檢測點為圓心,半徑為3個像素的Bresenham圓。經(jīng)Rosten測試,9個像素參與比較的模板檢測性能較強(qiáng)。所以本文利用FAST9-16(圓周上共有16個像素,需比較像素的個數(shù)為9)計算特征分?jǐn)?shù),其原理如下式所示:

Sbright={x|Ip→x≥Ip+t} (5)

Sbark={x|Ip→x≤Ip-t} (6)

式中,V為特征分?jǐn)?shù),x為圓周上任意一點,Ip→x為圓周上任意一點灰度值,Ip為圓心灰度值,t為閾值,Sbright與Sbark分別為亮點集與暗點集。按此法計算尺度空間每一層的特征分?jǐn)?shù)V。

由于t的設(shè)定與圖像灰度密切相關(guān),為防止t無法適應(yīng)不同圖像的處理,所以先將輸入圖像經(jīng)過光照均衡化處理,然后根據(jù)BRISK的理論分析與實驗數(shù)據(jù),t取30。

(406)將兩個新的尺度空間的除過渡層外的每一層的每一個點的特征分?jǐn)?shù)與上下層以及同層中共26個相鄰點的特征分?jǐn)?shù)作比較,若該點的特征分?jǐn)?shù)最大或最小,則判定該點為候選點,比較判定后得到兩組候選點;

(407)分別計算兩組候選點的特征分?jǐn)?shù)的微分與二階微分,并根據(jù)兩組候選點的特征分?jǐn)?shù)的微分與二階微分計算得到兩組候選點的亞像素級橫縱坐標(biāo);

特征點的亞像素級位置對于幾何測量和三維重建等是極為重要的,傳統(tǒng)亞像素級矯正方法(如:SIFT與SURF等)將候選點的尺度特性引入方程加強(qiáng)收斂,但尺度特性對方程收斂影響較小,同時增加了計算量,有時還因尺度空間連續(xù)性差而減弱了檢測子的魯棒性。而BRISK針對AGAST分?jǐn)?shù)提出的亞像素級矯正方法精度不高?;谝陨显?,本文簡化了傳統(tǒng)亞像素級矯正方法,提出了基于特征分?jǐn)?shù)的亞像素級矯正方法,其求解方程如下:

Dxx=V(x+1,y)+V(x-1,y)-2V(x,y) (10)

Dyy=V(x,y+1)+V(x,y-1)-2V(x,y) (11)

Dxy=V(x+1,y+1)+V(x-1,y-1)/4-V(x+1,y-1)-V(x-1,y+1)/4 (12)

式中,dx與dy分別為待求的候選點亞像素級橫縱坐標(biāo),V(x,y)為候選點的特征分?jǐn)?shù),x與y分別為候選點的橫縱坐標(biāo)。

(408)利用小波扇形環(huán)繞對兩組具有亞像素級橫縱坐標(biāo)的候選點分別賦予方向得到兩組特征點。

步驟五:利用ROGFD描述子分別對兩組特征點進(jìn)行特征描述獲得兩組特征向量;

(501)利用Scharr算子分別對兩張待匹配圖像進(jìn)行計算,得到兩張待匹配圖像的圖像梯度;

圖像梯度是基于灰度分布描述子的基礎(chǔ)。在眾多梯度計算方法中,Scharr算子的魯棒性與速度優(yōu)勢是極為顯著的。針對圖像鄰域相關(guān)性不大、信號隨機(jī)性較強(qiáng)的特點,Scharr算子改進(jìn)了Sobel算子,使用標(biāo)準(zhǔn)差相對較小的高斯函數(shù)進(jìn)行鄰域平滑,即利用更瘦高的固定模板求取圖像梯度,所以Scharr算子對突變信號有較強(qiáng)的響應(yīng),具有更好的旋轉(zhuǎn)與模糊不變性。與SURF等算子采用的小波響應(yīng)相比,該算子大幅度增強(qiáng)了魯棒性,同時保證了運(yùn)行效率。Scharr算子包含橫縱兩個模板,通過與圖像卷積產(chǎn)生對應(yīng)的梯度矢量,其原理如下式所示:

式中,Gx表示一階橫向偏導(dǎo)數(shù)矩陣;Gy表示一階縱向偏導(dǎo)數(shù)矩陣,I表示待處理圖像;G表示梯度值矩陣;θ表示梯度方向矩陣。

(502)根據(jù)得到兩張待匹配圖像的圖像梯度分別計算得到兩張待匹配圖像的二階標(biāo)準(zhǔn)偏導(dǎo)數(shù);

僅利用圖像梯度或近似梯度進(jìn)行描述具有較高的運(yùn)行效率,但會導(dǎo)致描述子區(qū)分力不高,且模糊、照度及旋轉(zhuǎn)不變性較弱,為改善描述子的魯棒性,ROGFD引入標(biāo)準(zhǔn)坐標(biāo)系(Gauge Coordinates)下的二階偏導(dǎo)數(shù)Lww與Lvv。標(biāo)準(zhǔn)微分響應(yīng)是計算機(jī)視覺中十分重要的工具,在尺度變換下能夠保持良好的旋轉(zhuǎn)不變性與照度不變性,在不同尺度下,Lww能夠測量模糊變換的相關(guān)信息,同時Lvv具有良好的邊緣響應(yīng),所以標(biāo)準(zhǔn)微分響應(yīng)對模糊具有較強(qiáng)的魯棒性。標(biāo)準(zhǔn)微分響應(yīng)的原理如下式所示:

式中,Lww、Lvv表示二階標(biāo)準(zhǔn)偏導(dǎo)數(shù),dx、dy為灰度一階偏導(dǎo)數(shù),dxx、dyy與dxy為二階灰度偏導(dǎo)數(shù)。一、二階偏導(dǎo)數(shù)由Scharr算子計算得到。

(503)以特征點為中心,以24σi為邊長,以特征點方向為縱軸方向,確定一個正方形鄰域;其中,σi為定向的特征點的尺度參數(shù);

(504)將正方形鄰域分成16個相同的子正方形鄰域,將每個子正方形鄰域的大小擴(kuò)展為9σi×9σi,相鄰的擴(kuò)展后的子正方形鄰域有寬度為2σi的交疊帶,所有擴(kuò)展后的子正方形鄰域組成描述網(wǎng)格;

描述子的分塊方式對描述子的區(qū)分性與不變性具有直接影響。傳統(tǒng)描述子的分塊方式過分分割了空間,破壞了描述網(wǎng)格的連續(xù)性,導(dǎo)致描述子的性能下降,為解決此問題,ROGFD構(gòu)建了描述網(wǎng)格交疊帶,來減小網(wǎng)格分割空間影響。ROGFD描述網(wǎng)格如圖5所示。以特征點為中心,以24σi為邊長(σi為特征點的尺度參數(shù))確定一個正方形鄰域,將正方形鄰域分成16個相同的子正方形鄰域,將每個子正方形鄰域的大小擴(kuò)展為9σi×9σi,擴(kuò)展后的相鄰子正方形鄰域有寬度為2σi的交疊帶,所有子正方形組成ROGFD描述網(wǎng)格。

(505)利用高斯核為2.5σi的高斯函數(shù)對每個擴(kuò)展后的子正方形鄰域內(nèi)所有點的二階標(biāo)準(zhǔn)偏導(dǎo)數(shù)及其絕對值進(jìn)行加權(quán)求和,得到4維向量;

(506)連接16個擴(kuò)展后的子正方形鄰域內(nèi)的4維向量得到一個64維向量,對該64維向量歸一化處理到單位長度后得到該特征點的特征向量;

首先旋轉(zhuǎn)網(wǎng)格,使網(wǎng)格y軸正方向與特征方向一致。然后使用Scharr算子計算每一個子正方形區(qū)域內(nèi)所有點,得到一階偏導(dǎo)數(shù)dx、dy,進(jìn)而計算二階標(biāo)準(zhǔn)偏導(dǎo)數(shù)Lww、Lvv。再對每個擴(kuò)展后的子正方形鄰域內(nèi)所有點的Lww、Lvv、|Lww|、|Lvv|進(jìn)行加權(quán)求和,得到一個4維向量V(∑Lww,∑Lvv,∑|Lww|,∑|Lvv|),連接16個子塊區(qū)域的向量得到4×4×4=64維向量,最后為使描述符具有照度不變性,將該向量歸一化到單位長度得到ROGFD描述符。

由于二階標(biāo)準(zhǔn)偏導(dǎo)數(shù)本質(zhì)上是加權(quán)的梯度函數(shù),其權(quán)重與圖像結(jié)構(gòu)密切相關(guān),所以在連接16個子塊區(qū)域時,不需要進(jìn)行高斯加權(quán)處理,從而提高了運(yùn)行速度。同時二階標(biāo)準(zhǔn)偏導(dǎo)數(shù)具有較強(qiáng)的旋轉(zhuǎn)不變性,因此只需旋轉(zhuǎn)網(wǎng)格即可保證描述子的旋轉(zhuǎn)不變性。

(507)重復(fù)步驟(503)至步驟(506),直至兩張待匹配圖像中的所有特征點均被特征描述完畢且得到各自的特征向量。

步驟六:利用基于KD樹的BBF算法與雙向匹配法對兩組特征向量進(jìn)行快速匹配得到特征對應(yīng)關(guān)系,再利用PROSAC算法對特征對應(yīng)關(guān)系進(jìn)行計算,得到兩張待匹配圖像間的單應(yīng)性矩陣與內(nèi)點數(shù)目;

步驟七:根據(jù)內(nèi)點數(shù)目與模板圖像特征點數(shù)目計算得到匹配率;

步驟八:重復(fù)步驟三至步驟七,直至模板庫中的所有模板均與待識別目標(biāo)的圖像進(jìn)行匹配完畢且得到各自的匹配率;

步驟九:根據(jù)模板庫中的所有模板分別與待識別目標(biāo)的圖像進(jìn)行匹配得到的所有匹配率,計算得到該模板庫的匹配率平均值;

步驟十:將模板庫集合中的每個模板庫的匹配率平均值進(jìn)行比較,將待識別目標(biāo)判定為匹配率平均值最高的模板庫所對應(yīng)的已有目標(biāo);

本方法以目標(biāo)圖像與模板庫的平均匹配率作為評判標(biāo)準(zhǔn),平均匹配率越高,則判定目標(biāo)與模板庫越相似。平均匹配率為待識別目標(biāo)圖像的已匹配特征點數(shù)與某個模板庫中每個模板的總特征點數(shù)比值的平均值,定義式如下:

式中,H為平均匹配率,k為模板庫中模板總數(shù),Mi為待識別目標(biāo)圖像與第i個模板匹配的特征點數(shù),Ni為第i個模板中的總特征點數(shù)。

完成基于特征匹配的目標(biāo)實時識別。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1