
本發(fā)明涉及一種基于區(qū)域形狀特征的商標(biāo)圖像檢索方法,屬于數(shù)字圖像處理
技術(shù)領(lǐng)域:
。
背景技術(shù):
:由于本發(fā)明抽取的是二值數(shù)字圖像的形狀特征,對于現(xiàn)實中采集到的RGB彩色圖像,在抽取圖像特征前需要通過圖像預(yù)處理將采集的所有圖像均轉(zhuǎn)化成二值數(shù)字圖像(即黑白圖像:形狀區(qū)域像素值為1,背景區(qū)域像素值為0)。圖像的識別檢索通常包括以下幾個步驟:特征抽取過程:1、輸入訓(xùn)練圖像;2、圖像預(yù)處理,將輸入的訓(xùn)練圖像轉(zhuǎn)化成二值圖像;3、按照特征抽取算法逐一抽取二值圖像的區(qū)域形狀特征;4、對抽取的區(qū)域形狀特征做必要的處理,并進(jìn)行存儲。圖像檢索識別過程:1、輸入查詢圖像,對其進(jìn)行預(yù)處理,將其轉(zhuǎn)換成二值圖像;2、抽取二值化的查詢圖像的區(qū)域形狀特征,并做相應(yīng)處理;3、按照匹配相似度度量準(zhǔn)則,計算查詢圖像特征向量與訓(xùn)練圖像的距離;4、對上述計算得到的所有度量距離進(jìn)行排序,檢索識別查詢圖像。目前最常用的圖像區(qū)域形狀描述方法分為兩個大類:基于邊界的方法和基于區(qū)域的方法?;谶吔绲男螤蠲枋龇椒ɡ玫氖菆D像的邊界特征,如:輪廓線特征等,往往要求研究區(qū)域的輪廓線閉合、區(qū)域連通,提取的是區(qū)域形狀的局部特征;基于區(qū)域的形狀描述方法利用的是形狀區(qū)域中的每一個像素點的特征,不僅考慮了區(qū)域形狀的邊界像素特征,還研究了區(qū)域形狀的內(nèi)部結(jié)構(gòu),抽取的是區(qū)域形狀的全局特征。在研究區(qū)域形狀特征時,主要是提取一些興趣點的特征,然后根據(jù)提取的興趣點特征構(gòu)建特征向量,進(jìn)行圖像檢索。按照是否把圖像分割成更小的區(qū)域,可以把基于區(qū)域的描述方法劃分為:全局特征描述方法和結(jié)構(gòu)化特征描述方法。表1給出了常用的區(qū)域形狀特征的描述方法及其分類。表1.一些經(jīng)典的區(qū)域形狀描述方法及其分類對以上經(jīng)典的區(qū)域形狀描述方法的部分常用方法進(jìn)行具體分析:(1)幾何不變矩(Hu矩)根據(jù)圖像的灰度值分別函數(shù)定義零階矩、高階將和中心矩,利用二階和三階中心矩導(dǎo)出7個具有平移不變性、旋轉(zhuǎn)不變性和比例不變性的矩組。用Hu矩組成的特征量能夠快速地識別圖像,但是Hu矩特征的識別率較低。Hu不變矩的高階矩的抗噪性差,一般只用其低階矩,而低階Hu矩?zé)o法準(zhǔn)確描述圖像的細(xì)節(jié)信息,導(dǎo)致對圖像的描述不完整。因此,Hu不變矩不能描述復(fù)雜的圖像文理特征,一般用來描述圖像的形狀,對圖像中大的物體(如:水果形狀、車牌中的簡單字符等)的識別效果會相對好一點。(2)Zernike不變矩對于二維函數(shù)f(x,y)的Zernike矩的定義:式中:n是非負(fù)整數(shù),n-|m|是偶數(shù),并且n≥|m|;Rnm(ρ)表示點(x,y)的徑向多項式;ρ為原點到點(x,y)的矢量長度,即θ為ρ矢量與x軸在逆時針方向的夾角,即θ=arctan(y/x)(-1<x,y<1)。對于圖像大小為N×N的數(shù)字圖像,其Zernike矩的實部Cnm和虛部Snm可以寫成如下離散形式:Zernike不變矩能夠構(gòu)造圖像的任意高階矩特征,更好地描述圖像的細(xì)節(jié)信息,用少量的矩特征就能還原、重構(gòu)圖像。與Hu不變矩相比,Zernike不變矩的圖像識別效果更好,且表達(dá)簡潔,冗余較少,被廣泛應(yīng)用于目標(biāo)識別研究當(dāng)中。但是Zernike不變矩的高階矩易受噪聲干擾,變化較大,且其各階矩分量與形狀的視覺特征的相關(guān)性不緊密,不易直觀地觀察矩分量對區(qū)域形狀的描述。(3)凸包算法根據(jù)興趣點的分布將任意的二值圖像分割成多個凸包,然后對各個凸包進(jìn)行特征提取,最后聯(lián)合各個凸包的特征進(jìn)行圖像檢索識別,該算法的計算復(fù)雜度相對較低,但是在凸包劃分時容易造成像素點的缺失或重復(fù)。(4)AHDH算法遞歸地計算幾何質(zhì)心,利用圖像的分層分解技術(shù)將圖像分割成多個子區(qū)域;同時計算每個區(qū)域的絕對密度和相對密度特征,構(gòu)造區(qū)域形狀特征的密度直方圖作為二值圖像的特征描述子。在該算法中,將二值圖像看作一個二維平面,平面上的區(qū)域形狀的像素集定義為B,屬于該形狀的像素點數(shù)目定義為N。在分割算法開始之前,對二值圖像進(jìn)行預(yù)處理,將二值圖像的中心平移到其質(zhì)心位置,使得圖像保持平移不變性。算法一旦開始,所有像素點的坐標(biāo)就保持不變;然后,將二值圖像的第i個矩形區(qū)域定義為該區(qū)域有一個黑色像素集。根據(jù)圖像的幾何質(zhì)心將二值圖像分割成幾個區(qū)域,構(gòu)造正交網(wǎng)格線橫穿整個二值圖像,然后下一層進(jìn)行同樣的分割,依次對二值圖像分層分割l層,或記作“l(fā)evel”。分割得到的每一個矩形區(qū)域都有兩個主要特征:黑色像素點數(shù)與面積在每一個分割層l上,計算出各個區(qū)域的幾何質(zhì)心,然后根據(jù)每個區(qū)域的幾何質(zhì)心將該區(qū)域分割成四個子區(qū)域j={1,2,3,4}。初始的區(qū)域(即:l=1)是整個二值圖像區(qū)域。l>1時,l層所有的區(qū)域都是(l-1)層的子區(qū)域。這種迭代一直進(jìn)行到終止迭代層。計算區(qū)域形狀的密度特征和相對密度特征,計算公式為:(其中:1≤i≤4l-1,1≤j≤4);在每一個迭代層l,依據(jù)新的子區(qū)域,構(gòu)造出4l-1×4的特征矩陣FAl:那么,定義第l層的密度特征向量FVl和相對特征密度向量將相對密度矢量進(jìn)行量化。對于每個子區(qū)域如果相對密度則標(biāo)記該區(qū)域為“full”;否則,標(biāo)記該區(qū)域為“empty”。如果區(qū)域的黑色像素均勻地分布到四個子區(qū)域中,那么每一個子區(qū)域相對密度的期望值應(yīng)該都是1,因此,子區(qū)域標(biāo)記為“full”或者“empty”取決于它內(nèi)部的黑色像素。定義一個分布詞wi,以分布詞wi為內(nèi)容的構(gòu)造分布詞典L,那么L表示當(dāng)前區(qū)域與其四個子區(qū)域之間的16種″full″或者″empty″的連接關(guān)系。假設(shè)以E表示″empty″,以F表示″full″,那么詞典L的組成形式為:L=[EEEE,EEEF,EEFE,…,F(xiàn)FFF]=[w0,w1,w2,…,w15]基于該詞典可以得到每一層的量化特征表示如下:根據(jù)以上分割方法得到的密度特征、相對密度特征以及量化密度特征構(gòu)造出新的特征描述子向量FV,其公式表示如下:這種自適應(yīng)幾何分割與特征量化的結(jié)合提高了檢索精確率,降低了檢索缺失率。但是,AHDH算法提取的圖像特征在描述圖像時,有以下兩個問題:(a)AHDH算法提取的圖像特征無法保持特征旋轉(zhuǎn)不變性。如果圖像庫中的圖像發(fā)生了旋轉(zhuǎn),那么圖像的像素點分布將會發(fā)生變化,按照區(qū)域像素特征計算的二值圖像的質(zhì)心進(jìn)行圖像分割時,各個子區(qū)域圖像的分割結(jié)果也會發(fā)生變化,構(gòu)造的特征描述子不滿足旋轉(zhuǎn)不變性,將無法準(zhǔn)確地描述圖像的區(qū)域特征,圖像檢索的效率下降,更有可能發(fā)生誤檢。(b)AHDH算法在每一個迭代層l,區(qū)域都會分割產(chǎn)生4l-1個區(qū)域,特征提取時需要分別對這4l-1個區(qū)域的特征計算,計算復(fù)雜,數(shù)據(jù)存儲占用較大空間。在迭代分割比較深,即l比較大時,由于其子區(qū)域數(shù)量過大,特征計算和數(shù)據(jù)存儲時容易溢出,造成特征描述的中斷,無法完成圖像檢索。綜上所述,圖像的區(qū)域形狀特征可以很好地表達(dá)和描述目標(biāo)圖像的特性,可以依據(jù)抽取的圖像區(qū)域形狀特征進(jìn)行特征匹配,實現(xiàn)模式識別和目標(biāo)檢索。技術(shù)實現(xiàn)要素:本發(fā)明要解決的技術(shù)問題在于解決現(xiàn)有基于區(qū)域形狀的特征抽取方法(AHDH)存在的由于圖像旋轉(zhuǎn)使得抽取的區(qū)域形狀特征發(fā)生變化造成圖像描述不準(zhǔn)確以及迭代層較深時的特征計算和數(shù)據(jù)存儲溢出等問題,提供一直能夠?qū)崿F(xiàn)高效、準(zhǔn)確表達(dá)和描述目標(biāo)圖像的特征抽取方法,同時保證抽取的區(qū)域形狀特征具有平移不變性、尺度不變性和旋轉(zhuǎn)不變性。本發(fā)明采用以下技術(shù)方案:一種數(shù)字圖像識別方法,包括對目標(biāo)圖像的區(qū)域形狀特征描述方法,所述特征描述方法采用目標(biāo)圖像區(qū)域形狀的旋轉(zhuǎn)分層密度(RHD)特征。所述目標(biāo)圖像區(qū)域形狀的旋轉(zhuǎn)分層密度(RHD)特征描述方法采用“旋轉(zhuǎn)-分層”分割算法實現(xiàn),具體過程包括以下步驟:步驟A、將輸入的目標(biāo)圖像轉(zhuǎn)換成二值化的圖像,其一般形式可以表示如下:這里x、y表示目標(biāo)圖像形狀內(nèi)各像素點的橫、縱坐標(biāo),B是圖像分布的區(qū)域形狀;步驟B、對于二值圖像B,它的黑色像素點數(shù)記作N,面積記作E。計算圖像的區(qū)域形狀質(zhì)心(xc,yc),以質(zhì)心為原點建立直角坐標(biāo)系,x=y(tǒng)c為水平坐標(biāo)軸,y=xc為垂直坐標(biāo)軸,x>yc為x軸正方向,y>xc為y軸正方向,質(zhì)心計算公式為:步驟C、以該圖像區(qū)域形狀內(nèi)第n個像素值為1的像素點的橫、縱坐標(biāo)(xn,yn)構(gòu)造復(fù)數(shù)cn,有:cn=xn+i*yn(3)將復(fù)數(shù)轉(zhuǎn)換到步驟B建立的直角坐標(biāo)系中,計算像素點在新坐標(biāo)系中的輻角:Z=xn-xc+i·(yc-yn)=r(cosβn+isinβn)(4)其中,xn-xc∈R,yc-yn∈R。r是復(fù)數(shù)的模長,βn是復(fù)數(shù)的輻角,如果求得的輻角βn為負(fù)值,則使用公式βn=βn+360°將其轉(zhuǎn)換到0°360°內(nèi),便于分割區(qū)域選取判定。然后計算目標(biāo)圖像區(qū)域形狀內(nèi)的所有黑色像素點的輻角βn(n=1,2,…,N);步驟D、假設(shè)目標(biāo)圖像發(fā)生旋轉(zhuǎn),旋轉(zhuǎn)角度為θi,在0°~360°內(nèi)均勻選取M個θi值。根據(jù)計算得到的輻角βn的取值判定是否選擇第n個黑色像素點作為其子區(qū)域的像素點,判定依據(jù)表示如下:對目標(biāo)圖像區(qū)域的所有黑色像素點進(jìn)行選取判定,得到該目標(biāo)圖像旋轉(zhuǎn)θi時的目標(biāo)子區(qū)域依據(jù)子區(qū)域的質(zhì)心對其進(jìn)行多層分割,選取指定方向上的區(qū)域;所述“旋轉(zhuǎn)-分層”分割算法,均勻采樣θi值,采樣頻率M=90。目標(biāo)圖像區(qū)域發(fā)生θi角度的旋轉(zhuǎn)時選取的目標(biāo)子區(qū)域有90個,計算各個目標(biāo)子區(qū)域的黑色像素點數(shù)與面積并對各個目標(biāo)子區(qū)域進(jìn)行分層分割;對各個目標(biāo)子區(qū)域分層分割,構(gòu)造旋轉(zhuǎn)分層密度特征向量,具體步驟如下:步驟E、計算各個目標(biāo)子區(qū)域的質(zhì)心,對每個目標(biāo)子區(qū)域進(jìn)行分割,在第l層(l≥2)時,選取每個目標(biāo)子區(qū)域的子區(qū)域為記和的黑色像素點數(shù)為和面積為和步驟F、計算絕對密度和相對密度旋轉(zhuǎn)分割層(l=1),絕對密度是指目標(biāo)圖像旋轉(zhuǎn)θi時切割選取的形狀子區(qū)域的像素點數(shù)與原目標(biāo)圖像B的像素點數(shù)N的比例,相對密度是指絕對密度與形狀子區(qū)域面積與E的比例的商比。分層分割層(l≥2),絕對密度是指分布到目標(biāo)子區(qū)域的的比例,相對密度是指與子區(qū)域面積與的比例的商比。圖像發(fā)生旋轉(zhuǎn)時,其旋轉(zhuǎn)分層密度特征公式為:或者步驟G、構(gòu)造特征向量FVl和l≥1的各層旋轉(zhuǎn)分層密度特征向量均由目標(biāo)圖像旋轉(zhuǎn)θi(i=1,2,L,M)后抽取的絕對密度和相對密度構(gòu)成,其特征向量形式如下:所述旋轉(zhuǎn)分層密度特征,先對相對密度特征進(jìn)行歸一化使得兩種特征處于同一數(shù)量級;然后對兩種特征進(jìn)行不變性處理,避免由于目標(biāo)圖像自身旋轉(zhuǎn)引起的特征向量元素的平移錯位造成檢索識別誤差;最后這兩種特征在檢索識別過程中的貢獻(xiàn)大小不同,選擇合適的權(quán)重系數(shù)w將抽取的兩類特征進(jìn)行組合。該組合特征的公式表示為:依據(jù)組合特征可以構(gòu)造組合的旋轉(zhuǎn)分層密度特征向量FCl,該特征向量由絕對密度和相對密度的組合密度特征構(gòu)成。具體表示如下:對各行組合密度特征向量進(jìn)行離散傅里葉變換,并求取輻值,具體計算構(gòu)成如下::根據(jù)上述處理得到的各行組合特征向量FFCl構(gòu)造組合特征描述子FFC:目標(biāo)圖像區(qū)域形狀的旋轉(zhuǎn)分層密度(RHD)要求對目標(biāo)圖像區(qū)域內(nèi)的每一個像素點都進(jìn)行相應(yīng)的處理,綜合考慮了圖像區(qū)域的輪廓像素特征和圖像區(qū)域內(nèi)部結(jié)構(gòu)特征,克服了AHDH算法的抽取圖像特征時計算復(fù)雜和數(shù)據(jù)存儲溢出問題,并且保持了圖像區(qū)域形狀特征的平移、尺度和旋轉(zhuǎn)不變性。旋轉(zhuǎn)分層密度依據(jù)圖像的像素質(zhì)心對圖像進(jìn)行迭代分層分割,抽取圖像未發(fā)生旋轉(zhuǎn)時的分層密度特征;假設(shè)圖像發(fā)生旋轉(zhuǎn),旋轉(zhuǎn)角度θ,按照旋轉(zhuǎn)分割準(zhǔn)則選取此時的圖像子區(qū)域并對其進(jìn)行迭代分割,抽取圖像旋轉(zhuǎn)θ時的分層密度特征;在0°~360°區(qū)間內(nèi)均勻采樣M個不同的旋轉(zhuǎn)角度θ,分別抽取圖像發(fā)生不同角度值θ的旋轉(zhuǎn)時的分層密度特征,構(gòu)造旋轉(zhuǎn)分層密度特征。該特征能夠高效、準(zhǔn)確的表達(dá)和描述目標(biāo)圖像特征信息,使用該特征描述圖像可以達(dá)到較高的圖像檢索識別效率。附圖說明圖1典型的基于圖像區(qū)域形狀特征的識別檢索系統(tǒng)結(jié)構(gòu)框圖;圖2RHD算法結(jié)構(gòu)框圖;圖3圖像發(fā)生旋轉(zhuǎn)的分割區(qū)域選擇示意圖;圖4圖像旋轉(zhuǎn)角度θ=0°時的分割區(qū)域選擇示意圖;圖5圖像旋轉(zhuǎn)角度θ=60°時的分割區(qū)域選擇示意圖;圖6RHD和AHDH算法性能比較的mpeg7圖像集;圖7商標(biāo)圖像庫TradeMark70中的部分圖像集具體實施方式下面結(jié)合附圖對本發(fā)明的技術(shù)方案進(jìn)行詳細(xì)說明:附圖1是典型的基于圖像區(qū)域形狀特征的識別檢索系統(tǒng)結(jié)構(gòu)框圖,其中虛線框表示現(xiàn)有技術(shù)所采用的特征抽取方法,實線框為本發(fā)明所采用的特征抽取方法。采用上述裝置進(jìn)行圖像區(qū)域形狀特征抽取時,按照以下各步驟:步驟1、輸入測試集圖像:步驟101:判斷輸入的測試圖像是否為二值圖像,若是,則執(zhí)行步驟2,若不是,則執(zhí)行步驟102;步驟102:對測試圖像進(jìn)行圖像預(yù)處理,將其轉(zhuǎn)換成黑白二值圖像(形狀區(qū)域像素值為1,背景區(qū)域像素值為0);步驟2、二值圖像可以表示為公式(1)形式,查詢目標(biāo)圖像的旋轉(zhuǎn)區(qū)域所有像素值為1的各像點的橫坐標(biāo)x、縱坐標(biāo)y,并分別記入二維數(shù)組A和B,統(tǒng)計數(shù)組A的長度N,計算二值圖像區(qū)域的面積E;步驟3、依據(jù)公式(2)計算形狀區(qū)域的質(zhì)心(xc,yc),以質(zhì)心(xc,yc)為原點建立直角坐標(biāo)系,x=y(tǒng)c為水平坐標(biāo)軸,y=xc為垂直坐標(biāo)軸,x>yc為x軸正方向,y>xc為y軸正方向;步驟4、計算目標(biāo)圖像區(qū)域中N各像素值為1的像素點在新坐標(biāo)系中的輻角:步驟401:圖像區(qū)域形狀內(nèi)第n個像素值為1的像素點的橫、縱坐標(biāo)(xn,yn)為例,按照公式(3)構(gòu)造由該像素點坐標(biāo)組成的復(fù)數(shù)cn;步驟402:將該復(fù)數(shù)按照公式(4)轉(zhuǎn)換到步驟3建立的坐標(biāo)系中,并計算該像素點在新坐標(biāo)系中的輻角βn。判斷輻角βn是否為負(fù)值,若是,則執(zhí)行步驟403,若不是,則執(zhí)行步驟404;步驟403:將圖像區(qū)域形狀內(nèi)第n個像素值為1的像素點在新坐標(biāo)系中的輻角轉(zhuǎn)成0°~360°,轉(zhuǎn)換公式為βn=βn+360°;步驟404:統(tǒng)計已計算輻角的像素點數(shù)量N0,判斷N0是否等于N,若是,則執(zhí)行步驟5,若不是,則執(zhí)行步驟405;步驟405:選取圖像區(qū)域形狀內(nèi)的下一個像素值為1的像素點,執(zhí)行步驟401;步驟5、假設(shè)目標(biāo)圖像區(qū)域發(fā)生旋轉(zhuǎn),旋轉(zhuǎn)角度θ。在0°~360°內(nèi)均勻采樣M個旋轉(zhuǎn)角度值,記作θi,有:0≤θi<360,1≤i≤M。首先令θi=0°,執(zhí)行步驟501,;步驟501:假設(shè)圖像旋轉(zhuǎn)的角度θ=θi,根據(jù)公式(5)判斷圖像發(fā)生θi角度的旋轉(zhuǎn)時,分布到其子區(qū)域的各像素點(圖像發(fā)生旋轉(zhuǎn)時,其子區(qū)域選取的示意圖如附圖3所示),統(tǒng)計像素點數(shù)計算子區(qū)域面積步驟502:累計迭代深度l,按照公式(6)計算旋轉(zhuǎn)分層的絕對密度和相對密度判斷迭代深度l是否小于L,若是,則執(zhí)行步驟503,若不是,則執(zhí)行步驟504;步驟503:以該子區(qū)域替代目標(biāo)圖像,執(zhí)行步驟2(圖像發(fā)生旋轉(zhuǎn),其分層分割的子區(qū)域選取方法如附圖4、附圖5所示);步驟504:更新步驟5的角度θi,θi=θi+360°/M,判斷θi是否小于360°,若是,則執(zhí)行步驟501,若不是,則執(zhí)行步驟6;步驟6、構(gòu)造旋轉(zhuǎn)分層密度特征描述子,具體步驟如下:步驟601:按照公式(7)處理步驟5得到的旋轉(zhuǎn)分層分割過程中各迭代層l上的絕對密度和相對密度建立各迭代層l上的密度特征向量;步驟602:對各迭代層l上的相對密度特征向量進(jìn)行數(shù)值歸一化處理,使其與絕對密度特征的特征值處在同一個數(shù)量級上;步驟603:使用離散傅里葉變換來避免圖像自身旋轉(zhuǎn)引起的圖像向量行元素的移位造成檢索識別的誤差,一維離散信號傅里葉變換的公式如下:其中,c(i)為輸入的離散信號序列,n為離散信號序列的長度,C(u)為c(i)經(jīng)過離散傅里葉變換的傅里葉變換值。步驟604:對抽取各迭代層l上的特征向量進(jìn)行離散傅里葉變換,用傅里葉變換系數(shù)的模值替代各行,具體計算公式如下:步驟605:由于絕對特征和相對特征在檢索識別過程中的貢獻(xiàn)大小不同,選擇合適的權(quán)重系數(shù)w,依據(jù)公式(8)將抽取的兩類特征進(jìn)行組合,構(gòu)成組合密度特征步驟606:按照公式(9)建立各迭代層l上由該層組合密度特征構(gòu)成的組合密度特征向量FCl;步驟607:按照公式(10)對各層組合密度特征向量進(jìn)行離散傅里葉變換,克服圖像自身旋轉(zhuǎn)造成的組合密度特征向量的元素移位問題,并依據(jù)公式(11)求取各層組合密度特征向量的離散傅里葉變換幅值替代其原各行特征。步驟608:構(gòu)建形式如公式(12)所示的組合的旋轉(zhuǎn)分層密度特征描述子矩陣。步驟7、對于測試集中的每一幅目標(biāo)圖像,依照步驟1至步驟6提取出測試集中每張測試圖像的特征向量矩陣,矩陣大小為L×M,將其以數(shù)據(jù)包元素的形式存儲在一維數(shù)組Feature中。假設(shè)測試集含有C類不同圖像,每類測試圖像包含k個圖像子集,則該測試集中含有C×k個目標(biāo)測試圖像。至此,以上完成目標(biāo)圖像的特征抽取與特征存儲過程,下面介紹本發(fā)明的特征匹配與圖像檢索識別過程,具體實施過程如下:步驟7、在測試圖像集中選取一幅圖像作為查詢圖像,抽取其圖像區(qū)域形狀特征矩陣FVa;步驟8、選取測試圖像集的數(shù)組Feature中第i(i=1,2,L,C×k)個數(shù)組元包,記此特征矩陣為FVb,計算FVa與FVb之間的距離,計算公式如下:步驟9、對步驟8計算得到的C×k個相似度距離從小到大排序,選取前m=2×k幅最相似的圖像,判斷這m幅圖像是否與查詢圖像屬于同一類,統(tǒng)計與查詢圖像同一類的相關(guān)圖像數(shù)目c;步驟10、計算在測試圖像集中檢索目標(biāo)查詢圖像的檢索精確度Precision、特征抽取時間FETime、檢索識別時間RRTime;步驟11、統(tǒng)計檢索識別的查詢圖像數(shù)目count,判斷count是否小于C×k,若是,則執(zhí)行步驟7,若不是,則執(zhí)行步驟12;步驟12、分別求取步驟10中計算得到的所有檢索精確度Precision、特征抽取時間FETime、檢索識別時間RRTime這三類匹配結(jié)果的均值;步驟13、依據(jù)計算的平均檢索精確度、特征抽取平均時間、識別檢索平均時間來評價該圖像檢索識別系統(tǒng)的優(yōu)劣。實驗表明,本發(fā)明方法特征抽取時間和特征檢索識別時間較短,識別檢索的精確度更高。為了驗證本發(fā)明方法的效果,進(jìn)行了以下實驗:1、實驗條件:本文的實驗設(shè)備為一臺操作系統(tǒng)MicrosoftWindowsXP,CPU是Intel(R)Core(TM)2QuadQ82002.33GHz2.00GB的計算機(jī)。軟件編程語言用的是Matlab(7.1版本)。2、實驗方法:實驗采用圖像檢索識別的系統(tǒng)基本框架(如附圖1所示),將圖中實線框所示的部分代替虛線框所示的部分。實線框是表達(dá)和描述圖像區(qū)域特征的方法,本發(fā)明使用RHD抽取圖像的區(qū)域形狀特征,其流程圖如附圖2所示。本發(fā)明在兩個圖像數(shù)據(jù)庫上進(jìn)行仿真實驗,使用mpeg7圖像數(shù)據(jù)集(如附圖5所示)驗證RHD算法的有效性,并比較RHD算法與AHDH算法的檢索性能,突出本發(fā)明的理論價值;同時將這兩種圖像識別方法應(yīng)用于從網(wǎng)絡(luò)上隨機(jī)采集的TradeMark70商標(biāo)圖像庫(如附圖7所示)的檢索識別,提出本發(fā)明的應(yīng)用價值。依次對圖像數(shù)據(jù)庫中的圖像進(jìn)行預(yù)處理,將其轉(zhuǎn)換成需要的二值圖像,按照具體實施方案,使用RHD算法抽取圖像的密度特征和面積特征,構(gòu)造旋轉(zhuǎn)分層密度特征矩陣,并實時存儲各特征矩陣。將圖像庫中的每一幅圖像均看做目標(biāo)查詢圖像,要求在該庫中檢索識別目標(biāo)圖像。檢索識別圖像庫中的某幅目標(biāo)圖像時,圖像庫中與該目標(biāo)圖像同類的圖像子集有k幅。抽取該查詢圖像RHD特征矩陣,計算該圖像的RHD特征矩陣與圖像庫中所有每一幅圖像的RHD特征矩陣之間的相似度距離。任意兩幅圖像之間的歐氏距離d表示為:兩幅圖像之間的的距離表達(dá)式的值d越小,就代表兩幅圖像越相似。根據(jù)距離測度的這一特征,可以將比對圖像按照歐式距離從小到大(相似度由高到低)進(jìn)行排序,選取前N幅圖像顯示,直觀地判斷搜索結(jié)果。3、實驗結(jié)果的評價指標(biāo):本發(fā)明的評估準(zhǔn)則為精確度(Precision),即在一次檢索后,系統(tǒng)返回的同類相關(guān)的圖像數(shù)(C)占所有返回圖像(R)的比例,即Precision=C/R,同類正確返回的相關(guān)數(shù)目(C)越多,則精確度越高。本發(fā)明采用bull-score測度作為檢索精確度的評估準(zhǔn)則,按照相似度從高到低返回的前m幅檢索結(jié)果圖像的平均檢索精確度。將每幅二值圖像作為檢索目標(biāo),按照相似度度量準(zhǔn)則檢索,最終返回m=2×k幅最相似的圖像。其中返回的是這幅二值圖像同類的相關(guān)圖像數(shù)目為c,則一次系統(tǒng)檢索度p=c/k。保存記錄C×k幅圖像進(jìn)行目標(biāo)檢索時的檢索精確度、特征提取時間和檢索識別時間,則系統(tǒng)的平均檢索精確度為C×k幅二值圖像的檢索精確度的平均值。除此之外,圖像區(qū)域旋轉(zhuǎn)特征的抽取時間(FETime,F(xiàn)eatureExtractionTime)和檢索識別時間(RRTime,RetrievingRecognitionTime)也是圖像檢索系統(tǒng)算法性能評估的一個重要內(nèi)容。特征抽取時間FETime為圖像處理單幅二值圖像,對其區(qū)域形狀內(nèi)的旋轉(zhuǎn)特征進(jìn)行抽取并做一些必要的處理的時間T1;假設(shè)查詢圖像與訓(xùn)練圖像的特征相似度匹配時間為T2,那么檢索識別時間RRTime為抽取查詢圖像的區(qū)域形狀特征時間T1及查詢圖像與所有訓(xùn)練圖像的特征數(shù)據(jù)庫進(jìn)行相似度匹配的時間累加,即RRTime=T1+C×k×T2,其中C為圖像數(shù)據(jù)庫中不同圖像的類別參數(shù),k為每個類別中的圖像子集數(shù)目。在不降低檢索精確度(Precision)的前提下,特征抽取時間(FETime)和檢索識別時間(RRTime)越低,表明圖像特征抽取過程和圖像檢索識別過程的時間復(fù)雜度較低,圖像檢索系統(tǒng)算法的性能越好。4、與現(xiàn)有技術(shù)的對比實驗結(jié)果:自適應(yīng)分層密度直方圖(AHDH)算法與基于多次旋轉(zhuǎn)-多層分割的分層密度方法(RHD)的算法分別檢索MPEG-7二值圖像庫,按bull-score測度計算平均檢索精確度(Precision)、特征抽取時間(FETime)、識別檢索時間(RRTime),具體結(jié)果如表2示:MethodPrecision%RRTime(s)FETime(s)AHDH63.952.1452.059RHD72.820.5290.043表2AHDH與RHD檢索二值圖像庫MPEG-7的性能比較就表2結(jié)合AHDH、RHD算法的檢索性能作如下分析比較:(1)平均檢索精確度(Precision)的比較:由于AHDH算法在較低的迭代分割層的檢索精確度不高,但隨著分割層的加深,AHDH算法更好地挖掘局部特征。而實驗仿真時,由于實驗仿真平臺的內(nèi)存限制,只能迭代分割到L=6,其檢索精確度不高。此處直接引用原文給出的實驗仿真結(jié)果:L=10時,其Precision=63.95%。RHD算法在迭代層較低時,使用區(qū)域旋轉(zhuǎn)組合特征描述子描述圖像并進(jìn)行圖像的檢索識別時,就可以取得較高的檢索精確度。實驗得到:取迭代層L=3,權(quán)重相關(guān)系數(shù)w=0.9時的區(qū)域旋轉(zhuǎn)組合特征描述子描述圖像,其檢索精確度Precision=72.82%。(2)特征提取時間(FETime)的比較:AHDH對圖像迭代分割層L=6,單幅圖像的特征抽取時間FETime=2.059(s);RHD算法其對單幅圖像進(jìn)行特征抽取時間FETime=0.043(s),大大降低了抽取圖像特征的時間復(fù)雜度,(3)識別檢索時間(RRTime)的比較:AHDH與RHD算法利用提取的圖像特征進(jìn)行匹配檢索所需的時間RRTime由特征抽取時間FETime和所有形狀相似度匹配時間T2的累加,相似度匹配時間T2主要與特征向量的維度和使用的相似度度量準(zhǔn)則有關(guān),用于比較的兩種方法均使用歐氏距離相似度度量準(zhǔn)則。AHDH算法抽取每一幅目標(biāo)圖像的區(qū)域形狀特征時間長,故其檢索時間更久。由表2可知,AHDH算法的識別檢索時間RRTime=2.145(s);RHD算法的識別檢索時間RRTime=0.529(s)。分別使用基于自適應(yīng)分層密度直方圖(AHDH)的圖像描述方法與基于旋轉(zhuǎn)-分割的分層密度描述方法(RHD)檢索TradeMark70商標(biāo)圖像庫的1400幅二值商標(biāo)圖像,按bull-score測度計算平均檢索精確度(Precision)、特征抽取時間(FETime)、識別檢索時間(RRTime),具體結(jié)果如表3示:MethodPrecision%FETime(s)RRTime(s)AHDH25.271.8511.699RHD80.500.6360.755表3AHDH與RHD檢索商標(biāo)圖像庫TradeMark70的性能比較由表3可知:AHDH算法迭代6層抽取商標(biāo)圖像區(qū)域形狀的自適應(yīng)分層密度特征,并進(jìn)行商標(biāo)圖像的檢索識別時,其檢索精確度較低,Precision=25.27%,抽取單幅圖像區(qū)域特征的時間FETime=1.851(s),檢索圖像數(shù)據(jù)庫識別查詢圖像的時間RRTime=1.699(s)。而本文提出的RHD算法在使用較低迭代層的旋轉(zhuǎn)分層密度特征描述識別圖像,特征組合的權(quán)重系數(shù)w=0.9,可以達(dá)到較高的檢索精確度Precision=80.50%,抽取單幅圖像區(qū)域特征的時間FETime=0.636(s),檢索圖像數(shù)據(jù)庫識別查詢圖像的時間RRTime=0.755(s)。與mpeg7圖像數(shù)據(jù)庫不同,TradeMark70商標(biāo)圖像庫的商標(biāo)圖像綜合考慮了旋轉(zhuǎn)、縮放、平移和映射等形狀變化,由于AHDH算法提取的圖像特征不滿足旋轉(zhuǎn)不變性,在檢索該圖像數(shù)據(jù)庫時,其檢索精確度會比檢索mpeg7的檢索精確度有所降低;而RHD算法具有很好的旋轉(zhuǎn)、尺度和平移不變性,其檢索識別的精確度較高。由此可見,新的RHD算法在商標(biāo)圖像的檢索識別時,特征圖像提取需要的時間較少,克服了圖像旋轉(zhuǎn)對圖像特征描述的影響,達(dá)到很好的檢索識別效果,可以廣泛用于檢索商標(biāo)等輪廓特征簡單、區(qū)域不連續(xù)的圖像。當(dāng)前第1頁1 2 3