基于局部線性遷移和剛性模型的圖像特征匹配方法及系統(tǒng)的制作方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像特征匹配技術(shù)領(lǐng)域,具體地說,本發(fā)明涉及基于局部線性迀移和 剛性模型的圖像特征匹配技術(shù)方案。
【背景技術(shù)】
[0002] 圖像匹配的基本目標(biāo)是將使用不同傳感器在不同的時(shí)間和視角下獲得的同一個(gè) 場(chǎng)景的兩幅圖像的相同部位進(jìn)行對(duì)應(yīng)。
[0003] 在過去的幾十年里,學(xué)者們研究了很多方法來解決遙感圖像匹配問題。這些方法 大致可以分為兩類:基于區(qū)域的匹配方法和基于特征的匹配方法。前者通過搜索兩幅圖像 中一定區(qū)域內(nèi)原始灰度值的相似程度來尋找匹配信息;后者則利用局部特征的描述子相似 性或空間幾何約束來尋找匹配點(diǎn)對(duì)。在具有少量顯著細(xì)節(jié)的情況中,灰度值提供的信息比 局部形狀和結(jié)構(gòu)要多,從而基于區(qū)域的方法的匹配效果更好。但是基于區(qū)域的方法計(jì)算量 大,且在圖像失真和光度改變的情況下并不適用。相反,特征方法具有更好的魯棒性,可以 處理復(fù)雜失真的圖像,得到廣泛的應(yīng)用。
[0004] 如何尋找兩幅圖像中對(duì)應(yīng)的匹配點(diǎn),形成匹配點(diǎn)對(duì),并確保匹配點(diǎn)對(duì)的正確性是 圖像匹配方法的關(guān)鍵。
[0005] 基于區(qū)域的匹配方法主要有相關(guān)法、傅里葉方法和互信息法三種。相關(guān)法的主要 思想是計(jì)算兩幅圖像中對(duì)應(yīng)窗的相似性,然后將具有最大相似程度的一對(duì)作為匹配點(diǎn)對(duì)。 但相關(guān)法在相似性不顯著的無紋理區(qū)域無法適用,且計(jì)算復(fù)雜。傅里葉方法利用了圖像在 頻率域的傅里葉表示。與傳統(tǒng)的相關(guān)方法相比,這種方法在計(jì)算效率更高并且對(duì)頻率類噪 聲具有很好的魯棒性。然而,這種方法在處理具有不同譜結(jié)構(gòu)的圖像具有一定限制性?;バ?息法盡管其匹配效果良好,但是它無法得到整個(gè)搜索空間中的全局最大值,因此不可避免 的會(huì)減低它的魯棒性。
[0006] 基于特征的匹配方法中,通常采用一種分為兩個(gè)步驟的策略。第一步,通過特征描 述子的相似程度確定一組初始的匹配點(diǎn)對(duì),其中絕大多數(shù)是正確匹配,但不可避免的含有 大量的錯(cuò)誤匹配。第二步,通過通過幾何約束來去除錯(cuò)誤的匹配,最后便可得到正確的匹配 點(diǎn)對(duì)和兩幅圖像之間變換的幾何參數(shù)。這種策略的典型例子包括RANSAC方法 (M.A.Fischler and R.C.Bolles,"Random sample consensus : A paradigm for model fitting with application to image analysis and automated cartog-raphy,', Commun · ACM,vol.24,no.6,pp.381-395,Jun.l981)、ARHV 方法(P.H.S.Torr and A.Zisserman,UMLESAC:A new robust estimator with application to estimating image geometry,',Comput.Vis.Image Under-stand. ,νο1.78,ηο.1,ρρ.138-156, 八卩^.2000)等依賴于參數(shù)模型的方法和¥?(:方法(<1.]^, <1.21^〇,<1.1^&11,丄.¥1^1^,&11(1 Z.Tu,"Robust point matching via vector field consensus,',IEEE Trans. Image Process ·,vo 1 · 23,no ·4,pp · 1706-1721,Apr · 2014·)、GS方法(H.Liu and S.Yan,"Common visual pattern discovery via spatially coher-ent correspondence,',in Proc · IEEE Conf · Comput · Vis · Pattern Recog.,Jun .2010, pp .1609-1616.)和ICF方法(X · Li and Z. Hu, Rejecting misma tches by correspondence functionInt.J.Comput. Vis ., vol.89,no. 1,pp. l-17,Aug.2010) ·等基于非參數(shù)模型的方法。
[0007] 雖然這些方法在許多領(lǐng)域獲得了成功,但是在圖像中含有大量因視角變化造成的 局部失真以及圖像內(nèi)容較復(fù)雜時(shí),初步匹配后會(huì)得到很多錯(cuò)誤的初始匹配點(diǎn)對(duì),當(dāng)錯(cuò)誤率 超過一定比例時(shí),這些方法就不能有效的去除錯(cuò)誤。因此亟需一種對(duì)初始匹配錯(cuò)誤率具有 較強(qiáng)魯棒性的匹配方法。
【發(fā)明內(nèi)容】
[0008] 針對(duì)現(xiàn)有技術(shù)缺陷,本發(fā)明提出了一種基于局部線性迀移和剛性模型的圖像特征 匹配技術(shù)方案。
[0009] 為達(dá)到上述目的,本發(fā)明采用的技術(shù)方案提供一種基于局部線性迀移和剛性模型 的圖像特征匹配方法,包括以下步驟,
[0010] 步驟1,建立待匹配圖像間幾何變換相應(yīng)的模型和匹配點(diǎn)對(duì)為正確匹配的后驗(yàn)概 率相應(yīng)的模型,實(shí)現(xiàn)如下,
[0011]針對(duì)待匹配圖像間的剛性幾何變換,建立變換數(shù)學(xué)模型如下,
[0012] y = t(x) =sRx+o
[0013] 其中,設(shè)兩幅待匹配圖像為圖像a和圖像b,x和y分別是圖像a和圖像b上像素的坐 標(biāo)向量,t(x)表示剛性幾何變換關(guān)系,s表示待匹配圖像間的尺度比例,R是一個(gè)2X2的矩 陣,表示待匹配圖像間的旋轉(zhuǎn),〇是一個(gè)2X1的矩陣,表示待匹配圖像間的平移;
[0014]設(shè)已知的一組初始匹配點(diǎn)對(duì)中,圖像a上點(diǎn)集為X = {X1,…,XN}τ,圖像b上相應(yīng)點(diǎn)集 為Y={yi,…,yN}T,計(jì)算其中第η對(duì)匹配點(diǎn)為正確匹配的后驗(yàn)概率?"有如下后驗(yàn)概率數(shù)學(xué)模 型,
[0015]
[0023] 步驟2.3.2,更新矩陣P,包括采用步驟1中所得后驗(yàn)概率數(shù)學(xué)模型,計(jì)算得到N對(duì)匹 配點(diǎn)對(duì)分別為正確匹配的后驗(yàn)概率P1,…,PN,令P = diag(pi,···,PN),diag表示對(duì)角矩陣;
[0024] 步驟2.3.3,計(jì)算參數(shù)s、R、o如下,
[0025] 采用下述公式計(jì)算參數(shù)s,
[0026] \ /
、.乂
[0027] 其中,矩陣
, 將Inxn省略記為I,矩陣Q= (I-W)T P(I-W),λ為預(yù)設(shè)的參數(shù);
[0028] 采用下述公式計(jì)算參數(shù)R,
[0029] R = UDVT
[0030] 其中,D = diag(l,det(UVT)),det()表示矩陣的行列式,矩陣U和V通過奇異值分解 獲得;采用下述公式計(jì)算參數(shù)〇,
[0031 ] 〇=yy-sRyx
[0032] 步驟2.3.4,根據(jù)步驟2.3.3計(jì)算得到的參數(shù)s、R、o,重新計(jì)算參數(shù)γ、σ如下,采用 下述公式計(jì)算參數(shù)γ,
[0033]
[0034] 采用步驟2.3.1中模型參數(shù)公式計(jì)算σ;
[0035] 步驟2.3.5,判別收斂條件,包括計(jì)算當(dāng)前的參數(shù)1^,當(dāng)滿足1^ = 1^1£?或者(1^。1(:1)/ 1^0,結(jié)束迭代,1^_為最大迭代次數(shù), £是收斂閾值;否則汰=1^1,返回步驟2.3.2;所述 參數(shù)L的計(jì)算公式如下,
[0036]
12345 其中,L〇id表示上一次計(jì)算得到的L; 2 步驟3,計(jì)算初始匹配點(diǎn)對(duì)為正確匹配的后驗(yàn)概率,并根據(jù)閾值判斷初始匹配點(diǎn)對(duì) 的正誤,實(shí)現(xiàn)如下, 3 將所述步驟2.3中求解的模型參數(shù)代入步驟1中所述后驗(yàn)概率數(shù)學(xué)模型,計(jì)算得到 第η對(duì)匹配點(diǎn)對(duì)為正確匹配的后驗(yàn)概率;當(dāng)?" 2 threshold時(shí),則認(rèn)為第η對(duì)匹配點(diǎn)是正確匹 配;當(dāng)pn〈threshold時(shí),則認(rèn)為第η對(duì)匹配點(diǎn)是錯(cuò)誤的匹配,其中threshold為預(yù)設(shè)的判斷閾 值。 4 而且,步驟2.2包括以下子步驟, 5 步驟2.2.1,當(dāng)匹配點(diǎn)幻不是所述步驟2.1中搜索到的匹配點(diǎn)&的1(個(gè)鄰居匹配點(diǎn)之 一時(shí),則將Wij設(shè)置為0,其中匹配點(diǎn) Xj和匹配點(diǎn)Xi為點(diǎn)集X中的匹配點(diǎn),且i,j = l,…,N,Wij表 示權(quán)重矩陣W第i行第j列的元素;
[0042] 步驟2.2.2,在1的約束條件下,采用最小二乘法求解得到使得下述代價(jià) 函數(shù)E(W)取到最小值的權(quán)重矩陣W,代價(jià)函數(shù)E(W)如下,
[0043]
[0044]本發(fā)明還相應(yīng)提供一種基于局部線性迀移和剛性模型的圖像特征匹配系統(tǒng),包括 以下模塊,<