亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法

文檔序號:6516660閱讀:321來源:國知局
基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法
【專利摘要】本發(fā)明公開了一種基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,主要解決壓縮感知條件下,多聚焦圖像融合中圖像塊相似度較高,不易提取信息的問題。其實現(xiàn)步驟為:對兩幅多聚焦圖像利用分塊置亂的哈達瑪觀測矩陣進行觀測,獲得兩幅輸入圖像的觀測向量;利用這兩個觀測向量的能量和數(shù)據(jù)相似度來計算融合權值,根據(jù)融合權值計算融合圖像的觀測向量;對該觀測向量采用梯度投影法在CDF9/7小波基下進行重構,得到融合圖像。本發(fā)明與經(jīng)典多聚焦圖像融合方法相比,同時包含兩幅圖像的信息且調(diào)節(jié)項能根據(jù)圖像塊的相似程度調(diào)節(jié)融合權值,解決了多聚焦圖像塊相似度過高的問題,提高了融合效果,可用于多聚焦圖像的融合。
【專利說明】基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法
【技術領域】
[0001]本發(fā)明屬于圖像處理【技術領域】,涉及多聚焦圖像融合方法,可用于多聚焦圖像后續(xù)的圖像解譯、目標檢測、目標識別等。
【背景技術】
[0002]圖像融合是指將不同的原始圖像通過一定的融合規(guī)則提取和綜合其互補信息獲得對同一目標或場景更為準確、全面、可靠描述的圖像,即融合圖像。原始圖像可以來自相同的傳感器或者不同的傳感器,融合圖像可以充分利用原始圖像所提供的互補信息,為后續(xù)的圖像處理如圖像解譯、目標檢測、目標識別等提供更可靠的信息。圖像融合主要可以分為三類:像素級圖像融合,特征級圖像融合和決策級圖像融合。但是目前的這些方法都要求有原始圖像,這無疑增加了計算機的存儲負擔,同時隨著海量傳感器數(shù)據(jù)規(guī)模的日益增加,計算的復雜度也成為圖像處理的巨大挑戰(zhàn)。
[0003]Donoho 等人提出 了壓縮感知技術,見 D.L.Donoho, Compressedsensing, IEEETrans.1nform.Theory.2006, 52(4):1289 - 1306.該方法指出可以用遠低于奈奎斯特采樣定理要求的速率對圖像采樣,而不丟失圖像的任何有用信息,達到完全重構原始圖像的目的。目前基于該技術的經(jīng)典圖像融合方法有:
[0004]Wan 等人提出壓縮圖像融合方法,見 T.Wan, N.Canagarajah, A.Achim, CompressivelmageFusion, inProc.1EEEInt.Conf.1mageProcess, pp.1308-1311,2008.該文章首次在壓縮感知域進行圖像融合,并提出了壓縮感知域絕對值取最大的圖像融合方法,該方法首先對圖像進行FFT變換,然后進行觀測融合,最后進行逆變換得到融合圖像。由于該方法是在FFT變換上進行的觀測,因而實驗之前必須具有原始圖像,同時觀測域的值在隨機觀測下已經(jīng)失去變換系數(shù)越大代表信息量越大的特性,因而絕對值取大的融合規(guī)則具有一定的偶然性和不合理性。
[0005]Luo等人提出的基于壓縮感知的圖像融合方法,見X.Y.Luo, J.Zhang, J.Y.Yang, andQ.H.Dai, Imagefusionincompressedsensing, inProc.1EEEInt.Conf.0nlmageProcess, pp.2205 - 2208IEEE, Piscataway, NJ2009.該方法直接在觀測域利用觀測向量的熵進行圖像融合,然后進行重構,得到融合圖像。該方法應用于多聚焦圖像融合時,由于圖像塊過于相似,圖像塊的熵值過于接近,無法有效提取出兩幅多聚焦圖像清晰區(qū)域的信息,融合效果不佳。

【發(fā)明內(nèi)容】

[0006]本發(fā)明的目的在于針對上述已有技術的不足,提出一種基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,以提高在圖像塊過于相似時的融合效果。
[0007]實現(xiàn)本發(fā)明目的技術關鍵是設計一種新的基于能量的融合規(guī)則,并引入數(shù)據(jù)相似性來解決多聚焦圖像塊相似度較高的問題,提高融合效果。其實現(xiàn)步驟包括如下:
[0008](I)輸入兩幅多聚焦圖像A和B,并對其進行分塊,得到n對NXN的圖像塊并將每對圖像塊拉成列,分別表示為Ai和Bi,i=l,2,...,n,n為圖像塊的對數(shù),N為圖像塊窗口大小,N>1 ;
[0009](2)根據(jù)第i對圖像塊的觀測矩陣,得到兩個圖像塊的觀測向量yAi和yBi ;
[0010](3)按如下規(guī)則對第i對圖像塊進行融合,得到融合后的圖像子塊的觀測值ybi:
[0011](3a )根據(jù)多聚焦圖像A和B的圖像塊觀測向量yAi,yBi,及觀測向量的能量Em,Em,計算每對圖像塊的融合權值:
【權利要求】
1.一種基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,包括如下步驟: (1)輸入兩幅多聚焦圖像A和B,并對其進行分塊,得到η對NXN的圖像塊并將每對圖像塊拉成列,分別表示為Ai和Bi,i=l,2,...,η,η為圖像塊的對數(shù),N為圖像塊窗口大小,N>1 ; (2)根據(jù)第i對圖像塊的觀測矩陣Oi,得到兩個圖像塊的觀測向量yAi和yBi; (3)按如下規(guī)則對第i對圖像塊進行融合,得到融合后的圖像塊的觀測值ybi: (3a)根據(jù)多聚焦圖像A和B的圖像塊觀測向量yAi,yBi,及觀測向量的能量EAi,Em,計算每對圖像塊的融合權值:
2.根據(jù)權利要求書I所述的基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,其中所述(2)中對圖像塊的觀測矩陣Oi為置亂的哈達瑪矩陣,對第i對圖像塊觀測采用的公式為:

3.根據(jù)權利要求書I所述的基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,其中所述(3a)中的圖像塊觀測向量yAi,yBi的能量EAi,Em,按如下公式計算:
Em = I I yAi I 122
EBi = I yBi 122, 其中,Em是多聚焦圖像A圖像塊觀測向量Iki的能量,Em是多聚焦圖像B圖像塊觀測向量yBi的能量,I I I I2表示向量的二范數(shù)。
4.根據(jù)權利要求書I所述的基于壓縮感知和能量規(guī)則的多聚焦圖像融合方法,其中所述步驟(3a)中的數(shù)據(jù)相似度DS(yAi, yBi),按如下公式計算:
DS (yAi, yBi) — [c (yAi, yBi).d (yAi, yBi) ].[a (yAi, yBi)],其中,c(yAi,yBi)代表圖像塊觀測向量yAi,yBi的數(shù)值強度,d(yAi,yBi)代表圖像塊觀測向量yAi,yBi的數(shù)值分布集中程度,a(yAi,yBi)代表圖像塊觀測向量yAi,yBi的相關程度,α為c(yAi,yBi)與d(yAi,yBi)乘積的指數(shù),β為a(yAi,yBi)的指數(shù),α , β均為可調(diào)參數(shù),二者可取任意值,c (yAi, yBi), d(yAi, yBi), a(yAi, yBi)三者的表達式如下:
【文檔編號】G06T5/50GK103593833SQ201310512370
【公開日】2014年2月19日 申請日期:2013年10月25日 優(yōu)先權日:2013年10月25日
【發(fā)明者】焦李成, 劉芳, 戴金洪, 馬晶晶, 馬文萍, 王爽, 侯彪, 侯小瑾, 劉坤 申請人:西安電子科技大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1