一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法
【專利摘要】本發(fā)明提供了一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,實現(xiàn)過程是1)提取高分辨率全色圖像的Primal?Sketch圖;2)構造幾何模版;3)得到劃分高分辨率全色圖像為結構區(qū)域和非結構區(qū)域的區(qū)域映射圖;4)得到劃分結構區(qū)域、紋理區(qū)域和光滑區(qū)域的區(qū)域映射圖;5)得到圖像大小和高分辨率全色圖像相同大小的初始的多光譜圖像;6)將初始的多光譜圖像劃分為結構區(qū)域、紋理區(qū)域和光滑區(qū)域;7)得到預測的多光譜圖像;8)完成對預測的多光譜圖像上的每一個像素點的灰度值的計算,得到融合圖像。本發(fā)明解決了融合圖像中光譜信息失真或者空間分辨率不足的缺點,提高了融合圖像的質量。
【專利說明】一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法
【技術領域】
[0001]本發(fā)明屬于圖像處理領域,具體涉及一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,可用于到氣象監(jiān)測、軍事目標識別、環(huán)境監(jiān)測、城市規(guī)劃以及防災減災等多個領域的技術。
【背景技術】
[0002]隨著遙感技術的發(fā)展,由各種衛(wèi)星傳感器對地觀測獲取同一地區(qū)的多源遙感圖像數(shù)據越來越多,為軍事目標的識別、環(huán)境監(jiān)測等提供了豐富而又寶貴的資料。目前遙感技術應用的主要障礙,是從廣闊的數(shù)據源中提取更豐富、更有用和更可靠信息的能力大小。這就要求我們對多源圖像數(shù)據之間的冗余性進行充分利用,以降低多源圖像融合的誤差和不確定性,提高識別率和精確度。多源遙感圖像融合,尤其是多光譜和全色圖像的融合,被認為是現(xiàn)代多源圖像處理和分析中非常重要的一步。
[0003]目前,市場上使用的多光譜和全色圖像融合方法主要有三類,一類是傳統(tǒng)的空間變換的融合方法,一類是基于多尺度變換的融合方法,還有一類是目前很多學者在研究的基于字典學習的融合方法。
[0004]基于空間變換的傳統(tǒng)融合方法主要有HIS變換、PCA變換,Gram-Schmidt變換,以及Brovery變換等。這幾種方法因其較低的計算復雜度,所以常被用于多個商業(yè)軟件中。這幾種方法能夠有效的提高融合圖像的空間分辨率,但是它們在融合過程中產生的光譜失真情況,雖然通過自適應的HIS、P+XS方法對于融合圖像的光譜扭曲情況有一定的改善,但是仍不能達到好的效果。
[0005]基于變換域的方法主要有基于拉普拉斯變換的融合方法、基于Wavelet變換的融合方法,以及基于多尺度幾何分析的融合方法,如Contourlet、Bandlet和Shearlet等。這類方法對于空域變換所產生的光譜失真情況具有較好的改善作用,但是其空間分辨率收到所采用的方法額制約,如Wavelet變換只能將圖像分解為三個方向,Contourlet變換等雖然能夠對圖像分解的方向數(shù)較Wavelet多,但還數(shù)目仍然是有限的。面對變化多樣的圖像的線條,有限的方向很難達到最優(yōu)的逼近,從而影響了融合圖像的細節(jié)信息。
[0006]第三類是基于字典學習的融合方法。該類方法的產生就是為了克服固定的基,如Wavelet基、Contourlet基,難以達到圖像的最優(yōu)逼近而提出的。字典學習能夠根據圖像的內容學習字典,以達到對圖像的最優(yōu)的、最稀疏的表示,該類方法能夠達到融合圖像細節(jié)信息的提高,同時保持融合圖像的光譜質量。但是該類方法在字典訓練方面,需要較高的時間復雜度,很難滿足市場的要求。
【發(fā)明內容】
[0007]本發(fā)明的目的是克服現(xiàn)有技術中對低分辨率多光譜圖像和高分辨率全色圖像融合過程中光譜信息和空間分辨率難以平衡的缺點,提出了一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,以解決融合圖像中光譜信息失真或者空間分辨率不足的缺點,提高融合圖像的質量。
[0008]為此,本發(fā)明提供了一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,包含如下步驟:
[0009]步驟1:提取高分辨率全色圖像的Primal Sketch圖;
[0010]步驟2:根據步驟I得到的Primal Sketch圖中線段的方向,以線段上的點為中心,沿著該條線段的方向設計大小為7X7的方向窗口,構造幾何模版;
[0011]步驟3:對步驟I中得到的Primal Sketch圖,根據構造的幾何模板,得到劃分高分辨率全色圖像為結構區(qū)域和非結構區(qū)域的區(qū)域映射圖;
[0012]步驟4:將步驟3中得到的非結構區(qū)域,根據圖像的方差統(tǒng)計特性,將非結構區(qū)域劃分為紋理區(qū)域和光滑區(qū)域,從而得到劃分結構區(qū)域、紋理區(qū)域和光滑區(qū)域的區(qū)域映射圖;
[0013]步驟5:對低分辨率多光譜圖像采用最近鄰插值方法,得到圖像大小和高分辨率全色圖像相同大小的初始的多光譜圖像,其計算公式為:
[0014]fHE(2i+m, 2j+l) = fLE(i, j) (i = I,..., ff, j = I,..., H,m = O, I, I = O, I) (I)
[0015]其中W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高,表示低分辨率多光譜圖像,^^表示初始的多光譜圖像;
[0016]步驟6:根據步驟4中得到的區(qū)域映射圖,將初始的多光譜圖像劃分為結構區(qū)域、紋理區(qū)域和光滑區(qū)域;
[0017]步驟7:對步驟5得到的初始的多光譜圖像,分別對其每一個子帶圖像,調整位置處于(2i+l,2j+l)的灰度值,針對結構、紋理區(qū)域和光滑區(qū)域,采用不同的插值和調整過程對(2i+l, 2j+l)的灰度值進行計算,得到修正的多光譜圖像,其中i = l,...,W;j =I,..., H, W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高;
[0018]步驟8:在步驟7得到的修正的多光譜圖像的基礎之上,分別對其每一個子帶圖像,調整位置處于(2i,2j+l)和(2i+l,2j)的灰度值,針對結構、紋理區(qū)域和光滑區(qū)域,采用不同的插值和調整過程對(2i,2j+l)和(2i+l,2j)灰度值重新進行計算,完成對初始的多光譜圖像上的每一個像素點的灰度值的計算,得到新的修正的多光譜圖像,其中i =l,...,W;j = 1,...,H,W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高;
[0019]步驟9:如果真實的高分辨率全色圖像的大小是低分辨率多光譜圖像大小的2倍,則步驟8中得到新的預測的多光譜圖像即為融合圖像;如果真實的高分辨率全色圖像的大小是真實的低分辨率多光譜圖像大小的4倍,則需將步驟1-8執(zhí)行兩次,在第一次運行過程中,步驟I中的高分辨率全色圖像為真實的高分辨率全色圖像的下采樣縮小一倍的圖像,在執(zhí)行完第一次過程后,將步驟8中得到的多光譜圖像作為第二次執(zhí)行過程中的低分辨率多光譜圖像,高分辨率全色圖像則為真實的高分辨率全色圖像,再次執(zhí)行步驟1-8,得到最終的融合圖像。
[0020]上述步驟7中所述的得到修正的多光譜圖像,按照如下步驟進行:
[0021]1)分別對初始的多光譜圖像的每一個子帶圖像,調整初始的多光譜圖像中位置處于(2i+l,2j+l)的像素,計算公式為:
[0022]
【權利要求】
1.一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,其特征在于:包含如下步驟: 步驟1:提取高分辨率全色圖像的Primal Sketch圖; 步驟2:根據步驟I得到的Primal Sketch圖中線段的方向,以線段上的點為中心,沿著該條線段的方向設計大小為7X7的方向窗口,構造幾何模版; 步驟3:對步驟I中得到的Primal Sketch圖,根據構造的幾何模板,得到劃分高分辨率全色圖像為結構區(qū)域和非結構區(qū)域的區(qū)域映射圖; 步驟4:將步驟3中得到的非結構區(qū)域,根據圖像的方差統(tǒng)計特性,將非結構區(qū)域劃分為紋理區(qū)域和光滑區(qū)域,從而得到劃分結構區(qū)域、紋理區(qū)域和光滑區(qū)域的區(qū)域映射圖; 步驟5:對低分辨率多光譜圖像采用最近鄰插值方法,得到圖像大小和高分辨率全色圖像相同大小的初始的多光譜圖像,其計算公式為:
fHE(2i+m, 2j+l) = fLK(i, j) (i = I,..., ff, j = 1,...,H, m = 0,I, I = 0,I) (I) 其中W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高,表示低分辨率多光譜圖像,^^表示初始的多光譜圖像; 步驟6:根據步驟4中得到的區(qū)域映射圖,將初始的多光譜圖像劃分為結構區(qū)域、紋理區(qū)域和光滑區(qū)域; 步驟7:對步驟5得到的初始的多光譜圖像,分別對其每一個子帶圖像,調整位置處于(2i+l,2j+l)的灰度值,針對結構、紋理區(qū)域和光滑區(qū)域,采用不同的插值和調整過程對(2i+l,2j+l)的灰度值進行計算,得到修正的多光譜圖像,其中i = l,...,W;j = 1,...,H,W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高; 步驟8:在步驟7得到的修正的多光譜圖像的基礎之上,分別對其每一個子帶圖像,調整位置處于(2i,2j+l)和(2i+l,2j)的灰度值,針對結構、紋理區(qū)域和光滑區(qū)域,采用不同的插值和調整過程對(2i,2j+l)和(2i+l,2j)灰度值重新進行計算,完成對初始的多光譜圖像上的每一個像素點的灰度值的計算,得到新的修正的多光譜圖像,其中i ==1,...,H,W表示低分辨率多光譜圖像的寬,H表示低分辨率多光譜圖像的高; 步驟9:如果真實的高分辨率全色圖像的大小是低分辨率多光譜圖像大小的2倍,則步驟8中得到新的預測的多光譜圖像即為融合圖像;如果真實的高分辨率全色圖像的大小是真實的低分辨率多光譜圖像大小的4倍,則需將步驟1-8執(zhí)行兩次,在第一次運行過程中,步驟I中的高分辨率全色圖像為真實的高分辨率全色圖像的下采樣縮小一倍的圖像,在執(zhí)行完第一次過程后,將步驟8中得到的多光譜圖像作為第二次執(zhí)行過程中的低分辨率多光譜圖像,高分辨率全色圖像則為真實的高分辨率全色圖像,再次執(zhí)行步驟1-8,得到最終的融合圖像。
2.根據權利要求1所述的一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,其特征在于:步驟7中所述的得到修正的多光譜圖像,按照如下步驟進行: I)分別對初始的多光譜圖像的每一個子帶圖像,調整初始的多光譜圖像中位置處于(2i+l, 2j+l)的像素,計算公式為:
3.根據權利要求1所述的一種基于區(qū)域劃分和插值的多光譜和全色圖像融合方法,其特征在于:步驟8中的得到新的修正的多光譜圖像,按照如下步驟進行: (I)分別對修正的多光譜圖像的每一個子帶圖像,調整修正的多光譜圖像中位置處于(2i,2j+l)和(2i+l,2j)的不確定像素,計算公式為:./",',(2/,2./ + 1)= Z ak ,.firK(2i + k, 2j +1 + /)) + 0(2i,2j +1)CIfU
【文檔編號】G06T5/50GK103914817SQ201410077181
【公開日】2014年7月9日 申請日期:2014年3月4日 優(yōu)先權日:2014年3月4日
【發(fā)明者】劉芳, 石程, 李玲玲, 焦李成, 郝紅俠, 戚玉濤, 武杰, 段一平, 馬晶晶, 尚榮華, 于昕 申請人:西安電子科技大學