亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于多層分析和分層推理的顯著性檢測方法

文檔序號:9751671閱讀:774來源:國知局
一種基于多層分析和分層推理的顯著性檢測方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及一種基于多層分析和分層推理的顯著性檢測方法,屬于計算機視覺顯 著性檢測技術(shù)領(lǐng)域。
【背景技術(shù)】
[0002] 視覺顯著性檢測是模擬人類注意快速指向感興趣區(qū)域的機制,只對需要的信息進 行加工和分配,極大地提高了信息處理的效率,是計算機視覺領(lǐng)域亟待解決的一個重點和 熱點問題。
[0003] 面對一幅背景復雜的圖像,顯著的目標物體或者背景包含小尺度,高對比度,那么 就很難精確地提取顯著性物體。當背景比較雜亂,顯著物體的尺度比較小時,我們很難一下 子準確找到顯著物體。這個問題在自然圖像中很常見,對于已有的顯著性檢測方法是一個 巨大的挑戰(zhàn)。
[0004] 現(xiàn)有視覺顯著性檢測算法的主要缺點在于分辨率低,目標邊界定義差,計算復雜 度高。

【發(fā)明內(nèi)容】

[0005] 發(fā)明目的:針對現(xiàn)有技術(shù)中存在的問題,本發(fā)明提供一種分辨率高、計算復雜度低 的基于多層分析和分層推理的顯著性檢測方法。
[0006] 技術(shù)方案:一種基于多層分析和分層推理的顯著性檢測方法,包括如下步驟:
[0007] 步驟1:輸入圖像;
[0008] 步驟2:采用分水嶺算法對步驟1得到的圖像進行分割,將圖像分割為大小不一且 不重疊的區(qū)域;
[0009] 步驟3:定義一個新的區(qū)域尺度計算方法,將步驟2得到的過分割后的區(qū)域按照區(qū) 域尺度值的大小排序,形成區(qū)域尺度列表,對圖像中的每個像素按照區(qū)域列表標記后的圖 即為底層圖像;
[0010] 步驟4:設(shè)定不同的閾值,通過不同大小核的包濾波器,合并區(qū)域計算可依次獲得 中層和高層圖像;
[0011] 步驟5:從區(qū)域?qū)Ρ榷群涂臻g位置兩個方面計算每一層圖像的顯著值;
[0012] 步驟6:對步驟3和4得到的多層圖像構(gòu)造樹形結(jié)構(gòu),通過能量更新和優(yōu)化,修正步 驟5得到的顯著值。通過對每一層的所有區(qū)域分配權(quán)值,最終加權(quán)平均得到最優(yōu)顯著圖。
[0013] 工作原理:當背景比較復雜時,現(xiàn)有的將每層顯著圖疊加求平均得到最終顯著圖 的做法并不是一個理想的方法??紤]到在不同區(qū)域的尺度下,每一層相對應區(qū)域表示的顯 著性是不一致的。本發(fā)明運用分層推理優(yōu)化,每層圖像采用樹形結(jié)構(gòu),利用信念傳播給每一 單層所有區(qū)域提供一個良好的權(quán)值,進行加權(quán)平均,得到最優(yōu)顯著圖。分層推理優(yōu)化利用在 每一層相同區(qū)域獲得的顯著值,有效地糾正最初顯著值。
[0014] 有益效果:與現(xiàn)有技術(shù)相比,本發(fā)明提供的方法能夠更加精確地檢測顯著目標,檢 測得到的結(jié)果分辨率高,目標邊界定義精準,算法復雜度小。
【附圖說明】
[0015] 圖1為本發(fā)明的流程圖;
[0016] 圖2為本發(fā)明方法與現(xiàn)有方法實驗效果對比圖,其中,a)原始圖像,b)Gr〇und Truth,c) IT方法,d )Mz方法,e) SR方法,f) GB方法,g) CA方法,h) FT方法,i)本發(fā)明提供的方 法;
[0017] 圖3為本發(fā)明與現(xiàn)有方法的平均查準率-召回率-F值實驗對比柱狀圖;
[0018] 圖4為本發(fā)明與現(xiàn)有方法在復雜背景下檢測到的顯著區(qū)域?qū)嶒炐Ч麑Ρ葓D,其中, a)原始圖像,b) Ground Truth,c) IT方法,d)Mz方法,e) SR方法,f) CA方法,g)本發(fā)明提供的 方法。
【具體實施方式】
[0019] 下面結(jié)合具體實施例,進一步闡明本發(fā)明,應理解這些實施例僅用于說明本發(fā)明 而不用于限制本發(fā)明的范圍,在閱讀了本發(fā)明之后,本領(lǐng)域技術(shù)人員對本發(fā)明的各種等價 形式的修改均落于本申請所附權(quán)利要求所限定的范圍。
[0020] 如圖1所示,本發(fā)明提供的一種基于多層分析和分層推理的顯著性檢測方法,包括 如下步驟:
[0021] 步驟1:采集圖像數(shù)據(jù);定義采集圖像為A;
[0022] 步驟2:采用分水嶺算法對步驟1得到的圖像進行分割,將圖像分割為大小不一且 不重疊的區(qū)域;
[0023] 分水嶺算法是一種基于拓撲理論中數(shù)學形態(tài)學的分割方法,主要是對圖像做梯 度分割處理,將圖像分割為大小不一且互不重疊的區(qū)域。該算法主要分為兩步,首先是對圖 像進行預處理,將圖像像素的灰度值按照升序排列。然后根據(jù)排序構(gòu)造出"集水盆地",并對 集水盆地進行不同的標記構(gòu)造出"防水堤壩"。在此過程中要用到Sobel算子來獲得梯度幅 值圖像,該算子包含兩個3x3的矩陣,一個是橫向矩陣,一個是縱向矩陣。將該算子和圖像做 平面卷積就能分別得到橫向和縱向的亮度差分近似值。設(shè)A為原始圖像,D x,Dy分別代表橫向 和縱向邊緣檢測圖像,表達式如下:
[0024]
[0025]
[0026] 因此,梯度大小表示為:
[0027]
[0028] 步驟3:定義一個新的區(qū)域尺度計算方法,將步驟2得到的過分割后的區(qū)域按照區(qū) 域尺度值的大小排序,形成區(qū)域尺度列表,對圖像中的每個像素按照區(qū)域列表標記后的圖 即為底層圖像;
[0029] 在已有的區(qū)域尺度計算中,往往是通過該區(qū)域所包含的像素個數(shù)計算得到。但是 在處理和理解自然圖像時這樣做并不一定都合適。事實上,一個包含大量像素的區(qū)域在人 類視覺感知中并不一定對應一個大尺度的區(qū)域。為此,我們定義了一個新的尺度計算方法, 對于形狀非常近似或者相同的區(qū)域,我們采用一個環(huán)繞尺度計算。設(shè)區(qū)域f,定義該區(qū)域的 環(huán)繞區(qū)域為即f GR。有了這樣的關(guān)系后,我們將區(qū)域R的尺度計算 表達式表τκ為,
[0030]
(4)
[0031] 其中,Rtxt是一個tXt的正方形區(qū)域。根據(jù)式(4)計算一個區(qū)域的尺度,需要進行大 量的搜索和比較,計算量比較大。這里我們可以進行簡化的操作,事實上在經(jīng)過分水嶺算法 分割后,我們只需要給定一個閾值t,將每個分割后的區(qū)域和t做比較,可以將所有的區(qū)域 分為大于t和小于t兩部分。因此,我們可以采用一個大小為tXt的核kt的包濾波器,包濾波 器的主要功能,在給定的滑動窗口大小下,對每個窗口內(nèi)的像素值進行快速相加求和。通過 這個包過濾器輸出分割區(qū)域尺度小于t部分。
[0032] 將圖像通過分水嶺過分割的區(qū)域按照每個區(qū)域尺度值的大小排序,記為區(qū)域列表 對圖像中的每個像素按照區(qū)域列表9?標記后的圖,記為M。通過一個核為k t的包濾波器, 輸出的圖為kt〇M,〇指二維卷積。計算絕對差Dt= |M-kt〇M|,當滿足下面公式,我們就可以從 區(qū)域列表沢篩選出小于尺度t的區(qū)域。
[0033] (5)
[0034] 其中,y表示像素,在經(jīng)過卷積后,所有屬于區(qū)域心的標簽值將會被改變,輸出小于 閾值t的尺度。
[0035] 定義一個尺度大小為3x3的核kt的包濾波器,以及分割后每個區(qū)域尺度值從大到 小排序的區(qū)域列表識:。如果在區(qū)域列表況中的區(qū)域心小于3x3的尺度,那么我們就將該區(qū)域 合并到與其最相鄰的區(qū)域中,根據(jù)在CIELUV顏色空間的平均顏色距離更新合并區(qū)域的尺 度,并且將合并區(qū)域的平均顏色距離更新顏色。當所有的區(qū)域都被計算完時,我們所得到的 圖就作為底層或者第一層圖,記為L 1。
[0036] 步驟4:設(shè)定不同的閾值,通過不同大小核的包濾波器,合并區(qū)域計算可依次獲得 中層和高層圖像;
[0037] 通過改變閾值的大小,采用與步驟3相同的方法,就可以獲得中層和高層圖,分別 記為L2,L3。本實施例中的三個閾值分別為3,17,32。
[0038] 步驟5:從區(qū)域?qū)Ρ榷群涂臻g位置兩個方面計算每一層圖像的顯著值;
[0039]區(qū)域?qū)Ρ榷?br>[0040]將圖像中任意兩個像素Pl,Pj在Lab顏色空間上的距離用兩個像素的對比度值Q (i,j)表示,表達式如下:
[0041] Ci(i , j)=D(pi,pj)i^ j (6)
[0042] 其中,D(Pl,Pj)表示像素 Pl,Pj在Lab顏色空間上的距離。那么圖像過分割后任意兩 個區(qū)域心,心中像素的對比度值Cd(i,j)可以通過計算顏色平均值的歐氏距離來表示,表達 式如下:
[0043] Cd(Ri,Rj) = l|yi-yjll2i^j (7)
[0044] 其中,講和內(nèi)分別表示區(qū)域吣兒中的像素在Lab顏色空間上的顏色均值,| | | |2代表 歐氏坐標距離。由以上兩個公式就可以推出圖像中任意一個區(qū)域?qū)Ρ榷鹊谋磉_式如下:
[0045]
n:-L (8)
[0046] 其中,m表示圖像經(jīng)過分水嶺算法過分割之后的區(qū)域數(shù)量。
[0047]通過區(qū)域?qū)Ρ榷确椒ㄓ嬎銏D像的顯著性,往往對區(qū)域之間的距離也會有要求,因 為區(qū)域之間的距離通常也會影響人眼對于圖像區(qū)域關(guān)注度的選擇。從一般情況來說,當人 眼在集中看某個感興趣區(qū)域的時候,視線都會比較集中在這個區(qū)域,而不會分散開來,因此 兩個區(qū)域之間的距離如果太大會對區(qū)域?qū)Ρ榷戎涤杏绊憽T谄綍r生活中我們發(fā)現(xiàn),如果存 在某個區(qū)域和其他任意兩個區(qū)域的顏色對比度值恰好是一樣的,那么這兩個區(qū)域中與該區(qū) 域之間距離更近的那個區(qū)域?qū)⒏菀滓鹑搜垡曈X關(guān)注。由此,本文在區(qū)域?qū)Ρ榷戎幸?權(quán)值表示為區(qū)域心,!^的中心點在圖像中的歐氏坐標距離,對顯著性檢測將更加 合理。因此,將公式改進為如下式:
.....… (9)
[0048
當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1