基于蟻群的壓縮域顯著性檢測(cè)算法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于視頻檢測(cè)技術(shù)領(lǐng)域,尤其是一種基于蟻群的壓縮域顯著性檢測(cè)算法。
【背景技術(shù)】
[0002] 鑒于近年來(lái)數(shù)字視頻時(shí)代前所未有的增長(zhǎng)速度與消費(fèi)速度,了解視頻中所包含的 內(nèi)容進(jìn)而對(duì)視頻進(jìn)行智能化處理已經(jīng)成為了一個(gè)熱口問(wèn)題。眾所周知,人類(lèi)獲得外部信息 中有 80% 是通過(guò)視覺(jué)系統(tǒng)獲得的(H.-B.Duan,Ant colony algorithms:theory and applications/'Chinese Science ,2005)。同時(shí),對(duì)于大量的信息,視覺(jué)系統(tǒng)會(huì)按照一定的 選擇性機(jī)制對(duì)它們進(jìn)行處理并忽略掉一些信息,我們稱(chēng)這種機(jī)制為視覺(jué)選擇性機(jī)制 (G.民.Mangun ,('Neural mechanisms of visual selective attention,,, Psychophysiology,vol .32,no. I,pp.4-18,1995) D因此,為了更好的理解視頻中包含的內(nèi) 容,視覺(jué)顯著性檢測(cè)如今越來(lái)越熱口。
[0003] 顯著性檢測(cè)的研究最初是用于生物學(xué)的,在二十世紀(jì)九十年代,該研究被引入計(jì) 算機(jī)領(lǐng)域來(lái)處理圖像和視頻。近年來(lái),顯著性檢測(cè)已經(jīng)被應(yīng)用于多個(gè)圖像處理研究領(lǐng)域,例 如圖像分割、自適應(yīng)圖像壓縮W及目標(biāo)識(shí)別等。除此之外,顯著性檢測(cè)在其他眾多研究領(lǐng)域 中也具有巨大的潛力,例如物體檢測(cè)和基于內(nèi)容的圖像檢索(M.Dorigo,M.Birattari ,and T. Stutzle,('Artificial ants as a computational intelligence technique,,'IEEE computational intelligence magazine,vol ? I,pp. 28-39,2006)等D 因此,在如何定義顯 著性區(qū)域這個(gè)課題上已經(jīng)有非常多的經(jīng)典論文化.Itti,C. Koch ,and E. Niebur,"A model of saliency-based visual attention for rapid scene analysisIEEE Transactions on pattern analysis and machine intelligence ,vol.20,no . 11, pp. 1254-1259,1998;民.A. Abrams and S.E.Christ, ('Mot ion onset captures attention/'Psychological Science,vo1.14,no .5,pp.427-432,2003;N. Bruce and J.Tsotsos,('Saliency based on information maximization,,'in Advances in neural information processing systems,2005,pp.155-162;B.Jiang,L.Zhang,H.Lu,C.Yang, and M.-H. Yang, ('Saliency detection via absorbing markov chain in Computer Vision(ICCV),2013IEEE International Conference on. IEEE,2013,pp.1665-1672; N.民iche,M.Mancas,M.Duvinage ,M.Mibulumukini,B.Gosselin ,and T.Dutoit,('民are2012: A multi-scale rarity-based saliency detection with its comparative statistical analysis,,,Signal Processing: Image Communication,vol.28,no.6, pp.642-658,2013)O
[0004] 但是,上述檢測(cè)方法在解碼過(guò)程存在繁復(fù)且耗時(shí)的問(wèn)題,并且依賴(lài)于視頻內(nèi)容變 化W及編碼時(shí)參數(shù)設(shè)置的影響,其擴(kuò)展性及魯棒性較差。
【發(fā)明內(nèi)容】
[000引本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種設(shè)計(jì)合理、魯棒性好、擴(kuò)展性強(qiáng) 且效率高的基于蟻群的壓縮域顯著性檢測(cè)算法。
[0006] -種基于蟻群的壓縮域顯著性檢測(cè)算法,包括W下步驟:
[0007] 步驟1、將視頻帖劃分為塊,并使用塊構(gòu)建圖的節(jié)點(diǎn),進(jìn)而將帖建模成一個(gè)圖;
[0008] 步驟2、直接從壓縮碼流中提取每個(gè)節(jié)點(diǎn)的時(shí)域和空域特征,構(gòu)建時(shí)空域啟發(fā)矩 陣;
[0009] 步驟3、根據(jù)蟻群算法,直接提取壓縮碼流中的殘差變換系數(shù)W及運(yùn)動(dòng)矢量;從殘 差變換系數(shù)中獲得空域的特征,包括亮度特征、色度特征、紋理特征,其中紋理特征根據(jù)構(gòu) 建方法不同,可進(jìn)行進(jìn)一步細(xì)分;此外,從運(yùn)動(dòng)矢量中可直接提取時(shí)域特征,即運(yùn)動(dòng)特征;將 提取的特征按照步驟1中塊的劃分構(gòu)建時(shí)域和空域的顯著性圖;
[0010] 步驟4、根據(jù)人眼視覺(jué)特性和時(shí)空域顯著性圖的特征,同時(shí)結(jié)合被檢測(cè)視頻的內(nèi)容 特征,分類(lèi)自適應(yīng)融合時(shí)域和空域顯著性圖像,得到圖像顯著區(qū)域。
[0011] 而且,所述步驟1的具體方法包括W下步驟:
[0012] (1)將每一帖進(jìn)行塊的劃分為每一帖構(gòu)建一個(gè)圖G(V,E);
[0013] (2)劃分的塊被作為圖中的節(jié)點(diǎn)V,轉(zhuǎn)移概率P則被用于作為圖的邊E;
[0014] (3)根據(jù)視頻編碼設(shè)置塊的大小。
[0015] 而且,所述視頻采用H. 264編碼,塊大小設(shè)置為4 X 4。
[0016] 而且,所述步驟2提取每個(gè)節(jié)點(diǎn)的時(shí)域和空域特征包括對(duì)應(yīng)時(shí)域特征的運(yùn)動(dòng)矢量 MV和對(duì)應(yīng)空域特征分量,所述對(duì)應(yīng)空域特征分量包括:
[0017] (1)亮度特征L,對(duì)應(yīng)于亮度的直流分量;
[001引(2)色度特征Cl,對(duì)應(yīng)于色度Cb的直流分量;
[0019] (3)色度特征C2,對(duì)應(yīng)于色度Cr的直流分量;
[0020] (4)紋理特征T,紋理特征通過(guò)對(duì)壓縮碼流中亮度和色度的交流分量進(jìn)行處理獲 得,具體包括W下幾種情況:
[0021] -僅采用亮度的交流分量進(jìn)行處理獲得紋理特征,處理方法包括求和、求均值W及 方差;
[0022] -僅采用色度的交流分量進(jìn)行處理獲得紋理特征,處理方法包括求和、求均值W及 方差;
[0023] -根據(jù)視頻的具體內(nèi)容對(duì)亮度與色度進(jìn)行符合人眼視覺(jué)規(guī)律的自適應(yīng)加權(quán)處理W 獲得紋理特征。
[0024] 而且,所述步驟2時(shí)空域啟發(fā)矩陣的具體構(gòu)造方法如下:
[0025] 針對(duì)每種特征fE化,U,V,T,MV},按照下面公式獲得啟發(fā)矩陣:
[0027] 式中,f(i,j)和f(l,m)分別表示坐標(biāo)為(i,j)的塊和坐標(biāo)為(l,m)的塊的特征值。
[0028] 而且,所述步驟3的具體方法包括W下步驟:
[0029] (1)在圖上一次性隨機(jī)灑出共K只媽蟻,并使每只媽蟻爬行L步,運(yùn)個(gè)過(guò)程記為構(gòu)造 過(guò)程;在一次計(jì)算中,該構(gòu)造過(guò)程需要被重復(fù)執(zhí)行N次;在第n次構(gòu)造過(guò)程中,第k只媽蟻從節(jié) 點(diǎn)(i,j)移動(dòng)向節(jié)點(diǎn)(1,m)的概率通過(guò)轉(zhuǎn)移概率進(jìn)行計(jì)算,計(jì)算公式如下:
[0031] 其中T和Tl分別指代信息素矩陣和啟發(fā)矩陣,a和e是影響因子,Q (I,^指代當(dāng)前節(jié)點(diǎn) 的鄰居節(jié)點(diǎn),在獲得轉(zhuǎn)移概率之后,媽蟻轉(zhuǎn)向轉(zhuǎn)移概率最大的方向爬行;
[0032] (2)當(dāng)?shù)趉只媽蟻完成了第n個(gè)構(gòu)造過(guò)程中的第1步爬行時(shí),信息素矩陣會(huì)根據(jù)下面 公式進(jìn)行更新:
[0034] 其中,P是衰減率,最優(yōu)路徑指第k只媽蟻根據(jù)轉(zhuǎn)移概率矩陣計(jì)算結(jié)果經(jīng)過(guò)的所有 節(jié)點(diǎn)的集合;Af]是通過(guò)啟發(fā)矩陣決定的,Af ]=巧P;
[0035] (3)當(dāng)?shù)趎個(gè)構(gòu)造過(guò)程中的所有K只媽蟻均完成了 L步爬行之后,信息素矩陣會(huì)根據(jù) 下面法則進(jìn)行更新:
[0036] 了所)'=(1 -的T(打'1 + 料閩
[0037] 其中tW指代每個(gè)構(gòu)造過(guò)程中信息素矩陣最初的值,餐指代信息素?fù)]發(fā)系數(shù), 與 G (0,1。
[0038] 而且,所述步驟4中采用全局非線(xiàn)性歸一化方法進(jìn)行自適應(yīng)融合,該自適應(yīng)融合公 式如下:
[0040] 式中,Mi為顯著性圖SMi中的最大值,nil是顯著性圖SMi中除最大值外所有其他值的 平均值,N是歸一化運(yùn)算符;
[0041] 此外,根據(jù)被檢測(cè)視頻的內(nèi)容特征進(jìn)行符合人眼規(guī)律的自適應(yīng)融合方法如下:
[0042] (1)按照運(yùn)動(dòng)的劇烈程度與紋理的復(fù)雜程度對(duì)視頻進(jìn)行分類(lèi),具體分為:運(yùn)動(dòng)劇烈 紋理復(fù)雜的視頻、運(yùn)動(dòng)劇烈紋理簡(jiǎn)單的視頻、運(yùn)動(dòng)不劇烈紋理復(fù)雜的視頻、W及運(yùn)動(dòng)不劇烈 紋理簡(jiǎn)單的視頻;
[0043] (2)根據(jù)分類(lèi),在按照上述公式分別計(jì)算不同特征獲得的顯著性圖的歸一化最大 值與均值平方之積后賦予不同特征獲得的不同結(jié)果加權(quán)系數(shù);
[0044] (3)將加權(quán)過(guò)的結(jié)果進(jìn)行求和歸一化,獲得最終顯著性圖檢測(cè)結(jié)果。
[004引本發(fā)明的優(yōu)點(diǎn)和積極效果是:
[0046]本發(fā)明設(shè)計(jì)合理,其利用蟻群算法的正反饋機(jī)制和貪婪啟發(fā)捜索機(jī)制,在尋找全