本發(fā)明涉及視頻內(nèi)容分析領(lǐng)域,具體設(shè)計(jì)一種基于HSV顏色直方圖和DCT感知哈希算法的鏡頭邊界檢測(cè)方法。
背景技術(shù):
隨著計(jì)算機(jī)、通信和多媒體技術(shù)的發(fā)展,多媒體視頻數(shù)據(jù)的數(shù)據(jù)量正在呈井噴式地增長(zhǎng),同時(shí)傳統(tǒng)的視頻分析方法無法適應(yīng)數(shù)據(jù)量的不斷增長(zhǎng)和視頻數(shù)據(jù)結(jié)構(gòu)的愈加復(fù)雜。為了更加有效地存儲(chǔ)、管理和分析視頻數(shù)據(jù),提出了基于內(nèi)容的視頻分析檢索技術(shù),其中,視頻鏡頭邊界檢測(cè)是進(jìn)行視頻分析檢索的基礎(chǔ)。視頻數(shù)據(jù)是由一系列相同尺寸并且時(shí)間上連續(xù)的圖像幀組成的,視頻的結(jié)構(gòu)由大到小可以分成視頻序列、情景、鏡頭和圖像幀。鏡頭是視頻結(jié)構(gòu)的基本單元,鏡頭邊界檢測(cè)是視頻數(shù)據(jù)分析檢索的第一步,鏡頭邊界檢測(cè)的準(zhǔn)確性直接影響到后續(xù)處理的效果。
到目前為止,國(guó)內(nèi)外的專家學(xué)者在這一領(lǐng)域做了大量的工作并且產(chǎn)生了很多研究成果。主流的視頻鏡頭檢測(cè)方法包括:像素法、直方圖法、互信息量法、邊緣特征法等等。但是,由于視頻數(shù)據(jù)種類繁多,各具特征,傳統(tǒng)的方法都具有一定的局限性,導(dǎo)致檢測(cè)準(zhǔn)確率不高。目前為止,鏡頭檢測(cè)技術(shù)存在的共同問題是對(duì)物體運(yùn)動(dòng)和亮度變化比較敏感,這將是往后所有檢測(cè)技術(shù)都要解決的技術(shù)難題。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明要解決的技術(shù)問題是:克服現(xiàn)有技術(shù)的不足,提供一種結(jié)合改進(jìn)的HSV顏色直方圖、歸一化閾值和DCT感知哈希算法的具有雙重檢測(cè)機(jī)制的視頻鏡頭邊界檢測(cè)方法。
本發(fā)明目的在于針對(duì)目前鏡頭邊界檢測(cè)存在的普遍問題的問題,提出了一種基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,該方法解決了現(xiàn)有的視頻鏡頭邊界檢測(cè)算法對(duì)光照變化敏感、準(zhǔn)確率和查全率較低的問題,提高了針對(duì)不同結(jié)構(gòu)視頻數(shù)據(jù)的檢測(cè)準(zhǔn)確率和查全率,適用性有了一定的提高。
本發(fā)明解決其技術(shù)問題所采取的技術(shù)方案是:本發(fā)明首先通過統(tǒng)計(jì)視頻幀序列的HSV顏色直方圖信息,過濾掉絕大多數(shù)的鏡頭內(nèi)幀數(shù)據(jù)并且給出一個(gè)初始的鏡頭邊界集合,大大地降低了復(fù)檢的時(shí)間復(fù)雜度。接著,采用DCT感知哈希算法,提取視頻幀的DCT感知哈希特征值,通過比較特征值差異,刪除初檢結(jié)果里的偽鏡頭邊界,克服光照變化對(duì)檢測(cè)的影響,進(jìn)一步地提高算法準(zhǔn)確率。
一種基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,所述方法包括如下步驟:
步驟1:使用基于HSV顏色空間的直方圖統(tǒng)計(jì)方法計(jì)算出相鄰兩幀圖像之間的直方圖差異度;
步驟2:采用自適應(yīng)閥值對(duì)相鄰兩幀間的差異度進(jìn)行判別,若大于閥值,則初步判定為鏡頭邊界;
步驟3:采用基于DCT的感知哈希算法對(duì)初檢結(jié)果進(jìn)行復(fù)檢并得出最終的視頻鏡頭邊界集合。
所述的一種基于基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,步驟1的具體方法如下:
A)讀取視頻序列M,根據(jù)公式(1)-(3)計(jì)算每一幀圖像的歸一化色調(diào)、飽和度和亮度值,即歸一化HSV信息;
其中,R,G,B分別代表圖像像素點(diǎn)的紅、綠、藍(lán)三個(gè)顏色分量,H,S,V代表HSV顏色空間的色調(diào)、飽和度和亮度分量值,取值范圍[0,1];
B)對(duì)HSV三分量進(jìn)行差異化量化,分別量化成16階、8階和2階;并且將圖像的三維顏色空間壓縮到一維空間內(nèi),計(jì)算公式如下:
L(i,j)=16H(i,j)+2S(i,j)+V(i,j) (4)
其中,i,j是圖像的像素位置橫縱坐標(biāo),H(i,j),S(i,j),V(i,j)是當(dāng)前位置像素的HSV三個(gè)分量值;
C)結(jié)合每個(gè)像素位置的變量值L(i,j),計(jì)算每幀圖像的直方圖統(tǒng)計(jì)值,并計(jì)算相鄰兩幀之間的卡方距離,計(jì)算公式如下:
其中,j代表第j幀圖像,d(j,j+1)代表了相鄰兩幀之間的直方圖距離,Hj(i)表示第j幀圖像直方圖信息中的i分量的統(tǒng)計(jì)值,i的取值范圍[0,255]。
所述的一種基于基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,步驟2的具體方法如下:
A)提出一種歸一化的鏡頭初檢門限T1,公式如下:
T1=m+λσ (6)
其中,m,σ是直方圖距離序列的均值和標(biāo)準(zhǔn)差,λ是常數(shù),取值范圍可以是{1,2};
B)利用計(jì)算出的門限值,進(jìn)行鏡頭邊界初檢:
若直方圖距離大于門限,則判定此幀圖像處存在鏡頭邊界,并將邊界值j存儲(chǔ)到初見邊界集合P中,取j=j(luò)+1,再次進(jìn)行判定;否則,判定此處圖像是鏡頭內(nèi)部幀,j=j(luò)+1,按次序依次判定直至j=N,N為視頻幀序列總幀數(shù)。
所述的一種基于基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,步驟3的具體方法如下:
A)將初檢邊界集合P中的每幀圖像從彩色圖像轉(zhuǎn)換成灰度圖像;
B)調(diào)用resize()函數(shù)對(duì)圖像重新設(shè)定尺寸,減小算法計(jì)算量;
C)利用離散余弦變換DCT計(jì)算灰度圖像幀序列的DCT系數(shù)矩陣,結(jié)合圖像DCT變換的特性,取系數(shù)矩陣左上方一小部分非零元素子矩陣C;
D)計(jì)算系數(shù)矩陣C的均值,若對(duì)應(yīng)位置的元素值大于均值則置1,否則置0,所有元素按順序組合在一起就構(gòu)成了圖像的DCT感知哈希序列G;
E)計(jì)算P中的每幀圖像與其相鄰圖像幀之間的DCT感知哈希差異度,差異度定義式如下,
其中,j表示初檢集合中的鏡頭邊界位置,D代表相鄰兩幀之間的DCT感知哈希差異度,Num為圖像感知哈希序列長(zhǎng)度,G為圖像感知哈希序列;
F)通過差異度大小進(jìn)行復(fù)檢,若差異度大于30%則判定此處是真的視頻鏡頭邊界,并將j存儲(chǔ)到邊界集合R中,否則判定該處為誤檢;遍歷集合P中的所有元素,分別進(jìn)行判定,最后返回視頻邊界集合R。
本發(fā)明應(yīng)用于多媒體視頻數(shù)據(jù)分析與檢索。
本發(fā)明的有益效果:
1、本發(fā)明的鏡頭邊界檢測(cè)方法采用了主流的直方圖算法,根據(jù)人眼對(duì)HSV三分量的敏感程度,分別進(jìn)行了不同比例的量化操作,一定程度上抑制了亮度對(duì)算法的影響,提高了算法的準(zhǔn)確率。
2、針對(duì)現(xiàn)有的大部分算法只能適用于某些特定結(jié)構(gòu)的視頻,本發(fā)明采用了一種歸一化的門限判決方法,算法靈活性更高,可以適用于多種視頻結(jié)構(gòu)。
3、本發(fā)明利用了直方圖算法的低算法復(fù)雜度和較低的時(shí)間復(fù)雜度的優(yōu)點(diǎn)以及感知哈希算法數(shù)據(jù)壓縮率高的優(yōu)點(diǎn)。雖然本發(fā)明使用了初檢復(fù)檢雙重檢測(cè)的機(jī)制,但是檢測(cè)所耗費(fèi)的時(shí)間并沒有明顯的增加,同時(shí)有效地提高了檢測(cè)方法的準(zhǔn)確性。
附圖說明
圖1為本發(fā)明方法流程圖。
圖2為本發(fā)明中視頻圖像幀HSV顏色直方圖統(tǒng)計(jì)信息示意圖。
圖3為本發(fā)明的DCT感知哈希復(fù)檢算法流程圖。
具體實(shí)施方式
以下結(jié)合具體實(shí)施例,對(duì)本發(fā)明進(jìn)行詳細(xì)說明。
如圖1所示,本發(fā)明的視頻鏡頭邊界檢測(cè)方法,包括以下步驟:
1)讀取視頻序列M,獲取每幀圖像的RGB信息矩陣。由于HSV顏色模型更加直觀,更符合人眼的視覺感受,所以通過如下轉(zhuǎn)換公式得到圖像幀的HSV顏色信息矩陣:
其中,R,G,B分別代表圖像像素點(diǎn)的紅、綠、藍(lán)三個(gè)顏色分量,H,S,V代表HSV顏色空間的色調(diào)、飽和度和亮度分量值,取值范圍[0,1]。
2)數(shù)據(jù)量化壓縮。多媒體視頻數(shù)據(jù)以數(shù)據(jù)量巨大著稱,在分析視頻數(shù)據(jù)的過程中,在不影響分析精度的條件下減少數(shù)據(jù)量是一個(gè)很重要的環(huán)節(jié)。
A)結(jié)合人眼的視覺特征,分別將H、S、V三種分量均勻量化成16、8和2階,大大減少計(jì)算復(fù)雜度。
B)將量化后的視頻圖像幀的數(shù)據(jù)矩陣從三維顏色空間映射到一維顏色空間:
L(i,j)=16H(i,j)+2S(i,j)+V(i,j) (4)
其中,i,j是圖像的像素位置橫縱坐標(biāo),H(i,j),S(i,j),V(i,j)是當(dāng)前位置像素的HSV三個(gè)分量值。
3)依次獲取相鄰圖像幀之間的直方圖差異度。
A)統(tǒng)計(jì)每幅圖像的直方圖信息。
其中,Hj(i)表示第j幀圖像直方圖信息中的i分量的出現(xiàn)的頻次,i的取值范圍[0,255],m和n分別表示圖像的橫縱維度。圖2給出了一個(gè)圖像幀的HSV顏色直方圖統(tǒng)計(jì)信息示意圖。
B)結(jié)合直方圖統(tǒng)計(jì)量,計(jì)算出相鄰兩幀之間的卡方距離,公式如下:
其中,j代表第j幀圖像,d(j,j+1)代表了相鄰兩幀之間的直方圖距離。自此,通過以上步驟即可求出視頻幀序列的HSV顏色直方圖距離。
4)定義一種歸一化的鏡頭初檢門限T1,公式如下:
T1=m+λσ (7)
其中,m,σ是直方圖距離序列的均值和標(biāo)準(zhǔn)差,λ是常數(shù),取值范圍可以是[1,2]。
通過公式(7),得出初檢方法的門限值,并給出判定方法:
d(j,j+1)≥T1 (8)
若圖像幀間距離大于門限值T1,則初步判定該處為鏡頭邊界值,并將該幀位置存儲(chǔ)進(jìn)集合P中。否則,認(rèn)為該處為鏡頭內(nèi)部的圖像幀。依次判定每個(gè)相鄰位置圖像的幀間距離,并得出初檢邊界集合P。
5)雖然發(fā)明中對(duì)傳統(tǒng)的直方圖方法進(jìn)行改進(jìn),但是改進(jìn)的方法仍然存在對(duì)光照敏感的問題,會(huì)將光照變化產(chǎn)生的幀間差異誤判成鏡頭的邊界。因此,本發(fā)明利用DCT感知哈希算法對(duì)初檢結(jié)果進(jìn)行復(fù)檢,并進(jìn)一步提高方法準(zhǔn)確率,具體算法流程圖如圖3所示。具體步驟如下:
A)調(diào)用rgb2gray()函數(shù),將初檢邊界集合P中的每幀原始圖像從彩色圖像轉(zhuǎn)換成灰度圖像,并保存結(jié)果;
B)調(diào)用resize()函數(shù),將圖像尺寸調(diào)整為32*32;
C)利用離散余弦變換DCT計(jì)算灰度圖像幀序列的DCT系數(shù)矩陣C,結(jié)合圖像DCT變換的特性,取系數(shù)矩陣左上方一小部分非零元素子矩陣C';
D)計(jì)算系數(shù)矩陣C'的均值,
其中,i,j是圖像的像素位置橫縱坐標(biāo)。若對(duì)應(yīng)位置的元素值大于均值則對(duì)應(yīng)位置置1,否則置0,所有元素按順序組合在一起就構(gòu)成了圖像的DCT感知哈希序列G,即幀DPHA系數(shù);
E)計(jì)算初檢邊界集合P中的每幀圖像與其相鄰圖像幀之間的DCT感知哈希差異度,差異度定義式如下,
其中,j表示初檢集合中的鏡頭邊界位置,D代表相鄰兩幀之間的DCT感知哈希差異度,Num為圖像感知哈希序列長(zhǎng)度,G為圖像感知哈希序列。
F)通過比較差異度大小進(jìn)行復(fù)檢,若差異度大于序列長(zhǎng)度30%(門限T2),則判定此處視頻鏡頭邊界存在,并將j存儲(chǔ)到邊界集合R中,否則判定該處為誤檢。遍歷集合P中的所有元素,依次進(jìn)行檢測(cè)判定,最后返回視頻邊界集合R。
本發(fā)明提出了一種基于HSV顏色直方圖和DCT感知哈希的鏡頭邊界檢測(cè)方法,利用直方圖法的統(tǒng)計(jì)特性、旋轉(zhuǎn)不變性以及利用感知哈希算法克服鏡頭邊界檢測(cè)算法對(duì)光照變化的影響。通過對(duì)幾種不同類別的視頻片段進(jìn)行鏡頭邊界檢測(cè),并且與兩種現(xiàn)有算法進(jìn)行對(duì)比,在算法檢測(cè)準(zhǔn)確率、查全率上都得到了有效的提高(表1)。
表1
應(yīng)當(dāng)理解的是,對(duì)本領(lǐng)域普通技術(shù)人員來說,可以根據(jù)上述說明加以改進(jìn)或變換,而所有這些改進(jìn)和變換都應(yīng)屬于本發(fā)明所附權(quán)利要求的保護(hù)范圍。