視頻監(jiān)控中的運動目標(biāo)跟蹤方法
【專利摘要】本發(fā)明公開了一種視頻監(jiān)控中的運動目標(biāo)跟蹤方法,包括步驟:利用SIFT提取局部特征點,將視頻中每一幀圖像映射為特征矢量(中間哈希);利用聚類分析將中間哈希進(jìn)一步映射為最終哈希值;采用漢明距離來測度幀圖像與幀圖像之間的相似性,從而追蹤到每一幀圖像中的跟蹤目標(biāo)。
【專利說明】
視頻監(jiān)控中的運動目標(biāo)跟蹤方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明設(shè)及圖像處理領(lǐng)域,尤其設(shè)及一種視頻監(jiān)控中的運動目標(biāo)跟蹤方法。
【背景技術(shù)】
[0002] 視覺是人類獲取信息的主要手段,并且在人工智能領(lǐng)域的發(fā)展中,機器視覺技術(shù) 已有30多年歷史,而近10年來已經(jīng)形成了工業(yè)自動化產(chǎn)業(yè)的一個分支。在近幾年,目標(biāo)識別 的應(yīng)用逐漸得到重視,尤其是在攝像頭方面:如果單純的用攝像頭記錄下一天的全部錄像, 然后讓人去檢索錄像數(shù)據(jù)是否有人出現(xiàn)的場景,運將會帶來時間和精力的消耗;如果事先 設(shè)定用目標(biāo)識別和跟蹤技術(shù)來對攝像頭數(shù)據(jù)進(jìn)行檢索,那么就可W減少數(shù)據(jù)的容量和縮減 了人的工作量,大大優(yōu)化了資源的使用。
[0003] 目標(biāo)檢測是一種在任意數(shù)字圖像中找到目標(biāo)的位置的圖形技術(shù)。目標(biāo)檢測的方法 有基于幾何特征的,有基于膚色分割的,還有基于統(tǒng)計理論的,本文所描述的多目標(biāo)跟蹤算 法就是采用基于統(tǒng)計理論的目標(biāo)檢測方法。目標(biāo)跟蹤的研究相比目標(biāo)檢測要晚,主要是分 為基于運動分析的目標(biāo)跟蹤和基于目標(biāo)檢測的目標(biāo)跟蹤算法。基于運動分析的目標(biāo)跟蹤方 法依靠運動信息來檢測目標(biāo)的運動狀態(tài),再通過跟蹤運動目標(biāo)和施W目標(biāo)檢測來判定,當(dāng) 前主要有基于區(qū)域匹配、基于特征點和基于變形模板的目標(biāo)跟蹤算法?;谀繕?biāo)檢測的跟 蹤算法則是利用視頻序列中每一帖之間的關(guān)聯(lián),用某種特定方法來預(yù)測下一帖中目標(biāo)可能 出現(xiàn)的區(qū)域,再對該區(qū)域進(jìn)行目標(biāo)檢測來進(jìn)行跟蹤。
[0004] 近年來,諸如視頻會議W及安全監(jiān)控等技術(shù)的發(fā)展,對特定環(huán)境下的人員進(jìn)行跟 蹤顯示十分必要,所W目標(biāo)跟蹤技術(shù)的應(yīng)用變得越來越多。國內(nèi)外很多大學(xué)和公司都在致 力研究目標(biāo)跟蹤技術(shù)。
[0005] 采用光流法進(jìn)行運動物體檢測的問題主要在于大多數(shù)光流法計算耗時,實時性和 實用性都較差。但是光流法的優(yōu)點在于光流不僅攜帶了運動物體的運動信息,而且還攜帶 了有關(guān)景物Ξ維結(jié)構(gòu)的豐富信息,它能夠在不知道場景的任何信息的情況下,檢測出運動 對象。但是光流法在計算時耗時較長,實用性和實時性都較差。
[0006] 對于現(xiàn)有技術(shù)中的Mean化if t算法,當(dāng)兩個目標(biāo)相鄰時,相鄰的捜索窗口將收斂于 局部最大(強勢)窗口,會導(dǎo)致跟蹤失敗。
【發(fā)明內(nèi)容】
[0007] 本發(fā)明的發(fā)明目的在于,將數(shù)據(jù)感知哈希方法推廣到視覺領(lǐng)域,并基于SIFT特征 提取算法W及K-means聚類分析方法,在視頻中實現(xiàn)對目標(biāo)區(qū)域的準(zhǔn)確跟蹤
[000引本發(fā)明解決其技術(shù)問題所采用的技術(shù)方案是:
[0009] 提供一種視頻監(jiān)控中的運動目標(biāo)跟蹤方法,包括W下步驟:
[0010] S1、在第一帖圖像中選擇目標(biāo)跟蹤區(qū)域圖像并對該目標(biāo)跟蹤區(qū)域圖像進(jìn)行如下處 理:
[OOW 將目標(biāo)跟蹤區(qū)域的圖像統(tǒng)一規(guī)格化為128像素*128像素,得到圖像Ik體;對圖像Ik體 做SIFT特征提取,得到特征矢量為
[0012] R={Rij2R3R4,...,Ri,...,Rn}Rez64
[001引其中,Ri(i = l,2,3,......,n)表示圖像中一個特征點向量,R表示所有特征點向量 的集合,Z6嗦示一個1*64位向量;
[0014] 利用K-means聚類分析對特征矢量R進(jìn)行量化,采用基于歐幾里得度量來劃分決定 簇類,并根據(jù)聚類結(jié)果的質(zhì)屯、點Mk大小將其所在類Ci,i = l,2,3,……,64的數(shù)值映射為1或 0,具體根據(jù)公式(2)映射得到64位中間哈希值h(i,j);
[0015]
[0016] 并將中各行相加如公式(3),得到第一帖中目標(biāo)跟蹤區(qū)域的最終64位哈希值 hxi;
[0017]
口)
[001引
衰示對每一行進(jìn)行異或運算,i表示行,j表示列;
[0019] S2、將第二帖圖像分割為多個區(qū)域圖像,每個區(qū)域圖像的大小與第一帖中目標(biāo)跟 蹤區(qū)域圖像的大小相同,并根據(jù)步驟S1中的處理過程得到第二帖圖像中每個區(qū)域圖像的最 終64位圖像哈希值,并計算第二帖中每個區(qū)域圖像的最終64位圖像哈希值與第一帖中目標(biāo) 跟蹤區(qū)域的最終64位哈希值之間的漢明距離Dis;并根據(jù)計算的漢明距離Dis進(jìn)一步計算兩 者的相識度Sam為:
[0020]
[0021] 當(dāng)Sam大于預(yù)設(shè)判決口限δ時,對該區(qū)域圖像進(jìn)行動態(tài)跟蹤,并將其作為下一帖的 目標(biāo)跟蹤區(qū)域圖像;
[0022] S3、同理根據(jù)步驟S2對第i帖圖像進(jìn)行分割和處理,找到該第i帖圖像中的目標(biāo)跟 蹤區(qū)域圖像。
[0023] 本發(fā)明所述的視頻監(jiān)控中的運動目標(biāo)跟蹤方法中,δ = 0.9。
[0024] 本發(fā)明所述的視頻監(jiān)控中的運動目標(biāo)跟蹤方法中,對第一帖中目標(biāo)跟蹤區(qū)域圖像 W及其他帖中的分割后的區(qū)域圖像進(jìn)行預(yù)處理具體包括:將圖像進(jìn)行灰度化和亮度處理, 并采用雙Ξ值插值法將圖像統(tǒng)一規(guī)格化為128像素*128像素的圖像。
[0025] 本發(fā)明產(chǎn)生的有益效果是:本發(fā)明通過基于SIFT提取的特征屬于圖像的局部特 征,它對旋轉(zhuǎn)、尺度變換、亮度變化具有不變性,在噪聲攻擊及濾波方面也保持了一定的穩(wěn) 定性。對提取的特征點向量進(jìn)行壓縮,并利用聚類分析得到最終的哈希。使得該算法對于各 種圖像目標(biāo)跟蹤有較好的穩(wěn)健性。引入漢明距離來計算相似度,大大加快了運算速度,提高 了實用性。
【附圖說明】
[0026] 下面將結(jié)合附圖及實施例對本發(fā)明作進(jìn)一步說明,附圖中:
[0027] 圖1是本發(fā)明實施例視頻監(jiān)控中的運動目標(biāo)跟蹤方法的流程圖。
【具體實施方式】
[0028] 為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚明白,W下結(jié)合附圖及實施例,對 本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實施例僅用W解釋本發(fā)明,并不 用于限定本發(fā)明。
[0029] 本發(fā)明的視頻監(jiān)控中的運動目標(biāo)跟蹤方法感知哈希跟蹤算法中對目標(biāo)的跟蹤主 要分為特征提取、壓縮和映射、匹配Ξ個步驟,第一步利用SIFT提取局部特征點,將視頻中 每一帖圖像映射為特征矢量(中間哈希)。第二步利用聚類分析將中間哈希進(jìn)一步映射為最 終哈希值。對于第一步特征提取就是要捕獲圖像的感知內(nèi)容。而第二階段是信息的壓縮和 分類,強調(diào)的是整體信息的壓縮表示。第Ξ步,采用漢明距離來測度帖圖像與帖圖像之間的 相似性。
[0030] (1)對原始視頻進(jìn)行預(yù)處理,可對原始的彩色視頻中每一帖進(jìn)行灰度化和亮度處 理,需要用戶在第一帖中選定目標(biāo)區(qū)域(設(shè)為length*long);
[0031] (2)將第i帖圖像W任意分割方式做成N*length*long(不足取N化L),可采用雙Ξ 值插值法將第一帖選定的目標(biāo)區(qū)域圖像或者其他分割后的區(qū)域圖像統(tǒng)一規(guī)格化為Κ*Κ,得 到區(qū)域圖像Ik體,本發(fā)明實施例中Κ= 128。對區(qū)域圖像Ik體做SIFT特征提取。用Lowe的缺省參 數(shù)算法提取的局部特征點不是很穩(wěn)定,同時數(shù)目較多。由于SIFT特征是在多尺度空間下建 立的,隨著尺度的增大,分割后的區(qū)域圖像通過高斯卷積被平滑的程度也不斷增大。因此在 高尺度空間下能夠提取的特征點具有更強的穩(wěn)定性,同時還可W通過調(diào)整峰值口限和邊緣 口限來控制產(chǎn)生的特征點。最后得到的特征矢量為
[0032] R={Rij2R3R4,...Ri...,Rn}Rez64
[0033] 其中,Ria = l,2,3,……,n)表示第一帖中的目標(biāo)追蹤區(qū)域圖像或者第i帖的分割 區(qū)域圖像中一個特征點向量,R表示所有特征點向量的集合,Z6嗦示一個1*64維向量。
[0034] (3)利用K-means聚類分析對R進(jìn)行量化,本發(fā)明采用基于歐幾里得度量來劃分從 而決定簇類,并根據(jù)聚類結(jié)果的質(zhì)屯、點Μ大小將其所在類Ci,i = l,2,3,……,64的數(shù)值映射 為1或0如公式(2)。最后得到最終的64位哈希值:
[0035]
[0036] 利用K-means聚類分析對R進(jìn)行量化主要包括步驟:
[0037] ①先從數(shù)據(jù)庫隨機挑個隨機點當(dāng)"種子點";
[0038] ②對于每個點,我們都計算其和最近的一個"種子點"的距離D(x)并保存在一個數(shù) 組里,然后把運些距離加起來得到S皿(D(x));
[0039] ③然后,再取一個隨機值,用權(quán)重的方式來取計算下一個"種子點"。運個算法的實 現(xiàn)是,先取一個能落在Sum(D(x))中的隨機值Random,然后用Random- = D(x),直到其< = 0, 此時的點就是下一個"種子點";
[0040] ④重復(fù)前兩個步驟直到k個聚類中屯、被選出來;
[0041 ]⑤ r 邱 eat
[0042]將每個點指派到最近的質(zhì)屯、,形成K個簇,重新計算每個簇的質(zhì)屯、點,直到簇不發(fā) 生變化或達(dá)到最大迭代次數(shù)。
[0043] (4)將h(i,j)中各行相加如公式(3),得到一個1*64位的哈希值hTi。通過對特征矩 陣各行元素求和實現(xiàn)了對特征矩陣數(shù)據(jù)的壓縮的目的。其^
表示對每一行進(jìn)行異或 運算。
[0044]
(3)
[0045] (5)將第i帖圖像W任意分割方式做成N*length*long(不足取N1XL),并利用(2)~ (4)得到視頻中第i帖圖像的追蹤區(qū)域圖像(經(jīng)由i-1帖圖像得到)的最終64位圖像哈希值 hTi,然后計算hTi與下一帖的64位圖像的某一區(qū)域圖像哈希hTi+i之間的漢明距離Dis:
[0046] Dis= I Ihxi-hxi+i
[0047] 其中,符號規(guī)定為計算漢明距離運算符。
[004引(6)根據(jù)計算第i帖圖像的目標(biāo)追蹤區(qū)域圖像和下一帖的某一分割區(qū)域的64位圖 像的哈希值的漢明距離Dis進(jìn)一步計算兩個圖像的相識度Sam為:
[0049]
[0050] 其中,Sam取值在[0,1 ]之間,當(dāng)Sam大于預(yù)設(shè)判決口限δ時,此處取δ為0.9,則對該 帖圖像進(jìn)行動態(tài)跟蹤,否則,記錄任門^,直到找到h門m,m=l,2,3···..腳馬足δ條件為止,并 將滿足要求的分割圖像作為此帖中的目標(biāo)跟蹤區(qū)域圖像。
[0051] 其中,尺度不變特征變換(SIFT)是用于圖像處理領(lǐng)域的一種組合尺度不變區(qū)域檢 測的圖像局部描述子,運種描述具有尺度不變性,可在圖像中檢測出關(guān)鍵點,同時它也是一 種梯度分布描述子。所W它具有圖像旋轉(zhuǎn)和尺度變換的不可變性,同時對仿射變換、亮度變 換及噪聲等也有較好的魯棒性。
[0052] W第2帖圖像為例說明,將第2帖圖像W任意分割方式做成N*length*long(不足取 NU化),并利用(2)~(4)得到視頻中第1帖圖像的用戶選定的追蹤區(qū)域圖像的最終64位圖像 哈希值hTi,然后計算第1帖的目標(biāo)追蹤圖像的哈希值與第2帖的某一區(qū)域圖像的64位圖像的 哈希值hTi之間的漢明距離Di S:
[005;3] 0?3=||}ιτΗιτ2
[0054] 其中,符號規(guī)定為計算漢明距離運算符。
[0055] 根據(jù)計算第1帖圖像的用戶選定的追蹤區(qū)域圖像和第2帖的某一區(qū)域的64位圖像 的哈希值間漢明距離Dis進(jìn)一步計算兩個圖像的相識度Sam為:
[0化6]
[0057]其中,Sam取值在[0,1]之間,當(dāng)Sam大于預(yù)設(shè)判決口限δ時,此處取δ為0.9,輸出該 區(qū)域的圖像,并將其作為第2帖的跟蹤目標(biāo)區(qū)域圖像,記錄對應(yīng)的hT2,否則,記錄η,直 到找到柏,2,3···. .Ν滿足δ條件為止。
[0化引 W第3帖圖像為例說明,將第3帖圖像W任意分割方式做成N*length*long(不足取 N化L),并利用得到的視頻中第2帖圖像的追蹤區(qū)域圖像的最終64位圖像哈希值hT2,然后計 算hT2與下一帖的64位圖像的某一區(qū)域圖像哈希hT3。之間的漢明距離Dis,再根據(jù)計算第2帖 圖像的追蹤區(qū)域圖像和第3帖的某一區(qū)域的64位圖像的哈希值間漢明距離Dis進(jìn)一步計算 兩個圖像的相識度,當(dāng)Sam大于預(yù)設(shè)判決口限δ時,輸出該區(qū)域的圖像,并將其作為第3帖的 跟蹤目標(biāo)區(qū)域圖像,記錄對應(yīng)的hT3,否則,記錄片7' 3m,直到找到hj* 3m,m= 1,2,3· · ·. . Ν滿足 δ條件為止。
[0059] 第i帖圖像的處理和跟蹤W此類推,在此不寶述。
[0060] 本發(fā)明通過基于SIFT提取的特征屬于圖像的局部特征,它對旋轉(zhuǎn)、尺度變換、亮度 變化具有不變性,在噪聲攻擊及濾波方面也保持了一定的穩(wěn)定性。對提取的特征點向量進(jìn) 行壓縮,并利用聚類分析得到最終的哈希。使得該算法對于各種圖像目標(biāo)跟蹤有較好的穩(wěn) 健性。引入漢明距離來計算相似度,大大加快了運算速度,提高了實用性。
[0061] 應(yīng)當(dāng)理解的是,對本領(lǐng)域普通技術(shù)人員來說,可W根據(jù)上述說明加 W改進(jìn)或變換, 而所有運些改進(jìn)和變換都應(yīng)屬于本發(fā)明所附權(quán)利要求的保護(hù)范圍。
【主權(quán)項】
1. 一種視頻監(jiān)控中的運動目標(biāo)跟蹤方法,其特征在于,包括以下步驟: 51、 在第一幀圖像中選擇目標(biāo)跟蹤區(qū)域圖像并對該目標(biāo)跟蹤區(qū)域圖像進(jìn)行如下處理: 將目標(biāo)跟蹤區(qū)域的圖像統(tǒng)一規(guī)格化為128像素*128像素,得到圖像Ικ*κ;對圖像Ικ?做 SIFT特征提取,得到特征矢量為 R= {Ri,R2R3R4,…,Ri,…,Rn}REZ64 其中,Ri(i = l,2,3,......,n)表示圖像中一個特征點向量,R表示所有特征點向量的集 合,Z64表示一個1*64位向量; 利用K-means聚類分析對特征矢量R進(jìn)行量化,采用基于歐幾里得度量來劃分決定簇 類,并根據(jù)聚類結(jié)果的質(zhì)心點Mk大小將其所在類匕4 = 1,2,3,……,64的數(shù)值映射為1或0, 具體根據(jù)公式(2)映射得到64位中間哈希值h(i,j);并將h(i,j)中各行相加如公式(3),得到第一幀中目標(biāo)跟蹤區(qū)域的最終64位哈希值hTl;Σ7=α表示對每一行進(jìn)行異或運算,1表示行,j表示列; 52、 將第二幀圖像分割為多個區(qū)域圖像,每個區(qū)域圖像的大小與第一幀中目標(biāo)跟蹤區(qū) 域圖像的大小相同,并根據(jù)步驟S1中的處理過程得到第二幀圖像中每個區(qū)域圖像的最終64 位圖像哈希值,并計算第二幀中每個區(qū)域圖像的最終64位圖像哈希值與第一幀中目標(biāo)跟蹤 區(qū)域的最終64位哈希值之間的漢明距離Dis;并根據(jù)計算的漢明距離Dis進(jìn)一步計算兩者的 相識度Sam為:當(dāng)Sam大于預(yù)設(shè)判決門限δ時,對該區(qū)域圖像進(jìn)行動態(tài)跟蹤,并將其作為下一幀的目標(biāo) 跟蹤區(qū)域圖像; 53、 同理根據(jù)步驟S2對第i幀圖像進(jìn)行分割和處理,找到該第i幀圖像中的目標(biāo)跟蹤區(qū) 域圖像。2. 根據(jù)權(quán)利要求1所述的視頻監(jiān)控中的運動目標(biāo)跟蹤方法,其特征在于,δ = 0.9。3. 根據(jù)權(quán)利要求1所述的視頻監(jiān)控中的運動目標(biāo)跟蹤方法,其特征在于,對第一幀中目 標(biāo)跟蹤區(qū)域圖像以及其他幀中的分割后的區(qū)域圖像進(jìn)行預(yù)處理具體包括:將圖像進(jìn)行灰度 化和亮度處理,并采用雙三值插值法將圖像統(tǒng)一規(guī)格化為128像素*128像素的圖像。
【文檔編號】G06K9/62GK105825201SQ201610199738
【公開日】2016年8月3日
【申請日】2016年3月31日
【發(fā)明人】熊盛武, 鄭文博, 金鑫, 李棟, 曹旺
【申請人】武漢理工大學(xué)