亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種緊湊顏色編碼的結構化目標跟蹤方法

文檔序號:10489774閱讀:181來源:國知局
一種緊湊顏色編碼的結構化目標跟蹤方法
【專利摘要】本發(fā)明公開了一種緊湊顏色編碼的結構化目標跟蹤方法,通過融合候選目標區(qū)域的形狀與顏色特征,增強了目標的特征描述能力;使用哈希函數(shù)降低這種組合特征的維度,形成低維的緊湊二進制顏色編碼特征,有效的降低了跟蹤算法的計算復雜度;使用結構化分類函數(shù)提高了目標分類的精確度,增強了對非剛體目標形變、目標遮擋的處理能力,提升了目標跟蹤的性能。本方法首先對目標位置及結構化分類函數(shù)進行初始化;其次生成目標訓練樣本,并提取樣本的形狀與顏色特征;接著構建緊湊編碼特征;然后使用這些訓練樣本的緊湊編碼特征學習與更新結構化分類函數(shù);最后在當前幀生成候選目標區(qū)域,使用更新過參數(shù)的結構化分類函數(shù)估計最優(yōu)目標區(qū)域,實現(xiàn)目標跟蹤。
【專利說明】
一種緊湊顏色編碼的結構化目標跟蹤方法
技術領域
[0001 ]本發(fā)明涉及一種結構化目標跟蹤方法,特別是一種緊湊顏色編碼的結構化目標跟 蹤方法。
【背景技術】
[0002] 目標跟蹤的任務是在視頻序列的每一幀圖像中找到被跟蹤目標所處的位置并標 記出來,在軍事制導、視頻監(jiān)控、醫(yī)療診斷、產(chǎn)品檢測、虛擬現(xiàn)實等眾多領域均有重要的應用 和發(fā)展前景。由于目標自身變化的多樣性(如:目標尺寸變化、姿態(tài)旋轉、非剛體目標的形變 等)和外部環(huán)境的復雜性(如:光照、背景擾動、相似物體干擾、目標之間相互遮擋、背景對目 標的部分遮擋甚至完全遮擋等),魯棒、實時的目標跟蹤一直是一個極富挑戰(zhàn)性的問題。目 前針對視覺跟蹤的研究在某些條件下取得了良好的跟蹤效果,但對于實際場景下長視頻視 覺跟蹤中出現(xiàn)的嚴重遮擋、非剛體目標形變等問題,目標跟蹤性能仍有待提高。
[0003] 文南犬"Adaptive Color Attributes for Real-Time Visual Tracking,Martin DaneIljan et al.,2014IEEE Conference on Computer Vision and Pattern Recognition(CVPR) [C],2014:1090-1097"公開了一種自適應顏色特征的實時目標跟蹤方 法。該方法提取目標與背景區(qū)域的顏色特征,使用基于核函數(shù)的相關濾波器來區(qū)分它們,進 而實現(xiàn)視頻序列的目標跟蹤,取得較好的跟蹤效果。但文獻所述方法只簡單使用了目標像 素的顏色信息,并沒有考慮目標的形狀特征,使得特征的描述能力較弱;另外構造的基于相 關濾波器的最小二乘分類器只能進行二分類,不能精確反映目標的遮擋信息;以上問題在 復雜的實際跟蹤場景中會造成視覺跟蹤漂移,導致跟蹤性能下降。

【發(fā)明內(nèi)容】

[0004] 本發(fā)明的目的是要提供一種緊湊顏色編碼的結構化目標跟蹤方法,解決在復雜的 實際跟蹤場景中會造成視覺跟蹤漂移,導致跟蹤性能下降的問題。
[0005] 本發(fā)明的目的是這樣實現(xiàn)的:該結構化目標跟蹤方法,通過融合候選目標區(qū)域的 形狀與顏色特征,并使用哈希函數(shù)降低這種組合特征的維度,形成低維的緊湊顏色編碼特 征,進而采用結構化分類函數(shù)進行目標分類與預測,實現(xiàn)目標跟蹤;
[0006] 包括下述步驟:
[0007] 步驟一:初始化目標位置及結構化分類函數(shù);
[0008]在視頻序列的初始幀,手動的給定需要跟蹤目標的邊界框Bi =(Cl,ri,Wi,hi ),Bi用 來表示目標的位置,其中Cl,η分別表示左上角的列和行坐標,W1J1表示寬度和高度,邊界 框B t表示第t幀時目標的位置,目標位移的偏移量表示為= (Δ?5 y;由于視 頻序列中第1幀的目標位置上的邊界框已經(jīng)手動給定,跟蹤方法需要從第2幀開始跟蹤目 標,估計出準確的標識目標位置的邊界框;第t幀中目標的邊界框Bt可由以下方式得到:
[0009]
(1):
[0010] 公式⑴中的f (Xt,y) =〈W,Ψ (Xt,y)>是結構化分類函數(shù),其中以表示視頻序列中 的第t幀圖像,W(Xt,y)是一個k維的向量,表示候選目標區(qū)域的緊湊顏色編碼特征,將由步 驟三構建;參數(shù)W是一個k維的向量,使用k個介于0和1之間的隨機實數(shù)對它初始化,它將在 步驟四通過對每一幀樣本的學習進行在線更新。
[0011] 步驟二:生成目標訓練樣本,并提取樣本的形狀與顏色特征;
[0012] (2-1 )、使用密集采樣方法在真實目標邊界框附近采樣,產(chǎn)生M個目標位置偏移量, 并截取相應的圖像區(qū)域作為訓練樣本,提取這些樣本的形狀與顏色特征;
[0013] (2-2)、提取每個訓練樣本的形狀特征,使用Haar-Iike特征來描述目標的形狀信 息;
[0014] (2-3)、提取每個訓練樣本的顏色信息,與形狀特征融合為一個新的特征向量。
[0015] 步驟三:構建緊湊編碼特征;
[0016] 使用局部敏感哈希對步驟二得到的高維特征進行映射,生成緊湊顏色編碼特征向 量W(xt,y);
[0017] 當步驟二得到的特征向量的維度為d,即每個樣本的特征都是一個d維向量,若m = 100,定義由m個哈希函數(shù)ha( ·)組成的哈希函數(shù)族?,高維的d維向量映射為m(m<<d)維 的緊湊二進制編碼特征;更具體地,從d維高斯分布Λ/?0,/)中生成一個隨機向量veR"作為 超平面,則哈希函數(shù)ha v( ·)定義為:
[0018]
(2)
[0019] 其中g ER"是單個樣本通過權利要求1所述步驟二得到的特征向量,通過上述方法 構建m個哈希函數(shù),并將q依次代入這些哈希函數(shù),得到m維的二進制編碼串,即為構建的緊 湊顏色編碼特征向量,上述m個哈希函數(shù)僅在視頻序列第1幀生成,在后繼幀中將繼續(xù)使用。
[0020] 步驟四:學習與更新結構化分類函數(shù);
[0021] 使用步驟三中生成的樣本的緊湊顏色編碼特征更新公式(1)中結構化分類函數(shù)f (Xt,y)的參數(shù)W,以便使用更新后的W在新的視頻幀中估計最優(yōu)目標位置;
[0022] 目標跟蹤是一個在線更新的過程,用于處理動態(tài)的數(shù)據(jù)流,目標跟蹤方法需要從 訓練樣本中學習并更新參數(shù)以適應新的數(shù)據(jù);
[0025]其中λ為正則化系數(shù),λ = 〇.1,ξ*為松弛變量,標記代價Δ用來度量邊界框的覆蓋 率:
[0023] 將用緊湊顏色編碼特征表示的M個樣本代入公式(3),通過優(yōu)化公式(3)得到新的 參數(shù)w: (3)
[0024]
[0026] (4)
[0027] 使用次梯度下降法對上式進行迭代優(yōu)化,最終確定新的參數(shù)w的值。
[0028] 步驟五:生成候選目標區(qū)域,使用結構化分類函數(shù)估計最優(yōu)目標區(qū)域,確定目標位 置;當?shù)趖+1幀圖像到來時,跟蹤方法需要在上一幀目標出現(xiàn)位置附近采樣,使用已更新過 參數(shù)^+1結構化分類函數(shù)估計出這些樣本中分類分數(shù)最高的,這個樣本指示的區(qū)域即為最 優(yōu)目標位置;得到新的目標位置之后,再轉向步驟二繼續(xù)執(zhí)行,直至視頻序列結束;
[0029]使用如下方案:
[0030] (5-1)當上一幀計算的目標邊界框為Bt,在以(0,0)為圓心、S為半徑(S = 60)的圓 內(nèi)采樣P個偏移 >; = ().()): Δ?': + Λ/'2 < 6'2 },由Bt與采樣的P個偏移y相加(Bt+y) 得至l」P個候選目標邊界框,利用它們在當前第t+1幀圖像xt+止截取出相應的P個圖像區(qū)域作 為候選目標區(qū)域;
[0031] (5-2)所述步驟二、步驟三描述的特征生成方法,計算P個候選目標區(qū)域的緊湊顏 色編碼特征向量W(xt,y),根據(jù)上一幀目標邊界框B t與公式(1)計算的最優(yōu)偏移得出當前幀 目標的位置
[0032] 有益效果,由于采用了上述方案,通過融合候選目標區(qū)域的形狀與顏色特征,并使 用哈希函數(shù)降低這種組合特征的維度,形成低維的緊湊顏色編碼特征,進而采用結構化分 類函數(shù)進行目標分類與預測,實現(xiàn)了目標跟蹤。本方法增強了目標的特征描述能力,同時結 構化分類提高了目標分類的準確度,可有效避免視覺跟蹤漂移,提高跟蹤性能。
[0033] 由于提取了包含形狀與顏色信息的目標區(qū)域特征,增強了目標外觀的描述能力, 從根本上提高了目標跟蹤的魯棒性;使用哈希函數(shù)對高維的形狀與顏色信息進行緊湊二進 制編碼,有效的降低了跟蹤算法的計算復雜度;使用結構化分類函數(shù)提高了目標分類的精 確度,增強了對非剛體目標形變、目標遮擋的處理能力,提升了目標跟蹤的性能。
【附圖說明】:
[0034] 圖1為本發(fā)明提供的緊湊顏色編碼的結構化目標跟蹤方法的基本流程圖。
【具體實施方式】
[0035] 該結構化目標跟蹤方法,通過融合候選目標區(qū)域的形狀與顏色特征,并使用哈希 函數(shù)降低這種組合特征的維度,形成低維的緊湊顏色編碼特征,進而采用結構化分類函數(shù) 進行目標分類與預測,實現(xiàn)目標跟蹤;
[0036] 包括下述步驟:
[0037]步驟一:初始化目標位置及結構化分類函數(shù);
[0038]在視頻序列的初始幀,手動的給定需要跟蹤目標的邊界框Bi =(Ci,ri,Wi,hi ),Bi用 來表示目標的位置,其中C1,η分別表示左上角的列和行坐標,W1J1表示寬度和高度,邊界 框B t表示第t幀時目標的位置,目標位移的偏移量表示為y, e ;V ;由于視 頻序列中第1幀的目標位置上的邊界框已經(jīng)手動給定,跟蹤方法需要從第2幀開始跟蹤目 標,估計出準確的標識目標位置的邊界框;第t幀中目標的邊界框Bt可由以下方式得到:
[0039]
(1)
[0040]公式;(1)中的f (Xt,y) =〈w, ψ (Xt,y)>是結構化分類函數(shù),其中Xt表示視頻序列中 的第t幀圖像,W(xt,y)是一個k維的向量,表示候選目標區(qū)域的緊湊顏色編碼特征,將由步 驟三構建;參數(shù)w是一個k維的向量,使用k個介于0和1之間的隨機實數(shù)對它初始化,它將在 步驟四通過對每一幀樣本的學習進行在線更新。
[0041 ]步驟二:生成目標訓練樣本,并提取樣本的形狀與顏色特征;
[0042] (2-1 )、使用密集采樣方法在真實目標邊界框附近采樣,產(chǎn)生M個目標位置偏移量, 并截取相應的圖像區(qū)域作為訓練樣本,提取這些樣本的形狀與顏色特征;
[0043] (2-2)、提取每個訓練樣本的形狀特征,使用Haar-Iike特征來描述目標的形狀信 息;
[0044] (2-3)、提取每個訓練樣本的顏色信息,與形狀特征融合為一個新的特征向量。
[0045]步驟三:構建緊湊編碼特征;
[0046] 使用局部敏感哈希對步驟二得到的高維特征進行映射,生成緊湊顏色編碼特征向 量W(xt,y);
[0047] 當步驟二得到的特征向量的維度為d,即每個樣本的特征都是一個d維向量,若m = 100,定義由m個哈希函數(shù)ha( ·)組成的哈希函數(shù)族TY,高維的d維向量映射為m(m<<d)維 的緊湊二進制編碼特征;更具體地,從d維高斯分布Λ/·(0,/)中生成一個隨機向量VeRf作為 超平面,則哈希函數(shù)ha v( ·)定義為:
[0048]
(2)
[0049] 其中geK"是單個樣本通過權利要求1所述步驟二得到的特征向量,通過上述方法 構建m個哈希函數(shù),并將q依次代入這些哈希函數(shù),得到m維的二進制編碼串,即為構建的緊 湊顏色編碼特征向量,上述m個哈希函數(shù)僅在視頻序列第1幀生成,在后繼幀中將繼續(xù)使用。
[0050] 步驟四:學習與更新結構化分類函數(shù);
[0051] 使用步驟三中生成的樣本的緊湊顏色編碼特征更新公式(1)中結構化分類函數(shù)f (Xt,y)的參數(shù)W,以便使用更新后的W在新的視頻幀中估計最優(yōu)目標位置;
[0052]目標跟蹤是一個在線更新的過程,用于處理動態(tài)的數(shù)據(jù)流,目標跟蹤方法需要從 訓練樣本中學習并更新參數(shù)以適應新的數(shù)據(jù);
[0055 J 共中A為止則化糸數(shù),A = 0.l,U為松弛雙重,稱記代價Δ用米度重辺界框的覆蓋 率:
[0053]將用緊湊顏色編碼特征表示的M個樣本代入公式(3),通過優(yōu)化公式(3)得到新的 參數(shù) r (3)
[005^
[0056] (4)
[0057]使用次梯度下降法對上式進行迭代優(yōu)化,最終確定新的參數(shù)w的值。
[0058]步驟五:生成候選目標區(qū)域,使用結構化分類函數(shù)估計最優(yōu)目標區(qū)域,確定目標位 置;當?shù)趖+Ι幀圖像到來時,跟蹤方法需要在上一幀目標出現(xiàn)位置附近采樣,使用已更新過 參數(shù)^+1結構化分類函數(shù)估計出這些樣本中分類分數(shù)最高的,這個樣本指示的區(qū)域即為最 優(yōu)目標位置;得到新的目標位置之后,再轉向步驟二繼續(xù)執(zhí)行,直至視頻序列結束;
[0059] 使用如下方案:
[0060] (5-1)當上一幀計算的目標邊界框為Bt,在以(0,0)為圓心、S為半徑(S = 60)的圓 內(nèi)采樣P個偏移;>',,,=(>' = (U/? 0): Δ('2 +心:< ,由Bt與采樣的P個偏移y相加(Bt+y) 得至I」P個候選目標邊界框,利用它們在當前第t+1幀圖像xt+止截取出相應的P個圖像區(qū)域作 為候選目標區(qū)域;
[0061] (5-2)所述步驟二、步驟三描述的特征生成方法,計算P個候選目標區(qū)域的緊湊顏 色編碼特征向量W(xt,y),根據(jù)上一幀目標邊界框B t與公式(1)計算的最優(yōu)偏移得出當前幀 目標的位置盡+1 = Si + y:+1 &
[0062]為使本發(fā)明的目的、技術方案和優(yōu)點更加清楚,下面將結合附圖對本發(fā)明實施方 式作進一步地詳細描述。
[0063] 實施例1:本發(fā)明的方法具體運行的硬件和編程語言并不限制,用任何語言編寫都 可以完成。圖1為本發(fā)明所提供的方法的流程圖,具體步驟如下:
[0064] 步驟一:初始化目標位置及結構化分類函數(shù)。
[0065]在視頻序列的初始幀,手動的給定需要跟蹤目標的邊界框Bi =(Ci,ri,Wi,hi ),Bi用 來表示目標的位置,其中C1,η分別表示左上角的列和行坐標,W1J1表示寬度和高度,邊界 框B t表示第t幀時目標的位置,目標位移的偏移量表示為y, ΜΔ?,ΔΓ,,Δν^,Δ^) e I由于視 頻序列中第1幀的目標位置上的邊界框已經(jīng)手動給定,跟蹤方法需要從第2幀開始跟蹤目 標,估計出準確的標識目標位置的邊界框。第t幀中目標的邊界框B t可由以下方式得到:
[0066]

[0067] 公式(1)中的f (xt,y) =〈w, Ψ (xt,y)>是結構化分類函數(shù),其中Xt表示視頻序列中 的第t幀圖像,W(xt,y)是一個k維的向量,表示候選目標區(qū)域的緊湊顏色編碼特征,將由步 驟三構建;參數(shù)w是一個k維的向量,本發(fā)明使用k個介于0和1之間的隨機實數(shù)對它初始化, 它將在步驟四通過對每一幀樣本的學習進行在線更新。
[0068] 步驟二:生成目標訓練樣本,并提取樣本的形狀與顏色特征。
[0069] 2-1、使用密集采樣方法在真實目標邊界框附近采樣,產(chǎn)生M個目標位置偏移量,并 截取相應的圖像區(qū)域作為訓練樣本,提取這些樣本的形狀與顏色特征。
[0070] 密集采樣方法如下:當前第t幀的真實目標邊界框為Bt,因此真實的目標偏移yt = (0,0, AWt, Aht),在本發(fā)明中,固定目標大小,設置Awt = O,Aht = 0。以當前目標偏移為圓 心、s為半徑(本實例中s = 30)的圓內(nèi)采樣M個偏移>'=j>' = Δγ.0,0): Δ?·2 + Δ/ < .s'2卜根據(jù) 公式(1)的定義,可由Bt與采樣的M個偏移y相加得到M個目標邊界框,利用它們在當前第t幀 圖像xt上截取出相應的M個圖像區(qū)域作為訓練樣本。
[0071] 2-2、提取每個訓練樣本的形狀特征,本發(fā)明使用Haar-Iike特征來描述目標的形 狀信息。Haar-Iike特征是一種目標跟蹤領域常用的特征描述算子,本發(fā)明使用三種基本類 型的特征,分為兩矩形特征、三矩形特征、對角特征。分別將三類矩陣圖像區(qū)域內(nèi)一類矩形 部分的所有像素值之和減去另一類矩形部分所有像素值之和,得到的就是單個特征值,本 發(fā)明中使用積分圖加速計算這個特征值。把所有這三類特征的特征值串聯(lián)組成一個向量, 即為該圖像區(qū)域的Haar-I i ke特征。
[0072] 2-3、提取每個訓練樣本的顏色信息,與形狀特征融合為一個新的特征向量。提取 顏色信息的方法如下所述:把顏色分為11類(黑、藍、棕、灰、綠、橙、粉紅、紫、紅、白、黃),針 對上一步中Haar-Iike特征的三種矩形,統(tǒng)計每個矩形內(nèi)所有像素的RGB值映射為上述11類 顏色的概率,把11個概率值形成顏色向量,放在已求得的Haar-Iike特征之后,即形成了包 含形狀與顏色信息的新特征。顏色向量CN,以及矩形I內(nèi)所有像素的RGB值映射為11類顏色 的概率P(cm 11)由公式(2)求得:
[0073]
(2)
[0074] 其中Cn1是11類顏色中的第i類顏色,c是矩形I內(nèi)像素的坐標,N是矩形I內(nèi)的像素 總數(shù),g(c)是像素c的Lab顏色空間值,由通用顏色名映射關系可得p(cm |g(c))。
[0075]步驟三:構建緊湊編碼特征。步驟二提取的包含樣本形狀與顏色信息的特征向量 具有很高的維度,直接使用這種特征會增加目標跟蹤的計算復雜度,不利于實時跟蹤。本發(fā) 明使用局部敏感哈希對步驟二得到的高維特征進行映射,生成緊湊顏色編碼特征向量Ψ (xt,y)〇
[0076] 具體方法如下:設步驟二得到的特征向量的維度為d,即每個樣本的特征都是一個 d維向量。為了把高維的d維向量映射為m (m < < d)維的緊湊二進制編碼特征,本實例中m = 1〇〇,定義由m個哈希函數(shù)ha( ·)組成的哈希函數(shù)族K。更具體地,從d維高斯分布ΛΓ(0,/)中 生成一個隨機向量VelRrf作為超平面,則哈希函數(shù)ha v( ·)定義為:
[0077]
(3)
[0078] 其中e 是單個樣本通過步驟二得到的特征向量。通過上述方法構建m個哈希函 數(shù),并將q依次代入這些哈希函數(shù),可得到m維的二進制編碼串,即為構建的緊湊編碼特征向 量,注意上述m個哈希函數(shù)僅在視頻序列第1幀生成,在后繼幀中將繼續(xù)使用。
[0079]步驟四:學習與更新結構化分類函數(shù)。目標跟蹤是一個在線更新的過程,用于處理 動態(tài)的數(shù)據(jù)流,目標跟蹤方法需要從訓練樣本中學習并更新參數(shù)以適應新的數(shù)據(jù)。本步驟 使用步驟三中生成的樣本的緊湊顏色編碼特征更新公式(1)中結構化分類函數(shù)f( Xt,y)的 參數(shù)《,以便使用更新后的w在新的視頻幀中估計最優(yōu)目標位置。
[0082]其中λ為正則化系數(shù),本實例中λ = 〇.1,ξ*為松弛變量,標記代價Δ用來度量邊界 框的覆蓋率,定義為:
[0080] 下面詳細描述更新參數(shù)W的方法。將使用緊湊編碼特征表示的M個樣本代入公式 (4),通過優(yōu)化公式(4)得到新的參數(shù)w: (4)
[0081]
[0083]
(5)
[0084] 使用次梯度下降法對公式(4)進行迭代優(yōu)化,最終確定新的參數(shù)w的值。假設當前 幀為第t幀,公式(4)關于參數(shù)Wt的次梯度為:
[0085]
(6)
[0086] 其中3**=*(^3〇-*(&3^),1?是一個指示函數(shù),如果條件滿足返回1,否則 返回〇。這樣,第t+1幀的結構化分類函數(shù)參數(shù)W i+1 t Wi -%▽,,%= I/(At)是更新的步長,上 式可寫為:
[0087]
(7)
[0088]將步驟三計算的M個樣本的特征向量W(Xt,y)分別代入公式(7),重新計算后的 wt+i即為更新之后的結構化分類函數(shù)參數(shù)。
[0089] 步驟五:生成候選目標區(qū)域,使用結構化分類函數(shù)估計最優(yōu)目標區(qū)域,確定目標位 置。當?shù)趖+Ι幀圖像到來時,跟蹤方法需要在上一幀目標出現(xiàn)位置附近采樣,使用已更新過 參數(shù)w t+1結構化分類類函數(shù)估計出這些樣本中分類分數(shù)最高的,這個樣本指示的區(qū)域即為 最優(yōu)目標位置。得到新的目標位置之后,再轉向步驟二繼續(xù)執(zhí)行,直至視頻序列結束。具體 方法如下所述:
[0090] 5-1、假設上一幀計算的目標邊界框為Bt,在以(0,0)為圓心、S為半徑(本實例中S =60)的圓內(nèi)采樣P個偏移= {y =(仏Ar, 0 0). + Ar2 <妒$,可由Bt與采樣的P個偏移y 相加(Bt+y)得到P個候選目標邊界框,利用它們在當前第t+Ι幀圖像xt+止截取出相應的P個 圖像區(qū)域作為候選目標區(qū)域。
[0091] 5-2、使用步驟二、三描述的特征生成方法,計算P個候選目標區(qū)域的緊湊顏色編碼 特征向量W( Xt,y),利用公式(8)計算最優(yōu)偏移<+1:
[0092]
(8)
[0093] 可根據(jù)上一幀目標邊界框Bt與公式(8)計算的最優(yōu)偏移得出當前幀目標的位置 盡.a=爲 + 。
【主權項】
1. 一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:該結構化目標跟蹤方法,通過 融合候選目標區(qū)域的形狀與顏色特征,并使用哈希函數(shù)降低運種組合特征的維度,形成低 維的緊湊顏色編碼特征,進而采用結構化分類函數(shù)進行目標分類與預測,實現(xiàn)目標跟蹤;所 述方法包括W下步驟: 步驟一:初始化目標位置及結構化分類函數(shù); 步驟二:生成目標訓練樣本,并提取樣本的形狀與顏色特征; 步驟Ξ:構建緊湊編碼特征;使用局部敏感哈希對步驟二得到的高維特征進行映射,生 成緊湊顏色編碼特征向量; 步驟四:學習與更新結構化分類函數(shù);使用步驟Ξ中生成的樣本的緊湊顏色編碼特征 更新結構化分類函數(shù)的參數(shù),W便使用更新后的在新的視頻帖中估計最優(yōu)目標位置; 步驟五:生成候選目標區(qū)域,使用結構化分類函數(shù)估計最優(yōu)目標區(qū)域,確定目標位置; 當新一帖圖像到來時,跟蹤方法需要在上一帖目標出現(xiàn)位置附近采樣,使用已更新過參數(shù) 結構化分類函數(shù)估計出運些樣本中分類分數(shù)最高的,運個樣本指示的區(qū)域即為最優(yōu)目標位 置;得到新的目標位置之后,再轉向步驟二繼續(xù)執(zhí)行,直至視頻序列結束。2. 根據(jù)權利要求1所述的一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:所述步 驟一中,在視頻序列的初始帖,手動的給定需要跟蹤目標的邊界框Bi = (C1,ri,W1,hi),Bi用 來表示目標的位置,其中Cl, ri分別表示左上角的列和行坐標,wi,hi表示寬度和高度,邊界 框化表示第t帖時目標的位置,目標位移的偏移量表示為y, =(Δ?,心;,Aw,,A/?,)e3;;由于視 頻序列中第1帖的目標位置上的邊界框已經(jīng)手動給定,跟蹤方法需要從第2帖開始跟蹤目 標,估計出準確的標識目標位置的邊界框;第t帖中目標的邊界框Bt可由W下方式得到:(1) 公式(1)中的f(xt,y) =〈w,Ψ(xt,y)〉是結構化分類函數(shù),其中xt表示視頻序列中的第t 帖圖像,W(xt,y)是一個k維的向量,表示候選目標區(qū)域的緊湊顏色編碼特征,將由步驟Ξ 構建;參數(shù)W是一個k維的向量,使用k個介于0和1之間的隨機實數(shù)對它初始化,它將在步驟 四通過對每一帖樣本的學習進行在線更新。3. 根據(jù)權利要求1所述的一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:所述步 驟二中, (2-1 )、使用密集采樣方法在真實目標邊界框附近采樣,產(chǎn)生Μ個目標位置偏移量,并截 取相應的圖像區(qū)域作為訓練樣本,提取運些樣本的形狀與顏色特征; (2-2)、提取每個訓練樣本的形狀特征,使用化ar-1化e特征來描述目標的形狀信息; (2-3)、提取每個訓練樣本的顏色信息,與形狀特征融合為一個新的特征向量。4. 根據(jù)權利要求1所述的一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:所述步 驟Ξ中,當步驟二得到的特征向量的維度為d,即每個樣本的特征都是一個d維向量,若m = 100,定義由m個哈希函數(shù)ha( ·)組成的哈希函數(shù)族W,高維的d維向量映射為m(m<<d)維 的緊湊二進制編碼特征;更具體地,從d維高斯分布八所,。中生成一個隨機向量ve吸Μ乍為 超平面,則哈希函數(shù)hav( ·)定義為:(2) 其中呀e?4是單個樣本通過權利要求1所述步驟二得到的特征向量,通過上述方法構建 m個哈希函數(shù),并將q依次代入運些哈希函數(shù),得到m維的二進制編碼串,即為構建的緊湊顏 色編碼特征向量,上述m個哈希函數(shù)僅在視頻序列第1帖生成,在后繼帖中將繼續(xù)使用。5. 根據(jù)權利要求1所述的一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:所述步 驟四中,將用緊湊顏色編碼特征表示的Μ個樣本代入公式(3),通過優(yōu)化公式(3)得到新的參 數(shù)W:其中λ為正則化系數(shù),λ = 〇.1,ξ*為松弛變量,標記代價Δ用來度量邊界框的覆蓋率:(4) 使用次梯度下降法對上式進行迭代優(yōu)化,最終確定新的參數(shù)W的值。6. 根據(jù)權利要求1所述的一種緊湊顏色編碼的結構化目標跟蹤方法,其特征是:所述步 驟五中: (5-1)當上一帖計算的目標邊界框為Bt,在W(0,0)為圓屯、、S為半徑(S = 60)的圓內(nèi)采樣 ?個偏移:>',,1 = '{>' =(么(',心'.().0):么('2+心'^'^^;},由恥與采樣的口個偏移7相加瓜+7)得至化個 候選目標邊界框,利用它們在當前第t+1帖圖像XW上截取出相應的P個圖像區(qū)域作為候選 目標區(qū)域; (5-2)所述步驟二、步驟Ξ描述的特征生成方法,計算P個候選目標區(qū)域的緊湊顏色編 碼特征向量W(xt,y),根據(jù)上一帖目標邊界框Bt與公式(1)計算的最優(yōu)偏移得出當前帖目標 的位置馬.4=瑪+抗。
【文檔編號】G06T7/20GK105844667SQ201610178939
【公開日】2016年8月10日
【申請日】2016年3月25日
【發(fā)明人】姚睿, 孫金亮, 崔哲
【申請人】中國礦業(yè)大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1