亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于特征塊優(yōu)選的運動目標(biāo)跟蹤方法與流程

文檔序號:11231950閱讀:841來源:國知局
基于特征塊優(yōu)選的運動目標(biāo)跟蹤方法與流程

本發(fā)明屬于計算機(jī)技術(shù)領(lǐng)域,更進(jìn)一步涉及計算機(jī)視覺跟蹤技術(shù)領(lǐng)域中的一種基于特征塊優(yōu)選的運動目標(biāo)跟蹤方法。本發(fā)明可以用于對視頻場景中的車輛、坦克、行人等運動目標(biāo)進(jìn)行實時跟蹤。



背景技術(shù):

運動目標(biāo)跟蹤方法主要分為單目標(biāo)跟蹤與多目標(biāo)跟蹤。單目標(biāo)跟蹤主要對視頻場景中感興趣的單個目標(biāo)持續(xù)跟蹤,獲得目標(biāo)在視頻每一幀中的位置。多目標(biāo)跟蹤只要對視頻場景中多個目標(biāo)進(jìn)行跟蹤。近幾年,跟蹤性能比較高的運動目標(biāo)跟蹤方法主要有struck、kcf、stc等跟蹤方法。struck將跟蹤問題轉(zhuǎn)化為分類問題,在線訓(xùn)練樣本來更新目標(biāo)模型,然而訓(xùn)練的樣本和實際目標(biāo)并不一定一致,從而影響分類效果。kcf跟蹤器采用核化相關(guān)濾波方法,利用循環(huán)矩陣和傅里葉變換完成樣本的訓(xùn)練,獲得高效的目標(biāo)分類器,然而該方法不能應(yīng)對目標(biāo)遮擋,在目標(biāo)發(fā)生遮擋時,容易造成跟蹤失敗。stc跟蹤算法對目標(biāo)和它上下文的空間關(guān)系進(jìn)行建模,該方法可以很好的應(yīng)對目標(biāo)遮擋問題。視覺目標(biāo)跟蹤普遍存在場景光照復(fù)雜、目標(biāo)遮擋、尺度變化、目標(biāo)形變等問題,導(dǎo)致跟蹤算法的精度、魯棒性不高。

浙江生輝照明有限公司在其申請的專利文獻(xiàn)“一種基于核化相關(guān)濾波高速自動多目標(biāo)跟蹤”(專利申請?zhí)?01410418797.7,公開號cn104200237a)中公開了一種基于核化相關(guān)濾波高速自動多目標(biāo)跟蹤方法。該方法采用嶺回歸訓(xùn)練方案,通過加速傅里葉變換訓(xùn)練目標(biāo)樣本獲得分類器,完成對大量樣本的快速訓(xùn)練,獲得高性能的目標(biāo)分類器。但是,該方法依然存在的不足之處是,沒有考慮在連續(xù)幀上目標(biāo)發(fā)生遮擋的問題,在目標(biāo)發(fā)生遮擋時,容易造成跟蹤失敗,從而不能長時間持續(xù)跟蹤目標(biāo)。

山東大學(xué)在其申請的專利文獻(xiàn)“一種新型的基于分塊策略的視頻跟蹤方法”(專利申請?zhí)?01510471102.6,公開號cn105139418a)中公開了一種新型的基于分塊策略的視頻跟蹤方法。該方法將目標(biāo)區(qū)域分成若干個小塊,利用每一個小塊的顏色直方圖與周圍的小塊的顏色直方圖來比較,判斷目標(biāo)是否發(fā)生遮擋,當(dāng)發(fā)生遮擋時,在后面的粒子濾波算法中降低該塊的權(quán)重,降低遮擋對目標(biāo)跟蹤造成的影響。但是,該方法依然存在的不足之處是,顏色直方圖的魯棒性不高,在發(fā)生關(guān)照變化時,容易丟失目標(biāo),造成跟蹤失敗。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于克服上述現(xiàn)有技術(shù)存在的不足,提出了一種基于特征塊優(yōu)選的運動目標(biāo)跟蹤方法。

實現(xiàn)本發(fā)明的思路是,基于特征點并利用光流跟蹤獲得特征點對,根據(jù)兩個特征點判斷準(zhǔn)則篩選特征點,從而獲得有效塊。利用核化相關(guān)濾波kcf得到響應(yīng)圖、峰值旁瓣比psr以及目標(biāo)分類器,以響應(yīng)圖作為特征點的權(quán)重,進(jìn)而得到平移變化和尺度變化。通過峰值旁瓣比psr判斷,獲得目標(biāo)的遮擋狀態(tài),依據(jù)遮擋狀態(tài)采用相應(yīng)不同的策略,從而完成對目標(biāo)持續(xù)魯棒性跟蹤,提高算法應(yīng)對遮擋和尺度變化的能力,增強(qiáng)算法的魯棒性和精度。

為了實現(xiàn)上述目的,本發(fā)明的具體步驟如下包括:

(1)從視頻攝像頭中讀取待跟蹤的運動目標(biāo)視頻:

(2)初始化:

(2a)從待跟蹤的運動目標(biāo)視頻中讀入第一幀圖像;

(2b)在待跟蹤的第一幀圖像上用鼠標(biāo)框出待跟蹤的運動目標(biāo);

(2c)利用分塊方法,對待跟蹤的運動目標(biāo)區(qū)域進(jìn)行分塊,得到運動目標(biāo)區(qū)域的子塊區(qū)域;

(2d)利用特征檢測器fast,從待跟蹤的第一幀圖像運動目標(biāo)區(qū)域的每一個子塊中檢測特征點,將檢測到的所有特征點作為初始化特征點;

(2e)采用核化相關(guān)濾波跟蹤器kcf訓(xùn)練樣本的方法,訓(xùn)練目標(biāo)區(qū)域樣本,得到第一幀圖像上運動目標(biāo)區(qū)域的分類器,將目標(biāo)區(qū)域分類器作為初始化運動目標(biāo)區(qū)域分類器;

(3)檢測特征點:

(3a)從待跟蹤的運動目標(biāo)視頻中任意讀入一幀圖像;

(3b)利用分塊方法,在所讀入幀圖像上對得到的運動目標(biāo)區(qū)域進(jìn)行分塊,得到所讀入幀圖像上運動目標(biāo)區(qū)域的子塊區(qū)域;

(3c)利用特征檢測器fast,檢測運動目標(biāo)區(qū)域的每一個子塊區(qū)域,得到每一個子塊區(qū)域的特征點;

(4)篩選特征點:

(4a)利用光流向前跟蹤方法,在當(dāng)前讀入的圖像幀上的所有特征點中,找到與上一次讀入的圖像幀上特征一一對應(yīng)的特征點,組成一個特征點對,將所有的特征點對構(gòu)成一個特征點集,存到當(dāng)前讀入的圖像幀中;

(4b)按照下式,計算特征點集中的每一對特征點的向前向后誤差:

其中,表示當(dāng)前讀入的圖像幀中第l子塊區(qū)域第k個特征點對的向前向后誤差,表示當(dāng)前讀入的圖像幀c中第l子塊區(qū)域第k個特征點,表示與對應(yīng)的在上一次讀入的圖像幀b中第l子塊區(qū)域第k個特征點,形成一對特征點,l=1,2,…,m,k=1,2,…,ql,c表示當(dāng)前幀,b表示上一幀,m表示運動目標(biāo)區(qū)域所分的子塊總數(shù),ql表示第l子塊區(qū)域中特征點的總數(shù);

(4c)按照下式,計算特征點集中的每一對特征點歸一化誤差:

其中,表示當(dāng)前讀入的圖像幀上第l子塊區(qū)域第k個特征點對的歸一化誤差,ql表示第l子塊區(qū)域特征點的總數(shù),μb(l)和δb(l)表示上一次當(dāng)前讀入的圖像幀b上的第l子塊區(qū)域內(nèi)所有特征點像素的均值和標(biāo)準(zhǔn)差,μc(l)和δc(l)表示當(dāng)前讀入的圖像幀c上的第l子塊區(qū)域內(nèi)所有特征點的像素的均值和標(biāo)準(zhǔn)差;

(4d)按照下式,計算所有特征點的歸一化誤差均值;

其中,μ表示所有特征點的歸一化誤差均值,m表示運動目標(biāo)區(qū)域所分的子塊區(qū)域數(shù)目,ql表示第l子塊中的跟蹤點對的數(shù)目總數(shù);

(4e)從特征點中選取所有滿足劃分條件的的特征點,將滿足劃分條件的特征點歸入可靠特征點集;

(5)獲得優(yōu)選特征塊:

(5a)從子塊區(qū)域中選取所有滿足精度條件的子塊,將子塊歸入優(yōu)選塊集中;

(5b)合并優(yōu)選塊集中的所有特征點,獲得優(yōu)選特征點集;

(6)計算目標(biāo)區(qū)域的響應(yīng)圖和峰值旁瓣比:

(6a)利用目標(biāo)區(qū)域分類器檢測目標(biāo)區(qū)域,得到目標(biāo)區(qū)域的響應(yīng)圖,以該響應(yīng)圖作為特征點的權(quán)重;

(6b)按照下式,計算目標(biāo)區(qū)域的響應(yīng)圖的峰值旁瓣比;

其中,psr(o)表示目標(biāo)區(qū)域o的響應(yīng)圖的峰值旁瓣比,max(r(o))表示響應(yīng)圖r(o)的最大值,μ(r(o))表示響應(yīng)圖r(o)的均值,標(biāo)準(zhǔn)差σ(r(o))表示響應(yīng)圖r(o)的標(biāo)準(zhǔn)差;

(7)更新目標(biāo)區(qū)域狀態(tài);

(7a)按照下式,計算目標(biāo)區(qū)域的尺度變化;

其中,s(ic)表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的尺度變化,表示當(dāng)前讀入的圖像幀上優(yōu)選特征點集中的特征點,表示上一次讀入的圖像幀上優(yōu)選特征點集中的特征點,wi、wj表示優(yōu)選特征點集中的特征點的權(quán)重;

(7b)按照下式,計算目標(biāo)區(qū)域的尺寸;

wc=wb*s(ic)

hc=hb*s(ic)

其中,wc表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的寬,hc表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的高,wb表示上一次讀入的圖像幀上目標(biāo)區(qū)域的寬,hb表示上一次讀入的圖像幀上目標(biāo)區(qū)域的高;

(7c)按照下式,計算目標(biāo)區(qū)域的平移變化:

其中,d(ic)表示當(dāng)前所讀入的圖像幀上目標(biāo)區(qū)域的平移變化,η表示變換因子一般取0.35,d(ib)表示上一次讀入的圖像幀上目標(biāo)區(qū)域的平移變化,wi表示對應(yīng)可靠特征點的權(quán)值,表示對應(yīng)于當(dāng)前讀入的圖像幀上第i個可靠特征點的坐標(biāo),u表示特征點的橫坐標(biāo),v表示特征點的縱坐標(biāo),表示對應(yīng)于上一次讀入的圖像幀上第i個可靠特征點的坐標(biāo);

(7d)按照下式,計算目標(biāo)區(qū)域位置:

cc=cb+d(ic)

其中,cc表示當(dāng)前讀入圖像幀上目標(biāo)的位置,cb表示上一次讀入圖像幀上目標(biāo)的位置;

(7e)利用目標(biāo)區(qū)域的尺寸和目標(biāo)區(qū)域位置,更新當(dāng)前讀入圖像幀上的目標(biāo)區(qū)域狀態(tài);

(8)更新目標(biāo)區(qū)域分類器;

(8a)使用核化相關(guān)濾波方法kcf訓(xùn)練目標(biāo)區(qū)域樣本,得到當(dāng)前讀入的圖像幀上運動目標(biāo)區(qū)域的分類器;

(8b)判斷目標(biāo)區(qū)域分類器是否滿足更新條件,若是,則執(zhí)行(8c),否則,執(zhí)行(8d);

(8c)目標(biāo)區(qū)域未發(fā)生遮擋,更新目標(biāo)區(qū)域分類器,用步驟(8a)得到的當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的分類器替換上一次讀入的圖像幀上得到的目標(biāo)區(qū)域分類器;

(8d)目標(biāo)區(qū)域發(fā)生遮擋,不更新目標(biāo)分類器,保持上一次讀入的圖像幀上得到的目標(biāo)區(qū)域分類器不變;

(9)將目標(biāo)區(qū)域狀態(tài)信息,以矩形框的形式輸出到所讀入幀圖像中;

(10)判斷是否讀完待跟蹤視頻的所有幀,若是,則執(zhí)行步驟(11),否則,執(zhí)行步驟(3);

(11)結(jié)束運動目標(biāo)的跟蹤。

本發(fā)明與現(xiàn)有技術(shù)相比具有以下優(yōu)點

第一,由于本發(fā)明采用特征檢測器fast檢測特征點,克服了現(xiàn)有技術(shù)特征點描述能力不足,檢測速度慢的問題,使得本發(fā)明在運動目標(biāo)跟蹤過程中具有很好的實時性。

第二,由于本發(fā)明采用目標(biāo)區(qū)域分塊方法,克服了現(xiàn)有技術(shù)中不能應(yīng)對目標(biāo)遮擋下的跟蹤,使得本發(fā)明能夠在遮擋下很好的跟蹤運動目標(biāo)。

第三,由于本發(fā)明采用目標(biāo)區(qū)域分類器檢測圖像獲得特征點權(quán)重的方法,客服了現(xiàn)有技術(shù)中特征點權(quán)重不精確描述的問題,使得本發(fā)明獲得能夠獲得高精度的目標(biāo)尺寸。

第四,由于本發(fā)明采用光流向前跟蹤方法,客服現(xiàn)有技術(shù)中特征點跟蹤精度低的問題,使得本發(fā)明能夠高精度的運動目標(biāo)位移。

附圖說明

圖1為本發(fā)明的流程圖;

圖2為本發(fā)明仿真實驗中對davidce3視頻序列中運動目標(biāo)跟蹤的中心位置誤差曲線對比圖;

圖3為本發(fā)明仿真實驗中對davidce3視頻序列中運動目標(biāo)跟蹤的重疊率曲線對比圖;

圖4為本發(fā)明仿真實驗中對jogging視頻序列中運動目標(biāo)跟蹤的中心位置誤差曲線對比圖;

圖5為本發(fā)明對仿真實驗中jogging視頻序列中運動目標(biāo)跟蹤的重疊率曲線對比圖;

圖6為本發(fā)明仿真實驗中對car視頻序列中運動目標(biāo)跟蹤的中心位置誤差曲線對比圖;

圖7為本發(fā)明仿真實驗中對car視頻序列中運動目標(biāo)跟蹤的重疊率曲線對比圖。

具體實施方式

下面結(jié)合附圖對本發(fā)明做進(jìn)一步的描述。

參照圖1,對本發(fā)明的具體步驟做進(jìn)一步的描述。

步驟1,從視頻攝像頭中讀取待跟蹤的運動目標(biāo)視頻。

步驟2,初始化。

從待跟蹤的運動目標(biāo)視頻中讀入第一幀圖像。

在待跟蹤的第一幀圖像上用鼠標(biāo)框出待跟蹤的運動目標(biāo)。

利用分塊方法,對待跟蹤的運動目標(biāo)區(qū)域進(jìn)行分塊,得到運動目標(biāo)區(qū)域的子塊區(qū)域。

第一步,依據(jù)目標(biāo)區(qū)域能夠分成整數(shù)個子塊區(qū)域的標(biāo)準(zhǔn),子塊區(qū)域邊長是大于等于10個像素,將待跟蹤的運動目標(biāo)區(qū)域的四個邊界同時擴(kuò)展,得到擴(kuò)展運動目標(biāo)區(qū)域。

第二步,對擴(kuò)展運動目標(biāo)區(qū)域分塊,得到運動目標(biāo)區(qū)域的子塊區(qū)域,子塊區(qū)域是邊長大于等于10個像素的正方形區(qū)域,且每一個子塊區(qū)域大小相同。

利用特征檢測器fast,從待跟蹤的第一幀圖像運動目標(biāo)區(qū)域的每一個子塊中檢測特征點,將檢測到的所有特征點作為初始化特征點。

采用核化相關(guān)濾波跟蹤器kcf訓(xùn)練樣本的方法,訓(xùn)練目標(biāo)區(qū)域樣本,得到第一幀圖像上運動目標(biāo)區(qū)域的分類器,將目標(biāo)區(qū)域分類器作為初始化運動目標(biāo)區(qū)域分類器。

步驟3,檢測特征點。

從待跟蹤的運動目標(biāo)視頻中任意讀入一幀圖像。

利用分塊方法,在所讀入幀圖像上對得到的運動目標(biāo)區(qū)域進(jìn)行分塊,得到所讀入幀圖像上運動目標(biāo)區(qū)域的子塊區(qū)域。

第一步,依據(jù)目標(biāo)區(qū)域能夠分成整數(shù)個子塊區(qū)域的標(biāo)準(zhǔn),子塊區(qū)域邊長是大于等于10個像素,將待跟蹤的運動目標(biāo)區(qū)域的四個邊界同時擴(kuò)展,得到擴(kuò)展運動目標(biāo)區(qū)域。

第二步,對擴(kuò)展運動目標(biāo)區(qū)域分塊,得到運動目標(biāo)區(qū)域的子塊區(qū)域,子塊區(qū)域是邊長大于等于10個像素的正方形區(qū)域,且每一個子塊區(qū)域大小相同。

利用特征檢測器fast,檢測運動目標(biāo)區(qū)域的每一個子塊區(qū)域,得到每一個子塊區(qū)域的特征點。

步驟4,篩選特征點。

利用光流向前跟蹤方法,在當(dāng)前讀入的圖像幀上的所有特征點中,找到與上一次讀入的圖像幀上特征一一對應(yīng)的特征點,組成一個特征點對,將所有的特征點對構(gòu)成一個特征點集,存到當(dāng)前讀入的圖像幀中。

按照下式,計算特征點集中的每一對特征點的向前向后誤差:

其中,表示當(dāng)前讀入的圖像幀中第l子塊區(qū)域第k個特征點對的向前向后誤差,表示當(dāng)前讀入的圖像幀c中第l子塊區(qū)域第k個特征點,表示與對應(yīng)的在上一次讀入的圖像幀b中第l子塊區(qū)域第k個特征點,形成一對特征點,l=1,2,…,m,k=1,2,…,ql,c表示當(dāng)前幀,b表示上一幀,m表示運動目標(biāo)區(qū)域所分的子塊總數(shù),ql表示第l子塊區(qū)域中特征點的總數(shù)。

按照下式,計算特征點集中的每一對特征點歸一化誤差:

其中,表示當(dāng)前讀入的圖像幀上第l子塊區(qū)域第k個特征點對的歸一化誤差,ql表示第l子塊區(qū)域特征點的總數(shù),μb(l)和δb(l)表示上一次當(dāng)前讀入的圖像幀b上的第l子塊區(qū)域內(nèi)所有特征點像素的均值和標(biāo)準(zhǔn)差,μc(l)和δc(l)表示當(dāng)前讀入的圖像幀c上的第l子塊區(qū)域內(nèi)所有特征點的像素的均值和標(biāo)準(zhǔn)差。

按照下式,計算所有特征點的歸一化誤差均值;

其中,μ表示所有特征點的歸一化誤差均值,m表示運動目標(biāo)區(qū)域所分的子塊區(qū)域數(shù)目,ql表示第l子塊中的跟蹤點對的數(shù)目總數(shù)。

從特征點中選取所有滿足劃分條件的的特征點,將滿足劃分條件的特征點歸入可靠特征點集,所述的劃分條件是指:

ncc(plk)>μ且fb(plk)<qfb

其中,qfb表示特征點的先前向后誤差閾值,根據(jù)目標(biāo)移動速度或者相機(jī)移動速度而定,可取8~12中的整數(shù),移動速度小,該值越小,反之,該值越大。

步驟5,獲得優(yōu)選特征塊。

從子塊區(qū)域中選取所有滿足精度條件的子塊,將子塊歸入優(yōu)選塊集中。

合并優(yōu)選塊集中的所有特征點,獲得優(yōu)選特征點集。

步驟6,計算目標(biāo)區(qū)域的響應(yīng)圖和峰值旁瓣比。

利用目標(biāo)區(qū)域分類器檢測目標(biāo)區(qū)域,得到目標(biāo)區(qū)域的響應(yīng)圖,以該響應(yīng)圖作為特征點的權(quán)重。

按照下式,計算目標(biāo)區(qū)域的響應(yīng)圖的峰值旁瓣比。

其中,psr(o)表示目標(biāo)區(qū)域o的響應(yīng)圖的峰值旁瓣比,max(r(o))表示響應(yīng)圖r(o)的最大值,μ(r(o))表示響應(yīng)圖r(o)的均值,標(biāo)準(zhǔn)差σ(r(o))表示響應(yīng)圖r(o)的標(biāo)準(zhǔn)差。

步驟7,更新目標(biāo)區(qū)域狀態(tài)。

按照下式,計算目標(biāo)區(qū)域的尺度變化;

其中,s(ic)表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的尺度變化,表示當(dāng)前讀入的圖像幀上優(yōu)選特征點集中的特征點,表示上一次讀入的圖像幀上優(yōu)選特征點集中的特征點,wi、wj表示優(yōu)選特征點集中的特征點的權(quán)重;

按照下式,計算目標(biāo)區(qū)域的尺寸;

wc=wb*s(ic)

hc=hb*s(ic)

其中,wc表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的寬,hc表示當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的高,wb表示上一次讀入的圖像幀上目標(biāo)區(qū)域的寬,hb表示上一次讀入的圖像幀上目標(biāo)區(qū)域的高;

按照下式,計算目標(biāo)區(qū)域的平移變化:

其中,d(ic)表示當(dāng)前所讀入的圖像幀上目標(biāo)區(qū)域的平移變化,η表示變換因子一般取0.35,d(ib)表示上一次讀入的圖像幀上目標(biāo)區(qū)域的平移變化,wi表示對應(yīng)可靠特征點的權(quán)值,表示對應(yīng)于當(dāng)前讀入的圖像幀上第i個可靠特征點的坐標(biāo),u表示特征點的橫坐標(biāo),v表示特征點的縱坐標(biāo),表示對應(yīng)于上一次讀入的圖像幀上第i個可靠特征點的坐標(biāo)。

按照下式,計算目標(biāo)區(qū)域位置:

cc=cb+d(ic)

其中,cc表示當(dāng)前讀入圖像幀上目標(biāo)的位置,cb表示上一次讀入圖像幀上目標(biāo)的位置;

利用目標(biāo)區(qū)域的尺寸和目標(biāo)區(qū)域位置,更新當(dāng)前讀入圖像幀上的目標(biāo)區(qū)域狀態(tài)。

步驟8,更新目標(biāo)區(qū)域分類器。

使用核化相關(guān)濾波方法kcf訓(xùn)練目標(biāo)區(qū)域樣本,得到當(dāng)前讀入的圖像幀上運動目標(biāo)區(qū)域的分類器;

(8b)判斷目標(biāo)區(qū)域分類器是否滿足更新條件,若是,則執(zhí)行(8c),否則,執(zhí)行(8d),所述的更新條件是指:

psr(o)≥t

其中,t表示更新閾值,根據(jù)目標(biāo)大小和在相機(jī)視場中的移動速度決定,取20~30中的整數(shù),目標(biāo)越小,該值越小,目標(biāo)越大,該值越大,目標(biāo)運動速度越快,該值越大,目標(biāo)運動速度越慢,該值越??;

(8c)目標(biāo)區(qū)域未發(fā)生遮擋,更新目標(biāo)區(qū)域分類器,用當(dāng)前讀入的圖像幀上目標(biāo)區(qū)域的分類器替換上一次讀入的圖像幀上得到的目標(biāo)區(qū)域分類器;

(8d)目標(biāo)區(qū)域發(fā)生遮擋,不更新目標(biāo)分類器,保持上一次讀入的圖像幀上得到的目標(biāo)區(qū)域分類器不變;

步驟9,輸出目標(biāo)區(qū)域狀態(tài)信息。

將目標(biāo)區(qū)域狀態(tài)信息,以框的形式輸出到當(dāng)前所讀入的一幀圖像上。

步驟10,判斷是否讀完所有的幀,若是,則執(zhí)行步驟3,否則,執(zhí)行步驟11。

步驟11,運動目標(biāo)跟蹤結(jié)束。

下面結(jié)合本發(fā)明的仿真實驗對本發(fā)明扥效果做進(jìn)一步的說明。

1、仿真條件:

本發(fā)明的仿真實驗是在amda10-6700,4gb內(nèi)存的電腦上采用vs2010和opencv2.4.4軟件進(jìn)行的。仿真實驗采用的視頻是,標(biāo)準(zhǔn)測試視頻集visualtrackerbenchmarkdataset2013。

2、仿真內(nèi)容:

將本發(fā)明的跟蹤器our與三個現(xiàn)有技術(shù)進(jìn)行仿真,該三個現(xiàn)有技術(shù)采用的目標(biāo)跟蹤算法是kcf方法、struck方法、stc方法,分別進(jìn)行了三組仿真。

第一組仿真實驗,利用本發(fā)明和三個現(xiàn)有技術(shù)對davidce3視頻進(jìn)行中心位置誤差和重疊率的仿真,得到四條目標(biāo)中心位置誤差曲線如圖2所示,得到四條目標(biāo)區(qū)域重疊率曲線如圖3所示。

第二組仿真實驗,利用本發(fā)明和三個現(xiàn)有技術(shù)對jogging視頻進(jìn)行中心位置誤差和重疊率的仿真,得到四條目標(biāo)中心位置誤差曲線如圖4所示,得到四條目標(biāo)區(qū)域重疊率曲線如圖5所示。

第三組仿真實驗,利用本發(fā)明和三個現(xiàn)有技術(shù)對carscale視頻進(jìn)行中心位置誤差和重疊率的仿真,得到四條目標(biāo)中心位置誤差曲線如圖6所示,得到四條目標(biāo)區(qū)域重疊率曲線如圖7所示。

3、仿真結(jié)果分析:

圖2,圖3,圖4,圖5,圖6,圖7中以標(biāo)示的曲線表示kcf方法的跟蹤結(jié)果的精度曲線,以“+++”標(biāo)示的曲線表示struck方法的跟蹤結(jié)果的精度曲線,以“______”標(biāo)示的曲線表示stc方法的跟蹤結(jié)果的精度曲線,以“”標(biāo)示的曲線表示本發(fā)明的跟蹤結(jié)果的精度曲線。圖2,圖4,圖6的橫坐標(biāo)表示幀數(shù),縱坐標(biāo)表示中心位置誤差值。圖3,圖5,圖7的橫坐標(biāo)表示幀數(shù),縱坐標(biāo)表示目標(biāo)區(qū)域重疊率。

由圖2可見,本發(fā)明和kcf方法一直保持較低的目標(biāo)中心位置誤差率,struck方法的目標(biāo)中心位置誤差經(jīng)歷一個增大和降低的過程,stc方法的目標(biāo)中心位置誤差逐漸增大。由圖3可見,本發(fā)明、struck方法和kcf方法的目標(biāo)區(qū)域重疊率都經(jīng)歷一個降低又回升過程,stc方法的目標(biāo)重疊率一直降低。本發(fā)明和現(xiàn)有三個技術(shù)跟蹤的運動目標(biāo)是視頻中的行人,由于在第100幀到第160幀行人經(jīng)過電線桿發(fā)生了遮擋,struck方法直接跟蹤失敗,但是在后面又逐漸恢復(fù)跟蹤,stc方法發(fā)生跟蹤失敗,并且沒有恢復(fù)跟蹤,綜合來看,本發(fā)明的跟蹤精度較高,能夠更好的應(yīng)對目標(biāo)遮擋。

由圖4可見,本發(fā)明和kcf方法維持較低中心位置誤差持續(xù)跟蹤,stc方法和struck方法的中心位置誤差逐漸增大。由圖5可見,本發(fā)明和kcf方法的目標(biāo)區(qū)域重疊率維持較高水平,但是kcf方法的中心位置誤差有一個降低和回升的過程,stc方法和struck方法的目標(biāo)區(qū)域重疊率逐漸降低,一直降低到0。本發(fā)明和現(xiàn)有三個技術(shù)跟蹤的運動目標(biāo)是視頻中穿白色短袖的人,由于在第48幀時,行人被電線桿完全遮擋,導(dǎo)致stc方法和struck方法迅速發(fā)生跟蹤失敗,并且從失敗沒有恢復(fù),kcf方法的跟蹤精度也出現(xiàn)了暫時的降低,而本發(fā)明則以低的目標(biāo)中心位置誤差和高的目標(biāo)重疊率持續(xù)跟蹤,綜合來看,本發(fā)明的抗目標(biāo)遮擋能力最強(qiáng),能夠更好的應(yīng)對目標(biāo)遮擋下的跟蹤問題。

由圖6可見,本發(fā)明和現(xiàn)有三個技術(shù)的目標(biāo)中心位置誤差逐漸增大,但是本發(fā)明的目標(biāo)中心位置誤差一直是最低的。由圖7可見,本發(fā)明和現(xiàn)有三個技術(shù)的目標(biāo)區(qū)域重疊率均逐漸下降,但是本發(fā)明的目標(biāo)區(qū)域重疊率降低速度最慢,在四條曲線中維持較高目標(biāo)區(qū)域重疊率。本發(fā)明和現(xiàn)有三個技術(shù)跟蹤的運動目標(biāo)是一輛由遠(yuǎn)到近行駛的車輛,由于車輛由遠(yuǎn)到近行駛,尺度變化明顯,隨著鏡頭離車輛越來越近,目標(biāo)也越來越大,在第150幀以后,本發(fā)明和現(xiàn)有三個技術(shù)的目標(biāo)中心位置誤差都逐漸變大,目標(biāo)區(qū)域重疊率逐漸降低。跟蹤精度都有所降低,但是本發(fā)明的跟蹤依然是四個算法中性能最好的,本發(fā)明能夠更好應(yīng)對目標(biāo)尺度變化劇烈下跟蹤的問題。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1