專利名稱:基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法
技術(shù)領(lǐng)域:
本發(fā)明涉及的是一種用于圖像處理技術(shù)領(lǐng)域的自適應(yīng)跟蹤的方法,具體是一種基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法。
背景技術(shù):
視頻目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)、圖像處理與模式識(shí)別領(lǐng)域的一個(gè)研究熱點(diǎn)。對(duì)視頻圖像中目標(biāo)的實(shí)時(shí)準(zhǔn)確跟蹤在民用和軍用上均具有廣泛的應(yīng)用前景。視頻目標(biāo)跟蹤一直存在一些難點(diǎn),如跟蹤期間目標(biāo)的特征發(fā)生明顯變化、跟蹤期間目標(biāo)發(fā)生遮擋、背景圖像中的各種干擾等等。針對(duì)這些難點(diǎn),國(guó)內(nèi)外學(xué)者提出了很多種跟蹤方法,這些方法包括Kalman filter、Condensation、MeanShift以及CamShift等,但是多數(shù)是利用目標(biāo)的單一特征信息對(duì)目標(biāo)進(jìn)行跟蹤,往往很難實(shí)現(xiàn)對(duì)目標(biāo)的魯棒跟蹤,這是因?yàn)槟繕?biāo)的特征信息在跟蹤期間會(huì)由于目標(biāo)的自身運(yùn)動(dòng)或背景圖像的干擾而發(fā)生變化,如果目標(biāo)的某一特征信息發(fā)生了變化,若仍利用該特征信息跟蹤目標(biāo),則會(huì)造成跟蹤失敗。針對(duì)單一特征信息下視頻目標(biāo)跟蹤方法存在的魯棒性差等問(wèn)題,許多學(xué)者提出了利用目標(biāo)的多種特征信息對(duì)目標(biāo)進(jìn)行跟蹤。這種方法的優(yōu)點(diǎn)是各種特征信息間可以實(shí)現(xiàn)信息互補(bǔ),如果其中一種特征信息在跟蹤期間失效,可以利用其他特征信息繼續(xù)維持對(duì)目標(biāo)的跟蹤。這種方法的難點(diǎn)在于實(shí)現(xiàn)各種特征信息的最優(yōu)融合。目前大多數(shù)基于多特征信息融合的跟蹤方法在融合各特征信息時(shí),對(duì)各特征采用了固定權(quán)值,這種融合方法的不足是如果跟蹤期間有一個(gè)特征信息變化明顯,而其權(quán)值保持不變,則融合后的信息會(huì)不可靠,利用這種信息跟蹤目標(biāo)會(huì)導(dǎo)致跟蹤效果不理想,甚至?xí)櫴 ?br>
經(jīng)對(duì)現(xiàn)有技術(shù)文獻(xiàn)的檢索發(fā)現(xiàn),D.Comaniciu等在《IEEE Transactions onPattern Analysis and Machine Intelligence》(pp.564-577,2003)上發(fā)表“Kernel-based Object Tracking”(基于核的目標(biāo)跟蹤,模式分析與機(jī)器智能IEEE雜志)。該文提出了利用顏色和邊緣特征信息跟蹤目標(biāo)的方法,文中的試驗(yàn)結(jié)果說(shuō)明該方法具有較好的跟蹤性能。但該方法沒(méi)有考慮目標(biāo)顏色發(fā)生明顯變化時(shí)的情況以及沒(méi)有充分利用顏色和邊緣特征間的互補(bǔ)信息,因此該方法在實(shí)際應(yīng)用中常常會(huì)由于場(chǎng)景的動(dòng)態(tài)變化而變得不適用。
發(fā)明內(nèi)容
本發(fā)明的目的在于克服現(xiàn)有技術(shù)中的不足,提供一種基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,使其提高了對(duì)復(fù)雜環(huán)境下運(yùn)動(dòng)目標(biāo)的跟蹤能力。
本發(fā)明是通過(guò)以下技術(shù)方案實(shí)現(xiàn)的,本發(fā)明首先提取目標(biāo)的特征信息,然后利用模糊邏輯方法對(duì)各種特征信息進(jìn)行自適應(yīng)融合,并將融合后的信息用于描述目標(biāo)的觀測(cè)信息,最后進(jìn)行基于遺傳算法的目標(biāo)搜索,采用具有啟發(fā)式搜索功能的遺傳算法在當(dāng)前圖像目標(biāo)候選區(qū)域內(nèi)找出與目標(biāo)模板觀測(cè)信息最相似的候選目標(biāo)。
以下對(duì)本發(fā)明方法作進(jìn)一步的說(shuō)明,具體內(nèi)容如下(1)提取目標(biāo)的特征信息目標(biāo)的特征在本發(fā)明中是顏色和形狀特征。目標(biāo)的顏色特征主要是由它的顏色分布反映的,在描述顏色分布時(shí),采用了帶空間位置信息的加權(quán)顏色直方圖,該直方圖考慮了像素的空間位置信息,提高了描述顏色特征的魯棒性;目標(biāo)形狀特征的提取是通過(guò)對(duì)圖像進(jìn)行邊緣提取以及進(jìn)行距離變換后得到的,在描述目標(biāo)形狀特征時(shí),采用了橢圓模板,即采用不同大小的橢圓近似描述圖像中目標(biāo)的形狀。這主要是由于被跟蹤目標(biāo)為人的頭部,一般情況下,人的頭部輪廓形狀可以用一橢圓近似描述。
(2)特征信息自適應(yīng)融合在融合顏色和形狀特征信息時(shí),采用了模糊邏輯方法自適應(yīng)調(diào)節(jié)兩者的權(quán)值。模糊邏輯根據(jù)當(dāng)前幀目標(biāo)顏色和形狀信息的可信度調(diào)節(jié)下一幀融合信息中兩者的權(quán)重,實(shí)現(xiàn)兩種特征信息的自適應(yīng)加權(quán)融合。
(3)基于遺傳算法的目標(biāo)搜索在目標(biāo)搜索時(shí),采用了遺傳算法;遺傳算法是種啟發(fā)式搜索方法,其搜索效率遠(yuǎn)遠(yuǎn)優(yōu)于窮舉搜索法。遺傳算法在當(dāng)前幀圖像目標(biāo)候選區(qū)域內(nèi)不斷迭代尋優(yōu)搜索出與目標(biāo)模板觀測(cè)信息最相似的候選目標(biāo)。在利用遺傳算法搜索目標(biāo)時(shí),首先對(duì)候選目標(biāo)所在區(qū)域的中心及半徑進(jìn)行編碼,然后利用交叉和變異算子不斷產(chǎn)生新的個(gè)體,最后利用選擇算子找出適應(yīng)度最好的個(gè)體,該個(gè)體解碼得到的實(shí)數(shù)即對(duì)應(yīng)當(dāng)前幀目標(biāo)的位置及其所在區(qū)域的半徑大小。
本發(fā)明采用了顏色和形狀的融合信息描述目標(biāo)的觀測(cè)信息;在融合顏色和形狀信息時(shí),采用了自適應(yīng)融合的方法,大大提高了目標(biāo)觀測(cè)信息的可靠性;在該融合方法中,模糊邏輯根據(jù)當(dāng)前幀目標(biāo)顏色和形狀信息的可信度在線調(diào)節(jié)下一幀觀測(cè)信息中兩者的權(quán)重,實(shí)現(xiàn)了顏色和形狀信息的自適應(yīng)加權(quán)融合;在目標(biāo)搜索與跟蹤期間,采用具有啟發(fā)式搜索功能的遺傳算法,提高了搜索效率。本發(fā)明通過(guò)自適應(yīng)融合各特征信息以及在目標(biāo)搜索時(shí)采用啟發(fā)式搜索方法使得跟蹤的可靠性大大提高,可以廣泛應(yīng)用于視頻監(jiān)控系統(tǒng)、視頻會(huì)議系統(tǒng)、機(jī)器人視覺(jué)導(dǎo)航系統(tǒng)、工業(yè)產(chǎn)品監(jiān)控系統(tǒng)、軍事目標(biāo)跟蹤系統(tǒng)等各類民用及軍用系統(tǒng)中,具有廣闊的市場(chǎng)前景和應(yīng)用價(jià)值。
圖1為本發(fā)明處理方法總體框圖。
其中圖1(a)為顏色和形狀信息加權(quán)融合框圖;圖1(b)為在線調(diào)節(jié)權(quán)值框圖;圖1(c)為目標(biāo)搜索過(guò)程框圖。
圖2為本發(fā)明中模糊邏輯系統(tǒng)輸入、輸出變量的隸屬度函數(shù)圖。
圖3為目標(biāo)的跟蹤效果圖。
其中圖3(a)為單獨(dú)利用顏色信息的跟蹤效果圖;圖3(b)為單獨(dú)利用形狀信息的跟蹤效果圖;圖3(c)為非自適應(yīng)融合的跟蹤效果圖;圖3(d)為本發(fā)明的跟蹤效果圖。
圖4為跟蹤期間各特征信息權(quán)值的變化曲線圖。
具體實(shí)施例方式
為了更好地理解本發(fā)明的技術(shù)方案,以下結(jié)合附圖對(duì)本發(fā)明的實(shí)施方式作進(jìn)一步描述。
圖1為本發(fā)明提出的一種基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法的總體框圖。各部分具體實(shí)施細(xì)節(jié)如下圖1(a)顏色和形狀信息的加權(quán)融合框圖1.顏色信息在描述目標(biāo)顏色分布時(shí),采用了帶空間位置信息的顏色直方圖方法,這種方法考慮了像素的空間位置信息,因此對(duì)顏色分布的描述更加魯棒。如果已知目標(biāo)區(qū)域(橢圓區(qū)域)的中心位置為x=(x,y);半徑為h=(hx,hy),hx、hy分別為橢圓的長(zhǎng)軸和短軸,目標(biāo)區(qū)域內(nèi)像素的位置為xi=(xi,yi),i=1…nh,則目標(biāo)的顏色分布可以用如下公式描述p^(u)(x,h)=ChΣi=1nhg(||x-xih||2)δ[b(xi)-u]----(1)]]>其中δ是Delta函數(shù),nh為目標(biāo)區(qū)域內(nèi)像素的總個(gè)數(shù),函數(shù)b(xi)是位于xi處的像素在直方圖上顏色級(jí)索引的映象,u為直方圖中顏色級(jí)索引,u=1,…,L,L為直方圖上顏色級(jí)的總數(shù),Ch為歸一化常數(shù),在Σu=1Lp^(u)(x,h)=1]]>條件下,可得ch=1/Σi=1nhg(||x-xih||2),]]>g(·)為權(quán)值函數(shù) 函數(shù)g(·)將目標(biāo)區(qū)域內(nèi)不同位置上的像素賦予不同權(quán)值,與目標(biāo)中心越近的像素,賦予的權(quán)值越大,這是由于目標(biāo)的外圍像素可能被遮擋或?qū)儆诒尘跋袼?,是相?duì)不可靠的緣故。
2.顏色相似度在評(píng)價(jià)顏色相似性時(shí),采用Bhattacharyya距離來(lái)衡量。假設(shè)目標(biāo)模板的顏色分布為q^={q^(u)}u=1...L,]]>候選目標(biāo)的顏色分布為p^(x,h)={p^(u)(x,h)}u=1...L,]]>則候選目標(biāo)與目標(biāo)模板在顏色上的相似系數(shù)為
ρ[p^(x,h),q^]=Σu=1Lp^(u)(x,h)q^(u)----(3)]]>該系數(shù)為Bhattacharyya系數(shù),Bhattacharyya距離為dc[p^(x,h),q^]=1-ρ[p^(x,h),q^]----(4)]]>得到兩顏色直方圖的Bhattacharyya距離后,定義如下的顏色似然函數(shù)p(zc|x,h)=12πσcexp(-dc2[q^,p^(x,h)]2σc2)----(5)]]>其中σc為高斯協(xié)方差,當(dāng)(5)式中的值越大說(shuō)明候選目標(biāo)的顏色與目標(biāo)模板的顏色越相似。
3.形狀信息本發(fā)明中被跟蹤的目標(biāo)為人的頭部。一般情況下,人頭部的輪廓形狀近似于橢圓形狀,因此可以用一橢圓近似表示目標(biāo)的形狀,即人頭的形狀模板為一橢圓。
4.形狀相似度在評(píng)價(jià)形狀相似性時(shí),采用Chamfer距離來(lái)衡量。如果已知目標(biāo)形狀模板的二值圖為T,當(dāng)前幀圖像的二值圖為I,當(dāng)前幀的距離圖像為DI。則候選目標(biāo)與目標(biāo)模板之間的Chamfer距離可通過(guò)如下公式計(jì)算,ds[T(x,h),I]=1|T|Σt∈TDI(t)----(6)]]>其中,T(x,h)表示形狀模板在當(dāng)前幀中的中心位置和大小分別為x和h,|T|代表圖像T中像素值為“1”的像素總個(gè)數(shù),t表示圖像T中第t個(gè)像素值為“1”的像素,DI(t)表示當(dāng)把圖像T放于距離圖像DI上時(shí),位于圖像T中第t個(gè)像素值為“1”的像素位置下的DI中的灰度值。得到兩種形狀之間的Chamfer距離后,定義如下的形狀似然函數(shù)p(zs|x,h)=12πσsexp(-ds2[T(x,h),I]2σs2)----(7)]]>其中σs為高斯協(xié)方差,當(dāng)(7)式中的值越大,說(shuō)明候選目標(biāo)的形狀與形狀模板越相似。
5.融合目標(biāo)的觀測(cè)信息由顏色和形狀信息共同描述,如果已知第n個(gè)候選目標(biāo)的中心位置為xn=(x(n),y(n))及其所在區(qū)域的半徑為hn=(hx(n),hy(n)),]]>則該候選目標(biāo)的觀測(cè)似然函數(shù)定義如下p(z|xn,hn)=αp(zc|xn,hn)+βp(zs|xn,hn),α+β=1(8)其中p(zc|xn,hn)和p(zs|xn,hn)分別為顏色和形狀的似然函數(shù),0≤α≤1和0≤β≤1分別為顏色和形狀信息的權(quán)值。如果(8)式中的值越大,則該候選目標(biāo)與目標(biāo)模板在顏色和形狀上越相似,該候選目標(biāo)為真實(shí)目標(biāo)的可能性就越大。
圖1(b)在線調(diào)節(jié)權(quán)值框圖1.顏色和形狀信息的可信度如果已知當(dāng)前幀目標(biāo)的中心位置為x=(x,y)及其所在區(qū)域的半徑為h=(hx,hy),則目標(biāo)的顏色可信度定義為ec=12πσcexp(-dc2[q^,p^(x,h)]2σc2)----(9)]]>目標(biāo)的形狀可信度定義為es=12πσsexp(-ds2[T(x,h),I]2σs2)----(10)]]>2.模糊邏輯多數(shù)基于多特征信息融合的目標(biāo)跟蹤方法在融合各個(gè)特征信息時(shí),對(duì)各特征信息采用了固定的權(quán)值,即(8)式中的α和β在目標(biāo)跟蹤期間固定不變,這種融合方法在實(shí)際應(yīng)用中會(huì)由于場(chǎng)景的動(dòng)態(tài)變化以及目標(biāo)的自身運(yùn)動(dòng)而變得不合適,常常會(huì)由于某個(gè)特征信息的突然變化,而導(dǎo)致跟蹤效果不理想,甚至?xí)櫴?。本發(fā)明為了克服這一缺點(diǎn),采用模糊邏輯自適應(yīng)調(diào)節(jié)各個(gè)特征信息的權(quán)值,實(shí)現(xiàn)了各特征信息的自適應(yīng)加權(quán)融合。
模糊邏輯主要由四部分組成,即模糊化、模糊規(guī)則基、模糊推理機(jī)制及解模糊。本發(fā)明采用了單點(diǎn)模糊化、乘積推理和重心解模糊,模糊規(guī)則采用了(11)式中的形式。
Rj:ife1isA1jande2isA2j···andeNisANithenuisBj----(11)]]>其中Rj為第j條模糊規(guī)則,j=1,…,k是模糊規(guī)則數(shù),ei為模糊邏輯的第i個(gè)輸入(i=1,…,N),N為模糊邏輯輸入的總數(shù),u為模糊推理的結(jié)果,Aij和Bj為輸入和輸出變量的模糊語(yǔ)言值,由隸屬度函數(shù)表征。
模糊邏輯的輸入為顏色信息可信度ec和形狀信息可信度es;模糊邏輯的輸出為顏色信息權(quán)值α,形狀信息權(quán)值β由(8)式計(jì)算得到。將ec和es模糊化為{SR,S,M,B,BR},α模糊化為{ST,VS,SR,S,M,B,BR,VB,BT};各模糊語(yǔ)言變量含義為ST(很小)、VS(小)、SR(較小)、S(微小)、M(中等)、B(微大)、BR(較大)、VB(大)、BT(很大)。輸入和輸出變量的隸屬度函數(shù)以及模糊規(guī)則表分別如圖2和表1所示。
表1.模糊規(guī)則表
目標(biāo)搜索過(guò)程如圖1(c)本發(fā)明中目標(biāo)的搜索是由遺傳算法來(lái)實(shí)現(xiàn)的,遺傳算法具有啟發(fā)式的搜索功能,在搜索效率上遠(yuǎn)遠(yuǎn)優(yōu)于窮盡搜索法。
1.確定搜索空間搜索空間是遺傳算法初始個(gè)體分布的空間范圍。假設(shè)前一幀圖像中目標(biāo)的中心位置及其所在區(qū)域的半徑分別為x=(x,y)和h=(hx,hy),則在當(dāng)前幀中遺傳算法的搜索空間為在x上為[x-a,x+a],在y上為[y-b,y+b],在hx上為[hx-ha,hx+ha],在hy上為[hy-hb,hy+hb],其中a,b,ha和hb均為常數(shù),這些參數(shù)的大小與目標(biāo)的運(yùn)動(dòng)狀態(tài)有關(guān),當(dāng)目標(biāo)運(yùn)動(dòng)劇烈時(shí),則a和b取大點(diǎn),當(dāng)目標(biāo)大小變化劇烈時(shí),則ha和hb取大點(diǎn),反之,則均取小點(diǎn)。
2.產(chǎn)生初始個(gè)體在利用遺傳算法進(jìn)行目標(biāo)搜索時(shí),首先要產(chǎn)生一些初始個(gè)體,這些個(gè)體在搜索空間內(nèi)通過(guò)計(jì)算機(jī)隨機(jī)產(chǎn)生,每個(gè)個(gè)體均為一二進(jìn)制字符串,即對(duì)個(gè)體采用了二進(jìn)制編碼方式,其中每個(gè)個(gè)體對(duì)應(yīng)著一種可能的解,遺傳算法通過(guò)遺傳操作不斷作用于這些個(gè)體,并根據(jù)“適者生存”的自然原理選擇出優(yōu)良的個(gè)體。
3.交叉和變異交叉和變異是遺傳算法的兩個(gè)重要參數(shù),遺傳算法通過(guò)這兩個(gè)算子不斷產(chǎn)生新的個(gè)體,并將父代個(gè)體的優(yōu)秀特性遺傳給子代個(gè)體。本發(fā)明中,采用了單點(diǎn)交叉方法和均勻變異方法;交叉率為pc=0.8,變異率為pm=0.01。
4.解碼由于群體中的個(gè)體是一二進(jìn)制字符串,不能直接作為實(shí)際的解,因此必須將這些二進(jìn)制字符串轉(zhuǎn)換為實(shí)數(shù)。解碼就是將這些二進(jìn)制字符串轉(zhuǎn)換為實(shí)數(shù),這些實(shí)數(shù)分別對(duì)應(yīng)一組可能的解。
5.顏色和形狀信息的加權(quán)融合群體中的每一個(gè)體通過(guò)解碼得到一組實(shí)數(shù),該組實(shí)數(shù)對(duì)應(yīng)一候選目標(biāo)的中心位置和其所在區(qū)域的半徑。得到候選目標(biāo)的中心位置和區(qū)域半徑后,利用(5)式和(7)式計(jì)算出該候選目標(biāo)與目標(biāo)模板在顏色和形狀上的相似度,然后利用(8)式將它們加權(quán)融合。加權(quán)融合具體過(guò)程如圖1(a)所示。
6.適應(yīng)度函數(shù)計(jì)算適應(yīng)度函數(shù)設(shè)計(jì)的依據(jù)是當(dāng)候選目標(biāo)與目標(biāo)模板在顏色和形狀上越相似,則賦予該候選目標(biāo)的適應(yīng)度函數(shù)值越大。定義群體中第n個(gè)個(gè)體的適應(yīng)度函數(shù)如下
f(xn,hn)=p(z|xn,hn) (12)其中xn=(x(n),y(n))和hn=(hx(n),hy(n))]]>分別為第n個(gè)個(gè)體解碼后所對(duì)應(yīng)的實(shí)數(shù),它們對(duì)應(yīng)第n個(gè)候選目標(biāo)的中心位置和其所在區(qū)域的半徑,p(z|xn,hn)為該個(gè)體對(duì)應(yīng)的候選目標(biāo)的觀測(cè)似然函數(shù),在(8)式中作過(guò)定義。
7.終止條件遺傳算法搜索終止條件是其迭代次數(shù),迭代次數(shù)越多,則搜索精度會(huì)越高,即目標(biāo)的跟蹤精度越高,但迭代次數(shù)越多,實(shí)時(shí)性越差,因此在實(shí)際中,只能在兩者之間進(jìn)行折中考慮來(lái)選擇迭代次數(shù)。采用了15次迭代。
8.輸出目標(biāo)位置在遺傳算法終止條件滿足后,適應(yīng)度最好的個(gè)體被保留并解碼,解碼得到的實(shí)數(shù)即為該幀中目標(biāo)的中心位置和其所在區(qū)域的半徑。
9.計(jì)算顏色和形狀信息的可信度在得到當(dāng)前幀目標(biāo)位置和其所在區(qū)域的半徑后,利用(9)式和(10)式計(jì)算出目標(biāo)顏色和形狀信息的可信度。
10.下一幀權(quán)值的計(jì)算在得到當(dāng)前幀目標(biāo)顏色和形狀信息的可信度后,利用模糊邏輯調(diào)節(jié)下一幀中顏色和形狀信息在融合信息中的權(quán)重,具體調(diào)節(jié)過(guò)程如圖1(b)所示。
圖3為目標(biāo)的跟蹤效果圖,其中圖3(a)為單獨(dú)利用顏色信息的跟蹤效果圖;圖3(b)為單獨(dú)利用形狀信息的跟蹤效果圖;圖3(c)為非自適應(yīng)融合的跟蹤效果圖;圖3(d)為本發(fā)明的跟蹤效果圖。從圖中結(jié)果可以看出,本發(fā)明中的方法大大提高了對(duì)復(fù)雜環(huán)境下運(yùn)動(dòng)目標(biāo)的跟蹤能力。
圖4為跟蹤期間各特征信息權(quán)值的變化曲線圖。從圖中可以看出,在顏色信息或形狀信息變得不可靠時(shí),本發(fā)明中的融合方法可以通過(guò)降低其權(quán)值來(lái)削弱它們?cè)谌诤闲畔⒅械挠绊憽?br>
權(quán)利要求
1.一種基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,其特征在于,首先提取目標(biāo)的特征信息,然后利用模糊邏輯方法對(duì)各種特征信息進(jìn)行自適應(yīng)融合,并將融合后的信息用于描述目標(biāo)的觀測(cè)信息,最后進(jìn)行基于遺傳算法的目標(biāo)搜索,采用具有啟發(fā)式搜索功能的遺傳算法在當(dāng)前圖像目標(biāo)候選區(qū)域內(nèi)找出與目標(biāo)模板觀測(cè)信息最相似的候選目標(biāo)。
2.根據(jù)權(quán)利要求1所述的基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,其特征是,所述的提取目標(biāo)的特征信息,具體如下目標(biāo)的特征是顏色和形狀特征,目標(biāo)的顏色特征主要是由它的顏色分布反映的,在描述顏色分布時(shí),采用了帶空間位置信息的加權(quán)顏色直方圖,該直方圖考慮了像素的空間位置信息,提高了描述顏色特征的魯棒性;目標(biāo)形狀特征的提取是通過(guò)對(duì)圖像進(jìn)行邊緣提取以及進(jìn)行距離變換后得到的,在描述目標(biāo)形狀特征時(shí),采用了橢圓模板,即采用橢圓近似描述圖像中目標(biāo)的形狀。
3.根據(jù)權(quán)利要求1所述的基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,其特征是,所述的特征信息的自適應(yīng)融合,具體如下在融合顏色和形狀特征信息時(shí),采用了模糊邏輯方法自適應(yīng)調(diào)節(jié)兩者的權(quán)值,模糊邏輯根據(jù)當(dāng)前幀目標(biāo)顏色和形狀信息的可信度調(diào)節(jié)下一幀融合信息中兩者的權(quán)重,實(shí)現(xiàn)兩種特征信息的自適應(yīng)加權(quán)融合。
4.根據(jù)權(quán)利要求1所述的基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,其特征是,所述的基于遺傳算法的目標(biāo)搜索,具體如下在目標(biāo)搜索時(shí),采用了具有啟發(fā)式搜索功能的遺傳算法,遺傳算法在當(dāng)前幀圖像目標(biāo)候選區(qū)域內(nèi)不斷迭代尋優(yōu)搜索出與目標(biāo)模板觀測(cè)信息最相似的候選目標(biāo),該候選目標(biāo)即為要跟蹤的目標(biāo),在利用遺傳算法搜索目標(biāo)時(shí),首先對(duì)候選目標(biāo)所在區(qū)域的中心及半徑進(jìn)行編碼,然后利用交叉和變異算子不斷產(chǎn)生新的個(gè)體,最后利用選擇算子找出適應(yīng)度最好的個(gè)體,該個(gè)體解碼得到的實(shí)數(shù)即對(duì)應(yīng)當(dāng)前幀目標(biāo)的位置及其所在區(qū)域的半徑大小。
全文摘要
一種基于多特征信息融合的視頻運(yùn)動(dòng)目標(biāo)自適應(yīng)跟蹤方法,用于計(jì)算機(jī)視覺(jué)、圖像處理與模式識(shí)別領(lǐng)域。本發(fā)明首先提取出目標(biāo)的特征信息,然后利用模糊邏輯方法對(duì)各種特征信息進(jìn)行自適應(yīng)融合,并將融合后的信息用于描述目標(biāo)的觀測(cè)信息,最后采用具有啟發(fā)式搜索功能的遺傳算法在當(dāng)前圖像目標(biāo)候選區(qū)域內(nèi)找出與目標(biāo)模板觀測(cè)信息最相似的候選目標(biāo)。本發(fā)明通過(guò)自適應(yīng)融合各特征信息以及在目標(biāo)搜索時(shí)采用啟發(fā)式搜索方法使得跟蹤的可靠性大大提高,可廣泛應(yīng)用于視頻監(jiān)控系統(tǒng)、視頻會(huì)議系統(tǒng)、機(jī)器人視覺(jué)導(dǎo)航系統(tǒng)、工業(yè)產(chǎn)品監(jiān)控系統(tǒng)、軍事目標(biāo)跟蹤系統(tǒng)等各類民用及軍用系統(tǒng)中,具有廣闊的市場(chǎng)前景和應(yīng)用價(jià)值。
文檔編號(hào)G06T7/20GK1619593SQ200410089270
公開(kāi)日2005年5月25日 申請(qǐng)日期2004年12月9日 優(yōu)先權(quán)日2004年12月9日
發(fā)明者敬忠良, 李安平, 胡士強(qiáng) 申請(qǐng)人:上海交通大學(xué)