亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于低秩表示的人體行為識別方法

文檔序號:6502452閱讀:245來源:國知局
基于低秩表示的人體行為識別方法
【專利摘要】本發(fā)明公開了一種基于低秩表示的人體行為識別方法,主要解決現(xiàn)有技術(shù)對視頻中的行為識別率低的問題。其識別過程為:(1)輸入所有視頻,利用k均值對所有行為檢測到的局部特征進(jìn)行聚類得到一個碼書;(2)通過帶有系數(shù)歸一化約束的低秩表示LRR對每個視頻的所有特征進(jìn)行編碼;(3)將每個視頻的編碼系數(shù)向量化,得到每個視頻的最終表示;(4)將得到最終表示的所有視頻分組,一組作為訓(xùn)練樣本,一組作為測試樣本,利用訓(xùn)練樣本的視頻表示組成字典;(5)基于新組成的字典上,利用稀疏表示對測試樣本進(jìn)行編碼并確定測試樣本的類標(biāo),完成測試樣本中人體行為的識別。本發(fā)明增強(qiáng)了視頻表示的判別性,提高了對視頻中人體行為的識別率,可用于智能監(jiān)控。
【專利說明】基于低秩表示的人體行為識別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于機(jī)器學(xué)習(xí)、計算機(jī)視覺領(lǐng)域,涉及對視頻中人物行為的識別,可用于視頻中目標(biāo)檢測及跟蹤的后處理。
【背景技術(shù)】
[0002]人體行為識別包括從視頻序列中抽取相關(guān)的視覺信息,并用一種合適的方式進(jìn)行表達(dá),最后解釋這些信息以實(shí)現(xiàn)學(xué)習(xí)和識別人的行為,研究人體的行為模式將為人們的生活帶來全新的交互方式。
[0003]近年來,特征包BoF模型被成功應(yīng)用于圖像分類和行為識別領(lǐng)域。在行為識別領(lǐng)域,它把視頻序列描述成一系列視覺關(guān)鍵詞的統(tǒng)計直方圖。視覺關(guān)鍵詞統(tǒng)計直方圖的構(gòu)建分為以下幾個步驟:
[0004]第一步,利用局部特征檢測器,如Harris3D檢測子,Hessian檢測子,Cuboid檢測子等,自動檢測出視頻中感興趣的區(qū)域,并用相應(yīng)的描述子對其進(jìn)行描述;
[0005]第二步,利用K均值將所有視頻局部特征描述符進(jìn)行聚類,形成若干個聚類中心,即視覺關(guān)鍵詞,聚類中心的個數(shù)或稱詞包的大小可事先由人為確定。
[0006]第三步,計算每個視頻中局部特征描述符與每個聚類中心的歐式距離,距離最小的聚類中心被認(rèn)為是該局部特征的視覺關(guān)鍵詞,統(tǒng)計視頻中所有局部特征關(guān)鍵詞的數(shù)目,形成視覺關(guān)鍵詞直方圖。
[0007]盡管特征包模型簡單有效,但由于視頻中的局部特征數(shù)目多而且復(fù)雜,需要成千上萬個視覺關(guān)鍵詞才能 獲得比較好的識別結(jié)果,而且特征包模型并沒有考慮視覺關(guān)鍵詞的內(nèi)部結(jié)構(gòu)?目息。
[0008]2010年,X.Yan等人將特征包模型與有效人體區(qū)域包結(jié)合在一起,由于有效人體區(qū)域包描述了兩個局部特征的關(guān)系,這樣就彌補(bǔ)了特征包沒有考慮局部特征之間關(guān)系的不足。參見 X.Yan, Y.Luo, ((Making full use of spatial-temporal interest points:anadaboost approach for action recognition)) , International Conference on ImageProcessing。
[0009]2010年,Y.Zhu等人將局部特征與稀疏表示結(jié)合在一起,提出了一個新的具有判別性表達(dá)方式,參見 Y.Zhu, X.Zhao, Y.Fu, Y.Liu,《Sparse coding on localspatial-temporal volumes for human action recognition)), Asian Conference onComputer Vision。
[0010]2011年,Z.Lu等人通過I1圖的構(gòu)建和譜嵌入結(jié)合起來。該方法考慮了視覺關(guān)鍵詞的流形結(jié)構(gòu),其得到的表示是緊致的而且具有判別性。參見Z.Lu,Y.Peng,《Latentsemantic learning with structured sparse representation for human actionrecognition)), ICCV0
[0011]以上提到的改善方法均存在以下不足:只考慮稀疏性,沒有考慮數(shù)據(jù)的整體結(jié)構(gòu)性,所以無法獲取視頻局部特征中的全局結(jié)構(gòu)信息,識別率低。
【發(fā)明內(nèi)容】

[0012]本發(fā)明的目的在于針對上述已有技術(shù)的不足,提出一種基于低秩表示的人體行為識別方法,以獲取視頻局部特征中的全局結(jié)構(gòu)信息,提高識別率。
[0013]實(shí)現(xiàn)本發(fā)明的技術(shù)思路是:考慮視覺關(guān)鍵詞的全局結(jié)構(gòu),對所獲取的局部特征進(jìn)行編碼,將其應(yīng)用到人體行為識別領(lǐng)域,具體步驟如下:
[0014](I)輸入所有視頻,每個視頻中只含有一種行為,利用Cuboid特征檢測和描述算法中的Cuboid檢測子和描述子分別對視頻中的行為進(jìn)行局部特征檢測和描述;
[0015](2)利用k均值法,對所有視頻的行為局部特征進(jìn)行聚類,形成一個碼書:
【權(quán)利要求】
1.一種基于低秩表示的人體行為識別方法,包括如下步驟: (1)輸入所有視頻,每個視頻中只含有一種行為,利用Cuboid特征檢測和描述算法中的Cuboid檢測子和描述子分別對視頻中的行為進(jìn)行局部特征檢測和描述; (2)利用k均值法,對所有視頻的行為局部特征進(jìn)行聚類,形成一個碼書:A=[a1,a2,....ak,...al]∈Rd*l其中:ak表示每個聚類中心,k=l, 2,…,1,I表示聚類中心的個數(shù),d表示聚類中心的維數(shù); (3)利用帶有系數(shù)歸一化約束的低秩表示LRR,在碼書A上對每個視頻中的行為所包含的局部特征進(jìn)行編碼: (3a)假設(shè)視頻中的行為有11個局部特征,用X=[x1,x2,..xi,...xn]∈Rd*n表示,其中:Xi表示第i個局部特征,i=l, 2,…,n, d表示局部特征的維數(shù); (3b)在碼書A上,利用如下公式進(jìn)行編碼:
【文檔編號】G06K9/00GK103440471SQ201310163241
【公開日】2013年12月11日 申請日期:2013年5月5日 優(yōu)先權(quán)日:2013年5月5日
【發(fā)明者】張向榮, 焦李成, 楊浩, 楊陽, 侯彪, 王爽, 馬文萍, 馬晶晶 申請人:西安電子科技大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1