基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于計(jì)算機(jī)視覺,視頻內(nèi)容分析領(lǐng)域,具體涉及一種基于運(yùn)動(dòng)信息重構(gòu)的 異常行為檢測(cè)方法。本發(fā)明可以應(yīng)用到車輛輔助駕駛系統(tǒng),無人駕駛系統(tǒng)等方面。
【背景技術(shù)】
[0002] 異常行為檢測(cè)作為視頻內(nèi)容分析中的一個(gè)核心問題,研究者們已經(jīng)在固定攝像 頭,簡(jiǎn)單場(chǎng)景下做了很多研究。在該技術(shù)中,視頻事件的描述方法是一個(gè)至關(guān)重要的問題。 基于不同的事件描述方法,前人的工作可以分為以下兩個(gè)分支:
[0003] 基于物體運(yùn)動(dòng)軌跡信息的有A. Basharat等人在文獻(xiàn)"A. Basharat, A. Gritai, and M. Shah.Learning Object Motion Patterns for Anomaly Detection and Improved Object Detection, In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 1 - 8, 2008."中提出對(duì)于單個(gè)物體進(jìn)行長(zhǎng)時(shí)間的跟蹤,得到該目 標(biāo)的完整運(yùn)動(dòng)軌跡?;谖矬w的完整運(yùn)動(dòng)軌跡,該方法通過與訓(xùn)練集中的正常運(yùn)動(dòng)軌跡對(duì) 比結(jié)果來檢測(cè)異常目標(biāo)。
[0004] 基于局部運(yùn)動(dòng)模式的有Y. Cong等人在文獻(xiàn)"Y. Cong, J. Yuan, and J. Li. Sparse Reconstruction Cost for Abnormal Event Detection,In Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp. 3449 - 3456, 2011.',中提 出利用光流法描述運(yùn)動(dòng)信息,通過計(jì)算得到的直方圖表示局部運(yùn)動(dòng)模式。該方法在訓(xùn)練數(shù) 據(jù)中學(xué)習(xí)了一個(gè)代表正常運(yùn)動(dòng)模式的字典,通過字典對(duì)于測(cè)試數(shù)據(jù)的重構(gòu)誤差來度量其異 常程度。
[0005] 這些方法的應(yīng)用場(chǎng)景往往都是背景固定,運(yùn)動(dòng)模式單一的場(chǎng)景。對(duì)于交通場(chǎng)景這 種運(yùn)動(dòng)模式復(fù)雜,背景變化較大的場(chǎng)景的研究還沒有,所以需要針對(duì)交通場(chǎng)景設(shè)計(jì)合適的 異常檢測(cè)算法。
【發(fā)明內(nèi)容】
[0006] 要解決的技術(shù)問題
[0007] 本發(fā)明提出一種基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法,針對(duì)復(fù)雜運(yùn)動(dòng)模式 和變化背景,本發(fā)明通過更加合理的運(yùn)動(dòng)信息描述方法,并利用運(yùn)動(dòng)模式的空間位置信息, 探索了不同運(yùn)動(dòng)模式間的空間結(jié)構(gòu)信息,進(jìn)而解決了現(xiàn)有的異常檢測(cè)方法對(duì)該特定場(chǎng)景的 不適用性。
[0008] 技術(shù)方案
[0009] -種基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法,其特征在于步驟如下:
[0010] 步驟1 :計(jì)算前50幀視頻中各個(gè)像素點(diǎn)的運(yùn)動(dòng)方向和運(yùn)動(dòng)幅度:
[0011] m"= arctan ( Δ γ/ Δ χ)
[0012]
[0013]其中,(Δχ,Ay)為像素的光流信息;
[0014] 將運(yùn)動(dòng)方向按照對(duì)應(yīng)像素的位置排列成運(yùn)動(dòng)方向場(chǎng)M。,將運(yùn)動(dòng)幅度按照對(duì)應(yīng)像素 的位置排列成運(yùn)動(dòng)幅度場(chǎng)使用SLIC超像素分割方法對(duì)這兩個(gè)運(yùn)動(dòng)場(chǎng)進(jìn)行分割,并計(jì)算 每個(gè)分割區(qū)域運(yùn)動(dòng)方向y。或運(yùn)動(dòng)幅度y",將分割區(qū)域的中心位置z?;騴"記為空間位置坐 標(biāo);
[0015] 步驟2 :將所有分割區(qū)域的運(yùn)動(dòng)方向yc]的集合矩陣Y。輸入到下式進(jìn)行優(yōu)化:
[0016]
[0017]s.t.diag(C〇) =0
[0018] 其中,λi為超參數(shù),II·IIF表示矩陣的F-范數(shù),C。為優(yōu)化參數(shù);
[0019] 優(yōu)化得到最優(yōu)參數(shù)C。%根據(jù)其行向量2范數(shù)對(duì)其進(jìn)行排列,得到:
[0020]
[0021] 其中,<表示最優(yōu)參數(shù)C。沖的第i"行向量;
[0022] 選擇前T個(gè)行向量對(duì)應(yīng)的y。組成字典D。,其字典元素對(duì)應(yīng)的空間位置z。組成集合 L〇;
[0023] 將所有分割區(qū)域的運(yùn)動(dòng)幅度yni的集合矩陣Y"輸入到下式進(jìn)行優(yōu)化:
[0024]
[0025] s.t.diag(Cm) = 0
[0026] 其中,λi為超參數(shù),II·IIF表示矩陣的F-范數(shù),Cm為優(yōu)化參數(shù);
[0027] 優(yōu)化得到最優(yōu)參數(shù)Q;,根據(jù)其行向量2范數(shù)對(duì)其進(jìn)行排列,得到:
[0028]
[0029] 其中,c,,/"表示最優(yōu)參數(shù)C/中的第i"行向量;
[0030] 選擇前T個(gè)行向量對(duì)應(yīng)的yni組成字典,其字典元素對(duì)應(yīng)的空間位置Ζηι組成集合 L|11;
[0031] 步驟3 :計(jì)算第51幀視頻中的局部運(yùn)動(dòng)方向%的空間位置坐標(biāo)<與字典元素空間
位置L。的距離,選擇距離從近到遠(yuǎn)的前K個(gè)字典元素組成局部字典D^計(jì)算運(yùn)動(dòng)方向重構(gòu) 誤差:
[0032]
[0033] 其中EMD()表示EarthMoversDistance,c。為下述優(yōu)化問題的最優(yōu)解:
[0034]
[0035] 其中,λ2為超參數(shù),c為優(yōu)化參數(shù);
[0036] 計(jì)算第51幀視頻中的局部運(yùn)動(dòng)幅度.V;:,的空間位置坐標(biāo)zl與字典元素空間位置L" 的距離,選擇距離從近到遠(yuǎn)的前K個(gè)字典元素組成局部字典Dm,其字典元素對(duì)應(yīng)的空間位 置組成集合1^;計(jì)算運(yùn)動(dòng)幅度重構(gòu)誤差:
[0037]
[0038] 其中,0^表示字典中的第j個(gè)字典元素,w.=e+:^l為不同位置的字典元素 不同的權(quán)重,丨^表示字典Lm中的第j個(gè)字典元素;
[0039] 將運(yùn)動(dòng)方向重構(gòu)誤差\按照對(duì)應(yīng)像素的位置排列成運(yùn)動(dòng)方向異常分布圖S。,運(yùn)動(dòng) 幅度重構(gòu)誤差a"按照對(duì)應(yīng)像素的位置排列成運(yùn)動(dòng)幅度異常分布圖SM;
[0040] 步驟4 :計(jì)算融合后的交通場(chǎng)景異常分布圖SGJzhSjz)):
[0041 ]
[0042]
[0043]
[0044]
[0045]
[0046]
[0047]
[0048] Λ、和%。分別表示S。檢測(cè)出的異常區(qū)域F。和正常區(qū)域B。的像素個(gè)數(shù); 你和乂分別表示在SM中數(shù)值屬于異常和正常的像素個(gè)數(shù);和Λ乂分 另瞭示SM檢測(cè)出的異常區(qū)域FΜ和正常區(qū)域ΒΜ的像素個(gè)數(shù);隊(duì)⑵)和(?⑵)分別 表示在S。中數(shù)值屬于異常和正常的像素個(gè)數(shù),ppJSjz)和phlSjz))為位置z處像素 點(diǎn)的似然概率,Sjz)和SM(z)為運(yùn)動(dòng)方向異常分布圖和運(yùn)動(dòng)幅度異常分布圖在位置z處的 重構(gòu)誤差。
[0049] λ工和λ2為 0· 5。
[0050] 所述步驟1中計(jì)算每個(gè)分割區(qū)域運(yùn)動(dòng)方向y。和運(yùn)動(dòng)幅度yni的方法采用 "Dalai N, Triggs B. Histograms of Oriented Gradients for Human Detection[A]. In: IEEE Conference on Computer vision and Pattern Recognition[C]. New York:IEEE, 2005. 886-893"。
[0051] 有益效果
[0052] 本發(fā)明提出的一種基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法,對(duì)物體的運(yùn)動(dòng)方 向異常和運(yùn)動(dòng)幅度異常同時(shí)進(jìn)行了度量,并利用貝葉斯融合模型得到最終的檢測(cè)結(jié)果。進(jìn) 而使得本算法能夠有效解決復(fù)雜場(chǎng)景(運(yùn)動(dòng)模式復(fù)雜,背景變化快)的問題,同時(shí)也使得其 能夠檢測(cè)多種異常行為,并且達(dá)到平均87. 9%的檢測(cè)準(zhǔn)確率。
【附圖說明】
[0053] 圖1本發(fā)明實(shí)施的具體流程圖
【具體實(shí)施方式】
[0054] 現(xiàn)結(jié)合實(shí)施例、附圖對(duì)本發(fā)明作進(jìn)一步描述:
[0055] 本發(fā)明提出了一種基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法,對(duì)比之前的研 究,該算法對(duì)于交通場(chǎng)景中的異常檢測(cè)具有更好的效果。其技術(shù)方案包括下述步驟:
[0056] (a)利用視頻幀的光流信息,計(jì)算直方圖表示局部運(yùn)動(dòng)模式。首先利用得到的光流 信息計(jì)算對(duì)應(yīng)的運(yùn)動(dòng)方向場(chǎng)和運(yùn)動(dòng)幅度場(chǎng),然后采用超像素分割技術(shù)對(duì)其進(jìn)行分割,在每 個(gè)分割區(qū)域內(nèi)計(jì)算一個(gè)直方圖表示局部的運(yùn)動(dòng)方向或者運(yùn)動(dòng)大??;
[0057] (b)針對(duì)運(yùn)動(dòng)方向和運(yùn)動(dòng)大小,在無異常的視頻幀中分別學(xué)習(xí)得到兩個(gè)代表正常 運(yùn)動(dòng)模式的字典,同時(shí)保留運(yùn)動(dòng)模式對(duì)應(yīng)的空間位置信息。
[0058] (c)在新的視頻幀中,對(duì)于每個(gè)新的運(yùn)動(dòng)直方圖,我們?cè)谧值渲羞x擇與其空間位置 接近的K個(gè)元素來重構(gòu)新的直方圖,將其重構(gòu)誤差作為異常性的度量。由此,不同區(qū)域的重 構(gòu)誤差組成了異常分布圖,分別是運(yùn)動(dòng)方向和運(yùn)動(dòng)幅度異常分布圖。
[0059] (d)收集重構(gòu)誤差較小的運(yùn)動(dòng)直方圖,每隔T幀利用這些樣本更新原有的字典。
[0060] (e)采用基于貝葉斯模型的融合方法,將得到的兩個(gè)異常分布圖進(jìn)行融合,得到最 終的異常檢測(cè)結(jié)果圖?;谧罱K的結(jié)果圖,利用閾值法來確定異常目標(biāo)出現(xiàn)的區(qū)域。
[0061] 參照?qǐng)D1,本發(fā)明的基于運(yùn)動(dòng)重構(gòu)技術(shù)的交通場(chǎng)景異常檢測(cè)方法的實(shí)現(xiàn)步驟如 下:
[0062] 步驟1、計(jì)算運(yùn)動(dòng)方向和運(yùn)動(dòng)幅度直方圖。首先,計(jì)算視頻幀(前50幀)的光流信 息(參考文南犬Liu C. Beyond Pixels:Exploring New Representations and Applications for Motion Analysis[D]·Citeseer,2009.),其中每個(gè)像素的光流信息由二維向量 (AX,Ay)表示。然后,按照下式計(jì)算各個(gè)像素點(diǎn)處的運(yùn)動(dòng)方向和運(yùn)動(dòng)幅度:
[0063] m0=arctan(Ay/Δχ) (1)
[0064]
(2)
[0065] 將計(jì)算得到的運(yùn)動(dòng)方向與幅度按照對(duì)應(yīng)像素的位置進(jìn)行排列,得到兩幅"圖片", 分別記為運(yùn)動(dòng)方向場(chǎng)Μ。和運(yùn)動(dòng)幅度場(chǎng)Mm。最后,使用SLIC超像素分割方法(參考文獻(xiàn) AchnataR,ShajiA,SmithK,etal.SLICSuperpixelsComparedtoState-of-the-Art SuperpixelMethods[J].IEEETransactiononPatternAnalysisandMachineInt elligence,2012, 34(11),2274-2282.)將這兩個(gè)運(yùn)動(dòng)場(chǎng)分割為125個(gè)區(qū)域,并對(duì)每個(gè)分 割區(qū)域計(jì)算其運(yùn)動(dòng)直方圖代表其局部運(yùn)動(dòng)方向和運(yùn)動(dòng)幅度(參考文獻(xiàn)DalaiN,Triggs B.HistogramsofOrientedGradientsforHumanDetection[A].In:IEEECon