亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于視頻監(jiān)控的香煙煙霧檢測方法

文檔序號:9708797閱讀:971來源:國知局
一種基于視頻監(jiān)控的香煙煙霧檢測方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像處理及模式識別領(lǐng)域,尤其涉及一種基于視頻監(jiān)控的香煙煙霧檢 測方法。
【背景技術(shù)】
[0002] 吸煙是人們?nèi)粘I钪谐R姷囊环N不良行為,吸煙的危害已經(jīng)逐步被大眾所熟 知?!侗本┦锌刂莆鼰煑l例》于2015年6月1日起實施,明確規(guī)定所有公共場所、工作場所室內(nèi) 區(qū)域及公共交通工具禁止吸煙,約定文保單位、體育場及部分以未成年人為主要活動人群 的室外場所禁止吸煙,但是開展控制吸煙衛(wèi)生監(jiān)督管理工作缺少一種高效便捷的手段。人 工管理需要投入大量的人力物力,并且不能保證準確及時的發(fā)現(xiàn)、制止吸煙行為。
[0003] 但是,現(xiàn)在社會中普遍都采用人工監(jiān)督方式對吸煙者進行處罰或勸誡,很少能夠 采用電子設(shè)備對監(jiān)控區(qū)域進行吸煙煙霧分析和自動報警,在人流較多的公共場所中,人們 很難發(fā)現(xiàn)一個吸煙者,更難以發(fā)現(xiàn)丟棄的煙頭以及產(chǎn)生的煙霧。為了解決此類問題,我們提 供了一種基于視覺檢測技術(shù)的監(jiān)督報警方法。

【發(fā)明內(nèi)容】

[0004] 本發(fā)明目的是提供一種基于視頻監(jiān)控的香煙煙霧檢測方法,主要利用視覺檢測技 術(shù)對采集到的視頻圖像進行分析,實時準確的識別監(jiān)控場景中的香煙煙霧,方便管理人員 實時的監(jiān)控和查看吸煙行為,提高控煙管理人員的工作效率。
[0005] 為實現(xiàn)上述目的,采用了以下技術(shù)方案:本發(fā)明所述檢測方法由分類器訓練階段 和香煙煙霧檢測階段來實現(xiàn);
[0006] (1)分類器訓練階段的步驟如下:
[0007] (1-1)訓練樣本集的準備,采用機器學習來訓練分類器,需要大量的樣本,通過監(jiān) 控攝像頭在多個不同場景下采集有香煙煙霧和無香煙煙霧的視頻,將這些視頻保存為連續(xù) 的視頻幀,含有香煙煙霧的視頻樣本為正樣本,無香煙煙霧的視頻樣本為負樣本,截取正、 負樣本;
[0008] (1-2)將截取的正、負樣本縮放到大小相同的尺寸;
[0009] (1-3)分別提取所有正、負樣本的Hog特征及樣本的幾何特征,Hog特征即每個像素 點的梯度大小和方向;對所有正負樣本賦予樣本標簽,樣本標簽是正樣本為1、負樣本為-1; 將所得正、負樣本的特征向量及樣本的標簽輸入到支持向量機SVM中進行學習,將結(jié)果保存 為文本文件即生成分類器;
[0010] ⑵香煙煙霧檢測階段的步驟如下:
[0011] (2-1)通過監(jiān)控攝像頭獲取視頻圖像,對獲得的現(xiàn)場視頻圖像進行采樣以獲得連 續(xù)的現(xiàn)場圖像序列;
[0012] (2-2)采用混合高斯模型算法提取前景目標區(qū)域;
[0013] (2-3)對提取到的前景目標區(qū)域進行形態(tài)學操作,去除運動區(qū)域中的噪點和空洞;
[0014] (2-4)對經(jīng)過形態(tài)學運算后的圖像進行二值化,使用最大類間方差法算法求解最 佳二值化閾值;采用最大類間方差法計算得到的閾值對前景圖像進行二值化操作;
[0015] (2-5)統(tǒng)計二值化圖像在X方向和Y方向投影直方圖;
[0016] (2-6)統(tǒng)計每一幀感興趣區(qū)域內(nèi)的像素個數(shù),排除微小面積變化引發(fā)的干擾,然后 提取感興趣區(qū)域的幾何特征、Hog特征;
[0017] (2-7)將感興趣區(qū)域提取的幾何特征、Hog特征組合成運動特征向量,輸入到分類 器中,判斷感興趣區(qū)域是否存在吸煙行為產(chǎn)生的煙霧,若判斷出現(xiàn)場場景中存在香煙煙霧, 則啟動報警并保存該幀圖像;若判定場景中不存在香煙煙霧,跳至步驟(2-1),循環(huán)執(zhí)行。
[0018] 優(yōu)選的,所述步驟(1-1)中,正樣本個數(shù)為1000~2000個,負樣本個數(shù)為3000~ 5000個。可選定正樣本個數(shù)為1500個,負樣本個數(shù)為4000個。
[0019] 優(yōu)選的,所述步驟(2-1)中,視頻采樣間隔為0~0.1秒,且大于10幀每秒??蛇x定視 頻采樣間隔為〇. 04秒,即25幀每秒
[0020] 優(yōu)選的,所述步驟(2-2)中,采用混合高斯模型算法提取前景目標區(qū)域,具體方法 如下:
[0021 ]系統(tǒng)啟動時,系統(tǒng)默認監(jiān)控場景中不存在香煙煙霧,自動初始化混合高斯模型的 各個參數(shù);
[0022]圖像中的像素點隨時間變化可看作為一個時間序列1*(1#) = {乂1,心,一乂1},其中 Μχ,μ)為隨機變量Xi的觀測數(shù)據(jù)集,xAi時刻像素的樣本,μ為樣本均值;
[0023]背景像素點的特征值受時間的變化影響不大,可認為其服從高斯分布,即對圖像 中每個像素點進行高斯建模,每個像素點建立多個高斯模型用以增加魯棒性,即服從Κ個高 斯分布的疊加;
[0024]
[0025] 7-0.
[0026] 式中,Κ為高斯模型的個數(shù);c〇1>t為第i個高斯模型的權(quán)值,體現(xiàn)該模型被匹配上的 概率;m為第i個高斯模型概率密度函數(shù);Xt為t時刻的圖像;yi, t為均值;Σ ;^為協(xié)方差矩陣;
[0027] 其中,
'η為樣本向 量的維數(shù);
[0028]圖像中紅色R,綠色G,藍色Β三個顏色通道相互獨立,并擁有相同的方差,則協(xié)方差 矩陣2;^ = 〇^1,其中〇^為像素1在1:時刻的方差,1為單位矩陣,這樣相當于將每個像素點 簡化為一維的高斯分布;
[0029] Κ個高斯模型根據(jù)權(quán)重w/α2按降序排序,權(quán)重大、標準差小的模式排列靠前,選前C 個模型認為是背景區(qū)域:
[0030]
[0031]式中,的定義是從第一個高斯分布開始累加高斯分布的權(quán)重,直至第b個高 k=i 斯分布;b表不第b個高斯分布,wk表不第k個高斯分布的權(quán)重值,w表不高斯分布的權(quán)重值,α e (0,1)稱為學習因子,w/α2是對高斯分布的權(quán)重值進行歸一化;
[0032] T為閾值,其余的(K-C)模型為前景目標區(qū)域;
[0033]每個新像素值Xt同當前K個模型按照IXt-y^l < 2.5〇^-1進行比較,直到找到匹 配新像素值的分布模型,即同該模型的均值偏差在2.5〇內(nèi);如果所匹配的模式符合背景要 求,則該像素屬于背景區(qū)域,否則屬于前景目標區(qū)域;
[0034] 各模式權(quán)值按下式更新
[0035] Wk,t = (l-a)*wk,t-i+a*Mk,t
[0036] 其中,ae(〇,l)稱為學習因子,體現(xiàn)像素點融入模型的快慢程度;Wk,t表示在t時刻 第k個高斯分布的權(quán)重值;WM-i表示在t-Ι時刻第k個高斯分布的權(quán)重值;M k,t表示是否為匹 配模式;
[0037]對于匹配的模式Mk,t = 1,否則Mk,t = 0,然后各模式的權(quán)重進行歸一化;
[0038] 未匹配模式的均值μ與標準差〇不變,匹配模式的參數(shù)按照如下公式更新:
[0039] p = a*n(Xt|yk,〇k)
[0040] yt= (l-p)*yt-i+p*Xt
[0041 ] = (1 ~ρ:)+ ρ ^ Μ )r -pt )
[0042] 其中,p = aq(Xt-:L|yt-:L,ot-0。
[0043] 如果沒有任何模式匹配,則權(quán)重最小的模式被替換掉,即該模式的均值為當前像 素值,標準差為初始較大值,權(quán)重為較小值;
[0044] 優(yōu)選的,在步驟(2-3)中,所述形態(tài)學操作的基本運算是腐蝕和膨脹運算,分別為:
[0045] (f?g)(n) =min{f(n+x)-g(x) | (n+x) EDf且 xEDg}
[0046]
[0047] 其中,f(n)是輸入信號,定義域為Df={0,l,2,……,N};g(n)為一維結(jié)構(gòu)元素序 列,其定義域為D g= {0,1,2,……,Ρ};N和P都是整數(shù),N 2 Ρ; X為定義域08中的元素;?表示膨 脹運算,Θ表示腐蝕運算。
[0048] 優(yōu)選的,在步驟(2-4)中,最大類間方差法使用的是聚類的思想,把圖像的灰度數(shù) 按灰度級分成兩個部分,使得兩個部分之間的灰度值差異最大,每個部分之間的灰度差異
當前第1頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1