亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于圖像處理的駕駛員未系安全帶檢測識別方法

文檔序號:9727721閱讀:3934來源:國知局
一種基于圖像處理的駕駛員未系安全帶檢測識別方法
【技術領域】
[0001]本發(fā)明涉及圖像模式識別及智能交通領域,具體是關于智能交通系統(tǒng)中采用圖像處理技術自動檢測駕駛員未系安全帶的一種方法,特別針對通過高清監(jiān)控攝像機抓拍的卡口圖片。
【背景技術】
[0002]隨著人工智能技術的飛速發(fā)展,運用圖像處理及電子信息技術實現安全、高效的管理的成為智能交通的一個主要發(fā)展方向。據有關部門從大量的交事故數據中統(tǒng)計得出,排除其他人員的傷亡數據,單就駕駛員傷亡這一數字來看,不系安全帶是造成死亡事故的第三大原因,僅次于超速行駛和酒后駕駛。汽車事故調查表明,在發(fā)生正面撞車時,如果系了安全帶,可使死亡率減少57%,側面撞車時可減少44%,翻車時可減少80%。因此如何有效的監(jiān)管駕駛員是否系安全帶并促使駕駛員有意識的養(yǎng)成安全文明駕車的習慣,從而最終達到減少交通事故中的人員傷亡是一個有意義的課題。
[0003]近些年來,基于圖像處理技術的智能交通系統(tǒng)目前已經取得了非常廣泛的應用,但通過高清監(jiān)控攝像機采集的卡口圖像數據來分析駕駛員是否系了安全帶仍然面臨著諸多困難,沒有非常成熟的算法。如何通過圖像識別的高端技術手段,輔助交警通過強制執(zhí)法處罰不系安全帶的駕駛行為,來提高駕駛員自覺系安全帶的意識是一個全新的研究方向。本發(fā)明就是致力于采用圖像處理的技術手段來解決這一難題。

【發(fā)明內容】

[0004]本發(fā)明針對高清監(jiān)控攝像機拍攝的卡口圖片,提出了一種自動檢測識別駕駛員未系安全帶的方法,該方法主要由四個部分構成:
[0005]S1:車牌定位模塊,所述車牌定位是指通過對原始圖像數據進行分析,自動輸出圖片中機動車輛的車牌屬性,包括車牌位置和車牌顏色,初步確認圖片中車輛的位置信息。然后根據車牌位置,以車牌為基準向上拓展3至5個車牌的寬度,向右拓展2至5個車牌的寬度即可得到駕駛員的候選區(qū)域。
[0006]S2:駕駛員檢測模塊,駕駛員檢測模塊主要完成駕駛員上半身區(qū)域的精確定位。本發(fā)明提出了一種全新的通過分析駕駛員頭肩特征并結合AdaBo ο s t算法的駕駛員上半身定位方法。為了適應各種復雜的環(huán)境,本發(fā)明收集了 10萬張駕駛員頭肩區(qū)域樣本圖片,30萬張非駕駛員頭肩區(qū)域的車窗區(qū)域負樣本,采用AdaBoost算法構建了一個非常穩(wěn)定的駕駛員頭肩區(qū)域檢測器。AdaBoost是一種迭代尋優(yōu)的算法,針對訓練樣本集反復訓練出多個簡單的分類器,最后再將這些分類器組合起來形成一個分類能力更強的分類器。
[0007]S3:圖像清晰度分析模塊,在S2的基礎上,檢測到駕駛員區(qū)域后,進一步對該區(qū)域的圖像清晰程度進行分析。具體為本發(fā)明提出了采用sobel邊緣梯度特征并結合支撐向量機的圖像清晰度分析方法,人工將預先準備的所有駕駛員區(qū)域圖像樣本集分為清晰和不清晰的兩部分,分別提取每一個樣本的sobel邊緣梯度特征,得到清晰和不清晰的兩類圖像的邊緣梯度表述,再結合線性支撐向量機訓練出一個穩(wěn)定性極高的清晰/不清晰的判別模型。利用該模型,即可評判其他駕駛員區(qū)域圖像是否清晰。不清晰的圖像將直接被視為駕駛員已經系了安全帶而不做進一步分析。
[0008]S4:安全帶檢測模塊,本發(fā)明提出了一種全新的基于深度卷積網絡的安全帶檢測算法,該網絡使用了 10萬張清晰的駕駛員頭肩區(qū)域樣本訓練而成,其中5萬張系安全帶的正樣本和5萬張沒系安全帶的負樣本,實踐證明基于深度卷積網絡的安全帶檢測具有非常高的檢測識別精度。本發(fā)明的優(yōu)選網絡結構由1個輸入層,4個卷積層,3個下采樣層,2個全連接層和1個輸出層構成。
【附圖說明】
:
[0009]下面結合附圖的詳細說明將更為清晰的解釋本發(fā)明的特征、目的和優(yōu)勢,其中:
[0010]圖1是表示本發(fā)明的整體流程框架示意圖。
【具體實施方式】
[0011 ]現在,將參照附圖描述本發(fā)明的優(yōu)選實施例。
[0012]圖1表示本發(fā)明的整體流程示意圖。
[0013]如圖1所示,本發(fā)明由車牌定位模塊S1、駕駛員檢測模塊S2、圖像清晰度分析模塊S3、安全帶檢測模塊S4這個四個部分構成。
[0014]S1:車牌定位模塊,通過對原始圖像數據進行分析,自動輸出圖片中機動車輛的車牌屬性,根據車牌可初步確認圖片中車輛的位置。
[0015]車牌定位的作用主要是可以根據車牌位置粗略估計駕駛員所在的位置,本實施例中采用的具體方法是以車牌位置為基準,向上拓展3至5個車牌的寬度,向右拓展2至5個車牌的寬度。
[0016]S2:駕駛員檢測模塊,車窗內環(huán)境較為復雜,再加上車窗的反光等干擾,難以通過檢測駕駛員的人臉特征來實現駕駛員位置的準確定位。本發(fā)明提出了一種分析駕駛員頭肩特征并結合AdaBoos t算法的駕駛員上半身定位方法。
[0017]采用AdaBoost檢測駕駛員的基本原理是:
[0018]S21、離線構建駕駛員檢測的分類模型,具體分為如下兩步:
[0019]1)準備駕駛員頭肩部分的正樣本圖片集合和非駕駛員頭肩部分的負樣本圖片集合。為了能夠適應各種復雜的環(huán)境,提高駕駛員檢測算法的魯棒性,本發(fā)明收集了不同環(huán)境下的駕駛員頭肩區(qū)域正樣本100000張,所有駕駛員圖片的寬高均歸一化為30x18。非駕駛員的負樣本圖片的收集,本發(fā)明并非是采用隨意抓取的一些圖片,而是將車頭圖像經過特殊處理(抹掉駕駛員及副駕駛區(qū)域)而得到的,為了提升負樣本集合的多樣性,本發(fā)明累從各種不同的卡口圖片中收集的負樣本圖片達30萬張。
[0020]2)使用100000張駕駛員頭肩正樣本再結合經典的AdaBoost方法,通過幾天的訓練可得到判斷一個圖像區(qū)域是否為駕駛員頭肩區(qū)域的分類器。
[0021]S22、在線的駕駛員頭肩區(qū)域檢測
[0022]在依據車牌位置估計得到的車窗候選區(qū)域中中,遍歷所有位置尺度為30x18的子窗口圖像,分別采用S21中訓練的模型進行判斷,得出該子窗口區(qū)域是否為駕駛員頭肩部分的結論。由于攝像機安裝位置的原因,圖像中車輛的大小存在一
當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1