本發(fā)明涉及智能交通技術(shù)領(lǐng)域,尤其涉及一種公交擁擠度實(shí)時狀態(tài)采集方法與裝置。
背景技術(shù):
目前,智能公交已經(jīng)成為交通信息化發(fā)展的重要方向,通過公交信息化建設(shè),將提升公交便捷性、智能化。在現(xiàn)有的智能公交系統(tǒng)中,主要包含以下功能:公交車輛的定位、線路跟蹤、到站預(yù)測、電子站牌信息發(fā)布、油耗管理。對于群眾而言,能夠在自己的手機(jī)上查看到出行公交車的位置、離站臺的距離將極大便利自己的出行。但僅僅提供這些信息還不能完全為群眾提供良好的出行參考,如:一趟公交車已經(jīng)離下一站非常近,但是車上已經(jīng)滿員,這個時候該趟公交已經(jīng)不適合乘坐,傳統(tǒng)的智能公交系統(tǒng)未能提供關(guān)于公交車擁擠狀態(tài)方面的信息。
申請公布號為CN 103761784A的一種《智能化公共交通信息交互與顯示系統(tǒng)》所述的系統(tǒng)中,通過上下車門踏板壓力毯來測算車內(nèi)人數(shù)。但在現(xiàn)實(shí)情況中,上下車時往往發(fā)生多人踩踏上下車門踏板的案例,且當(dāng)車內(nèi)擁擠時,經(jīng)常有乘客直接站在下車門踏板上,給統(tǒng)計帶來誤差。申請公布號為CN 204166696A的《一種基于智能視頻的公交擁擠度采集裝置及方法》僅僅提出了判別方法,而未用具體算法與裝置予以說明實(shí)現(xiàn)方法。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明要解決的技術(shù)問題在于針對現(xiàn)有技術(shù)中的缺陷,提供一種公交擁擠度實(shí)時狀態(tài)采集方法與系統(tǒng)。
本發(fā)明解決其技術(shù)問題所采用的技術(shù)方案是:一種公交擁擠度實(shí)時狀態(tài)采集方法,包括以下步驟:
1)公交車到達(dá)站點(diǎn)后,公交站臺定位端發(fā)出信息開啟計時器;
2)計時器從0開始計時15秒后,觸發(fā)用于視頻獲取的攝像頭開啟,同時計時器進(jìn)行清0,繼續(xù)計時;所述用于視頻獲取的攝像頭為一個帶云臺的可旋轉(zhuǎn)式攝像頭,設(shè)置在公交車內(nèi)的頂部的中部;
3)攝像頭以36゜/s旋轉(zhuǎn)并拍攝視頻;
4)計時器計時至5秒,觸發(fā)用于視頻獲取的攝像頭關(guān)閉;
5)采用無線傳輸將獲取的視頻上傳至云服務(wù)器;
6)云服務(wù)器中的視頻分幀端將上傳的視頻分解為n張圖像,并進(jìn)行座椅空閑數(shù)判別,得出第i張圖像的空閑座位數(shù)ai;其中1≤i≤n;
7)人像距離計算:計算第i張圖像中出現(xiàn)的人像進(jìn)行檢測分析并確立多個人像中心點(diǎn),測算其最鄰近中心點(diǎn)之間的距離,計算平均值ti及方差si2;
所述步驟7)中人像距離計算具體如下:首先構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型,輸入采集的圖像作為訓(xùn)練樣本,完成BP神經(jīng)網(wǎng)絡(luò)模型的權(quán)值確定;其次,在進(jìn)行識別時,將測試的第i張圖像輸入到已經(jīng)訓(xùn)練完成的BP神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行計算,擬合出人像的識別區(qū)域的中心位置,然后從某一個中心位置開始,連接與其距離最近的下一個點(diǎn),即進(jìn)行不重復(fù)的連接,測算反映擁擠度狀態(tài)的參數(shù),包括第i張圖像的人像中心點(diǎn)個數(shù)ki和最鄰近點(diǎn)距離平均值ti和方差si2。
8)根據(jù)下述公式測算擁擠度I,并使用最新計算獲得的擁擠度更新公交實(shí)時擁擠度數(shù)據(jù);
按上述方案,所述步驟6)中進(jìn)行座椅空閑判斷時,通過訓(xùn)練SVM分類器并使用該分類器進(jìn)行座椅空閑判別。
一種公交擁擠度實(shí)時狀態(tài)采集裝置,包括:
GPS公交站臺定位端,用于判斷公交車是否已經(jīng)到站,當(dāng)公交車到達(dá)站點(diǎn)后,公交站臺定位端發(fā)出信息開啟計時器;
計時器,用于被公交站臺定位端觸發(fā)后,從0開始計時15秒,觸發(fā)視頻獲取端開啟;然后繼續(xù)計時5秒,觸發(fā)視頻獲取端關(guān)閉;
視頻獲取端,用于以36゜/s旋轉(zhuǎn)并拍攝公交車內(nèi)的視頻,并將獲取的視頻上傳至云服務(wù)器
云服務(wù)器,所述云服務(wù)器包括:
視頻分幀端,用于將上傳的視頻分解為n張圖像;
座椅空閑判別裝置,用于通過訓(xùn)練SVM分類器并使用該分類器對n張圖像進(jìn)行座椅空閑判別,得出第i張圖像的空閑座位數(shù)ai;其中1≤i≤n;
人像距離計算裝置,用于計算第i張圖像中出現(xiàn)的人像進(jìn)行檢測分析并確立多個人像中心點(diǎn),測算其最鄰近點(diǎn)之間的距離,計算平均值ti及方差si2;
擁擠度計算裝置,用于根據(jù)座椅空閑判別裝置和人像距離計算裝置的結(jié)果,采用以下公式計算擁擠度I,并使用最新計算獲得的擁擠度更新公交實(shí)時擁擠度數(shù)據(jù);
按上述方案,所述人像距離計算裝置中人像距離計算使用BP神經(jīng)網(wǎng)絡(luò)方法訓(xùn)練樣本,擬合人像的中心點(diǎn)位置,并計算其與其他擬合點(diǎn)的距離平均值和方差。
按上述方案,所述人像距離計算裝置中人像距離計算具體如下:首先構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型,輸入采集的圖像作為訓(xùn)練樣本,完成BP神經(jīng)網(wǎng)絡(luò)模型的權(quán)值確定;其次,在進(jìn)行識別時,將測試的第i張圖像輸入到已經(jīng)訓(xùn)練完成的BP神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行計算,擬合出人像的識別區(qū)域的中心位置,然后從某一個中心位置開始,連接與其距離最近的下一個點(diǎn),即進(jìn)行不重復(fù)的連接,測算反映擁擠度狀態(tài)的參數(shù),包括第i張圖像的人像中心點(diǎn)個數(shù)ki和最鄰近點(diǎn)距離平均值ti和方差si2。
本發(fā)明產(chǎn)生的有益效果是:本發(fā)明通過對公交車內(nèi)的視頻獲取與分析,實(shí)現(xiàn)了擁擠度的計算,能夠為出行群眾提供參考,且有利于城市公共交通調(diào)度,制定更為合理的交通計劃。
附圖說明
下面將結(jié)合附圖及實(shí)施例對本發(fā)明作進(jìn)一步說明,附圖中:
圖1是本發(fā)明實(shí)施例的結(jié)構(gòu)示意圖;
圖2是本發(fā)明實(shí)施例的座椅空閑示意圖;
圖3是本發(fā)明實(shí)施例的人像距離示意圖。
具體實(shí)施方式
為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,以下結(jié)合實(shí)施例,對本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
如圖1所示,一種公交擁擠度實(shí)時狀態(tài)采集裝置,包括:
GPS公交站臺定位端,用于判斷公交車是否已經(jīng)到站,當(dāng)公交車到達(dá)站點(diǎn)后,公交站臺定位端發(fā)出信息開啟計時器;
計時器,用于被公交站臺定位端觸發(fā)后,從0開始計時15秒,觸發(fā)視頻獲取端開啟;然后繼續(xù)計時5秒,觸發(fā)視頻獲取端關(guān)閉;
視頻獲取端,用于以36゜/s旋轉(zhuǎn)并拍攝公交車內(nèi)的視頻,并將獲取的視頻上傳至云服務(wù)器
云服務(wù)器,所述云服務(wù)器包括:
視頻分幀端,用于將上傳的視頻分解為n張圖像;
座椅空閑判別裝置,用于通過訓(xùn)練SVM分類器并使用該分類器對n張圖像進(jìn)行座椅空閑判別,得出第i張圖像的空閑座位數(shù)ai;其中1≤i≤n;
人像距離計算裝置,用于計算第i張圖像中出現(xiàn)的人像進(jìn)行檢測分析并確立多個人像中心點(diǎn),測算其最鄰近點(diǎn)之間的距離,計算平均值ti及方差si2;
擁擠度計算裝置,用于根據(jù)座椅空閑判別裝置和人像距離計算裝置的結(jié)果,采用以下公式計算擁擠度I,并使用最新計算獲得的擁擠度更新公交實(shí)時擁擠度數(shù)據(jù);
其中,ai為座椅空閑判別裝置得出某張圖像的空閑座位數(shù),ki為人像距離計算裝置得出人像中心點(diǎn)個數(shù),最鄰近點(diǎn)距離平均值ti、方差為si2;n為分幀后的圖像數(shù)量:
視頻獲取端為一個帶云臺的可旋轉(zhuǎn)式攝像頭,安裝位置在公交車內(nèi)的頂部。視頻獲取端開始工作后,將以36゜/s的速度進(jìn)行旋轉(zhuǎn),邊旋轉(zhuǎn)邊進(jìn)行錄制。
結(jié)合圖2,闡述本發(fā)明的座椅空閑判別裝置的原理。座椅空閑判別裝置依據(jù)SVM的分類方法進(jìn)行訓(xùn)練,訓(xùn)練的正樣本為543張空閑座椅圖片,負(fù)樣本為4974張坐有人的座椅圖片、人像圖片以及其余雜圖,訓(xùn)練完成后使用得到的分類器對圖像進(jìn)行甄別,得出第i張圖像的空閑座位數(shù)量ai。
上述SVM方法的全稱為支持向量機(jī)算法,為一種分類算法,通過尋求結(jié)構(gòu)化風(fēng)險最小來提高學(xué)習(xí)機(jī)泛化能力,實(shí)現(xiàn)經(jīng)驗風(fēng)險和置信范圍的最小化,它是一種二類分類模型,其基本模型定義為特征空間上的間隔最大的線性分類器,即支持向量機(jī)的學(xué)習(xí)策略便是間隔最大化,最終可轉(zhuǎn)化為一個凸二次規(guī)劃問題的求解。故采用該種算法,座椅空閑判別裝置可將空閑座椅分為一類、其余狀態(tài)圖像分為一類。
結(jié)合圖3,闡述本發(fā)明的人像距離計算裝置的原理。人像距離計算裝置首先需要構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型,輸入訓(xùn)練樣本完成權(quán)值的確定。在進(jìn)行識別時,將測試的第i張圖像輸入到已經(jīng)訓(xùn)練完成的BP神經(jīng)網(wǎng)絡(luò)模型中進(jìn)行計算,擬合出人像的識別區(qū)域的中心位置。從某一個中心位置開始,連接與其距離最近的下一個點(diǎn),即進(jìn)行不重復(fù)的連接,測算第i張圖像的人像中心點(diǎn)個數(shù)ki,最鄰近點(diǎn)距離平均值ti、方差
進(jìn)一步地,在圖3中,方框為神經(jīng)網(wǎng)絡(luò)判別的站立人像識別區(qū)域,圓點(diǎn)為擬合出人像的中心位置。
需要說明的是,上述訓(xùn)練樣本由個正樣本與負(fù)樣本組成。正樣本包括1484張站立人像圖片,負(fù)樣本為8029張圖像,包括公交上的座位,座位上的人,以及其余圖片。
需要說明的是,所述BP神經(jīng)網(wǎng)絡(luò)為一個BP神經(jīng)網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),可以分為三層,分別為輸入層、隱藏層、輸出層。層與層之間采用全連接映射,同層之間的神經(jīng)單元之間沒有連接,這樣經(jīng)過層層處理,可以實(shí)現(xiàn)將輸入的向量X=(x1,x2…xn)非線性映射到向量Y=(y1,y2...yn)。
根據(jù)上述裝置,本發(fā)明還提出了一種公交擁擠度實(shí)時狀態(tài)采集方法,包括以下步驟:
1)公交車到達(dá)站點(diǎn)后,公交站臺定位端發(fā)出信息開啟計時器;
2)計時器從0開始計時15秒后,觸發(fā)用于視頻獲取的攝像頭開啟,同時計時器進(jìn)行清0,繼續(xù)計時;所述用于視頻獲取的攝像頭為一個帶云臺的可旋轉(zhuǎn)式攝像頭,設(shè)置在公交車內(nèi)的頂部的中部;
3)攝像頭以36゜/s旋轉(zhuǎn)并拍攝視頻;
4)計時器計時至5秒,觸發(fā)用于視頻獲取的攝像頭關(guān)閉;
5)采用無線傳輸將獲取的視頻上傳至云服務(wù)器;
6)云服務(wù)器中的視頻分幀端將上傳的視頻分解為n張圖像,并進(jìn)行座椅空閑數(shù)判別,得出第i張圖像的空閑座位數(shù)ai;其中1≤i≤n;
7)人像距離計算:計算第i張圖像中出現(xiàn)的人像進(jìn)行檢測分析并確立多個人像中心點(diǎn),測算其最鄰近點(diǎn)之間的距離,計算平均值ti及方差si2;
8)根據(jù)下述公式測算擁擠度I,并使用最新計算獲得的擁擠度更新公交實(shí)時擁擠度數(shù)據(jù);
應(yīng)當(dāng)理解的是,對本領(lǐng)域普通技術(shù)人員來說,可以根據(jù)上述說明加以改進(jìn)或變換,而所有這些改進(jìn)和變換都應(yīng)屬于本發(fā)明所附權(quán)利要求的保護(hù)范圍。