基于人臉檢測的監(jiān)控相機自定位方法及裝置的制造方法
【技術領域】
[0001] 本發(fā)明涉及圖像處理技術領域,具體而言涉及一種基于人臉檢測的監(jiān)控相機自定 位方法及裝置。
【背景技術】
[0002] 在視頻監(jiān)控系統(tǒng)中,當存在很多監(jiān)控相機的時候,知道相機之間的相對位置關系 對于監(jiān)控應用很重要?,F(xiàn)有的監(jiān)控系統(tǒng)往往要人工對相機的位置進行標定。而在很多監(jiān)控 系統(tǒng)中,在相機安裝時并沒有對相機的相對位置進行記錄,或者在使用的過程中相機的位 置發(fā)生了改變。
[0003] -般的定位方法需要在被定位物上安裝發(fā)射或接收裝置。但是,市面上的監(jiān)控相 機往往沒有相應的裝置。因此,需要僅依賴相機傳回的圖像的定位方法。然而,一般的基于 圖像的定位方法需要多個圖像之間有較大的重疊區(qū)域以便匹配對應關系,這對相機密度的 要求很高,適用性不夠廣。
【發(fā)明內容】
[0004] 針對現(xiàn)有技術的不足,一方面,本發(fā)明提供一種基于人臉檢測的監(jiān)控相機自定位 方法,所述監(jiān)控相機自定位方法包括:從多個監(jiān)控相機中的每一個接收視頻流;對來自各 監(jiān)控相機的視頻流中的每一幀圖像進行人臉檢測以獲取人臉信息;針對所述每一幀圖像, 基于所獲取的人臉信息計算人臉相對于監(jiān)控相機的位置,并將人臉與所有其他監(jiān)控相機中 檢測到的人臉進行匹配以獲取相機間匹配信息;以及基于所述相機間匹配信息計算所述多 個監(jiān)控相機之間的相對位置。
[0005] 在本發(fā)明的一個實施例中,所述相機間匹配信息表示為(Ii,Ui,Ji,Vi,Ti),所述 (Ii,Ui,Ji,Vi,Ti)表示第i組匹配是監(jiān)控相機Ii中相對相機位置為Ui的人臉與Ti秒之 前監(jiān)控相機Ji中相對相機位置為Vi的人臉相匹配。
[0006] 在本發(fā)明的一個實施例中,對多個監(jiān)控相機之間的相對位置的計算采用如下公式 進行:
[0007]
[0008] 其中,以任一監(jiān)控相機的位置為原點,并以所述監(jiān)控相機成像的橫向和縱向為x、y 方向建立坐標系,Pi表示每個監(jiān)控相機的位置,Ri表示每個監(jiān)控相機的朝向矩陣;v表示人 類的步速。
[0009] 在本發(fā)明的一個實施例中,所述人臉相對于監(jiān)控相機的位置表示為 Oiz//,jz//:,z),其中,
[0010]
[0011]
[0012] 其中,(x0,y0)、(xl,yl)分別表示以圖像中心為原點圖像中人臉的兩眼位置,a表 示人臉的橫向轉動角度,iro表示成年人類的瞳距,f表示監(jiān)控相機的焦距與傳感器像素大 小的比值。
[0013] 在本發(fā)明的一個實施例中,所述人臉的兩眼位置和所述人臉的橫向轉動角度通過 人臉關鍵點檢測器來計算。
[0014] 在本發(fā)明的一個實施例中,所述人臉關鍵點檢測器包括事先訓練好的卷積神經(jīng)網(wǎng) 絡回歸器。
[0015] 在本發(fā)明的一個實施例中,所述人臉檢測采用AdaBoostCascade人臉檢測器實 現(xiàn)。
[0016] 在本發(fā)明的一個實施例中,所述人臉信息包括當前時間、人臉在圖像中的位置和 大小以及面部圖像。
[0017] 在本發(fā)明的一個實施例中,所述將人臉與所有其他監(jiān)控相機中檢測到的人臉進行 匹配基于局部二值特征進行。
[0018] 在本發(fā)明的一個實施例中,所述將人臉與所有其他監(jiān)控相機中檢測到的人臉進行 匹配包括將人臉與所有其他監(jiān)控相機在一個預定時間范圍內采集到的視頻中檢測到的人 臉進行匹配。
[0019] 另一方面,本發(fā)明還一種基于人臉檢測的監(jiān)控相機自定位裝置,其特征在于,所述 監(jiān)控相機自定位裝置包括:視頻采集模塊,用于從多個監(jiān)控相機中的每一個接收視頻流; 人臉檢測模塊,用于對來自各監(jiān)控相機的視頻流中的每一幀圖像進行人臉檢測以獲取人臉 信息;人臉分析模塊,用于針對所述每一幀圖像基于所獲取的人臉信息計算人臉相對于監(jiān) 控相機的位置,并將人臉與所有其他監(jiān)控相機中檢測到的人臉進行匹配以獲取相機間匹配 信息;以及相機定位模塊,用于基于所述相機間匹配信息計算所述多個監(jiān)控相機之間的相 對位置。
[0020] 本發(fā)明提供的基于人臉檢測的監(jiān)控相機自定位方法及裝置通過對多個監(jiān)控相機 的視頻流進行人臉檢測和人臉分析,可以自動計算出多個監(jiān)控相機之間的相對位置關系, 增強了監(jiān)控產(chǎn)品的功能。
【附圖說明】
[0021] 本發(fā)明的下列附圖在此作為本發(fā)明的一部分用于理解本發(fā)明。附圖中示出了本發(fā) 明的實施例及其描述,用來解釋本發(fā)明的原理。
[0022] 附圖中:
[0023] 圖1示出了根據(jù)本發(fā)明實施例的、基于人臉檢測的監(jiān)控相機自定位方法的流程 圖;以及
[0024] 圖2示出了根據(jù)本發(fā)明實施例的、基于人臉檢測的監(jiān)控相機自定位裝置的結構框 圖。
【具體實施方式】
[0025] 在下文的描述中,給出了大量具體的細節(jié)以便提供對本發(fā)明更為徹底的理解。然 而,對于本領域技術人員而言顯而易見的是,本發(fā)明可以無需一個或多個這些細節(jié)而得以 實施。在其他的例子中,為了避免與本發(fā)明發(fā)生混淆,對于本領域公知的一些技術特征未進 行描述。
[0026] 應當理解的是,本發(fā)明能夠以不同形式實施,而不應當解釋為局限于這里提出的 實施例。相反地,提供這些實施例將使公開徹底和完全,并且將本發(fā)明的范圍完全地傳遞給 本領域技術人員。
[0027] 在此使用的術語的目的僅在于描述具體實施例并且不作為本發(fā)明的限制。在此使 用時,單數(shù)形式的"一"、"一個"和"所述/該"也意圖包括復數(shù)形式,除非上下文清楚指出 另外的方式。還應明白術語"組成"和/或"包括",當在該說明書中使用時,確定所述特征、 整數(shù)、步驟、操作、元件和/或部件的存在,但不排除一個或更多其它的特征、整數(shù)、步驟、操 作、元件、部件和/或組的存在或添加。在此使用時,術語"和/或"包括相關所列項目的任 何及所有組合。
[0028] 為了徹底理解本發(fā)明,將在下列的描述中提出詳細的步驟以及詳細的結構,以便 闡釋本發(fā)明的技術方案。本發(fā)明的較佳實施例詳細描述如下,然而除了這些詳細描述外,本 發(fā)明還可以具有其他實施方式。
[0029] 本發(fā)明的實施例提供基于人臉檢測的監(jiān)控相機自定位方法,用于利用人臉檢測技 術實現(xiàn)基于視頻的多相機自定位。下面結合圖1詳細描述該方法。圖1示出了根據(jù)本發(fā)明 實施例的、基于人臉檢測的監(jiān)控相機自定位方法100的流程圖。如圖1所示,方法100包括 如下步驟:
[0030] 步驟101 :從多個監(jiān)控相機中的每一個接收視頻流。
[0031] 監(jiān)控系統(tǒng)可包括多個監(jiān)控相機,這些監(jiān)控相機可以與計算設備相連,從而由計算 設備從多個監(jiān)控相機中接收視頻流。
[0032] 步驟102 :對來自各監(jiān)控相機的視頻流中的每一幀圖像進行人臉檢測以獲取人臉 信息。
[0033] 示例性地,對于來自每個監(jiān)控相機的每一幀,可以使用人臉檢測器檢測圖中的所 有人臉。優(yōu)選地,可以采用AdaBoostCascade人臉檢測器進行人臉檢測?;诜e分圖的 AdaBoost方法先利用"積分圖"快速計算特征,構造弱分類器;然后通過AdaBoost學習算 法,從得到的大量弱分類器中產(chǎn)生一個高效的強分類器;最后采用級聯(lián)方式將單個的強分 類器再合成為一個更加復雜的層疊分類器,使圖像背景區(qū)域快速地丟棄。采用AdaBoost Cascade人臉檢測器可以實現(xiàn)真正實時的人臉檢測。
[0034] 在人臉檢測后,可以將檢測到的人臉信息記錄下來。示例性地,檢測到的人臉信息 可以包括當前時間、人臉在圖像中的位置和大小、以及人臉的面部圖像等。
[0035] 步驟103 :針對每一幀圖像,基于所獲取的人臉信息計算人臉相對于監(jiān)控相機的 位置,并將人臉與所有其他監(jiān)控相機中檢測到的人臉進行匹配以獲取相機間匹配信息。
[0036] 針對來自各監(jiān)控相機的每一幀圖像中所檢測到的人臉圖像,示例性地,可以采用 人臉關鍵點檢測器計算圖中人臉的兩眼的位置和人臉的橫向轉動角度。其中,人臉關鍵點 檢測器可以采用事先訓練好的卷積神經(jīng)網(wǎng)絡回歸器來實現(xiàn)?;谒嬎愕娜四槂裳鄣奈恢?和人臉的橫向轉動角度,可以計算人臉相對于監(jiān)控相機的位置(即相對相機位置)。示例性 地,人臉相對于監(jiān)控相機的位置可以表示為扣/八0//3,其可根據(jù)小孔成像原理計算得 出。其中,
[0037]
[0038]
[0039]
[0040] 并且其中,(xO,yO)、(xl,yl)分別表示以圖像中心為原點圖像中人臉的兩眼位置, a表示人臉的橫向轉動角度,iro表示成年人類的瞳距,f表示監(jiān)控相機的焦距與傳感器像 素大小的比值。示例性地,iro的典型取值可以為6cm。
[0041] 在計算人臉相對于監(jiān)控相機的位置之后,可以利用人臉身份識別算法(例如,局 部二值特征),將本幀圖像中的人臉圖像與所有其他監(jiān)控相機中檢測到的人臉進行匹配以 獲取相機間匹配信息。例如,利用人臉身份識別算法(例如,局部二值特征),將本幀圖像中 的人臉圖像與所有其他監(jiān)控相機在一個預定時間范圍內采集到的視頻中檢測到的人臉進 行匹配以獲取相機間匹配信息。如果人臉的面部圖像相似程度超過預定的閾值,那么認為 兩個人臉圖像是匹配的。
[0042] 優(yōu)選地,所述預定時間范圍可以包括截至到當前時刻的一個較短時間范圍,例如, 從30秒之前到當前時刻的一段時間。優(yōu)選地,對于每個其他監(jiān)控相機,可以僅保留時間最 靠后的一次匹配,并將得到的相機間匹配信息記錄下來。示例性地,相機間匹配信息可以表 示為(Ii,Ui,Ji,Vi,Ti)。(Ii,Ui,Ji,Vi,Ti)可以表示第i組匹配是監(jiān)控相機Ii中相對相 機位置為Ui的人臉與Ti秒之前監(jiān)控相機Ji中相對相機位置為Vi的人臉相匹配。
[0043] 步驟104 :基于相機間匹配信息計算多個監(jiān)控相機之間的相對位置。
[0044] 基于上述步驟記錄下來的信息,可以定期(例如每天或每周)進行監(jiān)控相機間相 對位置的計算。在計算監(jiān)控相機間的相對位置時,可以任取一個監(jiān)控相機的位置作為原點, 以其成像的橫向和縱向為X、y方向建立坐標系。可