亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種快速準確的正面人臉判別方法

文檔序號:6470445閱讀:539來源:國知局
專利名稱:一種快速準確的正面人臉判別方法
技術(shù)領(lǐng)域
本發(fā)明屬于模式識別技術(shù)領(lǐng)域,具體涉及一種利用Adaboost算法與膚色檢測相結(jié)合 來做正面人臉判別的方法。
背景技術(shù)
人臉檢測與識別技術(shù)是模式識別和計算機視覺領(lǐng)域研究的一個熱點,有著十分廣泛 的應(yīng)用前景。在人臉檢測方面,Adaboost算法實現(xiàn)了實時的人臉檢測系統(tǒng),是人臉檢測 真正意義上走向?qū)嵱玫睦锍瘫?。在Paul Viola (參考文獻[l]: Paul Viola, Michael Jones. Rapid object detection using a boosted cascade of simple features. Proc IEEE Conference on Computer Vision and Pattern Recognition, pp:511-518, 2001)等人的方法中,禾U用了基于 類Haar特征構(gòu)造的弱分類器,通過積分圖像的方法快速計算這種特征,然后用Adaboost 算法在超完備的特征集中選擇少量的關(guān)鍵特征,訓(xùn)練出一個強分類器,再用級聯(lián)的方式 將單個的強分類器組合為級聯(lián)分類器。Adaboost人臉檢測算法因為檢測速度快且檢測精 度高,成為人臉檢測的主流算法。
然而,人臉識別技術(shù)仍然受到姿態(tài)變化、光照和大規(guī)模人臉數(shù)據(jù)庫等因素的制約, 其中姿態(tài)是影響識別率的一個重要因素。目前,大部分的識別算法只能應(yīng)用于同一類姿 態(tài)的人臉圖像中,姿態(tài)的變化將使得識別系統(tǒng)的性能急劇下降。而對于大多數(shù)的登錄系 統(tǒng)與安全檢査裝置,都是對象配合的應(yīng)用,能夠做到同姿態(tài)對比,從而保證較高的識別 率。正面人臉因其易于獲取和保持以及特征完備而常被應(yīng)用于人臉識別中。
一般的正面判別方法是先找出臉部特征點,然后根據(jù)特征點的位置以及其幾何關(guān)系 來判定人臉姿態(tài)。要確定人臉姿態(tài),必須包含至少兩類的特征點,例如眼睛與鼻尖,嘴 角與臉部邊緣等。而上述的特征點中,除了眼睛的特征比較明顯,能夠準確的定位之外, 其他的特征點較難確定,且易受環(huán)境光照影響。也有學(xué)者利用臉部象素的對稱性來判別 正面人臉,但受光照不均的影響更嚴重。而利用人臉輪廓信息來做正面判別的方法,計 算量大且效果不盡理想。楊瓊和丁曉青(參考文獻[2]:楊瓊,丁曉青對稱主分量分析及 其在人臉識別中的應(yīng)用,計算機學(xué)報Vol.26 No.9 Sept 2003, p.1146-1151)提出了一種 對稱主分量分析方法,但無法判斷左右旋轉(zhuǎn)的姿態(tài)。
正面判別的方法一方面需要準確,保持入庫與識別的人臉同為正面圖像,可以保證 較高的識別率;另一方面,正面判別方法需要快速,如果長時間沒法檢測出正面人臉,
待識別的人將失去耐心,姿態(tài)更難以保持,從而造成更長時間的等待以及識別率的下降。 因此,提出一種快速、準確的正面判別方法對提升識別率、提高識別系統(tǒng)的應(yīng)用性將有 很大幫助。
膚色作為人臉的重要信息,不依賴于臉部的細節(jié)與幾何特征,適用于各種姿態(tài)與表 情,具有相對的穩(wěn)定性并且和大多數(shù)背景物體的顏色相區(qū)別。因此,膚色對于區(qū)分人臉 和背景物體具有重要意義。因為膚色在顏色空間中的分布相對比較集中,合理選擇色彩
空間可以得到較準確的膚色檢測結(jié)果。在本發(fā)明中采用高斯膚色模型,并選用:rO"C6色 彩空間作為膚色統(tǒng)計分布的映射空間,因為該色彩空間具有以下優(yōu)點
(1) 在KX^色彩空間中,y代表明度的變化,Cr和C6分別代表紅色和藍色的
變化,這樣就把色彩中的亮度分量分離出來,分析時受到亮度影響較小。
(2) 分析O"和可以將三維的i G5降為二維,而且O"和兩維獨立分布。在
這個二維空間里,膚色的分布相對集中,聚類效果較好;
(3) y&C6色彩格式被廣泛應(yīng)用于電視等領(lǐng)域中,采用yCVC6顏色空間在視頻中
可以避免額外色彩空間轉(zhuǎn)換的計算。
而高斯膚色模型(參考文獻[3]: R丄Hsu, M. Abdel-Mottaleb and A.K. Jain. Face Detection in Color Images. IEEE Trans, on Pattern Analysis and Machine Intelligence, Vlo.24,No.5, May 2002)主要是利用統(tǒng)計學(xué)的原理,認為既然膚色是符合正態(tài)分布的隨 機樣本,在特征空間中的分布應(yīng)該符合高斯分布,并且因為高斯分布的數(shù)學(xué)表達形式簡 單、直觀,又是統(tǒng)計學(xué)中研究的比較深入的一種正態(tài)模型,所以對其加以利用具有一定 的優(yōu)越性。在本發(fā)明中,膚色檢測不是用于檢測整個人臉區(qū)域,而是用于判別人臉圖像 是否為正面姿態(tài),是在人臉區(qū)域上的小范圍的應(yīng)用,因此膚色檢測的結(jié)果受光照不均的 影響較少,運算速度更快。
本發(fā)明提出一種Adaboost算法與膚色檢測相結(jié)合的正面判別方法,可以快速準確 的判別姿態(tài)并切割出正面的裸臉,能有效的提高識別率。

發(fā)明內(nèi)容
本發(fā)明提出一種利用Adaboost算法與膚色檢測相結(jié)合的來進行正面判別的算法。該 算法是建立在人臉圖像檢測的基礎(chǔ)上,利用了臉部特征點以及膚色檢測的相關(guān)信息,整 個算法流程如圖l所示,具體內(nèi)容如下
(1) Adaboost人臉檢測使用基于Adaboost算法的人臉分類器對輸入的視頻幀或
圖片做人臉檢測。如果圖像尺寸比較大,可以用金字塔分解的方法壓縮圖像,以減小檢 測所需時間,檢測結(jié)果如圖2標記的人臉區(qū)域。
(2) Adaboost眼睛區(qū)域檢測使用基于Adaboost算法的眼睛分類器在檢測出來的 人臉圖像中搜索眼睛區(qū)域。因為眼睛是位于人臉的上半部分,所以,只需要在人臉圖像 的上半部分尋找眼睛即可。檢測結(jié)果是一個包含眉毛與下眼瞼的矩形區(qū)域(見圖2標記 的眼睛區(qū)域),可根據(jù)比例去除眉毛部分,只留下包含上下眼皮、眼珠以及左右眼角的 部分區(qū)域。
(3) 眼睛精確定位眼睛分類器只能檢測出眼睛的大概位置,屬于粗檢,在此基 礎(chǔ)上使用膚色檢測的方法確定眼睛區(qū)域內(nèi)的膚色區(qū)域,則非膚色區(qū)域即為眼眶(指包含 眼珠的橢圓框,見圖2標記的眼眶區(qū)域)區(qū)域。在眼眶區(qū)域內(nèi)通過尋找質(zhì)心來定位眼眶 中心點。
(4) 判斷人臉是否有x軸旋轉(zhuǎn)根據(jù)左右眼眶的中心位置的縱坐標可以判斷人臉 是否有x軸旋轉(zhuǎn)(如圖3所示),如果左右兩邊縱坐標即力與h之差的絕對值大于預(yù)先
設(shè)定的閾值,即眼睛不在一條水平線上,則表示人臉有向左右側(cè)的情況。
(5) 根據(jù)兩眼的距離切割裸臉因為Adaboost算法檢測出來的人臉圖像除了人臉 以外,通常還會存在一些背景,在進一步做正面判別之前需要進行裸臉提取。以兩眼距 離為基準,從兩眼中垂線向左右兩側(cè)按比例切割人臉,人臉圖像左右兩側(cè)邊界與兩眼位 置中垂線的距離相等。如圖4中的第二幅圖像所示,切割出來的裸臉圖像包括眉毛和部 分下巴之間的臉部,左右邊界為眼角以外的膚色區(qū)域,在下巴位置兩側(cè)存在少量背景。
(6) 根據(jù)兩側(cè)條帶的膚色點比例判斷人臉是否有z軸旋轉(zhuǎn)如圖4第三幅圖像所 示,對上一步驟切割出來的裸臉圖像,在兩側(cè)取出同樣大小的窄條帶,分別計算兩側(cè)條 帶的膚色點數(shù)。根據(jù)面部的對稱性,如果兩側(cè)膚色點數(shù)大致相等,表明兩側(cè)條帶所包含 的背景區(qū)域面積相近,則可以判定人臉圖像為正面;如果兩側(cè)膚色點數(shù)相差較大,如圖 5第三幅圖像所示,則表明一側(cè)包含的背景區(qū)域面積跟另一側(cè)的有較大差距,可以判定 人臉圖像存在左右旋轉(zhuǎn),為非正面臉。
本發(fā)明的整個算法流程圖參見圖1。
本發(fā)明特點
本發(fā)明提出了一種判斷人臉圖像是否正面的方法,該方法簡單易行,能快速準確的
進行正面判別。本發(fā)明提出的算法具有以下兩個顯著的特點
(1) 本發(fā)明中,在尋找眼睛中心點時,摒棄一般采用的找眼珠中心(一般以象素 較濃密的虹膜中心為眼珠中心)的方法,而是通過定位眼眶中心點作為眼睛的中心。將 眼睛的中心定位在固定的眼眶中心而不是活動的眼珠中心,這樣做使得根據(jù)兩眼距離按 比例切割出來的裸臉更加準確,取出的兩側(cè)條帶包含的是左右臉部對稱的部分,以此確 保下面的判別步驟的正確性。
如果以眼珠中心點為眼睛的中心,則在視頻應(yīng)用中,即使人在攝像頭前保持姿態(tài)不 變,兩眼的位置與距離也會隨著視線的方向而變化。若攝像頭與顯示界面在不同的位置 時情況更加難以控制,因為人們傾向于觀看視頻界面來察看自己的姿態(tài)是否為正面,此 時眼珠將向某一側(cè)偏離,由此切割出來的裸臉中眼睛兩側(cè)包含的人臉區(qū)域是不等,接著 的判別步驟得到的結(jié)果也將是錯誤的。
如圖6首幅圖像所示,當人臉保持正面姿態(tài),而視線卻不在正前方時,眼珠將向某 一側(cè)偏轉(zhuǎn),如果按照眼珠中心位置切割裸臉,將得到如圖6第二幅圖像所示的結(jié)果。可 以看到人臉左右部分明顯不對稱,再使用條帶方法檢測是否存在左右旋轉(zhuǎn)問題時將失效 (如圖6第三幅圖像所示)。如果人臉存在左右旋轉(zhuǎn),而視線偏向旋轉(zhuǎn)的反方向,如圖 7的人臉圖像所示,此時,如果根據(jù)眼珠中心位置切割裸臉,得到如圖7右下方所示結(jié) 果,使用條帶方法檢測人臉姿態(tài)時將會誤判該人臉為正面人臉。利用眼眶中心切割裸臉 的方法則不存在以上的問題。
(2) 本發(fā)明是根據(jù)左右窄條帶的膚色點數(shù)目比例來判斷是否存在左右旋轉(zhuǎn)的問題, 該方法一方面簡單易行、運算迅速,另一方面因為采用局部膚色檢測而不是對整個臉部 做膚色檢測,提高了膚色檢測的準確性。
本發(fā)明先利用Adaboost人臉分類器尋找人臉區(qū)域,再利用Adaboost眼睛分類器搜 索眼睛區(qū)域,然后基于膚色檢測方法確定眼眶中心,根據(jù)眼眶中心位置切割裸臉,最后 利用左右窄條帶膚色點數(shù)目比例來排除最容易出現(xiàn)卻最難判斷的左右旋轉(zhuǎn)的非正面姿 態(tài)人臉。以上所有步驟不涉及復(fù)雜的算法也不需要較大的運算量,因此可滿足實時應(yīng)用 的要求。
窄條帶約為整個人臉區(qū)域的10%左右,在進行膚色檢測操作時運算量少,運算速度 快,并且計算出左右條帶膚色點個數(shù)后直接比較即可判斷出人臉姿態(tài),而不需要任何其 它的復(fù)雜操作。與之相比,根據(jù)定位多個特征點并比較其相互關(guān)系的姿態(tài)判別方法則是 運算量大、速度慢,判別效果不盡理想。而根據(jù)對稱性判別的方法,其效果依賴于當前的光照情況,不理想的光照分布將造成判別結(jié)果錯誤。
不均勻的光照對膚色檢測的結(jié)果有很大影響。即使在一般的室內(nèi)光照情況下,不存 在干擾性光源(即在人臉附近某位置放置強光源),人臉左右兩部分的平均亮度一般也 是不相等的。高斯膚色模型是在假設(shè)色度獨立于亮度的基礎(chǔ)上建立的,而實際上,膚色 區(qū)域的顏色與亮度成非線性函數(shù)關(guān)系。因此,如果對人臉整體做膚色檢測,光照的變化 將不可避免的造成檢測結(jié)果的失誤。本發(fā)明中根據(jù)正面判別應(yīng)用的需要,只對狹窄的條 帶做膚色檢測,由于條帶內(nèi)光照變化十分細微,使得膚色檢測的結(jié)果比較準確,從而為 接下來的判別步驟奠定基礎(chǔ)。


圖1、正面人臉判別流程圖 圖2人臉示意圖
圖3根據(jù)眼眶中心位置縱坐標過濾向左右側(cè)的非正面人臉
圖4正面人臉圖像處理過程
圖5旋轉(zhuǎn)人臉圖像處理過程
圖6根據(jù)眼珠位置做正面判別失效
圖7分別以眼眶中心和眼珠位置切割裸臉兩種方法的比較 具體實施方案
以基于視頻的人臉檢測與識別應(yīng)用為例,說明本發(fā)明的具體實施過程。試驗采用普 通的500萬象素攝像頭,攝像頭與人臉的距離約為0.4米,處于一般的室內(nèi)光照環(huán)境下, 檢測與識別系統(tǒng)運行在PC機上。
步驟l: Adaboost人臉檢測
Adaboost算法自提出后就在機器學(xué)習(xí)領(lǐng)域受到了極大的關(guān)注,2001年P(guān)aul Viola 和Michael Jones將其引入人臉檢測問題,成為人臉檢測速度提高的一個轉(zhuǎn)折點。此后, 國內(nèi)外許多學(xué)者在此基礎(chǔ)上對其作了研究和改進,使其人臉檢測更加迅速和準確,從而
現(xiàn)在Adaboost算法成為人臉檢測的主流算法。
我們的檢測系統(tǒng)采用Adaboost層疊型人臉分類器檢測人臉。首先加載訓(xùn)練好的人 臉分類器,接著從視頻中捕獲一幀圖像,為減小檢測所需時間,首先對圖像做金字塔分
解,即將圖像壓縮成原來的四分之一大小,然后使用分類器對圖像做人臉檢測,最后返 回人臉在圖像中的位置信息。檢測出來的人臉圖像上至額頭,下至下巴,左右兩側(cè)包含 較多的背景圖像,如圖2所標記的人臉區(qū)域矩形框。 步驟2:眼睛粗定位
同樣使用Adaboost算法定位眼睛區(qū)域。因為眼睛是位于人臉的上半部分,所以, 只需要在人臉圖像的上半部分尋找眼睛即可。由于眼睛較小,而分類器的初始搜索窗口 尺寸相對較大,故將待檢測區(qū)域放大一倍。檢測眼睛時,首先加載眼睛分類器,在選定 的待檢測區(qū)域中運行分類器,最后以矩形框的方式分別返回兩眼的位置信息。檢測出來 的眼睛區(qū)域包括完整的眉毛、左右眼角以及眼睛下方的一些皮膚區(qū)域,如圖2所標記的 眼睛區(qū)域。
可根據(jù)比例去除眉毛部分,假設(shè)眼睛矩形框的高度與寬度分別為e" —m'^/z ,
/Y^、 、
則從上往下將ej;e —wWA* — 部分矩形區(qū)域去除,即可得
到?jīng)]有眉毛部分的眼睛區(qū)域。
步驟3:精確定位眼睛中心
在檢測出來的眼睛區(qū)域中精確定位眼睛的中心。采用膚色檢測和數(shù)學(xué)形態(tài)學(xué)的方法 將非膚色區(qū)域(即眼眶區(qū)域)分割出來,然后使用尋找重心的方法定位眼睛中心點。
(1)確定眼眶區(qū)域
分別對左右兩個眼睛區(qū)域做膚色檢測,標定皮膚區(qū)域,則非皮膚區(qū)域即為眼眶區(qū)域
(如圖2所示的眼眶區(qū)域)。下面介紹膚色檢測原理及眼眶提取的方法。 1、高斯膚色模型
本發(fā)明采用高斯膚色模型,在;rc6o色彩空間中做膚色檢測。高斯模型是利用正態(tài) 分布來擬合皮膚顏色的概率密度分布,認為像膚色這樣符合正態(tài)分布的隨機樣本在特征 空間中的分布應(yīng)該符合高斯分布。
令膚色像素在色度空間中表示為向量x = (O,C。7 ,這些像素在CVC6空間中的分布
相對集中,可用高斯分布來描述。采用訓(xùn)練的方法來計算得到這個分布的中心,然后根 據(jù)所考察的像素離該中心的遠近來得到它和膚色的相似度,從而得到一個原圖的相似度 分布圖,再按照一定的規(guī)則對該分布圖二值化,以最終確定膚色的區(qū)域。
計算相似度時,采用公式<formula>formula see original document page 9</formula>
其中,x是象素顏色分量,均值向量M和協(xié)方差矩陣C是高斯分布的參數(shù),由訓(xùn)
練樣本估計得到。
對于該高斯分布的參數(shù),己有相關(guān)學(xué)者利用大量樣本做了比較全面的統(tǒng)計,本發(fā)明
直接采用其結(jié)果,具體數(shù)據(jù)如下
<formula>formula see original document page 9</formula>
由上式計算出圖像中每個象素的膚色相似度后,將其歸一化到[O, l],再將該值乘 以255取整,即可得到相似度圖。
2、閾值分割
采用最大類間方差法對相似度圖做閾值分割。最大類間方差法是在最小二乘法原理 基礎(chǔ)上推導(dǎo)出來的,其基本思路是以某一象素值為基準,將圖像的直方圖分割成兩部分, 當被分割開來的兩部分方差為最大時,則以當前選定的象素值為閾值。
設(shè)一幅圖像的灰度值范圍為[l,丄]級,灰度級為/的象素數(shù)為",,此時我們得到 總的像素個數(shù)W = |>,
各灰度級的概率A =4
將圖像按灰度級用閾值f劃分為兩類CQ ={0,1,2,…,"禾口C, =& + 1^ + 2_.丄-1
因此CQ類和類的出現(xiàn)概率及均值分別為
Q的概率<formula>formula see original document page 9</formula> Q類的均值<formula>formula see original document </formula>
9
q產(chǎn)生的概率a- §a=1-4), c,類的均值;/廣§^ = ^4^
1
其中,/^Z^,是圖像整體的均值,^>,是灰度級為1、的像素的均值,
,=0
顯然,對于任何的"直,都滿足p-Wo/zq+q//,,且Wq+^二1 兩類間的方差為
'Z、 / 、2 / 、2 / 、2 [,(。-;"01)12
_ (叫
最佳閥值Z = arg max (z1)
根據(jù)上面所述方法求得圖像分割的閾值,以此閾值將相似度圖二值化,將小于該閾
值的象素點置為1,大于閾值的象素點置為O,則非0區(qū)域即為眼睚區(qū)域(非膚色區(qū)域)。 由此得到的眼眶區(qū)域會存在一些毛刺和小孔,使用數(shù)學(xué)形態(tài)學(xué)處理方法,先后進行兩次 開操作和兩次閉操作即可得到較光滑的眼眶區(qū)域。 (2).確定眼眶中心位置
在上一步驟中己經(jīng)將眼睛區(qū)域二值化,眼眶區(qū)域為l,非眼眶區(qū)域為0,下面確定 眼眶區(qū)域的中心位置。我們計算目標區(qū)域的質(zhì)心作為其中心點。假設(shè)眼睛區(qū)域二值圖像
為/(;C,力,其中目標區(qū)域(即眼眶區(qū)域)為^,背景區(qū)域(即非眼眶區(qū)域)為6,艮P:
<formula>formula see original document page 10</formula>
目標區(qū)域的質(zhì)心(X。,^)定義如下 <formula>formula see original document page 10</formula>分別對左右眼眶區(qū)域計算質(zhì)心,即可得到左右眼眶的中心點位置坐標。
步驟4:判斷人臉是否有X軸旋轉(zhuǎn)
如圖3所示,假設(shè)左右眼睚的中心點坐標分別為(^,h)(X2,h),根據(jù)兩縱坐標乃與
h是否在一條水平線上,即可判別人臉是否存在向左右偏側(cè)的情況。正面人臉必須滿

<formula>formula see original document page 11</formula> 由此即可排除向左右偏側(cè)的人臉圖像。
步驟5:根據(jù)兩眼的距離切割裸臉
由于Adaboost算法檢測出來的人臉圖像通常存在一些背景,在進行正面判別之前 需要進行裸臉提取。因為人的臉部形狀與大小跟兩眼距離密切相關(guān),所以可以兩眼距離 為基準,按比例切割裸臉。
假設(shè)左右眼睚中心的距離為d ,則d可由兩中心點的橫坐標之差求得,即
根據(jù)距離j可以按比例切割裸臉,通過觀察人臉的形狀結(jié)構(gòu)及多次的試驗,總結(jié)出如下
切割規(guī)則<formula>formula see original document page 11</formula>
其中與;^'g^分別為裸臉圖像的寬度與高度,xq/^w與yq^w分別為左眼眶中心 點的坐標,且左眼眶的中心點距離左邊界的距離與右眼眶的中心點距離右邊界的距離相
等,各參數(shù)計算后均做取整處理。如圖4中的裸臉圖像所示,切割出來的裸臉圖像包括
少量的背景與上至眉毛下至嘴巴的裸臉區(qū)域。
步驟6:判斷人臉是否有Z軸旋轉(zhuǎn)
對于由上一步驟的得到的裸臉圖像,如圖4中的裸臉圖像所示,左右兩側(cè)的邊界剛 好落在眼角以外一點的膚色區(qū)域,上側(cè)邊界落在眉毛以上一點的區(qū)域,下側(cè)邊界落在嘴 巴以下一點的區(qū)域,且切割時兩眼中心分別與兩側(cè)邊界距離相等。因此,如果人臉不存 在左右旋轉(zhuǎn),如圖4中的裸臉圖像所示,則得到的裸臉圖像只在左下側(cè)與右下側(cè)位置存 在少量背景,而且背景區(qū)域面積基本相等;如果人臉存在左右旋轉(zhuǎn),由于兩眼中心分別 與兩側(cè)邊界等距,所以人臉旋轉(zhuǎn)朝向的一側(cè)背景面積將比另一側(cè)多,如圖5中的裸臉圖 像所示。根據(jù)左右兩側(cè)條帶膚色點個數(shù)是否存在較大差異可以將非正面人臉濾除。
分別在裸臉圖像的左右兩側(cè)取出同樣大小的窄條帶,例如以裸臉圖像寬度的10%為 寬,則取出的條帶寬度為M^^^0.1,高度為te/g&。根據(jù)步驟3所述的高斯膚色檢測
方法,分別對兩個條帶做膚色檢測,記錄下兩條帶所包含的屬于皮膚點的個數(shù),假設(shè)分 別為co^l與c卯W2。根據(jù)左右皮膚點的個數(shù)差異可判斷人臉是存在Z軸旋轉(zhuǎn),具體 判斷規(guī)則如下
分別計算兩側(cè)條帶的膚色點數(shù)。根據(jù)面部的對稱性,如果兩側(cè)膚色點數(shù)大致相等, 表明兩側(cè)條帶所包含的背景區(qū)域面積相近,則可以判定人臉圖像為正面;如果兩側(cè)膚色 點數(shù)相差較大,則表明一側(cè)包含的背景區(qū)域面積跟另一側(cè)有較大差距,可以判定人臉圖 像存在左右旋轉(zhuǎn),為非正面臉。經(jīng)過以上六個步驟,過濾非正面姿態(tài)人臉,即可得到標 準的正面人臉圖像。
權(quán)利要求
1、本發(fā)明提出一種基于Adaboost算法與膚色檢測相結(jié)合的正面人臉判別算法,其特征在于使用Adaboost分類器分別檢測人臉與眼睛、利用膚色檢測與質(zhì)心計算方法確定眼眶區(qū)域及其中心位置、根據(jù)眼眶中心位置縱坐標過濾向左右側(cè)的非正面人臉、根據(jù)眼眶中心位置切割裸臉和通過計算祼臉兩側(cè)條帶的膚色點數(shù)目比例判斷人臉是否存在左右旋轉(zhuǎn)問題。
2、 根據(jù)權(quán)利1所述的正面判別方法,其特征在于使用膚色檢測的方法確定眼眶區(qū) 域,使用計算質(zhì)心的方法確定眼眶中心位置,以眼眶的中心而不是以眼球的中心作為眼 睛的中心。
3、 根據(jù)權(quán)利1所述的正面判別方法,其特征在于首先根據(jù)兩眼眶中心點的縱坐標 過濾向左右側(cè)的非正面人臉;接著以兩眼眶中心點的位置與距離按比例切割裸臉,裸臉 圖像的中線與兩眼中垂線重合,左右眼眶中心點與左右邊界距離相等;然后在裸臉圖像 左右兩側(cè)各提取出一窄條帶,利用膚色檢測的方法計算兩條帶所包含的膚色點的個數(shù), 根據(jù)膚色點的個數(shù)比例來判別人臉是否存在左右旋轉(zhuǎn)的問題。
全文摘要
本發(fā)明提出一種利用Adaboost算法與膚色檢測相結(jié)合來做正面人臉判別的方法,屬于模式識別技術(shù)領(lǐng)域。本發(fā)明提出的算法首先利用Adaboost人臉分類器尋找人臉區(qū)域,再利用Adaboost眼睛分類器搜索眼睛區(qū)域,再基于膚色檢測與質(zhì)心計算方法確定眼眶中心,接著根據(jù)眼眶中心位置切割裸臉,最后利用眼睛位置與裸臉左右兩側(cè)窄條帶膚色點數(shù)目比例來排除非正面姿態(tài)人臉,從而得到標準的正面人臉圖像。本算法可過濾各種非正面人臉圖像,獲取標準的正面人臉圖像,可作為人臉識別的前置步驟,保證同姿態(tài)識別,從而提高識別率,亦可用于建立人臉數(shù)據(jù)庫時的正面姿態(tài)判別。
文檔編號G06K9/00GK101383001SQ20081021842
公開日2009年3月11日 申請日期2008年10月17日 優(yōu)先權(quán)日2008年10月17日
發(fā)明者劉金葵, 靜 李, 莫麗嫻, 譚恒良, 馬爭鳴 申請人:中山大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1