亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

復雜背景圖像中的魯棒人臉檢測方法

文檔序號:6631663閱讀:230來源:國知局
專利名稱:復雜背景圖像中的魯棒人臉檢測方法
技術領域
復雜背景圖像中人臉檢測方法屬于人臉識別技術領域。
背景技術
人臉檢測就是在圖像或圖像序列中確定人臉的位置、大小等信息。它目前廣泛應用于人臉識別、視頻監(jiān)控、智能人機接口等系統(tǒng)中。人臉檢測尤其是復雜背景下的人臉檢測同時也是一個困難的問題。這是由于外貌、膚色、表情、在三維空間中的運動等人臉本身的原因以及胡須、頭發(fā)、眼鏡、光照等外界因素造成人臉模式類內(nèi)變化巨大,并且由于背景物體非常復雜,難于與人臉區(qū)分開來。
目前人臉檢測的主流方法是基于樣本統(tǒng)計學習的檢測方法。此類方法一般引入了“非人臉”這個類別,通過對收集的樣本進行統(tǒng)計學習獲得“人臉”類別區(qū)別于“非人臉”類別的特征、模型的參數(shù),而不是根據(jù)直觀印象得到表層規(guī)律。這在統(tǒng)計意義上更為可靠,不僅避免了由于觀察的不完整、不精確而帶來的錯誤,還可通過增加訓練樣本擴充檢測的范圍,提高檢測系統(tǒng)的魯棒性;另外此類方法大多采用由簡單到復雜的多層分類器結構,先由結構簡單的分類器排除掉絕大部分背景窗口,然后由復雜的分類器對剩余的窗口進行進一步判斷,從而達到較快的檢測速度。但由于此類方法并沒有考慮到實際圖像中人臉和非人臉兩類模式分類錯誤風險極不平衡的特點(這是由于圖像中人臉出現(xiàn)的先驗概率遠低于非人臉的先驗概率,并且人臉檢測主要目的是找出人臉的位置,所以人臉被誤分為非人臉的風險遠大于非人臉誤判為人臉),只采用基于最小分類錯誤率的方法來訓練每一層分類器,通過調(diào)整分類器的閾值來達到對人臉較低的錯誤拒識率(False Rejection Rate,F(xiàn)RR),這樣并不能同時達到對非人臉模式較低的錯誤接受率(False Acceptance Rate,F(xiàn)AR);從而造成分類器層數(shù)過多、結構過于復雜、檢測速度慢,使算法整體性能下降。針對此類算法存在的缺陷,本發(fā)明提出了一種基于風險敏感AdaBoost算法(Cost Sensitive AdaBoost,簡稱CS-AdaBoost)的人臉檢測方法,采用最小化分類風險的原則使訓練得到的每一層分類器在保證對人臉模式極低的拒識率的同時,盡可能降低非人臉類別的誤接受率,從而以更少的分類器層數(shù)、更簡單的分類器結構實現(xiàn)復雜背景圖像下更高性能的人臉檢測,這是目前所有其他文獻里沒有使用過的方法。

發(fā)明內(nèi)容
本發(fā)明的目的在于實現(xiàn)一個能在復雜背景下魯棒定位人臉的人臉檢測器。該人臉檢測器的實現(xiàn)包括訓練和檢測兩個階段。
在訓練階段,首先應該進行樣本的采集,包括人臉和非人臉樣本的采集,然后對樣本進行尺寸和光照的歸一化處理;然后利用訓練樣本,進行微結構特征抽取,得到特征庫;然后利用特征庫結合CS-AdaBoost算法,訓練得到一層人臉/非人臉強分類器;重復以上訓練過程,得到結構由簡單到復雜的多層分類器;最后把這些分類器級聯(lián)起來,得到一個完整的人臉檢測器。
在檢測階段,首先是按照一定比例連續(xù)放縮輸入圖像,然后在得到的系列圖像中判別其中每一個一定尺寸的小窗口(定義輸入圖像中的一個矩形區(qū)域子圖像為一個小窗口)。對每一個小窗口,首先進行灰度歸一化處理,然后提取其微結構特征,用訓練好的人臉檢測器對小窗口進行判斷,如果任意一層分類器輸出低于指定閾值即認為該小窗口為非人臉而不進行后續(xù)判斷,只有那些通過所有層分類器判斷的小窗口被認為是一個人臉。從而得到極高的人臉檢測正確率。該方法已經(jīng)應用于基于人臉的考勤簽到系統(tǒng)等中。
本發(fā)明由以下幾部分組成樣本采集與歸一化、積分圖計算和微結構特征提取、特征選擇和分類器設計、多層分類器的級聯(lián)。
1.樣本采集與歸一化1.1樣本的采集即采用人手工標定的方法,從包含人臉的圖片中切割出人臉圖像,從不包含人臉的風景圖片中隨機切割出非人臉圖像。人臉圖像和非人臉圖像分別作為正例樣本和反例樣本用于訓練分類器。采集過程如圖2所示。
1.2尺寸歸一化將收集好的各尺寸的人臉和非人臉圖像歸一化為指定尺寸。設原始樣本圖像為[F(x,y)]M×N,圖像寬度為M,高度為N,圖像位于第x行第y列的象素點的值為F(x,y)(0≤x<M,0≤y<N);設尺寸歸一化后圖像為[G(x,y)]W×H,圖像寬度為W,高度為H,實驗中取W=H=20。這樣尺寸歸一化可以看成是將源圖像點陣[F(x,y)M×N映射成目標圖像點陣[G(x,y)]W×H的過程。本發(fā)明使用反向投影和線性插值將原始樣本圖像變換到標準尺寸樣本圖像,則輸入圖像[F(x,y)]M×N與歸一化后圖像[G(x,y)]W×H之間的對應關系為G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。
根據(jù)上式,輸出圖像點陣中的點(x,y)對應于輸入圖像中的點(x/rx,y/ry)。由于x/rx、y/ry的取值一般不為整數(shù),故需要根據(jù)附近已知離散點處的值來估計F(x/rx,y/ry)的取值。根據(jù)線性插值方法,對于給定(x,y),令x/rx=x0+Δxy/ry=y0+Δy,0≤Δx,Δy<1]]>其中x0=[x/rx],Δx=x/rx-x0y0=[y/ry],Δy=y/ry-y0,]]>[●]為取整函數(shù)。插值過程可表示為G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)1.3灰度歸一化由于外界光照、成像設備等因素可能導致圖像亮度或?qū)Ρ榷犬惓?,出現(xiàn)強陰影或反光等情況。所以還需要對幾何歸一化后的樣本進行灰度均衡化處理,改善其灰度分布,增強模式間的一致性。本發(fā)明采用灰度均值、方差歸一化對樣本進行灰度均衡化處理,將樣本圖片灰度的均值μ和方差σ調(diào)整到給定值μ0和σ0。
首先采用下式計算樣本圖像G(x,y)(0≤x<W,0≤y<H)的均值和方差μ-=1WHΣy=0H-1Σx=0W-1G(x,y)]]>σ‾=1WHΣy=0H-1Σx=0W-1(G(x,y)-μ‾)2]]>然后對每個像素點的灰度值進行如下變換I(x,y)=σ0σ‾(G(x,y)-μ‾)+μ0]]>從而將圖像灰度的均值和方差調(diào)整到給定值μ0和σ0,完成樣本的灰度歸一化。
2.微結構特征快速提取本發(fā)明采用圖5中的五種類型微結構模板來提取人臉和非人臉樣本的高維微結構特征每一種微結構特征通過計算模板黑色區(qū)域和白色區(qū)域內(nèi)所對應圖像中像素灰度和的差值來得到(此處是為了區(qū)別兩塊區(qū)域,分別給予不同的顏色,下同),并且模板在圖像中的位置以及模板的尺寸可以改變。具體特征提取方式如下定義S(x1,y1;x2,y2)為區(qū)域(x1≤x′≤x2,y1≤y′≤y2)內(nèi)的像素灰度和S(x1,y1;x2,y2)=Σx1≤x′≤x2Σy1≤y′≤y2I(x′,y′)]]>
設微結構模板左上角的像素坐標為(x,y),則如圖5所示五種類型微結構(前四種微結構中黑色區(qū)域與白色面積相等,第五種類型微結構中黑色區(qū)域在白色區(qū)域中的分布對稱)分別為(a)S(x,y;x+w-1,y+h-1)-S(x+w,y;x+2w-1,y+h-1)(b)S(x,y;x+w-1,y+h-1)-S(x,y+h;x+w-1,y+2h-1)(c)2S(x+w,y;x+2w-1,y+h-1)-S(x,y;x+3w-1,y+h-1)(d)S(x,y;x+2w-1,y+2h-1)-2S(x,y;x+w-1,y+h-1)--2S(x+w,y+h;x+2w-1,y+2h-1)(e)S(x,y;x+w-1,y+h-1)-S(x+2,y+2;x+w-3,y+h-3)由于每一種特征提取只涉及到矩形區(qū)域中像素和的計算問題,所以可以利用整幅圖像的積分圖像(Integral Image)快速得到任意尺度、任意位置的一種微結構特征。
2.1積分圖像對于一個圖像I(x,y),(x≥0,y≥0),定義其對應的積分圖像II(x,y)為從(0,0)到(x,y)范圍內(nèi)的所有像素之和,即II(x,y)=Σ0≤x′≤xΣ0≤y′≤yI(x′,y′),]]>并且定義II(-1,y)=0,II(x,-1)=0。
由此有S(x1,y1;x2,y2)=II(x2,y2)+II(x1-1,y1-1)-II(x2,y1-1)-II(x1-1,y2)。
即原始圖像I(x,y)中任何一個矩形區(qū)域中的像素和S(x1,y1;x2,y2)通過積分圖經(jīng)3次加減法可以計算出;同樣定義平方積分圖像SqrII(x,y)為從(0,0)到(x,y)范圍內(nèi)的所有像素平方之和,即SqrII(x,y)=Σ0≤x′≤xΣ0≤y′≤yI(x,y′)·I(x′,y′).]]>其中SqrII(-1,y)=0,SqrII(x,-1)=0。
平方積分圖像可用于計算每個矩形區(qū)域的方差(見2.3節(jié))。
2.2微結構特征的快速提取由于每一種特征提取只涉及到矩形區(qū)域中像素和的計算問題,所以以上任意一種微結構特征可以通過積分圖像若干次加減快速計算出,其中第(a)種類型微結構特征的計算公式(圖6所示)
g(x,y,w,h)=2·II(x+w-1,y-1)+II(x+2·w-1,y+h-1)+II(x-1,y+h-1)-2·II(x+w-1,y+h-1)-II(x+2·w-1,y-1)-II(x-1,y-1)第(b)種類型微結構特征g(x,y,w,h)=2II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-2H(x-1,y+h-1)-II(x+w-1,y+2h-1)+II(x-1,y+2h-1)第(c)種類型微結構特征g(x,y,w,h)=2II(x+2w-l,y+h-1)+2II(x+w-1,y-1)-2II(x+2w-1,y-1)-2II(x+w-1,y+h-1)-II(x+3w-1,y+h-1)-II(x-1,y-1)+II(x-1,y+h-1)+II(x+3w-1,y-1)第(d)種類型微結構特征g(x,y,w,h)=-II(x-1,y-1)-II(x+2w-1,y-1)-II(x-l,y+2h-1)-4II(x+w-1,y+h-1)+2II(x+w-1,y-1)+2II(x-1,y+h-1)-II(x+2w-1,y+2h-1)+2II(x+2w-1,y+h-1)+2II(x+w-1,y+2h-1)第(e)種類型微結構特征g(x,y,w,h)=II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-II(x-1,y+h-1)-II(x+w-3,y+h-3)-II(x+1,y+1)+II(x+1,y+h-3)+II(x+w-1,y+1)改變參數(shù)x,y,w,h可以提取不同位置、不同尺度的特征。對于一個20×20像素的樣本圖像,共可得到92267個五種類型的微結構特征,組成該樣本的特征矢量FV(j),1≤j≤92267。
2.3特征的歸一化為了減輕光照對于人臉檢測的影響,需要對每一個20×20像素樣本圖像進行灰度均值和方差的歸一化,所以首先要快速計算出小窗口的均值μ和方差σ,然后對每一維特征進行歸一化,其中的20×20像素小窗口區(qū)域(x0≤x′≤x0+19,y0≤y′≤y0+19)內(nèi)的像素灰度和的μ和σ分別為(如圖6所示)μ=[II(x0+19,y0+19)+II(x0-1,y0-1)-II(x0-1,y0+19)-II(X0+19,y0-1)]/400σ={[SqrII(x0+19,y0+19)+SqrII(x0-1,y0-1)-SqrII(x0-1,y0+19)-SqrII(x0+19,y0-1)]/400-μ2}1/2對每一維微結構特征可以進行如下的歸一化
FV(j)=σ0σ‾FV‾(j)]]>對于一個20×20像素的樣本圖像,共得到92267維微結構特征FV(j),1≤j≤92267。
3.特征選擇和分類器設計為達到足夠快的檢測速度,一個人臉檢測器必須采用分層結構(如圖7所示),由多層結構的從簡單到復雜的強分類器級聯(lián)起來構成。先由結構簡單的強分類器排除掉圖像中的背景窗口,然后由結構復雜的強分類器對余下窗口進行判斷(此處的強分類器是指在訓練集上達到足夠高性能的分類器;下文中的弱分類器是指在訓練集上錯誤率略低于0.5的分類器)。
本發(fā)明使用CS-AdaBoost算法訓練每層強分類器。CS-AdaBoost算法是一種弱分類器集成算法,可以將弱分類器組合成在訓練集上的強分類器;且CS-AdaBoost算法中區(qū)別對待兩類分類錯誤帶來的風險,使訓練集上的總分類錯誤風險最小化。對于人臉檢測問題,就是使訓練得到的強分類器在保證人臉類別上的足夠低的分類錯誤(FRR)的基礎上同時盡量降低非人臉類別的分類錯誤(FAR)。
3.1弱分類器的構造本發(fā)明中弱分類器是使用一維特征構造的樹分類器hj(sub)=1,ifgj(sub)<θjorgj(sub)>θj0,otherwise]]>其中sub是一個20×20像素的樣本,gj(sub)表示從該樣本提取得到的第j個特征,θj是第j個特征對應的判決閾值(該閾值通過統(tǒng)計所有采集的人臉和非人臉樣本的第j個特征使得人臉樣本的FRR滿足規(guī)定的要求來得到),hj(sub)表示使用第j個特征構造的樹分類器的判決輸出。這樣每個弱分類器只需要比較一次閾值就可以完成判決;共可得到92267個弱分類器。
3.2基于CS-AdaBoost算法的強分類器設計將CS-AdaBoost算法結合上述弱分類器構造方法用于訓練人臉/非人臉強分類器。訓練步驟如下(記訓練樣本集L={(subi,li)},i=1,...,n,li=0,1是樣本圖像subi的類別標號,分別對應非人臉類別和人臉類別,其中人臉樣本nface個,非人臉樣本nnonface個)3.2.1參數(shù)的初始化訓練樣本誤分類風險的初始化。對于每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數(shù),c值應大于1且隨著強分類器層數(shù)的增多逐漸減小接近于1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)·C(i)2c·nface+2·nnonface;]]>選擇迭代次數(shù)T(T即為希望使用的弱分類器的個數(shù)),T應隨著強分類器層數(shù)的增多逐漸增多,具體選擇值見表1;統(tǒng)計樣本集上每維特征的極大值Fmax(j)和極小值Fmin(j)(其中j為特征序號,1≤j≤92267)Fmax(j)=max1≤i≤nFVi(j),Fmin(j)=min1≤i≤nFVi(j);]]>3.2.2重復以下過程T次(t=1,...,T)3.2.2.1使用第j個特征(1≤j≤92267)構造弱分類器hj,然后在Fmin(j)和Fmax(j)間窮舉搜索閾值參數(shù)θj,使得hj的錯誤率εj最小,定義ϵj=Σi=1nDt(i)·|hj(subi)-li|;]]>3.2.2.2令ϵt=argmin1≤j≤92267ϵj,]]>并將其對應的弱分類器作為hj;3.2.2.3計算參數(shù)αt=12ln(1-ϵtϵt);]]>3.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-αtliht(subi))exp(λαtli)Zt,]]>其中λ=c-1c+1,]]>i=1....,n,Zt=Σi=1nDt(i)exp(-αtliht(subi))exp(λαtli).]]>3.2.3輸出最后的強分類器 3.3多層強分類器的級聯(lián)由于單層強分類器很難同時實現(xiàn)高分類速度,極低的FRR和極低的FAR等目標,所以整個人臉檢測器必須采用分層結構,由簡單到復雜將多層強分類器級聯(lián)起來,如圖7所示。在檢測時只要某個圖像窗口不能通過其中任何一層,可立即排除掉不進行后續(xù)的判斷,否則由后續(xù)更復雜的強分類器進行進一步的判斷。;所以對于明顯不像人臉的窗口圖像,在前幾級就可被排除,無需后續(xù)計算,從而大大節(jié)省了計算量。
使用11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集,多層強分類器級聯(lián)的具體訓練步驟如下(1)初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6,其中FAR和FRR的定義如下FAR=被判別為人臉的非人臉樣本個數(shù)÷非人臉樣本總數(shù)×100%FRR=被判別為非人臉的人臉樣本個數(shù)÷人臉樣本總數(shù)×100%(2)使用訓練樣本集采用3.2節(jié)中的方法訓練第i層強分類器;(3)用訓練得到的前i層分類器對樣本集進行檢測;(4)如果FRR、FAR未達到預定值,則i←i+1,返回步驟(2)繼續(xù)進行訓練;否則停止訓練。
最后訓練得到的人臉檢測器包括19層強分類器,共使用了3139個弱分類器。整個檢測器在人臉驗證集上的FRR約為0.15%,在非人臉訓練集上FAR約為3.2×10-6。表1給出其中若干層分類器的訓練結果。
表1 一些人臉/非人臉強分類器訓練結果

在檢測時如果一個窗口通過所有層分類器判決,則認為該窗口包含一個人臉。
本發(fā)明的特征在于,它是一種能夠在復雜背景和光照下魯棒地檢測各種人臉的技術,并且在標準視頻中能夠達到實時的檢測速度。它首先對收集到的樣本進行尺寸歸一化和光照歸一化,以最大限度地消除輸入樣本因光照和尺寸的不同而造成的類內(nèi)差異,然后高效率地提取能很好區(qū)別人臉與非人臉模式結構特點的微結構特征,在此基礎上利用CS-AdaBoost算法訓練得到具有極低FRR和極低FAR的強分類器,然后把多層強分類器級聯(lián)成一個完整的人臉檢測器,得到最終的人臉位置。
在由圖像采集設備和計算機組成的系統(tǒng)中,本檢測方法包括訓練階段和檢測階段。其中訓練階段依次含有以下步驟1.樣本的采集利用攝像頭、數(shù)碼相機、掃描儀等設備采集圖像,并將其中的人臉人工標定切割出來,建立人臉訓練樣本數(shù)據(jù)庫;從不包含人臉的風景圖片中隨機切割出非人臉訓練圖像。共得到11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集2.歸一化處理,包含樣本光照和大小的線性歸一化(2.1)尺寸歸一化設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化后為[G(x,y)]W×H,實驗中取W=H=20。使用反向投影和線性插值從原始樣本圖像得到歸一化后樣本圖像,則輸入圖像與歸一化后圖像之間的對應關系有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。由于x/rx、y/ry的取值一般不為整數(shù),故需要根據(jù)附近已知離散點處的值來估計F(x/rx,y/ry)的取值。本發(fā)明采用線性插值方法。對于給定(x,y),令x/rx=x0+Δxy/ry=y0+Δy,0≤Δx,Δy<1]]>其中x0=[x/rx],Δx=x/rx-x0y0=[y/ry],Δy=y/ry-y0,]]>[●]為取整函數(shù),可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)。
(2.2)灰度歸一化對尺寸歸一化后的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調(diào)整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=σ0σ‾(G(x,y)-μ‾)+μ0.]]>
其中μ‾=1WHΣy=0H-1Σx=0W-1G(x,y),σ‾=1WHΣy=0H-1Σx=0W-1(G(x,y)-μ‾)2;]]>3.樣本特征庫的獲取計算出積分圖以快速提取微結構特征,它依次含有以下步驟(3.1)計算每個樣本的積分圖根據(jù)定義使用II(x,y)=Σ0≤x′≤xΣ0≤y′≤yI(x′,y′)]]>計算每個樣本對應的積分圖II(x,y),并且有II(-1,y)=0,II(x,-1)=0。
(3.2)微結構特征庫的提取利用每一種微結構特征的定義以及以上積分圖快速提取每一個樣本對應的92267個特征,從而分別構成人臉樣本的特征庫和非人臉樣本的特征庫。
4.分類器設計用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,并將多層強分類器級聯(lián)起來組成一個完整的人臉檢測器。包括以下步驟(4.1)初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;(4.2)訓練第i層強分類器;(4.3)用訓練得到的前i層分類器對樣本集進行檢測;(4.4)如果FRR、FAR未達到預定值,則i←i+1,返回步驟(4.2)繼續(xù)進行訓練;否則停止訓練。
其中步驟(4.2)依次含有以下步驟(4.2.1)參數(shù)的初始化訓練樣本誤分類風險的初始化。對于每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數(shù),c值應大于1且隨著強分類器層數(shù)的增多逐漸減小接近于1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)·C(i)2c·nface+2·nnonface;]]>選擇迭代次數(shù)T(T即為希望使用的弱分類器的個數(shù)),T應隨著強分類器層數(shù)的增多逐漸增多,具體選擇值見表1);
統(tǒng)計樣本集上每維特征的極大值Fmax(j)和極小值Fmin(j)(其中j為特征序號,1≤j≤92267)Fmax(j)=max1≤i≤nFVi(j),Fmin(j)=min1≤i≤nFVi(j);]]>(4.2.2)重復以下過程T次(t=1,...,T)(4.2.2.1)使用第j個特征(1≤j≤92267)構造弱分類器hj,然后在Fmin(j)和Fmax(j)間窮舉搜索閾值參數(shù)θj,使得hj的錯誤率εj最小,定義ϵj=Σi=1nDt(i)·|hj(subi)-li|;]]>(4.2.2.2)令ϵtargmin1≤j≤92267ϵj,]]>并將其對應的弱分類器作為hj;(4.2.2.3)計算參數(shù)αt=12ln(1-ϵtϵt);]]>(4.2.2.4)更新樣本的權重Dt+1(i)=Dt(i)exp(-αtliht(subi))exp(λαtli)Zt,]]>其中λ=c-1c+1,]]>i=1,...,n,Zt=Σi=1nDt(i)exp(-αtliht(subi))exp(λαtli).]]>(4.2.1)輸出最后的強分類器 由以上各個步驟可以訓練得到一個完整的人臉檢測器。
在檢測階段,該發(fā)明采用以下步驟來判斷一張輸入圖像中是否包含人臉(一個實際的檢測過程如圖)(1)輸入圖像的采集利用攝像頭、數(shù)碼相機、掃描儀等設備采集圖像。
(2)輸入圖像的放縮及其圖像中每一個小窗口的快速判斷為檢測不同尺寸的人臉,采用前文使用的線性插值方法按照一定比例連續(xù)縮小12次輸入圖像(本發(fā)明采用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中所有的20×20像素的小窗口,這樣可以檢測尺寸從20×20像素到280×280像素的人臉。具體來說包括以下步驟(2.1)輸入圖像的放縮采用前文使用的線性插值方法按比例q=1.25連續(xù)縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)}(i=0,…,12);
(2.2)積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),(i=0,…,9);(2.3)小窗口的窮舉判斷從每幅圖像Ii(x,y)的左上角開始窮舉判別所有20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下(2.3.1).利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2(2.3.2).利用前文介紹方法快速提取該小窗口的微結構特征,并進行特征歸一化處理;(2.3.3).采用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行后續(xù)處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
為驗證本發(fā)明的有效性,我們在多個公開數(shù)據(jù)庫上進行了實驗,并給出一個具體的實現(xiàn)例子。
在CMU測試集上我們將本發(fā)明的性能與目前世界公認最好算法的性能進行了比較。CMU測試集共包含130張具有復雜背景的圖片,507個人臉。實驗中對圖像按1.25的比例進行最多13次縮放,共搜索判斷了71040758個圖像窗口。比較結果見表2,可以看出本文算法總體性能優(yōu)于Viola[Viola P,Jones M.Rapid object detection using a boosted cascadeof simple features.Proc on Computer Vision Pattern Recognition,2001]、Schneiderman[Schneiderman H,Kanade T.Probabilistic modeling of local appearanceand spatial relationships for object recognition.Proc.on CVPR,1998]、Rowley[RowleyH A,Baluja S,and Kanade T.Neural network-based face detection.IEEE Transactionson Pattern Analysis and Machine Intelligence,1998,20(1)23-38]等方法的性能,特別是在低虛警的情況下,例如10個虛警時,本文算法的人臉檢測率為90.1%,比其他算法的檢測率高7%~14%,遠優(yōu)于其他算法。其中與Viola的基于常規(guī)AdaBoost算法得到的檢測器相比,我們的人臉檢測器使用了19層強分類器3139個弱分類器,而其使用了38層強分類器6000余個弱分類器,我們的檢測器在結構上遠比其簡單,所以本發(fā)明具有更優(yōu)異的性能和更快的檢測速度。對于386×288的標準視頻圖像,采用本文算法可以達到18幀/秒以上的檢測速度(PIII1.8GHZ主頻,512M內(nèi)存)。
表2與其它檢測方法在CMU正面直立人臉測試集上的性能比較 另外在BANCA數(shù)據(jù)庫上還與Identix公司的著名產(chǎn)品FaceIT的檢測性能進行了比較。BANCA數(shù)據(jù)庫包括6540張具有復雜背景和光照的圖片,每張圖片中包含一張正面直立人臉,人臉的俯仰變化較大。本發(fā)明的正確檢測率為98.8%,F(xiàn)aceIT的正確檢測率為94.9%;在交由第三方-中國航天信息公司在其收集的每張圖像包含一張人臉的圖像集上進行的測試中,本文算法的檢測正確率為98.6%,F(xiàn)aceIT的檢測正確率為98.0%。


圖1一個典型的人臉檢測系統(tǒng)的硬件構成。
圖2訓練樣本的獲取過程。
圖3獲得的典型人臉樣本示例。
圖4人臉檢測系統(tǒng)的構成。
圖5五種微結構特征模板。
圖6積分圖的計算和微結構特征的提取示例。
圖7多級強分類器的級聯(lián)。
圖8強分類器的訓練過程。
圖9一張圖像中人臉的實際檢測過程示例。
圖10基于本算法的人臉識別簽到系統(tǒng)。
具體實施例方式
在實現(xiàn)一個人臉檢測系統(tǒng)時,首先應該通過收集足夠多的樣本訓練得到人臉檢測器,然后就可使用人臉檢測器對任意輸入圖像進行檢測。整個系統(tǒng)的硬件結構如圖1所示,系統(tǒng)的訓練過程和檢測過程如圖4所示,下面詳細介紹系統(tǒng)的各個部分A)訓練系統(tǒng)的實現(xiàn)A.1訓練樣本的獲取利用攝像頭、數(shù)碼相機、掃描儀等設備采集圖像,將其中的人臉人工標定切割出來,建立人臉訓練樣本數(shù)據(jù)庫;而非人臉訓練樣本則是從不包含人臉的風景圖片等中隨機割取。在本例中共收集到使用11580個人臉樣本和2000000張非人臉樣本作為訓練集。
A.2樣本歸一化A.2.1尺寸歸一化設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化后為[G(x,y)]W×H,實驗中取W=H=20。使用反向投影和線性插值從原始樣本圖像得到歸一化后樣本圖像,則輸入圖像與歸一化后圖像之間的對應關系有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W。對于給定(x,y),令x/rx=x0+Δxy/ry=y0+Δy,0≤Δx,Δy<1]]>其中x0=[x/rx],Δx=x/rx-x0y0=[y/ry],Δy=y/ry-y0,]]>[●]為取整函數(shù),可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)。
A.2.2光照歸一化對尺寸歸一化后的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調(diào)整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=σ0σ‾(G(x,y)-μ‾)+μ0.]]>其中μ‾=1WHΣy=0H-1Σx=0W-1G(x,y),σ‾=1WHΣy=0H-1Σx=0W-1(G(x,y)-μ‾)2;]]>
A.3樣本特征庫的獲取A.3.1樣本積分圖的計算根據(jù)定義使用II(x,y)=Σ0≤x′≤xΣ0≤y′≤yI(x′,y′)]]>計算每個樣本對應的積分圖II(x,y),并且有II(-1,y)=0,II(x,-1)=0。
A.3.2微結構特征庫的提取利用每一種微結構特征的定義以及以上積分圖快速提取每一個樣本對應的92267個特征,分別進行歸一化,從而分別構成人臉樣本的特征庫和非人臉樣本的特征庫。
A.4人臉檢測器的訓練用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,并將多層強分類器級聯(lián)起來組成一個完整的人臉檢測器。包括以下步驟A.4.1初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;A.4.2訓練第i層強分類器;A.4.3用訓練得到的前i層分類器對樣本集進行檢測;A.4.4如果FRR、FAR未達到預定值,則i←i+1,返回步驟(4.2)繼續(xù)進行訓練;否則停止訓練。
前面所述的步驟A.4.2依次含有以下步驟A.4.2.1參數(shù)的初始化訓練樣本誤分類風險的初始化。對于每個人臉樣本的誤分類風險C(i)=2cc+1,]]>對每個非人臉樣本的誤分類風險C(i)=2c+1]]>(c是人臉類別是非人臉類別的誤分類風險倍數(shù),c值應大于1且隨著強分類器層數(shù)的增多逐漸減小接近于1,具體選擇值見表1);訓練樣本權重的初始化。初始每個樣本的權重為D1(i)=(c+1)·C(i)2c·nface+2·nnonface;]]>選擇迭代次數(shù)T(T即為希望使用的弱分類器的個數(shù)),T應隨著強分類器層數(shù)的增多逐漸增多,具體選擇值見表1);統(tǒng)計樣本集上每維特征的極大值Fmax(i)和極小值Fmin(j)(其中j為特征序號,1≤j≤92267)Fmax(j)=max1≤i≤nFVi(j),Fmin(j)=min1≤i≤nFVi(j);]]>
A.4.2.2重復以下過程T次(t=1,...,T)A.4.2.2.1使用第j個特征(1≤j≤92267)構造弱分類器hj,然后在Fmin(j)和Fmax(j)間窮舉搜索閾值參數(shù)θj,使得hj的錯誤率εj最小,定義ϵj=Σi=1nDt(i)·|hj(subi)-li|;]]>A.4.2.2.2令ϵtargmin1≤j≤92267ϵj,]]>并將其對應的弱分類器作為ht;A.4.2.2.3計算參數(shù)αt=12ln(1-ϵtϵt);]]>A.4.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-αtliht(subi))exp(λαtli)Zt,]]>其中λ=c-1c+1,]]>i=1,…,n,Zt=Σi=1nDt(i)exp(-αtliht(subi))exp(λαtli).]]>A.4.2.3輸出最后的強分類器 B)檢測系統(tǒng)的實現(xiàn)在檢測階段,該發(fā)明包括以下步驟B.1圖像的采集利用攝像頭、數(shù)碼相機、掃描儀等設備采集圖像。
B.2輸入圖像金字塔的構成以及積分圖像的計算為檢測不同尺寸的人臉,采用前文使用的線性插值方法按照一定比例連續(xù)縮小12次輸入圖像(本發(fā)明采用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中的每一個20×20像素的小窗口(定義輸入圖像中的一個矩形區(qū)域子圖像為一個小窗口),這樣可以檢測尺寸從20×20像素到280×280像素的人臉。具體來說包括以下步驟B.2.1輸入圖像的放縮采用前文使用的線性插值方法按比例q=1.25連續(xù)縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)}(i=0,…,12);B.2.2積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),(i=0,…,9);B.2.3小窗口的窮舉判斷從每幅圖像Ii(x,y)的左上角開始窮舉判別所有20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下B.2.3.1利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2B.2.3.2利用前文介紹方法快速提取該小窗口的微結構特征,并進行特征歸一化處理;B.2.3.3采用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行后續(xù)處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
實施例1基于人臉的識別簽到系統(tǒng)(如圖10)人臉認證是近來受到廣泛關注的生物特征認證技術中最友好的一種認證方式,旨在利用人臉圖像進行計算機自動個人身份認證,以代替?zhèn)鹘y(tǒng)的密碼、證件、印章等身份認證方式,具有不易偽造、不會丟失以及方便等優(yōu)點。本系統(tǒng)利用人臉信息來對人身份進行自動驗證。其中使用的人臉檢測模塊是本文的研究成果。此外本系統(tǒng)還參加了ICPR2004組織的FAT2004競賽。此次競賽共有包括來自美國的Carnegie Mellon大學、德國的Neuroinformatik研究所、英國的Surrey大學等11個學術和商業(yè)機構的13個人臉識別算法參加。本實驗室所提交的系統(tǒng)在三個評價指標上都比第二名以低約50%錯誤率的結果獲得第一名。本文的研究成果應用在本實驗實所提交系統(tǒng)的人臉檢測模塊中,從而保證了系統(tǒng)的總體性能居于世界先進水平。
綜上所述,本發(fā)明能夠在具有復雜背景的圖像中魯棒地檢測人臉,在實驗中獲得了優(yōu)異的檢測結果,具有非常廣泛的應用前景。
權利要求
1.復雜背景圖像中的魯棒人臉檢測方法,其特征在于,該方法是一種基于人臉和非人臉模式的分類錯誤風險敏感分類器的統(tǒng)計學檢測方法,該方法首先對收集到的樣本進行尺寸歸一化和光照歸一化,以最大限度地消除輸入樣本因光照和尺寸的不同而造成的類內(nèi)差異,然后高效率地提取能很好反映人臉模式結構特點的微結構特征,在此基礎上利用CS-AdaBoost算法選擇出最具鑒別性的特征組成具有極低誤拒識率和極低誤接受率的強分類器,然后把多層強分類器級聯(lián)成一個完整的人臉檢測器,最后使用后處理算法把檢測到的人臉候選進行歸并處理得到最終的人臉位置;在由圖像采集設備和計算機組成的系統(tǒng)中,本檢測方法包括訓練階段和檢測階段;其中訓練階段依次含有以下步驟步驟1.樣本的采集利用包含攝像頭、數(shù)碼相機、掃描儀在內(nèi)的任一種設備采集圖像,并將其中的人臉人工標定切割出來,建立人臉訓練樣本數(shù)據(jù)庫;從不包含人臉的風景圖片中隨機切割出非人臉訓練圖像;共得到11580個人臉樣本和2000000張非人臉樣本作為訓練樣本集;步驟2.歸一化處理,包含樣本光照和大小的線性歸一化;步驟2.1尺寸歸一化,把步驟1得到的人臉和非人臉圖像歸一化為指定尺寸;設原始樣本圖像為[F(x,y)]M×N,圖像寬度和高度分別為M和N,尺寸歸一化后為[G(x,y)]W×H,實驗中取W=H=20;使用反向投影和線性插值從原始樣本圖像得到歸一化后樣本圖像,則輸入圖像與歸一化后圖像之間的對應關系有G(x,y)=F(x/rx,y/ry)其中rx和ry分別為x和y方向的尺度變換因子rx=N/H,ry=M/W;由于x/rx、y/ry的取值一般不為整數(shù),故需要根據(jù)附近已知離散點處的值來估計F(x/rx,y/ry)的取值;本發(fā)明采用線性插值方法;對于給定(x,y),令x/rx=x0+Δxy/ry=y0+Δy,0≤Δx,Δy<1]]>其中x0=[x/rx],Δx=x/rx-x0y0=[y/ry],Δy=y/ry-y0,]]>[·]為取整函數(shù),可得G(x,y)=F(x0+Δx,y0+Δy)=F(x0,y0)ΔxΔy+F(x0+1,y0)(1-Δx)Δy;+F(x0,y0+1)Δx(1-Δy)+F(x0+1,y0+1)(1-Δx)(1-Δy)步驟2.2灰度歸一化對尺寸歸一化后的樣本圖像G(x,y)的每個像素的灰度進行如下變換,將均值μ和方差σ調(diào)整到給定值μ0和σ0,得到樣本圖像I(x,y)I(x,y)=σ0σ‾(G(x,y)-μ‾)+μ0.]]>其中μ‾=1WHΣy=0H-1Σx=0W-1G(x,y),σ‾=1WHΣy=0H-1Σx=0W-1(G(x,y)-μ‾)2;]]>步驟3.樣本特征庫的獲取計算出積分圖以快速提取微結構特征,它依次含有以下步驟步驟3.1計算每個樣本的積分圖根據(jù)定義使用II(x,y)=Σ0≤x′≤xΣ0≤y′≤yI(x′,y′)]]>計算每個樣本對應的積分圖II(x,y),并且有II(-1,y)=0,II(x,-1)=0;步驟3.2微結構特征庫的提取設定下述五種類型微結構模板來把取人臉樣本的高維微結構特征,每一種微結構特征通過計算模板黑色區(qū)域和白色區(qū)域內(nèi)所對應圖像中像素灰度和的差值來得到,所述微結構特征用g(x.y.w.h)表述,對于所述五種類型微結構特征向量,分別表示如下(a)類黑色區(qū)域和白色區(qū)域左右對稱且面積相等用w其中各區(qū)域的寬,h表示其中各區(qū)域的高g(x,y,w,h)=2·II(x+w-1,y-1)+II(x+2·w-1,y+h-1)+II(x-1,y+h-1)-2·II(x+w-1,y+h-1)-II(x+2·w-1,y-1)-II(x-1,y-1)(b)類黑色區(qū)域和白色區(qū)域上下對稱且面積相等,w、h的定義與(a)類相同g(x,y,w,h)=2II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-2II(x-1,y+h-1)-II(x+w-1,y+2h-1)+II(x-1,y+2h-1)(c)類在水平方向,黑色區(qū)域位于兩塊白色區(qū)域之間,且黑色區(qū)域和每塊白色區(qū)域的面積相等,w、h的定義與(a)類相同g(x,y,w,h)=2II(x+2w-1,y+h-1)+2II(x+w-1,y-1)-2II(x+2w-1,y-1)-2II(x+w-1,y+h-1)-II(x+3w-1,y+h-1)-II(x-1,y-1)+II(x-1,y+h-1)+II(x+3w-1,y-1)(d)類兩塊黑色區(qū)域分別處于第一象限和第三象限,而兩塊白色區(qū)域分別處于,且每塊黑色區(qū)域和每塊白色區(qū)域的的面積相等w、h的定義與(a)類相同g(x,y,w,h)=-II(x-1,y-1)-II(x+2w-1,y-1)-II(x-1,y+2h-1)-4II(x+w-1,y+h-1)+2II(x+w-1,y-1)+2II(x-1,y+h-1)-II(x+2w-1,y+2h-1)+2II(x+2w-1,y+h-1)+2II(x+w-1,y+2h-1)(e)類黑色區(qū)域位于白色區(qū)域有中央,且黑色區(qū)域的分布對稱且黑色區(qū)域的上、下兩邊、左、右兩邊分別距離白色區(qū)域的上、下兩邊、左、右兩邊各為2個像素的距離,w、h分別表示白色區(qū)域周框的寬和高g(x,y,w,h)=II(x+w-1,y+h-1)+II(x-1,y-1)-II(x+w-1,y-1)-II(x-1,y+h-1)-II(x+w-3,y+h-3)-II(x+1,y+1)+II(x+1,y+h-3)+II(x+w-1,y+1)對于一個20×20像素的樣本圖像參數(shù)x.y.w.h后共有92267個,分布于所述五種類型中的微結構特征,組成該樣本的特征點是FV(j),1≤j≤92267;步驟3.3特征的歸一化,即對每一個像素樣本圖像進行灰度均值和方差的歸一化設每一個20×20像素小窗口區(qū)域,即(x0≤x′≤x0+19,y0≤y′≤y0+19)內(nèi)的像素灰度和的內(nèi)值為μ,方差為σ,則μ=[II(x0+19,y0+19)+II(x0-1,y0-1)-II(x0-1,y0+19)-II(x0+19,y0-1)]/400σ={[SqrII(x0+19,y0+19)+SqrII(x0-1,y0-1)-SqrII(x0-1,y0+19)-SqrII(x0+19,y0-1)]/400-μ2}1/2接著對每個微結構特征作如下歸一化FV(j)=σ0σ‾FV‾(j)]]>對于一個20×20像素的樣本圖像,共得到92267維微結構特征FV(j),1≤j≤92267步驟4.特征選擇和分類器設計用以上訓練樣本集訓練以及CS-AdaBoost算法訓練每一層人臉/非人臉強分類器,并將多層強分類器級聯(lián)起來組成一個完整的人臉檢測器。包括以下步驟步驟4.1初始化i=1;定義每層強分類器的訓練目標是在人臉訓練集上FRR≤0.02%,在非人臉訓練集上FAR≤60%;定義整個人臉檢測器在人臉訓練集上的目標FRR≤0.5%,在非人臉訓練集上的目標FAR≤3.2×10-6;步驟4.2訓練第i層強分類器;步驟4.3用訓練得到的前i層分類器對樣本集進行檢測,并計算FRR、FARFAR=被判別為人臉的非人臉樣本個數(shù)÷非人臉樣本總數(shù)×100%FRR=被判別為非人臉的人臉樣本個數(shù)÷人臉樣本總數(shù)×100%步驟4.4如果FRR、FAR未達到步驟4.1設定的預定值,則i←i+1,返回步驟4.2繼續(xù)進行訓練;否則停止訓練;其中步驟4.2依次含有以下步驟步驟4.2.1參數(shù)的初始化訓練樣本誤分類風險的初始化;對于人臉樣本的誤分類風險Ci=2cc+1,]]>對非人臉樣本的誤分類風險Ci=2c+1,]]>c是人臉類別是非人臉類別的誤分類風險倍數(shù),c值應大于1且隨著強分類器層數(shù)的增多逐漸減小接近于1;訓練樣本權重的初始化;初始每個樣本的權重為D1(i)=CiΣjCj;]]>選擇迭代次數(shù)T,T即為希望使用的弱分類器的個數(shù),T應隨著強分類器層數(shù)的增多逐漸增多;統(tǒng)計樣本集上每個特征分布的極大值Fmax(j)和極小值Fmin(j),其中j為特征序號,1≤j≤92267;步驟4.2.2重復以下過程T次,t=1,...,T步驟4.2.2.1使用第j個特征,1≤j≤92267)構造弱分類器hj,然后在Fmin(j)和Fmax(j)間窮舉搜索閾值參數(shù)θj,使得hj的錯誤率εj最小,定義ϵj=Σi=1nDt(i)·|hj(subi)-li|;]]>弱分類應用hj(sub)表示,簡稱hjhj(sub)=1,ifgj(sub)<θjorgj(sub)>θj0,otherwise]]>其中sub是一個20×20像素的樣本,gj(sub)是從該樣本把取得到的第j個特征;θj是第j個特征對左右的判決閾值,為設定值(該閾值通過統(tǒng)計所有采集的人臉和非人臉樣本的第j個特征使得人臉樣本的FRR滿足規(guī)定的要求來得到);hj(sub)是使用第j個特征構造的樹分類器的判決輸出,相反地,可得到92267個弱分類器;li=o.l是樣本圖像subi的類別標號,分別對應非人臉類別和人類臉別,其中人臉樣本nface個,非人臉樣本nnonface個,共同構成訓練樣本集L={(subi,li)},i=1,...,n,li=0,1;步驟4.2.2.2令ϵt=argmin1≤j≤92267ϵj,]]>并將其對應的弱分類器作為ht;步驟4.2.2.3計算參數(shù)αt=12ln(1-ϵtϵt);]]>步驟4.2.2.4更新樣本的權重Dt+1(i)=Dt(i)exp(-αtliht(subi))exp(λαtli)Zt,]]>其中λ=c-1c+1,]]>i=1,...,n,Zt=Σi=1nDt(i)exp(-αtliht(subi))exp(λαtli).]]>步驟4.2.3輸出最后的強分類器 由以上各個步驟可以訓練得到一個完整的人臉檢測器;在檢測階段,該發(fā)明采用以下步驟來判斷一張輸入圖像中是否包含人臉步驟1.輸入圖像的采集利用攝像頭、數(shù)碼相機、掃描儀等任一設備采集圖像;步驟2.輸入圖像的放縮及其圖像中每一個小窗口的快速判斷為檢測不同尺寸的人臉,采用前文使用的線性插值方法按照一定比例連續(xù)縮小12次輸入圖像(本發(fā)明采用1.25的比例),共得到由13個不同尺寸的輸入圖像,分別判斷每張輸入圖像中的每一個20×20像素的小窗口,這樣可以檢測尺寸從20×20像素到280×280像素的人臉;具體來說包括以下步驟步驟2.1輸入圖像的放縮采用前文使用的線性插值方法按比例q=1.25連續(xù)縮小12次輸入圖像I(x,y)得到輸入圖像序列{Ii(x,y)},i=0,...,12;步驟2.2積分圖像的計算使用上文迭代公式分別計算每個圖像Ii(x,y)所對應的積分圖像IIi(x,y)和平方積分圖像SqrIIi(x,y),i=0,...,9;步驟2.3判斷圖像中每一個的小窗口從每幅圖像Ii(x,y)的左上角開始判別圖像中每一個20×20像素尺寸的小窗口,對任一個小窗口[x0,y0;x0+19,y0+19]的處理步驟如下步驟2.3.1利用整幅圖像的積分圖IIi(x,y)和平方積分圖SqrIIi(x,y)計算小窗口的均值μ和方差σ;μ=[IIi(x0+19,y0+19)+IIi(x0-1,y0-1)-IIi(x0-1,y0+19)-IIi(x0+19,y0-1)]/400σ={[SqrIIi(x0+19,y0+19)+SqrIIi(x0-1,y0-1)-SqrIIi(x0-1,y0+19)-SqrIIi(x0+19,y0-1)]/400-μ2}1/2步驟2.3.2利用前文介紹方法快速提取該小窗口的微結構特征,并進行特征歸一化處理;步驟2.3.3采用訓練好的多層人臉/非人臉強分類器對小窗口進行判斷;如果通過所有層強分類器的判斷,則認為該小窗口包含一個人臉,輸出其位置;否則拋棄掉該小窗口,不進行后續(xù)處理;利用以上步驟可以快速魯棒地檢測一張輸入圖像中的所有人臉。
全文摘要
復雜背景下的人臉檢測技術屬于人臉識別領域。其特征在于,提出了一種性能魯棒的復雜背景下圖像中的人臉檢測方法。它采用高效率和高冗余度的微結構特征來表達人臉模式中眼睛、嘴巴等區(qū)域的灰度分布特點;并采用風險敏感的AdaBoost算法從中選擇出最具有區(qū)分人臉和非人臉的微結構特征構成強分類器,使訓練得到的每一層分類器在保證對人臉類別極低的拒識率的情況下,盡可能降低非人臉樣本的誤接受率,從而以更簡單的結構實現(xiàn)復雜背景圖像下更高性能的人臉檢測;另外還使用了后處理算法進一步降低誤檢率。在多個公開數(shù)據(jù)庫上以及競賽評測的結果證明了本發(fā)明的優(yōu)異性能。
文檔編號G06K9/00GK1731417SQ200510086248
公開日2006年2月8日 申請日期2005年8月19日 優(yōu)先權日2005年8月19日
發(fā)明者丁曉青, 馬勇, 方馳, 劉長松, 彭良瑞 申請人:清華大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1