多尺度特征區(qū)域曲率相融合的三維人臉識別方法
【專利摘要】本發(fā)明屬于模式識別領(lǐng)域,具體為一種多尺度特征區(qū)域曲率相融合的三維人臉識別方法。依據(jù)人眼對不規(guī)則特征的感知原理,在多尺度空間理論分析的基礎(chǔ)上,通過分析人臉深度信息圖中眼睛、鼻子、以及嘴唇等有顯著特征區(qū)域的曲率變化在不同尺度系數(shù)的相關(guān)性和相鄰角度的系數(shù)的相關(guān)性,提出多尺度特征區(qū)域曲率相融合的三維人臉識別方法,建立顯著特征區(qū)域的曲率在多個尺度的不同位置、不同方向、多個相鄰尺度的同位置、同方向的不同維數(shù)的系數(shù)模型,克服噪音的影響,提取了可以用來描述人臉深度特征的左右眼、鼻子以及嘴唇等有效低維特征。最后用模糊聚類法進(jìn)行識別。本發(fā)明可應(yīng)用于人臉識別和掌紋識別等其它模式識別領(lǐng)域。
【專利說明】多尺度特征區(qū)域曲率相融合的三維人臉識別方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于基于機器視覺的檢測【技術(shù)領(lǐng)域】,涉及一種三維人臉識別的方法,特別 涉及一種采用多尺度特征區(qū)域曲率相融合的方法提取人臉局部特征,實現(xiàn)三維人臉的檢測 以及識別。
【背景技術(shù)】
[0002] 在人臉識別領(lǐng)域,由于容易受到光照條件、化妝、人臉姿勢等的因素影響,二維人 臉識別的發(fā)展已經(jīng)陷入了瓶頸時期。但是,應(yīng)時而來的三維人臉識別則比二維人臉識別有 更多的優(yōu)勢。一方面,三維人臉識別采用的數(shù)據(jù)包含了更多人臉的幾何信息,二維人臉只是 三維人臉在平面上進(jìn)行投影得到的,會丟失一些重要的信息,如人臉深度信息等。其次,三 維人臉數(shù)據(jù)描繪了人臉的真實形狀,不易受外界條件的影響,如姿勢、光照等的變化。光照 不會影響原始三維數(shù)據(jù)點云的獲取,而且從三維人臉上提取的形狀特征和光照變化無關(guān), 所以光照不再是影響三維數(shù)據(jù)處理的因素。因此,三維人臉圖像的深度信息能夠準(zhǔn)確的描 述人臉的形狀,能更好的表示出人臉重要的區(qū)域特征,在識別時有比二維人臉識別更好的 識別效果。但是,到目前為止無論是從三維信息來源、數(shù)據(jù)的存儲和處理、數(shù)據(jù)的預(yù)處理還 是最后的識別過程相關(guān)技術(shù)都還不是很成熟,因此,研究出一種高效的準(zhǔn)確的三維人臉識 別方法是非常有必要的。
[0003] 曲線波變換理論主要模擬人類視覺系統(tǒng)的特點,在多個尺度和多個方向上尋求各 自有效的基函數(shù),從而實現(xiàn)對信號的最優(yōu)逼近。在視覺檢測領(lǐng)域中展現(xiàn)了良好的發(fā)展?jié)摿?和廣闊的市場應(yīng)用前景。
[0004] 因此,提出多尺度特征區(qū)域曲率相融合的技術(shù),設(shè)計一種多尺度特征區(qū)域曲率相 融合的三維人臉識別方法,能夠提高三維人臉識別的準(zhǔn)確性以及識別速率,并對其他應(yīng)用 領(lǐng)域的特征檢測和識別有很好的指導(dǎo)借鑒意義,具有一定的應(yīng)用價值。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明所要解決的技術(shù)問題是,設(shè)計一種多尺度特征區(qū)域曲率相融合的三維人臉 識別方法,適用于三維人臉識別準(zhǔn)確度和高效性的要求。
[0006] 本發(fā)明所采用的技術(shù)方案是:依據(jù)人眼對缺陷局部不規(guī)則特征的感知原理,在多 尺度空間理論分析的基礎(chǔ)上,通過分析人臉的局部特征區(qū)域,眼睛、鼻子、嘴巴四個區(qū)域分 別在不同尺度系數(shù)的相關(guān)性和相鄰角度的系數(shù)的相關(guān)性,提出一種多尺度特征區(qū)域曲率相 融合的三維人臉識別方法,建立顯著特征區(qū)域的曲率在多個尺度的不同位置、不同方向、多 個相鄰尺度的同位置、同方向的不同維數(shù)的系數(shù)模型,克服噪音的影響,提取了用來描述人 臉特征的四個區(qū)域的有效低維特征。最后用模糊聚類法進(jìn)行識別。本發(fā)明可應(yīng)用于各種人 臉識別場合。
[0007] 本發(fā)明的目的在于采用多尺度特征區(qū)域曲率相融合的技術(shù)檢測人臉特征區(qū)域的 特征,能準(zhǔn)確的描述出人臉4個特征區(qū)域的曲率特征,并且能夠高效、準(zhǔn)確的實現(xiàn)三維人臉 的識別。
【專利附圖】
【附圖說明】
[0008] 附圖1是:人臉深度圖左眼區(qū)域曲線波分解圖
[0009] 附圖2是:人臉深度圖右眼區(qū)域曲線波分解圖 [0010] 附圖3是:人臉深度圖鼻子區(qū)域曲線波分解圖
[0011] 附圖4是:人臉深度圖嘴唇區(qū)域曲線波分解圖
[0012] 附圖5是:左眼區(qū)域圖像對應(yīng)Curvelet系數(shù)圖
[0013] 附圖6是:右眼區(qū)域圖像和對應(yīng)Curvelet系數(shù)圖
[0014] 附圖7是:鼻子區(qū)域圖像和對應(yīng)Curvelet系數(shù)圖
[0015] 附圖8是:鼻子區(qū)域圖像和對應(yīng)Curvelet系數(shù)圖
【具體實施方式】
[0016] 下面結(jié)合附圖對本發(fā)明作進(jìn)一步詳細(xì)說明。
[0017] 具體過程如下:
[0018] 1.分割人臉的特征區(qū)域
[0019] 根據(jù)人體測量學(xué)特征,在三維人臉深度圖中分割出左眼、右眼、鼻子以及嘴唇四個 特征區(qū)域。
[0020] 鼻子區(qū)域的分割:
[0021] 1)設(shè)A(x,y,z(x,y))表示深度圖像上的某個點,定位鼻尖點可利用高斯曲率和平 均曲率來實現(xiàn)。當(dāng)κ>0且Η<0,Κ和H取最大值時,所對應(yīng)的位置為鼻尖點位置prn。
[0022] 2)定搜索鼻子兩側(cè)點區(qū)域:一般男性鼻子寬度為(μ = 35mm,〇 = 2.5mm), 高度為(μ = 53mm,σ =3. 4mm),比女性略高、略寬一些。因此,搜索鼻尖兩側(cè)點的寬 度區(qū)域al-al定義為μ+6 〇,類似的搜索鼻子兩側(cè)點高度區(qū)域定義為0. 6(μ+6 〇 )。用 Gaussian-Laplacian算子檢測搜索區(qū)域的邊緣,其中σ =7像素。
[0023] 3)用所檢測出的鼻尖以及鼻子區(qū)域分割出150X100的鼻子區(qū)域。
[0024] 左右眼區(qū)域分割:
[0025] 1) -對于成年人來說,內(nèi)眼角點和鼻尖點垂直距離是頭的頂部和鼻尖距離 的0. 3803倍。設(shè)搜索區(qū)域的最上部公式為prny+0. 3803Χ I. 5Χ Iprny-VyI,最下部公式 為prny+0. 3803X0. 33X Iprny-VyI。其中其中prny是鼻尖垂直坐標(biāo),vy是3D模型最高 點坐標(biāo)??紤]到左右兩內(nèi)眼角點距離和鼻子寬度比值統(tǒng)一,眼角的左右邊界分別為al x, ieft+0. 5X |alx,left-alx,right|,al x,right+0. 5X |alx,left-alx,Hght|。取搜索區(qū)域內(nèi)高斯曲率的最 大值作為內(nèi)眼角點en。
[0026] 2)考慮到眼睛內(nèi)眼角和外眼角距離與兩只眼睛內(nèi)眼角之間距離近似相等,故左 右眼外眼角的位置定義分別為(en x, left+1 enx, left-enx, right I, (eny, left+eny, right) /2),(enx, right left right I ? left~^?^y, right^ /2) 〇
[0027] 3)根據(jù)左右眼的內(nèi)外眼角的位置分割出180X100的左眼區(qū)域和右眼區(qū)域。
[0028] 嘴唇區(qū)域分割:
[0029] 1)根據(jù)人特比例,嘴角的左側(cè)和右側(cè)區(qū)域分別為alx,left+0. 7X |alx,left_alx,Hght|, aIx, Hght-O. 7 X I aIx, Ieft-aIx, right I,根據(jù)下方區(qū)域的上嘴唇和下嘴唇橢圓高斯曲率最大來確 定上下搜索邊界。
[0030] 2)平均曲率H取最大值且為正的位置為嘴角位置。
[0031] 3)根據(jù)左右嘴角的位置以及搜索到上下嘴唇邊界分割出240X100的嘴唇區(qū)域。
[0032] 2.曲線波分解
[0033] 根據(jù)所分割出的四個人臉特征區(qū)域,將四個區(qū)域的最小維數(shù)歸一化為100,左眼、 右眼、鼻子和嘴唇區(qū)域分別為180X100、180X100、150X100、240X100大小的圖像。然后 利用FDCT_WARPING方法,對這四個區(qū)域分別進(jìn)行分解,分解層數(shù)為4。
[0034] 曲線波分解過程如下:
[0035] 第1步:對原始圖像f(ti,t2)進(jìn)行二維傅立葉變換,得到信號/[η,,? 2】。
[0036] 第2步:獲取第4尺度的系數(shù)C4,lt)
[0037] 1)沿著水平方向構(gòu)造右窗口向量Wg和左窗口向量
[0038] 2)沿著垂直方向構(gòu)造右窗口向量1_2和左窗口向量Wp2。
[0039] 3)構(gòu)造2個一維低通濾波器 f Iowpasssubl 矛口 flowpasssub2 ?
[0040] 4)構(gòu)造1個二維低通濾波器4 )[2xy7oo/*(2x^/, )+l]x[2xfloor(2xM7)+\] °
[0041] 5)構(gòu)造 I個二維高通濾波器fhipass 4。
[0042] 6)用fhipass 4對/[心《2]進(jìn)行高通濾波,產(chǎn)生第3尺度濾波后的高通信號。
[0043] 7)對第4尺度濾波后的高通信號f' hipass 4進(jìn)行二維反傅立葉變換,獲取第4尺 度離散曲線波系數(shù)C4,lt)
[0044] 8)用flOTpass_4對/[H pW2]進(jìn)行低通濾波,產(chǎn)生第4尺度的低通濾波信號Γ iOTpass_4。
[0045] 第3步獲取第3尺度上32個方向的離散曲線波系數(shù)。
[0046] 首先,獲取第3尺度第1方向上的曲線波系數(shù)C3,i,然后依據(jù)C3,i的獲取方法獲取 第3尺度其它方向的曲線波系數(shù)。
[0047] 1)構(gòu)造第3尺度第1方向上的的低通濾波器, (//ow/rara 3)0/^(2)^,)+1])^伽/^xAM+l],其方法與構(gòu)造第4尺度低通濾波器的方法相似。
[0048] 2)構(gòu)造第3尺度第1方向上的高通濾波器 3)[2x/7acw(2xM,)+lM2x/?iW(2xM,)+l],其方法與構(gòu)造第4尺度低通濾波器的方法相似。
[0049] 3)用flOTpass 3對f ' i_ass 4進(jìn)行濾波,產(chǎn)生第3尺度的低通濾波信號 _3 )[2xyZtw(2xA/| )+1]χ[2χ_/?οο/·(2χΛ/2)+1] °
[0050] 4)用fhipass 3對f ' i_ass 4進(jìn)行高通濾波,產(chǎn)生第3尺度的高通濾波信號, f hipass-3' 其維數(shù)大小與f' lowpass_4 相同。
[0051] 5)確定第3尺度第1方向上的離散定位窗口。第3尺度曲線波系數(shù)的獲取被分成 四個象限,每一個象限都有8個方向。
[0052] 6)對鍥形波的離散定位窗口矩陣Wdata進(jìn)行濾波和旋轉(zhuǎn),產(chǎn)生矩陣Wdata 2。
[0053] 7)對Wdata 2進(jìn)行2DFFT,產(chǎn)生了第3尺度第1方向的曲線波系數(shù)C3,lt)
[0054] 8)重復(fù)步驟3中的5),6),7),可以獲取第2尺度第2方向到第8方向的曲線波系 數(shù)。
[0055] 9)第3尺度其他象限上的去曲線波系數(shù)的獲取方法與第一象限相同。
[0056] 第4步重復(fù)第3步,可以獲得第2個尺度上的16個方向上的曲線波系數(shù)。
[0057] 第5步對第2尺度的信號,f' lMpass 2(ηι,η2)進(jìn)行2維反傅立葉變換,可以得到第 1尺度上的曲線波系數(shù)C 1,lt)
[0058] 3.曲線波有效特征提取
[0059] 分析人臉的四個特征區(qū)域在第2, 3,4尺度系數(shù)的相關(guān)性和第2, 3,4尺度任意相鄰 尺度系數(shù)之間的相關(guān)性,設(shè)置閾值,去掉噪聲對人臉特征的影響。采用平均I1范數(shù)提取去 噪后曲線波域中各層子帶系數(shù)的特征。
[0060] 4.并通模糊聚類法對每個子塊進(jìn)行識別,最終實現(xiàn)整個三維人臉識別的過程。
[0061] 本發(fā)明的優(yōu)點在于,利用曲線波變換技術(shù)來識別三維人臉各個局部特征區(qū)域的深 度特征,提高了三維人臉識別的準(zhǔn)確度和三維人臉識別高效性的要求。
【權(quán)利要求】
1. 一種多尺度特征區(qū)域曲率相融合的H維人臉識別方法,其特征在于,建立眼睛、鼻 子、W及嘴唇等4個顯著特征區(qū)域的曲率在多個尺度的不同位置、不同方向、多個相鄰尺度 的同位置、同方向的不同維數(shù)的系數(shù)模型,克服噪音的影響,實現(xiàn)了描述人臉深度特征的左 右眼、鼻子W及嘴唇等有效低維特征的提?。凰稣麄€識別方法的實現(xiàn)。
【文檔編號】G06K9/00GK104463111SQ201410685361
【公開日】2015年3月25日 申請日期:2014年11月21日 優(yōu)先權(quán)日:2014年11月21日
【發(fā)明者】羅菁, 宋丹 申請人:天津工業(yè)大學(xué)