一種基于核lda的并行特征融合人臉表情識別方法
【專利摘要】本發(fā)明涉及一種基于核LDA的并行特征融合人臉表情識別方法,通過將兩組經(jīng)過不同表達的特征向量采用復(fù)數(shù)的組合形式并行融合,構(gòu)成復(fù)特征向量,并將核Fisher鑒別準(zhǔn)則引入復(fù)空間,從而在復(fù)空間的基礎(chǔ)上解決傳統(tǒng)LDA只能分析線性問題的缺陷,同時對類內(nèi)散度矩陣重定義,通過可調(diào)控的參數(shù)來解決小樣本問題和特征矩陣不平衡問題。本發(fā)明的方法比傳統(tǒng)并行特征融合方法和串行特征融合方法有不同程度上的改進,不僅解決了傳統(tǒng)LDA在人臉表情識別等領(lǐng)域?qū)Ψ蔷€性特征無法處理的問題,方法同時在一定程度上解決了小樣本問題,在人臉表情特征庫的數(shù)據(jù)庫上的實驗取得了較高的識別率。
【專利說明】
一種基于核LDA的并行特征融合人臉表情識別方法
技術(shù)領(lǐng)域
[0001 ]本發(fā)明屬于數(shù)據(jù)識別;數(shù)據(jù)表示;記錄載體;記錄載體的處理的技術(shù)領(lǐng)域,特別涉 及一種通過可調(diào)控的參數(shù)來解決小樣本問題和特征矩陣不平衡問題以提高人臉識別率的 基于核LDA的并行特征融合人臉表情識別方法。
【背景技術(shù)】
[0002] 特征提取是表情識別中最關(guān)鍵的環(huán)節(jié)之一,提取具有鑒別意義的特征對準(zhǔn)確分類 人臉表情,解決實際問題起著重要作用,特征提取越到位,則表情識別越精確。表情識別的 技術(shù)可以應(yīng)用到各行各業(yè),例如應(yīng)用到公安刑偵領(lǐng)域,可以輔助對目標(biāo)對象的微表情判斷 做出更為可靠的數(shù)據(jù)支撐。
[0003] 隨著相關(guān)研究的不斷深入,特征融合技術(shù)逐漸受到了業(yè)內(nèi)的關(guān)注。特征融合技術(shù) 既融合多種特征的有效鑒別信息,又消除大部分冗余的信息,從而實現(xiàn)信息的有效壓縮、節(jié) 約信息存儲空間、有利于加快運算速度和進行信息的實時處理。
[0004] 目前常用的特征融合方法主要是串行融合方法。串行融合方法首先將兩組或多組 特征向量按照首尾相連的方式生成一個聯(lián)合向量,然后再對這個新的特征向量進行特征提 取,該方法保留了多種特征的鑒別信息,具有一定的優(yōu)勢,但同時會導(dǎo)致合并后新特征的維 數(shù)急劇增加,從而加大后續(xù)步驟如特征抽取和識別的難度,使甄別速度和準(zhǔn)確率大幅降低。
[0005] 由此,研究人員對傳統(tǒng)的串行融合方法進行大量的改進研究,其中,楊健等研究提 出了一種并行特征融合的方法,該方法的原理是利用復(fù)向量將樣本空間上的兩組或多組特 征集合起來構(gòu)成復(fù)特征向量空間,即將實向量空間的特征拓展到復(fù)向量空間。并行特征融 合的方法用線性鑒別準(zhǔn)則(LDA)來抽取有效鑒別特征,LDA是目前常用的特征提取方法之 一,但由于其本質(zhì)上提取的是線性特征,對非線性特征處理存在不足。因此,相關(guān)研究人員 提出了基于核的LDA方法,即基于核判別分析方法(KDA),該方法通過將樣本映射到一個高 維空間,在該高維空間利用Fisher方法提取鑒別特征,得到原圖像的非線性特征,實踐證明 核判別方法對解決非線性問題具有顯著優(yōu)勢,然而實踐亦表明,在使用KDA過程中核空間的 維數(shù)往往大于訓(xùn)練樣本的數(shù)目,即小樣本問題,對小樣本的改進方法很多,如對Fisher準(zhǔn)則 局部加權(quán)、重新定義類間散度矩陣、用零空間解決小樣本問題等,甚至,基于并行特征融合 的特征方法由于使用的是Fisher鑒別準(zhǔn)則,因此不但存在小樣本問題,同時還存在融合特 征矩陣不平衡的問題,使類內(nèi)散度矩陣不但受小樣本問題影響而丟失類內(nèi)散射信息,還會 因特征矩陣不平衡而產(chǎn)生偏差和較大方差,影響實驗效果。
【發(fā)明內(nèi)容】
[0006] 本發(fā)明解決的技術(shù)問題是,現(xiàn)有技術(shù)中,串行融合方法雖保留了多種特征的鑒別 信息,具有一定的優(yōu)勢,但同時會導(dǎo)致合并后新特征的維數(shù)急劇增加,從而加大后續(xù)步驟如 特征抽取和識別的難度,使甄別速度和準(zhǔn)確率大幅降低,而采用并行特征融合方法用線性 鑒別準(zhǔn)則(LDA)來抽取有效鑒別特征的過程中,核空間的維數(shù)往往大于訓(xùn)練樣本的數(shù)目,即 小樣本問題,甚至,由于此方法使用的是Fisher鑒別準(zhǔn)則,故還同時存在融合特征矩陣不平 衡的問題,使類內(nèi)散度矩陣不但受小樣本問題影響而丟失類內(nèi)散射信息,還會因特征矩陣 不平衡而產(chǎn)生偏差和較大方差,嚴(yán)重影響實驗效果的問題,進而提供了一種優(yōu)化的基于核 LDA的并行特征融合人臉表情識別方法。
[0007] 本發(fā)明所采用的技術(shù)方案是,一種基于核LDA的并行特征融合人臉表情識別方法, 所述方法包括以下步驟:
[0008] 步驟1.1:從任一人臉表情特征庫中采用Gabor濾波器提取人臉特征,得到若干個 方向上的全局特征向量β;采用PCA算法對人臉的局部特征進行提取,得到局部特征向量α, 將α和β通過并行特征信息融合,得到矩陣X;
[0009] 步驟1.2:在進行特征融合時,當(dāng)同一樣本的兩組特征向量在數(shù)量關(guān)系上存在較大 差別時,通過對類內(nèi)離散矩陣3?重新定義來解決小樣本問題,即
[0011] 其中,Si = Si+kl,k為控制參數(shù),0彡k彡1,Si是單個樣本類的協(xié)方差矩陣;控制k的 值以增加小特征向量值、減小大特征向量值,使得S u的偏差最??;
[0012] 步驟1.3:將矩陣X經(jīng)過非線性映射Φ變換到特征空間F中,即Φ : Xi G X- Φ (Xi) e F;在特征空間F中,線性Fisher鑒別函數(shù)為
[0017 ] 貧和g分別為特征空間F中對應(yīng)的類內(nèi)散布矩陣和類間散布矩陣,
表示在特征空間F中的第i個類別中的樣本均值,
表示在特 征空間F中的所有樣本的均值;
[0018]步驟1.4:將式(II)和式(III)引入復(fù)空間,得到復(fù)空間的類間散度矩陣和類內(nèi) 散度矩陣於',
[0021]其中,川廣=^^(.丫/和/},"C =E!(1)(.i:,)丨;p( 〇i)為第i類訓(xùn)練樣本的先驗概率;
[0022]步驟1.5:由再生核理論,解向量ω在特征空間F中可以按所有訓(xùn)練樣本數(shù)據(jù)展開,
[0024] 其中,核鑒別矢量 ζ= (ζ1,ζ2,···,ζη)τ,Φ = (Φ(χι),Φ(χ2),···,Φ(χη)),ζ*Φ* 鑒別向量ω的最佳核鑒別向量;
[0025] 步驟1.6:將式(IV)、式(V)和式(VI)代入式(I)后,經(jīng)過矩陣變換,得到
[0030] 步驟1.7:將式(VII)和式(VIII)代入式(I)后,得到特征空間F中的線性Fisher鑒
[0033] 步驟1.9:求當(dāng)ζ何值時J〇取得最大值,
采用Lagrange算法求解, 得到Ρζ = λ(Τζ,求得一組基特征向量,得到最佳投影方向ζ,即當(dāng)取最佳投影方向ζ時,JG) 取得最大值;
[0034] 步驟1.10:利用最佳投影方向ζ將矩陣X投影到相應(yīng)的特征空間,得到所有樣本的 最佳分類特征Y:yi = GHxi,yieY;
[0035] 步驟1.11:以71為特征值識別任一人臉表情特征庫的人臉。
[0036] 優(yōu)選地,所述步驟1.1中,采用PCA提取的人臉的局部特征包括嘴部特征、眼部特 征、鼻部特征。
[0037] 優(yōu)選地,所述步驟1.1中,Χ = α+?β或Χ = β+?α。
[0038] 優(yōu)選地,所述步驟1.1中,全局特征向量β-般為4~8個方向上的向量。
[0039] 優(yōu)選地,所述步驟1.2中,增大控制參數(shù)k以控制k的值以增加 Su的小特征值、減小 大特征值,使得Su的偏差最小。
[0040] 本發(fā)明提供了一種優(yōu)化的基于核LDA的并行特征融合人臉表情識別方法,通過將 兩組經(jīng)過不同表達的特征向量采用復(fù)數(shù)的組合形式并行融合,構(gòu)成復(fù)特征向量,并將核 Fisher鑒別準(zhǔn)則引入復(fù)空間,從而在復(fù)空間的基礎(chǔ)上解決傳統(tǒng)LDA只能分析線性問題的缺 陷,同時對類內(nèi)散度矩陣重定義,通過可調(diào)控的參數(shù)k來解決小樣本問題和特征矩陣不平衡 問題。本發(fā)明的方法比傳統(tǒng)并行特征融合方法和串行特征融合方法有不同程度上的改進, 不僅解決了傳統(tǒng)LDA在人臉表情識別等領(lǐng)域?qū)Ψ蔷€性特征無法處理的問題,方法同時在一 定程度上解決了小樣本問題,在人臉表情特征庫的數(shù)據(jù)庫上的實驗取得了較高的識別率。
【附圖說明】
[0041 ]圖1為本發(fā)明在JAFFE數(shù)據(jù)庫下選擇不同k時的分類識別精度;
[0042]圖2為本發(fā)明在Yale數(shù)據(jù)庫下選擇不同k時的分類識別精度。
【具體實施方式】
[0043]下面結(jié)合實施例對本發(fā)明做進一步的詳細描述,但本發(fā)明的保護范圍并不限于 此。
[0044] 本發(fā)明涉及一種基于核LDA的并行特征融合人臉表情識別方法,所述方法包括以 下步驟:
[0045] 步驟1.1:從任一人臉表情特征庫中采用Gabor濾波器提取人臉特征,得到若干個 方向上的全局特征向量β;采用PCA算法對人臉的局部特征進行提取,得到局部特征向量α, 將α和β通過并行特征信息融合,得到矩陣X;
[0046] 步驟1.2:在進行特征融合時,當(dāng)同一樣本的兩組特征向量在數(shù)量關(guān)系上存在較大 差別時,通過對類內(nèi)離散矩陣3?重新定義來解決小樣本問題,即
[0048]其中,Si = Si+kl,k為控制參數(shù),0彡k彡1,Si是單個樣本類的協(xié)方差矩陣;控制k的 值以增加小特征向量值、減小大特征向量值,使得su的偏差最??;
[0049] 步驟1.3:將矩陣X經(jīng)過非線性映射Φ變換到特征空間F中,即Φ : xi G X- Φ (Xi) e F;在特征空間F中,線性Fisher鑒別函數(shù)為
[0054] Sf和$分別為特征空間F中對應(yīng)的類內(nèi)散布矩陣和類間散布矩陣,
表示在特征空間F中的第i個類別中的樣本均值,表示在特 征空間F中的所有樣本的均值;
[0055] 步驟1.4:將式(II)和式(III)引入復(fù)空間,得到復(fù)空間的類間散度矩陣和類內(nèi) 散度矩陣#',
[0058] 其中,"廣=ΖΓ?Φ?Υν??Μ.^^Ε?Φ (Χι)} ;Ρ( 為第i類訓(xùn)練樣本的先驗概率;
[0059]步驟1.5:由再生核理論,解向量ω在特征空間F中可以按所有訓(xùn)練樣本數(shù)據(jù)展開,
[0061 ]其中,核鑒別矢量 ζ= (ζ1,ζ2,···,ζη)Τ,Φ = (Φ(Χ1),Φ(Χ2),···,Φ(Χη)),ζ*Φ* 鑒別向量ω的最佳核鑒別向量;
[0062] 步驟1.6:將式(IV)、式(V)和式(VI)代入式(I)后,經(jīng)過矩陣變換,得到
[0067] 步驟1.7:將式(VII)和式(VIII)代入式(I)后,得到特征空間F中的線性Fisher鑒
[0070] 步驟1.9:求當(dāng)ζ何值時J〇取得最大值,
采用Lagrange算法求解, 得到Ρζ = λ(Τζ,求得一組基特征向量,得到最佳投影方向ζ,即當(dāng)取最佳投影方向ζ時,JG) 取得最大值;
[0071] 步驟1.10:利用最佳投影方向ζ將矩陣X投影到相應(yīng)的特征空間,得到所有樣本的 最佳分類特征Y:yi = GHxi,yieY;
[0072] 步驟1.11:以71為特征值識別任一人臉表情特征庫的人臉。
[0073] 本發(fā)明中,在進行并行特征融合時,同一樣本的兩組特征值在數(shù)量關(guān)系上可能存 在較大差別:大的特征值偏大,而小的特征值偏小,融合后可能使特征矩陣失衡。為此,需要 通過對類內(nèi)離散矩陣3?重新定義來解決小樣本問題,
[0074] 本發(fā)明中,設(shè)有樣本空間Ω上的兩組特征集A、B,A對應(yīng)的特征向量為aeA,B對應(yīng) 的特征向量為βεΒ。γ =α+?β表示特征向量的組合,其中i為虛數(shù)單位,g卩在樣本空間Ω上 經(jīng)過組合的特征空間可定義為C = {α+?β | a e A,β e Β},即本發(fā)明中的矩陣X,若兩組特征向 量α與β的維數(shù)不等,則低維的特征向量用零補足,該樣本空間為η維復(fù)向量空間,n = max {dimA,dimB}。定義內(nèi)積(X,Y) =XHY,其中,X,Ye C,H為共輒轉(zhuǎn)置符號,稱定義了內(nèi)積的復(fù)空 間為酉空間。相應(yīng)地,假設(shè)有L個已知模式類,酉空間內(nèi)類間散度矩陣、類內(nèi)散度矩陣和總體 散度矩陣分別表不為:
[0077] St = Sb+Scj = E{ (X_m。)(X_m〇)H}
[0078]其中,P| c〇i|為第i類訓(xùn)練樣本的先驗概率,mi = E|X| c〇i|為第i類訓(xùn)練樣本的均
為全體訓(xùn)練樣本的均值。
[0079]
,且X,YG C,C= {α + ?β | a G A,β G Β},類推可知步驟1.2中的類內(nèi)離散矩陣Su和單個樣本類的協(xié)方差矩陣為與局部特征 向量α和全局特征向量β相關(guān)的矩形。
[0080] 本發(fā)明中,由此,可以通過調(diào)整參數(shù)k來增大類內(nèi)離散度矩陣&的小特征值、減小 其大的特征值來抑制偏差,從而達到提高識別率的目的。
[0081] 本發(fā)明中,Xi是矩陣X中的樣本向量。
[0082]本發(fā)明中,Q是非負定矩陣,參數(shù)k和單位矩陣I的積是正定的,則Q+kl就是正定的,
中ζ有解,并且與核類內(nèi)散度矩陣Q的奇異性無關(guān),解決了 Q的奇異性問 題,從而小樣本的問題得到了解決,在抑制34扁差的同時也平衡了在融合中可能存在的特 征向量不均等問題。
[0083] 本發(fā)明中,為了充分表達表情信息,采用PCA算法提取局部信息,采用Gabor濾波器 提取人臉表情的整體信息,首先執(zhí)行PCA算法得到局部特征向量α,將α和經(jīng)由Gabor變化得 到的全局特征向量β通過并行特征信息融合得到矩陣X,分析α和β的維數(shù)大小和訓(xùn)練樣本 數(shù),得到調(diào)節(jié)可控參數(shù)k的值,用以重新定義類內(nèi)散度矩陣,計算得到復(fù)空間的核類內(nèi)散度 矩陣和核類間散度矩陣,求解廣義特征方程Ρζ = λ(Τζ,找到一組基特征向量,得到最佳投影 方向ζ。將X投影到一個t維空間,得到所有樣本的最佳分類特征Αρζ%。
[0084] 所述步驟1.1中,采用PCA提取的人臉的局部特征包括嘴部特征、眼部特征、鼻部特 征。
[0085] 所述步驟1 · 1中,X = a+i0 或 Χ = β+?α。
[0086] 本發(fā)明中,設(shè)樣本空間Ω上的兩組合特征空間分別定義為d = {α+?β | aeA,i3e B},C2={0+ia |aGA,0GB},設(shè)矩陣Η(α,β) = (α+?β)(α+?β)Η,Η(α,β) = (β+?α)(β+?α)Η, //(/人<2) = //(/人<2).其中,€[,0為11維實向量,設(shè),€[ = (€[1,...,€[11)1',0=(131,...,13 11)1',則 Ο
[0091] 故,得到 χ = α+?β 或 χ = β+?α。
[0092] 所述步驟1.1中,全局特征向量β-般為4~8個方向上的向量。
[0093] 本發(fā)明中,全局特征向量β-般為4~8個方向上的向量,方向均分,如一般以Gabor 提取六個方向上的全局特征,六個方向分別為〇,V6,2π/6,3π/6,4π/6,5π/6。
[0094] 所述步驟1.2中,增大控制參數(shù)k以控制k的值以增加 Su的小特征值、減小大特征 值,使得&的偏差最小。
[0095] 本發(fā)明中,選擇JAFFE和Yale兩個表情庫;為不失一般性,分類器采用KNN(基于K近 鄰法則)。其中,JAFFE人臉表情數(shù)據(jù)庫由10人的213幅圖像組成,每人展示7種表情;而Yale 表情庫包含15個人的4種表情,共165幅圖像,均為320X243的8位灰度圖像。
[0096] 本發(fā)明中,從JAFFE中選擇每人6種表情各一副共計60副,從Yale中選擇10人4種表 情各一副共計40幅,以每種表情的前Μ幅圖像作為訓(xùn)練樣本,后(10-M)幅作為測試樣本。這 樣,訓(xùn)練樣本和測試樣本形成典型的高維小樣本問題。循環(huán)5次,取所有表情的平均值作為 實驗結(jié)果。
[0097] k在[0,1]間進行變化,可以是連續(xù)變化也可以是離散變化。從圖1和圖2可以看出, 當(dāng)Μ多4時由于有足夠多的訓(xùn)練樣本,k值很小也能保證方差和偏差平衡,當(dāng)M=2,3時,由于 訓(xùn)練樣本不足,類內(nèi)離散矩陣&會出現(xiàn)高額方差。因此,就必須增大控制參數(shù)來增加它的小 的特征值,減小大的特征值抑制其偏差,從而控制零空間的方差,才能達到比較好的識別 率。實驗同時可知隨著k值的增大識別率不斷增大,當(dāng)增大到一定值后取得峰值,且在識別 率最高點附近識別率變化緩慢。
[0098] 本發(fā)明表明不同的表情庫或同一樣庫中不同樣本值的情況下識別率最高點所對 應(yīng)的k并不相同,且本發(fā)明更適用于小樣本作業(yè)中,當(dāng)樣本較小時,采用可調(diào)控的參數(shù)k來解 決小樣本問題和特征矩陣不平衡問題效果更好。
[0099]本發(fā)明中,在JAFFE和Yale兩個數(shù)據(jù)庫中取一人每種表情中的一張表情圖像作為 測試樣本,其余的作為訓(xùn)練樣本。循環(huán)5次,取平均值作為識別率,JAFFE數(shù)據(jù)庫下所用的k為 0.9,Yale數(shù)據(jù)庫下所用的k值為0.85,得到如下驗證結(jié)果:
[0100]表1 JAFFE數(shù)據(jù)庫下不同方法的識別率(% )
[0102]表2 Yale數(shù)據(jù)庫下不同方法分類器的分類精度(% )
[0104] 從表1和表2可見,串行特征融合的方法在三種方法中得到的識別率是最低的,這 是由于Gabor特征提取產(chǎn)生較大特征維度,在沒有降維的情況下,經(jīng)過串行特征融合將使特 征維度急劇增加。傳統(tǒng)的LDA并行特征融合在兩個樣本庫上的平均識別率分別為90.2%和 92.1%,而本發(fā)明所提出的方法,分別得到了93.4%和95.90%的識別率,驗證了本發(fā)明所 提出并行融合方法的有效性。
[0105] 本發(fā)明中,再次采取與人無關(guān)測試方法,測試5次取平均值。本實驗中所用的k值同 樣分別為0.9和0.85。
[0106] 表3 JAFFE數(shù)據(jù)庫下不同特征提取方法的識別率(%)
[0108]表4 Yale數(shù)據(jù)庫下不同特征提取方法的分類精度(% )
[0110] 從表3和表4可以得出,與單一人臉表情PCA特征和Gabor特征識別結(jié)果相比較,將 兩種特征采用提到的并行融合策略進行融合,提高了識別率,這是由于并行融合這兩種方 法包含了人臉表情的局部特征和整體特征,保留了其有效鑒別信息的同時也防止了信息冗 余。而本發(fā)明提出的方法由于充分處理了表情圖像的非線性特征,在兩個數(shù)據(jù)庫上的識別 率達到92.9 %和95.3 %,比傳統(tǒng)方法分別提高了 2.6 %和2.7 %,證明了在核空間并行特征 融合策略的有效性。
[0111] 本發(fā)明解決了現(xiàn)有技術(shù)中,串行融合方法雖保留了多種特征的鑒別信息,具有一 定的優(yōu)勢,但同時會導(dǎo)致合并后新特征的維數(shù)急劇增加,從而加大后續(xù)步驟如特征抽取和 識別的難度,使甄別速度和準(zhǔn)確率大幅降低,而采用并行特征融合方法用線性鑒別準(zhǔn)則 (LDA)來抽取有效鑒別特征的過程中,核空間的維數(shù)往往大于訓(xùn)練樣本的數(shù)目,即小樣本問 題,甚至,由于此方法使用的是Fisher鑒別準(zhǔn)則,故還同時存在融合特征矩陣不平衡的問 題,使類內(nèi)散度矩陣不但受小樣本問題影響而丟失類內(nèi)散射信息,還會因特征矩陣不平衡 而產(chǎn)生偏差和較大方差,嚴(yán)重影響實驗效果的問題,通過將兩組經(jīng)過不同表達的特征向量 采用復(fù)數(shù)的組合形式并行融合,構(gòu)成復(fù)特征向量,并將核Fisher鑒別準(zhǔn)則引入復(fù)空間,從而 在復(fù)空間的基礎(chǔ)上解決傳統(tǒng)LDA只能分析線性問題的缺陷,同時對類內(nèi)散度矩陣重定義,通 過可調(diào)控的參數(shù)k來解決小樣本問題和特征矩陣不平衡問題。本發(fā)明的方法比傳統(tǒng)并行特 征融合方法和串行特征融合方法有不同程度上的改進,不僅解決了傳統(tǒng)LDA在人臉表情識 別等領(lǐng)域?qū)Ψ蔷€性特征無法處理的問題,方法同時在一定程度上解決了小樣本問題,在人 臉表情特征庫的數(shù)據(jù)庫上的實驗取得了較高的識別率。
【主權(quán)項】
1. 一種基于核LDA的并行特征融合人臉表情識別方法,其特征在于:所述方法包括以下 步驟: 步驟1.1:從任一人臉表情特征庫中采用Gabor濾波器提取人臉特征,得到若干個方向 上的全局特征向量β;采用PCA算法對人臉的局部特征進行提取,得到局部特征向量α,將α和 β通過并行特征信息融合,得到矩陣X; 步驟1.2:在進行特征融合時,當(dāng)同一樣本的兩組特征向量在數(shù)量關(guān)系上存在較大差別 時,通過對類內(nèi)離散矩陣3?重新定義來解濃/丨、樣太間題· ΒΡ其中,Si = Si+kl,k為控制參數(shù),1,Si是單個樣本類的協(xié)方差矩陣;控制k的值以 增加小特征向量值、減小大特征向量值,使得Su的偏差最??; 步驟1.3:將矩陣X經(jīng)過非線性映射Φ變換到特征空間F中,即Φ : Xi e X- Φ (Xi) e F;在 特征空間F中,線性Fisher鑒別函數(shù)為 /=1 _/=*和?^分別為特征空間F中對應(yīng)的類內(nèi)散布矩陣和類間散布矩陣,表 示在特征空間F中的第i個類別中的樣本均值!示在特征空間F中的所有 樣本的均值;步驟1.4:將式(II)和式(III)引入復(fù)空間,得到復(fù)空間的類間散度矩陣和類內(nèi)散度 矩陣<',其中,/< = /」1Φ(.γ/)|<,"?(,φ = Δ'丨Φ(χ,)丨;Ρ( ω 〇為第i類訓(xùn)練樣本的先驗概率; 步驟1.5:由再生核理論,解向量ω在特征空間F中可以按所有訓(xùn)練樣本數(shù)據(jù)展開,其中,核鑒別矢量ζ = (ζ?,ζ2,…,ζη)Τ,Φ = ( Φ (XI),Φ (Χ2),…,Φ (Χη) ),ζ為Φ中鑒別向 量ω的最佳核鑒別向量; 擊3娶1 _ fi.您τν).忒以)和)枰λ忒m后.怒忖鉅咗亦拖.徨?丨丨 /=1 J-1κ( ·,·)為內(nèi)積核函數(shù)Φ(χι〇, ...,Φ(χη)ΗΦ(χι〇 | 〇i]H,k= 1,2, ···,]! ;Ρ為核類間散度矩陣,Q為核類內(nèi)散度矩陣; 步驟1.7:將式(VII)和式(VIII)代入式(I)后,得到特征空間F中的線性Fi sher鑒別函 數(shù)為步驟1.8:由式(VIII)和,步驟1.9 :求當(dāng)ζ何值時J〇取得最大值,對算法求解,得到 ρζ=λ(Τζ,求得一組基特征向量,得到最佳投影方向ζ,即當(dāng)取最佳投影方向ζ時,JG)取得 最大值; 步驟1.10:利用最佳投影方向ζ將矩陣X投影到相應(yīng)的特征空間,得到所有樣本的最佳 分類特征Y:yi=Cxi,yieY; 步驟1.11:以特征值識別任一人臉表情特征庫的人臉。2. 根據(jù)權(quán)利要求1所述的一種基于核LDA的并行特征融合人臉表情識別方法,其特征在 于:所述步驟1.1中,采用PCA提取的人臉的局部特征包括嘴部特征、眼部特征、鼻部特征。3. 根據(jù)權(quán)利要求1所述的一種基于核LDA的并行特征融合人臉表情識別方法,其特征在 于:所述步驟1 · 1中,X=a+i0或X=0+ia。4. 根據(jù)權(quán)利要求1所述的一種基于核LDA的并行特征融合人臉表情識別方法,其特征在 于:所述步驟1.1中,全局特征向量β-般為4~8個方向上的向量。5. 根據(jù)權(quán)利要求1所述的一種基于核LDA的并行特征融合人臉表情識別方法,其特征在 于:所述步驟1.2中,增大控制參數(shù)k以控制k的值以增加 Su的小特征值、減小大特征值,使得 Scj的偏差最小。
【文檔編號】G06K9/00GK105868713SQ201610185925
【公開日】2016年8月17日
【申請日】2016年3月29日
【發(fā)明人】李文書
【申請人】杭州農(nóng)鑫科技有限公司