
本發(fā)明涉及圖像超分辨率
技術(shù)領(lǐng)域:
,特別涉及一種基于上下文圖像塊的人臉超分辨率重建方法。
背景技術(shù):
:現(xiàn)如今,人臉識別已經(jīng)廣泛應(yīng)用于司法、軍隊(duì)、公安、邊檢、政府、航天、電力、工廠、教育、醫(yī)療及眾多企業(yè)單位等領(lǐng)域。人臉識別更多地應(yīng)用在維護(hù)社會穩(wěn)定,保障人民生命安全的公安系統(tǒng)中。公安系統(tǒng)利用監(jiān)控資料進(jìn)行各種案件偵查,來確定犯罪嫌疑人,視頻中人臉由于不清晰,或者噪聲等因素的影響,使得對目標(biāo)人臉的識別變得及其困難。因此,為了這種低分辨率人臉圖像的質(zhì)量,即監(jiān)控視頻中低質(zhì)量人臉圖像的分辨率,使得人臉的特征變得更加明顯,成為時下迫切需要解決的問題?;谶@樣的需要,人臉超分辨率重建的方法引起了人們的廣泛關(guān)注。在相關(guān)研究人員的多年研究下,超分辨率的技術(shù)取得了較快的進(jìn)展,一系列的優(yōu)秀的算法被學(xué)者們提出。這種算法是根據(jù)高低分辨率圖像對所構(gòu)成的訓(xùn)練集這一先驗(yàn)信息,輸入一張低分辨率的人臉圖像,就可以超分辨率重建出一張高分辨率的人臉圖像。其開創(chuàng)性工作是baker等人在文獻(xiàn)1(s.bakerandt.kanade,“hallucinatingfaces,”infg,2000,pp.83–88.)提出的一種人臉幻構(gòu)的方法和liu等人在文獻(xiàn)2(c.liu,h.y.shum,andc.s.zhang,“atwo-stepapproachtohallucinatingfaces:globalparametricmodelandlocalnonparametricmodel,”incvpr,pp.192–198,2001.)中提出的一種合成人臉全局信息和局部信息的兩步法。這些方法都在嘗試去探索低分辨率人臉圖像與高分辨率人臉圖像之間的轉(zhuǎn)換關(guān)系,從而能夠在全局和局部兩個方面去實(shí)現(xiàn)人臉的超分辨率的重建?;谌值姆椒?,比如wang等人在文獻(xiàn)3(x.wangandx.tang,“hallucinatingfacebyeigentransformation,”ieeetrans.syst.mancybern.partc-appl.rev.,vol.35,no.3,pp.425–434,2005.)提出的一種主成份分析人臉超分辨率重建方法。以及yang等人在文獻(xiàn)4(j.yang,j.wright,t.huang,,andy.ma,“imagesuper-resolutionviasparserepresentation,”ieeetrans.imageprocess.,vol.19,no.11,pp.2861–2873,2010.)利用非負(fù)矩陣分解提出的人臉超分辨率重建方法。然而,當(dāng)訓(xùn)練樣本不夠充分,或者所觀察的人臉圖像與訓(xùn)練樣本圖像相差太大時,這樣全局的方法不能夠很好的實(shí)現(xiàn)人臉局部細(xì)節(jié)特征的恢復(fù)??紤]到上述的因素,基于局部的人臉超分辨重建的方法得到了學(xué)者們的關(guān)注和研究。ma等人在文獻(xiàn)5(x.ma,j.pzhang,andc.qi,“hallucinatingfacebyposition-patch,”patternrecognition,43(6):3178–3194,2010.)中提出一種基于位置圖像塊的人臉超分辨率方法,使用訓(xùn)練集中所有與輸入圖像塊同位置的人臉圖像塊重建高分辨率人臉圖像,但是該方法求解的過程,由于使用最小二乘法,其解并不唯一,而且也沒考慮局部性這一特征,所以重建效果并不理想。因此,jiang等人在文獻(xiàn)6(j.jiang,r.hu,z.wang,andz.han,“noiserobustfacehallucina-tionvialocality-constrainedrepresentation,”ieeetrans.multimedia,vol.16,no.5,pp.1268–1281,aug2014.)中提出一種基于局部表示的人臉超分辨率方法,該方法使用低分辨率人臉訓(xùn)練集中訓(xùn)練出來的表示系數(shù),在高分辨率人臉訓(xùn)練集中合成目標(biāo)人臉的超分辨率圖像。該方法解決了方程解不唯一,以及局部性特征,達(dá)到了比較好的重建效果。但是,當(dāng)輸入低分辨率人臉圖像與樣本庫人臉圖像不對齊時,傳統(tǒng)基于位置塊的人臉圖像超分辨率方法性能急劇下降。此外,當(dāng)輸入低分辨率人臉圖像與樣本庫人臉圖像差異較大,或者當(dāng)樣本庫規(guī)模較小時,現(xiàn)有人臉超分辨率方法重建出的高分辨率人臉圖像存在較大的人工噪聲。技術(shù)實(shí)現(xiàn)要素:本發(fā)明提供一種基于上下文圖像塊的人臉圖像超分辨率重建方法,解決現(xiàn)有方法在輸入低分辨率人臉圖像與樣本庫圖像對不齊時和在訓(xùn)練樣本規(guī)模較小時性能急劇下降的問題,從而最終提高最終合成的高分辨率人臉圖像的質(zhì)量。為解決上述技術(shù)問題,本發(fā)明提供了一種基于上下文圖像塊的人臉超分辨率重建方法,包括步驟:步驟1,將待處理人臉圖像、高分辨率人臉圖像訓(xùn)練集以及低分辨率人臉圖像訓(xùn)練集按圖像位置劃分為圖像塊;在所述高分辨率人臉圖像訓(xùn)練集中,劃分出當(dāng)前計(jì)算的圖像位置所對應(yīng)的圖像塊的高分辨率上下文圖像塊集合;在所述低分辨率人臉圖像訓(xùn)練集中,劃分出當(dāng)前計(jì)算的圖像位置所對應(yīng)的圖像塊的低分辨率上下文圖像塊集合;步驟2,計(jì)算所述待處理人臉圖像的每一個圖像位置的圖像塊到其對應(yīng)的所述低分辨率上下文圖像塊集合中所有低分辨率上下文圖像塊的距離;并基于閾值局部約束法,計(jì)算出所述低分辨率上下文圖像塊集合對該圖像位置圖像塊進(jìn)行線性重建時的最優(yōu)權(quán)值系數(shù);步驟3,對該圖像位置對應(yīng)的高分辨率上下文圖像塊集合,用所述最優(yōu)權(quán)值系數(shù)加權(quán)合成該位置的高分辨率人臉圖像塊;步驟4,將所述高分辨率人臉圖像塊按照在人臉上的位置融合,得到一張所述待處理人臉圖像對應(yīng)的高分辨率人臉圖像。進(jìn)一步地,所述方法還包括:步驟5,利用再生學(xué)習(xí)策略對以上融合得到的高分辨率人臉圖像進(jìn)行進(jìn)一步優(yōu)化;所述再生學(xué)習(xí)優(yōu)化策略包括:把所述高分辨率人臉圖像加入到高分辨率人臉圖像訓(xùn)練集中,擴(kuò)大高分辨率人臉圖像訓(xùn)練集;將合成高分辨率圖像對應(yīng)的低分辨率人臉圖像加入到低分辨率人臉圖像訓(xùn)練集中,擴(kuò)大低分辨率人臉圖像訓(xùn)練集;基于所述待處理人臉圖像、擴(kuò)大后的高分辨率人臉圖像訓(xùn)練集以及擴(kuò)大后的低分辨率人臉圖像訓(xùn)練集重復(fù)步驟1~步驟4,直到達(dá)到迭代次數(shù),得到最終高分辨率人臉重建圖像。進(jìn)一步地,所述低分辨率上下文圖像塊集合包括:待處理人臉圖像中當(dāng)前計(jì)算的圖像位置對應(yīng)的低分辨率人臉圖像訓(xùn)練集該圖像位置的圖像塊及其周圍的圖像塊;所述高分辨率上下文圖像塊集合包括:待處理人臉圖像中當(dāng)前計(jì)算的圖像位置對應(yīng)的高分辨率人臉圖像訓(xùn)練集該圖像位置的圖像塊及其周圍的圖像塊。本申請實(shí)施例中提供的一個或多個技術(shù)方案,至少具有如下技術(shù)效果或優(yōu)點(diǎn):本申請實(shí)施例中提供的基于上下文圖像塊的人臉圖像超分辨率重建方法,通過引入人臉位置圖像塊的上下文信息,利用位置塊的上下文圖像塊對等合成重建圖像塊進(jìn)行表示。由于可以自由地選擇周圍相似圖像塊,而不僅僅局限于當(dāng)前位置圖像塊,因而可以達(dá)到對齊不敏感的目的。同時,由于引入了更多的圖像塊,也大大增強(qiáng)了樣本庫的表達(dá)能力。通過再生學(xué)習(xí),將合成重建高分辨率人臉圖像及對齊的低分辨率人圖像加入到原始樣本庫,大大增加了訓(xùn)練樣本庫具有與待處理人臉圖像相似樣本的幾率,進(jìn)而提升小規(guī)模樣本庫的超分辨率重建性能。附圖說明圖1為本發(fā)明提供的基于上下文圖像塊的人臉圖像超分辨率重建方法原理示意圖;圖2為本發(fā)明提供的圖像塊的劃分原理示意圖;圖3為本發(fā)明提供的上下文圖像塊的劃分原理示意圖。具體實(shí)施方式本申請實(shí)施例通過提供一種基于上下文圖像塊的人臉圖像超分辨率重建方法,解決現(xiàn)有方法在輸入低分辨率人臉圖像與樣本庫圖像對不齊時和在訓(xùn)練樣本規(guī)模較小時性能急劇下降的問題,最終提高最終合成的高分辨率人臉圖像的質(zhì)量。為了更好的理解上述技術(shù)方案,下面將結(jié)合說明書附圖以及具體的實(shí)施方式對上述技術(shù)方案進(jìn)行詳細(xì)說明,應(yīng)當(dāng)理解本發(fā)明實(shí)施例以及實(shí)施例中的具體特征是對本申請技術(shù)方案的詳細(xì)的說明,而不是對本申請技術(shù)方案的限定,在不沖突的情況下,本申請實(shí)施例以及實(shí)施例中的技術(shù)特征可以相互組合。參見圖1,一種基于上下文圖像塊的人臉超分辨率重建方法,包括步驟:步驟1,將待處理人臉圖像、高分辨率人臉圖像訓(xùn)練集以及低分辨率人臉圖像訓(xùn)練集按圖像位置劃分為圖像塊;在所述高分辨率人臉圖像訓(xùn)練集中,劃分出當(dāng)前計(jì)算的圖像位置所對應(yīng)的圖像塊的高分辨率上下文圖像塊集合;在所述低分辨率人臉圖像訓(xùn)練集中,劃分出當(dāng)前計(jì)算的圖像位置所對應(yīng)的圖像塊的低分辨率上下文圖像塊集合;步驟2,計(jì)算所述待處理人臉圖像的每一個圖像位置的圖像塊到其對應(yīng)的所述低分辨率上下文圖像塊集合中所有低分辨率上下文圖像塊的距離;并基于閾值局部約束,計(jì)算出所述低分辨率上下文圖像塊集合對該圖像位置圖像塊進(jìn)行線性重建時的最優(yōu)權(quán)值系數(shù);步驟3,對該圖像位置對應(yīng)的高分辨率上下文圖像塊集合,用所述最優(yōu)權(quán)值系數(shù)加權(quán)合成該位置的高分辨率人臉圖像塊;步驟4,將所述高分辨率人臉圖像塊按照在人臉上的位置融合,得到一張待處理人臉圖像對應(yīng)的高分辨率人臉圖像;步驟5,利用再生學(xué)習(xí)策略對以上融合結(jié)果進(jìn)行進(jìn)一步優(yōu)化。把所述高分辨率人臉圖像加入到高分辨率人臉圖像訓(xùn)練集中,擴(kuò)大高分辨率人臉圖像訓(xùn)練集;將合成高分辨率圖像對應(yīng)的低分辨率人臉圖像加入到低分辨率人臉圖像訓(xùn)練集中,擴(kuò)大低分辨率人臉圖像訓(xùn)練集;基于所述待處理人臉圖像、擴(kuò)大后的高分辨率人臉圖像訓(xùn)練集以及擴(kuò)大后的低分辨率人臉圖像訓(xùn)練集重復(fù)步驟1~步驟4,直到達(dá)到迭代次數(shù),得到最終高分辨率人臉重建圖像。下面具體說明。步驟1,將低分辨率人臉圖像,以及高分辨率人臉圖像訓(xùn)練集和低分辨率人臉圖像訓(xùn)練集按位置進(jìn)行劃分為圖像塊。并對高分辨率人臉圖像訓(xùn)練集和低分辨率人臉圖像訓(xùn)練集劃分出要計(jì)算的當(dāng)前位置圖像塊,以當(dāng)前位置圖像塊為中心,設(shè)置窗口大小ws,塊大小為ps,移動的步長為ss,在所選窗口中,按照相同的塊大小移動相同步長ss所得到的位置圖像塊,這些位置圖像塊作為訓(xùn)練上下文圖像塊。所述低分辨率上下文圖像塊集合包括:待處理人臉圖像中當(dāng)前計(jì)算的圖像位置對應(yīng)的低分辨率人臉圖像訓(xùn)練集該圖像位置的圖像塊及其周圍的圖像塊;所述高分辨率上下文圖像塊集合包括:待處理人臉圖像中當(dāng)前計(jì)算的圖像位置對應(yīng)的高分辨率人臉圖像訓(xùn)練集該圖像位置的圖像塊及其周圍的圖像塊。低分辨率人臉圖像訓(xùn)練集中包含低分辨率人臉樣本圖像,高分辨率人臉圖像訓(xùn)練集中包含高分辨率人臉樣本圖像。低分辨率人臉圖像訓(xùn)練集和高分辨率人臉圖像訓(xùn)練集提供預(yù)先設(shè)定的訓(xùn)練樣本對。低分辨率人臉圖像訓(xùn)練集中每個低分辨率人臉樣本圖像是由高分辨率訓(xùn)練集中的一個高分辨率人臉樣本圖像提取得到。本實(shí)施例中,所有高分辨率的圖像像素大小為120×100,所有低分辨率的圖像像素大小為30×25。低分辨率人臉樣本圖像是高分辨率人臉樣本圖像先經(jīng)過4×4平均模糊,再通過bicubic下采樣四倍的結(jié)果。參見圖2,所述圖像位置的確定方法包括:將待處理人臉圖像、高分辨率人臉圖像訓(xùn)練集中高分辨率樣本圖像以及低分辨率人臉圖像訓(xùn)練集中的低分辨率樣本圖像劃分為圖像塊陣列并建立圖像塊坐標(biāo)系0-uv;其中,所述u為行號,v為列號;所述圖像位置為基于所述圖像坐標(biāo)系的坐標(biāo)。在實(shí)例中,(i,j)表示所劃分的圖像塊在圖像塊坐標(biāo)系o-uv下的位置信息,即圖像塊的行號和列號。以待劃分的圖像左上方為起點(diǎn),劃分得到的圖像塊位置信息為(1,1)、(1,2)…(u,v-1)、(u,v)。位置(i,j)處的圖像塊上下左右鄰接的圖像塊在坐標(biāo)系o-uv下的坐標(biāo)分別為(i-1,j)、(i+1,j)、(i,j-1)和(i,j+1)。u和v分別表示每一行和每一行劃分出的圖像塊數(shù)。本發(fā)明對待處理人臉圖像、所有低分辨率人臉樣本圖像和高分辨率人臉樣本圖像劃分相互重疊的圖像塊采用一致的方式,即每個圖像劃分的具體的u和v數(shù)值相同。將低分辨率人臉圖像xl劃分圖像塊,所得集合為{xl(p)}p,將高分辨率人臉圖像訓(xùn)練集和低分辨率人臉圖像訓(xùn)練集相應(yīng)地劃分圖像塊,所得集合分別為和m表示高低辨率訓(xùn)練集中低分辨率人臉樣本圖像的個數(shù);人臉樣本圖像訓(xùn)練上下文圖像塊ytcp分為高分辨率人臉圖像訓(xùn)練上下文圖像塊和低分辨率人臉圖像訓(xùn)練上下文圖像塊其中n表示是上下文圖像塊的總個數(shù)。參見圖3,在實(shí)例中,設(shè)置窗口大小ws,塊大小為ps,移動的步長為ss,在所選窗口中,按照相同的塊大小移動相同步長來得到所有的位置圖像塊,作為訓(xùn)練上下文圖像塊。具體上下文圖像塊的總個數(shù)的取值如下式:n=cm(1)其中,n表示上下文圖像塊的總個數(shù),c表示低分辨率人臉圖像訓(xùn)練集中單個低分辨率人臉圖像的上下文圖像塊個數(shù)。m表示低辨率訓(xùn)練集中低分辨率人臉樣本圖像的個數(shù)和高辨率訓(xùn)練集中高分辨率人臉樣本圖像的個數(shù);ws表示容納c個上下文圖像塊的窗口大小,ps表示圖像塊大小,ss表示步長大小。步驟2,對于待處理的低分辨率人臉圖像的每一個圖像位置上的圖像塊,計(jì)算該圖像位置的圖像塊到所有低分辨率人臉樣本圖像該圖像位置圖像塊對應(yīng)的訓(xùn)練上下文圖像塊的距離。利用閾值局部約束法,計(jì)算出低分辨率人臉圖像訓(xùn)練集中所有低分辨率人臉樣本圖像該位置上的若干個相近的訓(xùn)練上下文圖像塊對它進(jìn)行線性重建時的最優(yōu)權(quán)值系數(shù)。實(shí)施例中,最優(yōu)權(quán)值系數(shù)由下式獲得:這個式子由兩部分組成,第一部是超分辨率重建約束,第二部分是輸入圖像塊表示的局部約束。其中,為來自低分辨率人臉上下文圖像塊訓(xùn)練集與低分辨率觀察圖像塊相近的k個訓(xùn)練上下文圖像塊所重建系數(shù)。是所有低分辨率圖像訓(xùn)練上下文圖像塊重建低分辨率觀察圖像塊的重建系數(shù)組成的行向量。dk為重建系數(shù)的懲罰因子,τ是平衡重建誤差和局部約束的正則化參數(shù),表示兩個向量之間的內(nèi)積運(yùn)算,表示歐氏平方距離,該式子使得低分辨率人臉上下文圖像塊訓(xùn)練集中與低分辨率觀察圖像塊相近的k個訓(xùn)練文本所重建系數(shù)的和為1。本發(fā)明實(shí)例的懲罰因子dk由下式獲得,其中,dn為低分辨率觀察圖像塊與所有低分辨率人臉上下文圖像塊訓(xùn)練集樣本塊的歐式距離。dk則為低分辨率觀察圖像塊與所有低分辨率人臉上下文圖像塊訓(xùn)練集樣本塊的歐式距離最近的k個。該懲罰因子使得低分辨率人臉上下文圖像訓(xùn)練集離低分辨率人臉圖像xl越遠(yuǎn),懲罰越大;反之,當(dāng)?shù)头直媛嗜四樕舷挛膱D像訓(xùn)練集離低分辨率人臉圖像xl越近,懲罰越小。在式(3)中,τ是用來平衡重建約束和局部約束的一個正則化參數(shù)。τ取不同值時的重建效果不同,當(dāng)τ=0時,本發(fā)明中的局部約束表示方法就退化為文獻(xiàn)6中最小二乘表示方法。本發(fā)明的建議τ的取值在0.01到0.1之間。k的取值是用來約束上下文圖像塊的個數(shù),取值太小或太大都不能達(dá)到較好的重建效果。本發(fā)明的建議k的取值在180到750之間。具體實(shí)施時,式(3)的解可由下式子獲得:其中d是一個k×k的對角矩陣,其對角元素定義為矩陣g可定義為:其中xl為測試低分辨率人臉圖像塊,ones(k,1)是元素全為1的1×m列向量,ones(k,1)t表示矩陣ones(k,1)t的轉(zhuǎn)置矩陣。表示低分辨率人臉圖像與低分辨率人臉圖像訓(xùn)練集中k個最近上下文圖像塊的集合。步驟3,把所有低分辨率人臉樣本圖像的訓(xùn)練上下文圖像塊替換為位置對應(yīng)的高分辨率人臉樣本圖像的訓(xùn)練上下文圖像塊,用步驟2所得最優(yōu)權(quán)重系數(shù)加權(quán)合成高分辨率人臉圖像塊;實(shí)施例使用步驟2中得到的最優(yōu)權(quán)重系數(shù)表示高分辨率人臉圖像塊的表達(dá)式為:其中,為k個低分辨率人臉上下文圖像塊訓(xùn)練集上下文圖像塊所對應(yīng)位置的k個高分辨率人臉上下文圖像塊訓(xùn)練集上下文圖像塊的集合。如圖1中所示,對于低分辨率人臉圖像的某個位置上的圖像塊,計(jì)算在上下上下文圖像塊表示下由低分辨率訓(xùn)練集中所有k個低分辨率人臉樣本圖像上下文圖像塊對該位置上的圖像塊進(jìn)行線性重建的權(quán)值系數(shù)為w1、w2、w3、w4…wk。用樣本的圖像塊來近似表示輸入的圖像塊會存在一定的誤差,因此圖1采用約等號≌。把所有低分辨率人臉樣本圖像的圖像上下文圖像塊替換為位置對應(yīng)的高分辨率人臉樣本圖像的圖像上下文圖像塊,用權(quán)值系數(shù)w1、w2、w3、w4…加權(quán)合成相應(yīng)的高分辨率人臉圖像塊,即可得到該位置的高分辨率圖像塊。步驟4,將步驟3合成所得高分辨率人臉圖像塊按照在人臉上的位置融合,得到一張測試低分辨率人臉圖像對應(yīng)的高分辨率人臉圖像。步驟5,利用再生學(xué)習(xí),將步驟4得到的一張測試高分辨率人臉圖像加入到高分辨率人臉樣本圖像中,對該高分辨率人臉圖像進(jìn)行光滑和下采樣處理得到低分辨率人臉圖像,并加入到低分辨率人臉樣本圖像中,重復(fù)步驟1,步驟2,步驟3,步驟4直到達(dá)到迭代次數(shù)為止。最后一步執(zhí)行將步驟4合成所得高分辨率人臉圖像塊按照在人臉上的位置融合,得到一張高分辨率人臉圖像。實(shí)施例將步驟3中獲得的所有高分辨率人臉圖像塊按照其在人臉上的位置進(jìn)行拼接,相鄰圖像塊之間重疊部分的像素值,可以采用取均值的方法獲取。獲得的高分辨人臉圖像加入到高分辨率人臉圖像訓(xùn)練集中,低分辨率人臉圖像加入到低分辨率人臉圖像訓(xùn)練集中,在擴(kuò)大之后的高低分辨率訓(xùn)練集上重復(fù)步驟1,步驟2,步驟3,步驟4直到到達(dá)迭代次數(shù)為止,最后一步執(zhí)行將步驟3合成所得高分辨率人臉圖像塊按照在人臉上的位置融合,得到一張高分辨率人臉圖像。本發(fā)明通過增加上下上下文圖像塊的條件,解決了算法中由于訓(xùn)練樣本不夠充分,或者所觀察的人臉圖像與訓(xùn)練樣本圖像相差太大(文獻(xiàn)4)而導(dǎo)致不能夠很好的實(shí)現(xiàn)人臉局部細(xì)節(jié)特征恢復(fù)的問題,由于選擇太多圖像塊而造成多個解(文獻(xiàn)5)以及由于過分強(qiáng)調(diào)局部性(文獻(xiàn)6)的問題,使輸入圖像塊的表示系數(shù)更加精確;通過發(fā)明一種基于再生學(xué)習(xí)的迭代策略,進(jìn)一步優(yōu)化重建人臉圖像,最終獲得更高質(zhì)量的高分辨率人臉圖像。為說明本發(fā)明效果起見,以下提供實(shí)驗(yàn)對比。采用了fei人臉數(shù)據(jù)庫(文獻(xiàn)7:c.e.thomazandg.a.giraldi,“anewrankingmethodforprincipalcomponentsanalysisanditsapplicationtofaceimageanalysis,”imageandvisioncomputing,vol.28,no.6,pp.902–913,2010.)。200個不同個體(100個男性,100個女性),每人正面無表情人臉圖像和正面微笑表情人臉圖像各一張,所有圖像大小統(tǒng)一為120×100像素,從中選取360張進(jìn)行訓(xùn)練,剩余40張為待測試的圖像。每張訓(xùn)練用高分辨率的圖像進(jìn)行平滑(使用4×4的平均濾波器),并4倍bicubic下采樣得到30×25像素的低分辨率的圖像。本方法中的參數(shù)τ的取值為0.04,k取值為360。再生學(xué)習(xí)迭代次數(shù)取值為6。峰值信噪比(psnr,單位為db)是最普遍,使用最廣泛的圖像質(zhì)量的客觀量測指標(biāo);ssim則是衡量兩幅圖像結(jié)構(gòu)相似度的指標(biāo)(更符合人眼主觀感受),其值越接近于1,說明圖像重建的效果越好,反之越差。本發(fā)明方法與文獻(xiàn)5,文獻(xiàn)6,文獻(xiàn)8(c.dong,c.c.loy,k.he,andx.tang,“imagesuper-resolutionusingdeepconvolutionalnetworks,”ieeetransactionsonpatternanalysisandmachineintelligence,vol.38,no.2,pp.295–307,2016.)方法得到的psnr和ssim值(所有40幅測試人臉圖像求平均值)對比分別如下表所示。文獻(xiàn)5,文獻(xiàn)6,文獻(xiàn)8中和本發(fā)明方法的平均psnr值依次為32.76,32.98,33.13,34.03;文獻(xiàn)5,文獻(xiàn)6,文獻(xiàn)8中和本發(fā)明方法平均ssim值依次為0.9145,0.9176,0.9188,0.9347。本發(fā)明方法比當(dāng)對比方法中最好的算法(文獻(xiàn)8)在psnr和ssim值上分別提高0.9個db和0.0159。表1方法psnr(db)文獻(xiàn)532.76文獻(xiàn)632.98文獻(xiàn)833.13本方法34.03表2方法ssim文獻(xiàn)50.9145文獻(xiàn)60.9176文獻(xiàn)80.9188本方法0.9347本申請實(shí)施例中提供的一個或多個技術(shù)方案,至少具有如下技術(shù)效果或優(yōu)點(diǎn):本申請實(shí)施例中提供的基于上下文圖像塊的人臉圖像超分辨率重建方法,通過引入人臉位置圖像塊的上下文信息,利用位置塊的上下文圖像塊對等合成重建圖像塊進(jìn)行表示。由于可以自由地選擇周圍相似圖像塊,而不僅僅局限于當(dāng)前位置圖像塊,因而可以達(dá)到對齊不敏感的目的。同時,由于引入了更多的圖像塊,也大大增強(qiáng)了樣本庫的表達(dá)能力。通過再生學(xué)習(xí),將合成重建高分辨率人臉圖像及對齊的低分辨率人圖像加入到原始樣本庫,大大增加了訓(xùn)練樣本庫具有與待處理人臉圖像相似樣本的幾率,進(jìn)而提升小規(guī)模樣本庫的超分辨率重建性能。最后所應(yīng)說明的是,以上具體實(shí)施方式僅用以說明本發(fā)明的技術(shù)方案而非限制,盡管參照實(shí)例對本發(fā)明進(jìn)行了詳細(xì)說明,本領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解,可以對本發(fā)明的技術(shù)方案進(jìn)行修改或者等同替換,而不脫離本發(fā)明技術(shù)方案的精神和范圍,其均應(yīng)涵蓋在本發(fā)明的權(quán)利要求范圍當(dāng)中。當(dāng)前第1頁12