亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于人臉識別的關聯(lián)信息推送設備及方法_4

文檔序號:9645938閱讀:來源:國知局
計算預測的屬性類別或者其編碼與輸入的屬性類 別或者其編碼的誤差。
[0166] 總體而言,輸入層A負責簡單處理輸入。卷積層B,非線性層C和池化層D的組合 負責圖片的特征提取。全連接層E和非線性層F是特征到屬性類別或者其編碼的映射。損 耗層G負責計算預測誤差。通過上述深度神經(jīng)網(wǎng)絡的多層設計保證提取的特征具有豐富的 表達能力,而從更好的預測屬性。同時,多個屬性類別和編碼同時連接損耗層G,確保多個任 務同時學習,共享深度網(wǎng)絡學到的特征。
[0167] 步驟S25a:利用步驟S21a形成的訓練數(shù)據(jù)集合,訓練步驟S24a中設計的深度神 經(jīng)網(wǎng)絡,并部署訓練得到的神經(jīng)網(wǎng)絡模型。
[0168] 通過向后傳遞的梯度下降的算法,訓練得到步驟S4中設計的深度網(wǎng)絡參數(shù)。替換 輸入層A使得其只輸入圖片;替換損耗層G,使得其只輸入特征和人臉屬性。從而得到一個 輸入人臉圖片,同時輸出人臉多個屬性的深度神經(jīng)網(wǎng)絡模型。
[0169] 步驟S26a,利用步驟S25a中的深度神經(jīng)網(wǎng)絡模型,預測圖片中的人臉屬性。
[0170] 在另一個優(yōu)選的實施方式中,該人臉及屬性值的識別方法是基于嵌入式系統(tǒng)DSP 的人臉檢測方法,具體步驟如下:
[0171] S21b、計算金字塔特征層數(shù)和縮放比例:根據(jù)欲識別圖像尺寸以及基于人臉模型 訓練得到的縮放最小寬高參數(shù),計算金字塔特征層數(shù)11_ 8(^1^以及縮放比例S,所述縮放 比例需確??s放區(qū)域的面積最大化;
[0172] 優(yōu)選的,所述金字塔特征層數(shù)n_scales的計算公式為:
[0173] n_scales=numX(log(ratio)/log(2. 0)+1)
[0174] 式中:num指基于人臉模型訓練得到的金字塔特征層數(shù),主要用于根據(jù)圖像大小 進行圖像縮放次數(shù)的確定,即一個確定金字塔特征層數(shù)的變量;其中:
[0175] ratio=min(w/min_w,h/min_h)
[0176] 式中:min_w指所述人臉模型里最小圖像寬度,min_h指所述人臉模型中最小圖像 高度;w指:欲識別圖像的寬度,h指:欲識別圖像的高度。
[0177] S22b、提取金字塔特征層的人臉分類所依據(jù)的特征數(shù)據(jù):將所述金字塔特征層劃 分為完全提取層和近似提取層,分別進行完全提取和近似提取,得到每一層人臉分類所依 據(jù)的特征數(shù)據(jù);
[0178] 所述完全提取是基于當前得到的縮放比例,從欲識別圖像中獲取縮放后的圖像, 并以獲取的縮放圖像為輸入,根據(jù)人臉模型計算人臉分類所依據(jù)的特征數(shù)據(jù);
[0179] 所述近似提取是縮放從完全提取層得到的人臉分類所依據(jù)的特征數(shù)據(jù);
[0180] 優(yōu)選的,所述完全提取包括下述子步驟:
[0181] S221 :基于前一步計算得到的縮放系數(shù),從欲識別圖像中獲取縮放后的圖像;
[0182] S222 :以S221得到圖像為輸入,根據(jù)人臉模型計算人臉分類所依據(jù)的特征數(shù)據(jù)。
[0183] 不論完全提取采用什么方式,所述近似提取均是在完全提取的結果基礎上進行進 一步地操作。在一個實施例中,提供了一種近似提取的操作方式:即:所述近似提取在最新 得到的完全提取層的基礎上,計算λ層近似提取數(shù)據(jù),即若完全提取層在第N層,則近似提 取是計算Ν+1~Ν+λ層上的近似提取數(shù)據(jù);其中,λ為人臉模型的加速比參數(shù),是將金字 塔層數(shù)分為完全提取層和近似提取層兩大類的劃分標準。
[0184] 所述近似提取的目的為加速整個金字塔特征數(shù)據(jù)的提取過程,降低總的數(shù)據(jù)運算 量。
[0185]更進一步地,所述縮放比例S的計算公式為:
[0186] S=(Sa/Sr)-0j
[0187] 式中:Sa、&分別為近似提取層、從完全提取層得到的相對于原始圖像尺寸的縮放 比例;β為第j種人臉分類所依據(jù)的特征類型參數(shù),β的值與具體的人臉分類所依據(jù)的 特征數(shù)據(jù)的類型有關。
[0188] 在上述完全提取和近似提取中都提及了人臉分類所依據(jù)的特征數(shù)據(jù),在一個方法 實施例中詳細提供了該數(shù)據(jù)的內容,即:所述人臉分類所依據(jù)的特征數(shù)據(jù)包括顏色通道、梯 度幅值以及梯度直方圖中的一種或多種組合。
[0189] 在完全提取中,可以選取任意幾個上述三種特征值進行計算,即可選1~3種計 算。選取的越多,則檢測結果越精確。比如,在一個實施例中,選取人臉分類所依據(jù)的特 征包括顏色通道、梯度幅值以及梯度直方圖,則h作為人臉模型的參數(shù),j的取值范圍為0,1,2。若計算選擇顏色通道和梯度幅值,則取0,1;若全選則取0,1,2。然而在計算中,近 似提取的計算個數(shù)需要與完全提取保持一致。至于在計算中,選取具體特征類型和特征個 數(shù)的原則是基于檢測精度與檢測時間的權衡,這兩者成反比。
[0190] S23b、分類金字塔特征層的人臉分類所依據(jù)的特征數(shù)據(jù):對每一層的金字塔特征 數(shù)據(jù)應用分類算法進行分類;所述金字塔特征數(shù)據(jù)包括完全提取層數(shù)據(jù)和近似提取層數(shù) 據(jù);
[0191] 優(yōu)選的,所述S23中的分類算法利用基于決策樹的AdaBoost分類算法,通過五層 的滿二叉樹結構實現(xiàn)滑動窗的人臉模型匹配,得到滿足閾值條件的匹配結果。
[0192] 這里的層數(shù)是根據(jù)訓練模型結果確定的最優(yōu)解;用于匹配的人臉模型是已經(jīng)訓練 好的模型。所述匹配結果可以用分數(shù)來體現(xiàn),比如所述二叉樹中每個節(jié)點都有相應的分數(shù), 當欲檢測圖像與某個節(jié)點匹配到了,則該欲檢測圖像的分數(shù)增加該節(jié)點上的分數(shù),匹配不 到則分數(shù)不變。當與每個節(jié)點都匹配完之后,通過最后得分的高低來表示匹配度的高低。其 中,每個節(jié)點的分數(shù)可以事先人為指定,但優(yōu)選的方式是通過建立相應模型來訓練得到。
[0193] S24b、得到人臉信息及其屬性值:合并每層的分類結果,得到人臉信息及其屬性 值。
[0194] 該人臉信息及其屬性值包括人臉信息,人臉關鍵點信息以及人臉屬性值。在一個 優(yōu)選實施例中,使用了基于決策樹的AdaBoost分類算法,通過五層的滿二叉樹結構實現(xiàn)滑 動窗的人臉模型匹配,得到滿足閾值條件的匹配結果,所述匹配結果以打分形式出現(xiàn),并且 在所述步驟S24之前,先對窗口位置、得分、面積信息進行取舍判斷。即:在進行合并每層的 分類結果之前,所述步驟S24還包括對每層的分類結果按照窗口位置、得分、面積信息進行 取舍判斷,即:如果窗口位置、得分、面積信息的值低于人臉的判斷閾值,則舍去;合并即人 臉在同一個位置則進行合并;所述閾值為人臉模型中設置的參數(shù)。通過這個方法實施例中 的處理,得到最終的人臉信息及其屬性值R。R的表征方式為:
[0195] R= {n, [ (x,y), (w,h),angle,score] [...]}
[0196] 其中,n為檢測到的人臉數(shù)量,后續(xù)□中內容代表每一個檢測到的人臉信息,包括 相對于圖像左上角頂點的坐標位置(x,y),人臉所在區(qū)域面積對應的寬和高(w,h),人臉角 度angle以及檢測打分結果score。
[0197] 所述方法在快速多尺度金字塔特征數(shù)據(jù)提取的基礎上進行分類,在保障檢測準確 度的前提下能夠有效降低了計算量。在步驟S21b中,為讓每一層縮放后的圖像更平滑,在 計算縮放系數(shù)時需要進行微調使得各縮放圖像尺寸之間平滑變化,并確保待縮放區(qū)域的最 大化。在步驟S22b中,為加速特征提取過程,降低總的數(shù)據(jù)運算量,將總的金字塔特征層數(shù) 劃分為完全提取和近似提取兩大類,劃分的標準為縮放比例S。在步驟S23b中,得到多層人 臉分類所依據(jù)的特征數(shù)據(jù),為步驟S24b中得到準確的人臉信息及其屬性值提供保證。在步 驟23b中,將每層中滿足人臉模型中設置的參數(shù)閾值的、且在窗口同一位置的人臉進行合 并。
[0198] 在一個方法實施例中在進行人臉圖像檢測之前,將欲識別圖像進行了圖像預處 理,即:在所述步驟S21b之前,還包括:
[0199] S20b、圖像預處理:進行欲識別圖像的顏色空間、行列格式轉換到人臉模型要求的 顏色空間、行列格式。
[0200] 可選的,在圖像預處理之前,建立人臉模型。對于人臉模型的建立方法包括基于神 經(jīng)網(wǎng)絡的人臉檢測算法、特征臉、基于樣本學習方法或其它算法。優(yōu)選的,使用卷積神經(jīng)網(wǎng) 絡方法來建立和訓練人臉模型,該算法不僅檢測精度高,而且計算量低,能夠使得人臉檢測 快速有效。
[0201] 可選的,所述人臉模型的格式要求包括:欲識別圖像的顏色空間以及行列格式需 要和人臉模型要求的顏色空間及行列格式一致。其中,可選顏色空間有gray、rgb、hsv或 luv等。圖像的存儲格式為按列存儲。
[0202] 步驟S3 :檢索并獲取步驟S2中人臉及其屬性值對應的關聯(lián)信息。關聯(lián)信息檢索 單元314通過獲得的人臉及其屬性值,來尋找該屬性值關聯(lián)的信息。在一個具體的實施方 式中,屬性值為佩戴眼鏡,關聯(lián)信息檢索單元可以通過關聯(lián)信息存儲單元323存儲的已有 信息,或者通過連接internet,局域網(wǎng)等網(wǎng)絡,獲取其他同品牌或者同類型或者同款式的眼 鏡信息,并且將該信息顯示在顯示屏23上。在另一個具體的實施方式中,屬性值為女士,則 該關聯(lián)信息檢索單元可以通過網(wǎng)絡或已經(jīng)存儲的信息來獲取當日商場的促銷活動信息,發(fā) 送到顯示屏23上顯示。
[0203] 步驟S4 :顯示該關聯(lián)信息。顯示屏23可以獲得關聯(lián)信息檢索單元314發(fā)送的關 聯(lián)信息,并將該信息顯示在人臉信息的下方。在一個具體的實施方式中,該關聯(lián)信息可以為 商場活動信息,或者根據(jù)獲得的用戶屬性值,如表情,推薦的商品信息,或者用戶所在位置 的地圖等。
[0204] 可選的,所述方法還進一步包括:
[0205] 步驟S5 :建立歷史關聯(lián)信息,所述歷史關聯(lián)信息是所述步驟S3檢索并獲取到的、 與所述人臉信息及其屬性值對應的關聯(lián)信息;
[0206] 步驟S6 :基于所述歷史關聯(lián)信息,檢索并獲取人臉信息及其屬性值對應的關聯(lián)信 息。
[0207] 如前所述,利用歷史關聯(lián)信息,能夠獲得對當前、后續(xù)的人臉信息及其屬性值的關 聯(lián)信息的更精準的表達和對應。
[0208] 以上對本公開進行了詳細介紹,本文中應用了具體個例對本公開的原理及實施方 式進行了闡述,以上實施例的說明只是用于幫助理解本公開的方法及其核心思想;
[0209] 同時,對于本領域技術人員,依據(jù)本公開的思想,在【具體實施方式】及應用范圍上均 會有改變之處,綜上所述,本說明書內容不應理解為對本公開的限制。
【主權項】
1. 一種基于人臉識別的關聯(lián)信息推送設備,該設備包括攝像裝置,顯示屏和處理器,其 特征在于: 所述處理器進一步包括人臉識別單元和關聯(lián)信息檢索單元; 所述攝像裝置用于獲取圖像信息,并將所述圖像信息發(fā)送至所述人臉識別單元; 所述人臉識別單元通過檢測所述攝像裝置輸出的圖像信息,識別出至少一個人臉信息 及其屬性值,并將識別出的該人臉信息及其屬性值發(fā)送至所述關聯(lián)信息檢索單元; 所述關聯(lián)信息檢索單元通過檢索并獲取該人臉信息及其屬性值對應的關聯(lián)信息,并將 所述關聯(lián)信息發(fā)送至顯示屏上顯示。2. 根據(jù)權利要求1所述的設備,其特征在于,優(yōu)選的,所述設備還進一步包括存儲器。3. 根據(jù)權利要求2所述的設備,其特征在于,所述存儲器還包括人臉數(shù)據(jù)庫和關聯(lián)信 息存儲單元; 其中人臉數(shù)據(jù)庫用于給所述人臉識別單元提供和存儲人臉信息及其屬性值; 所述關聯(lián)信息存儲單元用于給所述關聯(lián)信息檢索單元提供和存儲與所述人臉信息及 其屬性值對應的關聯(lián)信息。4. 根據(jù)權利要求3所述的設備,其特征在于,所述關聯(lián)信息檢索單元進一步包括: 內部資源檢索單元,用于在所述關聯(lián)信息存儲單元中檢索與所述人臉信息及其屬性值 對應的關聯(lián)ig息; 外部資源檢索單元,用于搜索來自外部資源的與所述人臉信息及其屬性對應的關聯(lián)信 息。5. 根據(jù)權利要求4所述的設備,其特征在于: 所述關聯(lián)信息存儲單元還用于存儲:關聯(lián)信息檢索單元檢索并獲取到的、與該人臉信 息及其屬性值對應的關聯(lián)信息,以作為該人臉信息及其屬性值對應的歷史關聯(lián)信息; 內部資源檢索單元,還用于:基于所述歷史關聯(lián)信息,在所述關聯(lián)信息存儲單元中
當前第4頁1 2 3 4 5 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1