征提取過程,降低總的數(shù)據(jù)運算量,將總 的金字塔特征層數(shù)劃分為完全提取和近似提取兩大類,劃分的標準為縮放比例S。在分類單 元3123b中,得到多層人臉分類所依據(jù)的特征數(shù)據(jù),為人臉識別結(jié)果單元3124b中得到準確 的人臉信息及其屬性值提供保證。在人臉識別結(jié)果單元3124b中,將每層中滿足人臉模型 中設置的參數(shù)閾值的、且在窗口同一位置的人臉進行合并。
[0118] 可選的,該人臉識別單元312還包括一圖像預處理單元3120b,對接收的圖像序列 或視頻流進行圖像預處理,使之符合圖像處理格式要求的圖像。
[0119] 可選的,該人臉識別單元312還包括一人臉標識單元3125b:將得到的人臉信息及 其屬性值,在對應的圖像區(qū)域建立對應關系。建立對應關系,可以是在對應的圖像區(qū)域進行 人臉信息及其屬性值的標識,也可以是其他標識或表達的方式(包括但不限于存儲該對應 關系、或標識對應圖像區(qū)域等)。
[0120] 可選的,該人臉識別單元312還包括人臉模型建立單元3126b,用于建立和訓練人 臉模型。在該單元中可以使用包括基于神經(jīng)網(wǎng)絡的人臉檢測算法、特征臉、基于樣本學習方 法或其它算法來建立和訓練人臉模型。優(yōu)選的,使用卷積神經(jīng)網(wǎng)絡方法來建立和訓練人臉 模型,不僅檢測精度高,而且計算量低,從而使所述裝置的人臉檢測更加機敏。
[0121] 關聯(lián)信息檢索單元313可以通過人臉識別單元312輸入的人臉信息及其屬性值, 來尋找相關聯(lián)的信息。優(yōu)選的,關聯(lián)信息檢索單元313進一步包括內(nèi)部資源檢索單元3131 和外部資源檢索單元3132,其中內(nèi)部資源檢索單元3131用于在存儲器32中關聯(lián)信息存儲 單元322中檢索與人臉信息和屬性值相關聯(lián)的信息,該信息可以是預先儲存的關聯(lián)信息, 如屬性值為眼鏡,口罩,墨鏡等,關聯(lián)信息為同品牌或同款式的同類產(chǎn)品信息,或者屬性值 為男女等性別值時,關聯(lián)信息為車、數(shù)碼產(chǎn)品或者女士包,衣服等信息。關聯(lián)信息存儲單元 322的信息也可以是關聯(lián)信息檢索單元313經(jīng)過外部檢索的結(jié)果。外部資源檢索單元3132 用于搜索來自外部資源的關聯(lián)信息,例如搜索來自internet,或者局域網(wǎng)的信息。該搜索方 法可以是通過提取屬性值里的關鍵字,也可以是圖片搜索等常見搜索方式。該外部資源檢 索單元獲得的外部信息,可以保存在存儲器32中的關聯(lián)信息存儲單元322中。所述關聯(lián)信 息不僅可以是產(chǎn)品的信息,也可以是服務的信息,例如美容、美發(fā)、口腔、按摩、桑拿、健身等 服務。本發(fā)明基于人臉的識別可以進一步識別其頭發(fā)、面部、是否露出的牙齒涉及口腔改善 可能,以及更進一步的體形輪廓的具體情形一定程度的關聯(lián)到按摩、桑拿、健身等服務。
[0122] 在一個具體的實施方式中,人臉識別單元312檢測出站在顯示屏前用戶的臉部信 息,并發(fā)現(xiàn)其佩戴眼鏡這個屬性值,搜索其他同品牌或者同類型或者同款式的眼鏡信息,并 且將該信息發(fā)送至顯示屏23上顯示。在另一個具體的實施方式中,如果人臉識別單元312 檢測出顯示屏23前的用戶為年輕女士,則該關聯(lián)信息檢索單元313可以通過網(wǎng)絡或已經(jīng)存 儲的信息來獲取當日商場的促銷活動信息,發(fā)送到顯示屏23上顯示。
[0123] 在另一個具體的實施方式中:
[0124] 所述關聯(lián)信息存儲單元322還用于存儲:關聯(lián)信息檢索單元檢索并獲取到的、與 該人臉信息及其屬性值對應的關聯(lián)信息,以作為該人臉信息及其屬性值對應的歷史關聯(lián)信 息;
[0125] 內(nèi)部資源檢索單元3131,還用于:基于所述歷史關聯(lián)信息,在所述關聯(lián)信息存儲 單元中檢索與該人臉信息及其屬性值對應的關聯(lián)信息;
[0126] 外部資源檢索單元3132,還用于:基于所述歷史關聯(lián)信息,搜索來自外部資源的 與該人臉信息及其屬性值對應的關聯(lián)信息。
[0127] 也就是說,歷史關聯(lián)信息,能夠用于現(xiàn)在甚至未來的關聯(lián)信息的檢索。
[0128] 更具體的,如果識別到攝像頭的作用范圍內(nèi)的當前人臉包括張三:
[0129] (1) -種情形是,對于張三的前次人臉信息及其屬性值,當時曾經(jīng)檢索到的關聯(lián)信 息是A品牌的眼鏡:
[0130] 如果當前張三佩戴的是疑似A品牌的眼鏡,則可以將A品牌的新款眼鏡和/或?qū)?與A品牌定位類似或款式類似的眼鏡作為當前的關聯(lián)信息(之一或最優(yōu)先選擇),并在眼鏡 類別中調(diào)高A品牌的眼鏡的優(yōu)先級;進一步的,還可以將與A品牌的眼鏡搭配的其他服裝、 飾品作為當前的關聯(lián)信息之一;
[0131] 如果當前張三佩戴的是疑似B品牌的眼鏡,則可以將B品牌的新款眼鏡和/或?qū)?與B品牌定位類似或款式類似的眼鏡作為當前的關聯(lián)信息(之一或最優(yōu)先選擇),并在眼鏡 類別中調(diào)低A品牌的眼鏡的優(yōu)先級;進一步的,還可以將與B品牌的眼鏡搭配的其他服裝、 飾品作為當前的關聯(lián)信息之一;
[0132] (2)另一種情形是,存在與張三的性別吻合,且年齡,和/或形象,和/或氣質(zhì)相 仿的人臉信息及其屬性值,特別是與一個或多個名人有關的(這可以是預先存儲在系統(tǒng)中 的,并可以作為歷史關聯(lián)信息的一部分):
[0133] 如果當前張三佩戴有眼鏡,則可以將所述一個或多個名人有關的眼鏡作為當前的 關聯(lián)信息(之一或最優(yōu)先選擇);進一步的,還可以將該一個或多個名人有關的其他服裝、 飾品作為當前的關聯(lián)信息之一。
[0134] 上述各情形中,如果能夠獲取到的歷史消費記錄中對應的服務消費,則也可以將 張三或其他名人所已經(jīng)消費過的、滿足一定消費次數(shù)的服務對應到歷史關聯(lián)信息。
[0135] 數(shù)據(jù)傳輸裝置33提供接口,與其他外接設備進行數(shù)據(jù)傳輸。該裝置33可以通過 無線和有線兩種方式與外接設備通信,其中外接設備可以但不限于鍵盤,鼠標,顯示器,打 印機,USB裝置,移動設備等。在一個具體的實施方式中,該外接設備為手機,通過數(shù)據(jù)傳輸 裝置33,該手機可以和關聯(lián)信息推送裝置1無線或有線連接通信。該關聯(lián)信息推送裝置通 過獲取手機用戶的人臉信息,檢索到該人臉信息的關聯(lián)信息,如用戶感興趣的商場促銷活 動,或所佩戴飾品的類似商品推薦,或餐飲推薦的信息,并將該信息以短信,或彩信,或添加 微信公眾號等方式,發(fā)送給手機用戶。
[0136] 在另一實施例中,本發(fā)明公開了:基于人臉識別的關聯(lián)信息推送方法。
[0137] 下面將結(jié)合附圖1-6對本申請中基于人臉識別的關聯(lián)信息推送方法作進一步詳 細的描述。
[0138] 如圖6流程圖所示,該方法的步驟如下:
[0139] 步驟S1 :獲取圖像信息。通過攝像裝置22獲取關聯(lián)信息推送裝置1前的圖像信 息,該圖像ig息可以是圖像序列或者視頻流。
[0140] 步驟S2 :檢測所述圖像信息,判斷是否存在人臉信息,如果存在,則進一步識別人 臉以及人臉屬性,如果不存在,則等待下一次輸入。
[0141] 在對攝像裝置22獲取的圖像序列或視頻流進行檢測時,可以對接收的所有圖像 進行檢測,也可以優(yōu)選的對圖像進行檢測。當所述圖像序列為單幀時,該圖像本身為關鍵 幀;所述圖像序列為多幀時,從該序列中挑選質(zhì)量好的N幀作為關鍵幀。其中,質(zhì)量的判斷 可以通過對人臉圖片清晰度、大小、真實人臉、遮擋、光照等等指標進行打分,選取得分高的 前N幀作為關鍵幀。如果輸入為視頻流,則優(yōu)選的,每隔6幀進行一次人臉檢測。優(yōu)選的, 對視頻流經(jīng)解碼處理,獲取4 :2 :0的YUV數(shù)據(jù)并在格式化后在存儲器上存儲。在對圖像進 行檢測時,可以提取圖像中的人臉位置、人臉關鍵點,以及人臉屬性值等信息,所述人臉關 鍵點可包括眼角、眉毛的末端、嘴角、鼻尖等位置信息,人臉屬性值包括用戶性別、年齡、是 否戴眼鏡、帽子、口罩,表情等外觀屬性。
[0142] 在進行人臉及屬性值識別時,可以采用本領域內(nèi)公知的基于傳統(tǒng)機器學習的人臉 及屬性值識別方法,或者基于深度學習的人臉及屬性值識別方法。
[0143] 在一個優(yōu)選的實施例中,該人臉及屬性值的識別方法是一種基于深度學習和多任 務學習的人臉檢測方法,具體步驟如下:
[0144] 步驟S21a:收集人臉圖片并標注對應的多個屬性的類別,形成一個訓練數(shù)據(jù)集 合。
[0145] 人臉屬性的類別由局部屬性和全局屬性組成。局部屬性包括但不限于頭發(fā)顏色, 頭發(fā)長短,眉毛長短,眉毛濃密或者稀疏,眼睛大小,眼睛睜開或者閉著,鼻梁高低,嘴巴大 小,嘴巴張開或者閉著,是否佩戴眼鏡,是否佩戴墨鏡,是否戴口罩等。全局屬性包括但不 限于人種,性別,年齡,顏值,表情等。
[0146] 針對收集的人臉圖片,人工標注其對應的屬性,并根據(jù)屬性對應的類別形成一個 訓練數(shù)據(jù)集合。
[0147] 步驟S22a:檢測人臉,以及人臉關鍵點,通過多個關鍵點對齊人臉。
[0148] 所述人臉關鍵點包括眼角、眉毛的末端、嘴角、鼻尖等位置信息。
[0149] 利用AdaBoost分類器(自適應增強分類器)或者傳統(tǒng)深度學習的人臉檢測算法 檢測人臉。不同人臉照片,具有不同的姿態(tài)。每張人臉首先檢測其關鍵點,根據(jù)其關鍵點, 計算一個該人臉到標準人臉的仿射或者相似變換,把該人臉與標準人臉對齊。
[0150] 步驟S23a:對類別中具有順序的屬性進行編碼。
[0151] 以年齡屬性舉例說明編碼方式,對于年齡a,其編碼為以下幾種形式之一或者其 組合。
[0152] (1)編碼為xlx2···xi···,其中xi為二值的數(shù)值,如果i小于等于a,則xi為1,如 果i大于a,則xi為0。
[0153] (2)編碼為xlx2···xi···,其中xi為二值的數(shù)值,如果i等于a除以k,則xi為1, 否則,xi為0。其中k可以為任何正整數(shù),可以人工定義或者隨機選取。
[0154] 該編碼方式可用于任何一屬性,以具有順序的屬性為佳。
[0155] 步驟S24a:構(gòu)造一個深度神經(jīng)網(wǎng)絡,其前端可以是任何多個卷積層 (convolutionallayer),池化層(poolinglayer)和非線性層(non-linearlayer)的組 合,其后端是softmax,crossentropy等損耗層。
[0156] 該深度神經(jīng)網(wǎng)絡的結(jié)構(gòu)如附圖5所示。
[0157] A為輸入層,該層主要讀入人臉圖片,屬性類別及屬性類別的編碼,該層通過對人 臉圖片進行預處理,輸出對齊的人臉圖片,屬性類別或者其編碼。A層輸入層將經(jīng)過預處理 的人臉圖片輸出到B層卷積層。同時A層輸入層將經(jīng)過預處理的屬性類別和/或其編碼輸 入到G層損耗層。
[0158] B層為卷積層,其輸入是經(jīng)過預處理的圖像或者圖像特征,通過一線性變換輸出新 的特征。其輸出的特征為C非線性層的輸入。
[0159] C層為非線性層,其通過非線性函數(shù),對輸入的特征進行非線性的變換,使得其輸 出的特征有較強的表達能力。非線性層C的輸出特征為池化層D的輸入。
[0160] D為池化層(Poolinglayer),池化層可以將多個數(shù)值映射到一個數(shù)值。該層不 但可以進一步加強學習到的特征的非線性,而且可以使得輸出的特征的空間大小(spatial size)變小,而從增強學習的特征的平移不變性,即人臉平移,提取的特征保持不變。池化 層D的輸出特征可以再次作為為卷積層B的輸入或者全連接層E的輸入。
[0161] 如附圖5所示,B,C,D層外面的大框表示B,C,D層可以重復一次或者多次,即卷積 層B,非線性層C和池化層D組合可以重復一次或多次,每一次池化層的輸出可以作為卷積 層B的再次輸入。B,C,D三層的多次組合,可以更好的處理輸入的圖片,使其特征具有最佳 的表達能力。
[0162] E為全連接層,它對其輸入做一個線性變換,把學習得到的特征投影到一個更好的 子空間以利于屬性預測。全連接層E的輸出特征做為非線性層F的輸入。
[0163] F為非線性層,與非線性層C的功能一樣,對輸入的特征進行非線性變換。其輸入 特征可以為損耗層G的輸入或者全連接層E的輸入。
[0164] 如附圖5所示,全連接層E和非線性層F外面的大框,表示層E和層F可以重復一 次或者多次。
[0165] G為一個或者多個損耗層,負責