亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于人臉識(shí)別的視頻特效處理方法_4

文檔序號(hào):9330988閱讀:來源:國知局
)由下式(11)計(jì)算得出:否則,不滿足式(10)時(shí),F(xiàn)aceROI_Mf區(qū)域即為完整的待特效人臉區(qū)域FaceROI_MFf,其 左上角和右下角的橫縱坐標(biāo)保持不變; 2. 2. 6)提取待特效人臉的模板特征 把步驟2. 2. 5)中提取的完整的待特效人臉區(qū)域FaceROI_MFf平均分成4X4個(gè)小塊, 對(duì)每一個(gè)小塊進(jìn)行LBP濾波得到每一個(gè)小塊的特征值,把這16個(gè)小塊的特征值串聯(lián)起來作 為完整的待特效人臉區(qū)域的特征,即為待特效人臉的模板特征。4. 根據(jù)權(quán)利要求3所述的基于人臉識(shí)別的視頻特效處理方法,其特征在于:所述的步 驟3中,具體過程是, 對(duì)視頻鏡頭k中的每一幀圖像用步驟2. 2. 1)中的方法進(jìn)行人臉初檢測,用步驟2. 2. 2) 中的方法排除非人臉區(qū)域,用步驟2. 2. 3)中的方法合并重復(fù)檢測到的人臉區(qū)域,用步驟 2. 2. 6)中的方法提取每一幀上所檢測到的每個(gè)人臉區(qū)域的人臉特征, 計(jì)算鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域的人臉特征與Num_f個(gè)待特效人 臉模板特征的歐氏距離的平均值為DiSaVgk,n,N,參照下式(12):其中,diskiN(f)為鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域的人臉特征與第f個(gè)待特效人臉模板特征的歐氏距離,f= 1,2,. . .,Num_f,jl= 1,2,. . .,Num_FaceR〇]^ k, Num_FaceROI'k為鏡頭k中每一幀圖像上合并重復(fù)人臉區(qū)域后人臉區(qū)域的個(gè)數(shù),k= 1,2, ? ? ?,ShotNum,N=NBk,NBk+l,? ? ?,NEk, 在鏡頭k的起始幀數(shù)NBk和結(jié)束幀數(shù)NEk中遍歷,記鏡頭k中第N幀第jI個(gè)人臉區(qū)域的 左上角的坐標(biāo)為(XkiN,Yk^N),人臉區(qū)域的寬度為W^n,第N+1幀第jl'個(gè)人臉區(qū)域的左 上角的坐標(biāo)為(XkJrmYkJm), 判斷是否滿足下式(13)中的條件:滿足式(13)時(shí),則第N幀中的第jl個(gè)人臉區(qū)域和第N+1幀中的第jl'個(gè)人臉區(qū)域表示 的是鏡頭k中的同一個(gè)人,將jl的Disavg^jPjl'的Disavgk』,,N+1存放在數(shù)組Sortk, 中,即數(shù)組Sortki ^中存放的是鏡頭k中每一幀的同一個(gè)人的人臉特征與Num_f個(gè)待特效人 臉模板特征的歐氏距離的平均值, 不滿足式(13)時(shí),則第N幀中的第jl個(gè)人臉區(qū)域和第N+1幀中的第jl'個(gè)人臉區(qū)域 表示的不是鏡頭k中的同一個(gè)人, 其中,Disavgki_jliN為鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域的人臉特征與Num_f?個(gè)待特效人臉模板特征的歐氏距離的平均值,DisavgnN+1為鏡頭k中第N+1幀圖像上提 取的第jl'個(gè)人臉區(qū)域的人臉特征與Num_f?個(gè)待特效人臉模板特征的歐氏距離的平均值。5. 根據(jù)權(quán)利要求4所述的基于人臉識(shí)別的視頻特效處理方法,其特征在于:所述的步 驟4中,具體過程是, 4.1)鏡頭內(nèi)的合并 判斷鏡頭k中的Num_FaCeR0I'k是否滿足下式(14)中的條件: Num_FaceROI, k> 1, (14) Num_FaCeR〇rk為鏡頭k中每一幀圖像上合并重復(fù)人臉區(qū)域后人臉區(qū)域的個(gè)數(shù), 不滿足式(14)時(shí),則jl= 1,jl= 1,2,…,Num_FaceROI' k,數(shù)組Sorttj^為數(shù)組 Sortkj J1= 1; 在滿足式(14)的鏡頭k中遍歷數(shù)組Sortkin,找出數(shù)組Sortkin中的最大值SMax^和 最小值SMinkijl,判斷SMaxkijJPSMaxkijui是否滿足下式(15)中的條件: SMaxkiJ1-SMaxkijl+11 <T, (15) 其中,jl= 1,2, ? ? ?,Num_FaceROI'k,k= 1,2, ? ? ?,ShotNum,T為SMaxk, ^和SMink,n 差值的最大值的三分之一,參照下式(16):滿足式(15)時(shí),將數(shù)組Sortk,n與數(shù)組Sortk,jl+1添加到數(shù)組SortHe,數(shù)組SortHek 的初始狀態(tài)為空; 不滿足式(15)時(shí),將SMaxtn與SMaxtjl+1中的較大者所在的數(shù)組添加到數(shù)組SortHek 中,數(shù)組SortHe1^初始狀態(tài)為空,將SMaxn與SMaxtjl+1中的較小者所在的數(shù)組添加到數(shù) 組SortOwnk中,數(shù)組SortOwn!^勺初始狀態(tài)為空; 4.2)鏡頭間的合并 如果鏡頭k中的Num_FaCeR0I' 滿足式(14)時(shí),將步驟4. 1)中的數(shù)組Sortk,n =1拷貝到數(shù)組SSortkl中,找出數(shù)組SSortkl中的最大值MaxkJP最小值Minkl,將數(shù)組SortHek 拷貝到數(shù)組SSortHek^,找出數(shù)組SSortHe^的最大值MaxHe 最小值MinHek2,將數(shù)組 SortOwnk 拷貝到數(shù)組SSortOwn!^中,其中,kl= 1,2, = 1,2, ???,k2',k3Gk2, kl' +k2' =ShotNum, 判斷數(shù)組SSortkl中的最大值Maxkl和數(shù)組SSortHek2 =i中的最小值MinHek2 =i是否滿 足下式(17)中的條件: MinHek2 =rMaxklI<Tl, (17) 其中,Tl為MaxHekJPMinHek2差值的最大值的二分之三,參照下式(18):滿足式(17)時(shí),將數(shù)組SSortkl添加到數(shù)組SSortHek2 = 1*,找出數(shù)組SSortHek2中的 最大值為FMaxk2,最小值為FMink2,數(shù)組SSortOwnk^持不變,記數(shù)組SSortOwn^的最大值 為TMaxk3,最小值為TMink3; 不滿足式(17)時(shí),將數(shù)組SSortkl添加到數(shù)組SSortOwnk3 = ,找出數(shù)組SSortOwnk3 中的最大值為TMaxk3,最小值為TMink3,數(shù)組55〇竹1^2保持不變,記數(shù)組SSortHek2中的最 大值為FMaxk2,最小值為FMink2; 把數(shù)組SSortHek2添加到數(shù)組SSortHek2 = 1 中,k2 = 1,2, ???,k2',找出數(shù)組SSortHek2 = 1 中最大值為FMax,最小值為FMin,把數(shù)組SSortOwnk3添加到數(shù)組SSortOwnk3 =丨中,k3Gk2, 找出數(shù)組SSortOwnk3 =i中的最大值為TMax,最小值為TMin; 如果鏡頭k中的Num_FaCeR0I'k滿足式(14)中的條件時(shí),把數(shù)組SortHek添加到數(shù)組SSortHek =i中,找出數(shù)組SortHek =i中的最大值為FMax,最小值為FMin,把數(shù)組SortOwnk 添加到數(shù)組SortOwnk= 1中,找出SortOwnk= 1中的最大值為TMax,最小值為TMin,k= 1,2,…,ShotNum; 4. 3)獲取待特效人臉的分類閾值 計(jì)算待特效人臉的分類閾值threshold,參照下式(19):6.根據(jù)權(quán)利要求5所述的基于人臉識(shí)別的視頻特效處理方法,其特征在于:所述的步 驟5中,具體過程是, 在鏡頭k的起始幀數(shù)NBk和結(jié)束幀數(shù)NEk中遍歷,判斷Disavgki_jliN是否滿足下式(20): Disavgkj jl N< threshold, (20) 其中,DisavgkijliN為式(12)計(jì)算的鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域 的人臉特征與Num_f個(gè)待特效人臉模板特征的歐氏距離的平均值,jl= 1,2,. . .,Num_ FaceROI'k,Num_FaceR0I'k為鏡頭k中每一幀圖像上合并重復(fù)人臉區(qū)域后人臉區(qū)域的個(gè)數(shù), N=NBk,NBk+l,…,NEk,k= 1,2,…,ShotNum,threshold為式(19)計(jì)算出的分類閾值; 滿足式(20)時(shí),鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域被識(shí)別為待特效人臉, 則對(duì)該人臉區(qū)域進(jìn)行馬賽克特效處理; 不滿足式(20)時(shí),鏡頭k中第N幀圖像上提取的第jl個(gè)人臉區(qū)域不是待特效人臉,則 對(duì)該人臉區(qū)域不作任何處理。
【專利摘要】本發(fā)明公開了一種基于人臉識(shí)別的視頻特效處理方法,步驟包括:步驟1:對(duì)需要處理的視頻節(jié)目鏡頭進(jìn)行分割;步驟2:獲取視頻中待特效人臉的模板特征;步驟3:以鏡頭為單位,計(jì)算鏡頭里每一幀上所檢測到的每個(gè)人臉區(qū)域的人臉特征并按人臉區(qū)域的位置對(duì)每個(gè)人進(jìn)行分類;步驟4:確定待特效人臉的分類閾值;步驟5:根據(jù)分類閾值進(jìn)行待特效人臉的識(shí)別及馬賽克特效處理;步驟6:對(duì)所有視頻幀處理的結(jié)果進(jìn)行保存,通過視頻文件寫入軟件,把保存的幀圖像轉(zhuǎn)換成視頻,最后把視頻部分和音頻部分合成一個(gè)完整的視頻,即成。本發(fā)明的方法,能夠自動(dòng)對(duì)訪談?lì)愐曨l節(jié)目中指定的待保護(hù)人員的臉部進(jìn)行馬賽克特效處理,準(zhǔn)確率高。
【IPC分類】H04N21/431, G06K9/00
【公開號(hào)】CN105049911
【申請(qǐng)?zhí)枴緾N201510405426
【發(fā)明人】胡濤, 王亞丹, 范彩霞, 馮玉娜
【申請(qǐng)人】西安理工大學(xué)
【公開日】2015年11月11日
【申請(qǐng)日】2015年7月10日
當(dāng)前第4頁1 2 3 4 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1