亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于視頻局部特征字典的人體動作分類方法

文檔序號:10570350閱讀:484來源:國知局
一種基于視頻局部特征字典的人體動作分類方法
【專利摘要】本發(fā)明公開了一種基于視頻局部特征字典的人體動作分類方法,首先從具有類別標簽的訓練視頻中提取局部特征,每段視頻中的特征向量集合構(gòu)成一個特征包;將特征包進行分組,利用多示例學習方法學習局部特征分類器,多示例學習中采用交叉驗證的方式,并且更新正示例時只將每個包中排名最大的多個示例標記為正示例;將學習到的分類器作為特征編碼的字典,利用最大池化法對局部特征響應進行池化得到視頻的全局向量表達;最后利用全局特征向量進行學習,得到每個動作類別的分類器,利用該分類器對新的視頻中的動作進行分類。本發(fā)明有利于提升估計的準確性,避免分類對初始值的記憶;同時保證了估計的正樣本的正確率。
【專利說明】
一種基于視頻局部特征字典的人體動作分類方法
技術(shù)領(lǐng)域
[0001 ]本發(fā)明屬于自動視頻分析技術(shù)領(lǐng)域,涉及一種對視頻中的人體動作自動分類或識 別的方法,具體涉及一種基于視頻中提取的人體運動或場景局部特征、構(gòu)建一種對特征集 合進行池化的字典、然后利用池化后的全局向量表達對動作進行分類方法。
【背景技術(shù)】
[0002] 動作識別或分類可應用于視頻監(jiān)控事件的檢測、視頻檢索、人機交互、行為理解等 諸多領(lǐng)域。但由于相機的運動、復雜的場景變化、視角的變化、動作速度的變化、人體部位的 遮擋等因素導致同類動作的視覺差異較大,而不同類別動作存在較高的相似性,給動作識 別帶來了極大的挑戰(zhàn)。由于從視頻中直接獲取全局表達向量的魯棒性較差,導致分類效果 不理想,現(xiàn)有方法都是先提取魯棒性較好的局部特征向量,再對其池化得到視頻的全局表 達。
[0003] 下面對本發(fā)明中涉及到的現(xiàn)有技術(shù)做如下闡述;
[0004] 1、基于字典的視頻表達t旲型;
[0005] 基于局部特征的詞袋模型是視覺表達的重要方式,是目前動作識別領(lǐng)域表現(xiàn)最佳 的視覺表達模型。傳統(tǒng)的詞袋模型中的字典生成方法采用無監(jiān)督的方法進行聚類,如 kmeans、mean-sift等,并以聚類中心向量作為碼字,根據(jù)特征向量與碼字的距離進行編碼; 或用每個聚類向量集合訓練得到一個分類器作為碼字,根據(jù)特征向量在分類器上的響應進 行編碼。傳統(tǒng)字典生成方法存在兩個問題:一是用預定義的距離函數(shù)如歐氏距離、余弦距離 等,難以度量高維特征的語義相似性,不能保證將相似的向量聚類在一起;二是局部特征中 存在大量的背景特征和與類別辨識無關(guān)的特征,這些冗余特征參與到視覺表達,增加了特 征空間的噪聲,傳統(tǒng)的聚類方法無法對這些特征進行篩選。
[0006] 本發(fā)明基于局部判別特征分類器作為字典,構(gòu)建基于局部特征的視頻全局表達。 所謂判別特征是指有強表達能力和判別能力的特征,能較好的區(qū)分類別間的差異,也稱為 中層視覺元素或中層視覺短語,其特點是在同一類別視覺單元中頻率高,而在其他類別中 出現(xiàn)頻率低。基于判別特征構(gòu)建的字典僅對判別特征進行編碼,利用判別特征的統(tǒng)計屬性 作為視覺單元的表達具有更強的類別區(qū)分能力,可以克服傳統(tǒng)字典方法的不足。
[0007] 2、多示例學習模型;
[0008] 首先簡要回顧多示例學習模型。給定一組標記為+1的正包!A ,弋......\\卜和一組 標記為-1的負包.尤#),每個包中包含多個示例Xi= {xil,Xi2, . . . ,Xin}。假定每個 正包中至少存在一個示例可以用于判別該包是否為正包;負包中不存任何正示例。多示例 學習問題就是要找到一個分類器,可以對未知包中的示例進行判別,如果包中存在正示例, 則判定包為正包,否則該包為負包。顯然這個分類器所檢測出的正示例具有較強的判別能 力并且不同正包間的示例具有某種相似性,可以看作是判別示例。如果分類器的目標是對 包中的示例進行判別,現(xiàn)有多示例學習模型mi-SVM的標優(yōu)化函數(shù)[文獻1]: (1)
[0013] Yi表示包對應Xi的標記,Xi表示包X中的示例,yi表示示例Xi對應的標記。約束(1)表 示分類器應該將正負示例區(qū)分開,約束(2)表示正包中至少存在一個正示例,約束(3)表示 負包中沒有正示例,目標函數(shù)表示在滿足上述約束的條件下分隔邊界最大化。mi-SVM采用 啟發(fā)式搜索方法,通過多次迭代獲取局部最優(yōu)解,每次迭代用學習到的分類器對正包的示 例進行標記,作為下一次學習的樣本。本發(fā)明是在現(xiàn)有多示例學習模型mi-SVM基礎(chǔ)上的改 進。
[0014] 3、K折交叉驗證策略;
[0015] K折交叉驗證,初始采樣分割成K個子樣本,一個單獨的子樣本被保留作為驗證模 型的數(shù)據(jù),其他K-1個樣本用來訓練。交叉驗證重復K次,每個子樣本驗證一次。
[0016]本專利的核心是采用多示例學習方法構(gòu)建字典并用于視頻中的人體動作學習,因 此分別以"多示例學習"、"動作"、"運動"、"行為"、"視頻"和"multiple instance learning"、"action"、"event"、"action recognition" 等關(guān)鍵組合在中國專利局專利數(shù)據(jù) 庫和歐洲專利局專利數(shù)據(jù)庫中進行檢索,獲得與本專利有較高相似度專利結(jié)果和分析如 下:
[0017]申請?zhí)枮?013106184485的發(fā)明專利《一種基于局部特征的人體動作識別方法》, 均采用局部特征池化來構(gòu)建視頻的全局表達;此專利利用詞袋法及分人體區(qū)域構(gòu)建全局表 達;局部特征的量化和池化方法不同。
[0018] 申請?zhí)枮?013102108270的發(fā)明專利《運動信息圖像化的人體動作識別方法》,此 專利利用器捕捉表達運動的矩陣,采用PCA圖像分類器進行動作識別;采用的特征表達方法 和分類器不同。
[0019] 申請?zhí)枮?014107790519的發(fā)明專利《人體動作識別方法和裝置》,主要關(guān)注的運 動特征的快速提取。
[0020] 申請?zhí)枮?014102686612的發(fā)明專利《基于跨域字典學習的人體動作識別方法》, 關(guān)注的是字典的跨域?qū)W習。
[0021 ]申請?zhí)枮閁S201113288906 的發(fā)明專利《Multiple-instance-learning-based video classification》,多示例采用提升方法的學習的策略為每個類別學習多個弱分類 器然后利用這些弱分類器進行分類。
[0022] 申請?zhí)枮閁S20070944827的發(fā)明專利《Method of Multiple Instance Learning and Classification With Correlations in Object Detection》,將多不例學習方法用 于圖像中的對象檢測。
[0023] 申請?zhí)枮镃N20111335625的發(fā)明專利《Method and system for training a landmark detector using multiple instance learning〉〉,關(guān)注多不例學習方法用于特 定領(lǐng)域的應用。
[0024] [文南犬 1 ] Andrews,S ?,I ? Tsochantaridi s and T . Hofmann Support vector machines for multiple-instance learning[c].16th Annual Neural Information Processing Systems Conference,NIPS 2002,December 9,2002-December 14,2002, Vancouver,BC,Canada,Neural information processing systems foundation.

【發(fā)明內(nèi)容】

[0025] 本發(fā)明的目的是提供一種對視頻中的人體動作進行分類或識別的方法。
[0026]為達到上述目的,本發(fā)明提供一種基于視頻局部特征字典的人體動作分類方法, 其特征在于,包括以下步驟:
[0027]步驟1:從具有動作類別標簽的視頻片段中提取局部特征向量,每段視頻對應一個 局部特征向量集合,將每個集合作為一個示例包,包標簽為動作類別;
[0028]步驟2:將其中一類動作為正示例包集合,其余類別作為為負示例集合,并將正示 例包分為多組;
[0029]步驟3:采用基于交叉驗證策略的多示例學習方法獲得一個局部特征向量分類器; [0030]步驟4:循轉(zhuǎn)執(zhí)行步驟3,直到達到設定的最大循環(huán)次數(shù),得到每個動作類別對應的 多個局部特征向量分類器;
[0031 ]步驟5:將步驟4學習的分類器作為字典,對視頻的局部特征集合進行池化得到全 局向量表達;
[0032] 步驟6:利用訓練視頻的全局表達向量學習全局特征向量分類器;
[0033]步驟7:利用步驟6學習到的分類器對預測視頻進行類別判定。
[0034] 作為優(yōu)選,步驟1中提取的視頻局部特征來源于由連續(xù)幀彼此相關(guān)聯(lián)的局部圖像 塊堆疊而成的圖像卷,圖像塊以在時間上連續(xù)的像素點構(gòu)成的連線為中心,圍繞該中心取 相鄰的像素點構(gòu)成。
[0035] 作為優(yōu)選,所述連線,是以坐標相同時間軸上相鄰的像素點構(gòu)成,或者以跟蹤方法 獲得的在時間軸上相鄰的像素點構(gòu)成。
[0036] 作為優(yōu)選,所述局部特征的提取方法,是計算圖像塊的梯度、光流或光流差分圖, 利用統(tǒng)計直方圖作為局部特征向量表達。
[0037] 作為優(yōu)選,步驟3的具體實現(xiàn)包括以下子步驟:
[0038] 步驟3.1:輸入正示例包和負示例集;
[0039] 步驟3.2:將每個正示例包分為K組,其中K彡2;
[0040]步驟3.3:選擇其中的一組作為驗證包,其余作為訓練包;
[0041] 步驟3.4:用SVM進行分類器學習;
[0042]步驟3.5:用學習到的分類器對驗證進行估計,根據(jù)估計結(jié)果標記正示例;
[0043] 步驟3.6:循轉(zhuǎn)執(zhí)行步驟3.4-步驟3.5,直到達到設定的最大循環(huán)次數(shù)或者步驟3.5 中的估計結(jié)果不再變化時結(jié)束,得到一個局部特征分類器;
[0044]步驟3.7:將局部特征分類器在正示例包中的正示例刪除;
[0045]步驟3.8:循轉(zhuǎn)執(zhí)行步驟3.3-步驟3.7,直到達到設定的最大循環(huán)次數(shù)時結(jié)束,得到 一個動作類別對應的多個局部特征分類器。
[0046] 作為優(yōu)選,步驟3.5中,設定正示例包中的正示例數(shù)閾值T,T多1;如果包中沒有檢 測到正示例,則將得分最高的示例標記為正示例;如果包中檢測到多個正示例,只將得分最 高的T個估計正示例標記為正示例。
[0047] 作為優(yōu)選,示例標記初始化時,每個示例包中的示例均標記為包的標記。
[0048] 作為優(yōu)選,步驟3.6中的分類器采用線性支持向量機,每個分類器包括兩個參數(shù) (w,b),其中w為實向量,b為實數(shù)值;得到分類器后,在更新正示例包中的示例標記時,每個 示例的得分由參數(shù)w與示例向量的內(nèi)積值加上參數(shù)b。
[0049] 作為優(yōu)選,步驟4的具體實現(xiàn)包括以下子步驟:
[0050] 步驟4.1:輸入正示例包和負示例集;
[0051]步驟4.2:將其中一類動作標記為正,其余類別標記為負;
[0052]步驟4.3:利用局部特征分類器學習一個動作類別對應的多個分類器;
[0053]步驟4.4:循轉(zhuǎn)執(zhí)行步驟4.2-步驟4.3,直到達到設定的最大循環(huán)次數(shù)時結(jié)束,得到 每個動作類別對應的多個局部特征向量分類器。
[0054] 作為優(yōu)選,步驟5中所述對視頻的局部特征集合進行池化得到全局向量表達,其具 體實現(xiàn)過程是,分別用分類器去計算局部特征包中的每個特征向量的得分;每個分類器只 保留局部特征向量得分最高的值,其余特征向量得分置零;將每個分類器的最高得分組合 成序列,將該序列作為視頻的全局表達向量。
[0055] 作為優(yōu)選,步驟6中的分類器學習策略是,對每個全局向量進行歸一化,采用支持 向量機學習分類器。
[0056] 本發(fā)明將改進后的多示例學習方法用于視頻中的動作分類或識別,其創(chuàng)新之處在 于:
[0057] 1、是采用多得交叉驗證的方法對未標記示例進行預測,有利于提升估計的準確 性,避免分類對初始值的記憶。
[0058] 2、是對正樣本中的示例進行標記時,只選擇得分最高的少量示例,以保證估計的 正樣本的正確率。
【附圖說明】
[0059]圖1是本發(fā)明實施例的流程圖。
[0060] 圖2是本發(fā)明實施例的采用基于交叉驗證策略的多示例學習方法學習獲得一個動 作類別對應的多個局部特征向量分類器流程圖。
[0061] 圖3是本發(fā)明實施例的得到每個動作類別對應的多個局部特征向量分類器流程 圖。
【具體實施方式】
[0062] 為了便于本領(lǐng)域普通技術(shù)人員理解和實施本發(fā)明,下面結(jié)合附圖及實施例對本發(fā) 明作進一步的詳細描述,應當理解,此處所描述的實施示例僅用于說明和解釋本發(fā)明,并不 用于限定本發(fā)明。
[0063] 請見圖1,本發(fā)明提供的一種基于視頻局部特征字典的人體動作分類方法,包括以 下步驟:
[0064] 步驟1:從具有動作類別標簽的視頻片段中提取局部特征向量,每段視頻對應一個 局部特征向量集合,將每個集合作為一個示例包,包標簽為動作類別;;
[0065] 本發(fā)明的實施可采用基于密集采樣的方式提取視頻中的局部特征描述符,這些描 述符表達為實數(shù)向量,稱為局部特征向量,每段視頻中的所的局部特征向量構(gòu)建一個示例 包。視頻局部特征采用IDT特征,IDT特征提取算法采用的參數(shù):N = 32,L=15,na = 2,nT = 3, 即視頻時卷在空間方向以32*32像素為單位,時間上以連續(xù)15幀為時間單位,時空卷再劃分 為空間為2*2,時間上為3幀的單元格,由此得到30維的軌跡形狀描述符,96維的H0G圖像梯 度分布描述符,108維的H0F光流分布描述符,以及96維MBHx和96維MHBy描述符用于描述光 流差分的在x,y方向的分布信息。視頻幀在空間方向以因子1 ,/名進行下采樣得到最多8個 尺度的圖像金字塔,采用步長為5個像素的密集采樣的方式跟蹤像素點的軌跡。局部特征中 的每類特征均采用L2范數(shù)歸一化,再級聯(lián)為單一特征向量,再進行一次L1范數(shù)歸一化,最后 得到局特征向量表示。
[0066]步驟2:將其中一類動作為正示例包集合,其余類別作為為負示例集合,并將正示 例包分為多組;
[0067]步驟3:采用基于交叉驗證策略的多示例學習方法,學習獲得一個動作類別對應的 多個局部特征向量分類器;
[0068]請見圖2,本實施例采用啟發(fā)式方式進行學習。首先將每個正包拆分為兩個正包, 以便采用交叉驗證的方式進行迭代學習。初始時將所有正包中的示例均標記為正樣本,負 包中的示例標記為負樣本,利用線性支持向量學習得到初始的分類器。在迭代學習過程中 每次利用學習到的分類器對正包中示例進行檢測,取包中得分最高的K個正示例作為下一 次訓練的正樣本,如果正示例數(shù)量不足K個,則將所有正示例標記為正樣本。如果正包中沒 有檢測出正示例,則將得分最高的示例標記為正樣本,以確保每個正包中至少有一個正樣 本。正包中的其他示例不參與訓練,負樣本仍然為負包中的所有實例。用標記好的正負樣 本,重新訓練分類器。重復這一過程直到迭代次數(shù)達到最大或正樣本不再變化中止。
[0069]對于一組正示例包,每次采用基于交驗驗證策略的多示例學習算法學習到一個局 部特征向量分類器,再用這個分類器估計正示例包中的局部特征向量,將估計的正示例從 正示例包中去除,再重復進行多示例學習算法得到下一個局部特征向量分類器,通過C次循 環(huán),得到C個分類器,從而為系類動作學習到多個分類器。
[0070] 本實施例通過迭代更新正示例包中的正示例,最大迭代次數(shù)T=10;每個正包中估 計的正本樣最大數(shù)量了取K = 5;
[0071]本實施例的循環(huán)迭代學習多個分類器過程中,每個動作類別學習到的分類器數(shù)量 取 C = 20;
[0072]本實施例采用線性,支持向量機學習分類類器,其參數(shù)設置為:正樣本懲罰系數(shù)Ci = 0.5,負樣本懲罰系數(shù)C2 = 0.01。
[0073]步驟4:循轉(zhuǎn)執(zhí)行步驟3,循環(huán)次數(shù)為20次,得到每個動作類別對應的多個局部特征 向量分類器;
[0074]請見圖3,本實施例的每類動作學習多個分類器,采用一對多的策略,每次將一類 動作視頻作為正示例包,其余類別作為負示例包。通過多示例字典學習,就可以為每一動作 類別訓練得到N個分類,這樣字典學習結(jié)束后就可以得到C*N個分類器。
[0075] 步驟5:將步驟4學習的分類器作為字典,對視頻的局部特征集合進行池化得到全 局向量表達;
[0076] 用學習的分類器,對每段視頻的局部特征向量進行估計,得到每個向量的得分,只 保住每個分類器中的最高得分,將得分通過sigmoid函數(shù)進行變換到(0,1)之間的實數(shù),將 變換后的數(shù)值組合成一個序列作為視頻的全局特征表達向量。這一過程就是將分類器作為 字典,采用最大池化法對視頻的局部特征進行編碼。經(jīng)過編碼后得到全局表達向量采用L2 范數(shù)歸一化。
[0077] 步驟6:利用訓練視頻的全局表達向量學習全局特征向量分類器;
[0078]采用線性支持向量機對動作的全局特征向量進行分類器學習,采用一對多的策 略,為每類動作學習一個基于全局向量的動作分類器。
[0079]步驟7:利用步驟6學習到的分類器對預測視頻進行類別判定。
[0080]當需要對一段視頻中的人體動作類別進行識別時,首先得到局部特征向量集,再 得到全局向量表達。最后學習到全局特征向量分類器對該向量進行估計,該視頻的動作識 別標記得分高的分類器類別。
[0081] 應當理解的是,本說明書未詳細闡述的部分均屬于現(xiàn)有技術(shù)。
[0082] 應當理解的是,上述針對較佳實施例的描述較為詳細,并不能因此而認為是對本 發(fā)明專利保護范圍的限制,本領(lǐng)域的普通技術(shù)人員在本發(fā)明的啟示下,在不脫離本發(fā)明權(quán) 利要求所保護的范圍情況下,還可以做出替換或變形,均落入本發(fā)明的保護范圍之內(nèi),本發(fā) 明的請求保護范圍應以所附權(quán)利要求為準。
【主權(quán)項】
1. 一種基于視頻局部特征字典的人體動作分類方法,其特征在于,包括以下步驟: 步驟1:從具有動作類別標簽的視頻片段中提取局部特征向量,每段視頻對應一個局部 特征向量集合,將每個集合作為一個示例包,包標簽為動作類別; 步驟2:將其中一類動作為正示例包集合,其余類別作為為負示例集合,并將正示例包 分為多組; 步驟3:采用基于交叉驗證策略的多示例學習方法獲得一個局部特征向量分類器; 步驟4:循轉(zhuǎn)執(zhí)行步驟3,直到達到設定的最大循環(huán)次數(shù),得到每個動作類別對應的多個 局部特征向量分類器; 步驟5:將步驟4學習的分類器作為字典,對視頻的局部特征集合進行池化得到全局向 量表達; 步驟6:利用訓練視頻的全局表達向量學習全局特征向量分類器; 步驟7:利用步驟6學習到的分類器對預測視頻進行類別判定。2. 根據(jù)權(quán)利要求1所述的基于視頻局部特征字典的人體動作分類方法,其特征在于:步 驟1中提取的視頻局部特征來源于由連續(xù)幀彼此相關(guān)聯(lián)的局部圖像塊堆疊而成的圖像卷, 圖像塊以在時間上連續(xù)的像素點構(gòu)成的連線為中心,圍繞該中心取相鄰的像素點構(gòu)成。3. 根據(jù)權(quán)利要求2所述的基于視頻局部特征字典的人體動作分類方法,其特征在于:所 述連線,是以坐標相同時間軸上相鄰的像素點構(gòu)成,或者以跟蹤方法獲得的在時間軸上相 鄰的像素點構(gòu)成。4. 根據(jù)權(quán)利要求1-3任意一項所述的基于視頻局部特征字典的人體動作分類方法,其 特征在于:所述局部特征的提取方法,是計算圖像塊的梯度、光流或光流差分圖,利用統(tǒng)計 直方圖作為局部特征向量表達。5. 根據(jù)權(quán)利要求1所述的基于視頻局部特征字典的人體動作分類方法,其特征在于,步 驟3的具體實現(xiàn)包括以下子步驟: 步驟3.1:輸入正示例包和負示例集; 步驟3.2:將每個正示例包分為K組,其中K彡2; 步驟3.3:選擇其中的一組作為驗證包,其余作為訓練包; 步驟3.4:用SVM進行分類器學習; 步驟3.5:用學習到的分類器對驗證進行估計,根據(jù)估計結(jié)果標記正示例; 步驟3.6:循轉(zhuǎn)執(zhí)行步驟3.4-步驟3.5,直到達到設定的最大循環(huán)次數(shù)或者步驟3.5中的 估計結(jié)果不再變化時結(jié)束,得到一個局部特征分類器; 步驟3.7:將局部特征分類器在正示例包中的正示例刪除; 步驟3.8:循轉(zhuǎn)執(zhí)行步驟3.3-步驟3.7,直到設定的最大循環(huán)次數(shù)時結(jié)束,得到一個動作 類別對應的多個局部特征分類器。6. 根據(jù)權(quán)利要求5所述的基于視頻局部特征字典的人體動作分類方法,其特征在于:步 驟3.5中,設定正示例包中的正示例數(shù)閾值T,T多1;如果包中沒有檢測到正示例,則將得分 最高的示例標記為正示例;如果包中檢測到多個正示例,只將得分最高的T個估計正示例標 記為正示例。7. 根據(jù)權(quán)利要求6所述的基于視頻局部特征字典的人體動作分類方法,其特征在于:示 例標記初始化時,每個示例包中的示例均標記為包的標記。8. 根據(jù)權(quán)利要求5所述的基于視頻局部特征字典的人體動作分類方法,其特征在于:步 驟3.6中的分類器采用線性支持向量機,每個分類器包括兩個參數(shù)(w,b),其中w為實向量,b 為實數(shù)值;得到分類器后,在更新正示例包中的示例標記時,每個示例的得分由參數(shù)w與示 例向量的內(nèi)積值加上參數(shù)b。9. 根據(jù)權(quán)利要求1、5-8任意一項所述的基于視頻局部特征字典的人體動作分類方法, 其特征在于,步驟4的具體實現(xiàn)包括以下子步驟: 步驟4.1:輸入正示例包和負示例集; 步驟4.2:將其中一類動作標記為正,其余類別標記為負; 步驟4.3:利用局部特征分類器學習一個動作類別對應的多個分類器; 步驟4.4:循轉(zhuǎn)執(zhí)行步驟4.2-步驟4.3,直到達到設定的最大循環(huán)次數(shù)時結(jié)束,得到每個 動作類別對應的多個局部特征向量分類器。10. 根據(jù)權(quán)利要求1所述的基于視頻局部特征字典的人體動作分類方法,其特征在于: 步驟5中所述對視頻的局部特征集合進行池化得到全局向量表達,其具體實現(xiàn)過程是,分別 用分類器去計算局部特征包中的每個特征向量的得分;每個分類器只保留局部特征向量得 分最高的值,其余特征向量得分置零;將每個分類器的最高得分組合成序列,將該序列作為 視頻的全局表達向量。11. 根據(jù)權(quán)利要求1所述的基于視頻局部特征字典的人體動作分類方法,其特征在于: 步驟6中的分類器學習策略是,對每個全局向量進行歸一化,采用支持向量機學習分類器。
【文檔編號】G06K9/00GK105930792SQ201610245003
【公開日】2016年9月7日
【申請日】2016年4月19日
【發(fā)明人】胡瑞敏, 李紅陽, 陳軍, 陳華鋒, 徐增敏, 吳華, 王曉, 馮銘
【申請人】武漢大學
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1