亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

人臉跟蹤方法

文檔序號:6615680閱讀:270來源:國知局
專利名稱:人臉跟蹤方法
技術(shù)領(lǐng)域
本發(fā)明涉及人臉跟蹤領(lǐng)域,特別是涉及一種在連續(xù)的視頻圖像序列中跟蹤 人臉位置的方法。
背景技術(shù)
人臉跟蹤是指在連續(xù)的視頻圖像序列中跟蹤一個或多個人臉。人臉跟蹤在 許多場合下都具有非常重要的應(yīng)用,如智能視頻監(jiān)控、人機(jī)交互、出入控制等等?,F(xiàn)有的人臉跟蹤方法一般都是利用線性判別分析(LDA)來提取人臉特征, 進(jìn)而進(jìn)行人臉跟蹤。但是常用的線性判別分析會涉及到矩陣求逆的問題。然而, 對于高維稀疏矩陣通常難于進(jìn)行求逆運(yùn)算,從而使得特征提取的魯棒性差。當(dāng) 利用線性判別分析進(jìn)行人臉跟蹤時,容易受到人臉表情、姿態(tài)、光照等因素影 響。發(fā)明內(nèi)容本發(fā)明的目的在于提供一種魯棒性好的人臉跟蹤方法,以克服上面提到的 一個或多個缺陷。為實現(xiàn)上述目的,本發(fā)明提出了一種人臉跟蹤方法,用于在連續(xù)的視頻圖 像序列中跟蹤人臉位置。該方法包括以下步驟:確定第一幀圖像中的人臉位置; 利用該第一幀圖像,通過最大分類間隔準(zhǔn)則確定特征子空間;從該第二幀圖像 起,依次讀取視頻序列中的圖像;對于所讀取的每一幀圖像,利用上一幀圖像 中的人臉位置和該特征子空間,確定該當(dāng)前幀圖像中的人臉位置;以及,每隔 預(yù)定數(shù)量的幀更新該特征子空間。優(yōu)選地,所述確定當(dāng)前幀圖像中的人臉位置的步驟包括構(gòu)造當(dāng)前幀圖像 的人臉位置關(guān)于上一幀圖像的人臉位置的概率分布模型;從所述概率分布中隨 機(jī)抽取多個粒子;在每個粒子處分別獲取當(dāng)前幀圖像的人臉觀測值;構(gòu)造當(dāng)前 幀人臉觀測值在當(dāng)前幀圖像中人臉位置處的似然分布模型;利用該概率分布模型和似然分布模型分別計算每個粒子的后驗值;以及,選取后驗值最大的粒子 作為當(dāng)前幀圖像中的人臉位置。該第一幀圖像中的人臉位置利用Adaboost人臉監(jiān)測器來確定。優(yōu)選地,所述確定特征子空間的步驟包括從該第一幀圖像中選取多個樣 本組成訓(xùn)練樣本集;根據(jù)各樣本與該第一幀圖像中人臉位置的距離遠(yuǎn)近對其進(jìn) 行分類;計算該訓(xùn)練樣本集的類內(nèi)散度矩陣和類間散度矩陣;以及,利用計算 得到的類內(nèi)散度矩陣和類間散度矩陣來計算該特征子空間。優(yōu)選地,所述多個樣本被分成正樣本和負(fù)樣本兩類,其中位于已確定的人 臉位置附近的為正樣本,而距離該已確定的人臉位置較遠(yuǎn)的為負(fù)樣本。優(yōu)選地,所述更新特征子空間的步驟通過增量學(xué)習(xí)法實現(xiàn),包括從當(dāng)前 幀圖像中選取多個新樣本,加入到該訓(xùn)練樣本集中;根據(jù)各新樣本與當(dāng)前幀人 臉位置的距離遠(yuǎn)近對所述新樣本進(jìn)行分類;利用原有樣本中各類樣本的類均值 以及該新樣本更新類間散度矩陣和類內(nèi)散度矩陣;以及,利用該更新后的類間 散度矩陣和類內(nèi)散度矩陣來更新特征子空間。所述更新類間散度矩陣和類內(nèi)散度矩陣的步驟通過批量更新法實現(xiàn),該批 量更新法是一次利用所有的新樣本來更新類間散度矩陣和類內(nèi)散度矩陣??蛇x地,所述更新類間散度矩陣和類內(nèi)散度矩陣的步驟通過序列更新法實 現(xiàn),該序列更新法是每次利用一個新樣本對類間散度矩陣和類內(nèi)散度矩陣進(jìn)行 更新,并重復(fù)多次以完成最終的更新,其中,重復(fù)的次數(shù)與該新樣本的數(shù)量相 對應(yīng)。所述人臉位置用人臉的中心位置、寬度、高度以及旋轉(zhuǎn)角度來表示。 本發(fā)明采用最大分類間隔準(zhǔn)則提取人臉特征,避免了矩陣求逆運(yùn)算,即使 在數(shù)據(jù)稀疏的情況下也能正常進(jìn)行特征提取處理,提高了特征提取的魯棒性。 同時,本發(fā)明還采用增量學(xué)習(xí)算法來在線更新表示人臉的特征子空間,進(jìn)一步 提高了算法的跟蹤能力,同時運(yùn)算量小,可以達(dá)到實時處理的要求??梢栽诠?照變化,目標(biāo)姿態(tài)改變以及發(fā)生部分遮擋的情況下也能夠?qū)崟r地跟蹤目標(biāo)。 下面結(jié)合附圖和詳細(xì)實施方式對本發(fā)明進(jìn)行詳細(xì)說明。


圖1示出了根據(jù)本發(fā)明一個實施例的人臉跟蹤方法;圖2示出了獲取特征子空間的步驟;圖3示出了基于CONDENSATION算法確定當(dāng)前幀的人臉位置的步驟; 圖4示出了利用增量學(xué)習(xí)法更新特征子空間的步驟。
具體實施方式
在下面的例子中,使用可旋轉(zhuǎn)的矩形框《-(x',y乂,《,)來表示第t幀圖像中的人臉位置,其中,x'和j/分別表示人臉中心位置的橫、縱坐標(biāo),《表示人臉的寬度,《表示人臉的高度,《表示人臉的旋轉(zhuǎn)角度。然而,應(yīng)當(dāng)清楚, 根據(jù)本發(fā)明,人臉位置也可以使用更多或更少的特征量來表示。 圖i示出了根據(jù)本發(fā)明的方法進(jìn)行人臉跟蹤的主要步驟。 首先,從視頻圖像序列中讀取第一幀圖像/,,并確定第一幀圖像中的人臉 位置《(步驟sio)。該人臉位置《又稱為初始人臉位置。根據(jù)本發(fā)明的一個實施例,第一幀圖像中的人臉位置可利用Adaboost人臉監(jiān)測器來確定。然后,基于最大分類間隔準(zhǔn)則,從第一幀圖像^中選取多個樣本構(gòu)成訓(xùn)練 樣本集,并以此來確定樣本的特征子空間『(步驟S20)。最大分類間隔準(zhǔn)則 由Li, H.等人于2003年提出(參見Li, Haifeng., Jiang, Tao. and Zhang, Keshu., Efficient and Robust Feature Extraction by Maximum Margin Criterion, In Proceedings of the Advances in Neural Information Processing Systems 16, Vancouver, Canada,2004, MIT Press, 2003:97-104.),其基本原理如下設(shè)有N個已知分類類別的訓(xùn)練樣本(x,,A),…,(^^),共分為M類。其中, ;c^-l,2,…,iV表示D維的樣本數(shù)據(jù);c,是;c,的類別標(biāo)簽,c, e{C,,C2,..,CM},c;,c",2,…,M為樣本的類別,第c類樣本(即,類別標(biāo)簽為c;的樣本)的個數(shù)為乂。這N個樣本構(gòu)成一個訓(xùn)練樣本集。最大分類間隔準(zhǔn)則的表達(dá)式為■7 = HWW) (1)其中,&和^分別為訓(xùn)練樣本集的類間散度矩陣和類內(nèi)散度矩陣,它們可以通過下式求得&=|>#廣(2)& = IX (3)
10、 根據(jù)權(quán)利要求1的方法,其中,當(dāng)所述逾呈信息鵬單元加電時,所
述離線高i^存器對于所述一個或多個^f呈源查詢是可用的。
11、 根據(jù)權(quán)利要求l的方法,其中確定預(yù)定角撥事件已經(jīng)出現(xiàn)的步驟在查 詢車輛內(nèi)的模塊的步驟之前。
12、 根據(jù)權(quán)利要求ll的方法,其中,所述預(yù)定觸發(fā)事件是所述移動車輛的 點(diǎn)火電路^T活。
13、 一種計算機(jī)可讀介質(zhì),其上存儲了計算機(jī)可讀結(jié)構(gòu),用于在離線高速 緩存器中高速緩存與移動,相關(guān)的信息,所述結(jié)構(gòu)包括
一個或多個信息字段,每一個字鵬于存儲與所述移動車輛相關(guān)的信息項 的標(biāo)識符;禾口
時間因素字段,用于存儲與所述一個或多個信息字段中的旨相關(guān)的時間 因素值,其中每一個時間因素值定義一個因素,該因素定義何時收集相劉言息 字段中所標(biāo)識的信息。
14、 根據(jù)權(quán)利要求13的計算機(jī)可讀介質(zhì),進(jìn)一步包括與所述一個或多個信 息字段相關(guān)的標(biāo)記字段,該標(biāo)記字段指示已經(jīng)收集了相^t息字段中所標(biāo)識的
15、 一種遠(yuǎn)程配置移動 遠(yuǎn)程信息處理單元中的離線高速緩存器的方法, 用于有選擇地存儲信息供以后遠(yuǎn)程檢索,其中當(dāng)所述移動 遠(yuǎn)程信息處理單
元被斷電時,所述離線高速緩存器可用于被查詢,該方法包括
構(gòu)建離線高速緩存器請求,該請求包括指定將要被高速緩存的信息的一個
或多個信息標(biāo)識符、與所述一個或多個信息標(biāo)識符分別相關(guān)的一個或多個時間
因素,所述時間因素規(guī)定了一個時間值,根據(jù)該時間值收集所述相雜息;和 向所述遠(yuǎn)程信息處理單^^程地發(fā)送請求傳輸,其中所述請求傳輸包括所
述離線高速緩存器請求。
16、 根據(jù)權(quán)利要求15的方法,其中所述一個或多個時間因素的至少一個定 義了一個周期性間隔,在所述周期性間隔上所述相關(guān)信息標(biāo)識符所指定的信息 被高速緩存。
17、 根據(jù)權(quán)禾腰求15的方法,其中所述一個或多個時間因素的至少一個定 義了一個時間點(diǎn),在所述時間點(diǎn)上所述相關(guān)信息標(biāo)識符所指定的信息被高速緩 存。運(yùn)算,即使在數(shù)據(jù)稀疏的情況下也能正常有效地計算出特征子空間,提高了特 征提取的魯棒性。如圖2所示,根據(jù)本發(fā)明的一個實施例,特征子空間r可通過以下步驟獲得首先,從第一幀圖像/,中選取多個圖像塊作為樣本組成訓(xùn)練樣本集(步驟 S21);然后,根據(jù)每個樣本與該第一幀圖像中人臉位置的距離遠(yuǎn)近對該樣本進(jìn)行分類(步驟S22),優(yōu)選地,樣本被分為兩類,其中位于初始人臉位置X, 附近的圖像塊為正樣本,而距離初始人臉位置《較遠(yuǎn)的圖像塊為負(fù)樣本;接 下來,利用式(2)和式(3)分別計算類間散度矩陣&和類內(nèi)散度矩陣^ (步驟 S23);最后,利用式(7)即可計算得到樣本的特征子空間『(步驟S24)。在 這里,在選取圖像塊作為樣本時,圖像塊的寬度和高度分別與初始人臉位置X, 中的寬度《和高度《相對應(yīng)。接下來,從該第二幀圖像起,依次讀取視頻序列中的各幀圖像(步驟S30)。 由于是在連續(xù)的視頻圖像序列中對人臉位置進(jìn)行跟蹤,因而,在第一幀圖像中 的人臉位置^和特征子空間『已經(jīng)確定的情況下,之后每一幀圖像中的人臉位置都可以用上一幀圖像的人臉位置和特征子空間來確定(步驟S40)。在下 面的說明中,用X,和X,一,分別表示當(dāng)前幀和上一幀圖像中的人臉位置。根據(jù)本發(fā)明的一個優(yōu)選實施例,人臉位置X,可以基于CONDENSATION 算法來確定,具體如圖3所示。首先,構(gòu)造當(dāng)前幀圖像的人臉位置Z,關(guān)于上 一幀圖像的人臉位置X,—,的概率分布A義,1《—,)(步驟S41)。 一般來說,人臉運(yùn)動的動態(tài)過程具有馬爾科夫性,并且其隨機(jī)過程可以看作是高斯隨機(jī)游走。 如前所述,《-(x',力《,《,。,從而概率分布模型p(義,IX,—,)可以表示為M i u=w i x (/1 y-v;)玲二 I(8)其中,函數(shù)7^(.| 2)表示均值為//,方差為^的高斯分布,例如,W(X'|X'-',C7) 表示;c'的均值為1且方差為《的高斯分布。之后,從概率分布p(《l^^)中隨機(jī)抽取多個粒子,例如n個粒子(《L,(步驟S42)。接下來,對應(yīng)于每個粒子《處,分別從當(dāng)前幀圖像/,中獲取人臉觀測值z;(步驟S43)。觀測值Z;可以用當(dāng)前幀圖像的像素灰度值來表示。具體來說, 從圖像/,中對應(yīng)于粒子《的位置選取一圖像塊/;,該圖像塊的寬度和高度分別 對應(yīng)于粒子《中的人臉寬度和高度;然后,將圖像塊/;的像素灰度矩陣中的所有列向量按順序排成一列,從而展開得到一個列向量。該列向量即為在粒子z; 處的人臉觀測值z;。接下來,構(gòu)造人臉觀測值z,在當(dāng)前幀人臉位置x,處的似然分布模型(步驟S44):<formula>formula see original document page 9</formula> (9) 其中,"是一個正的常數(shù),Z,表示對應(yīng)于人臉位置X,處的觀測值,;表示所 有正樣本的觀測值的平均;h.ii表示L2范數(shù)。接下來,對于每個粒子Z;分別計算其后驗值/7(義;IZ/,X,—,)(步驟S45):<formula>formula see original document page 9</formula>(10)其中,comr為與粒子《無關(guān)的常量;;KZ;i《—,)為利用式(8)計算得到的粒子《的概率值;/7(z; i《)為利用式(9)計算得到的觀測值z;在粒子《處的觀測似然值。 最后,選取后驗值最大的那個粒子作為當(dāng)前第t幀圖像中的人臉位置義,(步驟S46),從而實現(xiàn)對當(dāng)前幀圖像中人臉位置的定位。當(dāng)然,在獲得了特征子空間w之后,還可以利用其他的多種方法來獲取當(dāng)前幀的人臉位置。依此類推,繼續(xù)讀取下一幀圖像/,+1并重復(fù)步驟S40,從而可以對整個視頻序列中的人臉位置進(jìn)行跟蹤。隨著視頻序列中圖像的不斷到來,由于特征子空間中不包含新的圖像數(shù)據(jù) 信息,利用該特征子空間確定出的人臉位置的精度會逐漸降低。因而,在跟蹤 過程中需要不斷地對特征子空間進(jìn)行更新。如圖1所示,更新特征子空間的步驟(步驟S50)可以在確定當(dāng)前幀圖像中的人臉位置之后進(jìn)行。優(yōu)選地,可以 每隔預(yù)定數(shù)量的幀更新一次特征子空間,以提高系統(tǒng)的運(yùn)算速度。該間隔幀數(shù) 可以根據(jù)視頻中每秒的幀數(shù)來確定,每秒的幀數(shù)越多,間隔幀數(shù)越大。更新特征子空間通常需要從新的圖像中選取新樣本補(bǔ)充到原有的訓(xùn)練樣 本集中,然后利用更新后的訓(xùn)練樣本集來進(jìn)行特征子空間的更新。對特征子空 間的更新可以利用最大分類間隔準(zhǔn)則重新訓(xùn)練所有的樣本(包括新樣本和原來 的樣本)來實現(xiàn)。然而,當(dāng)采用這種方法時,隨著選取的樣本越來越多,計算 量也會越來越大,以至于系統(tǒng)將無法承受。在本發(fā)明的一個優(yōu)選實施例中,采 取了增量學(xué)習(xí)法來更新特征子空間。
圖4示出了利用增量學(xué)習(xí)法更新特征子空間的步驟。首先,從當(dāng)前幀圖像中選取多個新樣本,例如L個新樣本[y,t,并將它們加入到當(dāng)前的訓(xùn)練樣本 集中(步驟S51),訓(xùn)練樣本集中原有樣本x,的數(shù)量為N。然后,對于每個新 樣本yi,根據(jù)其距離在前面步驟S40中檢測出的當(dāng)前幀人臉位置I,的遠(yuǎn)近,對 其進(jìn)行分類(步驟S52),得到每個樣本乂的類別標(biāo)號/,。然后,利用訓(xùn)練集中原有樣本k^的類均值K〔以及新樣本^^來更新原有的類間散度矩陣和類內(nèi)散度矩陣(步驟S53)。
在這里,根據(jù)新增樣本的個數(shù)L的不同,可以選擇不同的更新計算方法。
如果新樣本的數(shù)目L比較大,優(yōu)選地,可以使用如下的批量更新方法。
更新后的類間散度矩陣記作&,滿足
<formula>formula see original document page 10</formula> (11)
其中,ac為更新后的訓(xùn)練樣本集中第c類樣本的個數(shù); xc為更新后的訓(xùn)練樣本集中第c類樣本的類均值; x為更新后的訓(xùn)練樣本集中所有樣本的均值。
具體來說,<formula>formula see original document page 10</formula>,其中yc為第c類新樣本的類均值,Lc是第C類新樣本的個數(shù);x=(Nx+Ly)/(N+L),其中y為所有新樣本的均值。
更新后的類內(nèi)散度矩陣記作&滿足
<formula>formula see original document page 10</formula> (12)
其中,Dc是第C類新樣本的類均值y與第C類原有樣本類均值xc的散度矩陣:
<formula>formula see original document page 10</formula>
Ec是第C類新樣本{yj}與第c類原有樣本類均值xc的散度矩陣
<formula>formula see original document page 10</formula>
如果新樣本的數(shù)目L比較小,優(yōu)選地,可以使用如下的序列更新方法。序列更新方法是每次利用一個新樣本來更新訓(xùn)練樣本集的類間散度矩陣和類內(nèi)散度矩陣;重復(fù)L次后,即可完成全部的更新工作。具體來說,對于一 個新增樣本X,其類別為/,,首先,計算更新后的訓(xùn)練樣本集中所有樣本的均值<formula>formula see original document page 11</formula> (13)接下來,按照式(11)計算更新后的類間散度矩陣《。 最后,計算更新后的類內(nèi)散度矩陣義-<formula>formula see original document page 11</formula>重復(fù)上述操作L次之后,即可獲得更新后的類間散度矩陣《和類內(nèi)散度矩 陣&。與通過式(2)和式(3)重新計算更新后的訓(xùn)練樣本集的類間散度矩陣&和類 內(nèi)散度矩陣&相比,利用上面提到的兩種增量計算方法計算&和《可以大幅度降低運(yùn)算量,從而能實現(xiàn)對視頻中人臉位置的實時跟蹤。當(dāng)《和&確定后,就可以利用式(7)來重新確定特征向量繼而更新特征子空間(步驟S54)。應(yīng)當(dāng)指出,雖然通過上述實施方式對本發(fā)明進(jìn)行了描述,然而本發(fā)明還可有其它多種實施方式。在不脫離本發(fā)明精神和范圍的前提下,熟悉本領(lǐng)域的技術(shù)人員顯然可以對本發(fā)明做出各種相應(yīng)的改變和變形,但這些改變和變形都應(yīng)當(dāng)屬于本發(fā)明所附權(quán)利要求及其等效物所保護(hù)的范圍內(nèi)。
權(quán)利要求
1、一種人臉跟蹤方法,用于在連續(xù)的視頻圖像序列中跟蹤人臉位置,其特征在于,包括以下步驟確定第一幀圖像中的人臉位置;利用該第一幀圖像,通過最大分類間隔準(zhǔn)則確定特征子空間;從該第二幀圖像起,依次讀取視頻序列中的各幀圖像;對于所讀取的每一幀圖像,利用上一幀圖像中的人臉位置和該特征子空間,確定該當(dāng)前幀圖像中的人臉位置;以及每隔預(yù)定數(shù)量的幀更新該特征子空間。
2、 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述確定當(dāng)前幀圖像中的 人臉位置的步驟包括構(gòu)造當(dāng)前幀圖像的人臉位置關(guān)于上一幀圖像的人臉位置的概率分布模型;從所述概率分布中隨機(jī)抽取多個粒子;在每個粒子處分別獲取當(dāng)前幀圖像的人臉觀測值;構(gòu)造當(dāng)前幀人臉觀測值在當(dāng)前幀圖像中人臉位置處的似然分布模型;利用該概率分布模型和似然分布模型分別計算每個粒子的后驗值;以及選取后驗值最大的粒子作為當(dāng)前幀圖像中的人臉位置。
3、 根據(jù)權(quán)利要求1所述的方法,其特征在于,該第一幀圖像中的人臉位 置利用Adaboost人臉監(jiān)測器來確定。
4、 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述確定特征子空間的步 驟包括從該第一幀圖像中選取多個樣本組成訓(xùn)練樣本集; 根據(jù)各樣本與該第一幀圖像中人臉位置的距離遠(yuǎn)近對其進(jìn)行分類; 計算該訓(xùn)練樣本集的類內(nèi)散度矩陣和類間散度矩陣;以及 利用計算得到的類內(nèi)散度矩陣和類間散度矩陣來計算該特征子空間。
5、 根據(jù)權(quán)利要求4所述的方法,其特征在于,所述多個樣本被分成正樣 本和負(fù)樣本兩類,其中位于已確定的人臉位置附近的為正樣本,而距離該已確 定的人臉位置較遠(yuǎn)的為負(fù)樣本。
6、 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述更新特征子空間的步驟通過增量學(xué)習(xí)法實現(xiàn),包括從當(dāng)前幀圖像中選取多個新樣本,加入到該訓(xùn)練樣本集中;根據(jù)各新樣本與當(dāng)前幀人臉位置的距離遠(yuǎn)近對所述新樣本進(jìn)行分類;利用原有樣本中各類樣本的類均值以及該新樣本更新類間散度矩陣和類內(nèi)散度矩陣;以及利用該更新后的類間散度矩陣和類內(nèi)散度矩陣來更新特征子空間。
7、 根據(jù)權(quán)利要求6所述的方法,其特征在于,所述更新類間散度矩陣和 類內(nèi)散度矩陣的步驟通過批量更新法實現(xiàn),該批量更新法是一次利用所有的新 樣本來更新類間散度矩陣和類內(nèi)散度矩陣。
8、 根據(jù)權(quán)利要求6所述的方法,其特征在于,所述更新類間散度矩陣和 類內(nèi)散度矩陣的步驟通過序列更新法實現(xiàn),該序列更新法是每次利用一個新樣 本對類間散度矩陣和類內(nèi)散度矩陣進(jìn)行更新,并重復(fù)多次以完成最終的更新, 其中,重復(fù)的次數(shù)與該新樣本的數(shù)量相對應(yīng)。
9、 根據(jù)前述權(quán)利要求中任一項所述的方法,其特征在于,所述人臉位置 用人臉的中心位置、寬度、高度以及旋轉(zhuǎn)角度來表示。
全文摘要
本發(fā)明公開了一種人臉跟蹤方法,用于在連續(xù)的視頻圖像序列中跟蹤人臉位置。所述方法包括以下步驟確定第一幀圖像中的人臉位置;利用該第一幀圖像,通過最大分類間隔準(zhǔn)則確定特征子空間;從該第二幀圖像起,依次讀取視頻序列中的圖像;對于所讀取的每一幀圖像,利用上一幀圖像中的人臉位置和該特征子空間,確定該當(dāng)前幀圖像中的人臉位置;以及,每隔預(yù)定數(shù)量的幀更新該特征子空間。本發(fā)明采用了最大分類間隔準(zhǔn)則,從而增強(qiáng)了人臉特征提取的魯棒性。同時本發(fā)明還采用增量學(xué)習(xí)方法來在線更新特征子空間,既提高了跟蹤效果又滿足了實時性要求。
文檔編號G06K9/00GK101221620SQ20071030365
公開日2008年7月16日 申請日期2007年12月20日 優(yōu)先權(quán)日2007年12月20日
發(fā)明者浩 王, 磊 王, 英 黃 申請人:北京中星微電子有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1