亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)與流程

文檔序號(hào):12468727閱讀:907來源:國知局
基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)與流程

本發(fā)明涉及一種機(jī)器視覺及圖像融合領(lǐng)域,具體的說,是涉及一種基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)。



背景技術(shù):

圖像融合是將兩個(gè)或兩個(gè)以上的傳感器在同一時(shí)間或不同時(shí)間獲取的關(guān)于某個(gè)具體場景的圖像或者圖像序列信息加以綜合,以生成新的有關(guān)此場景解釋的處理信息,而這種信息無法從單一的圖像源中獲取,融合后可以獲取更可靠,更豐富,更準(zhǔn)確的有用信息。

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)新的研究熱點(diǎn),其目的是建立多層神經(jīng)網(wǎng)絡(luò),能模仿人腦的機(jī)制來分析和解釋圖像、音頻和文本等數(shù)據(jù)。深度學(xué)習(xí)通過組合淺層特征形成更加抽象的高層特征,以發(fā)現(xiàn)數(shù)據(jù)的更深層次的分布式特征表示。深度學(xué)習(xí)引起了計(jì)算機(jī)視覺領(lǐng)域的一場變革,許多研究者和現(xiàn)代科技公司都將目光投向了如何將深度學(xué)習(xí)應(yīng)用到各種工業(yè)領(lǐng)域中,并已經(jīng)取得了一定的效果。目前深度學(xué)習(xí)在圖像識(shí)別、場景識(shí)別、物體追蹤等方面都已經(jīng)取得了顯著的效果,表現(xiàn)出極大的應(yīng)用價(jià)值。

圖像識(shí)別是計(jì)算機(jī)視覺領(lǐng)域最重要也是最困難的問題之一,在過去的研究工作中,基于RGB圖像和灰度圖像的圖像識(shí)別工作取得了極大地進(jìn)展。但是由于RGB圖像和灰度圖像自身的局限性,圖像識(shí)別在計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用并不是很成功。例如在室內(nèi)機(jī)器人應(yīng)用方面,由于識(shí)別精度達(dá)不到指定的要求,圖像識(shí)別在室內(nèi)機(jī)器人的應(yīng)用上一度陷入瓶頸。提高圖像識(shí)別的準(zhǔn)確率對(duì)于自主式機(jī)器人的普及具有決定性的意義。

20世紀(jì)初,有學(xué)者提出手動(dòng)特征提取方法,該方法主要借助于基于方向直方圖的精心設(shè)計(jì)的特征,例如SIFT特征和HOG特征,而且這些特征也取得了很好的成果。然而這些手動(dòng)提取的特征僅僅能夠捕捉到少量的識(shí)別信息。例如SIFT特征雖然對(duì)于旋轉(zhuǎn)、尺度縮放和亮度變化保持一定的不變性,但是忽略了顏色信息而且該方法通過對(duì)特征點(diǎn)構(gòu)造向量,然后對(duì)向量進(jìn)行匹配,這樣圖像就得滿足足夠多的紋理,否則構(gòu)造出來的向量的判別性就不是很大。為了適用于新的數(shù)據(jù)模態(tài)例如RGB-D圖像,Lai等人在《A large-scale hierarchical multi-view rgb-d object dataset》中僅僅對(duì)SIFT算法進(jìn)行一些簡單的擴(kuò)展,使其能夠適用于深度圖像。后來,有些學(xué)者曾提出過無監(jiān)督特征學(xué)習(xí)方法。無監(jiān)督特征學(xué)習(xí)方法可以從圖像數(shù)據(jù)中學(xué)習(xí)到更具能力的圖像表示。自從Hinton等人在《Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks》一文中提出信念信息網(wǎng)絡(luò)(DBN)以及對(duì)應(yīng)的學(xué)習(xí)算法,緊接著分層稀疏編碼以及基于K-means的特征學(xué)習(xí)算法被相繼提出。雖然這些算法在物體識(shí)別方面都取得了很大的成功,但是他們通常只是基于RGB圖像或灰度圖像。雖然可以直接把這些算法運(yùn)用到RGB-D圖像上,但是卻不能充分利用多模態(tài)圖像所攜帶的信息并且計(jì)算復(fù)雜。以上所述的文獻(xiàn),都反映了圖像融合研究的一個(gè)問題,很難設(shè)計(jì)出一種能夠適用于各類圖像的融合算法,因此在實(shí)際應(yīng)用中一般針對(duì)不同的圖像庫開發(fā)不同的圖像融合算法,目前已有的算法無法滿足對(duì)深度圖像和RGB圖像的融合?;谝陨纤惴ǖ牟蛔悖覀兲岢鲆环NRGB特征和深度特征原始圖像層融合算法。采用新一代傳感技術(shù)的RGB-D相機(jī)(如Kinect相機(jī))能夠同時(shí)記錄高分辨率的RGB圖像和深度圖像。RGB-D相機(jī)可拍攝高分辨率的RGB-D圖像同時(shí)包含RGB圖像和深度圖像兩種圖像。RGB圖像包含物體的表面顏色信息和紋理信息,深度圖像包含物體的空間形狀信息,他不隨亮度和顏色的變化而變化。RGB圖像和深度圖像對(duì)彼此是一種有效的補(bǔ)充。研究表明,基于RGB-D圖像的物體識(shí)別,可明顯提高物體識(shí)別的準(zhǔn)確率。如何利用深度學(xué)習(xí)技術(shù)有效的結(jié)合RGB圖像和深度圖像來提高物體的識(shí)別準(zhǔn)確率成為了深度學(xué)習(xí)領(lǐng)域的一個(gè)新的研究方向。

現(xiàn)有的基于RGB-D圖像識(shí)別的研究工作過程中,存在一個(gè)普遍的現(xiàn)象:由于RGB信息或者深度信息區(qū)別力較低或者信息缺失等原因,某些類別物體的基于RGB特征或者深度特征的識(shí)別準(zhǔn)確率相對(duì)較低。這種情況下,將RGB特征和深度特征進(jìn)行串聯(lián)并作為物體的最終特征來進(jìn)行物體識(shí)別,不僅不會(huì)提升物體的識(shí)別準(zhǔn)確率,反而會(huì)導(dǎo)致最終的識(shí)別準(zhǔn)確率低于單獨(dú)的基于RGB特征或者深度特征的識(shí)別準(zhǔn)確率。。

公布號(hào)為CN 102999892 A,名稱為《基于區(qū)域遮罩的深度圖像與RGB圖像的智能融合方法》的發(fā)明專利提出了一種基于區(qū)域遮罩的深度圖像與RGB圖像的智能融合方法,選取深度圖像與RGB圖像的大區(qū)域不變性關(guān)聯(lián)特征,利用大區(qū)域不變性關(guān)聯(lián)特征進(jìn)行圖像配準(zhǔn),在配準(zhǔn)后的深度圖像中,設(shè)置感興趣的深度范圍,為目標(biāo)物體產(chǎn)生遮罩,將遮罩與配準(zhǔn)后的RGB圖像進(jìn)行融合。但由于RGB信息或者深度信息區(qū)別力較低或者信息缺失等原因,某些類別物體的基于RGB特征或者深度特征的識(shí)別準(zhǔn)確率相對(duì)較低。



技術(shù)實(shí)現(xiàn)要素:

針對(duì)上述現(xiàn)有技術(shù)中的不足,本發(fā)明提供一種能夠提高物體識(shí)別準(zhǔn)確率的技術(shù)方案。

本發(fā)明所采取的技術(shù)方案是:

一種基于RGB特征與深度特征的原始圖像層融合方法,包括如下步驟:

第一步,分別采集同一物體同一時(shí)刻同一場景的RGB圖像與深度圖像;

第二步,獲取單獨(dú)的基于RGB圖像的物體識(shí)別準(zhǔn)確率與基于深度圖像的物體識(shí)別準(zhǔn)確率;

第三步:通過決策樹算法為MMSAE算法初始化參數(shù);

第四步:MMSAE算法有差異性地提取RGB圖像和深度圖像的有效特征并將所述有效特征融合,獲取融合圖像的識(shí)別準(zhǔn)確率;

第五步:判斷所述融合圖像的識(shí)別準(zhǔn)確率是否高于系統(tǒng)設(shè)定閾值,若所述識(shí)別準(zhǔn)確率不高于設(shè)定閾值,則返回第三步,若所述識(shí)別準(zhǔn)確率高于設(shè)定閾值,則輸出識(shí)別后的物體圖像。

優(yōu)選的是,第二步具體包括如下步驟:

SAE算法提取淺層特征:分別輸入深度圖像與RGB圖像,通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征;

SPMP算法提取高層抽象特征:分別輸入深度圖像的淺層特征及RGB圖像的淺層特征,通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征;

K交叉驗(yàn)證拆分訓(xùn)練集:將深度圖像的高層抽象特征與RGB圖像的高層抽象特征輸入到softmax分類器,通過交叉驗(yàn)證獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,RGB的淺層特征至少包括RGB彩色特征或/和邊緣特征,所述深度圖像的淺層特征至少包括三維空間形狀。

在上述任一方案中優(yōu)選的是,通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征具體步驟為:

將采集的圖片大小縮放至r×r,從RGB圖像和深度圖像中分別隨機(jī)提取h個(gè)圖像塊,每個(gè)圖像塊的長和寬均為s;

分別使用RGB圖像塊和深度圖像塊作為輸入,訓(xùn)練兩個(gè)KSAE算法模型,其中一個(gè)用于提取RGB圖像的淺層特征,另一個(gè)用于提取深度圖像的淺層特征;

訓(xùn)練完成后,分別使用兩個(gè)所述KSAE作為映射函數(shù),從每張RGB圖像和深度圖像中以卷積的方式按像素逐一提取顏色特征和形狀特征;

設(shè)KSAE的隱層節(jié)點(diǎn)個(gè)數(shù)為q,計(jì)算卷積后得到顏色特征和形狀特征均為一個(gè)大小為t×t×q的三維矩陣,其中t=r-s+1;

對(duì)所述三維矩陣進(jìn)行平均池化,降低所述顏色特征和形狀特征的維度,獲得所述深度圖像的淺層特征與RGB圖像的淺層特征。

在上述任一方案中優(yōu)選的是,通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征具體步驟為:

輸入所述RGB圖像的淺層特征及所述深度圖像的淺層特征;

通過空間金字塔最大池化算法將所述三維矩陣所有的點(diǎn)劃分為C個(gè)塊,其中C取不同的值;

每個(gè)塊C共包含p個(gè)點(diǎn),則共有p個(gè)q維向量,將所述p個(gè)q維向量組合成一個(gè)大小為p×q維的矩陣:

取矩陣每一行最大的值為所述深度圖像的高層抽象特征與所述RGB圖像的高層抽象特征。

在上述任一方案中優(yōu)選的是,交叉驗(yàn)證具體步驟為:

將所述深度圖像的高層抽象特征與RGB圖像的高層抽象特征輸入到softmax分類器;

將所述深度圖像的高層抽象特征與RGB圖像的高層抽象特征作為原始訓(xùn)練集進(jìn)行分組,一部分為真實(shí)訓(xùn)練集,用來訓(xùn)練分類器,另一部分為驗(yàn)證集,用來測試訓(xùn)練得到的分類器;

將所述真實(shí)訓(xùn)練集隨機(jī)分為K個(gè)子集,每次選取一個(gè)子集做測試集,其余的子集為訓(xùn)練集,交叉驗(yàn)證重復(fù)K次,直至所有的樣本都被作為了訓(xùn)練集和測試集,每個(gè)樣本都被驗(yàn)證過;

將K次的平均交叉驗(yàn)證識(shí)別正確率作為結(jié)果,獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,通過決策樹算法進(jìn)行參數(shù)初始化具體為:

根據(jù)所述基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率的差值范圍,通過MMSAE算法為權(quán)重衰減參數(shù)λRGB和λdepth賦予不同的比值;

增大所述權(quán)重衰減參數(shù)λRGB和λdepth之間的差值;

選擇貢獻(xiàn)值大的有差異性的有效特征所對(duì)應(yīng)的圖像,從中提取更多的特征,提高最終的物體識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,第四步具體包括如下步驟:

以RGB圖像和深度圖像作MMSAE算法的輸入,同時(shí)提取RGB圖像的淺層特征和深度圖像的淺層特征,通過MMSAE算法對(duì)所述RGB圖像的淺層特征和深度圖像的淺層特征進(jìn)行融合處理;

輸入融合后的圖像的淺層特征,通過空間金字塔最大池化算法提取融合圖像的高層特征;

將所述融合圖像的高層特征輸入到Softmax分類器,使用訓(xùn)練集訓(xùn)練所述Softmax分類器,并使用測試集獲取融合圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,MMSAE算法提取淺層特征具體包括如下步驟:

(1)、將RGB圖像和深度圖像轉(zhuǎn)換為原始數(shù)據(jù)向量,并進(jìn)行連接,則輸入的數(shù)據(jù)為:{xr1,xr2,…,xrn,xd1,xd2,…,xdn}

其中,{xr1,xr2,...,xrn}表示RGB圖像;

{xd1,xd2,...,xdn}表示深度圖像;

與輸入的數(shù)據(jù)相對(duì)應(yīng)的參數(shù)矩陣W表示為:

其中,參數(shù)矩陣的前半部分是與RGB圖像向量相對(duì)應(yīng)的參數(shù);

參數(shù)矩陣后半部分是與深度圖像向量對(duì)應(yīng)的參數(shù);

k表示所有可能的類別標(biāo)簽;

(2)、根據(jù)RGB圖像淺層特征和深度圖像淺層特征賦予每一個(gè)類別的物體的權(quán)重控制參數(shù)不同的初始值,則RGB圖像淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

深度圖像的淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

(3)、以RGB圖像和深度圖像作為MMSAE算法的輸入,提取所述RGB圖像和深度圖像的淺層特征,MMSAE算法對(duì)所述RGB圖像和深度圖像的淺層特征進(jìn)行融合處理,提取融合后的圖像淺層特征。

一種基于RGB特征與深度特征的原始圖像層融合系統(tǒng),包括:

圖像采集裝置:其配置為采集物體的RGB圖像與深度圖像;

圖像識(shí)別準(zhǔn)確率提取模塊:其配置為獲取單獨(dú)的基于RGB圖像的物體識(shí)別準(zhǔn)確率與基于深度圖像的物體識(shí)別準(zhǔn)確率;

參數(shù)初始化模塊:其配置為通過決策樹算法為MMSAE算法初始化參數(shù);

融合圖像識(shí)別準(zhǔn)確率提取模塊:其配置為通過MMSAE算法有差異性地提取RGB圖像和深度圖像的有效特征,并將所述有效特征融合,獲取融合圖像的識(shí)別準(zhǔn)確率;

識(shí)別物體輸出模塊:其配置為預(yù)先設(shè)定識(shí)別準(zhǔn)確率閾值,并判斷所述融合圖像的識(shí)別準(zhǔn)確率是否高于設(shè)定閾值,若所述識(shí)別準(zhǔn)確率不高于設(shè)定閾值,則重新進(jìn)行參數(shù)初始化,若所述識(shí)別準(zhǔn)確率高于設(shè)定閾值,則輸出識(shí)別后的物體圖像。

優(yōu)選的是,所述圖像識(shí)別準(zhǔn)確率提取模塊包括:

淺層特征提取模塊,其配置為通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征;

高層抽象特征提取模塊,其配置為通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征;

交叉驗(yàn)證模塊:其配置為softmax分類器通過交叉驗(yàn)證獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,淺層特征提取模塊通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征具體為:

將采集的圖片大小縮放至r×r,從RGB圖像和深度圖像中分別隨機(jī)提取h個(gè)圖像塊,每個(gè)圖像塊的長和寬均為s;

分別使用RGB圖像塊和深度圖像塊作為輸入,訓(xùn)練兩個(gè)KSAE算法模型,其中一個(gè)用于提取RGB圖像的淺層特征,另一個(gè)用于提取深度圖像的淺層特征;

訓(xùn)練完成后,分別使用兩個(gè)所述KSAE作為映射函數(shù),從每張RGB圖像和深度圖像中以卷積的方式逐像素提取顏色特征和形狀特征;

設(shè)KSAE的隱層節(jié)點(diǎn)個(gè)數(shù)為q,計(jì)算卷積后得到顏色特征和形狀特征均為一個(gè)大小為t×t×q的三維矩陣,其中t=r-s+1;

對(duì)所述三維矩陣進(jìn)行平均池化,降低所述顏色特征和形狀特征的維度,獲得所述深度圖像的淺層特征與RGB圖像的淺層特征。

在上述任一方案中優(yōu)選的是,高層抽象特征提取模塊通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征具體為:

輸入所述RGB圖像的淺層特征及所述深度圖像的淺層特征;

通過空間金字塔最大池化算法將所述三維矩陣所有的點(diǎn)劃分為d個(gè)塊,其中d取不同的值;

每個(gè)塊C共包含p個(gè)點(diǎn),則共有p個(gè)q維向量,將所述p個(gè)q維向量組合成一個(gè)大小為p×q維的矩陣:

取矩陣每一行最大的值為所述深度圖像的高層抽象特征與所述RGB圖像的高層抽象特征。

在上述任一方案中優(yōu)選的是,交叉驗(yàn)證模塊獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率具體為:

將所述深度圖像的高層抽象特征與RGB圖像的高層抽象特征輸入到softmax分類器;

將所述深度圖像的高層抽象特征與RGB圖像的高層抽象特征作為原始訓(xùn)練集進(jìn)行分組,一部分為真實(shí)訓(xùn)練集,用來訓(xùn)練分類器,另一部分為驗(yàn)證集,用來測試訓(xùn)練得到的分類器;

將所述真實(shí)訓(xùn)練集隨機(jī)分為K個(gè)子集,每次選取一個(gè)子集做測試集,其余的子集為訓(xùn)練集,交叉驗(yàn)證重復(fù)K次,直至所有的樣本都被作為了訓(xùn)練集和測試集,每個(gè)樣本都被驗(yàn)證過;

將K次的平均交叉驗(yàn)證識(shí)別正確率作為結(jié)果,獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,參數(shù)初始化模塊通過決策樹算法進(jìn)行參數(shù)初始化具體為:

根據(jù)所述基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率的差值范圍,通過MMSAE算法為權(quán)重衰減參數(shù)λRGB和λdepth賦予不同的比值;

增大所述權(quán)重衰減參數(shù)λRGB和λdepth之間的差值;

選擇貢獻(xiàn)值大的有差異性的有效特征所對(duì)應(yīng)的圖像,從中提取更多的特征,提高最終的物體識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,融合圖像識(shí)別準(zhǔn)確率提取模塊具體包括;

融合圖像淺層特征提取模塊:其配置為以RGB圖像和深度圖像作MMSAE算法的輸入,同時(shí)提取RGB圖像的淺層特征和深度圖像的淺層特征,通過MMSAE算法對(duì)所述RGB圖像的淺層特征和深度圖像的淺層特征進(jìn)行融合處理;

融合圖像的高層特征提取模塊:其配置為通過通過空間金字塔最大池化算法,對(duì)輸入的融合后的圖像的淺層特征提取融合圖像的高層特征;

融合圖像識(shí)別準(zhǔn)確率提取模塊:其配置為將所述融合圖像的高層特征輸入到Softmax分類器,使用訓(xùn)練集訓(xùn)練所述Softmax分類器,并使用測試集獲取融合圖像的識(shí)別準(zhǔn)確率。

在上述任一方案中優(yōu)選的是,融合圖像淺層特征提取模塊提取淺層特征具體包括:

(1)、將RGB圖像和深度圖像轉(zhuǎn)換為原始數(shù)據(jù)向量,并進(jìn)行連接,則輸入的數(shù)據(jù)為:{xr1,xr2,...,xrn,xd1,xd2,...,xdn}

其中,{xr1,xr2,...,xrn}表示RGB圖像;

{xd1,xd2,...,xdn}表示深度圖像;

與輸入的數(shù)據(jù)相對(duì)應(yīng)的參數(shù)矩陣W表示為:

其中,參數(shù)矩陣的前半部分是與RGB圖像向量相對(duì)應(yīng)的參數(shù);

參數(shù)矩陣后半部分是與深度圖像向量對(duì)應(yīng)的參數(shù);

k表示所有可能的類別標(biāo)簽;

(2)、根據(jù)RGB圖像淺層特征和深度圖像淺層特征賦予每一個(gè)類別物體的權(quán)重控制參數(shù)不同的初始值,則RGB圖像淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

深度圖像的淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

(3)、以RGB圖像和深度圖像作為MMSAE算法的輸入,提取所述RGB圖像和深度圖像的淺層特征,MMSAE算法對(duì)所述RGB圖像和深度圖像的淺層特征進(jìn)行融合處理,提取融合后的圖像淺層特征。

本發(fā)明相對(duì)現(xiàn)有技術(shù)的有益效果:

在之前的基于RGB-D圖像識(shí)別的研究過程中,當(dāng)RGB圖像和深度圖像存在噪聲時(shí),例如由于RGB信息或深度信息區(qū)別力較低或者信息缺失,對(duì)應(yīng)類別的物體基于RGB特征或者深度特征的識(shí)別準(zhǔn)確率相對(duì)較低。這種情況下,將RGB特征和深度特征進(jìn)行串聯(lián)作為物體的最終特征進(jìn)行物體識(shí)別,不僅不會(huì)提升物體識(shí)別的準(zhǔn)確率,反而會(huì)導(dǎo)致最終的識(shí)別準(zhǔn)確率低于RGB特征或者深度特征的識(shí)別準(zhǔn)確率。這是由于沒有合適的對(duì)RGB特征和深度特征進(jìn)行差異性提取和融合造成的,本發(fā)明基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)根據(jù)不同種類的特征對(duì)不同類別的物體的識(shí)別貢獻(xiàn)差異性,完成了特征的有效融合,提高了物體識(shí)別的準(zhǔn)確率,提高了運(yùn)算效率。同時(shí)說明本文所提出的算法能在圖像存在噪聲和光照強(qiáng)度變化的情況下,依然很好地完成RGB-D圖像的識(shí)別,具有很輕的魯棒性。對(duì)于系統(tǒng)設(shè)定閾值,我們采用分類器和先驗(yàn)知識(shí)來確定。

附圖說明

圖1是按照本發(fā)明的基于RGB特征與深度特征的原始圖像層融合方法的一優(yōu)選實(shí)施例的工作流程圖;

圖2是按照本發(fā)明的基于RGB特征與深度特征的原始圖像層融合系統(tǒng)的一優(yōu)選實(shí)施例的結(jié)構(gòu)示意圖;

圖3是按照本發(fā)明的基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)的SAE算法的一實(shí)施例的結(jié)構(gòu)圖;

圖4是按照本發(fā)明的基于RGB特征與深度特征的原始圖像層融合方法及系統(tǒng)的決策樹算法的一實(shí)施例的結(jié)構(gòu)示意圖。

具體實(shí)施方式

以下參照附圖及實(shí)施例對(duì)本發(fā)明進(jìn)行詳細(xì)的說明:

實(shí)施例1

關(guān)鍵詞說明:SAE算法:棧式自編碼算法,擁有輸入層,隱藏層,輸出層的三層神經(jīng)網(wǎng)絡(luò);

MMSAE算法:多模態(tài)稀疏自編碼算法;

SPMP算法:空間金字塔最大池化;

決策樹算法:決策樹算法是一種逼近離散函數(shù)值的方法。是一種典型的分類方法,首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸納算法生成可讀的規(guī)則和決策樹,然后使用決策對(duì)新數(shù)據(jù)進(jìn)行分析。本質(zhì)上決策樹是通過一系列規(guī)則對(duì)數(shù)據(jù)進(jìn)行分類的過程;

深度學(xué)習(xí):深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示;

交叉驗(yàn)證:(Cross validation),有時(shí)亦稱循環(huán)估計(jì),是在訓(xùn)練階段用來驗(yàn)證分類器性能的一種統(tǒng)計(jì)分析方法,基本原理是把將原始訓(xùn)練集(training dataset)進(jìn)行再次分組,一部分做為真實(shí)訓(xùn)練集(training dataset),用來訓(xùn)練分類器,另一部分做為驗(yàn)證集(validation set),用來來測試訓(xùn)練得到的分類器,以此來作為評(píng)價(jià)分類器的性能指標(biāo)。

本發(fā)明提出一種基于深度學(xué)習(xí)的多層神經(jīng)網(wǎng)絡(luò)算法,此算法在原始圖像層能有效的融合RGB信息和深度信息。此算法主要分為兩層。第一層深度學(xué)習(xí)網(wǎng)絡(luò)主要完成單獨(dú)的基于RGB圖像和深度圖像的物體識(shí)別。得到RGB圖像和深度圖像的識(shí)別準(zhǔn)確率之后,使用決策樹算法為MMSAE算法初始化參數(shù)。此參數(shù)將在MMSAE算法中發(fā)揮決定性的作用,合適的參數(shù)將能夠有效的從RGB圖像和深度圖像中有差異性的提取更有效的特征,從而提高識(shí)別準(zhǔn)確率。

如圖3所示,為SAE自編碼算法結(jié)構(gòu)示意圖,圖左側(cè)節(jié)點(diǎn)為輸入層,圖右側(cè)節(jié)點(diǎn)為輸出層,中間部分為隱層。自編碼算法是一種無監(jiān)督的特征學(xué)習(xí)算法。在一個(gè)無類別標(biāo)簽的樣本集中,m為樣本的數(shù)量,n代表樣本的維數(shù)。通過反向傳播算法,自編碼算法期望得到最優(yōu)的參數(shù)可以把輸入樣本映射到隱層,然后再通過對(duì)隱層數(shù)據(jù)進(jìn)行重建從而得到幾乎等于輸入的輸出。這樣就可以用來表示輸入數(shù)據(jù)即可作為輸入的淺層特征向量。SAE算法是在自編碼算法的基礎(chǔ)上對(duì)隱層節(jié)點(diǎn)加入了稀疏性限制,通過在隱層節(jié)點(diǎn)上加入稀疏性限制,可以發(fā)現(xiàn)原始輸入的一些有價(jià)值的數(shù)據(jù)結(jié)構(gòu)。稀疏性可以簡單的解釋如下:假設(shè)使用sigmoid函數(shù)作為神經(jīng)元的激活函數(shù),當(dāng)神經(jīng)元的輸出接近1時(shí),被認(rèn)為它是被激活的,而輸出接近0時(shí),認(rèn)為是被抑制的。當(dāng)隱層節(jié)點(diǎn)數(shù)目較多時(shí),期望大多數(shù)隱層節(jié)點(diǎn)處于抑制狀態(tài),以期發(fā)現(xiàn)輸入數(shù)據(jù)中的結(jié)構(gòu)。在典型的SAE算法中,使用公式

作為總體的代價(jià)函數(shù)。其中第一項(xiàng)為均方差項(xiàng),表示的算法的輸出層輸入數(shù)據(jù)與原始數(shù)據(jù)之間的均方差。第二項(xiàng)為權(quán)重衰減項(xiàng),其目的是減小權(quán)重的幅度,防止過度擬合。第三項(xiàng)為稀疏懲罰項(xiàng),用來控制隱層節(jié)點(diǎn)的稀疏性。公式中的參數(shù)和用來控制公式中各項(xiàng)的相對(duì)重要性。通過反向誤差傳播來優(yōu)化參數(shù){W,b},迭代過若干次后,期望輸出:KSAE是基于SAE算法的一種改進(jìn)算法。KSAE算法使用線性的激活函數(shù),在隱層節(jié)點(diǎn)中,每次選取最大的k個(gè)激活值,并將其他的所有激活值設(shè)置為0。誤差反向傳播的每次迭代中均如此設(shè)置,直至迭代完成。得到優(yōu)化后的參數(shù){W,b}后,對(duì)于輸入,計(jì)算特征f=Wx+b并選取其中最大的k個(gè)最大的激活作為最終的特征,其中,其它所有的激活值全部設(shè)置為0。

附圖1可知,為一種基于RGB特征與深度特征的原始圖像層融合方法,包括如下步驟:

S101:分別采集同一物體同一時(shí)刻同一場景的RGB圖像與深度圖像;

S102:通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征;

S103:分別輸入深度圖像的淺層特征及RGB圖像的淺層特征,通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征;

S104:將深度圖像的高層抽象特征與RGB圖像的高層抽象特征輸入到softmax分類器;

S105:通過交叉驗(yàn)證獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率;

S106:通過決策樹算法對(duì)所述單獨(dú)的基于RGB圖像的物體識(shí)別準(zhǔn)確率與基于深度圖像的物體識(shí)別準(zhǔn)確率進(jìn)行參數(shù)初始化;

S107:以RGB圖像和深度圖像作MMSAE算法的輸入,同時(shí)提取RGB圖像的淺層特征和深度圖像的淺層特征,通過MMSAE算法對(duì)所述RGB圖像的淺層特征和深度圖像的淺層特征進(jìn)行融合處理;

S108:輸入融合后的圖像的淺層特征,通過空間金字塔最大池化算法提取融合圖像的高層特征;

S109:將所述融合圖像的高層特征輸入到Softmax分類器;

S110:使用訓(xùn)練集訓(xùn)練所述Softmax分類器,并使用測試集獲取融合圖像的識(shí)別準(zhǔn)確率;

S111:判斷所述融合圖像的識(shí)別準(zhǔn)確率是否高于系統(tǒng)設(shè)定閾值,若所述識(shí)別準(zhǔn)確率不高于設(shè)定閾值,則返回S106;

S112:若所述識(shí)別準(zhǔn)確率高于設(shè)定閾值,則輸出識(shí)別后的物體圖像。

RGB的淺層特征至少包括RGB彩色特征或/和邊緣特征,深度圖像的淺層特征至少包括三維空間形狀。

通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征具體步驟為:

將采集的圖片大小縮放至r×r,從RGB圖像和深度圖像中分別隨機(jī)提取h個(gè)圖像塊,每個(gè)圖像塊的長和寬均為s;

分別使用RGB圖像塊和深度圖像塊作為輸入,訓(xùn)練兩個(gè)KSAE算法模型,其中一個(gè)用于提取RGB圖像的淺層特征,另一個(gè)用于提取深度圖像的淺層特征;

訓(xùn)練完成后,分別使用兩個(gè)KSAE作為映射函數(shù),從每張RGB圖像和深度圖像中以卷積的方式逐像素提取顏色特征和形狀特征;

設(shè)KSAE的隱層節(jié)點(diǎn)個(gè)數(shù)為q,計(jì)算卷積后得到顏色特征和形狀特征均為一個(gè)大小為t×t×q的三維矩陣,其中t=r-s+1;

對(duì)三維矩陣進(jìn)行平均池化,降低所述顏色特征和形狀特征的維度,獲得所述深度圖像的淺層特征與RGB圖像的淺層特征。

空間金字塔最大池化SPMP是一種有效的從低維特征中提取抽象的空間平移不變特征的算法。對(duì)于每一張RGB圖像和深度圖像來說,KSAE層輸出的低維特征均為一個(gè)三維矩陣。通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征具體步驟為:

輸入所述RGB圖像的淺層特征及所述深度圖像的淺層特征;

通過空間金字塔最大池化算法將所述三維矩陣所有的點(diǎn)劃分為d個(gè)塊,其中d取不同的值;

每個(gè)塊C共包含p個(gè)點(diǎn),則共有p個(gè)q維向量,將所述p個(gè)q維向量組合成一個(gè)大小為p×q維的矩陣:

取矩陣每一行最大的值為所述深度圖像的高層抽象特征與所述RGB圖像的高層抽象特征。

交叉驗(yàn)證(Cross validation),也稱循環(huán)估計(jì)。交叉驗(yàn)證是在訓(xùn)練階段用來驗(yàn)證分類器性能的一種統(tǒng)計(jì)分析方法,基本原理是把將原始訓(xùn)練集(training dataset)進(jìn)行再次分組,一部分做為真實(shí)訓(xùn)練集(training dataset),用來訓(xùn)練分類器,另一部分做為驗(yàn)證集(validation set),用來來測試訓(xùn)練得到的分類器,以此來作為評(píng)價(jià)分類器的性能指標(biāo)。將訓(xùn)練集隨機(jī)的分為K個(gè)子集,每次選取一個(gè)子集均做測試集,其余的作為訓(xùn)練集。交叉驗(yàn)證重復(fù)K次,并將K次的平均交叉驗(yàn)證識(shí)別正確率作為結(jié)果。在此過程中,所有的樣本都被作為了訓(xùn)練集和測試集,所以每個(gè)樣本都被驗(yàn)證過。在本發(fā)明中,在不知道測試集標(biāo)簽的情況下,為了統(tǒng)計(jì)出RGB信息和深度信息對(duì)不同類別的物體的識(shí)別的貢獻(xiàn)差異性,使用交叉驗(yàn)證來得到識(shí)別準(zhǔn)確率。訓(xùn)練集中的每個(gè)類別的物體包含若干個(gè)子集,每次從每個(gè)類別中選取一個(gè)小的子集作為驗(yàn)證集,其他的作為訓(xùn)練集。使用訓(xùn)練集來訓(xùn)練Softmax分類器,使用驗(yàn)證集來進(jìn)行測試,得到最終的識(shí)別準(zhǔn)確率。

決策樹是一個(gè)預(yù)測模型,其將對(duì)象屬性映射到對(duì)象值。如附圖4所示為本發(fā)明使用的決策樹示意圖。改圖為一棵簡單的參數(shù)固定的決策樹,無需通過反復(fù)的訓(xùn)練得到參數(shù)。圖中的每個(gè)圓形節(jié)點(diǎn)中的數(shù)字代表的是RGB圖像與深度圖像識(shí)別準(zhǔn)確率之差。葉子節(jié)點(diǎn)中的比值代表的是MMSAE算法中同一類別物體的兩個(gè)權(quán)重衰減參數(shù)的比值。根據(jù)同一個(gè)類別的物體的RGB特征和深度特征的識(shí)別準(zhǔn)確率的差值范圍,為MMSAE算法中的此類物體的兩個(gè)權(quán)重衰減參數(shù)和賦予不同的比值?;赗GB圖像和深度圖像的識(shí)別準(zhǔn)確率的差值越大,兩種特征對(duì)最終的識(shí)別的貢獻(xiàn)差值越大,為其賦予差別更大的權(quán)重衰減參數(shù),從貢獻(xiàn)值更大的有差異性的特征所對(duì)應(yīng)的圖像中提取更多的特征,從而提高最終的物體識(shí)別準(zhǔn)確率。

通過決策樹算法進(jìn)行參數(shù)初始化具體為:

根據(jù)所述基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率的差值范圍,通過MMSAE算法為權(quán)重衰減參數(shù)λRGB和λdepth賦予不同的比值;

增大所述權(quán)重衰減參數(shù)λRGB和λdepth之間的差值;

選擇貢獻(xiàn)值大的有差異性的有效特征所對(duì)應(yīng)的圖像,從中提取更多的特征,提高最終的物體識(shí)別準(zhǔn)確率。

通過網(wǎng)絡(luò)的第一層,得到了初始化參數(shù)的MMSAE算法,通過該MMSAE算法提取淺層特征,具體步驟為:

(1)、將RGB圖像和深度圖像轉(zhuǎn)換為原始數(shù)據(jù)向量,并進(jìn)行連接,則輸入的數(shù)據(jù)為:{xr1,xr2,...,xrn,xd1,xd2,...,xdn}

其中,{xr1,xr2,...,xrn}表示RGB圖像;

{xd1,xd2,...,xdn}表示深度圖像;

與輸入的數(shù)據(jù)相對(duì)應(yīng)的參數(shù)矩陣W表示為:

其中,參數(shù)矩陣的前半部分是與RGB圖像向量相對(duì)應(yīng)的參數(shù);

參數(shù)矩陣后半部分是與深度圖像向量對(duì)應(yīng)的參數(shù);

k表示所有可能的類別標(biāo)簽;

在典型的SAE的總體代價(jià)函數(shù)中,并沒有區(qū)別的對(duì)不同種類的特征的參數(shù)進(jìn)行區(qū)分,僅僅使用了權(quán)重衰減參數(shù)來控制權(quán)重衰減項(xiàng)在整體代價(jià)函數(shù)中的相對(duì)重要性。在MMSAE中,對(duì)不同的類別的不同種類的特征賦予了不同的權(quán)重衰減參數(shù),不僅控制著權(quán)重衰減項(xiàng)在整體代價(jià)函數(shù)中的相對(duì)重要性,而且在一定程度上控制著每個(gè)類別的物體中各種特征之間的相對(duì)重要性。

(2)、根據(jù)RGB圖像淺層特征和深度圖像淺層特征對(duì)于每一個(gè)類別的物體的權(quán)重控制參數(shù)賦予不同的初始值,則RGB圖像淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

深度圖像的淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

(3)、以RGB圖像和深度圖像作為MMSAE算法的輸入,提取所述RGB圖像和深度圖像的淺層特征,MMSAE算法對(duì)所述RGB圖像和深度圖像的淺層特征進(jìn)行融合處理,提取融合后的圖像淺層特征。權(quán)重控制參數(shù).權(quán)重控制參數(shù)是指對(duì)于每一種類別物體RGB圖像淺層特征和深度圖像淺層特征所占的權(quán)重,百分比。

實(shí)施例2

如附圖2所示,為一種基于RGB特征與深度特征的原始圖像層融合系統(tǒng),包括:

圖像采集裝置201:其配置為采集物體的RGB圖像與深度圖像;

圖像識(shí)別準(zhǔn)確率提取模塊202:其配置為獲取單獨(dú)的基于RGB圖像的物體識(shí)別準(zhǔn)確率與基于深度圖像的物體識(shí)別準(zhǔn)確率;圖像識(shí)別準(zhǔn)確率提取模塊202包括:淺層特征提取模塊206,其配置為通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征;高層抽象特征提取模塊207,其配置為通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征;交叉驗(yàn)證模塊208:其配置為softmax分類器通過交叉驗(yàn)證獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率。

參數(shù)初始化模塊203:其配置為通過決策樹算法對(duì)所述單獨(dú)的基于RGB圖像的物體識(shí)別準(zhǔn)確率與基于深度圖像的物體識(shí)別準(zhǔn)確率進(jìn)行參數(shù)初始化;

融合圖像識(shí)別準(zhǔn)確率提取模塊204:其配置為將通過初始化參數(shù)提取的RGB圖像和深度圖像中有差異性的有效特征進(jìn)行融合,并獲取融合圖像的識(shí)別準(zhǔn)確率;融合圖像識(shí)別準(zhǔn)確率提取模塊204具體包括;融合圖像淺層特征提取模塊209:其配置為以RGB圖像和深度圖像作MMSAE算法的輸入,同時(shí)提取RGB圖像的淺層特征和深度圖像的淺層特征,并在此過程中,MMSAE算法對(duì)所述RGB圖像的淺層特征和深度圖像的淺層特征進(jìn)行融合處理;融合圖像的高層特征提取模塊210:其配置為通過通過空間金字塔最大池化算法,對(duì)輸入的融合后的圖像的淺層特征提取融合圖像的高層特征;融合圖像識(shí)別準(zhǔn)確率提取模塊211:其配置為將所述融合圖像的高層特征輸入到Softmax分類器,使用訓(xùn)練集訓(xùn)練所述Softmax分類器,并使用測試集獲取融合圖像的識(shí)別準(zhǔn)確率;

識(shí)別物體輸出模塊205:其配置為預(yù)先設(shè)定識(shí)別準(zhǔn)確率閾值,并判斷所述融合圖像的識(shí)別準(zhǔn)確率是否高于設(shè)定閾值,若所述識(shí)別準(zhǔn)確率不高于設(shè)定閾值,則重新進(jìn)行參數(shù)初始化,若所述識(shí)別準(zhǔn)確率高于設(shè)定閾值,則輸出識(shí)別后的物體圖像。

淺層特征提取模塊206通過SAE算法分別提取深度圖像的淺層特征與RGB圖像的淺層特征具體為:

將采集的圖片大小縮放至r×r,從RGB圖像和深度圖像中分別隨機(jī)提取h個(gè)圖像塊,每個(gè)圖像塊的長和寬均為s;

分別使用RGB圖像塊和深度圖像塊作為輸入,訓(xùn)練兩個(gè)KSAE,其中一個(gè)用于提取RGB圖像的淺層特征,另一個(gè)用于提取深度圖像的淺層特征;

訓(xùn)練完成后,分別使用兩個(gè)所述KSAE作為映射函數(shù),從每張RGB圖像和深度圖像中以卷積的方式逐像素提取顏色特征和形狀特征;

設(shè)KSAE的隱層節(jié)點(diǎn)個(gè)數(shù)為q,計(jì)算卷積后得到顏色特征和形狀特征均為一個(gè)大小為t×t×q的三維矩陣,其中t=r-s+1;

對(duì)所述三維矩陣進(jìn)行平均池化,降低所述顏色特征和形狀特征的維度,獲得所述深度圖像的淺層特征與RGB圖像的淺層特征。

高層抽象特征提取模塊207通過SPMP算法分別提取深度圖像的高層抽象特征與RGB圖像的高層抽象特征具體為:

輸入所述RGB圖像的淺層特征及所述深度圖像的淺層特征;

通過空間金字塔最大池化算法將所述三維矩陣所有的點(diǎn)劃分為d個(gè)塊,其中d取不同的值;

每個(gè)塊C共包含p個(gè)點(diǎn),則共有p個(gè)q維向量,將所述p個(gè)q維向量組合成一個(gè)大小為p×q維的矩陣:

取矩陣每一行最大的值為所述深度圖像的高層抽象特征與所述RGB圖像的高層抽象特征。

交叉驗(yàn)證模塊208獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率以及基于深度圖像的識(shí)別準(zhǔn)確率具體為:

將深度圖像的高層抽象特征與RGB圖像的高層抽象特征輸入到softmax分類器;

將深度圖像的高層抽象特征與RGB圖像的高層抽象特征作為原始訓(xùn)練集進(jìn)行分組,一部分為真實(shí)訓(xùn)練集,用來訓(xùn)練分類器,另一部分為驗(yàn)證集,用來測試訓(xùn)練得到的分類器;

將真實(shí)訓(xùn)練集隨機(jī)分為K個(gè)子集,每次選取一個(gè)子集做測試集,其余的子集為訓(xùn)練集,交叉驗(yàn)證重復(fù)K次,直至所有的樣本都被作為了訓(xùn)練集和測試集,每個(gè)樣本都被驗(yàn)證過;

將K次的平均交叉驗(yàn)證識(shí)別正確率作為結(jié)果,獲得單獨(dú)的基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率。

參數(shù)初始化模塊203通過決策樹算法進(jìn)行參數(shù)初始化具體為:

根據(jù)所述基于RGB圖像的識(shí)別準(zhǔn)確率和基于深度圖像的識(shí)別準(zhǔn)確率的差值范圍,通過MMSAE算法為權(quán)重衰減參數(shù)λRGB和λdepth賦予不同的比值;

增大所述權(quán)重衰減參數(shù)λRGB和λdepth之間的差值;

選擇貢獻(xiàn)值大的有差異性的有效特征所對(duì)應(yīng)的圖像,從中提取更多的特征,提高最終的物體識(shí)別準(zhǔn)確率。

融合圖像淺層特征提取模塊204提取淺層特征具體包括:

(1)、將RGB圖像和深度圖像轉(zhuǎn)換為原始數(shù)據(jù)向量,并進(jìn)行連接,則輸入的數(shù)據(jù)為:{xr1,xr2,...,xrn,xd1,xd2,...,xdn}

其中,{xr1,xr2,...,xrn}表示RGB圖像;

{xd1,xd2,...,xdn}表示深度圖像;

與輸入的數(shù)據(jù)相對(duì)應(yīng)的參數(shù)矩陣W表示為:

其中,參數(shù)矩陣的前半部分是與RGB圖像向量相對(duì)應(yīng)的參數(shù);

參數(shù)矩陣后半部分是與深度圖像向量對(duì)應(yīng)的參數(shù);

k表示所有可能的類別標(biāo)簽;

(2)、根據(jù)RGB圖像淺層特征和深度圖像淺層特征對(duì)于每一個(gè)類別的物體的權(quán)重控制參數(shù)賦予不同的初始值,則RGB圖像淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

深度圖像的淺層特征對(duì)應(yīng)的權(quán)重衰減參數(shù)為k階的對(duì)角矩陣為:

(3)、以RGB圖像和深度圖像作為MMSAE算法的輸入,提取所述RGB圖像和深度圖像的淺層特征,MMSAE算法對(duì)所述RGB圖像和深度圖像的淺層特征進(jìn)行融合處理,提取融合后的圖像淺層特征。

以上所述,僅是本發(fā)明的較佳實(shí)施例而已,并非對(duì)本發(fā)明的結(jié)構(gòu)作任何形式上的限制。凡是依據(jù)本發(fā)明的技術(shù)實(shí)質(zhì)對(duì)以上實(shí)施例所作的任何簡單修改、等同變化與修飾,均屬于本發(fā)明的技術(shù)方案范圍內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1