本發(fā)明涉及圖像處理領(lǐng)域,特別涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法及裝置。
背景技術(shù):
在現(xiàn)有技術(shù)中,目前對于車輛的顏色識別主要通過統(tǒng)計(jì)學(xué)方法統(tǒng)計(jì)的顏色分量分布進(jìn)行對比識別,這種方法的優(yōu)點(diǎn)是識別速度快,缺點(diǎn)是識別率不高,易受環(huán)境影響,其一般用于預(yù)識別或粗分類。還有一種方法是采用傳統(tǒng)的模式學(xué)習(xí)的方式,通過訓(xùn)練樣本的顏色特征模型對車顏色進(jìn)行分類,這種方法的訓(xùn)練效率不高。
技術(shù)實(shí)現(xiàn)要素:
本申請實(shí)施例提供了一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法及裝置,提供一種基于深度學(xué)習(xí)的車輛顏色識別方法。
有鑒于此,本發(fā)明的第一方面提供一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法,包括:
獲取車輛的車輛圖像;
識別所述車輛圖像中的車牌信息,所述車牌信息包括車牌的長度、寬度以及位置;
根據(jù)所述車牌信息確定車頭區(qū)域以及所述車頭區(qū)域的車頭圖像;
將所述車頭圖像轉(zhuǎn)換成YUV格式的圖像,得到車頭YUV圖像;
從所述車頭YUV圖像中抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)并重新組合得到預(yù)設(shè)大小的車頭YUYV圖像;
訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型;
將所述車頭YUYV圖像輸入至所述卷積神經(jīng)網(wǎng)絡(luò)模型;
根據(jù)所述卷積神經(jīng)網(wǎng)絡(luò)模型的輸出結(jié)果確定所述車輛的車頭的顏色。
結(jié)合本發(fā)明實(shí)施例的第一方面,在本發(fā)明實(shí)施例的第一方面的第一種實(shí)施方式中,所述從所述車頭YUV圖像中抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)并重新組合得到預(yù)設(shè)大小的車頭YUYV圖像包括:
從所述車頭YUV圖像中按照預(yù)設(shè)條件抽取出所述Y分量數(shù)據(jù)、所述U分量數(shù)據(jù)、所述V分量數(shù)據(jù);
按照所述Y分量數(shù)據(jù)、所述U分量數(shù)據(jù)、所述Y分量數(shù)據(jù)、所述V分量數(shù)據(jù)的順序組合得到所述車頭YUYV圖像。
結(jié)合本發(fā)明實(shí)施例的第一方面,第一方面的第一種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第一方面的第二種實(shí)施方式中,所述訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型包括:
輸入一張以上的關(guān)于車輛顏色的車輛顏色YUYV圖像;
將所述車輛顏色YUYV圖像經(jīng)過卷積生成第一卷積層圖像;
將所述第一卷積層圖像經(jīng)過池化生成第一池化層圖像;
將所述第一池化層圖像經(jīng)過卷積生成第二卷積層圖像并根據(jù)所述第一池化層圖像生成第二池化層圖像;
根據(jù)所述第一卷積層圖像、所述第二卷積層圖像、所述第一池化層圖像、所述第二池化層圖像生成全連接層圖像;
根據(jù)所述第一卷積層圖像、所述第二卷積層圖像、所述第一池化層圖像、所述第二池化層圖像、所述全連接層圖像得到卷積神經(jīng)網(wǎng)絡(luò)模型;
使用對比損失函數(shù)優(yōu)化所述卷積神經(jīng)網(wǎng)絡(luò)模型。
結(jié)合本發(fā)明實(shí)施例的第一方面,第一方面的第一種實(shí)施方式至第二種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第一方面的第三種實(shí)施方式中,所述根據(jù)所述第一卷積層圖像、所述第二卷積層圖像、所述第一池化層圖像、所述第二池化層圖像、所述全連接層圖像得到卷積神經(jīng)網(wǎng)絡(luò)模型之前,還包括:
使用預(yù)設(shè)矩陣優(yōu)化所述全連接層圖像;
根據(jù)所述全連接層圖像確定所述車輛顏色與所述全連接層圖像的對應(yīng)關(guān)系。
結(jié)合本發(fā)明實(shí)施例的第一方面,第一方面的第一種實(shí)施方式至第三種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第一方面的第四種實(shí)施方式中,所述根據(jù)所述卷積神經(jīng)網(wǎng)絡(luò)模型的輸出結(jié)果確定所述車輛的車頭的顏色之后,還包括:
根據(jù)所述車輛的車頭的顏色確定所述車輛的顏色。
本發(fā)明的第二方面提供一種裝置,包括:
獲取模塊,用于獲取車輛的車輛圖像;
識別模塊,用于識別所述車輛圖像中的車牌信息,所述車牌信息包括車牌的長度、寬度以及位置;
第一確定模塊,用于根據(jù)所述車牌信息確定車頭區(qū)域以及所述車頭區(qū)域的車頭圖像;
轉(zhuǎn)換模塊,用于將所述車頭圖像轉(zhuǎn)換成YUV格式的圖像,得到車頭YUV圖像;
抽取模塊,用于從所述車頭YUV圖像中抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)并重新組合得到預(yù)設(shè)大小的車頭YUYV圖像;
訓(xùn)練模塊,用于訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型;
輸入模塊,用于將所述車頭YUYV圖像輸入至基于YUYV圖像訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型;
第二確定模塊,用于根據(jù)所述卷積神經(jīng)網(wǎng)絡(luò)模型的輸出結(jié)果確定所述車輛的車頭的顏色。
結(jié)合本發(fā)明實(shí)施例的第二方面,在本發(fā)明實(shí)施例的第二方面的第一種實(shí)施方式中,所述抽取模塊包括:
抽取單元,用于從所述車頭YUV圖像中按照預(yù)設(shè)條件抽取出所述Y分量數(shù)據(jù)、所述U分量數(shù)據(jù)、所述V分量數(shù)據(jù);
組合單元,用于按照所述Y分量數(shù)據(jù)、所述U分量數(shù)據(jù)、所述Y分量數(shù)據(jù)、所述V分量數(shù)據(jù)的順序組合得到所述車頭YUYV圖像。
結(jié)合本發(fā)明實(shí)施例的第二方面,第二方面的第一種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第二方面的第二種實(shí)施方式中,所述訓(xùn)練模塊包括:
輸入單元,用于輸入一張以上的關(guān)于車輛顏色的車輛顏色YUYV圖像;
第一生成單元,用于將所述車輛顏色YUYV圖像經(jīng)過卷積生成第一卷積層圖像;
第二生成單元,用于將所述第一卷積層圖像經(jīng)過池化生成第一池化層圖像;
第三生成單元,用于將所述第一池化層圖像經(jīng)過卷積生成第二卷積層圖像并根據(jù)所述第一池化層圖像生成第二池化層圖像;
第四生成單元,用于根據(jù)所述第一卷積層圖像、所述第二卷積層圖像、所述第一池化層圖像、所述第二池化層圖像生成全連接層圖像;
訓(xùn)練單元,用于根據(jù)所述第一卷積層圖像、所述第二卷積層圖像、所述第一池化層圖像、所述第二池化層圖像、所述全連接層圖像得到卷積神經(jīng)網(wǎng)絡(luò)模型;
函數(shù)單元,用于使用對比損失函數(shù)優(yōu)化所述卷積神經(jīng)網(wǎng)絡(luò)模型。
結(jié)合本發(fā)明實(shí)施例的第二方面,第二方面的第一種實(shí)施方式至第二種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第二方面的第三種實(shí)施方式中,所述訓(xùn)練模塊還包括:
優(yōu)化單元,用于使用預(yù)設(shè)矩陣優(yōu)化所述全連接層圖像;
對應(yīng)單元,用于根據(jù)所述全連接層圖像確定所述車輛顏色與所述全連接層圖像的對應(yīng)關(guān)系。
結(jié)合本發(fā)明實(shí)施例的第二方面,第二方面的第一種實(shí)施方式至第三種實(shí)施方式中任一種,在本發(fā)明實(shí)施例的第二方面的第四種實(shí)施方式中,還包括:
第三確定模塊,用于根據(jù)車輛的車頭的顏色確定車輛的顏色。
從以上技術(shù)方案可以看出,本發(fā)明實(shí)施例具有以下優(yōu)點(diǎn):
本發(fā)明實(shí)施例提供一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法及裝置,提供一種基于深度學(xué)習(xí)的車輛顏色識別方法,采用車頭顏色信息代替車身局部顏色信息,減少了對車身局部顏色信息待識別區(qū)域定位的要求,增強(qiáng)了車頭顏色識別對局部光照的魯棒性。同時,針對對整個車頭進(jìn)行顏色識別耗時的問題,采用彩色圖像轉(zhuǎn)YUV灰度圖像的方法,構(gòu)建出YUYV的顏色梯度特征降低數(shù)據(jù)維數(shù)用于樣本訓(xùn)練及識別。
附圖說明
為了更清楚地說明本發(fā)明實(shí)施例中的技術(shù)方案,下面將對實(shí)施例中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實(shí)施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1是本發(fā)明實(shí)施例中一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法的一個實(shí)施例示意圖;
圖2是本發(fā)明實(shí)施例中一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法的車頭區(qū)域示意圖;
圖3是本發(fā)明實(shí)施例中一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法的圖像數(shù)據(jù)示意圖;
圖4是本發(fā)明實(shí)施例中一種裝置的一個實(shí)施例示意圖。
具體實(shí)施方式
為了使本技術(shù)領(lǐng)域的人員更好地理解本發(fā)明方案,下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分的實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實(shí)施例,都應(yīng)當(dāng)屬于本發(fā)明保護(hù)的范圍。
本發(fā)明的說明書和權(quán)利要求書及上述附圖中的術(shù)語“第一”、“第二”等(如果存在)是用于區(qū)別類似的對象,而不必用于描述特定的順序或先后次序。應(yīng)該理解這樣使用的數(shù)據(jù)在適當(dāng)情況下可以互換,以便這里描述的實(shí)施例能夠以除了在這里圖示或描述的內(nèi)容以外的順序?qū)嵤?。此外,術(shù)語“包括”和“具有”以及他們的任何變形,意圖在于覆蓋不排他的包含,例如,包含了一系列步驟或單元的過程、方法、系統(tǒng)、產(chǎn)品或設(shè)備不必限于清楚地列出的那些步驟或單元,而是可包括沒有清楚地列出的或?qū)τ谶@些過程、方法、產(chǎn)品或設(shè)備固有的其它步驟或單元。
本發(fā)明實(shí)施例一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法,提供一種基于深度學(xué)習(xí)的車輛顏色的識別方法。請參閱圖1,圖1是本發(fā)明實(shí)施例的一個實(shí)施例示意圖。
步驟101、獲取車輛的車輛圖像;
獲取車輛的圖像,主要是獲取車輛正面含有車牌的圖像。
步驟102、識別車輛圖像中的車牌信息;
當(dāng)獲取到車輛的車輛圖像后,會對車輛圖像中的車牌進(jìn)行定位,根據(jù)車牌定位的結(jié)果獲取車牌的大小、長寬值和位置,得到車牌信息。
步驟103、根據(jù)車牌信息確定車頭區(qū)域以及車頭區(qū)域的車頭圖像;
當(dāng)?shù)玫杰嚺菩畔⒑?,會根?jù)預(yù)定的方法確定出車輛的車頭區(qū)域。在實(shí)際應(yīng)用中,可以按照車牌的長寬值進(jìn)行擴(kuò)大得到基于車牌長寬值的車頭區(qū)域。此處請參閱圖2,例如,從上下左右四個方向以不同比例根據(jù)車牌的長寬信息外擴(kuò)獲得車頭區(qū)域??梢允菍④嚺谱筮吔缦蜃笸鈹U(kuò)1個車牌寬度得到車頭區(qū)域的左邊界;以車牌右邊界向右外擴(kuò)1.5個車牌寬度得到車頭區(qū)域的右邊界;以車牌上邊界向上外擴(kuò)4個車牌寬度得到車頭區(qū)域的上邊界;以車牌下邊界向下外擴(kuò)2個車牌寬度得到車頭區(qū)域的下邊界。這樣從四個方向分別外擴(kuò)得到車頭區(qū)域,然后根據(jù)車頭區(qū)域得到相關(guān)的車頭區(qū)域的車頭圖像。
步驟104、將車頭圖像轉(zhuǎn)換成YUV格式的圖像,得到車頭YUV圖像;
將獲取到的彩色的車頭圖像裝換成YUV格式的圖像,YUV圖像中前一半數(shù)據(jù)為Y分量數(shù)據(jù),即灰度圖像數(shù)據(jù),后一半數(shù)據(jù)存儲為UV數(shù)據(jù),即色差信息圖像。
步驟105、從車頭YUV圖像中抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)并重新組合得到預(yù)設(shè)大小的車頭YUYV圖像;
將得到的車頭YUV圖像中按照既定的規(guī)則抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù),然后對數(shù)據(jù)重新組合得到車頭YUYV圖像。此處請參閱圖3,具體的實(shí)現(xiàn)方式可以如下:將車頭YUV圖像的數(shù)據(jù)按照數(shù)據(jù)位置順序標(biāo)記,Y分量數(shù)據(jù)的第一行第一列標(biāo)記為Y11,第一行第二列記為Y12,第二行第一列記為Y21。以此類推將Y、U、V分量數(shù)據(jù)都標(biāo)記。其中Y分量數(shù)據(jù)每一個數(shù)據(jù)都有相應(yīng)的標(biāo)記,U、V分量數(shù)據(jù)對應(yīng)Y數(shù)據(jù)進(jìn)行標(biāo)記,U分量數(shù)據(jù)只有奇數(shù)的列中存在,例如U11、U13、U15等;V分量數(shù)據(jù)只有偶數(shù)的列中存在,例如V12、V14、V16等。從車頭YUV圖像中的第一行第一列數(shù)據(jù)位Y11開始抽取,然后抽取與Y11坐標(biāo)相同的U分量數(shù)據(jù)U11,再抽取與Y11相鄰的Y12以及對應(yīng)的V分量數(shù)據(jù)V12,這四個組成一個新的數(shù)據(jù)組合Y11U11Y12V12。Y11U11Y12V12為車頭YUYV圖像的第一行的開始的數(shù)據(jù),之后再在車頭YUV圖像的Y分量數(shù)據(jù)中開始抽取,抽取與Y12相隔兩列的Y15以及相鄰的Y16,再對應(yīng)抽取U15和V16。所以抽取規(guī)則是抽取相鄰兩列的Y分量數(shù)據(jù)以及對應(yīng)的U、V分量數(shù)據(jù)后組合成一組數(shù)據(jù),之后相隔兩列再次抽取相鄰的兩組Y分量數(shù)據(jù)以及對應(yīng)的U、V分量數(shù)據(jù),這樣組成第一行車頭YUYV圖像。對于第二行的車頭YUYV圖像的數(shù)據(jù),從與第一行Y分量數(shù)據(jù)相隔一行的Y分量數(shù)據(jù)開始抽取,即第一行車頭YUYV圖像從Y11開始抽取,第二行車頭YUYV圖像從Y31開始抽取,其他抽取規(guī)則與前述相同。最后得到全部的車頭YUYV圖像的數(shù)據(jù),如圖3所示。抽取數(shù)據(jù)直到得到預(yù)設(shè)大小的車頭YUYV圖像后停止,例如可以是128像素乘以32像素的車頭YUYV圖像。
步驟106、訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型;
對于卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,具體方法如下:獲取多種顏色的多張圖片,例如可以獲取黑、白、銀、灰、紅、黃、藍(lán)、綠、紫、棕、橙、粉等顏色,每種收集2000張不同角度及尺寸的128像素乘以32像素的YUYV圖像。YUYV圖像的獲取方式與步驟105中獲取車頭YUYV圖像的方式相似。獲取到顏色的YUYV圖像后,進(jìn)行數(shù)據(jù)處理,將其并歸一化到-1到1。然后使用caffe框架,設(shè)計(jì)5層網(wǎng)絡(luò)模型。第一層為17乘以5的卷積層,生成6個maps;第二層為4乘以4的pooling層,對應(yīng)6個maps;第三層為9乘以2的卷積層,生成16個maps;第四層為2乘以2的pooling層,對應(yīng)16個maps;第五層為10乘以3的卷積層,生成500個maps;第六層為全連接層,然后分進(jìn)行矩陣乘以此得到第六、第七、第八層以及最后的第九層輸出結(jié)果。具體的,各層的網(wǎng)絡(luò)結(jié)構(gòu)是:第一層為輸入的128*32大小的YUYV圖像,第一層輸入圖像到第二層中,第二層命名為C1 filter,中間有6個17*5像素大小的卷積核組成,經(jīng)過6次卷積后,第二層C1 filter得到6個112*28大小的圖像。第三層圖像命名為P1 filter,第二層C1 filter到第三層P1 filter中間由6個4*4大小的池化層組成,池化層即pooling層。目的是對圖像中4*4大小的區(qū)域選取最大的像素值作為輸出,降低圖像的維度,提取顯著特征。經(jīng)過池化層后,第三層P1 filter為6個28*7大小的圖像。將第三層P1 filter做兩種不同處理,第四層命名為C2 filter。第一種處理與之前處理相同,即第三層P1 filter到第四層C2 filter之間有16*6個9*2大小的卷積核組成,同樣進(jìn)行卷積,第三層P1 filter的6個圖像分別與第三層到第四層之間的16個卷積核卷積后相加組合,一共進(jìn)行16次,所以第四層C2 filter輸出16個20*6大小的圖像。另一種處理是將第三層的P1 filter的6*28*7的圖像重新生成1176*1的向量,然后經(jīng)過一個100*1176的矩陣乘,得到100*1的新向量FC1 filter。第五層命名為P2 filter。第五層P2 filter還是一個池化層,16個2*2大小的選取最大值的池化層與第四層輸出的16個圖像一一對應(yīng),第五層P2 filter輸出16個10*3大小的圖像。第六層命名為FC2 filter,第六層FC2 filter為全連接層,大小是100*1的向量,第五層到第六層是將第五層中的16*10*3的圖像重新生成1*480的圖像,第五層P2 filter到第六層FC2 filter之間經(jīng)過一個100*480的矩陣乘,生成屬于第六層的100*1的向量。第七層命名為FCplus filter,第七層FCplus filter為將FC1 filter與FC2 filter做向量的連接,得到200*1維的向量。第八層命名為FC filter,第七層FCplus filter到第八層FC filter經(jīng)過一個100*200的矩陣乘,得到第八層FC filter。第九層為輸出的結(jié)果,命名為Output,第九層Output經(jīng)過第八層到第九層的12*100的矩陣乘,最后獲得最后的12*1的向量輸出,對應(yīng)著每類顏色的概率。由于車顏色受到光線照射和陰影遮擋容易引起類別間的方差很小,類別內(nèi)的方差變大,增加了識別的難度。解決類見方差大及類內(nèi)方差小的問題變成了改善識別網(wǎng)絡(luò)的關(guān)鍵問題。通過增加一個對比損失函數(shù)優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)模型,具有表示類內(nèi)及類間樣本全連接層特征的差異性,根據(jù)差異性結(jié)合之前網(wǎng)絡(luò)的分類調(diào)節(jié)損失函數(shù)一起調(diào)節(jié)網(wǎng)絡(luò)參數(shù),減少類內(nèi)差異性增加類間差異性。具體的,在FC1 filter以及FC2 filter后面,增加一個對比損失函數(shù)。公式為:
公式中fi表示第i個樣本的FC1 filter以及FC2 filter特征,fj表示第j個樣本的FC1 filter以及FC2 filter特征,yij表示第i個樣本和第j個樣本是否為同一類樣本,如果兩個樣本的為同一種顏色,則yij=1,否則yij=-1。公式中,當(dāng)兩個樣本為同一種顏色時,兩個不同樣本但相同顏色的樣本的FC1 filter以及FC2filter的特征目標(biāo)應(yīng)該使它們相似,相似程度用兩個特征的L2正則項(xiàng)表示,根據(jù)計(jì)算損失調(diào)節(jié)網(wǎng)絡(luò)。當(dāng)兩個樣本不是同一種顏色時,兩個樣本的FC filter的特征差距應(yīng)盡量大,根據(jù)調(diào)節(jié)網(wǎng)絡(luò),其中2為固定參數(shù)。最后網(wǎng)絡(luò)的損失=Verif(fi,fj,yij)+Ident(f,t,θid)。
步驟107、將車頭YUYV圖像輸入至基于YUYV圖像訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型;
得到車頭YUYV圖像后,將車頭YUYV圖像輸入到經(jīng)過訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型。
步驟108、根據(jù)卷積神經(jīng)網(wǎng)絡(luò)模型的輸出結(jié)果確定車輛的車頭的顏色;
將車頭YUYV圖像輸入至基于YUYV圖像訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型后,得到輸出的顏色后確定車頭的顏色即為卷積神經(jīng)網(wǎng)絡(luò)模型輸出的顏色結(jié)果。
步驟109、根據(jù)車頭的顏色確定車輛的顏色;
得到車頭的顏色后,從車頭的顏色確定整體車輛的顏色。這種采用車頭區(qū)域整體顏色信息代替車身局部顏色信息,減少了對車身局部顏色待識別區(qū)域定位的要求,增強(qiáng)了車頭區(qū)域整體顏色識別對局部光照的魯棒性。
上面從本發(fā)明實(shí)施例的一種基于卷積神經(jīng)網(wǎng)絡(luò)模型鑒別車輛顏色的方法進(jìn)行描述,下面對本發(fā)明實(shí)施例的一種裝置進(jìn)行描述。
請參閱圖4,本發(fā)明實(shí)施例的一種裝置包括:
裝置包括獲取模塊401、識別模塊402、第一確定模塊403、轉(zhuǎn)換模塊404、抽取模塊405、訓(xùn)練模塊406、輸入模塊407、第二確定模塊408、第三確定模塊409。
獲取模塊401,用于獲取車輛的車輛圖像。
識別模塊402,用于識別車輛圖像中的車牌信息,車牌信息包括車牌的長度、寬度以及位置。
第一確定模塊403,用于根據(jù)車牌信息確定車頭區(qū)域以及車頭區(qū)域的車頭圖像。
轉(zhuǎn)換模塊404,用于將車頭圖像轉(zhuǎn)換成YUV格式的圖像,得到車頭YUV圖像。
抽取模塊405,用于從車頭YUV圖像中抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)并重新組合得到預(yù)設(shè)大小的車頭YUYV圖像。
進(jìn)一步的,抽取模塊405包括抽取單元4051、組合單元4052。
抽取單元4051,用于從車頭YUV圖像中按照預(yù)設(shè)條件抽取出Y分量數(shù)據(jù)、U分量數(shù)據(jù)、V分量數(shù)據(jù)。
組合單元4052,用于按照Y分量數(shù)據(jù)、U分量數(shù)據(jù)、Y分量數(shù)據(jù)、V分量數(shù)據(jù)的順序組合得到車頭YUYV圖像。
訓(xùn)練模塊406,用于訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)模型。
進(jìn)一步的,訓(xùn)練模塊406包括輸入單元4061、第一生成單元4062、第二生成單元4063、第三生成單元4064、第四生成單元4065、訓(xùn)練單元4066、優(yōu)化單元4067、對應(yīng)單元4068。
輸入單元4061,用于輸入一張以上的關(guān)于車輛顏色的車輛顏色YUYV圖像。
第一生成單元4062,用于將車輛顏色YUYV圖像經(jīng)過卷積生成第一卷積層圖像。
第二生成單元4063,用于將第一卷積層圖像經(jīng)過池化生成第一池化層圖像。
第三生成單元4064,用于將第一池化層圖像經(jīng)過卷積生成第二卷積層圖像并根據(jù)第一池化層圖像生成第二池化層圖像。
第四生成單元4065,用于根據(jù)第一卷積層圖像、第二卷積層圖像、第一池化層圖像、第二池化層圖像生成全連接層圖像。
訓(xùn)練單元4066,用于根據(jù)第一卷積層圖像、第二卷積層圖像、第一池化層圖像、第二池化層圖像、全連接層圖像得到卷積神經(jīng)網(wǎng)絡(luò)模型。
函數(shù)單元4069,用于使用對比損失函數(shù)優(yōu)化所述卷積神經(jīng)網(wǎng)絡(luò)模型。
優(yōu)化單元4067,用于使用預(yù)設(shè)矩陣優(yōu)化全連接層圖像。
對應(yīng)單元4068,用于根據(jù)全連接層圖像確定車輛顏色與全連接層圖像的對應(yīng)關(guān)系。
輸入模塊407,用于將車頭YUYV圖像輸入至基于YUYV圖像訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型。
第二確定模塊408,用于根據(jù)卷積神經(jīng)網(wǎng)絡(luò)模型的輸出結(jié)果確定車輛的車頭的顏色。
第三確定模塊409,用于根據(jù)車輛的車頭的顏色確定車輛的顏色。
所屬領(lǐng)域的技術(shù)人員可以清楚地了解到,為描述的方便和簡潔,上述描述的系統(tǒng),裝置和單元的具體工作過程,可以參考前述方法實(shí)施例中的對應(yīng)過程,在此不再贅述。
在本申請所提供的幾個實(shí)施例中,應(yīng)該理解到,所揭露的系統(tǒng),裝置和方法,可以通過其它的方式實(shí)現(xiàn)。例如,以上所描述的裝置實(shí)施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實(shí)際實(shí)現(xiàn)時可以有另外的劃分方式,例如多個單元或組件可以結(jié)合或者可以集成到另一個系統(tǒng),或一些特征可以忽略,或不執(zhí)行。另一點(diǎn),所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些接口,裝置或單元的間接耦合或通信連接,可以是電性,機(jī)械或其它的形式。
所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位于一個地方,或者也可以分布到多個網(wǎng)絡(luò)單元上??梢愿鶕?jù)實(shí)際的需要選擇其中的部分或者全部單元來實(shí)現(xiàn)本實(shí)施例方案的目的。
以上所述,以上實(shí)施例僅用以說明本發(fā)明的技術(shù)方案,而非對其限制;盡管參照前述實(shí)施例對本發(fā)明進(jìn)行了詳細(xì)的說明,本領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解:其依然可以對前述各實(shí)施例所記載的技術(shù)方案進(jìn)行修改,或者對其中部分技術(shù)特征進(jìn)行等同替換;而這些修改或者替換,并不使相應(yīng)技術(shù)方案的本質(zhì)脫離本發(fā)明各實(shí)施例技術(shù)方案的精神和范圍。