:
[0122]對所述patch建立高斯金字塔,所述高斯金字塔是按照二次冪進(jìn)行低通濾波作平 滑處理,將低通濾波后的圖像作帶通濾波,生成多個(gè)尺度的圖像。具體實(shí)現(xiàn)方法參見實(shí)施例 一的描述,在此不再累述。
[0123] 在步驟S503中,根據(jù)轉(zhuǎn)換后的輸入圖像的patch的多個(gè)不同尺度的圖像的像素,調(diào) 整對應(yīng)尺度的轉(zhuǎn)換后的ground truth的patch的多個(gè)不同尺度的圖像上的像素標(biāo)記,其中, 所述ground truth的patch是所述輸入圖像的patch對應(yīng)的ground truth的patch;
[0124] 在本發(fā)明實(shí)施例中,將輸入圖像的patch的多個(gè)不同尺度的圖像和調(diào)整像素標(biāo)記 后的ground truth的patch的多個(gè)不同尺度的圖像保存為HDF5格式。
[0125] 在本發(fā)明實(shí)施例中,輸入圖像的patch在在尺度改變過程中可能會(huì)丟失像素,需要 對尺度變換后的圖像中的像素進(jìn)行重新標(biāo)定。
[0126] 在步驟S504中,對所述圖像集進(jìn)行尺度歸一化,并將歸一化后的圖像集輸入至深 度神經(jīng)網(wǎng)絡(luò)系統(tǒng),以訓(xùn)練所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng);
[0127] 在本發(fā)明實(shí)施例中,訓(xùn)練所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)是用于確定所述深度神經(jīng)網(wǎng)絡(luò)系 統(tǒng)的參數(shù),所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)可以為卷積神經(jīng)網(wǎng)絡(luò)和/或反卷積神經(jīng)網(wǎng)絡(luò)。
[0128] 在步驟S505中,將待處理圖像輸入至所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng),通過所述深度神經(jīng) 網(wǎng)絡(luò)的層級學(xué)習(xí)后,在所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)的最后一層全連接層采用pixel-wise對所述 待處理圖像中每一個(gè)像素進(jìn)行預(yù)測,以確定所述像素的分類。
[0129] 較佳的是,選用KITTI -ROAD中的數(shù)據(jù)集作為待處理圖像的測試集。
[0130] 在本發(fā)明實(shí)施例中,pixel-wise是對待處理圖像中的每一個(gè)像素進(jìn)行分類,以交 通道路為例,所述像素屬于道路區(qū)域,標(biāo)記為1,所述像素不屬于道路區(qū)域,標(biāo)記為〇,輸出一 個(gè)一維的與待處理圖像像素相同的數(shù)組,將所述數(shù)組還原為與待處理圖像大小相同的圖 像,還原后的圖像即為從待輸入圖像中提取出正確道路區(qū)域。如圖6a是在KITTI-R0AD、 LabelMe與CamVid數(shù)據(jù)集中取復(fù)雜的交通場景(含有多條道路)分別采用原圖、superpixel、 patch、多尺度和patch+多尺度訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)后進(jìn)行特征提取的精度比較,如圖6b是在 KITTI-R0AD、LabelMe與CamVid數(shù)據(jù)集中取復(fù)雜的交通場景(含有多條道路)分別采用原圖、 superpixel、patch、多尺度和patch+多尺度訓(xùn)練反卷積神經(jīng)網(wǎng)絡(luò)后進(jìn)行特征提取的精度比 較,可知,在KITTI-R0AD數(shù)據(jù)集中取復(fù)雜的交通場景并采用patch-多尺度的方法訓(xùn)練卷積 神經(jīng)網(wǎng)絡(luò)和/或反卷積神經(jīng)網(wǎng)絡(luò)后提高了局部特征提取的精度。
[0131] 通過本發(fā)明實(shí)施例訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)系統(tǒng),確定所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)的參數(shù), 提高了深度學(xué)習(xí)訓(xùn)練中局部特征提取的精度。
[0132] 實(shí)施例四:
[0133] 圖7示出了本發(fā)明實(shí)施例四提供的深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練裝置的組成示意圖,為了 便于說明,僅示出了與本發(fā)明實(shí)施例相關(guān)的部分,詳述如下:
[0134] 分割模塊71,用于將訓(xùn)練集中圖像分割為多個(gè)不同的patch;
[0135] 進(jìn)一步的,所述分割模塊71具體包括:
[0136] 獲取單元、設(shè)置單元、標(biāo)記單元以及歸一化單元;
[0137] 所述獲取單元,用于獲取訓(xùn)練集,所述訓(xùn)練集包括待輸入圖像和所述輸入圖像對 應(yīng)的ground truth;
[0138] 所述設(shè)置單元,用于設(shè)置一個(gè)固定大小的滑動(dòng)窗口,以一定的步長滑動(dòng)分割所述 輸入圖像及其所對應(yīng)的ground truth,將所述輸入圖像及其所對應(yīng)的ground truth分別分 割為多個(gè)不同的patch;
[0139]所述標(biāo)記單元,用于根據(jù)所述輸入圖像的patch的像素,在所述輸入圖像的patch 所對應(yīng)的所述ground truth的patch上進(jìn)行像素標(biāo)記;
[0140] 所述歸一化單元,用于對所述輸入圖像的patch和所述ground truth的patch進(jìn)行 尺度歸一化。
[0141] 轉(zhuǎn)換模塊72,用于將所述多個(gè)不同的patch轉(zhuǎn)換為包括多個(gè)不同尺度的圖像的圖 像集;
[0142] 進(jìn)一步的,所述轉(zhuǎn)換模塊72具體用于:
[0143] 將所述多個(gè)不同的patch通過拉普拉斯金字塔算法轉(zhuǎn)換為包括多個(gè)不同尺度的圖 像的圖像集。
[0144] 處理模塊73,用于對所述圖像集進(jìn)行尺度歸一化,并將歸一化后的圖像集輸入至 深度神經(jīng)網(wǎng)絡(luò)系統(tǒng),以訓(xùn)練所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)。
[0145] 本發(fā)明實(shí)施例提供的深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練裝置可以使用在前述對應(yīng)的方法實(shí)施 例一中,詳情參見上述實(shí)施例一的描述,在此不再贅述。
[0146] 通過本發(fā)明實(shí)施例訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)系統(tǒng),確定所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)的參數(shù), 提高了深度學(xué)習(xí)訓(xùn)練中局部特征提取的精度。
[0147] 實(shí)施例五:
[0148] 圖8示出了本發(fā)明實(shí)施例五提供的深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練裝置的組成示意圖,為了 便于說明,僅示出了與本發(fā)明實(shí)施例相關(guān)的部分,詳述如下:
[0149] 分割模塊81,用于將訓(xùn)練集中的圖像分割為多個(gè)不同的patch;
[0150] 進(jìn)一步的,所述分割模塊81具體包括:
[0151] 獲取單元、設(shè)置單元、標(biāo)記單元以及歸一化單元;
[0152] 所述獲取單元,用于獲取訓(xùn)練集,所述訓(xùn)練集包括待輸入圖像和所述輸入圖像對 應(yīng)的ground truth;
[0153] 所述設(shè)置單元,用于設(shè)置一個(gè)固定大小的滑動(dòng)窗口,以一定的步長滑動(dòng)分割所述 輸入圖像及其所對應(yīng)的ground truth,將所述輸入圖像及其所對應(yīng)的ground truth分別分 割為多個(gè)不同的patch;
[0154] 所述標(biāo)記單元,用于用于根據(jù)所述輸入圖像的patch的像素,在所述輸入圖像的 patch所對應(yīng)的所述ground truth的patch上進(jìn)行像素標(biāo)記;
[0155] 所述歸一化單元,用于對所述輸入圖像的patch和所述ground truth的patch進(jìn)行 尺度歸一化。
[0156]轉(zhuǎn)換模塊82,用于將所述多個(gè)不同的patch轉(zhuǎn)換為包括多個(gè)不同尺度的圖像的圖 像集;
[0157] 進(jìn)一步的,所述轉(zhuǎn)換模塊82具體用于:
[0158] 將所述多個(gè)不同的patch通過拉普拉斯金字塔算法轉(zhuǎn)換為包括多個(gè)不同尺度的圖 像的圖像集。
[0159]調(diào)整模塊83,用于根據(jù)轉(zhuǎn)換后的所述輸入圖像的patch的多個(gè)不同尺度的圖像的 像素,調(diào)整對應(yīng)尺度的轉(zhuǎn)換后的所述ground truth的patch的多個(gè)不同尺度的圖像上的像 素標(biāo)記,其中,所述ground truth的patch是所述輸入圖像的patch對應(yīng)的ground truth的 patch〇
[0160] 處理模塊84,用于對所述圖像集進(jìn)行尺度歸一化,并將歸一化后的圖像集輸入至 神經(jīng)網(wǎng)絡(luò)系統(tǒng),以訓(xùn)練所述神經(jīng)網(wǎng)絡(luò)系統(tǒng)。
[0161] 本發(fā)明實(shí)施例提供的深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練裝置可以使用在前述對應(yīng)的方法實(shí)施 例二中,詳情參見上述實(shí)施例二的描述,在此不再贅述。
[0162] 通過本發(fā)明實(shí)施例訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)系統(tǒng),確定所述深度神經(jīng)網(wǎng)絡(luò)系統(tǒng)的參數(shù), 提高了深度學(xué)習(xí)訓(xùn)練中局部特征提取的精度。
[0163] 實(shí)施例六:
[0164] 圖9示出了本發(fā)明實(shí)施例五提供的深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練裝置的組成示意圖,為了 便于說明,僅示出了與本發(fā)明實(shí)施例相關(guān)的部分,詳述如下:
[0165] 分割模塊91,用于將訓(xùn)練集中的圖像分割為多個(gè)不同的patch;
[0166] 進(jìn)一步的,所述分割模塊91具體包括:
[0167] 獲取單元、設(shè)置單元、標(biāo)記單元以及歸一化單元;
[0168] 所述獲取單元,用于獲取訓(xùn)練集,所述訓(xùn)練集包括待輸入圖像和所述輸入圖像對 應(yīng)的ground truth;
[0169] 所述設(shè)置單元,用于設(shè)置一個(gè)固定大小的滑動(dòng)窗口,以一定的步長滑動(dòng)分割所述 輸入圖像及其所對應(yīng)的ground truth,將所述輸入圖像及其所對應(yīng)的ground truth分別分 割為多個(gè)不同的patch;
[0170] 所述標(biāo)記單元,用于根據(jù)所述輸入圖像的patch的像素,在所述輸入圖像的patch 所對應(yīng)的