亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法

文檔序號:10471936閱讀:342來源:國知局
一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法
【專利摘要】本發(fā)明公開了一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,該方法是利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進行特征提取,利用CNN提取的特征有效地將圖片按照其背景清晰程度進行分類;同時利用遷移學(xué)習(xí)的方法,用擁有大量已知標記的ImageNet圖片集進行預(yù)訓(xùn)練,解決了樣本圖片集中已知背景清晰度值圖片較少的缺陷,從而獲得較好的CNN參數(shù);進一步利用少量的已知背景清晰度值的樣本圖片,對參數(shù)進行調(diào)整,使CNN參數(shù)適應(yīng)待檢測圖片集;得到調(diào)整好的CNN參數(shù)就可以進行待檢測圖片的背景清晰度檢測。本發(fā)明的檢測方法,使得背景清晰度檢測能夠達到高度的精確性。
【專利說明】
-種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明設(shè)及一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,主要關(guān)于機器學(xué)習(xí)中 深度學(xué)習(xí)的應(yīng)用,屬于人工智能圖片識別技術(shù)領(lǐng)域。
【背景技術(shù)】
[0002] 深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,含多隱層的多層感知器就是一種深度 學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示(屬性類別或特征),W發(fā) 現(xiàn)數(shù)據(jù)的分布式特征表示。BP算法作為傳統(tǒng)訓(xùn)練多層網(wǎng)絡(luò)的典型算法,實際上對于僅含幾 層網(wǎng)絡(luò),該訓(xùn)練方法就已很不理想。深度結(jié)構(gòu)(設(shè)及多個非線性處理單元層)非凸目標代價 函數(shù)中普遍存在的局部最小是訓(xùn)練困難的主要來源。
[0003] 當(dāng)前多數(shù)分類、回歸等學(xué)習(xí)方法為淺層結(jié)構(gòu)算法,其局限性在于有限樣本和計算 單元情況下對復(fù)雜函數(shù)的表示能力有限,針對復(fù)雜分類問題其泛化能力受到一定制約。深 度學(xué)習(xí)可通過學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表 示,并展現(xiàn)了強大的從少數(shù)樣本集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。深度學(xué)習(xí)就是一種特征 學(xué)習(xí)方法,把原始數(shù)據(jù)通過一些簡單的但是非線性的模型轉(zhuǎn)變成為更高層次的,更加抽象 的表達。通過足夠多的轉(zhuǎn)換的組合,非常復(fù)雜的函數(shù)也可W被學(xué)習(xí)。深度學(xué)習(xí)的核屯、方面 是,上述各層的特征都不是利用人工工程來設(shè)計的,而是使用一種通用的學(xué)習(xí)過程從數(shù)據(jù) 中學(xué)到的。
[0004] Lecun等人提出的卷積神經(jīng)網(wǎng)絡(luò)(CNNs)是第一個真正多層結(jié)構(gòu)學(xué)習(xí)算法,而本發(fā) 明所用到的核屯、知識就是卷積神經(jīng)網(wǎng)絡(luò),它利用空間相對關(guān)系減少參數(shù)數(shù)目W提高BP訓(xùn)練 性能。卷積神經(jīng)網(wǎng)絡(luò)在圖像識別領(lǐng)域取得很好的效果,在識別手寫字符上達到了很好的效 果。但其網(wǎng)絡(luò)結(jié)構(gòu)對圖像識別的效果和效率有較大的影響,為改善識別性能,通過重復(fù)使用 較小卷積核,設(shè)計并實現(xiàn)一種新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),有效地減少訓(xùn)練參數(shù)的數(shù)量,并能夠 提高識別的準確率。卷積神經(jīng)網(wǎng)絡(luò)算法與圖像識別領(lǐng)域當(dāng)前具有世界先進水平的ILSVRC挑 戰(zhàn)賽中取得較好成績的算法對比實驗,驗證運種結(jié)構(gòu)的有效性。
[0005] 卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,需要大量的已知標記的樣本,如果含標記的樣本量不 夠,就容易造成系統(tǒng)的過度擬合。Jeff Donahue等人構(gòu)建了Decaf框架,其思想就是首先在 含有大量已知標記樣本的圖片集中進行預(yù)訓(xùn)練,調(diào)整卷積神經(jīng)網(wǎng)絡(luò)系統(tǒng)的參數(shù),利用遷移 學(xué)習(xí)將整個系統(tǒng)的參數(shù)遷移到要訓(xùn)練的圖片集中,運樣只需要少量的已知標記的樣本,就 能夠得到準確的分類。
[0006] 目前利用深度學(xué)習(xí)圖片識別的種類有很多,例如手寫字符,車牌號等,但是基于卷 積神經(jīng)網(wǎng)絡(luò)的用法并沒有開發(fā)完全,目前并沒有人工智能識別圖片中環(huán)境可見程度的好方 法,圖片背景的可見程度,即背景中事物的模糊程度,目前大部分圖片識別的過程都是識別 圖片中的物體,往往忽略了其背景環(huán)境中有用的信息。本發(fā)明主要就是用于解決運個問題。 識別圖片背景的可見程度的實用性很大,比如利用本專利在現(xiàn)實中根據(jù)圖片識別霧靈的等 級,其應(yīng)用前景很廣闊。

【發(fā)明內(nèi)容】

[0007] 本發(fā)明所要解決的技術(shù)問題是:提供一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方 法,檢測圖片中背景清晰程度,即背景中事物的模糊程度,提取背景環(huán)境中有用的信息,為 圖片識別提供參考。
[0008] 本發(fā)明為解決上述技術(shù)問題采用W下技術(shù)方案:
[0009] -種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,包括如下步驟:
[0010] 步驟1,將圖片庫ImageNet中已知標記的圖片W及未在圖片庫ImageNet中但已知 背景清晰度值的樣本圖片,均轉(zhuǎn)換成像素為256*256的灰度圖片;
[0011] 步驟2,對圖片庫Image化t中轉(zhuǎn)換后的灰度圖片進行預(yù)訓(xùn)練,利用卷積神經(jīng)網(wǎng)絡(luò)提 取所有灰度圖片的特征并進行分類,計算損失函數(shù),用隨機梯度下降法調(diào)整卷積參數(shù),使函 數(shù)損失在預(yù)定范圍內(nèi),得到初步調(diào)整后的卷積參數(shù);
[0012] 步驟3,對未在圖片庫ImageNet中但已知背景清晰度值的樣本圖片轉(zhuǎn)換后的灰度 圖片,基于步驟2初步調(diào)整后的卷積參數(shù),利用卷積神經(jīng)網(wǎng)絡(luò)提取特征并進行分類,得到其 清晰度值,與實際清晰度值作對比,計算損失函數(shù),用隨機梯度下降法繼續(xù)調(diào)整卷積參數(shù), 使函數(shù)損失在預(yù)定范圍內(nèi),得到最終調(diào)整后的卷積參數(shù);
[0013] 步驟4,將待檢測清晰度的圖片轉(zhuǎn)換成像素為256*256的灰度圖片,基于步驟3最終 調(diào)整后的卷積參數(shù),利用卷積神經(jīng)網(wǎng)絡(luò)提取特征并進行分類,得到待檢測清晰度圖片的清 晰度值。
[0014] 作為本發(fā)明的一個優(yōu)選方案,所述卷積神經(jīng)網(wǎng)絡(luò)包括依次由輸入到輸出的輸入 層、第一卷積層、第一向下采樣層、第二卷積層、第二向下采樣層、全連接層、輸出層,且除輸 入層、輸出層外,第一卷積層、第一向下采樣層、第二卷積層、第二向下采樣層、全連接層在 卷積神經(jīng)網(wǎng)絡(luò)所在層數(shù)分別為1、2、3、4、5層。
[0015 ]作為本發(fā)明的一個優(yōu)選方案,所述第一卷積層的卷積過程公式為:
庚中,1 = 1,χ?表示經(jīng)第一卷積層卷積后輸出的像素點的值, 表示輸入層中第i行j列像素點的值,W為卷積參數(shù),b為偏移量。
[0016] 作為本發(fā)明的一個優(yōu)選方案,所述第一向下采樣層的向下采樣過程公式為:
廷中,1 = 2,χ?表示經(jīng)第一向下采樣層采樣后輸出的像素點的值, .<1表示第一卷積層中第i行j列像素點的值,β為向下采樣參數(shù),b為偏移量。
[0017] 作為本發(fā)明的一個優(yōu)選方案,所述全連接層包括兩次全連接過程,且全連接過程 公式為:
其中,第一次全連接時1 = 5,第二次全連接時1 = 6,χ?表示經(jīng)全連 接后輸出的像素點的值,k表示像素點編號,第一次全連接時k=l,一,576,第二次全連接時 k=l,…,5〇,0為權(quán)重值。
[0018] 本發(fā)明采用W上技術(shù)方案與現(xiàn)有技術(shù)相比,具有W下技術(shù)效果:
[0019] 1、本發(fā)明基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,在樣本圖片不足的情況下, 利用遷移學(xué)習(xí)的思想,首先在含有大量已知標記的ImageNet圖片集中進行預(yù)訓(xùn)練,獲得CNN 參數(shù),并進一步對CNN參數(shù)進行調(diào)整,使之適應(yīng)待檢測圖片集,從而使待檢測圖片集的檢測 精確性更高。
[0020] 2、本發(fā)明基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,解決了圖片中背景清晰程度 檢測的問題,對實際應(yīng)用中如識別霧靈等級、空氣質(zhì)量等方面有很大的作用。
【附圖說明】
[0021] 圖1是本發(fā)明基于深度學(xué)習(xí)的圖片背景清晰度檢測方法的整體架構(gòu)圖。
[0022] 圖2是本發(fā)明基于深度學(xué)習(xí)的圖片背景清晰度檢測方法的流程圖。
[0023] 圖3是本發(fā)明中卷積神經(jīng)網(wǎng)絡(luò)的內(nèi)部結(jié)構(gòu)圖。
【具體實施方式】
[0024] 下面詳細描述本發(fā)明的實施方式,所述實施方式的示例在附圖中示出。下面通過 參考附圖描述的實施方式是示例性的,僅用于解釋本發(fā)明,而不能解釋為對本發(fā)明的限制。
[0025] 由于給定的一張圖片,其像素并不確定,而卷積神經(jīng)網(wǎng)絡(luò)中的輸入圖片像素要求 是固定的,所W首先要對圖片進行預(yù)處理,將其轉(zhuǎn)換成相同像素的圖片,并且已知對 ImageNet訓(xùn)練的過程中是將圖片全部轉(zhuǎn)換成256*256像素的圖片進行處理,故輸入的圖片 像素也固定為256*256像素,待處理的圖片像素大小不為256*256,則首先進行像素轉(zhuǎn)換,將 其轉(zhuǎn)換成256*256像素的圖片。由于圖片的清晰程度與其顏色并沒有很大的相關(guān)性,所W首 先應(yīng)將所有的圖片轉(zhuǎn)換成灰度的圖片。本發(fā)明根據(jù)清晰度值將圖片背景的清晰程度分為五 個等級,分別為優(yōu)、良、中、差、極差,W便更好的分析與測試。
[0026] 本發(fā)明主要包括Ξ個過程:預(yù)訓(xùn)練過程、調(diào)整過程和實際檢測過程。預(yù)訓(xùn)練過程是 用已知標記的圖片集Imag城et進行訓(xùn)練,其目的是為了獲得最初的α^Ν參數(shù);調(diào)整過程是利 用少量的已知背景清晰度值的樣本圖片,對CNN參數(shù)進行調(diào)整,使CNN參數(shù)適應(yīng)待檢測圖片 集;得到調(diào)整好的參數(shù)就可W進行待檢測圖片的檢測。
[0027] 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional化ural Network,CNN)是本發(fā)明的核屯、技術(shù),CNN 是一種前饋神經(jīng)網(wǎng)絡(luò),它的人工神經(jīng)元可W響應(yīng)一部分覆蓋范圍內(nèi)的周圍單元,對于大型 圖像處理有出色表現(xiàn)。它包括卷積層(alternating convolutional layer)和向下采樣層 (pooling layer)。最初的幾個階段是由卷積層和向下采樣層組成,卷積層的單元被組織在 特征圖中,在特征圖中,每一個單元通過一組叫做濾波器的權(quán)值被連接到上一層的特征圖 的一個局部塊,然后運個局部加權(quán)和被傳給一個非線性函數(shù),比如ReLU。在一個特征圖中的 全部單元享用相同的過濾器,不同層的特征圖使用不同的過濾器。使用運種結(jié)構(gòu)處于兩方 面的原因。首先,在數(shù)組數(shù)據(jù)中,比如圖像數(shù)據(jù),一個值的附近的值經(jīng)常是高度相關(guān)的,可W 形成比較容易被探測到的有區(qū)分性的局部特征。其次,不同位置局部統(tǒng)計特征不太相關(guān)的, 也就是說,在一個地方出現(xiàn)的某個特征,也可能出現(xiàn)在別的地方,所W不同位置的單元可W 共享權(quán)值W及可W探測相同的樣本。在數(shù)學(xué)上,運種由一個特征圖執(zhí)行的過濾操作是一個 離線的卷積,卷積神經(jīng)網(wǎng)絡(luò)也是運么得名來的。
[0028] 卷積神經(jīng)網(wǎng)絡(luò)具有很好的特征提取的效果,通過卷積神經(jīng)網(wǎng)絡(luò)提取的特征能夠很 好的對目標對象分類。
[0029] 在傳統(tǒng)的機器學(xué)習(xí)的框架下,學(xué)習(xí)的任務(wù)就是在給定充分訓(xùn)練數(shù)據(jù)的基礎(chǔ)上來學(xué) 習(xí)一個分類模型;然后利用運個學(xué)習(xí)到的模型來對測試文檔進行分類與預(yù)測。然而,我們看 到機器學(xué)習(xí)算法在當(dāng)前的Web挖掘研究中存在著一個關(guān)鍵的問題:一些新出現(xiàn)的領(lǐng)域中的 大量訓(xùn)練數(shù)據(jù)非常難得到。
[0030] 傳統(tǒng)的機器學(xué)習(xí)需要對每個領(lǐng)域都標定大量訓(xùn)練數(shù)據(jù),運將會耗費大量的人力與 物力。而沒有大量的標注數(shù)據(jù),會使得很多與學(xué)習(xí)相關(guān)研究與應(yīng)用無法開展。其次,傳統(tǒng)的 機器學(xué)習(xí)假設(shè)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)服從相同的數(shù)據(jù)分布。然而,在許多情況下,運種同分布 假設(shè)并不滿足。通常可能發(fā)生的情況如訓(xùn)練數(shù)據(jù)過期。運往往需要我們?nèi)ブ匦聵俗⒋罅康?訓(xùn)練數(shù)據(jù)W滿足我們訓(xùn)練的需要,但標注新數(shù)據(jù)是非常昂貴的,需要大量的人力與物力。從 另外一個角度上看,如果我們有了大量的、在不同分布下的訓(xùn)練數(shù)據(jù),完全丟棄運些數(shù)據(jù)也 是非常浪費的。如何合理的利用運些數(shù)據(jù)就是遷移學(xué)習(xí)主要解決的問題。遷移學(xué)習(xí)是運用 已存有的知識對不同但相關(guān)領(lǐng)域問題進行求解的新的一種機器學(xué)習(xí)方法。
[0031] 我們在遷移學(xué)習(xí)方面的工作目前可W分為W下Ξ個部分:同構(gòu)空間下基于實例的 遷移學(xué)習(xí),同構(gòu)空間下基于特征的遷移學(xué)習(xí)與異構(gòu)空間下的遷移學(xué)習(xí)。本發(fā)明中用到的遷 移學(xué)習(xí)屬于第二個部分,同構(gòu)空間下基于特征的遷移學(xué)習(xí)。由于Image化t與目標域具有共 享的參數(shù),所W只需要將CNN系統(tǒng)中的參數(shù)進行遷移即可。
[0032] 如圖1、圖2所示,本發(fā)明的具體操作過程如下:
[0033] 1、圖片的預(yù)處理:將ImageNet中的圖片,W及已知標記的樣本圖片,都進行預(yù)處 理,均轉(zhuǎn)換成256*256像素的灰度圖片。
[0034] 2、預(yù)訓(xùn)練階段:用Image化t圖片庫進行預(yù)訓(xùn)練,輸入256*256的像素的灰度圖片, 用CW#是取特征,并進行分類,計算其損失函數(shù),用隨機梯度下降法調(diào)整α^Ν中的參數(shù)。
[0035] 3、調(diào)整階段:用已知其背景清晰度值的圖片作為輸入圖片,通過腳是取特征并進 行分類,得到其清晰度的值,與實際圖片的清晰度值作對比,計算損失函數(shù),用隨機梯度下 降法調(diào)整系統(tǒng)參數(shù)。
[0036] 4、實際檢測階段:首先未知其清晰程度的圖片也要轉(zhuǎn)換成256*256像素作為輸入, 用CNN進行提取特征并進行分類,最終得到其清晰程度的標簽。
[0037] 卷積神經(jīng)網(wǎng)絡(luò)的具體過程(參數(shù)數(shù)目可根據(jù)實際情況調(diào)整):
[0038] 本算法中的α^Ν共有5層,不包含輸入輸出層,每層都包含可訓(xùn)練參數(shù)(連接權(quán)重)。 輸入圖像為256*256像素的大小。
[0039] 1、輸入層到Convolution 1層是一個卷積的過程,其做法是用4個9*9的濾波器與 輸入圖片中的9*9的像素點相乘求和,即對輸入圖片中每個9*9大小的像素進行加權(quán)和,再 加上一個偏移量,卷積中像素有重疊,每次計算后進行一個像素的濾波器平移,卷積過程公 式如下:
[0040]
[0041] 其中,1表示層數(shù)(本層1 = 1),x表示某個像素點的值,i、j分別表示像素點所在的 行、列數(shù)(本層中i的取值為1到9,本層中j的取值為1到9),w為卷積參數(shù),b為偏移量。
[0042] 具體情況參見圖3中的第二個框圖,該圖每個方塊為一個像素,可見輸入層每9*9 的像素經(jīng)過卷積過程,轉(zhuǎn)換成Convolutionl層的一個像素,濾波器每次的位移為一個像素。 輸入層的大小為256*256像素,有1張?zhí)卣鲌D,Convolutionl層的大小是248*248,共有4張?zhí)?征圖。
[0043] 2、Convolution 1層到Subsampling 2層是一個向下采樣的過程,直接對該層中的 4*4大小的像素的點進行一次求和后加權(quán),再加上一個偏移量,該向下采樣的過程沒有重 疊,向下采樣過程的公式如下:
[0044]
[0045] 其中,1表示層數(shù)(本層1 = 2),x表示某個像素點的值,i、j分別表示像素點所在的 行、列數(shù)(本層中i的取值為1到4,本層中j的取值為1到4),β為向下采樣參數(shù),b為偏移量。
[0046] 具體情況參見圖3中的第Ξ個框圖,該圖中每個方塊為一個像素,可見 Convolution 1層中的每4*4的像素經(jīng)過向下采樣轉(zhuǎn)換成subsampling 2層的1個像素。 Convolution 1層的大小為248*248,共有4張?zhí)卣鲌D,Subsampling2層的大小為62*62,共有 4張?zhí)卣鲌D。
[0047] 3、Subsampling 2層到Convolutions層的過程與第一次卷積的過程相同卷積濾波 器的大小也是9*9,用16個錄波器同時進行卷積。Subsampling2層的大小為62*62,共有4張 特征圖,Convolutions層的大小為54巧4,共有16張?zhí)卣鲌D。
[004引 4、Convolution3層到Subsampling4層的過程與第一次向下取樣的過程類似,不同 點在于,對Convolutions層中每9*9大小的像素求和后加權(quán),再加上一個偏移量,向下采樣 過程沒有重疊。
[0049] i與j的取值都是1到9。Subsampl ing4層的大小為6*6,共有16張?zhí)卣鲌D。
[0050] 5、16張6*6的特征圖,一共有16*6*6個特征點,經(jīng)過兩層全連接變換,所謂全連接 就是指每個輸出單元都是由所有輸入單元加權(quán)和得到,Subsampl ing4層共有16*6*6個單 元,經(jīng)過一次全連接到第5層轉(zhuǎn)換成50個單元,5層的50個單元經(jīng)過第二次全連接變換轉(zhuǎn)換 成最終的5個等級。全連接的公式如下:
[0化1 ]
[0052] 其中,1表示層數(shù)(第一次全連接時1 = 5,第二次全連接時1 = 6),x表示某個像素點 的值,k表示像素點編號(第一次全連接時k= 1,…,576,第二次全連接時k= 1,…,50),S為 權(quán)重值。
[0053] W上實施例僅為說明本發(fā)明的技術(shù)思想,不能W此限定本發(fā)明的保護范圍,凡是 按照本發(fā)明提出的技術(shù)思想,在技術(shù)方案基礎(chǔ)上所做的任何改動,均落入本發(fā)明保護范圍 之內(nèi)。
【主權(quán)項】
1. 一種基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,其特征在于,包括如下步驟: 步驟1,將圖片庫ImageNet中已知標記的圖片以及未在圖片庫ImageNet中但已知背景 清晰度值的樣本圖片,均轉(zhuǎn)換成像素為256*256的灰度圖片; 步驟2,對圖片庫ImageNet中轉(zhuǎn)換后的灰度圖片進行預(yù)訓(xùn)練,利用卷積神經(jīng)網(wǎng)絡(luò)提取所 有灰度圖片的特征并進行分類,計算損失函數(shù),用隨機梯度下降法調(diào)整卷積參數(shù),使函數(shù)損 失在預(yù)定范圍內(nèi),得到初步調(diào)整后的卷積參數(shù); 步驟3,對未在圖片庫ImageNet中但已知背景清晰度值的樣本圖片轉(zhuǎn)換后的灰度圖片, 基于步驟2初步調(diào)整后的卷積參數(shù),利用卷積神經(jīng)網(wǎng)絡(luò)提取特征并進行分類,得到其清晰度 值,與實際清晰度值作對比,計算損失函數(shù),用隨機梯度下降法繼續(xù)調(diào)整卷積參數(shù),使函數(shù) 損失在預(yù)定范圍內(nèi),得到最終調(diào)整后的卷積參數(shù); 步驟4,將待檢測清晰度的圖片轉(zhuǎn)換成像素為256*256的灰度圖片,基于步驟3最終調(diào)整 后的卷積參數(shù),利用卷積神經(jīng)網(wǎng)絡(luò)提取特征并進行分類,得到待檢測清晰度圖片的清晰度 值。2. 根據(jù)權(quán)利要求1所述基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,其特征在于,所述卷 積神經(jīng)網(wǎng)絡(luò)包括依次由輸入到輸出的輸入層、第一卷積層、第一向下采樣層、第二卷積層、 第二向下采樣層、全連接層、輸出層,且除輸入層、輸出層外,第一卷積層、第一向下采樣層、 第二卷積層、第二向下采樣層、全連接層在卷積神經(jīng)網(wǎng)絡(luò)所在層數(shù)分別為1、2、3、4、5層。3. 根據(jù)權(quán)利要求2所述基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,其特征在于,所述第 一卷積層的卷積過程公式為:其中,1 = 1,一表示經(jīng)第一卷積層卷積后輸出的像素點的值,表示輸入層中第i行j列 像素點的值,w為卷積參數(shù),b為偏移量。4. 根據(jù)權(quán)利要求2所述基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,其特征在于,所述第 一向下采樣層的向下采樣過程公式為:其中,1 = 2,一表示經(jīng)第一向下采樣層采樣后輸出的像素點的值,表示第一卷積層中 第i行j列像素點的值,β為向下采樣參數(shù),b為偏移量。5. 根據(jù)權(quán)利要求2所述基于深度學(xué)習(xí)的圖片背景清晰度檢測方法,其特征在于,所述全 連接層包括兩次全連接過程,且全連接過程公式為:其中,第一次全連接時1 = 5,第二次全連接時1 = 6,X1表示經(jīng)全連接后輸出的像素點的 值,k表示像素點編號,第一次全連接時k= 1,…,576,第二次全連接時k= 1,…,50,3為權(quán)重 值。
【文檔編號】G06T7/00GK105825511SQ201610155947
【公開日】2016年8月3日
【申請日】2016年3月18日
【發(fā)明人】胡海峰, 韓碩, 吳建盛
【申請人】南京郵電大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1