亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于超像素關(guān)聯(lián)性增強(qiáng)Adaboost分類(lèi)學(xué)習(xí)的顯著性檢測(cè)方法

文檔序號(hào):10687636閱讀:577來(lái)源:國(guó)知局
一種基于超像素關(guān)聯(lián)性增強(qiáng)Adaboost分類(lèi)學(xué)習(xí)的顯著性檢測(cè)方法
【專(zhuān)利摘要】本發(fā)明公開(kāi)了一種基于超像素關(guān)聯(lián)性增強(qiáng)Adaboost分類(lèi)學(xué)習(xí)的顯著性檢測(cè)方法,屬于圖像處理領(lǐng)域。首先,生成基于背景的顯著圖,由超像素在顏色特征空間和位置空間上的全局對(duì)比度得到。然后在背景顯著圖基礎(chǔ)上,采用K?最近鄰算法作為弱分類(lèi)器,使用AdaBoost算法進(jìn)行增強(qiáng)學(xué)習(xí),得到一個(gè)強(qiáng)學(xué)習(xí)的分類(lèi)器,對(duì)圖像超像素進(jìn)行分類(lèi),得到分類(lèi)顯著圖,并使用鄰居超像素關(guān)聯(lián)矩陣分別對(duì)背景顯著圖和分類(lèi)顯著圖進(jìn)行優(yōu)化。最后對(duì)分類(lèi)后得到的顯著圖和背景顯著圖進(jìn)行加權(quán)融合,生成最終的顯著圖。該發(fā)明在PASCAL數(shù)據(jù)集上進(jìn)行測(cè)試,能夠得到較好的顯著性檢測(cè)結(jié)果。顯著性分析結(jié)果可用于促進(jìn)圖像分割、對(duì)象檢測(cè)與跟蹤、頭像分析理解等應(yīng)用。
【專(zhuān)利說(shuō)明】
一種基于超像素關(guān)聯(lián)性増強(qiáng)Adaboost分類(lèi)學(xué)習(xí)的顯著性檢測(cè) 方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于圖像處理領(lǐng)域,涉及一種基于超像素關(guān)聯(lián)性增強(qiáng)AdaBoost分類(lèi)學(xué)習(xí)的 顯著性檢測(cè)方法,采用K-最近鄰分類(lèi)算法作為基本分類(lèi)器,考慮鄰居超像素之間的關(guān)聯(lián)性, 屬于自底向上顯著性檢測(cè)模型。
【背景技術(shù)】
[0002] -般情況下,人們只會(huì)對(duì)視覺(jué)場(chǎng)景中感興趣的只是某個(gè)局部而不是視力范圍內(nèi)的 所有物體。顯著性檢測(cè)技術(shù)能夠模擬人類(lèi)的視覺(jué)系統(tǒng),檢測(cè)出圖像中最能吸引人們注意最 能表現(xiàn)圖像內(nèi)容的顯著部分。這部分相對(duì)于它的鄰近區(qū)域突出,比如在顏色、紋理、形狀等 方面與鄰近區(qū)域有較明顯的區(qū)別。
[0003] 目前,隨著人們對(duì)顯著性檢測(cè)的研究越來(lái)越深入,已經(jīng)涌現(xiàn)出來(lái)很多好的檢測(cè)方 法與檢測(cè)模型。自底向上的顯著性檢測(cè)模型是圖像顯著性檢測(cè)中運(yùn)用比較廣泛的一種模 型,相比于基于高層語(yǔ)義信息的自頂向下顯著性檢測(cè)模型,它基于底層特征,能更有效的檢 測(cè)圖像的細(xì)節(jié)信息。同時(shí),人們發(fā)現(xiàn)對(duì)比度是對(duì)檢測(cè)結(jié)果影響較大的因素。對(duì)比度即兩個(gè)單 元在顏色、梯度、亮度、空間距離、形狀等特征上的差別程度。根據(jù)對(duì)比單元分布,對(duì)比度分 為全局對(duì)比度和局部對(duì)比度。局部對(duì)比度方法是基于周?chē)徑袼毓烙?jì)一特定區(qū)域的顯著 性,這類(lèi)方法能產(chǎn)生較清晰的顯著圖,但忽略了全局關(guān)系結(jié)構(gòu),而且對(duì)圖像的高頻部分更為 敏感。全局對(duì)比度方法在整幅圖像上考察對(duì)比度關(guān)系。這類(lèi)方法傾向于將大范圍的目標(biāo)同 周?chē)h(huán)境分離開(kāi),檢測(cè)結(jié)果通常優(yōu)于會(huì)在輪廓附近產(chǎn)生較高顯著性的局部對(duì)比度方法,但 是由于較多關(guān)注整幅圖像的結(jié)構(gòu)和統(tǒng)計(jì)特征,需要解決復(fù)雜的整合問(wèn)題。對(duì)于特征差異較 明顯的圖像,利用對(duì)比度理論能夠得到較好的顯著性檢測(cè)結(jié)果,但是對(duì)于那些顏色等底層 特征不夠突出即與周?chē)吘壧卣飨嘟膱D像,檢測(cè)結(jié)果還不夠精確。

【發(fā)明內(nèi)容】

[0004] 本發(fā)明考慮超像素之間的聯(lián)系,提出了一種基于超像素關(guān)聯(lián)性增強(qiáng)AdaBoost分類(lèi) 學(xué)習(xí)的顯著性檢測(cè)方法,目的在于克服現(xiàn)有技術(shù)的不足,在背景顯著圖基礎(chǔ)上,從鄰近超像 素的關(guān)聯(lián)性角度出發(fā),對(duì)圖像超像素進(jìn)行分類(lèi),以更有效的區(qū)分目標(biāo)超像素和背景超像素, 得到較好的顯著性圖。
[0005] 本發(fā)明的技術(shù)方案:
[0006] -種基于超像素關(guān)聯(lián)性增強(qiáng)AdaBoost分類(lèi)學(xué)習(xí)的顯著性檢測(cè)方法,步驟如下: [0007]步驟1.生成背景顯著圖并用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化
[0008] 生成背景顯著圖:確定背景超像素種子,將背景超像素種子依據(jù)顏色特征分類(lèi)聚 簇;依據(jù)空間位置(W)、CIELab、HSV和紋理(T)等四個(gè)特征,將非背景超像素與上述各分類(lèi)聚 簇的背景超像素種子進(jìn)行對(duì)比度計(jì)算,生成背景顯著圖S bc;
[0009] 用超像素關(guān)聯(lián)矩陣對(duì)背景顯著圖進(jìn)行優(yōu)化:
[0010] 在空間位置(W)、CIELab、HSV和紋理(T)等特征上建立超像素關(guān)聯(lián)矩陣A = [&"]ΝΧΝ,其中N為超像素?cái)?shù)。鄰居超像素在上述四個(gè)特征間具有關(guān)聯(lián)性,采用歐式距離判定 鄰居超像素關(guān)聯(lián)性,公式為:
[0011]
[0012] 其中,本發(fā)明中此處feat(i)、feat(j)分別為超像素 i和超像素 j的HSV顏色特征,η (i)為超像素 i的鄰居超像素集合,〇:為常量。
[0013] 對(duì)背景顯著圖Sbg進(jìn)行優(yōu)化,優(yōu)化公式為:
[0014]
[0015]
[0016]步驟2.對(duì)背景顯著圖超像素進(jìn)行分類(lèi):采用AdaBoost增強(qiáng)學(xué)習(xí)分類(lèi)算法,為考慮 鄰近超像素之間的相互影響,將K-最近鄰分類(lèi)算法作為AdaBoost算法的弱分類(lèi)器,在背景 顯著圖上,依據(jù)超像素的顯著性值對(duì)超像素進(jìn)行分類(lèi),即劃分為目標(biāo)超像素和背景超像素。
[0017] 步驟3.生成分類(lèi)顯著圖并使用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化:在步驟2分類(lèi)結(jié)果上,對(duì) 超像素顯著性重新賦值,得到分類(lèi)顯著圖。同理步驟1中對(duì)背景顯著圖的優(yōu)化,使用超像素 關(guān)聯(lián)矩陣對(duì)分類(lèi)顯著圖進(jìn)行進(jìn)一步優(yōu)化。
[0018] 步驟4.生成融合顯著圖:將步驟3和步驟1得到的顯著圖進(jìn)行加權(quán)融合,得到最終 的顯著圖。
[0019] 本發(fā)明的有益效果:本發(fā)明所提出的基于超像素關(guān)聯(lián)性增強(qiáng)Adaboost分類(lèi)學(xué)習(xí)的 顯著性檢測(cè)方法,無(wú)論是在背景區(qū)域與目標(biāo)區(qū)域的劃分上,還是在對(duì)顯著圖的優(yōu)化上,都著 重考慮了鄰近超像素之間的關(guān)聯(lián)性。而且這種鄰近關(guān)系不僅僅是指空間位置上的鄰近,還 包括紋理特征空間以及CIELab和HSV兩個(gè)相互補(bǔ)的顏色特征空間上的鄰近,使得背景區(qū)域 與目標(biāo)區(qū)域的劃分更加精確,得到高質(zhì)量的顯著圖。
【附圖說(shuō)明】
[0020] 圖1是本發(fā)明圖像顯著性檢測(cè)方法的流程圖。
[0021] 圖2是本發(fā)明的實(shí)例檢測(cè)流程的效果圖。
【具體實(shí)施方式】
[0022]以下結(jié)合附圖和技術(shù)方案,進(jìn)一步說(shuō)明本發(fā)明的【具體實(shí)施方式】。
[0023] 針對(duì)上述四個(gè)步驟,對(duì)每一個(gè)步驟進(jìn)行以下具體說(shuō)明:
[0024]步驟1:生成背景顯著圖
[0025] 1-1用PB(probability of boundary)方法檢測(cè)出圖像的邊界信息,得到超像素 i 的邊緣像素的平均PB值,計(jì)算公式?
>其中1#是超像素 i中像素 I的PB值, B11是超像素 i中像素?cái)?shù)量。采用OTSU方法得到一個(gè)自適應(yīng)閾值,把PB值小于閾值的超像素 作為背景種子。
[0026] 1-2采用K-means方法將背景種子依據(jù)CIELab顏色特征分類(lèi)聚簇,聚類(lèi)中心點(diǎn)數(shù)量
[0031] 其中上述公式左邊(km,i)表示第1^個(gè)簇中第i個(gè)超像素,公式右邊^(qū)表示第kmf 用Km表示。這里的Km值依據(jù)一般性邊緣顏色數(shù)量取為Km=3。然后在空間位置(W)、紋理(T)、 CIELab、HSV等特征上,將非背景超像素與上述各分類(lèi)聚簇的背景超像素種子進(jìn)行對(duì)比度計(jì) 算。針對(duì)上述四個(gè)特征分別得到Km個(gè)簇的特征顯著圖。第!^(!^^{^,…,-:^個(gè)簇類(lèi)特征 顯著圖可表示為S feat(km,i),其中,&&七£{1,1\(:此1^13,!^¥}。超像素顯著性值計(jì)算公式分 別為:
[0027]
[0028]
[0029]
[0030] 簇中超像素個(gè)數(shù),在公式(3)中11W(i),w(j) 11為超像素 i與超像素 j在空間位置上的歐式距 離,公式(4)中I IT(i),T(j) I I為超像素 i和超像素 j在紋理特征上的歐式距離,公式(5)中I CLab(i),CLab(j)| I為超像素 i與超像素 j在CIELab顏色空間上的歐式距離,公式(6)中I |CHSV (i),chsv( j) I I為超像素 i與超像素 j在HSV顏色空間上的歐式距離,〇2、〇3、〇4、〇5為常量。
[0032] 1-3對(duì)步驟1 _2中得到的Sw、St、SLab、Shsv特征顯著圖進(jìn)彳丁融合,生成背景顯著圖Sbg, 其超像素顯著性值計(jì)算公式為:
[0033]
[0034] 1-4在上述特征空間上建立超像素關(guān)聯(lián)矩陣A= U1Jnxn,其中N為超像素?cái)?shù)。鄰居 超像素在特征上相互影響,依舊采用歐式距離來(lái)判定關(guān)聯(lián)性的大小,計(jì)算公式為:
[0035]
[0036]其中,本發(fā)明中此處f eat為HSV顏色特征,η (i)為超像素 i的鄰居集合,O5為常量參 數(shù)。
[0037] 對(duì)步驟1-4中得到的背景顯著圖Sbc采用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化,優(yōu)化公式為:
[0038] (9)
[0039]
[0040] 步驟2:對(duì)背景顯著圖的超像素進(jìn)行分類(lèi)
[0041] 2-1獲取分類(lèi)樣本:為同一張背景顯著圖|@選取兩個(gè)閾值:目標(biāo)像素閾值Tf和背 景像素閾值Tb;閾值是由OTSU方法依據(jù)超像素的顯著性值確定,然后賦予兩個(gè)不同的權(quán)重, 設(shè)定目標(biāo)閾值權(quán)重Pf=I .45,背景閾值權(quán)重pb = 0.95;背景顯著圖·^中顯著性值大于目標(biāo) 超像素閾值Tf的超像素為目標(biāo)超像素,定義其類(lèi)別標(biāo)簽label = 1,同理小于Tb的確定為背景 超像素,定義其類(lèi)別標(biāo)簽Iabel = -I,處于兩者之間的為待分類(lèi)樣本;將確定的目標(biāo)超像素 和背景超像素作為分類(lèi)器訓(xùn)練樣本,表示為X: Ix1,X2, ...,Xn},對(duì)應(yīng)類(lèi)別集合表示為label: {Iabel(Xi) I XieX,label e {1,-1}} 0
[0042] 2-2構(gòu)造弱分類(lèi)器,即K-最近鄰分類(lèi)器(KNN) ;KNN算法中一個(gè)超像素的鄰近超像素 是由該超像素與其他超像素在空間位置、紋理、CIELab和HSV四個(gè)特征的歐式距離來(lái)確定 的;KNN算法中鄰近超像素選取個(gè)數(shù)用Kn表示;KNN算法中的測(cè)試集中超像素 i與訓(xùn)練集中超 像素 j在特征feat上的歐式距離表示為:
[0043] Dfeat=I |Testfeat(i)-Train(j) I (10)
[0044] 其中,TeStfe3at(i)、Trainfe3at(j)分別為測(cè)試集中超像素 i和訓(xùn)練集中超像素 j的 feat特征,feate {CIELab,HSV,T,W},此處的測(cè)試集為在樣本集合X中隨機(jī)選取的一部分樣 本,樣本集合X中剩余部分樣本作為此處的訓(xùn)練集。
[0045] 選取前Kn個(gè)最小Dfe3at值所對(duì)應(yīng)的超像素 j作為超像素 i的Kn個(gè)最近鄰超像素;分別 計(jì)算Kn個(gè)超像素中目標(biāo)超像素個(gè)數(shù)NUMiabei=i和背景超像素個(gè)數(shù)NUMi abei=-i,如果NUMiabeI=I^: NUMhkx,則超像素 i為目標(biāo)超像素,反之為背景超像素。最后計(jì)算分類(lèi)誤差率ε。
[0046]在KNN算法中,Kn值的選擇對(duì)算法的性能有著很大影響。本發(fā)明中采用10折交叉驗(yàn) 證算法,選取平均分類(lèi)誤差率歹最小時(shí)的Kn值作為KNN算法的最優(yōu)Kn值。
[0047] 2-3構(gòu)造強(qiáng)分類(lèi)器。采用AdaBoost增強(qiáng)學(xué)習(xí)算法,在訓(xùn)練樣本上對(duì)步驟2-2中構(gòu)造 的弱分類(lèi)器進(jìn)行迭代訓(xùn)練得到多個(gè)弱分類(lèi)器,把多個(gè)弱分類(lèi)器依據(jù)權(quán)重融合成一個(gè)強(qiáng)分類(lèi) 器。
[0048] 首先,按如下方法改進(jìn)樣本初始權(quán)重分布:
[0049] …、 (11)
[0050] 其中,IxpcisltlveI為目標(biāo)超像素個(gè)數(shù),IxnegalveI為背景超像素個(gè)數(shù),Iabel(X 1)為樣 本Xi的初始類(lèi)別標(biāo)簽。
[0051] 其次,使用初始權(quán)重分布,對(duì)弱分類(lèi)器進(jìn)行訓(xùn)練學(xué)習(xí);設(shè)定T輪訓(xùn)練,針對(duì)圖像四個(gè) 特征及分別對(duì)應(yīng)的Kn值,每輪訓(xùn)練得到四個(gè)單特征的弱分類(lèi)器,選取使誤差率^最小的弱分 類(lèi)器,作為本輪訓(xùn)練的最優(yōu)弱分類(lèi)器。第t輪訓(xùn)練得到的最優(yōu)弱分類(lèi)器可表示為h t。
[0052] 最后,計(jì)算弱分類(lèi)器權(quán)重并更新樣本初始權(quán)重。
[0053] 第t輪弱分類(lèi)器ht權(quán)重計(jì)算公式為:
[0054]
[0055]
[0056] 其中N為樣本數(shù),ht (Xi)為第t個(gè)弱分類(lèi)器對(duì)樣本Xi的分類(lèi)輸出。[0057]樣本權(quán)重更新公式為:
[0058]
[0059]
[0060]
[0061]步驟3:生成分類(lèi)顯著圖并使用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化
[0062] 3-1使用步驟2中生成的強(qiáng)分類(lèi)器對(duì)步驟1中生成的背景顯著圖中的超像素進(jìn) 行分類(lèi),對(duì)分類(lèi)后的超像素重新賦予顯著性值,使目標(biāo)更突出。計(jì)算公式如下:
[0063]
[0064] 其中,S1JA常量。
[0065] 3-2對(duì)步驟3-1中生成的分類(lèi)顯著圖進(jìn)行關(guān)聯(lián)矩陣優(yōu)化,同步驟1-4中對(duì)背景顯著 的優(yōu)化,對(duì)分類(lèi)顯著圖優(yōu)化公式為:
[0066]
(16)
[0067] 步驟4:生成融合顯著圖
[0068] 最后一步是把步驟1生成的背景顯著圖九e和步驟3-2生成的分類(lèi)顯著圖進(jìn)行 加權(quán)融合,生成最終的顯著圖。融合公式為:
[0069] ,
(17)
[0070] 其中,β1+β2 = 1。
【主權(quán)項(xiàng)】
1. 一種基于超像素關(guān)聯(lián)性增強(qiáng)AdaBoost分類(lèi)學(xué)習(xí)的顯著性檢測(cè)方法,其特征在于,步 驟如下: 步驟1:生成背景顯著圖并用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化 生成背景顯著圖:確定背景超像素種子,將背景超像素種子依據(jù)顏色特征分類(lèi)聚簇;依 據(jù)空間位置W、CIELab、HSV和紋理T四個(gè)特征,將非背景超像素與上述各分類(lèi)聚簇的背景超 像素種子進(jìn)行對(duì)比度計(jì)算,生成背景顯著圖S BC; 用超像素關(guān)聯(lián)矩陣對(duì)背景顯著圖進(jìn)行優(yōu)化: 在空間位置W、CIELab、HSV和紋理T上建立超像素關(guān)聯(lián)矩陣A=[aij]NXN,其中N為超像素 數(shù);鄰居超像素在上述四個(gè)特征間具有關(guān)聯(lián)性,采用歐式距離判定鄰居超像素關(guān)聯(lián)性,公式 為,其中,feat(i)、feat(j)分別為超像素 i和超像素 j的HSV顏色特征,n(i)為超像素 i的鄰 居超像素集合,〇:為常量; 對(duì)背景顯著圖SBe進(jìn)行優(yōu)化,優(yōu)化公式為:步驟2:對(duì)背景顯著圖的超像素進(jìn)行分類(lèi) 2-1獲取分類(lèi)樣本:為同一張背景顯著圖選取兩個(gè)閾值:目標(biāo)像素閾值Tf和背景像素 閾值Tb;閾值是由0TSU方法依據(jù)超像素的顯著性值確定,然后賦予兩個(gè)不同的權(quán)重,設(shè)定目 標(biāo)閾值權(quán)重Pf= 1.45,背景閾值權(quán)重pb = 0.95;背景顯著圖中顯著性值大于目標(biāo)超像素 閾值Tf的超像素為目標(biāo)超像素,定義其類(lèi)別標(biāo)簽label = 1,同理小于Tb的確定為背景超像 素,定義其類(lèi)別標(biāo)簽label = -l,處于兩者之間的為待分類(lèi)樣本;將確定的目標(biāo)超像素和背 景超像素作為分類(lèi)器訓(xùn)練樣本,表示為X: {X1,X2, ...,Xn},對(duì)應(yīng)類(lèi)別集合表示為label: {label(xi) | Xi eX,label e {1,-1}}; 2-2構(gòu)造弱分類(lèi)器:即K-最近鄰分類(lèi)器KNN; KNN算法中一個(gè)超像素的鄰近超像素是由該 超像素與其他超像素在空間位置、紋理、CIELab和HSV四個(gè)特征的歐式距離來(lái)確定的;KNN算 法中鄰近超像素選取個(gè)數(shù)用K N表示;KNN算法中的測(cè)試集中超像素 i與訓(xùn)練集中超像素 j在 特征feat上的歐式距離表示為: Dfeat= | | Testfeat(i)-Train( j) | (10) 其中,1'^^^(1)、1'抑11?(^(」)分別為測(cè)試集中超像素1和訓(xùn)練集中超像素」的&&討寺 征,feate {CIELab,HSV,T,W},此處的測(cè)試集為在樣本集合X中隨機(jī)選取的一部分樣本,樣 本集合X中剩余部分樣本作為此處的訓(xùn)練集; 選取前Kn個(gè)最小Dfeat值所對(duì)應(yīng)的超像素 j作為超像素 i的KN個(gè)最近鄰超像素;分別計(jì)算KN 個(gè)超像素中目標(biāo)超像素個(gè)數(shù)NUMlabel = l和背景超像素個(gè)數(shù)NUMlabel=-1,如果NUMlabebl^: NUMhbeX,則超像素 i為目標(biāo)超像素,反之為背景超像素;最后計(jì)算分類(lèi)誤差率ε ; 采用10折交叉驗(yàn)證算法,選取平均分類(lèi)誤差率瓦最小時(shí)的ΚΝ值作為ΚΝΝ算法的最優(yōu)ΚΝ 值; 2- 3構(gòu)造強(qiáng)分類(lèi)器:采用AdaBoost增強(qiáng)學(xué)習(xí)算法,在訓(xùn)練樣本上對(duì)步驟2-2中構(gòu)造的弱 分類(lèi)器進(jìn)行迭代訓(xùn)練得到多個(gè)弱分類(lèi)器,把多個(gè)弱分類(lèi)器依據(jù)權(quán)重融合成一個(gè)強(qiáng)分類(lèi)器; 首先,按如下方法改進(jìn)樣本初始權(quán)重分布:其中,| ΧΡ_1ν(31為目標(biāo)超像素個(gè)數(shù),| Xnegalve |為背景超像素個(gè)數(shù),labe 1 (Xl)為樣本Xl的 初始類(lèi)別標(biāo)簽; 其次,使用初始權(quán)重分布,對(duì)弱分類(lèi)器進(jìn)行訓(xùn)練學(xué)習(xí);設(shè)定T輪訓(xùn)練,針對(duì)圖像四個(gè)特征 及分別對(duì)應(yīng)的KN值,每輪訓(xùn)練得到四個(gè)單特征的弱分類(lèi)器,選取使誤差率^最小的弱分類(lèi) 器,作為本輪訓(xùn)練的最優(yōu)弱分類(lèi)器;第t輪訓(xùn)練得到的最優(yōu)弱分類(lèi)器可表示為h t; 最后,計(jì)算弱分類(lèi)器權(quán)重并更新樣本初始權(quán)重; 第t輪弱分類(lèi)器ht權(quán)重計(jì)算公式為:其中N為樣本數(shù),ht(Xl)為第t個(gè)弱分類(lèi)器對(duì)樣本Xl的分類(lèi)輸出; 樣本權(quán)重更新公式為:組成強(qiáng)分類(lèi)器:步驟3:生成分類(lèi)顯著圖并使用超像素關(guān)聯(lián)矩陣進(jìn)行優(yōu)化 3- 1使用步驟2中生成的強(qiáng)分類(lèi)器對(duì)步驟1中生成的背景顯著圖中的超像素進(jìn)行分 類(lèi),對(duì)分類(lèi)后的超像素重新賦予顯著性值,使目標(biāo)更突出;計(jì)算公式如下: 其中,δι,δ2為常量;3-2對(duì)步驟3-1中生成的分類(lèi)顯著圖進(jìn)行關(guān)聯(lián)矩陣優(yōu)化,同步驟1中對(duì)背景顯著的優(yōu)化, 對(duì)分類(lèi)顯著圖優(yōu)化公式為:步驟4:生成融合顯著圖 最后一步是把步驟1生成的背景顯著圖和步驟3-2生成的分類(lèi)顯著圖:<4_進(jìn)行加權(quán) 融合,生成最終的顯著圖;融合公式為:其中,β?+β2=1。
【文檔編號(hào)】G06K9/62GK106056165SQ201610487528
【公開(kāi)日】2016年10月26日
【申請(qǐng)日】2016年6月28日
【發(fā)明人】高振國(guó), 潘永菊, 陳炳才, 姚念民, 盧志茂, 譚國(guó)真, 周超, 孫鵬, 陶鑫
【申請(qǐng)人】大連理工大學(xué)
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1