亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種圖像分類方法、裝置及系統(tǒng)與流程

文檔序號:12039360閱讀:297來源:國知局
一種圖像分類方法、裝置及系統(tǒng)與流程
本發(fā)明屬于圖像處理領域,尤其涉及一種圖像分類方法、裝置及系統(tǒng)。

背景技術:
隨著多媒體數(shù)據(jù)的爆炸性增漲,人工對圖像進行分類越來越困難,基于圖像內容的自動分類越來越受到重視。自動的圖像分類技術能夠通過對圖像本身內容進行處理分析,從而預測圖像的類別,避免了大量人工處理。如何利用計算機來自動將圖像按照人們理解的方式劃分到不同的語義類別就成為圖像處理中的一個關鍵問題。然而,現(xiàn)有的圖像分類方法缺乏有效性以及全面性,具體地,現(xiàn)有的圖像分類方法,主要通過圖像的內容特征和分類器學習來實現(xiàn)對圖像的自動分類,而這類分類方法有兩個主要問題:一是需要提取大量的特征,比如SIFT、HOG等,由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效,比如Harr特征對人臉具有較強的表達能力,而對一個復雜的問題中的非人臉信息表達較弱,因此缺乏有效性;二是訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費,因此缺乏全面性。

技術實現(xiàn)要素:
本發(fā)明實施例的目的在于提供一種圖像分類方法,旨在解決現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題。本發(fā)明實施例是這樣實現(xiàn)的,一種圖像分類方法,包括:獲取未標注圖像,并對獲取到的未標注圖像進行預處理,生成所述未標注圖像的標準化矩陣;根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。進一步地,所述對獲取到的未標注圖像進行預處理,包括:獲取未標注圖像的分辨率,并將所述分辨率轉化為相同的預設分辨率;將所述未標注圖像按預設的分割順序,切割成為各個預設大小的未標注圖像塊,所述分割順序包括從上至下、從左至右;獲取所述未標注圖像塊的列向量;獲取所述未標注圖像塊的所述列向量的均值;獲取所述未標注圖像塊的所述列向量的標準差;將所述列向量減去所述列向量的均值生成差值,再將所述差值除以所述列標準差,生成所述未標注圖像中所有圖像塊的列向量組成的標準化矩陣。進一步地,所述根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù),包括:建立字典學習優(yōu)化函數(shù)的模型:等式右側第一項為最小重構誤差,第二項為稀疏系數(shù)懲罰項,第三項是反饋連接項;其中,n為非標注圖像的標準化矩陣的列數(shù);其中,X=(x1,x2,…,xn)為非標注圖像經(jīng)過預處理后的標準化矩陣,xn表示標準化矩陣的第n列;D=(d1,d2,…,dp)為字典基元,dp表示字典基元的第p列;αi為標準化矩陣每列對應的稀疏系數(shù);(α1,α2,…,αn)T為稀疏系數(shù)矩陣,αn表示稀疏系數(shù)矩陣的第n列,且為給定的稀疏系數(shù)方差的尺度變量;λ>0為常數(shù),決定懲罰項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。γ>0為常數(shù),決定反饋連接項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。f(·)是一個非線性稀疏懲罰函數(shù),用于表示稀疏性強烈的強度:其中,y表示隨機變量,β>0是一個尺度參數(shù),α>0是一個稀疏程度參數(shù),尺度參數(shù)和稀疏程度參數(shù)估算方法如下:k=β2fy(0)2其中,k表示迭代次數(shù);根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù),進一步地,還包括:獲取標注圖像,并對獲取到的標注圖像進行預處理,生成所述標注圖像的標準化矩陣;根據(jù)預先建立的稀疏系數(shù)求解函數(shù)模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù);根據(jù)所述標注圖像的稀疏系數(shù)對所述標注圖像進行分類。進一步地,所述根據(jù)預先建立的稀疏系數(shù)求解函數(shù)模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù),包括:建立稀疏系數(shù)求解函數(shù)的模型;其中,M為標注圖像的標準化矩陣的列數(shù);Y=(y1,y2,…,yM)為標注圖像的標準化矩陣;αi為標準化矩陣每列對應的稀疏系數(shù);根據(jù)稀疏系數(shù)求解函數(shù)的模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。本發(fā)明實施例的另一目的在于提供一種圖像分類裝置,包括:第一獲取單元,用于獲取未標注圖像,并對獲取到的未標注圖像進行預處理,生成所述未標注圖像的標準化矩陣;第一生成單元,用于根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);第一分類單元,用于根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。進一步地,在該圖像分類裝置中,所述第一獲取單元,包括:第一獲取子單元,用于獲取未標注圖像的分辨率,并將所述分辨率轉化為相同的預設分辨率;分割子單元,用于將所述未標注圖像按預設的分割順序,切割成為各個預設大小的未標注圖像塊,所述分割順序包括從上至下、從左至右;第二獲取子單元,用于獲取所述未標注圖像塊的列向量;第三獲取子單元,用于獲取所述未標注圖像塊的所述列向量的均值;第四獲取子單元,用于獲取所述未標注圖像塊的所述列向量的標準差;生成子單元,用于將所述列向量減去所述列向量的均值生成差值,再將所述差值除以所述列標準差,生成所述未標注圖像中各個圖像塊的標準化矩陣。進一步地,在該圖像分類裝置中,所述第一獲取單元,包括:建立子單元,用于建立字典學習優(yōu)化函數(shù)的模型:等式右側第一項為最小重構誤差,第二項為稀疏系數(shù)懲罰項,第三項是反饋連接項;其中,n為非標注圖像的標準化矩陣的列數(shù);其中,X=(x1,x2,…,xn)為非標注圖像經(jīng)過預處理后的標準化矩陣,xn表示標準化矩陣的第n列;D=(d1,d2,…,dp)為字典基元,dp表示字典基元的第p列;αi為標準化矩陣每列對應的稀疏系數(shù);(α1,α2,…,αn)T為稀疏系數(shù)矩陣,αn表示稀疏系數(shù)矩陣的第n列,且為給定的稀疏系數(shù)方差的尺度變量;λ>0為常數(shù),決定懲罰項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。γ>0為常數(shù),決定反饋連接項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。f(·)是一個非線性稀疏懲罰函數(shù),用于表示稀疏性強烈的強度:其中,y表示隨機變量,β>0是一個尺度參數(shù),α>0是一個稀疏程度參數(shù),尺度參數(shù)和稀疏程度參數(shù)估算方法如下:k=β2fy(0)2其中,k表示迭代次數(shù);第一生成子單元,用于根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù)。進一步地,在該圖像分類裝置中,還包括:第二獲取單元,用于獲取標注圖像,并對獲取到的標注圖像進行預處理,生成所述標注圖像的標準化矩陣;第二生成單元,用于根據(jù)預先建立的稀疏系數(shù)求解函數(shù)模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。第二分類單元,用于根據(jù)所述標注圖像的稀疏系數(shù)對所述標注圖像進行分類。進一步地,在該圖像分類裝置中,所述第二生成單元,包括:第二建立子單元,用于建立稀疏系數(shù)求解函數(shù)的模型;其中,M為標注圖像的標準化矩陣的列數(shù);Y=(y1,y2,…,yM)為標注圖像的標準化矩陣;αi為標準化矩陣每列對應的稀疏系數(shù);第二生成子單元,用于根據(jù)稀疏系數(shù)求解函數(shù)的模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。本發(fā)明實施例的另一目的在于提供一種圖像分類系統(tǒng),其包括上述任意一項圖像分類裝置。在本發(fā)明實施例中,根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類,從而無需提取圖像的大量的特征,無需通過特征對圖像進行檢索、分類,因此避免了出現(xiàn)由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效的情況,同時避免了出現(xiàn)訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費的情況,從而解決了現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題,提高了圖像分類的效率。附圖說明圖1是本發(fā)明實施例提供的圖像分類方法的實現(xiàn)流程圖;圖2是本發(fā)明實施例提供的圖像分類方法步驟S101具體實現(xiàn)流程圖;圖3是本發(fā)明實施例提供的在實際應用中圖像分割較佳的樣例圖;圖4是本發(fā)明實施例提供的對標注圖像進行分類的實現(xiàn)流程圖;圖5是本發(fā)明實施例提供的在實施應用中較佳的實現(xiàn)流程圖;圖6是本發(fā)明實施例提供的圖像分類裝置的結構框圖。具體實施方式為了使本發(fā)明的目的、技術方案及優(yōu)點更加清楚明白,以下結合附圖及實施例,對本發(fā)明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。在本發(fā)明實施例中,根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類,從而無需提取圖像的大量的特征,無需通過特征對圖像進行檢索、分類,因此避免了出現(xiàn)由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效的情況,同時避免了出現(xiàn)訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費的情況,從而解決了現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題,提高了圖像分類的效率。圖1示出了本發(fā)明實施例提供的一種圖像分類方法的實現(xiàn)流程,詳述如下:在步驟S101中,獲取未標注圖像,并對獲取到的未標注圖像進行預處理,生成所述未標注圖像的標準化矩陣;在本實施例中,未標注圖像表示不具備標注字符串的圖像,所述標注字符串包括但不限于標注詞。例如,上傳到網(wǎng)站上不帶有標注詞的圖像,該類圖像即表示未標注圖像。在本實施例中,獲取未標注圖像,可采用現(xiàn)有技術的任一種方式獲取,如通過上網(wǎng)的方式獲取,或通過本地數(shù)據(jù)庫導入的方式獲取。在本實施例中,對未標注圖像進行預處理,生成所述未標注圖像的標準化矩陣。在本實施例中,為便于說明,圖2示出了未標注圖像進行預處理的實施過程,詳述如下;在步驟S201中,獲取未標注圖像的分辨率,并將所述分辨率轉化為相同的預設分辨率;在本實施例中,預設分辨率可以為用戶自設,也可以采用系統(tǒng)默認。在本實施例中,分辨率轉化為相同的分辨率,可通過未標注圖像的分辨率與設定的分辨率生成縮放比例,并通過縮放比例進行相應的壓縮或填充像素點。在步驟S202中,將所述未標注圖像按預設的分割順序,切割成為各個預設大小的未標注圖像塊,所述分割順序包括從上至下、從左至右;在本實施例中,預設大小可以為用戶自設,也可以采用系統(tǒng)默認。為例于說明,圖3示出了本發(fā)明實施例在實際應用中圖像分割的較佳的樣例圖。在步驟S203中,獲取所述未標注圖像塊的列向量;在本實施例中,未標注圖像塊以矩陣的形式進行記錄存儲,矩陣的列向量即為未標注圖像塊的列向量。在步驟S204中,獲取所述未標注圖像塊的所述列向量的均值;在本實施例中,未標注圖像塊以矩陣的形式進行記錄存儲,列向量的均值可通過矩陣的列向量求和,再除以列數(shù)得到。。在步驟S205中,獲取所述未標注圖像塊的所述列向量的標準差;在步驟S206中,將所述列向量減去所述列向量的均值生成差值,再將所述差值除以所述列標準差,生成所述未標注圖像中各個圖像塊的標準化矩陣。在本實施例中,通過生成圖像中各個圖像塊的標準化矩陣,以將不同大小、不同分辨率的圖像,都換成同一形式的圖像塊進行處理,便于后續(xù)通過根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù)。在步驟S102中,根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù)。在本實施例中,稀疏是表示利用字典、將圖像信號表示成少數(shù)原子的線性組合的過程。在本實施例中,稀疏系數(shù)是標準化矩陣相對于字典基元的線性表示的線性系數(shù),稀疏系數(shù)的一個重要特征是零系數(shù)的個數(shù)遠大于非零系數(shù)的個數(shù),圖像塊與字典基元存在線性關系,因此稀疏系數(shù)可以線性表示圖像的特征信息。在本實施例中,字典基元和稀疏系數(shù)以矩陣的形式記錄存儲。在本實施例中,根據(jù)字典學習優(yōu)化函數(shù),以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù),包括:建立字典學習優(yōu)化函數(shù)的模型:等式右側第一項為最小重構誤差,第二項為稀疏系數(shù)懲罰項,第三項是反饋連接項;其中,n為非標注圖像的標準化矩陣的列數(shù)。X=(x1,x2,…,xn)為圖像經(jīng)過預處理后,生成的圖像塊組成的標準化矩陣,n為矩陣的列數(shù)。所述D=(d1,d2,…,dp)為字典基元,dp表示字典基元的第p列,每個列向量代表一個字典基向量。αi為標準化矩陣每列對應的稀疏系數(shù),將標準化矩陣每列對應的稀疏系數(shù)αi以矩陣的形式記錄存儲,以組成稀疏系數(shù)矩陣α。α=(α1,α2,…,αn)T為稀疏系數(shù)矩陣,其中,n為稀疏系數(shù)矩陣的列數(shù),每個行向量是一個系數(shù)向量,αn表示稀疏系數(shù)矩陣的第n列,且為給定的稀疏系數(shù)方差的尺度變量;λ>0為常數(shù),決定懲罰項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。γ>0為常數(shù),決定反饋連接項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。f(·)是一個非線性稀疏懲罰函數(shù),用于表示稀疏性強烈的強度:其中β>0是一個尺度參數(shù),α>0是一個稀疏程度參數(shù),兩個參數(shù)估算方法如下:k=β2fy(0)2其中fy(0)是隨機變量y在零點的密度值。優(yōu)化函數(shù)的求解使用一種優(yōu)化的PRP共軛梯度算法,對于一個最小最優(yōu)化問題函數(shù)J(·),x=(x1,x2,…,xn)是一個隨機矢量,算法過程為:設置迭代次數(shù)k,令k=1,設置非負的初始點x(k),精度參數(shù)u>1,求出x(k)的一階偏導數(shù)若則停止計算;否則令其中求解一維問題得到步長μk,令令k=k+1,若算法收斂,則結束迭代過程,反之,返回第(2)步。在本實施例中,求解測試樣本y的稀疏系數(shù)α,采用最小角度回歸模型(LARS,LeastAngleRegression),詳述如下:求解優(yōu)化函數(shù)公式(1)步驟:設置迭代次數(shù)k=1,設置優(yōu)化的PRP共軛梯度算法精度參數(shù)u>1,圖像重構誤差ξ≤0.02,選擇di(k)、αi(k)的非負初始值,并進行歸一化;迭代過程:固定當前的字典基向量,采用優(yōu)化的PRP共軛梯度算法實現(xiàn)αi(k)的迭代;令系數(shù)分量αi(k)的所有非負元素為0,并進行歸一化:令固定第(2)步得到的當前值αi(k+1),采用優(yōu)化的PRP共軛梯度算法實現(xiàn)di(k)的迭代;令字典基向量di(k)的所有非負元素為0,令di(k+1):=di(k);令k=k+1,若算法收斂則結束PRP共軛梯度迭代過程,否則重新開始迭代過程;對更新后的字典基元D和稀疏系數(shù)矩陣α,判斷是否成立,其中ξ可通過經(jīng)驗值預先設定,若成立,學習過程結束,否則重復第(2)步的共軛迭代過程。其中,指的是標準化矩陣與通過字典基元重建后的矩陣之間誤差平方和,誤差越小,字典基元的特征表達能力越強,通過設置較小的ξ,以盡可能獲取表達能力強的字典基元。在本實施例中,獲取到字典基元矩陣D和未標注樣本的稀疏系數(shù)矩陣α,將同一幅圖像的稀疏系數(shù)矩陣α轉化為一個行向量,每一個行向量代表一幅圖像,以降低數(shù)據(jù)的空間維度,以適合后續(xù)分類器的數(shù)據(jù)輸入。在本實施例中,通過反饋連接項,根據(jù)圖像塊矩陣中的行向量的變化,重構字典學習優(yōu)化函數(shù),實時對字典基元以及稀疏系數(shù)進行調整,增強了字典基元及稀疏系數(shù)在特征層的類判別能力,便于后續(xù)通過稀疏系數(shù)進行圖像分類。在步驟S103中,根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。在本實施例中,使用分類器SVM或者隨機森林,根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。在本實施例中,先獲取訓練的樣本集導入分類器SVM,再將稀疏系數(shù)矩陣α轉化為一個行向量,將此類型的行向量組成的樣本矩陣代入分類器SVM,以獲取分類結果。在本實施例中,采用隨機森林根據(jù)所述未標注圖像的稀疏系數(shù)對未標注圖像進行分類,由于隨機森林采用隨機子空間特征選擇方法,減少了輸入空間的維數(shù)且能夠快速構造決策樹,根據(jù)多個決策樹的結果采用投票策略決定分類結果,克服了數(shù)據(jù)維數(shù)高,訓練樣本少,運算速度慢等問題,提高了分類的速度。在本實施例中,字典基元捕獲未標注圖像的局部特征,解決了現(xiàn)有技術只對標注的圖像進行分類的情況。此外,圖像塊與字典基元存在線性關系,其線性系數(shù)非常稀疏,即零值多,計算效率高。由于通過圖像中具有特征的稀疏系數(shù)進行分類,從而無需提取圖像的大量的特征,無需通過特征對圖像進行檢索、分類,因此避免了出現(xiàn)由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效的情況,同時避免了出現(xiàn)訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費的情況,從而解決了現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題,提高了圖像分類的效率。作為本發(fā)明的一個優(yōu)選實施例,圖4示出了對標注圖像進行分類的實施例過程,詳述如下:在步驟S401中,獲取標注圖像,并對獲取到的標注圖像進行預處理,生成所述標注圖像的標準化矩陣;在本實施例中,標注圖像表示具備標注字符串的圖像,所述標注字符串包括但不限于標注詞。例如,上傳到網(wǎng)站上帶有標注詞的圖像,該類圖像即表示標注圖像。在本實施例中,獲取標注圖像,可采用現(xiàn)有技術的任一種方式獲取,如通過上網(wǎng)的方式獲取,或通過本地數(shù)據(jù)庫導入的方式獲取。在本實施例中,對標注圖像進行預處理,生成標注圖像的標準化矩陣。其中,對標注圖像進行預處理的步驟與對非標注圖像進行預處理的步驟相同,具體過程,在此不做贅述。通過相同步驟的預處理,便于后續(xù)進行分類。在步驟S402中,根據(jù)預先建立的稀疏系數(shù)求解函數(shù)模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。在本實施例中,稀疏系數(shù)求解函數(shù)以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù),包括:建立稀疏系數(shù)求解函數(shù)的模型;其中,M為標注圖像的標準化矩陣的列數(shù);所述Y=(y1,y2,…,yM)為標注圖像的標準化矩陣;αi為標準化矩陣每列對應的稀疏系數(shù);根據(jù)稀疏系數(shù)求解函數(shù)的模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。為根據(jù)步驟二得到的字典基元D,使用最小角回歸LARS算法求解Y的稀疏系數(shù),最終得到Y的系數(shù)矩陣將同一幅圖像的稀疏系數(shù)轉化為一個行向量,每一個行向量代表一幅圖像,以克服數(shù)據(jù)空間維度高,以便于后續(xù)用于分類。由于非標注圖像和標注圖像采用是同一個字典基元,因此生成的稀疏系數(shù)是具有相同的量級,確保了后續(xù)可以進行統(tǒng)一的分類。在步驟S403中,根據(jù)所述標注圖像的稀疏系數(shù)對所述標注圖像進行分類。在本實施例中,可使用分類器SVM或者隨機森林,根據(jù)所述標注圖像的稀疏系數(shù)對所述標注圖像進行分類。在本實施例中,使用分類器SVM或者隨機森林,根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。在本實施例中,先獲取訓練的樣本集導入分類器SVM,再將稀疏系數(shù)矩陣α轉化為一個行向量,將該一個行向量代入分類器SVM,以獲取分類結果。在本實施例中,采用隨機森林根據(jù)所述未標注圖像的稀疏系數(shù)對標注圖像進行分類,由于隨機森林采用隨機子空間特征選擇方法,減少了輸入空間的維數(shù)且能夠快速構造決策樹,根據(jù)多個決策樹的結果采用投票策略決定分類結果,克服了數(shù)據(jù)維數(shù)高,訓練樣本少,運算速度慢等問題,提高了分類的速度。在本實施例中,字典基元捕獲標注圖像的局部特征,且圖像的區(qū)域塊與字典基元存在線性關系,因此每幅圖像可以由線性稀疏系數(shù)表示。由于通過圖像的稀疏系數(shù)進行分類,從而無需提取圖像的大量的特征,無需通過特征對圖像進行檢索、分類,因此避免了出現(xiàn)由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效的情況,同時避免了出現(xiàn)訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費的情況,從而解決了現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題,提高了圖像分類的效率。作為本發(fā)明的一個優(yōu)選實施例,圖5示出了本發(fā)明實施例在實施應用中較佳的實施流程,詳述如下:S501,對未標注圖像以及標注圖像進行預處理;S502,對未標注圖像進行字典學習,生成字典基元以及所述未標注圖像的稀疏系數(shù);S503,根據(jù)稀疏系數(shù)求解函數(shù)以及字典基元,生成所述標注圖像的稀疏系數(shù);S504,通過預設分類方式對未標注圖像以及標注圖像進行分類。圖6示出了本發(fā)明實施例提供的一種分類裝置的結構框圖,該裝置可以運行于各種終端,包括但不限于移動電話、口袋計算機(PocketPersonalComputer,PPC)、掌上電腦、計算機、筆記本電腦、個人數(shù)字助理(PersonalDigitalAssistant,PDA)、MP4、MP3等。為了便于說明,僅示出了與本實施例相關的部分。參照圖6,該圖像分類裝置,包括:第一獲取單元61,用于獲取未標注圖像,并對獲取到的未標注圖像進行預處理,生成所述未標注圖像的標準化矩陣;第一生成單元62,用于根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);第一分類單元63,用于根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類。進一步地,在該圖像分類裝置中,所述第一獲取單元,包括:第一獲取子單元,用于獲取未標注圖像的分辨率,并將所述分辨率轉化為相同的預設分辨率;分割子單元,用于將所述未標注圖像按預設的分割順序,切割成為各個預設大小的未標注圖像塊,所述分割順序包括從上至下、從左至右;第二獲取子單元,用于獲取所述未標注圖像塊的列向量;第三獲取子單元,用于獲取所述未標注圖像塊的所述列向量的均值;第四獲取子單元,用于獲取所述未標注圖像塊的所述列向量的標準差;生成子單元,用于將所述列向量減去所述列向量的均值生成差值,再將所述差值除以所述列標準差,生成所述未標注圖像中各個圖像塊的標準化矩陣。進一步地,在該圖像分類裝置中,所述第一獲取單元,包括:建立子單元,用于建立字典學習優(yōu)化函數(shù)的模型:等式右側第一項為最小重構誤差,第二項為稀疏系數(shù)懲罰項,第三項是反饋連接項;其中,n為非標注圖像的標準化矩陣的列數(shù);其中,X=(x1,x2,…,xn)為非標注圖像經(jīng)過預處理后的標準化矩陣,xn表示標準化矩陣的第n列;D=(d1,d2,…,dp)為字典基元,dp表示字典基元的第p列;αi為標準化矩陣每列對應的稀疏系數(shù);(α1,α2,…,αn)T為稀疏系數(shù)矩陣,αn表示稀疏系數(shù)矩陣的第n列,且為給定的稀疏系數(shù)方差的尺度變量;λ>0為常數(shù),決定懲罰項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。γ>0為常數(shù),決定反饋連接項相對于第一項的重要性,可以根據(jù)多次實驗,進行設置經(jīng)驗值。f(·)是一個非線性稀疏懲罰函數(shù),用于表示稀疏性強烈的強度:其中,y表示隨機變量,β>0是一個尺度參數(shù),α>0是一個稀疏程度參數(shù),尺度參數(shù)和稀疏程度參數(shù)估算方法如下:k=β2fy(0)2其中,k表示迭代次數(shù);第一生成子單元,用于根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù)。進一步地,在該圖像分類裝置中,還包括:第二獲取單元,用于獲取標注圖像,并對獲取到的標注圖像進行預處理,生成所述標注圖像的標準化矩陣;第二生成單元,用于根據(jù)預先建立的稀疏系數(shù)求解函數(shù)模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。第二分類單元,用于根據(jù)所述標注圖像的稀疏系數(shù)對所述標注圖像進行分類。進一步地,在該圖像分類裝置中,所述第二生成單元,包括:第二建立子單元,用于建立稀疏系數(shù)求解函數(shù)的模型;其中,M為標注圖像的標準化矩陣的列數(shù);Y=(y1,y2,…,yM)為標注圖像的標準化矩陣;αi為標準化矩陣每列對應的稀疏系數(shù);第二生成子單元,用于根據(jù)稀疏系數(shù)求解函數(shù)的模型、所述字典基元以及所述標準化矩陣,生成所述標注圖像的稀疏系數(shù)。在本發(fā)明實施例中,根據(jù)預先建立的字典學習的優(yōu)化函數(shù)模型,以及所述標準化矩陣,生成字典學習的字典基元以及所述未標注圖像的稀疏系數(shù);根據(jù)所述未標注圖像的稀疏系數(shù)對所述未標注圖像進行分類,從而無需提取圖像的大量的特征,無需通過特征對圖像進行檢索、分類,因此避免了出現(xiàn)由于圖像的復雜性,每一種具體的特征只代表一部分信息,而且具體的特征僅對部分圖像目標有效的情況,同時避免了出現(xiàn)訓練模型只包含標注圖像的信息,標注信息極其有限,而大量的未標注的信息被浪費的情況,從而解決了現(xiàn)有的圖像分類方法缺乏有效性以及全面性的問題,提高了圖像分類的效率。以上所述僅為本發(fā)明的較佳實施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內所作的任何修改、等同替換和改進等,均應包含在本發(fā)明的保護范圍之內。
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1