23 其中,3^,7)、6^,7)、8^,7)分別代表像素^,7)處的紅綠藍強度值,化義,7)代表 坐標(x,y)處的像素灰度值;圖像大小為mXn; 2 圖像濾波子模塊12,用于對灰度圖像進行濾波: 3 采用維納濾波來進行一級濾除后,定義SVlm圖像,記為MsvimU,y),具體定義公式 為:MsvimU,y)=aiji(x,y)+a2j2(x,y)+a3j3(x,y)+a4j4(x,y),其中日2、日2、日3、日4為可變權值, i二l,2,3,4;J(x,y)為經(jīng)濾波后的圖像;
[0109] 圖像增強子模塊13:
[0110] 當 U28-m! > -日0| 時,L(x,y) = 2日5 X 其中,L(x,y)為增強 后的灰度值;iKx,y)是包含有局部信息的伽馬校正系數(shù),此時= ^。8-續(xù)心柳),曰 是范圍為0到1的可變參數(shù),a = 1 - I^l;
[0111] 當 I128 - ml < 苗I曲-501 且 ? >50時,L(x,y) = 255 X (等尹)*托如(1-鮮), 其中4(x,y)=恥(Msvim(x,y)),a = 1 -鬥哪歲化肌姑|,郵是圖像中灰度值高于128的所有 像素的均值,HiL是灰度值低于128的所有像素的均值,且此時m=min(mH,mL),在a值已知的情 況下,計算出256個4校正系數(shù)作為查找表,記為{(6u(0}豈ミ,其中i為索引值,利用Msvlm(x,y) 的灰度值作為索引,根據(jù)(6(x,y)=MMsvlm(x,y))快速獲得圖像中每個像素的伽馬校正系數(shù) 4(x,y);l 為模板修正系數(shù);
[0112] (2)檢測跟蹤模塊2,具體包括構建子模塊21、丟失判別子模塊22和更新子模塊23:
[0113] 構建子模塊21,用于視覺字典的構建:
[0114] 在初始帖獲取跟蹤目標的位置和尺度,在其周圍選取正負樣本訓練跟蹤器,將跟 蹤結果作為訓練集X={xi,x2,……xn}T;并對訓練集中的每幅目標圖像提取128維的SIFT特 5"' 征,其中St表示訓練集中第t幅目標圖像中SIFT特征的個數(shù);跟蹤N帖W后,通過聚 類算法將運些特征劃分為K個簇,每個簇的中屯、構成特征單詞,記為{。巧=1:能夠提取到的 特征總量馬二理1&,其中K<<Fn,且K心-致Li爲;視覺字典構建好W后,每幅訓練圖像 表示為特征包的形式,用于表示視覺字典中特征單詞出現(xiàn)的頻率,用直方圖Mxt)表示,h (Xt)通過W下方式獲取:將一幅訓練圖像Xt中的每一個特征fsW向視覺字典投影,用投影距 離最短的特征單詞表示該特征,對所有特征投影完畢后,統(tǒng)計每個特征單詞的出現(xiàn)頻率,并 歸一化得到訓練圖像Xt的特征直方圖h(xt);
[0115] 丟失判別子模塊22,用于判別目標的丟失與否:
[0116] 當新一帖圖像到來時,從K個直方圖柱中隨機選取Z<K個直方圖柱,且Z = 7,形成新 的大小為Z的子直方圖hW(xt),子直方圖的個數(shù)最多為化=巧個;計算候選目標區(qū)域和訓 練集中某個目標區(qū)域?qū)又狈綀D的相似性。t_z,=巧=W'h(z)枉)h")(x) ?其中t = l,2,…,N,z = l,2,…,Ns,然后計算總體相似性Ot=l-^za-。t_z);候選目標區(qū)域與目標 的相似性用。=max{〇t,t}表示,則目標丟失判斷式為:U = Si即(O)二"[1 -氣其中 10任,<拱 gs為人為設定的判失閥值;當U = I時目標被穩(wěn)定跟蹤,當U = O時,目標丟失;
[0117]當目標丟失時,定義仿射變換模型:扮二(!S紀端雜)(記)+化巧 其中(xt,yt)和(xt-i,yt-i)分別為當前帖目標中某個SITF特征點的位置坐標和前一個帖目標 中對應匹配特征點的位置坐標,兩者均為已知量;S為尺度系數(shù),0為旋轉(zhuǎn)系數(shù),e和f代表了 平移系數(shù)
為溫度平移修正系數(shù),山和化用于修正因為環(huán)境溫度偏差造成的圖像旋轉(zhuǎn)和平移誤差,I'd為 人為設定的標準溫度,設為20度,T為由溫度傳感器實時監(jiān)測得到的溫度值;采用Ransac估 計算法求取仿射變換模型的參數(shù),最后在新的尺度S和旋轉(zhuǎn)系數(shù)0下采集正負樣本,更新分 類器;
[0118] 更新子模塊23,用于視覺字典的更新:
[0119] 在每帖圖像獲得目標位置W后,根據(jù)仿射變換參數(shù)的計算結果,收集所有滿足結 果參數(shù)的SIFT特征點揣援=1,經(jīng)過F = 6帖W后,獲得新的特征點集{篇寡二,其中St-F代表 了從F帖圖像中得到的總特征點數(shù);利用下式對新舊特征點重新進行K聚類:{C/成= &means((l-知梅立(6)價指=1),其中梢父=1表示新的視覺字典,視覺字典的大小保 持不變;E {0,1.}是遺忘因子,表明了舊字典所占的比重,取越小,新特征對目標丟失的判 斷貢獻越多,取
[0120] (3)識別輸出模塊3,用于圖像的識別和輸出:在待識別的圖像序列中利用跟蹤算 法獲取目標區(qū)域,將目標區(qū)域映射到已知訓練數(shù)據(jù)形成的子空間,計算子空間中目標區(qū)域 與訓練數(shù)據(jù)之間的距離,獲得相似性度量,判定目標類別,并輸出識別結果。
[0121] 優(yōu)選的,采用維納濾波來進行一級濾除后,此時圖像信息還包含有殘余的噪音,采 用W下的二級濾波器進行二次濾波:
[0122]
[0123] 其中,J(x,y)為經(jīng)過濾波后的圖像;Pg(x+i,y+j)代表尺度為mXn的函數(shù),且PgU+ i,y+j)=qXe邱(-(x2+y2)/w),其中q是將函數(shù)歸一化的系數(shù),即 JJqXe邱(-(x2+y2)/w) dxdy = l〇
[0124] 此實施例的地質(zhì)采樣裝置,在圖像預處理階段,增強的圖像能夠根據(jù)模板的大小 自適應調(diào)整,提高增強效果,且在在不同模板大小時判斷條件能自動修正,且考慮了視覺習 慣W及人眼對不同色彩的感知度同色彩強度的非線性關系;充分利用了圖像的局部特征和 全局特征,具有自適應性,可W抑制過度增強,對復雜光照環(huán)境下獲取的圖像增強效果明 顯;將M X N個幕指數(shù)運算降低為256個,提高了計算效率,Z = 7,F(xiàn) = 6 ,(6=0.18,計算平均帖 率為18FPS,計算量小于同類型的字典算法;在目標檢測和跟蹤階段,能夠消除不同溫度導 致圖像的旋轉(zhuǎn)和平移造成的誤差,提高識別率,經(jīng)處理后的圖像細節(jié)更加清晰,且計算量相 對于傳統(tǒng)方法大幅度減少,能夠有效適應目標尺度變化,并能夠準確判定目標是否發(fā)生丟 失,在目標重新回到視場后能夠被重新檢測并穩(wěn)定跟蹤,直至125帖后仍能穩(wěn)定跟蹤目標。 此外,該地質(zhì)采樣車具有實時性好、定位準確和魯棒性強的優(yōu)點,且在快速有遮擋的目標檢 測和跟蹤方面有很好的效果,取得了意想不到的效果。
[0125] 實施例5:如圖1-2所示,一種可增強對比度的地質(zhì)采樣裝置,包括地質(zhì)采樣車5和 安裝在地質(zhì)采樣車5上的監(jiān)測裝置4,監(jiān)測裝置4用于對地質(zhì)采樣車5附近的活動進行視頻圖 像監(jiān)測,監(jiān)測裝置4包括預處理模塊1、檢測跟蹤模塊2、識別輸出模塊3。
[0126] (1)預處理模塊1,用于對接收到的圖像進行預處理,具體包括圖像轉(zhuǎn)化子模塊11、 圖像濾波子模塊12和圖像增強子模塊13:
[0127] 圖像轉(zhuǎn)化子模塊11,用于將彩色圖像轉(zhuǎn)化為灰度圖像:
[012 引
[0129] 其中,3^,7)、6^,7)、8^,7)分別代表像素^,7)處的紅綠藍強度值,化義,7)代表 坐標(x,y)處的像素灰度值;圖像大小為mXn;
[0130] 圖像濾波子模塊12,用于對灰度圖像進行濾波:
[0131] 采用維納濾波來進行一級濾除后,定義SVlm圖像,記為MsvimU,y),具體定義公式 為:MsvimU,y)=aiji(x,y)+a2j2(x,y)+a3j3(x,y)+a4j4(x,y),其中日1、日2、日3、日4為可變權值, a廣11+,二w4,i = l,2,3,4;J(x,y)為經(jīng)濾波后的圖像;
[0132] 圖像增強子模塊13:
[013;3]當 I128 -ml > 日0| 時,L(x,y)二巧5 x 其中,L(x,y)為增強 后的灰度值;4(x,y)是包含有局部信息的伽馬校正系數(shù),此時 是范圍為0到1的可變參數(shù),a = 1 - I^ij;
[0134] 當 |l2d - ml < 苗 Iw-SOI 且 CO > 50 時,L(x,y)二 2SS X (x'y)x(i-^), 其中4山7)=11>我^。山7)),^^ = 1-|1281"^^1'^")|,郵是圖像中灰度值高于128的所有 像素的均值,HiL是灰度值低于128的所有像素的均值,且此時m=min(mH,mL),在a值已知的情 況下,計算出256個4校正系數(shù)作為查找表,記為{巾。(/)}閣,其中i為索引值,利用MsvimU, y) 的灰度值作為索引,根據(jù)(6(x,y)=MMsvlm(x,y))快速獲得圖像中每個像素的伽馬校正系數(shù) iKx,y); 1 - ^為模板修正系數(shù);
[0135] (2)檢測跟蹤模塊2,具體包括構建子模塊21、丟失判別子模塊22和更新子模塊23:
[0136] 構建子模塊21,用于視覺字典的構建:
[0137] 在初始帖獲取跟蹤目標的位置和尺度,在其周圍選取正負樣本訓練跟蹤器,將跟 蹤結果作為訓練集X={xi,x2,……xn}T;并對訓練集中的每幅目標圖像提取128維的SIFT特 征,其中St表示訓練集中第t幅目標圖像中SIFT特征的個數(shù);跟蹤N帖W后,通過聚 類算法將運些特征劃分為K個簇,每個簇的中屯、構成特征單詞,記為巧=1:能夠提取到的 特征總量而=:Ef=i&,其中K<<機,且K ? 色 1?;視覺字典構建好W后,每幅訓練圖像 表示為特征包的形式,用于表示視覺字典中特征單詞出現(xiàn)的頻率,用直方圖Mxt)表示,h (Xt)通過W下方式獲取:將一幅訓練圖像Xt中的每一個特征fsW向視覺字典投影,用投影距 離最短的特征單詞表示該特征,對所有特征投影完畢后,統(tǒng)計每個特征單詞的出現(xiàn)頻率,并 歸一化得到訓練圖像Xt的特征直方圖h(xt);
[0138] 丟失判別子模塊22,用于判別目標的丟失與否:
[0139] 當新一帖圖像到來時,從K個直方圖柱中隨機選取Z<K個直方圖柱,