基于雙目立體視覺的移動機器人自主導(dǎo)航方法
【專利摘要】本發(fā)明公開了一種基于雙目立體視覺的移動機器人自主導(dǎo)航方法,該方法包括圖像處理和運動估計兩個過程:圖像處理環(huán)節(jié)中設(shè)計了特征提取、立體匹配、特征跟蹤等具體處理算法,分析了圖像處理過程中的誤差;運動估計環(huán)節(jié)通過魯棒運動估計方法和非線性運動估計兩步估計算法,具有針對性地消除了圖像處理中的誤匹配及噪聲等誤差影響,估計了機器人移動過程中的運動狀態(tài),提高了機器人在復(fù)雜環(huán)境下進行自主導(dǎo)航的性能。
【專利說明】基于雙目立體視覺的移動機器人自主導(dǎo)航方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像處理、計算機視覺和自主導(dǎo)航【技術(shù)領(lǐng)域】,尤其是一種應(yīng)用于表面 復(fù)雜環(huán)境的自主導(dǎo)航技術(shù)實現(xiàn)方法。
【背景技術(shù)】
[0002] 定位是機器人自主移動過程中的關(guān)鍵技術(shù),其任務(wù)就是要確定機器人在地表參考 坐標(biāo)系中的姿態(tài)和位置信息,隨著計算機圖像處理技術(shù)的高速發(fā)展,利用視覺系統(tǒng)進行運 動估計逐步成為了機器人進行導(dǎo)航的首選,機器人自運動估計就是通過分析環(huán)境圖像信息 的變化來估計其自身的運動參數(shù),從某些意義上來說,基于視覺序列圖像的自運動估計也 可稱之為視覺里程計運動估計技術(shù),基于立體視覺的導(dǎo)航定位技術(shù)可靠性較高,逐步成為 了機器人導(dǎo)航定位發(fā)展的趨勢,根據(jù)機器人對于環(huán)境的了解情況,當(dāng)機器人在視野范圍內(nèi) 進行巡游探測時,用車上安裝的立體視覺相機對其所處的周圍環(huán)境進行成像,根據(jù)圖像中 的視覺特征,來實時對機器人的位置進行估計。
【發(fā)明內(nèi)容】
[0003] 本發(fā)明公開了一種基于雙目立體視覺的機器人自主導(dǎo)航方法,該方法包括圖像處 理和運動估計兩個過程:圖像處理環(huán)節(jié)中設(shè)計了特征提取、立體匹配、特征跟蹤等具體處理 算法,分析了圖像處理過程中的誤差;運動估計分為魯棒運動估計和非線性運動估計兩個 過程。
[0004] 本發(fā)明的基本原理如下: 機器人立體視覺自運動估計是一套自主定位方案,整個部分分為兩大部分,第一部分 主要是相機標(biāo)定、圖像采集與預(yù)處理過程,需要首先對原始圖像進行噪聲過濾、灰度校正等 圖像預(yù)處理,最后輸出立體圖像對;第二部分主要由視覺圖像處理和運動估計兩個模塊組 成,由運動估計模塊處理圖像中特征點位置變化,來估計機器人自身的導(dǎo)航參數(shù),具體如 下: 1.圖像處理與分析過程: 1) 圖像噪聲處理:本專利利用一種該進的中值濾波算法,像素灰度計算如下: pixh\= medianlpii^UpUaJxKdwq) pi?:k2 = median(pixJulJu2JdlJd2,m l>ru2?rdl>rd2) pixie =騰 dian(pix,pixi 成 pix!e2) 其中:ΛΚ為,分別為像素沖C的5x5鄰域上、左、下、右上的像素, 為像素 ρ?τ的5x5鄰域?qū)欠较蛏系南袼?,為取中?運算符. 2) 特征點提取,本發(fā)明采用Harris算子模型中g(shù)GJ)表示像元灰度值,并分別用 g.v表示像元/(U)在X和Y方向的梯度,Harris算子將角點響應(yīng)函數(shù)表示為該像元的協(xié) 方差矩陣行列式與方陣的跡: R = DetN-k* (trace (Λ1))2 (1) 3) 立體匹配,本發(fā)明采用相關(guān)匹配的方法進行匹配,該方法是根據(jù)兩幅圖像中特征點 的相關(guān)程度來確定其匹配關(guān)系,相關(guān)值定義為:
【權(quán)利要求】
1. 本發(fā)明提出一種機器人立體視覺自運動估計是一套自主定位方案,可滿足復(fù)雜地形 情況下機器人自主巡游過程中導(dǎo)航定位的需要,不僅如此,此算法可大大實現(xiàn)機器人的智 能化需求,整個部分分為兩大部分,第一部分主要是相機標(biāo)定、圖像采集與預(yù)處理過程,需 要首先對原始圖像進行噪聲過濾、灰度校正等圖像預(yù)處理,最后輸出立體圖像對;第二部分 主要由視覺圖像處理和運動估計兩個模塊組成,由運動估計模塊處理圖像中特征點位置變 化,來估計機器人自身的導(dǎo)航參數(shù)。
2. 本發(fā)明在特征點提取和立體匹配過程中【權(quán)利要求】
1)特征點提取算法采用Harris算子模型,用gaj)表示像元灰度值,并分別用仏; 表示像元在X和Y方向的梯度,Harris算子將角點響應(yīng)函數(shù)表示為該像元的協(xié)方差矩陣行 列式與方陣的跡,即
3)立體匹配:采用相關(guān)匹配的方法進行匹配,該方法是根據(jù)兩幅圖像中特征點的相關(guān) 程度來確定其匹配關(guān)系,相關(guān)值定義為:
相關(guān)值從-1到1,兩個相關(guān)窗口極度相似時為1,極度不相似時為-1。
3. 本發(fā)明在環(huán)境特征深度信息提取中【權(quán)利要求】
雙目視覺測量是根據(jù)視差原理來計算距離,設(shè)雙目相機間的基線距離為B,相機的焦距 為f,空間中任意一點P(x,y,z)在左右圖像上的像點分別為i?和巧,根據(jù)三角形的相似關(guān) 系可推導(dǎo)出點P在攝像機坐標(biāo)系中的距離信息:
像點巧和石,其對應(yīng)的像素坐標(biāo)分別為(% A),(心,義),由以上關(guān)系可得兩個像點在像 平面坐標(biāo)系中的坐標(biāo)分別為(%,乃),(4,萬)
機器人
運動前空間點右以及對應(yīng)運動后的#可建立匹配環(huán)境特征點對集合
4. 本發(fā)明在機器人運動估計過程權(quán)利要求如下: 定義忍、#分別表示空間特征點4在運動前后兩個攝像機坐標(biāo)系下的位置信息,則可 建立運動估計模型:
其中巧為第J次運動前后的坐標(biāo)旋轉(zhuǎn)矩陣,5為第J次運動前后的平移矩陣,士為觀 測誤差向量,
由上述觀測誤差向量可得到運動參數(shù)估計。
5. 本發(fā)明權(quán)利要求一種魯棒運動參數(shù)估計 從空間特征點集
中隨機選取三組不共線的特征點
,利用奇異值分解方法求出&,7},對求得的&回代求每個特征 點對應(yīng)的誤差平方
重復(fù)采樣m次,求出m個中值的最小值:
6. 本發(fā)明要求一種奇異值分解法確定運動參數(shù) 選擇三個不共線特征點對,令:
奇異值分解5 = 005^,可以得到旋轉(zhuǎn)矩陣4 :
7. 本發(fā)明權(quán)利要求一種非線性運動參數(shù)估計 旋轉(zhuǎn)矩陣用四元數(shù)來表示,g = ft % 運動估計就是利用匹配點集
I過對以下目標(biāo)函數(shù)最小化來估計運動參數(shù):
S代求解上式來計算的最小值: (19) 由此可得到雙目立體測距條件下的自運動參數(shù)。
【文檔編號】G05D1/02GK104281148SQ201310281695
【公開日】2015年1月14日 申請日期:2013年7月7日 優(yōu)先權(quán)日:2013年7月7日
【發(fā)明者】張澤旭, 劉燎 申請人:哈爾濱點石仿真科技有限公司