亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法的制作方法

文檔序號:6587176閱讀:251來源:國知局
專利名稱:一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法的制作方法
技術(shù)領(lǐng)域
本發(fā)明涉及農(nóng)業(yè)機(jī)械化技術(shù)領(lǐng)域,尤其涉及的是一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法。
背景技術(shù)
Marchant[1’2 ]等嘗試使用Hough變換提取3壟信息,并通過攝像頭內(nèi)外參數(shù)標(biāo)定獲得視覺導(dǎo)航參數(shù),但沒有進(jìn)行多壟信息融合,并分析了 Hough變換可以提取多壟信息,且具備實現(xiàn)農(nóng)業(yè)機(jī)械實時、低速自主作業(yè)的條件。隨后Marchantt3]等將視覺信息、車速信息通過Kalman濾波融合,規(guī)劃出行車策略,標(biāo)準(zhǔn)偏差為20mm,滿足農(nóng)田機(jī)械進(jìn)行噴施等作業(yè)條件。Plam等基于視覺系統(tǒng)圖像中壟線將于圖像外一虛點(diǎn)處匯交,開發(fā)了基于虛點(diǎn)預(yù)測缺失壟行的壟線識別算法,有效利用了系統(tǒng)成像特點(diǎn),使系統(tǒng)的檢測性能得到了改善,進(jìn)而結(jié)合系統(tǒng)模型結(jié)構(gòu)參數(shù)獲得導(dǎo)航參數(shù)。經(jīng)過圖像序列的測試,算法魯棒性較好,能夠克服一些斷壟等的影響。Sanchiz[5]等提出了視覺導(dǎo)航和精確噴施車輛模型算法,試圖建立車輛運(yùn)動參數(shù)與噴施決策的關(guān)系地圖以實現(xiàn)自動導(dǎo)航和自動精確噴施。主要內(nèi)容包括基于圖像特征序列反向獲取車輛的運(yùn)動參數(shù)、車輛路徑識別和基于Kalman濾波的目標(biāo)恢復(fù)。在文獻(xiàn)[6]中他們進(jìn)一步完善了該視覺導(dǎo)航和自動噴施系統(tǒng),通過靜態(tài)圖像處理測試對系統(tǒng)性能進(jìn)行了分析,將農(nóng)業(yè)機(jī)械的視覺導(dǎo)航、自動噴施和控制轉(zhuǎn)向功能模塊進(jìn)行了協(xié)調(diào)和規(guī)劃,在農(nóng)業(yè)機(jī)械自主作業(yè)系統(tǒng)的研制方面做了一些有益的探索。瑞典的Astrandm等提出了基于矩形條的視覺導(dǎo)航系統(tǒng)壟行識別算法。其特點(diǎn)是采用Hough變換在矩形條內(nèi)提取目標(biāo)線,目標(biāo)線的條數(shù)與壟行寬度相對應(yīng),屬于某一壟行的“目標(biāo)線”必定相交于圖外一 “虛點(diǎn)”,利用這些條件可通過檢測目標(biāo)線條數(shù)決定壟行,然后取多個壟行的平均得到行壟信息,有效地抑制了雜草噪聲的影響,實驗的標(biāo)準(zhǔn)偏差為厘米級。其特點(diǎn)是有效利用了多壟信息克服雜草噪聲影響。澳大利亞的Billingsley 等開發(fā)出一種成功的農(nóng)業(yè)機(jī)械視覺導(dǎo)航系統(tǒng)。該系統(tǒng)采用條形框捕獲作物行像素,然后在條形框內(nèi)通過回歸的方法擬合出壟線;同時,通過計算條形框內(nèi)目標(biāo)像素的距來去除雜草等噪聲。在視覺系統(tǒng)攝像頭安置的視角下,可在三個條形框內(nèi)對壟像素進(jìn)行回歸處理,所擬合出的三條壟線必定相交。利用該相交點(diǎn)的序列值變化與條形框的中心位置變化可分別估算出系統(tǒng)的航向角參數(shù)和側(cè)向距離參數(shù)。該系統(tǒng)在棉田實驗取得了較好效果,能夠保持2cm系統(tǒng)精度。其特點(diǎn)是盡量避免較大的計算,在不影響數(shù)據(jù)處理的情況下直接訪問內(nèi)存(DMA)圖像數(shù)據(jù),提高了系統(tǒng)的實時性;其不足之處是:條形框內(nèi)目標(biāo)壟像素數(shù)的判斷具有不確定性,且條形框的形狀參數(shù)設(shè)置會影響壟線的擬合。因此,在作物生長比較規(guī)整、土地比較平坦和壟行結(jié)構(gòu)比較清晰的條件下,該系統(tǒng)具有較好的性能。比利時的Leemanst9]針對收獲期菊苣壟田特點(diǎn),提出了可適Hough變換識別壟溝線算法。該算法采用中值濾波器去除土壤背景和陰影,通過神經(jīng)網(wǎng)絡(luò)確定作物植株位置。但當(dāng)作物根部與土壤具有相同顏色,光照條件變化時,作物與土壤背景的分割仍較困難。采用可適Hough變換提取各目標(biāo)類壟線,并計算壟線的參考位置與角度,其魯棒性較強(qiáng),試驗結(jié)果較好,能夠滿足農(nóng)田視覺導(dǎo)航要求;但當(dāng)作物壟出現(xiàn)缺失時,算法將導(dǎo)致不期望的結(jié)果。在另一篇文獻(xiàn)[1°]中,作者進(jìn)一步開發(fā)了基于播種線識別的輔助視覺導(dǎo)航系統(tǒng),田間試驗結(jié)果的(包括系統(tǒng))誤差小于100mm,可滿足農(nóng)田條播作業(yè)視覺導(dǎo)航的要求,并指出該系統(tǒng)對攝像頭的安裝要求較高。美國的Zhangtl1]采用了 GPS、⑶S、羅盤和視覺傳感器等多源信息融合技術(shù)構(gòu)建農(nóng)田自動導(dǎo)航系統(tǒng),分析了各傳感器的優(yōu)勢,并指出信息融合是實現(xiàn)農(nóng)田自動導(dǎo)航較好的方式。此后,Hantl2]等提出基于視覺的導(dǎo)航基準(zhǔn)線算法。該算法先采用K均值聚類分割壟行,然后計算目標(biāo)區(qū)域矩識別壟行,最后構(gòu)建代價函數(shù)確定導(dǎo)航線。對大豆田30幅圖像的試驗結(jié)果:平均RMS側(cè)向誤差為1.0cm,平均代價為4.99 ;相對15幅谷子田圖像的處理結(jié)果:平均RMS側(cè)向誤差為2.4cm,平均代價為7.27,可滿足農(nóng)田機(jī)器視覺導(dǎo)航作業(yè)的精度要求。Bakkert13]等為了改善視覺導(dǎo)航圖像處理的速度,提出了基于灰度圖像的Hough變換和圖像融合的壟線檢測方法。大棚環(huán)境下每幅圖像的處理速度達(dá)到0.5 1.3s,但缺乏對壟線結(jié)構(gòu)的信息的獲取。Pajares[14]等針對嚴(yán)重雜草侵害的玉米田,提出基于模板匹配的壟行自動識別算法。該算法考慮了田間機(jī)器人位姿信息對壟線匹配的影響,但壟線模板的形式受到限制,會影響其識別的準(zhǔn)確性。Guerrei^15]等設(shè)計了采用專家系統(tǒng)識別壟線,利用了綠色加強(qiáng)算法,并采用Otsu方法進(jìn)行二值化閾值獲取,最后基于Theil-Sen進(jìn)行壟線矯正處理。但在農(nóng)業(yè)機(jī)械低速作業(yè)情況下,該算法的時間開銷較大,最短的時間消耗為
0.476s,隨圖像背景復(fù)雜甚至到達(dá)9s。參考文獻(xiàn):[I]Marchant John A., Brivot Renaud.Real-time tracking of plant rowsusing a Hough transform[J].Real-Time Imaging,1995,1 (15):363-371[2]Marcha nt J.A..Tracking of row structure in three crops using imageanalysis[J].Computers and Electronics in Agriculture,1996,15 (2): 161-179[3]Marchant J.A., Hague T., Tillett N.D..Row-following accuracy of anautonomous vision-guided agricultural vehicle[J].Computers and Electronics inAgriculture,1997,16(2):165-175[4]Pla F., Sanchiz J.M., Marchant J.A., et al..Building perspectivemodels to guide a row crop navigation vehicle[J].1mage and Vision Computing,1997,15(6):465-473[5] Sanchiz J.M., Pla F., Marchant J.A., Brivot R..Structure from motiontechniques applied to crop field mapping[J].1mage and Vision Computing.1996,14(5):353-363[6]Sanchiz J.M., Pla F., Marchant J.A..An approach to the vision tasksinvolved in an autonomous crop protection vehicle.Engineering Applications ofArtificial Intelligence,1998,11(2):175-187[7] B jo" rn Astrand,Albert-Jan Baerveldt.A vision based row-followingsystem for agricultural field machinery[J].Mechatronics,2005,15(2)251-269[8]Billingsley J., Schoenfishch M..The successful development ofa vision guidance system for agriculture[J].Computers and Electronics inAgriculture,1997,16(2):147-163
[9]Leemans V.,Destain M.-F..Line cluster detection using a variant ofthe Hough transform for culture row localization[J].1mage and Vision Computing,2006,24(5):541-550[10]Leemans V., Destain M.-F..A computer-vision based precision seeddrill guidance assistance[J].Computers and Electronics inAgriculture,2007,59(1):1-12[11]Zhang Qin,Reid John F..Automated guidance control for agriculturaltractor using redundant sensors.EIC-41(UILU-ENG-99-7004),1999.
[12]Han S.,Zhang Q.,Ni B.,et al..A guidance directrix approachto vision-based vehicle guidance systems[J].Computers and ElectronicsinAgriculture,2004,43(3): 179-195.
[13]BakkerTijmen, Wouters Hendrik,Asselt Kees van, et al..A visionbased row detection system for sugar beet[J].Computers and Electronics inAgriculture,2008,60(3):87-95.
[14]Montalvo M.,Pajares G.,Guerrero J.M.,et al..Automatic detectionof crop rows in maize fields with high weeds pressure[J].Expert Systems withApplications,2012,1(15):11889-11897[15]Guerrero J.M.,Guijarro M.,,Montalvo M.,et al..Automatic expertsystem based on images for accuracy crop row detection in maize fields[J].Expert Systems with Applications,2013,40(2):656-664[16]Zhibin Zhang, Caixia Liu, Xiaodong Xu.A Green Vegetation ExtractionBased-RGB Space in Natural Sunlight[J].Advanced Materials Research,2011,225-226:660-66
發(fā)明內(nèi)容
本發(fā)明針對現(xiàn)有農(nóng)業(yè)機(jī)械視覺導(dǎo)航多壟線識別算法的實時性、魯棒性和適應(yīng)性問題,在已有綠色作物圖像分割算法基礎(chǔ)上,為了改善壟線識別的準(zhǔn)確性和實時性,設(shè)計了壟行圖像背景噪聲除去濾波器;提出了基于一維線的Hough變換壟線識別,較大程度地改善了傳統(tǒng)基于Hough變換識別壟線的實時性;充分利用了壟線結(jié)構(gòu)的先驗知識,結(jié)合專家系統(tǒng)進(jìn)行壟線結(jié)果的甄別,以找出正確的壟線。提高了農(nóng)業(yè)機(jī)械視覺導(dǎo)航系統(tǒng)的魯棒性和適應(yīng)性。最大可識別壟線數(shù)可達(dá)5條,整個壟線識別過程的時間消耗在普通PC計算機(jī)配置環(huán)境下僅為0.4s,從而可為農(nóng)業(yè)機(jī)械視覺導(dǎo)航系統(tǒng)提供多壟線的結(jié)構(gòu)信息,有利于其獲得準(zhǔn)確、實時,魯棒性高的導(dǎo)航序列參數(shù)。本發(fā)明的技術(shù)方案如下:一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法,包括如下步驟:Al、壟田圖像的預(yù)處理:I)對獲取的農(nóng)田圖像進(jìn)行綠色提取和二值化處理;2)對二值化處理后的圖像進(jìn)行除噪處理;A2、基于專家系統(tǒng)的壟線識別
I)基于一維Hough變換提取壟線田間機(jī)器人視覺系統(tǒng)所拍攝的圖像的高度、寬度均為已知,沿圖像水平中位線上對每個像素點(diǎn),進(jìn)行式(I)所示的Hough變換提取壟線:即在過該像素點(diǎn)角度范圍(0° 180° )內(nèi)找出所有直線上數(shù)據(jù)點(diǎn)最多的線,然后,將統(tǒng)計出該線的角度和線上數(shù)據(jù)點(diǎn)量,分別記入統(tǒng)計數(shù)組 LocalMaxAngle
、LocalMaxData
;式(I)為一維Hough變換找壟線表達(dá)式,其中,P為點(diǎn)(xO,h)到直角坐標(biāo)原點(diǎn)的距離,width, height分別為處理圖像的寬度和高度,h = height/2 ;P = X0Cos Θ +hsin θ , Θ e
, X0 e [O, width] (I)2)查找特征最明顯的第一條壟線查找統(tǒng)計數(shù)組中數(shù)據(jù)量最大的點(diǎn)及其角度,作為圖像范圍內(nèi)壟線特征最明顯的第一條壟線,并記錄其與中位線的交點(diǎn)和夾角。同時,對對第一條壟線上的壟線特征進(jìn)行提取:壟線最大空白區(qū)域,即最大的連續(xù)背景點(diǎn)區(qū)域;壟線數(shù)據(jù)點(diǎn)平均分布P,即按式(2)進(jìn)行處理
權(quán)利要求
1.一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法,其特征在于,包括如下步驟: Al、壟田圖像的預(yù)處理: 1)對獲取的農(nóng)田圖像進(jìn)行綠色提取和二值化處理; 2)對二值化處理后的圖像進(jìn)行除噪處理; A2、基于專家系統(tǒng)的壟線識別 1)基于一維Hough變換提取壟線 田間機(jī)器人視覺系統(tǒng)所拍攝的圖像的高度、寬度均為已知,沿圖像水平中位線上對每個像素點(diǎn),進(jìn)行式(I)所示的Hough變換提取壟線:即在過該像素點(diǎn)角度范圍(0° 180° )內(nèi)找出所有直線上數(shù)據(jù)點(diǎn)最多的線,然后,將統(tǒng)計出該線的角度和線上數(shù)據(jù)點(diǎn)量,分別記入統(tǒng)計數(shù)組 LocalMaxAngle
、LocalMaxData
;式(I)為一維Hough變換找壟線表達(dá)式,其中,P為點(diǎn)(xO, h)到直角坐標(biāo)原點(diǎn)的距離,width, height分別為處理圖像的寬度和高度,h = height/2 ;P = X0Cos Θ +hsin θ , Θ e
, x0 e [O, width] (I) 2)查找特征最明顯的第一條壟線 查找統(tǒng)計數(shù)組中數(shù)據(jù)量最大的點(diǎn)及其角度,作為圖像范圍內(nèi)壟線特征最明顯的第一條壟線,并記錄其與中位線的交點(diǎn)和夾角;同時,對第一條壟線上的壟線特征進(jìn)行提取:壟線最大空白區(qū)域,即最大的連續(xù)背景點(diǎn)區(qū)域;壟線數(shù)據(jù)點(diǎn)平均分布P,即按式(2)進(jìn)行處理
全文摘要
本發(fā)明公開了一種基于一維Hough變換和專家系統(tǒng)的早期苗田壟線識別算法,包括如下步驟A1、壟田圖像的預(yù)處理A2、基于專家系統(tǒng)的壟線識別1)基于一維Hough變換提取壟線;2)查找特征最明顯的第一條壟線;3)查找其余壟線。本發(fā)明具有以下有益效果1)采用基于一維線的Hough變換獲取多壟線,改善了農(nóng)業(yè)機(jī)械視覺導(dǎo)航系統(tǒng)多壟線識別的實時性;2)充分利用壟線結(jié)構(gòu)信息,采用專家系統(tǒng)推理獲取準(zhǔn)確的壟線,改善了農(nóng)業(yè)機(jī)械視覺導(dǎo)航系統(tǒng)多壟識別的魯棒性和適應(yīng)性。
文檔編號G06K9/00GK103186773SQ20131005743
公開日2013年7月3日 申請日期2013年2月6日 優(yōu)先權(quán)日2013年2月6日
發(fā)明者張志斌, 劉占, 高光來, 許崗 申請人:內(nèi)蒙古大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1