一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用_第1頁
一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用_第2頁
一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用_第3頁
一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用_第4頁
一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用_第5頁
已閱讀5頁,還剩7頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

精品文檔-下載后可編輯一種視覺導(dǎo)航機器人的設(shè)計-設(shè)計應(yīng)用0引言

機器視覺系統(tǒng)是智能機器人的重要標(biāo)志,機器人視覺系統(tǒng)模仿了人的視覺感知能力,允許對環(huán)境做非接觸式的測量。增加了視覺系統(tǒng)的機器人,其自主和自適應(yīng)能力可以大大提高。目前,機器視覺系統(tǒng)在圖像處理方面多采用封裝式圖像處理方法,把圖像傳感與處理分成獨立的兩個部分。系統(tǒng)通過圖像傳感器獲取圖像并傳入計算機,由計算機完成圖像處理任務(wù)。

本文所介紹的設(shè)計為簡易機器人(能力風(fēng)暴機器人)添加了視覺模塊和無線通信模塊,并研究了相關(guān)算法和策略,實現(xiàn)了自主路徑跟蹤。為了使系統(tǒng)真正做到穩(wěn)定快速,在圖像預(yù)處理、路徑識別和路徑跟蹤等各個環(huán)節(jié)都充分考慮到算法的實時性與魯棒性。

1系統(tǒng)結(jié)構(gòu)

視覺導(dǎo)航機器人的整個系統(tǒng)由兩部分構(gòu)成:添加了無線通信模塊和無線攝像頭的能力風(fēng)暴機器人和遠程計算機。這兩部分之間的通信由無線通信模塊完成。系統(tǒng)結(jié)構(gòu)如圖1所示。圖1中,機器人包括能力風(fēng)暴機器人、無線攝像頭和無線通信模塊三個部分。在機器人工作時,無線攝像頭將采集到的視頻信號傳送給無線視頻接收器,無線視頻接收器再通過視頻采集卡(Osprey210)將待處理的視頻信號傳送給計算機,計算機經(jīng)過處理后,做出相應(yīng)的決策,并將決策信號通過無線通信模塊發(fā)送給機器人,這樣就建立了一個簡單的閉環(huán)控制系統(tǒng)。無線通信模塊由兩個完全相同的無線串口通信模塊組成,工作在全雙工狀態(tài)。在機器人中無線通信模塊與機器人的串口控制器連接,在計算機中無線通信模塊與計算機的COM口相連。

2軟件流程

整個系統(tǒng)的軟件分為機器人接收到遠程計算機指令后的處理軟件和遠程計算機針對到機器人發(fā)來視頻信號進行處理的視覺導(dǎo)航軟件。

機器人的軟件處理流程如圖2所示。機器人不停地掃描串口,一旦串口接收到遠程計算機的指令信號后,機器人便根據(jù)指令做出響應(yīng),整個處理過程比較簡單。

計算機的視覺導(dǎo)航軟件處理流程如圖3所示。機器人視覺系統(tǒng)的原始輸入圖像是經(jīng)圖像采集卡A/D變換之后得到的連續(xù)數(shù)字圖像。系統(tǒng)工作時,首先,圖像預(yù)處理模塊對原始輸入圖像進行平滑濾波,去除噪音點,并進行閾值分割,挑選出對機器人有用的目標(biāo)點(即引導(dǎo)線);然后,路徑跟蹤模塊根據(jù)檢測到的路徑信息,做出策略分析,并對機器人發(fā)送相應(yīng)的運動指令。

3主要算法描述

3.1圖像預(yù)處理

3.1.1圖像的平滑處理

在圖像采集系統(tǒng)中實際獲得的圖像,會因為各種原因受到干擾和噪聲的污染而引起圖像質(zhì)量的下降,圖像平滑處理就是為了消除圖像中存在的噪聲而對圖像施加的一種處理。本系統(tǒng)中采用中值濾波技術(shù)對原始圖像和二值化后的圖像進行濾波,這是一種非線性空間域濾波技術(shù)。這種技術(shù)不僅能有效地抑制圖像中的噪聲,而且能保持圖像中固有的輪廓邊界,不使其變模糊。對平面圖像進行中值濾波時我們一般采用二維中值濾波器。它由下式定義:Yij=MedianXij=Median(Xn)(r,s)∈s

這里,Xij為坐標(biāo)(i,j)的待處理像素;S為平面窗口;而Yij為處理結(jié)果,即平面窗口中各像素值的中值。中值是指大小排序后,中間的數(shù)值。本系統(tǒng)中采用的是3X3的正方形窗口,經(jīng)實驗證明選用該窗口濾波后可以較好地濾除噪音。

3.1.2彩色圖像二值化

圖像二值化的目的是將圖像一分為二,即將圖像劃分為物體和背景兩個部分。本系統(tǒng)中原始輸入圖像為(320×240)像素的RGB24格式圖像,采用直接對每個像素點進行閾值分割的方法即可達到對圖像實現(xiàn)二值化的目的。由于HSL顏色模型中亮度L分量與圖像的顏色信息無關(guān),而與顏色信息有關(guān)的色調(diào)H(表征顏色的種類)和飽和度S分量(表征顏色的深淺程度)對外界光照條件的變化敏感程度低。機器人在移動和旋轉(zhuǎn)時會引起光的亮度變化,RGB顏色模型對光的亮度魯棒性較差,所以在進行圖像二值化時應(yīng)該先將RGB顏色模型轉(zhuǎn)換為具有較強光亮不變性的HSL顏色模型。RGB顏色空間變換到HSL顏色空間的變換公式如下:

選取色調(diào)H作為路徑識別時的主參數(shù)。同時,考慮到實際當(dāng)RGB值較小,即亮度L較小時,H值會趨向于不確定的情況,選取亮度L作為輔助識別參數(shù)。算法為:

其中,Hmin、Hmax為某種顏色色調(diào)分量的閾值和閾值;Lmin為亮度的閾值。

3.2引導(dǎo)線檢測

掃描白線(即引導(dǎo)線)的策略是每隔五行掃描,當(dāng)每行的白色像素點超過35個,而滿足這個條件的行超過16行時,才認為在機器人視野范圍存在白線。因為只有連續(xù)的白色區(qū)域是可以利用的,所以每隔五行進行掃描白線是可行的。這樣做不僅可以節(jié)省計算機的處理時間,加快程序處理速度,提高機器人響應(yīng)的實時性;而且還可以濾除機器人視野范圍內(nèi)可能出現(xiàn)的噪聲點。

引導(dǎo)線檢測的目的不僅僅是為了確定機器人視野范圍內(nèi)是否存在引導(dǎo)線,還需要確定引導(dǎo)線與距離機器人所在點的距離,以及引導(dǎo)線的角度信息。在本系統(tǒng)中,坐標(biāo)約定如圖4所示。其中灰色小點代表機器人,很顯然,機器人在坐標(biāo)系中的坐標(biāo)應(yīng)該為(160,240)。L表示白線中線與直線Y=240的交點和機器人所處位置之間的距離。當(dāng)L0時,上述交點處于機器人左方;L0時,上述交點處于機器人右方。系統(tǒng)中規(guī)定的白線中線的△=△X/△Y,△值可以直接反映出白線角度信息。當(dāng)△0時白線沿"/"方向;△0白線沿"\"方向。由此可知,圖4中的白線中線的△應(yīng)該是大于0的。

在系統(tǒng)中,△的計算方法如下:首先計算出每隔五行掃描到的某一行白線的中點的△值,然后將機器人視野范圍內(nèi)掃描得到的所有行的白線△值累加后求得均值,這個均值就是機器人視野范圍內(nèi)白線的△值。采取這種算法是為了方便處理機器人視野范圍內(nèi)存在多段白線時的情況。以圖5為例,機器人視野范圍內(nèi)有兩段白線。這個時候,系統(tǒng)將兩條白線等效為平均△值對應(yīng)的白線,這樣在機器人眼里始終只有一條白線,有效降低了機器人所應(yīng)對的狀況的復(fù)雜度。

在計算出△值后,系統(tǒng)根據(jù)幾何原理便可計算出L,計算公式如下:

L=Xr-[Xc-(Yr-Yc)×△]

Xr為機器人所在點橫坐標(biāo);Yr為機器人所在點縱坐標(biāo);Xc為白線中點橫坐標(biāo)的均值;Yc為白線中點縱坐標(biāo)的均值。

3.3路徑跟蹤

移動機器人的路徑跟蹤就是通過調(diào)節(jié)機器人的運動速度和方向,使機器人沿期望的路徑運動。即L=0且△=0。機器人對路徑的跟蹤控制可以采用PID控制器、控制器、模糊控制器等方式。由于能力風(fēng)暴機器人是一個具有延遲的非線性時變系統(tǒng),難以建立的數(shù)學(xué)模型,故采用模糊控制器有一定的優(yōu)越性。

根據(jù)人的駕駛經(jīng)驗,當(dāng)人駕駛汽車跟蹤附近路面上的一條車道線時,他首先要進行觀察,將此直線當(dāng)作參考路徑,衡量車體與參考路徑段的橫向距離以及它們所處方向的夾角,而這種衡量是以一種模糊的概念給出的,如"距離比較大,角度很小"等。當(dāng)發(fā)現(xiàn)車體離參考路徑很遠且與期望方向偏角較大時,可以駕駛汽車快速轉(zhuǎn)彎,向期望位置靠攏;而在離參考路徑很近,汽車朝向已正對前方車道線上某一位置時,就不需轉(zhuǎn)動方向盤來改變行駛方向,而是一直保持當(dāng)前行駛狀態(tài),直至離車道線上拐點比較近時,再找下一個參考路徑段??梢愿鶕?jù)上述人的駕駛經(jīng)驗設(shè)計模糊控制器,視覺導(dǎo)引的機器人控制系統(tǒng)結(jié)構(gòu)如圖6所示。

3.3.1模糊化

系統(tǒng)中模糊控制器的輸入量為距離偏差L和角度偏差△,輸出量為機器人小車相對車體軸線的轉(zhuǎn)向偏轉(zhuǎn)角β,輸入輸出量的論域、模糊子集以及模糊子集論域如表1所示。

由于在機器人實際運行過程中,偏差的產(chǎn)生具有隨機性,所以輸入輸出量的模糊子集的隸屬函數(shù)都采用高斯函數(shù)加以描述,即

Ci為隸屬函數(shù)的均值;δi為隸屬函數(shù)的標(biāo)準(zhǔn)差。

3.3.2確定模糊規(guī)則

根據(jù)汽車駕駛的經(jīng)驗可得出如表2所示的49條模糊控制規(guī)則。

3.3.3模糊推理和解模糊

模糊推理采用間接合成法推理公式,假設(shè)現(xiàn)有輸入L*、△*,需求出輸出β*,推理過程如下:

其中合成運算"。"采用取大一取小(MAX-MIN)法。

采用質(zhì)心法進行解模糊處理,從而得到的輸出值,解模糊計算公式如下:

將上述結(jié)果制成模糊控制表存儲起來,在機器人運行過程中只需在線查詢出相應(yīng)的β值,而不必進行大量的數(shù)學(xué)運算,這樣可以節(jié)省運算時間,提高控制的實時性。

4綜述

目前此系統(tǒng)已經(jīng)通過中國科學(xué)技術(shù)大學(xué)教育處驗收,并作為本科生智能機器人教學(xué)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論