技術頻道

娓娓工業(yè)
您現(xiàn)在的位置: 中國傳動網 > 技術頻道 > 應用方案 > 神經網絡集成、多傳感器融合在機器人對障礙物的識別中的應用

神經網絡集成、多傳感器融合在機器人對障礙物的識別中的應用

時間:2007-07-13 11:52:00來源:lihan

導語:?近年來,基于傳感器的機器人研究成為開發(fā)智能機器人的一個重要方面,具有重大的應用價值和發(fā)展前景。
前言    近年來,基于傳感器的機器人研究成為開發(fā)智能機器人的一個重要方面,它極大地改善了機器人的作業(yè)能力,具有重大的應用價值和發(fā)展前景。多傳感器融合技術就是對同一檢測對象,利用各種傳感器檢測的信息和不同的處理方法以獲得該對象的全面檢測信息,從而提高檢測精度和可靠性。在多傳感器系統(tǒng)中,信息表現(xiàn)為多樣性、復雜性以及大容量,信息處理不同于單一的傳感檢測處理技術,多傳感器信息融合技術已成為當前的一個重要研究領域。目前信息融合方法利用多個信息源所獲取的關于對象和環(huán)境的信息獲得根據(jù)任務所需要的全面、完整的信息,主要體現(xiàn)在融合算法上[1][2][3]。因此,多源信息融合的核心問題是選擇合適的信息融合算法。信息融合的方法主要分以下幾類:直接對數(shù)據(jù)源操作,如加權平均、神經元網絡等;利用對象的統(tǒng)計特性和概率模型進行操作,如卡爾曼濾波、貝葉斯估計、多貝葉斯估計、統(tǒng)計決策理論等;基于規(guī)則推理的方法,如模糊推理、證據(jù)推理、產生式規(guī)則等。其中基于神經網絡的多種傳感器信息融合是近幾年來發(fā)展的熱點. 神經網絡使用大量簡單的處理單元(即神經元)處理信息,神經元按層次結構的形式組織,每層上的神經元以加權的方式與其它層 上的神經元聯(lián)接,采用并行結構和并行處理機制因而網絡具有很強的容錯性以及自學習、自組織和自適應能力,能夠模擬復雜的非線性映射。神經網絡的這些特性和強大的非線性處理能力,恰好滿足了多傳感器信息融合技術處理的要求,可以利用神經網絡的信號處理和自動推理功能實現(xiàn)多傳感器信息融合技術。    基于神經網絡集成的傳感器信息融合算法    避開障礙物是移動機器人導航中重要的一部分。移動機器人中的多種傳感器信息融合通??梢苑譃閮深悾旱图壢诤虾透呒壢诤稀5图壢诤现傅氖菍鞲衅鲾?shù)據(jù)直接進行集成,實質上就是進行參數(shù)和狀態(tài)估計。然后這些估計可以用于路徑規(guī)劃和執(zhí)行機構,以產生機器人驅動器的命令和控制信號。高級融合指的是在一個層次化的結構中,對不同模塊提供的控制信號進行分配或集成,從而對傳感器數(shù)據(jù)進行間接融合。對于高級融合,文獻[i]等提出了基于行為的結構,文獻[5]提出了一種基于神經網絡的統(tǒng)一框架。本文提出了一種基于神經網絡集成的傳感器信息融合算法,并在HEBUT-I型機器人上將神經網絡集成用于對障礙物的識別上,提高了系統(tǒng)的識別精度,取得了很好的效果。
神經網絡的集成    1996年,Sollich和Krogh [6] 將神經網絡集成定義為:“神經網絡集成是用有限個神經網絡對同一個問題進行學習,集成在某輸入示例下的輸出由構成集成的各神經網絡在該示例下的輸出共同決定”。1996年,Gutta和Wechsler [7] 將神經網絡集成和判定樹相結合進行正面人臉識別,神經網絡的集成由BP網絡采用相對多數(shù)投票法構成,實驗結果表明,使用神經網絡集成不僅增加了系統(tǒng)的健壯性,還提高了識別率。
[/align] 集成的結構有并聯(lián)式,并聯(lián)式是指各個識別子系統(tǒng)都獨立地接受原始圖像并給出自己的識別結果,而后在相互獨立的識別結果基礎上得到最終的答案,并行集成的方法主要有投票的方法、貝葉斯方法和神經網絡合成方法。在并聯(lián)形式時各分類器是獨立設計的,組合的目的就是將各個單一分類器的結果以適當?shù)姆绞骄C合起來成為最終識別結果。以并聯(lián)形式組合時,各分類器提供的信息可以是分類類別,也可以是有關類別的度量信息(如距離或概率等)。    在實際應用中,由于各個獨立的神經網絡并不能保證錯誤不相關,因此,神經網絡集成的效果與理想值相比有一定的差距,但其提高泛化能力的作用仍相當明顯。
單個BP網絡(Back propagation fuzzy neural network)的建立    在多傳感器系統(tǒng)中,各傳感器提供的環(huán)境信息都具有一定程度的不確定性,對這些不確定信息的融合過程實質上是一個不確定性推理過程。由于模糊邏輯技術和神經網絡技術各自獨到的特點,將模糊技術和神經網絡有機結合組成模糊神經網絡控制系統(tǒng),可實現(xiàn)模糊規(guī)則自動提取、模糊隸屬函數(shù)的自動生成及在線調節(jié)。因此本文在單個BP網絡的構建上采用了一種模糊神經網絡(Back propagation fuzzy neural network)的信息融合的構建方法,它不依賴于系統(tǒng)的精確數(shù)學模型且適用于復雜的系統(tǒng)和過程。單個BP網絡的學習機制上采用模糊學習的方法,這種學習方法的特點是學習過程用模糊量(隸屬度)進行測度,即輸入量是經過模糊化后的模糊量。對于兩輸入單輸出的模糊神經網絡,訓練集為(d1,T1),d1=(d11,d12),T1為期望輸出。若全部模糊量采用三角形隸屬函數(shù)(對于其他隸屬函數(shù),同理),d1j ∈ [1,0],權值∈[1,0]。采用的誤差信號為:
學習的目的是使E 最小,但由于模糊系統(tǒng)的特殊性,即使所有Yi=Ti,也不會為零,因此,根據(jù)不同的要求,需要不同的停止迭代規(guī)則。對于多輸入多輸出(MIMO)的模糊規(guī)則可以分解為若干個多輸入單輸出(MISO)的模糊規(guī)則。    多個BP網絡的集成    如圖2所示,信號處理神經網絡用干對單個傳感器檢測到的信號進行處理,提取有用信息,作為融合神經網絡的輸入,融合神經網絡對得到的信息在一定的層次上進行融合處理,以得到更全面、更準確的信息。也就是所說,分別搭建識別各種障礙物的子網絡,以并行集成的方式把各個個體網絡組合起來,可以獲得一個高性能的識別系統(tǒng)。每一個單元BP網絡可以很好的做到圖像預處理、降維等特征提取。對于每一個傳感器的目標向量X的每一分量,可以對應BP神經網絡的每一個輸入,經過訓練集的數(shù)據(jù)學習應用測試集A、B測試,將結果作為集成網絡的輸入,利用Boosting方法生成集成網絡個體。    移動機器人多傳感器信息融合及對障礙物的識別    子網絡對障礙物的識別過程    如圖3 所示,在HEBUT-II型機器人(圖3所示)上有三大傳感器組,CCD攝像機、紅外傳感器、超聲波測距傳感器。正如視覺給人類提供了70%以上的所需信息、為人類的正常生活和工作提供了必要保障一樣,視覺系統(tǒng)為移動機器人提供了大量的信息。給移動機器人配備視覺裝置(CCD攝像機結構),可以使移動機器人在行走時能夠識別其前方的障礙物,這對移動機器人實現(xiàn)智能化行駛具有重要意義。為了使移動機器人在一個不確定甚至是完全陌生的環(huán)境下實現(xiàn)自主式導航,關鍵在于視覺系統(tǒng)精確與否。超聲波傳感器以其價格低廉、硬件容易實現(xiàn)等優(yōu)點,被廣泛用作測距傳感器,實現(xiàn)定位及環(huán)境建模。超聲波測距作為輔助視覺系統(tǒng)與其它視覺配合使用,可實現(xiàn)整個視覺功能。    圖像的形狀輪廓有多種表示方法,Dubois[8]等人首先提出使用一個以形心為基點,等旋轉角度間隔采樣的矢量序列近似描述圖形的邊界,該矢量的模由形心到各邊界點的直線距離決定,但該方法僅限于凸性圖形。Gupta[9]采用類似的徑向投影序列作為多層感知器的輸入分類特征,將等分角度間隔改為沿邊界各象素跟蹤的方法,較Dubois更為精確。本文采用以形心為基點,沿邊界各象素跟蹤的方法,由形心到各邊界點的直線距離構成邊心距序列,經歸一化后作為各輸入目標模式的分類特征。邊心距序列具有一些很重要的性質:周期性, 平移不變性, 旋轉不變性, 比例性。邊心距序列的上述特性使其可用于圖像識別。當物體的形狀通過用邊心距表示時,一個二維圖像就表示成了一個一維的曲線波形。我們可以用這個方法來對實驗中獲得的邊心距序列與參考波形作比較來識別平面圖像。    超聲波測距傳感器在有效測距范圍內有被測物的話,則在后一路超聲波束發(fā)出之前應當接收到前一路發(fā)回的反射波,否則認為前一路無被測物。因此按有效測距范圍可以估算出最短的脈沖間隔發(fā)送時間。為了減少超聲波束的影響,應用循環(huán)采集的方法,一次只有一個超聲波傳感器采集數(shù)據(jù)。超聲波系統(tǒng)被排列成3×3陣列,這樣,相對于整幅圖像的3×3個區(qū)域得到了相應的3×3個距離值。但是,物體的圖像可能只是占了整幅圖像的一部分,并且只需要估算9個距離值:相應于所抽取的8個特征點的8個距離值以及形心的距離值。本文的估算是基于特征點和形心與它們所在的區(qū)域的關系而采取的一種簡單方法:特征點的距離就估算為其所在區(qū)域的距離值。通過坐標轉換獲得了在攝像機坐標系統(tǒng)中的9個點的距離值。    紅外傳感器作為一種重要的被動傳感器,由于有許多獨特的優(yōu)點,在目標檢測和跟蹤中具有重要的作用[10]。紅外傳感器不向空中輻射任何能量,只是通過接收目標輻射的熱能對目標進行探測和跟蹤的,因而不易被偵察或定位,具有較強的抗干擾能力;同時由于目標不可避免地要輻射熱量,從而又為使用紅外傳感器對目標探測和跟蹤創(chuàng)造了條件。在子網絡中采用文獻[11]提出的利用質心及質心偏移測量的紅外目標跟蹤方法,這種方法除具有能精確跟蹤目標的優(yōu)點外,還具有測量模型是線性的特點,文獻[12]在強度分布未知情況下,利用文獻[13,14,15]的方法估計強度參數(shù),再利用質心及質心位移對紅外目標進行精確跟蹤。
融合網絡決策    如圖4所示,子網絡1、2對同一目標有了各自的識別結果,利用集成網絡與融合決策網絡對障礙物進行判別。神經網絡集成作為一種新興的神經計算方法,具有比單一神經網絡系統(tǒng)更強的泛化能力,實際上就是利用神經網絡集成強的泛化能力對原始數(shù)據(jù)集進行類似于平滑去噪等作用的加工,使其包含更多的有助于預測的信息。經過集成與融合的多傳感器系統(tǒng)能完善地、精確地反映環(huán)境特征,消除信息的不確定性,提高傳感器的可靠性。    通過子網絡1、2對同一目標的識別,利用圖4融合決策網絡進行集成、決策,這樣可以得到一系列的值。如表1所示。    實驗結果分析    仿真實驗利用VC++6.0編程,BP網的輸入節(jié)點17個,輸出節(jié)點為4個,隱含層節(jié)點是16個,要識別的障礙物有球體、長方體、正三棱錐、圓柱體。當移動機器人移動時,超聲波發(fā)射器每隔一個固定的時間段就發(fā)射一次超聲波。當移動機器人進行到適當?shù)奈恢脮r,采樣就開始了。在取樣過程中,小車繞著障礙物轉,每隔10°取樣一次。神經網絡用這些訓練數(shù)據(jù)來進行離線訓練。在測試中,設計兩組測試數(shù)據(jù)來驗證系統(tǒng)的有效性。仿真中用到的這些數(shù)據(jù)集如表1所示:移動機器人以0.45m/s的速度前進,識別率(Identify Ratio,簡稱IR)列于圖中。集成的BP網的識別率分別為:91.82%,92.08%,92.37%,93.91%和92.94%,93.35%,93.98%,94.5% (圖5中以實芯的框圖表示) 。當實驗次數(shù)增加時,識別率還會提高。但從我們的仿真中已可看出,本方法是實用而有效的,移動機器人可以實時地識別出障礙物類型。    在文獻[16]中利用了單個多層BP網絡對障礙物進行識別,同樣要識別的障礙物有正三棱錐、長方體、圓柱體、球體,應用了相同的訓練集合測試集 。論文中實驗結果單個BP網的識別率分別為:85%,80%,85%,100%和84%,80%,87%,100%。(圖5中以虛芯的框圖表示) 。    雖然在文獻[16]中對個別物體(比如球體)的識別率達到了100%,這正是單個網絡對簡單物體識別的優(yōu)勢所在。對一些復雜的目標,特別是在實際的復雜環(huán)境中,集成的BP網絡將體現(xiàn)出較強的識別能力和較高的準確性。由這些數(shù)據(jù)可以看出集成的BP網絡要比單個多層BP網絡識別的精度高很多,識別的精確度也更科學。    結論    總之,利用本文提出的多種傳感器目標識別的融合結構,建立了兩個多層BP處理網絡,來處理CCD攝像機和超聲波測距傳感器的信號、紅外傳感器和超聲波測距傳感器的信號。從實驗結果分析和比較可以證明基于神經網絡集成的多傳感器融合信號識別要比單個網絡有更高的健壯性,識別能力也更高,這樣給機器人對陌生環(huán)境的辨識和決策提供了更有力的科學依據(jù)。

標簽:

點贊

分享到:

上一篇:TMS320C54X在GSM綜合測試儀中...

下一篇:微能WIN-V63矢量控制變頻器在...

中國傳動網版權與免責聲明:凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.treenowplaneincome.com)獨家所有。如需轉載請與0755-82949061聯(lián)系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯(lián)網或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

網站簡介|會員服務|聯(lián)系方式|幫助信息|版權信息|網站地圖|友情鏈接|法律支持|意見反饋|sitemap

中國傳動網-工業(yè)自動化與智能制造的全媒體“互聯(lián)網+”創(chuàng)新服務平臺

網站客服服務咨詢采購咨詢媒體合作

Chuandong.com Copyright ?2005 - 2024 ,All Rights Reserved 版權所有 粵ICP備 14004826號 | 營業(yè)執(zhí)照證書 | 不良信息舉報中心 | 粵公網安備 44030402000946號