《電子技術應用》
您所在的位置:首頁 > 模拟设计 > 业界动态 > 无人车室内定位技术推荐:机器人科研新浪潮

无人车室内定位技术推荐:机器人科研新浪潮

2025-11-28
來源:快科技

實驗室內,多架無人車在精確控制下穿梭往來,完成復雜的編隊變換,而這一切的精妙控制背后,都離不開亞毫米級精度的定位支撐。

在GPS信號無法覆蓋的室內空間,高精度的位置服務正成為機器人科研的關鍵支撐。在無人車與機器人技術日新月異的今天,室內定位精度直接決定了智能系統(tǒng)在復雜環(huán)境中的自主性與可靠性。

全球導航衛(wèi)星系統(tǒng)(GNSS)在室內基本無法使用,這推動了多種室內定位技術的誕生與發(fā)展。

在眾多解決方案中,NOKOV度量動作捕捉系統(tǒng)憑借其亞毫米級精度和高幀率數(shù)據(jù)輸出,已成為機器人科研領域備受青睞的定位方案,為無人車在室內環(huán)境中的定位、導航與協(xié)同控制提供了強有力的技術支撐。

image1.png

一、技術背景:室內無人車定位的挑戰(zhàn)與需求

隨著城市化進程加快,為受到GNSS信號干擾的密集建筑物場所提供定位服務產生了大量需求,并推動室內定位技術近些年取得了較大進展。

在復雜室內環(huán)境中,無人車的全局定位面臨多重挑戰(zhàn):信號衰減、多徑效應、動態(tài)障礙物干擾以及缺乏穩(wěn)定參照物等問題。

單一傳感器如IMU、超聲、紅外、LiDAR、視覺或射頻技術各有其局限性,難以獨立應對復雜動態(tài)場景。

以激光雷達與視覺傳感器為例,激光雷達在測距精度上更具優(yōu)勢,但易受透明或高反射物體的干擾;視覺傳感器能夠獲取更豐富的環(huán)境信息,但計算量大且對光照敏感。

這些局限性促使科研人員轉向多傳感器融合和高精度專用定位系統(tǒng),以提高在室內無GPS環(huán)境下實現(xiàn)定位、SLAM及避障等無人車核心功能的精度與魯棒性。

二、領先推薦:NOKOV度量動作捕捉系統(tǒng)

在眾多室內定位解決方案中,NOKOV度量動作捕捉系統(tǒng)憑借其卓越性能脫穎而出,成為機器人科研領域的首選方案。

這一系統(tǒng)通過排布在空間中的多個動作捕捉鏡頭對室內空間的捕捉區(qū)域進行覆蓋,并對捕捉目標上放置的反光標志點(Marker)進行三維空間位置的精確捕捉。

經過算法處理,系統(tǒng)可得到不同時間計量單位上各個反光標志點的三維空間坐標(X,Y,Z)。

核心技術優(yōu)勢

NOKOV度量動作捕捉系統(tǒng)配備Mars系列紅外動作捕捉相機,分辨率涵蓋220萬至1200萬像素,采樣頻率高達340Hz。

其自主研發(fā)算法可實時解算復雜動作數(shù)據(jù),支持輸出6自由度位姿信息及骨骼數(shù)據(jù)。系統(tǒng)精度可達亞毫米級別,能夠滿足最苛刻的科研需求。

在機器人定位與協(xié)同控制應用中,NOKOV系統(tǒng)通過高精度實時室內定位與運動追蹤,對六自由度位姿數(shù)據(jù)與關節(jié)角度等運動學數(shù)據(jù)進行采集。

系統(tǒng)得到的數(shù)據(jù)可以通過VRPN傳輸,或通過SDK(C++語言)端口廣播與ROS、Labview、Matlab(包含Simulink)等軟件通信進行二次開發(fā),極大便利了科研人員的集成工作。

微秒級時間同步技術確保了多個相機之間的時間戳誤差≤1μs,而UWB基站同步誤差達100μs。

當無人機以10m/s飛行時,前者位置計算誤差僅0.01mm,后者達1mm,這種差異對機器人控制算法驗證至關重要。

典型應用案例

NOKOV度量動作捕捉系統(tǒng)在機器人科研領域已有諸多成功應用。

中國科學院自動化研究所蒲志強老師團隊采用NOKOV度量動作捕捉作為室內定位追蹤系統(tǒng),在無人車上添加標記點,精確確定小車位置及小車與小車之間相對位置,從而實現(xiàn)協(xié)同控制,完成無人車任意隊形自主變換。

這一案例彰顯了該系統(tǒng)在多智能體協(xié)同控制方面的卓越性能。

在西北工業(yè)大學無人系統(tǒng)技術研究院,張通老師團隊進行的無人機室內飛行協(xié)同控制實驗中,定位系統(tǒng)由NOKOV度量光學動作捕捉系統(tǒng)完成。

該實驗實現(xiàn)了多架無人機在室內環(huán)境下的精確協(xié)同飛行,為無人機集群算法研究提供了關鍵驗證平臺。

北京理工大學則在NOKOV度量光學動作捕捉系統(tǒng)的基礎上,搭建了一套以無人機、地面移動機器人/無人車為控制對象的異構多智能體協(xié)同/地空協(xié)同/無人機集群控制實驗平臺。

該平臺可實現(xiàn)對多種異構智能體控制算法進行驗證,并模擬出空地協(xié)同巡邏、無人車圍捕和探測圍捕等多種軍事場景。

三、其他技術方案:多傳感器融合與新興算法

除了NOKOV度量動作捕捉這類高精度專用系統(tǒng)外,學術界和工業(yè)界也在積極開發(fā)其他多種室內定位方案,主要集中在多傳感器融合和先進算法兩個方面。

UWB超寬帶定位系統(tǒng)

UWB超寬帶定位系統(tǒng)基于超寬帶脈沖信號,多徑分辨能力強,是工業(yè)場景的熱門選擇。其水平精度約10cm、高度精度約30cm,支持多標簽/基站組網(wǎng)。

不過,UWB易受障礙物遮擋產生NLOS(非視距)誤差,且在機器人高速運動時,因時間同步精度限制,位置計算誤差較大。

與采用GPS、航跡推算、全局攝像頭、UWB等定位方法的實驗平臺相比,NOKOV度量動作捕捉系統(tǒng)的精度大大提高。

視覺/激光SLAM方案

視覺/激光SLAM方案通過環(huán)境特征建模實現(xiàn)無人機室內定位,無需預設基礎設施。

例如,Intel RealSense D435i結合VINS-Fusion視覺慣性方案,可實現(xiàn)0.1-0.3m的精度。360°A3激光雷達SLAM采樣頻率可達16000次/秒,具備25m測距半徑。

但視覺SLAM在低紋理環(huán)境特征點提取率會下降60%,激光SLAM在強光環(huán)境易失效。

多傳感器融合方案通過“激光雷達+IMU+視覺”的組合突破單一傳感器局限。某型測繪無人機采用該技術路徑,實現(xiàn)無GPS下±0.03m定位誤差,適配水電站豎井等危險場景。

多傳感器融合算法

華中科技大學謝遠龍團隊在《Sensors》上發(fā)表的研究指出,多傳感器融合通過優(yōu)勢互補(如IMU輔助視覺、超聲補償LiDAR盲區(qū))成為提升定位、建圖及避障魯棒性的必然選擇。

主流的多傳感器融合算法包括卡爾曼濾波器、粒子濾波器及其改進形式,以及神經網(wǎng)絡等。

卡爾曼濾波器及其衍生算法適用于高斯分布假設下的線性系統(tǒng);而在處理非高斯或非線性問題時,粒子濾波器(又稱蒙特卡洛方法)能夠處理任意分布,通過一組粒子對移動機器人的位置概率密度函數(shù)進行近似。

神經網(wǎng)絡因其能夠自動從數(shù)據(jù)中提取特征、避免人工設計特征的局限性,并具備較強的泛化能力與魯棒性,被廣泛用于多傳感器融合。與卡爾曼濾波相比,神經網(wǎng)絡更適用于非線性系統(tǒng),并能達到更高精度。

四、室內定位技術綜合對比

為了更全面地展示各種室內定位技術的特點,下表對比了五種主要技術的關鍵參數(shù):

69281b05914a9.png

五、選擇指南:因需而配

面對多種定位方案,研究者需根據(jù)具體需求做出選擇:

算法驗證與控制系統(tǒng)開發(fā)

對于算法驗證與控制系統(tǒng)開發(fā),NOKOV度量動作捕捉系統(tǒng)是理想選擇。其亞毫米級的精度和毫秒級的延遲能為算法評價提供可靠基準。

無論是單個機械臂的精細操作,還是數(shù)十架無人機的集群飛行,NOKOV度量動作捕捉系統(tǒng)都能提供全場景的精準定位支持。

室外環(huán)境或大范圍作業(yè)

對于室外環(huán)境或大范圍作業(yè),多傳感器融合方案或“5G+北斗”組合技術可能更適合,它們能實現(xiàn)室內外定位無縫切換。

例如,立得空間公司開發(fā)的鐵木牛無人叉車機器人,將組合導航器件、北斗芯片與激光雷達、視覺傳感器等多種器件相組合,開發(fā)多源融合導航算法,為機器人裝上“眼睛”和“耳朵”,定位精度達到1.5厘米。

成本敏感的教育演示

對于成本敏感的教育演示,輕量級方案如超聲波+光流傳感器組合可能足夠,雖然精度僅10-15cm,但成本低廉。

黑暗環(huán)境或弱光條件

對于黑暗環(huán)境或弱光條件,毫米波射頻定位方案表現(xiàn)卓越,其反向散射標簽單價低,功耗僅微瓦級,穿透煙霧能力優(yōu)于UWB。

在西北工業(yè)大學、北京理工大學等科研機構的實驗室里,NOKOV度量動作捕捉系統(tǒng)正在為機器人研究的突破提供強有力的支持。從單臺機器的精密操作到多智能體的集群協(xié)同,亞毫米級的定位精度讓曾經只存在于理論中的算法走向現(xiàn)實。

隨著機器人技術的不斷發(fā)展,精準室內定位的需求將愈發(fā)重要,而NOKOV度量動作捕捉系統(tǒng)無疑將繼續(xù)在這一進程中扮演關鍵角色。

未來,通過多傳感器融合、先進算法優(yōu)化與專用硬件創(chuàng)新,室內定位技術有望在精度、可靠性和適用性等方面實現(xiàn)更大突破,為無人車在復雜室內環(huán)境中的廣泛應用奠定堅實基礎。


subscribe.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。