一、導(dǎo)語
在雙無人機(jī)協(xié)同建圖與遠(yuǎn)距離稠密建圖研究中,傳統(tǒng)立體相機(jī)如何突破傳統(tǒng)20米感知限制一直是關(guān)鍵難題。近日,上海交通大學(xué)與MBZUAI團(tuán)隊(duì)在IEEE T-RO發(fā)表論文,提出基于動(dòng)態(tài)基線立體視覺的飛行協(xié)同系統(tǒng),通過兩架無人機(jī)實(shí)現(xiàn)最遠(yuǎn)70米三維建圖,誤差低至2.3%–9.7%。實(shí)驗(yàn)中,NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿真值,有效驗(yàn)證了相對(duì)位姿估計(jì)算法的精度與系統(tǒng)可靠性。
二、研究背景:無人機(jī)遠(yuǎn)距離感知難題
無人機(jī)在大規(guī)模未知環(huán)境中安全導(dǎo)航需要遠(yuǎn)距離感知能力。與激光雷達(dá)相比,立體相機(jī)具有高性價(jià)比、輕量化的優(yōu)勢(shì),但傳統(tǒng)立體相機(jī)受限于短固定基線,感知范圍通常不超過20米。
現(xiàn)有寬基線系統(tǒng)體積過大,無法適配小型無人機(jī);而將立體相機(jī)分布在兩架動(dòng)態(tài)飛行的無人機(jī)上,又面臨基線動(dòng)態(tài)變化、特征關(guān)聯(lián)困難等挑戰(zhàn)。

本文提出的CDBSM框架下的飛行協(xié)同立體視覺系統(tǒng)架構(gòu)
三、方法概述:動(dòng)態(tài)基線協(xié)同立體視覺系統(tǒng)
本文提出的CDBSM框架下的飛行協(xié)同立體視覺系統(tǒng)架構(gòu),通過雙無人機(jī)協(xié)同建圖實(shí)現(xiàn)動(dòng)態(tài)基線立體視覺。
在該方法中,通過兩架無人機(jī)形成動(dòng)態(tài)變化的空間基線,實(shí)現(xiàn)遠(yuǎn)距離三維感知能力。同時(shí),在系統(tǒng)驗(yàn)證過程中,NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿參考,用于評(píng)估動(dòng)態(tài)基線估計(jì)與建圖精度。
四、核心技術(shù)貢獻(xiàn)
提出飛行協(xié)同立體視覺系統(tǒng),通過兩架協(xié)同無人機(jī)在統(tǒng)一的協(xié)同動(dòng)態(tài)基線立體建圖框架下構(gòu)建寬基線跨無人機(jī)立體視覺系統(tǒng),實(shí)現(xiàn)大規(guī)模未知環(huán)境中的遠(yuǎn)距離稠密建圖;
開發(fā)雙光譜視覺慣性-測(cè)距估計(jì)器,在復(fù)雜室外環(huán)境下實(shí)現(xiàn)無人機(jī)之間動(dòng)態(tài)基線穩(wěn)健、精確的在線估計(jì);
設(shè)計(jì)混合視覺特征關(guān)聯(lián)策略,融合跨無人機(jī)深度特征匹配與無人機(jī)內(nèi)部特征跟蹤,確保在視角變化時(shí)實(shí)現(xiàn)實(shí)時(shí)、連續(xù)的共視特征對(duì)應(yīng);
提出一種從稀疏到稠密的深度恢復(fù)方案,通過對(duì)遠(yuǎn)距離三角化稀疏特征點(diǎn)的指數(shù)擬合,優(yōu)化單目深度網(wǎng)絡(luò)的稠密深度預(yù)測(cè)結(jié)果,實(shí)現(xiàn)精確的度量級(jí)建圖。
五、實(shí)驗(yàn)驗(yàn)證
5.1 動(dòng)態(tài)基線估計(jì)與相對(duì)位姿精度
實(shí)驗(yàn)評(píng)估了飛行協(xié)同立體視覺系統(tǒng)對(duì)兩架無人機(jī)之間相對(duì)位姿的估計(jì)精度。兩架無人機(jī)在東-北-天坐標(biāo)系中自主飛行同步的圓形軌跡,基線長度設(shè)為3米。
將雙光譜視覺慣性-測(cè)距估計(jì)器的相對(duì)位姿估計(jì)結(jié)果與兩種基準(zhǔn)方法進(jìn)行對(duì)比:(1)僅基于機(jī)間觀測(cè)的視覺透視n點(diǎn)算法;(2)視覺慣性里程計(jì)差分法。
實(shí)驗(yàn)中使用NOKOV度量動(dòng)作捕捉系統(tǒng)提供相對(duì)位姿真值作為評(píng)估基準(zhǔn)。

NOKOV度量動(dòng)作捕捉系統(tǒng)下飛行協(xié)同立體視覺系統(tǒng)相對(duì)位姿估計(jì)實(shí)驗(yàn)
實(shí)驗(yàn)表明:
相對(duì)位置估計(jì)總平均絕對(duì)誤差:0.013米
視覺透視n點(diǎn)算法:0.018米
視覺慣性差分法:0.024米
偏航角誤差:0.214°
同時(shí),在強(qiáng)光、復(fù)雜背景、紅外噪聲和遠(yuǎn)距離觀測(cè)環(huán)境下,基于雙光譜標(biāo)記的視覺檢測(cè)與跟蹤算法跟蹤成功率超過96%,顯著優(yōu)于對(duì)比方法(17%~70%)。

強(qiáng)光、雜亂背景、光噪聲及遠(yuǎn)距離觀測(cè)挑戰(zhàn)下的實(shí)驗(yàn)
5.2 跨相機(jī)特征關(guān)聯(lián)性能評(píng)估
實(shí)驗(yàn)對(duì)比了GP-SS算法與三種基準(zhǔn)方法(SuperPoint-SuperGlue、ORB、SURF)的實(shí)時(shí)性能。
結(jié)果顯示:
GP-SS算法:近30Hz
原始SS算法:13Hz
實(shí)現(xiàn)更高實(shí)時(shí)性與穩(wěn)定性。
5.3 稀疏特征點(diǎn)協(xié)同三角化精度評(píng)估
實(shí)驗(yàn)評(píng)估了不同深度段(0~10m、10~30m、30~50m、50~70m)下特征點(diǎn)重建能力。
結(jié)果顯示:
本文系統(tǒng)在30m以外仍能有效三角化
單無人機(jī)方法無法實(shí)現(xiàn)該能力
5.4 遠(yuǎn)距離稠密建圖性能評(píng)估
在真實(shí)環(huán)境與仿真環(huán)境中開展稠密建圖實(shí)驗(yàn),對(duì)比多種模型與方法。
結(jié)果顯示:
最遠(yuǎn)建圖距離:70米
相對(duì)誤差:2.3%~9.7%
感知范圍提升:350%
覆蓋面積提升:450%
在該實(shí)驗(yàn)中,系統(tǒng)性能評(píng)估同樣依賴NOKOV度量動(dòng)作捕捉系統(tǒng)提供的高精度參考數(shù)據(jù)進(jìn)行結(jié)果對(duì)齊與誤差分析。

室外環(huán)境與逼真仿真環(huán)境下的遠(yuǎn)距離稠密重建實(shí)驗(yàn)
六、實(shí)驗(yàn)結(jié)果總結(jié)

實(shí)驗(yàn)結(jié)論
雙無人機(jī)協(xié)同立體視覺系統(tǒng)已實(shí)現(xiàn)70米遠(yuǎn)距離稠密建圖能力。
NOKOV度量動(dòng)作捕捉系統(tǒng)在該研究中作為位姿真值標(biāo)準(zhǔn)驗(yàn)證算法精度。
動(dòng)態(tài)基線方法將無人機(jī)視覺感知范圍提升超過350%。
七、基于動(dòng)態(tài)基線的雙無人機(jī)協(xié)同立體視覺建圖方法研究FAQ
Q1:該研究中雙無人機(jī)協(xié)同建圖為什么需要?jiǎng)幼鞑蹲较到y(tǒng)?
NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿真值,是驗(yàn)證動(dòng)態(tài)基線估計(jì)與建圖誤差的關(guān)鍵參考標(biāo)準(zhǔn)。
Q2:動(dòng)態(tài)基線立體視覺相比傳統(tǒng)方法優(yōu)勢(shì)是什么?
通過雙無人機(jī)動(dòng)態(tài)形成寬基線,可將感知距離從20米提升至70米,實(shí)現(xiàn)遠(yuǎn)距離稠密建圖。
Q3:如何驗(yàn)證無人機(jī)之間的相對(duì)位姿精度?
可通過NOKOV度量動(dòng)作捕捉系統(tǒng)獲取無人機(jī)真實(shí)位姿,與算法估計(jì)結(jié)果對(duì)比計(jì)算誤差。
Q4:研究成果飛行協(xié)同立體視覺系統(tǒng)系統(tǒng)適用于哪些應(yīng)用場(chǎng)景?
該系統(tǒng)在無人機(jī)的一下場(chǎng)景中進(jìn)行應(yīng)用:
大規(guī)模無人機(jī)測(cè)繪
搜索與救援
智能巡檢
空間智能與具身智能研究
八、引用與作者信息
論文引用:
Z. Wang, X. Zuo and W. Dong, "Flying Co-Stereo: Enabling Long-Range Aerial Dense Mapping via Collaborative Stereo Vision of Dynamic-Baseline," IEEE Transactions on Robotics, vol. 42, pp. 951-970, 2026.
通訊作者信息:
董偉 上海交通大學(xué)機(jī)械與動(dòng)力工程學(xué)院 長聘副教授。
主要研究方向:多機(jī)器人協(xié)同智能與主動(dòng)感知。
左星星 穆罕默德·本·扎耶德人工智能大學(xué)(MBZUAI)機(jī)器人系 長聘助理教授。
主要研究方向:機(jī)器人學(xué)、空間智能、狀態(tài)估計(jì)與具身智能等。

