《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模拟设计 > 业界动态 > IEEE T-RO论文:双无人机协同建图实现70米远距离稠密重建

IEEE T-RO论文:双无人机协同建图实现70米远距离稠密重建

——基于动态基线立体视觉的无人机远距离感知新突破
2026-04-13
來源:NOKOV

一、導(dǎo)語

在雙無人機(jī)協(xié)同建圖與遠(yuǎn)距離稠密建圖研究中,傳統(tǒng)立體相機(jī)如何突破傳統(tǒng)20米感知限制一直是關(guān)鍵難題。近日,上海交通大學(xué)與MBZUAI團(tuán)隊(duì)在IEEE T-RO發(fā)表論文,提出基于動(dòng)態(tài)基線立體視覺的飛行協(xié)同系統(tǒng),通過兩架無人機(jī)實(shí)現(xiàn)最遠(yuǎn)70米三維建圖,誤差低至2.3%–9.7%。實(shí)驗(yàn)中,NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿真值,有效驗(yàn)證了相對(duì)位姿估計(jì)算法的精度與系統(tǒng)可靠性。

二、研究背景:無人機(jī)遠(yuǎn)距離感知難題

無人機(jī)在大規(guī)模未知環(huán)境中安全導(dǎo)航需要遠(yuǎn)距離感知能力。與激光雷達(dá)相比,立體相機(jī)具有高性價(jià)比、輕量化的優(yōu)勢(shì),但傳統(tǒng)立體相機(jī)受限于短固定基線,感知范圍通常不超過20米。

現(xiàn)有寬基線系統(tǒng)體積過大,無法適配小型無人機(jī);而將立體相機(jī)分布在兩架動(dòng)態(tài)飛行的無人機(jī)上,又面臨基線動(dòng)態(tài)變化、特征關(guān)聯(lián)困難等挑戰(zhàn)。

3a7d7529-4ac4-46de-bee5-051842096d09.png

本文提出的CDBSM框架下的飛行協(xié)同立體視覺系統(tǒng)架構(gòu)

三、方法概述:動(dòng)態(tài)基線協(xié)同立體視覺系統(tǒng)

本文提出的CDBSM框架下的飛行協(xié)同立體視覺系統(tǒng)架構(gòu),通過雙無人機(jī)協(xié)同建圖實(shí)現(xiàn)動(dòng)態(tài)基線立體視覺。

在該方法中,通過兩架無人機(jī)形成動(dòng)態(tài)變化的空間基線,實(shí)現(xiàn)遠(yuǎn)距離三維感知能力。同時(shí),在系統(tǒng)驗(yàn)證過程中,NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿參考,用于評(píng)估動(dòng)態(tài)基線估計(jì)與建圖精度。

四、核心技術(shù)貢獻(xiàn)

提出飛行協(xié)同立體視覺系統(tǒng),通過兩架協(xié)同無人機(jī)在統(tǒng)一的協(xié)同動(dòng)態(tài)基線立體建圖框架下構(gòu)建寬基線跨無人機(jī)立體視覺系統(tǒng),實(shí)現(xiàn)大規(guī)模未知環(huán)境中的遠(yuǎn)距離稠密建圖;

開發(fā)雙光譜視覺慣性-測(cè)距估計(jì)器,在復(fù)雜室外環(huán)境下實(shí)現(xiàn)無人機(jī)之間動(dòng)態(tài)基線穩(wěn)健、精確的在線估計(jì);

設(shè)計(jì)混合視覺特征關(guān)聯(lián)策略,融合跨無人機(jī)深度特征匹配與無人機(jī)內(nèi)部特征跟蹤,確保在視角變化時(shí)實(shí)現(xiàn)實(shí)時(shí)、連續(xù)的共視特征對(duì)應(yīng);

提出一種從稀疏到稠密的深度恢復(fù)方案,通過對(duì)遠(yuǎn)距離三角化稀疏特征點(diǎn)的指數(shù)擬合,優(yōu)化單目深度網(wǎng)絡(luò)的稠密深度預(yù)測(cè)結(jié)果,實(shí)現(xiàn)精確的度量級(jí)建圖。

五、實(shí)驗(yàn)驗(yàn)證

5.1 動(dòng)態(tài)基線估計(jì)與相對(duì)位姿精度

實(shí)驗(yàn)評(píng)估了飛行協(xié)同立體視覺系統(tǒng)對(duì)兩架無人機(jī)之間相對(duì)位姿的估計(jì)精度。兩架無人機(jī)在東-北-天坐標(biāo)系中自主飛行同步的圓形軌跡,基線長度設(shè)為3米。

將雙光譜視覺慣性-測(cè)距估計(jì)器的相對(duì)位姿估計(jì)結(jié)果與兩種基準(zhǔn)方法進(jìn)行對(duì)比:(1)僅基于機(jī)間觀測(cè)的視覺透視n點(diǎn)算法;(2)視覺慣性里程計(jì)差分法。

實(shí)驗(yàn)中使用NOKOV度量動(dòng)作捕捉系統(tǒng)提供相對(duì)位姿真值作為評(píng)估基準(zhǔn)。

f2d90275-d7e2-474b-a145-483b5d073f5f.png

NOKOV度量動(dòng)作捕捉系統(tǒng)下飛行協(xié)同立體視覺系統(tǒng)相對(duì)位姿估計(jì)實(shí)驗(yàn)

實(shí)驗(yàn)表明:

相對(duì)位置估計(jì)總平均絕對(duì)誤差:0.013米

視覺透視n點(diǎn)算法:0.018米

視覺慣性差分法:0.024米

偏航角誤差:0.214°

同時(shí),在強(qiáng)光、復(fù)雜背景、紅外噪聲和遠(yuǎn)距離觀測(cè)環(huán)境下,基于雙光譜標(biāo)記的視覺檢測(cè)與跟蹤算法跟蹤成功率超過96%,顯著優(yōu)于對(duì)比方法(17%~70%)。

582ca048-5715-44a1-9950-45cf9dea4091.png

強(qiáng)光、雜亂背景、光噪聲及遠(yuǎn)距離觀測(cè)挑戰(zhàn)下的實(shí)驗(yàn)

5.2 跨相機(jī)特征關(guān)聯(lián)性能評(píng)估

實(shí)驗(yàn)對(duì)比了GP-SS算法與三種基準(zhǔn)方法(SuperPoint-SuperGlue、ORB、SURF)的實(shí)時(shí)性能。

結(jié)果顯示:

GP-SS算法:近30Hz

原始SS算法:13Hz

實(shí)現(xiàn)更高實(shí)時(shí)性與穩(wěn)定性。

5.3 稀疏特征點(diǎn)協(xié)同三角化精度評(píng)估

實(shí)驗(yàn)評(píng)估了不同深度段(0~10m、10~30m、30~50m、50~70m)下特征點(diǎn)重建能力。

結(jié)果顯示:

本文系統(tǒng)在30m以外仍能有效三角化

單無人機(jī)方法無法實(shí)現(xiàn)該能力

5.4 遠(yuǎn)距離稠密建圖性能評(píng)估

在真實(shí)環(huán)境與仿真環(huán)境中開展稠密建圖實(shí)驗(yàn),對(duì)比多種模型與方法。

結(jié)果顯示:

最遠(yuǎn)建圖距離:70米

相對(duì)誤差:2.3%~9.7%

感知范圍提升:350%

覆蓋面積提升:450%

在該實(shí)驗(yàn)中,系統(tǒng)性能評(píng)估同樣依賴NOKOV度量動(dòng)作捕捉系統(tǒng)提供的高精度參考數(shù)據(jù)進(jìn)行結(jié)果對(duì)齊與誤差分析。

4abbd69c-141d-42bc-8aa2-2e77090fd763.png

室外環(huán)境與逼真仿真環(huán)境下的遠(yuǎn)距離稠密重建實(shí)驗(yàn)

六、實(shí)驗(yàn)結(jié)果總結(jié)

無標(biāo)題.png

實(shí)驗(yàn)結(jié)論

雙無人機(jī)協(xié)同立體視覺系統(tǒng)已實(shí)現(xiàn)70米遠(yuǎn)距離稠密建圖能力。

NOKOV度量動(dòng)作捕捉系統(tǒng)在該研究中作為位姿真值標(biāo)準(zhǔn)驗(yàn)證算法精度。

動(dòng)態(tài)基線方法將無人機(jī)視覺感知范圍提升超過350%。

七、基于動(dòng)態(tài)基線的雙無人機(jī)協(xié)同立體視覺建圖方法研究FAQ

Q1:該研究中雙無人機(jī)協(xié)同建圖為什么需要?jiǎng)幼鞑蹲较到y(tǒng)?

NOKOV度量動(dòng)作捕捉系統(tǒng)提供高精度位姿真值,是驗(yàn)證動(dòng)態(tài)基線估計(jì)與建圖誤差的關(guān)鍵參考標(biāo)準(zhǔn)。

Q2:動(dòng)態(tài)基線立體視覺相比傳統(tǒng)方法優(yōu)勢(shì)是什么?

通過雙無人機(jī)動(dòng)態(tài)形成寬基線,可將感知距離從20米提升至70米,實(shí)現(xiàn)遠(yuǎn)距離稠密建圖。

Q3:如何驗(yàn)證無人機(jī)之間的相對(duì)位姿精度?

可通過NOKOV度量動(dòng)作捕捉系統(tǒng)獲取無人機(jī)真實(shí)位姿,與算法估計(jì)結(jié)果對(duì)比計(jì)算誤差。

Q4:研究成果飛行協(xié)同立體視覺系統(tǒng)系統(tǒng)適用于哪些應(yīng)用場(chǎng)景?

該系統(tǒng)在無人機(jī)的一下場(chǎng)景中進(jìn)行應(yīng)用:

大規(guī)模無人機(jī)測(cè)繪

搜索與救援

智能巡檢

空間智能與具身智能研究

八、引用與作者信息

論文引用:
Z. Wang, X. Zuo and W. Dong, "Flying Co-Stereo: Enabling Long-Range Aerial Dense Mapping via Collaborative Stereo Vision of Dynamic-Baseline," IEEE Transactions on Robotics, vol. 42, pp. 951-970, 2026.

通訊作者信息:

董偉 上海交通大學(xué)機(jī)械與動(dòng)力工程學(xué)院 長聘副教授。

主要研究方向:多機(jī)器人協(xié)同智能與主動(dòng)感知。

左星星 穆罕默德·本·扎耶德人工智能大學(xué)(MBZUAI)機(jī)器人系 長聘助理教授。

主要研究方向:機(jī)器人學(xué)、空間智能、狀態(tài)估計(jì)與具身智能等。

2.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。