《電子技術應用》
您所在的位置:首頁 > 人工智能 > 设计应用 > 融合多模态分组特征处理模块的脑肿瘤分割方法
融合多模态分组特征处理模块的脑肿瘤分割方法
电子技术应用
方云翔1,王路路1,李英娜1,杜井龙2
1.昆明理工大学 云南省计算机重点实验室;2.重庆医科大学 医学信息学院
摘要: 当前脑部肿瘤分割模型大多在通道维度上简单拼接多模态MRI图像,未充分利用其多模态信息。为此,基于3D UX-Net,提出融合多模态分组特征处理模块的MGF-UX Net模型。该模型通过模态特征抽取与融合两大模块,实现多模态特征的有效利用。模态特征抽取模块针对四种MRI模态特性,采用专门的特征提取网络,以最大化保留有效信息;模态特征融合模块基于先验知识,将四个模态划分为两组,并通过模态分组交叉注意力(MGCA)机制进行深度融合。实验结果表明,在BraTS2021数据集上,MGF-UX Net的平均DSC和HD95分别达到91.01%和4.975 mm,在脑肿瘤分割任务中各项指标优于现有对比模型。
中圖分類號:TTP391P 文獻標志碼:A DOI: 10.16157/j.issn.0258-7998.256494
中文引用格式: 方云翔,王路路,李英娜,等. 融合多模態(tài)分組特征處理模塊的腦腫瘤分割方法[J]. 電子技術應用,2025,51(11):46-52.
英文引用格式: Fang Yunxiang,Wang Lulu,Li Yingna,et al. A brain tumor segmentation method with multi-modal grouped feature processing module[J]. Application of Electronic Technique,2025,51(11):46-52.
A brain tumor segmentation method with multi-modal grouped feature processing module
Fang Yunxiang1,Wang Lulu1,Li Yingna1,Du Jinglong2
1.Faculty of Information Engineering and Automation, Kunming University of Science and Technology;2.Medical Data Science Academy and College of Medical Informatics, Chongqing Medical University
Abstract: Current brain tumor segmentation models typically concatenate multi-modal MRI images along the channel dimension, failing to fully exploit their multi-modal information. To address this limitation, this paper proposes MGF-UX Net, a model based on 3D UX-Net that integrates a multi-modal grouped feature processing module. The model consists of two key components: a modality feature extraction module and a modality feature fusion module. The feature extraction module employs specialized networks tailored to the characteristics of four MRI modalities to maximize the retention of effective features. The feature fusion module, guided by prior knowledge, groups the four modalities into two sets and applies a Modality-Grouped Cross-Attention (MGCA) mechanism for deep feature fusion. Experimental results on the BraTS2021 dataset demonstrate that MGF-UX Net achieves an average DSC of 91.01% and an HD95 of 4.975 mm, outperforming existing models in brain tumor segmentation tasks.
Key words : brain tumor segmentation;U-Net;MRI;multimodal medical imaging

引言

腦部腫瘤,又稱顱內腫瘤,是發(fā)生在顱腔內的神經系統(tǒng)腫瘤,通常由腦部正常組織病變形成。精準的腫瘤分割對于臨床診斷和手術治療至關重要。

為實現腦部腫瘤的自動分割,研究者提出了多種方法。傳統(tǒng)方法包括基于機器學習、圖譜、閾值以及區(qū)域生長的分割技術[1-4]。然而,這些方法往往依賴人工特征工程,導致特征表示能力受限,難以應對復雜的腫瘤形態(tài)。

近年來,隨著深度學習技術的快速發(fā)展,卷積神經網絡(CNN)在各類視覺任務中展現出卓越的性能。憑借強大的特征學習能力,CNN已被廣泛應用于腦部腫瘤分割任務,并取得了顯著成效[5]。

U-Net[6] 提出以來,基于U-Net架構的方法逐漸成為醫(yī)學圖像分割領域的主流。?i?ek等人進一步擴展了U-Net的二維卷積至三維卷積,提出3D U-Net[7],使模型能夠直接處理三維醫(yī)學數據。DUNet[8]則引入可變形卷積,以擴展編碼器的感受野。隨著Transformer的興起,其強大的建模能力在多個領域得到廣泛應用。TransUNet[9]通過將Transformer集成至U-Net架構,提升了模型的局部與全局特征提取能力。UNETR[10]進一步創(chuàng)新,采用預訓練的視覺Transformer替代傳統(tǒng)卷積編碼器。Swin UNETR[11]則結合了Swin Transformer與U-Net架構,利用Swin Transformer的滑動窗口策略有效降低了計算成本。

然而,上述模型在處理對MRI圖像的多模態(tài)信息時,僅僅是通過將MRI圖像的不同模態(tài)簡單地進行通道拼接,未能充分挖掘和融合多模態(tài)醫(yī)學圖像的潛在信息,可能導致信息冗余或關鍵特征的損失。針對這一問題,本文提出了一種基于3D UX-Net模型的改進的腦腫瘤MRI圖像分割模型MGF-UX Net,旨在通過多模態(tài)分組特征(Multi-modal Grouped Feature,MGF)模塊更深入地捕獲和整合不同模態(tài)的互補特征,緩解多模態(tài)信息利用不足所導致的分割精度瓶頸,提升腦腫瘤MRI圖像的分割性能。


本文詳細內容請下載:

http://www.ihrv.cn/resource/share/2000006839


作者信息:

方云翔1,王路路1,李英娜1,杜井龍2

(1.昆明理工大學 云南省計算機重點實驗室, 云南 昆明 650500;

2.重慶醫(yī)科大學 醫(yī)學信息學院, 重慶 400016)


官方訂閱.jpg

此內容為AET網站原創(chuàng),未經授權禁止轉載。