|
摘要: 随着机器人微创手术的日益流行,基于深度学习的外科手术培训成为研究的重点领域。对外科场景组件的彻底理解至关重要,语义分割模型可以帮助实现这一目标。然而,大多数现有工作集中在外科工具上,忽视了解剖对象。此外,目前的尖端模型在捕捉高级上下文特征和低级边缘特征之间很难平衡。我们提出了一种特征自适应空间定位模型(FASL-Seg),旨在通过两个不同的处理流(即低级特征投影(LLFP)和高级特征投影(HLFP)流)捕捉多层次细节的特征,以适应不同的特征分辨率,实现解剖和外科器械的精确分割。我们在三种用例上评估了FASL-Seg在外科分割基准数据集EndoVis18和EndoVis17上的表现。FASL-Seg模型在EndoVis18的部分和解剖分割中取得了平均交集超联合(mIoU)为72.71%的成绩,比SOTA提高了5%。它在EndoVis18和EndoVis17的工具类型分割中分别取得了85.61%和72.78%的mIoU,整体性能优于SOTA,并在两个数据集中具有可比较的各类SOTA结果,对解剖和器械的各类表现稳定,显示了不同处理流对不同特征分辨率的有效性。 更新时间: 2025-10-30 08:10:05 领域: eess.IV,cs.AI,cs.CV,I.4.6; I.4.8; J.3
|