|
摘要: 随着机器人微创手术的日益普及,基于深度学习的外科培训已成为研究的重点领域。对外科场景组件的深入理解至关重要,语义分割模型可以帮助实现这一目标。然而,大多数现有工作侧重于外科工具,忽视了解剖对象。此外,当前的最先进模型在捕捉高级上下文特征和低级边缘特征之间很难取得平衡。我们提出了一种特征自适应空间定位模型(FASL-Seg),旨在通过两个不同的处理流,即低级特征投影(LLFP)和高级特征投影(HLFP)流,捕捉多个层次的详细特征,以实现不同特征分辨率的精确解剖和外科器械分割。我们在外科分割基准数据集EndoVis18和EndoVis17上评估了FASL-Seg在三个用例上的表现。FASL-Seg模型在EndoVis18的部分和解剖分割中实现了72.71%的平均交集联盟(mIoU),比SOTA提高了5%。它在EndoVis18和EndoVis17的工具类型分割中分别实现了85.61%和72.78%的mIoU,整体性能优于SOTA,两个数据集中每个类别的SOTA结果相当,并在各种类别的解剖和器械中表现出一致的性能,证明了用于不同特征分辨率的不同处理流的有效性。 更新时间: 2025-09-18 10:31:18 领域: eess.IV,cs.AI,cs.CV,I.4.6; I.4.8; J.3
|