找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 15|回复: 0

MoE-CE:通过专家混合框架增强基于深度学习的信道估计的泛化能力

[复制链接]

334

主题

0

回帖

1027

积分

金牌会员

积分
1027
发表于 2025-9-22 19:47:12 | 显示全部楼层 |阅读模式
摘要: 可靠的信道估计(CE)对于在动态无线环境中进行稳健通信至关重要,在这种环境中,模型必须能够概括各种条件,如信噪比(SNR)、资源块(RB)数量和信道特性等。传统的基于深度学习(DL)的方法在这种多样化的环境下往往难以有效概括,特别是在多任务和零样本情况下。在这项工作中,我们提出了MoE-CE,这是一个灵活的专家混合(MoE)框架,旨在增强基于DL的CE方法的概括能力。MoE-CE通过利用多个专家子网络,每个专门针对不同的信道特性,并学习动态选择每个输入中最相关的专家的路由器,提供了适当的归纳偏差。这种架构在不增加计算成本的情况下增强了模型的容量和适应性,同时对骨干模型和学习算法的选择是不可知的。通过在生成的具有多样化SNR、RB数量和信道特性的合成数据集上进行了大量实验,包括多任务和零样本评估,我们证明了MoE-CE始终优于传统的DL方法,实现了显著的性能增益,并保持了效率。
更新时间: 2025-09-19 13:23:08
领域: eess.SP,cs.AI

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|Octave中文网学术交流论坛 ( 黑ICP备2024030411号-2 )

GMT+8, 2025-10-30 06:17 , Processed in 0.077838 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表