还认为 Focal Loss 只能在有监督场景使用?还在为 3D 检测模型在分布外泛化的不稳定性焦虑
来自北京大学,香港中文大学和鹏城实验室的最新研究提出了DUO 框架(Dual Uncertainty Optimization,首次将语义不确定性与几何不确定性融合建模,让检测模型在雨夜、雾天也能“看得更稳、更准”。
![]()
论文标题: Adaptive Dual Uncertainty Optimization: Boosting Monocular 3D ObjectDetection under Test-Time Shifts 论文链接: https://arxiv.org/abs/2508.20488 开源地址: https://github.com/hzcar/DUO一、前言:为什么检测模型在分布外场景泛化能力很差?
当训练好的 3D 检测模型被直接拿到雨夜、雾天、传感器抖动等分布外场景中时,性能往往会显著下降。这背后隐藏的关键原因,是双重不确定性(Dual Uncertainty)的累积效应。
然而在单目 3D 检测场景中,常见的不确定性优化策略暴露出两个严重问题:
语义不确定性: 模型在分类时的犹豫和模糊。当遇到复杂光照或恶劣天气时,模型对物体类别的概率分布会变得分散,高分样本更容易被强化,而低分样本(通常是小目标或被遮挡的物体)几乎得不到优化,导致漏检率显著升高。
几何不确定性: 模型在空间定位中的不稳定性。3D 检测往往依赖深度估计器来预测目标位置,但在分布外场景中,直接最小化深度不确定性会导致多头估计器“塌缩”为单一预测器,失去冗余性和鲁棒性,进而空间理解能力下降。
这种双重不确定性叠加会加剧检测模型在分布外场景下的性能崩溃。因此,我们迫切需要一种能够同时建模并优化语义与几何不确定性的新范式,以真正提升检测模型的泛化能力。
二、DUO框架:双重不确定性的协同优化
DUO 框架创新性地提出一个观点:模型的分布外泛化需要同时建模并优化语义和几何的不确定性,并通过相辅相成的机制来优化。其包含两个核心设计:
2.1 语义侧:Unsupervised Focal Loss,无监督版本的TA来了
传统 Focal Loss 可以平衡样本难易度,但依赖真实标签,无法在测试时无监督场景中使用。DUO 基于凸优化的 Legendre–Fenchel 对偶理论,首次把 Focal Loss 改写为一个无标签的对偶优化问题。
通过高阶近似,推导出新的损失:
![]()
这里,不同类别的权重会随预测概率自动调整,超参数 , 直接沿用训练阶段的设置,无需额外调参。为什么 CFL 这么牛?
动态调整,更聪明:传统 Focal Loss 只关注真实类别,而 CFL 不仅保留 的平衡机制,还通过矩阵项捕捉类别间预测关系,实现全局动态加权。
无需真实标签,随时适应:CFL 只依赖预测概率,即便没有标注数据,也能在测试阶段正常工作。
超参数零负担:训练阶段的 , 可直接用到测试阶段,无需调参,实测效果也得到了验证。
DUO 并不直接最小化几何不确定性,而是通过法向一致性来约束几何稳定性。给定深度图 ,通过 Sobel 算子计算梯度,再推导像素法向:
![]()
在约束相邻像素法向时保持一致性,同时引入边缘感知项,也保留边界的不连续性信息:
![]()
根据 CFL 损失,只在语义不确定性较低的区域施加几何约束,避免噪声传播。由此,几何估计既保证了平滑稳定,又避免了塌缩。
![]()
最终,DUO 的联合优化目标为:其中 是语义引导掩码。在保证语义掩码更可靠的同时,也提高了几何约束的可信度。
三、实验结果:语义×几何,不确定性的正反馈效应
在 M3OD 最常用的 KITTI 和 nuScenes 数据集上进行评测,DUO 在分布外场景下显著优于现有 Test-Time Adaptation 方法。无论是昼夜切换、雨雾天气,还是跨域测试,DUO 都展现出更加稳定的适配能力。
![]()
![]()
进一步地,我们对语义侧和几何侧的优化效果进行了单独消融实验:
当仅使用语义不确定性优化时,分类性能得到提升,同时也间接降低了空间估计的不稳定性;
当仅使用几何不确定性优化时,模型在空间理解上更为稳健,也反过来减少了语义预测的模糊与混淆;
这说明语义与几何优化并非独立,而是形成了一种 相互促进、相互约束的正反馈机制。
![]()
最终的可视化结果也清晰展示了 DUO 的优势:在复杂光照、传感器噪声等极端环境下,模型不仅能够更精准地识别远距离和小目标,还能保持对三维空间结构的稳定理解,显著提升了整体的鲁棒感知能力。
![]()
四、结语:从无监督Focal Loss到鲁棒3D感知新范式
一方面,双重不确定性优化为未来 3D 感知与自动驾驶等关键应用提供了新的思路。通过同时建模语义与几何两类核心不确定性,DUO 在分布外场景中展现出强大的适应性和鲁棒性。
另一方面,无监督 Focal Loss 打破了经典损失函数对标签的依赖,在测试阶段模型适配中展现出显著增益,同时保持与有监督训练一致的超参数设置,避免了额外调优成本。
当前,DUO 已在单目三维检测的多个高强度 OOD 基准上展现了显著优势。但这仅仅是一个开始:
在 其他感知任务(如三维目标分割、点云检测等)中,双重不确定性同样扮演着关键角色;
在 现实复杂场景(如自动驾驶的长尾案例、工业生产中的复杂光照条件)中,数据稀缺与分布偏移问题尤为突出,DUO 的无监督适配潜力亟待释放;
在 更大规模、更高复杂度的模型体系中,无监督 Focal Loss 以其简单的使用条件(无需标签、与有监督 loss 兼容)展现出极强的可扩展性。
研究团队也将持续开源并完善相关工具链,期待更多研究者与工程团队将该方法推广至多模态融合、点云感知,以及更大规模的复杂场景,共同推动 鲁棒智能感知系统的真正落地。
来源:公众号【PaperWeekly】
llustration From IconScout By IconScout Store
-The End-
本周上新!
扫码观看!
“AI技术流”原创投稿计划
TechBeat是由将门创投建立的AI学习社区(www.techbeat.net)。社区上线700+期talk视频,3000+篇技术干货文章,方向覆盖CV/NLP/ML/Robotis等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。
投稿内容
// 最新技术解读/系统性知识分享 //
// 前沿资讯解说/心得经历讲述 //
投稿须知
稿件需要为原创文章,并标明作者信息。
我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励
投稿方式
发送邮件到
michellechang@thejiangmen.com
或添加工作人员微信(michelle333_)投稿,沟通投稿详情
关于我“门”
将门是一家以专注于数智核心科技领域的新型创投机构,也是北京市标杆型孵化器。 公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。
将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。
如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:
bp@thejiangmen.com

点击右上角,把文章分享到朋友圈
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.