动态列表

  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像

NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题

CV君 2025-09-30 16:05 江苏

一文读懂稀疏视图3DGS伪影难题的破解之道。

近年,3D高斯溅射(3D Gaussian Splatting, 3DGS)技术因其出色的渲染质量和实时性能,在三维重建领域掀起了一股热潮。然而,这项技术在密集视图下表现优异,一旦训练数据变得稀疏(即输入图像很少),其性能就会大打折扣,常常出现恼人的“浮空物”和颜色噪声等渲染瑕疵。

为了解决这一痛点,来自清华大学、香港科技大学、华为诺亚方舟实验室和哈尔滨工业大学的研究者们深入探究了稀疏视图下3DGS出现问题的根源,并发表了一篇名为《Quantifying and Alleviating Co-Adaptation in Sparse-View 3D Gaussian Splatting》的论文。他们发现,问题的核心在于高斯基元之间的“协同适应”(Co-adaptation)现象。简单来说,就是一组高斯基元为了过度拟合训练视图中的某个像素,而形成了一种过于紧密的“小团体”,导致模型在新视角下的泛化能力变差。

基于这一发现,他们不仅提出了一个量化该问题的指标——协同适应分数(Co-Adaptation Score, CA),还设计了两种即插即用、轻量级且极其有效的正则化策略来打破这种“小团体”,显著提升了稀疏视图下的渲染质量。

论文基本信息

“协同适应”:稀疏视图3DGS的“阿喀琉斯之踵”

3DGS通过优化数以万计的3D高斯基元来表示场景。在渲染时,每个像素的颜色由多个投影到该像素上的高斯基元混合而成。在数据充足的情况下,这种方式能完美重建场景。但当训练视图稀疏时,模型为了在有限的监督信息下最小化损失,会让多个高斯基元“合谋”来拟合一个像素。它们各自的颜色和透明度可能与真实场景无关,但它们的组合却能在训练视角下“骗过”损失函数。

这种现象就是“协同适应”。如下图所示,在密集视图(a)中,高斯基元对像素颜色的贡献是均衡的。但在稀疏视图下,可能会出现(b)(c)中不均衡贡献导致新视角下出现伪影,甚至在(d)中,多个颜色各异的高斯基元共同“伪造”出一个灰度像素,导致在新视角下出现严重的颜色错误。

如何量化“协同适应”?

为了量化这种现象,论文提出了一个直观的度量标准: 协同适应分数(Co-Adaptation Score, CA) 。其核心思想是:如果一组高斯基元是高度协同适应的,那么在渲染时随机去掉其中一部分,渲染结果就会变得非常不稳定。

具体计算方式是:对同一个目标视角,进行多次渲染。每次渲染前,都随机“丢弃” 50% 的高斯基元。然后,计算多次渲染结果在每个像素上的颜色方差。所有像素的平均方差,就是该视角的CA分数。CA分数越高,说明协同适应越严重。

实验也证实了CA分数与训练视图数量的关系:训练视图越多,CA分数越低,即协同适应现象越弱。这说明增加视图数量是抑制协同适应的自然方法。

下图展示了训练过程中CA分数和PSNR的变化趋势。可以看到,在训练初期,CA分数会随着模型拟合数据而下降,但随后会进入一个平台期甚至上升,这表明协同适应问题开始显现。

两种简单有效的“解耦”策略

既然找到了问题的根源和度量方法,作者提出了两种轻量级的正则化策略来主动抑制协同适应:

  1. 随机高斯丢弃 (Stochastic Gaussian Dropout): 灵感来源于神经网络中的Dropout。在每次训练迭代中,以一定的概率p随机“丢弃”一部分高斯基元,不让它们参与渲染和梯度计算。这迫使模型不能过度依赖任何一个特定的高斯基元组合,每个高斯基元都需要学习到更独立、更鲁棒的表达。这就像团队合作,不能让某几个人绑定过深,每个人都要能独当一面,也能和不同的人配合。

  2. 透明度噪声注入 (Opacity Noise Injection): 在训练中,为每个高斯基元的透明度(opacity)乘上一个随机噪声(均值为1)。这个操作轻微地扰动了每个高斯基元对最终像素颜色的贡献权重,从而破坏了它们之间脆弱的、过度拟合的依赖关系。相比于丢弃整个高斯基元,这种方式更加“温柔”,提供了一种更软性的正则化。

实验结果:效果显著,即插即用

作者在LLFF、DTU和Blender等多个标准数据集上,将这两种策略应用到了多种主流的稀疏视图3DGS方法(如原始3DGS、DNGaussian、Binocular3DGS等)上。具体的实验设置为:LLFF和DTU使用3个训练视图(图像分别下采样8倍和4倍),Blender使用8个训练视图(图像下采样2倍)。

定量分析

如下表所示,无论是在哪个基线模型上,加入Dropout或透明度噪声后, CA分数都显著下降 ,同时渲染质量指标(PSNR、SSIM、LPIPS)都得到了 一致的提升 。例如,在LLFF数据集上,将该策略用于Binocular3DGS时,PSNR从21.44提升到了 22.12

视觉效果对比

从视觉效果上看,提升更加直观。如下图所示,原始方法渲染的图像中充满了彩色的噪声斑点和几何结构的破损。而应用了协同适应抑制策略后,这些问题都得到了极大的缓解,场景的几何结构更完整,细节更清晰,颜色也更自然。

在LLFF数据集上的效果:

在DTU和Blender数据集上的效果:

消融实验

作者还进行了详尽的消融研究,探讨了不同丢弃率p和噪声强度σ的影响,为实际应用提供了参考。结果表明,并非CA分数越低越好,过度抑制协同适应同样会损害模型的表达能力。最佳的性能通常在p=0.2或σ=0.8附近取得。

总结

这项工作从一个新颖的角度揭示了稀疏视图3DGS性能下降的深层原因——协同适应,并提出了简单、通用且高效的解决方案。CV君认为,这项研究的价值不仅在于提供了两个即插即用的“炼丹”技巧,更重要的是它为理解和改进基于优化的三维表示方法提供了一个新的理论视角和分析工具。它告诉我们,在模型优化中,有时需要主动打破模型内部过于“和谐”的合作关系,以换取更强的泛化能力。

对于作者提出的这个思路,你怎么看?这种“解耦”思想是否也能应用到其他生成模型中呢?欢迎在评论区留下你的看法!

阅读原文

跳转微信打开

联系我们