动态列表

  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线

SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃

图片

开放词汇识别与分类对于全面理解现实世界的 3D 场景至关重要。目前,所有现有方法在训练或推理过程中都依赖于 2D 或文本模态。这凸显出缺乏能够单独处理 3D 数据以进行端到端语义学习的模型,以及训练此类模型所需的数据。与此同时,3DGS 已成为各种视觉任务中 3D 场景表达的重要标准之一。

然而,有效地将语义理解以可泛化的方式集成到 3DGS 中仍然是一个难题。为了突破这些瓶颈,我们引入了 SceneSplat,第一个在 3DGS 上原生运行的端到端大规模 3D 室内场景理解方法。此外,我们提出了一种自监督学习方案,可以从未标记场景中解锁丰富的 3D 特征学习。为了支持所提出的方法,我们采集了首个针对室内场景的大规模 3DGS 数据集 SceneSplat-7K,包含 7916 个场景,这些场景源自七个现有数据集,例如 ScanNet 和 Matterport3D。生成 SceneSplat-7K 所需的计算资源相当于在 L4 GPU 上运行 150 天。我们在 SceneSplat-7K 上进行了开放词汇和语义分割的测试,均达到了 state-of-the-art 的效果

图片
  • 文章链接:https://arxiv.org/abs/2503.18052

  • 项目主页:https://unique1i.github.io/SceneSplat_webpage/

  • 数据集:https://huggingface.co/datasets/GaussianWorld/scene_splat_7k

图片

图 1: SceneSplat-7K 从 7 个不同的公开数据集采集了了 7916 个完整 3DGS 场景,并且做了语义标注;基于这一高质量数据集,我们大规模训练了 SceneSplat 模型,这是首个能够在单次前向传播中预测数百万个 3D 高斯分布的开放词汇语言特征的模型。

      视频:SceneSplat

SceneSplat 数据集

大规模 3DGS 重建

为支撑在 3D 高斯点(3DGS)上的原生语义学习,我们构建并发布 SceneSplat-7K。数据来源覆盖 7 个权威室内数据集:ARKitScenes、Replica、ScanNet、ScanNet++(含 v2)、Hypersim、3RScan、Matterport3D,统一转化为 3DGS 表示,形成跨真实与合成场景的多样化数据集。

SceneSplat-7K 包含 7,916 个处理后的 3DGS 场景、总计 112.7 亿个高斯点,单场景均值约 142 万;对应 472 万张 RGB 训练帧。整体重建质量达到 PSNR 29.64 dB、平均 Depth-L1 0.035 m,在保持高保真外观的同时兼顾几何准确性。该数据集的构建开销等效 NVIDIA L4 150 个 GPU-days。具体信息如下表所示。

图片

      表 1:数据集数据。

开放词汇语义标注

我们使用了一套稳定、快速的系统来标注 3DGS 的语义信息。首先用 SAMv2 做物体级分割、SigLIP2 提取视觉 - 语言特征,再借助 Occam’s LGS 将多视角 2D 特征高效 “抬升” 到 3DGS 上,得到稳定的高斯 - 语言特征对,为后续预训练提供监督;预训练的编码器仅依赖 3DGS 参数与邻域信息,即可学习到丰富的语义表示,无需在推理时再做 2D 融合。

图片

SceneSplat 预训练

在得到大规模带标注的 3DGS 数据集后,我们希望训练一个高参数量的 Transformer 编码器来预训练 3DGS 数据。根据数据的不同特征,我们提供了两个不同的训练路线。在有语义标注的情况下,我们进行了视觉 - 语言预训练,使得网络可以直接输出与 CLIP/SigLip 对齐的特征,便于进行开放词汇测试;对于没有语义标注的数据,我们直接根据原有 3DGS 参数进行自监督训练,释放无标注场景的学习潜力。

图片

      图 2. SceneSplat 同时支持视觉 - 语言预训练与自监督预训练。

视觉 - 语言预训练

我们采用分层 Transformer 编解码器:以高斯为 token,结合 kNN 半径构图形成邻域注意力;解码回归维度为 d 的语义向量。训练目标由两部分损失函数组成:

  • 损失函数:对每个高斯的预测嵌入 z_i 与监督嵌入 z ̂_i 同时施加余弦损失与 L2 损失,稳定对齐方向与尺度;

  • 对比学习(后期启用):在训练后段加入 InfoNCE,并对同类高斯进行类内聚合(prototype pooling)后再对比,强化类间可分性。在训练后期加入可以显著避免早起损失函数震荡过高的问题。

  • 推理与后处理。给定文本查询 t 的向量 y_t,与每个高斯嵌入做余弦相似度匹配即可得到正确的 query;考虑测试点集与高斯中心不完全重合,使用 kNN 投票(默认 k 为几十)在空间上聚合,得到正确的推理。

GaussianSSL:自监督训练

实际上,绝大多数 3D 重建的场景没有语义标注,借用 2D foundation model 来进行标注也十分昂贵。我们提出另一种自监督训练方法来得到可泛化的 3DGS 表征。

1. Masked Gaussian Modeling(MGM)

对 3DGS 随机高比例掩码,仅向模型提供可见子集与拓扑邻域信息;解码器重建被掩的核心参数(如中心、尺度、旋转、颜色、不透明度等)。不同量纲采用分量归一化与多任务加权(L1/L2 结合),鼓励网络同时理解几何与外观,并学习到对噪声与稀疏采样鲁棒的局部结构先验。

2. Self-Distillation Learning(自蒸馏)

采用教师 - 学生框架与多种 3D 数据增广(旋转、尺度抖动、点扰动、随机子采样)。在全局表征与局部 token 两级施加一致性损失(余弦 / 分布对齐),并配合轻量正则化(如避免坍塌的熵 / 编码率约束),获得对增广不变的判别性特征。教师以动量更新,稳定训练并提升大规模数据上的收敛性。

3. Language–Gaussian Alignment(可选)

当场景具备 VL 标签时,引入轻量语言对齐作为辅助头:先将高维 VLM 嵌入通过自编码器 / 线性头降维,再仅对 Mask 区域施加低维对齐损失,使 MGM 的结构重建与语义对齐协同而非相互干扰。该分支可按数据可得性按需启用,确保无标注与弱标注数据都能纳入统一训练。

实验结果

定量实验

如表 2 所示,我们的方法在 ScanNet200、ScanNetpp 和 Matterport3D 的零样本语义分割上面都达到了 SOTA 的效果。

图片

表 2:零样本 3D 语义分割

在无监督预训练后,我们测试了 GaussianSSL 的语义分割效果,结果如表 3 所示,在 ScanNet 和 ScanNetpp 数据集中均达到了 SOTA 的效果。

图片

                         表 3: 语义分割结果

定性实验

在做可视化的时候,我们发现了很多很有趣的结果,如图 3 所示,本身的 3D 语义标注会将相同的桌子打上不同的标签,但是经过训练后,我们的模型可以很干净的分割出来完整的桌子。

图片

                          图 3. 在 ScanNetpp 上的零样本预测可视化。

在图 4 中,我们展示了模型零样本 Query 的能力,一些类别,比如 Robot Arm 是在原数据集中不存在的,但是经过 SceneSplat 预训练后,我们可以很好的识别 Out of Distribution 的物体。图 5 中我们测试了物体属性 query,证明了我们的模型也能很好的 model attribute。更多的实验结果请参考我们原文。

图片

                          图 4. 文本 query 结果。

图片

      图 5(左):“Vacation” --> “Travel Guide”,(右):“Art”-->“Painting”。

后期工作

我们继续将 SceneSplat-7K 数据集拓展成了 SceneSplat-49K,并且在多个 dataset 上进行了系统的 3DGS 和语义结合的工作的 benchmarking,欢迎大家继续关注 SceneSplat++ :https://arxiv.org/abs/2506.08710。

主要作者简介:

李跃,阿姆斯特丹大学博士二年级学生,分别于苏黎世联邦理工学院和上海交通大学获得硕士和学士学位,主要研究方向为在线稠密重建和 3D 场景理解。

马麒,苏黎世联邦理工 INSAIT 共同培养博士二年级学生,本科毕业于上海交通大学和硕士毕业于苏黎世联邦理工,主要研究方向是 3D 重建和理解方向,目前在 ICCV, CVPR, Neurips 等国际会议发表多篇论文。

杨润一,INSAIT 博士生,导师为 Dr. Danda Paudel 和 Prof. Luc Van Gool,硕士毕业于帝国理工学院 MRes AIML,本科毕业于北京理工大学自动化专业。曾在索尼 Pixomondo Innovation Lab 担任研究员。主要研究方向为三维重建、场景理解和生成。CICAI 2023 获得 Best Paper Runner-up 奖项。

马梦姣,INSAIT 计算机科学与人工智能研究所博士生,学士毕业于南京航空航天大学,主要研究兴趣为三维场景理解。

任斌,比萨大学和特伦托大学联合培养 “意大利国家 AI 博士” 项目博士生,INSAIT 和苏黎世联邦理工访问学者,此前分别于北京大学和中南大学获得硕士和学士学位。主要研究方向为表征学习,场景理解,以及多模态推理。

Luc Van Gool 教授是计算机视觉与人工智能领域的国际顶尖学者,现任 INSAIT 全职教授,曾任苏黎世联邦理工学院(ETH Zurich)和比利时鲁汶大学(KU Leuven)教授,同时领导多个跨学科研究团队。他的研究涵盖三维视觉、物体与场景识别、生成建模以及智能系统等方向,发表了数百篇在 CVPR、ICCV、ECCV、NeurIPS 等顶级会议和期刊上的论文,共计 25 万 + 引用,H-index 207。

INSAIT 简介:

INSAIT(Institute for Computer Science, Artificial Intelligence and Technology)成立于 2022 年、坐落保加利亚索菲亚,面向计算机科学与人工智能的前沿基础与系统研究,方向覆盖计算机视觉、机器人、自然语言处理、安全与可信 AI、量子计算、算法与理论及信息安全;与 ETH Zürich、EPFL 建立战略合作,师资与博士后来自 ETH、EPFL、CMU、MIT 等顶尖院校。研究院与 Google、华为、AWS、Toyota、vivo 等开展产学协同,并参与欧盟 “AI 工厂” 计划(总额 €90M)。近年学术产出亮眼:ICCV’25 接收 13 篇、CVPR’25 接收 7 篇、CVPR’24 接收 16 篇,获 FOCS’24 最佳论文。INSAIT 长期招募 Faculty、PostDoc、PhD 与 RA(可 host 硕士毕设),提供具竞争力的资助与支持,并提供往返机票与住宿,科研环境开放、高效、国际化。欢迎私信了解更多情况~

近期招生信息:

博士研究生招生信息 | INSAIT & Google 联合项目

我们正在招收多名博士研究生,研究方向为:基于多模态模型的 Egocentric(第一人称)视频理解。

本项目由 INSAIT 与 Google 联合支持,为有志于在人工智能与计算机视觉前沿领域深造的同学提供优越的研究环境与资源支持。

📌 申请方式

请通过 INSAIT PhD 招生页面 https://insait.ai/phd/ 提交申请,并注明 【INSAIT-Google-Egocentric】;

如有相关问题,可邮件联系 yuqian.fu@insait.ai。

我们热忱欢迎对 Egocentric 视频理解与多模态 AI 充满兴趣的同学加入!

]]>

联系我们