动态列表

  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • SilentStriker:无声击溃大模型
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道

NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力

CV君 2025-09-29 12:12 江苏

来自韩国科学技术院(KAIST)、高丽大学和苏黎世联邦理工学院等机构的研究者们,共同发表了一篇题为 「Seg4Diff: Unveiling Open-Vocabulary Segmentation in Text-to-Image Diffusion Transformers」 的论文,并被 NeurIPS 2025 会议接收。该研究提出了一个名为 Seg4Diff 的系统性分析框架,其名称意为“为扩散模型做分割”(Segmentation for Diffusion)。

这项工作深入探究了当前最先进的文本到图像生成模型——多模态扩散变换器(MM-DiT)的内部工作机制。研究团队的 新发现 是,这类模型在生成图像的过程中,其内部的特定层天然地具备了强大的“语义分组”能力,能够将文本描述与图像中的具体区域精确对应。这是一种 涌现属性 ,意味着模型无需专门训练就能进行高质量的开放词汇语义分割。更进一步,研究者还提出了一种轻量级微调方法,能够显著增强这一能力,从而在提升分割准确率的同时,也提高了生成图像的保真度,为构建集视觉感知与生成于一体的统一模型铺平了道路。

研究背景

近年来,以 Stable Diffusion、Midjourney 为代表的文本到图像(Text-to-Image)扩散模型取得了惊人的发展,它们能够根据简单的文本提示生成细节丰富、符合物理规律的逼真图像。这些模型的核心能力之一,是通过“跨模态注意力(Cross-Attention)”机制,将语言概念(如“一只猫”)与图像中的视觉特征(猫的像素区域)联系起来。

随着技术演进,像 Stable Diffusion 3 中采用的 多模态扩散变换器(Multi-Modal Diffusion Transformer, MM-DiT) 架构进一步提升了这种对齐能力。MM-DiT 不再像早期模型那样将文本和图像分开处理,而是将它们的信息“拼接”在一起,通过一个统一的自注意力(Self-Attention)机制进行联合建模。这使得模型能够更灵活、更深入地理解文本与图像之间的复杂关系。

然而,一个关键问题始终悬而未决:在模型庞大而复杂的网络结构中,这种关键的图文对齐究竟发生在“哪里”?又是“如何”发生的?对这些内部机制的理解不足,限制了我们进一步挖掘和利用这些强大生成模型潜力的能力。这篇论文的研究正是为了填补这一空白。

Seg4Diff:一个系统性的分析框架

为了揭开 MM-DiT 内部的神秘面纱,研究者们提出了 Seg4Diff 框架。它并非一个新模型,而是一套用于系统性分析、增强并利用 MM-DiT 注意力结构的完整流程。

识别“语义对位专家层”

研究团队首先对 MM-DiT 的多模态注意力机制进行了深入剖析。在 MM-DiT 中,注意力计算分为四种类型:图像到图像(I2I)、文本到文本(T2T)、图像到文本(I2T)和文本到图像(T2I)。其中,I2T 和 T2I 是实现跨模态对齐的关键。

通过一系列巧妙的实验,他们发现并非所有层都对图文对齐做出同等贡献。他们通过主成分分析(PCA)可视化、分析注意力特征范数、以及对特定层进行扰动测试等方法,观察不同层的行为。

扰动实验尤其具有启发性:当干扰某些层的 I2T 注意力时,生成的图像结构会严重退化;而干扰其他层则影响甚微。这表明模型内部存在明确的功能分化。

最终,他们 首次识别并命名了一个特定的 MM-DiT 模块——“语义对位专家层”(semantic grounding expert layer)。这个中间层的模块,在他们的实验中特指第9层,始终如一地负责将文本 token 与空间上连贯的图像区域进行精确对齐。

从注意力到开放词汇分割

这一发现的直接应用就是实现开放词汇的语义分割。研究者指出,从“语义对位专家层”提取出的 I2T 注意力图(Image-to-Text attention map),其本身就是一张高质量的分割掩码。例如,对于文本提示“一只猫”,其对应 token 的注意力图会自然地高亮出图像中猫的区域。

基于此,他们设计了一个无需额外训练的分割方案:直接利用 I2T 注意力分数作为图文相似度的度量,为每个文本 token 生成对应的分割预测。这种方法可以处理任意文本,因此是“开放词汇”的。

轻量级微调,性能再提升

为了进一步放大这种涌现的分割能力,研究者提出了一种简单而高效的轻量级微调方案,名为 “掩码对齐”(Mask Alignment)

该方法在标准的扩散模型微调流程中,引入了一个额外的 LoRA 适配器和一个简单的对齐损失。具体来说,他们使用带有现成掩码标注的图像数据进行微调,并施加一个损失函数,以“鼓励”专家层产生的 I2T 注意力图尽可能地与真实的分割掩码保持一致。

这种方法非常“轻量”,因为它只在专家层上附加了一个小型的 LoRA 适配器进行训练,而无需改动庞大的预训练模型主体。这使得训练过程既快速又节省资源。

实验结果与分析

Seg4Diff 框架在分割和生成两个任务上都取得了令人瞩目的成果。

分割性能

经过掩码对齐微调后,MM-DiT 在开放词汇语义分割和无监督分割任务上都展现出强大的性能。定性结果显示,模型能够精确地分割出各种对象,即使是复杂的场景也能很好地处理。

生成质量提升

一个意外的惊喜是,这种针对分割的微调同样能反哺图像生成。经过掩码对齐后,模型生成的图像在多个方面都得到了改善:

  • 结构一致性:减少了物体“缺胳膊少腿”或结构错乱的问题。

  • 对象计数:能更准确地生成指定数量的对象。

  • 颜色和纹理:细节和真实感得到进一步优化。

这一结果有力地证明了语义分组能力是提升生成保真度的关键因素之一。当模型更“懂”图像结构时,它就能生成更“对”的图像。

总结

Seg4Diff 的工作具有重要的贡献价值:

  1. 揭示了新机制:首次系统性地分析并证明了语义分组是 MM-DiT 的一种涌现属性,并精确定位了其发生的关键层——“语义对位专家层”。

  2. 提出了新应用:展示了如何直接利用扩散模型的内部注意力图来实现高质量、零样本的开放词汇语义分割,为生成模型的“可解释性”和“可利用性”提供了新思路。

  3. 开发了新方法:提出了一种轻量级的“掩码对齐”微调策略,能同时提升模型的分割和生成两大能力,实现了“1+1>2”的效果。

  4. 推动了领域发展:这项研究为打破视觉感知(如分割)和视觉生成(如文生图)之间的壁垒提供了坚实的一步,向着构建更通用、更强大的统一视觉基础模型迈进。

最重要的是,作者 已经开源了他们的代码 ,为社区复现和跟进这项研究提供了便利。CV君认为,这项工作巧妙地“挖掘”而非“添加”模型的能力,为如何理解和利用强大的AI生成模型提供了宝贵的启示。

了解最新 AI 进展,欢迎关注公众号:我爱计算机视觉
感谢点赞支持。

阅读原文

跳转微信打开

联系我们