动态列表

  • 不到10天,国产「香蕉」突袭!一次7图逼真还原,合成大法惊呆歪果仁
  • 再也不怕面瘫脸!YouTube黑科技:AI帮你「永久微笑」,连僵尸都咧嘴笑
  • OpenAI真正王牌,不是Ilya!刚刚,奥特曼罕见致谢这两人
  • 缔造OpenAI的秘密,竟只有一个词!新智元十年峰会圆桌,七位大咖激辩
  • Hinton预言失灵?掌握AI技能涨薪23%,比读硕士更赚钱
  • 文心新出的推理大模型,给了我们信心
  • SFT远不如RL?永不过时的剃刀原则打开「终身学习」大模型训练的大门
  • 从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准
  • 击败多个行业巨头,优必选自研人形机器人最强大脑 Thinker 斩获全球四项第一
  • 字节跳动发布 Seedream 4.0 图像创作模型,豆包、即梦可免费体验
  • 从科幻到产业元年 | 「脑机接口」系统综述发布:全景解析理论、技术、挑战、趋势
  • 硅谷也996实锤了?AI的火,烧掉了硅谷的周末
  • Altman亲自发博客点赞,这两大杰出人才是谁?
  • 自变量机器人完成近 10 亿元 A+ 轮融资,多元资本押注共同布局具身智能未来
  • 科研实习 | 北京大学计算机学院潘亮铭老师课题组招收NLP/大模型方向科研实习生
  • ICML 2025 | 别再只拼CoT了!不完备信息下的主动推理,LLM普遍掉线
  • 不止综述!多模态大模型持续学习全链路:Benchmark、方法与Codebase一网打尽
  • 报名启动!西湖大学云谷青年学者论坛·人工智能分论坛诚邀全球英才
  • 时空壶发布 W4:用「硬核」技术,打赢一场 AI 翻译的「标准」之战
  • Science | 西奈山伊坎医学院新AI算法为1600种变异定量「风险」,解析疾病外显率难题
  • TPAMI 2025 | IGEV++:迭代多范围几何编码,刷新立体匹配技术新高度
  • 原来你是这样的外滩大会!
  • 小米通报王腾因泄密被辞退,本人发微博回应;传 IPO 估值 500 亿,宇树回应 ;辛顿自曝被女友用 AI 分手 | 极客早知道
  • Hinton自曝:前女友提分手,用ChatGPT列出自己「七宗罪」
  • 从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述
  • 字节Seedream 4.0将全量开放!抢先评测来了,我们摸索出AI生图20种「邪修」玩法
  • 全球图生视频榜单第一,爱诗科技PixVerse V5如何改变一亿用户的视频创作
  • 扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
  • 具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法
  • 上海AI Lab重磅综述:AI实现自主科学发现时代已经到来
  • 6 个月估值暴涨 5 倍突破 100 亿美元,三个「00后」逼急 Scale AI
  • 深圳内推 | 腾讯音乐天琴实验室招聘音乐生成算法研究员(社招/校招)
  • 给RL装上“防抖器”!GRPO稳化版来了:更高熵、更低KL、更稳更新
  • Focal Loss也能无监督?北大×港中文团队用“双重不确定性优化”提升鲁棒3D感知
  • 导师放养真的会毁掉一个人……
  • 上汽通用五菱与华为深化合作,推出首款车型宝骏华境S
  • IEEE TPAMI | M²Diffuser: 让机器人学会“脑补”,在复杂3D场景中实现精准移动操作
  • 国行版苹果 AI 推迟至年底上线;视频平台广告被曝「偷时间」;美国计划限制进口中国无人机和重型载具 | 极客早知道|极客早知道
  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道

DPad: 扩散大语言模型的中庸之道,杜克大学陈怡然团队免训推理加速61倍

图片

论文作者团队:来自杜克大学 CEI Center,由实习生陈欣骅、黄思韬及郭聪博士共同完成,指导教师为李海教授、陈怡然教授。

扩散大语言模型(dLLMs)凭借并行解码与独特的全局规划能力,有望解决自回归(AR)大模型的效率瓶瓶颈和规划能力缺陷。但其「全局规划」能力依赖于其双向注意力对所有后文的关注,这带来了严重的计算冗余,从而导致现有开源模型的潜力远远未被释放。

当前的 dLLM 存在「路线之争」:一是保留全局规划能力但推理效率极低的「全局双向注意」(如 LLaDA),二是追求速度却牺牲规划能力的「块内双向注意」(如 Block Diffusion)。如何在这两条路线之间调和折中,让模型既能「着眼全局」,又能加速推理,已成为学界日益关注的问题。

针对以上问题,杜克大学陈怡然团队另辟蹊径,揭示了 dLLM 中实现全局规划的「草稿纸机制」,并发现其存在高度冗余。据此,他们提出免训练方法 DPad(Diffusion Scratchpad),通过先验地丢弃大量无效后缀 token,既极大地降低了计算量,又保留了核心规划能力,尝试在两条路线中走出一条「中间路线」。该方法与现有优化技术结合后,在几乎无损的模型精度下,可实现高达 61.4 倍的推理加速。

图片
  • 论文标题:DPad: Efcient Difusion Language Models with Sufx Dropout

  • 论文地址:https://arxiv.org/abs/2508.14148

  • 代码地址:https://github.com/Crys-Chen/DPad

dLLM 独特的「草稿纸」机制:实时记录语义信息

不同于自回归模型,dLLM 采用双向注意力机制,在解码时既能回顾前文,也能「展望」后文。基于这一点,文本序列可被清晰地划分为三部分:

  • 前缀 token (Prefix Tokens):已完全解码的文本,语义和位置信息完整。

  • 当前块 token (Current Block):正在解码的文本,拥有部分语义和完整的位置信息。

  • 后缀 token (Suffix Tokens):使用 Mask 初始化的未来文本,仅有位置信息,初始没有语义信息。可在每层 Transformer block 执行的过程中,逐步记录语义信息,对未来的文本进行规划。

研究团队通过分析双向注意力机制后发现:dLLM 中的后缀 token 是一种独特的「草稿纸」。模型在解码「当前块」时,会巧妙将这些后缀 token 作为临时存储空间,用于在每一层 Transformer block 中记录自己对后文的构思。这种方法能够实现对整个文本的规划,使输出的前后文更一致,提高语言模型的整体性能。

图片

草稿纸机制示意图。左图显示在浅层(Layer 0),信息从 Prefix 和 Current「写入」(DPad Writing)到 Suffix 区域。右图显示在深层(Layer 1),信息被 Current Block 从 Suffix 区域「读取」(DPad Reading)回来,辅助解码。

如上图所示,前缀、当前和后缀三种类型将注意力分数分为了 9 个区域,使得模型的前向过程存在一个「写—读」的工作流:

  • 写入 (Write):在第 0 层 Transformer block,后缀 token 通过注意力机制,从前缀(⑦)和当前(⑧)块中捕获信息。这个过程相当于模型对后文的构思作为「草稿」记录下来。

  • 读取 (Read):在第 1 层 Transformer block,当前块反过来从后缀 token 读取信息(⑥)。此时的后缀 token 已不再是「白板」,而是承载了上一层写入的「草稿」。所以从后文读取的信息可以用于辅助当前块的解码。

研究团队认为,这种「写—读」的行为就像一本「草稿纸」,将模型在浅层对后文的构思传递到深层——这正是 dLLM 具备强大全局规划能力的关键。它让模型在生成当前内容的同时,能初步构思和约束未来的生成方向,实现了前后文的协同共进。

符合直觉的发现:「草稿纸」也要详略得当

DPad 的核心思想,源于一个非常符合直觉的类比。想象一下您在创作一部鸿篇巨制:

  • 对于当前章节,你会反复修改,精雕细琢。

  • 对于临近几章,你会先列好提纲,构思重点情节,确保情节自然衔接。

  • 对于后续章节,或许只是随手记下几个天马行空的灵感,寥寥几笔。

DPad 正是基于这一思想,避免让作者(dLLM)在创作每个章节(当前块 Token)时,对所有未来的「草稿纸」(后缀 Token)进行强行填充,从而,才能集中注意力并节省资源(降低算力和存储)。其核心思想便是聚焦当下,展望未来,留白长远,让模型的每一次「下笔」都更加高效。

通过对 dLLM 注意力机制的分析,研究团队发现了支撑这种核心思想的关键性数据:

  • 「草稿纸」大量冗余:离当前块较远的后缀 token 往往被写入了极其相似的「草稿」,其中大部分成了无效计算。

  • 注意力随距离衰减:对当前解码起关键作用的,主要是附近少数几页「草稿纸」,远处的「草稿」重要性显著降低。

图片

      预先解码出来的后缀 token 存在大量重复

图片

当前块对后缀 token 的注意力分数图。可以看到,注意力(绿线)在进入 Suffix 区域后迅速衰减,表明远处 token 的影响力逐渐减小。

那么,是否可以更大胆一些呢?如下图所示,研究人员进行了一个反直觉的实验:强行删除那些注意力分数最高的远端 token。出人意料的是,准确率几乎没有任何损失!dLLM 似乎有「自愈能力」,会将注意力自动转移到邻近 token 上,补偿丢失的信息。

这个「注意力迁移」现象有力地证明:比起某一张特定位置的「草稿纸」,dLLM 其实仅要求在未来某个位置区间内存在可用的「草稿纸」即可。因此,与其空耗算力确定重要 token 的位置,不如直接先验丢弃

图片

左图展示了 dLLM 中当前块 token 对后缀 token 的注意力分布:整体随距离衰减,远端 token 偶尔出现「尖峰」(如 d = 362)。当删除这些尖峰 token 后(右图),模型的注意力并没有消失,而是自然地转移到了邻近的 token 上(如,362 号 token 的注意力被转移到 359 号)。

DPad:简单高效的「先验丢弃」

基于以上洞见,DPad 方法应运而生。它的核心思想是:与其等模型算完再「剪枝」,不如在解码开始前,就先验地丢掉一批冗余的「草稿纸」。DPad 的实现非常简洁,主要包含两大策略:

  • 滑动窗口 (Sliding Window):只保留当前解码位置附近一个固定长度的后缀窗口作为「草稿纸」,远处的直接丢弃。

  • 「近多远少」采样 (Distance-decay Dropout):在滑动窗口内部,根据「越近越重要」的原则,以一个随距离递减的概率保留后缀 token。

图片

(a) 自回归模型;(b) 传统 dLLM,需要关注所有后缀 token;(c) DPad,仅关注附近少数经过筛选的后缀 token。

实验结果:更快更准

DPad 在 LLaDA 和 Dream 系列等多个主流 dLLM 上进行了全面测试,结果喜人。

大幅提升推理效率

在现实的长输出场景(少示例、长回答)中,DPad 可谓大放异彩:

  • 在 GSM8K 数据集上,DPad 为 LLaDA-1.5 带来了 20.3 倍的单独加速比。

  • 与 Fast-dLLM 等并行解码技术结合后,综合加速比高达 61.39 倍

  • 在 HumanEval 数据集上,当输出长度达到 2048 个 token 时,DPad 与 Fast-dLLM 的组合为 Dream 模型带来了 97.32 倍的惊人加速。

图片

图 6 在 GSM8K(1024 tokens, 1-shot)任务上,DPad 结合其他优化技术,让 LLaDA-1.5 实现了 61.39 倍的加速。

图片

在 HumanEval(2048 tokens, 0-shot)任务上,DPad 结合其他优化技术,让 Dream-Base 实现了 97.32 倍的加速。

意外之喜:显著提升语境学习能力 (In-Context Learning)

通常,推理加速会以牺牲部分模型精度为代价。但 DPad 却带来了意外的惊喜:在多个任务上,尤其是在 LLaDA 系列模型上,它不仅没有降低精度,反而显著提升了模型的准确率,尤其是「严格匹配」(Strict Match)得分。

「严格匹配」不仅要求答案正确,还要求模型严格遵循输入示例给出的格式,是衡量模型语境学习能力的关键指标。

图片

在 GSM8K 任务中,原始模型(左)虽然算对了答案(通过 Flexible-Match),但未能按要求格式输出答案,未能通过 Strict-Match。而应用了 DPad 的模型(右),则精准复刻了示例格式,同时给出了正确答案。

图片

      DPad 在 LLaDA-Instruct 上与原始模型 (Vanilla) 和 Fast-dLLM 的对比

图片

      DPad 在 LLaDA-1.5 上与原始模型 (Vanilla) 和 Fast-dLLM 的对比

图片

      DPad 在 Dream-Base 上与原始模型 (Vanilla) 和 Fast-dLLM 的对比

DPad 团队认为,这是因为丢弃了大量冗余的后缀 token 后,模型能将更多注意力集中在信息量丰富的前缀 token(prompt)上,从而更好地理解和学习示例中蕴含的格式与规范。

总结与展望

面对当前 dLLM 的两条路线之争,DPad 巧妙地介于两者之间,尝试着开辟一条「中间路线」。它既通过「草稿纸机制」,揭示了后缀 token 对于 dLLM 全局规划能力的重要性;又向 Block Diffusion 靠拢,通过稀疏化后缀 token 大幅提升了推理效率。

DPad 的提出预示着我们似乎并不需要在速度和规划能力之间做出非此即彼的选择。未来,若将 DPad 的思想引入到模型的微调甚至预训练阶段,或许能博采众长,训练出更高效、更强大的下一代扩散大语言模型。

]]>

联系我们