动态列表

  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线
  • GPT-5冷酷操盘,狼人杀一战封神!七大LLM狂飙演技,人类玩家看完沉默
  • 柳叶刀惊曝:AI让医生6个月「废功」20%,癌症检出率崩盘!
  • 硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库
  • 143亿美金买来一场空!小扎向谷歌OpenAI低头,史上最大AI赌注失速
  • 北京内推 | 微软DKI大模型团队招聘大模型/Agent/广告推荐方向研究型实习生
  • 性能超越GPT-5,成本减30%!大模型装上智能路由,Avengers-Pro刷新性价比极限
  • EMNLP 2025 | 看图就越狱!视觉上下文攻击:“图像语境”一招撬开多模态大模型
  • 动态压缩CoT!浙大×蚂蚁发布LightThinker,让模型推理“轻起来”
  • POSE:100倍加速视频生成,腾讯混元提出单步对抗平衡蒸馏框架
  • 那天,AI大模型想起了,被「失忆」所束缚的枷锁
  • LLM也具有身份认同?当LLM发现博弈对手是自己时,行为变化了
  • AI智能体是否能预测未来?字节跳动seed发布FutureX动态评测基准
  • 混乱、内耗、丑闻:Meta考虑向Google、OpenAI低头
  • 这个荒诞网站藏着30个AI「鬼点子」,但我觉得它活不长
  • R-Zero 深度解析:无需人类数据,AI 如何实现自我进化?
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费
  • CodeAgent 2.0 时代开启|GitTaskBench,颠覆性定义代码智能体实战交付新标准

通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持



  新智元报道  

编辑:LRST
【新智元导读】LLM.265研究发现,视频编码器本身就是一种高效的大模型张量编码器。原本用于播放8K视频的现成视频编解码硬件,其实压缩AI模型数据的效率也非常高,甚至超过了许多专门为AI开发的方案。该工作已被世界微架构大会MICRO-2025正式接收,相关成果将于今年10月在首尔进行展示与讨论。

在大模型的发展历程中,提升参数规模已被多次证明是提升模型智能的最有效手段之一。

然而,随着模型参数量的增加,GPU内存容量和互联带宽已成为限制未来更大规模模型训练和部署的主要瓶颈。

在有限的硬件资源下,如何更有效地训练和推理更大规模的模型,已成为一个备受关注且具有显著经济价值的课题。

为应对这一挑战,压缩技术逐渐成为研究的重点,尤其是在大模型的训练和推理过程中,内存和通信带宽已成为最关键的瓶颈。

压缩技术通过减少数据量,直接缓解了系统瓶颈,使得压缩率的提升往往能直接转化为系统效能的增强。

模型压缩的巨大潜力吸引了大量研究者探索多种方法,致力于压缩大模型训练和推理过程中的各类张量,以提升整体效率。

来自杜克大学、卡耐基梅隆大学和香港科技大学的研究团队发现,视频编码器本身就是一种有效的张量编码器。

论文链接:https://arxiv.org/abs/2407.00467

代码链接:https://github.com/Entropy-xcy/llm.265

更重要的是,视频编解码器具备许多对于大规模模型系统至关重要的特性。

灵活的码率控制

传统的量化压缩方法通常局限于整数存储,这使得存储空间只能以整数位来控制(例如3bit、4bit每个元素)。然而,视频编解码器能够灵活控制码率,支持任意实数的位数(例如每个元素平均3.1415bit),从而更加高效地利用存储空间。

多种张量的压缩

传统的量化压缩算法通常只针对少数几种张量进行压缩。而LLM.265方法发现,视频编解码器在处理模型参数、激活函数、KV缓存、参数梯度和反向传播梯度等多个张量时,具有卓越的压缩效果。

通过使用统一的压缩算法对整个系统中的大部分张量进行压缩,极大地降低了AI系统的复杂度。

硬件支持

现有的GPU已自带视频编解码器,LLM.265可以直接利用现有GPU的硬件视频编解码单元加速张量压缩。

此外,视频编解码硬件的实现效率高且已有几十年的成熟经验,因此直接利用或调整视频编解码器进行张量压缩,对于大模型加速器的设计与实现是一种切实可行的方案。


为什么是视频编码器?


视频编解码器是一个神奇的怪物。

时间x宽度x高度x色彩,最初在计算机上播放视频的工程师一定想不到,这个庞大四维视频张量,可以在几十年后做到在8K,240fps的分辨率下,在手掌大小的移动设备上通过无线网络播放。

诚然,摩尔定律提供了算力基石,然而除此之外更加难以置信的是,视频编解码器的发展,使得视频矩阵可以在被压缩几千倍的情况下,让人类视觉上几乎看不出和原视频的差别。

如今,在计算机体系结构领域的顶会中,大模型加速器是毫无疑问的兵家必争之地,是当今时代毫无疑问的「杀手级应用」。

殊不知,30年前体系结构领域也有一个「杀手级应用」,就是视频编解码!

可以说,30年前的视频编解码这个话题的卷的程度,丝毫不弱于当今的大模型加速器。

然而在这卷的过程中,视频编解码器和其硬件实现也已经被卷得优化到了极致,让今天做大模型加速和压缩的研究者回头望去,就好像历史在重演,让人不自觉的便要学习之前的经验。

然而视频编码器正是这么一个具象的经验,在大模型压缩领域的很多研究,都有意或无意的借鉴了许多视频编码器的工作流程,比如说DeepCompression的熵编码,QuaRot和QUIP#的正交变换,和MXFP的分组量化。

然而纵使借鉴,却未有人尝试直接利用视频编解码器,LLM.265改变了这一「灯下黑」的现状。

下面用两个更具体的例子抛砖引玉,展示视频编码器可以高效压缩张量的原理。

正交编码均摊离群值(Outlier)的编码压力


在信息论领域,高效压缩服从正态分布的数据早已涌现出众多成熟方案。

然而,对现代大模型而言,无论是权重还是激活,往往呈现「正态主体+离群值」的混合分布(见图a、c),既跨度大又要求对分布中心保持高分辨率。

这种「宽动态范围+高精细度」的双重需求让传统压缩/量化方法进退维谷:不是浪费大量比特覆盖离群值,便是牺牲中心区域精度,或直接截断离群值,结果都难以令人满意。

然而视频编解码器中的正交变化(如H.264中的DCT)为此提供了一条更为优雅途径。

有时候,模型参数中会出现一些特别大的数字,就像炒菜时放进一大块盐,如果没拌匀,整道菜就会忽咸忽淡。

而DCT(离散余弦变换)就像一把把盐搅拌均匀的勺子,把「盐味」分散到周围,让整锅菜的味道更均衡、协调。如图a→b所示,DCT先把含离群值的分布「整形」成更规整的近正太分布。

从具体例子来说,在图c→d过程中,DCT可以将「128」这一极端值的能量分散到邻近系数,把原本集中的编码压力均匀摊薄。

最终,虽然整体幅值略有升高,但离群值被彻底吸收,后续的编码管线的复杂度和存储开销都大可以大降低。

帧间预测+残差编码


谈及视频编码,首先必须提到其灵魂技术——预测编码。正是预测编码,使得视频压缩效率达到了前所未有的水平。预测编码的核心思想是「预测而非直接存储

如果我们能够依据已有信息对待编码的数据块进行精准预测,那么该块本身就无需再存储;即便预测并不完美,也无需担心,只要能够得到数据块的大致轮廓,随后计算出真实数据与预测之间的残差,并仅保存能量更低的残差信息即可。

相比直接保存完整数据块,仅存残差便能大幅缩减所需比特数。

上图概述了视频编码器在张量压缩中的工作链路。编码器首先对输入帧进行边缘预测(见图b):一旦判断出存在连续边缘,便直接记录「从(x₁,y₁)到(x₂,y₂)的像素均为蓝色」这类几何描述,而非逐像素存储。

凭借这种轮廓级表达,数据体积骤减,压缩比随之倍增。类似地,LLM的权重、激活和梯度张量也蕴含可视化意义上的「边缘」。

这些张量通常呈轴向分布,即沿同一轴方向的数据整体偏高或偏低(见图b)。

视频编码器可以把这类轴向结构视作「可预测」的边缘区域,先用预测值勾勒大致轮廓,再只编码预测与真实之间的低能量残差(见图c)。

对残差先进行正交变换,再进行量化后,其信息熵会进一步降低(见图d),于是需要传输或存储的比特数大幅减少,压缩率显著提升。


实验结果


实验结果表明,在几乎所有模型压缩的场景中,无论是推理还是训练,也不论是单卡还是分布式环境,使用视频编解码器对张量进行压缩都能取得显著的效果。

针对权重压缩的实验,LLM.265将传统的4 bit量化进一步推进至2.5 bit,在仅用2.5 bit的预算下仍能够实现与原来4 bit相当的性能,几乎与全精度基准线持平,未出现可感知的精度下降。

在训练过程中,LLM.265将每参数的平均通信比特从之前的3.5 bit降至1.4 bit,通信量因此缩减约2.5倍,同时收敛速度也超过了此前的最先进方法。这些结果充分说明视频编解码器在张量压缩方面具备卓越的潜力。


关于未来加速卡设计、编码器和LLM系统的思考


用更多计算换更小数据量会越来越划算


随着模型规模的持续扩大,摩尔定律的效应趋于衰减,计算能力的提升相对受限,而通信和内存带宽的瓶颈在硬件成本、能耗以及可扩展性方面表现得尤为突出。

在此背景下,数据压缩作为一种「用计算量换取更小数据规模」的技术手段,对缓解内存和通信压力具有重要意义。

研究结果发现,视频编码模块在芯片上占用的面积不足GPU面积的百分之一,这意味着在现有GPU上额外集成若干视频编码单元即可显著提升系统级能效,降低整体成本;若进一步研发专用于张量的编码单元,效益将更加突出。

不再强求无损压缩,有损有更高的自由度


过去的压缩加速器研究大多聚焦于无损方案,而无损压缩的理论上限通常不超过两倍的压缩率。

LLM.265的实验表明,在允许适度有损的前提下,只要在性能与精度之间进行合理的权衡,就可以实现远高于无损的压缩率,同时在训练和推理阶段仍能保持模型效果和精度的可接受水平。

更重要的是,有损压缩方案往往只需对现有硬件进行少量改动,即可在需要时切换回无损模式,保持灵活性。

通用还是专用,that is the question


LLM.265的实验提示可以从两条路径进行探索:

一是将现有视频编码器精细化为专门的张量编码器,去除与张量无关的功能模块,强化对张量有价值的部件,并加入针对张量特性的专用模块,以追求极致性能;

二是将张量编码的功能融入视频编码器之中,利用视频、图像以及通用文件压缩流水线之间的高度相似性,实现硬件压缩加速器的模块共享。

若能够构建一个能够服务多种压缩场景的共享加速器,则有望在硬件资源利用率和系统整体效率上获得更大收益。


结语


通用抑或专用,计算体系结构自诞生伊始便笼罩着激烈的争论。千位架构师、千种应用,恰似千人千面、千个哈姆雷特,孕育出万般设计。

正是这种无限的自由度,造就了体系结构与架构设计的独特魅力,也促成了芯片史上无数大胆、疯狂的创新。

然而,架构师面对的并非舞台上「文无第一」的妙语横生,而是「武无第二」的沙场血战。

在无数基准测试的天平下,所有的架构设计都高下立判。每一次架构抉择,都足以左右一个企业的兴衰存亡——此为即决高下,也决生死。我想,这正是芯片架构设计最令人着迷之所在。

参考资料:
https://arxiv.org/abs/2407.00467


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652624878&amp;idx=3&amp;sn=8f363e2e86635c31ae4b80c50861a7f5&amp;chksm=f0412d1838039bd0925a46726e04b43b9d347c90916903a3af8116df1cafeea86764b42a589b&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/YbPW6ScTyY&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们