动态列表

  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线
  • GPT-5冷酷操盘,狼人杀一战封神!七大LLM狂飙演技,人类玩家看完沉默
  • 柳叶刀惊曝:AI让医生6个月「废功」20%,癌症检出率崩盘!
  • 硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库
  • 143亿美金买来一场空!小扎向谷歌OpenAI低头,史上最大AI赌注失速
  • 北京内推 | 微软DKI大模型团队招聘大模型/Agent/广告推荐方向研究型实习生
  • 性能超越GPT-5,成本减30%!大模型装上智能路由,Avengers-Pro刷新性价比极限
  • EMNLP 2025 | 看图就越狱!视觉上下文攻击:“图像语境”一招撬开多模态大模型
  • 动态压缩CoT!浙大×蚂蚁发布LightThinker,让模型推理“轻起来”
  • POSE:100倍加速视频生成,腾讯混元提出单步对抗平衡蒸馏框架
  • 那天,AI大模型想起了,被「失忆」所束缚的枷锁
  • LLM也具有身份认同?当LLM发现博弈对手是自己时,行为变化了
  • AI智能体是否能预测未来?字节跳动seed发布FutureX动态评测基准
  • 混乱、内耗、丑闻:Meta考虑向Google、OpenAI低头
  • 这个荒诞网站藏着30个AI「鬼点子」,但我觉得它活不长
  • R-Zero 深度解析:无需人类数据,AI 如何实现自我进化?
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费
  • CodeAgent 2.0 时代开启|GitTaskBench,颠覆性定义代码智能体实战交付新标准

0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道



  新智元报道  

编辑:元宇
【新智元导读】苹果研究人员发现,在大模型中,极少量的参数,即便只有0.01%,仍可能包含数十万权重,他们将这一发现称为「超级权重」。超级权重点透了大模型「命门」,使大模型走出「炼丹玄学」。


0.01%参数定生死!

在删掉极少量参数后,大模型立刻变得胡言乱语起来,在零样本任务中只会瞎猜,原来的那股聪明劲儿全没了。

但是,如果保留这些极少量参数,即使删掉成千上万其他参数,大模型的智力依然在线,几乎看不出有什么影响。

如果拿一棵树比喻,剪掉树(大模型)的几千片叶子(冗余参数)不会伤筋动骨,但只要砍掉树干上的一个关键节点(核心参数),整棵树可能就死掉了。

这个核心参数,就是大模型中存在的极少数关键性/高敏感度参数。

有时甚至只需一个,就能对大模型的整体功能产生巨大影响。

论文地址:https://arxiv.org/abs/2411.07191

近日,苹果研究人员在论文《大语言模型中的超级权重》(The Super Weight in Large Language Models)中,将上述现象,称为「超级权重现象」。

如上图1左侧显示,带有超级权重的原始Llama-7B,能顺利接着生成合乎逻辑的内容

而在图1右侧,当超级权重参数被剪枝后,Llama-7B就开始胡言乱语,生成的全是毫无意义的文本。

这生动诠释了什么叫「打蛇打七寸」:

剪枝一个「超级权重」的特殊参数,就可以完全破坏大模型的能力。



让大模型「科学瘦身」

「超级权重」的发现,为大模型在端侧部署,扫清了道路。

在实际应用中,大模型庞大的体格(动辄数十亿甚至数千亿参数),想要部署在移动端等一些低预算、资源受限等环境中,就像把大象塞进冰箱,往往会面临巨大挑战。

如果只是简单粗暴的等比压缩或简化,就好比削足适履,只会导致模型质量显著下降。

更为合理的做法,是让大模型「科学瘦身」,比如缩小模型的规模和计算复杂度,从而降低内存与功耗。

这时,超级权重就显得至关重要。

在模型压缩和简化过程中,要避免碰到这些数量虽小,却牵一发而动全身的「命门级」参数,避免它们被显著修改(通过压缩)或被完全移除(剪枝)。

即使它们的比例可以小到0.01%,但对于拥有数十亿参数的模型,仍然意味着有数十万个单独权重。


苹果研究人员发现,如果动了它们,就可能破坏LLM生成连贯文本的能力,比如让困惑度上升3个数量级,这样大模型就几乎「读不懂」语言了。

又或者使大模型的零样本学习准确率降低到「瞎猜」的水平,这意味着大模型的智能也几乎废掉了。


如何定位「超级权重」?

许多研究都显示出:少量最大幅值的异常值对模型质量至关重要。

对于拥有数十亿参数的模型,极少量的参数,即便是只有0.01%,仍可能包含数十万权重。苹果研究人员将称这个单标量权重为超级权重(super weight)。

超级权重,会放大某个特征,产生超级激活。

超级权重,会诱发相应稀有且幅度巨大的激活离群值,研究人员将之称为super activations(超级激活)。


所谓激活,是指模型在前向传播时,每一层神经元的输出值。

它们通常是在超级权重之后出现,并在随后的层中以一种恒定的幅度和位置持续存在,而不受输入提示词的影响。

比如,一旦某个超级权重参与计算,它会把输入信号放大成异常大的数值,于是紧接着的层中就出现超级激活。

并且,超级激活与超级权重所在通道一致。

于是,研究人员就提出了一种高效定位超权重的方法:

通过超级激活来定位超级权重:利用检测向下投影输入和输出分布跨层中的尖峰来定位超级权重。


为了促进公开研究,研究人员还将一部分常见、公开可用的LLM超级权重标记了出来,如下表2:

研究人员发现,大多数模型每个张量中的超级权重不超过三个。

即使超级权重数量最多的模型(例如Phi-3-mini-4k-instruct)也只包含六个。

研究人员还通过图2,展示了超级权重触发超级激活,以及超级激活的传播机制。

图2-I中蓝紫色方框中展示了超级权重的触发,它通常出现在较早层的down projection(降维投影)。

这好比在一开始就有一个「功放器」,把某个信号突然放大到极高的音量。

图2-Ⅱ中表示超级激活通过跳跃连接传播,用蓝紫色线表示,它表示激活不是一次性消失,而是层层跳跃传播下去。

这好比扩音器的噪音通过音响的电路一路传到所有扬声器,无论后续放什么音乐,那个噪音始终存在。

图2-Ⅲ中表示,在最终的输出logits(预测分布)里,超级激活会产生压制停用词(stopwords)的效果。

而移除超级权重,会导致停用词可能性增加,用蓝紫色堆叠条表示。

在图3中,down_proj输入在层2中,仅有一个大幅度的激活值(super activation),这是超级激活首次出现的地方。

图4表示,一旦在第2层被触发,超级激活会在随后的所有层中以相同的幅度、相同的位置持续存在,而不受输入的影响。如果把超级权重剪掉,超级激活的强度会下降75%。

图5中显示了超级权重对停用词的抑制作用。

研究人员发现,移除超级权重会导致停用词概率增加2-5倍,这在各种LLMs中都存在。

同时,非停用词的概率急剧下降,减少2-3倍,低至0.1%的概率。

整体上看,超权重会影响输出Token的概率分布。

从图6可以看出,增强超权重,可以在一定程度上提高模型准确率。


超级离群值
模型量化的「关键钥匙」

量化是压缩模型、降低模型内存需求的一种强有力技术。

其中影响量化质量的,是一种重要的指标离群值(outliers)。研究人员将超级权重和超级激活统称为超级离群值。

超级离群值,为人们认识大模型,改进大模型压缩技术,提供了一把重要的钥匙。

在该项研究中,研究人员考虑的是一种最简单的量化形式——即非对称的就近取重量化(asymmetric round-to-nearest quantization):

保留超级权重参数,是大模型「瘦身」的一个黄金原则。

研究人员发现,只要以高精度保留超级激活,通过简单的就近取整(round-to-nearest)量化,也能将模型质量提升到与当前最先进方法相当的水平。

如表3所示,在与FP16、Naive W8A8、SmoothQuant三种模型量化方法的比较中,就近取整量化虽然效果略次于SmoothQuant,但优于Naive W8A8,尤其是在不需要校准数据的前提下,实用性更强。

同样,如果在保留超权重的同时,对其他权重异常值进行裁剪,就近取整量化,也可以实现更好的压缩比。

这意味着只需处理少量「超级离群值」,就能显著提升压缩质量。

研究人员认为,与需要处理数十万离群权重的方法相比,这无疑是一种更友好的硬件方案。

它可以在提升模型效率的同时,又能尽可能保留原有性能。


这也使得强大的LLM应用,在资源受限的硬件上部署和高质量运行,成为可能。


激活量化与权重量化

为了全面展示超级权重的影响,研究人员将研究范围扩大到更多大模型:OLMo(1B和7B版本)、Mistral-7B以及Llama-2-7B。

表4显示,处理超级激活可以提升激活量化效果。

研究人员遵循SmoothQuant的设置,用FP16算术模拟W8A8量化。

研究结果凸显了超级激活,在量化期间维持模型性能的关键重要性。

研究人员对Llama-7B的分析显示,AWQ将超级权重放大了12倍,这印证了他们对超级权重重要性的判断。

如图7,蓝线RTN显示,如果不处理超级权重,随着量化块变大,模型性能急剧下降;紫线Ours表示,如果恢复超级权重,模型准确率下降更平缓,即使大块量化也能维持较好性能。

这说明,只要针对单个超级权重进行特殊处理,就能显著提高量化的稳定性和可扩展性。


探索超级离群值的版图

苹果研究人员的发现,为未来研究打开了多条道路。

毫无疑问,进一步探索超级权重与超级激活的起源及其精确机制,将对LLM的运行动态,带来更深入的洞见。

同样的,理解这些超级权重参数,如何在训练过程中获得如此「超级」的影响力,也可以为未来的模型设计、训练策略提供更有针对性的指导。

从另一个角度看,在更广泛的模型架构和训练范式中,展开对超级权重的研究,也有助于揭示它们的角色和形成机制。

这些都将帮助我们解锁,构建更高效、更稳健、更可解释大模型的创新方法,让大模型告别「炼丹玄学」。


作者简介

Mengxia Yu

Mengxia Yu是圣母大学计算机专业博士生,此前在北京大学获得计算语言学学士学位,本论文是她在苹果公司实习期间完成的。

参考资料:
https://machinelearning.apple.com/research/the-super-weight



<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652625324&amp;idx=2&amp;sn=9d2f51848fe7b7d3d2cce4e3831df390&amp;chksm=f0851981b667439db5f98181ade116267f5e6524067c692e855e8126a18a4fc916c4ce69d6f2&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/AOtfPzfVdW&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们