动态列表

  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • SilentStriker:无声击溃大模型
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道
  • 比思维链准43%!逻辑脑+大模型直觉,推理可靠性大幅提升
  • 陶哲轩官宣AI数学基金首轮名单:29个项目瓜分1.3亿,数学界沸腾!
  • GPT-5仅23.3%,全球AI集体挂科!地狱级编程考试,夺金神话破灭
  • 一手奶瓶一手键盘!新手宝妈产假氛围编程,自研实用家庭App
  • 刚刚,DeepSeek-V3.1「终极版」重磅发布!最大提升超36%,V4/R2还远吗?
  • 为了千元机用户的「流畅权」,OPPO 为安卓换了个「引擎」
  • ​一年卖出 10 个亿,这是年轻人真正的「户外神器」
  • Teable 宣布完成数百万美元天使轮融资,让数据库「长出耳朵和手」
  • 北京内推 | 智源研究院多模态交互研究中心招聘多模态/具身智能方向研究型实习生
  • 博士申请 | 复旦大学魏龙老师课题组招收AI4Science方向博士/硕士/RA/实习生
  • Lumos-1登场!自回归 + 离散扩散合体:让大模型真正“构造”动态世界!
  • RLHF要下岗?Meta × 牛津搞出新套路:用算力教算力,大模型训练新范式来了!
  • 不到两千块,我拍到了专业级别的月全食|New Things
  • 苹果发布Manzano:一种简单可扩展的统一多模态大模型,其混合视觉Tokenizer统一了理解与生成任务,性能SOTA
  • 字节跳动SAIL-VL2登顶OpenCompass,开源高效多模态新标杆
  • 博后年薪40万到90万 | 东方理工朱文韬课题组招聘AI方向博士后、研究助理教授、访问学生、实习生
  • 黄仁勋出手,50 亿美元入股英特尔,英伟达一统「GPU+x86」生态
  • 巴菲特清仓比亚迪,期间股价上涨 38 倍;苹果折叠屏手机细节曝光;雷军年度演讲定档 9 月 25 日
  • 刚刚,Gemini「灵魂人物」官宣加盟xAI!马斯克火速转推背书
  • 靠10万+粉丝,北漂插画师秒贷款!华为全栈AI加速,让银行及时看见
  • 醒醒,LLM根本没有性格!加州理工华人揭开AI人格幻觉真相
  • 哈佛大佬都哭了!H-1B签证飙至10万刀,微软谷歌连夜召回全球员工
  • 马斯克xAI百天血战,100天狂招100人!联创实权被削,豪言干掉微软
  • 全球双榜SOTA!明略科技专有大模型 Mano开启GUI智能操作新时代
  • 谷歌Gemini IMO和ICPC夺金功臣之一被xAI挖走,马斯克直呼:起飞
  • 工业级3D世界构建提速90倍!全新框架LatticeWorld让虚拟世界「一句话成真」
  • 集合通信库VCCL释放GPU极致算力,创智、基流、智谱、联通、北航、清华、东南重磅开源
  • 【招生招聘】阿卜杜拉国王科技大学孟彦达博士组全奖博士、博后、实习、交流生
  • 告别视频“抽帧”理解,美国东北大学新算法GRT算法实现高效可扩展的高帧率密集视频理解
  • iPhone17 卖爆,官网发货延至双 11;比亚迪仰望 U9 赛道版开启预定;网友玩坏 iPhone「舌头刷抖音」
  • 「逆龄大脑药」首次人体试验!奥特曼押注RTR242,返老还童将要成真?
  • 终结CMU霸权,清华首次登顶CSRankings世界第一!北大AI领域夺冠
  • 大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升
  • OpenAI最新硬件2026年底亮相!狂挖苹果20+老将,首款神秘设备或将颠覆iPhone
  • 小扎AI眼镜当场死机,CTO自曝灾难级演示内幕:一个指令干趴自家服务器
  • 当大厂「卷」Agent,腾讯选择「下产线」
  • 陈天桥旗下AI公司MiroMind打造全球顶尖预测型大模型,性能登顶行业基准
  • OpenAI从苹果挖了20多人搞硬件,知情人士:苹果创新缓慢、官僚主义令人厌倦
  • Mini-Omni-Reasoner:实时推理,定义下一代端到端对话模型
  • 北大等提出BEVUDA++,首次解决BEV感知跨域难题,夜间检测性能提升12.9%
  • TPAMI 2025 | DiffMVS/CasDiffMVS:一种置信度感知的扩散模型,实现轻量且准确的多视图立体三维重建
  • iPhone 17 Pro 首日即现划痕;传 OpenAI 联手立讯做 AI 硬件;2025 年搞笑诺贝尔出炉
  • 史上最大升级!7亿周活ChatGPT逼宫,谷歌慌了,这次要把AI整个塞进Chrome
  • 谷歌AI或摘千禧年大奖!华人博士破解百年数学难题,首次捕获奇点
  • 登顶多模态推理榜MMMU!UCSD新方法超越GPT-5、Gemini
  • DeepSeek-R1登顶Nature,8位专家严审通过, 大模型「交卷时刻」来了
  • 18岁天才少年,登上Nature封面!
  • 不要ViT也不要扩散!OneCAT甩掉编码器,统一多模态自回归模型来了
  • ICML 2025 | 乱写Prompt更给力?删几个Token,上下文学习立刻“反向觉醒”
  • 北京内推 | 腾讯混元大模型X团队招聘大模型/强化学习方向“青云计划”实习生
  • 扩散大语言模型也能飞?DPad免训练加速61倍,全局规划照样稳
  • 华为超节点:用「一台机器」的逻辑,驱动AI万卡集群
  • 5555被拒稿,AC接收但PC强拒,NeurIPS揭榜引争议
  • 超强开源模型Qwen3、DeepSeek-V3.1,都被云计算一哥「收」了
  • 攻克大模型训推差异难题,蚂蚁开源新一代推理模型Ring-flash-2.0
  • 给大模型「精准手术」:美团智能客服提出逆向学习技术精准纠偏,风险控制提升38%
  • 阿联酋大学CVLab IEEE Fellow团队招收2026春季/秋季全奖博士生
  • Meta新作SyncSeal:用深度学习“封印”同步信息,让数字水印不再怕裁剪和旋转
  • 千禧年大奖难题有望突破?AI为流体动力学提供新思路
  • 生物学迎来「ChatGPT时刻」:Evo构建首个AI生成的「基因组」,开启生成式基因设计时代
  • 英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
  • 理解帮助生成?RecA自监督训练让统一多模态模型直升SOTA
  • 投50亿美元,英伟达联手英特尔;谷歌将Gemini加入浏览器;网约车司机平均月入过万
  • GPT-5攻入数学圈,证明定理快过博士生?网友热议AI新角色
  • 阿里王牌Agent横扫SOTA,全栈开源力压OpenAI!博士级难题一键搞定
  • ChatGPT负责人深度复盘,爆4o复活内幕!过快下线是失误,将迭代模型人格
  • 全球首个AI基因组诞生,35亿年生命代码重编程!生物学迎「ChatGPT时刻」
  • 芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
  • 新思科技中国30周年,引领AI智能体工程师重塑芯片设计范式
  • 科大讯飞发布面向东盟的多语言大模型及系列产品,布局中国—东盟AI生态大未来
  • Nature | 20年后你会患上哪些疾病?AI准确预测超1000种疾病患病风险,助力预防
  • 我们还是低估了英伟达
  • 少样本不够看?给LLM装上“学习引擎”,上下文学习迈入千样本时代
  • 北京内推 | 字节跳动国际电商团队招聘大模型方向算法实习生
  • ICCV 2025 | Gap即力量!挖掘模态间隔潜力,MG-CLIP实现持续学习SOTA
  • 谁在拖慢你的RL?别怪显卡,错的可能是你的PG-loss
  • OneSearch,揭开快手电商搜索「一步到位」的秘技
  • 17.38 万的大六座 SUV,吉利用银河 M9 敲碎了友商的心
  • 刚刚,OpenAI在ICPC 2025编程赛上满分登顶,Gemini也达到金牌水平
  • 从一个公众号智能体说起:好用的Agent,究竟需要什么?
  • B站出海的强有力支柱:最新开源文本转语音模型IndexTTS-2.0标志零样本TTS进入双维度时代
  • 腾讯企点营销云发布Magic Agent,营销工具全面AI化
  • 带屏 AI 眼镜登场!Meta「眼镜全家桶」炸街了
  • 通义DeepResearch震撼发布!性能比肩OpenAI,模型、框架、方案完全开源
  • 让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
  • 刚刚,DeepSeek-R1论文登上Nature封面,通讯作者梁文锋
  • 腾讯 AI 的新叙事

一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍



  新智元报道  

编辑:倾倾
【新智元导读】当芯片像炉子一样发烫,电费狂飙、延迟卡顿、服务掉链子,所有想象中的未来都会被「热」锁死。微软这次亮出的杀手锏,是在芯片里开出液体血管,让冷却液直达发热核心。这AI能不能继续狂奔,价格能不能压住,体验能不能丝滑,都系于这场降温革命。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

大家一直在担心:AI越来越烧钱,ChatGPT的订阅费会不会年年涨?

更让人头疼的,是用AI时越来越容易卡顿、掉链子。

罪魁祸首,其实是芯片过热。随着新一代AI芯片疯狂堆算力,传统风冷和冷板都快压不住了。

就在刚刚,微软CEO Satya Nadella在X上发声:

我们正在重新想象芯片的冷却方式,让未来的 AI 基础设施更高效、更可持续。

这句话背后,是微软刚刚公布的一项「黑科技」——把冷却液直接送进芯片体内的微小通道,让散热效率最高提升三倍。

它的出现,或许正是打破「热瓶颈」的关键。

芯片体内的冷却液:微软的液体血管方案

AI正在变得越来越「烫」。

模型规模膨胀,算力需求暴涨,背后的芯片像一台台发动机在高温下狂奔。

风冷、液冷、冷板,这些过去还能顶住的散热方式,如今都快被逼到极限。

微软在最近公布的一项实验里,直接把冷却液送进了芯片体内,在硅片背面蚀刻出比头发丝还细的沟槽,让液体像血管一样流过,把热量从源头带走。

这种听起来像科幻的「微流体冷却」,实验结果相当惊人。

在微软披露的数据里,它的散热效率最高比冷板强三倍,GPU内部的温升能下降65%。

对工程师来说,这意味着在同样的硬件上,可以撑住更大的负载,而不会因为温度过高被迫降频甚至宕机。

走到这一步并不容易。

微软团队在一年里连续做了四轮迭代,才摸索出既不会堵塞又能保证芯片强度的微通道设计。

微软Cloud Operations and Innovation的系统技术总监Husam Alissa直言:

开发微流体冷却,必须用系统思维来理解——硅片、冷却液、服务器、整个数据中心的交互。

Husam Alissa,微软云运营与创新系统技术总监。

为了让冷却液更精准覆盖芯片热点,研究人员借助AI设计出仿生结构,像叶脉一样分支,效率远超直线通道。

微软还与瑞士初创公司Corintis合作,解决了蚀刻、封装、防漏液等一系列工程难题。

数据亮眼,但最终还要靠真实负载来验证。

微软选择了自家Teams作为测试场景。

每到整点或半点,会议量暴增,服务器瞬间高负载。传统散热方案下,要么堆更多闲置硬件,要么冒险让芯片持续高温。

微流体冷却则让另一种可能出现:在关键时刻安全地「超频」,顶住需求高峰。

微软技术研究员Jim Kleewein总结道:

微流体冷却提升了成本、可靠性、速度、可持续性……几乎所有关键指标。

当冷却液真正流进芯片「血管」,AI的下一步扩展才有了新的底气。

芯片越来越烫,AI还撑得住吗?

AI的「发烧」并不是比喻,而是真实的物理现象。

每一代算力芯片都在推高功耗,从几百瓦到上千瓦,热量像滚雪球一样堆积。

过去数据中心还能用风冷、冷板顶住,但在今天的AI峰值负载下,这些技术逐渐捉襟见肘。

正如微软项目负责人Sashi Majety警告的那样:

在五年之内,如果你还主要依赖冷板技术,你就被困住了。

背后的原因不难理解。

以数据中心整体能耗为例,国际能源署(IEA)在报告中预测:全球为满足数据中心的用电需求,电力供给将从2024年的约460TWh增长,至2030年超过1000TWh。

也就是说,数据中心整体的电力需求有可能在六年左右翻倍。

再看美国本土的数据:据美国国会研究服务处(CRS)报告,2023年美国数据中心的用电量约为176TWh,占当年美国电力总消耗的4.4%。

若在未来几年按趋势继续扩张,那么支撑如此庞大规模的冷却系统,也将占据极大的基础设施能耗预算。

冷板散热的问题在于热阻与传导损耗。

芯片封装层和界面材料存在热阻,使得热量向外传递时效率大打折扣。

随着芯片功率密度提升,这些「中间层」的阻碍越严重,热量往往被困在芯片里。

结果就是:为了避免芯片因温度过高降频或损伤,厂商不得不在设计里留足余量,或者限制性能输出。

更糟的是,为了让冷板工作得更好,数据中心不得不把冷却液温度压得更低。

制冷所需的能耗自身就是一笔不能忽略的开销。比如有些大型数据中心用于制冷系统的电力消耗就占了整体能耗的显著比例。

在这种规模下,效率的重要性被放大到了极致。

微软Azure数据中心部门硬件系统与基础设施副总裁Rani Borkar在接受采访时直言:

当你达到那种规模时,效率非常重要。

这句话,道出了整个行业的心声:谁能先把效率做上去,谁就能在下一个算力周期占据主动。

从省钱到不卡顿:微软降温技术的真实影响

听起来,微流体冷却像是工程师们的游戏,可它和我们每个人用AI的体验,其实都有影响。

省下的电费,可能就是会员费

训练、运行大模型,本身就是一场烧钱的游戏。

AI模型运行,尤其是在云端实时推理时,本质上是耗电的。

一篇行业研究,就对比了不同规模大语言模型的推理能耗,揭示模型越大、推理越频繁,消耗越显著。

如果散热效率上不去,数据中心就只能增加冷却系统或降频运行,这些成本最终会压到产品定价上。

微软内部新闻稿里也曾提到,微流体冷却可让芯片内部温升下降65%,散热效率最高比冷板提高三倍。

这意味着在同等环境下,可以用更低成本维持性能。

不再做耗电怪兽,AI也能更绿色

AI的推广伴随着巨大的电力需求。

MIT在一篇报道中列出,生成式AI的普及,让数据中心电力、用水等资源受到压力。

数据中心曾经被比作「能耗怪兽」,在某些区域,它们的电力需求可相当于成千上万个家庭。

如果冷却技术更高效,就可能让制冷系统的能耗不再占比那么大,从而减少总能耗和碳排放。

更有意思的是,微软实验发现,即使冷却液温度高达70℃,微流体冷却依然能保持高效工作。

这意味着它不需要像传统冷却方案那样把冷却液降到极低温,从源头上就节省了大量能耗。

这对企业是ESG标签,对用户来说,就是每一次AI使用,都可能少点环境负担。

从排队到秒出图:冷却液背后的体验升级

你肯定遇到过这样情况:视频会议突然卡顿,AI图像生成慢得像乌龟,或者模型推理慢半拍。

这些问题部分来源正是因为芯片过热后,被迫降频或延迟处理。

微软在测试里,就选择了自家的Teams作为实验对象。

有趣的是,Teams的流量并不是平均分布的。

大多数会议都在整点或半点开始,结果就是:在那前后几分钟,控制会议的服务器会被瞬间「挤爆」,负载陡然飙升。

传统散热下,要么得额外堆很多硬件来对付短短几分钟的高峰,要么冒险让芯片长时间高温运行。

微流体冷却给了另一种可能:在这些高峰时段安全地「超频」,让同样的硬件也能撑住需求暴涨。

对用户来说,最直观的变化就是会议不卡了、响应快了,不必担心在关键时刻掉链子。

微软的算盘:不只是降温,而是抢跑未来

让「冷却液流进芯片」这种听起来科幻的技术落地,本身就足够震撼。

但对微软来说,这不过是一场更大博弈中的第一招。微软真正的目标,其实是抢占AI基础设施的未来入口。

从资本支出来看,它的野心毫不遮掩。

微软2025财年第四季度的财报显示,单季资本支出就达到242亿美元,其中大部分直接投向云和AI基础设施。

此外,有媒体报道微软计划在即将到来的季度投入超过300亿美元 用于扩容云与AI基础设施。

这已经不只是「砸钱」,而是在为未来二十年的算力格局修地基。

到目前为止,微软已经推出了Cobalt 100Maia两款自研芯片,分别用于通用计算和AI加速。

如果说微流体冷却是解决「热」的手段,那么自研芯片就是把控制权牢牢抓在自己手里——既能减轻对英伟达的依赖,又能让冷却、架构和软件层级深度耦合。

在网络层面,微软也没停下脚步。

比如支持空心光纤 (hollow-core fiber) 的研究,让光信号传输损耗降到历史最低(约 0.091 dB/km),被视为光纤领域的一次突破。

对普通用户来说这听起来抽象,但放在数据中心就是:服务器节点之间可以更快交流、更少能耗,AI的反应也更及时。

除了芯片和网络,微软还把目光放在了内存上。

Borkar在采访中提到,高带宽内存(HBM)是当下AI计算的关键瓶颈之一,目前微软的Maia芯片仍依赖商业化HBM,但未来它们也在探索更多自研和优化的可能性。

这说明微软的棋局,远不止散热和芯片,还在悄悄补齐整个算力堆栈。

把这些拼图放在一起看,我们会发现微软走的是「三线作战」:散热技术解决硬件的物理瓶颈,自研芯片降低外部依赖,网络革新打通节点之间的传输效率。

它要建的不仅是一个更冷静的数据中心,而是一套能撑住下一代AI扩张的完整生态。

放眼全行业,这是一场没有硝烟的军备竞赛。

谷歌用液浸式冷却守住TPU,亚马逊靠Graviton和Trainium争夺市场,Meta在GPU堆砌上不惜血本。

微软选择的切口,是在「热」这个大家都头疼的问题上先行一步,把优势转化为战略筹码。

所以,当我们在前端用AI聊天、画画、开会时,其实背后是巨头们在拼命加码基础设施。

微软这次的微流体冷却,并不是终点,而是它为未来抢跑的一次「降温起跑」。

AI的未来,是一场与「热」的赛跑。

模型越大,芯片越热,能耗越惊人。

微软这次把冷却液送进芯片体内,不只是解决眼前的散热难题,更是在给整个行业探路:如果热量能被驯服,算力的天花板就能再抬高一层。

从实验室到数据中心,从资本开支到自研芯片,微软已经把「冷静」写进了自己的基础设施战略。

因为它很清楚——谁先跨过热的瓶颈,谁就更可能主宰下一阶段的算力格局。

当AI越来越「发烧」,能让它冷静下来的,或许正是下一轮竞赛的分水岭。

参考资料:
https://x.com/satyanadella/status/1970505474601820212
https://news.microsoft.com/source/features/innovation/microfluidics-liquid-cooling-ai-chips/
https://www.bloomberg.com/news/articles/2025-09-23/microsoft-msft-is-turning-to-the-field-of-microfluidics-to-cool-down-ai-chips?srnd=phx-technology


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652629930&amp;idx=1&amp;sn=c912a3819a9116e6d6087dfd9e528ad7&amp;chksm=f029c3111030462366abf9b66937e253bfe6ce42d1bc7f2f5b1aca92e2abecb0dc9656111eb4&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/tHUmew4tRd&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们