动态列表

  • Nature子刊:太空中建数据中心,无限能源,浙大首次证实可行!
  • 翻译界的ChatGPT时刻!Meta发布新模型,几段示例学会冷门新语言
  • 硅谷GPU蒙尘,马斯克一言成谶:美国AI被电卡脖子
  • 65岁图灵巨头离职创业!LeCun愤然与小扎决裂,Meta巨震
  • 年产值突破 150 亿,刚毕业的俊男美女涌入「团播」工厂
  • 马斯克想要 1 万亿,何小鹏只想等一句「牛 P」
  • 全模态到底是不是“1+1>2”?美团UNO-Bench揭示单模态与全模态能力的组合规律
  • 通往AGI的歧路:上海AI Lab重磅发现,自进化智能体可能“错误进化
  • 北京内推 | 百度文心一言基座团队模型组招聘大模型方向研究型实习生
  • NeurIPS 2025 | 上交大、南农大提出ADPretrain:为工业异常检测量身打造的预训练“超能力”
  • 3DV 2026 | 特伦托大学等提出DEMO:让AI看懂复杂人体动作,实现密集描述新范式
  • 小米汽车 10 月销量近 5 万,YU7 超 Model Y;美团 AI 编程工具开启公测;马化腾王传福成智元机器人受益股东
  • AI版PUA!哈佛研究揭露:AI用情感操控,让你欲罢不能
  • AI领域全新热门职业,岗位需求今年已增长逾800%
  • 硅谷10万大裁员真相:AI根本没想取代你,是老板想干掉你
  • OpenAI试图绑架美国政府,奥特曼还有救命底牌?
  • 全球68%科研人压力爆表,高校AI人才集体大逃亡!
  • 「传统教育」的船快沉了,人们却还在挤「头等舱」
  • 保暖?排汗?时尚?户外运动装备这道「选择题」,亚瑟士要打破「不可能三角」
  • 北京内推 | 腾讯AI Lab招聘大模型/多模态大模型方向研究型实习生
  • 过去五年,BERT都在被“过度训练”?LeCun团队给出Encoder算力最优范式
  • EMNLP 2025 | 别再只看KV了!LLM越深越稀疏:UNCOMP用矩阵熵给出答案
  • 在 Cursor 工作 60 天,我发现了这家公司成功的秘密
  • 这款 AI 写作神器,让数百网文作者「月入过万」|AI 上新
  • AI“世界模型”离真实手术还有多远?首个外科视频生成基准SurgVeo揭示“合理性差距”
  • ACM MM 25 当MLLM遇上行人重识别:是“降维打击”还是“水土不服”?深度评测来了!
  • 美国AI巨头股缩水8000亿美元;传Meta靠诈骗广告收入超千亿;《英雄联盟》S15总决赛T1夺冠|极客早知道
  • 谷歌二代Nano Banana爆出!一键推演微积分,终结PS时代
  • 狗也被AI抢饭碗?好莱坞动物演员全下岗,观众直接翻脸了!
  • ChatGPT求婚火了,一句「我愿意」刷屏!网友:是真爱了
  • 小成本DeepSeek和Kimi,正攻破奥特曼的「算力护城河」
  • NeurIPS25 | 清华&北大提出LinearDiff-ViT:让Transformer学会“找不同”,实打实提升模型性能
  • AI 六巨头罕见同台,辨论 AI 泡沫;SpaceX 公布简化版登月舱方案;王者荣耀年度总决赛首次在鸟巢举办
  • LLM首次达到人类语言专家水平!OpenAI o1拿下拆解句法、识别歧义、推理音律
  • 仅2天!谷歌AI破解十年谜题,锁定救命药人类全失手
  • 终结Transformer统治!清华姚班校友出手,剑指AI「灾难性遗忘」
  • 仅0.2B就比GPT-4.1强?加州大学新指标:组合推理基准首次超越人类
  • AI六巨头罕见同台!李飞飞激辩LeCun,黄仁勋:你们都错了
  • 复盘大疆 Pocket 的七年:从「定义产品」到「定义时代」
  • TRO'25开源|机器人建图的终局?一个框架搞定光学、几何与语义!
  • 10.58 万!零跑造了一台「红米 YU7」
  • 当一家传统车企,终于决定「师中长技」
  • AI热潮推动,全球 DRAM 内存价格暴涨;泡泡玛特回应直播事故;媒体爆料iPhone 18 Pro工程机进展
  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • TCSVT 25 | 宁波诺丁汉大学等提出De-LightSAM:仅需SAM-H 2%参数,实现通用化医疗影像自动分割
  • IROS 2025 | 北理工提出BoRe-Depth:仅8.7M参数,在嵌入式设备实现50.7 FPS高清深度估计
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元
  • 蔚来,破 4 万!
  • 今年双十一最大的赢家是这张表
  • 大道至简,中科院等提出OneRef:统一视觉定位和指代分割
  • 复旦大学&StepFun提出WithAnyone:告别“复制粘贴脸”,实现可控、高保真的多人ID一致性生成
  • 极客公园创新大会 2026 首批嘉宾揭晓!
  • 达摩院联合浙大、港理工推出PixelRefer:多模态大模型迈向像素级视觉理解
  • 北京内推 | 美团招聘大模型算法实习生(IM全渠道)
  • 自回归不必按token算了:微信AI × 清华用CALM直接「整段」预测
  • Altman 怒喷 OpenAI 唱衰者;小鹏发布新一代人形机器人 IRON;苹果支付 10 亿美金,新 Siri 将引入谷歌 Gemini|极客早知道
  • 博士申请 | 南洋理工大学王琦琛老师课题组招收数据库方向全奖博士/博后
  • 记忆让机器人更聪明:原力灵机提出MemoryVLA化解长时程任务操作难题
  • 别被一堆Strong Accept吓住:德州农工×康奈尔实锤论文晒分“系统性虚高”
  • 151% 的增长背后,它正在成为 AI 的「新入口」
  • 清华&南洋理工等提出稀疏模型反演:ViT反演加速高达3.79倍,告别无效背景!
  • 低光图像增强新探索:SASW-Loss,无需改网络,即插即用提升多种模型性能
  • 山姆更新后遭会员疯狂吐槽;Switch2 销量破千万;小米马志宇警告存储涨价:明年最新的成本预估“有点惊悚”|极客早知道

英伟达铁幕之后,谷歌AI芯片已成气候



  新智元报道  

编辑:定慧
【新智元导读】英伟达在聚光灯下狂飙,谷歌却在幕后悄悄造出自己的AI基建帝国系统。当别人还在抢GPU时,它早已自给自足、闭环生长——闷声干大事,从未如此谷歌。

英伟达明修栈道,谷歌暗渡陈仓。

当你回头一看,谷歌在AI基础设施的优势已经无法阻挡。

这几天,谷歌终于把憋了很久的大招放出来了,CEO劈柴官宣了自研第七代TPU Ironwood正式商用。

这是谷歌第七代TPU,单颗算力4614 TFLOPS(FP8精度),192GB的HBM3E内存,带宽高达7.37 TB/s。

与上一代TPU v5p相比峰值性能提升10倍!

对于Google Cloud客户,Ironwood根据工作负载需求提供两种尺寸:256芯片配置和9216芯片配置。

也就是一个pod可以最多塞下9216个TPU,总算力达到了惊人的42.5 ExaFLOPS。

与之相比英伟达目前主推的的GB300 NVL72系统只有0.36 ExaFLOPS。

这就是为啥Anthropic直接买了100万颗TPU的根本原因。

谷歌才是那个真正低调发财的公司,有人总结AI价值链上所有公司涉足的领域。

谷歌是唯一一家,没有之一,全栈人工智能公司:数据→算法→硬件→云服务器。

它使用自己的数据来训练自己的算法;这些算法在部署在自己的云上的自己的芯片上运行;然后开发了自己的应用程序。

如果说现在谷歌唯一的弱点,那可能就是「苹果」,准确的说,是客户端设备,手机。

虽然安卓系统是谷歌的,但是偏偏谷歌没有自己的手机(如果手机也有,谷歌称得上地球上最垄断的公司,也许没有之一。)

虽然Pixel系列出货量未能排在三星和国产等安卓机前面,但是用过Pixel的人都说好。

谷歌TPU十年进化

谷歌TPU,全称张量处理单元 (Tensor Processing UnitT), 从早期几代主要作为内部优化工具,到最新的迭代已构成一个成熟且极具竞争力的产品组合。

当英伟达在横向扩展(scale-out) 加速器市场占据主导地位时,谷歌已经构建了全球唯一一个专为训练和运行前沿模型而设计的、具有高容错性的超大规模系统。

2013年,谷歌面临一个关键时刻。

公司意识到,神经网络日益增长的计算需求(尤其是在语音识别领域)可能迫使他们将数据中心的规模翻倍

这一预测使AI计算不再是一个机遇,而是对运营支出 (OpEx) 的生存威胁。

尽管谷歌早在2006年就考虑过构建专用集成电路 (ASIC),但直到2013年,这才真正成为一项迫在眉睫的任务。

TPU v1 的开发周期之快是前所未有的:从设计、验证、制造到部署至数据中心仅用了15个月!

TPU v1 于2015年在谷歌内部署,并于2016年的Google I/O大会上公开发布。

TPU v1的诞生过程极不寻常。

它并非一个循序渐进的研发项目,更像是一项紧急的「救火」措施。

据报道,谷歌在构建芯片的同时才开始招聘团队,这表明该项目风险极高,但也具有最高优先级。

这种「冲刺」塑造了TPU的DNA:实用主义和领域特定优化压倒一切。

谷歌为了成功,牺牲了所有与神经网络无关的功能。

当AI由神经网络组成,TPU就是AI而诞生的。

架构哲学,摒弃通用性

谷歌TPU v1是一款「仅限推理」的ASIC,专为TensorFlow框架设计。 (另一个深度学习框架就是Meta的PyTorch)

它与CPU和GPU的关键区别在于:TPU专为高吞吐量的低精度计算(如8位整数)而设计。

与CPU(通用处理器)和GPU(当时主要为图形渲染优化)不同,TPU彻底摒弃了非必需的硬件,如缓存、乱序执行和纹理映射单元。

该芯片的核心是一个庞大的矩阵乘法单元,拥有 65,536 个 (256x256) 8位MAC单元,峰值性能达到每秒92万亿次操作 (TOPS)。

v1 采用了28nm工艺,时钟频率为700MHz,而其热设计功耗 (TDP) 仅为40W,远低于同期的GPU。

它被设计为一块PCIe卡,可安装在SATA硬盘插槽中,以便快速集成到现有服务器。

早期胜利,AlphaGo与惊人的能效比

2016年,DeepMind的AlphaGo击败世界围棋冠军李世石,这一历史性事件的背后正是TPU v1在提供算力支持。

2017年发表的一篇具有里程碑意义的论文详细阐述了其性能。

在谷歌的生产工作负载(占数据中心NN推理需求的95%)中,TPU v1 的速度比同期的Intel Haswell CPU和英伟达 K80 GPU快15至30倍

然而,更关键的指标是能效比 (TOPS/Watt),TPU v1 比CPU和GPU高出30至80倍

这一数据揭示了谷歌从一开始的战略意图。

在超大规模数据中心的环境中,成本不仅由芯片的采购成本 (CapEx) 决定,更由其运行的电力成本 (OpEx) 决定。

TPU v1 的胜利不仅在于速度,更在于它解决了AI计算的总体拥有成本 (TCO) 问题。

中期规模化演进

TPU v1 验证了ASIC的概念,但其「仅限推理」的特性意味着谷歌在模型训练方面仍依赖英伟达。

TPU v2 (2017年推出) 标志着谷歌向训练领域的战略转向。

关键的架构转变是:从8位整数计算转向浮点计算,特别是引入并推广了由Google Brain发明的 bfloat16 (bf16) 格式。

bfloat16 是一个巧妙的工程妥协:它保留了与32位浮点数 (FP32) 相同的8位指数,但将尾数截短至7位。

这一设计在大幅降低内存占用和带宽需求的同时,保留了训练所需的动态范围,有效防止了梯度消失或爆炸。

规格方面,v2采用16nm工艺,搭载16GB高带宽内存 (HBM)(v1为DDR3),内存带宽飙升至600 GB/s,算力达到45 TFLOPS。

TPU v2引入了Pod(集群)概念,但在此之前与之后,GPU长期以集群/超算形态扩展

英伟达随后在2018年推出DGX POD参考架构,2019 年起推出 DGX SuperPOD 并在 2020–2025 年持续更新(H200/GB200 等版本),这些都属于标准化的GPU集群解决方案。

谷歌不再将TPU视为独立的加速器,而是设计了4芯片模块(180 TFLOPS)。

64个这样的模块被组装成一个256芯片的Pod,总性能达到11.5 PFLOPS 6。

这是TPU历史上最重要的时刻之一。

谷歌停止了在「芯片竞赛」中追赶,转而开辟了「系统竞赛」的新战场。

TPU v3 (2018年) 延续了这一思路。

芯片性能提升至123T-ops,HBM增加到32GB。更重要的是,Pod的规模扩大了4倍,达到1024个芯片,使每个Pod的性能增加了8倍。

为了应对急剧增加的功率密度,液冷技术被引入并成为TPU Pod的标准配置,这使谷歌能够进一步挑战性能极限。

到了第四代,TPU v4 (2021)可以和与A100并驾齐驱,实现规模化领先。

TPU v4(2021年)是一次重大飞跃。采用7nm工艺,性能提升至275T-ops(T-ops 是 tera-operations per second的缩写,表示每秒执行的万亿次操作。)。

Pod规模再次扩大,达到4096个芯片。

关键改进在于互连:v4 芯片的互连带宽达到了上一代的10倍。

到2021年,TPU不再只是一个「高TCO效益」的选项。

它在原始性能上已经可以与英伟达的最佳产品正面竞争。

现代TPU产品,多元化和专业化

TPU v5 的发布标志着谷歌从单一架构转向成熟、多元化的产品线。

v5有两个版本TPU v5e(Efficiency)和TPU v5p(Performance),v5e针对主流推理、微调和中小型训练负载设计;TPU v5p是训练谷歌Gemini 1.0模型所使用的核心系统。

与TPU v4相比,TPU v5p的FLOPS提高了2倍以上,高带宽内存(HBM)提高了3倍 

TPU v5p专为性能、灵活性和规模而设计,可以训练大型LLM模型 ,速度比上一代TPU v4快2.8倍。

TPU v6,代号Trillium,于2024年5月宣布,并于同年10月提供预览。

v6性能实现了918TFLOPS和1836TOPS (Int8) 的巨大飞跃。

这比v5e高出4.7倍,比v5p高出约2倍。规格32GB HBM,1600 GB/s带宽。

v6引入了关键架构:第三代SparseCore

SparseCore 的引入表明谷歌正在解决Transformer模型中的特定瓶颈。

SparseCore是一种专门用于处理嵌入 (embeddings) 的加速器。

嵌入在排名和推荐模型中普遍存在,并且对传统的MXU来说计算效率低下。

Trillium 是一款专为训练Transformer和MoE(Mixture of Experts)模型而打造的芯片。

谷歌的Gemini 2.0是在Trillium (v6) 上训练的

谷歌CEO劈柴明确表示:「TPU为Gemini 2.0的训练和推理提供了100%的动力」。

TPU v7推理时代的专业芯片

TPU v7,代号Ironwood,于2025年4月发布。

Ironwood是首款专为推理而设计的TPU,而Trillium则是训练冠军。

在战略和资本层面,这反映了一种钟摆策略。谷歌使用v6 (Trillium) 来构建前沿模型 (CapEx投入),现在发布v7 (Ironwood) 来规模化服务这些模型 (OpEx消耗)。

Ironwood 旨在优化推理的TCO。(毕竟我们人类已经进入AI推理时代)

Ironwood达到4614 TFLOPS (FP8),比Trillium的Int8性能高出2.5倍以上。能效比是Trillium的2倍

Ironwood将在未来几周年内全面上市。市场对Ironwood的早期反响极为热烈。

比如,谷歌列出了一些已经下订单的企业,Anthropic、Lightricks、essential AI。

CPU也造,还有最新虚拟机

除了TPU,谷歌还造了自己的第一颗通用处理器Axion。

用谷歌自己的话:构建和运维现代应用既需要高度专业化的加速器,也离不开强大高效的通用计算能力。

基于这颗CPU,谷歌还发布了最新的Axion虚拟机,N4A。

基于Arm架构的全新Axion实例现已开放预览。

与当前同代基于x86架构的虚拟机相比,N4A可提供高达2倍的价格性能优势。

除了虚拟机,还推出了裸金属实例,C4A。

C4A裸金属实例(即将进入预览阶段)是谷歌首款基于Arm架构的裸金属实例,为专用工作负载提供专属物理服务器,适用于Android开发、汽车车载系统、严格许可要求的软件、规模化测试农场或运行复杂模拟等场景。

谷歌的云服务在2025年3季度处于世界第3,前面是亚马逊和微软。

正如文章开头所说,谷歌是现在AI领域唯一一家全栈技术公司,数据、算法、模型、云服务、CPU、GPU,需要什么就自己造什么。

虽然在很多时候,谷歌没有排在第一,但是在任何领域,谷歌都榜上有名。

也许这才是真正的闷声发大财。

2025年10月,Anthropic宣布扩大合作,获得高达100万个TPU芯片的使用权。

该协议价值数百亿美元,并将在2026年提供超过1吉瓦 (Gigawatt) 的计算容量。

虽然全球的聚光灯几乎都照在英伟达身上,但在聚光之外,谷歌的AI基础设施版图已经悄然成形,甚至形成了自己独立的「气候系统」。

谷歌给自己这套系统起了个名字:AI Hypercomputer。

英伟达是舞台中央的光芒,谷歌则隐藏在大幕之后。

当所有AI公司都在抢购H系列GPU时,谷歌早已在自己的TPU集群上完成了自我造血循环 ——训练、部署、推理、优化,全都在自己的系统内部完成。

谷歌AI基金(Google AI Infrastructure Fund) 便是在这种体系下自然诞生的产物。

它不仅是投资基金,更像是一个生态基金池,用以扶持所有基于谷歌云与TPU生态的AI公司。

Anthropic、Cohere、Character.AI、Essential AI……

这些名字在外界看来是独立的创业公司,但它们在算力与模型底座上,都深度绑定谷歌的TPU集群与Gemini模型家族。

换句话说,谷歌的AI基金并非简单的「投资人」,而是用资本作为粘合剂,将算力、云服务与生态绑定在一起

当这些公司成长、融资、甚至上市时,谷歌都在背后分得红利。

这就是谷歌真正的护城河:

不是某一代TPU芯片的领先;

也不是Gemini模型的参数量;(Gemini 3马上要发布了)

而是一个可自我进化、自我繁殖的AI生态系统

在未来的几年中,当市场仍在讨论GPU的供需、算力的溢价、芯片的带宽时,谷歌的TPU与AI基金正以稳健的方式持续扩张。

它的节奏不快,但势能深厚,气候已成。

参考资料:
https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652644064&amp;idx=1&amp;sn=cfb8fa9cc709095072c8e4d77e079a49&amp;chksm=f099d5b49e3105c5e5382c12fa3e6cdafd2d02c5088634413e9c249f3058bdd1fdf6cd6e880e&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/4ubRG4gnG1&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们