动态列表

  • 重磅!DeepSeek再开源:视觉即压缩,100个token干翻7000个
  • 全球首个「长肌腱」AI机器人量产!Nature盛赞的中国方案惊艳IROS现场
  • MagicOS已成世界「第三极」,荣耀拿下AI大战叙事权
  • 美国拟减40%国际生,留学风向要变?Nature曝全球高校大洗牌
  • 美 NSA 被曝网攻中国「时间心脏」;微博王高飞:企业别把批评和黑公关混为一谈;传运营艰难,安世中国发公开信回应
  • 扎克伯格急了!Meta内部文件曝光:宁用竞品,也要废掉祖传系统
  • 浙大推出首个「多图应用题」基准GSM8K-V,全面评估 VLM数学推理能力
  • 英伟达4段简短提示词,IOI夺金!开源模型也能征服最难编程竞赛
  • 超越纯视觉模型!不改VLM标准架构,实现像素级深度预测
  • 5万美元筛选「超级婴儿」, 智商提升15点?马斯克被曝是客户!
  • NeurIPS 2025 | KAUST与MetaAI提出Vgent:图增强RAG,长视频理解性能超越SOTA 8.6%
  • TPAMI 2025 OccScene:联合扩散框架,同时推进感知与生成进步,3D场景生成新突破!
  • 不靠RL、不用训练:哈佛「Power Sampling」让基座模型推理媲美GRPO
  • 不用微调!像打方向盘一样“操控”大模型思考:Steering正在改写推理范式
  • 中国AIGC用户破5亿,增长1倍;今年超7成外卖低于15元;新能源事故,「破窗锤」被网友买爆|极客早知道
  • AI芯片战争关键一役!英伟达最强Blackwell首次「美国造」
  • 数学界地震!GPT-5连破10道「百年悬案」,陶哲轩:AI革命才刚开始
  • 前OpenAI研究员跨界做文创:Ilya发型帽子走红,AI成潮牌!
  • 训练成本暴降99%,35秒出1分钟高清视频!英伟达MIT等引爆视频AI革命
  • Karpathy泼冷水:AGI要等10年!根本没有「智能体元年」
  • 早鸟票倒计时2天!全国大模型智能生成大会:推理、多模态、智能体前沿集结
  • First Try Matters,不是Aha Moment:邴立东团队揭示推理模型靠首答,不靠反思
  • 一致性轨迹强化学习登场:上海AI Lab让扩散语言模型实现全并行少步数推理
  • 传 iPhone 17 Air 表现不佳,砍百万产量;黄仁勋:英伟达中国份额从 95% 降到 0%;AI 致维基百科访问显著下降
  • 马普所&谷歌等提出AnyUp:无需再训练的通用特征上采样,推理即用,效果SOTA!
  • 北大等提出MaskDCPT:通用图像修复预训练新范式,PSNR提升3.77dB
  • 可处理上万变量,攻克高维时序预测难题!华人团队开源模型、基准
  • Bengio推AGI「高考」,GPT-5单项0分
  • Hassabis官宣用AI点燃「人造太阳」!无限能源时代加速到来
  • 全球第一,最强OCR之神诞生!百度这个0.9B开源模型问鼎SOTA
  • 太狠了,四条腿被锯掉也能爬!通用大脑开启机器人「无休」时代
  • 零跑,不再「摸着理想过河」
  • 硬刚 Sora 2,谷歌的 Veo 3.1 确实有小惊喜|AI 上新
  • Meta花了420万美元、烧掉40万GPU·小时,只为验证一条Sigmoid曲线
  • NeurIPS 2025 | 上交大提出MM-UPT:多模态大模型的“无监督后训练”范式
  • 从会画画到会思考:快手可灵提出T2I-CoReBench,最强模型也难逃推理瓶颈
  • 张鹏对谈朱啸虎、储瑞松、傅盛:Agentic AI 时代,不要什么东西都自己闷头做
  • Identity-GRPO:阿里开源多人物定制化视频生成的后训练优化算法
  • Real-world Video Super-Resolution | VSR的十字路口
  • 蔚来回应外国基金投诉:无事实依据;零跑推D19旗舰SUV,配超大电池;卡西欧推《回到未来》40周年联名表
  • 你的下一个「爱豆」不一定是真人,也可以是AI豆
  • 刚刚,谷歌深夜上新Veo 3.1!网友狂刷2.75亿条,Sora 2要小心了
  • 谷歌142页报告首发揭秘:90%码农每天用AI超2小时!
  • RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法
  • 谷歌×耶鲁联手发布抗癌神器!AI推理精准狙击「隐身」癌细胞
  • ACL 2025 | 北大提出动态焦点解码:让开放生成既“靠谱”又“好看”
  • 统一高效来了!清华发布RLinf-VLA:把VLA+RL的训练与部署“一网打尽”
  • GPT越来越保守?斯坦福Manning团队提出Verbalized Sampling,让模型重新“多想一点”
  • AI 时代,用一场「快闪」改变命运|IF 2026「AI 产品快闪」启动召集!
  • IF 2026 启动:来看看 AI 面前,谁在掌握主动权?
  • NeurIPS 2025 | 为Sora视频加上“隐形身份证”:清华大学等提出Safe-Sora,时空频率感知水印新框架
  • 从DNN到MLLM的异常之旅:视频异常检测(VAD)范式大迁徙
  • 苹果发布 M5 芯片笔记本和 iPad;微信:长时间不用账号,不再强行回收; 乔布斯登上一美元硬币
  • 马斯克的作业还是被奥特曼「抄走了」
  • 苏姿丰出手!Oracle下单5万颗AMD芯片,英伟达王座撼动
  • 具身智能算法哪家强?RoboChallenge见真章!全球首个大规模真机算法评测平台来了
  • NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%
  • 苹果M5「夜袭」高通英特尔!AI算力狂飙400%,Pro三剑客火速上新
  • TPAMI 2025 | 华中科大与大疆等提出LLF-LUT++:4K照片增强仅需13ms,PSNR提升2.64dB!
  • IDEA提出Rex-Omni:将目标检测变为“下一个点预测”,零样本性能超越DINO
  • 罗福莉担任通讯作者,小米 × 北大联合发布R3:让MoE强化学习从崩盘回归可控
  • AAAI 2026联合会议征稿开启:大语言模型中的深度逻辑推理
  • 下周见!Wiley Advanced主编论坛@IROS 2025:从审稿人视角重塑论文表达
  • Altman:ChatGPT将支持成人内容;港版iPhone Air无法用内地eSIM;传雷军一夜掉粉30万|极客早知道
  • Karpathy「疯狂之作」:100美元、4小时,就能训练你自己的「小型GPT」
  • 英伟达AI超算3999开售,「掌心之中」可部署所有大参数开源模型!
  • 登顶Hugging Face GAIA全球榜首!中兴超级智能体终结「AI黑盒」时代
  • AI圈再颠覆!中国AI翻译耳机通话翻译,实测震撼
  • 一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军
  • vivo X300 Pro:以「水桶旗舰」之躯,重登旗舰山巅
  • 直到毕业我才懂:原来延期的博士,不止我一个
  • 让论文自己讲!Paper2Video一键生成论文讲解视频,赶顶会DDL不慌了
  • 8美元“驯服”DeepSeek-V3.2?Training-Free GRPO把RL成本打到地板
  • NeurIPS 2025 | PPFN:渐进式提示融合,让红外图像增强在复杂场景下性能提升8.76%
  • NeurIPS 2025 | 让AIGC视频变为可探索场景:Instant4D实现单目动态场景的分钟级重建
  • 库克抖音带货 iPhone 17 Air,22 日开售;小米客服回应「SU7 门把手」;「丐版」特斯拉明年国内投产

甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心



  新智元报道  

编辑:艾伦
【新智元导读】甲骨文于上周发布全球最大云端AI超级计算机「OCI Zettascale10」,由80万块NVIDIA GPU组成,峰值算力高达16 ZettaFLOPS,成为OpenAI「星际之门」集群的算力核心。其独创Acceleron RoCE网络实现GPU间高效互联,显著提升性能与能效。该系统象征甲骨文在AI基础设施竞争中的强势布局。

甲骨文在2025年AI World大会上发布OCI Zettascale10超级集群。

在拉斯维加斯举办的AI World 2025大会上,甲骨文高调推出了一台号称全球最大规模的云端AI超级计算机——OCI Zettascale10。

这个庞然大物横跨多个数据中心,由多达80万块NVIDIA GPU芯片构成,峰值计算性能被宣称可达惊人的16 ZettaFLOPS(即每秒1021次以上浮点运算)。

如此天文数字意味着平均每块GPU可贡献约20 PetaFLOPS算力,接近英伟达最新一代Grace Hopper(Blackwell架构GB300)芯片的水平。

甲骨文此举无疑是在急速升温的AI算力军备竞赛中放出「大招」,试图在云端AI基础设施版图上占据一席之地。

OpenAI巨型集群的动力之源

这套Zettascale10系统已经成为OpenAI庞大算力需求的幕后功臣。

据悉,甲骨文与OpenAI在德州阿比林(Abilene)共建了「星际之门」旗舰AI超级计算集群,而OCI Zettascale10正是其算力骨干。

OpenAI基础设施部门副总裁Peter Hoeschele表示,甲骨文定制的RoCE高速网络架构在「千兆瓦级」规模下最大化了整体性能,同时将大部分能耗都用在了计算上。

换言之,甲骨文研发的这套RDMA over Converged Ethernet网络(代号Acceleron)将海量GPU紧密连接成一个整体,使得OpenAI的大模型训练能够在如此庞大的芯片阵列上高效运转。

正因有了与OpenAI的深度合作背书,Zettascale10一亮相便自带「实战」光环,它已经在为当今业界最严苛的一些AI工作负载提供动力。

Acceleron网络架构揭秘

如此规模的GPU「巨阵」要高效运转,奥秘就在于甲骨文独创的Acceleron RoCE网络架构。

简单来说,Acceleron让每块GPU的网络接口卡(NIC)都充当一个小型交换机,一次可连接到多个隔离的网络交换平面。

这种多平面、扁平化的网络设计大幅降低了GPU之间的通信延迟,并确保即使某一路由出现故障时,训练作业也能自动切换到其它路径继续运行,不至于被迫中断。

相比传统三级交换结构,Acceleron减少了网络层级,使GPU对GPU的直连延迟更加一致,整体性能更具可预测性。

此外,该架构引入了线性可插拔光学模块(LPO)和线性接收光学组件(LRO)等新技术,在不降低400G/800G带宽的前提下削减了网络的能耗与冷却成本。

甲骨文称这种创新网络既提高了效率又降低了成本,让客户可以用更少的电力完成同样的AI训练任务;

NVIDIA公司高管Ian Buck也认可道,正是这种全栈优化的「计算结构」(compute fabric)提供了将AI从实验推进到工业化所需的基础。

峰值神话与现实考验

甲骨文计划在2026年下半年正式向客户提供Zettascale10集群服务,目前这一系统已开始接受预订。

然而,对于16 ZFLOPS的惊人算力,不少业内观察者持保留态度。

该数据尚未经独立机构验证,而且很可能是基于理论峰值算力而非持续实效得出。

据业内报道,甲骨文宣称的16 ZFLOPS有可能利用了极低精度的AI计算指标(例如FP8甚至4比特稀疏运算)来实现。

实际的大模型训练通常需要使用更高精度(如BF16或FP8)的数值格式以保证模型收敛效果,因此16 ZFLOPS这个数字更多体现了甲骨文硬件在理想情况下的上限潜力,而非日常工作负载下可持续交付的性能。

这台「云端巨无霸」真正的实战表现还有待时间检验,只有等到系统明年投入使用,各种基准测试与用户实际反馈才能揭晓它能否如宣称般高效且可靠。

云端AI竞赛的挑战与展望

甲骨文并非孤军奋战。

当前,微软、谷歌、亚马逊等云计算巨头也在争相构建各自的大规模AI集群,它们或采购海量GPU,或研发自家AI加速硬件,云端AI算力版图正迅速扩张。

甲骨文此次押下重注推出Zettascale10,一方面巩固了与OpenAI的战略联盟,另一方面也是向业界宣示其在AI时代不容忽视的新实力。

然而在市场前景上,甲骨文依然面临如何吸引客户的问题。

为此,该公司还发布了新的「多云通用积分」计划,允许运营商用统一的预付积分在甲骨文云及AWS、Azure、Google等多家云服务间自由调配甲骨文数据库和OCI服务。

这项举措旨在降低客户迁移门槛、提高平台黏性,为甲骨文云生态争取更大的用户基础。

OCI Zettascale10的出现展示了云服务商为满足AI空前算力需求所做的大胆探索。

等到明年这套系统真正落地,我们才能知道甲骨文能否凭借这一云端「巨无霸」在激烈的AI基础设施竞赛中抢得先机,并兑现其关于高效、规模和可靠性的承诺。

参考资料:
https://www.oracle.com/news/announcement/ai-world-oracle-unveils-next-generation-oci-zettascale10-cluster-for-ai-2025-10-14/

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652636565&amp;idx=2&amp;sn=851e63af5502eaaf25980185ea1d6032&amp;chksm=f089901d3c01b3df3b609eae833e4c3f2dc657b56c2e5898e0973c569af5c40745ce823c890d&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/gZBC6OET3D&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们