动态列表

  • 硬核拆解!从GPT-2到gpt-oss,揭秘大模型进化关键密码
  • 黄仁勋子女逆袭上位!4万亿「皇储」成长史首曝:一个学烘培,一个开酒吧
  • GPT-5首次会推理,OpenAI联创曝AGI秘诀!超临界学习吞噬算力,2045金钱无用?
  • 400万人围观的分层推理模型,「分层架构」竟不起作用?性能提升另有隐情?
  • CoRL 2025|隐空间扩散世界模型LaDi-WM大幅提升机器人操作策略的成功率和跨场景泛化能力
  • SEAgent:开启从实战经验中自我进化的GUI智能体新纪元
  • OpenAI估值达5000亿美元;「原道」联手小岛秀夫,推《死亡搁浅》耳机;苹果手表将「大幅重新设计」
  • 奥特曼神秘晚宴讲话曝出!OpenAI的CEO或将是个AI,Chrome我也想买
  • 谷歌最新「0.27B」Gemma 3开源!身板小却猛如虎,开发者直呼救命稻草
  • 最惨就业季!CS学霸GPA 3.98,投2500份简历仅10次面试,AI吞噬入门级岗位
  • Yann LeCun最新纪录片首曝!传奇AI教父的双面人生,深度学习幕后40年
  • 大模型如何推理?斯坦福CS25重要一课,DeepMind首席科学家主讲
  • 当AI比我们更聪明:李飞飞和Hinton给出截然相反的生存指南
  • 简单即强大:全新生成模型「离散分布网络DDN」是如何做到原理简单,性质独特?
  • Sam Altman:AI存在泡沫;宇树机器人夺金,王兴兴:用遥控追求极致速度;蔡浩宇AI游戏上架,27.19元|极客早知道
  • 吞下17亿图片,Meta最强巨兽DINOv3开源!重新定义CV天花板
  • 打开高德的理由又多一条!全球首个「需求链智能调度」AI地图上线
  • 核心模型被曝蒸馏DeepSeek?前女友一纸控诉,曝出欧版OpenAI塌房真相!
  • 一句话搞定多任务出行,高德用空间智能重新定义地图
  • GPT-5、Grok 4、o3 Pro都零分,史上最难AI评测基准换它了
  • 谷歌开源Gemma 3 270M,性能超越Qwen 2.5同级模型
  • 追剧不断网,可能背后有个AI在加班,故障诊断准度破91.79%
  • Meta视觉基座DINOv3王者归来:自监督首次全面超越弱监督,商用开源
  • 多突触神经元模型问世,国内团队打造类脑计算新引擎,登上《自然·通讯》
  • Science封面:高效精准模拟构象变化,微软研究院用生成式AI重塑蛋白质功能研究
  • 扎克伯格看OpenAI直播挖人,北大校友孙之清加入Meta
  • AI 模特时代到来:字节x清华推出商用级视频换装模型DreamVVT,保真度显著领先SOTA
  • LeetCode刷够100小时,学会找人内推,OpenAI员工下场教你拿Offer
  • xAI元老离职干风投,传奇人物Babuschkin长文追忆与马斯克创业战友情
  • 链式思维是幻象吗?从数据分布视角重新审视大模型推理,马斯克回复,Grok破防
  • 李想:i8 反响不错,产品力没对手;库克暗示:苹果将推桌面机器人;中国日均消耗 30 万亿 Token,暴涨 300 倍
  • ChatGPT会让大脑退化?OpenAI高管用它救下自己「读写障碍」的女儿
  • 谷歌超级编码智能体正式上岗!125刀大会员,每天300任务任意跑
  • Meta华人天才毕树超「叛逃」预言:OpenAI未竟交互革命,暗藏万亿赛道
  • 美国CS就业梦碎!狂投5000家0 Offer,名校毕业00后被麦当劳惨拒
  • 3 分钟,我学会了像鸟儿一样飞行 | New Things
  • 从隐私计算迈向六大数据流通全栈技术,“隐语”开源社区升级
  • 7天,一场风暴!理想 i8「刮骨疗毒」,怒砍两个版本
  • 小订过万!打死不说价格的全新小鹏 P7,用颜值吊起了所有人的胃口!
  • 对话理想智驾负责人:撕掉「奶爸车」标签,智驶是理想的「新引擎」
  • 告别「偏科生」时代!36 万的坦克500,让对手从此无路可走
  • 万字长谈王小川:不再迎合他人做学霸,我要解自己的命题
  • 刚刚,全网最懂图文调研的智能体模型震撼上线,看完我直接卸了浏览器
  • ICCV 2025 | HVPL:分层视觉提示学习,让“视频实例分割”模型告别灾难性遗忘
  • 复旦&微软提出StableAvatar: 首个端到端“无限时长”音频驱动的人类视频生成新框架!
  • 千支队伍争锋!首届「启智杯」算法大赛圆满落幕,助推AI应用落地
  • 冗长响应缩减80%,DeepSeek GRPO获得颠覆性改进,微软GFPO问世
  • ICCV 2025 | HERMES:首个统一3D场景理解与生成的世界模型
  • 苹果 AI 下半场:年底问世的新 Siri,要彻底改变 iPhone 的交互
  • GNN+KAN,把三角函数当「激活」选项,山大、南洋理工让分子图更会读化学子结构
  • 港大联手月之暗面等开源OpenCUA:人人可造专属电脑智能体
  • 破解「长程智能体」RL训练难题,腾讯提出RLVMR框架,让7B模型「思考」比肩GPT-4o
  • AI独角兽498家,估值2.7万亿美元;《王者荣耀》连续三年成全球最吸金手游;抖音测试「快递」服务|极客早知道
  • 奥特曼公然叫板马斯克!重金杀入脑机接口,硅谷两大巨头彻底决裂
  • AI女友24h陪玩,全球800万人上头!这群AI创企靠百度开挂
  • 马斯克删除xAI「研究员」职位引爆网络!LeCun怒批:如此暴力将扼杀创新
  • OpenAI女CEO太狠了!智商148,GPT-5才是真印钞机
  • AI 和海外游戏发力,腾讯重回 7000 亿美金
  • 博士申请 | 休斯敦大学计算机系刘锦阳老师招收高性能计算/数据压缩方向博士生
  • Kimi K2背后的冷门绝招:海量语料“重写”如何榨干每个token?
  • ICML 2025 | 奖励模型还用人标?APEC用对抗模仿生成偏好,泛化能力直线上升
  • Attention Sink的起源找到了?清华×美团首次锁定MoE中的「超级专家」
  • 告别Transformer,重塑机器学习范式:上海交大首个「类人脑」大模型诞生
  • AI 上新|在 Edge 浏览器里,我第一次感受到了 AI 的「人味」
  • Agent狂欢下的冷思考:为什么说Data&AI数据基础设施,才是AI时代Infra新范式
  • AI顶会模式出了问题? 「不发表,就出局」的恶性循环,正在压垮整个AI学界
  • 研究者警告:强化学习暗藏「策略悬崖」危机,AI对齐的根本性挑战浮现
  • 多模态大脑建模技术迈入新纪元:Meta 10亿参数模型获Algonauts 2025大脑建模竞赛冠军
  • OpenAI没开源的gpt-oss基础模型,他去掉强化学习逆转出来了
  • 当人们怀念 GPT-4o,他们在「怀念」什么?
  • IEEE TPAMI 南洋理工&哈工大提出 MARCONet++ 攻克中文文本图像超分难题
  • 耶鲁&大连理工&南洋理工等提出MDCNeXt:X射线下的“动力电池缺陷精准检测”新范式
  • 6秒造一个「视频博主」,Pika让一切图片开口说话
  • 破解AI创企的「不可能三角」,解药不止「大模型」
  • OpenAI和奥特曼将投资一家脑机接口公司,直接与马斯克的Neuralink竞争
  • 大型语言模型稳定强化学习的新路径:几何平均策略优化GMPO
  • 传 DeepSeek-R2 8 月发布;微信测试信用借款功能;Perplexity 要 345 亿美元收购 Chrome
  • 一觉醒来,GitHub没了?CEO辞职,微软接管,开发者天塌了
  • AI全国榜单爆冷,全网吃瓜大狂欢!这家黑马竟靠DeepSeek杀进全国TOP 2
  • 物理学「AlphaGo时刻」?40年未竟之事被AI一举攻破,顶尖物理学家集体傻眼
  • 刚刚,商汤内部两万字复盘曝光:多模态通往AGI核心路线首次公开
  • 让强化学习快如闪电:FlashRL一条命令实现极速Rollout,已全部开源
  • 从物竞天择到智能进化,首篇自进化智能体综述的ASI之路
  • 破解效率与成本难题:华为UCM技术推动AI推理体验升级
  • SIGGRAPH上,英伟达发布物理AI开源新技术,更新RTX Pro产品线
  • 身家25亿刀,是四家公司创始人,这位伯克利教授还在给本科生上课
  • 商汤王晓刚:世界模型将加快AI从数字空间进入物理世界,「悟能」想做那个桥梁
  • 北京内推 | 度小满金融视觉和多模态团队招聘视觉多模态算法实习生
  • 实验室抢显卡抢破头?A800/H800骨折价来袭,超值返券助你轻松冲DDL!
  • 后训练轻量「小枝」强势出击!极限剪裁视觉token,推理加速154%
  • ICCV 2025 | LightSwitch:CMU提出材质引导的扩散模型,2分钟实现高质量三维场景重打光
  • TCSVT 2025 | 跨模态学习助力复杂工业过程异常检测:FmFormer框架与基准测试新突破
  • AI全面挖掘微蛋白价值:首次引入合成负样本训练,剔除92%噪声,摆脱保守依赖
  • 是「福尔摩斯」,也是「列文虎克」,智谱把OpenAI藏着掖着的视觉推理能力开源了
  • 东方理工·甬江论坛|新大学、新使命,邀你共启未来
  • LLM总是把简单任务复杂化,Karpathy无语:有些任务无需那么多思考
  • ICCV 2025 | 小红书AIGC团队提出图像和视频换脸新算法DynamicFace
  • 聚焦前沿,见证未来!「X·创新』产品SHOW圆满举办!
  • 刚刚,OpenAI拿下IOI金牌,仅次于前五名人类选手!参赛推理模型才夺得IMO金牌
  • Lumina-mGPT 2.0:自回归模型华丽复兴,媲美顶尖扩散模型
  • 雷军:小米YU7改名,被误会是丐版;传淘宝闪购周末峰值超美团;低价 MacBook 或年底亮相,599 美元
  • OpenAI开源霸权5天终结,百川M2一战夺冠!实测比GPT更懂中国医疗
  • 硅谷精英放弃生娃!MIT女记者揭秘:人类只是AI垫脚石,世界很快就毁灭
  • 41个榜单SOTA!智谱最新开源GLM-4.5V实测:看图猜地址、视频秒变代码
  • 2025全球大模型应用报告:红海混战「忠诚度」瓦解,用户脚踏4.7条船!
  • 昆仑万维发布新模型 SkyReels-A3,开启五天技术发布周
  • 世界机器人大会:笨拙的今天,与狂奔的明天
  • 「一只手有几根手指」,你的GPT-5答对了吗?
  • 4D空间智能:AI如何一步步「看懂」时空结构?一篇综述解析通往四维世界的五大层次
  • 智谱终于发布GLM-4.5技术报告,从预训练到后训练,细节大公开
  • 从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?
  • ICCV 2025 | 机器人自主探索未知复杂空间?GLEAM破解主动探索建图的泛化难题
  • 脑子比不过AI,手也要沦陷了?这只灵巧手看得我有点慌
  • 第二届 “兴智杯” 全国人工智能创新应用大赛专题活动明天开启,技术解析 + 资源对接一站式平台重磅来袭!
  • 机器人上下文协议首次开源:阿里达摩院一口气放出具身智能「三大件」
  • Attention Sink产生的起点?清华&美团首次揭秘MoE LLM中的超级专家机制
  • 具身智能技术与应用论坛圆满举行,北京人形公布多项创新成果
  • ACL 2025 | 湖南大学、腾讯生命科学实验室等提出蛋白互作预测新方法,让LLM学会解读蛋白质网络
  • 宇树、银河通用都在用:英伟达「物理AI」技术亮相世界机器人大会
  • CVPR 2025 | DPC:用于微调视觉-语言模型的双提示协作
  • ICCV 2025 | 终结灾难性遗忘!南大提出外部知识注入机制,刷新CLIP持续学习SOTA
  • 超越样本级RL!人大×快手提出ARPO:熵驱动Agent探索,多轮推理性能飙升
  • 北京/上海内推 | 盛大集团AI创新中心招聘大模型/Agent方向算法实习生
  • 毒液抗菌搭配深度学习,千万级数据组中筛得386条备选,91.4%体外验证成功

刚刚!谷歌内部揭秘Genie 3:Sora后最强AI爆款,开启世界模型新时代



  新智元报道  

编辑:KingHZ
【新智元导读】Genie 3来了!这或许是最接近「模拟世界」的AI魔法。只需一句话,它就能生成一个动态、可互动的世界——角色能互动、下水会溅起水花,甚至还能记住一分钟前的细节。DeepMind研究者直言:Genie 3是通向AGI的关键一步。

Genie 3是有史以来最先进的世界模型之一。

仅通过文本,它能够实时生成完全互动、高度一致的世界。

它不仅是DeepMind积累的结晶,还是通向AGI和具身智能体的关键一步。

但Genie 3是如何构建的?未来的世界模型又是什么样?

刚刚,谷歌DeepMind的研究科学家Jack Parker-Holder和研究总监Shlomi Fruchter,在a16z的访谈中,分享了他们的观点。

这次对话提供了对Genie 3的第一手洞察。

主持人Justine Moore发推表示:「Genie 3在网络上引发热潮」。

他总结了深入探讨的要点:

  • Genie3是由两个DeepMind项目(Veo 2和Genie 2)合作完成的成果。

  • 实时、互动的世界模型有很多潜在应用

  • 但应用并不是推动研究的主要动力——它们是从用户使用模型的过程中自然涌现出来的。

  • Genie 3可以保留最长达一分钟的空间记忆。

  • 物理规律是模型的「自然产物」,并会随着训练数据的规模和深度而不断提升。

  • 目前还没有一个「终极模型」能够同时具备Veo 3和Genie 3的所有能力。

Genie 3:AI新魔法

如果说LLM的原生图像编辑功能,「动动嘴PS」是「言出法随」,那Genie 3这次的新特性叫什么?

只需输入文本提示,Genie 3即可生成动态世界。用户可以实时进行探索,每秒高达24帧,分辨率为720p。

十多年来,谷歌DeepMind一直致力于模拟环境的研究。

Genie 3是他们最新最强的「世界模型」,是通向通用人工智能(AGI)的关键一步,因为它能让AI智能体在无限丰富的模拟环境中进行训练。

去年,他们推出了首批基础世界模型Genie 1和Genie 2,它们能为智能体生成全新的环境。此外,他们还通过Veo 2和Veo 3等视频生成模型,不断提升对直观物理的理解能力。

这些模型在世界模拟的不同能力上都取得了进展。Genie 3是谷歌首个支持实时交互的世界模型,同时提升了一致性和真实感。

在生成视频时长、世界一致性、内容的多样性、特殊记忆等多个方面,Genie 3都实现了突破。

它甚至可以让个人创造自己的游戏世界、训练强化学习的智能体、机器人研究等。

所有这些应用基本上都源于一个核心能力:只用几句话就能生成一个完整的世界。

最关键的新特性是:特殊记忆。

比如:一个角色拿着刷子在墙上刷漆,然后他移动到墙的另一边去刷,接着又回到原来的位置,结果之前刷的痕迹还在。

特殊记忆(special memory)是DeepMind团队有意设计的目标,但最终的效果好得出乎意料。

即便是参与Genie 3的内部成员,第一次看到上面刷墙的示例时也不敢相信,需要再三观看、逐帧检查,才确定这真的是模型生成的。

Genie 3的一致性非常高:建筑物左侧的树木在整个交互过程中始终保持一致,即使它们时而进入视野时而消失

其实,Genie 2就已经具备了一些「记忆能力」。但当时,整个AI界太多令人激动的模型发布,比如Veo 2模型几天后也发布了。而且,当时谷歌主打的卖点是「可以生成新的世界」,所以记忆能力就没被强调出来。

到了Genie 3,在「记忆」上,谷歌DeepMind下了更大的决心,明确地把「增强记忆能力」作为核心目标之一。

当时设定的目标是:

超过一分钟的记忆、

支持「实时生成」、

还能提升「分辨率」。

其实,这几个目标本身是互相矛盾的,但谷歌无所畏惧。

说实话,直到项目快结束时,在看到最终样本的那一刻,他们依然感到震撼。这种成果即使是预期中的,真的实现的时候还是非常令人兴奋。毕竟,研究项目永远不会有百分百的确定性。

在设计上,他们还有一个明确的方向,就是不采用「显式表示法」。市面上已有一些方法,比如用NeRF或Gaussian Splatting等技术,通过构建明确的3D世界结构,来达到一致性。这些方法很好,在某些应用上效果不错。

但他们坚持让模型「逐帧生成」,这种方式对模型的泛化能力、适应多样世界的能力更有帮助。

智能涌现,惊喜不断

就像其他生成式模型一样,随着Scaling,效果确实会提升,这已经不是什么秘密了。

尽管不如语言模型在推理能力上的涌现表现,Genie 3依然涌现出一些令人惊讶的行为比如说,如果一个角色靠近一扇门,模型可能就会「推测」角色应该打开门;这类符合人类直觉的行为,模型现在能在一定程度上表现出来了。

还有就是对语言的理解在不断变好,生成的内容也越来越真实,视觉效果更自然。

从Genie 2到Genie 3的提升非常明显,特别是在「模拟现实世界能力」上有巨大飞跃。

比如物理效果的表现——像水的模拟、光照的变化,都非常惊艳。

现在已经到了一个地步,哪怕是非专业人士,看了之后也会觉得是真实拍摄的视频。👇

这太惊人了。而在Genie 2时代,模型虽然大致能表现出物体该有的行为,但你还是一眼能看出「这是AI生成的,不是真的」。

现在的视频真假难辨,进步真的很大了。

在「地形多样性」问题:比如模型需要理解在沙地上行走、在下坡滑雪、在水中游泳,这些动作和物理反馈应该是不一样的。

谷歌团队发现这些行为很多都是规模和数据广度所带来的「涌现能力」。

换句话说,他们并没有为这些行为做专门的训练或设计,而是模型自己「学」出来的。它通过足够丰富的训练数据,掌握了这个「世界」的通用常识。大多数时候,它表现非常不错。

比如下面的例子:

在滑雪时,角色在下坡时速度会变快,而试图上坡时就会变慢,甚至爬不上去;

下水后,角色一般会开始游泳或溅起水花;

靠近水坑时,模型通常也会让角色穿上雨靴。

这些行为都非常自然,和人类对真实世界的理解非常一致,而这些都是模型自己学会的,真的让人觉得像魔法一样。

这里还有一个有趣的权衡:既能保持世界的「物理一致性」,同时也能忠实地执行用户的提示词

对视频模型来说,「低概率事件」本来很难,但Genie 3依然能有不错的表现。

这正是它的魅力所在:

即便是一些现实中不太可能发生的场景,Genie 3也能让你如临其境,而不是仅仅生成一个和你身边环境一样的无聊视频。

在「指令跟随/文本对齐」,Genie 3也得到了提升,这主要得益于DeepMind内部不同项目(特别是Veo项目)的经验迁移和知识共享。这种跨团队协作是DeepMind的优势

世界模型是让智能体走向现实世界最快的路径。Genie 3朝着这个目标迈出了一大步。

那Genie 4、Genie 5的新特性有哪些设想?

未来的关键 
真实感和交互性

但总的来说,Genie 3团队最关注的始终是一件事:让模型本身变得尽可能强大,让它能产生更广泛的影响,然后把创造应用的机会交给其他团队。

他们表示最终会开放Genie 3模型。

未来确实让人特别兴奋,但也必须承认,世界模型距离真正「准确模拟现实世界」还有很大差距。

比如,把一个人放进生成的世界里,让他随心所欲地做任何事情,我们还远远做不到。

还有很多工作要做,才能让虚拟世界的真实感和自由度接近现实。

应用还有很多,关键在于能否准确模拟世界,并把人放进其中。也许还能从「第三视角」观察自己,或者与虚拟智能体互动。

他们还透露真实感交互性是未来的关键。

现在机器人领域最大的瓶颈之一就是数据:能收集到的数据非常有限。

而Genie 3能生成几乎无限的场景,这样一来机器人就能在虚拟世界里学习,而不再局限于现实中能采集到的视频。这个想法真的很令人兴奋。

最后一个问题:人类是不是生活在某种模拟中?

这个问题被问过很多次,得到了「哲学化」的回答:如果真是模拟,那它运行在完全不同的硬件之上

如果人类真的生活在一个模拟世界里,那它绝对不是运行在现在的硬件上的。因为我们的世界是连续的,而不是数字化的。

所有的感知都是连续的信号。

也许,在量子层面会有一些「硬件限制」,但至少和我们现在的计算机完全不同。

或许未来量子计算机,才是运行我们这个模拟世界的真正平台。

参考资料:
https://www.youtube.com/watch?v=tWgjhC7dJRo
https://x.com/Mascobot/status/1956769541759094859
https://supersonic.video/tWgjhC7dJRo
https://x.com/venturetwins/status/1956769043668725919


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652620688&amp;idx=1&amp;sn=fbd80b67687f269ad7098122888c51a2&amp;chksm=f04c3494a623cdcceeaafdb7465b28b80e80eba350a42d88ee406def9d6bcc38e8fa990134dd&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/B8KGldiicU&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们