动态列表

  • 重磅!DeepSeek再开源:视觉即压缩,100个token干翻7000个
  • 全球首个「长肌腱」AI机器人量产!Nature盛赞的中国方案惊艳IROS现场
  • 甲骨文推出全球最大AI超算,作为OpenAI「星际之门」算力核心
  • MagicOS已成世界「第三极」,荣耀拿下AI大战叙事权
  • 美国拟减40%国际生,留学风向要变?Nature曝全球高校大洗牌
  • 美 NSA 被曝网攻中国「时间心脏」;微博王高飞:企业别把批评和黑公关混为一谈;传运营艰难,安世中国发公开信回应
  • 扎克伯格急了!Meta内部文件曝光:宁用竞品,也要废掉祖传系统
  • 浙大推出首个「多图应用题」基准GSM8K-V,全面评估 VLM数学推理能力
  • 英伟达4段简短提示词,IOI夺金!开源模型也能征服最难编程竞赛
  • 超越纯视觉模型!不改VLM标准架构,实现像素级深度预测
  • 5万美元筛选「超级婴儿」, 智商提升15点?马斯克被曝是客户!
  • TPAMI 2025 OccScene:联合扩散框架,同时推进感知与生成进步,3D场景生成新突破!
  • NeurIPS 2025 | KAUST与MetaAI提出Vgent:图增强RAG,长视频理解性能超越SOTA 8.6%
  • 不用微调!像打方向盘一样“操控”大模型思考:Steering正在改写推理范式
  • 不靠RL、不用训练:哈佛「Power Sampling」让基座模型推理媲美GRPO
  • 中国AIGC用户破5亿,增长1倍;今年超7成外卖低于15元;新能源事故,「破窗锤」被网友买爆|极客早知道
  • AI芯片战争关键一役!英伟达最强Blackwell首次「美国造」
  • 数学界地震!GPT-5连破10道「百年悬案」,陶哲轩:AI革命才刚开始
  • 前OpenAI研究员跨界做文创:Ilya发型帽子走红,AI成潮牌!
  • 训练成本暴降99%,35秒出1分钟高清视频!英伟达MIT等引爆视频AI革命
  • Karpathy泼冷水:AGI要等10年!根本没有「智能体元年」
  • 早鸟票倒计时2天!全国大模型智能生成大会:推理、多模态、智能体前沿集结
  • 一致性轨迹强化学习登场:上海AI Lab让扩散语言模型实现全并行少步数推理
  • First Try Matters,不是Aha Moment:邴立东团队揭示推理模型靠首答,不靠反思
  • 传 iPhone 17 Air 表现不佳,砍百万产量;黄仁勋:英伟达中国份额从 95% 降到 0%;AI 致维基百科访问显著下降
  • 马普所&谷歌等提出AnyUp:无需再训练的通用特征上采样,推理即用,效果SOTA!
  • 北大等提出MaskDCPT:通用图像修复预训练新范式,PSNR提升3.77dB
  • 可处理上万变量,攻克高维时序预测难题!华人团队开源模型、基准
  • Bengio推AGI「高考」,GPT-5单项0分
  • Hassabis官宣用AI点燃「人造太阳」!无限能源时代加速到来
  • 全球第一,最强OCR之神诞生!百度这个0.9B开源模型问鼎SOTA
  • 太狠了,四条腿被锯掉也能爬!通用大脑开启机器人「无休」时代
  • 零跑,不再「摸着理想过河」
  • NeurIPS 2025 | 上交大提出MM-UPT:多模态大模型的“无监督后训练”范式
  • 从会画画到会思考:快手可灵提出T2I-CoReBench,最强模型也难逃推理瓶颈
  • Meta花了420万美元、烧掉40万GPU·小时,只为验证一条Sigmoid曲线
  • 张鹏对谈朱啸虎、储瑞松、傅盛:Agentic AI 时代,不要什么东西都自己闷头做
  • Identity-GRPO:阿里开源多人物定制化视频生成的后训练优化算法
  • Real-world Video Super-Resolution | VSR的十字路口
  • 蔚来回应外国基金投诉:无事实依据;零跑推D19旗舰SUV,配超大电池;卡西欧推《回到未来》40周年联名表
  • 你的下一个「爱豆」不一定是真人,也可以是AI豆
  • 刚刚,谷歌深夜上新Veo 3.1!网友狂刷2.75亿条,Sora 2要小心了
  • 谷歌142页报告首发揭秘:90%码农每天用AI超2小时!
  • RL微调,关键在前10%奖励!基于评分准则,Scale AI等提出新方法
  • 谷歌×耶鲁联手发布抗癌神器!AI推理精准狙击「隐身」癌细胞
  • ACL 2025 | 北大提出动态焦点解码:让开放生成既“靠谱”又“好看”
  • 统一高效来了!清华发布RLinf-VLA:把VLA+RL的训练与部署“一网打尽”
  • GPT越来越保守?斯坦福Manning团队提出Verbalized Sampling,让模型重新“多想一点”
  • AI 时代,用一场「快闪」改变命运|IF 2026「AI 产品快闪」启动召集!
  • IF 2026 启动:来看看 AI 面前,谁在掌握主动权?
  • NeurIPS 2025 | 为Sora视频加上“隐形身份证”:清华大学等提出Safe-Sora,时空频率感知水印新框架
  • 从DNN到MLLM的异常之旅:视频异常检测(VAD)范式大迁徙
  • 苹果发布 M5 芯片笔记本和 iPad;微信:长时间不用账号,不再强行回收; 乔布斯登上一美元硬币
  • 马斯克的作业还是被奥特曼「抄走了」
  • 苏姿丰出手!Oracle下单5万颗AMD芯片,英伟达王座撼动
  • 具身智能算法哪家强?RoboChallenge见真章!全球首个大规模真机算法评测平台来了
  • NTU等联合提出A-MemGuard:为AI记忆上锁,投毒攻击成功率暴降95%
  • 苹果M5「夜袭」高通英特尔!AI算力狂飙400%,Pro三剑客火速上新
  • TPAMI 2025 | 华中科大与大疆等提出LLF-LUT++:4K照片增强仅需13ms,PSNR提升2.64dB!
  • IDEA提出Rex-Omni:将目标检测变为“下一个点预测”,零样本性能超越DINO
  • 罗福莉担任通讯作者,小米 × 北大联合发布R3:让MoE强化学习从崩盘回归可控
  • AAAI 2026联合会议征稿开启:大语言模型中的深度逻辑推理
  • 下周见!Wiley Advanced主编论坛@IROS 2025:从审稿人视角重塑论文表达
  • Altman:ChatGPT将支持成人内容;港版iPhone Air无法用内地eSIM;传雷军一夜掉粉30万|极客早知道
  • Karpathy「疯狂之作」:100美元、4小时,就能训练你自己的「小型GPT」
  • 英伟达AI超算3999开售,「掌心之中」可部署所有大参数开源模型!
  • 登顶Hugging Face GAIA全球榜首!中兴超级智能体终结「AI黑盒」时代
  • AI圈再颠覆!中国AI翻译耳机通话翻译,实测震撼
  • 一个模型装下整个物种树!伯克利GPN-Star斩获基因预测双料冠军
  • vivo X300 Pro:以「水桶旗舰」之躯,重登旗舰山巅
  • 直到毕业我才懂:原来延期的博士,不止我一个
  • 让论文自己讲!Paper2Video一键生成论文讲解视频,赶顶会DDL不慌了
  • 8美元“驯服”DeepSeek-V3.2?Training-Free GRPO把RL成本打到地板
  • NeurIPS 2025 | PPFN:渐进式提示融合,让红外图像增强在复杂场景下性能提升8.76%
  • NeurIPS 2025 | 让AIGC视频变为可探索场景:Instant4D实现单目动态场景的分钟级重建
  • 库克抖音带货 iPhone 17 Air,22 日开售;小米客服回应「SU7 门把手」;「丐版」特斯拉明年国内投产

硬刚 Sora 2,谷歌的 Veo 3.1 确实有小惊喜|AI 上新

谷歌最新视频生成模型 Veo 3.1 来了!今日上手可用。
北京时间 10 月 16 日,谷歌在 Gemini API 中发布了 Veo 3.1 和 Veo 3.1 Fast 付费预览版。模型一上线,就受到了行业的高度关注。毕竟,和前不久发布的 Sora 2 一样,这次 Veo 3.1 也新增了音频功能。
相较于上一代 Veo 3 来说,Veo 3.1 此次提升主要聚焦在三大方面:
第一,是AI生成视频从默片走向有声电影。Veo 3.1 不但能够要求 AI 视频实现声音画面统一,还能够要求 AI 更好地理解画面内容,并给予合适的配乐。
第二,Veo 3.1 可以直接设定AI视频的开篇画面和结尾画面。如此一来,Veo 3.1 不但能够实现短视频和短视频之间的过渡自然,也能够进一步控制 AI 视频的首尾观感。甚至,Veo 3.1 可以实现每一个新的视频都是基于上一个视频的最后一个画面继续生成。在无限叠加的 Buff 下,谷歌用一种另类的方式实现了「AI 长视频」生成。
比如说,当你告诉 Veo 3.1,以下两张图片是 AI 视频的开篇画面和结尾画面:
就会生成如下视频片段:
第三,Veo 3.1 可以通过三张图打造一个人设。
当你给 Veo 3.1 三张图片,分别为一个女性头像、一个服装参考图以及一个场景设定时,根据提示词要求,Veo 3.1 可以直接通过三张画面设定 AI 人物形象,并且可以让该人物自然地说出目标台词。
此次,Veo 3.1 主打进一步优化 AI 视频在视听观感上的体验。同时,谷歌也是在 AI 视频生成片段时间较短的前提下,寻找能够实现「AI 长视频叙事」的解法。

亲测Veo 3.1 三大功能,五个月谷歌往前走了「0.1 步」

目前,普通用户可在 Gemini 应用程序和 Flow 免费使用,不过使用机会有限。我们发现不少国内 AI 视频生成平台闪现秒跟。不到一天时间,Imagine.art、Fal-ai 以及 Lovart 均表示支持 Veo 3.1 模型调用我们此次也在 Lovart 上对 Veo 3.1 进行了快速体验。
首先测试了 Veo 3.1 生成的 AI 视频是否能够在音画统一上达成一致。第一次,我们给到 Veo 3.1 的英文提示词是:「纽约街头正在下雨,突然一道闪电伴随雷声而来。」
大约一分钟后,我们获得如下视频画面:
 
可以看到基本上,闪电和雷声是在同一时间内出现,完成了声音画面的一致性。我们还可以更细致地发现每一辆车开过水坑时,声音会有一个从远到近,从大到小的变化程度。让我们意外的是,在 3 分钟左右的生成 AI 视频的倒计时中,Veo 3.1 整个视频的生成时间会在 1 分钟左右就完成,但生成的视频片段基本上都在 6 秒左右,与 Sora 2 可以生成 10-20 秒的时间相比,明显不占优势。
而且,我们还发现在整个画面,只有车、雨滴、和闪电是呈现动态效果,两旁的行人或者树木均是静止不动的,因此整个视频片段会出现一些违和感,让人能够一眼能看出是 AI 视频。
接下来,我们测试给 Veo 3.1 两张照片,并分别设定为第一张照片和最后一张照片后,看看AI视频的首尾稳定性如何。以及 Veo 3.1 能否能够通过拼接的方式,实现两段视频直接连接。
为了更好的生成效果,我们给到 Veo 3.1 的第一段提示词是:「一只顽皮的虎斑猫以流畅、连续的动作跃上办公桌。这个动作应展现从起跳到优雅落桌的完整跳跃弧线,以上两张图片分别为视频的首个画面和结束画面,确保运动过程流畅且符合物理规律。」
在大约 1 分钟后,Veo 3.1 给出视频效果是:
在视频的前半部分,呈现基本上自然。但是在小猫咪跳到电脑后面的时候,似乎变了另一只小猫出来,整个视频突然添了几分「魔法感」。并且,在视频的最后几秒,似乎有个开灯设定,将画面调整更亮。
同时,我们给出 Veo 3.1 第二段英文提示词:「跳上办公桌的虎斑猫趴下睡着了。以上两张图片分别为视频的首个画面和结束画面,确保运动过程流畅且符合物理规律。」
在 2 分钟后,Veo 3.1 给出一段 6 秒的短视频:
可以看出,Veo 3.1 给出的 AI 生成视频还是比较真实的。如果将两个视频片段连接在一起,则呈现的效果为:
可以看出,当两个视频拼接到一起之后,除了此前提到的「魔法感」比较突兀外,视频与视频之间还是保持了连贯性,并且也实现了一定程度上的场景拓展。
最后,我们测试了如何使用 Veo 3.1,通过三张图设定一个人物主角形象。
我们给出一段英文指令,大意为:「一个中景镜头,画面中的女性角色来源于人物参考图,身穿服装参考图中的衣服。她正在场景参考图中的场景里漫步,带着好奇而愉悦的表情环顾四周。环境需与提供的场景图一致。整体风格应为电影质感,拥有自然的光线和轻柔的微风。同步生成环境音效,如树叶的沙沙声和远处的鸟鸣。」
Veo 3.1 给出的视频效果为:
来源:极客公园
可惜的是,这一次我们发现 AI 视频中的人物明显建模感严重,服装和场景几乎都与此前给出的参考图片有明显差别,AI 感极重,该 AI 视频几乎是此次所有测试视频里面表现效果最差的。
整体看来,此次 Veo 3.1 在音画同步以及首尾画面稳定上均给出不错的 AI 效果。但在用图片设定人物形象,AI 人设方向并没有官网中介绍的效果好。

谷歌「暗踩」Sora2,AI 大佬们跳出来反对

「胜,大获全胜。」谷歌试图在官网昭告天下这一点。据谷歌介绍,谷歌在文生视频的总体观感、视频对齐程度以及视觉质量等方面,完胜 Sora 2 Pro、海螺 2.0、Seedance 1.0 Pro 和 Renway Gen 3 等一众视频模型。
官网还强调,在音画一致性方面,Veo 3 的「视频素材」功能在内部基准测试中,在「整体偏好」和「视觉质量」两项指标均名列前茅。
有意思的是,谷歌官网还悄悄地「暗踩」OpenAI 所发布的 Sora 2,解释在图像转视频测试中没有 Sora 2 Pro 的原因是因为 Sora 2 Pro 目前不支持人像生成。

不过我们也发现在此次的对比中,谷歌似乎模糊 Veo 3.1 和 Veo 3 的模型边界,基于所有的图片显示中都是 Veo 3,而文字表达均为 Veo 3.1,因此暂时也很难确定此次评测的模型,究竟是刚刚发布的 Veo 3.1 还是 5 个月前的 Veo 3。

尽管谷歌自我感觉甚好,但在 AI 大佬们看来,Veo 3.1 的效果似乎略逊于 Sora 2。比如说,Otherside AI 的创始人 Matt Shumer 直接在推特上表示对 Veo 3.1 感到「有些失望」,他认为 Veo 3.1 效果明显逊于 Sora 2,价格却高出不少。毕竟,目前 Sora 2 可是免费使用。
3D 数字艺术家 Travis David 则提到 Veo 3.1 并没有突破 AI 视频生成的「8 秒」定律,且用户没有办法自己选择生成什么样的音频,让人大失所望。
还有不少网友提到期待「自动化分镜」功能迟迟没有上新,在自动化程度的进展也让人感到失望。

和 Sora 2 Pro 卷「性价比」?Veo 3.1 瞄准 AI 视频专业化

在谷歌介绍 Veo 3.1 模型博客的最后,提到了价格与 Veo 3 相同。乍一看,我还以为谷歌此次是一次「加量不加价」的升级,但仔细研究之后发现,Veo 3.1 模型可能仍是目前市场较为昂贵的视频生成模型,仅次于 Sora 2 Pro。
除了 Veo 3.1,谷歌还推出 Veo 3.1 Fast,能够更快的生成视频,价格也更低,不含音频的版本是每秒$0.15,加上音频生成的版本则是每秒$0.40 美元。
和前不久刚刚发布社交属性较强、更注重趣味感的 Sora 2 相比,Veo 3.1 明显定位在「专业化」上。因此,Veo 3.1 更强调视频的连贯性,音画的一致性以及人物的稳定性。
谷歌给出的应用场景案例也侧面印证了这一点。据介绍,GenAI 电影工作室 Promise Studios 已经开始其 MUSE 平台中使用 Veo 3.1 来增强生成 AI 视频故事性,整体生成视频要求尽可能达到导演希望的制作质量以及故事讲述感。AI 生成内容公司 Latitude 也正在其生成叙事引擎中测试 Veo 3.1,希望能够将用户创作的故事立即变为现实。
可以看到,Veo 3.1 正试图撬动专业影视制作领域,降低高质量视频创作的门槛和成本。这也意味着未来个人创作者或小团队,有机会通过叙事控制、定制化角色以及音画一致性,独立制作一系列风格统一的迷你短片或系列视频内容。
但从整体视频生成效果来看,五个月谷歌在 Veo 视频模型上往前仅走了「0.1 步」。

联系我们