动态列表

  • 强化学习教父重出江湖, 生成式AI的时代要结束了?
  • 投85份简历0 Offer!CS研究生心态崩了,亲历20年最猛裁员潮
  • 视频模型假装在推理?MME-CoF新基准评估12个推理维度
  • Ilya、小扎之后,苏莱曼的「超级智能」进入7年倒计时!
  • 有些答案,听 AI 说一百遍,不如和「最有料的人」聊一次
  • 上交大刘鹏飞团队:Context Engineering进入2.0,上下文成为可操作对象
  • 工程&计算机领域前沿洞察 | Synthesis技术前沿报告合集
  • 用 AI 做电商真实效果如何?我们调研了双 11 一线从业者
  • 马斯克 1 万亿美元的薪酬方案获特斯拉股东批准;东方甄选孙东旭离职;Altman:今年 OpenAI 年化收入将达 200 亿美元
  • 蔚来,破 4 万!
  • 今年双十一最大的赢家是这张表
  • 复旦大学&StepFun提出WithAnyone:告别“复制粘贴脸”,实现可控、高保真的多人ID一致性生成
  • 大道至简,中科院等提出OneRef:统一视觉定位和指代分割
  • 极客公园创新大会 2026 首批嘉宾揭晓!
  • 北京内推 | 美团招聘大模型算法实习生(IM全渠道)
  • 达摩院联合浙大、港理工推出PixelRefer:多模态大模型迈向像素级视觉理解
  • 自回归不必按token算了:微信AI × 清华用CALM直接「整段」预测
  • Altman 怒喷 OpenAI 唱衰者;小鹏发布新一代人形机器人 IRON;苹果支付 10 亿美金,新 Siri 将引入谷歌 Gemini|极客早知道
  • 别被一堆Strong Accept吓住:德州农工×康奈尔实锤论文晒分“系统性虚高”
  • 记忆让机器人更聪明:原力灵机提出MemoryVLA化解长时程任务操作难题
  • 博士申请 | 南洋理工大学王琦琛老师课题组招收数据库方向全奖博士/博后
  • 151% 的增长背后,它正在成为 AI 的「新入口」
  • 清华&南洋理工等提出稀疏模型反演:ViT反演加速高达3.79倍,告别无效背景!
  • 低光图像增强新探索:SASW-Loss,无需改网络,即插即用提升多种模型性能
  • 山姆更新后遭会员疯狂吐槽;Switch2 销量破千万;小米马志宇警告存储涨价:明年最新的成本预估“有点惊悚”|极客早知道
  • Sketch-to-Layout,从草图到布局!DeepMind & EPFL 在设计领域的新工作
  • 为物理AI打造世界模型!英伟达发布Cosmos-2.5:模型缩小3.5倍,性能媲美SOTA
  • NeurIPS25 | 香港理工&OPPO&哈佛提出DNAEdit:直接噪声对齐让Rectified flow文生图编辑更加准确
  • 这个不「瞎 BB 」的 AI 硬件,给了我真正的「陪伴」丨New Things
  • Rokid 乐奇联手 BOLON 眼镜:眼镜巨头依视路的中国棋局
  • 跟一位日本比亚迪车主聊了聊,才明白我们对「出海」有多天真
  • 宁德时代赚走185亿,车企却不想再给「宁王」打工了
  • 从「绝望」到一轮融资43亿元:新石器做对了什么?
  • 全注意力、复杂推理不掉速:MiniMax M2把Agent做成了「可执行能力」
  • NeurIPS 2025 | 用蛋白质动态词表“搭积木”,ProDVa高效组装可折叠新蛋白
  • 北京内推 | 阿里通义实验室对话智能团队招聘大模型方向研究型实习生
  • 豆包,正在悄悄开启「电商新链路」
  • OpenAI 与 AWS 达成 380 亿美元算力合作;新 Siri 付费采用 Gemini;字节试行「豆包股」 | 极客早知道
  • Karpathy点赞NUS新研究:RL微调不稳定的关键根源,指向BF16精度本身
  • ICCV 2025 | 高德提出SeqGrowGraph:以序列化图扩展革新车道拓扑生成
  • 我体验了一下 AI 时代的「家」:快跑,到处都是 AI
  • 每天都和 AI 聊天,你可能已经是个「神经病」
  • 苹果,一赚「解」千愁
  • 多媒体顶会ACM MM 2025 最佳论文公布,从“看懂”到“会用”,再到“会思考”:揭示AI与物理世界融合新篇章
  • AMD发布E-MMDiT:仅304M参数,单节点1.5天训练,实现高效图像合成新基准
  • 顶刊ISPRS (IF 12+) | 400+参考文献,遥感图像超分辨率最新综述!
  • T1 零封 TES 战队,中国战队无缘 S15 总决赛舞台;英伟达合作制药巨头打造超级计算机;理想汽车汤靖详解 MEGA 起火事件|极客早知道
  • ICCV 2025 | 卡内基梅隆大学空间可变自动对焦:单次拍摄实现全场景清晰,重新定义计算摄影
  • NeurIPS 2025 | 电子科技大学联合A*STAR提出SCOPE:兼顾显著性与覆盖率,实现高效多模态大模型令牌剪枝
  • 特斯拉 Cybercab 实车曝光,部分量产;何小鹏谈雷军竞争:未来更期待对手是小米;黄仁勋完成 10 亿美元股票出售
  • 北京内推 | 快手模型与应用部增长模型团队招聘大模型/推荐方向算法实习生
  • 不用教它撒谎,LLM也会“心口不一”:上海AI Lab揭露高风险下的模型欺骗行为
  • 当强化学习学会“跳步骤”:Sergey Levine团队重写值函数的递归逻辑
  • 当 ChatGPT 要开始「搞黄色」,我都不敢想......
  • 港中文&港科大等提出FullPart:让3D部件生成达到全分辨率精度
  • 从 「会思考」到 「善创造」: 多模态大模型的深度推理与协同进化
  • 语言模型之后,智源 EMU3.5 找到了 AI 的「第三种 Scaling 范式」
  • 李想谈万台MEGA召回:生命只有一次;传明年AirPods配摄像头+AI;神舟二十一飞船发射成功,对接速度创纪录|极客早知道

英伟达新架构引爆全模态大模型革命,9B模型开源下载即破万



  新智元报道  

编辑:LRST
【新智元导读】OmniVinci是英伟达推出的全模态大模型,能精准解析视频和音频,尤其擅长视觉和听觉信号的时序对齐。它以90亿参数规模,性能超越同级别甚至更高级别模型,训练数据效率是对手的6倍,大幅降低成本。在视频内容理解、语音转录、机器人导航等场景中,OmniVinci能提供高效支持,展现出卓越的多模态应用能力。

今年以来,开源大模型战场硝烟弥漫。

各路人马在此全力投入,试图在AI的下一个时代抢占生态位。而一个无法被忽略的趋势是:中国大模型,正在强势统治开源基础模型的「名人堂」。

从DeepSeek在代码与数学推理上的惊人表现,到Qwen(通义千问)家族在多模态和通用能力上的全面开花,它们凭借卓越的性能和快速的迭代,早已成为全球AI从业者无法绕过的参照物。

就在所有人都以为,这场基础模型开源浪潮将主要由顶尖的互联网巨头和明星创业公司推动时,一个「本该」在旁边「卖水」的巨头,也亲自下场「添柴」了。

是的,作为AI浪潮最大的受益者——英伟达(NVIDIA)——并没有懈怠自研大模型。

如今,英伟达的大模型矩阵迎来了一块重要拼图。

无需更多铺垫,老黄的最新王牌正式登场:最强9B视频音频全模态大模型 OmniVinci,强势开源!

论文链接:https://arxiv.org/abs/2510.15870

代码链接:https://github.com/NVlabs/OmniVinci

在多个主流全模态,音频理解,和视频理解榜单上,OmniVinci展示出了碾压对手的性能:

如果说英伟达之前的开源模型还只是在特定领域细分布局,那么OmniVinci的发布,则是一次真正意义上的「全线压上」。

英伟达对OmniVinci的定义是「全模态(Omni-Modal)」——一个能够同时理解视频、音频、图像和文本的统一模型。

它的大小仅为 90亿(9B) 参数,却在多项关键的多模态基准测试中,展现了「掀桌子」级别的性能。

根据英伟达发布的论文,OmniVinci的核心优势极其凌厉:

  • 性能越级对标: 在多个权威的全模态理解基准上(如DailyOmni、MMAR等),OmniVinci的表现全面超越了包括Qwen2.5-Omni在内的同级别(甚至更高级别)的竞争对手。

  • 惊人的数据效率: 这是最可怕的一点。OmniVinci达到当前SOTA(顶尖水平)性能,仅使用了0.2T(2000亿)tokens的训练数据。作为对比,其主要竞争对手的数据集规模普遍在1.2T以上。这意味着OmniVinci的训练效率是对手的 6倍

  • 核心技术革新: 它通过名为全对齐网络(OmniAlignNet )的创新架构,以及时序嵌入分组(Temporal Embedding Grouping)和约束旋转时间编码(Constratined Rotary Time Embed)等技术,实现了视觉和听觉信号在时序上的高精度对齐。简单来说,它不仅「看懂」了视频,「听懂」了声音,更能精准理解「什么声音在什么画面发生」。

英伟达的入局,传递了一个清晰的信号:硬件的王者,同样要掌握模型的定义权。

视频+音频理解: 1+1>2


音频的加入究竟有没有让多模态模型更强?实验给出了明确的回答:有,而且提升非常显著。

研究团队指出,声音为视觉任务引入了全新的信息维度,使模型在视频理解方面受益匪浅。

具体来说,从单纯依赖视觉,到结合音频进行隐式多模态学习,再到引入全模态数据引擎实现显式融合,模型的表现呈阶梯式跃升。

尤其是在采用显式学习策略后,多项指标上都出现了突破性进步,如下表所示,性能几乎是「一路狂飙」。

不单只SFT,在后训练阶段加入音频模态也能进一步增强GRPO的效果:


全模态Agent,落地场景拉满

视频与音频兼具的全模态模型突破了传统 VLM 的模态限制,能够更充分地理解视频内容,因此具备更广阔的应用场景。

比如总结老黄的采访:

还可以能转录成文字:

又或者语音指挥机器人导航:


是开源届的友军,而不是对手


在过去的一年里,

DeepSeek凭借其在代码和数学推理上的超强实力,一次次刷新开源榜单的上限,成为「最强理科生」的代名词。

Qwen则构建了庞大的模型矩阵,从最小的0.6B到巨无霸1T大模型,是目前生态最完善、综合能力最均衡的「全能选手」之一。

而OmniVinci的开源,更像是一条的「鲶鱼」。它用极致的效率和强悍的性能树立了SOTA的研究标杆,搅动了开源大模型战场,督促友军们拿出更好的模型帮助人类走向AGI。

对于「卖铲子」的英伟达来说,开源模型越多人用 -> 更多人买GPU,无疑是开源模型的最大收益者,也正因如此,英伟达是开源模型团队的坚定友军,而不是对手。

结语
社区狂欢,浪潮加速,共赴AGI

英伟达OmniVinci一经发布,如同一块巨石砸入本已波涛汹涌的开源之海,已经在huggingface上斩获一万多的下载量

海外的科技博主们抢先发布视频和文章分享相关技术

它既是英伟达「软硬一体」生态的自然延伸,也是对整个AI开源生态的一次强力「助推」。

开源的格局,因此更加清晰了。

一方,是以DeepSeek、Qwen为代表的中国开源力量,他们以极快的迭代速度和开放性,构筑了繁荣的开发者基础。

另一方,是手握算力霸权的英伟达,亲自下场,用「技术标杆」和「生态孵化」来作为开源友军加速整个进程。

浪潮已在加速,无人能置身事外。对于每一位AI从业者来说,一个更强、更快、更「卷」的AI时代,才刚刚开始。


参考资料:
https://arxiv.org/abs/2510.15870


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652643052&amp;idx=2&amp;sn=7a6abeaa6f68f84257f89a49883c6da5&amp;chksm=f0fb7943aec130f136b15470cf179eaa1212bdfd8146437895ed51f7ed26818f478e8a016ef6&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/83671/w1hHttWCLo&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们