动态列表

  • 乔纳森下一个iPhone神话,要黄了?OpenAI秘密AI硬件深陷三重困境
  • 3年手搓ChatGPT!剑桥天才少年在Minecraft游戏中爆火回归
  • 一举击败Claude Code!微软提出代码生成黑科技:一键直出36K行代码
  • 刚刚,2025年诺贝尔生理学或医学奖揭晓!三位得主点燃器官移植希望
  • OpenAI入股AMD,股价暴涨35%!奥特曼左手黄仁勋,右手苏姿丰,通吃全球算力
  • 自进化Agent的第三种可能:隐式记忆,不动模型参数,胜过GRPO
  • 真实数据、全链路、可复核:GenoMAS打造更可信的基因分析智能体
  • NeurIPS 2025 | 慕尼黑工业大学提出SIM(3)等变网络:让3D形状补全告别“姿态偏见”,实现跨域泛化
  • 今日迎本世纪「最晚中秋月圆」;雷军:小米17 五天销量破百万;ChatGPT 或添私信聊天功能
  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • 奥特曼:感受不到GPT-5变强,是因为你还不够「专业」
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • 宾大提出F³:事件相机迎来“预测性”表征新范式,光流、分割、深度全SOTA!
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控
  • 陶哲轩联手GPT-5,1小时攻克数学难题!全程无需编码,OpenAI副总惊呼
  • 1亿签约金抢AI大神?谷歌AI元老劝退全网:别再读博了!
  • 三天逆袭,Sora登顶美榜!15秒大片玩疯奥特曼,全网直呼真假难辨
  • 10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!
  • 首位AI女演员出道!好莱坞「天敌」来了,下一代偶像全是代码制造?
  • 南理工提出FMC-DETR:巧用“频率解耦”,航拍小目标检测精度飙升8.2% AP50
  • 网红挑战特斯拉FSD穿越美国出车祸;小米回应「小米汽车突然自己开走」;Sora 登顶美区苹果商城免费榜
  • 刚刚,Anthropic紧急换帅!新任CTO执掌算力命脉,直面OpenAI千亿赌局
  • Gemini 3.0 Pro内测流出,编程实力惊人!下周上线
  • 刚刚,奥特曼首曝:AI取代CEO后,我想去当农民!
  • 华人主导谷歌SLED,论文登顶会!一键让模型学会自救
  • LeCun考虑辞职!Meta AI百亿豪赌引爆「内战」,逼走首席科学家
  • NeurIPS 2025 | RAD:基于大规模3DGS孪生数字世界的端到端强化学习训练策略
  • 小米 17 系列销量超百万;苹果新产品泄密源头疑为越南工厂;低价版 model Y 现身官网代码|极客早知道
  • 刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!
  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场

NeurIPS 2025 | 高通提出GCL:无需额外数据,通用多模态检索迎来“一统江湖”新范式

CV君 2025-10-06 12:48 江苏

一行代码盘活多模态检索,轻松应对图文混合新挑战。

大家好,我是CV君。今天想和大家聊一篇非常实用的论文,它来自高通AI研究院,并已被NeurIPS 2025接收。这篇工作聚焦于一个很现实的问题:我们如何让机器在面对图、文、甚至图文混合的内容时,都能“一视同仁”地进行高效检索?

我们熟悉的CLIP等模型,在图文匹配上做得不错,但如果你让它去检索一个本身就包含图片和文字的网页(比如维基百科词条),效果就常常不尽人意。为了解决这个“通用多模态检索”的难题,高通的研究者们提出了一个名为 通用对比学习(Generalized Contrastive Learning, GCL) 的新方法。

GCL最吸引人的地方在于,它 无需任何额外的数据集构建和标注 ,仅利用现有的图文配对数据,就能显著提升模型在各种复杂模态组合下的检索能力。

  • 论文标题: Generalized Contrastive Learning for Universal Multimodal Retrieval

  • 作者: Jungsoo Lee, Janghoon Cho, Hyojin Park, Munawar Hayat, Kyuwoong Hwang, Fatih Porikli, Sungha Choi

  • 机构: 高通AI研究院 (Qualcomm AI Research)

  • 论文地址: https://arxiv.org/abs/2509.25638

  • 录用会议: NeurIPS 2025

研究背景:多模态检索的“偏科”难题

在信息爆炸的时代,我们需要从海量数据中快速找到目标,而这些数据往往是多模态的。传统的跨模态检索,比如“以文搜图”,已经比较成熟。但现实世界要复杂得多,我们可能需要“以文搜图文并茂的文章”,或者“以图搜包含相似图片和描述的商品页面”。

现有的检索模型,如CLIP,虽然强大,但存在一个“模态鸿沟(modality gap)”问题。简单说,就是模型对纯图片、纯文本很在行,但一旦遇到“图片+文本”的混合体,就有点“蒙圈”,不知道该如何是好。

为了解决这个问题,之前的一些工作(如VISTA)尝试“缺啥补啥”。它们针对特定的检索场景(比如“文搜图文对”),手动构建了新的“三元组”数据集来进行微调。这种方法不仅费时费力,需要精细的数据管理,而且训练出的模型容易“偏科”,对于没见过的新检索场景,泛化能力很差。上图就清晰地展示了这一点,传统方法只能学到特定的几个检索组合(黑色方块),而对其他未见过的组合(白色方块)无能为力。

GCL:一种更通用的对比学习范式

面对上述挑战,GCL提出了一种更优雅、更通用的解决方案。它的核心思想是: 与其为每个场景定制数据,不如教会模型一个通用的对齐法则

GCL的做法非常巧妙。它不依赖任何新的数据集,而是完全基于现有的“图片-标题”配对数据。

具体来说,对于每一个“图片-标题”对,GCL会提取三种不同的嵌入表示:

  1. 图片嵌入 (e_i)

  2. 文本嵌入 (e_t)

  3. 图文融合嵌入 (e_it) :将图片和文本信息融合后得到的表示。

然后,GCL将一个小批量(mini-batch)中所有样本的这三种嵌入全部“扔”进一个统一的表示空间里,进行对比学习。如上图所示,其目标是:

  • 拉近正样本:对于同一个源数据,其图片、文本、图文融合这三种嵌入应该在空间中相互靠近。

  • 推远负样本:来自不同源数据的任何嵌入,都应该相互远离。

通过这种方式,GCL迫使模型去学习一个 统一的、跨越了单一模态界限的表示空间 。在这个空间里,无论是图片、文本还是它们的混合体,只要语义相关,它们的距离就应该很近。这就从根本上解决了“模态鸿沟”的问题,使得模型能够自然地处理任意模态组合的检索任务。

实验效果:简单、通用且高效

论文在M-BEIR、MMEB和CoVR等多个主流的多模态检索基准上,对GCL进行了验证。结果显示,无论是应用在VISTA、CLIP还是轻量级的TinyCLIP模型上,GCL都带来了一致且显著的性能提升。

上表展示了在M-BEIR数据集上的部分结果。最值得关注的一点是,使用GCL和简单图文对(GCL (Ours) + Pairwise)训练的VISTA模型,在平均性能上(34.06)远超使用复杂三元组数据集训练的基线模型(CL + Triplet,25.28)。这充分证明了GCL的优越性: 用更简单的数据,达到了更好的效果

在MMEB数据集上的结果也同样印证了GCL的有效性,在多个任务上都取得了领先的性能。

赋能轻量级模型

GCL的价值不仅在于提升SOTA模型的性能,更在于它能赋能轻量级模型。

如上表所示,参数量仅为120M的TinyCLIP在经过GCL微调后,其在M-BEIR上的检索性能(22.71)甚至超过了参数量更大的预训练VISTA(21.18)和CLIP-SF(14.92)。这意味着,通过GCL,我们可以在移动端或边缘设备等资源受限的场景下,部署更强大、更通用的检索模型。

更紧密的表示空间

为了更直观地理解GCL的作用,研究者们还对嵌入空间的分布进行了可视化。

上图(a)清晰地显示,在应用GCL后(蓝色条),查询和其对应的正确答案(Ground Truth)之间的余弦相似度普遍得到了提升。这表明GCL有效地拉近了不同模态间正样本对的距离,构建了一个更紧密、更对齐的表示空间。

CV君认为,GCL的设计哲学非常值得借鉴。它没有陷入“头痛医头、脚痛医脚”的数据驱动模式,而是回归到对比学习的本质,通过构建一个更泛化的学习目标,让模型自己学会处理多样化的数据。这种“授人以渔”的思路,在当前大模型时代显得尤为重要。

你觉得这个技术未来会用在哪些场景?一起来聊聊吧!

阅读原文

跳转微信打开

联系我们