动态列表

  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出

DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”

CV君 2025-09-30 16:05 江苏

AI还想“歪打正着”?清华新作DeFacto,让模型答案有据可查

论文标题:DeFacto: Counterfactual Thinking with Images for Enforcing Evidence-Grounded and Faithful Reasoning

作者团队:Tianrun Xu, Haoda Jing, Ye Li, Yuquan Wei, Jun Feng, Guanyu Chen, Haichuan Gao, Tianren Zhang, Feng Chen

作者机构:清华大学,中关村学院,新疆大学,福州大学,中国科学院自动化研究所

论文地址https://arxiv.org/abs/2509.20912

代码https://github.com/tinnel123666888/defacto

数据集

https://huggingface.co/datasets/tinnel123/defacto_dataset

前言

大家好!今天CV君想和大家聊一个非常“接地气”又至关重要的话题:如何治愈多模态大模型(MLLM)的“幻觉”问题。

我们都知道,现在的AI看图说话已经很溜了,但它们有时会“一本正经地胡说八道”。比如,你问它图片里路标上的限速是多少,它可能会自信地告诉你一个数字,但这个数字其实来自旁边商店的电话号码。这种看似答对了,但推理过程完全错误的现象,就是一种更隐蔽、更危险的幻觉。

来自清华大学等机构的研究者们,将这种现象精准地定义为 “伪事实(Fake-Fact)”幻觉,并提出了一套名为DeFacto的全新训练框架来“治愈”它。DeFacto这个名字起得非常妙,既有“事实上”的含义,又谐音“去伪存真”(De-Fake),直指问题核心。

“伪事实”幻觉:两种典型的AI“犯病”症状

作者一针见血地指出了当前模型存在的两种典型错误模式:

  1. 错误定位失败 (Mislocalized Failure) :模型压根就没找到正确的证据区域。比如左边的公园场景,问叶子是什么树的,模型却去关注远处的背景或者不相关的落叶,自然答不对。

  2. 虚假正确性 (Spurious Correctness) :这是最迷惑人的情况。模型看错了地方,但“碰巧”答对了。比如右边的马路场景,问不戴头盔的乘客是否安全,模型关注的却是地面或者其他戴了头盔的骑手,但基于常识给出了“不安全”的正确答案。这种“歪打正着”的回答,恰恰说明模型并没有真正理解图像内容,其推理过程是不可靠的。

CV君认为,这种对幻觉问题的细致分类和深入剖析,是这篇工作非常重要的一个前提贡献。

DeFacto疗法:先找证据,再回答

为了解决上述问题,DeFacto框架的核心思想是:强制模型在回答问题之前,必须先明确指出它所依据的图像证据。

如上图所示,整个框架要求模型以结构化的格式输出,包含三个字段:<bbox>(包含一个或多个证据边界框),<think>(简短的思考过程),和<answer>(最终答案)。这种设计将推理路径与最终答案紧密绑定。

整个框架基于强化学习(Reinforcement Learning),通过一个精心设计的多目标奖励函数和一套互补的训练范式来引导模型的学习过程。

三位一体的训练范式

DeFacto的训练包含了三种互补的样本类型,共同约束模型的行为:

  • 正向样本 (Positive) :给模型完整的图片和问题。模型需要选对证据区域并答对问题,才能获得奖励。

  • 反事实样本 (Counterfactual) :这是DeFacto的精髓。研究者们会自动地将图片中的正确证据区域(R+)抹掉,然后用同样的问题去问模型。此时,由于关键信息缺失,模型被期望回答“不知道(Unknown)”来主动放弃回答。

  • 随机遮挡样本 (Random-masking) :为了防止模型“耍小聪明”(比如看到有遮挡就无脑回答“不知道”),研究者们还会随机遮挡一些与问题无关的区域(R-)。在这种情况下,模型仍然需要像处理正向样本一样,找到正确的证据并给出答案。

为了自动化地构建这三种样本,作者开发了一个包含约 10万张图片 的反事实数据集。其构建流程分为三步:

  1. 描述符提取:使用一个强大的MLLM(如Qwen2.5-VL)解析问题,提取出关键的文本描述符(如“红色的杯子”)。

  2. 证据定位:结合区域提议网络(RPN)、OCR和开放词汇检测器(DINO-X),在图片中定位与描述符匹配的证据区域。

  3. 实例生成:根据定位到的证据区域,自动生成正向、反事实和随机遮挡三种训练实例。

精心设计的奖励函数

强化学习的灵魂在于奖励函数。DeFacto的奖励函数包含了三个部分,上图的曲线也展示了训练过程中各项奖励稳步提升的趋势:

a. 答案正确性奖励 (Answer Reward) :在正向/随机样本中答对问题,或在反事实样本中回答“Unknown”,则获得奖励。

b. 格式一致性奖励 (Format Reward) :输出格式是否规范(比如是否包含了<bbox>, <think>, <answer>标签)?

c. 区域选择一致性奖励 (Region Selection Reward) :选择的证据区域是否与真实证据区域(R+)重合度高?

通过这套组合拳,DeFacto迫使模型必须将它的答案牢牢地“锚定”在视觉证据上,从而实现真正意义上的“有据可查”。

疗效如何?数据说话

DeFacto框架在多个通用及文档、场景文字类的VQA基准测试中都取得了显著的效果提升。

在通用VQA基准测试上(上表),相较于强大的Qwen2.5-VL基线模型,DeFacto带来了全方位的巨大提升。例如,在OKVQA上提升了13.5%,在GQA上提升了28.8%,在VSR上更是提升了惊人的68.1%!这证明了DeFacto在增强模型的组合推理和常识推理能力方面非常有效。

在更具挑战性的文档和场景文字VQA任务中(上表),DeFacto同样表现出色,在InfoVQA、DeepForm、WTQ等多个数据集上都取得了超过10%的性能增益。

消融实验

作者还通过消融实验(上表)证明了DeFacto框架中每个组成部分的重要性。结果显示,完整的DeFacto框架(CF reward + GRPO)相比于仅使用SFT(监督微调)或不带反事实奖励的GRPO,性能有质的飞跃。例如,仅引入反事实监督(SFT, CF alignment)就比标准SFT在VQAv2上提升了5.3%,在OKVQA上提升了13.7%。而最终完整的DeFacto框架,相比于没有反事实奖励的GRPO,在OKVQA上更是高出11.1%,充分说明了“反事实”训练和区域级奖励在增强模型推理忠实性上的关键作用。

总结

总的来说,DeFacto这项工作为解决MLLM的幻觉问题,特别是“伪事实”幻觉,提供了一个非常新颖且有效的思路。它通过引入反事实思维和强化学习,成功地在模型的“思考过程”和“最终答案”之间建立了一座名为“视觉证据”的桥梁。

CV君认为,这项研究的意义不仅在于提升了模型在各个榜单上的分数,更重要的是,它朝着构建更可信、更可解释的AI迈出了坚实的一步。当AI的回答不仅“正确”,而且“有理有据”时,我们才能真正地信任它、依赖它。

对于作者的这个思路,也欢迎大家来交流!

阅读原文

跳转微信打开

联系我们