动态列表

  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出

榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平

让你更懂AI的 2025-09-30 14:03 北京

让“文档智能”不再躲在Demo里

现有多模态大模型(LMMs)在复杂多样的 OCR 任务中表现如何?华中科技大学、华南理工大学、阿德莱德大学和字节跳动联合推出新一代 OCR 评测基准 OCRBench v2,并发布最新私有数据榜单(2025 年 9 月)。

Seed1.6-vision、Qwen3-Omni-30B-A3B-Instruct 和 Gemini-2.5-Pro 包揽了中英榜单前三名,但即便是这些最先进的模型,其平均分也仅勉强达到 “60 分”的及格线,这表明它们仍难以完全满足复杂多样的真实应用需求。

最新榜单发布

OCRBench v2 榜单测试范围广泛,囊括了从 2023 年至 2025 年间的全球 58 个主流 LMMs。

其中既有来自谷歌(Gemini 2.5 Pro)、字节跳动(Seed1.6-vision)、OpenAI(GPT-5)的闭源模型,也有来自阿里巴巴(Qwen-VL)、上海人工智能实验室(InternVL)的优秀开源 LMMs,可以看到 LMMs 在 OCR 任务上的表现有着显著进步。

与此同时,榜单还给出了 LMMs 在文本定位、知识推理等 8 个核心能力维度的细分指标,直观量化了模型在各类应用场景上的真实表现。此外,榜单也收到了包括 NVIDIA 等前沿研究团队的重视,并进行了深度测评合作。

榜单将按季度更新,持续追踪领域的前沿进展。最新榜单结果如下:

▲ 图1. OCRBench v2私有数据英文榜单(25年9月)

▲ 图2. OCRBench v2私有数据中文榜单(25年9月)

什么是OCRBench v2?

以往针对 LMMs 的 OCR 评测基准主要关注基础的文字识别任务,但随着大模型的普及,现实世界的 OCR 需求已超越简单的“读出文字”。文档中的表格、图表、手写笔记、复杂的版式,文字图像的文本定位,以及基于文本的推理,都是 LMMs 面临的挑战。

然而,现有评测基准大多任务单一、场景有限,导致模型得分迅速饱和,难以真实反映其在复杂应用中的能力。为此,OCRBench v2 旨在提出一个综合全面的 OCR 测评基准,评估 LMMs 在面对文字定位、复杂场景理解与推理等广泛 OCR 任务时的真实表现。

OCRBench v2 涵盖 23 种细分任务,图 3 展示了这些任务的典型样例,覆盖了实际应用中常见的 OCR 需求场景。

OCRBench v2 将这些任务精心划分为 8 个核心能力维度:文本识别、文本定位、文本检测识别、关系抽取、元素解析、数学计算、视觉文本理解和知识推理。评价榜单中分别展示了模型在各个能力维度上的具体表现。

OCRBench v2 的公开数据集包含来自 80 余个学术数据集及部分自有数据的 1 万条高质量 QA,并经过人工审核,确保覆盖真实 OCR 应用中的多样化场景。

此外,OCRBench v2 还包括了独立的私有数据,这部分数据包含人工采集并标注的 1500 条 QA,其任务设置和场景覆盖范围均与公开数据保持一致。

实验发现,公开数据与私有数据榜单排名具有较高的一致性(详见论文分析),这证明了 OCRBench v2 任务设计、数据构造和评价指标的合理性,体现了其在衡量 LMMs 现有局限方面的重要价值。

▲ 图3. OCRBench v2涵盖任务的典型样例

榜单深度解析

观察表格可见,国产大模型正在快速进步。国产模型首次登顶 OCRBench v2 榜单,Seed1.6-vision 超越 Gemini-2.5-Pro 等顶尖商用模型,获英文榜冠军、中文榜亚军。

而开源阵营中,Qwen3-Omni-30B-A3B-Instruct 分别取得英文榜第二名和中文榜第三名的好成绩,此外,InternVL、Qwen-VL、SAIL-VL、Ovis 等系列国产模型也表现突出,与顶尖模型差距不大。

通过分析模型的各项核心能力表现可以发现,LMMs 普遍存在“偏科”现象,没有一个模型能在所有核心能力上都表现出色,即便是排名靠前的模型,在英文和中文任务中的平均分也仅约为 60 分(满分 100)。

此外,各个模型的擅长方面也略有不同,例如 Gemini-2.5-Pro 等商用模型在计算类题目上,具有明显优势,展示出其强大逻辑推理能力;Llama-3.1-Nemotron-Nano-VL-8B-V1 则凭借其强大的文字定位能力,取得英文榜单第四名的成绩。

而大多数模型在基础的文本识别上表现尚可,但在文本定位(Referring)、文本检测识别(Spotting)和元素解析(Parsing)等对细粒度空间感知与结构化理解要求高的任务上,得分普遍偏低。

例如,即使是榜单冠军 Seed1.6-vision,在 Spotting 得分也仅为 38.0,这也限制了其在场景文字、图文混杂文档等真实场景下的应用效果。

此外,通过对比中英文榜单,可以发现许多模型的多语言能力并不均衡。例如 Llama-3.1-Nemotron-Nano-VL-8B-V1 在英文榜单上高居第四名(平均分 56.4),但在中文榜单上仅排第 31 名(平均分 40.1),显示其在英文场景更具优势,这可能与数据分布或训练策略相关。

相对地,中文榜单前 10 名中,有 8 个国产模型,体现了国产模型在中文理解方面具有一定优势。

与此同时,尽管闭源模型保持领先,但优秀开源模型已具备强大竞争力。从榜单来看,Gemini 系列、GPT5、Seed1.6-vision 等闭源模型的整体性能更胜一筹。

但 Qwen-Omni、InternVL、SAIL-VL、Ovis 等系列的开源模型已具备强劲竞争力,英文榜单前 10 的模型中有 5 个为开源模型,而中文榜单前 10 的模型中,有 7 个为开源模型。开源模型在诸如文字定位、元素提取、视觉文字理解等类型任务上也能够达到顶尖水平。

OCRBench v2 现已收录于 NeurIPS 2025(Datasets and Benchmarks Track)。OCR 能力已成为 LMMs 在处理实际应用时的“识别+理解+推理”一体化能力的重要组成部分,因此,端到端地评测各类文字相关的任务,才能够更真实反映 LMMs 在富文本场景中的实际表现。

此外,OCRBench v2 已集成到 LMM-eval(https://github.com/EvolvingLMMs-Lab/lmms-eval)和 VLMEvalKit(https://github.com/open-compass/VLMEvalKit)等权威 LMMs 测评平台,帮助社区研究者快速完成评测与结果对比。

OCRBench v2 的前作 OCRBench 是首个大规模的文字大模型评测基准,自发布以来就有着广泛的社区影响力,被图灵奖得主 Yann LeCun(Cambrian-1,NIPS 2024 Oral)、Serge Belongie 等知名学者引用,并被收录于司南、LMMs-Eval 等多个权威评测榜单,全球研究团队访问使用超过11万次。

未来展望

该工作展示了现有 LMMs 在复杂多样的 OCR 任务上的表现,但值得一提的是,目前该数据集的研究对象仍未涵盖多页、多文档、长视频等超长文字内容数据,这类数据更加考验模型的长上下文理解能力。

此外,当前工作未纳入交互式智能体任务,这类任务衡量模型在网页或APP等富文本交互环境中,主动对任务进行分解与执行的能力。

与此同时,后续评估工作也应考量模型的可解释性,帮助衡量模型在输出视觉证据、展现完整推理链条,和表达不确定性等方面的能力,以提升模型在决策过程的可靠性。在全球化的背景下,模型对小语种文字内容的识别与理解能力,也应被视为重要的评价指标。

相关资源:

论文链接(arXiv):

https://arxiv.org/abs/2501.00321

项目主页(GitHub):

https://github.com/Yuliang-Liu/MultimodalOCR

OCRBench v2 私有数据榜单:

https://99franklin.github.io/ocrbench_v2

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们