动态列表

  • 「逆龄大脑药」首次人体试验!奥特曼押注RTR242,返老还童将要成真?
  • 终结CMU霸权,清华首次登顶CSRankings世界第一!北大AI领域夺冠
  • 大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升
  • OpenAI最新硬件2026年底亮相!狂挖苹果20+老将,首款神秘设备或将颠覆iPhone
  • 小扎AI眼镜当场死机,CTO自曝灾难级演示内幕:一个指令干趴自家服务器
  • 当大厂「卷」Agent,腾讯选择「下产线」
  • 陈天桥旗下AI公司MiroMind打造全球顶尖预测型大模型,性能登顶行业基准
  • OpenAI从苹果挖了20多人搞硬件,知情人士:苹果创新缓慢、官僚主义令人厌倦
  • Mini-Omni-Reasoner:实时推理,定义下一代端到端对话模型
  • 北大等提出BEVUDA++,首次解决BEV感知跨域难题,夜间检测性能提升12.9%
  • TPAMI 2025 | DiffMVS/CasDiffMVS:一种置信度感知的扩散模型,实现轻量且准确的多视图立体三维重建
  • iPhone 17 Pro 首日即现划痕;传 OpenAI 联手立讯做 AI 硬件;2025 年搞笑诺贝尔出炉
  • 史上最大升级!7亿周活ChatGPT逼宫,谷歌慌了,这次要把AI整个塞进Chrome
  • 谷歌AI或摘千禧年大奖!华人博士破解百年数学难题,首次捕获奇点
  • 登顶多模态推理榜MMMU!UCSD新方法超越GPT-5、Gemini
  • DeepSeek-R1登顶Nature,8位专家严审通过, 大模型「交卷时刻」来了
  • 18岁天才少年,登上Nature封面!
  • ICML 2025 | 乱写Prompt更给力?删几个Token,上下文学习立刻“反向觉醒”
  • 扩散大语言模型也能飞?DPad免训练加速61倍,全局规划照样稳
  • 北京内推 | 腾讯混元大模型X团队招聘大模型/强化学习方向“青云计划”实习生
  • 华为超节点:用「一台机器」的逻辑,驱动AI万卡集群
  • 5555被拒稿,AC接收但PC强拒,NeurIPS揭榜引争议
  • 超强开源模型Qwen3、DeepSeek-V3.1,都被云计算一哥「收」了
  • 攻克大模型训推差异难题,蚂蚁开源新一代推理模型Ring-flash-2.0
  • 给大模型「精准手术」:美团智能客服提出逆向学习技术精准纠偏,风险控制提升38%
  • 阿联酋大学CVLab IEEE Fellow团队招收2026春季/秋季全奖博士生
  • Meta新作SyncSeal:用深度学习“封印”同步信息,让数字水印不再怕裁剪和旋转
  • 千禧年大奖难题有望突破?AI为流体动力学提供新思路
  • 生物学迎来「ChatGPT时刻」:Evo构建首个AI生成的「基因组」,开启生成式基因设计时代
  • 英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
  • 理解帮助生成?RecA自监督训练让统一多模态模型直升SOTA
  • 投50亿美元,英伟达联手英特尔;谷歌将Gemini加入浏览器;网约车司机平均月入过万
  • GPT-5攻入数学圈,证明定理快过博士生?网友热议AI新角色
  • 阿里王牌Agent横扫SOTA,全栈开源力压OpenAI!博士级难题一键搞定
  • ChatGPT负责人深度复盘,爆4o复活内幕!过快下线是失误,将迭代模型人格
  • 全球首个AI基因组诞生,35亿年生命代码重编程!生物学迎「ChatGPT时刻」
  • 芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
  • 新思科技中国30周年,引领AI智能体工程师重塑芯片设计范式
  • 科大讯飞发布面向东盟的多语言大模型及系列产品,布局中国—东盟AI生态大未来
  • Nature | 20年后你会患上哪些疾病?AI准确预测超1000种疾病患病风险,助力预防
  • 我们还是低估了英伟达
  • 北京内推 | 字节跳动国际电商团队招聘大模型方向算法实习生
  • 少样本不够看?给LLM装上“学习引擎”,上下文学习迈入千样本时代
  • ICCV 2025 | Gap即力量!挖掘模态间隔潜力,MG-CLIP实现持续学习SOTA
  • 谁在拖慢你的RL?别怪显卡,错的可能是你的PG-loss
  • OneSearch,揭开快手电商搜索「一步到位」的秘技
  • 17.38 万的大六座 SUV,吉利用银河 M9 敲碎了友商的心
  • 刚刚,OpenAI在ICPC 2025编程赛上满分登顶,Gemini也达到金牌水平
  • 从一个公众号智能体说起:好用的Agent,究竟需要什么?
  • B站出海的强有力支柱:最新开源文本转语音模型IndexTTS-2.0标志零样本TTS进入双维度时代
  • 腾讯企点营销云发布Magic Agent,营销工具全面AI化
  • 带屏 AI 眼镜登场!Meta「眼镜全家桶」炸街了
  • 通义DeepResearch震撼发布!性能比肩OpenAI,模型、框架、方案完全开源
  • 让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
  • 刚刚,DeepSeek-R1论文登上Nature封面,通讯作者梁文锋
  • 腾讯 AI 的新叙事
  • 传小米 YU7 新车型曝光纽北;李飞飞放出 3D AI 新成果; 49.2%,火山引擎大模型调用份额占半壁江山
  • 小扎豪掷143亿,却换不来AI燃料!数据之争下半场,中国冲出一匹黑马
  • 终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek
  • 我用一张照片,生成了一个能走进去的世界
  • 奥特曼爆料:GPT-5重构彻底一切!一人顶五个团队
  • 最新实测GPT-5-Codex:前端能力碾压,复杂项目轻松搞定,Claude可以扔了!
  • TPAMI 2025 | 弱监督与自监督引领自动驾驶运动预测新范式,用场景分割“脑补”运动,仅需0.01%标注,性能媲美监督方法
  • 南开大学等提出RAM++:从关注“降质”到关注“内容”,实现鲁棒的全能图像恢复
  • 不改参数不重训!CARVE一招纠偏,对比注意力让视觉模型精准聚焦
  • ICML 2025 | AI福尔摩斯来了!LLaVA-ReID多轮发问,行人重识别一步步锁定
  • 博士申请 | 新加坡国立大学CoSTA Lab招收人工智能全奖博士/RA/实习生
  • 清华新作颠覆CoT!ParaThinker并行思考,终结单链推理天花板
  • 没想到,音频大模型开源最彻底的,居然是小红书
  • 6.1B打平40B Dense模型,蚂蚁开源最新MoE模型Ling-flash-2.0
  • 「AI助手」真来了?谷歌牵头推进Agent支付协议AP2
  • 腾讯AI Lab首创RL框架Parallel-R1,教大模型学会「并行思维」
  • 阿里开源通义DeepResearch,性能超OpenAI、DeepSeek旗舰模型
  • 华为发布4+10+N中小企业智能化方案,打通迈向智能世界「最后一公里」
  • LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
  • Cell丨谷歌AI co-scientist联合帝国理工揭开谜团:提出并验证细菌基因转移机制假说
  • 华为首款旅行车 1 小时订单破 5000,余承东再次「封神」?
  • 腾讯、复旦、上海创智学院提出SwiftVideo:首个Continuous-time视频蒸馏加速框架,实现业界最快最高清视频生成
  • 刚刚,李飞飞空间智能新成果震撼问世!3D世界生成进入「无限探索」时代
  • 突破单链思考上限,清华团队提出原生「并行思考」scale范式
  • 刘强东喊话王兴:尊重兴哥,不应是仇人;美机器人公司估值暴涨至390亿美元;iOS 微信支持聊天发实况图|极客早知道
  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • LLM会梦到AI智能体吗?不,是睡着了也要加班
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • EMNLP 2025 | 跨风格不误判!MoSEs用职业写作风格建模,检测AI文本更稳更准
  • 一招打破瓶颈!HyperTree超树规划:AI掌握层级化推理,复杂任务全面突破
  • 北京内推 | 微软Copilot算法团队招聘大模型推理方向研究型实习生
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 从Muon到AdaMuon:下一代优化器能否真正取代Adam?
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」

不要ViT也不要扩散!OneCAT甩掉编码器,统一多模态自回归模型来了

李涵 2025-09-19 22:35 北京

从Patch到像素,一路自回归

©PaperWeekly 原创· 作者 | 李涵

单位 | 上海交通大学博士生

研究方向 | 多模态理解生成一体化

动机

近年来,多模态领域的主流做法是将不同功能的模型“组合”起来使用。一个模型负责理解图像,另一个负责生成图像,还有一个专门用于编辑。

这种“模块化”的设计虽然功能强大,但暴露了两个核心痛点:

第一,流程复杂且缓慢,信息需要在不同模块间传递,导致了严重的延迟;

第二,信息损失严重,图像在被“理解”模块压缩后进行,很多精细的视觉细节就丢失了。即便后续的“统一模型”尝试整合这些功能,但大多仍保留着独立的视觉编码器等组件,没有从根本上摆脱这种信息瓶颈。

为了彻底解决这些问题,我们提出了一个全新的、更符合第一性原理的思路,并基于此构建了 OneCAT 模型。

论文题目:

OneCAT: Decoder-Only Auto-Regressive Model for Unified Understanding and Generation

项目主页:

https://onecat-ai.github.io/

代码地址:

https://github.com/onecat-ai/onecat

Huggingface地址:

https://huggingface.co/onecat-ai/OneCAT-3B

我们认为,一个真正强大的多模态 AI,不应该依赖外部的、零散的组件。因此,OneCAT 采用了极简的纯解码器架构,将语言理解、视觉理解、视觉生成的处理完全统一在同一个基于自回归的 Transformer 内部。

这意味着,它不再需要一个独立的“视觉编码器”来预编码图片或一个独立的 diffusion 来生成图像。

OneCAT 的模态混合专家(Modality MoE)设计,让模型可以智能地理不同类型的信息。另外,我们在 LLM 内部引入了多尺度生成机制,让 OneCAT 在生成图片时能由粗到细、由宏观到微观地逐级构建画面,这不仅极大地提升了生成速度,也保证了最终的图像质量。

OneCAT 探索了一个新的方向:通过更纯粹、更一体化的架构,我们或许能构建出更高效、更强大的下一代通用多模态智能。

▲ 图1. OneCAT 文生图样例,支持多种风格、分辨率、比例的图像生成

OneCAT架构设计:统一而简洁,精准而高效

▲ 图2 OneCAT 架构图

OneCAT 以 Qwen2.5 LLM 为基座,通过四大核心组件实现多模态统一建模:

1. Decoder-only 的统一自回归架构:端到端处理多模态输入

OneCAT 是一个 Decoder-only 的结构,推理阶段摒弃了视觉编码器(ViT)与 VAE tokenizer,转而采用轻量级 Patch Embedding 层直接将原始图像映射为视觉 Token,与文本 Token 共同输入 LLM,实现跨模态的早期融合。

除此之外,OneCAT 采用统一的 LLM 主干网络,基于自回归方式同时处理文本与图像生成,无需额外接入或嵌入 Diffusion 模型即可完成视觉生成任务。

该架构使用统一的基于自回归的负对数似然(NLL)损失函数,实现对文本与图像生成任务的联合训练,保证任务间的一致性。

文本生成沿用标准的下一词元预测(Next Token Prediction,NTP),而图像生成则引入“下一尺度预测”(Next Scale Prediction,NSP)机制,以实现高效的多尺度视觉自回归生成。

  • 理解任务:Patch Embedding 层通过一个 14×14 卷积对图像分块,再经 2×2 像素重组(pixel unshuffle)压缩 Token 数量,最后通过两层 MLP 将通道数对齐至 LLM 隐藏层维度,获得连续视觉 Token;

  • 生成任务:训练阶段使用多尺度 VAE 将目标图像转换为多尺度离散视觉 Token(推理时无需 VAE Tokenizer,仅需 Detokenizer 进行图像重建);

  • 编辑任务:参考图像同样仅通过 Patch Embedding 处理,无需 ViT 或 VAE tokenizer 编码。该设计使视觉 Token 在 LLM 浅层更关注与原始像素相关的 low-level 特征,确保编辑中的像素级一致性;在深层则更偏向高级语义信息,从而实现更准确的指令遵循与语义编辑。

2. 模态专家网络(Modality-MoE)

每个 Transformer 块中的前馈网络(FFN)被扩展为一组模态专属专家:

  • 文本专家(Text. FFN):处理离散视觉 Token,负责语言理解与文本生成;

  • 视觉理解专家(Und. FFN):处理连续视觉 Token,提取视觉相关特征;

  • 视觉生成专家(Gen. FFN):处理离散视觉 Token,负责视觉内容生成。

通过硬路由机制,不同模态的 Token 被定向至对应专家,而共享 QKV 和 Attention 层,既保证模型表达效率,又促进跨模态对齐。

3. 内嵌的多尺度视觉生成能力

OneCAT 引入视觉自回归(Visual AutoRegressive,VAR)中的“下一尺度预测”(Next-Scale Prediction,NSP)机制,实现高效的视觉图像生成。

与 VARGPT 等现有统一模型不同——VARGPT将预训练好的、基于 NSP 的 Transformer 作为视觉解码器嫁接在基于下一词元预测(NTP)的 LLM 之后,并未真正缓解推理阶段的效率瓶颈(视觉 Token 仍需在 LLM 中逐词解码)。

OneCAT 首次将 NSP 机制完全内化于 LLM 中,使原本仅支持 NTP 文本生成的模型同时具备多尺度视觉生成能力,显著提升了推理效率。

此外,OneCAT 提出尺度感知适配器(Scale-Aware Adapter,SAA),使视觉生成专家(Gen. FFN)能够区分并提取不同尺度视觉 Token 的独立信息。该模块动机在于,不同尺度 Token 承载不同粒度信息:低尺度 Token 关注全局光照、色调等低频信息,高尺度 Token 则捕捉局部纹理等细节。

SAA 在 Gen. FFN 基础上引入一组低秩适配器(数量与视觉尺度数一致),实现对多尺度 Token 的区分性处理,支持从粗到细的精准图像生成。

4. 灵活多模态注意力机制:适配不同多模态的任务

OneCAT 为不同模态定制注意力模式,并采用 FlexAttention 来实现训练加速:

  • 文本 Token 使用因果注意力,保持自回归生成一致性;

  • 连续视觉 Token 使用双向注意力,充分捕捉全局的视觉特征;

  • 多尺度离散视觉 Token 使用分块因果注意力,同尺度 Token 可互相可见,不同尺度间则保持因果约束。

▲ 图3 灵活多模态注意力机制

训练策略

OneCAT 的训练面临一个核心挑战:由于模型去除了前置的视觉编码器,转由理解专家(Und. FFN)负责提取视觉特征,而该模块是由文本专家(Text FFN)初始化而来,并不具备像预训练 ViT 那样强大的视觉先验知识。

因此,必须借助大规模图文配对数据对 Und. FFN 进行预训练,以注入足够的视觉感知能力。

类似其他 Encoder-free 的方法中, Mono-InternVL 使用了超过十亿图文对样本(>1B)专门训练视觉理解专家,数据需求极大。

而 EvE 和 VoRA 等方法则通过将 LLM 的中间层特征与预训练的 ViT 进行对齐,以实现视觉知识蒸馏,然而这类方法使用参数量较小(300~500M)的 ViT 作为教师模型去蒸馏参数量更大(3B~7B)的 LLM 时,LLM 的参数空间未能被充分激活,导致蒸馏效率较低。

为解决这一问题,OneCAT 提出了一种基于定制化 MLLM 教师模型的理解能力蒸馏策略。

具体而言,其训练了一个两层的 MLP,将预训练且冻结的 LLM(Qwen2.5)与 ViT(InternViT)连接起来,构成一个 MLLM 作为教师模型。

该教师模型仅需约 10M 图文对即可获得良好的视觉感知能力。之后,冻结整个教师模型,用于蒸馏 OneCAT 中的理解模块——包括 Patch Embedding 层和 Und. FFN,通过对齐教师和学生 LLM 中每一个 Transformer Block 的隐藏层的特征,将视觉知识更高效地注入学生模型。

那么基于此,OneCAT 的整体训练策略分为三个阶段:

1. 第一阶段,先使用 10M 图文对数据训练教师 MLLM 中的 MLP 层,随后进行OneCAT中 expert 的预热训练。使用约 436M 图文对数据对理解部分的 Und. FFN 和 Patch Embedding 进行视觉理解蒸馏,以及 52M 文生图数据对生成部分的 Gen. FFN 进行生成预训练。

该训练阶段中,Text. FFN、Attention、QKV 层均冻结,保证模型原有的文本能力不受影响

2. 第二阶段,解锁 OneCAT 全部参数,在文生图、图像编辑、图像理解、纯文本等多个任务下进行联合训练。总共约 70M 多模态指令数据、60M 图像生成数据和 40M 纯文本数据。

3. 第三阶段,进行高质量微调,使用了约 11M 多模态指令数据、3M 图像生成数据和 2M 纯文本数据,以进一步提升模型整体性能。

▲ 图4 三阶段训练示意图

▲ 表1 三阶段训练参数

性能验证

1. 多模态理解

▲ 表2 多模态理解性能对比. A-LLM 为 LLM 激活参数,Vis 为视觉编码器或 VAE tokenizer 参数

▲ 表3 多模态理解性能对比. A-LLM 为 LLM 激活参数,Vis 为视觉编码器或 VAE tokenizer 参数

在多项多模态理解任务中,与现有其他 Encoder-free 理解模型相比,OneCAT-3B 在多个基准测试中均取得了最先进的性能表现。

在 OCR 相关任务中,其在 AI2D(77.8)、ChartQA(81.2)、InfoVQA(64.8)和 DocVQA(91.2)等数据集上表现优异;在通用多模态理解任务中,如 MME-S(2051)、MMBench-en(78.8)、MM-Vet(52.2)和 MathVista(61.7)上也均达到领先水平。

同时,与当前主流的多模态统一模型相比,OneCAT-3B 在激活参数量更少的情况下,依然在多项基准测试中表现优于依赖视觉编码器或 VAE tokenizer 的模型,例如基于 SigLIP 的 Janus-Pro-7B 和 SigLIP2 的 Tar-7B。

相比基于视觉编码器的理解模型(如 Qwen2.5-VL),OneCAT-3B 在 MMBench-en(78.8 vs 79.1)、MathVista(61.7 vs 62.3)和 DocVQA(91.2 vs 93.9)等任务上的表现与其较为接近,但在其他部分基准上仍存在一定差距。

这主要源于 OneCAT 在多模态理解任务中所使用的预训练与微调数据在规模和质量上仍显不足——总训练 token 量为 0.5T,而 Qwen2.5-VL 则达到了 4T。我们相信,通过后续扩大高质量训练数据规模,这一差距有望得到弥补。

2. 多模态视觉生成

在文生图基准上,OneCAT 在 GenEval、DPG 上进行了验证。OneCAT-3B 在不进行 prompt 重写的情况下在 GenEval 上取得了 SOTA 的分数(0.90),同时在 DPG 取得了 84.53 的优秀分数,优于 Janus-Pro-7B,Tar-7B,BLIP3o-8B 等模型。

在图像编辑基准 ImgEdit 上,OneCAT-3B 取得了 3.43 的评分,其中在背景替换(Background),风格迁移(Style),属性调节(Adjust)等子项上取得了领先表现。

▲ 表4 文生图 GenEval 性能对比

▲ 表5 文生图 DPG-Bench 性能对比

▲ 表6 图像编辑 ImgEdit-Bench 性能对比

效率分析

相比于其他统一多模态模型,OneCAT 的核心优势在于其高效推理设计:通过移除视觉编码器以加速视觉理解,并引入多尺度视觉自回归生成机制,同时在推理阶段省去 VAE tokenizer,显著提升文本到图像生成与编辑的效率。

在图像理解方面,相比于 Qwen2.5-VL-3B,OneCAT-3B 在不同分辩率图像输入的情况下,首 token 生成时间(TTFT)大幅缩短,特别是高分辨率输入(1792×1792)下,延迟从 0.583 秒降至 0.225 秒,降幅达 61.4%,提速效果尤为显著。

在视觉生成方面,无论是文本到图像生成还是图像编辑,OneCAT 均实现了显著的推理加速。

相比 BAGEL-7B 生成 512×512 和 1024×1024 图像分别所需的 8.76 秒和 26.29 秒,OneCAT-3B 仅需 1.40 秒和 2.85 秒,耗时约为前者的 1/6 至 1/9。

此外,从 512 到 1024 分辨率的生成时间仅增加约一倍,展现出良好的可扩展性,为未来支持更高分辨率图像生成奠定了基础。

▲ 表7 多模态理解效率对比

▲ 表8 图像生成效率对比

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们