动态列表

  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线
  • GPT-5冷酷操盘,狼人杀一战封神!七大LLM狂飙演技,人类玩家看完沉默
  • 柳叶刀惊曝:AI让医生6个月「废功」20%,癌症检出率崩盘!
  • 硅谷炸雷!xAI创始老哥携机密叛逃OpenAI,马斯克:他上传了整个代码库
  • 143亿美金买来一场空!小扎向谷歌OpenAI低头,史上最大AI赌注失速
  • 北京内推 | 微软DKI大模型团队招聘大模型/Agent/广告推荐方向研究型实习生
  • 性能超越GPT-5,成本减30%!大模型装上智能路由,Avengers-Pro刷新性价比极限
  • EMNLP 2025 | 看图就越狱!视觉上下文攻击:“图像语境”一招撬开多模态大模型
  • 动态压缩CoT!浙大×蚂蚁发布LightThinker,让模型推理“轻起来”
  • POSE:100倍加速视频生成,腾讯混元提出单步对抗平衡蒸馏框架
  • 那天,AI大模型想起了,被「失忆」所束缚的枷锁
  • LLM也具有身份认同?当LLM发现博弈对手是自己时,行为变化了
  • AI智能体是否能预测未来?字节跳动seed发布FutureX动态评测基准
  • 混乱、内耗、丑闻:Meta考虑向Google、OpenAI低头
  • 这个荒诞网站藏着30个AI「鬼点子」,但我觉得它活不长
  • R-Zero 深度解析:无需人类数据,AI 如何实现自我进化?
  • DeepSeek、GPT-5带头转向混合推理,一个token也不能浪费
  • CodeAgent 2.0 时代开启|GitTaskBench,颠覆性定义代码智能体实战交付新标准

ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!

组委会 2025-09-06 11:38 江苏

大赛简介

第七届 长时视频目标分割挑战赛(Large-Scale Video Object Segmentation Challenge, LSVOS) 将于 ICCV 2025 期间在美国夏威夷举办!

Workshop网站:https://lsvos.github.io/

作为视频理解领域最具影响力的赛事之一,LSVOS 致力于推动 像素级视频目标分割 的研究与应用。今年比赛共设立 三个赛道

  • 赛道1 [NEW🔥] Complex VOS (MOSEv2)

  • 赛道2 Classic VOS (MOSEv1 + LSVOS)

  • 赛道3 Referring VOS (MeViS)

其中,全新推出的 MOSEv2 赛道是本届赛事的最大亮点,将大幅提升挑战难度,更贴近真实世界应用。目前,三个挑战赛的数据集均已开放下载,测试提交入口也已开放,欢迎参赛者自由测试各种方法!

赛道1:MOSEv2(More Complex VOS, 新赛道🔥🔥🔥)

背景与动机

随着深度学习技术的进步,视频目标分割(VOS)方法在 DAVIS 等传统基准上已取得超过 90%的性能,SAM2 等基础模型的出现进一步提升了显著目标的分割能力。然而,这是否意味着现有方法已能有效处理真实场景中的复杂目标?为了回答这一问题,我们在MOSEv1 基础上提出了更具挑战性的视频分割基准 MOSEv2 [1]。该数据集包含 5024 个视频和超过 70 万帧高质量标注,涵盖 200 个目标类别,系统引入了目标消失与重现、严重遮挡、小目标、恶劣天气、低光照、伪装和非实体目标、场景切换、知识依赖等复杂挑战。实验表明,包括 SAM2 在内的先进方法在该数据集上性能显著下降(仅 50.9%),揭示了现有模型在真实复杂场景中的局限性。

新挑战场景

如上所示,MOSEv2 延续了 MOSEv1 的 遮挡、目标消失与重现、拥挤小物体 等难点,同时对更加深刻了这一些属性,此外还引入了更多真实世界中的复杂因素:

  • 🌧️ 恶劣天气(雨、雪、雾)

  • 🌙 低光环境(夜晚、水下)

  • 🎬 多镜头序列(跨场景视频)

  • 🥷 伪装目标(与背景高度融合)

  • 🪞 非物理目标(阴影、反射)

  • 📖 知识依赖场景(需要 OCR、物理常识才能理解)

通过引入上述的挑战,使得 MOSEv2 成为了用于评估分割模型在真实场景中的“试金石”

数据集具体分析

总体分析

MOSEv2 在现有视频分割数据集中(除 SA-V 外)拥有 最大的数据规模,视频数量相比 MOSEv1 提升近 两倍。同时,它具有 最高的目标消失率(61.8%)再现率(50.3%)。此外,我们还统计了每个目标在首帧中对应的相似干扰物(#Distractors)平均数量高达 13.6,这一数值远超其他数据集,进一步凸显了 MOSEv2 在复杂场景建模上的挑战性。

物体类别

如上图所示,MOSEv2 (200) 相较于 MOSEv1 (36) 引入了更多的类别,包含更多困难类别,例如伪装物体 (98),影子 (125)等非实体目标类别。

遮挡程度

在评估目标遮挡程度时,传统的 BOR 指标在某些情况下存在不足,例如当物体边缘仅发生相切时,它并不能准确刻画遮挡程度。为此,MOSEv2 中引入了两个新的衡量指标:

  • AOR:基于 amodal segmentation,利用预测的 amodal mask 外推物体的不可见部分;

  • MLLMOR:基于多模态大模型(MLLM),通过自然语言 prompt 来评估 mask 的遮挡程度。

实验结果显示,MOSEv2 在 mBOR、mAOR 和 mMLLMOR 三项指标上均显著高于其他所有数据集。相较于 MOSEv1 的 36.4,MOSEv2 的遮挡水平提升至 47.0,充分证明了其在遮挡复杂性上的显著增强。

掩码大小以及视频长度

MOSEv2 的目标整体更加微小,其中约 **50.2% 的掩码面积不足图像的 1%**,对检测与分割提出更大挑战。视频时长方面,MOSEv2 的平均长度达到 93.2 帧/视频,显著长于 MOSEv1 的 60.6 帧/视频,而最长的视频更是达到 7,825 帧(约 26 分钟),充分体现了其在长时序建模上的难度。

复杂天气

MOSEv2 引入了更多极端天气与复杂场景,补充了 MOSEv1 中未曾涵盖的环境因素。其中包括 暴雨(142 )、雪天(73 )、雾天(60 ) 以及 灾害场景(50 ),显著提升了数据集在真实世界条件下的多样性与挑战性。

挑战属性分析

我们在 MOSEv2 中定义了 15 种实例序列属性,以系统刻画数据集的多样性和复杂性。与 MOSEv1 相比,MOSEv2 在多种挑战场景下的覆盖度大幅提升:例如,包含 遮挡(OCC) 的视频从 2,100 增至 4,931,消失-重现(DR) 从 1,243 增至 5,076,复杂环境(CE) 从 330 增至 1,462,长时序(LD) 从 23 增至 224。此外,MOSEv2 还引入了全新的属性:新类别(NC,609 个实例)多镜头序列(MS,277) 以及 知识依赖(KD,256)。这些属性的组合不仅全面提升了任务的复杂度,也更贴近真实世界的应用场景,为研究者提供了更严格的基准,用于评估模型在多样化复杂条件下的鲁棒性。

评价指标

在 MOSEv2 中,我们针对真实复杂场景的特点,对传统指标进行了扩展和改进,使评估更加公平、全面:

  • Ḟ(改进的边界一致性指标):在传统 F score 的基础上引入 自适应边界阈值,根据目标面积动态调整,避免小目标被过度膨胀。例如,在评估像筷子这样的小物体时,传统 F score 即使预测完全错误也可能得到较高分数,而 Ḟ 能够更准确地反映预测质量,从而更公平地评估不同尺度目标的边界精度。

  • J&Ḟ:结合区域和边界表现,被选为 MOSEv2 的主要评估指标,更能体现模型在复杂环境下的整体能力。

此外,考虑到 MOSEv2 中目标频繁 消失(Disappear)重现(Reappear) 的特性,我们进一步设计了专门的子指标:

  • J&Ḟ_d:评估模型在目标消失时是否能正确抑制预测;

  • J&Ḟ_r:评估模型在目标重现时能否成功重新识别。

这一设计的动机在于,有些模型在遇到困难场景时倾向于预测 空 mask,从而在标准 J、F 评估中“钻空子”,获得虚高分数。通过将 消失重现 解耦评估,MOSEv2 能更有效地区分模型的真实表现,防止“空预测”攻击,同时考察其在 遮挡抑制目标恢复 两方面的综合能力。

实验分析

我们对5种不同设置下的20种代表性VOS方法进行了基准测试,并观察到一致的性能下降。其中对于 Mask 作为初始化情况下的 VOS 结果如下所示:

在 MOSEv2 上,几乎所有方法的性能相比 DAVIS、MOSEv1 等传统基准都出现了大幅下降,其中传统基准上普遍超过 80–90% 的 J&F 分数,在 MOSEv2 上通常只有 30–50%。其中,即便是目前最强大的基础模型 SAM2-L,综合指标 J&Ḟ 也仅有 50.9,远低于其在其他数据集上的表现。尤其在 目标重现(J&F_r) 场景下,所有方法得分都不足 35%,凸显出现有模型在频繁消失与再现的复杂场景中仍存在显著短板。这些结果充分说明了 MOSEv2 的高难度与挑战性,也是检验模型鲁棒性和泛化能力的重要基准。同时我们在论文中也给出来在其他的 setting 以及任务上的分析,欢迎读者前去阅读。

参赛模型建议

针对当前方法的不足,本次参赛的用户以及未来的研究人员可以考虑以下潜在的优化路径:

  • 鲁棒的再识别机制:提升在目标消失与再次出现情况下的稳定性。

  • 遮挡处理能力:增强模型对部分或严重遮挡目标的跟踪效果。

  • 拥挤与小目标场景适应性:优化在密集人群和微小目标条件下的追踪性能。

  • 罕见类别的泛化能力:提高对长尾类别或罕见目标的识别与跟踪表现。

  • 环境鲁棒性:增强在光照、天气、背景变化等复杂环境下的稳健性。

  • 多镜头视频处理:支持跨镜头、跨场景的连续跟踪。

  • 知识驱动的跟踪:结合先验知识或外部知识库,以提升复杂语义目标的识别能力。

数据集相关链接

赛道2:复杂场景视频目标分割(VOS)

MOSE(复杂场景视频目标分割)聚焦于复杂环境下的视频目标分割问题,旨在推动这一领域的研究与应用。

本次大聚焦于配套的MOSE数据集。该大规模数据集包含2149个视频片段和5200个目标,共有431,725个高质量的目标分割掩码。视频分辨率为1920×1080,视频长度从5秒到60秒不等。MOSE数据集的显著特点是其复杂的场景,包括目标的消失和重现、不显眼的小物体、严重的遮挡以及拥挤的环境等。同时,该赛道也包含长时间分割数据集LVOS的内容,专注于长时间视频的分割。

相比于上一届比赛,本届比赛的测试数据中将会有全新场景加入,提供更加丰富、更加有挑战性的数据

赛道3:基于动作描述的指向性视频分割(MeViS)

MeViS(基于动作描述的指向性视频分割)赛道也同期举行。

本次挑战赛的重点是基于动作描述的指向性视频分割,即根据描述物体运动的句子来识别并分割视频内容中的目标物体。

MeViS数据集是此次比赛的重要组成部分,包含2006个视频片段和443,000个高质量的目标分割掩码,共有28,570句描述8,171个复杂环境下物体运动的句子。

在本届赛事中,MeViS赛道也会加入更加有挑战性的全新的场景和视频类别。

阅读原文

跳转微信打开

联系我们