动态列表

  • GPT-5攻入数学圈,证明定理快过博士生?网友热议AI新角色
  • 阿里王牌Agent横扫SOTA,全栈开源力压OpenAI!博士级难题一键搞定
  • ChatGPT负责人深度复盘,爆4o复活内幕!过快下线是失误,将迭代模型人格
  • 全球首个AI基因组诞生,35亿年生命代码重编程!生物学迎「ChatGPT时刻」
  • 芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
  • 科大讯飞发布面向东盟的多语言大模型及系列产品,布局中国—东盟AI生态大未来
  • Nature | 20年后你会患上哪些疾病?AI准确预测超1000种疾病患病风险,助力预防
  • 我们还是低估了英伟达
  • 谁在拖慢你的RL?别怪显卡,错的可能是你的PG-loss
  • ICCV 2025 | Gap即力量!挖掘模态间隔潜力,MG-CLIP实现持续学习SOTA
  • 少样本不够看?给LLM装上“学习引擎”,上下文学习迈入千样本时代
  • 北京内推 | 字节跳动国际电商团队招聘大模型方向算法实习生
  • OneSearch,揭开快手电商搜索「一步到位」的秘技
  • 17.38 万的大六座 SUV,吉利用银河 M9 敲碎了友商的心
  • 刚刚,OpenAI在ICPC 2025编程赛上满分登顶,Gemini也达到金牌水平
  • 从一个公众号智能体说起:好用的Agent,究竟需要什么?
  • B站出海的强有力支柱:最新开源文本转语音模型IndexTTS-2.0标志零样本TTS进入双维度时代
  • 腾讯企点营销云发布Magic Agent,营销工具全面AI化
  • 带屏 AI 眼镜登场!Meta「眼镜全家桶」炸街了
  • 通义DeepResearch震撼发布!性能比肩OpenAI,模型、框架、方案完全开源
  • 让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
  • 刚刚,DeepSeek-R1论文登上Nature封面,通讯作者梁文锋
  • 腾讯 AI 的新叙事
  • 传小米 YU7 新车型曝光纽北;李飞飞放出 3D AI 新成果; 49.2%,火山引擎大模型调用份额占半壁江山
  • 小扎豪掷143亿,却换不来AI燃料!数据之争下半场,中国冲出一匹黑马
  • 终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek
  • 我用一张照片,生成了一个能走进去的世界
  • 奥特曼爆料:GPT-5重构彻底一切!一人顶五个团队
  • 最新实测GPT-5-Codex:前端能力碾压,复杂项目轻松搞定,Claude可以扔了!
  • TPAMI 2025 | 弱监督与自监督引领自动驾驶运动预测新范式,用场景分割“脑补”运动,仅需0.01%标注,性能媲美监督方法
  • 南开大学等提出RAM++:从关注“降质”到关注“内容”,实现鲁棒的全能图像恢复
  • 不改参数不重训!CARVE一招纠偏,对比注意力让视觉模型精准聚焦
  • 博士申请 | 新加坡国立大学CoSTA Lab招收人工智能全奖博士/RA/实习生
  • 清华新作颠覆CoT!ParaThinker并行思考,终结单链推理天花板
  • 没想到,音频大模型开源最彻底的,居然是小红书
  • 6.1B打平40B Dense模型,蚂蚁开源最新MoE模型Ling-flash-2.0
  • 「AI助手」真来了?谷歌牵头推进Agent支付协议AP2
  • 腾讯AI Lab首创RL框架Parallel-R1,教大模型学会「并行思维」
  • 阿里开源通义DeepResearch,性能超OpenAI、DeepSeek旗舰模型
  • 华为发布4+10+N中小企业智能化方案,打通迈向智能世界「最后一公里」
  • LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
  • Cell丨谷歌AI co-scientist联合帝国理工揭开谜团:提出并验证细菌基因转移机制假说
  • 华为首款旅行车 1 小时订单破 5000,余承东再次「封神」?
  • 腾讯、复旦、上海创智学院提出SwiftVideo:首个Continuous-time视频蒸馏加速框架,实现业界最快最高清视频生成
  • 刚刚,李飞飞空间智能新成果震撼问世!3D世界生成进入「无限探索」时代
  • 突破单链思考上限,清华团队提出原生「并行思考」scale范式
  • 刘强东喊话王兴:尊重兴哥,不应是仇人;美机器人公司估值暴涨至390亿美元;iOS 微信支持聊天发实况图|极客早知道
  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • LLM会梦到AI智能体吗?不,是睡着了也要加班
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • 北京内推 | 微软Copilot算法团队招聘大模型推理方向研究型实习生
  • EMNLP 2025 | 跨风格不误判!MoSEs用职业写作风格建模,检测AI文本更稳更准
  • 一招打破瓶颈!HyperTree超树规划:AI掌握层级化推理,复杂任务全面突破
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 从Muon到AdaMuon:下一代优化器能否真正取代Adam?
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」
  • 突发!苹果AI大失血:Siri前掌门离职,核心团队被挖角,新功能延期到2026
  • 对Transformer说不!清华刘嘉:2045数字永生降临|新智元十年峰会
  • 急诊室生死逆转!酒后呕吐,GPT-5一眼锁定食管穿孔
  • 周周996,顿顿预制餐!美国AI界00后卷疯了: 住「棺材房」一周工作92小时
  • 学历越高,越怕熬夜!2.3万人10年研究实锤:睡得越晚,智力下降越快
  • Arm拥抱AI:五倍性能,三倍能效
  • Meta开源MobileLLM-R1模型,不到1B参数,用1/10的训练就超越了Qwen3
  • 清华、上海AI Lab等顶级团队发布推理模型RL超全综述,探索通往超级智能之路
  • 快手可灵团队提出MIDAS:压缩比64倍、延迟低于500ms,多模态互动数字人框架实现交互生成新突破
  • 成本不足60美元!开源U-ARM:让机器人模仿学习更亲民的通用遥操作界面
  • 让机器人“大脑”更轻更快:SQAP-VLA首次实现VLA模型量化与剪枝协同加速
  • 数据与AI双引擎驱动智能未来,2025外滩大会论数据进化之道
  • iPhone 17 Air 在华发售延期;罗永浩直播回应西贝;《流浪地球》第三部剧本完稿,共计十五万字|极客早知道
  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • 一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道

ICML 2025 | AI福尔摩斯来了!LLaVA-ReID多轮发问,行人重识别一步步锁定

让你更懂AI的 2025-09-17 23:20 北京

从大海捞针到精准狙击

今年 ICML Outstanding Paper “COLLABLLM: From Passive Responders to Active Collaborators” 把从被动到主动的人机协作推到台前,展示了让大模型主动澄清意图、规划多轮协作的训练框架,显著提升任务完成度。

无独有偶,同期 LLaVA-ReID 把“主动性”引入行人重识别:模型不再被动接受含糊描述,而是基于候选图像有选择地发问,在多轮对话中迭代收窄目标,把“大海捞针”变成“精准狙击”。

本文第一作者鲁一丁是四川大学计算机学院 2022 级直博研究生。研究方向为多模态理解与 AI4Science,指导老师为彭玺教授。

论文标题:

LLaVA-ReID: Selective Multi-image Questioner for Interactive Person Re-Identification

论文地址:

https://arxiv.org/pdf/2504.10174

代码地址:

https://github.com/XLearning-SCU/LLaVA-ReID

huggingface数据集:

https://huggingface.co/datasets/XLearning-SCU/Interactive-PEDES-v1

多轮对话,让行人重识别不再「盲人摸象」

1983 年小巷,12 月晴朗。昏暗的房间里,福尔摩斯正仔细询问一起命案的目击证人。烛火摇曳,墙角一把焦黑的手杖成了谜团的起点。

证人紧张地回忆起他观察到嫌疑人的短暂瞬间:“那个人很高,大概 6 英尺,穿着格子衬衫,背着一个黑色的包”。

对于福尔摩斯这位怀疑论者来说,模糊的印象远远不够,每个细节都至关重要。他进一步追问:“他穿什么颜色的裤子?除了黑色的包,还携带了其他物品吗?他走路是否有跛脚或特殊步态?”

如同艺术家雕琢素描,福尔摩斯通过针对细节的定向询问,逐步勾勒出嫌疑人的完整形象,渐渐揭开真相。

▲ 图0 福尔摩斯探案

假设回到 20 世纪初的伦敦,福尔摩斯拥有一个交互式的 AI 工具,它将侦探直觉的延伸:基于证人不断演变的描述和从这些线索中评估出的候选嫌疑人,帮助福尔摩斯提出越来越精细和精准的问题。

不再被动接受笼统的描述,该工具使福尔摩斯能够分析证词和候选嫌疑人,动态调整问题。通过引导证人回忆嫌疑人外貌或行为的特定关键细节,在每次回复完善对嫌疑人的刻画,从而更有效地锁定嫌疑人。

▲ 图1。交互式行人重识别的图示案例。红色圆圈突出了候选图像中需要询问过程聚焦的独特细节。

在本文中,作者引入了交互式行人重识别(Inter-ReID)框架,其目标是通过与证人的持续交互迭代优化初始描述。此前没有研究探索过这一新问题,与之最接近的范式是基于文本的行人重识别(T-ReID)。

然而,现有的 T-ReID 假设描述是静态的、一次性提供的。相比之下,Inter-ReID 紧密反映现实场景,其中初始描述通常是不完整且模糊的,需要通过交互式优化来准确识别目标人物

为促进对这一新型任务的研究,作者构建了一个新的数据集 Interactive-PEDES,其中包含:

  • 粗粒度描述,用于模拟证人提供的初始不完整查询;

  • 细粒度描述,捕捉丰富的详细视觉特征,模拟证人的潜在记忆;

  • 通过将细粒度描述分解为多样化问题而衍生的多轮对话,涉及个体的详细属性。

本文的主要贡献如下:

  • 引入了交互式行人重识别(Inter-ReID)这一新任务,该任务超越了传统的基于文本的行人重识别(T-ReID),通过与证人的交互提升了准确性和适应性。为支持该任务,构建了一个包含多轮对话的专用数据集,实现了 Inter-ReID 系统更有效的训练和评估。

  • 提出了 LLaVA-ReID,一种多图像问题生成器,能够利用候选人物的视觉和文本上下文以及对话历史,识别图像集合之间的细粒度差异。广泛实验表明,该方法不仅提升了 Inter-ReID 的性能,还对现有的 T-ReID 任务有益。

任务定义:什么是交互式行人重识别?

简单来说,这个任务就像一场“你问我答”的游戏,需要系统既能“看”(分析图像差异),又能“问”(生成有效问题)

1. 初始描述:证人先给出一个不完整的描述(比如“穿格子衬衫,背黑包”)。

2. 系统提问:系统根据现有描述和候选图像,生成针对性的问题(比如“他的裤子是什么颜色?”“包里有没有露出什么物品?”)。

3. 证人回答:证人补充细节,系统根据新信息缩小搜索范围,直到找到目标人物。

数据集构建

数据集包含 54,749 张图像13,051 个人的身份,这些图像来自现有的 CUHK-PEDES 和 ICFG-PEDES 数据集,作者给它们加上了“对话属性”。制作过程分为三个步骤:

▲ 图2。所提出的自动对话数据构建流程示意图。步骤1:生成粗粒度和细粒度描述。步骤2:将后续描述分解为不同的属性。步骤3:构建多样化的问答对。

第一步:从模糊到清晰——生成粗粒度和细粒度描述

  • 粗粒度描述:模拟证人的第一印象,用一句话概括主要特征,比如“一个穿黑色长外套、戴围巾的女性,背着包”。

  • 细粒度描述:用 GPT-4o 模型进一步细化,补充粗粒度中没有的细节,比如“她穿着橄榄绿色阔腿裤,鞋子是带豹纹细节的黑色懒人鞋,背着灰紫色托特包,头发是浅棕色长发”。

第二步:拆分细节——把完整描述拆成独立问题点

比如,细粒度描述中提到“裤子颜色”“鞋子特征”“包的颜色”“头发长度和颜色”等,我们把这些细节拆分成单独的“子描述”,每个子描述对应一个可以提问的点。例如:

  • 子描述 1:“她穿着橄榄绿色阔腿裤” → 对应问题:“你能描述一下她的裤子吗?”

  • 子描述 2:“鞋子有豹纹细节” → 对应问题:“她的鞋子有什么特殊特征吗?”

第三步:设计多样化的问题——模拟真实对话场景

把每个子描述转化为三种类型的问题,让对话更自然、更有针对性:

1. 描述性问题(50%):用“是什么”“怎么样”引导证人自由描述,比如“他的外套款式是什么样的?”

2. 是非问题(40%):用假设性问题确认细节,比如“他的包是深蓝色的吗?”(即使假设错误,也能帮助证人回忆,比如证人可能回答:“不,是灰紫色的!”)

3. 多选题(10%):给出几个相似选项,降低证人回答难度,比如“他的头发是:A. 中长发 B. 深棕色长发 C. 短发卷发 D. 不确定”。

最终,每个图像平均对应 9 轮对话,训练集包含 47,376 张图像,测试集包含 7,373 张图像。

LLaVA-ReID模型:会提问的“智能侦探”

▲ 图3。(左)交互式行人重识别框架。检索器对图库图像和描述进行编码,向提问器提供检索结果和相关候选图像。提问器根据描述和候选图像生成具有判别性的问题。证人响应该问题并提供相应信息。(右)筛选器架构。筛选器基于文本信息从 top-k 候选人中选择最具代表性的候选图像。

LLaVA-ReID 的工作流程可以类比为一个三人小组:

1. 检索器(Retriever):快速筛选手册

  • 角色:先用初始描述在图像库中快速搜索,找出最相似的一批候选图像(比如前 100 名)。

  • 原理:基于 CLIP 模型,把文字和图像都转化为“特征向量”,计算它们的相似度,就像给文字和图像打“匹配分”。

2. 提问器(Questioner):智能提问专家(即 LLaVA-ReID)

  • 角色:分析候选图像和对话历史,生成最能区分目标人物的问题。

  • 原理:基于多模态大模型(LLaVA),同时“看”候选图像的视觉差异(比如衣服颜色、发型)和“读”对话内容(比如已经问过哪些问题,证人回答了什么)。

3. 回答器(Answerer):模拟证人的记忆

  • 角色:根据预设的细粒度描述,回答提问器的问题。

  • 原理:用语言模型(Qwen2.5)模拟证人,只能根据“记忆”(细粒度描述)回答,不能直接看图像,更贴近真实场景。

提问器的关键技术:如何做到“精准提问”?

难题 1:如何从大量候选图像中挑出“关键图像”?

问题:如果候选图像有 100 张,直接全部输入模型不现实,而且无关图像会干扰提问。

解决方案:选择性视觉筛选(Selective Visual Context)

  • 用一个“筛选器”从候选图像中挑出最具代表性的几张(比如 4 张)。

  • 筛选器会分析图像的特征和对话内容,找出差异最大的图像。比如:如果大部分候选者穿蓝色上衣,但有一张穿红色上衣,这张就会被优先选中,因为它可能是关键差异点。

难题 2:如何确定“问什么问题最有效”?

问题比如已经知道“裤子是深色”,再问颜色可能没用,需要问其他未覆盖的细节(如鞋子、包的特征)。

解决方案:前瞻监督(Looking-Forward Supervision)

  • 模型会“预判”每个可能的问题的效果:假设问了某个问题,得到答案后,看看目标人物的检索排名是否上升。

  • 举个例子:如果问“鞋子是否有花纹”后,目标人物从第 50 名升到第 10 名,说明这个问题很有效,会被优先选择。

实验对比

1. 交互式重识别任务:越问越准,效率更高

▲ 表1。在 Interactive-PEDES 数据集上与最先进的交互式检索方法的对比。“Initial” 表示使用初始描述而不进行交互。我们的方法用灰色标记。BRI 值越低表示性能越好。

▲ 图4. 检索性能与查询次数的关系。实线表示 R@1,虚线表示 R@5。

  • 如图 4 和表 1 所示,初始描述的 Recall@1 只有 35.86%(靠模糊描述很难找对人),但经过 5 轮交互后:LLaVA-ReID 的 Recall@1 提升到 73.20%,比最弱的 SimIRV(61.27%)高 12%,比最新的 PlugIR(65.44%)高近 8%。

  • BRI 值最低:说明它平均用更少的问题就能提升检索精度,比如问 3 个问题的效果比其他方法问 5 个问题还好。

2. 传统文本重识别(T-ReID)任务

▲ 表2。与现有文本行人重识别(T-ReID)方法在三个基准数据集上的集成性能对比。

  • 把 LLaVA-ReID 集成到传统 T-ReID 模型(如 IRRA、RDE)中,即使这些模型原本假设描述完整,加上交互后性能仍有提升。在 CUHK-PEDES 数据集上,R@1 平均提升 5%+;在 ICFG-PEDES 数据集(人工标注较细粒度)上,提升更明显,说明即使初始描述较完整,交互仍能补充遗漏细节

真实对话案例:模型如何一步步锁定目标?

▲ 图7。交互式系统生成的对话定性结果。每轮中的 4 张图像是由我们的筛选器选择的代表性候选图像。

总结

本文提出了交互式行人重识别这一全新任务,该任务通过引入证人与检索系统之间的多轮对话,使行人重识别场景更贴近现实。

为支撑这一任务,作者构建了专用数据集 Interactive-PEDES,并开发了多图像提问模型 LLaVA-ReID,该模型能够借助视觉和文本上下文识别细粒度差异。

未来,可以探索侦探式的推理范式,借鉴柯南、东野圭吾、阿婆笔下的推理逻辑,把复杂线索转化为模型可利用的交互证据;跨场景与多模态的融合,引入视频、音频,让线索拼图更全面。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们