动态列表

  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • SilentStriker:无声击溃大模型
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道

KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了

原创 让你更懂AI的 2025-09-29 14:31 北京

基混杂表征 + 因果解耦,实现复杂城市场景的稳健泛化

北京航空航天大学联合香港大学提出了基于因果建模的时空基向量表征模型,首次将后门调整原理扩展到连续与未知混杂因子,通过构建基混杂库、自监督任务增强表示,并结合因果解耦机制,实现了在复杂城市场景下更准确、更具泛化性的交通预测。

本文第一作者为北京航空航天大学计算机学院博士生寄家豪,本文的通讯作者为北京航空航天大学计算机学院教授王静远。

目前该研究已被 KDD 2025 正式接收,相关代码与模型已经全部开源。

论文标题:

Seeing the Unseen: Learning Basis Confounder Representations for Robust Traffic Prediction

论文链接:

https://arxiv.org/abs/2311.12472

代码链接:

https://github.com/bigscity/STEVE_CODE

研究背景

交通预测是智能交通与城市计算中的基础问题。经典做法默认存在稳定的因果通道 (如下图中 a),即由历史交通状态 推断未来状态

然而在真实城市系统中,天气、节假日、区域功能差异、事故/管制、道路负载等外生因素会同时作用于 ,构成混杂因子

这类混杂使得 的条件分布随环境改变(如下图中 b),即出现分布移位,从而削弱模型在非常态场景(极端天气、长假、高负载等)下的准确与鲁棒性。

为缓解混杂影响,部分工作将因果推断中的前门/后门调整引入深度模型:前门依赖可观测中介变量,后门依赖对混杂因子的控制。

然而,这两类方法通常依赖离散化与预定义:需要预先枚举混杂因子或中介变量的有限取值集合。现实环境中的混杂往往是连续的、可组合的且部分未知,难以被完整刻画与穷尽,导致上述方法在开放城市场景中存在适用性限制。

于此,本文采用图中 c 的综合因果视角:在保留时空依赖()的同时,显式建模并控制混杂效应()。

围绕这一目标,本文提出 STEVE:以基向量库与线性组合统一表示连续/未知/可组合的混杂;通过面向混杂的自监督任务向混杂表征注入空间、时间与语义信息;并以对抗解耦与互信息最小化在表征层分离“混杂相关”与“混杂无关”因素,最终通过异质性感知的融合策略得到对分布移位与未见环境更准确、可泛化的交通预测模型。

该框架避免对混杂进行先验离散化与穷举,直接在数据层面学习可泛化的“环境因子”表示,兼顾可解释性与工程适用性。

模型架构

本文在传统时空卷积/图卷积的基础上,引入面向混杂因子的自监督学习与因果解耦机制,构建可应对连续/未知混杂与分布移位的统一交通预测框架。模型工作原理如下图。

STEVE 分为两个分支:首先是混杂相关预测分支,基于时空编码得到的表示与混杂表示 协同建模,显式刻画节假日、天气、枢纽等环境对交通的影响,输出受混杂驱动的预测;其次是混杂无关预测分支,通过对抗解耦与互信息最小化得到的稳定表征 进行预测,聚焦于不随环境变化的内在时空规律。

最后,模型采用异质性感知的门控融合,依据 自适应地调节两条分支的贡献,生成更稳健的最终预测结果。

2.1 时空表征学习模块(TSRL)

为了把原始的多维交通时间序列转化为更“懂时空关系”的底层特征,并为后续的混杂因子提取做好准备,本文模型首先将输入的历史交通状态序列 ,映射为时空隐藏表征

具体做法是,本文模型采用时序卷积(TCL)与图卷积(GCL) 交替堆叠的方式。

按照 “TCL → GCL → TCL” 的堆叠结构,模型逐步融合时序与空间依赖,最终生成序列化的时空嵌入:

2.2 混杂因子提取器

在真实的交通系统中,混杂因素非常复杂:既可能是离散的(如工作日/节假日)、也可能是连续的(如交通负载逐渐饱和),甚至还可能相互叠加(如雨天遇上早高峰再叠加交通枢纽效应)。如果逐一枚举并建模所有可能混杂,几乎是不可能完成的任务,也会严重限制模型的泛化能力。

为了解决这一问题,本文提出用一组基混杂向量(basis confounders)来替代繁琐的枚举。模型不需要显式定义所有混杂,而是学习一个“基混杂库”,让任意复杂的混杂都可以通过这些基向量的线性组合来表示,如下图所示。

具体实现上,本文构建一个基混杂库:

将时空嵌入 在(T,N)两个维度上做扁平化后输入 MLP,生成一个临时库 。然后通过动量更新将历史环境与当前环境信息结合:

这样既保留历史环境的“常识”,又能跟上当前环境的变化

接下来,本文模型为每个节点在每个时刻生成专属的混杂表示

首先,将该节点最近一段时间的特征平均,形成查询向量 ,相当于提炼该节点近期的“环境气质”。

然后,用 与基库中的每个基向量 做相似度计算,再经过 softmax 得到注意力权重:

最后,用这些权重对基向量加权求和:

得到的 就是该节点此时的混杂表示。

2.3 面向混杂因子的自监督学习

在真实交通系统中,天气、节假日、区域功能与负载强度等外生因素共同作用于交通状态,构成混杂因子,且其取值往往连续、难以完整枚举与标注。

为此,本文提出面向混杂的自监督学习(COSSL):通过辅助任务在无显式混杂标签下驱动模型自动编码混杂信息,从而增强混杂表示的空间/时间/语义判别力。具体包括三类任务:

1. 空间位置分类:以节点唯一 ID 作为监督信号,学习区域差异与功能语义;优化目标为交叉熵

2. 时间索引识别:将 24 小时 ×(工作日/节假日)构成 48 类时间索引,捕获时段节律与日类型差异;优化目标为交叉熵

3. 交通负载预测:依据历史统计构建负载强度等级,刻画拥堵语义与容量效应;优化目标为均方误差

三者联合构成混杂表示的自监督目标为:

2.4 混杂因子无关关系解耦

本文提出了两种关键机制:

1. 对抗式解耦(Adversarial Disentanglement)

在训练过程中,模型通过对抗解耦机制,使得学习到的表示 H 在不同混杂环境下保持稳定,其语义尽量一致,不再携带环境特定的干扰信息,具体过程如下图。

2. 互信息最小化(Mutual Information Minimization)

当两个表征 H 与 C 的互信息过大时,意味着它们在表示空间中存在过度耦合,仍然残留混杂信息。为此,本文采用 CLUB 方法对互信息上界进行近似估计,并通过最小化该上界来降低二者的相关性。

2.5 双分支预测与异质性感知融合

STEVE 将预测拆为混杂相关与混杂无关两条路径,并进行动态融合:

1. 混杂相关分支(环境效应)

2. 混杂无关分支(稳定规律)

3. 异质性感知融合:用混杂表示生成门控权重 ,逐元素加权:

最终优化总目标为多项联合、端到端训练:

训练过程中, 作为动态权重自适应调节各辅助目标在总体损失中的相对重要性;反向传播层面,主损失 直接驱动两条预测分支及异质性融合门向真实目标收敛,从而优化最终预测;自监督损失 侧重提升混杂表示 的判别能力,强化其在空间、时间与语义维度的可分性。

对抗解耦损失 以判别器最小化、特征提取器(经 GRL)最大化的方式训练,使判别器从 识别混杂、而特征提取器被迫抹除 中的混杂线索。互信息最小化损失 同时作用于 ,降低二者的统计依赖。

实验验证

本文模型在 NYCTaxi、NYCBike1、NYCBike2、BJTaxi 四个真实交通数据集上进行了对比实验,涵盖了时间分布移位(TDS)和空间分布移位(SDS)两种常见场景。

3.1 整体表现

STEVE 在所有数据集和任务上的 MAE/MAPE 表现均是最优结果,并且比其他方法的稳定。这说明它在各种分布移位条件下都能保持高精度和强泛化能力。

3.2 消融实验

本文展示了消融结果。无论去掉基混杂库(a)、自监督信号(b)、对抗解耦(c),还是互信息最小化(d),误差都明显上升。这证明四个核心组件对最终性能都至关重要。

3.3 可解释性与稳健性

本文发现不同地点(工作区 vs 交通枢纽)以及不同时段(中午非高峰 vs 晚高峰)的基混杂分布存在显著差异,说明模型确实捕捉到环境特征。

STEVE 在未见过的天气(晴/阴/雪)场景下仍然优于对比模型,并且学到的混杂表征能清晰区分天气类型。

本文验证了互信息最小化模块的作用,使得混杂相关表征 C 与混杂无关表征 H 更加解耦。

3.4 效率与扩展性

STEVE 的训练与推理时间低于大多数基线方法,且随着数据规模和图规模的增加,推理时间曲线更平缓,表现出更强的可扩展性。

总结

本文提出 STEVE 框架,首次将后门调整扩展至可处理连续与未知的混杂因子,并用于深度学习交通预测:

  • 借助基混杂库,用可学习基向量的线性组合统一表示各类混杂;

  • 通过面向混杂的自监督任务,为混杂表征注入空间—时间—语义信息;

  • 并以因果解耦分离“混杂相关”与“混杂无关”关系,然后进行联合预测,从而获得更准确、稳健的输出。

在四个真实数据集的评测中,STEVE 在准确性、鲁棒性与可扩展性方面均显著优于现有方法。未来工作将进一步提取典型混杂(如天气、节假日)的可解释表征,量化其对交通状态的影响,并在干预/反事实设定下开展交通预测,以支持更具因果解释力的城市交通决策。

指导教师:

王静远教授

https://www.bigscity.com/jingyuan-wang/

课题组:

北京航空航天大学计算机学院 BIGSCITY 实验室

https://www.bigscity.com/

实验室长期招聘青年教师、博士后,招收博士研究生以及实习生。有意者请联系 jywang@buaa.edu.cn 智慧城市大数据智能组(BIGSCITY)专注于数据驱动的城市智能关键技术,重点涵盖城市计算、时空数据挖掘、可解释机器学习等方向。团队已在数据挖掘、人工智能等领域的权威会议与期刊发表高水平论文近百篇;截至目前,2025 年度 CCF A 类会议就已录用 15 篇。相关技术已落地城市规划、智能交通、医疗服务等场景,在北京、天津、深圳、无锡、成都等地应用。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们