动态列表

  • 400万token新SOTA!英伟达UIUC联手:兼顾长短上下文顶尖性能
  • AI圈惊天丑闻,Meta作弊刷分实锤?顶级榜单曝黑幕,斯坦福MIT痛斥
  • 北大出手,物理学院天才们教AI「做人」!PHYBench成大模型物理能力试金石
  • DeepSeek开源Prover-V2强推理模型,网友:奥数从没这么简单过
  • 被Transformer光芒掩盖的论文,Meta科学家回顾十年前创新之作
  • 后训练时代如何延续Scaling Law?这是你该读的LLM后训练综述
  • ScienceOne正式发布:基于科学基础大模型的智能科研平台
  • 一个月 78 块的 AI 日历,治好了我的「万事开头难」
  • DeepSeek 发布 Prover-V2 模型;小米首个推理大模型开源;饿了么宣布超百亿补贴加入外卖战局
  • 2万亿巨兽来袭,小扎亮底牌! 首次回应Llama 4风暴,开源榜单背锅
  • 清华出手,挖走美国顶尖AI研究者!前DeepMind大佬被抄底,美国人才倒流中国
  • 刚刚,DeepSeek-Prover-V2-671B开源!
  • 发布 Qwen3,阿里云拉开新一轮开源模型竞赛的序幕
  • Video-XL-Pro:端侧3B模型长视频理解新sota!性能赶超7B巨头!
  • 解决200种复杂材料,10Å尺度模拟纳米晶体,哥大团队用4万个原子结构训练AI,登Nature子刊
  • 真·开源MCP平台来了!ACI.dev能一站直连600+工具,让你的智能体秒变全能王!
  • 刚刚!OpenAI回滚了最新版本的GPT-4o,因ChatGPT「过度谄媚」
  • 只花9美元,推理能力暴涨20%!小模型Tina震撼登场,成本缩减260倍
  • 上交大推出首个AI智能体协议全面综述:从碎片化到互联互通的智能体网络
  • CVPR Oral | 南京大学李武军教授课题组推出分布式训练算法UniAP,大模型训练最高加速3.8倍
  • R1-Zero的无监督版本来了!SFT不再是必须,EMPO重新定义大模型推理微调
  • ICLR 2025 | 差分注意力机制爆火!DIFF Transformer击穿长文本建模天花板
  • 北京内推 | 中电信人工智能公司招聘多模态大模型算法实习生
  • 沃尔玛通知中国供应商恢复供货;Meta 推独立 AI 助手,融合社交元素;因「过于奉承」,OpenAI 撤回更新
  • AI包办79%代码,程序员饭碗不保!前端开发要凉,人类只配改Bug?
  • 细思极恐,AI操控舆论达人类6倍!卧底4月无人识破,Reddit集体沦陷
  • 大模型时代,百度智能云迎来最大机会
  • 我用Qwen3实测了9道经典难题,再聪明的AI也有犯傻的时候
  • 「拍照问夸克」,从「Know-What」到「Get it Done」的跃迁
  • 终端云端三连发!无问芯穹开源大模型推理加速神器,加码构建新一代端、云推理系统
  • 小红书,不止看车,更看生活
  • 阿里千问 3 登顶全球最强开源模型,性能超越 DeepSeek-R1、OpenAI-o1
  • GPU无上限+AGI顶尖课题!蚂蚁星「Plan A」全球招募下一代AI领航者
  • 模仿or探索?LUFFY:我全都要!巧妙融合外部指导,RL推理不再死板
  • 33,000美元奖金池!Meta CRAG-MM挑战赛开启,多模态RAG巅峰对决
  • 博士申请 | 香港中文大学MMLab岳翔宇老师招收人工智能全奖博士/RA/实习生
  • ChatGPT的尽头也是「带货」:3、2、1,上链接
  • ICLR 2025|首个动态视觉-文本稀疏化框架来了,计算开销直降50%-75%
  • 淘天集团“T-Star计划”首次向实习生开放,提供转正Offer
  • 猛击OpenAI o1、DeepSeek-R1!刚刚,阿里Qwen3登顶全球开源模型王座,深夜爆火
  • 语音领域ISCA Fellow 2025公布:上海交大俞凯、台大李宏毅等三位华人入选
  • 2025 Meta CRAG-MM Challenge 赛题发布
  • 上交大等探索键值压缩的边界:MILLION开源框架定义模型量化推理新范式,入选顶会DAC 2025
  • 蚂蚁密算福州发布密态可信数据空间:高性能、低成本和全链路安全
  • 海螺+可灵、上线两个多月、5万+围观,零破绽,这支AI广告藏得太深了
  • 阿里开源新一代通义千问模型 Qwen3;传刘强东曾和王兴共聚晚餐;马斯克:5 年内机器人将超越外科医生 | 极客早知道
  • AI 2027研究揭秘美国算力真相!中国全球AI专利Top1,但美国或以算力取胜
  • 华人博士用ChatGPT治病,比医生靠谱?OpenAI联创点赞
  • 100年企业知识超10万文件,「内网版ChatGPT」血洗最卷行业!全员70%和AI共事
  • AGI幻灭,LeCun观点得证?哈佛研究实锤AI不懂因果,世界模型神话破灭
  • 52页PPT,谷歌Gemini预训练负责人首次揭秘!扩展定律最优解
  • Apple Watch 10 周年,哪些「环」直到现在也没「合上」?
  • 从「黑科技」到「量产」,爱奇艺的虚拟制作进化论
  • 打造「无所不能、无处不在」的 AI,百度为何要从「操作系统」做起?
  • 北大物院200人合作,金牌得主超50人!PHYBench:大模型究竟能不能真的懂物理?
  • ICLR 2025 Oral|差分注意力机制引领变革,DIFF Transformer攻克长序列建模难题
  • ICLR 2025 | 大模型是否能做到有效“遗忘”?从梯度视角重新审视LLM反学习方法
  • ICLR 2025 | 基于多任务学习的回归范式实现更快的灵活分子对接
  • 智象未来x商汤大装置:全栈赋能全球首个开放使用视频生成DiT模型
  • 两篇Nature Medicine,DeepSeek、GPT-4o等LLM在医学推理、临床决策中的应用评估
  • AI+量子计算:港科大等提出突破性低温存内计算方案
  • 除了Ilya、Karpathy,离职OpenAI的大牛们,竟然创立了这么多公司
  • 字节Seed团队PHD-Transformer突破预训练长度扩展!破解KV缓存膨胀难题
  • 首个系统性工具使用奖励范式,ToolRL刷新大模型训练思路
  • 模型压缩到70%,还能保持100%准确率,无损压缩框架DFloat11来了
  • 重磅发布 | 复旦《大规模语言模型:从理论到实践(第2版)》全新升级,聚焦AI前沿
  • AR智能革命!Satori系统读懂人类意图,科幻电影场景成现实
  • 受关税影响,美电商商品价格普涨;京东外卖扩招 10 万旗手;苹果 AI 智能眼镜有望 2027 年推出|极客早知道
  • 一行代码不用写,AI看论文自己「生」出代码库!科研神器再+1
  • OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者
  • 深度学习基础架构革新?通过梯度近似寻找Normalization的替代品
  • ICLR 2025 | 计算开销减半!Dynamic-LLaVA刷新多模态大模型推理加速上限
  • 迈向长上下文视频生成!FAR重塑下一帧预测范式,短视频与长视频双双登顶SOTA
  • 英伟达送钱送算力!数据过滤挑战赛开启:白嫖A100,冲击1万美金大奖!
  • 字节启动Top Seed大模型顶尖人才计划2026届校招
  • 纳米AI放大招!MCP万能工具箱,人人都能用上超级智能体
  • Devin开发团队开源DeepWiki,助你快速读懂所有GitHub代码库
  • ICLR 2025 | 无需训练加速20倍,清华朱军组提出用于图像翻译的扩散桥模型推理算法DBIM
  • 基于奖励驱动和自组织演化机制,全新框架ReSo重塑复杂推理任务中的智能协作
  • 阶跃星辰发布图像编辑模型 Step1X-Edit,性能开源最佳
  • 百度Create AI开发者大会:李彦宏发布两大新模型、多款热门AI应用,帮助开发者全面拥抱MCP
  • 清华系智谱×生数达成战略合作,专注大模型联合创新
  • 九章云极DataCanvas公司双论文入选全球顶会ICLR,推动AI解释性与动态因果推理核心进展​
  • 在介观尺度「找不同」?ML预测材料失效,使材料设计更安全
  • 阿里AI旗舰应用夸克发布全新“AI相机” 提升AI超级框多模态能力
  • 传马斯克 xAI 正寻求 200 亿美元融资;Waymo 未来或向个人销售自动驾驶汽车;贾跃亭回应「下周回国」梗
  • GPT-4.5功臣遭驱逐!奥特曼盛赞工作出色,美国深陷AI人才危机
  • 强化学习被高估!清华上交:RL不能提升推理能力,新知识得靠蒸馏
  • 美国政府「AI行动计划」万言书发布! OpenAI与Anthropic呼吁联手封锁中国AI
  • 全球开发者组团训练,首个异步强化学习32B推理模型震撼来袭!数据已开源
  • 70%大小,100%准确!完美压缩LLM性能0损失,推理速度最高飙升39倍
  • 秒杀同行!Kimi开源全新音频基础模型,横扫十多项基准测试,总体性能第一
  • OpenAI、谷歌等一线大模型科学家公开课,斯坦福CS 25春季上新!
  • 跨机型诊断难题新突破:上交大、商飞、东航打造国产大飞机时序大模型智能诊断新路径
  • 具身交互推理: 图像-思考-行动交织思维链让机器人会思考、会交互
  • 20万奖金池×最火技术风口!欧莱雅集团首届Agent黑客松火热开启,等你来战
  • 蚂蚁集团全球招募顶尖AI人才
  • 人工智能接管核电站,商业化的智能核电管理是否正在路上?
  • Manus 获超 5 亿融资,估值涨 5 倍;苹果希望明年美售 iPhone 全部「印产」;传外卖补贴商家承担一半,京东回应
  • Anthropic CEO豪言LLM黑箱5年内必破!研究员爆料:AI有意识概率已达15%
  • 哥大退学网红AI作弊器,亲测翻车!搅黄会议划水90s,创始人承认仅是雏形
  • 最新实测!文心4.5T/X1T双卷王登场效果惊人,骨折价卷到DeepSeek
  • 10万+,超大规模人手交互视频数据集!面向可泛化机器人操作|CVPR 2025
  • 英伟达AI奥赛夺冠,1.5B数学碾压DeepSeek-R1!代码全系开源,陶哲轩点赞
  • CVPR25 | CV 微调卷出天际,Mona:我小,我强,我省资源
  • 95后团队30天造出通用超级智能体!百度心响App全量上线、人人免费用,亲测效果惊艳
  • 英伟达开源「描述一切」模型,拿下7个基准SOTA
  • 北航推出全开源TinyLLaVA-Video-R1,小尺寸模型在通用视频问答数据上也能复现Aha Moment!
  • 大模型何以擅长小样本学习?ICLR 2025这项研究给出详细分析
  • 马斯克、奥特曼AI对唱「比起模型更喜欢你」,580万人疯狂打call
  • 特斯拉利润暴跌七成,马斯克宣布减少DOGE工作
  • 继华为「狙击」后,理想迎来第二波冲击
  • “批量退出”引发具身智能泡沫危机?行业大咖齐聚商汤技术交流日,共话破局之道
  • 涂鸦智能重磅发布四大AIoT技术引擎,赋能开发者以AI重构物理世界
  • 全日程公布|直击你关心的AI 智能体学习与创业难题,从技术赋能到创新案例解析
  • 文心4.5 Turbo发布,但李彦宏说应用才是王者
  • 等到了!VLM-R1完整细节首度公开:RL的一小步,视觉语言模型推理的一大步
  • CVPR 2025 | 5%参数反超全量微调!清华、国科大等发布视觉微调涨点神器
  • 腾讯低调开源「作业终结者」:3B参数实现多模态SOTA,数学物理全通吃
  • 博士申请 | 亚利桑那大学张晴钊老师招收可信人工智能方向全奖博士/实习生
  • 在量子世界玩游戏?物理学家展示量子计算机新前景
  • 通过成分准确预测晶体结构,一种基于ML的CSP新方法
  • RL真让大模型更会推理?清华新研究:其能力边界或仍被基座「锁死」
  • 刚刚,OpenAI推出了「轻量级」深度研究,免费用户也能薅羊毛!
  • 京东外卖日单量超过 1000 万;小米被曝要求员工日均工时不低于 11.5 小时;小红书将取消大小周 | 极客早知道

北邮-腾讯联合提出多任务提示调优推荐框架MPT-Rec,实现效率性能双突破

让你更懂AI的 2025-04-30 11:32 北京

本文提出了一种两阶段解耦多任务提示推荐框架。

在复杂推荐场景中,多任务联合优化面临 “联合训练耗时冗长、新任务泛化能力差” 的低效困境,行业亟待突破性解决方案。


北京邮电大学-腾讯联合提出两阶段多任务提示调优框架 MPT-Rec,精准攻克知识迁移中任务无关性难题:通过两阶段解耦和多任务提示调优机制,大幅降低任务无关噪声干扰对新任务的负面影响,实现新任务训练效率提升,新任务泛化性能显著增强。


两阶段多任务提示调优框架 MPT-Rec 仅用 10% 的训练参数超越全参训练学习的性能,为多任务推荐系统打破 “性能 - 效率” 双瓶颈提供了前沿思路,研究成果被 CCF-A 类顶刊 TOIS接收

论文标题:

Efficient Multi-task Prompt Tuning for Recommendation

论文链接:

https://doi.org/10.48550/arXiv.2408.17214

代码仓库:

https://github.com/BAI-LAB/MPT-Rec



引言

随着业务场景的不断拓展,真实的推荐系统在应对多任务学习框架中不断涌现的新任务时,面临着诸多挑战。本文旨在提升多任务推荐在处理新任务时的泛化能力。


如图 1 所示,我们发现,在多数多任务学习方法中,联合训练虽能提升新任务的性能,却总会对现有任务造成负面影响。此外,全面重新训练的机制不仅增加了训练成本,还限制了多任务推荐模型的泛化效率。


我们的目标是合理设计不同任务间的共享机制,在提高新任务学习效率的同时,维持模型处理已有任务的性能。我们提出了一种创新的两阶段任务提示调优多任务学习框架(MPT-Rec),以解决推荐系统中新任务的泛化问题和多任务训练效率问题。

▲ 图1:新增任务对已有任务性能的影响



方法

在多任务预训练阶段,我们将任务共享信息与任务特定信息分离,随后利用任务感知提示向量,将已有任务的知识高效迁移至新任务。在多任务提示调优阶段,MPT-Rec 通过冻结预训练任务中的参数,有效避免了新任务可能带来的负面影响,同时大幅降低了训练成本。


如图 2 所示,MPT-Rec 由两个部分组成:多任务预训练组件和多任务提示调优组件,分别对应于 MPT-Rec 中的两个训练阶段。

▲ 图2:MPT-Rec 的整体框架

2.1 多任务预训练

多任务预训练阶段旨在提高现有任务的性能,同时提取可转移的知识以促进新任务的泛化,主要包括两个操作:学习解耦信息和学习融合信息。

Step1:学习解耦信息

为解决任务间负迁移问题,我们采用生成对抗网络实现任务共享信息与任务特定信息的显式分离,保障新任务学习时两类信息的高质量传输。


该网络由任务共享专家(生成器)和任务分类器(判别器)构成。生成器致力于生成不含任务特定信息的表征,以此迷惑任务分类器;判别器则尝试依据任务共享表征判断任务标签。经训练,任务共享专家习得的共享信息能规避判别器识别,从而实现两类信息在不同类别专家间的显式分离。


具体而言,多任务预训练组件按照以下步骤学习解耦信息:


1. 输入向量经专家网络处理,得到任务共享表征 xₛ 与任务特定表征 xₖ;


2. 利用共享表征 xₛ 通过塔型网络生成首个预测结果,并计算损失值 Lossₛ;


3. 借助共享表征 xₛ 经任务分类器获取任务标签预测值,与真实标签对比计算环境损失 Lossₑ;


4. 对 Lossₛ 与 Lossₑ 进行加权组合,得到生成对抗网络训练损失:

生成对抗网络训练损失的第一项确保共享表征蕴含有效信息,第二项则过滤任务特异性内容。通过生成对抗机制的迭代优化,实现任务共享信息与任务特定信息的有效分离。

Step 2:学习融合信息

在利用生成对抗网络分离任务共享信息与任务特定信息后,设计融合网络,通过为各任务分配任务标签向量引导信息融合,将两类信息整合用于任务最终预测。


具体而言,多任务预训练组件按照以下步骤学习融合信息:


1. 融合任务特定表征与标签向量,构建任务感知表征xₑ;


2. 利用门控网络生成的权重,融合任务共享表征与任务感知表征,得到融合表征 x₍f₎ ;


3. 通过塔形网络对融合表征 x₍f₎ 进行预测,得到结果 ŷ₍f₎,并结合真实标签 yₖ 计算融合表征预测损失。

最后,多任务预训练阶段的总损失为生成对抗网络训练损失与融合表征预测损失之和:

2.2 多任务提示调优

多任务提示调优阶段旨在利用现有知识,加快新任务的训练过程。此目标非常适合由于业务场景的变化而频繁请求新任务优化的推荐情况。


我们提出了一种任务感知提示调优方法,将任务标签向量当作提示,组合在多任务预训练阶段训练好的任务特定表征当作新任务的特定表征,因此大大提高了新任务的训练效率。多任务提示调优主要包括两个操作:任务特定信息迁移和任务感知提示调优。

Step3:任务特定信息迁移

在任务特定信息迁移过程中,我们首先将输入向量投影到任务标签向量的语义空间中,然后计算投影后的向量与不同任务标签向量之间的内积,以此作为相似度。接着,我们对这些内积应用 softmax 函数,得到对应的权重分数。最后,我们利用这些权重来融合现有的任务特定表征,从而获得新任务的特定表征。

Step 4:任务感知提示调优

在任务感知提示调优过程中,我们首先将融合生成的新任务专属表征与新任务标签向量深度融合,构建出具备强语义关联的任务感知表征。随后,该表征与迁移而来的任务共享表征进行有机整合,形成兼顾任务独特性与跨任务共性的复合特征,为新任务预测提供核心依据。


基于此融合表征的预测输出,我们通过计算预测结果与真实标签间的损失函数,利用梯度反向传播机制对模型参数进行精准更新,实现模型在新任务场景下的高效优化与性能提升。



实验

我们在三个数据集上进行了实验,并将我们的模型与几种具有代表性的多任务学习模型进行比较,以展示 MPT-Rec 的有效性和高效率。

验证1:多任务推荐实验结果

三个数据集的实验结果如表 1 所示。所有任务在这三个数据集上都是二分类任务,我们使用 AUC 作为评估指标。由表 1 可知:

▲ 表1:MPT-Rec 的多任务学习能力


实验结果表明:我们提出的方法 MPT-Rec 在所有数据集上都取得了最佳性能。与使用任务共享专家和任务特定专家来区分信息的 PLE 不同的是,MPT-Rec 通过生成对抗网络在学习过程中施加了更明确的限制,使其更能避免任务无关信息的转移。

验证2:新任务泛化实验结果

为了评估多任务学习方法的泛化能力,我们通过排除预测特征构建了一个新任务 T3。

▲ 表2:MPT-Rec 的新任务泛化能力


实验结果表明:我们提出的 MPT-Rec 模型具有以下显著优点:


(1)性能卓越:通过生成对抗网络学习高质量任务共享信息,避免混杂无用噪声,在性能表现上更为出色。


(2)高效低耗:相比全参数训练方案,在两个数据集上 FLOPs 减少超 90%;以较小性能下降为代价大幅提升训练效率。


(3)适应性强:数据集越大,MPT-Rec 在多任务学习中采用微调方案的优势越显著,随着输入特征维度增加,展现出更好的新任务泛化性。

多任务解耦效果可视化展示



结论

在本文中,我们提出了一种两阶段解耦多任务提示推荐框架 MPT-Rec,旨在解决多任务推荐系统中新任务学习的负迁移和高成本问题。MPT-Rec 由预训练和提示调优两个阶段组成。在预训练阶段,我们将任务共享信息和任务特定信息分离开,使其在提示调优阶段得到有效利用。


对三个现实数据集的大量实验表明了我们提出的多任务学习框架的有效性。与 SOTA 多任务学习方法相比,MPT-Rec 取得了最好的性能。此外,它在新任务学习中保持相当模型性能的情况下,大幅提高了训练效率(训练参数不到全参训练的十分之一)。


更多阅读



#投 稿 通 道#

让你的文字被更多人看到



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


阅读原文

跳转微信打开

联系我们