动态列表

  • 「逆龄大脑药」首次人体试验!奥特曼押注RTR242,返老还童将要成真?
  • 终结CMU霸权,清华首次登顶CSRankings世界第一!北大AI领域夺冠
  • 大模型训练新突破!Meta提出LSP:无数据也能实现能力飞升
  • OpenAI最新硬件2026年底亮相!狂挖苹果20+老将,首款神秘设备或将颠覆iPhone
  • 小扎AI眼镜当场死机,CTO自曝灾难级演示内幕:一个指令干趴自家服务器
  • 当大厂「卷」Agent,腾讯选择「下产线」
  • 陈天桥旗下AI公司MiroMind打造全球顶尖预测型大模型,性能登顶行业基准
  • OpenAI从苹果挖了20多人搞硬件,知情人士:苹果创新缓慢、官僚主义令人厌倦
  • Mini-Omni-Reasoner:实时推理,定义下一代端到端对话模型
  • 北大等提出BEVUDA++,首次解决BEV感知跨域难题,夜间检测性能提升12.9%
  • TPAMI 2025 | DiffMVS/CasDiffMVS:一种置信度感知的扩散模型,实现轻量且准确的多视图立体三维重建
  • iPhone 17 Pro 首日即现划痕;传 OpenAI 联手立讯做 AI 硬件;2025 年搞笑诺贝尔出炉
  • 史上最大升级!7亿周活ChatGPT逼宫,谷歌慌了,这次要把AI整个塞进Chrome
  • 谷歌AI或摘千禧年大奖!华人博士破解百年数学难题,首次捕获奇点
  • 登顶多模态推理榜MMMU!UCSD新方法超越GPT-5、Gemini
  • DeepSeek-R1登顶Nature,8位专家严审通过, 大模型「交卷时刻」来了
  • 18岁天才少年,登上Nature封面!
  • 不要ViT也不要扩散!OneCAT甩掉编码器,统一多模态自回归模型来了
  • 扩散大语言模型也能飞?DPad免训练加速61倍,全局规划照样稳
  • 北京内推 | 腾讯混元大模型X团队招聘大模型/强化学习方向“青云计划”实习生
  • 华为超节点:用「一台机器」的逻辑,驱动AI万卡集群
  • 5555被拒稿,AC接收但PC强拒,NeurIPS揭榜引争议
  • 超强开源模型Qwen3、DeepSeek-V3.1,都被云计算一哥「收」了
  • 攻克大模型训推差异难题,蚂蚁开源新一代推理模型Ring-flash-2.0
  • 给大模型「精准手术」:美团智能客服提出逆向学习技术精准纠偏,风险控制提升38%
  • 阿联酋大学CVLab IEEE Fellow团队招收2026春季/秋季全奖博士生
  • Meta新作SyncSeal:用深度学习“封印”同步信息,让数字水印不再怕裁剪和旋转
  • 千禧年大奖难题有望突破?AI为流体动力学提供新思路
  • 生物学迎来「ChatGPT时刻」:Evo构建首个AI生成的「基因组」,开启生成式基因设计时代
  • 英伟达50亿美元入股英特尔,将发布CPU+GPU合体芯片,大结局来了?
  • 理解帮助生成?RecA自监督训练让统一多模态模型直升SOTA
  • 投50亿美元,英伟达联手英特尔;谷歌将Gemini加入浏览器;网约车司机平均月入过万
  • GPT-5攻入数学圈,证明定理快过博士生?网友热议AI新角色
  • 阿里王牌Agent横扫SOTA,全栈开源力压OpenAI!博士级难题一键搞定
  • ChatGPT负责人深度复盘,爆4o复活内幕!过快下线是失误,将迭代模型人格
  • 全球首个AI基因组诞生,35亿年生命代码重编程!生物学迎「ChatGPT时刻」
  • 芯片大地震,黄仁勋355亿入股!英特尔要为老黄造CPU,股价狂飙30%
  • 新思科技中国30周年,引领AI智能体工程师重塑芯片设计范式
  • 科大讯飞发布面向东盟的多语言大模型及系列产品,布局中国—东盟AI生态大未来
  • Nature | 20年后你会患上哪些疾病?AI准确预测超1000种疾病患病风险,助力预防
  • 我们还是低估了英伟达
  • 北京内推 | 字节跳动国际电商团队招聘大模型方向算法实习生
  • 少样本不够看?给LLM装上“学习引擎”,上下文学习迈入千样本时代
  • ICCV 2025 | Gap即力量!挖掘模态间隔潜力,MG-CLIP实现持续学习SOTA
  • 谁在拖慢你的RL?别怪显卡,错的可能是你的PG-loss
  • OneSearch,揭开快手电商搜索「一步到位」的秘技
  • 17.38 万的大六座 SUV,吉利用银河 M9 敲碎了友商的心
  • 刚刚,OpenAI在ICPC 2025编程赛上满分登顶,Gemini也达到金牌水平
  • 从一个公众号智能体说起:好用的Agent,究竟需要什么?
  • B站出海的强有力支柱:最新开源文本转语音模型IndexTTS-2.0标志零样本TTS进入双维度时代
  • 腾讯企点营销云发布Magic Agent,营销工具全面AI化
  • 带屏 AI 眼镜登场!Meta「眼镜全家桶」炸街了
  • 通义DeepResearch震撼发布!性能比肩OpenAI,模型、框架、方案完全开源
  • 让机器人「不只是走路」,Nav-R1引领带推理的导航新时代
  • 刚刚,DeepSeek-R1论文登上Nature封面,通讯作者梁文锋
  • 腾讯 AI 的新叙事
  • 传小米 YU7 新车型曝光纽北;李飞飞放出 3D AI 新成果; 49.2%,火山引擎大模型调用份额占半壁江山
  • 小扎豪掷143亿,却换不来AI燃料!数据之争下半场,中国冲出一匹黑马
  • 终结数据荒!智源开源首个Deep Research数据合成框架InfoSeek
  • 我用一张照片,生成了一个能走进去的世界
  • 奥特曼爆料:GPT-5重构彻底一切!一人顶五个团队
  • 最新实测GPT-5-Codex:前端能力碾压,复杂项目轻松搞定,Claude可以扔了!
  • TPAMI 2025 | 弱监督与自监督引领自动驾驶运动预测新范式,用场景分割“脑补”运动,仅需0.01%标注,性能媲美监督方法
  • 南开大学等提出RAM++:从关注“降质”到关注“内容”,实现鲁棒的全能图像恢复
  • 不改参数不重训!CARVE一招纠偏,对比注意力让视觉模型精准聚焦
  • ICML 2025 | AI福尔摩斯来了!LLaVA-ReID多轮发问,行人重识别一步步锁定
  • 博士申请 | 新加坡国立大学CoSTA Lab招收人工智能全奖博士/RA/实习生
  • 清华新作颠覆CoT!ParaThinker并行思考,终结单链推理天花板
  • 没想到,音频大模型开源最彻底的,居然是小红书
  • 6.1B打平40B Dense模型,蚂蚁开源最新MoE模型Ling-flash-2.0
  • 「AI助手」真来了?谷歌牵头推进Agent支付协议AP2
  • 腾讯AI Lab首创RL框架Parallel-R1,教大模型学会「并行思维」
  • 阿里开源通义DeepResearch,性能超OpenAI、DeepSeek旗舰模型
  • 华为发布4+10+N中小企业智能化方案,打通迈向智能世界「最后一公里」
  • LLM开源2.0大洗牌:60个出局,39个上桌,AI Coding疯魔,TensorFlow已死
  • Cell丨谷歌AI co-scientist联合帝国理工揭开谜团:提出并验证细菌基因转移机制假说
  • 华为首款旅行车 1 小时订单破 5000,余承东再次「封神」?
  • 腾讯、复旦、上海创智学院提出SwiftVideo:首个Continuous-time视频蒸馏加速框架,实现业界最快最高清视频生成
  • 刚刚,李飞飞空间智能新成果震撼问世!3D世界生成进入「无限探索」时代
  • 突破单链思考上限,清华团队提出原生「并行思考」scale范式
  • 刘强东喊话王兴:尊重兴哥,不应是仇人;美机器人公司估值暴涨至390亿美元;iOS 微信支持聊天发实况图|极客早知道
  • 7亿人每周狂发180亿条消息!OpenAI首次揭秘ChatGPT最火用途
  • LLM会梦到AI智能体吗?不,是睡着了也要加班
  • 一周休4天!老黄、盖茨站台,网友炸锅:是AI福利,还是裁员信号?
  • AI精神病爆发!沉迷ChatGPT把人「宠」出病,KCL心理学家实锤
  • 谷歌DeepMind「粪坑淘金」全新方法,暗网毒数据也能训出善良模型
  • EMNLP 2025 | 跨风格不误判!MoSEs用职业写作风格建模,检测AI文本更稳更准
  • 一招打破瓶颈!HyperTree超树规划:AI掌握层级化推理,复杂任务全面突破
  • 北京内推 | 微软Copilot算法团队招聘大模型推理方向研究型实习生
  • 高阶程序,让AI从技术可行到商业可信的最后一公里
  • 网络顶会获奖!华为提出端网协同RDMA传输架构,解决大规模AI集群网络可扩展性问题
  • 具身智能能力狂飙,安全却严重滞后?首个安全可信EAI框架与路线图出炉!
  • 在端侧 AI 时代正式到来之前,联想想先做好硬件「杀手锏」
  • 火山引擎发布PromptPilot,推动大模型应用高效落地
  • 在「外滩大会·具身智能:从泛化到行动,重塑产业未来」上,这些大牛都说了什么?
  • 国内首个!夸克公开覆盖全阶段医师考试的健康大模型测试集
  • 蚂蚁百灵开源轻量级MoE语言模型Ling-mini-2.0,1.4B激活性能比肩大规模模型
  • 浙大侯廷军团队联合IIT等发布系统综述:全景解析机器学习加持下的「增强采样」方法
  • 斯坦福大学提出PSI:一种通过概率结构集成,从数据中学习可控、可灵活提示的世界模型的新系统
  • BMVC 2025 | 无需源数据,Grad-CL如何利用梯度引导实现精准的眼底图像分割?
  • 谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
  • 从少样本到千样本!MachineLearningLM给大模型上下文学习装上「机器学习引擎」
  • 最新披露,骑手收入真实情况揭晓
  • 刚刚,OpenAI发布GPT-5-Codex:可独立工作超7小时,还能审查、重构大型项目
  • 多模态BUG修复新SOTA:慕尼黑工大GUIRepair登上SWE-bench Multimodal榜单第一
  • 15年大佬深夜痛哭半小时!氛围编程巨坑曝光,95%程序员沦为「AI保姆」
  • 面试不是考试,是表演!新晋OpenAI员工:重磅揭秘顶级AI岗通关密码
  • GPT-5惨遭零分打脸,顶级AI全军覆没!奥特曼AI博士级能力神话破灭
  • 反转!LeCun刚转发「全球最快开源推理模型」,ETH苏黎世就直接打假
  • 新世界首富:斥巨资求永生,TikTok收购案最可能买家,得OpenAI千亿订单
  • EMNLP 2025 | LLM也会“装成人”?对比重写CoPA挑战AI文本检测可信度
  • 从Muon到AdaMuon:下一代优化器能否真正取代Adam?
  • 北京/杭州/西雅图内推 | 阿里通义实验室LLM Research团队招聘大模型研究科学家
  • 博士申请 | 南京大学范琦老师课题组招收26级/27级视频生成/世界模型方向博士生
  • 法天使与零一万物发布法务智能体平台,让AI成为法务部的超级员工
  • 从「对口型」到「会表演」,刚进化的可灵AI数字人,技术公开了
  • 数字生活的原生入口:蚂蚁集团发布AI眼镜全新技术框架gPass
  • OpenVision 2:大道至简的生成式预训练视觉编码器
  • 旗舰手机、AI 拍摄眼镜、Flyme ,魅族 22 「归航」终极生态
  • DeepMind与牛津大学提出LayerLock:用渐进式层冻结实现高效、无崩溃的自监督视觉表征学习
  • 超越GPT-4o,蚂蚁集团与南洋理工大学提出LaV-CoT:首个语言感知的视觉思维链
  • 为什么说现在所有的 AI Agent,都像 3D 打印机?|AI 上新
  • 召回率达99%,牛津大学等开发AI工具助天文学家快准识别超新星,从亿万星海中秒抓宇宙烟火
  • 用光学生成图像,几乎0耗电,浙大校友一作研究登Nature
  • 告别ROS的繁琐, 易用易学的机器人学习系统: 华为诺亚面向机器人学习的开源Python框架
  • 现货来了!火出圈!钉钉首款AI硬件DingTalk A1正式开售
  • 苹果 iOS 26 今日发布,8 大更新;华为小米宇树入选 MIT「聪明公司 50」;中国核电催更《流浪地球 3》
  • 2027万亿视频市场将爆发!AI十年如何重塑内容产业?|新智元十周年峰会
  • GPT-5是口袋博士?诺奖得主哈萨比斯怒怼奥特曼:博士级AI纯属扯淡!
  • 微软用「光」跑AI登上Nature!100倍能效颠覆GPU,华人首席研究员扛鼎
  • 缺钱但不缺洞见:刚刚,陶哲轩揭秘AI如何吞噬数学项目的灵魂!
  • 马斯克深夜挥刀,Grok幕后员工1/3失业!谷歌AI靠人肉堆起,血汗工厂曝光
  • 全景呈现大模型开源技术路线和生态,蚂蚁开源在2025外滩大会发布全新报告
  • 抢先实测美团首个AI Agent,让我体验一把「懒人点餐」的快乐
  • 将KV Cache预算降至1.5%!他们用进化算法把大模型内存占用砍下来了
  • LLaSO 横空出世:逻辑智能推出全球首个完全开源语音大模型框架,定义 LSLM 研究新基准
  • 为这一个Tab键,我愿意单独付费:Cursor用在线强化学习优化代码建议,护城河有了?
  • 小红书智创音频技术团队:SOTA对话生成模型FireRedTTS-2来了,轻松做出AI播客!
  • 大模型碰到真难题了,测了500道,o3 Pro仅通过15%
  • 耗资15000个A100 GPU日!港中文、阿里等发布600万规模T2I推理数据集与基准
  • INFFUS 25 | FS-Diff:一步到位,用扩散模型同时实现多模态图像融合与超分辨率
  • 神经细胞自动机实现目标导向的形态生成,AI在「生命游戏」里玩出反向规则
  • iPhone 17 全系上线拼多多,5099 起;「罗西大战」后续,传「预制菜国标」过审;小米蔚来小鹏抵制「车圈黑公关」

ICML 2025 | 乱写Prompt更给力?删几个Token,上下文学习立刻“反向觉醒”

王剑羽 2025-09-19 22:35 北京

清晰Prompt已过时?

©PaperWeekly 原创· 作者|王剑羽

单位 | 阿里达摩院算法工程师

或许你会觉得 LLMs 进步这么快,各种 SFT、RLHF 技术飞速迭代,大模型知道如何使用自然语言进行沟通,花时间调一个详细的小样本提示 (In-context Learning,上下文学习 ICL)就可以满足任务需求。

比如 OpenAI Guide [1] 所建议:一般我们要将 prompt 构造地足够清晰,一个包含所有任务需求的指令 instruction,再加上一些精细测试过的小样本实例,往往可以在大部分应用上取得理想的效果。

我们另辟蹊径,挑战了上下文学习优化的构建范式,发现随便一个 ICL 提示,即使他们初始效果差异性很大,仅仅通过仔细扰动一下上下文(比如删令牌-Token),就可以让一个随意写的 ICL 提示在不少任务上达到接近 SOTA 提示优化的结果!

并且比起清晰明了,反直觉的事情是更有效的,删令牌之后的 ICL 提示,几乎全是乱码,没有遵从自然语言语法或者可解析的语义。

希望我们的研究可以对 In-context Learning 上下文学习的解释性提供一些帮助,也希望我们的工作可以启发一些新的开放性搜索算法,让 LLM 的语言空间去发现更好的提示策略。

论文题目:

Evolving Prompts In-Context: An Open-ended, Self-replicating Perspective

论文链接:

https://www.arxiv.org/abs/2506.17930

异常有效的非自然语言提示很难找到?

随着 LLMs 的不断进步(越来越对齐,可以跟随人类自然语言指令了),大家发现足够清晰,且饱含细节的自然语言提示已经足以满足大部分日常需求了。

但目前 LLM 提示在非自然语言方面,还有一些略微冷门的研究,比如 AutoPrompt [2],RLPrompt [3],GCG [4],他们发现一些非自然语言的乱码在特定任务上是更加有效的提示。

对于工作和研究而言,很难大规模构建这种提示,所以它更像是一种隐藏的词汇,组成一种“神秘”的语言,比如文本生成图像的 Diffusion Model 的工作 [5]

▲ DALLE-2 的提示:Apoploe vesrreaitais eating Contarraccetnxniams luryca tanniounons

有效的非自然语言提示其实很好找到?

我们的工作主要是针对非自然语言现象的进一步理解,想表示这种现象暗示了通用 LLM 本身就潜在的提示敏感性。简单来说:

1. 如果 LLM 和人们对齐地足够好,那么它的回答模式应该是自然语言远大于乱七八糟的字符串。在任务中,自然语言的效果要足够优于乱七八糟字符串。

2. 可上述结果并不是这样,这暗示 LLMs 学习到的模式、规则走了其他的线,这也是一定的 superficial alignment(表层上的对齐)的表现。

3. 结论:LLMs 或许偏好一种模式,这种模式不是自然语言,尽管它们被大量训练去跟随自然语言指令。

4. 另一个研究(来自 DeepMind)[6] 发现:Transformer LLMs 在上下文学习上也展现了一种特定的模式,如下图所示,一个二分类任务(蓝绿色 vs 紫色),我们有两个特征(特征 1 可取 A 和 B,特征 2 可取 X 和 W)。

一个机器学习模型如果展现了图 b 的预测,即果断预测 BX 是紫色,这就是一种 rule-based generalization,因为它们看到数据中有了 B,就有这么大决策差距,所以倾向于预测 B 对应的类别。

与之相反,图 c 对应另一种泛化模式,BX 会尝试思考我有 B 和 X。那么 B 对应紫色类别,X 对应蓝绿色类别,通过综合这些特征,机器学习模型会给两种类别同样的预测置信度。

这篇工作发现 Transformer LLM 更像是图 b 的泛化模式,即一些特征会主导这个模型上下文的预测。

5. 综合 3 和 4,我们可以做一个推论:一个模型上下文可能只有部分特征占据了预测的关键引导,另一些特征或许在干扰模型对正确答案的预测。

6. 我们的研究问题:能否把那些干扰的特征扰动去掉,从而让效果变得更好?而且,本身我们是从训练语料库中的自然语言上下文做领域搜索,是否比本身受限于算法性能的优化方法,比如 RLPrompt 所优化出来的效果要好呢?我们称这样的假设为:Partial Context Hypothesis。

实验也证实了我们的猜想,一个随机采样随意构造的 ICL 提示可以通过裁剪删令牌 token 的方式让任务效果猛增,而且在测试的一些任务上几乎能够稳定落到每一个 ICL 提示上,让每个 ICL 提示达到测试的最好效果,甚至让效果进一步增长。

先前提示 / ICL 优化的工作范式是:

  • ICL:LLM 本身是一个黑盒,我们只能采取一些简单的思路,在经验上去衡量是否有效,一个常见的思路是通过检索和特定任务输入相似的示例,将它们组成 ICL 样例往往结果会有一定的提升, e.g., [7],不过往往每个任务输入,就需要换一下提示。

  • 自动提示优化:这里特指离散提示优化,结果都是可复用的文本提示。主流可以分为两种,一种是自然语言空间,一般让 LLM 去当提示工程师,比如 APE [8],另一种是令牌级别的搜索,在语言空间相对放开了进行优化,代表 AutoPrompt, RLPrompt 等等。

▲ 一个直观的 InstructGPT 在 MultiArith 的例子

问题描述

我们通过对提示进行压缩,将一个主要关注推理效率、可以接受一定任务性能下降的领域,重新建模为一个搜索问题。为了避免歧义,我们将这一过程称为“提示裁剪”。一个搜索框架通常包含三个组成部分。

  • Search Space 搜索空间:论文是初步探索,我们只关注特定的固定令牌顺序的裁剪形式,我们找的是 fix-order prompt subsequence search(固定顺序的子提示搜索)。

  • Search Objective 搜索目标:每个任务分出最多 200 的验证集,配一个特定的任务 metric 来评估提示的优劣,将这个最好的提示放在官方的测试集上去评估整体的泛化能力,避免了数据泄露问题。

  • Search Algorithm 搜索算法:这里提出了两种算法,一个是简单的爬山算法 Hill-climbing,另一种则是进化算法 Evolutionary search。

在讲述我们自己方法之前,也有一些看起来可用的方法,比如提示压缩方法,以及解释性里常用的令牌归因方法(类比视觉里的 saliency map),我们可以直接一次前向反向传播产生相应的重要性排名。

我们先做了一些尝试,比如提示压缩里选取了 LLMLingua 和 LLMLingua2;在归因方法中,我们研究了 Input x Gradient,以及其的 Contrastive Versions [9]。此外,还尝试了单纯使用注意力机制作为令牌重要性的指导。

如下图所示是对归因方法的实践,删除“不重要的令牌”不但没有带来效果的增长,相反还非常不稳定,注意力机制同理。

提示压缩方法也是同样,我们用分类任务举个例子:

比起原先的 ICL 提示,单纯的压缩算法不会带来效果的提升。

简单的局部优化搜索方法虽然可行,但效率和效果仍有提升空间

一个简单直接的想法就是类似梯度下降,我们做一个局部贪心的方式搜索,即经典的爬山算法。

如下图所示,倘若我们有一个点 x,看其左右的邻居, 哪个方向提升我们就往哪边前进。体现在提示中,就是每次尝试删一个令牌,提升了就说明这个词不重要,直到收敛,当我们无法根据验证集的效果再删除任何令牌为止,有可能陷入局部最优。

这里我们提出两种方法:

TAPruning:一种 first-choice hill climbing,其核心机制是:一旦发现某个 token(令牌)的移除能够带来性能提升,就立即执行该操作。

不过这里我们做了一个改进,即允许一定的下降,在部分实验中,我们取得了更好的结果,这侧面证实了优化目标具有一定的欺骗性,即 landscape 的分布可能比较复杂,类似上图的多峰分布。

SAHCPruning:一种目标驱动、贪心式的剪枝方法。对于给定提示,例如“ABCD”,我们系统地尝试删除每一个单独的 token(即分别测试“BCD”,“ACD”,“ABD”,“ABC”),并记录每种修改后的效果。

随后,我们选择带来最大提升的 token 进行永久删除,并重复这一过程,直到模型性能不再显著变化或达到收敛。我们将 SAHCPruning 与 TAPpruning 直接对比。直觉上,由于 SAHCPruning 每次都选择最优解,它似乎应该取得更好的结果。

然而,实验中我们观察到了一些有趣的现象——在某些情况下,这种方法甚至会陷入局部陷阱:当初始提示本身表现一般且略低于平均水平时,SAHCPruning 可能找不到任何能够立即提升性能的删除操作,从而导致提示无法进一步优化,停留在一个较低水平的性能状态。

相反,TAPpruning 在搜索过程中允许一定幅度的暂时性能下降,因此具备更强的探索能力,有时反而能够跳出局部低谷,最终获得更优的提示结构。

注意两种裁剪策略我们都是确保没有任何令牌可以被继续删为止作为收敛条件

初步实验结果有证明我们这种方法的有效性:TAPruning,也验证了我们提出的 Partial Context Hypothesis:

▲ 有趣的是,这个对于 few-shot 思维链推理这种答案和提示间隔距离一个思考过程的情况,也可能有效。

为了进一步提升算法性能,我们从两点出发,一个是搜索目标的优化,对于不同的任务我们或许可以构建更加有表达力的目标去减少样本的使用(详见原文)。另一个是进一步研究提示裁剪的搜索空间。

一个好的搜索算法一定适配搜索地形,比如上图中的多峰场景。如果地形只有一个峰,那么一个单纯的爬山算法可以收敛到全局最优。

适配稀疏多模态地形的搜索策略

我们先做了一个初步的实验,仅仅变换一下爬山算法的裁剪顺序(TAPruning),比如随机种子打乱了删词顺序,最后收敛的提示结果就是最后任务测试集的变化相当大。

▲ 这里的 shot 指的是 ICL 的 shot,默认测试的分类任务,1-shot 比如二分类就是每个对应的类别都有一个 example 参与构建对应的 demonstration,这里也就是两个样本。

这一现象说明,我们需要在算法中引入更大的全局探索,去充分挖掘更好的解。常见的思路包括随机搜索(RS)以及进化搜索(ES),通过保留一个多样性的种群方式去多样化的探索这个搜索空间。

在特定情况下随机搜索效果更好,比如说多峰,而且这些局部最优解相对比较密集,且局部最优的效果都差距不大。

▲ 左图:统计随便裁剪(采样)1000 次 1-shot ICL。虚线对齐 TAPruning 的效果,我们可以直观看到 ES 在这个空间中比 RS 更高效。右图:我们进一步做了数值分析,发现 RS/ES(divided by)找到的高于 TAPruning 的 Solutions 的数量,随着难度的增加(上下文长度的增加导致潜在优质 prompt 的稀疏性的增加),而显著减少。

因此,我们推荐使用 ES 作为适配搜索空间的算法。当然你或许会想到贝叶斯、强化学习等方法,但在我们这个问题上,它们并没有那么高效。

面向开放性探索的自我优化框架:PromptQuine

▲ 既然不知道到底应该怎么裁剪,要不我们让算法自己去探索, 自己去尝试验证自己的假设?

如图所示,整个程序唯一做的事情就是在每一代里面去尝试复制它自己,为了适应选择压力,引入了一些随机的突变,比如删除随机的令牌,全部过程直接模仿了自然界的进化自复制过程。由任务适应度去帮助我们筛选合理的裁剪策略。

从经验上来说,最重要的一个设计就是,给我们种群每一个提示一个生存繁衍的机会,而不是一个胜者通吃的方式,这种模式产生了更好的结果。

这个进化的过程自然模拟了自然界的适应和进化的过程,但我们也是无法预料各种天灾,最后生存下来的生物到底是什么模样。自然界告诉我们,天生弱小的生物也可能战胜那些有显著优势的生物。

提示优化或许也是一样的答案,我们很难说掌握这个黑盒 LLMs 的工作机理,相反,我们应该期待一种类似自然界形成生态位 niche 的过程,给一些奇形怪状的非自然语言提示一些机会,或许会产生更多的意想不到的结果,拥抱更多的开放性 Open-Endedness。

实验结果

分类任务:

  • PromptQuine 超越了其他算法的性能,也超越了之前的爬山搜索。

  • 和传统的上下文学习一样,增加样本数量 shots 往往可以进一步提升任务表现,裁剪也展现了一样的结果。

  • 与之不同的事情是,单纯增加 ICL 的 shots,可能无法盖过裁剪带来的提升。我们应该更多地思考与关注那些看起来语义和语法上很奇特的提示。

更多的 LLMs 在分类任务上的结果(1-shot)

生成任务:文本风格迁移(2-shot)

▲ 生成任务:Jailbreaking(prefix ICL attack, no conversational tags / system prompts)

  • SV 是我们使用 steering vector 构建优化目标的初步尝试,更加有效的 proxy 有机会带来系统算法性能(特指效率)的增长。

生成任务: Jailbreaking (In-context attack, where examples are separated by conversational tags w/ system prompts)

  • llama2-chat 效果很一般,一定程度上对齐之前人们对于 in-context attack 的结果,不过具体是什么防御住了裁剪还有待解释。

  • 或者允许更加开放性的上下文操作方案,比如不只是固定顺序的裁剪,也可以考虑加令牌、改令牌等等,会对结果有所改进。

多选问答:PIQA:

数学思维链推理:

效率:

我们发现这个一般依赖于上下文的长度。对于一个 200 令牌的提示而言,一般的分类任务可能可以执行的很快,可以说是目前最快的 token-level search, 只需要几分钟的黑盒优化。

对于生成任务而言,因为目标评估的问题,仍然需要 4-5 个小时,这个对于特别长的提示而言负担会非常大(我们也有遇到 4-5 天才能单 GPU 优化的 3000 长度的提示)。对于特定的任务,很推荐直接尝试 TAPruning 先做一遍测试,这里见一些例子:

分类任务:

生成任务:Text style transfer

一些额外的算法提升空间

我们发现单纯裁剪的这样框架其中一个局限就是虽然这个可以作为一种潜在的 ICL 稳定机制,但最终效果还是敏感于具体的初始化模版。

详细地说,便是 ICL 的模版初始化还是会对最终结果产生一些差异,比如下图对于 SNLI 任务:

左边 template 表示一个样本的形式,堆叠 template 作为 few-shot context,可以看到右边的最终结果还会有很大差异。

一个更加开放的上下文操作有更大的潜力去克服这种现象,目前的 PromptQuine 受限于 ES 的选择压力,一些好的结果可能无法保留,而是很早就被淘汰了。

或者一些更加开放的搜索方案,比如去抽象和优化特定的新颖性指标,而不是单纯的任务表现层面的竞争,会有更好的结果。

进一步理解上下文学习的工作机制

我们做了一些初步探索,研究了分类任务的上下文学习的 label words。大部分的 label words 很重要的结论和自然语言的 ICL 一致。

不过我们也发现一些有趣的现象,对于随便构建的 label words,就有不少比例的 verbalizers 可以通过裁剪有显著的效果提升,哪怕单独去看原始效果都接近于偶然(完全失效)的任务表现。

注意这些原始提示(未裁剪)都只能产生接近完全失效的任务结果。比如 llama3-70B-instruct 的例子,accuracy 表示裁剪之后的平均测试精度。

一些引申思考

更好的提示工程:

  • 我们应该考虑开放性的提示语言空间。一些你认为少见的非自然语言提示,或许就在你“身边”。

机制解释性:

  • 我们的工作抛出了很多解释性问题还未被解释,比如裁剪为什么有效;ICL 为什么是这种奇怪的模式等等,这些问题的解释和探索很可能对领域的发展有所帮助。

安全和对齐:

  • 我们这里裁剪出有效的非自然语言提示,暗示商用模型应该更加注重非自然语言提示的防御。一个可用的策略或许是从输出端处理,通过现有的对于自然语言理解很好的 safeguard。

  • 另一个角度上呼吁转换对于 AI 对齐的关注,其对于表面修复有效,但根本上需要解决内在对齐。

参考文献

[1] https://platform.openai.com/docs/guides/prompt-engineering/strategy-write-clear-instructions

[2] AUTOPROMPT: Eliciting Knowledge from Language Models with Automatically Generated Prompts, EMNLP 2020

[3] RLPrompt:Optimizing Discrete Text Prompts with Reinforcement Learning, EMNLP 2022

[4] Universal and Transferable Adversarial Attacks on Aligned Language Models, arxiv 2023

[5] Discovering the Hidden Vocabulary of DALLE-2, arxiv 2022

[6] Transformers generalize differently from information stored in context vs in weights, arxiv 2022

[7] What Makes Good In-Context Examples for GPT-3? Deelio 2022

[8] Large Language Models Are Human-Level Prompt Engineers, ICLR 2023

[9] Interpreting language models with contrastive explanations EMNLP 2022

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们