动态列表

  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像

GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活



  新智元报道  

编辑:倾倾
【新智元导读】别再吐槽GPT-5变笨了!OpenAI最新发布的提示工程指南,揭秘了一套调教prompt。用对了之后,它就能从偶尔靠谱,变成稳定、高效、甚至补漏收尾的全能搭档。

「GPT-5怎么不如之前的4o?」「GPT-5怎么这么笨?」

最近我们被这样的抱怨刷屏。

同样的任务,它要么机械复述,要么擅自改动,令人哭笑不得。

真相不是模型退步,而是配置没对。

OpenAI最新的「提示词工程指南」给了我们答案:

只要拨对5这五个开关,它就能从沉默执行的机器,变成全能的工作伙伴。


别让它闷头干,「自主探索」找到新路


很多人抱怨 GPT-5 只会按字面办事,不会自己多想半点。

其实是你把它关在了「安静执行」的模式里。

其实,GPT-5可以在「严格按照要求执行」和「完全自主解决问题」之间自由切换。

我们可以通过调整agentic eagerness(自主探索倾向)来控制它的行为。

这个值低的时候,它的探索范围变小,只会做你写在提示词里的事情。

高的时候,它就会自己查漏补缺,甚至优化原计划。

示例prompt:

You are a research assistant helping me create a 2-page market trends summary.  

Use reasoning_effort: low  

· Do not explore topics outside the 2023–2025 data.  

· Stop if you cannot find at least 3 credible sources.  

· Keep going until you've fully summarized the 3 trends and written the final draft.


Cursor在测试GPT-5的时候发现:

如果直接在提示词里写明「可自主探索优化机会」,并给出代码风格、性能优先级等要求,GPT-5就不会只修一处bug,而是会顺带修掉其他隐患,让整个代码库更干净。

Global setting: verbosity=low 

When providing code edits: 

· Switch verbosity to high Include full diffs with comments explaining each change 

· Use descriptive variable names



推理深浅要对位
别让它小题大做或一带而过


有时候,GPT-5遇到个小问题也能想半天,洋洋洒洒给你甩几百字;

还有时候,碰到个复杂任务,却只回一句话,像是敷衍交差。

原因就在reasoning_effort(推理深度)身上。

它就像镜头的焦距,决定相机是拍全景还是小景。推理深度调低,它会给你一个简明结论;

调高,它会则一步步拆解、逐条论证。

示例 prompt:

You are solving a logic puzzle.  

· Use reasoning_effort: high  

· Explain your reasoning before giving the final answer.  

· If the puzzle takes more than 5 steps to solve, break it into stages and confirm with me after each stage.


所以,使用诀窍就是根据任务难度调档:简单事浅尝辄止,复杂事深挖到底。

在一些延迟敏感、结果明确的任务上,可以直接用最小推理模式(minimal reasoning)。

把步骤、模板写清楚,让它按格子填。

这样速度快、浪费token少,还能避免它额外发挥。

提取邮箱列表、格式化数据、批量改标题这些简单任务,不需要它反复推理,所以越快越好。

但要是策划一整套婚礼流程,细致到新娘手捧花的颜色都要写出来,那就需要开启深度模式,反复推敲。

多步骤任务半路不失忆
全靠这把「记忆锁」

用过ChatGPT的人, 都遇到过这种窘境:上一步刚辛辛苦苦铺好的逻辑,下一步它就像断片了一样,推理链从零开始。

OpenAI在指南里着重强调Responses API——它能让GPT-5把前面的推理结果锁住、复用,避免重新规划。

示例prompt:

 {

 "model": "gpt-5",

 "previous_response_id": "resp_12345", 

"input": "Now summarize the insights from the analysis above in bullet points." 

}


OpenAI的报告称,使用Responses API之后,GPT-5在Tau-Bench Retail的准确率从73.9%提升到了78.2%。


也就是说,它更稳定、更少「中途失忆」。

这就好比你让它帮忙做一个10页的市场调研报告,没用记忆锁时,它可能第7页突然跑出个新定义,和前面冲突;

用了记忆锁,它就会沿着最初的思路走到最后,数据、口径、风格全都统一。

如果想让长任务更稳定,还可以加上「过程可追踪」。

让它在每个阶段开始前重述目标、列出步骤,执行中简单说明当前动作,结束后总结变化。

示例 prompt:

Your job is to clean and analyze a CSV file. 

Before you start, restate the task in one sentence and outline the steps you will take. 

When using a tool, explain what you're doing in 1–2 sentences before calling it.

After each step, summarize the result in under 50 words.


这样就能随时能介入调整,既不打断它的节奏,又让整个流程也更透明。

Responses API就像长途旅行的导航。

有了它,GPT-5会沿着同一条路线开到底;没有它,它可能中途掉头回到老地方。

脑子和嘴分开控制
才能说到点子上


你可能遇到过这种场景:

明明是一个很简单的问题,但GPT-5输出的全是长句,读下来累得像在啃说明书;

又或者它说得很简洁,却能感受到里面还有一堆细节被它「吞」了。

这是因为推理深度和verbosity(冗长度)是两个不同的东西。

你可以把全局可以设成简洁,保证日常对话不啰嗦;

而在需要细节的场景,如审计记录、研究报告,就可以暂时调高冗长度,让它把脑子里的推理过程「倒出来」。

示例prompt:

Verbosity: low 

Task: Summarize this 20-page report in 200 words. 

If I type "explain more", increase verbosity, and give a detailed breakdown.


想象一下,它帮你修一段前端代码。

冗长度低时,它只会说「我修好了」;而冗长度高时,它会给你完整的diff、逐行解释修改原因,还会顺带提示几个潜在的性能问题。

分开调这两个设置,就像有了个既会深思又懂表达分寸的搭档——

需要它沉默时它就沉默,需要它滔滔不绝时就就滔滔不绝。


规则清楚,才不会在脑子里打架


GPT-5特别听指令,但要是指令互相打架,它就容易跑偏。

指令词层级不清、条件互相冲突,这些就像是给它一张模糊的线路图。

如果你对它说:「今天别开会」「今天尽快开会」,他得反复琢磨按哪一条办。

可如果你改成「只在得到确认后安排最早的会议」,它就能直接执行。

示例(错误示范 ❌):

Never schedule meetings without consent. 

Always schedule the earliest available time.


修正(✅):

Only schedule meetings with explicit consent. 

If consent is given, choose the earliest available time.


这一点在团队合作,尤其是写代码这种任务中更加重要。

我们只需提前在提示词里加好「代码编辑规则块」,把框架、样式/UI、命名规范、动效和字体一次性说清楚。

这样它生成的代码从第一行到最后一行都符合团队习惯,不会半路改风格。

示例prompt:

You are editing an existing React app. 

· Follow BEM CSS naming. 

· Use Tailwind for styling. 

· Place all new components in /src/components/ui. 

· Maintain camelCase for function names. 

· Use only hooks for state management. 

Now, add a responsive navbar with a dropdown menu that matches the existing color palette.


甚至你可以通过指令规定生成内容的格式。

如果你想它用Markdown、加标题、用列表或代码块,只需要在提示词里明确写出来,并在长对话中隔几轮重复一次,就能得到想要的结果。

示例prompt:

Output your response in Markdown format. 

· Use H2 headings 

· Bullet points for lists 

· Code blocks with language tags for code snippets


说到底,别让它把算力花在和自己争论上——规则越清楚,它越能把精力放正事上。

五个开关都调过了,结果还是觉得GPT-5没「到位」?

那你可以试试元提示(Meta prompting),把你的指令发给它,让它自己当评审。

不但能告诉你问题出在哪,还能再顺手帮你改一版。

五个开关,一个小技巧,就够你解锁GPT-5的大部分潜力。

试着调几次,你就会发现——它其实一直很聪明,只是等你拧对开关。

参考资料:
https://aitoolsclub.com/a-practical-prompt-engineering-guide-for-gpt-5-with-examples/


<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652631330&amp;idx=3&amp;sn=334a9d4591bf61b8f6fd1416609b9b7c&amp;chksm=f04dd26cf04c514b91a7c2850837ea858c5d193ea550697f33de2f748f0d894a710dccd66bec&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/M3EBdcV3Nr&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们