动态列表

  • 刚刚,谷歌发布71页AI科研报告!6大领域全面超越专家,几小时顶几个月
  • 一夜刷屏!27岁姚顺雨离职OpenAI,清华姚班天才转型做产品经理?
  • 王小川押注下个十年:为人类造医生,为生命建模型|新智元十周年峰会
  • 一刀砍掉90%训练成本!Qwen3-Next用1/10算力练成「长文推理利器」
  • AI意识「觉醒」!图灵得主Bengio重磅发声:AI正接近人类意识临界点
  • 扩散语言模型也有MoE版本了!蚂蚁&人大从头训练LLaDA-MoE,即将完全开源
  • 如何为LLM智能体编写工具?Anthropic官方教程来了
  • 腾讯优图重磅开源Youtu-GraphRAG,实现图检索增强技术新突破
  • 北京/上海内推 | 小红书智能审核算法团队招聘NLP/多模态内容理解算法工程师/实习生
  • 「做笔记」的RAG来了!告别噪声与骨牌效应,EviNote-RAG稳住长链推理
  • KDD 2025最佳论文亚军:参数不同还能共训?异构知识迁移框架HtFLlib全面开源
  • Adam的Update RMS为何总是0.2?噪声模拟到理论近似全讲透
  • 我苦寻的「库乐队」,叫 MiniMax Music 1.5
  • Science Advances | AI for Earth:聆听海洋的「脉搏」,新一代AI大模型精准预测十年气候脉动
  • 外滩大会嘉宾锐评AGI即将“撞墙”,正在向数字与物理世界进化
  • 港科大 X MiniMax:高质量数据、小模型挑战复杂网络搜索难题
  • 为了网罗 AI 创新者,上海搞了场万人科创大赛
  • 蚂蚁集团数字蚂力首批专家级“AI数字员工团队”亮相外滩大会
  • “IIFAA数字卡包”上线支付宝:目前已支持多类身份申领
  • 蚂蚁集团加码AGI等青年人才培育,2025蚂蚁InTech奖在外滩大会揭晓
  • 重塑药物研发,哈佛医学院等开源全新AI模型,用「图神经网络」破解疾病驱动因素多元难题
  • 全球最懂智能体的创业者齐聚外滩大会,未来三年怎么做聊透了
  • 马上上岛|云栖大会「新世代 AI 创想岛」即将揭幕
  • ICRA 2025 | TANGO:机器人告别3D地图,仅靠RGB摄像头实现零样本长距离导航
  • 挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型
  • 姚顺雨离职OpenAI,「亿元入职腾讯」传闻引爆AI圈,鹅厂辟谣了
  • 全新MoE架构!阿里开源Qwen3-Next,训练成本直降9成
  • 告别错误累计与噪声干扰,EviNote-RAG 开启 RAG 新范式
  • 西贝贾国龙称一定起诉罗永浩;支付宝推出「AI 付」服务;iPhone 17 京东、天猫预订量比上代大增|极客早知道
  • 刚刚,ChatGPT支持MCP了!一句Prompt即可全自动化
  • 百度CTO王海峰:AGI曙光已现,Scaling Law仍有效|新智元十周年峰会
  • 通用Agent是伪命题?昆仑万维方汉现场拆解:垂直推理才是胜负手|新智元十年峰会
  • 文心X1.1三大能力狂飙,海内外实测还挺惊艳!
  • 超越90%城市规划师!清华、MIT等提出人机协作新范式 | Nature子刊
  • 慕尼黑车展,当冷静遇上冷静
  • 博士申请 | 新加坡国立大学计算机系卞亚涛老师招收2026 Fall人工智能全奖博士/博后
  • 继首创“AI打赏”服务之后,支付宝再推国内首个“AI付”
  • 蚂蚁百宝箱新品Tbox超级智能体亮相外滩大会,5分钟即可完成专业教学素材
  • 量子宇宙模拟竞赛开启:量子计算机可以模拟并阐明复杂物理现象
  • 3000亿美元OpenAI大单,让世界首富位置换人了
  • 攻克大模型「表格盲区」!ST-Raptor框架发布,实现复杂半结构化表格的精准理解与信息抽取
  • 港大马毅外滩大会演讲:人工智能应从“黑箱”走向“白箱”
  • 兼顾准确率与可解释性,DeepSEA实现抗生素耐药蛋白注释范式转变
  • 交互扩展时代来临:创智复旦字节重磅发布AgentGym-RL,昇腾加持,开创智能体训练新范式
  • RewardDance:字节跳动提出视觉生成奖励扩展新范式,破解“奖励劫持”难题
  • 刚刚,Thinking Machines Lab首次发长文,揭开LLM推理不确定性真相
  • 英伟达的AI已经开始接管整个项目了?SATLUTION自主进化代码库登顶SAT竞赛
  • 大模型智能体不止能写代码,还能被训练成白帽黑客
  • 高德扫街榜,能不能做成中国的「Google Map」?
  • 开启MPV家庭新时代,魏牌高山7正式启动预售
  • ACL最佳论文幕后的北大人!北大张铭带出顶会常胜军和百亿CEO天团|新智元十周年峰会
  • 刚刚,这款Agent浏览器力压OpenAI,72%成功率全球第一!还能免费用
  • =COPILOT()函数横空出世!AI自动写公式效率起飞,网友:让Excel再次伟大
  • 当智能醒于物理世界,英伟达副总裁: 下一个十年属于物理AI!|新智元十周年峰会
  • 刚刚,英伟达祭出下一代GPU!狂飙百万token巨兽,投1亿爆赚50亿
  • 00后挑大梁!近20国选手激战外滩大会,AI科创赛三赛道冠军诞生
  • CoRL 2025 | 港大InfoBodied AI团队首发具身表征新范式,构建任务自适应的感知框架
  • 英伟达下一代GPU登场,Rubin CPX一次推理数百万Token,网友:这是头野兽
  • 谷歌AI新里程碑:一个能「做研究」的系统诞生了,用LLM+树搜索编写专家级软件
  • 爱诗科技完成6000万美元B轮融资,阿里巴巴领投,达晨财智、深创投、北京市AI基金、巨人网络、Antler等跟投
  • 当人工智能「看见」量子世界:AI如何改变对复杂量子系统的认知,南洋理工、上交等发布量子系统学习综述
  • DeepSeek、Gemini都不行?AgenTracer锁定多智能体“背锅侠”,8B小模型反超闭源巨模
  • 北京内推 | AMD北京AI算法团队招聘模型量化/剪枝算法实习生(可远程)
  • SFT真不如RL?MIT团队抛出“RL的剃刀”,砍掉遗忘直通终身学习
  • 院士领衔!从智能算网到司法AI:顶尖学者直播解读AI与工程前沿趋势
  • AI应用元年,这场标杆赛事见证了中国创新速度与野心
  • AI胡说八道这事,终于有人管了?
  • 人人都能炼专属Agent,上海交大开源端侧Agent全栈工具链,真实场景性能超GPT-5!
  • TPAMI 2025 | H2OT:分层沙漏型Tokenizer,重塑高效视频姿态Transformer
  • 史上最贵「打工皇帝」!马斯克解锁1万亿美金工资,拢共分几步?
  • 500 块的「电子宠物」,治好了我的「路怒症」|New Things
  • 苹果发布会:耳机测心率、手表听音乐、iPhone Air超级薄
  • 5999 元起,苹果发布eSIM、超薄 iPhone;王腾再辟谣离职原因谣言;反恶性补贴,主要外卖平台被约谈|极客早知道
  • 不到10天,国产「香蕉」突袭!一次7图逼真还原,合成大法惊呆歪果仁
  • 再也不怕面瘫脸!YouTube黑科技:AI帮你「永久微笑」,连僵尸都咧嘴笑
  • OpenAI真正王牌,不是Ilya!刚刚,奥特曼罕见致谢这两人
  • 缔造OpenAI的秘密,竟只有一个词!新智元十年峰会圆桌,七位大咖激辩
  • Hinton预言失灵?掌握AI技能涨薪23%,比读硕士更赚钱
  • 最薄 iPhone 登场,eSIM 正式落地|苹果秋季发布会新品回顾
  • 文心新出的推理大模型,给了我们信心
  • SFT远不如RL?永不过时的剃刀原则打开「终身学习」大模型训练的大门
  • 从第一性原理出发的RAG推理新范式来了,蚂蚁DIVER登顶权威基准
  • 击败多个行业巨头,优必选自研人形机器人最强大脑 Thinker 斩获全球四项第一
  • 字节跳动发布 Seedream 4.0 图像创作模型,豆包、即梦可免费体验
  • 从科幻到产业元年 | 「脑机接口」系统综述发布:全景解析理论、技术、挑战、趋势
  • 硅谷也996实锤了?AI的火,烧掉了硅谷的周末
  • DPad: 扩散大语言模型的中庸之道,杜克大学陈怡然团队免训推理加速61倍
  • Altman亲自发博客点赞,这两大杰出人才是谁?
  • 自变量机器人完成近 10 亿元 A+ 轮融资,多元资本押注共同布局具身智能未来
  • 报名启动!西湖大学云谷青年学者论坛·人工智能分论坛诚邀全球英才
  • 不止综述!多模态大模型持续学习全链路:Benchmark、方法与Codebase一网打尽
  • ICML 2025 | 别再只拼CoT了!不完备信息下的主动推理,LLM普遍掉线
  • 科研实习 | 北京大学计算机学院潘亮铭老师课题组招收NLP/大模型方向科研实习生
  • 时空壶发布 W4:用「硬核」技术,打赢一场 AI 翻译的「标准」之战
  • Science | 西奈山伊坎医学院新AI算法为1600种变异定量「风险」,解析疾病外显率难题
  • TPAMI 2025 | IGEV++:迭代多范围几何编码,刷新立体匹配技术新高度
  • 原来你是这样的外滩大会!
  • 小米通报王腾因泄密被辞退,本人发微博回应;传 IPO 估值 500 亿,宇树回应 ;辛顿自曝被女友用 AI 分手 | 极客早知道
  • Hinton自曝:前女友提分手,用ChatGPT列出自己「七宗罪」
  • 从「会说」迈向「会做」,LLM下半场:Agentic强化学习范式综述
  • 字节Seedream 4.0将全量开放!抢先评测来了,我们摸索出AI生图20种「邪修」玩法
  • 全球图生视频榜单第一,爱诗科技PixVerse V5如何改变一亿用户的视频创作
  • 扎克伯格的豪赌初见成效?Meta新方法让LLM长上下文处理提速30倍
  • 具身VLA后训练:TeleAI提出潜空间引导的VLA跨本体泛化方法
  • 上海AI Lab重磅综述:AI实现自主科学发现时代已经到来
  • 6 个月估值暴涨 5 倍突破 100 亿美元,三个「00后」逼急 Scale AI
  • 深圳内推 | 腾讯音乐天琴实验室招聘音乐生成算法研究员(社招/校招)
  • 给RL装上“防抖器”!GRPO稳化版来了:更高熵、更低KL、更稳更新
  • 导师放养真的会毁掉一个人……
  • Focal Loss也能无监督?北大×港中文团队用“双重不确定性优化”提升鲁棒3D感知
  • 上汽通用五菱与华为深化合作,推出首款车型宝骏华境S
  • IEEE TPAMI | M²Diffuser: 让机器人学会“脑补”,在复杂3D场景中实现精准移动操作
  • 国行版苹果 AI 推迟至年底上线;视频平台广告被曝「偷时间」;美国计划限制进口中国无人机和重型载具 | 极客早知道|极客早知道
  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬

别再狂刷CoT了!港科广DIGAI Lab发布隐式推理全景综述,静默思考开启新范式

原创 让你更懂AI的 2025-09-11 23:45 北京

三大范式 × 三类证据,全景解读大模型的隐藏思维

大语言模型(LLMs)的“聪明与否”,很大程度上表现在它们能否真正完成复杂推理。过去,研究者常依赖显式链式推理(Chain-of-Thought,CoT),让模型逐步写出思考过程,虽然可解释,但输出冗长、计算开销高。

近两年兴起的隐式推理(Implicit Reasoning),则把推理过程隐藏在模型内部,相当于模型在“静默思考”,既提升了效率,又带来了新的理解和挑战。

近日,港科大(广州)DIGAI Lab 团队联合多所高校发布了全景综述,从技术范式、实证证据、评测基准与未来方向等多个维度,系统梳理了隐式推理的研究进展,为这一新兴领域勾勒出完整的知识架构。

论文标题:

Implicit Reasoning in Large Language Models: A Comprehensive Survey

论文链接:

https://arxiv.org/abs/2509.02350

论文仓库:

https://github.com/digailab/awesome-llm-implicit-reasoning

发文单位:

香港科技大学(广州),吉林大学,香港中文大学,耶鲁大学

背景与动机

近年来,大语言模型(LLMs)在数学推理、问答和复杂决策等任务上表现惊人,推理能力也逐渐成为衡量模型“智能水平”的关键指标。

过去常用的显式推理(Explicit Reasoning),如 Chain-of-Thought,会让模型逐步写出中间步骤,虽然易于理解,但生成过程冗长、计算成本高。最近,研究者们开始关注另一种更高效的方式——隐式推理(Implicit Reasoning)

该综述构建了一个系统化框架,从技术范式(潜在优化、信号引导、层递归)、存在证据(结构、行为、表示)、评测基准以及挑战与未来方向四个维度,对隐式推理的研究现状进行了全面分类与梳理。

显式推理 vs. 隐式推理

要理解隐式推理,首先要看一看它和显式推理的差别。

  • 显式推理(Explicit Reasoning):模型会在自然语言中逐步写出推理链条(比如 “Step 1… Step 2…”),优点是清晰、可解释,但代价是生成过程冗长、推理速度慢。

  • 隐式推理(Implicit Reasoning):模型把推理过程“藏”在内部潜在结构和动态计算里,不再输出中间步骤。这样做能够提升效率,探索推理的多样性,但缺点是过程不透明。

正是这种对比,让隐式推理显得格外有研究价值:如何在保证高效的同时,真正理解、激发模型内部的“静默思考”?

技术范式

这篇综述对现有隐式推理方法进行了系统梳理,并从技术范式(Technical Paradigms)的角度加以归纳。现有工作整体上可以分为三大类,每一类包含若干具体方向:

1. 潜在优化(Latent Optimization)

这类方法的核心是在不输出中间文本的情况下,直接对模型的内部表示进行调整和优化,使推理在潜在单元上连续完成。根据优化目标的粒度不同,可以分为三类:token 级轨迹级内部状态级。这种划分展示了模型在不同潜在层面实现和控制推理的方式。

(1)Token-Level:在 token 粒度上进行操作,例如插入特殊 latent token,或调整 token 表示来调控推理过程。

(2)Trajectory-Level:以推理步骤为基本单位进行建模与优化,例如通过语义锚定、效率自适应、逐步精炼、多样化探索等方式调控推理过程。

(3)Internal-State-Level:以内部状态为作用对象,例如通过知识蒸馏、门控机制、隐式记忆或后验推断等方式,来引导和调控隐式推理过程。

综上所述,潜在优化方法通过在不同粒度上对推理进行压缩与调控,把显式的推理链转化为潜在空间中的紧凑表示。这类方法既降低了生成开销,又在很大程度上保留了推理语义,为隐式推理提供了一条高效而灵活的实现路径,也为未来探索效率与解释性的统一提供了可能。

2. 信号引导控制(Signal-Guided Control)

通过显式或潜在的“信号”来调控推理过程,让模型在不输出中间步骤的情况下分配更多内部计算资源。信号既可以是外部显式 token,也可以是内部潜在变量:

  • 单一类型的信号(Single-Type Signal):依靠一种统一的控制信号来调控推理,例如插入特殊 token(thinking、pause、planning、filler token 等),或在潜在空间中加入单一控制向量(如 LatentSeek)。这些信号可以在训练时固定,也可以在推理时动态调整。

  • 多重类型的信号(Multi-Type Signal):同时结合多种控制信号,分别管控不同的推理环节。例如 Memory & Reasoning 用不同 token 分别调控记忆检索和逻辑推理,Thinkless 通过 ⟨short⟩ 与 ⟨think⟩ token 控制短推理或长推理路径。

这类方法为隐式推理提供了一个“控制面板”,让研究者可以更好地引导和管控模型的内部计算。

3. 层循环执行(Layer-Recurrent Execution)

这一类方法把 Transformer 的层级结构看作循环计算单元,让推理在层与层之间反复展开,相当于在模型内部“循环思考”。这样一来,模型可以在不增加参数的情况下,像显式推理那样模拟多步推理链。

现有工作大多采用循环结构、动态深度或对齐机制,在保证参数效率的同时,为模型提供更强的长链推理和跨任务泛化能力。

整体来看,这类方法强调 LLM 的深层结构本身可能就是隐式推理的“引擎”,通过循环与递归计算来支撑复杂任务中的多步思考,并在长链推理和跨任务泛化上展现潜力。

隐式推理存在的证据

隐式推理的提出并不是凭空假设。研究者们已经从多个角度找到了它存在的迹象,这些证据主要来自三方面:

1. 结构证据(Layer-wise Structural Evidence)

研究表明,隐式推理在模型层级结构中已有迹象:中间层激活即可近似最终答案,说明推理往往在深层之前就已完成;不同层次还能分工协作,将复杂任务逐步拆解执行;理论上,模型内部甚至可并行保留多条潜在推理路径,以“叠加”方式完成复杂计算。

这些发现共同揭示 Transformer 的层级结构可能天然蕴含隐式推理能力。

2. 行为证据(Behavioral Signatures)

也有研究从模型可观察到的行为上,证明隐式推理的存在,例如,模型在过拟合后的长期训练中会突然“觉醒”,在解题时可能出现“跳步推理(step skipping)”,或者出现“推理跳跃(reasoning leap)”等特征,这些现象都表明,推理并不总是依赖显式输出。

3. 表示证据(Representation-Based Analysis)

研究者们通过探针(probing)、激活干预(intervention)、反向工程等方法,发现模型的隐藏表示中蕴含推理痕迹:注意力模式里隐式编码了推理树;推理模式编码在网络权重和激活中,甚至能在不依赖显式提示的情况下诱发出推理过程。这些结果表明,隐式推理可能真实存在于模型的内部表征之中。

三类证据相互补充,共同支持了一个重要观点:即使隐式推理的模型表面上保持沉默,它的内部仍可能在进行复杂的多步推理。

评测与基准

1. 评价指标(Metrics)

当前研究主要从四个角度来评估隐式推理:

  • 答案正确性(Answer Correctness):最终答案是否正确,如准确率、Pass@k。

  • 效率表现(Resource Efficiency):推理时间、输出长度和计算资源开销,突出隐式推理的在效率方面的优势。

  • 底层语言建模能力(Perplexity,PPL):用困惑度(Perplexity)等指标反映基本语言基础能力,这是推理的底座。

  • 内部可解释性(Probing Accuracy):借助探针等方法,间接验证模型是否真的在内部执行了多步推理。

2. 基准数据集(Benchmarks)

(1)通识与常识推理(General Knowledge and Commonsense Reasoning):测试模型对日常知识和通识科学的掌握。

(2)数学与编程推理(Mathematics and Programming Reasoning):考察模型精确推理、符号推理和计算的能力。

(3)语言建模与阅读理解(Language Modeling and Reading Comprehension):关注模型基本的语言建模能力和对文本的理解、推理能力。

(4)多跳与多学科问答(Multi-hop and Multidisciplinary Question Answering):需要模型对多领域、多层级信息进行整合。

(5)多模态推理(Multi-modal Reasoning):结合文本、图像等多模态信息完成复杂推理,评估视觉语言模型的推理能力。

整体来看,隐式推理的评测体系仍处于早期阶段,目前还缺少专门为其设计的大规模基准。这也是未来研究亟需突破的方向之一。

挑战与未来方向

隐式推理仍处于早期阶段,主要面临六大挑战:

1. 可解释性不足

推理过程不可见,难以确认模型是否真的在“思考”。未来需要发展专门的可视化、因果干预等方法来揭示内部机制。

2. 缺乏控制与可靠性

当模型出错时往往没有提示,在高风险场景中难以部署。未来应探索可控推理机制、置信度评估,以及支持可验证或可干预的混合策略。

3. 性能落后于显式方法

在复杂任务上,隐式推理的准确率仍低于显式推理。未来可尝试“隐式 + 验证”的混合方式,或引入更贴合隐式轨迹的训练目标。

4. 评测标准缺失

现有研究使用的数据和指标差异较大,结果难以比较。未来亟需建立统一的隐式推理基准和评测协议,涵盖内部一致性、公平性比较、深度和鲁棒性等维度。

5. 架构与泛化受限

许多方法依赖特定模块或小规模实验,不易扩展到更大模型。未来应探索架构无关的通用设计,并在大规模模型上系统验证隐式推理的能力。。

6. 依赖显式监督

当前方法多依赖显式推理链来训练,导致成本高、扩展性差。未来值得研究直接作用于潜在轨迹的监督方式,如隐式一致性约束、自验证目标或无监督结构发现。

结束语

隐式推理为理解大语言模型的内部计算机制提供了全新视角,它突破了显式推理冗长、低效的限制,使推理能够在潜在空间中“静默完成”。从技术范式到存在证据,再到评测方法与未来挑战,隐式推理的研究图景逐渐清晰。

随着探索不断深入,它有望成长为下一代大模型推理机制的重要范式,并推动 LLM 在效率、泛化与智能水平上的全面跃升。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们