动态列表

  • 16岁创业,22岁做成百亿独角兽!3位高中同学帮大厂训AI年入1亿美金
  • 《2025新智元ASI前沿趋势报告》全文
  • 一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
  • 苹果端侧AI两连发!模型体积减半、首字延迟降85倍,iPhone离线秒用
  • Claude不让我们用!国产平替能顶上吗?
  • SceneSplat: 基于3DGS的场景理解和视觉语言预训练,让3D高斯「听懂人话」的一跃
  • 慕尼黑车展 2025前瞻:中国队组团出海,BBA 走向「新」时代
  • 国内外AI大厂重押,初创梭哈,谁能凭「记忆」成为下一个「DeepSeek」?
  • 斯坦福:优化器「诸神之战」?AdamW 凭「稳定」胜出
  • 字节跳动Seed推出「机器人大脑」Robix:让机器人学会思考、规划与灵活互动
  • 浙大提出SSGaussian:注入语义与结构灵魂的3D风格迁移,让高斯溅射场景化身艺术品
  • 苹果 iPhone 17 系列规格已全被曝光;Anthropic 全面封杀中国公司接入;今夜将迎来「血月」月全食|极客早知道
  • OpenAI重组GPT-5「灵魂」团队!亚裔女负责人遭调离,罕见自曝AI幻觉祸首
  • 设计师大解放!清华发布「建筑平面图」自动生成模型 | ACL'25
  • 谁不用谁亏!Karpathy吹爆GPT-5:10分钟编码完胜Claude一小时,奥特曼秒回感谢
  • 震撼实锤!清华姚班校友揭「1.4×加速」陷阱:AI优化器为何名不符实?
  • Anthropic被作家告了,违规下载700万本书,15亿美元和解了
  • 英伟达的局:狂撒15亿美元,从Lambda那租到了搭载自家AI芯片的GPU服务器
  • OpenAI罕见发论文:我们找到了AI幻觉的罪魁祸首
  • 00后以1.1亿美金「掀桌」,硅谷AI将书写影视新传奇 终结制片旧时代
  • 任意骨骼系统的模型都能驱动?AnimaX提出基于世界模型的3D动画生成新范式
  • ICCV 2025 | MOSEv2 全新亮相,第七届 LSVOS 挑战赛正式开启!
  • IEEE TPAMI 2025| PointGST:参数量仅0.67%,精度首破99%,三维点云处理迎来谱域新范式!
  • 华为新问界 M7,6 小时订单破 13 万;等 eSIM,iPhone17 Air 首发无国行;特斯拉拟给马斯克 1 万亿薪酬
  • 力压哈佛MIT!北交大、清华勇夺2025国际大学生程序设计竞赛金牌
  • 长视频生成可以回头看了!牛津提出「记忆增稳」,速度提升12倍
  • 0.01%参数定生死!苹果揭秘LLM「超级权重」,删掉就会胡说八道
  • 今天,特朗普闭门宴请了大半个硅谷的CEO,马斯克老黄没来
  • 追觅给洗地机,加了一双「灵巧手」
  • 被网友逼着改名的谷歌Nano Banana,正在抢99%时尚博主的饭碗
  • 不止会动嘴,还会「思考」!字节跳动发布OmniHuman-1.5,让虚拟人拥有逻辑灵魂
  • 外滩大会主论坛阵容揭幕!顶级学者、产业领袖和青年创新力量共话未来
  • 第一家 AI 浏览器公司,卖了 43 亿!
  • Nano Banana爆火之后,一个神秘的「胡萝卜」代码模型又上线了
  • 博士申请 | 香港中文大学(深圳)游宇宁老师招收人工智能+生物医药全奖博士/实习生
  • 推理加持的排序SOTA!把“召回+相似度”写进RL,文档排序更稳更准
  • KDD 2025 | 图异常基础模型来了:跨域零样本、少样本微调,原型残差全拿下
  • 透明度罕见!百川公开M2完整技术报告,强化学习新范式引发行业关注
  • 沉寂一个月,openPangu性能飙升8%!华为1B开源模型来了
  • 多模态大模型持续学习系列研究,综述+Benchmark+方法+Codebase一网打尽!
  • TPAMI重磅综述:一文读懂人类动作视频生成的五大阶段与三大多模态技术
  • 拓展天文学认知边界,Google DeepMind用AI助力LIGO,填补宇宙演化史缺失环节
  • 拍我AI限时免费6天!手办、宠物、奇幻创意随你生成不限次!
  • 传 DeepSeek AI 代理新模型年底发布;马斯克「金色擎天柱」首曝;比亚迪不回应销量下调传闻
  • 通用LLM压缩算法,居然藏视频编码里!2.5bit实现4bit性能,硬件无缝支持
  • 83岁用DeepSeek抢单,96岁凭AI挣养老钱!这群80+老人比你还会玩AI
  • 「纳米香蕉」LMArena两周500万投票,引爆10倍流量!谷歌、OpenAI扎堆打擂台
  • DeepSeek大招曝光?梁文峰督战超级智能体:能自主学习,或年底发布
  • 24999 元!华为推了一个「最大」的 Mate!
  • 刚刚,李飞飞主讲的斯坦福经典CV课「2025 CS231n」免费可看了
  • 又多了一个哄孩子AI神器,一张破涂鸦竟能秒变迪士尼动画
  • PosterGen:告别学术海报制作烦恼,从PDF一键生成「演示级」可编辑PPTX学术海报
  • 「一句话生成爆款视频」,这款 AI 流量神器有点东西|AI 上新
  • Claude Code凭什么牛?大模型团队天天用自家产品,发现bug直接就改了
  • 刚刚,OpenAI发布白皮书:如何在AI时代保持领先
  • 科研AI的进化论!系统梳理600+数据集与模型,上海AI Lab等发布科学大语言模型全景式综述
  • 腾讯 ARC Lab 开源 IC-Custom :一个强大且灵活的图像定制化工具!
  • 长视频AI数字人来了!字节×浙大推出商用级音频驱动数字人模型InfinityHuman
  • 全奖读AI!人工智能专业排名全球前10的MBZUAI启动本硕博项目招生
  • SIGCOMM 2025|重新定义个性化视频体验,快手与清华联合提出灵犀系统
  • 拜读了某大佬发表的N篇顶会,原来论文“灌水”是这么玩的
  • 北京内推 | 阿里夸克教育团队招聘推荐大模型数据算法实习生
  • 多模态大模型,真的“懂”世界吗?ICML 2025高分论文实锤核心认知盲区
  • 特斯拉下一代金色Optimus原型现身?一双「假手」成为最大槽点
  • 让具身智能体拥有「空间感」!清华、北航联合提出类脑空间认知框架,导航、推理、做早餐样样精通
  • 传特斯拉 Model Y L 日均订单过万;苹果联手谷歌,Siri 整合 Gemini;优必选获 2.5 亿,全球最大人形机器人订单
  • UCSD首个智能体浏览器发布!多页面设计,颠覆传统交互
  • Hinton最新警告:杀手机器人或将带来更多战争,最大担忧是AI接管人类
  • AI教父Hinton诺奖演讲首登顶刊!拒绝公式,让全场秒懂「玻尔兹曼机」
  • 奥数金牌只是序章!OpenAI谷歌彻底打脸预言家,AI巨浪势不可挡
  • 出货 1000 万台硬件后,我们和「凯叔讲故事」聊了聊「AI玩具」的核心
  • 他不懂代码,却用 AI 黑掉 17 家医院和机构,Vibe Hacking 让全世界变成缅北
  • 刚刚,谷歌放出Nano Banana六大正宗Prompt玩法,手残党速来
  • Anthropic承认模型降智后仍放任其偷懒?Claude Code用户信任崩塌中
  • ICCV 2025 | 基于时序增强关系敏感知识迁移的弱监督动态场景图生成
  • ICLR 2025|KGExplainer:让新知识的发现“有理可循”
  • 入局AI4S?CPO宣布「OpenAI for Science」计划:打造下一代科学工具
  • 2025外滩大会下周开幕 16位院士、图灵奖得主领衔40多场思想盛宴
  • 从复刻魔术开始,RoboMirage打开了机器人仿真的新世界
  • 宇树科技官宣:年内提交IPO,或将冲刺科创板
  • 其实,扩散语言模型在最终解码之前很久,就已确定最终答案
  • 语音分离最全综述来了!清华等团队深度分析200+文章,系统解析「鸡尾酒会问题」研究
  • Benchmark新试炼场!从棋盘到德扑全覆盖,GAMEBoT虐测大模型推理力
  • 【9月9日直播】大模型复杂推理技术:如何重塑AI推理逻辑
  • 原子思维上线!Agentic Deep Research再进化:推理更深、答案更准
  • 北京/苏州内推 | 微软亚太研发集团招聘AI智能预测实习生
  • USO:鱼与熊掌亦可兼得,字节跳动提出统一框架,完美融合主体与风格生成
  • 刚刚,Anthropic在质疑声中获130亿美元融资,估值达1830亿
  • IROS 2025 | 机器人衣物折叠新范式,NUS邵林团队用MetaFold解耦轨迹与动作
  • iPhone 17定价曝光,仅Pro涨价;李斌:4季度实现月卖5万台车;COD「使命召唤」大电影官宣|极客早知道
  • 一张卡片,不仅 AI 了我的工作,还摸清了我的八字和 MBTI?|AI 上新
  • 马斯克曝终极AI计划!特斯拉堵上80%身家:500亿机器人打工,人类坐等拿钱
  • 别错过这场AGI风暴!清华人大等AI大佬集结,剑指数字和物理世界进化
  • AI杀死首个世界名校?全球TOP 3「翻译界哈佛」倒闭,毕业校友成绝版
  • 无惧AI失业潮的「铁饭碗」,微软揭秘了!能干到退休
  • 为什么在小红书里的「电商」,长成了「市集」的模样
  • 开学&教师节双重豪礼,英博云算力低至8毛8/卡时,赶紧薅起来
  • 苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
  • Scaling Laws起源于1993年?OpenAI总裁:深度学习的根本已揭秘
  • 告别无效计算!新TTS框架拯救19%被埋没答案,推理准确率飙升
  • 结构高度合理、具备理想特性,华东师大等提出分子生成新方法,协同生成原子与化学键
  • 博士申请 | 北京大学计算机学院-中国电信招收计算机视觉方向联培博士生
  • ACM MM Asia火热征稿中!低年级PhD友好,不卷SOTA只看新意
  • 经典机械物理模型 × 深度学习:揭开神经网络特征学习的秘密
  • ICML 2025 | 从联合空间到文本空间:测试时增强跨模态检索新范式
  • 冲上热搜!美团大模型,靠「快」火了
  • DeepMind爆火论文:向量嵌入模型存在数学上限,Scaling laws放缓实锤?
  • ICCV 2025 | InterVLA:聚焦第一视角感知决策,大规模通用人-物-人交互数据集与评测基准
  • AI读网页,这次真不一样了,谷歌Gemini解锁「详解网页」新技能
  • 性能逼近闭源最强,通义实验室开源Mobile-Agent-v3刷新10项GUI基准SOTA
  • 广告,救不了 AI 搜索
  • 14B打败671B!微软rStar2-Agent在数学推理上超过DeepSeek-R1
  • 自搜索强化学习SSRL:Agentic RL的Sim2Real时刻
  • 全球机器翻译比赛拿下30个语种第1名,腾讯混元翻译模型开源
  • 腾讯回应米哈游起诉:QQ用户资料不能随便给;特斯拉首曝Cyber SUV;外卖「小电驴」须装北斗定位|极客早知道
  • NeurIPS近3万投稿爆仓,强拒400篇论文!博士疯狂内卷,AI顶会噩梦来袭
  • 同行评审濒临崩溃!一篇审稿报告450美元?科学家不再愿意「用爱发电」
  • CEO卷款夜逃迪拜,15亿美元独角兽爆雷!700印度码农冒充AI,坑惨微软
  • 刚刚,DeepSeek最新发文!V3/R1训练细节全公开,信息量巨大
  • 让图像会说话!视觉Token注入CLIP语义,TokLIP重塑多模态理解与生成
  • GRPO偷偷优化Pass@K?从0-1奖励到无偏策略,DeepMind揭示全面解法
  • EMNLP 2025|人声解耦×伴奏对齐!浙大VersBand打造提示可控的歌曲生成框架
  • 北京内推 | 联想研究院AI Lab招聘大模型算法实习生
  • 快手的 2025:一个4亿人社区的新陈代谢,与2600万人的变现之路
  • 开学了:入门AI,可以从这第一课开始
  • OpenAI大神:人工智能导论课程停在15年前,本科首选该是机器学习导论
  • 中国电竞,已经是 Next Level!
  • NeurIPS 2025:高分论文也可能被拒,只为保住那25%左右的接收率?
  • DeepSeek、GPT-5都在尝试的快慢思考切换,有了更智能版本,还是多模态
  • 把实验与计算「缝」到一张「地图」上:AI让材料发现路线更直观、可解释
  • 字节跳动提出OneReward:一个奖励模型统一多任务图像生成,效果全面超越PS!
  • 从「卖设备」到「建关系」,AI 硬件的破局点到底在哪里?
  • 首个为具身智能而生的大规模强化学习框架RLinf!清华、北京中关村学院、无问芯穹等重磅开源
  • 科普向:一文解构大模型后训练,GRPO和它的继任者们的前世今生
  • 科研智能体「漫游指南」—助你构建领域专属科研智能体
  • 今起 AI 生成内容必须亮明身份;大疆双摄 Pocket 4 曝光;微信公号留言广告上线

听见空间!ASAudio全景综述:空间音频表示→理解→生成全链路

2025-09-04 12:32 北京

开启“可理解×可生成”时代

近几年,空间音频从“更高质量到音频”走向“可被理解与生成的三维声场”。它不只是把声音变“立体”,而是让系统理解声源的方位、距离、运动,并能按需生成

在 AR/VR、影视、游戏与交互内容的牵引下,研究重心也从传统的信号级处理迈向多模态、可控生成与语义级推理。近年来空间音频技术发展迅猛,研究成果层出不穷,但却一直缺乏全面深入的综述文章对领域进行总结。

近期,来自浙江大学的学者系统梳理了空间音频的表示形式 、 理解任务 、 生成任务、数据集与评测的全链路,深入探讨了空间音频的发展现状和最新进展,形成了综述文章 ASAudio。

论文标题:

ASAudio: A Survey of Advanced Spatial Audio Research

论文地址:

https://arxiv.org/abs/2508.10924

项目仓库:

https://github.com/dieKarotte/ASAudio

▲ 图1:近期空间音频代表性工作梳理

该综述将当前空间音频研究版图总结为以下 7 类

1. 输入表示(Input Representation):把单声道音频、文本、视觉、空间坐标作为输入轴,统一梳理其承载的语义/声学/几何信息与常见预处理(如文本对齐、视频几何提取、坐标系/朝向/速度建模)。这一步决定了后续理解与生成能接住怎样的条件与约束。

2. 输出表示(Output Representation):介绍通道表示(Stereo/5.1/7.1)、场景表示(Ambisonics/WFS)与基于对象的表示(Atmos 等)三种空间音频表示范式,并介绍最终连接听觉端的双耳音频形式。

3. 物理建模与空间线索(RIR/HRTF ):RIR 负责“房间如何回响”,HRTF 负责“人如何听到”。个性化 HRTF 视觉/几何驱动的房间声场估计是提升空间真实感 的关键路径。

4. 理解任务(Understanding Tasks):覆盖 SELD(事件定位与检测)分离(Separation)联合学习以及跨模态对齐(语音-视频/语音-文本)。

5. 生成范式(Generation Tasks):从传统 DSP 空间化与“视频/文本引导的上混(Mono→Binaural/FOA/多通道)”,到扩散(Diffusion)/流匹配(Flow Matching)/Transformer/VAE 等端到端生成。尤其 ImmerseDiffusion、Diff-SAGe 等在双耳/多通道/FOA空间真实感与音质上带来跃升。

6. 数据集与数据生成(Datasets):真实采集与仿真合成并举。近年的代表数据/基准包括 MRSDrama、BEWO-1M、YT-Ambigen、STARS23、Spatial-LibriSpeech 等;不少理解/生成工作自带数据/基准推动口径统一。

7. 评测标准(Evaluation Metrics):理解端常用事件 F1/ER、DOA 误差、SDR/SIR 等;生成端在波形/谱域误差、MRSTFT与感知类 PESQ/MOS/FAD/KL/CLAP 之外,强调用强度向量(Intensity Vector)反演方位角/仰角/距离球面角误差来量化“空间感”。

▲ 图2:综述完整组织架构

输入表示

▲ 图3:输入表示流程总览(文本/视觉/坐标/单声道 → 编码 → 下游任务)

空间音频任务的输入表示是多样的,由于空间音频包含语义,声学和空间的信息,因此任务的输入也针对这几个部分的信息进行设计。

例如,对于声学的部分,通常有单声道音频提示作为输入,可以提供音色信息等声学特征。

对于语义的部分,通常有文本提示作为输入,可以提供音频的语义信息。

对于空间的部分,通常有空间位置提示,形式可能是自然语言的文本描述、图片或者视频形式的视觉信息或者是空间位置的坐标信息,包括直角坐标、球坐标等形式。

这些输入信息可以是单独的,也可以是组合的,通常会有不同的组合方式。

输出表示

空间音频任务的输出表示形式同样多样,通常包括双耳音频、立体声、多声道音频、Ambisonics 等。

我们分三类对输出表示形式进行了介绍:

基于声道的音频表示信号,例如 5.1 或 7.1 声道音频,通过在录制时设定的声道和扬声器的位置映射,可以在播放的时候根据扬声器位置映射奖相应的声道输入到相应的扬声器上进行播放;

基于场景的音频表示信号,例如 FOA(First Order Ambisonics)音频,通过球面谐波变换表示整个三维空间的声音场信息,在播放时通过 HOA(Higher Order Ambisonics)解码器将其转换为多声道音频信号进行播放;

基于物体对象的音频表示信号,例如杜比全景声(Dolby Atmos),通过记录每一个声音对象的音频特性和声源位置,在播放时通过对所有的音频对象进行渲染播放。

这些重放的音频格式可以通过耳机、扬声器或其他音频设备进行播放,提供身临其境的听觉体验。

物理建模与空间线索

空间音频的一个基本方面是对声音在三维空间中如何传播和被感知进行精确建模。在这一背景下,两个关键概念是房间脉冲响应(RIR)和头部相关传输函数(HRTF)。

在我们假设声学环境是线性时不变(Linear and Time-Invariant,LTI)系统的前提下,房间脉冲响应(Room Impulse Response,RIR)完整地表征了从声源到接收器之间所有声学路径的特性。

RIR 可以被分解为三个主要部分:直达声、早期反射声和晚期混响。一旦获得了 RIR,通过卷积运算,就可以精确预测任何“干”信号在该房间、该位置听起来的效果,因此,RIR是连接虚拟声学与现实世界的桥梁。

头相关传输函数(Head-Related Transfer Function,HRTF)是实现高保真双耳空间音频体验的基石,它本质上描述了一个声音从空间中某一点传播至听者双耳鼓膜处所经历的声学变换过程。

这一过程可被精确地建模为一个线性时不变(Linear Time-Invariant,LTI)系统,其物理根源在于声波与听者独特的身体结构,包括头部、躯干以及尤其是构造复杂的耳廓(pinnae)之间发生的复杂的衍射、反射和声影蔽效应。

由于 HRTF 直接取决于个体独一无二的头型、耳廓形态及身材尺寸等生理人类学特征,每个听者耳廓所产生的关键谱峰和谱谷的频率位置与深度都是独一无二的,这构成了 HRTF 个性化问题存在的根本前提。

理解任务

传统的音频理解任务包括一系列子任务,如语音识别、说话人识别、事件检测等。理解任务主要与其他模态的共同学习相关联,包括基本的音频理解,文本到音频理解,视觉到音频理解等等。

拓展到空间音频的理解任务,由于除了语音本身的语义特征和声学特征之外,还额外包含了空间特征,因此对于空间音频的理解任务也有很多扩展,除了单纯的音频理解任务从单声道转化为以双耳、多声道或者 ambisonics 的形式进行理解之外,空间音频理解任务还包括了以下的内容。

在拥有更多声道信息后,声源检测和定位任务(SELD)变得复杂,声道之间蕴含的空间信息也可以被利用来进行 SELD 任务的相关处理。事件检测的位置不仅仅局限于检测声音来自画面内或者画外,还可以拓展到 360 度或者全景的音频检测。

空间音频事件定位的任务也随之拓展。双耳声道的音频信号让我们可以考虑现实中的双耳效果,模拟真实的人耳听觉,声道的差异让定位任务和声源分离任务得以更好的进行。

空间音频追求真实的声音建模,因此模拟真实声场的声学特征也成为了空间音频理解任务的一个重要组成部分,这些工作研究了场景声学特征一致性的建模。

在一些视觉辅助的空间音频理解任务中,视觉信息中蕴含的深度信息和场景信息也被作为一种监督手段。视频信息和空间音频的对齐和联合学习为生成任务提供了更好的条件。一些对于音视频的联合学习任务可以理解给定的场景信息,并进一步生成新位置的音视频信息,是声源定位、分离、理解的综合任务。

在自然生活场景中,空间信息也往往是以自然语言的形式进行描述的,因此加入 LLMs 的理解任务也成为了一个重要的研究方向。

还有一些相关的编码器工作,针对双耳音频, 在保留空间信息的同时,进行音频的编码和解码任务。

生成范式

早在 1881 年,Ader 首先使用了一对麦克风和电话听筒传输声音信号,进行了首次空间(立体声)声音演示。较早时期的空间音频生成方法主要基于传统的数字信号处理,单独录制每个声源的音频,再通过各种音频处理技巧结合预设的场景设置和空间信息对其进行混合处理。

这种方法的缺点在于需要大量的音频数据和场景信息,且难以适应不同的场景和声源变化。因此,将单声道的音频进行空间化一直是一个热门的研究方向。

另一方面,生成模型的飞速发展推动了空间音频生成技术的进步,端到端的空间音频生成方法也在不断发展,让我们能够生成更高的质量的空间音频。

作为一个相对更窄的生成领域,空间音乐的生成的研究早于音频生成的研究,在更多监督和输入的情况下实现了立体声的音乐生成。

本节介绍了空间音频生成方面的最新进展,包括传统的 DSP 方法、近期的深度学习架构的空间音频生成,并根据模型架构分类介绍。

数据集与评测标准

空间音频数据存在多种格式,每种格式都体现出不同的特征,并针对特定任务进行了定制。本节深入分析了现有的空间音频数据集,阐述数据收集和处理的多种方法,并解释这些要素如何助力对空间音频的理解。

由于录音设备和应用场景的不同,空间音频数据有多种格式,通常还会附带其他模态的标注和辅助数据。此外,由于录制空间音频通常成本高昂且耗费资源,许多现有方法借助模拟系统,从现有的单声道音频数据集中生成合成数据。一些数据集还包含从公开视频平台爬取的真实空间音频。

本节重点介绍了多种空间音频格式(包括多声道音频、一阶环绕声和双耳音频)相关的采集和处理方法,既有录制的,也有模拟的。

总结展望

鉴于沉浸式音频的快速发展,本文对空间音频领域进行了全面且系统的综述,填补了现有文献中的一个显著空白。

我们的综述通过从几个关键方面对近期研究成果进行梳理,为该领域提供了结构化的概述。首先,我们详细阐述了构成空间音频任务基础的各种输入和输出表示形式。接着,综述的核心聚焦于两大主要研究范式:空间音频理解和空间音频生成。

在理解领域,我们探讨了空间音频分析的方法,包括声音事件检测、定位、声源分离以及联合学习。在生成领域,我们考察了空间音频合成技术,并按架构对生成模型进行了总结。

为完善我们的分析,我们从训练和评估两个角度,系统总结了相关数据集、评估指标和基准的现状。我们希望本综述能为该领域的研究人员和从业者提供有价值的参考,为未来的研究方向提供指导,并推动空间音频技术的发展。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们