动态列表

  • 比互联网泡沫惨17倍!AI裁员潮上万科学家下一站在哪里?
  • 300只狗试用延寿药,「寿命曼哈顿计划」启动!
  • 谷歌Gemini 3杀疯了!陶哲轩亲测:10分钟干翻百年数学难题
  • NeurIPS重磅:华南理工团队重构扩散模型推理,质量效率双SOTA
  • MIT经济学博士生,用AI骗过了诺奖导师、Nature、美国国会
  • 2025 IDEA大会沈向洋提出智能演进的五个维度:机会不仅来自技术本身
  • 罗永浩:当年如果不做 TNT,锤子科技有可能多撑几年;灵光上线 4 天下载突破 100 万;谷歌 AI 搜索出现赞助广告
  • AI半天顶博士6个月,奥特曼太激动!生化圈巨震
  • 别再问什么工作被AI取代!Karpathy直指本质:你的工作「可验证」吗?
  • Karpathy最新发文:醒醒!别把AI当人看,它没欲望也不怕死
  • 马斯克想要「杀死」氛围编程,就像FSD搞定自动驾驶
  • 硅谷今夜笑疯!马斯克自黑「傻胖子」,只因Grok硬捧他打赢泰森
  • 2025宝山·智能机器人产业大会暨嘉年华隆重开幕
  • 解放军总医院联合南大、吉大等机构,共同提出首个「脊柱诊疗大模型」SpineGPT
  • Anthropic发现AI「破窗效应」:只是教它偷个懒,结果它学会了撒谎和搞破坏
  • DeepMind招募波士顿动力前CTO,哈萨比斯点赞宇树
  • 把具身机器人开发变简单,地瓜机器人S600与一站式平台双擎亮相
  • Meta再推WorldGen,简单一句话,竟「盖」出50×50米一座城
  • 华为开源突破性技术Flex:ai,AI算力效率直升30%,GPU、NPU一起用
  • 腾讯混元数字人团队发布Moral RolePlay基准,揭秘大模型的「道德困境」
  • NeurIPS 2025 | MIT新研究:数据集蒸馏迎来“线性时代”,一张图顶半个ImageNet?
  • OpenAI联手菲尔兹奖得主与多位顶尖学者,首次公开GPT-5的科研真实战力
  • ICML 2025 | 联邦学习的“平衡艺术”:FedCEO破解隐私与效用的权衡困局
  • 美团宣布在全国建设「骑手公寓」;2026 款苹果 iPad Air 曝光;月之暗面被曝计划明年下半年 IPO
  • 具身智能「全明星日」来袭!智源组局30+行业掌门人,激辩机器人终极命题
  • 1分钟跑出数百预测!WeatherNext 2把短时预报带入小时级
  • GPT-5得分不到0.4!法律+金融最大规模基准:1.9万+专家评估准则
  • AGI真来了!谷歌Nano Banana Pro实测,设计师天塌了?
  • 2025智源具身开放日:共筑开源基石,抢占全球具身智能生态新高地
  • 核反应堆的「第一次心跳」:初创公司实现零功率临界,研发模式迈向轻量化
  • SGLang Diffusion震撼发布:图像视频生成速度猛提57%!
  • 小米汽车第 50 万辆整车下线;谷歌推出 Nana Banana Pro;华为正式推出乾崑境系列旗舰 | 极客早知道
  • 字节这个「消失」了几年的 App,悄悄杀回苹果商城排行榜
  • 解耦骨骼与体型,实现前所未有的动画真实感!Meta SAM 3D核心技术:开源人体参数化模型MHR
  • 遥感变化检测,ChangeDINO来了:DINOv3驱动,IoU、F1指标全面SOTA!
  • ​「数字分身」白菜价:每月 998 元,雇一个 AI 帮你直播 8 小时
  • 北京内推 | 小红书审核基础算法团队招聘增量预训练/RL/推理方向算法实习生
  • ICLR 2026吃瓜大赏:论文区在卷,审稿区在演,比春晚还热闹的五大名场面
  • AI离“可靠记忆”还有多远?HaluMem首次把记忆系统幻觉拆到操作级
  • 理想亮相广州车展:宣布推送全新VLA、AES辅助驾驶能力
  • 别问树模型了!死磕结构化数据,清华团队把大模型表格理解推到极限
  • Meta超级智能实验室又发论文,模型混一混,性能直接SOTA
  • 超越 VTM-RA!快手双向智能视频编码器BRHVC亮相NeurIPS2025
  • 刚刚!腾讯混元开源HunyuanVideo 1.5 元宝上线生视频能力
  • 两院院士增选结果揭晓:周志华、刘云浩当选科学院院士
  • 无需训练、只优化解码策略,DTS框架让大模型推理准确率提升6%,推理长度缩短23%
  • RoboChallenge组委会正式成立:具身智能真机评测迈入标准化共建时代
  • 210亿美元的幻觉?奥特曼投了一家核能初创
  • LeCun出局,Meta变天!Llama 4翻车大清洗,「学院派」大败退
  • 大模型上天、马斯克发射GPU?中国团队直接建「太空超算」
  • 图像模型今夜变天?谷歌刚刚泄露了「Nano Banana Pro」这张王牌
  • AI顶会ICLR最严新规:滥用AI的作者和审稿人,论文一律拒稿!
  • 谷歌Nano Banana Pro上线,深度结合Gemini 3,这下生成世界了
  • DeepSeek悄悄开源LPLB:用线性规划解决MoE负载不均
  • AAAI 2025 Oral | 火山引擎多媒体实验室提出VQ-Insight,AIGC视频画质理解大模型
  • OpenAI 的「群聊」,可能比你想得更重要!
  • 最大游戏up主也玩本地AI?让笔记本都能跑大模型的Parallax来了
  • 并行扩散架构突破极限,实现5分钟AI视频生成,「叫板」OpenAI与谷歌?
  • 字节张楠、张宏江、田渊栋······极客公园创新大会 2026 嘉宾阵容更新!
  • 为什么说在 AI 时代,「想象」比「记录」更费劲?
  • NEX:下一代能动性模型体系与开源生态
  • 很强很惊艳!Meta重磅开源SAM 3:可概念提示,统一检测、分割与追踪,性能提升2倍
  • 发布即产品!SAM 3D横空出世:Meta再次颠覆3D视觉,单图即可实现高精度三维重建
  • 本周六,围观学习NeurIPS 2025论文分享会,最后报名了
  • AI终于学会「读懂人心」,带飞DeepSeek R1,OpenAI o3等模型
  • 让移动不再成为噪声:搭载AI的新一代可穿戴传感实现高动态条件下的精准识别
  • SOTA集体掉线?美团AMO-Bench揭露大模型数学推理的真实段位
  • 百万步0失误!LLM首次跑通1,048,575步长任务,不崩、不偏、不掉链
  • 星动纪元获近10亿元A+轮融资!吉利资本领投,总订单额破5亿
  • 刚刚,Yann LeCun官宣离职创业,瞄准高级机器智能AMI
  • 分割一切并不够,还要3D重建一切,SAM 3D来了
  • 杨立昆宣布离开 Meta「自立门户」;荷兰暂停干预安世半导体;TikTok 将支持用户设置减少 AI 内容
  • 首个AI神作!一人分饰全角,万人围观外星人嘲讽人类灭绝
  • 申研「全拒得」的「差生」,终成PyTorch之父、Meta副总裁!今天跳槽TML
  • 图灵奖得主竟「忘了提及」中国学者成果?马库斯重锤Yann LeCun
  • 永别了,Tokenizer!何恺明师徒新作,颠覆AI生图技术
  • 年度最强AI实锤!谷歌Gemini 3全网首测震撼,一句话编码封王
  • 亚马逊云科技发布Kiro正式版:核心功能升级
  • 对话斑马口语:如何用 AI Agent 造出「超人类外教」?
  • 点击下载!中国科研人员AI使用率全面领跑:Wiley发布全新调研报告
  • 清华团队“密度法则”登上Nature子刊,揭示大模型高效化发展新规律
  • 风口浪尖中的小米汽车,创下国产新势力最快盈利速度
  • 何恺明团队再出手!将ARC视为视觉问题,ViT从零训练60.4%准确率,达到人类平均水平
  • CMU新作Co-Me:无需重训,VGGT长序列迎11.3倍加速!
  • 资深技术专家胡成文出任鼎犀智创CTO,共赴新材料智创未来
  • 如视发布空间大模型Argus1.0,支持全景图等多元输入,行业首创!
  • 登顶开源SOTA!上交大&小红书LoopTool实现工具调用任务的「数据进化」
  • NeurIPS 2025 Spotlight | 香港大学提出无需数据标记的ViT密集表征增强方法
  • NeurIPS 2025 | 上下文元学习实现不微调跨被试脑活动预测
  • 刚刚,PyTorch之父光速入职TML!离职Meta刚过一天,投身500亿估值独角兽
  • 何恺明重磅新作:Just image Transformers让去噪模型回归基本功
  • ConsistEdit来了:无需训练,实现高精度、高一致性的视觉编辑新范式
  • Gemini 3深夜来袭:力压GPT 5.1,大模型谷歌时代来了
  • 「30 秒造应用」——蚂蚁灵光点燃「所想即所得」的魔法时刻
  • 视频模型真在推理,还是「表演」推理?港中文等质疑:Chain-of-Frame是真的吗?
  • Gemini 3 正式发布,多榜单断崖式领先;美安全服务商网络中断,ChatGPT、X 受牵连;苹果承认酒精擦拭可能导致手机掉色|极客早知道
  • 4万亿刀,仅3.6万人!英伟达揭残酷真相:劳动正与财富大脱钩
  • 医疗AI智能体全面综述:行业爆发,年增长130%!
  • AI「看见」实验,哈佛颠覆性突破!一副AR眼镜,新手秒变资深专家
  • 震惊电影圈!好莱坞混了10年没出头,他把AI「烂片」做成23万粉爆款
  • Anthropic CEO:最快明年,一半初级白领下岗!失业率将达10%-20%
  • 谷歌 Gemini 3.0 深夜炸场:没有悬念的最强 AI
  • 夸克全面接入千问对话助手,将发布全新AI浏览器
  • MIT何恺明团队新作:让扩散模型回归“去噪”本质,简单Transformer即可实现SOTA性能
  • Yann LeCun团队新作LeJEPA:仅一个超参数、50行代码,实现可证明、可扩展的自监督学习
  • JSON刚死24小时,TOON又被网友玩坏:LLM数据格式彻底乱套了
  • 美团多篇论文入选NeurIPS 2025:从大模型到多模态的全线突破 | 直播预告
  • 阿里千问公测,挑战 ChaGPT;京东上线独立外卖 App;贝佐斯出任 AI 初创公司 CEO
  • 抱歉了GPT-5,这次是中国AI「上岸」了
  • 你急它不急:GPT-5先判断,再决定「速答」还是「深想」
  • Meta开始用KPI考核,强迫所有员工尽可能多使用AI
  • 接招吧,GPT-5.1!
  • 「前三代定律」下,百年吸尘器如何做出新意?
  • 两个月破 300 万用户,Agnes AI 刷新 Instagram 与 Snapchat 增长纪录
  • 每天给白领发 1000 万,他成了硅谷最年轻亿万富翁
  • 2025,中国科技圈进入全面「大乱斗」时代
  • 当 AI 开始分「左右」
  • 阿里云,用全栈 AI 刷新第十七个双十一
  • AAAI 2026 山大提出DiveSeg:为DINO注入“水下感知力”,实例分割性能提升显著
  • AAAI 2026 Oral MiniShift+Simple3D:面向高分辨率3D异常检测的可扩展数据集与实时检测新范式
  • 双重隐式记忆来了!JanusVLN让视觉语言导航真正理解3D空间
  • 让千问APP当一周科研打工人:它比我想的能干,也比我想的累
  • 雷军连发多条微博回应质疑;iPhone 发布方式将在明年重大变革;年度最令人不安的研究:AI 刷多社媒会变蠢|极客早知道

基础架构的新探索:清华提出Step by Step Network

CV君 2025-11-23 11:38 江苏

从“一步到位”到“分步思考”

今天我们来聊一篇非常有意思的新工作,来自清华大学和华为诺亚方舟实验室的研究者们提出了一个名为Step by Step Network (StepsNet)的通用网络架构。它的核心思想非常直观,就是让神经网络像人一样“分步解决问题”,通过一种巧妙的渐进式学习策略,成功解锁了深度模型的巨大潜力。

理论上,神经网络越深,其表达能力越强。自从ResNet的残差连接(Residual Connection)解决了深度网络的梯度消失问题后,模型层数飙升至数百层已是常态。但一个尴尬的现实是,当网络深到一定程度后,性能提升往往会停滞不前,甚至出现下降。这背后究竟是什么在“作祟”?

  • 论文: Step by Step Network

  • 作者: Dongchen Han, Tianzhu Ye, Zhuofan Xia, Kaiyi Chen, Yulin Wang, Hanting Chen, Gao Huang

  • 机构: 清华大学、华为诺亚方舟实验室

  • 论文地址: https://arxiv.org/abs/2511.14329

成功背后,深度模型的两大“绊脚石”

作者通过深入分析,指出了当前残差网络在走向“更深”时遇到的两个核心障碍:

1. 捷径退化(Shortcut Degradation)

在标准的残差结构 中,每一层的输出都是前一层输出与一个残差块(Residual Block)输出的相加。当网络非常深时,这个累加过程可以展开为 。这里的 是初始输入(或浅层特征),我们称之为主干道上的“捷径”信号;而 则是不断叠加的“残差信号”。

在训练初期,由于网络参数是随机初始化的,残差信号 几乎等同于“噪声”。随着层数 的增加,这些“噪声”不断累积,导致原始的“捷径”信号 被严重稀释。

上图就直观地展示了这一现象。作者定义了一个“捷径率” 来衡量输入信号在第 层输出中的保留程度(其中 代表特征的标准差)。在一个超过400层的DeiT模型中,捷径率在训练初期迅速趋近于0。这意味着深层网络几乎接收不到来自输入的有效信息,梯度也无法有效回传,优化自然变得异常困难。

2. 有限的宽度(Limited Width)

在计算资源(FLOPs)固定的前提下,网络的设计存在一个固有的“深度-宽度”权衡。一个模型的计算复杂度通常与 成正比(为宽度/通道数,为深度)。这意味着,如果你想让模型变得更深,就必须牺牲其宽度,以维持相似的计算开销。然而,理论早已证明,宽度不足的网络即使再深,其函数逼近能力也受限。因此,当模型为了追求深度而变得“又瘦又长”时,其表达能力反而可能受损。

如上图(a)所示,为了将一个2层的网络加深到3层,宽度不得不被压缩,这无疑限制了模型的潜力。

StepsNet:让网络“分步思考”

为了同时解决上述两个问题,研究者们提出了StepsNet,其设计哲学可以概括为“分而治之,渐进学习”。

上图(b)和(c)清晰地展示了StepsNet的构造。以一个2步(2-step)网络为例:

  1. 分离(Split): 首先,将输入特征 沿通道维度拆分成两部分,

  2. 第一步(Step 1): 将 送入第一个子网络 进行处理,得到中间结果 。这个子网络可以是一个较窄的残差网络。

  3. 第二步(Step 2): 将第一步的结果 与之前未处理的 拼接起来,形成一个新的、更宽的特征 ,然后将其送入第二个子网络 进行处理,得到最终输出

这个过程可以递归地扩展到n步,形成一个由多个宽度递增的子网络堆叠而成的“窄-宽”结构。

步网络的通用公式可以表示为:

这种设计精妙地解决了前面的两个难题:

  • 缓解捷径退化: 在StepsNet中, 这些特征被直接“护送”到了更深的子网络(),没有经过浅层残差块的“污染”。这相当于为输入信息开辟了多条“绿色通道”,确保深层网络也能接收到纯净的原始信号。从前面的捷径率对比图(图2)中可以看到,482层的Steps-DeiT依然保持了非常健康的捷径率,堪比只有122层的标准DeiT。

  • 打破深宽权衡: StepsNet通过将一个宽而浅的块替换为多个窄而深的块,实现了在保持总计算量和最终输出宽度不变的情况下,显著增加模型的有效深度。这种“窄-宽”堆叠策略让模型既能“深”又能“宽”,鱼与熊掌兼得。

实验效果:不仅稳定超越,而且多面开花

StepsNet作为一个通用的宏观设计,可以轻松地应用于各种现有的CNN和Transformer模型,如ResNet、DeiT和Swin Transformer。

image
image

实验结果令人信服。在ImageNet-1K图像分类任务上,无论是ResNet、DeiT还是Swin,在换上StepsNet“内核”后,层数翻倍,性能都得到了一致性的提升,而参数量和计算量几乎不变。例如,Steps-Swin-T在相似的计算成本下,将Swin-T的Top-1准确率从81.3%提升到了82.4%

上图展示了当固定宽度、不断加深模型时,标准DeiT的性能在超过200层后开始饱和,而Steps-DeiT则能持续从深度中获益,一路高歌猛进,训练和测试准确率都遥遥领先。

image
image

更重要的是,StepsNet的优势并不仅限于图像分类。在COCO目标检测、ADE20K语义分割以及WikiText-103语言建模等多种任务上,StepsNet都展现出了优越的泛化能力,全面超越了基线模型。

此外,在推理速度和内存方面,StepsNet也表现出色。上图显示,在相似精度下,StepsNet在CPU和GPU上均实现了1.3x至1.4x的加速,并且在构建极深模型时,内存占用更低。

总结

总的来说,StepsNet通过一种优雅的“分步思考”机制,试图从宏观架构层面缓解了深度残差网络面临的“捷径退化”和“深宽权衡”两大瓶颈。

这项工作为如何构建更深、更强大的神经网络提供了新的思路。目前还未发现相关开源代码,期待作者开源,更多的实验验证和进一步的探索。

阅读原文

跳转微信打开

联系我们