动态列表

  • GPT-5王者归来?奥特曼称AI已跨科学门槛,三大学科正迎来实质性突破
  • 老黄押宝「美版DeepSeek」!谷歌天才叛将创业,一夜吸金20亿美元
  • 任意Agent皆可强化学习!微软推出Agent Lightning框架,无需修改任何代码
  • 13万被引!ImageNet作者苏昊或将加盟复旦
  • 250份文档投毒,一举攻陷万亿LLM!Anthropic新作紧急预警
  • 和两位 CEO 聊 Sora: 应用层爆发的里程碑事件,创业者的机会来了
  • 新一代短剧人,涌向郑州「淘金」
  • 社交媒体的黄金时代,结束了
  • 东京大学、牛津大学等联合发布VLA万字综述:机器人迈向通用智能的全栈指南
  • U-Bench:U-Net十年“大乱斗”终结者,100个变体、28个数据集的终极对决
  • DeepSeek苦练1T,清华只用5B?InfLLM-V2把稀疏注意力玩明白了
  • 北京/上海内推 | 阶跃星辰招聘RL for AIGC方向算法研究员/实习生
  • EMNLP 2025 | 拨云见日:知识电路分析揭示大语言模型“知识遮蔽”幻觉之源
  • Sora 下载量破 100 万次;国庆中秋假期国内游总花费超过 8000 亿元;智驾多位核心高管离职,蔚来回应|极客早知道
  • 谷歌杀入诺奖神殿,两年三冠五得主!世界TOP3重现贝尔实验室神话
  • OpenAI×英伟达,可能创造了人类史上最大万亿级泡沫
  • H-1B正在筛掉「下一个英伟达」?
  • 全球AI视频大战升级!「中国版Sora」Vidu Q2参考生月底发布,能力对标Sora 2
  • 第二代InfLLM开源,同尺寸快三倍!零参数,可训练稀疏注意力
  • 稳住训练、跑出泛化:STAGE重写「自回归图像生成」的强化学习范式
  • 腾讯推出TRM:让大模型像人类一样批判性思考,从文本依赖到事实正确
  • 马毅团队重磅发布新书:从MCR²到白盒Transformer,重构深度学习的第一性原理
  • 北大等提出TrackVLA++:赋予机器人推理与记忆,跟踪成功率飙升12%
  • Diffusion²来袭:威斯康星大学&华盛顿大学等提出双扩散模型,“回溯历史-预测未来”,破解自动驾驶“鬼探头”难题
  • 把我的第一次日本旅行,完全交给 AI 是什么体验?
  • 英伟达将投资马斯克的 xAI;低价版Model 3/Y 「阉割」智驾功能;微信推出批量撤回信息功能
  • 刚刚,清华物理传奇Yao Shunyu,跳槽谷歌DeepMind!
  • 赚100亿,烧1万亿!OpenAI算力神话:英伟达撒钱、AMD送股、全硅谷陪跑
  • 英伟达垄断AI算力局面或将被颠覆!AMD赌上身家发起决斗,奥特曼窃喜
  • 刚刚,2025年诺贝尔化学奖揭晓!偷溜进图书馆的少年,改变了世界
  • 小心,AI依赖会让你变笨!吴恩达等专家教你如何正确使用AI
  • 无RLHF,7M小模型反超DeepSeek-R1:三星团队用递归思考取代规模堆叠
  • 告别深度传感器!慕尼黑工业大学提出DropD-SLAM:仅用单目RGB即可实现RGB-D级的SLAM精度
  • IROS 2025 | Waymo与谷歌DeepMind联手提出Drive&Gen:用生成视频评估自动驾驶,虚拟测试更逼真
  • 陶哲轩联手ChatGPT!10分钟击碎30年「无理」难题,数学圈炸裂
  • 刚刚,奥特曼官宣ChatGPT「终极OS入口」!8分钟速搭智能体,8亿人狂欢
  • 顿悟不是玄学!港科大清华等联手:撕开推理黑箱,RL让AI像人思考
  • 4万亿帝国接班人浮出水面!苹果不需要另一个库克
  • 刚刚,2025年诺贝尔物理学奖揭晓!量子计算成最大赢家
  • NeurIPS 2025 | 北邮用“图+文”把人物检索拉满:自动合成数据 × 细粒度特征对齐
  • 告别梯度!Evolution Strategies全参微调挑战PPO/GRPO:更稳、更省、更好复现
  • TPAMI 2025 | 电子科大等提出EEMFlow:从事件相机学习高效Meshflow与光流,速度提升30倍
  • MICCAI 2025 | 莱斯大学提出MetaSeg:参数减少90%,元学习隐式网络重塑医学图像分割
  • OpenAI 与 AMD 签百亿美元协议,后者股价暴涨;特斯拉廉价 Model Y 将于 7 日发布;知名旅行、听歌应用入住 ChatGPT
  • 乔纳森下一个iPhone神话,要黄了?OpenAI秘密AI硬件深陷三重困境
  • 3年手搓ChatGPT!剑桥天才少年在Minecraft游戏中爆火回归
  • 一举击败Claude Code!微软提出代码生成黑科技:一键直出36K行代码
  • 刚刚,2025年诺贝尔生理学或医学奖揭晓!三位得主点燃器官移植希望
  • OpenAI入股AMD,股价暴涨35%!奥特曼左手黄仁勋,右手苏姿丰,通吃全球算力
  • 真实数据、全链路、可复核:GenoMAS打造更可信的基因分析智能体
  • 自进化Agent的第三种可能:隐式记忆,不动模型参数,胜过GRPO
  • NeurIPS 2025 | 高通提出GCL:无需额外数据,通用多模态检索迎来“一统江湖”新范式
  • NeurIPS 2025 | 慕尼黑工业大学提出SIM(3)等变网络:让3D形状补全告别“姿态偏见”,实现跨域泛化
  • 今日迎本世纪「最晚中秋月圆」;雷军:小米17 五天销量破百万;ChatGPT 或添私信聊天功能
  • 腾讯王者归来:混元图像3.0登顶LMArena!一手实测全球最强图像AI
  • AI「学不会」竟成相变探针!UCSD华人联手谷歌等,曝光量子纠缠秘密
  • 最新,2025诺奖预测出炉!中国科学家有望拿下化学奖?
  • 奥特曼:感受不到GPT-5变强,是因为你还不够「专业」
  • GPT-6或将比GPT-5强10倍!奥特曼揭秘ChatGPT如何诞生
  • 宾大提出F³:事件相机迎来“预测性”表征新范式,光流、分割、深度全SOTA!
  • “移步换景”一试,大模型全乱了:OST-Bench揭示MLLM时空推理短板
  • NeurIPS 2025 | AI也能做数学建模?本科生携手MM-Agent勇夺美赛全球前2%
  • LSTM之父再出手!xLSTM挑战Transformer:一场关于Scaling Laws的正面交锋
  • 微软下架「炉石」等多款游戏;华为云:华为算力效能超英伟达芯片 3 倍;马斯克回应特斯拉机器人打拳:并非遥控
  • 陶哲轩联手GPT-5,1小时攻克数学难题!全程无需编码,OpenAI副总惊呼
  • 1亿签约金抢AI大神?谷歌AI元老劝退全网:别再读博了!
  • 三天逆袭,Sora登顶美榜!15秒大片玩疯奥特曼,全网直呼真假难辨
  • 10个Agent一键组队:并行智能体协作,端到端交付从24h缩减到4h!
  • 首位AI女演员出道!好莱坞「天敌」来了,下一代偶像全是代码制造?
  • 南理工提出FMC-DETR:巧用“频率解耦”,航拍小目标检测精度飙升8.2% AP50
  • 网红挑战特斯拉FSD穿越美国出车祸;小米回应「小米汽车突然自己开走」;Sora 登顶美区苹果商城免费榜

清华万引教授:万倍加速催化剂设计,AI突破DFT瓶颈!



  新智元报道  

编辑:KingHZ
【新智元导读】传统DFT计算太慢?SurFF来了!这个基础模型通过晶面生成、快速弛豫和Wulff构型,精准评估晶面可合成性与暴露度。SurFF相较于DFT实现了10⁵倍的加速,多源实验与文献验证一致率达73.1%。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

在最新发表于Nature Computational Science的研究中,清华大学王笑楠团队提出了催化剂设计领域的全新基础模型SurFF。

在无需依赖昂贵实验或耗时DFT计算的前提下,这一模型可实现对金属间化合物表面暴露与形貌的高效、高精度预测,计算速度相比传统方法提升10⁵倍,为大规模催化剂筛选与理性设计提供了有力工具。

论文链接:https://www.nature.com/articles/s43588-025-00839-0

催化剂的性能与其表面结构息息相关,因为约90%的工业化学反应都发生在催化剂表面。因此,在设计新型催化剂时,准确预测哪些晶面能够稳定存在并暴露出来(即可合成性与暴露度),是评估其催化潜力的关键第一步。

然而,传统方法严重依赖高成本的实验表征(如XRD、TEM)或极其耗时的密度泛函理论(DFT)计算,这极大地限制了新材料的探索速度和规模,形成了催化剂研发的瓶颈。

SurFF核心方法与亮点

为突破这一瓶颈,团队开发了SurFF模型,其核心优势在于创新的方法学与强大的性能。

亮点一首创「三步走」预测框架,实现端到端高效预测。

SurFF的整体框架(图1)整合了三个自动化模块,可直接从晶体结构出发,高效地完成表面暴露预测:

晶面生成(Surface Generation):输入一个晶体结构,该模块会自动枚举出所有可能的、具有独特米勒指数的表面。

表面弛豫(Surface Relaxation):这是SurFF的核心加速引擎。利用深度学习驱动的机器学习力场(MLFF),对生成的每个表面进行快速且精准的结构弛豫,以计算其表面能。

Wulff构型(Wulff Construction):将计算出的各表面能与晶面朝向相结合,应用经典的Wulff理论,构建出该晶体在热力学平衡下的三维形貌,并由此精确得到各晶面的暴露面积比例。

亮点二大数据与主动学习构建高质量表面数据库。

模型的强大性能离不开高质量数据的支撑。

团队采用数据高效的主动学习(Active Learning)策略,结合高通量DFT计算,构建了一个规模庞大的金属间化合物表面数据库。

规模庞大:该数据库涵盖了从「材料计划」(Materials Project)数据库中筛选出的多种金属晶体,最终包含12,553个独特的合金表面和344,200个DFT计算数据点。

数据高效:主动学习策略通过「不确定性+多样性」采样,在每一轮迭代中,优先挑选信息量最大的表面进行DFT计算,从而用最少的计算资源(总计155,612 CPU小时)构建出覆盖广泛化学空间的综合性数据库。

亮点三:先进的机器学习力场(MLFF)模型。

SurFF的力场模型采用了先进的3D等变图卷积神经网络(EquiformerV2),该模型能够高效学习原子间的相互作用,精准预测原子受力与体系能量,其精度达到了DFT水平。

图文解读

1. SurFF三步走流程

图1 SurFF整体框架

通过晶面生成—快速弛豫—Wulff构型「三步走」,SurFF高效完成晶体表面暴露预测:

首先,系统依据输入的晶体结构自动生成所有独特晶面,好比从不同方位切割晶体以枚举各取向的晶面;

随后,这些表面交由深度学习驱动的机器学习力场(MLFF)进行快速弛豫(surface relaxation),得到每个表面的表面能,计算效率相比传统DFT提升约10⁵倍

最后,SurFF基于Wulff构型(Wulff construction),将不同晶面的表面能组合求解,推断出稳定形貌及各晶面的暴露比例。

这一流程依托主动学习(Active Learning)构建的大规模表面能数据库与高精度MLFF作为支撑,使SurFF能在极短时间内完成上千种晶体的形貌预测与可合成性评估,为理性催化剂设计提供高效工具。

更具体地,SurFF将「形貌—暴露」问题拆解为晶面生成→表面弛豫/表面能计算→Wulff构型。

关键在于以MLFF替代DFT做结构弛豫,从而在保持DFT级精度的同时实现数量级加速。

(1)晶面生成

对输入晶体,系统枚举独特晶面,并为每个取向生成对称终止的薄片(slab)与对应的取向化晶胞(OUC);结构由PyMatGen自动生成与标准化。设计与评测覆盖至Miller指数≤2的晶面族,以兼顾代表性与计算可负担性。

(2)表面能与MLFF弛豫

采用经验证的OUC+薄slab方案:slab厚度≥10Å、真空层≥15Å,并固定中间层原子以加速收敛。表面能按下式计算:

其中分母「2」表示slab的两侧表面。流程先在元素晶体上对标,再于金属间化合物体系进行收敛性与稳健性检查。

为获取高精度且具普适性的MLFF,模型采用三维等变图神经网络(如EquiformerV2)学习力与能,并以预测力/能驱动LBFGS几何优化:最多300步、单步最大位移0.03Å、收敛阈值max|F|<0.03eV·Å⁻¹。

论文同时给出DFT基线:VASP6.3/PAW-PBE/520eV截断能/Γ点中心k网格(OUC:35/a×35/b×35/c;slab:35/a×35/b×1),能量/力收敛阈值分别为1×10⁻⁶eV与0.02eV·Å⁻¹,并以R2SCAN做方法学对照。

(3)Wulff构型

得到各取向表面能后,通过最小化求得热力学平衡形貌与各晶面面积分数,由此直接获得「哪些晶面更易暴露、暴露多少」的定量结论。文中进一步将暴露面积分为低/中/高三级,用作可合成性表征。

2. SurFF:DFT级精度与10⁵倍加速

在表面能预测、计算效率与可合成性判别中,SurFF实现DFT级精度与10⁵倍加速。

图3 模型性能验证

SurFF在精度、效率和可合成性预测方面均展现出优异表现。

首先在表面能预测上,SurFF达到了与DFT相当的精度:在分布内测试集(ID)上,平均误差仅3.0meV/Ų;即使在分布外测试集(OOD),误差也保持在10.5meV/Ų的合理范围(图3a、d、f)。

其次,在计算效率上,SurFF相较于DFT实现了10⁵倍的加速:原本需要上万小时的计算,如今只需不到10小时即可完成(图3h)。这种效率优势使其首次具备大规模筛选数千晶体表面的能力。更重要的是,SurFF不仅能预测表面能,还能准确区分不同晶面的「可合成性」。在表面暴露预测中,高可合成性(High)的准确率达到77.1%,Top-5预测准确率更高达81%(图3g),有效过滤了不易合成或低暴露的表面。

整体来看,SurFF兼具高精度与高效率,为催化剂大规模理性设计提供了全新工具。

补充数据要点

表面能精度:主动学习测试集MAE=3.8meV·Å⁻²;ID MAE=3.0meV·Å⁻²;OOD MAE=10.5meV·Å⁻²;弛豫后结构与DFT的原子坐标RMS误差仅0.109Å。

可合成性/暴露判别:暴露面积分级为低/中/高后,High类准确率77.1%、整体准确率71.9%;Top-3/Top-5「最可能暴露面」识别稳健(见图3g)。

效率与可扩展性:代表性对比为10,919h(DFT)→0.23h(SurFF)、7,576h→0.27h,使「全晶体面弛豫」进入小时级批量推理范畴;在此基础上,SurFF可在天级时间窗口完成数千—上万晶体的筛选,论文并指出百万级规模在数日内可完成。

3. 多源实验与文献验证:SurFF一致率达73.1%

多源实验与文献数据验证SurFF晶面暴露预测与高分辨TEM观测一致率达73.1%。

图4 与实验对比

为了验证SurFF的预测是否符合真实情况,研究团队结合了大规模文献数据和原创实验数据。

一方面,团队利用大语言模型(LLM)从1万余篇顶级催化期刊论文中筛选出可靠的表面结构信息;

另一方面,亲自合成并表征了数种典型金属间化合物,通过XRD确定晶体结构,再用高分辨TEM精确识别暴露表面。

结果显示,SurFF对实验中观测到的晶面预测成功率高达73.1%。

例如,对于CuPd晶体,实验观测到的(100)和(110)晶面均被SurFF准确预测为高暴露表面。图4b进一步展示了多个金属间化合物的对比结果,图中橙色标注的晶面即为实验与预测一致的部分。

整体来看,SurFF不仅在计算层面达到DFT级精度,更能在真实催化体系中准确反映表面暴露规律。

这一结果说明,SurFF的预测具备可靠的实验可验证性,为催化剂理性设计提供了坚实支撑。

文献侧:团队构建LLM(DeepSeek-V2)驱动的高通量文献筛选流程,先按题录与摘要自动判别相关性并提取DOI,再由人工审核抽取合格的表面信息,实现对大量论文的高效收集与结构化整理。

实验侧:作者亲自合成并表征了ZnRh、ZnPd、ZnPt等金属间化合物,XRD用于确认晶体结构,HRTEM/HAADF-STEM/EDX用于精确定向与面间距测量(如CuPd的d₁₀₀=0.298nm、d₁₁₀=0.211nm),并与SurFF预测的高暴露晶面做逐一对照。

一致性结果:跨材料体系的统计显示,SurFF对实验观测晶面的命中率达73.1%;例如CuPd的(100)/(110)面均被正确预测为高暴露面。图4b以橙色标注给出了「预测=实测」的晶面集合。

外推应用:在与计算与实验对齐后,作者将SurFF一键扩展到**>6,000个金属间化合物(能量高于基态0.2eV/atom),共≈14万**独特晶面,总显卡时间仅约115GPU·h,并提供表格化数据以便社区检索与复用。

总结与展望

SurFF作为催化剂领域的表面暴露基础模型,首次实现了对金属间化合物表面性质的高精度、高效率、大规模预测。

它不仅成功地将计算速度提升了10⁵倍,补齐了传统催化筛选流程中「只看活性、不看结构」的关键短板,还通过迁移学习展示了其拓展至氧化物、氮化物等更广泛材料体系的巨大潜力。

未来,通过在数据库中整合温度、压力等真实反应条件以及动力学效应,SurFF有望发展成为一个更加通用和强大的催化剂理性设计与发现平台,持续加速新材料的研发进程。

通讯作者简介

王笑楠,清华大学化工系长聘副教授、博导,智能化工研究中心主任,国际合作与交流处副处长,新加坡国立大学荣誉副教授,新一代人工智能国家科技重大专项首席科学家、项目负责人,国家高层次青年人才计划入选者。

她带领团队从事AI+能源化工材料的研究,针对传统能源化工新材料研发周期长、成本高、工程放大困难等挑战,提出了融合数据与机理、大小通专模型并进的方法体系,建立了先进化工材料人工智能基础模型与智能体,并用于工业催化剂、高端聚烯烃等领域,突破「卡脖子」材料研发,拓展了绿色低碳能源化工研究方法。

发表论文180余篇,被引12600余次,H-index 67,担任Applied Energy、Green Chemistry等十本国际期刊副主编和编委,获世界化学工程理事会青年学者奖、美国化学会可持续化学与工程讲席奖、Cell Press中国女科学家奖、青年北京学者、侯德榜化工科学技术奖「青年奖」等荣誉,入选全球学者终身学术影响力榜,2024、2005全球高被引学者,连续五年被Elsevier评为全球前2%科学家。

参考资料:
https://www.nature.com/articles/s43588-025-00839-0

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652633591&amp;idx=2&amp;sn=bcd0a9e0315f63fbc028020fe285f6ac&amp;chksm=f05bd6865fb61fe0f7ef306b7781e570992bc127c9a5d6261079eb064da396f798761976f8d5&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/cXImm1UDTW&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们