动态列表

  • 刚刚,奥特曼亲赴,韩国「举国」投靠!
  • 奥特曼「一张脸」引爆全球狂欢!Sora 2冲上APP榜第三,邀请码炒到1250元
  • 60岁老人AI养生三个月吃进医院!「AI精神病」全球扩散,OpenAI急招医生
  • 一杯咖啡,3亿美金!斯坦福天才少女退学创业,Meta AI大牛排队加入
  • 武大新作MASt3R-Fusion:融合IMU与GNSS,为新一代视觉SLAM注入“多感官”智慧
  • 中科大、清华、快手等发布OpenGPT-4o-Image:为多模态AI打造的“超级燃料”,图像编辑性能提升18%
  • 历史首位,马斯克身家突破 5000 亿美元;王腾注销、清空多个社媒账号;美国演员工会抵制 AI 演员
  • 刚刚,OpenAI Sora 2重磅登场!首个APP上线,或将成为AI时代新TikTok
  • Sora 2全网疯狂实测:以假乱真、脑洞大开、虚实难分|附首个APP教程和邀请码
  • OpenAI和DeepMind大佬离职联手,誓用AI科学家实现室温超导!已融3亿美元
  • 南洋理工联合商汤提出Visual Jigsaw:像玩拼图一样,显著提升多模态大模型的视觉理解力
  • 天津大学联合腾讯提出Wan-Alpha:一键生成高质量透明视频,发丝级抠图不再是梦
  • OpenAI 深夜重磅推出新视频模型和独立 App;英伟达市值突破4.5万亿美元;特斯拉预计推出第三代人形机器人 | 极客早知道
  • 刚刚!软银系创始人4个月打造机器人超级黑马,获2轮近亿元融资
  • 博士生,当代最穷科研民工?Nature最新调查:不涨工资,我们就跑路了
  • Thinking Machines曝LoRA终极指南:10倍学习率,媲美全参微调
  • AI改造出行体验:滴滴的试验能否开启行业范式转变?
  • GPT-5「降智」真相曝光:不是变笨,而是五个超级开关没激活
  • OpenAI 刚刚发布了属于 AI 的抖音,还有 Sora 2
  • YOLO26首份学界评论:端到端无NMS,目标成为边缘设备实时目标检测新标杆
  • DeFacto:用强化学习治愈AI幻觉,让多模态模型“有据可查”
  • NeurIPS 2025 | 清华大学与华为等提出全新正则化方法,破解稀疏视图3DGS“协同适应”难题
  • LoRA到底能否媲美全参?Thinking Machines用实验曲线划出「无悔区」
  • 把“俄罗斯方块”搬进设计室:物竞天择让振动微型机器人进化得越跑越快
  • 榜一换人!OCRBench v2九月新榜:揭示多模态大模型文档智能真实水平
  • DeepSeek V3.2 发布,API 成本减半;特斯拉员工被机器人打伤,索赔 5100 万美元;Claude 新模型登场
  • 谷歌Veo 3论文竟无一作者来自美国!揭秘零样本「看懂」世界
  • 零样本「即插即用」!智源开源RoboBrain-X0,一个基座模型开动不同机器人
  • AI老司机现身重庆!徐峥挑战赛车手,上演「不再囧途」
  • 强化学习之父给LLM判死刑!站队LeCun:我们全搞错了
  • 独家!DeepSeek最新模型上线,全新注意力机制基于北大ACL最佳论文
  • 4B逼近DeepSeek-R1!Bengio团队「递归聚合」刷新小模型上限
  • KDD 2025 | 看不见也能控:用“基混杂向量”打穿分布移位,交通预测稳了
  • 北京内推 | 快手可灵AI技术部招聘视频生成/数字人方向算法实习生
  • 在云栖,我们遇见了最会玩的「AI 原住民」
  • NeurIPS 2025 | UniPixel:首个统一对象指代与分割的像素级推理框架,让大模型看懂每一个像素
  • NeurIPS 2025 | Seg4Diff:无需分割头,揭示并放大扩散Transformer中的涌现分割能力
  • 做 AI 陪伴收获 1000 万用户后,前微信 AI 产品负责人,要重新定义生活里的 AI
  • 透视阿里云产品生态团队:AI 落地的「关键通道」
  • OpenAI「降配门」发酵,偷换模型遭全网实锤;小米 SU7 在日本首秀;苹果内部测试类 ChatGPT 应用|极客早知道
  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • 8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车

刚刚,这家0产品0模型就估值854亿的公司,终于发布了首款产品!



  新智元报道  

编辑:定慧 好困
【新智元导读】微调大模型不再是少数人的专利!Thinking Machines Lab推出首款产品「Tinker」,一个专为语言模型微调而生的API。它让开发者能彻底摆脱底层架构的束缚,仅用简单的Python代码便可专注于算法与数据创新。

一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发

Thinking Machines Lab终于首发第一款产品,Tinker!

不是模型、也不是APP,而是一个专为语言模型微调而生的API。

翻译过来就是,Tinker可以让几乎所有人,都能轻松地微调出属于自己的模型!

对于广大研究者和开发者而言,Tinker的诞生就是为了解决一个核心痛点:

当我们想要在SOTA模型上进行实验和定制时,往往会被复杂的分布式训练基础设施搞得焦头烂额。


而Tinker的解决方案是,你只管专注于算法和数据,他们来处理所有棘手的后台工作。


不仅如此,从一个小模型切换到一个庞然大物,操作竟简单到只需在你的Python代码中更改一个字符串。

OpenAI前CTO搞的这款产品,确实还是有点东西的。

正如CEO Murati所说:「Tinker为研究人员带来了前沿工具,为编写实验和训练流水线提供了清晰的抽象接口,同时处理了分布式训练的复杂性。它为创新研究、定制模型和构建可靠的性能基准提供了可能。」

对此,大佬卡帕西也在第一时间发推盛赞,认为Tinker会改变过去模型微调的范式:

这意味着即使是像你我这样的普通用户,也能介入模型层面,而不仅仅停留在输入层面,修改few-shot!


上下滑动查看

与更常见的「上传你的数据,我们对你的LLM进行后训练」的现有范式相比,卡帕西认为Tinker是一个更巧妙地将后训练复杂性「切分」的方式。

卡帕西认为微调是更好的后训练范式。

few-shot提示(就是把很多示例都塞到prompt里)在上下文长度、提示设计、推理开销上有很多限制。

但微调一个较小模型,把它训练成做一类专门任务的模型,在很多场景下可以取得更好或者更稳定的表现,并且推理速度更快、资源消耗更低。

理论上来说,Thinking Machines Lab的首款产品,不仅是针对开源模型,而且更是给所有人下放了「权力」!

比如过去模型是开源了,但是大参数的模型,比如671B的DeepSeek,没有卡无法推理;

小模型比如2B、7B的模型,初始性能又不好用。

Tinker出现后,我们都有了能力按照自己的需求和想法,可以用自己的数据来微调一个专门模型啦!


人人都可「微调」模型

Tinker只需要用非常简单的Python代码即可完成「想法表达」。

作为一个运行在Thinking Machines Lab内部集群和训练基础设施上的托管服务,它为你包办了任务调度、资源分配和故障恢复等所有繁琐事务。

用户则无需担心基础设施的管理,可以立即启动或大或小的计算任务。

Tinker的核心功能包括:

  • 提供如forward_backward和sample等Python原生操作,让用户能构建自定义的微调或强化学习(RL)算法。

  • 支持从小到大的各类开放权重模型,包括像Qwen-235B-A22B这样的专家混合(Mixture-of-Experts)架构。

  • 集成了基于LoRA的微调方法,允许多个训练任务共享计算资源池,从而优化成本效益。

  • 提供一个名为Tinker Cookbook的开源配套库,其中包含了多种后训练方法的实现。

Thinking Machines Lab采用了LoRA技术,从而能够在多个训练任务间共享同一个计算资源池,以降低成本。

Tinker API提供了如forward_backward和sample这样的底层操作原语,可用于实现大多数常见的后训练方法。

通过Tinker,可以微调各种规模的开放权重模型,包括像Qwen-235B-A22B这样的大型专家混合模型。

从小模型切换到大模型,仅需修改Python代码中的一个字符串即可,操作非常简单。

Tinker目前支持Qwen系列和Llama系列的模型。

尽管能够直接微调模型,要取得理想成果,仍需将众多细节处理到位。

因此,他们发布了一个名为Tinker Cookbook的开源库,其中包含了基于Tinker API运行的、实现了各种先进后训练方法的代码。

目前,Tinker处于免费私测阶段,未来几周内将推出基于使用量的定价模型。

想要使用Tinker,需要申请加入用户白名单,申请地址:https://form.typeform.com/to/jH2xNWIg


以开发者为中心的训练API

Tinker并非又一个拖拽式界面或黑箱微调服务。

相反,它提供了一个底层但用户友好的API,让研究人员能够通过标准的Python代码,对损失函数、训练循环和数据工作流进行精细控制。

实际的训练工作负载运行在Thinking Machines的托管基础设施上,从而实现了快速的分布式执行,并免去了管理GPU集群带来的种种麻烦。

加州大学伯克利分校计算机科学博士生Tyler Griggs在测试该API后写道:许多强化学习微调服务都面向企业,不允许用户替换训练逻辑。

而有了Tinker,你可以完全不用操心计算资源,只需专注于「摆弄」环境、算法和数据。

上下滑动查看


普林斯顿、斯坦福已率先用上了


在公开发布前,Tinker已在多家研究实验室投入使用。

早期采用者包括来自伯克利、普林斯顿、斯坦福以及Redwood Research的团队,他们各自将该API应用于独特的模型训练问题:

  • 普林斯顿的Goedel团队使用Tinker和LoRA微调用于形式化定理证明的大语言模型,仅用20%的数据便达到了与Goedel-Prover V2等全参数监督式微调(SFT)模型相当的性能。他们在Tinker上训练的模型,在MiniF2F基准测试中实现了88.1%的pass@32成功率,通过自我纠正后更是达到90.4%,超越了规模更大的闭源模型。

  • 斯坦福大学的Rotskoff实验室使用Tinker训练化学推理模型。在LLaMA 70B模型基础上进行强化学习后,从IUPAC命名转换为化学式的准确率从15%跃升至50%。研究人员称,如果没有强大的基础设施支持,这种幅度的提升在过去是无法想象的。

  • 伯克利的SkyRL团队运行了自定义的多智能体强化学习循环,其中涉及异步的离策略(off-policy)训练和多轮工具使用——而Tinker的灵活性让这一切成为可能。

  • Redwood Research使用Tinker在长上下文AI控制任务上对Qwen3-32B模型进行强化学习训练。研究员Eric Gan表示,如果没有Tinker,他很可能不会启动这个项目,并指出扩展多节点训练一直是一大障碍。

这些案例充分展示了Tinker的多功能性——无论是经典的监督式微调,还是覆盖截然不同领域的高度实验性强化学习流水线,它都能提供支持。

参考资料:
https://thinkingmachines.ai/blog/announcing-tinker/

<br>


    <a class="media_tool_meta meta_primary" href="http://mp.weixin.qq.com/s?__biz=MzI3MTA0MTk1MA==&amp;mid=2652631668&amp;idx=1&amp;sn=2e31e8168ca3734da3654859762e2147&amp;chksm=f02aa0e303575a29fef4ae03d53211713119d9a47920d656fb9ad679161c6025861c8d1ce5a5&amp;scene=0#rd"  target="_blank">文章原文</a>
    <br>




<img alt="" class="" height="1px" src="https://images.weserv.nl/?url=http://www.jintiankansha.me/rss_static/5418/KPusfaawC4&amp;maxage=1y"  width="1px"></div></div></body></html>

联系我们