动态列表

  • OpenAI「GPT门」事件引爆!Plus、Pro账户统统降配,偷换模型全网实锤
  • 突发,普林斯顿CS博士后猝然离世!清华本科毕业,刚完成论文答辩
  • 国内首次!8.9毫秒推理速度破纪录,1元打穿百万token
  • 惊现高管离职潮!马斯克亲信操盘xAI,千亿美元能填AGI野望?
  • 黄仁勋2小时反驳「AI泡沫帝国」论!英伟达将成全球首家十万亿市值公司
  • 云与AI,如何托举 Z 世代的创新野心
  • NeurIPS 2025 | 我奶奶都能复现?条件表征学习:矩阵一乘,表征立马“对齐”!
  • 北京/杭州内推 | 阿里通义实验室招聘多模态大模型与智能体方向算法实习生
  • NeurIPS 2025 | 北大等提出C²Prompt:解耦类内与类间知识,破解联邦持续学习“双重遗忘”难题
  • InterDigital开源CompressAI-Vision:为“AI看”的视频压缩,打造一个“通用跑分平台”
  • 24.98万的理想i6,在特斯拉、小米、蔚来「后院」放了一把火
  • 小米 17 开售 5 分钟,破国产机销售纪录;Meta 研发机器人项目;国内发布「脑机接口标准」
  • Stability AI前CEO惊人预测:人类智力价值归零,只剩1000天!
  • 刚刚,奥特曼预言:人类「只剩」最后5年!
  • 免训练加速61倍!陈怡然团队新作DPad:仅关注「彩票token」
  • 估值840亿AI实验室再放大招,他们要给大模型戴上「紧箍咒」
  • 苹果掀桌!扔掉AlphaFold核心模块,开启蛋白折叠「生成式AI」时代
  • 自动驾驶进入大模型时代,主机厂寻找「联合创始人」
  • 复旦等揭秘机器人“大脑”安全漏洞:一张图就能让它“宕机”,攻击成功率76.2%
  • DASFAA 2025 | 湖大等提出SCRA-VQA:给LLM一份“精装修”的图像描述,无需训练提升VQA性能
  • 苹果官方旗舰店也放假,商品不发货;腾讯推「老年打车」服务;车主酒驾,智能驾驶「报警」|极客早知道
  • 刚刚,ChatGPT Pulse上线!私人秘书不再是富人特权
  • 颠覆算力格局!全球首个星座级太空AI算力服务,在中国诞生
  • OpenAI 3万亿美元测试,AI首战44个行业人类专家!
  • JHU教授揭秘学术潜规则:普通博士如何打破鄙视链翻盘?
  • Hinton预言错了!年薪狂飙52万美元,AI没有「干掉」放射科医生
  • 168 元一年的「小红卡」,是小红书打破本地生活红海的钥匙
  • 当 5 亿玩家涌入 AI 的 3D 新世界
  • 博士申请 | 香港中文大学(深圳)冀晓强老师课题组招收人工智能全奖博士/硕士
  • 128k死穴被击穿!Amazon爆改长上下文:段内压缩快4×,推理不掉点还更准
  • 普林斯顿陈丹琦组新作:RLHF难支撑,RLVR有边界?RLMT开辟第三条路
  • AI 到底会不会做生意?1688 的答案让人惊喜
  • 找人不求人?Lessie 让「人脉玄学」变成算法游戏|AI 上新
  • 斯坦福推出VisualMimic:让机器人“眼观六路”,零样本完成复杂任务
  • 浙大发布RS3DBench:让遥感AI看懂3D世界,首个像素级对齐的大规模基准来了!
  • 小米 17 系列发布,4499 起;追觅「库里南」图片曝光;YU7 Max 成「百万最速」车
  • 刚刚,LeCun团队开源首款代码世界模型!能像程序员一样思考的LLM来了
  • AI正在偷走白领工作!OpenAI狂砸10亿教AI上班,你的完美继任者即将上岗
  • Sora 2瑟瑟发抖!通义万相2.5放大招:一句话出1080P电影,音画精准同步
  • 信息熵之后,清华提出状态熵!量化分析「系统智能性」的全新视角
  • 突发!Meta刚从OpenAI挖走了清华校友宋飏
  • KV缓存不再爆!清华姚期智团队重写注意力维度,长上下文更省更强 | NeurIPS 2025 Spotlight
  • 78条打穿1万条!上交大新范式告诉你:智能体训练靠“质”,不是靠“量”
  • 北京内推 | 中科院软件所数据科学研究中心招聘大语言模型算法实习生
  • 三款骁龙芯片曝光,高通谷歌联手打造「安卓 PC」时代
  • Instagram 月活破 30 亿,靠“短视频”和“私信”;2027款iPhone曝光;女子用ChatGPT选号中百万大奖,全部捐出
  • 一年4次迭代,狂堆GPU成真!微软AI冷液灌芯,散热暴涨3倍
  • 刚刚,阿里CEO吴泳铭发布「ASI宣言」:超级智能才是终局!
  • 前Meta工程师爆料:17人团队15个H-1B!一夜之间80%对手没了?
  • 秘塔AI放大招!「边想边搜边做」,内置20+智能体,想法一键实现
  • 震撼!AI物理「双修」:亥姆霍兹方程嵌进生成器,伪影当场消失
  • 恶劣天气下的图像修复:南理工等提出LCDiff,让AI在雨雪雾天也能看得清
  • OCRBench v2 25年9月最新榜单发布!揭示多模态大模型文档智能真实水平
  • 博士申请 | 加拿大麦吉尔大学智能自动化实验室招收大模型/强化学习方向全奖博士生
  • NeurIPS 2025 | 甩掉文本CoT!FSDrive开启时空思维链,自动驾驶迈入视觉推理时代
  • RL不再撒胡椒面!港科大 × 清华新作:只盯“规划token”,大模型推理力狂飙
  • 3 天卖完今年所有产能,蔚来全新 ES8 如何实现逆风翻盘?
  • 超越 AGI,阿里剑指「超级智能」
  • Point-SSM:一种用于点云分析的极简状态空间模型,在医学点云任务上表现SOTA
  • 字节跳动OmniInsert炸场:无需掩码,任意物体“贴”进视频,效果碾压闭源SOTA!
  • ContextFlow:无需训练的视频编辑新范式,实现电影级魔改!
  • 忘了法拉利,一辆中国车正在改写游戏规则
  • 40亿投进去,换回了什么?全新问界M7的「值得」哲学
  • 华为问界新 M7,1 小时大定 3 万;李想:iPhone 17 顶配太丑,不买;防台风,腾讯「捆绑」QQ 企鹅塑像
  • 一半人明天不上班,GDP不会掉一点!耶鲁大学揭AGI残酷真相
  • 告别胶水代码,5倍飚速!无问芯穹首次揭秘,Infra智能体蜂群登场
  • Depth Anything再出新作!浙大 & 港大出品:零样本,优化任意深度图
  • H-1B「天价签证」引爆恐慌!印裔精英返乡梦碎,2800亿市场剧震
  • 突发:甲骨文CEO下台!刚和OpenAI签下3000亿美元大单,或因路线斗争
  • 年轻一代创作者,学会与 AI 共舞
  • KDD 2025 | 从个股偏离到市场共振:UMI挖出股市非理性因子,显著提升预测精度
  • 北京内推 | Apple中国招聘机器学习/AI方向研究型实习生
  • 一套框架搞定图像定制!IC-Custom统一「位置相关/无关」,万物迁移真落地
  • MiniCPM-V 4.5技术报告正式出炉!首个高刷视频理解多模态模型全解析
  • TPAMI | 数据增强还在“盲操”?南大提出IPF-RDA,让模型训练告别信息丢失
  • SilentStriker:无声击溃大模型
  • Yann LeCun团队新作LLM-JEPA:结合联合嵌入预测架构,显著提升大模型微调性能与效率,在代码生成任务上表现卓越
  • 小米 17 系列手机官宣 9 月 25 日发布;iPhone 17 标准款需求超预期,苹果已增产;罗永浩再回应债务问题:个人债务五年前就还完了,后面是主动还的公司债务|极客早知道
  • 比思维链准43%!逻辑脑+大模型直觉,推理可靠性大幅提升
  • 陶哲轩官宣AI数学基金首轮名单:29个项目瓜分1.3亿,数学界沸腾!
  • GPT-5仅23.3%,全球AI集体挂科!地狱级编程考试,夺金神话破灭
  • 一手奶瓶一手键盘!新手宝妈产假氛围编程,自研实用家庭App
  • 刚刚,DeepSeek-V3.1「终极版」重磅发布!最大提升超36%,V4/R2还远吗?
  • 为了千元机用户的「流畅权」,OPPO 为安卓换了个「引擎」
  • ​一年卖出 10 个亿,这是年轻人真正的「户外神器」
  • Teable 宣布完成数百万美元天使轮融资,让数据库「长出耳朵和手」
  • 北京内推 | 智源研究院多模态交互研究中心招聘多模态/具身智能方向研究型实习生
  • 博士申请 | 复旦大学魏龙老师课题组招收AI4Science方向博士/硕士/RA/实习生
  • Lumos-1登场!自回归 + 离散扩散合体:让大模型真正“构造”动态世界!
  • RLHF要下岗?Meta × 牛津搞出新套路:用算力教算力,大模型训练新范式来了!
  • 不到两千块,我拍到了专业级别的月全食|New Things
  • 字节跳动SAIL-VL2登顶OpenCompass,开源高效多模态新标杆
  • 苹果发布Manzano:一种简单可扩展的统一多模态大模型,其混合视觉Tokenizer统一了理解与生成任务,性能SOTA
  • 博后年薪40万到90万 | 东方理工朱文韬课题组招聘AI方向博士后、研究助理教授、访问学生、实习生
  • 黄仁勋出手,50 亿美元入股英特尔,英伟达一统「GPU+x86」生态
  • 巴菲特清仓比亚迪,期间股价上涨 38 倍;苹果折叠屏手机细节曝光;雷军年度演讲定档 9 月 25 日

8GB显卡的逆袭!SSD换显存,3060 Ti硬跑100k长上下文

原创 让你更懂AI的 2025-09-28 13:35 北京

把80B模型塞进消费级显卡

在大模型推理的世界里,有一个残酷的现实:上下文越长,钱包越痛。你想在 10 万 tokens 的文档里挖掘知识?对不起,先准备一张几十 GB 显存的高端 GPU,再外加一台服务器的预算。长上下文能力明明是刚需,却总被硬件门槛挡在门外。

直到最近,一个小而灵的开源项目——oLLm,提出了一个看似疯狂却极其实用的思路:显存不够,SSD 来凑。结果是,普通人家里那块 8GB 的 3060 Ti,也能硬生生把 Qwen3-80B、Llama3-8B 拉到 50k–100k tokens 的上下文里运行。

项目名称:

LLM Inference for Large-Context Offline Workloads

项目地址:

https://github.com/Mega4alik/ollm

为什么是oLLm?

传统推理引擎,比如 vLLM,会通过分页管理等技巧在显存里“挤出空间”,但它们的本质依旧受制于 GPU 显存容量。上下文越长,瓶颈就越明显。

OLLm 则走了一条完全不同的路线:

  • 权重和 KV 缓存分层下放:显卡只负责最核心的计算,其他部分被分散到 CPU 内存或 NVMe SSD。这等于给 GPU 做了“显存减负”,让小显存卡也能顶上场。

  • FlashAttention-2 加持:长上下文最怕注意力矩阵膨胀,FlashAttention-2 的高效实现保证了即便是百 k 级长度,也不会直接把显存压爆。

  • 分块 MLP(Chunked MLP):把中间层切片处理,削减峰值显存开销,进一步压低显存占用曲线。

换句话说,oLLm 用一种很“工程黑客”的方式,把大模型的资源分配逻辑彻底改写:用便宜的 SSD 和 IO,换取宝贵的显存容量

结果就是——哪怕只有一块 8GB 的小卡,也能和百 GB 显存的怪兽 GPU,在长上下文场景里同台竞技。

Baseline vs oLLm对比架构示意图

Baseline 把所有权重和缓存都压在 GPU 上,显存需求飙升;oLLm 则分层到 GPU / CPU / SSD,让 8GB 小卡也能“越级挑战”。

架构与代码:SSD插手的推理过程

oLLm 的核心结构其实不复杂,关键在于一种“插槽化”的思路:当显存不够用时,KV cache 不再死死待在 GPU,而是被下放到 SSD。

初始化与加载

from ollm import Inference# Step 1: 初始化推理器ollm = Inference("llama3-3B-chat", device="cuda:0")# Step 2: 模型准备ollm.ini_model(models_dir="./models", force_download=True)# Step 3: 可选操作——把部分层权重丢到 CPU,进一步节省显存ollm.offload_layers_to_cpu(layers_num=4)

上面这段代码展示了最典型的初始化过程:模型对象被加载,但并不会把全部权重一次性灌进显存,而是根据需要动态调度。

磁盘缓存的接入

# 把 KV cache 放到磁盘past = ollm.DiskCache(cache_dir="./kv_cache")# 输入与推理messages = [ {"role": "user", "content": "请总结这篇长达 3 万 tokens 的法律合同"}]input_ids = ollm.tokenizer.apply_chat_template(messages, return_tensors="pt").to(ollm.device)outputs = ollm.model.generate( input_ids=input_ids, past_key_values=past, max_new_tokens=200)

这里的亮点是 DiskCache :它让 GPU 显存只存放必要的计算张量,而上下文膨胀导致的 KV cache 全部落盘。对用户来说,只是多写了一行,但背后却意味着一次彻底不同的推理路径

推理流程一图看懂

为了更直观地理解这一变化,可以看看下图:

▲ oLLm推理流程示意图

用户输入先经过 Tokenizer,再进入 Inference 引擎;与此同时,KV 缓存被分流到 SSD 的 DiskCache。最终生成结果返回给用户。只需在代码里多写一行,推理链路就被彻底改写,显存压力转移到 SSD。

安装与使用体验:一行行命令背后的门槛

要跑通 oLLm,你并不需要特别复杂的环境,但有几个小坑需要注意。

环境准备

# 创建虚拟环境python3 -m venv ollm_envsource ollm_env/bin/activate# 安装 ollmpip install ollm# 安装与 CUDA 匹配的 kvikIO(用于加速文件 I/O;若环境支持 GDS 可实现 SSD→GPU 直通)pip install kvikio-cu12

这一步看似常规,但 kvikio-cu12 是关键,它决定了 SSD 与 GPU 之间的数据搬运是否高效(有 GDS 时能走直通,无 GDS 时也能显著提速)。

模型下载(Python调用)

# HuggingFace Hub 上下载模型ollm.ini_model(models_dir="./models", force_download=True)

由于 oLLm 兼容 HuggingFace,你可以像使用常规 Transformers 一样准备模型权重。但要注意,像 Qwen3-next-80B 这种超大模型,还需要 Transformers 4.57.0.dev

启动推理

PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True \python run_example.bash

这里的环境变量设置同样重要,它能避免内存碎片化,让长上下文推理更稳。

从上手体验来看,oLLm 的 API 与 HuggingFace 高度一致,学习成本低。但部署难度主要体现在:CUDA 与 KvikIO 的版本匹配,以及模型体积带来的下载与存储开销

显存的“常数化”,代价与启示

真正让 oLLm 脱颖而出的,是它在消费级硬件上的表现。官方在一块 RTX 3060Ti(8GB) 上测试了多种大模型,结果颇为震撼。

Baseline vs oLLm显存占用对比

在 baseline 下,Qwen3-next-80B (50k) 需要近 190GB 显存,几乎不可能在普通 GPU 上运行。而 oLLm 仅需 7.5GB,硬生生把百 GB 级的显存需求压进了小卡的容量里。Llama3-8B-chat 在 100k 上下文下的显存需求也从 71GB 降到 6.6GB,显存消耗近乎“常数化”。

SSD空间开销

不过,显存的节省是以磁盘为代价换来的。Qwen3-next-80B 在 oLLm 下需要约 180GB SSD,Llama3-8B-chat 也要 69GB。这意味着 oLLm 更适合离线批处理、文档审阅等场景,而不是对延迟敏感的在线服务。

不同模型的显存节省比例

大多数模型显存节省率超过 80%,其中 Qwen3-next-80B 接近 96%。这不仅意味着“能跑”,更意味着上下文扩展的边际成本转移到了 SSD——一个更廉价、可扩展的资源。

上下文长度与显存占用趋势(示意)

baseline 的显存需求几乎随上下文线性飙升,而 oLLm 的显存曲线接近平坦。增长的主要是 SSD 占用与 I/O 延迟。这种架构决定了 oLLm 在超长文本分析、合规审查、科研实验等场景有独特优势,但并不适合要求低延迟的实时交互。

注:本图为趋势示意图,基于官方 README 披露的离散数据点与推理规律绘制,并非逐点实测曲线。

小卡的春天,延迟的阴影

优势一:硬件门槛骤降

过去,百 k 上下文的推理意味着百 GB 显存的服务器级显卡。oLLm 的“SSD 换显存”方案,把这道门槛压缩到一块 8GB 的消费级显卡。这不仅让更多研究者和开发者有机会参与实验,也让长上下文的探索从“大厂特权”变成了“社区共享”。

优势二:生态兼容无痛

oLLm 与 HuggingFace 的接口几乎一致,API 调用方式保持原样。对开发者而言,几乎没有额外学习成本——只需要在推理链路里多写一行 DiskCache。这种低门槛的体验,是它能迅速引起社区关注的原因之一。

优势三:节省显存成效显著

显存占用被压到 5–8GB 档,大多数模型节省率超过 80%,其中 Qwen3-80B 接近 96%。这意味着“长上下文”从一个硬件奢侈品,转变成可以随手尝试的实验选项。

局限一:磁盘开销与延迟成本

代价同样明显:SSD 空间需求巨大,Qwen3-80B 需要约 180GB SSD,且推理速度受限于磁盘 I/O。对于交互式问答、低延迟对话等场景,oLLm 并不适合。它更偏向离线分析、长文档审阅、批量处理等任务。

局限二:环境兼容性挑战

KvikIO 的 CUDA 版本需要与本地环境严格匹配,Transformers 版本也有限制。如果开发者对 CUDA、驱动或库的依赖关系处理不熟,很容易在安装阶段踩坑。

一句话总结:oLLm 打开了“小卡跑大模型”的大门,但你要付出的代价是时间与磁盘。它是一把钥匙,却不是万能钥匙。

图片

8GB显卡的逆袭,才刚刚开始

在大模型推理的硬件门槛面前,oLLm 提供了一种充满巧思的解法:显存不够,就让 SSD 来补位它没有解决所有问题,却把“百 k 长上下文”从实验室和数据中心拉进了个人电脑。

对于研究者,它意味着更低成本的实验可能;对于社区,它意味着更多样的探索路径。未来,当磁盘 I/O 优化、跨平台支持逐步补齐,oLLm 这样的设计或许能真正把“长上下文”变成人人可用的能力。

换句话说,oLLm 不仅是一种工程黑客的技巧,更像是一种信号:大模型的未来,不止在云端,也可能在你身边的小卡里。

更多阅读

#投 稿 通 道#

让你的文字被更多人看到

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

阅读原文

跳转微信打开

联系我们