大语言模型2026-05-13 12:06·arXiv

Fast-Slow Training:LLM 快速适应与持续学习的新范式

UC Berkeley 等研究团队提出 Fast-Slow Training 框架,将模型参数作为慢速权重、优化上下文作为快速权重,实现比纯 RL 高达 3 倍的样本效率提升,同时减少灾难性遗忘。

Fast-Slow Training:LLM 学习方式的革新

2026 年 5 月,UC Berkeley、Matei Zaharia 团队发表了 Fast-Slow Training (FST) 框架。

核心理念

  • 慢速学习(Slow Weights):模型参数保持通用推理能力
  • 快速学习(Fast Weights):优化的上下文吸收特定任务信息
  • 人类类比:类似人类的双系统学习(System 1 快思考 + System 2 慢思考)

关键成果

  • 样本效率比纯慢速 RL 提升高达 3 倍
  • KL 散度降低 70%,大幅减少灾难性遗忘
  • 在持续学习场景中能有效获取每个新任务

行业意义

FST 为 LLM 的持续学习和任务适应提供了一种更接近人类学习方式的新范式,对于需要频繁切换任务场景的企业应用尤为重要。

来源: arXiv
链接: https://arxiv.org/abs/2605.12484v1