大语言模型2026-05-17 00:00·arXiv

arXiv 新论文:LLM 持续自适应学习--『快思考』与『慢学习』的双速架构

最新研究提出 'Learning, Fast and Slow' 框架,让大语言模型能够在持续使用中实时适应,同时保持长期学习能力。

大模型的「双速学习」

2026 年 5 月,arXiv 发表论文 'Learning, Fast and Slow: Towards LLMs That Adapt Continually'。

核心概念

  • 快速适应:模型能够在交互过程中即时调整行为
  • 慢速学习:同时保持长期知识积累和能力进化
  • 双速架构:类比人类大脑的系统 1(直觉)和系统 2(深度思考)

技术意义

  1. 持续学习:解决 LLM 训练后无法持续学习的根本问题
  2. 效率优化:不需要频繁全量微调,降低更新成本
  3. 个人化方向:为每个用户定制化的 Agent 提供理论基础

来源: arXiv
链接: https://arxiv.org/

📰 原始来源

https://arxiv.org/