历史数据也能训练编程 AI?
2026 年 4 月 30 日,据 36 氪报道,Sam Altman 分享了一项有趣的研究。
实验设计
- 训练数据:仅使用 1931 年前的历史文本(与 talkie-1930 模型相同)
- 测试结果:模型在 HumanEval 编程测试中表现超出预期
- 意义:即使没有接触现代编程知识,模型也能通过逻辑推理学会编程
与 talkie-1930 的关系
此前 talkie-1930 项目(news-431)也使用了 1931 年前的历史文本训练 LLM。Altman 的实验进一步证明了这种「纯素模型」的潜力。
行业讨论
这一发现引发了关于 AI 推理能力的深层讨论:模型是否真的需要海量现代数据,还是说核心的推理能力可以在有限的知识基础上建立?
来源: 36 氪 + Simon Willison
链接: https://36kr.com/p/3789105218362369