ColossalAI
大模型训练加速框架,41,373+ stars。统一的大模型训练框架,提供高效的并行策略和内存优化,支持从预训练到微调的全流程
🎯适用场景:大模型预训练、微调加速、分布式训练优化
📊 仓库数据
📈 上次抓取以来 ↓-1 ⭐
✅ 优点
- •统一的大模型训练方案
- •多种并行策略灵活组合
- •预训练模型和示例丰富
- •文档教程完善
⚠️ 限制
- •学习曲线较陡
- •社区规模不如 DeepSpeed
- •部分功能仍在快速迭代中
🔗 相关工具
LLaMA Factory
开源⭐ 70kgithub.com/hiyouga/LLaMA-Factory
100+ LLM/VLM 高效微调工具,70,362+ stars。支持 LoRA、QLoRA、DPO、PPO 等 10+ 种微调方法,提供 WebUI 一键式微调界面,兼容 LLaMA、Mistral、Qwen、Baichuan 等主流模型。ACL 2024 论文收录,是最受欢迎的开源 LLM 微调平台。
🎯 LLM 领域微调、模型对齐、DPO 偏好优化、企业定制模型
LLaMA-Factory
开源⭐ 70kgithub.com/hiyouga/LLaMA-Factory
统一 LLM/VLM 微调框架,70,362+ stars(ACL 2024 论文)。支持 100+ 大语言模型和视觉语言模型的轻量微调,提供 Web UI 和 CLI 双接口,LoRA/QLoRA/全参数微调一站式解决方案
🎯 LLM/VLM 微调训练、领域适配模型开发、学术研究和实验
Keras
开源⭐ 64k↑+5github.com/keras-team/keras
深度学习框架,64,020+ stars。高级神经网络 API,支持 TensorFlow、JAX、PyTorch 多后端。以用户友好著称,让深度学习从实验到生产的转化变得简单高效
🎯 深度学习模型开发、快速原型验证、工业级模型训练部署
Unsloth
开源⭐ 63k↑+69github.com/unslothai/unsloth
LLM 微调 Web UI 和优化工具,62,269+ stars。提供 2 倍训练速度、70% 显存占用的 LLM 微调方案,支持 Llama、Mistral、Qwen 等主流模型的 LoRA/QLoRA 微调
🎯 LLM 微调训练、个性化模型定制、消费级显卡微调大模型
DeepSpeed
开源⭐ 42kgithub.com/microsoft/DeepSpeed
深度学习训练优化库,42,156+ stars。微软开发的开源深度学习优化库,提供 ZeRO 内存优化、3D 并行等核心技术,大幅降低大模型训练成本
🎯 大语言模型训练、大规模分布式训练、显存优化