0为什么要学 AI 工程化?
你有了一个很棒的 AI 原型——然后呢?
- 怎么部署到服务器?
- 怎么保证服务稳定?
- 模型性能下降了怎么发现?
- 怎么自动化测试和发布?
这些问题就是 AI 工程化要解决的。它是从"能用"到"好用"的关键。
1AI 工程化全景
AI 工程化涵盖五个阶段:
- 训练 — 数据准备、模型训练、实验管理
- 优化 — 量化、剪枝、蒸馏
- 部署 — FastAPI、Docker、Kubernetes
- 监控 — 数据漂移检测、性能告警
- 迭代 — 在线学习、A/B 测试、灰度发布
2学习路线
第 1 步:AI 应用部署(1 周)
→ FastAPI、Docker、API 服务化
第 2 步:真实项目实战(1-2 周)
→ 从需求到上线的完整 AI 项目
前置要求: 已经学过 LLM 应用开发
3核心工具链
| 环节 | 工具 | 说明 |
|---|---|---|
| API 服务 | FastAPI | Python 最流行的 API 框架 |
| 容器化 | Docker | 打包和部署的标准方式 |
| 编排 | Kubernetes | 大规模部署的管理平台 |
| 推理引擎 | vLLM | 高性能 LLM 推理 |
| 实验管理 | MLflow / W&B | 追踪训练实验 |
| 监控 | 自定义 | 数据漂移、性能监控 |
💡 初学者从 FastAPI + Docker 开始就够了,不需要一上来就学 Kubernetes。