vLLM
高吞吐 LLM 推理引擎,77,418+ stars。采用 PagedAttention 显存优化技术,吞吐量比 HuggingFace Transformers 高 24 倍,是生产环境部署大模型推理的首选方案,支持 OpenAI 兼容 API
🎯适用场景:生产环境 LLM 推理服务、高并发 API 服务、模型部署优化
📊 仓库数据
📈 上次抓取以来 ↑+92 ⭐
✅ 优点
- •吞吐量行业领先(HF 的 24 倍)
- •PagedAttention 显存优化
- •OpenAI 兼容 API 无缝迁移
- •支持多种模型架构
⚠️ 限制
- •仅支持推理不支持训练
- •部分新模型适配有延迟
- •多 GPU 分布式推理配置复杂
🔗 相关工具
Netdata
开源⭐ 79k↑+13github.com/netdata/netdata
AI 全栈可观测性平台,78,515+ stars。实时监控服务器性能、应用指标和网络流量,内置 AI 异常检测引擎,自动发现并预警系统问题。零配置、开箱即用,每秒采集数千指标,是最轻量的基础设施监控方案。
🎯 服务器监控、应用性能观测、AI 驱动的异常预警、基础设施运维
LiteLLM
开源⭐ 45k↑+115github.com/BerriAI/litellm
100+ LLM API 统一 SDK,43,985+ stars。统一的 LLM API 代理和 SDK,支持 OpenAI、Claude、Gemini 等 100+ 模型,提供负载均衡、重试、成本跟踪等企业级功能
🎯 多模型统一接入、LLM 网关、成本优化、高可用 AI 服务架构
langfuse
开源⭐ 27kgithub.com/langfuse/langfuse
🪢 Open source LLM engineering platform: LLM Observability, metrics, evals, prompt management, playground, datasets. Integrates with OpenTelemetry, Langchain, OpenAI SDK, LiteLLM, and more. 🍊YC W23
Llama Stack
开源⭐ 27kgithub.com/meta-llama/llama-stack
Meta 推出的 Llama 4 系列模型统一部署栈,支持推理、微调和多模型路由,4 月新增 6,400+ 星。提供标准化的 API 接口和工具链,覆盖从模型加载、推理服务、微调到评估的全流程,简化 Llama 系列模型的部署和运维,是 Llama 生态的官方基础设施
🎯 Llama 模型统一部署、微调流水线、多模型路由服务
mlflow
开源⭐ 26kgithub.com/mlflow/mlflow
The open source AI engineering platform for agents, LLMs, and ML models. MLflow enables teams of all sizes to debug, evaluate, monitor, and optimize production-quality AI applications while controllin
Promptfoo
开源⭐ 21k↑+38github.com/promptfoo/promptfoo
LLM 安全测试和红队评估工具,支持 prompt injection 检测、数据泄漏测试、输出评估,10,000+ stars
🎯 LLM 安全评估、红队测试