Llama Stack
Meta 推出的 Llama 4 系列模型统一部署栈,支持推理、微调和多模型路由,4 月新增 6,400+ 星。提供标准化的 API 接口和工具链,覆盖从模型加载、推理服务、微调到评估的全流程,简化 Llama 系列模型的部署和运维,是 Llama 生态的官方基础设施
🎯适用场景:Llama 模型统一部署、微调流水线、多模型路由服务
📊 仓库数据
✅ 优点
- •Meta 官方维护,与 Llama 4 深度集成
- •覆盖推理、微调、评估全流程
- •标准化 API 简化集成
- •开源免费
⚠️ 限制
- •仅支持 Llama 系列模型
- •文档和社区仍在发展
- •部署配置有一定门槛
- •非 Llama 模型支持有限
🔗 相关工具
DFlash
开源⭐ 2.4k↑+25github.com/z-lab/dflash
Block Diffusion for Flash Speculative Decoding,加速 LLM 推理的新型解码方法。通过推测解码 + 块扩散显著降低 LLM 推理延迟,GitHub 1.3k stars。在保持输出质量的同时,将推理吞吐量提升数倍,是大模型高效推理的前沿研究方向
🎯 LLM 推理性能优化、高吞吐推理场景、学术研究
CrabTrap
开源⭐ 456↑+7github.com/brexhq/CrabTrap
Brex 出品的 LLM-as-a-Judge HTTP 代理,专为生产环境 AI Agent 安全设计。CrabTrap 以反向代理形式部署在 Agent 与 LLM API 之间,利用另一个 LLM 作为「法官」实时审查 Agent 的请求和响应,拦截越权操作、Prompt 注入、数据泄露和有害输出。Go 语言实现,性能优异,可直接集成到任何 LLM 调用链中。在 Agent 安全从「测试时评估」走向「运行时防护」的趋势下,CrabTrap 代表了生产级 Agent 安全的新范式。
🎯 生产环境 Agent 安全防护、Prompt 注入防御、合规审查、数据泄露防护
Netdata
开源⭐ 79k↑+13github.com/netdata/netdata
AI 全栈可观测性平台,78,515+ stars。实时监控服务器性能、应用指标和网络流量,内置 AI 异常检测引擎,自动发现并预警系统问题。零配置、开箱即用,每秒采集数千指标,是最轻量的基础设施监控方案。
🎯 服务器监控、应用性能观测、AI 驱动的异常预警、基础设施运维
vLLM
开源⭐ 78k↑+92github.com/vllm-project/vllm
高吞吐 LLM 推理引擎,77,418+ stars。采用 PagedAttention 显存优化技术,吞吐量比 HuggingFace Transformers 高 24 倍,是生产环境部署大模型推理的首选方案,支持 OpenAI 兼容 API
🎯 生产环境 LLM 推理服务、高并发 API 服务、模型部署优化
LiteLLM
开源⭐ 45k↑+115github.com/BerriAI/litellm
100+ LLM API 统一 SDK,43,985+ stars。统一的 LLM API 代理和 SDK,支持 OpenAI、Claude、Gemini 等 100+ 模型,提供负载均衡、重试、成本跟踪等企业级功能
🎯 多模型统一接入、LLM 网关、成本优化、高可用 AI 服务架构
langfuse
开源⭐ 27kgithub.com/langfuse/langfuse
🪢 Open source LLM engineering platform: LLM Observability, metrics, evals, prompt management, playground, datasets. Integrates with OpenTelemetry, Langchain, OpenAI SDK, LiteLLM, and more. 🍊YC W23