本地 LLM 的智能选择器
2026 年 5 月 15 日,whichllm 项目在 Show HN 上线。
核心功能
- 输入:你的硬件配置
- 输出:最适合的本地 LLM 推荐
- 排序:按基准测试成绩排名
- 仓库:github.com/Andyyyy64/whichllm
行业背景
随着 Llama、Mistral、Qwen 等开源模型数量激增,开发者面临「选择困难」。whichllm 解决了「我的硬件能跑哪个模型」这个实际问题,降低了本地 AI 的入门门槛。
122 点 HN 热帖说明本地 LLM 部署是开发者社区的刚需。
来源: Hacker News
链接: https://github.com/Andyyyy64/whichllm