返回搜索GitHub

开发者工具 / Local AI

ollama

本地运行大语言模型的开源工具,一键下载和运行 Llama、Qwen、Gemma 等模型

质量分92
0 Stars
unknown
easy

中文速读

Ollama 让开发者在本地轻松运行开源大语言模型。支持数十种主流模型(Llama、Qwen、Gemma、DeepSeek 等),提供简洁的 CLI 和 REST API,Mac/Windows/Linux 全平台支持。适合本地 AI 开发、原型验证和隐私敏感场景。

快速试用

暂未发现稳定的 Demo 或视频入口。

适合

  • 本地 AI 开发者
  • 需要离线推理的场景
  • 隐私敏感用户
  • 模型原型验证

不适合

  • 需要云端大规模部署的场景
  • 无 GPU 的大模型推理

标签

LLM本地推理模型服务命令行工具