Ollama 常见命令速览:本地大模型管理指南
一、什么是 Ollama?
Ollama 是一个轻量级工具,允许用户在本地快速部署和运行大型语言模型(LLM),如 Llama、DeepSeek、CodeLlama 等。其命令行工具设计简洁,与 Docker 类似,适合开发者、研究人员和企业快速搭建私有化 AI 环境。
二、快速安装 Ollama
1
2
3# Linux 命令行安装
curl -fsSL https://ollama.com/install.sh \| sh
# Windows/Mac 下载安装包:https://ollama.com
三、核心命令分类
1. 模型管理命令
(1) 安装模型
1
2
3ollama pull \<模型名称\>
# 示例:下载 Codellama 模型
ollama pull codellama
支持指定版本(如 llama3.1:405b),通过 ollama list 查看支持的模型列表。
(2) 列出本地模型
1
2
3
4ollama list # 或 ollama ls
# 输出示例:
# llama2 1.0 3.8GB
# codellama 2.0 4.2GB
(3) 删除模型
1
2
3ollama rm \<模型名称\>
# 示例:删除 llama2 模型
ollama rm llama2
(4) 查看模型信息
1
2ollama show \<模型名称\>
# 输出包括模型版本、参数量、存储路径等详细信息。
(5) 复制模型
1
2
3ollama cp \<源模型名\> \<新模型名\>
# 示例:复制 codellama 为 my-codellama
ollama cp codellama my-codellama
2. 模型运行命令
(1) 启动模型交互
1
2
3
4ollama run \<模型名称\>
# 示例:运行 Llama2 模型
ollama run llama2
# 进入对话模式后,输入问题即可与模型交互。
(2) 停止运行中的模型
1
2
3ollama stop # 停止当前运行的模型
# 或指定模型名称(部分版本支持)
ollama stop \<模型名称\>
(3) 查看运行中的模型
1
ollama ps # 列出所有正在运行的模型
3. 服务管理命令
(1) 启动 Ollama 服务
1
2ollama serve
# 默认监听 11434 端口,可通过浏览器访问 http://localhost:11434 验证服务是否运行。
(2) 停止服务
1
ollama stop # 同时停止服务及运行中的模型
4. 其他辅助命令
(1) 查看帮助
1
2ollama help # 或 ollama --help
# 显示所有命令及简要说明。
(2) 查看版本
1
ollama version # 或 ollama -v
(3) 查看日志
1
ollama logs # 调试模型运行问题时使用。
四、使用示例
示例 1:下载并运行模型
1
2
3
4# 下载 DeepSeek-R1 的 8B 版本
ollama pull deepseek-r1:8b
# 运行模型并交互
ollama run deepseek-r1:8b
示例 2:创建自定义模型
- 编写 Modelfile(定义模型配置):
1 | FROM llama2 |
- 创建并运行模型:
1 | ollama create mymodel -f ./Modelfile |
五、安全注意事项
- 限制端口访问:
1 | # 修改配置文件(如 /etc/systemd/system/ollama.service) |
启用 API 密钥(版本 ≥0.5.12):
1
export OLLAMA_API_KEY="your-secret-key"
六、总结
Ollama 通过简单命令实现了模型的“一键部署”,适合快速测试、本地化应用开发或隐私敏感场景。掌握上述命令后,你可以:
- 快速拉取和删除模型
- 管理多模型环境
- 通过 API 或命令行灵活调用模型
提示:访问 Ollama 官方模型库 查看更多模型及参数配置!