Ollama 常见命令速览:本地大模型管理指南

Lear 2025-06-06 11:00:00
Categories: > Tags:

Ollama 常见命令速览:本地大模型管理指南

一、什么是 Ollama?

Ollama 是一个轻量级工具,允许用户在本地快速部署和运行大型语言模型(LLM),如 Llama、DeepSeek、CodeLlama 等。其命令行工具设计简洁,与 Docker 类似,适合开发者、研究人员和企业快速搭建私有化 AI 环境。

二、快速安装 Ollama

1
2
3
# Linux 命令行安装
curl -fsSL https://ollama.com/install.sh \| sh
# Windows/Mac 下载安装包:https://ollama.com

三、核心命令分类
1. 模型管理命令
(1) 安装模型
1
2
3
ollama pull \<模型名称\>
# 示例:下载 Codellama 模型
ollama pull codellama

支持指定版本(如 llama3.1:405b),通过 ollama list 查看支持的模型列表。

(2) 列出本地模型

1
2
3
4
ollama list # 或 ollama ls
# 输出示例:
# llama2 1.0 3.8GB
# codellama 2.0 4.2GB

(3) 删除模型
1
2
3
ollama rm \<模型名称\>
# 示例:删除 llama2 模型
ollama rm llama2

(4) 查看模型信息
1
2
ollama show \<模型名称\>
# 输出包括模型版本、参数量、存储路径等详细信息。

(5) 复制模型
1
2
3
ollama cp \<源模型名\> \<新模型名\>
# 示例:复制 codellama 为 my-codellama
ollama cp codellama my-codellama

2. 模型运行命令

(1) 启动模型交互

1
2
3
4
ollama run \<模型名称\>
# 示例:运行 Llama2 模型
ollama run llama2
# 进入对话模式后,输入问题即可与模型交互。

(2) 停止运行中的模型
1
2
3
ollama stop # 停止当前运行的模型
# 或指定模型名称(部分版本支持)
ollama stop \<模型名称\>

(3) 查看运行中的模型
1
ollama ps # 列出所有正在运行的模型

3. 服务管理命令

(1) 启动 Ollama 服务

1
2
ollama serve
# 默认监听 11434 端口,可通过浏览器访问 http://localhost:11434 验证服务是否运行。

(2) 停止服务
1
ollama stop # 同时停止服务及运行中的模型

4. 其他辅助命令

(1) 查看帮助

1
2
ollama help # 或 ollama --help
# 显示所有命令及简要说明。

(2) 查看版本
1
ollama version # 或 ollama -v

(3) 查看日志
1
ollama logs # 调试模型运行问题时使用。

四、使用示例

示例 1:下载并运行模型

1
2
3
4
# 下载 DeepSeek-R1 的 8B 版本
ollama pull deepseek-r1:8b
# 运行模型并交互
ollama run deepseek-r1:8b

示例 2:创建自定义模型

  1. 编写 Modelfile(定义模型配置):
1
2
FROM llama2
# 添加自定义参数(如量化配置)
  1. 创建并运行模型
1
2
ollama create mymodel -f ./Modelfile
ollama run mymodel

五、安全注意事项

  1. 限制端口访问
1
2
3
# 修改配置文件(如 /etc/systemd/system/ollama.service)
Environment="OLLAMA_HOST=localhost"
systemctl restart ollama

启用 API 密钥(版本 ≥0.5.12):

1
export OLLAMA_API_KEY="your-secret-key"

六、总结

Ollama 通过简单命令实现了模型的“一键部署”,适合快速测试、本地化应用开发或隐私敏感场景。掌握上述命令后,你可以:

提示:访问 Ollama 官方模型库 查看更多模型及参数配置!