Ollama 安装使用指南#
Ollama 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(DeepSeek、Qwen、Gemma3 等)。
特点#
- 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
- 📦 简单易用:一键安装,命令行操作简单
- 🔧 多平台支持:支持 Windows、macOS、Linux
安装#
Windows#
- 官网下载:https://ollama.com/download
- 双击下载的
.exe文件进行安装
Linux (Ubuntu/Debian)#
macOS#
环境变量与服务配置#
Ollama 通过环境变量控制监听地址、模型存储路径、并发数等。不同系统的配置方式略有差异。
常用环境变量(跨平台)#
| 变量 | 功能 | 示例 |
|---|---|---|
OLLAMA_HOST |
绑定的 IP(默认 127.0.0.1) | OLLAMA_HOST=0.0.0.0 让外网可访问 |
OLLAMA_CONTEXT_LENGTH |
context | OLLAMA_CONTEXT_LENGTH=64000 64k |
OLLAMA_MODELS |
模型存放目录(默认见下表) | OLLAMA_MODELS=/mnt/ollama/models |
OLLAMA_KEEP_ALIVE |
模型在内存中保活时长 | 1h 表示 1 小时 |
OLLAMA_PORT |
HTTP 服务端口(默认 11434) | OLLAMA_PORT=11435 |
OLLAMA_NUM_PARALLEL |
同时处理的请求数 | 默认随硬件自动调节 |
OLLAMA_MAX_LOADED_MODELS |
同时加载模型的上限 | 防止显存/内存被占满 |
默认模型存放路径#
| 系统 | 默认目录 |
|---|---|
| macOS | ~/.ollama/models |
| Linux | /usr/share/ollama/.ollama/models |
| Windows | C:\Users\<username>\.ollama\models |
系统特定配置方法#
| 系统 | 配置步骤 |
|---|---|
| macOS | 使用 launchctl setenv 为每个变量设置,然后重启 Ollama 应用 |
| Linux | 编辑 ollama.service(systemctl edit ollama.service),在 [Service] 下添加 Environment="VAR=VALUE",最后 systemctl daemon-reload && systemctl restart ollama |
| Windows | 在「系统属性 → 环境变量」中新建变量,退出 Ollama 并重新启动以生效 |
💡 小技巧:修改完变量后,务必重启 Ollama(或重新加载 systemd)让新配置生效。
配置示例#
Linux 修改服务绑定地址:
添加以下内容:
重启服务:
Windows PowerShell 临时设置:
模型管理#
拉取模型#
模型搜索地址:https://ollama.com/search
常用模型(CPU 即可运行):
ollama pull codellama:7b # 代码模型
ollama pull gemma3:4b # Google Gemma 模型
ollama pull qwen3:8b # 通义千问模型
ollama pull qwen2.5-coder:7b # 通义千问代码模型
查看已下载模型#
输出示例:
NAME ID SIZE MODIFIED
deepseek-r1:7b 0a8c26691023 4.7 GB 7 months ago
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 7 months ago
模型文件位置#
- Windows:
C:\Users\[账户名]\.ollama - Linux:
/usr/share/ollama/.ollama - macOS:
~/.ollama
💡 迁移技巧:如需将模型移动到另一台内网电脑,可打包复制该文件夹。
systemd 服务配置#
路径:/etc/systemd/system/ollama.service
添加环境变量:
- Environment="OLLAMA_HOST=0.0.0.0" : 开放局域网访问
- Environment="OLLAMA_ORIGINS=*" : 允许跨域,解决 403
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_CONTEXT_LENGTH=128000"
Environment="PATH=/home/tong/py/base/bin:/home/tong/py/base/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:..."
[Install]
WantedBy=default.target
重载并启动#
状态查看#
故障排查#
Ollama 服务日志查看#
如果服务无法启动或行为异常,先查看 systemd 日志:
如果需要查看最近一次启动和错误信息:
常见问题与定位:
- Failed to bind socket:通常是端口冲突或权限问题
- No such file or directory:检查 ExecStart 路径是否正确
- Environment 未生效:确认已执行 sudo systemctl daemon-reload
端口冲突排查#
Ollama 默认监听端口为 11434。如果服务无法绑定端口,可先检查端口是否已被占用:
如果已被占用,找到占用进程并确认是否需要终止:
也可以直接让 Ollama 使用其他端口:
或者在 systemd 单元文件中修改环境变量:
如果 OLLAMA_HOST 配置为 0.0.0.0:11434,也要保证该地址格式与 Ollama 版本兼容,并且没有重复绑定。
CLI 命令#
| 命令 | 说明 |
|---|---|
ollama serve |
启动后台服务(不打开桌面 UI) |
ollama pull <model> |
拉取模型(等价于第一次 ollama run) |
ollama run <model> |
交互式对话或一次性生成(首次会自动 pull) |
ollama list |
列出本机已下载的模型 |
ollama ps |
查看当前已加载到内存(CPU/GPU)的模型 |
ollama show <model> |
查看模型元信息 |
ollama create <name> -f Modelfile |
基于自定义 Modelfile 构建新模型 |
ollama rm <model> |
删除本地模型 |
ollama cp <src> <dst> |
复制模型(用于迁移或备份) |
实战示例#
拉取并对话:
查看模型信息:
删除模型:
- 源码地址:https://github.com/open-webui/open-webui

安装运行:
浏览器插件#
Page Assist
- Edge 浏览器插件:Page Assist
- 适合日常使用,方便快捷
VSCode 插件#
Continue.continue
- 插件地址:Continue.continue
- 用途:代码编辑及自动补全
配置示例(config.yaml):
name: Local Agent
version: 1.0.0
schema: v1
models:
- name: Llama 3.1 8B
provider: ollama
model: deepseek-r1:7b
roles:
- chat
- edit
- apply
- name: Qwen2.5-Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b-base
roles:
- autocomplete
- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embed
- name: Autodetect
provider: ollama
apiBase: http://127.0.0.1:11434
model: AUTODETECT
⚠️ 注意:cline 插件目前来说更好用。
相关链接#
- 官方网站:https://ollama.com
- GitHub 仓库:https://github.com/ollama/ollama
- 模型库:https://ollama.com/search
- 文档:https://github.com/ollama/ollama/tree/main/docs