Skip to content

Ollama 安装使用指南#

Ollama 是一个开源的本地大语言模型(LLM)运行平台,允许用户在本地计算机上轻松部署、运行和管理各种大型语言模型(DeepSeek、Qwen、Gemma3 等)。

特点#

  • 🚀 本地运行:模型完全在本地运行,无需联网,保护隐私
  • 📦 简单易用:一键安装,命令行操作简单
  • 🔧 多平台支持:支持 Windows、macOS、Linux

安装#

Windows#

  • 官网下载:https://ollama.com/download
  • 双击下载的 .exe 文件进行安装

Linux (Ubuntu/Debian)#

curl -fsSL https://ollama.com/install.sh | sh

macOS#

brew install ollama

环境变量与服务配置#

Ollama 通过环境变量控制监听地址、模型存储路径、并发数等。不同系统的配置方式略有差异。

常用环境变量(跨平台)#

变量 功能 示例
OLLAMA_HOST 绑定的 IP(默认 127.0.0.1) OLLAMA_HOST=0.0.0.0 让外网可访问
OLLAMA_CONTEXT_LENGTH context OLLAMA_CONTEXT_LENGTH=64000 64k
OLLAMA_MODELS 模型存放目录(默认见下表) OLLAMA_MODELS=/mnt/ollama/models
OLLAMA_KEEP_ALIVE 模型在内存中保活时长 1h 表示 1 小时
OLLAMA_PORT HTTP 服务端口(默认 11434) OLLAMA_PORT=11435
OLLAMA_NUM_PARALLEL 同时处理的请求数 默认随硬件自动调节
OLLAMA_MAX_LOADED_MODELS 同时加载模型的上限 防止显存/内存被占满

默认模型存放路径#

系统 默认目录
macOS ~/.ollama/models
Linux /usr/share/ollama/.ollama/models
Windows C:\Users\<username>\.ollama\models

系统特定配置方法#

系统 配置步骤
macOS 使用 launchctl setenv 为每个变量设置,然后重启 Ollama 应用
Linux 编辑 ollama.servicesystemctl edit ollama.service),在 [Service] 下添加 Environment="VAR=VALUE",最后 systemctl daemon-reload && systemctl restart ollama
Windows 在「系统属性 → 环境变量」中新建变量,退出 Ollama 并重新启动以生效

💡 小技巧:修改完变量后,务必重启 Ollama(或重新加载 systemd)让新配置生效。

配置示例#

Linux 修改服务绑定地址:

sudo systemctl edit ollama.service

添加以下内容:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

Windows PowerShell 临时设置:

$env:OLLAMA_HOST="0.0.0.0:11435"
ollama serve

模型管理#

拉取模型#

模型搜索地址:https://ollama.com/search

常用模型(CPU 即可运行):

ollama pull codellama:7b        # 代码模型
ollama pull gemma3:4b           # Google Gemma 模型
ollama pull qwen3:8b            # 通义千问模型
ollama pull qwen2.5-coder:7b    # 通义千问代码模型

查看已下载模型#

ollama list

输出示例:

NAME                ID              SIZE      MODIFIED
deepseek-r1:7b      0a8c26691023    4.7 GB    7 months ago
deepseek-r1:1.5b    a42b25d8c10a    1.1 GB    7 months ago

模型文件位置#

  • Windows: C:\Users\[账户名]\.ollama
  • Linux: /usr/share/ollama/.ollama
  • macOS: ~/.ollama

💡 迁移技巧:如需将模型移动到另一台内网电脑,可打包复制该文件夹。

systemd 服务配置#

路径:/etc/systemd/system/ollama.service

添加环境变量: - Environment="OLLAMA_HOST=0.0.0.0" : 开放局域网访问 - Environment="OLLAMA_ORIGINS=*" : 允许跨域,解决 403

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_CONTEXT_LENGTH=128000"
Environment="PATH=/home/tong/py/base/bin:/home/tong/py/base/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:..."

[Install]
WantedBy=default.target

重载并启动#

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl restart ollama

状态查看#

sudo systemctl status ollama

故障排查#

Ollama 服务日志查看#

如果服务无法启动或行为异常,先查看 systemd 日志:

sudo journalctl -u ollama.service -f

如果需要查看最近一次启动和错误信息:

sudo journalctl -u ollama.service --no-pager --since "1 hour ago"

常见问题与定位: - Failed to bind socket:通常是端口冲突或权限问题 - No such file or directory:检查 ExecStart 路径是否正确 - Environment 未生效:确认已执行 sudo systemctl daemon-reload

端口冲突排查#

Ollama 默认监听端口为 11434。如果服务无法绑定端口,可先检查端口是否已被占用:

sudo ss -tulpn | grep 11434
# 或
sudo lsof -i :11434

如果已被占用,找到占用进程并确认是否需要终止:

sudo lsof -i :11434
sudo kill <pid>

也可以直接让 Ollama 使用其他端口:

OLLAMA_PORT=11435 ollama serve

或者在 systemd 单元文件中修改环境变量:

[Service]
Environment="OLLAMA_PORT=11435"

如果 OLLAMA_HOST 配置为 0.0.0.0:11434,也要保证该地址格式与 Ollama 版本兼容,并且没有重复绑定。

CLI 命令#

命令 说明
ollama serve 启动后台服务(不打开桌面 UI)
ollama pull <model> 拉取模型(等价于第一次 ollama run)
ollama run <model> 交互式对话或一次性生成(首次会自动 pull)
ollama list 列出本机已下载的模型
ollama ps 查看当前已加载到内存(CPU/GPU)的模型
ollama show <model> 查看模型元信息
ollama create <name> -f Modelfile 基于自定义 Modelfile 构建新模型
ollama rm <model> 删除本地模型
ollama cp <src> <dst> 复制模型(用于迁移或备份)

实战示例#

拉取并对话:

ollama run qwen3:4b

查看模型信息:

ollama show qwen3:8b

删除模型:

ollama rm qwen3:8b
  • 源码地址:https://github.com/open-webui/open-webui

Open WebUI Demo

安装运行:

# Python 安装
pip install open-webui
open-webui serve

浏览器插件#

Page Assist

  • Edge 浏览器插件:Page Assist
  • 适合日常使用,方便快捷

VSCode 插件#

Continue.continue

配置示例(config.yaml):

name: Local Agent
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: deepseek-r1:7b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed
  - name: Autodetect
    provider: ollama
    apiBase: http://127.0.0.1:11434
    model: AUTODETECT

⚠️ 注意:cline 插件目前来说更好用。

相关链接#

  • 官方网站:https://ollama.com
  • GitHub 仓库:https://github.com/ollama/ollama
  • 模型库:https://ollama.com/search
  • 文档:https://github.com/ollama/ollama/tree/main/docs