Ollama 本地安装完整指南 - 从零到一部署大语言模型
发布日期: 2026-03-21 | 字数: 约 8500 字 | 阅读时间: 约 15 分钟
概述
Ollama 是一个让普通人也能轻松在个人电脑上部署和运行顶尖 AI 模型的工具。它解决了云端 API 的隐私安全问题和复杂的部署流程,支持在本地运行强大的大语言模型。
本文将带你完成从系统检查到模型运行的全过程,即使是技术新手也能顺利上手。学完本教程后,你将能够在自己的电脑上运行 Qwen、DeepSeek、Llama 等主流大模型。
⚠️ 安装前的常见误区
误区 1:需要高端 GPU
真相: Ollama 支持 CPU 运行,轻量级模型如 Qwen2.5:1.8B 在 8GB 内存的电脑上也能运行,只是速度较慢。
误区 2:系统兼容性不清
真相: Ollama 支持 Windows 10/11、macOS 12+ 和主流 Linux 发行版,但需要明确具体版本要求。
误区 3:忽略环境变量配置
真相: 部分用户直接下载安装包却忽略了"Add to PATH"选项,导致命令行无法识别 ollama 命令。
误区 4:新手直接上大模型
真相: 新手往往直接下载最大模型,结果因硬件不足导致运行失败。建议从 7B 或更小模型开始。
误区 5:下载慢是网络问题
真相: 模型下载速度慢并非都是网络问题,很多时候是因为没有配置国内镜像源。
第一章:系统兼容性检查
Windows 系统要求
| 项目 | 最低配置 | 推荐配置 |
|---|---|---|
| 操作系统 | Windows 10 64 位 | Windows 11 |
| 处理器架构 | x86_64 | x86_64 支持 AVX2 指令集 |
| 内存 | 8GB | 16GB |
| CPU | 4 核 | 支持 AVX2 指令集 |
| GPU | 可选 | NVIDIA GPU(4GB+ 显存) |
macOS 系统要求
| 项目 | 最低配置 | 推荐配置 |
|---|---|---|
| 操作系统 | macOS 12 (Monterey) | macOS 14+ |
| 处理器架构 | Apple Silicon 或 Intel | Apple Silicon(M1/M2/M3) |
| 内存 | 8GB | 16GB |
Linux 系统要求
| 项目 | 最低配置 | 推荐配置 |
|---|---|---|
| 支持的发行版 | Ubuntu 20.04+、Debian 11+、CentOS 8+、Fedora 36+ | 最新稳定版 |
| 处理器架构 | x86_64 或 ARM64 | x86_64 |
| 内存 | 8GB | 16GB |
| GPU | 可选 | NVIDIA/AMD GPU(支持 CUDA/ROCm) |
模型规模与硬件要求参考
| 模型规模 | 显存要求 | 内存要求 | 推荐场景 |
|---|---|---|---|
| 3B(轻量) | 3GB+ | 8GB+ | 低配设备、快速测试 |
| 7B(推荐) | 4-6GB | 16GB+ | 日常开发、个人使用 |
| 13B(进阶) | 10-12GB | 32GB+ | 专业应用、团队协作 |
| 30B+(专业) | 24GB+ | 64GB+ | 企业部署、复杂任务 |
第二章:安装文件获取
Windows 系统
- 官方下载地址: https://ollama.com/download
- 安装包: OllamaSetup.exe
macOS 系统
- 方法一: 官网下载 dmg 安装包
- 方法二: 使用 Homebrew 安装(推荐)
Linux 系统
- 一键安装脚本(推荐)
- 支持 Ubuntu、Debian、CentOS 等主流发行版
第三章:分平台安装步骤详解
Windows 安装步骤
下载安装包
- 访问 https://ollama.com/download
- 下载 OllamaSetup.exe 安装文件
运行安装程序
- 双击运行安装程序
- 出现安装界面后点击"Install"
- 务必勾选"Add to PATH"选项(重要!)
等待安装完成
- 通常需要 1-2 分钟
- 安装完成后 Ollama 服务会自动启动
- 系统托盘会出现 Ollama 图标
验证安装
- 打开 PowerShell 或命令提示符
- 执行
ollama --version

macOS 安装步骤
方法一:通过 dmg 安装包
- 下载 Ollama-darwin.zip 并解压
- 将 Ollama 拖入 Applications 文件夹
- 从应用程序启动 Ollama
方法二:通过 Homebrew 安装(推荐)
# 安装 Ollama
brew install ollama
# 启动服务
brew services start ollama
# 验证安装
ollama --versionLinux 安装步骤
# 一键安装(推荐)
curl -fsSL https://ollama.com/install.sh | sh
# 设置开机自启
sudo systemctl enable ollama
# 手动控制服务
sudo systemctl start ollama
sudo systemctl stop ollama
sudo systemctl status ollama
# 验证安装
ollama --version第四章:基础配置与验证
验证安装是否成功
打开终端(Windows 为 PowerShell/CMD,macOS/Linux 为 Terminal),执行:
ollama --version如果安装成功,会显示版本信息,例如:
ollama version is 0.13.0环境变量配置(国内用户推荐)
为了提升体验,建议配置国内镜像加速:
# macOS/Linux
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"
# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"永久生效(macOS/Linux):
# 添加到 ~/.zshrc 或 ~/.bashrc
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.zshrc
source ~/.zshrc测试模型运行
安装完成后,下载并运行一个轻量级模型进行测试:
# 下载并运行 Qwen2.5 1.8B 模型(中文优化,适合入门)
ollama run qwen2.5:1.8b首次运行会自动下载模型,下载完成后进入交互模式。
第五章:常用模型推荐
| 模型 | 说明 | 显存占用 | 下载命令 |
|---|---|---|---|
| qwen2.5:7b | 通义千问 2.5,中文效果优异 | ~4.5GB | ollama pull qwen2.5:7b |
| qwen2.5:14b | 更强中文能力,适合专业场景 | ~9GB | ollama pull qwen2.5:14b |
| deepseek-r1:7b | DeepSeek 推理模型 | ~4.5GB | ollama pull deepseek-r1:7b |
| gemma2:9b | Google 开源模型 | ~5.5GB | ollama pull gemma2:9b |
| llama3.1:8b | Meta Llama 3.1 | ~5GB | ollama pull llama3.1:8b |
模型选择建议
- 入门测试: qwen2.5:1.8b 或 qwen2.5:3b
- 日常使用: qwen2.5:7b(平衡性能与资源)
- 专业场景: qwen2.5:14b 或更高
- 推理任务: deepseek-r1:7b
- 英文任务: llama3.1:8b
第六章:常见问题解决
🔧 高频问题及解决方案
1. 安装后命令行提示"ollama 不是内部或外部命令"
原因: 未勾选"Add to PATH"或环境变量未生效
解决方案:
- Windows 重新安装并确保勾选"Add to PATH"
- 或手动添加 Ollama 安装目录到系统 PATH
- 重启终端或电脑使环境变量生效
手动添加 PATH(Windows):
# 添加到用户环境变量
[Environment]::SetEnvironmentVariable("Path", $env:Path + ";C:\Users\你的用户名\AppData\Local\Programs\Ollama", "User")2. 模型下载速度慢或失败
原因: 默认从海外服务器下载,国内网络访问不稳定
解决方案: 配置国内镜像
# macOS/Linux
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"
# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"或使用代理:
export HTTP_PROXY="http://proxy-server:port"
export HTTPS_PROXY="http://proxy-server:port"3. 启动失败,提示"端口被占用"
原因: Ollama 默认使用 11434 端口,可能被其他程序占用
解决方案:
Windows:
# 查看占用进程
netstat -ano | findstr :11434
# 结束进程(替换 PID)
taskkill /PID 进程号 /FLinux/macOS:
# 查看占用进程
lsof -i :11434
# 结束进程
kill -9 进程号4. 内存/显存不足,模型无法加载
原因: 模型规模超过硬件能力
解决方案:
- 选择更小的模型(如从 7B 改为 3B)
- 使用量化版本:
ollama pull qwen2.5:7b-q4_0 - 增加虚拟内存(Windows)或交换空间(Linux)
Windows 增加虚拟内存:
- 右键"此电脑" → 属性 → 高级系统设置
- 高级 → 性能设置 → 高级 → 虚拟内存
- 设置为物理内存的 1.5-2 倍
5. 权限错误"Permission denied"
原因: Ollama 没有足够权限访问模型目录
解决方案:
Linux/macOS:
# 修复权限
sudo chown -R $USER:$USER ~/.ollama
sudo chmod -R 755 ~/.ollama6. 模型运行缓慢
原因: CPU 运行或模型过大
解决方案:
- 使用更小的模型或量化版本
- 确保 GPU 加速已启用
- 关闭其他占用内存的程序
检查 GPU 加速:
# 查看是否使用 GPU
ollama run 模型名
# 观察日志中是否有 GPU 相关信息7. 中文输出乱码
原因: 终端编码问题
解决方案:
Windows PowerShell:
# 设置 UTF-8 编码
[Console]::OutputEncoding = [System.Text.Encoding]::UTF8或在 PowerShell 配置文件中添加:
$PSDefaultParameterValues['Out-File:Encoding'] = 'utf8'8. 模型列表为空或显示不全
原因: 模型目录权限问题或配置文件损坏
解决方案:
# 重启 Ollama 服务
# Windows: 重启系统托盘中的 Ollama
# macOS/Linux:
brew services restart ollama
# 或
sudo systemctl restart ollama9. 更新后出现兼容性问题
原因: 新版本与旧配置不兼容
解决方案:
# 备份配置
cp -r ~/.ollama ~/.ollama.backup
# 重置配置
rm -rf ~/.ollama
# 重新安装
# macOS
brew reinstall ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh10. 无法连接到 Ollama 服务
原因: 服务未启动或防火墙阻止
解决方案:
检查服务状态:
# macOS
brew services list | grep ollama
# Linux
systemctl status ollama启动服务:
# macOS
brew services start ollama
# Linux
sudo systemctl start ollama检查防火墙:
# 允许 11434 端口
# Ubuntu/Debian
sudo ufw allow 11434
# CentOS/Fedora
sudo firewall-cmd --add-port=11434/tcp --permanent
sudo firewall-cmd --reload第七章:基本命令参考
模型管理
# 查看版本
ollama --version
# 列出已安装的模型
ollama list
# 下载模型
ollama pull 模型名
# 运行模型
ollama run 模型名
# 删除模型
ollama rm 模型名
# 查看模型信息
ollama show 模型名
# 更新 Ollama
ollama update高级用法
# 指定模型参数运行
ollama run 模型名 --num_ctx 4096 --temperature 0.7
# 从文件读取输入
ollama run 模型名 < input.txt
# 管道输入
echo "你好" | ollama run 模型名
# API 方式调用
curl http://localhost:11434/api/generate -d '{
"model": "qwen2.5:7b",
"prompt": "你好"
}'第八章:图形界面推荐
Open WebUI(推荐)
Open WebUI 是一个功能强大的 Web 界面,提供类似 ChatGPT 的交互体验。
安装(Docker):
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main其他界面
- Ollama WebUI - 轻量级 Web 界面
- Continue - VS Code 插件
- Cursor - AI 代码编辑器
✅ 一页纸行动清单
- ✅ 检查操作系统版本(Win10+/macOS12+/Linux 最新发行版)
- ✅ 确认硬件配置(至少 8GB 内存)
- ✅ 根据系统选择安装方式(安装包/包管理器/脚本)
- ✅ 安装时勾选"Add to PATH"(Windows)
- ✅ 验证安装:
ollama --version - ✅ 配置国内镜像:
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com" - ✅ 下载适合的模型(推荐从 7B 开始)
- ✅ 测试运行:
ollama run 模型名 - ✅ 安装 Open WebUI 获得图形界面
- ✅ 学习基本命令:
list、pull、rm、show
总结
Ollama 让本地部署大语言模型变得前所未有的简单。通过本教程,你已经掌握了:
- 系统兼容性检查方法
- 三平台安装步骤
- 国内镜像配置
- 模型选择建议
- 10 大常见问题解决
- 基本命令和高级用法
现在就开始你的本地 AI 之旅吧!本地部署的优势在于:
- 🔒 隐私安全 - 数据不出本地
- 💰 零成本 - 无需 API 费用
- ⚡ 低延迟 - 无需网络请求
- 🎯 可定制 - 完全掌控模型配置
参考资源
- Ollama 官网: https://ollama.com/
- 官方文档: https://ollama.com/docs
- GitHub 仓库: https://github.com/ollama/ollama
- 模型库: https://ollama.com/library
- Open WebUI: https://github.com/open-webui/open-webui
来源: 微信公众号《科学次位面》- 《从零到一:Ollama 本地安装完整指南(附 10 大常见问题解决)》