📘 Ollama 与 Claude Code 本地 AI 编程环境部署指南
✨ 本指南旨在帮助开发者快速、安全地在个人计算机上部署一套完整的本地 AI 编程辅助环境。您将无需依赖云端 API,即可使用 Claude Code 工具高效调用运行在本地的大型语言模型。
🚀 快速开始 | 环境检查清单
在开始前,请确认您的系统满足以下条件:
- ✅ 操作系统:建议 macOS 或 Linux。Windows 用户需先安装 WSL2(Windows Subsystem for Linux 2),或直接使用官方提供的 “Ollama for Windows” 版本。
- ✅ 基础工具:确保已安装
Git和curl(绝大多数系统已预装)。 - ✅ Node.js:版本需大于或等于 v18.0.0(这是安装 Claude Code 的必需环境)。
🔧 第一部分:部署模型引擎 - Ollama
Ollama 是本地的模型运行与服务平台,为 Claude Code 提供“大脑”。
第1步:安装 Ollama
在终端(Terminal)中执行官方一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
安装成功后,可通过以下命令验证服务状态:
查看 Ollama 版本
ollama --version
检查 11434 端口服务是否就绪
curl http://localhost:11434
第2步:下载与测试模型
推荐下载专为编程优化的开源模型,例如 qwen3-coder。在终端中运行:
拉取模型(下载需要一些时间,取决于网络与模型大小)
ollama pull qwen3-coder
进入交互模式,简单测试模型
ollama run qwen3-coder
💡 高级提示:您还可以通过
ollama create <自定义模型名> -f ./Modelfile的方式导入已下载的.gguf等本地模型文件。
🔎 关于模型与端口的说明:自 Ollama v0.14.0 版本起,已默认原生支持与 Anthropic API 兼容的消息接口。因此,后续的 Claude Code 无需进行复杂配置即可直接连接。
⚙️ 第二部分:安装编程助手 - Claude Code
Claude Code 是连接您与本地模型的客户端工具,为编写代码提供智能辅助。
第1步:全局安装
为了提高下载速度,建议先配置 npm 镜像源(中国大陆用户适用):
npm config set registry https://registry.npmmirror.com
接着,全局安装 Claude Code:
npm install -g @anthropic-ai/claude-code
验证安装是否成功:
claude --version
第2步:配置环境变量(最关键一步)
为了让 Claude Code 识别并连接您本地的 Ollama 服务,必须设置以下两个环境变量:
告知 Claude Code 本地服务的地址
export ANTHROPIC_BASE_URL=http://localhost:11434
设置一个虚拟 API Key(Ollama 无需真实密钥)
export ANTHROPIC_API_KEY=ollama
🚨 重要提醒:为了每次启动终端都能自动生效,请务必将上述两行命令永久添加到您的 Shell 配置文件中。
- macOS / Linux:添加到
~/.bashrc、~/.zshrc或~/.bash_profile文件的末尾。- Windows (WSL):同样添加到 WSL 子系统内的
~/.bashrc文件中。- 添加后,执行
source ~/.bashrc或重启终端以使配置生效。
✨ 第三部分:增强工具(可选)— OpenClaw AI 助手
如果您需要功能更丰富的 AI 助手体验(如额外的交互特性和脚本支持),可以安装 OpenClaw。
Windows (管理员权限 PowerShell):
临时调整执行策略以允许脚本运行
Set-ExecutionPolicy Bypass -Scope Process -Force
执行安装脚本
iwr -useb https://openclaw.ai/install.ps1 | iex
macOS 或 Linux:
curl -fsSL https://openclaw.ai/install.sh | bash
更多功能详情,请访问 OpenClaw 官网。
🎯 第四部分:启动与验证
完成所有配置后,在任意终端窗口输入以下命令:
claude
若一切顺利,Claude Code 的交互界面将启动,并与您本地的 Ollama 模型成功连接。至此,您便拥有了一个高效、安全、零费用、完全离线的专业级 AI 编程助手!
🔍 第五部分:常见问题与排障指南
如果在操作过程中遇到问题,请对照下表进行排查:
| 问题现象 | 可能的原因 | 解决方案 |
|---|---|---|
claude 命令未找到 | npm 全局安装路径未正确添加到系统的 PATH 环境变量 | 检查 Node.js 安装是否完整,或尝试重新执行 npm install -g @anthropic-ai/claude-code。 |
| 无法连接到 Ollama | 设置的环境变量未生效,Ollama 服务地址有误 | 在终端中执行 source ~/.bashrc 重新加载配置,或完全重启终端。确认 Ollama 服务地址正确无误。 |
| Ollama 服务无响应 | Ollama 后台服务进程未启动 | 在终端中执行 ollama serve 来手动启动服务,并保持该终端窗口开启。 |
| 模型生成代码速度缓慢 | 硬件(CPU/内存/GPU)资源不足 | 尝试使用更小的模型(如 qwen3-coder:1.5b),或关闭其他占用大量资源的程序。 |
✅ 恭喜!您的专属本地 AI 编程环境已全部搭建完毕。现在,您可以不受网络限制,尽情探索和享受智能编码带来的生产力提升。祝您使用愉快!