OpenClaw AI助手入门教程-openclaw与ollama整合
说明
- 本指南将帮助你在 Ubuntu 22.04/24.04 上部署 OpenClaw 和 Ollama,搭建一个本地、私密、可执行系统操作的 AI 智能体。
步骤
- 系统准备
更新系统并安装基础工具:
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git build-essential
- 安装 Node.js
OpenClaw 需要 Node.js 18 及以上版本,推荐使用 nvm 安装:
# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash
# 使 nvm 生效
source ~/.bashrc
# 安装 Node.js 22 LTS
nvm install 22
nvm use 22
nvm alias default 22
# 验证安装
node --version # 应输出 v22.x.x
npm --version # 应输出 10.x.x
- 安装 OpenClaw
使用官方一键安装脚本(安装过程中会提示确认安全风险,请阅读后同意):
curl -fsSL https://openclaw.ai/install.sh | bash
验证安装:
bash
openclaw --version
- 安全警告:OpenClaw 具有执行系统命令和读写文件的权限,请勿将 Web 界面直接暴露在公网。
- 建议后续通过 SSH 隧道访问。
- 安装 Ollama
4.1 安装 Ollama
如果服务器可以访问 GitHub,使用官方脚本:
curl -fsSL https://ollama.com/install.sh | sh
如果网络受限,可参考 ModelScope 镜像安装 或使用预编译包手动安装。
4.2 启动 Ollama 服务
ollama serve &
4.3 拉取基础模型(以通义千问 7B 为例)
ollama pull qwen2.5:7b
4.4 必须步骤:扩展模型上下文窗口
OpenClaw 要求模型上下文窗口 ≥ 16000 tokens,默认模型只有 4096,需要创建自定义模型:
# 创建模型配置文件
cat > Modelfile << 'EOF'
FROM qwen2.5:7b
PARAMETER num_ctx 32768
EOF
# 创建自定义模型(命名为 qwen2.5:7b-32k)
ollama create qwen2.5:7b-32k -f Modelfile
# 验证自定义模型已存在
ollama list | grep qwen2.5:7b-32k
4.5 如果openclaw和ollama不安装在同一电脑内,需要设置可以局域网访问
#修改ollama.service
/etc/systemd/system/ollama.service
#增加
Environment="OLLAMA_HOST=0.0.0.0:11434"
#例子
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
......
Environment="OLLAMA_HOST=0.0.0.0:11434"
[Install]
WantedBy=default.target
#重置服务
sudo systemctl daemon-reload
sudo systemctl restart ollama
4.6 测试ollama是否正常
#本机访问
$ curl http://127.0.0.1:11434/
Ollama is running
#局域网访问
$ curl http://192.168.0.10:11434/
Ollama is running
4.7 测试模型是否正常
curl http://192.168.0.10:11434/api/generate -d '{"model": "qwen2.5:7b-32k", "prompt": "Hello", "stream": false}'
- 配置 OpenClaw 对接 Ollama
5.1 运行配置向导
openclaw onboard --install-daemon
5.2 按照提示进行交互配置
提示 输入/选择
安全风险确认 Yes
Onboarding mode QuickStart
Model/auth provider 滚动至最后选择 Custom Provider
API Base URL http://127.0.0.1:11434/v1
API Key 任意字符(如 ollama)
Endpoint compatibility OpenAI-compatible
Model ID qwen2.5:7b-32k(必须与上一步创建的名称一致)
后续通道/技能配置 全部选择 Skip for now / No
- 配置成功后,会显示 Web UI 地址和管理员 Token。记下 Token,后续登录需要。
- 测试效果
6.1 启动和配置
openclaw gateway start
6.2访问 Web UI
在本地浏览器打开:
http://127.0.0.1:18789/?token=你的管理员Token
6.3 发送测试指令
在对话框中输入以下指令,测试 OpenClaw 是否能正确调用模型并执行操作:
你好,请介绍一下自己。
或者
帮我创建一个名为 test_openclaw 的文件夹,并在里面新建一个 hello.txt 文件,内容为 "Hello from OpenClaw"。
6.4 验证结果
检查当前目录下是否生成了 test_openclaw/hello.txt
查看文件内容是否正确
故障排查
查看 OpenClaw 日志:openclaw gateway logs
运行诊断工具:openclaw doctor --fix
确保 Ollama 服务正在运行:systemctl status ollama
查看ollama日志:sudo journalctl -u ollama.service -e --no-pager
获取最新文章: 扫一扫右上角的二维码加入“创客智造”公众号


















