< >
Home » OpenClaw-AI助手入门教程 » OpenClaw AI助手入门教程-openclaw与ollama整合

OpenClaw AI助手入门教程-openclaw与ollama整合

说明

  • 本指南将帮助你在 Ubuntu 22.04/24.04 上部署 OpenClaw 和 Ollama,搭建一个本地、私密、可执行系统操作的 AI 智能体。

步骤

    1. 系统准备

更新系统并安装基础工具:

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git build-essential
    1. 安装 Node.js

OpenClaw 需要 Node.js 18 及以上版本,推荐使用 nvm 安装:

# 安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh | bash

# 使 nvm 生效
source ~/.bashrc

# 安装 Node.js 22 LTS
nvm install 22
nvm use 22
nvm alias default 22

# 验证安装
node --version   # 应输出 v22.x.x
npm --version    # 应输出 10.x.x
    1. 安装 OpenClaw

使用官方一键安装脚本(安装过程中会提示确认安全风险,请阅读后同意):

curl -fsSL https://openclaw.ai/install.sh | bash

验证安装:

bash
openclaw --version

  • 安全警告:OpenClaw 具有执行系统命令和读写文件的权限,请勿将 Web 界面直接暴露在公网。
  • 建议后续通过 SSH 隧道访问。
  1. 安装 Ollama

4.1 安装 Ollama

如果服务器可以访问 GitHub,使用官方脚本:

curl -fsSL https://ollama.com/install.sh | sh

如果网络受限,可参考 ModelScope 镜像安装 或使用预编译包手动安装。

4.2 启动 Ollama 服务

ollama serve &

4.3 拉取基础模型(以通义千问 7B 为例)

ollama pull qwen2.5:7b

4.4 必须步骤:扩展模型上下文窗口

OpenClaw 要求模型上下文窗口 ≥ 16000 tokens,默认模型只有 4096,需要创建自定义模型:

# 创建模型配置文件
cat > Modelfile << 'EOF'
FROM qwen2.5:7b
PARAMETER num_ctx 32768
EOF

# 创建自定义模型(命名为 qwen2.5:7b-32k)
ollama create qwen2.5:7b-32k -f Modelfile

# 验证自定义模型已存在
ollama list | grep qwen2.5:7b-32k

4.5 如果openclaw和ollama不安装在同一电脑内,需要设置可以局域网访问

#修改ollama.service
/etc/systemd/system/ollama.service

#增加
Environment="OLLAMA_HOST=0.0.0.0:11434"

#例子
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
......
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

#重置服务
sudo systemctl daemon-reload
sudo systemctl restart ollama

4.6 测试ollama是否正常

#本机访问
$ curl http://127.0.0.1:11434/
Ollama is running

#局域网访问
$ curl http://192.168.0.10:11434/
Ollama is running

4.7 测试模型是否正常

 curl http://192.168.0.10:11434/api/generate -d '{"model": "qwen2.5:7b-32k", "prompt": "Hello", "stream": false}'
  1. 配置 OpenClaw 对接 Ollama

5.1 运行配置向导

openclaw onboard --install-daemon

5.2 按照提示进行交互配置

提示  输入/选择
安全风险确认  Yes
Onboarding mode QuickStart
Model/auth provider 滚动至最后选择 Custom Provider
API Base URL    http://127.0.0.1:11434/v1
API Key 任意字符(如 ollama)
Endpoint compatibility  OpenAI-compatible
Model ID    qwen2.5:7b-32k(必须与上一步创建的名称一致)
后续通道/技能配置   全部选择 Skip for now / No
  • 配置成功后,会显示 Web UI 地址和管理员 Token。记下 Token,后续登录需要。
  1. 测试效果

6.1 启动和配置

openclaw gateway start

6.2访问 Web UI

在本地浏览器打开:

http://127.0.0.1:18789/?token=你的管理员Token

6.3 发送测试指令

在对话框中输入以下指令,测试 OpenClaw 是否能正确调用模型并执行操作:

你好,请介绍一下自己。

或者

帮我创建一个名为 test_openclaw 的文件夹,并在里面新建一个 hello.txt 文件,内容为 "Hello from OpenClaw"。

6.4 验证结果

检查当前目录下是否生成了 test_openclaw/hello.txt

查看文件内容是否正确

故障排查

查看 OpenClaw 日志:openclaw gateway logs
运行诊断工具:openclaw doctor --fix
确保 Ollama 服务正在运行:systemctl status ollama
查看ollama日志:sudo journalctl -u ollama.service -e --no-pager

纠错,疑问,交流: 请进入讨论区点击加入Q群

获取最新文章: 扫一扫右上角的二维码加入“创客智造”公众号


标签: openclaw ai助手入门教程