260311-openclaw-cn部署和使用

openclaw-cn

1
2
3
4
5
6
7
PNPM_HOME
pnpm config set global-bin-dir "C:\Users\Administrator\pnpm"

openclaw-cn@latest
npm config set registry https://registry.npmmirror.com/

pnpm add -g openclaw-cn@latest --registry=https://registry.npmmirror.com

配置参数

1
2
3
4
5
openclaw-cn onboard --install-daemon

安装引导完成。仪表盘已使用您的令牌打开;保留该标签页以控制Clawdbot

openclaw-cn gateway --port 18789

Ollama模型配置

1
2
3
4
5
6
7
8
9
10
# 推荐,约4.7GB
ollama pull qwen2.5:7b

echo FROM qwen2.5:7b > Modelfile
echo PARAMETER num_ctx 32768 >> Modelfile

ollama create qwen2.5:7b-32k -f ./Modelfile

# 查看模型列表,确认新模型已出现
ollama list

OpenClaw对接Ollama配置

  1. 按提示进行配置:在向导中,当问到模型提供商时,请严格按照下表进行选择和填写:
配置项 操作/选择 说明
Model/auth provider Custom Provider 选择自定义提供商,拉到列表最底部即可找到。
API Base URL http://127.0.0.1:11434/v1 这是Ollama服务的默认本地地址,末尾的 /v1 必须保留
API Key 任意字符 (如 ollama) Ollama本地服务不验证密钥,但不能留空,随便填一个即可。
Endpoint compatibility OpenAI-compatible 选择与OpenAI兼容的模式,这是Ollama支持的接口类型。
Model ID qwen2.5:7b-32k 输入我们刚刚在Ollama中创建的模型名称,必须完全一致。

配置完成后,如果看到 “Verification successful” 的提示,就说明OpenClaw已成功连接到本地的Ollama模型了。同时,命令行会显示Web
UI的地址(通常是 http://127.0.0.1:18789)和一个访问Token,

1
2
3
4
5
6
7
8
9
Custom Provider

http://127.0.0.1:11434/v1

ollama

OpenAI-compatible

qwen2.5:7b-32k

结合你之前的步骤,你已经有了本地Ollama模型。如果想体验混合架构,可以参考这个思路:

  1. 添加云端模型:通过 openclaw onboard 命令或OpenClaw的Web界面,再次进入模型配置向导。这次选择另一个提供商,比如OpenAIClaude或国内的阿里云百炼,并填入你的云端API Key。
  2. 切换使用:配置好后,你就可以在对话中通过指令或界面下拉菜单,自由选择是用本地模型处理文件,还是调用云端模型进行复杂创作了。

Qwen大模型配置参数

1
2
3
https://dashscope.aliyuncs.com/compatible-mode/v1

qwen3.5-plus