openclaw-cn
1 2 3 4 5 6 7
| PNPM_HOME pnpm config set global-bin-dir "C:\Users\Administrator\pnpm"
openclaw-cn@latest npm config set registry https://registry.npmmirror.com/
pnpm add -g openclaw-cn@latest --registry=https://registry.npmmirror.com
|
配置参数
1 2 3 4 5
| openclaw-cn onboard --install-daemon
安装引导完成。仪表盘已使用您的令牌打开;保留该标签页以控制Clawdbot
openclaw-cn gateway --port 18789
|
Ollama模型配置
1 2 3 4 5 6 7 8 9 10
| # 推荐,约4.7GB ollama pull qwen2.5:7b
echo FROM qwen2.5:7b > Modelfile echo PARAMETER num_ctx 32768 >> Modelfile
ollama create qwen2.5:7b-32k -f ./Modelfile
# 查看模型列表,确认新模型已出现 ollama list
|
OpenClaw对接Ollama配置
- 按提示进行配置:在向导中,当问到模型提供商时,请严格按照下表进行选择和填写:
| 配置项 |
操作/选择 |
说明 |
| Model/auth provider |
Custom Provider |
选择自定义提供商,拉到列表最底部即可找到。 |
| API Base URL |
http://127.0.0.1:11434/v1 |
这是Ollama服务的默认本地地址,末尾的 /v1 必须保留。 |
| API Key |
任意字符 (如 ollama) |
Ollama本地服务不验证密钥,但不能留空,随便填一个即可。 |
| Endpoint compatibility |
OpenAI-compatible |
选择与OpenAI兼容的模式,这是Ollama支持的接口类型。 |
| Model ID |
qwen2.5:7b-32k |
输入我们刚刚在Ollama中创建的模型名称,必须完全一致。 |
配置完成后,如果看到 “Verification successful” 的提示,就说明OpenClaw已成功连接到本地的Ollama模型了。同时,命令行会显示Web
UI的地址(通常是 http://127.0.0.1:18789)和一个访问Token,
1 2 3 4 5 6 7 8 9
| Custom Provider
http://127.0.0.1:11434/v1
ollama
OpenAI-compatible
qwen2.5:7b-32k
|
结合你之前的步骤,你已经有了本地Ollama模型。如果想体验混合架构,可以参考这个思路:
- 添加云端模型:通过
openclaw onboard 命令或OpenClaw的Web界面,再次进入模型配置向导。这次选择另一个提供商,比如OpenAI、Claude或国内的阿里云百炼,并填入你的云端API Key。
- 切换使用:配置好后,你就可以在对话中通过指令或界面下拉菜单,自由选择是用本地模型处理文件,还是调用云端模型进行复杂创作了。
Qwen大模型配置参数
1 2 3
| https://dashscope.aliyuncs.com/compatible-mode/v1
qwen3.5-plus
|