openClaw配置访问本地模型

7 阅读2分钟

前一段时间openClaw原生支持ollama本地模型。想尝试一下。

可以通过openClaw安装ollama。也可以先安装ollama。

安装环境

环境配置

mac mini4 16g内存

虚拟机vmware fusion

虚拟机内存14g

操作系统:

Ubuntu64-24.04.4(arm版本)

nodejs:

v24.14.0

安装ollama

注意环境和版本。安装过程中尝试过几个不同的版本。以上版本安装最顺利

官网:

ollama.com/

执行:

curl -fsSL https://ollama.com/install.sh | sh

需要连接github。国内可能需要vpn

安装模型:

ollama run qwen3.5:0.8b

ollama安装完成之后安装openClaw

之前文章说过安装过程,这里不说了。

问题总结

说一下遇到的问题。

模型选择allama

连接类型选择local(ollama和openClaw同一个机器上安装)

如果选择cloud+local需要登陆ollama页面验证。而且第一次会卡住,关闭openClaw重新配置。

在实际安装过程中9b模型可以进行对话。但是问简单问题之后会报内存不足。

目前看16g内存只能支持0.8b。

openClaw上下文太长了。即使改了上下文长度限制依然不行。可能是我不会做优化。全部都是默认配置。

可以在虚拟机安装openClaw。不建议在个人电脑直接安装openClaw。

本地电脑安装ollama qwen3.5.安装过程和上面说的一样。只是需要配置ollama的外网访问。网上很多配置说明。这里不说了。

安装完成之后没有任何使用价值。响应很慢无法接受,响应内容毫无价值,而且经常报错很不稳定。算是总结失败经验。

期待后期有人使用更高的配置安装更大的模型。可以提供更好的优化配置错率。

本地部署确实提供一个本地openClaw+本地模型的一个方向。随着未来PC硬件的不断升级和软件的不断优化一定会有更大的使用空间。