前一段时间openClaw原生支持ollama本地模型。想尝试一下。
可以通过openClaw安装ollama。也可以先安装ollama。
安装环境
环境配置
mac mini4 16g内存
虚拟机vmware fusion
虚拟机内存14g
操作系统:
Ubuntu64-24.04.4(arm版本)
nodejs:
v24.14.0
安装ollama
注意环境和版本。安装过程中尝试过几个不同的版本。以上版本安装最顺利
官网:
执行:
curl -fsSL https://ollama.com/install.sh | sh
需要连接github。国内可能需要vpn
安装模型:
ollama run qwen3.5:0.8b
ollama安装完成之后安装openClaw
之前文章说过安装过程,这里不说了。
问题总结
说一下遇到的问题。
模型选择allama
连接类型选择local(ollama和openClaw同一个机器上安装)
如果选择cloud+local需要登陆ollama页面验证。而且第一次会卡住,关闭openClaw重新配置。
在实际安装过程中9b模型可以进行对话。但是问简单问题之后会报内存不足。
目前看16g内存只能支持0.8b。
openClaw上下文太长了。即使改了上下文长度限制依然不行。可能是我不会做优化。全部都是默认配置。
可以在虚拟机安装openClaw。不建议在个人电脑直接安装openClaw。
本地电脑安装ollama qwen3.5.安装过程和上面说的一样。只是需要配置ollama的外网访问。网上很多配置说明。这里不说了。
安装完成之后没有任何使用价值。响应很慢无法接受,响应内容毫无价值,而且经常报错很不稳定。算是总结失败经验。
期待后期有人使用更高的配置安装更大的模型。可以提供更好的优化配置错率。
本地部署确实提供一个本地openClaw+本地模型的一个方向。随着未来PC硬件的不断升级和软件的不断优化一定会有更大的使用空间。