Linux(Ubuntu)部署Ollama+Qwen(千问)本地大模型实战01

496 阅读4分钟

提示:本文介绍了在Linux系统上部署Ollama+Qwen大模型并集成OpenClaw的实战过程。首先通过Ollama运行Qwen3.5:2b本地模型,然后安装配置OpenClaw,选择Custom Provider自定义接入本地Ollama模型服务(地址需加/v1后缀)。配置完成后通过SSH端口转发访问OpenClaw的Web界面,实现本地大模型的交互式应用。文章提供了详细的安装命令和配置截图,包括模型地址设置、API兼容性选择等关键步骤,帮助开发者快速搭建本地AI服务环境。


前言

基于现在AI的使用程度,定制化需求和考虑离线使用AI问题,本地部署AI成为一种趋势。


一、了解ollama和OpenClaw

技术栈为:Ollama、OpenClaw、Qwen大模型

二、部署Ollama并运行Qwen大模型

1.下载ollama

ollama官网,可在官网下载安装包,这里提供安装脚本下载

curl -fsSL https://ollama.com/install.sh | sh

2.ollama引入Qwen模型

这里由于是本机ubuntu虚拟机部署,模型选择就以轻量的来 主要还是看服务器综合状态

ollama run qwen3.5:2b

跑起来看下是否可以进行问答操作 在这里插入图片描述

ollama基础命令

退出问话:ctrl+d 查看部署模型:ollama list 运行模型: ollama run 指定模型+版本

3.部署OpenClaw

环境准备

排查是否有nodeJs 和 nodeJs版本是否 >=22,如下为node安装脚本

# Download and install nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.4/install.sh | bash
# in lieu of restarting the shell
\. "$HOME/.nvm/nvm.sh"
# Download and install Node.js:
nvm install 24
# Verify the Node.js version:
node -v # Should print "v24.14.0".
# Verify npm version:
npm -v # Should print "11.9.0".

OpenClaw安装

Linux
curl -fsSL https://openclaw.ai/install.sh | bash 或
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
Windows
iwr -useb https://openclaw.ai/install.ps1 | iex 或
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
OpenClaw 安装向导

在安装向导中,先不选择接入Qwen模型 全部跳过,后续在配置里面接入ollama 执行初始化向导

openclaw onboard --install-daemon

执行完初始化向导后,进行openclaw配置

#在终端手敲openclaw配置
openclaw config

选择 local 后,再选择Mode,下一步如果直接选择Qwen的话部署的是在线模型,是有token限制的,我们是本地部署,选择Custom Provider 进入后自定义模型配置 ollama的地址我这里是172.0.0.1:11434 在这里插入图片描述

在这里插入图片描述

根据提示下API Base URL 输入地址 http://172.0.0.1:11434/v1 (必须加上v1,因为ollama识别到请求的OpenApi就是http://172.0.0.1:11434/v1/XXXXXX,openclaw默认不给你加v1,你必须自己手动加) 在这里插入图片描述

设置APIKEY ,因为我们跑的是本地模型,不存在APIKEY 这里我们直接随便输入或者敲回车略过就行 提示Endpoint compatibility(API端点兼容性设置) 如下图,选择OpenAI-compatible 在这里插入图片描述

根据提示输入ModeID: 因为之前拉取的是qwen3.5:2b,这里Model Id直接输入qwen3.5:2b,回车后openclaw直接拉取并配置ollama下qwen3.5:2b模型 在这里插入图片描述

在这里插入图片描述

配置别名 下面会填写好几个别名,这里就没有什么讲究了,起完别名自己记住就行了。 在这里插入图片描述 最后配置完成之后,选择Continue提交退出 在这里插入图片描述

4.OpenClaw跑本地Qwen模型

#启动网关
openclaw gateway
#打开UI页面
openclaw dashboard

5.访问OpenClaw可视化页面

由于OpenClaw不提供外部源访问,这里直接用SSH 端口转发方式进行主机端访问

#192.168.1.44 为linux服务器的IP
ssh -N -L 18789:127.0.0.1:18789 root@192.168.1.44

根据提示访问:http://localhost:18789/#token=09f70457fac06efb88802ed07740d283fd008c2ff256e272 在这里插入图片描述

在这里插入图片描述


总结

本文完整讲解了 Linux 系统离线部署 ollama + Qwen 本地大模型 + OpenClaw 可视化平台 的全套流程,核心目标是搭建无 API 限制、可离线使用的本地 AI 服务。

核心组件

ollama:快速运行、管理本地大模型 Qwen3.5:2b:轻量、高效的离线大模型 OpenClaw:提供 Web 可视化聊天界面

关键部署步骤

安装 ollama 并拉取运行 qwen3.5:2b 模型 安装 Node.js 环境,部署 OpenClaw 平台 核心配置:OpenClaw 选择 Custom Provider,以 OpenAI 兼容模式 接入本地 ollama 必须填写:API 地址末尾加 /v1 → http://127.0.0.1:11434/v1 模型 ID 填写 qwen3.5:2b,API Key 留空或随便填

最终效果

本地运行大模型,无 API 限流、无网络依赖、完全隐私 通过 OpenClaw Web 界面可视化交互 支持 SSH 端口转发,在本地电脑访问服务器上的服务