光杆司令如何部署大模型?

144 阅读2分钟

1、背景

今天这种方式非常贴合低配置笔记本电脑的小伙伴们, 又没有GPU资源, 可以考虑使用api方式,让模型服务厂商提供计算资源

有了开放的api,让你没有显卡的电脑也能感受一下大模型管理知识库,进行垂直领域知识的检索和问答.算是自己初步玩一下AI agent

之前有写过一篇《平民如何体验一把大模型知识库》里面有提到使用阿里的免费GPU进行部署,但是免费总有到头的一天, 今天教大家如何使用在线模型管理自己的知识库, 同样是基于ChatChat的开源代码来讲解. 随着大模型竞争的白热化,基本很多大模型都开放的api方式,让大家自己定义AI agent的应用.

目前官方github上支持联网模型有:

image.png

目前官方github上支持的词嵌入(Embedding)模型有:

image.png 2、准备下前置条件

(1)、联网大模型选择

刚好最近讯飞星火发布了3.5大模型, 为了对它免费的感谢,顺便也支持一下国产的服务,我们就拿它的api来玩一玩, 个人实名认证的可以免费领取,领取就可以获得api调用key等信息:

image.png

(2)联网的词嵌入(Embedding) 模型

在对话过程中并不要求 LLM 模型与 Embeddings 模型一致,你可以在知识库管理页面中使用 qwen-api,在之前《限时免费的羊毛撸起来!@刚入大模型坑的朋友们》文章中有提到过。

image.png (3) 向量数据库

官方的github支持向量数据库有以下选择:

image.png

为了完全降低本地资源的损耗, 模拟成最差的资源的机器, 证明自己是光杆指令,选择Zilliz向量库.

3、实操

(1) 、创建虚拟python环境

conda create --name chatchat python=3.10.12

(2)、安装必要的包

 pip install -r requirements_lite.txt # 安装轻量依赖
 pip install -r requirements_api.txt
 pip install -r requirements_webui.txt
 pip install pymilvus # Zilliz依赖

(3)、运行

python copy_config_example.py
#修改配置文件
vim configs/model_config.py # 修改模型配置变量
vim configs/kb_config.py # 修改配置文件,配置Zilliz和Zilliz 信息
nohup python3.10 startup.py -a > chat.log 2>&1 &

4、效果展示

(1) 、对话效果

image.png (2)、无GPU使用

image.png

本文使用 文章同步助手 同步