小白如何把GPT本地化,建立个人和小企业的知识库

699 阅读3分钟

本文章将教大家如何建立本地的GPT,它的内核是meta不是openAI的。该模型对电脑配置需求不高,因此能力天花板也较低,但是完全能为小企业和个人所用了。学会后甚至可以直接对接小型企业,为他们打造内部知识库赚钱钱,具体对接实操容我先试试水,先和大家分享一下想法。

模型的终极能力

  1. 只要放入高质量的企业产品信息,就可以打造成小企业的知识库,该知识库可以赋予给AI客服,让AI高水平地回答咨询者的任何问题,从而降本增效。 另一方面,AI回答的水平取决于知识库的丰富程度。

实操最低配置

  1. 一台运行内存至少是4G的电脑,纯看CPU。
  2. 不需要API,因为是部署在本地的,电脑上限就是模型的上限。

本地化布置过程

  1. 直接下载“软件包”:链接
  2. 下载完成后,压缩包解压到当前文件夹内,见下图。
  3. 软件包内的是“7b”模型,如果想要“13b”模型,请下载这个

跑13b模型需要至少8G的运行内存,但功能会比7b更强大。

7b是70亿个参数

13b是130亿个参数

  1. 试运行模型。如果没有“终端”两字,可以到WindowStore或者网上下载一个。
  2. 终端打开后的页面如下
  3. 输入“命令”到“终端”。命令格式如下:

无提示词:./main -m ggml-model-q4_0.bin --color -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

有提示词:./main -m ggml-model-q4_0.bin --color -f chat.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

  1. 命令示范(无提示词):
  2. 【重点】⭐命令示范(有提示词):(演示用的是7b模型)
  1. 喂内容!例如我需要输入《财务管理办法》里的内容,则需要手动复制粘贴进“chat.txt”里面保存。
  2. 输入完毕后,让我们再来打开终端,输入“命令”来问问他。看起来还可以。
  3. 存在缺陷:答非所问,可能是模型参数太少的缘故。
  4. 缺陷二:初次进入,模型需要遍历一遍你的知识库,换而言之,知识库越大,读取时间越长。
  5. 缺陷三:毕竟是本地模型,理解能力有限,需要较高的prompt水平才能较好的驾驭模型

“命令”里可携带的参数

命令指的是👇

无提示词:./main -m ggml-model-q4_0.bin --color -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

有提示词:./main -m ggml-model-q4_0.bin --color -f chat.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

-ins 启动类ChatGPT对话交流的运行模式

-f 指定prompt模板,alpaca模型请加载prompts/alpaca.txt

-c 控制上下文的长度,值越大越能参考更长的对话历史(默认:512)

-n 控制回复生成的最大长度(默认:128)

-b 控制batch size(默认:8),可适当增加

-t 控制线程数量(默认:4),可适当增加

--repeat_penalty 控制生成回复中对重复文本的惩罚力度

--temp 温度系数,值越低回复的随机性越小,反之越大

--top_p, top_k 控制解码采样的相关参数