『NAS』老破小也能玩 AI?飞牛 NAS 部署 LocalAI

0 阅读2分钟

点赞 + 关注 + 收藏 = 学会了

💡整理了一个 NAS 专属玩法专栏,感兴趣的工友可以戳这里关注 👉 《NAS邪修》

LocalAI 是一个开源的"AI壳",它能让你在自己的硬件上(比如 NAS)离线运行各种大模型(LLM)、生成图片或语音,并提供与 OpenAI 兼容的 API 接口。

在开始折腾前,请确保你的 NAS 具备“留学上网”能力,否则下载模型会让你怀疑人生。

01.png

这次我用飞牛 NAS (fnOS) 进行演示,其他品牌 NAS(如群晖、威联通)逻辑通用。

我用老爷机装了 fnOS,想顺便测测这台老爷机能不能跑得动小模型。

02.png

先开动。

打开「文件管理」应用,找到 docker 文件夹,在里面创建一个 localai 文件夹,然后在 localai 里再创建一个 models 文件夹,之后下载的模型都是存放在这个位置的。

03.png

打开「Docker」应用,切换到 Compose 面板,新增一个项目。

  • 项目名称:localai
  • 路径:选择刚刚在「文件管理」应用里创建的 /docker/localai
  • 来源:创建 docker-compose.yml

04.png

输入以下代码:

services:
  localai:
    image: localai/localai:latest
    container_name: localai
    ports:
      - 3456:8080 # 3456 可自定义映射端口
    volumes:
      - ./models:/models # 映射模型存放路径
    restart: always

等项目构建成功后,在浏览器访问 NAS_IP:3456 就可以打开 LocalAI 了。

05.png

第一次使用需要下载模型,点击左侧菜单的“Install Models”,然后搜索你想下载的模型,我用千问举例。

搜索 qwen,然后选一个小尺寸的模型(我选了9b,参数量太大的模型我这台老爷机跑不动)点击下载。

06.png

在页面头部可以看到模型下载的进度。

07.png

下载完模型后,回到首页(Home)或者聊天页(Chat)就可以开始聊天了。

我的老爷机跑9b模型,每秒吐2.3token出来,有点慢

08.png

除了聊天之外,LocalAI还支持文生图、文生视频、文本转语音等功能,但都需要大模型支持。

比如文生图,我用 sd-1.5 这个老模型也能抽卡。

09.png

回到 /docker/localai/models 目录,可以看到我刚刚下载的 qwen 和 sd-1.5 这两个模型都在里面。

10.png


以上就是本文的全部内容啦,你有好玩的镜像推荐吗?欢迎在评论区留言讨论!

想了解更多NAS玩法记得关注《NAS邪修》👏

往期推荐:

点赞 + 关注 + 收藏 = 学会了