OpenUI的项目README.MD文件翻译

447 阅读3分钟

项目概述

项目地址
github.com/wandb/openu…

demo.gif

OpenUI 致力于使构建用户界面组件的过程变得有趣、快速且灵活。
它是W&B公司内部用于测试和原型化下一代工具的一个项目,
这些工具旨在利用LLM(大型语言模型)构建强大的应用程序。

OpenUI 允许你运用想象来描述用户界面,并实时预览效果
你可以请求修改,甚至将HTML转换为React、Svelte、Web组件等形式
它类似于v0,但开源且更注重灵活性而非精致度。
实时演示

在线使用

试用演示版

本地运行

你也可以在本地运行OpenUI,并利用Ollama提供的模型。
首先安装Ollama并拉取如CodeLlama这样的模型

确保已安装git和python

1 . 根据.python-version文件指定的虚拟环境名
(例如openui)创建并激活该环境。

pyenv virtualenv 3.12.2 openui
pyenv local openui

2 . 克隆OpenUI仓库并进入后端目录

git clone https://github.com/wandb/openui
cd openui/backend

3 . 安装依赖并配置API密钥。

pip install . 
export OPENAI_API_KEY=你的OpenAI API密钥 
# 可选:使用兼容OpenAI的API基础URL 
# export OPENAI_BASE_URL=https://api.myopenai.com/v1 
python -m openui

使用Groq模型

若要使用超快的Groq模型,
请设置环境变量GROQ_API_KEY为你的Groq API密钥,
可在Groq控制台获取。
在侧边栏的设置图标中选择Groq模型。
此外,可以通过设置GROQ_BASE_URL来改变Groq的基础URL,
例如:

export GROQ_BASE_URL=https://api.groq.com/openai/v1

Docker Compose

注意,这种方式可能较慢。如使用GPU,需调整ollama容器标签以支持。
Mac用户建议直接在本地运行Ollama以利用M1/M2芯片
从项目根目录启动:

docker-compose up -d docker exec -it openui-ollama-1
ollama pull llava

访问http://localhost:7878使用OpenUI。
代码变动后需执行更新服务

docker-compose build

Docker

/backend目录下手动构建和运行Docker镜像:

docker build . -t wandb/openui --load
docker run -p 7878:7878 -e OPENAI_API_KEY -e GROQ_API_KEY wandb/openui

然后访问http://localhost:7878

二次开发指南

项目中配置了开发容器,便于快速上手。

配置OPENAI_API_KEY密钥
或设为xxx以尝试Ollama模型(至少需要16GB内存)。

在前后端分离的场景下,

一个在终端进入后台目录然后运行:

cd /workspaces/openui/backend
python -m openui --dev

另一终端进入前端目录启动开发服务器:

cd /workspaces/openui/frontend
npm run dev

访问新开的5173端口,前后端的变动都会自动刷新并在浏览器中显示。

Ollama

Codespace会自动安装Ollama并下载llava模型。 通过ollama list验证Ollama运行状态,
如有问题则新开终端运行ollama serve
通过设置图标选择Ollama模型。

Gitpod

通过Gitpod轻松使用OpenUI,预先配置了OpenAI支持。

Gitpod中打开

启动后,OpenUI会自动安装并运行。
在使用Gitpod前,确保拥有Gitpod账户
并在用户账户设置中 为wandb/openui(或你的fork仓库)
配置OPENAI_API_KEY环境变量。

资源

更多信息见前端后端目录下的自述文件。