likes
comments
collection
share

OpenUI让你用想象力来描述UI,然后实时查看渲染结果构建UI组件可能是一项繁琐的任务。OpenUI旨在使这个过程变得

作者站长头像
站长
· 阅读数 28

项目地址

点击快速跳转至项目地址

声明: 该文章是对Github优秀项目推荐介绍,如有侵权请联系作者删除

OpenUI项目介绍

构建UI组件可能是一项繁琐的任务。OpenUI旨在使这个过程变得有趣、快速且灵活。我们在W&B使用这个工具来测试和原型化我们的下一代工具,以在LLM之上构建强大的应用程序。

概览

OpenUI让你用想象力来描述UI,然后实时查看渲染结果构建UI组件可能是一项繁琐的任务。OpenUI旨在使这个过程变得 演示

OpenUI让你用想象力来描述UI,然后实时查看渲染结果。你可以请求更改,并将HTML转换为React、Svelte、Web Components等。它像v0,但开源且不那么精致 😝。

在线演示

试试演示

本地运行

你也可以在本地运行OpenUI,并使用Ollama提供的模型。安装Ollama并拉取一个模型,如CodeLlama,然后假设你已经安装了git和python:

git clone https://github.com/wandb/openui
cd openui/backend
# 你可能希望在虚拟环境中执行此操作
pip install .
# 这必须设置为使用OpenAI模型,在此处查找你的API密钥:https://platform.openai.com/api-keys
export OPENAI_API_KEY=xxx
# 你可以通过设置OPENAI_BASE_URL环境变量来更改用于OpenAI兼容API的基本URL
# export OPENAI_BASE_URL=https://api.myopenai.com/v1
python -m openui

Groq

要使用超快速的Groq模型,请将GROQ_API_KEY设置为你的Groq API密钥,你可以在这里找到

你也可以更改用于Groq的默认基本URL(如有必要),例如

export GROQ_BASE_URL=https://api.groq.com/openai/v1

Docker Compose

免责声明:这可能会非常慢。如果你有GPU,你可能需要将ollama容器的标签更改为支持GPU的标签。如果你在Mac上运行,请按照上述说明本地运行Ollama以利用M1/M2。

在根目录下,你可以运行:

docker-compose up -d
docker exec -it openui-ollama-1 ollama pull llava

如果你已经在环境中设置了OPENAI_API_KEY,只需删除OPENAI_API_KEY行中的=xxx。你也可以在上面的命令中将llava替换为你选择的开源模型_(llava是目前支持图像的少数Ollama模型之一)_。现在你应该可以在http://localhost:7878访问OpenUI。

如果你对前端或后端进行了更改,你需要运行docker-compose build以在服务中反映这些更改。

Docker

你可以从/backend目录手动构建和运行docker文件:

docker build . -t wandb/openui --load
docker run -p 7878:7878 -e OPENAI_API_KEY -e GROQ_API_KEY wandb/openui

现在你可以访问http://localhost:7878

开发

这个存储库中配置了一个开发容器,这是最快的入门方式。

Codespace

OpenUI让你用想象力来描述UI,然后实时查看渲染结果构建UI组件可能是一项繁琐的任务。OpenUI旨在使这个过程变得 新的选项...

创建Codespace时选择更多选项,然后选择新的选项... 。如果你想要非常快的启动时间,请选择美国西部地区。你还需要配置你的OPENAI_API_KEY密钥,或者如果你想尝试Ollama,可以将其设置为xxx (你至少需要16GB的内存)

进入Codespace后,你可以在一个终端中运行服务器:python -m openui --dev。然后在一个新终端中运行:

cd /workspaces/openui/frontend
npm run dev

这应该会在端口5173打开另一个服务,这是你要访问的服务。对前端和后端的所有更改都会自动重新加载并在浏览器中反映。

Ollama

该Codespace会自动安装ollama并下载llava模型。你可以使用ollama list验证Ollama是否正在运行,如果失败,打开一个新终端并运行ollama serve。在Codespaces中,我们在启动时拉取llava,因此你应该在列表中看到它。你可以从应用程序左上角的设置齿轮图标中选择Ollama模型。你拉取的任何模型,例如ollama pull llama,都会显示在设置模态中。

OpenUI让你用想象力来描述UI,然后实时查看渲染结果构建UI组件可能是一项繁琐的任务。OpenUI旨在使这个过程变得

选择Ollama模型

资源

请参阅前端后端目录中的readme文件。

转载自:https://juejin.cn/post/7369903163804532751
评论
请登录