[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wandb--openui":3,"tool-wandb--openui":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":32,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":122,"github_topics":123,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":165},6764,"wandb\u002Fopenui","openui","OpenUI let's you describe UI using your imagination, then see it rendered live.","OpenUI 是一款开源的界面生成工具，旨在让开发者通过自然语言描述创意，即可实时预览并渲染出对应的用户界面。它主要解决了传统 UI 组件开发过程繁琐、耗时的问题，将原本枯燥的编码工作转变为快速、灵活且充满乐趣的原型设计体验。\n\n这款工具特别适合前端开发者、全栈工程师以及希望快速验证想法的产品设计师使用。无论是需要从零构建页面，还是将现有的 HTML 代码转换为 React、Svelte 或 Web Components 等现代框架代码，OpenUI 都能提供即时反馈，支持用户通过对话不断调整细节。\n\n其核心技术亮点在于高度的模型兼容性与本地化部署能力。基于 LiteLLM 架构，OpenUI 不仅支持 OpenAI、Groq、Anthropic 等主流云端大模型，还能无缝对接 Ollama 运行的本地模型，充分保障数据隐私与定制化需求。作为由 W&B 团队用于测试下一代 LLM 应用开发流程的内部工具，OpenUI 虽不如商业产品那般精致，但凭借完全开源的特性，为社区提供了一个透明、可扩展的 AI 辅助编程实验平台，帮助用户轻松跨越从想象到实物的鸿沟。","# OpenUI\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_6e102092d374.png\" width=\"150\" alt=\"OpenUI\" \u002F>\n\u003C\u002Fp>\n\nBuilding UI components can be a slog.  OpenUI aims to make the process fun, fast, and flexible.  It's also a tool we're using at [W&B](https:\u002F\u002Fwandb.com) to test and prototype our next generation tooling for building powerful applications on top of LLM's.\n\n## Overview\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_14b69660a414.gif)\n\nOpenUI let's you describe UI using your imagination, then see it rendered live.  You can ask for changes and convert HTML to React, Svelte, Web Components, etc.  It's like [v0](https:\u002F\u002Fv0.dev) but open source and not as polished :stuck_out_tongue_closed_eyes:.\n\n## Live Demo\n\n[Try the demo](https:\u002F\u002Fopenui.fly.dev)\n\n## Running Locally\n\nOpenUI supports [OpenAI](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys), [Groq](https:\u002F\u002Fconsole.groq.com\u002Fkeys), and any model [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F) supports such as [Gemini](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey) or [Anthropic (Claude)](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fkeys).  The following environment variables are optional, but need to be set in your environment for alternative models to work:\n\n- **OpenAI** `OPENAI_API_KEY`\n- **Groq** `GROQ_API_KEY`\n- **Gemini** `GEMINI_API_KEY`\n- **Anthropic** `ANTHROPIC_API_KEY`\n- **Cohere** `COHERE_API_KEY`\n- **Mistral** `MISTRAL_API_KEY`\n- **OpenAI Compatible** `OPENAI_COMPATIBLE_ENDPOINT` and `OPENAI_COMPATIBLE_API_KEY`\n\nFor example, if you're running a tool like [localai](https:\u002F\u002Flocalai.io\u002F) you can set `OPENAI_COMPATIBLE_ENDPOINT` and optionally `OPENAI_COMPATIBLE_API_KEY` to have the models available listed in the UI's model selector under LiteLLM.\n\n### Ollama\n\nYou can also use models available to [Ollama](https:\u002F\u002Follama.com).  [Install Ollama](https:\u002F\u002Follama.com\u002Fdownload) and pull a model like [Llava](https:\u002F\u002Follama.com\u002Flibrary\u002Fllava).  If Ollama is not running on http:\u002F\u002F127.0.0.1:11434, you can set the `OLLAMA_HOST` environment variable to the host and port of your Ollama instance.  For example when running in docker you'll need to point to http:\u002F\u002Fhost.docker.internal:11434 as shown below.\n\n### Docker (preferred)\n\nThe following command would forward the specified API keys from your shell environment and tell Docker to use the Ollama instance running on your machine.\n\n```bash\nexport ANTHROPIC_API_KEY=xxx\nexport OPENAI_API_KEY=xxx\ndocker run --rm --name openui -p 7878:7878 -e OPENAI_API_KEY -e ANTHROPIC_API_KEY -e OLLAMA_HOST=http:\u002F\u002Fhost.docker.internal:11434 ghcr.io\u002Fwandb\u002Fopenui\n```\n\nNow you can goto [http:\u002F\u002Flocalhost:7878](http:\u002F\u002Flocalhost:7878) and generate new UI's!\n\n### From Source \u002F Python\n\nAssuming you have git and [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) installed:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\ncd openui\u002Fbackend\nuv sync --frozen --extra litellm\nsource .venv\u002Fbin\u002Factivate\n# Set API keys for any LLM's you want to use\nexport OPENAI_API_KEY=xxx\npython -m openui\n```\n\n## LiteLLM\n\n[LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F) can be used to connect to basically any LLM service available.  We generate a config automatically based on your environment variables.  You can create your own [proxy config](https:\u002F\u002Flitellm.vercel.app\u002Fdocs\u002Fproxy\u002Fconfigs) to override this behavior.  We look for a custom config in the following locations:\n\n1. `litellm-config.yaml` in the current directory\n2. `\u002Fapp\u002Flitellm-config.yaml` when running in a docker container\n3. An arbitrary path specified by the `OPENUI_LITELLM_CONFIG` environment variable\n\nFor example to use a custom config in docker you can run:\n\n```bash\ndocker run -n openui -p 7878:7878 -v $(pwd)\u002Flitellm-config.yaml:\u002Fapp\u002Flitellm-config.yaml ghcr.io\u002Fwandb\u002Fopenui\n```\n\nTo use litellm from source you can run:\n\n```bash\npip install .[litellm]\nexport ANTHROPIC_API_KEY=xxx\nexport OPENAI_COMPATIBLE_ENDPOINT=http:\u002F\u002Flocalhost:8080\u002Fv1\npython -m openui --litellm\n```\n\n## Groq\n\nTo use the super fast [Groq](https:\u002F\u002Fgroq.com) models, set `GROQ_API_KEY` to your Groq api key which you can [find here](https:\u002F\u002Fconsole.groq.com\u002Fkeys).  To use one of the Groq models, click the settings icon in the nav bar.\n\n### Docker Compose\n\n> **DISCLAIMER:** This is likely going to be very slow.  If you have a GPU you may need to change the tag of the `ollama` container to one that supports it.  If you're running on a Mac, follow the instructions above and run Ollama natively to take advantage of the M1\u002FM2.\n\nFrom the root directory you can run:\n\n```bash\ndocker-compose up -d\ndocker exec -it openui-ollama-1 ollama pull llava\n```\n\nIf you have your OPENAI_API_KEY set in the environment already, just remove `=xxx` from the `OPENAI_API_KEY` line. You can also replace `llava` in the command above with your open source model of choice *([llava](https:\u002F\u002Follama.com\u002Flibrary\u002Fllava) is one of the only Ollama models that support images currently)*.  You should now be able to access OpenUI at [http:\u002F\u002Flocalhost:7878](http:\u002F\u002Flocalhost:7878).\n\n*If you make changes to the frontend or backend, you'll need to run `docker-compose build` to have them reflected in the service.*\n\n## Development\n\nA [dev container](https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fblob\u002Fmain\u002F.devcontainer\u002Fdevcontainer.json) is configured in this repository which is the quickest way to get started.\n\n### Codespace\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_600ce178e784.png\" alt=\"New with options...\" width=\"500\" \u002F>\n\nChoose more options when creating a Codespace, then select **New with options...**.  Select the US West region if you want a really fast boot time.  You'll also want to configure your OPENAI_API_KEY secret or just set it to `xxx` if you want to try Ollama *(you'll want at least 16GB of Ram)*.\n\nOnce inside the code space you can run the server in one terminal: `python -m openui --dev`.  Then in a new terminal:\n\n```bash\ncd \u002Fworkspaces\u002Fopenui\u002Ffrontend\nnpm run dev\n```\n\nThis should open another service on port 5173, that's the service you'll want to visit.  All changes to both the frontend and backend will automatically be reloaded and reflected in your browser.\n\n### Ollama\n\nThe codespace installs ollama automaticaly and downloads the `llava` model.  You can verify Ollama is running with `ollama list` if that fails, open a new terminal and run `ollama serve`.  In Codespaces we pull llava on boot so you should see it in the list.  You can select Ollama models from the settings gear icon in the upper left corner of the application.  Any models you pull i.e. `ollama pull llama` will show up in the settings modal.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_665752dfb748.png\" width=\"500\" alt=\"Select Ollama models\" \u002F>\n\n### Gitpod\n\nYou can easily use Open UI via Gitpod, preconfigured with Open AI.\n\n[![Open in Gitpod](https:\u002F\u002Fgitpod.io\u002Fbutton\u002Fopen-in-gitpod.svg)](https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui)\n\nOn launch Open UI is automatically installed and launched.\n\nBefore you can use Gitpod:\n\n* Make sure you have a Gitpod account.\n* To use Open AI models set up the `OPENAI_API_KEY` environment variable in your Gitpod [User Account](https:\u002F\u002Fgitpod.io\u002Fuser\u002Fvariables). Set the scope to `wandb\u002Fopenui` (or your repo if you forked it).\n\n> NOTE: Other (local) models might also be used with a bigger Gitpod instance type. Required models are not preconfigured in Gitpod but can easily be added as documented above.\n\n### Resources\n\nSee the readmes in the [frontend](.\u002Ffrontend\u002FREADME.md) and [backend](.\u002Fbackend\u002FREADME.md) directories.\n","# OpenUI\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_6e102092d374.png\" width=\"150\" alt=\"OpenUI\" \u002F>\n\u003C\u002Fp>\n\n构建 UI 组件可能是一件枯燥乏味的事情。OpenUI 的目标是让这一过程变得有趣、快速且灵活。同时，这也是我们在 [W&B](https:\u002F\u002Fwandb.com) 使用的工具，用于测试和原型设计我们下一代基于大语言模型的强大应用开发工具。\n\n## 概述\n\n![演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_14b69660a414.gif)\n\nOpenUI 允许你用想象力来描述 UI，然后实时查看其渲染效果。你可以提出修改请求，并将 HTML 转换为 React、Svelte、Web Components 等格式。它有点像 [v0](https:\u002F\u002Fv0.dev)，但它是开源的，而且没有那么完善 :stuck_out_tongue_closed_eyes:。\n\n## 实时演示\n\n[尝试演示](https:\u002F\u002Fopenui.fly.dev)\n\n## 本地运行\n\nOpenUI 支持 [OpenAI](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys)、[Groq](https:\u002F\u002Fconsole.groq.com\u002Fkeys) 以及任何 [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F) 所支持的模型，例如 [Gemini](https:\u002F\u002Faistudio.google.com\u002Fapp\u002Fapikey) 或 [Anthropic (Claude)](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fkeys)。以下环境变量是可选的，但如果要使用其他模型，则需要在你的环境中设置：\n\n- **OpenAI** `OPENAI_API_KEY`\n- **Groq** `GROQ_API_KEY`\n- **Gemini** `GEMINI_API_KEY`\n- **Anthropic** `ANTHROPIC_API_KEY`\n- **Cohere** `COHERE_API_KEY`\n- **Mistral** `MISTRAL_API_KEY`\n- **OpenAI 兼容** `OPENAI_COMPATIBLE_ENDPOINT` 和 `OPENAI_COMPATIBLE_API_KEY`\n\n例如，如果你正在运行类似 [localai](https:\u002F\u002Flocalai.io\u002F) 的工具，可以设置 `OPENAI_COMPATIBLE_ENDPOINT`，并可选地设置 `OPENAI_COMPATIBLE_API_KEY`，这样这些模型就会出现在 UI 的模型选择器中，作为 LiteLLM 支持的选项。\n\n### Ollama\n\n你也可以使用 [Ollama](https:\u002F\u002Follama.com) 提供的模型。[安装 Ollama](https:\u002F\u002Follama.com\u002Fdownload) 并拉取一个模型，比如 [Llava](https:\u002F\u002Follama.com\u002Flibrary\u002Fllava)。如果 Ollama 没有在 http:\u002F\u002F127.0.0.1:11434 上运行，你可以设置 `OLLAMA_HOST` 环境变量，指向你的 Ollama 实例的主机和端口。例如，在 Docker 中运行时，你需要将其指向 http:\u002F\u002Fhost.docker.internal:11434，如下所示。\n\n### Docker（推荐）\n\n以下命令会从你的 Shell 环境中转发指定的 API 密钥，并告诉 Docker 使用你机器上运行的 Ollama 实例。\n\n```bash\nexport ANTHROPIC_API_KEY=xxx\nexport OPENAI_API_KEY=xxx\ndocker run --rm --name openui -p 7878:7878 -e OPENAI_API_KEY -e ANTHROPIC_API_KEY -e OLLAMA_HOST=http:\u002F\u002Fhost.docker.internal:11434 ghcr.io\u002Fwandb\u002Fopenui\n```\n\n现在你可以访问 [http:\u002F\u002Flocalhost:7878](http:\u002F\u002Flocalhost:7878)，生成新的 UI！\n\n### 从源码 \u002F Python\n\n假设你已经安装了 git 和 [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv)：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\ncd openui\u002Fbackend\nuv sync --frozen --extra litellm\nsource .venv\u002Fbin\u002Factivate\n# 设置你想要使用的任何 LLM 的 API 密钥\nexport OPENAI_API_KEY=xxx\npython -m openui\n```\n\n## LiteLLM\n\n[LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002F) 可以用来连接几乎任何可用的 LLM 服务。我们会根据你的环境变量自动生成配置文件。你也可以创建自己的 [代理配置](https:\u002F\u002Flitellm.vercel.app\u002Fdocs\u002Fproxy\u002Fconfigs)，以覆盖此行为。我们会按以下顺序查找自定义配置：\n\n1. 当前目录下的 `litellm-config.yaml`\n2. 在 Docker 容器中运行时的 `\u002Fapp\u002Flitellm-config.yaml`\n3. 由 `OPENUI_LITELLM_CONFIG` 环境变量指定的任意路径\n\n例如，要在 Docker 中使用自定义配置，可以运行：\n\n```bash\ndocker run -n openui -p 7878:7878 -v $(pwd)\u002Flitellm-config.yaml:\u002Fapp\u002Flitellm-config.yaml ghcr.io\u002Fwandb\u002Fopenui\n```\n\n如果你想从源码使用 LiteLLM，可以运行：\n\n```bash\npip install .[litellm]\nexport ANTHROPIC_API_KEY=xxx\nexport OPENAI_COMPATIBLE_ENDPOINT=http:\u002F\u002Flocalhost:8080\u002Fv1\npython -m openui --litellm\n```\n\n## Groq\n\n要使用超快速的 [Groq](https:\u002F\u002Fgroq.com) 模型，请将 `GROQ_API_KEY` 设置为你在 [这里](https:\u002F\u002Fconsole.groq.com\u002Fkeys) 找到的 Groq API 密钥。要使用 Groq 的模型，点击导航栏中的设置图标。\n\n### Docker Compose\n\n> **免责声明：** 这种方式可能会非常慢。如果你有 GPU，可能需要将 `ollama` 容器的标签更改为支持 GPU 的版本。如果你使用的是 Mac，请按照上述说明原生运行 Ollama，以充分利用 M1\u002FM2 芯片的优势。\n\n在根目录下，你可以运行：\n\n```bash\ndocker-compose up -d\ndocker exec -it openui-ollama-1 ollama pull llava\n```\n\n如果你已经在环境中设置了 `OPENAI_API_KEY`，只需去掉 `=xxx` 即可。你也可以将上面命令中的 `llava` 替换为你喜欢的开源模型 *([llava](https:\u002F\u002Follama.com\u002Flibrary\u002Fllava) 是目前唯一支持图像的 Ollama 模型之一)*。现在你应该能够通过 [http:\u002F\u002Flocalhost:7878](http:\u002F\u002Flocalhost:7878) 访问 OpenUI。\n\n*如果你对前端或后端进行了更改，需要运行 `docker-compose build`，才能使这些更改反映到服务中。*\n\n## 开发\n\n该仓库配置了一个 [开发容器](https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fblob\u002Fmain\u002F.devcontainer\u002Fdevcontainer.json)，这是开始工作的最快方式。\n\n### Codespace\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_600ce178e784.png\" alt=\"New with options...\" width=\"500\" \u002F>\n\n创建 Codespace 时，选择更多选项，然后选择 **New with options...**。如果你想获得非常快的启动时间，可以选择美国西部区域。你还需要配置 `OPENAI_API_KEY` 秘密，或者直接将其设置为 `xxx`，以便尝试 Ollama *(至少需要 16GB 内存)*。\n\n进入代码空间后，你可以在一个终端中运行服务器：`python -m openui --dev`。然后在另一个终端中：\n\n```bash\ncd \u002Fworkspaces\u002Fopenui\u002Ffrontend\nnpm run dev\n```\n\n这应该会打开另一个运行在端口 5173 的服务，那就是你想要访问的服务。对前端和后端的所有更改都会自动重新加载，并反映在你的浏览器中。\n\n### Ollama\n\nCodespace 会自动安装 Ollama，并下载 `llava` 模型。你可以通过运行 `ollama list` 来验证 Ollama 是否正在运行；如果失败，可以打开一个新的终端并运行 `ollama serve`。在 Codespaces 中，我们会在启动时拉取 llava，因此你应该能在列表中看到它。你可以从应用程序左上角的设置齿轮图标中选择 Ollama 模型。你通过 `ollama pull llama` 等命令拉取的任何模型都会显示在设置模态框中。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_readme_665752dfb748.png\" width=\"500\" alt=\"选择 Ollama 模型\" \u002F>\n\n### Gitpod\n\n您可以通过 Gitpod 轻松使用 Open UI，它已预先配置好 OpenAI。\n\n[![在 Gitpod 中打开](https:\u002F\u002Fgitpod.io\u002Fbutton\u002Fopen-in-gitpod.svg)](https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui)\n\n启动时，Open UI 会自动安装并运行。\n\n在使用 Gitpod 之前：\n\n* 请确保您已拥有 Gitpod 账户。\n* 若要使用 OpenAI 模型，请在您的 Gitpod [用户账户](https:\u002F\u002Fgitpod.io\u002Fuser\u002Fvariables)中设置 `OPENAI_API_KEY` 环境变量，并将作用域设置为 `wandb\u002Fopenui`（如果您是 fork 的仓库，则设置为您自己的仓库）。\n\n> 注意：在更高规格的 Gitpod 实例上，也可以使用其他（本地）模型。Gitpod 并未预配置所需的模型，但可以根据上述说明轻松添加。\n\n### 资源\n\n请参阅 [frontend](.\u002Ffrontend\u002FREADME.md) 和 [backend](.\u002Fbackend\u002FREADME.md) 目录中的 README 文件。","# OpenUI 快速上手指南\n\nOpenUI 是一款开源工具，允许你通过自然语言描述来构建 UI 组件，并实时预览渲染效果。它支持将生成的 HTML 转换为 React、Svelte、Web Components 等代码，是原型设计和测试 LLM 应用界面的利器。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (需安装 Docker Desktop 或 WSL2)。\n*   **前置依赖**（任选其一）：\n    *   **Docker** (推荐)：已安装并运行 Docker Engine。\n    *   **Python 环境**：安装 Python 3.8+ 及 [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) 包管理工具。\n    *   **Git**：用于克隆源代码。\n*   **API 密钥**：\n    你需要至少一个大模型服务的 API Key。OpenUI 支持多种模型提供商，请在环境变量中配置对应的 Key：\n    *   **OpenAI**: `OPENAI_API_KEY`\n    *   **Groq** (超快推理): `GROQ_API_KEY`\n    *   **Anthropic (Claude)**: `ANTHROPIC_API_KEY`\n    *   **Google Gemini**: `GEMINI_API_KEY`\n    *   **本地模型 (Ollama)**: 需安装 [Ollama](https:\u002F\u002Follama.com) 并拉取模型（如 `llava`）。若 Ollama 不在默认端口运行，需设置 `OLLAMA_HOST`。\n    *   **兼容 OpenAI 接口**: `OPENAI_COMPATIBLE_ENDPOINT` 和 `OPENAI_COMPATIBLE_API_KEY`。\n\n## 安装步骤\n\n你可以选择使用 Docker（最简单）或从源码运行。\n\n### 方式一：使用 Docker（推荐）\n\n此方法会自动处理依赖，并支持直接透传宿主机的 API Key 和本地 Ollama 服务。\n\n1.  在终端中导出你的 API Key（以 OpenAI 和 Anthropic 为例，若使用其他模型请替换对应变量）：\n    ```bash\n    export ANTHROPIC_API_KEY=xxx\n    export OPENAI_API_KEY=xxx\n    ```\n\n2.  运行 Docker 容器。如果你需要使用本地运行的 Ollama，请加上 `OLLAMA_HOST` 参数：\n    ```bash\n    docker run --rm --name openui -p 7878:7878 -e OPENAI_API_KEY -e ANTHROPIC_API_KEY -e OLLAMA_HOST=http:\u002F\u002Fhost.docker.internal:11434 ghcr.io\u002Fwandb\u002Fopenui\n    ```\n    *注：若不使用本地 Ollama，可移除 `-e OLLAMA_HOST...` 部分。*\n\n### 方式二：从源码运行 (Python)\n\n适合需要二次开发或使用特定 LiteLLM 配置的用户。\n\n1.  克隆仓库并进入后端目录：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\n    cd openui\u002Fbackend\n    ```\n\n2.  使用 `uv` 同步依赖并激活虚拟环境：\n    ```bash\n    uv sync --frozen --extra litellm\n    source .venv\u002Fbin\u002Factivate\n    ```\n    *(Windows PowerShell 用户使用 `.venv\\Scripts\\Activate.ps1`)*\n\n3.  设置所需的 API Key：\n    ```bash\n    export OPENAI_API_KEY=xxx\n    ```\n\n4.  启动服务：\n    ```bash\n    python -m openui\n    ```\n\n## 基本使用\n\n安装完成后，即可开始构建你的 UI。\n\n1.  **访问界面**：\n    打开浏览器访问 [http:\u002F\u002Flocalhost:7878](http:\u002F\u002Flocalhost:7878)。\n\n2.  **配置模型**：\n    *   点击导航栏右上角的 **设置图标 (齿轮)**。\n    *   在模型选择器中，选择你已配置好 API Key 的模型（如 OpenAI, Groq, 或本地 Ollama 模型）。\n    *   若使用本地 Ollama，确保已在终端运行 `ollama pull llava` (或其他支持的模型)，它们会自动出现在列表中。\n\n3.  **生成 UI**：\n    *   在输入框中用自然语言描述你想要的界面。\n        *   *示例*：\"创建一个带有深色模式的登录表单，包含邮箱、密码输入框和一个蓝色的提交按钮。\"\n    *   按下回车，OpenUI 将实时生成并渲染 UI 组件。\n\n4.  **迭代与转换**：\n    *   **修改**：继续输入指令进行微调，例如\"把按钮变成圆角\"或\"添加一个忘记密码链接\"。\n    *   **转换框架**：你可以要求将当前生成的 HTML 转换为特定框架代码，例如\"Convert this to React\"或\"Turn this into Svelte\"。\n\n5.  **本地开发模式（可选）**：\n    如果你修改了前端或后端代码并希望热重载，可以使用开发模式：\n    *   后端终端：`python -m openui --dev`\n    *   前端终端：\n        ```bash\n        cd frontend\n        npm run dev\n        ```\n    *   访问前端服务地址（通常为 http:\u002F\u002Flocalhost:5173）。","某初创团队的前端开发者需要在半天内为新的数据看板项目快速构建出多个高保真原型界面，以应对下午的产品评审会议。\n\n### 没有 openui 时\n- 开发者必须手动编写大量重复的 HTML 和 CSS 代码来搭建基础布局，耗时且容易出错。\n- 当产品经理提出“把侧边栏改成深色模式”或“调整图表间距”等修改意见时，需要反复查找并修改代码行。\n- 若技术栈需要从纯 HTML 迁移到 React 或 Svelte 组件，必须人工重写整个文件结构，效率极低。\n- 在等待编译刷新和浏览器预览的过程中，创意灵感往往因为反馈延迟而中断，难以实现“所想即所得”。\n\n### 使用 openui 后\n- 开发者只需用自然语言描述“一个带有实时折线图的深色数据看板”，openui 即可即时渲染出可交互的界面。\n- 直接对话 openui 要求“将侧边栏改为深色并增加图表间距”，工具能自动理解意图并实时更新代码与视图。\n- 通过简单的指令，openui 能瞬间将当前生成的 HTML 代码转换为标准的 React 或 Svelte 组件代码，无需人工重构。\n- 借助实时渲染特性，开发者可以一边构思一边看到效果，大幅缩短了从创意到原型的验证周期。\n\nopenui 的核心价值在于将繁琐的 UI 编码过程转化为流畅的自然语言对话，让开发者能专注于创意逻辑而非语法细节。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwandb_openui_14b69660.gif","wandb","Weights & Biases","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwandb_da272741.png","Building the best tools for ML practitioners",null,"https:\u002F\u002Fwandb.ai","https:\u002F\u002Fgithub.com\u002Fwandb",[80,84,88,92,96,99,103],{"name":81,"color":82,"percentage":83},"TypeScript","#3178c6",47.9,{"name":85,"color":86,"percentage":87},"HTML","#e34c26",31.4,{"name":89,"color":90,"percentage":91},"Python","#3572A5",19.1,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",0.6,{"name":97,"color":98,"percentage":95},"CSS","#663399",{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.2,{"name":104,"color":105,"percentage":106},"Dockerfile","#384d54",0.1,22233,2058,"2026-04-11T17:31:58","Apache-2.0","Linux, macOS, Windows","非必需。若使用本地 Ollama 模型且拥有 GPU，需配置支持 GPU 的 Docker 镜像；Mac M1\u002FM2 可利用原生加速。","最低未说明，使用 Ollama 本地模型推荐 16GB+",{"notes":115,"python":116,"dependencies":117},"该工具主要通过 API 调用大模型（支持 OpenAI, Groq, Anthropic, Gemini 等）或连接本地 Ollama 服务运行，自身不捆绑大型模型文件。支持 Docker 部署（推荐）或源码运行。若使用 Codespace 运行本地 Ollama 模型，建议分配至少 16GB 内存。前端开发需 Node.js 环境。","未说明 (需安装 uv 工具链)",[118,119,120,121],"uv","litellm","ollama (可选)","node\u002Fnpm (前端开发)",[14,13,15],[124,125,126,127],"ai","generative-ai","html-css-javascript","tailwindcss","2026-03-27T02:49:30.150509","2026-04-12T09:06:37.978320",[131,136,141,146,151,156,161],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},30508,"更新版本后无法选择 Ollama 本地模型或 Groq 模型怎么办？","这通常是由于主分支的临时错误导致的。维护者已修复该问题。请拉取最新的 master 分支代码，并在后端目录执行以下命令重新安装以获取修复版本：\n```bash\npip uninstall openui\npip install .\n```\n如果是容器模式运行，请使用 `docker-compose up -d --build` 重启容器。","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F116",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},30509,"运行时出现 'ModuleNotFoundError: No module named PIL' 错误如何解决？","这是因为 Pillow 和 playwright 不再默认安装。如果您不需要进行评估功能，可以通过安装可选依赖来解决。在后端目录运行：\n```bash\npip install .[eval]\n```\n或者手动安装缺失的库：\n```bash\npython -m pip install Pillow playwright\n```","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F110",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},30510,"如何在 Docker 或虚拟机中连接宿主机上运行的 Ollama？","由于 Docker 或虚拟机内的 localhost 与宿主机不同，需要设置环境变量指向宿主机的 Ollama 服务。请设置：\n```bash\nOLLAMA_HOST=http:\u002F\u002Fhost.docker.internal:11434\n```\n注意：如果在 Linux 宿主机上直接运行 Docker 可能不需要此设置，但在 macOS、Windows 或 VM 中通常需要。另外，如果设置了 OPENAI_API_KEY 可能会导致无法选择本地模型，尝试移除该环境变量。","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F87",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},30511,"在 Docker 中运行后浏览器显示空白或无响应怎么办？","请检查是否错误地设置了 `OPENUI_ENVIRONMENT=production` 环境变量。启动容器时不应设置该变量，将其移除通常能解决 UI 不渲染的问题。此外，关于无法列出 Ollama 模型的报错通常可以忽略，不影响核心功能。","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F16",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},30512,"如何使用 Docker Compose 部署 OpenUI 并集成 Ollama？","维护者已在主分支中完善了 Docker Compose 支持。请参考项目 README 中的 \"Docker Compose\" 章节获取官方推荐的配置文件和部署步骤。确保使用最新的主分支代码以获得包含 Ollama 集成的完整配置。","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F35",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},30513,"在 Nginx 反向代理下配置 Basic Auth 失效，提示 401 未授权怎么办？","这是因为 OpenUI 前端在请求时会发送 `Authorization: Bearer sk-fake` 头，覆盖了浏览器生成的 Basic Auth 头。该问题已在最新版本中重建修复。请确保您拉取了最新的代码并重新构建前端，或者等待维护者发布的包含此修复的新版本镜像。","https:\u002F\u002Fgithub.com\u002Fwandb\u002Fopenui\u002Fissues\u002F140",{"id":162,"question_zh":163,"answer_zh":164,"source_url":140},30514,"Windows 用户如何设置环境变量（如 OPENAI_API_KEY）？","虽然具体命令未在评论中详细展开，但通常可以在 PowerShell 中使用 `$env:OPENAI_API_KEY='your_key'` 临时设置，或在系统属性中永久设置。对于临时运行测试，也可以在运行命令前直接指定，例如：`OPENAI_API_KEY='' python -m openui` (macOS\u002FLinux) 或在 Windows PowerShell 中分步设置后运行。如果遇到缺少模块错误，优先尝试安装依赖 `pip install .[eval]`。",[]]