[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nat--openplayground":3,"tool-nat--openplayground":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":75,"owner_website":75,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":116,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":155},9635,"nat\u002Fopenplayground","openplayground","An LLM playground you can run on your laptop","openplayground 是一款专为本地运行设计的大型语言模型（LLM）实验平台，让你无需依赖云端服务，直接在笔记本电脑上即可轻松体验和测试各类 AI 模型。它有效解决了开发者在对比不同模型表现、调试参数时往往需要切换多个网页或配置复杂环境的痛点。\n\n无论是 AI 研究人员、应用开发者，还是对大模型技术充满好奇的普通用户，都能通过 openplayground 获得友好的交互体验。其核心亮点在于强大的兼容性与灵活性：不仅支持 OpenAI、Anthropic、Cohere 等主流云端 API，还能直接调用本地 HuggingFace 缓存中的模型以及 llama.cpp 推理引擎。用户可以在同一界面并排对比不同模型的输出效果，实时调整温度等参数，甚至查看历史记录与日志详情。此外，它还具备自动检测本地模型、响应式移动端适配等贴心功能。通过简单的 pip 安装或 Docker 部署，openplayground 让大模型的探索与开发变得像本地运行一个普通软件一样简单高效，是进行模型选型、原型验证及学习研究的理想助手。","# openplayground\n\nAn LLM playground you can run on your laptop.\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F111631\u002F227399583-39b23f48-9823-4571-a906-985dbe282b20.mp4\n\n#### Features\n\n- Use any model from [OpenAI](https:\u002F\u002Fopenai.com), [Anthropic](https:\u002F\u002Fanthropic.com), [Cohere](https:\u002F\u002Fcohere.com), [Forefront](https:\u002F\u002Fforefront.ai), [HuggingFace](https:\u002F\u002Fhuggingface.co), [Aleph Alpha](https:\u002F\u002Faleph-alpha.com), [Replicate](https:\u002F\u002Freplicate.com), [Banana](https:\u002F\u002Fbanana.dev) and [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp).\n- Full playground UI, including history, parameter tuning, keyboard shortcuts, and logprops.\n- Compare models side-by-side with the same prompt, individually tune model parameters, and retry with different parameters.\n- Automatically detects local models in your HuggingFace cache, and lets you install new ones.\n- Works OK on your phone.\n- Probably won't kill everyone.\n\n## Try on nat.dev\n\nTry the hosted version: [nat.dev](https:\u002F\u002Fnat.dev).\n\n## How to install and run\n\n```sh\npip install openplayground\nopenplayground run\n```\n\nAlternatively, run it as a docker container:\n```sh\ndocker run --name openplayground -p 5432:5432 -d --volume openplayground:\u002Fweb\u002Fconfig natorg\u002Fopenplayground\n```\n\nThis runs a Flask process, so you can add the typical flags such as setting a different port `openplayground run -p 1235` and others.\n\n## How to run for development\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\ncd app && npm install && npx parcel watch src\u002Findex.html --no-cache\ncd server && pip3 install -r requirements.txt && cd .. && python3 -m server.app\n```\n\n## Docker\n\n```sh\ndocker build . --tag \"openplayground\"\ndocker run --name openplayground -p 5432:5432 -d --volume openplayground:\u002Fweb\u002Fconfig openplayground\n```\n\nFirst volume is optional. It's used to store API keys, models settings.\n\n## Ideas for contributions\n\n- Add a token counter to the playground\n- Add a cost counter to the playground and the compare page\n- Measure and display time to first token\n- Setup automatic builds with GitHub Actions\n- The default parameters for each model are configured in the `server\u002Fmodels.json` file. If you find better default parameters for a model, please submit a pull request!\n- Someone can help us make a homebrew package, and a dockerfile\n- Easier way to install open source models directly from openplayground, with `openplayground install \u003Cmodel>` or in the UI.\n- Find and fix bugs\n- ChatGPT UI, with turn-by-turn, markdown rendering, chatgpt plugin support, etc.\n- We will probably need multimodal inputs and outputs at some point in 2023\n\n### llama.cpp\n\n## Adding models to openplayground\n\nModels and providers have three types in openplayground:\n\n- Searchable\n- Local inference\n- API\n\nYou can add models in `server\u002Fmodels.json` with the following schema:\n\n#### Local inference\n\nFor models running locally on your device you can add them to openplayground like the following (a minimal example):\n\n```json\n\"llama\": {\n    \"api_key\" : false,\n    \"models\" : {\n        \"llama-70b\": {\n            \"parameters\": {\n                \"temperature\": {\n                    \"value\": 0.5,\n                    \"range\": [\n                        0.1,\n                        1.0\n                    ]\n                },\n            }\n        }\n    }\n}\n```\n\nKeep in mind you will need to add a generation method for your model in `server\u002Fapp.py`. Take a look at `local_text_generation()` as an example.\n\n#### API Provider Inference\n\nThis is for model providers like OpenAI, cohere, forefront, and more. You can connect them easily into openplayground (a minimal example):\n\n```json\n\"cohere\": {\n    \"api_key\" : true,\n    \"models\" : {\n        \"xlarge\": {\n            \"parameters\": {\n                \"temperature\": {\n                    \"value\": 0.5,\n                    \"range\": [\n                        0.1,\n                        1.0\n                    ]\n                },\n            }\n        }\n    }\n}\n```\n\nKeep in mind you will need to add a generation method for your model in `server\u002Fapp.py`. Take a look at `openai_text_generation()` or `cohere_text_generation()` as an example.\n\n#### Searchable models\n\nWe use this for Huggingface Remote Inference models, the search endpoint is useful for scaling to N models in the settings page.\n\n```json\n\"provider_name\": {\n    \"api_key\": true,\n    \"search\": {\n        \"endpoint\": \"ENDPOINT_URL\"\n    },\n    \"parameters\": {\n        \"parameter\": {\n            \"value\": 1.0,\n            \"range\": [\n                0.1,\n                1.0\n            ]\n        },\n    }\n}\n```\n\n#### Credits\n\nInstigated by Nat Friedman. Initial implementation by [Zain Huda](https:\u002F\u002Fgithub.com\u002Fzainhuda) as a repl.it bounty. Many features and extensive refactoring by [Alex Lourenco](https:\u002F\u002Fgithub.com\u002FAlexanderLourenco).\n","# openplayground\n\n一个你可以在笔记本电脑上运行的大型语言模型 playground。\n\nhttps:\u002F\u002Fuser-images.githubusercontent.com\u002F111631\u002F227399583-39b23f48-9823-4571-a906-985dbe282b20.mp4\n\n#### 特性\n\n- 可以使用来自 [OpenAI](https:\u002F\u002Fopenai.com)、[Anthropic](https:\u002F\u002Fanthropic.com)、[Cohere](https:\u002F\u002Fcohere.com)、[Forefront](https:\u002F\u002Fforefront.ai)、[HuggingFace](https:\u002F\u002Fhuggingface.co)、[Aleph Alpha](https:\u002F\u002Faleph-alpha.com)、[Replicate](https:\u002F\u002Freplicate.com)、[Banana](https:\u002F\u002Fbanana.dev) 和 [llama.cpp](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fllama.cpp) 的任何模型。\n- 完整的 playground UI，包括历史记录、参数调优、快捷键和 logprops。\n- 使用相同的提示并排比较不同模型，单独调整模型参数，并尝试不同的参数设置。\n- 自动检测 HuggingFace 缓存中的本地模型，并允许你安装新模型。\n- 在手机上也能正常工作。\n- 大概率不会造成灾难性后果。\n\n## 在 nat.dev 上试用\n\n体验托管版本：[nat.dev](https:\u002F\u002Fnat.dev)。\n\n## 如何安装和运行\n\n```sh\npip install openplayground\nopenplayground run\n```\n\n或者，也可以通过 Docker 容器运行：\n```sh\ndocker run --name openplayground -p 5432:5432 -d --volume openplayground:\u002Fweb\u002Fconfig natorg\u002Fopenplayground\n```\n\n这会启动一个 Flask 进程，因此你可以添加常用的标志，例如设置不同的端口 `openplayground run -p 1235` 等。\n\n## 开发环境运行方式\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\ncd app && npm install && npx parcel watch src\u002Findex.html --no-cache\ncd server && pip3 install -r requirements.txt && cd .. && python3 -m server.app\n```\n\n## Docker 构建与运行\n\n```sh\ndocker build . --tag \"openplayground\"\ndocker run --name openplayground -p 5432:5432 -d --volume openplayground:\u002Fweb\u002Fconfig openplayground\n```\n\n第一个卷挂载是可选的，用于存储 API 密钥和模型设置。\n\n## 贡献建议\n\n- 在 playground 中添加 token 计数器。\n- 在 playground 和对比页面中添加成本计数器。\n- 测量并显示生成第一个 token 所需的时间。\n- 使用 GitHub Actions 设置自动构建流程。\n- 每个模型的默认参数配置在 `server\u002Fmodels.json` 文件中。如果你发现某个模型有更好的默认参数，请提交 pull request！\n- 有人可以帮助我们制作 homebrew 包和 Dockerfile。\n- 提供更简便的方式，直接从 openplayground 安装开源模型，例如使用 `openplayground install \u003Cmodel>` 命令或通过 UI。\n- 发现并修复 bug。\n- ChatGPT 风格的 UI，支持逐轮对话、Markdown 渲染以及 ChatGPT 插件等。\n- 我们可能在 2023 年某个时候需要多模态输入和输出功能。\n\n### llama.cpp\n\n## 向 openplayground 添加模型\n\n在 openplayground 中，模型和提供商分为三类：\n\n- 可搜索\n- 本地推理\n- API\n\n你可以在 `server\u002Fmodels.json` 文件中按照以下模式添加模型：\n\n#### 本地推理\n\n对于在你的设备上本地运行的模型，可以按如下方式添加到 openplayground（最小示例）：\n\n```json\n\"llama\": {\n    \"api_key\" : false,\n    \"models\" : {\n        \"llama-70b\": {\n            \"parameters\": {\n                \"temperature\": {\n                    \"value\": 0.5,\n                    \"range\": [\n                        0.1,\n                        1.0\n                    ]\n                },\n            }\n        }\n    }\n}\n```\n\n请注意，你需要在 `server\u002Fapp.py` 中为你的模型添加生成方法。可以参考 `local_text_generation()` 作为示例。\n\n#### API 提供商推理\n\n适用于 OpenAI、Cohere、Forefront 等模型提供商。你可以轻松地将它们连接到 openplayground（最小示例）：\n\n```json\n\"cohere\": {\n    \"api_key\" : true,\n    \"models\" : {\n        \"xlarge\": {\n            \"parameters\": {\n                \"temperature\": {\n                    \"value\": 0.5,\n                    \"range\": [\n                        0.1,\n                        1.0\n                    ]\n                },\n            }\n        }\n    }\n}\n```\n\n同样，你需要在 `server\u002Fapp.py` 中为你的模型添加生成方法。可以参考 `openai_text_generation()` 或 `cohere_text_generation()` 作为示例。\n\n#### 可搜索模型\n\n我们将其用于 HuggingFace 的远程推理模型，搜索端点有助于在设置页面中扩展到 N 个模型。\n\n```json\n\"provider_name\": {\n    \"api_key\": true,\n    \"search\": {\n        \"endpoint\": \"ENDPOINT_URL\"\n    },\n    \"parameters\": {\n        \"parameter\": {\n            \"value\": 1.0,\n            \"range\": [\n                0.1,\n                1.0\n            ]\n        },\n    }\n}\n```\n\n#### 致谢\n\n由 Nat Friedman 发起。最初由 [Zain Huda](https:\u002F\u002Fgithub.com\u002Fzainhuda) 作为 repl.it 的奖励项目实现。许多功能和大规模重构由 [Alex Lourenco](https:\u002F\u002Fgithub.com\u002FAlexanderLourenco) 完成。","# OpenPlayground 快速上手指南\n\nOpenPlayground 是一款可在本地运行的轻量级大语言模型（LLM）游乐场，支持对比测试来自 OpenAI、Anthropic、HuggingFace、llama.cpp 等多种提供商的模型。\n\n## 环境准备\n\n*   **操作系统**：Windows、macOS 或 Linux（支持在笔记本电脑甚至手机上运行）。\n*   **运行环境**：\n    *   Python 3.x（用于后端服务）\n    *   Node.js & npm（仅开发模式需要）\n    *   Docker（可选，用于容器化部署）\n*   **网络要求**：访问外部模型 API（如 OpenAI、Cohere 等）需要稳定的网络连接。若使用本地模型（如 llama.cpp），需确保已下载对应模型文件至 HuggingFace 缓存目录。\n\n## 安装步骤\n\n你可以选择以下任意一种方式进行安装：\n\n### 方式一：使用 Pip 安装（推荐）\n\n这是最简便的安装方式，适合快速体验。\n\n```sh\npip install openplayground\n```\n\n### 方式二：使用 Docker 运行\n\n如果你偏好容器化环境，可以使用官方镜像：\n\n```sh\ndocker run --name openplayground -p 5432:5432 -d --volume openplayground:\u002Fweb\u002Fconfig natorg\u002Fopenplayground\n```\n> 注：`--volume` 参数用于持久化存储 API Key 和模型配置，首次运行可省略，但建议保留以防配置丢失。\n\n### 方式三：源码安装（开发模式）\n\n如需修改源码或贡献代码，请克隆仓库并安装依赖：\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\ncd app && npm install && npx parcel watch src\u002Findex.html --no-cache\ncd server && pip3 install -r requirements.txt && cd .. && python3 -m server.app\n```\n\n## 基本使用\n\n安装完成后，启动服务即可在浏览器中访问界面。\n\n### 1. 启动服务\n\n**Pip 用户：**\n```sh\nopenplayground run\n```\n*提示：默认端口为 5432，如需修改端口可添加 `-p` 参数，例如 `openplayground run -p 1235`。*\n\n**Docker 用户：**\n服务已在后台运行，无需额外命令。\n\n### 2. 访问界面\n\n打开浏览器访问：\n`http:\u002F\u002Flocalhost:5432`\n\n### 3. 核心功能操作\n\n*   **选择模型**：在左侧面板选择任意支持的模型（如 OpenAI 的 GPT 系列、本地的 llama.cpp 模型等）。如果是 API 模型，需在设置中输入对应的 API Key。\n*   **参数调优**：针对选中的模型，调整 Temperature、Top P 等参数，实时观察输出变化。\n*   **模型对比**：输入相同的 Prompt，添加多个模型进行侧边栏对比测试，评估不同模型的表现。\n*   **本地模型自动发现**：工具会自动检测你 HuggingFace 缓存中的本地模型，无需手动配置即可直接调用。\n*   **历史记录**：所有对话和生成记录会自动保存，方便回溯和重试。\n\n现在，你可以在本地轻松探索和对比各种大语言模型了。","一位独立开发者需要在本地笔记本上快速评估多个大语言模型（如 Llama 2、Cohere 等）在特定代码生成任务上的表现，以便为项目选择最佳方案。\n\n### 没有 openplayground 时\n- **环境配置繁琐**：每次测试新模型都需要单独安装依赖、配置 API 密钥或下载权重文件，耗费大量时间在环境搭建而非模型评估上。\n- **对比效率低下**：无法在同一界面并排运行不同模型，必须开启多个终端窗口或网页标签手动复制粘贴提示词，极易出错且难以直观比较结果。\n- **参数调优困难**：调整温度（temperature）等超参数需要修改代码或重新构建请求，缺乏可视化的滑动条和即时反馈，试错成本极高。\n- **本地资源闲置**：虽然本地已缓存部分 HuggingFace 模型，但缺乏统一入口直接调用，导致本地算力无法被便捷利用。\n\n### 使用 openplayground 后\n- **一键启动集成**：通过 `pip install` 或 Docker 即可在笔记本上瞬间启动服务，自动识别本地缓存模型并支持主流 API 提供商，开箱即用。\n- **可视化并排对比**：在一个全屏 UI 中同时加载多个模型，输入一次提示词即可实时查看不同模型的生成结果，优劣立判。\n- **交互式参数微调**：利用界面上的滑块和快捷键实时调整温度等参数，立即重试并观察变化，大幅缩短寻找最优配置的时间。\n- **无缝切换本地与云端**：既能直接调用本地的 llama.cpp 模型节省成本，又能随时切换至云端 API 进行基准测试，灵活掌控推理资源。\n\nopenplayground 将原本碎片化、高门槛的模型评测流程转化为流畅的本地交互体验，让开发者能专注于模型能力本身而非工程琐事。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnat_openplayground_82c40938.png","nat","Nat Friedman","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnat_be18a54d.jpg",null,"GitHub","San Francisco","nat@github.com","https:\u002F\u002Fgithub.com\u002Fnat",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"TypeScript","#3178c6",64.7,{"name":86,"color":87,"percentage":88},"Python","#3572A5",33,{"name":90,"color":91,"percentage":92},"CSS","#663399",1.6,{"name":94,"color":95,"percentage":96},"JavaScript","#f1e05a",0.4,{"name":98,"color":99,"percentage":100},"HTML","#e34c26",0.3,6358,485,"2026-04-17T14:13:52","MIT",1,"Linux, macOS, Windows","非必需（支持本地运行 llama.cpp 模型，通常利用 CPU 推理；若使用其他后端未明确指定 GPU 需求）","未说明（取决于所选用的本地模型大小）",{"notes":110,"python":111,"dependencies":112},"该工具设计为可在笔记本电脑上运行。支持多种安装方式：pip 直接安装、Docker 容器运行或源码开发模式。本地模型会自动检测 HuggingFace 缓存。运行时需要配置各模型提供商的 API Key（存储在卷中）。前端开发需要 Node.js 环境。","3.x (通过 pip3 和 python3 命令推断)",[113,114,115],"Flask","llama.cpp","npm (用于前端开发)",[35,14],"2026-03-27T02:49:30.150509","2026-04-20T04:06:36.915854",[120,125,130,135,140,145,150],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},43270,"运行 openplayground 时遇到“尝试以禁止的方式访问套接字”或端口被占用的错误怎么办？","这通常是因为默认端口 5000 被其他程序占用。解决方法有两种：\n1. 找出并结束占用端口的进程：\n   - 查找占用端口的 PID：`netstat -ano | find\u002Fi \"5000\"`\n   - 强制结束进程：`taskkill \u002FPID \u003C找到的 PID> \u002FF`\n2. 修改代码中的端口：在 `app.run()` 函数中指定其他端口（如 5001 或 8080），例如：`app.run(port=5001)`。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F37",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},43271,"为什么选择 GPT-4 模型时提示“模型不存在”或无法使用？","这通常是因为您的 OpenAI API Key 尚未获得 GPT-4 的访问权限，或者权限生效有延迟。请注意：\n1. 新申请的 GPT-4 访问权限可能需要约 24 小时才能生效。\n2. 如果账号无权访问 GPT-4，该模型选项本不应显示。维护者计划更新代码，使其根据 API Key 动态获取可用模型列表，避免显示不可用的模型。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F7",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},43272,"加载 Falcon 或 MPT 等 Hugging Face 模型时报错要求设置 `trust_remote_code=True` 如何解决？","某些模型（如 `tiiuae\u002Ffalcon-7b-instruct` 或 `mosaicml\u002Fmpt-7b-instruct`）需要信任远程代码才能加载。您需要在加载模型的代码中添加 `trust_remote_code=True` 参数。修改示例如下：\n```python\nconfig = AutoConfig.from_pretrained(model_name, trust_remote_code=True)\nif config.architectures:\n    model_classname = config.architectures[0]\n    model_class = getattr(MODULE, model_classname)\n    model = model_class.from_pretrained(model_name, config=config, trust_remote_code=True)\nelse:\n    model = AutoModelForCausalLM.from_pretrained(model_name, device_map='auto' if DEVICE == 'cuda' else None, trust_remote_code=True)\n```","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F88",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},43273,"配置了 Hugging Face API Key 但运行时返回 503 错误怎么办？","503 错误通常表示模型正在加载中（Warm-up）。Hugging Face 的免费 API 在模型未被频繁调用时会进入休眠状态，首次调用需要时间加载模型。请耐心等待几分钟后再试，这不是配置错误，而是 API 的正常速率限制和加载机制。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F63",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},43274,"为什么我询问 GPT-4 它是什么模型时，它回答自己是 GPT-3？","这是大语言模型的特性，它们通常没有关于自身版本的确切信息（除非通过隐藏的系统提示词注入）。即使您在界面中选择了 GPT-4，模型本身在被问及时可能会错误地声称自己是 GPT-3。只要您在设置中明确选择了 GPT-4，实际使用的就是 GPT-4 模型。您可以通过询问一些 GPT-3 容易出错而 GPT-4 表现稳定的问题（如复杂的中国车牌号前缀对应城市）来验证模型能力。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F51",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},43275,"如何在项目中添加自定义 Provider 或新模型使其在 Playground 中显示？","仅在 `models.json` 中添加配置可能不足以让模型显示。您需要：\n1. 编辑 `parameters-side-panel` 相关代码以支持新模型的参数展示。\n2. 重新构建项目（re-build）。\n此外，如果需要特定云服务商（如 Azure）的集成，可以参考社区维护的 Fork 版本（如 `Mat-O-Lab\u002Fopenplayground`）。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F135",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},43276,"充值后余额清零或遇到支付相关问题应该在哪里反馈？","支付、余额清零或退款等问题与开源代码库（OSS）无关，GitHub Issues 不处理此类事务。请直接通过项目的 Discord 频道联系管理员（如发送私信给 Alex），或在官方社交媒体渠道查询服务状态（有时可能是服务器磁盘已满等临时故障）。","https:\u002F\u002Fgithub.com\u002Fnat\u002Fopenplayground\u002Fissues\u002F24",[]]