[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-e2b-dev--fragments":3,"tool-e2b-dev--fragments":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":10,"env_os":105,"env_gpu":106,"env_ram":106,"env_deps":107,"category_tags":118,"github_topics":119,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":132,"updated_at":133,"faqs":134,"releases":175},3483,"e2b-dev\u002Ffragments","fragments","Open-source Next.js template for building apps that are fully generated by AI. By E2B.","Fragments 是由 E2B 推出的开源 Next.js 模板，旨在帮助开发者构建完全由 AI 生成的应用程序。它类似于 Anthropic 的 Claude Artifacts 或 Vercel 的 v0，核心解决了 AI 生成代码的安全执行与实时预览难题。通过集成 E2B SDK，Fragments 能在隔离的沙箱环境中安全运行 AI 编写的代码，支持即时流式输出，让用户无需担心本地环境配置或潜在的安全风险。\n\n这款工具特别适合全栈开发者、AI 应用研究者以及希望快速原型验证的产品设计师。用户不仅可以利用 OpenAI、Anthropic、Google 等主流大模型生成代码，还能直接安装并使用 npm 或 pip 上的任意依赖包。其技术亮点在于强大的可扩展性：内置支持 Python、Next.js、Vue、Streamlit 和 Gradio 等多种技术栈，并允许用户通过简单的 Docker 配置自定义运行环境。此外，它还集成了 Morph 模型以优化代码编辑的准确率与速度。无论是想快速搭建数据可视化看板，还是测试全新的 AI 应用创意，Fragments 都能提供流畅、安全且","Fragments 是由 E2B 推出的开源 Next.js 模板，旨在帮助开发者构建完全由 AI 生成的应用程序。它类似于 Anthropic 的 Claude Artifacts 或 Vercel 的 v0，核心解决了 AI 生成代码的安全执行与实时预览难题。通过集成 E2B SDK，Fragments 能在隔离的沙箱环境中安全运行 AI 编写的代码，支持即时流式输出，让用户无需担心本地环境配置或潜在的安全风险。\n\n这款工具特别适合全栈开发者、AI 应用研究者以及希望快速原型验证的产品设计师。用户不仅可以利用 OpenAI、Anthropic、Google 等主流大模型生成代码，还能直接安装并使用 npm 或 pip 上的任意依赖包。其技术亮点在于强大的可扩展性：内置支持 Python、Next.js、Vue、Streamlit 和 Gradio 等多种技术栈，并允许用户通过简单的 Docker 配置自定义运行环境。此外，它还集成了 Morph 模型以优化代码编辑的准确率与速度。无论是想快速搭建数据可视化看板，还是测试全新的 AI 应用创意，Fragments 都能提供流畅、安全且高效的开发体验。","![E2B Fragments Preview Light](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_2737f6aab667.png)\n![E2B Fragments Preview Dark](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_8865f4f851c6.png)\n\n# Fragments by E2B\n\nThis is an open-source version of apps like [Anthropic's Claude Artifacts](https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-3-5-sonnet), Vercel [v0](https:\u002F\u002Fv0.dev), or [GPT Engineer](https:\u002F\u002Fgptengineer.app).\n\nPowered by the [E2B SDK](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fcode-interpreter).\n\n[→ Try on fragments.e2b.dev](https:\u002F\u002Ffragments.e2b.dev)\n\n## Features\n\n- Based on Next.js 14 (App Router, Server Actions), shadcn\u002Fui, TailwindCSS, Vercel AI SDK.\n- Uses the [E2B SDK](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fcode-interpreter) by [E2B](https:\u002F\u002Fe2b.dev) to securely execute code generated by AI.\n- Streaming in the UI.\n- Can install and use any package from npm, pip.\n- Supported stacks ([add your own](#adding-custom-personas)):\n  - 🔸 Python interpreter\n  - 🔸 Next.js\n  - 🔸 Vue.js\n  - 🔸 Streamlit\n  - 🔸 Gradio\n- Supported LLM Providers ([add your own](#adding-custom-llm-models)):\n  - 🔸 OpenAI\n  - 🔸 Anthropic\n  - 🔸 Google AI\n  - 🔸 Mistral\n  - 🔸 Groq\n  - 🔸 Fireworks\n  - 🔸 Together AI\n  - 🔸 Ollama\n- Integrates with [Morph](https:\u002F\u002Fmorphllm.com\u002F) Apply model for token efficient, accurate and faster code editing.\n\n**Make sure to give us a star!**\n\n\u003Cimg width=\"165\" alt=\"Screenshot 2024-04-20 at 22 13 32\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_f4777e5d53f6.png\">\n\n## Get started\n\n### Prerequisites\n\n- [git](https:\u002F\u002Fgit-scm.com)\n- Recent version of [Node.js](https:\u002F\u002Fnodejs.org) and npm package manager\n- [E2B API Key](https:\u002F\u002Fe2b.dev)\n- LLM Provider API Key\n\n### 1. Clone the repository\n\nIn your terminal:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments.git\n```\n\n### 2. Install the dependencies\n\nEnter the repository:\n\n```\ncd fragments\n```\n\nRun the following to install the required dependencies:\n\n```\nnpm i\n```\n\n### 3. Set the environment variables\n\nCreate a `.env.local` file and set the following:\n\n```sh\n# Get your API key here - https:\u002F\u002Fe2b.dev\u002F\nE2B_API_KEY=\"your-e2b-api-key\"\n\n# OpenAI API Key\nOPENAI_API_KEY=\n\n# Other providers\nANTHROPIC_API_KEY=\nGROQ_API_KEY=\nFIREWORKS_API_KEY=\nTOGETHER_API_KEY=\nGOOGLE_AI_API_KEY=\nGOOGLE_VERTEX_CREDENTIALS=\nMISTRAL_API_KEY=\nXAI_API_KEY=\n\n### Optional env vars\n\n# (on by default) Get your MORPH key here - https:\u002F\u002Fmorphllm.com\u002Fdashboard\u002Fapi-keys\nMORPH_API_KEY=\n\n# Domain of the site\nNEXT_PUBLIC_SITE_URL=\n\n# Rate limit\nRATE_LIMIT_MAX_REQUESTS=\nRATE_LIMIT_WINDOW=\n\n# Vercel\u002FUpstash KV (short URLs, rate limiting)\nKV_REST_API_URL=\nKV_REST_API_TOKEN=\n\n# Supabase (auth)\nSUPABASE_URL=\nSUPABASE_ANON_KEY=\n\n# PostHog (analytics)\nNEXT_PUBLIC_POSTHOG_KEY=\nNEXT_PUBLIC_POSTHOG_HOST=\n\n### Disabling functionality (when uncommented)\n\n# Disable API key and base URL input in the chat\n# NEXT_PUBLIC_NO_API_KEY_INPUT=\n# NEXT_PUBLIC_NO_BASE_URL_INPUT=\n\n# Hide local models from the list of available models\n# NEXT_PUBLIC_HIDE_LOCAL_MODELS=\n```\n\n### 4. Start the development server\n\n```\nnpm run dev\n```\n\n### 5. Build the web app\n\n```\nnpm run build\n```\n\n## Customize\n\n### Adding custom personas\n\n1. Make sure [E2B CLI](https:\u002F\u002Fe2b.dev\u002Fdocs\u002Fcli) is installed and you're logged in.\n\n2. Add a new folder under [sandbox-templates\u002F](sandbox-templates\u002F)\n\n3. Initialize a new template using E2B CLI:\n\n    ```\n    e2b template init\n    ```\n\n    This will create a new file called `e2b.Dockerfile`.\n\n4. Adjust the `e2b.Dockerfile`\n\n    Here's an example streamlit template:\n\n    ```Dockerfile\n    # You can use most Debian-based base images\n    FROM python:3.19-slim\n\n    RUN pip3 install --no-cache-dir streamlit pandas numpy matplotlib requests seaborn plotly\n\n    # Copy the code to the container\n    WORKDIR \u002Fhome\u002Fuser\n    COPY . \u002Fhome\u002Fuser\n    ```\n\n5. Specify a custom start command in `e2b.toml`:\n\n    ```toml\n    start_cmd = \"cd \u002Fhome\u002Fuser && streamlit run app.py\"\n    ```\n\n6. Deploy the template with the E2B CLI\n\n    ```\n    e2b template build --name \u003Ctemplate-name>\n    ```\n\n    After the build has finished, you should get the following message:\n\n    ```\n    ✅ Building sandbox template \u003Ctemplate-id> \u003Ctemplate-name> finished.\n    ```\n\n7. Open [lib\u002Ftemplates.json](lib\u002Ftemplates.json) in your code editor.\n\n    Add your new template to the list. Here's an example for Streamlit:\n\n    ```json\n    \"streamlit-developer\": {\n      \"name\": \"Streamlit developer\",\n      \"lib\": [\n        \"streamlit\",\n        \"pandas\",\n        \"numpy\",\n        \"matplotlib\",\n        \"requests\",\n        \"seaborn\",\n        \"plotly\"\n      ],\n      \"file\": \"app.py\",\n      \"instructions\": \"A streamlit app that reloads automatically.\",\n      \"port\": 8501 \u002F\u002F can be null\n    },\n    ```\n\n    Provide a template id (as key), name, list of dependencies, entrypoint and a port (optional). You can also add additional instructions that will be given to the LLM.\n\n4. Optionally, add a new logo under [public\u002Fthirdparty\u002Ftemplates](public\u002Fthirdparty\u002Ftemplates)\n\n### Adding custom LLM models\n\n1. Open [lib\u002Fmodels.json](lib\u002Fmodels.ts) in your code editor.\n\n2. Add a new entry to the models list:\n\n    ```json\n    {\n      \"id\": \"mistral-large\",\n      \"name\": \"Mistral Large\",\n      \"provider\": \"Ollama\",\n      \"providerId\": \"ollama\"\n    }\n    ```\n\n    Where id is the model id, name is the model name (visible in the UI), provider is the provider name and providerId is the provider tag (see [adding providers](#adding-custom-llm-providers) below).\n\n### Adding custom LLM providers\n\n1. Open [lib\u002Fmodels.ts](lib\u002Fmodels.ts) in your code editor.\n\n2. Add a new entry to the `providerConfigs` list:\n\n    Example for fireworks:\n\n    ```ts\n    fireworks: () => createOpenAI({ apiKey: apiKey || process.env.FIREWORKS_API_KEY, baseURL: baseURL || 'https:\u002F\u002Fapi.fireworks.ai\u002Finference\u002Fv1' })(modelNameString),\n    ```\n\n3. Optionally, adjust the default structured output mode in the `getDefaultMode` function:\n\n    ```ts\n    if (providerId === 'fireworks') {\n      return 'json'\n    }\n    ```\n\n4. Optionally, add a new logo under [public\u002Fthirdparty\u002Flogos](public\u002Fthirdparty\u002Flogos)\n\n## Contributing\n\nAs an open-source project, we welcome contributions from the community. If you are experiencing any bugs or want to add some improvements, please feel free to open an issue or pull request.\n","![E2B Fragments 预览 - 浅色模式](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_2737f6aab667.png)\n![E2B Fragments 预览 - 深色模式](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_8865f4f851c6.png)\n\n# E2B 的 Fragments\n\n这是一个开源版本的应用，类似于 [Anthropic 的 Claude Artifacts](https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fclaude-3-5-sonnet)、Vercel 的 [v0](https:\u002F\u002Fv0.dev) 或 [GPT Engineer](https:\u002F\u002Fgptengineer.app)。\n\n由 [E2B SDK](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fcode-interpreter) 提供支持。\n\n[→ 在 fragments.e2b.dev 上试用](https:\u002F\u002Ffragments.e2b.dev)\n\n## 功能特性\n\n- 基于 Next.js 14（App Router、Server Actions）、shadcn\u002Fui、TailwindCSS 和 Vercel AI SDK。\n- 使用 [E2B SDK](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fcode-interpreter) 由 [E2B](https:\u002F\u002Fe2b.dev) 提供，以安全地执行由 AI 生成的代码。\n- UI 中的流式传输。\n- 可以安装和使用来自 npm、pip 的任何包。\n- 支持的栈（[添加自定义栈](#adding-custom-personas)）：\n  - 🔸 Python 解释器\n  - 🔸 Next.js\n  - 🔸 Vue.js\n  - 🔸 Streamlit\n  - 🔸 Gradio\n- 支持的 LLM 提供商（[添加自定义提供商](#adding-custom-llm-models)）：\n  - 🔸 OpenAI\n  - 🔸 Anthropic\n  - 🔸 Google AI\n  - 🔸 Mistral\n  - 🔸 Groq\n  - 🔸 Fireworks\n  - 🔸 Together AI\n  - 🔸 Ollama\n- 集成 [Morph](https:\u002F\u002Fmorphllm.com\u002F)，应用模型以实现高效、准确且更快的代码编辑。\n\n**请务必给我们点个赞！**\n\n\u003Cimg width=\"165\" alt=\"Screenshot 2024-04-20 at 22 13 32\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_readme_f4777e5d53f6.png\">\n\n## 开始使用\n\n### 先决条件\n\n- [git](https:\u002F\u002Fgit-scm.com)\n- 最新版本的 [Node.js](https:\u002F\u002Fnodejs.org) 和 npm 包管理器\n- [E2B API 密钥](https:\u002F\u002Fe2b.dev)\n- LLM 提供商的 API 密钥\n\n### 1. 克隆仓库\n\n在终端中：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments.git\n```\n\n### 2. 安装依赖\n\n进入仓库目录：\n\n```\ncd fragments\n```\n\n运行以下命令以安装所需的依赖：\n\n```\nnpm i\n```\n\n### 3. 设置环境变量\n\n创建一个 `.env.local` 文件，并设置如下内容：\n\n```sh\n# 在这里获取你的 API 密钥 - https:\u002F\u002Fe2b.dev\u002F\nE2B_API_KEY=\"your-e2b-api-key\"\n\n# OpenAI API 密钥\nOPENAI_API_KEY=\n\n# 其他提供商\nANTHROPIC_API_KEY=\nGROQ_API_KEY=\nFIREWORKS_API_KEY=\nTOGETHER_API_KEY=\nGOOGLE_AI_API_KEY=\nGOOGLE_VERTEX_CREDENTIALS=\nMISTRAL_API_KEY=\nXAI_API_KEY=\n\n### 可选环境变量\n\n# （默认开启）在这里获取你的 MORPH 密钥 - https:\u002F\u002Fmorphllm.com\u002Fdashboard\u002Fapi-keys\nMORPH_API_KEY=\n\n# 网站域名\nNEXT_PUBLIC_SITE_URL=\n\n# 速率限制\nRATE_LIMIT_MAX_REQUESTS=\nRATE_LIMIT_WINDOW=\n\n# Vercel\u002FUpstash KV（短网址、速率限制）\nKV_REST_API_URL=\nKV_REST_API_TOKEN=\n\n# Supabase（认证）\nSUPABASE_URL=\nSUPABASE_ANON_KEY=\n\n# PostHog（分析）\nNEXT_PUBLIC_POSTHOG_KEY=\nNEXT_PUBLIC_POSTHOG_HOST=\n\n### 禁用功能（取消注释时生效）\n\n# 禁用聊天中的 API 密钥和基础 URL 输入\n# NEXT_PUBLIC_NO_API_KEY_INPUT=\n# NEXT_PUBLIC_NO_BASE_URL_INPUT=\n\n# 从可用模型列表中隐藏本地模型\n# NEXT_PUBLIC_HIDE_LOCAL_MODELS=\n```\n\n### 4. 启动开发服务器\n\n```\nnpm run dev\n```\n\n### 5. 构建 Web 应用\n\n```\nnpm run build\n```\n\n## 自定义\n\n### 添加自定义角色\n\n1. 确保已安装 [E2B CLI](https:\u002F\u002Fe2b.dev\u002Fdocs\u002Fcli)，并已登录。\n\n2. 在 [sandbox-templates\u002F](sandbox-templates\u002F) 下新建一个文件夹。\n\n3. 使用 E2B CLI 初始化一个新的模板：\n\n    ```\n    e2b template init\n    ```\n\n    这将创建一个名为 `e2b.Dockerfile` 的文件。\n\n4. 调整 `e2b.Dockerfile`。\n\n    以下是 Streamlit 模板的示例：\n\n    ```Dockerfile\n    # 你可以使用大多数基于 Debian 的基础镜像\n    FROM python:3.19-slim\n\n    RUN pip3 install --no-cache-dir streamlit pandas numpy matplotlib requests seaborn plotly\n\n    # 将代码复制到容器中\n    WORKDIR \u002Fhome\u002Fuser\n    COPY . \u002Fhome\u002Fuser\n    ```\n\n5. 在 `e2b.toml` 中指定自定义启动命令：\n\n    ```toml\n    start_cmd = \"cd \u002Fhome\u002Fuser && streamlit run app.py\"\n    ```\n\n6. 使用 E2B CLI 部署模板：\n\n    ```\n    e2b template build --name \u003Ctemplate-name>\n    ```\n\n    构建完成后，你应该会收到以下消息：\n\n    ```\n    ✅ 构建沙盒模板 \u003Ctemplate-id> \u003Ctemplate-name> 已完成。\n    ```\n\n7. 在代码编辑器中打开 [lib\u002Ftemplates.json](lib\u002Ftemplates.json)。\n\n    将你的新模板添加到列表中。以下是 Streamlit 的示例：\n\n    ```json\n    \"streamlit-developer\": {\n      \"name\": \"Streamlit 开发者\",\n      \"lib\": [\n        \"streamlit\",\n        \"pandas\",\n        \"numpy\",\n        \"matplotlib\",\n        \"requests\",\n        \"seaborn\",\n        \"plotly\"\n      ],\n      \"file\": \"app.py\",\n      \"instructions\": \"一个自动重新加载的 Streamlit 应用。\",\n      \"port\": 8501 \u002F\u002F 可以为 null\n    },\n    ```\n\n    提供模板 ID（作为键）、名称、依赖项列表、入口点以及端口（可选）。你还可以添加额外的说明，这些说明将被传递给 LLM。\n\n4. 选择性地，在 [public\u002Fthirdparty\u002Ftemplates](public\u002Fthirdparty\u002Ftemplates) 下添加新的 logo。\n\n### 添加自定义 LLM 模型\n\n1. 在代码编辑器中打开 [lib\u002Fmodels.json](lib\u002Fmodels.ts)。\n\n2. 在模型列表中添加一个新的条目：\n\n    ```json\n    {\n      \"id\": \"mistral-large\",\n      \"name\": \"Mistral Large\",\n      \"provider\": \"Ollama\",\n      \"providerId\": \"ollama\"\n    }\n    ```\n\n    其中，id 是模型 ID，name 是模型名称（在 UI 中可见），provider 是提供商名称，providerId 是提供商标签（参见下方的 [添加自定义 LLM 提供商](#adding-custom-llm-providers)）。\n\n### 添加自定义 LLM 提供商\n\n1. 在代码编辑器中打开 [lib\u002Fmodels.ts](lib\u002Fmodels.ts)。\n\n2. 在 `providerConfigs` 列表中添加一个新的条目：\n\n    例如，对于 fireworks：\n\n    ```ts\n    fireworks: () => createOpenAI({ apiKey: apiKey || process.env.FIREWORKS_API_KEY, baseURL: baseURL || 'https:\u002F\u002Fapi.fireworks.ai\u002Finference\u002Fv1' })(modelNameString),\n    ```\n\n3. 选择性地调整 `getDefaultMode` 函数中的默认结构化输出模式：\n\n    ```ts\n    if (providerId === 'fireworks') {\n      return 'json'\n    }\n    ```\n\n4. 选择性地，在 [public\u002Fthirdparty\u002Flogos](public\u002Fthirdparty\u002Flogos) 下添加新的 logo。\n\n## 贡献\n\n作为一个开源项目，我们欢迎社区的贡献。如果您遇到任何 bug 或希望添加一些改进，请随时提交 issue 或 pull request。","# Fragments 快速上手指南\n\nFragments 是由 E2B 开发的开源项目，功能类似 Anthropic Claude Artifacts 或 Vercel v0。它允许用户通过自然语言生成代码，并在安全的沙箱环境中实时运行和预览（支持 Python、Next.js、Vue、Streamlit 等）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL2 推荐)\n*   **Git**：已安装并配置好。\n*   **Node.js**：建议安装最新 LTS 版本（包含 npm 包管理器）。\n*   **API Keys**：\n    *   [E2B API Key](https:\u002F\u002Fe2b.dev)：用于代码沙箱执行（必填）。\n    *   **LLM Provider API Key**：至少需要一个大型模型服务商的密钥（如 OpenAI, Anthropic, Google AI, Groq, Ollama 等）。\n\n> **提示**：国内开发者若访问 GitHub 或 npm 较慢，可配置国内镜像源加速下载：\n> *   npm 镜像：`npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n\n## 安装步骤\n\n### 1. 克隆项目\n在终端中执行以下命令拉取源代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments.git\n```\n\n### 2. 安装依赖\n进入项目目录并安装所需依赖：\n\n```bash\ncd fragments\nnpm i\n```\n\n### 3. 配置环境变量\n在项目根目录下创建 `.env.local` 文件，并填入您的 API 密钥。\n\n```sh\n# E2B API Key (必填) - 获取地址：https:\u002F\u002Fe2b.dev\u002F\nE2B_API_KEY=\"your-e2b-api-key\"\n\n# LLM API Key (至少配置一个，例如 OpenAI)\nOPENAI_API_KEY=\"sk-...\"\n\n# 其他可选提供商\n# ANTHROPIC_API_KEY=\n# GROQ_API_KEY=\n# FIREWORKS_API_KEY=\n# TOGETHER_API_KEY=\n# GOOGLE_AI_API_KEY=\n# MISTRAL_API_KEY=\n# XAI_API_KEY=\n\n# 可选：Morph 模型优化 (默认开启)\n# MORPH_API_KEY=\n\n# 可选：站点域名\n# NEXT_PUBLIC_SITE_URL=\n```\n\n> **注意**：只需保留您实际使用的模型对应的 Key，未使用的可以留空或删除。\n\n## 基本使用\n\n### 启动开发服务器\n完成配置后，运行以下命令启动本地开发服务：\n\n```bash\nnpm run dev\n```\n\n### 访问与体验\n1. 打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n2. 在聊天界面输入您的需求，例如：“用 Python 画一个正弦波”或“创建一个简单的待办事项 Vue 应用”。\n3. 系统将调用配置的 LLM 生成代码，并通过 E2B 沙箱自动运行，您可以在右侧直接预览结果。\n\n### 生产构建\n如果您需要部署到生产环境，请执行：\n\n```bash\nnpm run build\n```\n\n构建完成后，可使用 `npm start` 运行生产版本。","某初创公司的数据分析师需要快速向投资人展示一个包含实时数据清洗、可视化图表及交互式预测模型的动态演示原型。\n\n### 没有 fragments 时\n- **环境配置耗时**：需手动搭建 Python 或 Next.js 本地开发环境，安装 pandas、matplotlib 等依赖库，常因版本冲突耗费数小时。\n- **全栈开发门槛高**：若要将分析脚本转化为带 UI 的网页应用，必须额外编写前端代码（HTML\u002FCSS\u002FJS）并处理前后端通信，分散了核心分析精力。\n- **安全风险难控**：直接让 AI 生成并运行代码存在安全隐患，缺乏类似 E2B SDK 提供的隔离沙箱机制，容易威胁本地主机安全。\n- **迭代反馈缓慢**：每次调整图表样式或算法参数，都需重启服务或重新部署，无法实现“对话即修改”的流式即时预览。\n\n### 使用 fragments 后\n- **零配置启动**：直接在对话框输入需求，fragments 自动调用预置的 Python 或 Streamlit 沙箱模板，秒级安装所需 npm\u002Fpip 包并运行代码。\n- **自然语言生成全栈应用**：只需描述“用折线图展示趋势并添加预测按钮”，fragments 即可自动生成包含美观 UI（基于 shadcn\u002Fui）和完整后端逻辑的可交互应用。\n- **安全的代码执行**：所有 AI 生成的代码均在 E2B 提供的云端隔离容器中运行，确保本地设备零风险，同时支持任意第三方库的安装。\n- **流式实时迭代**：借助 Streaming 技术和 Morph 模型优化，代码修改与界面更新同步呈现，像聊天一样不断微调直到达到演示标准。\n\nfragments 将原本需要数天的全栈原型开发工作压缩为几分钟的对话过程，让非前端专家也能安全、高效地交付高质量 AI 原生应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fe2b-dev_fragments_2737f6aa.png","e2b-dev","E2B | Cloud for AI Agents","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fe2b-dev_e286365d.png","Open-source, secure environment with real-world tools for enterprise-grade agents.",null,"hello@e2b.dev","e2b","https:\u002F\u002Fe2b.dev\u002Fdocs","https:\u002F\u002Fgithub.com\u002Fe2b-dev",[86,90,94,98],{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",97,{"name":91,"color":92,"percentage":93},"CSS","#663399",2.5,{"name":95,"color":96,"percentage":97},"JavaScript","#f1e05a",0.2,{"name":99,"color":100,"percentage":97},"Python","#3572A5",6230,868,"2026-04-04T19:42:03","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":108,"python":109,"dependencies":110},"该项目是一个基于 Next.js 的 Web 应用，主要依赖 Node.js 和 npm。代码执行在云端或本地的 E2B 安全沙箱中进行，因此本地无需配置 Python 环境或 GPU。使用前必须获取 E2B API Key 以及所选大模型提供商（如 OpenAI, Anthropic 等）的 API Key。可选集成 Supabase 进行认证，Upstash 进行速率限制。","未说明 (运行环境基于 Node.js，Python 仅在 E2B 沙箱容器内使用)",[111,112,113,114,115,116,117],"Node.js (Recent version)","npm","Next.js 14","E2B SDK","Vercel AI SDK","TailwindCSS","shadcn\u002Fui",[26,14,13,15],[120,121,122,123,82,124,125,126,127,128,129,130,131],"ai","ai-code-generation","anthropic","claude","javascript","llm","nextjs","react","typescript","claude-ai","sandbox","code-interpreter","2026-03-27T02:49:30.150509","2026-04-06T06:51:53.873940",[135,140,145,150,155,160,165,170],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},15967,"为什么预览部分（Preview）无法工作，一直显示旋转箭头？","这通常是因为生成的代码使用了不支持的框架或语言。Fragments 目前仅支持特定的 Web 框架（如 React\u002FNext.js 等）。如果模型生成了 Dart、Flutter 或其他非 Web 前端代码，预览功能将无法启动。请检查生成的代码类型，并确保提示词要求生成受支持的 Web 技术栈代码。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F76",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},15968,"预览网站时出现 502 Bad Gateway 错误是什么原因？","这通常是因为 Sandbox（沙盒环境）超时了。如果不进行部署操作，沙盒在一段时间不活动后会自动停止，导致无法再查看预览。解决方法是点击界面上的 \"Deploy\"（部署）按钮来保持服务运行，或者重新生成一个新的沙盒。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F87",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},15969,"如何在本地运行项目而不使用 Supabase？","如果在运行 `npm run dev` 时遇到 `supabaseUrl is required` 错误，可以通过设置环境变量来完全禁用 Supabase。请在你的环境变量中添加：`NEXT_PUBLIC_DISABLE_SUPABASE=true`。这样即可在没有配置 Supabase URL 和 Key 的情况下启动开发服务器。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F13",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},15970,"是否可以在本地运行 E2B 沙盒而不需要 E2B_API_KEY？","是的，目前支持在本地运行而不需要 API Key。开发团队正在增加对 AWS 以及任意 Linux 机器的支持，以减少对特定云基础设施（如 GCP）的依赖。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F46",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},15971,"为什么无法上传或打开 .ts 等代码文件？","目前文件上传功能仅支持图片格式，且需要配合支持多模态（multi-modal）的模型使用。系统暂不支持直接上传代码文件（如 .ts, .js 等）进行分析或重构。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F111",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},15972,"使用本地 LLM 模型（如 Ollama）时出现 JSON.parse 错误怎么办？","该错误通常是因为本地模型返回的数据格式不是严格的 JSON，导致解析失败。虽然可以在代码中尝试强制指定 `format: 'json'`（类似 Ollama API 中的参数），但根本原因往往是模型本身未能严格遵守 JSON 输出指令。目前官方尚未复现此问题，建议检查模型配置或尝试在 Prompt 中更强烈地要求仅输出 JSON 格式。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F70",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},15973,"自定义 Anthropic baseURL 后无法获取代码运行结果和预览？","即使修改了 LLM 的 baseURL 并能收到回复，如果无法执行代码和预览，请首先确认是否已正确设置 `E2B_API_KEY` 环境变量。LLM 的配置与沙盒执行环境（E2B）的配置是独立的，必须提供有效的 E2B API Key 才能启动沙盒运行代码。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F54",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},15974,"是否支持多文件编辑或多页面应用开发？","目前 Fragments 主要设计用于单文件（如 page.tsx）的代码生成和预览，官方暂无计划添加多文件编辑或复杂多页面项目的支持功能。如果生成的代码涉及多文件结构，预览可能会失败。","https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Ffragments\u002Fissues\u002F38",[]]