[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mic1on--chatGPT-web":3,"tool-mic1on--chatGPT-web":61},[4,17,27,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[14,26],"插件",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[26,14,35,13],"图像",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":10,"last_commit_at":42,"category_tags":43,"status":16},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[26,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":50,"last_commit_at":51,"category_tags":52,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,35,14,13],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":77,"owner_url":78,"languages":79,"stars":107,"forks":108,"last_commit_at":109,"license":75,"difficulty_score":10,"env_os":110,"env_gpu":111,"env_ram":111,"env_deps":112,"category_tags":118,"github_topics":119,"view_count":10,"oss_zip_url":75,"oss_zip_packed_at":75,"status":16,"created_at":123,"updated_at":124,"faqs":125,"releases":166},8370,"mic1on\u002FchatGPT-web","chatGPT-web","chatGPT私有化部署","chatGPT-web 是一款支持私有化部署的 ChatGPT 网页应用，旨在让用户在本地或自有服务器上搭建专属的 AI 对话界面。它有效解决了直接在前端调用官方接口可能导致 API 密钥泄露的安全隐患，通过前后端分离架构，将敏感密钥保留在后端，确保数据安全。\n\n该项目基于 FastAPI 后端与 Vue3 前端构建，不仅支持 GPT-3.5-turbo 模型和连续对话功能，还灵活提供了代理配置选项，方便网络环境受限的用户使用。其独特的亮点在于部署极其便捷：开发者既可通过一条 Docker 命令快速启动，也支持完整的本地源码编译部署；同时，前端允许用户自定义 API 密钥，优先级高于后端配置，满足了多场景下的个性化需求。\n\nchatGPT-web 非常适合希望拥有独立 AI 服务环境的开发者、企业技术团队以及对数据隐私有较高要求的研究人员。对于熟悉 Docker 或 Python 环境的用户而言，这是一个轻量、安全且易于二次开发的理想选择，帮助你轻松构建属于自己的智能对话平台。","## ChatGPT-WEB\n\n![](https:\u002F\u002Fmiclon-job.oss-cn-hangzhou.aliyuncs.com\u002Fimg\u002F20230306213958.png)\n\n注意：图中的余额指的是`chatgpt`中`API_KEY`的余额。\n\n本项目为`chatgpt`私有化部署，基于`fastapi` `vue3` `chatgpt api`实现。\n\n\n\n- [笔者案例 - 我用AI帮我完成了单子](https:\u002F\u002F52caiji.com\u002Fposts\u002Fother\u002Fdeveloper-use-openai.html)\n\n## 更新日志：\n03-04：支持代理，环境变量`HTTPS_PROXY`，如`HTTPS_PROXY=http:\u002F\u002F127.0.0.1:7890`，如果不需要代理，可以不设置。\n\n03-02：支持 `gpt-3.5-turbo` 模型\n\n02-20：支持了API的**连续对话**\n\n02-15：前端可以自定义 `API_KEY` ，优先级大于后端自定义的 `API_KEY` 。\n\n\n## 快速开始\n\n### 1. docker 部署\n作者已经将 `chatgpt` 打包成镜像，可以直接使用 `docker` 部署。\n\n```bash\ndocker run --name chatgpt -d -p 8000:8000 -e API_KEY=sk-xxxx miclon\u002Fchatgpt:latest\n```\n\ndocker-compose 部署\n\n```bash\nversion: '3'\n\nservices:\n  chatgpt:\n    image: miclon\u002Fchatgpt:latest\n    container_name: chatgpt\n    ports:\n      - \"8000:8000\"\n    environment:\n      # 填写你的 API_KEY\n      - API_KEY=sk-xxxxxx\n      # 填写API请求代理地址\n      - HTTPS_PROXY=http:\u002F\u002F192.168.1.17:7890\n```\n\n代理相关问题移步： [PROXY.md](PROXY.md)\n\n### 2. 本地部署\n\n- 拉取项目，安装依赖\n\n```bash\ncd web\npnpm install\npnpm run build\n```\n\n```bash\ncp -r web\u002Fdist api\u002Fdist\ncd api\npip install -r requirements.txt\n```\n\n- 启动项目\n\n\n```bash\n# 启动前端\ncd web\npnpm run dev\n```\n\n```bash\n# 启动后端\ncd api\npython app.py\n```\n\n## 如果你不想动手\n\n笔者自建了微信公众号：**代码领悟**，您关注后即可直接与AI对话。\n\n公众号搭建chatGPT搭建流程图：\n\n![](https:\u002F\u002Fmiclon-job.oss-cn-hangzhou.aliyuncs.com\u002Fimg\u002F20230210220109.png)\n\n\n## 答疑\n\n- 为什么需要`API_KEY`？\n\n`API_KEY`是`chatgpt`的API密钥，通过API_KEY方可调用官方接口，您可以在[chatgpt](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)官网申请。`API_KEY`通常是`sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx`这种形式。\n\n- 我想修改项目中版权信息，如何修改？\n\n如果你不懂前端，你可以直接fork项目，替换前端字符串然后提交自己仓库，然后会自动docker构建。但是有个前提，你需要在github actions中配置`DOCKER_USERNAME`和`DOCKER_PASSWORD`，这两个变量是你的docker账号和密码。\n\n- 为什么要内置后端？\n\n前端其实可以直接通过`axios`请求`chatgpt`官方接口，但是为了数据安全，如果前端调用那就会暴露自己的`API_KEY`，所以笔者将前端和后端分离，前端只负责展示，后端负责调用`chatgpt`官方接口。\n","## ChatGPT-WEB\n\n![](https:\u002F\u002Fmiclon-job.oss-cn-hangzhou.aliyuncs.com\u002Fimg\u002F20230306213958.png)\n\n注意：图中的余额指的是`chatgpt`中`API_KEY`的余额。\n\n本项目为`chatgpt`私有化部署，基于`fastapi` `vue3` `chatgpt api`实现。\n\n\n\n- [笔者案例 - 我用AI帮我完成了单子](https:\u002F\u002F52caiji.com\u002Fposts\u002Fother\u002Fdeveloper-use-openai.html)\n\n## 更新日志：\n03-04：支持代理，环境变量`HTTPS_PROXY`，如`HTTPS_PROXY=http:\u002F\u002F127.0.0.1:7890`，如果不需要代理，可以不设置。\n\n03-02：支持 `gpt-3.5-turbo` 模型\n\n02-20：支持了API的**连续对话**\n\n02-15：前端可以自定义 `API_KEY` ，优先级大于后端自定义的 `API_KEY` 。\n\n\n## 快速开始\n\n### 1. docker 部署\n作者已经将 `chatgpt` 打包成镜像，可以直接使用 `docker` 部署。\n\n```bash\ndocker run --name chatgpt -d -p 8000:8000 -e API_KEY=sk-xxxx miclon\u002Fchatgpt:latest\n```\n\ndocker-compose 部署\n\n```bash\nversion: '3'\n\nservices:\n  chatgpt:\n    image: miclon\u002Fchatgpt:latest\n    container_name: chatgpt\n    ports:\n      - \"8000:8000\"\n    environment:\n      # 填写你的 API_KEY\n      - API_KEY=sk-xxxxxx\n      # 填写API请求代理地址\n      - HTTPS_PROXY=http:\u002F\u002F192.168.1.17:7890\n```\n\n代理相关问题移步： [PROXY.md](PROXY.md)\n\n### 2. 本地部署\n\n- 拉取项目，安装依赖\n\n```bash\ncd web\npnpm install\npnpm run build\n```\n\n```bash\ncp -r web\u002Fdist api\u002Fdist\ncd api\npip install -r requirements.txt\n```\n\n- 启动项目\n\n\n```bash\n# 启动前端\ncd web\npnpm run dev\n```\n\n```bash\n# 启动后端\ncd api\npython app.py\n```\n\n## 如果你不想动手\n\n笔者自建了微信公众号：**代码领悟**，您关注后即可直接与AI对话。\n\n公众号搭建chatGPT搭建流程图：\n\n![](https:\u002F\u002Fmiclon-job.oss-cn-hangzhou.aliyuncs.com\u002Fimg\u002F20230210220109.png)\n\n\n## 答疑\n\n- 为什么需要`API_KEY`？\n\n`API_KEY`是`chatgpt`的API密钥，通过API_KEY方可调用官方接口，您可以在[chatgpt](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)官网申请。`API_KEY`通常是`sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx`这种形式。\n\n- 我想修改项目中版权信息，如何修改？\n\n如果你不懂前端，你可以直接fork项目，替换前端字符串然后提交自己仓库，然后会自动docker构建。但是有个前提，你需要在github actions中配置`DOCKER_USERNAME`和`DOCKER_PASSWORD`，这两个变量是你的docker账号和密码。\n\n- 为什么要内置后端？\n\n前端其实可以直接通过`axios`请求`chatgpt`官方接口，但是为了数据安全，如果前端调用那就会暴露自己的`API_KEY`，所以笔者将前端和后端分离，前端只负责展示，后端负责调用`chatgpt`官方接口。","# ChatGPT-WEB 快速上手指南\n\nChatGPT-WEB 是一个基于 FastAPI + Vue3 实现的 ChatGPT 私有化部署项目，支持连续对话、自定义 API Key 及代理配置。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows (需安装 Docker 或 Python\u002FNode.js 环境)\n- **前置依赖**：\n  - **方案 A (推荐)**：Docker 及 Docker Compose\n  - **方案 B (本地开发)**：\n    - Python 3.x\n    - Node.js (建议 v16+)\n    - pnpm (`npm install -g pnpm`)\n- **必要凭证**：OpenAI `API_KEY` (格式如 `sk-...`)\n\n## 安装步骤\n\n### 方案一：Docker 部署（推荐）\n\n作者已提供构建好的镜像，只需一条命令即可启动。\n\n**1. 单容器启动**\n```bash\ndocker run --name chatgpt -d -p 8000:8000 -e API_KEY=sk-xxxx miclon\u002Fchatgpt:latest\n```\n*注：将 `sk-xxxx` 替换为你的真实 API_KEY。如需配置代理，可追加 `-e HTTPS_PROXY=http:\u002F\u002F127.0.0.1:7890`。*\n\n**2. Docker Compose 启动**\n创建 `docker-compose.yml` 文件：\n```yaml\nversion: '3'\n\nservices:\n  chatgpt:\n    image: miclon\u002Fchatgpt:latest\n    container_name: chatgpt\n    ports:\n      - \"8000:8000\"\n    environment:\n      # 填写你的 API_KEY\n      - API_KEY=sk-xxxxxx\n      # 填写 API 请求代理地址 (国内访问通常需要)\n      - HTTPS_PROXY=http:\u002F\u002F192.168.1.17:7890\n```\n执行启动：\n```bash\ndocker-compose up -d\n```\n\n### 方案二：本地源码部署\n\n**1. 前端构建**\n```bash\ncd web\npnpm install\npnpm run build\ncp -r web\u002Fdist api\u002Fdist\n```\n\n**2. 后端环境配置**\n```bash\ncd api\npip install -r requirements.txt\n```\n\n**3. 启动服务**\n分别开启两个终端窗口：\n```bash\n# 终端 1：启动前端\ncd web\npnpm run dev\n```\n\n```bash\n# 终端 2：启动后端\ncd api\npython app.py\n```\n\n## 基本使用\n\n1. **访问界面**：\n   - Docker 部署：浏览器打开 `http:\u002F\u002Flocalhost:8000`\n   - 本地部署：浏览器打开 `http:\u002F\u002Flocalhost:5173` (Vite 默认端口，具体以终端输出为准)\n\n2. **配置密钥**：\n   - 若启动时未通过环境变量设置 `API_KEY`，可在前端界面输入框旁或设置项中填入你的 `sk-` 开头的密钥。\n   - *提示：前端输入的 API_KEY 优先级高于后端配置。*\n\n3. **开始对话**：\n   - 在聊天框输入问题，系统将通过后端调用 OpenAI 接口返回结果，支持多轮连续对话。","某中小型软件开发团队希望将 AI 编程助手集成到内部办公系统，以便多名开发者能安全、便捷地调用大模型能力辅助编码。\n\n### 没有 chatGPT-web 时\n- 每位开发者需在本地配置复杂的 Python 环境和 API 调用脚本，环境不一致导致频繁报错。\n- 前端直接调用官方接口会暴露团队的 `API_KEY`，存在密钥泄露和被恶意盗用的安全风险。\n- 无法统一管理对话上下文，每次刷新页面或切换设备后，之前的代码优化建议记录全部丢失。\n- 团队成员各自申请和管理 API 余额，缺乏统一的用量监控，容易造成资源浪费或突然欠费停机。\n- 受网络限制时，个人需单独配置代理工具，维护成本高且稳定性差。\n\n### 使用 chatGPT-web 后\n- 通过 Docker 一键部署私有化服务，团队成员只需访问统一网页即可使用，无需关心后端环境配置。\n- 采用前后端分离架构，`API_KEY` 仅存储于服务端，彻底杜绝了密钥在前端泄露的隐患。\n- 原生支持连续对话功能，开发者可在同一会话中持续追问代码重构方案，完整保留上下文逻辑。\n- 管理员可在后端统一配置 `API_KEY` 和代理地址，实时监控余额消耗，实现资源的集中管控。\n- 内置代理支持（`HTTPS_PROXY`），一次性解决团队网络访问问题，确保服务稳定运行。\n\nchatGPT-web 通过私有化部署和统一管控，将分散、高风险的个体调用转变为安全、高效的企业级协作流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmic1on_chatGPT-web_99ed8738.png","mic1on","MicLon","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmic1on_9947c79f.png",null,"unknown","https:\u002F\u002Fcode05.com\u002F","https:\u002F\u002Fgithub.com\u002Fmic1on",[80,84,88,92,96,99,103],{"name":81,"color":82,"percentage":83},"Vue","#41b883",48.2,{"name":85,"color":86,"percentage":87},"Python","#3572A5",25.4,{"name":89,"color":90,"percentage":91},"TypeScript","#3178c6",18.8,{"name":93,"color":94,"percentage":95},"CSS","#663399",3.7,{"name":97,"color":98,"percentage":10},"Dockerfile","#384d54",{"name":100,"color":101,"percentage":102},"HTML","#e34c26",1.7,{"name":104,"color":105,"percentage":106},"Shell","#89e051",0.3,699,251,"2026-04-12T06:11:11","Linux, macOS, Windows","未说明",{"notes":113,"python":111,"dependencies":114},"该项目为 ChatGPT API 的私有化部署前端 + 后端代理方案，本身不运行大模型，因此无 GPU 和显存需求。支持 Docker 一键部署或本地源码部署（前端需 pnpm，后端需 pip 安装 requirements.txt）。若网络受限，需配置 HTTPS_PROXY 环境变量使用代理。API_KEY 为必填项，用于调用 OpenAI 官方接口。",[115,116,117],"fastapi","vue3","axios",[26,15],[120,121,115,122,116],"chatgpt","chatgpt-api","python","2026-03-27T02:49:30.150509","2026-04-17T10:19:45.501709",[126,131,136,141,146,151,156,161],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},37465,"API Key 应该在哪里配置？","目前支持在前端直接输入 API Key。用户只需点击页面上的红色密钥按钮，手动输入 Key 即可直接使用，无需在后端代码中硬编码。维护者已采纳该方案，不再强制要求后端提供 Key。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F5",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},37466,"Docker 部署时如何配置网络代理？","如果在 Docker 中运行，需要通过 `-e` 参数设置环境变量来配置代理。命令示例：`docker run --name chatgpt -d -p 8000:8000 -e API_KEY=xxxxxx -e \"https_proxy=host:port\" miclon\u002Fchatgpt:latest`。请将 `host:port` 替换为实际的代理地址。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F6",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},37467,"本地构建时报错提示找不到 dist 文件夹怎么办？","该项目分为前后端，`dist` 目录是前端代码构建后生成的。在运行后端之前，需要先进入 `web` 目录执行前端构建命令：`pnpm run build`。构建完成后会在前端目录下产生 `dist` 目录，然后再执行复制操作或启动服务。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F31",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},37468,"为什么在 Docker 中设置了 API_KEY 环境变量却没有生效？","如果遇到环境变量不生效导致报错 `ValueError: API key is required`，请尝试重新拉取最新镜像：`docker pull miclon\u002Fchatgpt:latest`，然后重启容器。如果问题依旧，目前的临时解决方案是打开前端页面，点击红色密钥按钮手动输入 API Key。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F8",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},37469,"AI 回复内容是否支持 Markdown 格式渲染？","项目计划增加对 Markdown 的解析支持，以便更好地展示代码块和格式化文本。目前部分特殊字符（如 Python 代码中的井号）可能会被错误解析为标题，建议等待后续版本更新以获得完整的 Markdown 容器支持。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F20",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},37470,"为什么经常收到“我不知道你在说什么”的回复？","这通常是因为请求超时导致的。当后端超过 60 秒未收到 OpenAI 返回的数据时，系统会默认回复“我不知道你在说什么”。这往往是由于网络连接不稳定或未正确配置代理导致无法访问 OpenAI 接口，请检查网络环境或代理设置。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F4",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},37471,"如何实现连续对话（记住上下文）功能？","维护者已经通过代码提交解决了连续对话的问题，现在系统可以记住上一次的内容并进行多轮交互。如果使用的是旧版本，请更新到最新版本以获取此功能。注意由于 GPT-3 接口收费，可能会限制单次发送的文本大小。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F7",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},37472,"使用 HTTPS + IP 地址访问时证书校验失败怎么办？","这是因为 SSL 证书是与域名绑定的，直接使用 IP 地址访问会导致证书不匹配校验失败。这与是否使用全局代理无关。解决方案有两个：一是直接使用 HTTP + IP 地址访问（不加证书）；二是绑定域名并使用该域名的合法证书。","https:\u002F\u002Fgithub.com\u002Fmic1on\u002FchatGPT-web\u002Fissues\u002F23",[]]