[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-RayBytes--ChatMock":3,"tool-RayBytes--ChatMock":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":32,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":144},7254,"RayBytes\u002FChatMock","ChatMock","OpenAI & Ollama compatible API powered by Codex","ChatMock 是一款开源工具，旨在让 ChatGPT 的底层能力（基于 Codex）能够无缝接入你常用的聊天应用和编程开发环境。它通过搭建一个本地服务器，提供完全兼容 OpenAI 和 Ollama 标准的 API 接口，从而解决了官方接口限制多、部分第三方软件无法直接调用最新模型或特定功能（如深度推理、联网搜索）的痛点。\n\n这款工具特别适合开发者、AI 研究人员以及希望自定义工作流的技术爱好者使用。无论是想在本地代码中集成智能对话，还是希望在支持 OpenAI 协议的第三方客户端中使用 ChatGPT 的高级特性，ChatMock 都能轻松胜任。\n\n其技术亮点在于不仅支持标准的文本对话，还原生集成了函数调用、图像识别输入、联网搜索以及可配置的“思维链”总结功能。用户可以通过简单的命令行启动服务，并灵活调整模型的推理强度（从极简到超高）和响应模式。此外，它还提供了“快速模式”以优化处理速度，并将不同的推理等级暴露为独立模型供选择，让开发者能更精细地控制 AI 的行为表现，极大地提升了本地大模型应用的灵活性与可控性。","\u003Cdiv align=\"center\">\n\n# ChatMock\n\n**Allows Codex to work in your favourite chat apps and coding tools.**\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchatmock?color=blue&label=pypi)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatmock\u002F)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fchatmock)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatmock\u002F)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FRayBytes\u002FChatMock)](LICENSE)\n[![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FRayBytes\u002FChatMock?style=flat)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fstargazers)\n[![Last Commit](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002FRayBytes\u002FChatMock)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fcommits\u002Fmain)\n[![Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FRayBytes\u002FChatMock)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues)\n\n\u003Cbr>\n\n\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## Install\n\n#### Homebrew\n```bash\nbrew tap RayBytes\u002Fchatmock\nbrew install chatmock\n```\n\n#### pipx \u002F pip\n```bash\npipx install chatmock\n```\n\n#### GUI\nDownload from [releases](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Freleases) (macOS & Windows)\n\n#### Docker\nSee [DOCKER.md](DOCKER.md)\n\n\u003Cbr>\n\n## Getting Started\n\n```bash\n# 1. Sign in with your ChatGPT account\nchatmock login\n\n# 2. Start the server\nchatmock serve\n```\n\nThe server runs at `http:\u002F\u002F127.0.0.1:8000` by default. Use `http:\u002F\u002F127.0.0.1:8000\u002Fv1` as your base URL for OpenAI-compatible apps.\n\n\u003Cbr>\n\n## Usage\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>Python\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    base_url=\"http:\u002F\u002F127.0.0.1:8000\u002Fv1\",\n    api_key=\"anything\"  # not checked\n)\n\nresponse = client.chat.completions.create(\n    model=\"gpt-5.4\",\n    messages=[{\"role\": \"user\", \"content\": \"hello\"}]\n)\nprint(response.choices[0].message.content)\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>cURL\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\ncurl http:\u002F\u002F127.0.0.1:8000\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-5.4\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"hello\"}]\n  }'\n```\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n## Supported Models\n\n- `gpt-5.4`\n- `gpt-5.4-mini`\n- `gpt-5.2`\n- `gpt-5.1`\n- `gpt-5`\n- `gpt-5.3-codex`\n- `gpt-5.3-codex-spark`\n- `gpt-5.2-codex`\n- `gpt-5-codex`\n- `gpt-5.1-codex`\n- `gpt-5.1-codex-max`\n- `gpt-5.1-codex-mini`\n- `codex-mini`\n\n\u003Cbr>\n\n## Features\n\n- Tool \u002F function calling\n- Vision \u002F image input\n- Thinking summaries (via think tags)\n- Configurable thinking effort\n- Fast mode for supported models\n- Web search tool\n- OpenAI-compatible `\u002Fv1\u002Fresponses` (HTTP + WebSocket)\n- Ollama-compatible endpoints\n- Reasoning effort exposed as separate models (optional)\n\n\u003Cbr>\n\n## Configuration\n\nAll flags go after `chatmock serve`. These can also be set as environment variables.\n\n| Flag | Env var | Options | Default | Description |\n|------|---------|---------|---------|-------------|\n| `--reasoning-effort` | `CHATGPT_LOCAL_REASONING_EFFORT` | none, minimal, low, medium, high, xhigh | medium | How hard the model thinks |\n| `--reasoning-summary` | `CHATGPT_LOCAL_REASONING_SUMMARY` | auto, concise, detailed, none | auto | Thinking summary verbosity |\n| `--reasoning-compat` | `CHATGPT_LOCAL_REASONING_COMPAT` | legacy, o3, think-tags | think-tags | How reasoning is returned to the client |\n| `--fast-mode` | `CHATGPT_LOCAL_FAST_MODE` | true\u002Ffalse | false | Priority processing for supported models |\n| `--enable-web-search` | `CHATGPT_LOCAL_ENABLE_WEB_SEARCH` | true\u002Ffalse | false | Allow the model to search the web |\n| `--expose-reasoning-models` | `CHATGPT_LOCAL_EXPOSE_REASONING_MODELS` | true\u002Ffalse | false | List each reasoning level as its own model |\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Web search in a request\u003C\u002Fb>\u003C\u002Fsummary>\n\n```json\n{\n  \"model\": \"gpt-5.4\",\n  \"messages\": [{\"role\": \"user\", \"content\": \"latest news on ...\"}],\n  \"responses_tools\": [{\"type\": \"web_search\"}],\n  \"responses_tool_choice\": \"auto\"\n}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Fast mode in a request\u003C\u002Fb>\u003C\u002Fsummary>\n\n```json\n{\n  \"model\": \"gpt-5.4\",\n  \"input\": \"summarize this\",\n  \"fast_mode\": true\n}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n## Notes\n\nUse responsibly and at your own risk. This project is not affiliated with OpenAI.\n\n\u003Cbr>\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRayBytes_ChatMock_readme_9d74757f2c84.png)](https:\u002F\u002Fwww.star-history.com\u002F#RayBytes\u002FChatMock&Timeline)\n","\u003Cdiv align=\"center\">\n\n# ChatMock\n\n**让 Codex 在你最喜欢的聊天应用和编程工具中工作。**\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fchatmock?color=blue&label=pypi)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatmock\u002F)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fpyversions\u002Fchatmock)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fchatmock\u002F)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FRayBytes\u002FChatMock)](LICENSE)\n[![Stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FRayBytes\u002FChatMock?style=flat)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fstargazers)\n[![Last Commit](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002FRayBytes\u002FChatMock)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fcommits\u002Fmain)\n[![Issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FRayBytes\u002FChatMock)](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues)\n\n\u003Cbr>\n\n\n\u003C\u002Fdiv>\n\n\u003Cbr>\n\n## 安装\n\n#### Homebrew\n```bash\nbrew tap RayBytes\u002Fchatmock\nbrew install chatmock\n```\n\n#### pipx \u002F pip\n```bash\npipx install chatmock\n```\n\n#### GUI\n从 [releases](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Freleases) 下载（macOS 和 Windows）\n\n#### Docker\n请参阅 [DOCKER.md](DOCKER.md)\n\n\u003Cbr>\n\n## 快速入门\n\n```bash\n# 1. 使用你的 ChatGPT 账号登录\nchatmock login\n\n# 2. 启动服务器\nchatmock serve\n```\n\n服务器默认运行在 `http:\u002F\u002F127.0.0.1:8000`。对于兼容 OpenAI 的应用，可以使用 `http:\u002F\u002F127.0.0.1:8000\u002Fv1` 作为基础 URL。\n\n\u003Cbr>\n\n## 使用方法\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>Python\u003C\u002Fb>\u003C\u002Fsummary>\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    base_url=\"http:\u002F\u002F127.0.0.1:8000\u002Fv1\",\n    api_key=\"anything\"  # 不会进行校验\n)\n\nresponse = client.chat.completions.create(\n    model=\"gpt-5.4\",\n    messages=[{\"role\": \"user\", \"content\": \"hello\"}]\n)\nprint(response.choices[0].message.content)\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>cURL\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\ncurl http:\u002F\u002F127.0.0.1:8000\u002Fv1\u002Fchat\u002Fcompletions \\\n  -H \"Content-Type: application\u002Fjson\" \\\n  -d '{\n    \"model\": \"gpt-5.4\",\n    \"messages\": [{\"role\": \"user\", \"content\": \"hello\"}]\n  }'\n```\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n## 支持的模型\n\n- `gpt-5.4`\n- `gpt-5.4-mini`\n- `gpt-5.2`\n- `gpt-5.1`\n- `gpt-5`\n- `gpt-5.3-codex`\n- `gpt-5.3-codex-spark`\n- `gpt-5.2-codex`\n- `gpt-5-codex`\n- `gpt-5.1-codex`\n- `gpt-5.1-codex-max`\n- `gpt-5.1-codex-mini`\n- `codex-mini`\n\n\u003Cbr>\n\n## 功能特性\n\n- 工具\u002F函数调用\n- 视觉\u002F图像输入\n- 思考摘要（通过 think 标签）\n- 可配置的思考力度\n- 针对支持模型的快速模式\n- 网络搜索工具\n- 兼容 OpenAI 的 `\u002Fv1\u002Fresponses`（HTTP + WebSocket）\n- 兼容 Ollama 的端点\n- 将推理力度作为独立模型公开（可选）\n\n\u003Cbr>\n\n## 配置选项\n\n所有标志都位于 `chatmock serve` 命令之后。这些也可以通过环境变量设置。\n\n| 标志 | 环境变量 | 选项 | 默认值 | 描述 |\n|------|----------|------|--------|------|\n| `--reasoning-effort` | `CHATGPT_LOCAL_REASONING_EFFORT` | 无、极简、低、中、高、超高 | 中 | 模型思考的难度 |\n| `--reasoning-summary` | `CHATGPT_LOCAL_REASONING_SUMMARY` | 自动、简洁、详细、无 | 自动 | 思考摘要的详细程度 |\n| `--reasoning-compat` | `CHATGPT_LOCAL_REASONING_COMPAT` | 传统、o3、think 标签 | think 标签 | 如何将推理结果返回给客户端 |\n| `--fast-mode` | `CHATGPT_LOCAL_FAST_MODE` | true\u002Ffalse | false | 对支持模型的优先处理 |\n| `--enable-web-search` | `CHATGPT_LOCAL_ENABLE_WEB_SEARCH` | true\u002Ffalse | false | 允许模型进行网络搜索 |\n| `--expose-reasoning-models` | `CHATGPT_LOCAL_EXPOSE_REASONING_MODELS` | true\u002Ffalse | false | 将每个推理级别作为独立模型列出 |\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>请求中的网络搜索\u003C\u002Fb>\u003C\u002Fsummary>\n\n```json\n{\n  \"model\": \"gpt-5.4\",\n  \"messages\": [{\"role\": \"user\", \"content\": \"关于...的最新消息\"}],\n  \"responses_tools\": [{\"type\": \"web_search\"}],\n  \"responses_tool_choice\": \"auto\"\n}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>请求中的快速模式\u003C\u002Fb>\u003C\u002Fsummary>\n\n```json\n{\n  \"model\": \"gpt-5.4\",\n  \"input\": \"总结这段内容\",\n  \"fast_mode\": true\n}\n```\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n## 注意事项\n\n请负责任地使用，并自行承担风险。本项目与 OpenAI 无任何关联。\n\n\u003Cbr>\n\n## 星标历史\n\n[![星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRayBytes_ChatMock_readme_9d74757f2c84.png)](https:\u002F\u002Fwww.star-history.com\u002F#RayBytes\u002FChatMock&Timeline)","# ChatMock 快速上手指南\n\nChatMock 是一个开源工具，允许你在常用的聊天应用和编程工具中使用 ChatGPT（Codex）的能力。它通过本地启动一个兼容 OpenAI API 格式的服务端来实现这一功能。\n\n## 环境准备\n\n*   **操作系统**：macOS、Windows 或 Linux（Docker 支持）。\n*   **运行环境**：\n    *   方案 A（推荐）：已安装 `Homebrew` (macOS\u002FLinux) 或 `pipx`。\n    *   方案 B：已安装 Python 3.8+ 及 `pip`。\n    *   方案 C：图形界面用户可直接下载安装包，无需配置命令行环境。\n*   **账号要求**：需要拥有有效的 ChatGPT 账号用于登录验证。\n\n## 安装步骤\n\n请选择以下任意一种方式进行安装：\n\n### 方式一：使用 pipx（推荐，隔离环境）\n```bash\npipx install chatmock\n```\n\n### 方式二：使用 Homebrew (macOS\u002FLinux)\n```bash\nbrew tap RayBytes\u002Fchatmock\nbrew install chatmock\n```\n\n### 方式三：使用 pip\n```bash\npip install chatmock\n```\n\n### 方式四：图形界面 (GUI)\n访问 [Releases 页面](https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Freleases) 下载对应系统（macOS 或 Windows）的安装包直接安装。\n\n> **注**：国内用户若遇到下载慢的问题，可配置 pip 国内镜像源（如清华源）：\n> `pip install chatmock -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 基本使用\n\n### 1. 登录账号\n在终端执行以下命令，按照提示使用你的 ChatGPT 账号进行登录：\n```bash\nchatmock login\n```\n\n### 2. 启动服务\n登录成功后，启动本地服务器：\n```bash\nchatmock serve\n```\n服务默认运行在 `http:\u002F\u002F127.0.0.1:8000`。对于兼容 OpenAI 的客户端，请使用基础 URL：`http:\u002F\u002F127.0.0.1:8000\u002Fv1`。\n\n### 3. 调用示例\n启动服务后，即可在任何支持 OpenAI 协议的工具中使用。以下是 Python 调用示例：\n\n```python\nfrom openai import OpenAI\n\nclient = OpenAI(\n    base_url=\"http:\u002F\u002F127.0.0.1:8000\u002Fv1\",\n    api_key=\"anything\"  # 本地模拟，密钥随意填写\n)\n\nresponse = client.chat.completions.create(\n    model=\"gpt-5.4\",\n    messages=[{\"role\": \"user\", \"content\": \"hello\"}]\n)\nprint(response.choices[0].message.content)\n```\n\n**支持的部分模型名称**：`gpt-5.4`, `gpt-5.4-mini`, `gpt-5.3-codex`, `codex-mini` 等（详见官方文档完整列表）。","某全栈开发者希望在本地 IDE（如 Cursor 或 VS Code）中直接调用 ChatGPT 的高级推理能力进行复杂代码重构，同时避免高昂的 API 费用并保护源码隐私。\n\n### 没有 ChatMock 时\n- **集成壁垒高**：主流编程助手默认仅支持标准 OpenAI 接口，无法直接接入基于网页会话的 ChatGPT 账号，导致开发者被迫在浏览器和编辑器间频繁切换复制粘贴。\n- **成本不可控**：若强行通过非官方逆向工程调用 API，不仅面临封号风险，且无法利用已有的 ChatGPT Plus 订阅额度，需额外支付昂贵的按量计费开销。\n- **功能受限**：难以在本地工具中启用 ChatGPT 特有的“深度思考”（Reasoning）模式或联网搜索功能，导致处理复杂逻辑或缺乏最新技术文档支持。\n- **工作流割裂**：无法将自定义的思考摘要格式（Think Tags）无缝融入现有的代码审查流程，降低了人机协作的流畅度。\n\n### 使用 ChatMock 后\n- **无缝本地集成**：只需运行 `chatmock serve`，即可在任意兼容 OpenAI 协议的编辑器中将本地地址设为后端，直接复用浏览器已登录的 ChatGPT 会话。\n- **零边际成本**：完全利用现有的个人订阅配额，无需额外付费，且所有请求经由本地中转，大幅降低了敏感代码外泄的风险。\n- **高级特性直达**：通过简单配置即可在 IDE 内调用 `gpt-5.3-codex` 等模型，并开启 `--enable-web-search` 和深度推理模式，让本地编辑器拥有顶级模型的智商。\n- **灵活可控**：支持通过环境变量精细调节“思考努力程度”和摘要详细度，让 AI 输出的代码解释风格完美匹配团队规范。\n\nChatMock 核心价值在于打破了网页版 ChatGPT 与本地开发工具之间的围墙，让开发者能以零成本、低延迟的方式将最强 AI 智力无缝注入日常编码工作流。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRayBytes_ChatMock_182a7e3f.png","RayBytes","Game_Time","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRayBytes_b8df6c41.jpg",null,"https:\u002F\u002Fgithub.com\u002FRayBytes",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",99.5,{"name":83,"color":84,"percentage":85},"Shell","#89e051",0.4,{"name":87,"color":88,"percentage":89},"Dockerfile","#384d54",0.2,1391,188,"2026-04-13T09:12:20","MIT","macOS, Windows, Linux","未说明",{"notes":97,"python":98,"dependencies":99},"该工具是一个本地代理服务器，用于将 ChatGPT 账号模拟为 OpenAI 兼容的 API 接口。安装方式包括 Homebrew (macOS)、pipx\u002Fpip、GUI 安装包 (macOS & Windows) 和 Docker。运行前需执行 'chatmock login' 登录 ChatGPT 账号，默认服务地址为 http:\u002F\u002F127.0.0.1:8000。项目非 OpenAI 官方出品，使用需自行承担风险。","未说明 (通过 PyPI badge 推断支持主流 Python 3 版本，具体需参考 PyPI 页面)",[100],"openai (客户端示例依赖)",[15,14,35,52,13],[103,104,105,106,107,108,109,110],"ai","chatgpt","codex","gpt-5","ollama","openai","openai-codex-cli","openai-codex-intergration","2026-03-27T02:49:30.150509","2026-04-14T05:00:08.361518",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},32582,"在 Docker 或远程服务器上运行时，OAuth 回调认证失败（提示 localhost 无法解析）怎么办？","这是因为回调 URL 默认指向 localhost。解决方法是在启动服务时添加 `--host` 参数以绑定到所有接口，并确保使用正确的 IP 地址进行访问。例如：\n1. 启动时使用：`python3 chatmock.py serve --host 0.0.0.0`\n2. 如果是 Docker 环境，确保端口映射正确，并在浏览器中通过服务器的实际 IP 地址访问，而不是 localhost。\n3. 用户反馈通过拉取最新版本并使用 `--host 0.0.0.0` 成功解决了认证和网络访问问题。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F26",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},32583,"遇到 HTTP 429 错误（速率限制）或 409 错误是什么原因？","HTTP 429 通常表示触发了速率限制。根据社区反馈：\n1. 尝试增加请求间隔（如 5 小时或 24 小时延迟）可能有效。\n2. 如果收到 409 错误，可能是达到了每周的使用限额。\n3. 目前没有一个公开的页面可以直接查询具体的限制状态，建议检查您的账户套餐限制。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F23",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},32584,"如何列出并使用多个模型（而不仅仅是默认的 gpt-5）？","该功能已在最新提交中实现。您可以通过以下方式使用：\n1. 克隆最新仓库代码或使用 ZIP 下载（在新版本发布前，brew 或 App 可能未更新）。\n2. 启动时添加参数：`python3 chatmock.py serve --expose-reasoning-models`。\n注意：目前 OpenAI 主要只提供 GPT-5 模型，此功能主要用于调试推理模型或特定场景。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F2",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},32585,"是否支持 Codex 5.3 模型？","是的，目前已支持 Codex 5.3。维护者确认 `5.3-codex` 已经合并到主分支中。如果您需要使用该模型，请确保拉取最新的代码库。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F92",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},32586,"Open WebUI 报告错误的 Ollama 模型标签或出现 404 连接错误怎么办？","这通常是因为 ChatMock 的某些 API 端点（如 `\u002Fapi\u002Fps`）与 Open WebUI 预期的 Ollama 接口不完全兼容，或者 Docker 网络配置问题。\n建议尝试以下方案：\n1. 不要使用 Docker 版本，尝试直接在本地运行 Python 服务器：`python chatmock.py serve --host 0.0.0.0 --port 8000`。\n2. 检查日志中是否有 `Connection error: 404` 指向 `\u002Fapi\u002Fps` 或其他非标准端点，这表明客户端（如 Open WebUI）可能在请求 ChatMock 不支持的 Ollama 特有接口。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F78",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},32587,"登录后出现 500 错误（Token exchange failed \u002F TLS\u002FSSL connection closed）如何解决？","此问题通常发生在登录回调阶段，可能的原因及解决方法包括：\n1. **代理问题**：如果您使用了网络代理，可能会干扰 SSL 连接或回调请求，尝试关闭代理后重试。\n2. **本地回环问题**：确保回调 URL 正确指向本地服务端口（默认为 1455 或启动时指定的端口）。\n3. **复现困难**：维护者表示难以复现此问题，如果上述方法无效且您使用的是有效账号，建议检查防火墙设置或暂时禁用代理软件。","https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fissues\u002F62",[145,150,155,160,165,170],{"id":146,"version":147,"summary_zh":148,"released_at":149},247337,"v1.35","## 已合并的 Pull Request\n* 修复工具调用参数序列化问题，作者：@phawrylak，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F39\n* 记录用于推理和网页搜索的 Docker 环境开关，作者：@alexx-ftw，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F64\n* 添加贡献指南，作者：@alexx-ftw，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F48\n* 修复：在流式传输过程中添加对 ChunkedEncodingError 的优雅错误处理，作者：@alexx-ftw，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F57\n* 新特性：提升与某些应用的兼容性，作者：@Magniquick，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F72\n* 移除 GPT-5.1 模型中的“minimal”版本，新增 gpt-5.1-codex-max，作者：@RayBytes，链接：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F80\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fcompare\u002Fv1.3...v1.35","2025-11-26T07:39:39",{"id":151,"version":152,"summary_zh":153,"released_at":154},247338,"v1.3","\u003Cimg width=\"831\" height=\"99\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F45dee0d3-e2fb-4e59-80d6-ee511c290dbc\" \u002F>\n\n本次发布新增了 GPT-5-Codex 模型！根据我有限的测试，在大多数思考模式下，尤其是在复杂度较低的情况下，它的运行速度明显快于普通的 GPT-5。快来体验吧！\n\n自上一次发布以来，我们还进行了一些其他值得注意的改动。\n\n# 更改日志\n\n# 原生 OpenAI 网络搜索功能\n该功能的工作方式与 ChatGPT 应用中的常规网络搜索相同。您可以通过在服务命令中添加 `--enable-web-search` 参数来启用网络搜索。目前此功能仍为可选，但如果您认为应该有所不同，请通过 GitHub 问题提交反馈！\n\n如果您以编程方式使用 API，可以在 README 中查看如何发送已启用网络搜索的请求示例。\n\n\n# 将推理强度作为独立模型\n如果您曾在聊天应用中遇到难以调整模型推理强度的问题，那么此功能将为您提供帮助。只需在服务命令末尾添加 `--expose-reasoning-models` 参数，具有不同推理强度的模型（如 gpt-5、gpt-5-codex）就会分别以不同的模型名称提供。这意味着您将拥有诸如 gpt-5-minimal、gpt-5-low、gpt-5-medium、gpt-5-high 等模型标识符，从而可以轻松地在模型切换器中进行选择。\n\n## 注意事项\n\n目前，GUI 在这些更新的配置方面稍显滞后。我们也诚挚地邀请大家为 GUI 提供帮助并提交 PR，并希望改进应用程序的构建流程，尤其是针对 Windows 平台！\n\n如果您希望通过 Homebrew 升级安装（这也是本项目的推荐安装方式），请执行 `brew upgrade chatmock`。\n\n# 非常感谢以下各位贡献者的支持与帮助：\n- @alexx-ftw 在 https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F34 中实现的原生 OpenAI 网络搜索工具\n- @mLupine 在 https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F37 中添加的 GPT-5-Codex 支持\n\n**完整更改日志**：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fcompare\u002Fv1.2...v1.3","2025-09-16T15:50:48",{"id":156,"version":157,"summary_zh":158,"released_at":159},247339,"v1.2","\u003Cimg width=\"1312\" height=\"912\" alt=\"无标题\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F218f1254-ef44-4a1e-9c05-883d496a387b\" \u002F>\n\n过去几天里，我们添加了不少改动和新功能，现在它已经足够稳定，可以正式发布啦。\n\n### 更改日志\n\n**令牌缓存**\n服务器现在会智能地生成用于缓存令牌的 ID，并将其发送给 OpenAI，这应该能显著提升使用效率。\n\n**Docker**：\n我们现在提供了一个官方的 Docker 容器，你可以用它在你的网络中跨多台机器运行这个项目。\n\n**Homebrew**  \n现在可以通过 Homebrew 以软件包的形式安装 CLI Python Flask 服务器，这会让使用变得更加方便。\n\n**令牌计数**\n新增了令牌计数功能，这应该能解决 RooCode 等应用中无法显示令牌数量的问题，以及 API 请求似乎永远无法结束的另一个问题。\n\n其他一些较小但很重要的修复包括：\n- 添加了“minimal”推理选项（可能更适合代码场景，并且能为你带来更多使用量）\n- 对整个项目进行了重构，希望能使其在未来更加易于维护。\n\n下一次发布将主要集中在搭建一个完善的 CI\u002FCD 流水线，以确保 ChatMock GUI 应用程序始终可用并针对所有平台进行构建。同时，我们也会继续处理 GitHub 上剩余的 issue。\n\n*更新：Codex 团队也提高了 Plus 方案的使用上限，这也有助于提升性能*\n\n## 来自几位热心贡献者的 Pull Request\n* 更新 requirements.txt，由 @ishanray 在 https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F9 中提交\n* 修复：stream(legacy)：在 reasoning_summary 中包含 delta.reasoning，由 @FammasMaz 在 https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fpull\u002F16 中提交\n\n**完整更改日志**：https:\u002F\u002Fgithub.com\u002FRayBytes\u002FChatMock\u002Fcompare\u002F1.15...v1.2","2025-08-22T13:28:10",{"id":161,"version":162,"summary_zh":163,"released_at":164},247340,"1.15","\u003Cimg width=\"967\" height=\"1133\" alt=\"无标题\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F635d3f15-dfaf-40a4-b50c-79f0febb8e9d\" \u002F>\n\n我终于实现了对系统提示的支持！这使得该项目能够更顺畅地与您喜爱的许多聊天应用集成，尤其是在代码相关的应用场景中。更重要的是，在我进行的小规模测试中，Codex CLI 的系统提示（无法移除）并未对代码质量或工具调用失败等情况造成明显的负面影响。\n\n目前，为了确保各项功能按预期运行，仅提供 macOS 版本。不久后，我将发布一个完整版本，其中包含这一新功能以及几项提升使用体验的功能。在等待期间，您仍然可以在 Windows 或 Linux 上自行运行 Flask 服务器，因为该服务器已包含了这些新改动。","2025-08-18T19:16:37",{"id":166,"version":167,"summary_zh":168,"released_at":169},247341,"1.1","\u003Cimg width=\"640\" height=\"656\" alt=\"图片\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fea77a034-e70f-4095-835c-5f784942ce29\"\u002F>\n\nChatMock 如今正式支持作为与 Ollama 兼容的服务器使用！  \n这使得它能够在仅限于 Ollama API 的应用中使用，例如 Raycast。  \n你只需将当前的 API 地址（默认为 127.0.0.1:8000）填入原本用于配置 Ollama 主机的位置，GPT-5 就会自动作为模型出现。\n此外，我们也为 Ollama 原生添加了工具调用支持以及调整推理力度的功能。\n\n如果遇到任何问题，请提交一个 Issue。\n\n同时也要感谢 @XInTheDark 的这项工作 [https:\u002F\u002Fgithub.com\u002FXInTheDark\u002Fopenai-to-ollama-api](https:\u002F\u002Fgithub.com\u002FXInTheDark\u002Fopenai-to-ollama-api)，它让我能够快速搞定这件事 :)","2025-08-17T07:33:26",{"id":171,"version":172,"summary_zh":173,"released_at":174},247342,"1.0","# 初始发布\n\n这是该项目的完整 GUI 版本。您可以在 GUI 中根据需要修改任何设置，启动本地服务器，并将其最小化到系统托盘，随时待命。如果您发现任何 bug，请随时在 Issues 中提交报告。\n\n*目前仅发布 macOS 版本，Windows 版本将很快推出。*","2025-08-16T11:21:55"]