[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-openai--codex":3,"tool-openai--codex":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":116,"forks":117,"last_commit_at":118,"license":119,"difficulty_score":120,"env_os":121,"env_gpu":122,"env_ram":122,"env_deps":123,"category_tags":128,"github_topics":76,"view_count":129,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":130,"updated_at":131,"faqs":132,"releases":162},7525,"openai\u002Fcodex","codex","Lightweight coding agent that runs in your terminal","Codex 是 OpenAI 推出的一款轻量级编程智能体，专为在终端环境中高效运行而设计。它允许开发者直接在命令行界面与 AI 交互，完成代码生成、调试、重构及项目维护等任务，无需频繁切换至浏览器或集成开发环境，从而显著提升了编码流程的连贯性与专注度。\n\n这款工具主要解决了传统 AI 辅助编程中上下文割裂的问题。通过将智能体本地化运行，Codex 能够更紧密地结合当前工作目录的文件结构，提供更具针对性的代码建议，同时支持以自然语言指令驱动复杂的开发操作，让“对话即编码”成为现实。\n\nCodex 非常适合习惯使用命令行的软件工程师、全栈开发者以及技术研究人员。对于追求极致效率、偏好键盘操作胜过图形界面的极客用户而言，它更是理想的结对编程伙伴。\n\n其独特亮点在于灵活的部署方式：既可作为全局命令行工具通过 npm 或 Homebrew 一键安装，也能无缝对接现有的 ChatGPT 订阅计划（如 Plus 或 Pro），直接复用账户权益。此外，它还提供了从纯文本终端到桌面应用的多形态体验，并支持基于 API 密钥的深度定制，充分满足不同场景下的开发需求。","\u003Cp align=\"center\">\u003Ccode>npm i -g @openai\u002Fcodex\u003C\u002Fcode>\u003Cbr \u002F>or \u003Ccode>brew install --cask codex\u003C\u002Fcode>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Cstrong>Codex CLI\u003C\u002Fstrong> is a coding agent from OpenAI that runs locally on your computer.\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_codex_readme_ee55cdeac7f6.png\" alt=\"Codex CLI splash\" width=\"80%\" \u002F>\n\u003C\u002Fp>\n\u003C\u002Fbr>\nIf you want Codex in your code editor (VS Code, Cursor, Windsurf), \u003Ca href=\"https:\u002F\u002Fdevelopers.openai.com\u002Fcodex\u002Fide\">install in your IDE.\u003C\u002Fa>\n\u003C\u002Fbr>If you want the desktop app experience, run \u003Ccode>codex app\u003C\u002Fcode> or visit \u003Ca href=\"https:\u002F\u002Fchatgpt.com\u002Fcodex?app-landing-page=true\">the Codex App page\u003C\u002Fa>.\n\u003C\u002Fbr>If you are looking for the \u003Cem>cloud-based agent\u003C\u002Fem> from OpenAI, \u003Cstrong>Codex Web\u003C\u002Fstrong>, go to \u003Ca href=\"https:\u002F\u002Fchatgpt.com\u002Fcodex\">chatgpt.com\u002Fcodex\u003C\u002Fa>.\u003C\u002Fp>\n\n---\n\n## Quickstart\n\n### Installing and running Codex CLI\n\nInstall globally with your preferred package manager:\n\n```shell\n# Install using npm\nnpm install -g @openai\u002Fcodex\n```\n\n```shell\n# Install using Homebrew\nbrew install --cask codex\n```\n\nThen simply run `codex` to get started.\n\n\u003Cdetails>\n\u003Csummary>You can also go to the \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Freleases\u002Flatest\">latest GitHub Release\u003C\u002Fa> and download the appropriate binary for your platform.\u003C\u002Fsummary>\n\nEach GitHub Release contains many executables, but in practice, you likely want one of these:\n\n- macOS\n  - Apple Silicon\u002Farm64: `codex-aarch64-apple-darwin.tar.gz`\n  - x86_64 (older Mac hardware): `codex-x86_64-apple-darwin.tar.gz`\n- Linux\n  - x86_64: `codex-x86_64-unknown-linux-musl.tar.gz`\n  - arm64: `codex-aarch64-unknown-linux-musl.tar.gz`\n\nEach archive contains a single entry with the platform baked into the name (e.g., `codex-x86_64-unknown-linux-musl`), so you likely want to rename it to `codex` after extracting it.\n\n\u003C\u002Fdetails>\n\n### Using Codex with your ChatGPT plan\n\nRun `codex` and select **Sign in with ChatGPT**. We recommend signing into your ChatGPT account to use Codex as part of your Plus, Pro, Business, Edu, or Enterprise plan. [Learn more about what's included in your ChatGPT plan](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F11369540-codex-in-chatgpt).\n\nYou can also use Codex with an API key, but this requires [additional setup](https:\u002F\u002Fdevelopers.openai.com\u002Fcodex\u002Fauth#sign-in-with-an-api-key).\n\n## Docs\n\n- [**Codex Documentation**](https:\u002F\u002Fdevelopers.openai.com\u002Fcodex)\n- [**Contributing**](.\u002Fdocs\u002Fcontributing.md)\n- [**Installing & building**](.\u002Fdocs\u002Finstall.md)\n- [**Open source fund**](.\u002Fdocs\u002Fopen-source-fund.md)\n\nThis repository is licensed under the [Apache-2.0 License](LICENSE).\n","\u003Cp align=\"center\">\u003Ccode>npm i -g @openai\u002Fcodex\u003C\u002Fcode>\u003Cbr \u002F>或 \u003Ccode>brew install --cask codex\u003C\u002Fcode>\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Cstrong>Codex CLI\u003C\u002Fstrong> 是 OpenAI 推出的一款可在您本地计算机上运行的编码助手。\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_codex_readme_ee55cdeac7f6.png\" alt=\"Codex CLI 欢迎界面\" width=\"80%\" \u002F>\n\u003C\u002Fp>\n\u003C\u002Fbr>\n如果您希望在代码编辑器中使用 Codex（如 VS Code、Cursor、Windsurf），请\u003Ca href=\"https:\u002F\u002Fdevelopers.openai.com\u002Fcodex\u002Fide\">在您的 IDE 中安装\u003C\u002Fa>。\n\u003C\u002Fbr>如果您想要桌面应用的体验，可以运行 \u003Ccode>codex app\u003C\u002Fcode>，或者访问\u003Ca href=\"https:\u002F\u002Fchatgpt.com\u002Fcodex?app-landing-page=true\">Codex 应用页面\u003C\u002Fa>。\n\u003C\u002Fbr>如果您正在寻找 OpenAI 提供的\u003Cem>云端助手\u003C\u002Fem>——\u003Cstrong>Codex Web\u003C\u002Fstrong>,请前往\u003Ca href=\"https:\u002F\u002Fchatgpt.com\u002Fcodex\">chatgpt.com\u002Fcodex\u003C\u002Fa>。\u003C\u002Fp>\n\n---\n\n## 快速入门\n\n### 安装并运行 Codex CLI\n\n使用您偏好的包管理工具全局安装：\n\n```shell\n# 使用 npm 安装\nnpm install -g @openai\u002Fcodex\n```\n\n```shell\n# 使用 Homebrew 安装\nbrew install --cask codex\n```\n\n然后只需运行 `codex` 即可开始使用。\n\n\u003Cdetails>\n\u003Csummary>您也可以前往 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Freleases\u002Flatest\">最新的 GitHub 发布页面\u003C\u002Fa>,下载适用于您操作系统的相应二进制文件。\u003C\u002Fsummary>\n\n每个 GitHub 发布版本都包含多个可执行文件，但实际使用时，您可能需要以下其中之一：\n\n- macOS\n  - Apple Silicon\u002Farm64：`codex-aarch64-apple-darwin.tar.gz`\n  - x86_64（较旧的 Mac 硬件）：`codex-x86_64-apple-darwin.tar.gz`\n- Linux\n  - x86_64：`codex-x86_64-unknown-linux-musl.tar.gz`\n  - arm64：`codex-aarch64-unknown-linux-musl.tar.gz`\n\n每个压缩包内只有一个文件，文件名中已标明适用平台（例如 `codex-x86_64-unknown-linux-musl`）。解压后，建议将其重命名为 `codex`。\n\n\u003C\u002Fdetails>\n\n### 将 Codex 与您的 ChatGPT 方案结合使用\n\n运行 `codex`，然后选择“使用 ChatGPT 登录”。我们建议您登录自己的 ChatGPT 账户，以便将 Codex 作为 Plus、Pro、Business、Edu 或 Enterprise 方案的一部分来使用。[了解您的 ChatGPT 方案包含哪些内容](https:\u002F\u002Fhelp.openai.com\u002Fen\u002Farticles\u002F11369540-codex-in-chatgpt)。\n\n您也可以使用 API 密钥来使用 Codex，但这需要进行[额外的设置](https:\u002F\u002Fdevelopers.openai.com\u002Fcodex\u002Fauth#sign-in-with-an-api-key)。\n\n## 文档\n\n- [**Codex 文档**](https:\u002F\u002Fdevelopers.openai.com\u002Fcodex)\n- [**贡献指南**](.\u002Fdocs\u002Fcontributing.md)\n- [**安装与构建**](.\u002Fdocs\u002Finstall.md)\n- [**开源基金**](.\u002Fdocs\u002Fopen-source-fund.md)\n\n本仓库采用 [Apache-2.0 许可证](LICENSE)授权。","# Codex CLI 快速上手指南\n\nCodex CLI 是 OpenAI 推出的本地运行编程代理工具，可直接在终端中辅助代码编写、调试与重构。\n\n## 环境准备\n\n- **操作系统**：macOS（Intel 或 Apple Silicon）、Linux（x86_64 或 arm64）\n- **前置依赖**：\n  - 方式一（推荐）：已安装 [Node.js](https:\u002F\u002Fnodejs.org\u002F)（用于通过 npm 安装）\n  - 方式二：macOS 用户已安装 [Homebrew](https:\u002F\u002Fbrew.sh\u002F)\n  - 或直接从 GitHub Release 下载对应平台的二进制文件\n- **账号要求**：需拥有 ChatGPT 账号（Plus\u002FPro\u002FBusiness\u002FEdu\u002FEnterprise 计划）或使用 OpenAI API Key\n\n> 💡 国内用户若访问 npm 或 GitHub 较慢，可配置国内镜像源：\n> - npm 镜像：`npm config set registry https:\u002F\u002Fregistry.npmmirror.com`\n> - GitHub 加速：可使用 [https:\u002F\u002Fghproxy.com](https:\u002F\u002Fghproxy.com) 等代理下载 Release 文件\n\n## 安装步骤\n\n### 方式一：通过 npm 安装（跨平台推荐）\n\n```shell\nnpm install -g @openai\u002Fcodex\n```\n\n### 方式二：通过 Homebrew 安装（仅限 macOS）\n\n```shell\nbrew install --cask codex\n```\n\n### 方式三：手动下载二进制文件\n\n访问 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Freleases\u002Flatest)，根据系统选择对应压缩包：\n\n- **macOS Apple Silicon**：`codex-aarch64-apple-darwin.tar.gz`\n- **macOS Intel**：`codex-x86_64-apple-darwin.tar.gz`\n- **Linux x86_64**：`codex-x86_64-unknown-linux-musl.tar.gz`\n- **Linux arm64**：`codex-aarch64-unknown-linux-musl.tar.gz`\n\n解压后重命名为 `codex` 并加入系统 PATH：\n\n```shell\ntar -xzf codex-*.tar.gz\nmv codex-* codex\nchmod +x codex\nsudo mv codex \u002Fusr\u002Flocal\u002Fbin\u002F\n```\n\n## 基本使用\n\n安装完成后，在终端直接运行：\n\n```shell\ncodex\n```\n\n首次启动时选择 **Sign in with ChatGPT**，按提示登录你的 ChatGPT 账号即可开始使用。\n\n如需使用 API Key 模式，请参考官方认证文档进行额外配置。\n\n> 📌 提示：若希望在 VS Code、Cursor 等编辑器中使用，请前往 [IDE 集成页面](https:\u002F\u002Fdevelopers.openai.com\u002Fcodex\u002Fide) 安装插件；若偏好图形界面，可运行 `codex app` 启动桌面应用。","后端工程师小李需要在没有图形界面的远程 Linux 服务器上紧急修复一个遗留项目的内存泄漏问题，并重构部分核心逻辑。\n\n### 没有 codex 时\n- **环境依赖繁琐**：必须先在本地配置好相同的开发环境或依赖重型 IDE 远程连接，否则无法进行智能代码分析。\n- **上下文切换低效**：需要在浏览器查阅文档、复制代码片段，再手动粘贴到终端编辑器中，极易出错且打断思路。\n- **调试迭代缓慢**：遇到报错时，需人工分析日志并猜测修改方案，反复试错消耗大量时间。\n- **工具链割裂**：纯终端环境下缺乏智能助手，复杂的重构任务往往只能依靠人工逐行审查，效率极低。\n\n### 使用 codex 后\n- **开箱即用**：只需一行命令 `npm i -g @openai\u002Fcodex` 即可在终端直接启动轻量级编程代理，无需额外配置图形界面。\n- **流式闭环开发**：直接在终端内描述需求（如“修复 main.c 的内存泄漏”），codex 自动读取文件、生成代码并应用修改。\n- **智能诊断修复**：运行报错后，codex 能即时分析错误日志并给出修正代码，大幅缩短调试周期。\n- **原生终端体验**：完美融入现有命令行工作流，让工程师在 SSH 会话中也能享受媲美本地 IDE 的智能编码能力。\n\ncodex 将智能编程能力无缝植入终端，让开发者在任何环境下都能实现“所想即所得”的高效编码闭环。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_codex_0cde1e19.png","openai","OpenAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopenai_1960bbf4.png","",null,"https:\u002F\u002Fopenai.com\u002F","https:\u002F\u002Fgithub.com\u002Fopenai",[80,84,88,92,96,99,103,106,109,113],{"name":81,"color":82,"percentage":83},"Rust","#dea584",95,{"name":85,"color":86,"percentage":87},"Python","#3572A5",2.7,{"name":89,"color":90,"percentage":91},"TypeScript","#3178c6",1.4,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",0.3,{"name":97,"color":98,"percentage":95},"Starlark","#76d275",{"name":100,"color":101,"percentage":102},"Shell","#89e051",0.1,{"name":104,"color":105,"percentage":102},"Jupyter Notebook","#DA5B0B",{"name":107,"color":108,"percentage":102},"PowerShell","#012456",{"name":110,"color":111,"percentage":112},"HTML","#e34c26",0,{"name":114,"color":115,"percentage":112},"Nix","#7e7eff",75220,10651,"2026-04-14T14:40:34","Apache-2.0",1,"Linux, macOS","未说明",{"notes":124,"python":122,"dependencies":125},"该工具为本地运行的 CLI 代理，支持通过 npm、Homebrew 或直接下载二进制文件安装。二进制包明确支持 macOS (Apple Silicon\u002Farm64 及 x86_64) 和 Linux (x86_64 及 arm64)，README 中未提及 Windows 支持。运行需登录 ChatGPT 账户（Plus\u002FPro\u002FBusiness\u002FEdu\u002FEnterprise）或配置 OpenAI API Key。未提及具体的 GPU、内存或 Python 版本要求，推测因其可能为预编译二进制文件或依赖云端模型推理。",[126,127],"Node.js (npm)","Homebrew (可选)",[35,13,52],8,"2026-03-27T02:49:30.150509","2026-04-15T06:15:48.827300",[133,138,143,148,153,158],{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},33741,"为什么我的使用额度（Usage）下降速度过快或显示不一致？","这是由于不同区域（数据中心）之间的同步延迟问题导致的，特别是对于地理位置处于区域边界的用户。维护者已添加机制以减少同步延迟。现在如果请求被路由到不同区域，使用统计可能会有微小差异（不超过百分之几），但仅出现在短时间窗口内。如果问题持续，请检查本地客户端与网页仪表板的数据是否一致。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fissues\u002F13568",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},33742,"Codex CLI 在所有提示词上无限挂起且无响应怎么办？","这是一个在 v0.111.0 和 v0.112.0 版本中出现的严重回归问题，会导致模型无限挂起且不消耗令牌。目前的临时解决方案是将 CLI 版本降级至 v0.100.0。如果是 VS Code 扩展用户，建议同时将扩展版本降级至 v0.4.76。请勿使用 v0.100.0 之后的版本直到官方修复发布。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fissues\u002F14048",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},33743,"如何验证 Codex 实际调用的模型版本是否与配置一致？","可以通过运行以下脚本捕获 WebSocket 事件来验证实际使用的模型：\n\nRUST_LOG='codex_api::endpoint::responses_websocket=trace' \\\ncodex exec --skip-git-repo-check --sandbox read-only --model gpt-5.3-codex 'ping' 2>&1 \\\n  | grep -m1 'websocket event: {\"type\":\"response.created\"' \\\n  | sed 's\u002F^.*websocket event: \u002F\u002F' \\\n  | jq -r '.response.model'\n\n如果输出显示的模型名称（如 gpt-5.2）与您配置的（如 gpt-5.3-codex）不符，说明发生了静默路由切换。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fissues\u002F11189",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},33744,"在企业环境或 Docker 容器中登录 Codex 时遇到连接错误或防火墙拦截怎么办？","确保防火墙允许列表中包含以下域名：\n- api.github.com\n- github.com\n- registry.npmjs.org\n- pypi.org\n- files.pythonhosted.org\n- auth.openai.com\n- platform.openai.com\n\n如果遇到 OS Error 10013 或其他连接错误，可能还需要检查是否拦截了 Datadog 等相关遥测服务的域名。建议在开发工具中查看具体的网络请求失败信息以补充允许列表。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fissues\u002F1243",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},33745,"Codex 是否支持子代理（Subagents）功能？","目前官方尚未完全支持子代理功能，但社区有实验性实现。用户需求包括为不同领域（前端、后端等）创建专用代理、上下文隔离以及通过 `\u002Fagents` 命令管理代理。技术实现上，代理定义通常存储在 `~\u002F.codex\u002Fagents.json` 中。当前主要缺失的功能是每个子代理独立的模型\u002F提供者选择能力（例如协调员使用强推理模型，工作节点使用快速编码模型）。请关注官方后续更新以获取原生支持。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fissues\u002F2604",{"id":159,"question_zh":160,"answer_zh":161,"source_url":152},33746,"使用 ChatGPT 登录时遇到账户类型（Pro\u002FPlus）或额度相关的边缘情况如何处理？","系统已针对不同类型的账户（有无额度、Pro 与 Plus 区别等）进行了大量修复。如果您仍然遇到登录问题或看到不适当的提示信息，且该问题未在现有大型讨论帖中被解决，请提交一个新的 Issue 并提供详细的复现步骤。旧的综合性问题帖已锁定，不再接收新的错误报告。",[163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258],{"id":164,"version":165,"summary_zh":166,"released_at":167},263589,"rust-v0.119.0-alpha.26","Release 0.119.0-alpha.26\n\n","2026-04-09T03:55:16",{"id":169,"version":170,"summary_zh":171,"released_at":172},263590,"rust-v0.119.0-alpha.25","Release 0.119.0-alpha.25\n\n","2026-04-09T02:37:30",{"id":174,"version":175,"summary_zh":176,"released_at":177},263591,"rust-v0.119.0-alpha.24","Release 0.119.0-alpha.24\n\n","2026-04-08T23:05:14",{"id":179,"version":180,"summary_zh":181,"released_at":182},263592,"rust-v0.119.0-alpha.23","Release 0.119.0-alpha.23\n\n","2026-04-08T21:49:17",{"id":184,"version":185,"summary_zh":186,"released_at":187},263593,"rust-v0.119.0-alpha.22","Release 0.119.0-alpha.22\n\n","2026-04-08T20:51:31",{"id":189,"version":190,"summary_zh":191,"released_at":192},263594,"rust-v0.119.0-alpha.21","Release 0.119.0-alpha.21\n\n","2026-04-08T18:32:53",{"id":194,"version":195,"summary_zh":196,"released_at":197},263595,"rust-v0.119.0-alpha.20","Release 0.119.0-alpha.20\n\n","2026-04-08T16:38:22",{"id":199,"version":200,"summary_zh":201,"released_at":202},263596,"rust-v0.119.0-alpha.19","Release 0.119.0-alpha.19\n\n","2026-04-08T04:35:54",{"id":204,"version":205,"summary_zh":206,"released_at":207},263577,"rust-v0.121.0-alpha.6","发布 0.121.0-alpha.6\n\n","2026-04-13T21:48:15",{"id":209,"version":210,"summary_zh":211,"released_at":212},263578,"rust-v0.121.0-alpha.4","发布 0.121.0-alpha.4\n\n","2026-04-13T15:34:12",{"id":214,"version":215,"summary_zh":216,"released_at":217},263579,"rust-v0.121.0-alpha.2","版本 0.121.0-alpha.2\n\n","2026-04-11T21:35:48",{"id":219,"version":220,"summary_zh":221,"released_at":222},263580,"rust-v0.121.0-alpha.1","版本 0.121.0-alpha.1\n\n","2026-04-11T17:52:10",{"id":224,"version":225,"summary_zh":226,"released_at":227},263581,"rust-v0.120.0","## 新特性\n- Realtime V2 现在可以在工作仍在运行时流式传输后台代理的进度，并将后续响应放入队列，直到当前响应完成 (#17264, #17306)\n- TUI 中的钩子活动现在更易于扫描，正在运行的钩子会单独显示，而已完成的钩子输出仅在有用时保留 (#17266)\n- 自定义 TUI 状态行可以包含重命名后的线程标题 (#17187)\n- 代码模式工具声明现在包含 MCP `outputSchema` 的详细信息，以便更精确地为结构化工具结果指定类型 (#17210)\n- SessionStart 钩子可以区分通过 `\u002Fclear` 创建的会话与全新启动或恢复的会话 (#17073)\n\n## 错误修复\n- 修复了 Windows 提升权限沙盒对拆分文件系统策略的处理，包括可写根目录下的只读隔离区 (#14568)\n- 修复了针对符号链接的可写根目录和隔离区的沙盒权限处理问题，避免在 shell 和 `apply_patch` 工作流中出现失败 (#15981)\n- 通过在建立 TLS WebSocket 连接之前安装 Rustls 加密提供程序，修复了 `codex --remote wss:\u002F\u002F...` 引发的恐慌 (#17288)\n- 保留了工具搜索结果的原有顺序，而不是按字母顺序重新排序 (#17263)\n- 修复了实时 Stop 钩子提示，使其立即显示，而不再仅在重新加载线程历史记录后才出现 (#17189)\n- 修复了应用服务器在断开连接时的 MCP 清理逻辑，确保未订阅的线程和资源能够正确释放 (#17223)\n\n## 文档更新\n- 在核心 README 中记录了 Windows 沙盒支持提升权限与受限令牌的拆分情况 (#14568)\n- 更新了应用服务器协议文档，以反映新的 `\u002Fclear` SessionStart 来源 (#17073)\n\n## 日常维护\n- 通过重试失败的刷新操作并明确显示持久性失败，而非直接丢弃缓冲项，使发布记录更加可靠 (#17214)\n- 为压缩和 Guardian 审核事件添加了分析模式和元数据配置 (#17155, #17055)\n- 通过发送对话转录的增量更新而非重复发送完整历史记录，提高了 Guardian 后续跟进的效率 (#17269)\n- 为应用服务器事件和内部审批状态添加了稳定的 Guardian 审核 ID (#17298)\n\n## 更改日志\n\n完整更改日志：https:\u002F\u002Fgithub.com\u002Fopenai\u002Fcodex\u002Fcompare\u002Frust-v0.119.0...rust-v0.120.0\n\n- #17268 移除禁用钩子的 Windows 门控 @iceweasel-oai\n- #17267 停止 Realtime V2 response.done 的委托 @aibrahim-oai\n- #14568 修复：支持 Windows 提升权限沙盒中的拆分隔离区 @viyatb-oai\n- #17263 保留 tool_search_output 中的搜索结果顺序 @sayan-oai\n- #17189 在原始事件过滤之前发出实时钩子提示 @abhinav-oai\n- #17288 为远程 WebSocket 客户端安装 rustls 提供程序 @etraut-openai\n- #16969 添加当使用量达到限制时通知工作区所有人的选项 @richardopenai\n- #17278 将 Realtime V2 工具重命名为 background_agent @aibrahim-oai\n- #17280 提取实时输入任务处理器 @aibrahim-oai\n- #17249 在 guardian 中添加 parent_thread_id @won-openai\n- #17264 流式传输 Realtime V2 背景代理的进度 @aibrahim-oai\n- #17210 在代码模式渲染中添加 output_schema @vivi\n- #","2026-04-11T02:53:49",{"id":229,"version":230,"summary_zh":231,"released_at":232},263582,"rust-v0.120.0-alpha.3","版本 0.120.0-alpha.3\n\n","2026-04-11T01:21:21",{"id":234,"version":235,"summary_zh":236,"released_at":237},263583,"rust-v0.119.0","## 新特性\n\n- 实时语音会话现默认采用 v2 WebRTC 路径，支持可配置的传输方式、语音选择、原生 TUI 媒体支持，并为新流程提供了应用服务器覆盖（#16960、#17057、#17058、#17093、#17097、#17145、#17165、#17176、#17183、#17188）。\n- MCP 应用和自定义 MCP 服务器获得了更丰富的支持，包括资源读取、工具调用元数据、自定义服务器工具搜索、服务器驱动的引导式交互、文件参数上传，以及更可靠的插件缓存刷新功能（#16082、#16465、#16944、#17043、#15197、#16191、#16947）。\n- 远程\u002F应用服务器工作流现支持出口 WebSocket 传输、远程 `--cd` 转发、运行时远程控制启用、沙箱感知的文件系统 API，以及实验性的 `codex exec-server` 子命令（#15951、#16700、#16973、#16751、#17059、#17142、#17162）。\n- TUI 现可通过 `Ctrl+O` 复制最新的代理响应，同时在 SSH 和跨平台环境下具备更好的剪贴板行为（#16966）。\n- `\u002Fresume` 现可在 TUI 中直接通过会话 ID 或名称跳转到指定会话（#17222）。\n- TUI 通知现在更加可配置，新增对 Warp OSC 9 的支持，并提供一种即使终端处于聚焦状态也接收通知的可选模式（#17174、#17175）。\n\n## 错误修复\n\n- TUI 通过异步获取速率限制来加快启动速度，而 `\u002Fstatus` 现在会刷新过期的限制，不再显示冻结或误导性的配额信息（#16201、#17039）。\n- 恢复流程更加稳定：选择器不再闪烁虚假的空状态，使用更及时的线程名称，稳定了时间戳标签，在零令牌退出时保留恢复提示，并避免在恢复当前线程时崩溃（#16591、#16601、#16822、#16987、#17086）。\n- Composer 和聊天行为更加流畅，修复了粘贴操作的清理问题、CJK 语言的单词导航、过期的 `\u002Fcopy` 输出、百分号解码后的本地文件链接，以及更清晰的截断执行输出提示（#16202、#16829、#16648、#16810、#17076）。\n- 在应用服务器支持的 TUI 会话中，Fast Mode 不再在执行 `\u002Ffast off` 后卡住（#16833）。\n- MCP 的状态和启动过程更加简洁高效：连字符分隔的服务器名称能够正确列出工具，`\u002Fmcp` 避免了缓慢的全量库存探测，禁用的服务器会跳过认证探测，且 `codex mcp-server` 会尊重驻留头信息（#16674、#16831、#17098、#16952）。\n- 沙箱、网络和平台边缘情况得到了进一步完善，包括更清晰的只读 `apply_patch` 错误、沙箱变更后刷新的网络代理策略、抑制无关的 Bubblewrap 警告、macOS HTTP 客户端沙箱崩溃修复，以及 Windows 防火墙地址处理问题（#16885、#17040、#16667、#16670、#17053）。\n\n## 文档更新\n\n- README 现在使用了当前 ChatGPT Business 计划的名称（#16348）。\n- `argument_comment_lint` 的开发者指南已更新，建议优先启动 CI 流程，而非因本地 lint 运行缓慢而阻塞（#16375）。\n- 已移除过时的 `codex-cli` README 内容，以避免过时的设置指导（#17096）。\n- `codex exec --help` 现在展示了更清晰的用法说明和审批模式表述（","2026-04-10T22:44:21",{"id":239,"version":240,"summary_zh":241,"released_at":242},263584,"rust-v0.119.0-alpha.33","版本 0.119.0-alpha.33\n\n","2026-04-10T19:51:36",{"id":244,"version":245,"summary_zh":246,"released_at":247},263585,"rust-v0.119.0-alpha.32","版本 0.119.0-alpha.32\n\n","2026-04-10T17:59:17",{"id":249,"version":250,"summary_zh":251,"released_at":252},263586,"rust-v0.119.0-alpha.29","版本 0.119.0-alpha.29\n\n","2026-04-09T23:51:24",{"id":254,"version":255,"summary_zh":256,"released_at":257},263587,"rust-v0.119.0-alpha.28","Release 0.119.0-alpha.28\n\n","2026-04-09T07:30:33",{"id":259,"version":260,"summary_zh":261,"released_at":262},263588,"rust-v0.119.0-alpha.27","Release 0.119.0-alpha.27\n\n","2026-04-09T05:48:18"]