[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-codingmoh--open-codex":3,"similar-codingmoh--open-codex":110},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":17,"owner_location":17,"owner_email":17,"owner_twitter":18,"owner_website":17,"owner_url":19,"languages":20,"stars":37,"forks":38,"last_commit_at":39,"license":40,"difficulty_score":41,"env_os":42,"env_gpu":43,"env_ram":44,"env_deps":45,"category_tags":51,"github_topics":17,"view_count":41,"oss_zip_url":17,"oss_zip_packed_at":17,"status":55,"created_at":56,"updated_at":57,"faqs":58,"releases":86},6156,"codingmoh\u002Fopen-codex","open-codex","Fully open-source command-line AI assistant inspired by OpenAI Codex, supporting local language models.","open-codex 是一款受 OpenAI Codex 启发的开源命令行 AI 助手，专为终端操作设计。它能将用户的自然语言指令（如“查找所有大于 10MB 的图片”）直接转化为可执行的 Shell 命令，帮助用户摆脱记忆复杂语法的烦恼，显著提升日常运维和开发效率。\n\n这款工具特别适合开发者、系统管理员以及习惯使用终端的技术人员。无论是 macOS、Linux 还是 Windows 用户，都能通过它轻松实现自动化任务。其核心亮点在于完全本地化运行：支持集成 Ollama 调用 LLaMA3、Mistral 等本地大模型，无需联网或配置云端 API 密钥，确保数据隐私与安全。在执行任何命令前，open-codex 都会暂停并请求用户确认，提供“执行”、“复制”或“中止”的选项，有效防止误操作带来的风险。\n\n安装方式灵活，支持 Homebrew、pipx 或直接源码部署。作为一个轻量级且注重隐私的编程代理，open-codex 让本地 AI 赋能终端工作流变得简单可靠，是追求高效与安全兼顾的极客们的理想选择。","# Open Codex\n\n\u003Ch1 align=\"center\">Open Codex CLI\u003C\u002Fh1>\n\u003Cp align=\"center\">Lightweight coding agent that runs in your terminal\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ccode>brew tap codingmoh\u002Fopen-codex && brew install open-codex\u003C\u002Fcode>\u003C\u002Fp>\n\n![Codex demo GIF using: codex \"explain this codebase to me\"](.\u002F.github\u002Fdemo.gif)\n\n---\n\n**Open Codex** is a fully open-source command-line AI assistant inspired by OpenAI Codex, supporting local language models like `phi-4-mini` and **full integration with Ollama**.\n\n🧠 **Runs 100% locally** – no OpenAI API key required. Everything works offline.\n\n---\n\n## Supports\n\n* **One-shot mode**: `open-codex \"list all folders\"` -> returns shell command\n* **Ollama integration** for (e.g., LLaMA3, Mistral)\n* Native execution on **macOS, Linux, and Windows**\n\n---\n## ✨ Features\n\n- Natural Language → Shell Command (via local or Ollama-hosted LLMs)\n- Local-only execution: no data sent to the cloud\n- Confirmation before running any command\n- Option to copy to clipboard \u002F abort \u002F execute\n- Colored terminal output for better readability\n- Ollama support: use advanced LLMs with `--ollama --model llama3`\n\n### 🔍 Example with Ollama:\n\n```bash\nopen-codex --ollama --model llama3 \"find all JPEGs larger than 10MB\"\n```\n\nCodex will:\n\n1. Send your prompt to the Ollama API (local server, e.g. on `localhost:11434`)\n2. Return a shell command suggestion (e.g., `find . -name \"*.jpg\" -size +10M`)\n3. Prompt you to execute, copy, or abort\n\n> 🛠️ You must have [Ollama](https:\u002F\u002Follama.com) installed and running locally to use this feature.\n\n---\n\n## 🧱 Future Plans\n\n- Interactive, context-aware mode\n- Fancy TUI with `textual` or `rich`\n- Full interactive chat mode\n- Function-calling support\n- Whisper-based voice input\n- Command history & undo\n- Plugin system for workflows\n\n---\n\n## 📦 Installation\n\n\n### 🔹 Option 1: Install via Homebrew (Recommended for MacOS)\n\n```bash\nbrew tap codingmoh\u002Fopen-codex\nbrew install open-codex\n```\n\n\n### 🔹 Option 2: Install via pipx (Cross-platform)\n\n```bash\npipx install open-codex\n```\n\n### 🔹 Option 3: Clone & install locally\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex.git\ncd open_codex\npip install .\n```\n\nOnce installed, use the `open-codex` CLI globally.\n\n---\n\n## 🚀 Usage Examples\n\n### ▶️ One-shot mode\n\n```bash\nopen-codex \"untar file abc.tar\"\n```\n✅ Codex suggests a shell command  \n✅ Asks for confirmation \u002F add to clipboard \u002F abort  \n✅ Executes if approved\n\n### ▶️ Using Ollama\n\n```bash\nopen-codex --ollama --model llama3 \"delete all .DS_Store files recursively\"\n```\n\n---\n\n## 🛡️ Security Notice\n\nAll models run **locally**. Commands are executed **only after your explicit confirmation**.\n\n---\n\n## 🧑‍💻 Contributing\n\nPRs welcome! Ideas, issues, improvements — all appreciated.\n\n---\n\n## 📝 License\n\nMIT\n\n---\n\n❤️ Built with love and caffeine by [codingmoh](https:\u002F\u002Fgithub.com\u002Fcodingmoh).\n","# 开放编码器\n\n\u003Ch1 align=\"center\">开放编码器命令行工具\u003C\u002Fh1>\n\u003Cp align=\"center\">在您的终端中运行的轻量级编码助手\u003C\u002Fp>\n\u003Cp align=\"center\">\u003Ccode>brew tap codingmoh\u002Fopen-codex && brew install open-codex\u003C\u002Fcode>\u003C\u002Fp>\n\n![使用 Codex 的演示 GIF：codex \"给我解释一下这个代码库\"](.github\u002Fdemo.gif)\n\n---\n\n**开放编码器** 是一款完全开源的命令行 AI 助手，灵感来源于 OpenAI Codex，支持本地语言模型如 `phi-4-mini`，并**与 Ollama 完全集成**。\n\n🧠 **100% 本地运行** – 无需 OpenAI API 密钥。一切均可离线工作。\n\n---\n\n## 支持功能\n\n* **一次性模式**: `open-codex \"列出所有文件夹\"` -> 返回 shell 命令\n* **Ollama 集成**（例如 LLaMA3、Mistral）\n* 原生支持 **macOS、Linux 和 Windows**\n\n---\n## ✨ 特性\n\n- 自然语言 → Shell 命令（通过本地或 Ollama 托管的 LLM）\n- 完全本地执行：无数据上传至云端\n- 在执行任何命令前进行确认\n- 可选择复制到剪贴板、取消或直接执行\n- 彩色终端输出，提升可读性\n- Ollama 支持：使用 `--ollama --model llama3` 调用高级 LLM\n\n### 🔍 使用 Ollama 的示例：\n\n```bash\nopen-codex --ollama --model llama3 \"查找所有大于 10MB 的 JPEG 文件\"\n```\n\nCodex 将会：\n\n1. 将您的提示发送到 Ollama API（本地服务器，例如 `localhost:11434`）\n2. 返回一个 shell 命令建议（例如 `find . -name \"*.jpg\" -size +10M`）\n3. 提示您执行、复制或取消\n\n> 🛠️ 您必须在本地安装并运行 [Ollama](https:\u002F\u002Follama.com)，才能使用此功能。\n\n---\n\n## 🧱 未来计划\n\n- 交互式、上下文感知模式\n- 使用 `textual` 或 `rich` 构建炫酷的 TUI 界面\n- 完整的交互式聊天模式\n- 函数调用支持\n- 基于 Whisper 的语音输入\n- 命令历史与撤销功能\n- 工作流插件系统\n\n---\n\n## 📦 安装\n\n\n### 🔹 方法 1：通过 Homebrew 安装（推荐用于 macOS）\n\n```bash\nbrew tap codingmoh\u002Fopen-codex\nbrew install open-codex\n```\n\n\n### 🔹 方法 2：通过 pipx 安装（跨平台）\n\n```bash\npipx install open-codex\n```\n\n### 🔹 方法 3：克隆并本地安装\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex.git\ncd open_codex\npip install .\n```\n\n安装完成后，即可全局使用 `open-codex` 命令行工具。\n\n---\n\n## 🚀 使用示例\n\n### ▶️ 一次性模式\n\n```bash\nopen-codex \"解压文件 abc.tar\"\n```\n✅ Codex 会建议一条 shell 命令  \n✅ 会询问您是否确认执行、添加到剪贴板或取消  \n✅ 如果确认，则执行该命令\n\n### ▶️ 使用 Ollama\n\n```bash\nopen-codex --ollama --model llama3 \"递归删除所有 .DS_Store 文件\"\n```\n\n---\n\n## 🛡️ 安全提示\n\n所有模型均在**本地**运行。命令仅在您**明确确认**后才会执行。\n\n---\n\n## 🧑‍💻 贡献\n\n欢迎提交 PR！无论是想法、问题还是改进，我们都十分感激。\n\n---\n\n## 📝 许可证\n\nMIT\n\n---\n\n❤️ 由 [codingmoh](https:\u002F\u002Fgithub.com\u002Fcodingmoh) 用爱和咖啡因打造。","# Open Codex 快速上手指南\n\nOpen Codex 是一款轻量级的开源命令行 AI 助手，灵感源自 OpenAI Codex。它支持在本地运行（无需联网或 API Key），可将自然语言指令转换为 Shell 命令，并完美集成 Ollama 以使用 LLaMA3、Mistral 等高级本地大模型。\n\n## 环境准备\n\n*   **操作系统**：macOS、Linux 或 Windows。\n*   **前置依赖**：\n    *   **基础模式**：无需额外依赖，安装即可使用内置轻量模型。\n    *   **Ollama 模式（推荐）**：如需使用更强大的模型（如 `llama3`），需先安装并运行 [Ollama](https:\u002F\u002Follama.com)。\n        *   安装 Ollama 后，确保本地服务正在运行（默认端口 `localhost:11434`）。\n        *   拉取所需模型，例如：`ollama pull llama3`。\n\n## 安装步骤\n\n请选择以下任一方式进行安装：\n\n### 方式一：Homebrew（macOS 用户推荐）\n```bash\nbrew tap codingmoh\u002Fopen-codex\nbrew install open-codex\n```\n\n### 方式二：pipx（跨平台通用）\n确保已安装 `pipx`，然后执行：\n```bash\npipx install open-codex\n```\n\n### 方式三：源码安装\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex.git\ncd open_codex\npip install .\n```\n\n## 基本使用\n\n安装完成后，可在终端全局使用 `open-codex` 命令。工具会在执行前请求确认，确保安全性。\n\n### 1. 基础模式（一键转换）\n直接输入自然语言描述，工具将生成对应的 Shell 命令供你确认、复制或执行。\n\n```bash\nopen-codex \"untar file abc.tar\"\n```\n*流程：AI 建议命令 -> 询问是否执行\u002F复制\u002F取消 -> 确认后执行*\n\n### 2. 结合 Ollama 使用（推荐）\n调用本地部署的强大模型（如 LLaMA3）来处理更复杂的任务。\n\n```bash\nopen-codex --ollama --model llama3 \"delete all .DS_Store files recursively\"\n```\n\n**执行逻辑：**\n1.  将提示词发送至本地 Ollama 服务。\n2.  接收生成的 Shell 命令建议（例如：`find . -name \"*.DS_Store\" -delete`）。\n3.  等待用户确认后方可执行，保障系统安全。","一位后端开发者在清理遗留项目时，需要快速定位并处理分散在深层目录中的特定日志文件，同时确保操作绝对安全且不泄露代码结构。\n\n### 没有 open-codex 时\n- **记忆负担重**：必须准确回忆 `find`、`grep` 或 `xargs` 等复杂命令的具体参数语法，否则需频繁查阅文档。\n- **试错成本高**：手动拼接的命令容易因引号转义或路径错误导致执行失败，需反复修改调试。\n- **隐私顾虑大**：若使用在线 AI 助手生成命令，担心将敏感的目录结构或文件名上传至云端服务器。\n- **操作流程断**：在浏览器复制命令后切换回终端粘贴，打断心流，且缺乏执行前的二次确认机制，误删风险高。\n\n### 使用 open-codex 后\n- **自然语言直达**：直接输入 `open-codex \"找出所有大于 50MB 的 .log 文件\"`，本地模型即刻生成精准的 shell 命令。\n- **零语法焦虑**：无需关心正则细节或参数顺序，open-codex 自动处理复杂的路径匹配和大小过滤逻辑。\n- **数据完全本地化**：依托 Ollama 运行的本地模型（如 Llama3），所有请求均在离线环境完成，彻底杜绝代码泄露。\n- **安全交互闭环**：工具会在终端彩色展示建议命令，强制要求用户确认后才执行，并提供一键复制或中止选项，杜绝误操作。\n\nopen-codex 将繁琐的命令行查询转化为安全的自然语言交互，让开发者在保护隐私的前提下显著提升运维效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcodingmoh_open-codex_8929c913.png","codingmoh","mo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcodingmoh_1aabf95d.jpg",null,"memshift","https:\u002F\u002Fgithub.com\u002Fcodingmoh",[21,25,29,33],{"name":22,"color":23,"percentage":24},"Python","#3572A5",85.4,{"name":26,"color":27,"percentage":28},"Shell","#89e051",10,{"name":30,"color":31,"percentage":32},"Ruby","#701516",4.3,{"name":34,"color":35,"percentage":36},"Makefile","#427819",0.3,678,51,"2026-04-08T17:21:48","MIT",2,"macOS, Linux, Windows","未说明（工具本身为 CLI 代理，若使用本地模型如 phi-4-mini 或通过 Ollama 运行 LLaMA3\u002FMistral，则 GPU 需求取决于所选具体模型的运行要求，README 中未指定硬性显卡指标）","未说明（取决于运行的本地大语言模型大小）",{"notes":46,"python":47,"dependencies":48},"该工具是一个轻量级命令行代理。若要使用高级功能（如运行 LLaMA3 或 Mistral），必须先在本地安装并运行 Ollama 服务。工具默认支持完全离线运行，无需 OpenAI API 密钥。执行任何命令前均需用户显式确认。","未说明（支持通过 pipx 或 pip 安装，暗示需要 Python 环境）",[49,50],"ollama (可选，用于运行外部模型)","phi-4-mini (支持的本地模型示例)",[52,53,54],"语言模型","Agent","插件","ready","2026-03-27T02:49:30.150509","2026-04-10T15:33:13.348470",[59,64,69,74,78,82],{"id":60,"question_zh":61,"answer_zh":62,"source_url":63},27876,"如何在 macOS 上通过 Homebrew 安装并解决 'Bad CPU type' 或 'No such file' 错误？","该问题在 Intel Mac 上已通过版本 0.1.9 修复。如果您遇到 '\u002Fusr\u002Flocal\u002Fbin\u002Fopen-codex: line 2: ... Bad CPU type in executable' 或文件不存在的错误，请确保升级到最新版本（0.1.9 或更高）。\n安装命令：\nbrew install open-codex\n如果问题依旧，请尝试重新安装或清理缓存：\nbrew cleanup open-codex","https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fissues\u002F9",{"id":65,"question_zh":66,"answer_zh":67,"source_url":68},27877,"使用 Ollama 时提示 'Could not connect to Model' 如何解决？","即使 Ollama 正在运行，如果未正确配置主机地址，也可能出现连接错误。请设置 OLLAMA_HOST 环境变量指向本地 Ollama 服务地址。\n在 Windows (PowerShell\u002FCMD) 上执行：\nsetx OLLAMA_HOST http:\u002F\u002Flocalhost:11434\n在 macOS\u002FLinux 上执行：\nexport OLLAMA_HOST=http:\u002F\u002Flocalhost:11434\n设置后重启终端再运行 open-codex 命令。","https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fissues\u002F15",{"id":70,"question_zh":71,"answer_zh":72,"source_url":73},27878,"open-codex 是否支持使用本地已安装的 Ollama 模型？","是的，项目已合并并发布了支持 ChatCompletions API 的版本，可以直接使用本地 Ollama 安装的模型。未来版本还将支持通过 GGUF_DIR 环境变量配置本地 GGUF 模型目录。\n使用时请确保 Ollama 服务正在运行，并通过 --ollama 参数指定模型，例如：\nopen-codex --ollama --model llama3 \"hello\"","https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fissues\u002F5",{"id":75,"question_zh":76,"answer_zh":77,"source_url":73},27879,"如何指定 Ollama 实例的地址？","可以通过设置 OLLAMA_HOST 环境变量来指定 Ollama 实例的地址。默认情况下为 http:\u002F\u002Flocalhost:11434，如果您的 Ollama 运行在其他端口或主机上，请修改此变量。\n示例（Windows）：\nsetx OLLAMA_HOST http:\u002F\u002Fyour-server-ip:11434\n示例（Linux\u002FmacOS）：\nexport OLLAMA_HOST=http:\u002F\u002Fyour-server-ip:11434",{"id":79,"question_zh":80,"answer_zh":81,"source_url":73},27880,"配置文件 (.env 或 open-codex.conf) 的优先级是如何规定的？","根据社区讨论，建议的优先级顺序是：如果使用了 GGUF_DIR 环境变量和 DEFAULT_MODE，那么 open-codex.conf 配置文件（如果存在）应优先于 .env 文件生效。目前维护者正在考虑是否让 .env 覆盖 open-codex.conf，具体行为可能随版本更新而变化，建议查阅最新文档或源码确认当前逻辑。",{"id":83,"question_zh":84,"answer_zh":85,"source_url":68},27881,"为什么提示 'Model xxx not found in Ollama'？","该提示表示您指定的模型尚未下载到本地 Ollama 中。请先使用 ollama pull 命令下载所需模型。\n例如，如果提示找不到 llama3，请运行：\nollama pull llama3\n下载完成后，再次运行 open-codex 命令即可正常使用。您可以运行 ollama list 查看本地已可用的模型列表。",[87,92,97,101,105],{"id":88,"version":89,"summary_zh":90,"released_at":91},188824,"0.1.19","### 🔌 Ollama 集成\n- 运行 Ollama 模型\n- 新增 CLI 标志：\n  - `--ollama`：激活 Ollama 模式\n  - `--model`：选择模型（例如 `llama3`、`mistral` 等）\n  - `--ollama-host`：配置 Ollama API 地址\n- 示例：\n  ```bash\n  open-codex --ollama --model llama3 \"查找所有大于 100MB 的 PDF 文件\"\n  ```\n\n## 🚀 CLI 与用户体验改进\n- 命令建议更简洁易读，输出采用颜色编码\n- 更优的交互流程：\n  - 按键提示：[c] 复制，[e] 执行，[a] 中止\n- 支持 macOS 剪贴板复制功能\n\n## 📦 其他\n- 新依赖：`ollama>=0.4.8`\n- 改进了模型可用性和连接相关的错误处理与日志记录\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fcompare\u002F0.1.15...0.1.19","2025-05-03T23:50:16",{"id":93,"version":94,"summary_zh":95,"released_at":96},188825,"0.1.18","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fcompare\u002F0.1.15...0.1.18\n[修复：添加 freeze_support 以在 PyInstaller 打包中处理多进程](https:\u002F\u002Fgithub.com\u002Fcodingmoh\u002Fopen-codex\u002Fcommit\u002Fdee017cb8c42c28253789682efaccedb4960daa6)","2025-04-25T22:49:41",{"id":98,"version":99,"summary_zh":17,"released_at":100},188826,"0.1.17","2025-04-23T01:03:55",{"id":102,"version":103,"summary_zh":17,"released_at":104},188827,"0.1.16","2025-04-23T00:22:24",{"id":106,"version":107,"summary_zh":108,"released_at":109},188828,"0.1.15","首个支持 phi4-mini 的版本","2025-04-22T23:39:00",[111,123,131,139,147,155],{"id":112,"name":113,"github_repo":114,"description_zh":115,"stars":116,"difficulty_score":117,"last_commit_at":118,"category_tags":119,"status":55},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[53,120,121,122],"开发框架","图像","数据工具",{"id":124,"name":125,"github_repo":126,"description_zh":127,"stars":128,"difficulty_score":117,"last_commit_at":129,"category_tags":130,"status":55},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[120,121,53],{"id":132,"name":133,"github_repo":134,"description_zh":135,"stars":136,"difficulty_score":41,"last_commit_at":137,"category_tags":138,"status":55},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,"2026-04-09T23:34:24",[120,53,52],{"id":140,"name":141,"github_repo":142,"description_zh":143,"stars":144,"difficulty_score":41,"last_commit_at":145,"category_tags":146,"status":55},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[120,121,53],{"id":148,"name":149,"github_repo":150,"description_zh":151,"stars":152,"difficulty_score":41,"last_commit_at":153,"category_tags":154,"status":55},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[54,53,121,120],{"id":156,"name":157,"github_repo":158,"description_zh":159,"stars":160,"difficulty_score":41,"last_commit_at":161,"category_tags":162,"status":55},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[54,120]]