[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-semanser--codel":3,"tool-semanser--codel":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":10,"env_os":109,"env_gpu":110,"env_ram":110,"env_deps":111,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":127,"updated_at":128,"faqs":129,"releases":160},2335,"semanser\u002Fcodel","codel","✨ Fully autonomous AI Agent that can perform complicated tasks and projects using terminal, browser, and editor.","Codel 是一款完全自主的 AI 智能体，能够独立操作终端、浏览器和代码编辑器，协助用户完成复杂的编程任务与项目开发。它主要解决了传统 AI 助手无法直接执行系统命令、实时查阅最新文档或自动调试代码的痛点，将“建议者”升级为真正的“执行者”。\n\n这款工具特别适合开发者、技术研究人员以及希望自动化工作流的极客用户。无论是搭建新项目、修复复杂 Bug，还是根据网络教程编写代码，Codel 都能自主规划步骤并逐一落实。其核心技术亮点在于构建了安全的 Docker 沙箱环境，确保所有操作隔离运行；内置浏览器可实时抓取最新技术文档，配合集成编辑器让用户直观监控文件变更。此外，Codel 支持自部署，兼容 OpenAI 及本地 Ollama 模型，并能根据任务需求自动选择基础镜像，所有操作历史均存入数据库以便追溯。通过简洁的现代界面，用户只需在浏览器中即可启动这一强大的自动化开发伙伴。","\u003Cimg src=\".\u002F.github\u002Fdemo.png\" \u002F>\n\u003Cdiv align=\"center\">Fully autonomous AI Agent that can perform complicated tasks and projects using terminal, browser, and editor.\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n**Discord: https:\u002F\u002Fdiscord.gg\u002FuMaGSHNjzc**\n\n# Features\n- 🔓 Secure. Everything is running in a sandboxed Docker environment.\n- 🤖 Autonomous. Automatically detects the next step and performs it.\n- 🔍 Built-in browser. Fetches latest information from the web (tutorials, docs, etc.) if needed.\n- 📙 Built-in text editor. View all the modified files right in your browser.\n- 🧠 All the history commands and outputs are saved in the PostgreSQL database.\n- 📦 Automatic Docker-image picker based on the user task.\n- 🤳 Self-hosted\n- 💅 Modern UI\n\n# Getting started\nThe simplest way to run Codel is to use a pre-built Docker image. You can find the latest image on the [Github Container Registry](https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fpkgs\u002Fcontainer\u002Fcodel).\n\n\n> [!IMPORTANT]\n> You need to use a corresponding environment variable in order to use any of the supported language models.\n\nYou can run the Docker image with the following command. Remove or change the environment variables according to your needs.\n```bash\ndocker run \\\n  -e OPEN_AI_KEY=your_open_ai_key \\\n  -e OPEN_AI_MODEL=gpt-4-0125-preview \\\n  -e OLLAMA_MODEL=llama2 \\\n  -p 3000:8080 \\\n  -v \u002Fvar\u002Frun\u002Fdocker.sock:\u002Fvar\u002Frun\u002Fdocker.sock \\\n  ghcr.io\u002Fsemanser\u002Fcodel:latest\n```\n\nAlternatively, you can create a `.env` file and run the Docker image with the `--env-file` flag. More information can be found [here](https:\u002F\u002Fdocs.docker.com\u002Freference\u002Fcli\u002Fdocker\u002Fcontainer\u002Frun\u002F#env)\n\nNow you can visit [localhost:3000](localhost:3000) in your browser and start using Codel.\n\n\u003Cdetails>\n    \u003Csummary>Supported environment variables\u003C\u002Fsummary>\n\n    * `OPEN_AI_KEY` - OpenAI API key. You can get the key [here](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys).\n    * `OPEN_AI_MODEL` - OpenAI model (default: gpt-4-0125-preview). The list of supported OpenAI models can be found [here](https:\u002F\u002Fpkg.go.dev\u002Fgithub.com\u002Fsashabaranov\u002Fgo-openai#pkg-constants).\n    * `OPEN_AI_SERVER_URL` - OpenAI server URL (default: https:\u002F\u002Fapi.openai.com\u002Fv1). Change this URL if you are using an OpenAI compatible server.\n    * `OLLAMA_MODEL` - locally hosted Ollama model (default: https:\u002F\u002Follama.com\u002Fmodel). The list of supported Ollama models can be found [here](https:\u002F\u002Follama.com\u002Fmodels).\n    * `OLLAMA_SERVER_URL` - Ollama server URL (default: https:\u002F\u002Fhost.docker.internal:11434). Change this URL if you are using an Ollama compatible server.\n    See backend [.env.example](.\u002Fbackend\u002F.env.example) for more details.\n\n\u003C\u002Fdetails>\n\n# Development\n\nCheck out the [DEVELOPMENT.md](.\u002FDEVELOPMENT.md) for more information.\n\n# Roadmap\n\nYou can find the project's roadmap [here](https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fmilestones).\n\n# Credits\nThis project wouldn't be possible without:\n- https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00352\n- https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.08299\n- https:\u002F\u002Fwww.cognition-labs.com\u002Fintroducing-devin\n- https:\u002F\u002Fgithub.com\u002Fgo-rod\u002Frod\n- https:\u002F\u002Fgithub.com\u002Fsemanser\u002FJsonGenius\n","\u003Cimg src=\".\u002F.github\u002Fdemo.png\" \u002F>\n\u003Cdiv align=\"center\">完全自主的 AI 代理，可通过终端、浏览器和编辑器执行复杂任务和项目。\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n**Discord: https:\u002F\u002Fdiscord.gg\u002FuMaGSHNjzc**\n\n# 功能\n- 🔓 安全。所有操作均在沙箱化的 Docker 环境中运行。\n- 🤖 自主。自动检测下一步并执行。\n- 🔍 内置浏览器。必要时从网上获取最新信息（教程、文档等）。\n- 📙 内置文本编辑器。可在浏览器中直接查看所有已修改的文件。\n- 🧠 所有历史命令和输出都会保存到 PostgreSQL 数据库中。\n- 📦 根据用户任务自动选择 Docker 镜像。\n- 🤳 自托管\n- 💅 现代化 UI\n\n# 快速开始\n运行 Codel 的最简单方式是使用预构建的 Docker 镜像。您可以在 [Github Container Registry](https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fpkgs\u002Fcontainer\u002Fcodel) 上找到最新镜像。\n\n\n> [!重要提示]\n> 若要使用任何受支持的语言模型，您需要设置相应的环境变量。\n\n您可以使用以下命令运行 Docker 镜像。请根据您的需求移除或更改环境变量。\n```bash\ndocker run \\\n  -e OPEN_AI_KEY=your_open_ai_key \\\n  -e OPEN_AI_MODEL=gpt-4-0125-preview \\\n  -e OLLAMA_MODEL=llama2 \\\n  -p 3000:8080 \\\n  -v \u002Fvar\u002Frun\u002Fdocker.sock:\u002Fvar\u002Frun\u002Fdocker.sock \\\n  ghcr.io\u002Fsemanser\u002Fcodel:latest\n```\n\n或者，您也可以创建一个 `.env` 文件，并使用 `--env-file` 标志来运行 Docker 镜像。更多信息请参阅 [这里](https:\u002F\u002Fdocs.docker.com\u002Freference\u002Fcli\u002Fdocker\u002Fcontainer\u002Frun\u002F#env)。\n\n现在，您可以在浏览器中访问 [localhost:3000](localhost:3000)，开始使用 Codel。\n\n\u003Cdetails>\n    \u003Csummary>支持的环境变量\u003C\u002Fsummary>\n\n    * `OPEN_AI_KEY` - OpenAI API 密钥。您可在此处获取密钥：[https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys](https:\u002F\u002Fplatform.openai.com\u002Faccount\u002Fapi-keys)。\n    * `OPEN_AI_MODEL` - OpenAI 模型（默认：gpt-4-0125-preview）。支持的 OpenAI 模型列表请参见：[https:\u002F\u002Fpkg.go.dev\u002Fgithub.com\u002Fsashabaranov\u002Fgo-openai#pkg-constants](https:\u002F\u002Fpkg.go.dev\u002Fgithub.com\u002Fsashabaranov\u002Fgo-openai#pkg-constants)。\n    * `OPEN_AI_SERVER_URL` - OpenAI 服务器地址（默认：https:\u002F\u002Fapi.openai.com\u002Fv1）。如果您使用的是兼容 OpenAI 的服务器，请更改此 URL。\n    * `OLLAMA_MODEL` - 本地托管的 Ollama 模型（默认：https:\u002F\u002Follama.com\u002Fmodel）。支持的 Ollama 模型列表请参见：[https:\u002F\u002Follama.com\u002Fmodels](https:\u002F\u002Follama.com\u002Fmodels)。\n    * `OLLAMA_SERVER_URL` - Ollama 服务器地址（默认：https:\u002F\u002Fhost.docker.internal:11434）。如果您使用的是兼容 Ollama 的服务器，请更改此 URL。\n    更多详细信息请参阅后端的 [.env.example](.\u002Fbackend\u002F.env.example)。\n\n\u003C\u002Fdetails>\n\n# 开发\n有关更多信息，请查看 [DEVELOPMENT.md](.\u002FDEVELOPMENT.md)。\n\n# 路线图\n项目的路线图请参见 [这里](https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fmilestones)。\n\n# 致谢\n本项目离不开以下资源的支持：\n- https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.00352\n- https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.08299\n- https:\u002F\u002Fwww.cognition-labs.com\u002Fintroducing-devin\n- https:\u002F\u002Fgithub.com\u002Fgo-rod\u002Frod\n- https:\u002F\u002Fgithub.com\u002Fsemanser\u002FJsonGenius","# Codel 快速上手指南\n\nCodel 是一个完全自主的 AI 智能体，能够在沙盒化的 Docker 环境中利用终端、浏览器和编辑器执行复杂的任务与项目。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：支持 Docker 的 Linux、macOS 或 Windows (WSL2)。\n*   **核心依赖**：\n    *   [Docker](https:\u002F\u002Fwww.docker.com\u002F)：必须已安装并正在运行。\n    *   [Docker Compose](https:\u002F\u002Fdocs.docker.com\u002Fcompose\u002F)（可选，但推荐）。\n*   **API 密钥**：您需要准备以下任一模型的访问凭证：\n    *   **OpenAI**：有效的 `OPEN_AI_KEY`（需支持 GPT-4 或更高版本以获得最佳效果）。\n    *   **Ollama**：本地部署的 Ollama 服务及模型（如 `llama2`），或兼容的远程服务器地址。\n\n> **注意**：由于 Codel 需要在容器内动态创建子容器来执行任务，宿主机必须挂载 Docker Socket。\n\n## 安装步骤\n\n最简便的方式是直接拉取预构建的 Docker 镜像运行。\n\n### 方式一：命令行直接运行\n\n复制以下命令，并将 `your_open_ai_key` 替换为您实际的 API 密钥。如果您使用 Ollama，请相应调整 `OLLAMA_MODEL` 变量。\n\n```bash\ndocker run \\\n  -e OPEN_AI_KEY=your_open_ai_key \\\n  -e OPEN_AI_MODEL=gpt-4-0125-preview \\\n  -e OLLAMA_MODEL=llama2 \\\n  -p 3000:8080 \\\n  -v \u002Fvar\u002Frun\u002Fdocker.sock:\u002Fvar\u002Frun\u002Fdocker.sock \\\n  ghcr.io\u002Fsemanser\u002Fcodel:latest\n```\n\n### 方式二：使用 .env 文件管理配置（推荐）\n\n为了安全地管理密钥，建议创建一个 `.env` 文件。\n\n1.  创建名为 `.env` 的文件，内容如下：\n    ```env\n    OPEN_AI_KEY=your_open_ai_key\n    OPEN_AI_MODEL=gpt-4-0125-preview\n    OLLAMA_MODEL=llama2\n    # 如果使用国内兼容的 OpenAI 接口，可取消下行注释并修改 URL\n    # OPEN_AI_SERVER_URL=https:\u002F\u002Fapi.your-provider.com\u002Fv1\n    ```\n\n2.  运行容器：\n    ```bash\n    docker run \\\n      --env-file .env \\\n      -p 3000:8080 \\\n      -v \u002Fvar\u002Frun\u002Fdocker.sock:\u002Fvar\u002Frun\u002Fdocker.sock \\\n      ghcr.io\u002Fsemanser\u002Fcodel:latest\n    ```\n\n> **国内用户提示**：如果拉取 `ghcr.io` 镜像速度较慢，可尝试配置 Docker 镜像加速器，或使用代理网络。目前官方未提供专属中国镜像源，请根据实际网络环境优化 Docker 拉取策略。\n\n## 基本使用\n\n启动成功后，即可通过浏览器访问 Codel 的现代化界面。\n\n1.  **访问界面**：\n    打开浏览器，访问地址：[http:\u002F\u002Flocalhost:3000](http:\u002F\u002Flocalhost:3000)\n\n2.  **开始任务**：\n    *   在输入框中输入自然语言指令（例如：“创建一个简单的 Python Flask 应用，包含一个 Hello World 接口”）。\n    *   Codel 将自动分析任务，选择适合的 Docker 基础镜像，并在沙盒环境中执行以下步骤：\n        *   编写代码（使用内置编辑器）。\n        *   运行终端命令（安装依赖、启动服务）。\n        *   联网搜索（如需查阅最新文档）。\n        *   验证结果。\n\n3.  **查看结果**：\n    *   所有执行的历史命令、输出日志及修改的文件都会实时显示在 UI 中，并持久化保存到 PostgreSQL 数据库。\n    *   您可以直接在浏览器中预览和编辑生成的代码文件。\n\n现在，您已经成功部署并开始使用 Codel 进行自主开发了！","某初创团队的后端工程师需要在周末紧急修复一个依赖最新第三方 API 的支付模块故障，并同步更新相关文档。\n\n### 没有 codel 时\n- **环境配置耗时**：为了复现问题，需手动拉取代码、安装特定版本的 Docker 镜像及依赖库，往往耗费数小时排查环境冲突。\n- **信息检索割裂**：需要频繁在浏览器搜索最新 API 文档、在终端运行测试命令、在编辑器修改代码之间来回切换，上下文极易打断。\n- **试错成本高昂**：面对复杂的报错，需人工逐步分析日志并猜测修复方案，一旦操作失误可能污染本地开发环境。\n- **进度难以追踪**：深夜独自调试时，缺乏自动化的步骤记录，导致第二天复盘时难以回忆具体的排查路径和尝试过的方案。\n\n### 使用 codel 后\n- **一键沙箱启动**：codel 自动根据任务选择匹配的 Docker 镜像并在隔离环境中运行，秒级准备好包含所有依赖的开发现场。\n- **全流程自主闭环**：codel 内置浏览器自动抓取最新的支付 API 文档，结合终端报错自主编写修复代码，并在内置编辑器中直接呈现修改结果。\n- **智能决策执行**：遇到复杂逻辑时，codel 自动规划“查询 - 编码 - 测试”的步骤链，无需人工干预即可在沙箱内安全地完成多次试错与验证。\n- **完整历史留痕**：所有执行的命令、输出的日志及思维链条均自动存入 PostgreSQL 数据库，随时可在现代 UI 界面中回溯整个修复过程。\n\ncodel 将原本需要数小时的人工排查与多工具切换工作，转化为一个安全、自主且可追溯的自动化闭环，极大提升了复杂任务的交付效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsemanser_codel_21c75f8e.png","semanser","Andriy Semenets","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsemanser_f1d95523.png",null,"@cloudx-io","Lutsk, Ukraine","semanser@gmail.com","depshub.com","https:\u002F\u002Fgithub.com\u002Fsemanser",[85,89,93,97,101],{"name":86,"color":87,"percentage":88},"TypeScript","#3178c6",57.7,{"name":90,"color":91,"percentage":92},"Go","#00ADD8",39.8,{"name":94,"color":95,"percentage":96},"JavaScript","#f1e05a",1.4,{"name":98,"color":99,"percentage":100},"Dockerfile","#384d54",0.6,{"name":102,"color":103,"percentage":104},"HTML","#e34c26",0.5,2446,201,"2026-04-02T23:31:37","AGPL-3.0","Linux, macOS, Windows","未说明",{"notes":112,"python":110,"dependencies":113},"必须安装 Docker 并运行守护进程；需挂载 Docker Socket (-v \u002Fvar\u002Frun\u002Fdocker.sock:\u002Fvar\u002Frun\u002Fdocker.sock) 以支持沙箱环境；必须配置大模型 API 密钥（如 OPEN_AI_KEY）或本地 Ollama 服务地址；默认通过浏览器访问 localhost:3000 使用界面。",[114,115],"Docker","PostgreSQL",[15,26,13,54,14],[118,119,120,121,122,123,124,125,126],"agent","ai","autonomous-agents","devin","openai","bot","llms","ollama","llama2","2026-03-27T02:49:30.150509","2026-04-06T08:09:02.817556",[130,135,140,145,150,155],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},10895,"如何配置 Codel 以支持本地大语言模型（如 Ollama、LM Studio）？","Codel 支持通过环境变量配置任何兼容 OpenAI 接口的本地模型后端。具体步骤如下：\n1. 设置 `OPEN_AI_BASE_URL` 环境变量指向本地服务地址，例如 Ollama 为 `http:\u002F\u002F127.0.0.1:11434`。\n2. 设置 `OPEN_AI_API_KEY` 为任意字符串（本地模型通常不需要真实密钥）。\n3. 设置 `OPEN_AI_MODEL` 为你想要使用的模型名称（如 `llama2`）。\n这样即可连接到 Ollama、Text Generation WebUI 或 LM Studio 等服务。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F16",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},10893,"后端报错提示 'No such image' 或 'connection not found'，无法启动容器怎么办？","这通常是因为 Codel 尝试拉取不存在的 Docker 镜像（如 `expo\u002Fnode`）或本地缺少基础镜像。解决方案包括：\n1. 确保本地已拉取所需的基础镜像，例如运行 `docker pull node:latest` 或 `docker pull python:latest`。\n2. 如果是镜像预测错误导致，项目后续版本增加了回退机制，默认使用 `debian:latest`。\n3. 尝试重启 Docker 服务或重新初始化 Docker 运行环境。\n4. 更新到最新版本以获取修复：`docker pull ghcr.io\u002Fsemanser\u002Fcodel:latest`。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F13",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},10894,"启动后端时出现 'failed to connect to database' 或 'connection refused' 错误如何解决？","该错误通常是因为数据库连接配置不正确。解决方法取决于操作系统：\n1. 检查是否需要使用 Unix Socket 连接。在某些配置下，需要将主机地址设置为 `unix:\u002F\u002F` 开头。\n2. macOS 用户可能需要指定具体的 Docker Socket 路径，例如：`unix:\u002F\u002F\u002FUsers\u002F\u003C用户名>\u002FLibrary\u002FContainers\u002Fcom.docker.docker\u002FData\u002Fdocker.raw.sock`。\n3. 确保 PostgreSQL 数据库正在运行且监听正确的端口（默认 5432）。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F1",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},10896,"遇到 'client version 1.44 is too new' 的 Docker 版本兼容性错误怎么办？","这是因为 Docker 客户端版本过新而服务端（或库）不支持。解决方法是更新 Codel 到最新版本，该项目已在 v0.2.2 版本中修复了此兼容性问题。\n请执行以下命令更新镜像并重启容器：\n`docker pull ghcr.io\u002Fsemanser\u002Fcodel:latest`\n然后重新运行容器即可。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F54",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},10897,"运行时提示 'Failed to convert tool to task no tool calls found' 或一直询问 'What should I do next?' 如何处理？","这通常是由于模型未能正确返回工具调用格式，或者 Docker 容器状态异常导致的。尝试以下解决步骤：\n1. 完全重置 Docker 环境：停止并删除所有相关的 Codel 容器，然后重新运行。\n2. 确保使用的模型版本较新，旧版本模型可能在工具调用格式上支持不佳。\n3. 如果问题依旧，检查日志确认容器是否正常启动（如 `python:latest` 或 `node:latest` 是否成功创建）。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F61",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},10898,"为什么即使购买了 OpenAI Plus 订阅，仍然提示 API 错误或无法使用？","OpenAI 的 Plus 订阅（每月 $20）仅适用于网页版聊天界面，不包含 API 访问权限。要在 Codel 中使用 GPT-4 等模型，必须单独开通 API 访问并充值。\n解决方法：\n1. 访问 OpenAI 平台页面 (platform.openai.com)。\n2. 购买至少 $5 的预付费信用额度（Pay-as-you-go）。\n3. 生成新的 API Key 并在 Codel 的配置中填入该 Key。\n注意：API 调用是按 Token 计费的，与 Plus 订阅费分开计算。","https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fissues\u002F52",[161,166,171,176],{"id":162,"version":163,"summary_zh":164,"released_at":165},71356,"0.2.2","- Implement docker version negotiation (https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fpull\u002F58)\r\n- Fix an issue with incorrect tools using openai (https:\u002F\u002Fgithub.com\u002Fsemanser\u002Fcodel\u002Fpull\u002F60)","2024-04-05T13:59:25",{"id":167,"version":168,"summary_zh":169,"released_at":170},71357,"0.2.1","- Fixed an issue when using OpenAI models when `ToolPlaceholder` was nil\r\n- Fixed an issue with using a custom ollama server url when running in a docker container\r\n- Added `OLLAMA_SERVER_URL` to the docs","2024-04-05T11:06:51",{"id":172,"version":173,"summary_zh":174,"released_at":175},71358,"0.2.0","- Add local LLMs support via Ollama","2024-04-04T10:22:12",{"id":177,"version":178,"summary_zh":78,"released_at":179},71359,"0.1.0","2024-04-01T09:55:58"]