[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-esxr--langgraph-mcp":3,"similar-esxr--langgraph-mcp":57},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":20,"owner_twitter":21,"owner_website":22,"owner_url":23,"languages":24,"stars":33,"forks":34,"last_commit_at":35,"license":36,"difficulty_score":37,"env_os":38,"env_gpu":39,"env_ram":39,"env_deps":40,"category_tags":47,"github_topics":19,"view_count":51,"oss_zip_url":19,"oss_zip_packed_at":19,"status":52,"created_at":53,"updated_at":54,"faqs":55,"releases":56},8134,"esxr\u002Flanggraph-mcp","langgraph-mcp","LangGraph solution template for MCP","langgraph-mcp 是一个基于 LangGraph 框架和模型上下文协议（MCP）构建的开源解决方案模板，旨在帮助开发者快速打造通用的 AI 智能助手。它核心解决了大语言模型在复杂应用场景中难以标准化连接外部数据源、工具及服务的问题。正如 USB-C 接口统一了硬件连接，MCP 为 AI 应用提供了一套标准协议，而 langgraph-mcp 则利用这一协议，让 AI 能够灵活调用各类外部能力。\n\n该项目特别适合具有一定 Python 基础的 AI 应用开发者和研究人员使用。通过引入多智能体协作模式，langgraph-mcp 内置了一个智能路由机制：当用户发出指令时，系统能自动分析意图，选择最合适的智能体节点，并通过统一的 MCP 接口调用相应工具执行任务。这种设计不仅简化了工作流编排，还极大地提升了系统的扩展性。\n\n其技术亮点在于将复杂的工具发现与路由逻辑自动化。系统能自动收集各个 MCP 服务器提供的工具和资源信息，并将其索引到向量数据库中，从而实现精准的任务分发。此外，项目支持模块化开发，开发者可以轻松替换或添加自定义的向量检索器（如 Milvus），以适应不同的业务需","langgraph-mcp 是一个基于 LangGraph 框架和模型上下文协议（MCP）构建的开源解决方案模板，旨在帮助开发者快速打造通用的 AI 智能助手。它核心解决了大语言模型在复杂应用场景中难以标准化连接外部数据源、工具及服务的问题。正如 USB-C 接口统一了硬件连接，MCP 为 AI 应用提供了一套标准协议，而 langgraph-mcp 则利用这一协议，让 AI 能够灵活调用各类外部能力。\n\n该项目特别适合具有一定 Python 基础的 AI 应用开发者和研究人员使用。通过引入多智能体协作模式，langgraph-mcp 内置了一个智能路由机制：当用户发出指令时，系统能自动分析意图，选择最合适的智能体节点，并通过统一的 MCP 接口调用相应工具执行任务。这种设计不仅简化了工作流编排，还极大地提升了系统的扩展性。\n\n其技术亮点在于将复杂的工具发现与路由逻辑自动化。系统能自动收集各个 MCP 服务器提供的工具和资源信息，并将其索引到向量数据库中，从而实现精准的任务分发。此外，项目支持模块化开发，开发者可以轻松替换或添加自定义的向量检索器（如 Milvus），以适应不同的业务需求。无论是构建增强型聊天机器人、AI 驱动的集成开发环境，还是定制自动化工作流，langgraph-mcp 都提供了一个结构清晰且动态灵活的起点。","# Universal Assistant built with LangGraph and Model Context Protocol (MCP)\n\n![langgraph-mcp-openapi-usecases mp4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_48019d33eebe.png)\n\n[Model Context Protocol (MCP)](https:\u002F\u002Fmodelcontextprotocol.io\u002Fintroduction) is an open protocol that enables seamless integration between LLM applications and external data sources and tools. Whether you're building an AI-powered IDE, enhancing a chat interface, or creating custom AI workflows, MCP provides a standardized way to connect LLMs with the context they need. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.\n\n[LangGraph](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002F) is a framework designed to enable seamless integration of language models into complex workflows and applications. It emphasizes modularity and flexibility. Workflows are represented as graphs. Nodes correspond to actions, tools, or model queries. Edges define the flow of information between them. LangGraph provides a structured yet dynamic way to execute tasks, making it ideal for writing AI applications involving natural language understanding, automation, and decision-making.\n\nIn [this earlier article](https:\u002F\u002Fmedium.com\u002F@pranavdhoolia\u002Fbuilding-and-deploying-a-virtual-assistant-with-langgraph-5c68dabd82db) we enhanced LangGraph's retrieval agent template to develop and deploy an AI solution.\n\nIn this project, we combine LangGraph with MCP to build our own Universal Assistant. For our universal assistant we implement a multi-agent pattern as follows:\n\n![Basic assistant flow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_2c2eb451d915.png)\n\nAssistant receives the user message and decides the agent to use. The agent node decides the right tool to use, and calls the tool on the MCP server. Since all our agents are based on MCP, a single MCP-Agent node is sufficient for LLM based orchestraion, and another single node is sufficient to work with MCP servers to invoke their tools.\n\n\n## Development Setup\n\n1.  Create and activate a virtual environment\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fesxr\u002Flanggraph-mcp.git\n    cd langgraph-mcp\n    python3 -m venv .venv\n    source .venv\u002Fbin\u002Factivate\n    ```\n\n2.  Install Langgraph CLI\n    ```bash\n    pip install -U \"langgraph-cli[inmem]\"\n    ```\n    Note: \"inmem\" extra(s) are needed to run LangGraph API server in development mode (without requiring Docker installation)\n\n3.  Install the dependencies\n    ```bash\n    pip install -e .\n    ```\n\n4.  Configure environment variables\n    ```bash\n    cp env.example .env\n    ```\n\n    Add your `OPENAI_API_KEY`, `GITHUB_PERSONAL_ACCESS_TOKEN` etc. to the `.env`\n\n    **Note**: We have added support for *Milvus Lite Retriever* (support file based URI). Milvus Lite won't work on Windows. For Windows you may need to use Milvus Server (Easy to start using Docker), and change the `MILVUS_DB` config to the server based URI. You may also enhance the [retriever.py](src\u002Flanggraph_mcp\u002Fretriever.py) to add retrievers for your choice of vector databases!\n\n\n## Implementation Details\n\nThere are 3 main parts to our implementation:\n1. Building the Router\n2. The Assistant\n3. A generic MCP wrapper\n\n### Building the Router\n\nOur graph to build the router is implemented in [`build_router_graph.py`](src\u002Flanggraph_mcp\u002Fbuild_router_graph.py). It collects routing information based on tools, prompts, and resources offered by each MCP server using our [`mcp_wrapper.py`](src\u002Flanggraph_mcp\u002Fmcp_wrapper.py). It indexes this routing information for each server in a vector database.\n\n\u003C!--\n```mermaid\nsequenceDiagram\n  participant G as Build-Router\u003Cbr\u002F>Graph\n  participant MW as MCP Wrapper\n  participant MS as MCP Servers\n  participant V as Vector Index\n\n  loop for all mcp-servers in config\n  G ->> MW: Get Routing Information (server-config)\n  MW ->> MS: list_tools\n  MS --) MW: tools\n  MW ->> MS: list_resources\n  MS --) MW: resources\n  MW ->> MS: list_prompts\n  MS --) MW: prompts\n  MW --) G: routing_information 𝒇(tools, resources, prompts)\n  end\n  G ->> V: Build Vector Index (list(Document(page_content=routing_information, metadata{id: mcp_server_name})))\n```\n-->\n\n![Build Router Sequence Diagram](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_80986534ba45.png)\n\n\n### The Assistant\n\nThe assistant graph is implemented in [`assistant_graph.py`](src\u002Flanggraph_mcp\u002Fassistant_graph.py). The following animation describes the role of various nodes and the flow of control thru it, with the help of an example\n\n![Assistant workflow explained with example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_976865e72ab2.gif)\n\n### A Generic MCP Wrapper\n\n[`mcp_wrapper.py`](src\u002Flanggraph_mcp\u002Fmcp_wrapper.py) employs a Strategy Pattern using an abstract base class (`MCPSessionFunction`) to define a common interface for executing various operations on MCP servers. The pattern includes:\n1.  Abstract Interface:\n    - `MCPSessionFunction` defines an async `__call__` method as a contract for all session functions.\n2.  Concrete Implementations:\n    - `RoutingDescription` class implements fetching routing information based on tools, prompts, and resources.\n    - `GetTools` class implements fetching tools for the MCP server and transforming them to the format consumable by LangGraph.\n    - `RunTool` class implements invoking a tool on MCP server and returning its output.\n3.  Processor Function:\n    - `apply` serves as a unified executor. It:\n    - Initializes a session using `stdio_client` from `mcp` library.\n    - Delegates the actual operation to the provided `MCPSessionFunction` instance via `await fn(server_name, session)`.\n4.  Extensibility:\n    - New operations can be added by subclassing `MCPSessionFunction` without modifying the cor    e processor logic. for e.g. we should be able to add support for getting tools and executing tools using this pattern.\n\n## A Demonstration!\n\nHere's an end to end video!\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcf5b9932-33a0-4627-98ca-022979bfb2e7\n","# 基于 LangGraph 和模型上下文协议（MCP）构建的通用助手\n\n![langgraph-mcp-openapi-usecases mp4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_48019d33eebe.png)\n\n[模型上下文协议（MCP）](https:\u002F\u002Fmodelcontextprotocol.io\u002Fintroduction) 是一种开放协议，能够实现大语言模型应用与外部数据源和工具之间的无缝集成。无论您是在构建一个 AI 驱动的 IDE、增强聊天界面，还是创建自定义的 AI 工作流，MCP 都提供了一种标准化的方式来连接 LLM 与其所需的上下文。您可以将 MCP 看作是 AI 应用程序中的 USB-C 接口。就像 USB-C 提供了一种标准化方式来连接您的设备与各种外设和配件一样，MCP 也为 AI 模型连接不同的数据源和工具提供了标准化途径。\n\n[LangGraph](https:\u002F\u002Flangchain-ai.github.io\u002Flanggraph\u002F) 是一个旨在使语言模型无缝集成到复杂工作流和应用程序中的框架。它强调模块化和灵活性。工作流以图的形式表示，节点对应于动作、工具或模型查询，而边则定义了它们之间的信息流动。LangGraph 提供了一种结构化但又动态的任务执行方式，非常适合用于编写涉及自然语言理解、自动化和决策制定的 AI 应用程序。\n\n在 [这篇早期文章](https:\u002F\u002Fmedium.com\u002F@pranavdhoolia\u002Fbuilding-and-deploying-a-virtual-assistant-with-langgraph-5c68dabd82db) 中，我们扩展了 LangGraph 的检索代理模板，以开发并部署一个 AI 解决方案。\n\n在这个项目中，我们将 LangGraph 与 MCP 结合起来，构建我们自己的通用助手。对于我们的通用助手，我们采用了多智能体模式，如下所示：\n\n![基本助手流程](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_2c2eb451d915.png)\n\n助手接收用户消息，并决定使用哪个智能体。该智能体节点会决定使用哪个工具，然后在 MCP 服务器上调用该工具。由于我们所有的智能体都基于 MCP，因此只需一个 MCP-智能体节点即可完成基于 LLM 的编排工作，而另一个单独的节点则足以与 MCP 服务器协作以调用其工具。\n\n## 开发环境搭建\n\n1. 创建并激活虚拟环境\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fesxr\u002Flanggraph-mcp.git\n    cd langgraph-mcp\n    python3 -m venv .venv\n    source .venv\u002Fbin\u002Factivate\n    ```\n\n2. 安装 LangGraph CLI\n    ```bash\n    pip install -U \"langgraph-cli[inmem]\"\n    ```\n    注意：“inmem”额外组件用于在开发模式下运行 LangGraph API 服务器（无需安装 Docker）。\n\n3. 安装依赖项\n    ```bash\n    pip install -e .\n    ```\n\n4. 配置环境变量\n    ```bash\n    cp env.example .env\n    ```\n\n    将您的 `OPENAI_API_KEY`、`GITHUB_PERSONAL_ACCESS_TOKEN` 等添加到 `.env` 文件中。\n\n    **注意**：我们已添加对 *Milvus Lite Retriever* 的支持（支持基于文件的 URI）。Milvus Lite 在 Windows 上无法运行。对于 Windows 用户，您可能需要使用 Milvus Server（通过 Docker 很容易启动），并将 `MILVUS_DB` 配置更改为基于服务器的 URI。您还可以扩展 [retriever.py](src\u002Flanggraph_mcp\u002Fretriever.py)，以添加您选择的向量数据库的检索器！\n\n\n## 实现细节\n\n我们的实现主要分为三个部分：\n1. 构建路由节点\n2. 助手节点\n3. 通用 MCP 包装器\n\n### 构建路由节点\n\n用于构建路由节点的图在 [`build_router_graph.py`](src\u002Flanggraph_mcp\u002Fbuild_router_graph.py) 中实现。它利用我们的 [`mcp_wrapper.py`](src\u002Flanggraph_mcp\u002Fmcp_wrapper.py)，根据每个 MCP 服务器提供的工具、提示和资源收集路由信息，并将这些路由信息按每个服务器索引存储在向量数据库中。\n\n\u003C!--\n```mermaid\nsequenceDiagram\n  participant G as Build-Router\u003Cbr\u002F>Graph\n  participant MW as MCP Wrapper\n  participant MS as MCP Servers\n  participant V as Vector Index\n\n  loop for all mcp-servers in config\n  G ->> MW: Get Routing Information (server-config)\n  MW ->> MS: list_tools\n  MS --) MW: tools\n  MW ->> MS: list_resources\n  MS --) MW: resources\n  MW ->> MS: list_prompts\n  MS --) MW: prompts\n  MW --) G: routing_information 𝒇(tools, resources, prompts)\n  end\n  G ->> V: Build Vector Index (list(Document(page_content=routing_information, metadata{id: mcp_server_name})))\n```\n-->\n\n![构建路由序列图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_80986534ba45.png)\n\n\n### 助手节点\n\n助手节点的图在 [`assistant_graph.py`](src\u002Flanggraph_mcp\u002Fassistant_graph.py) 中实现。以下动画借助示例描述了各个节点的作用以及控制流的传递过程：\n\n![助手工作流程示例说明](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_readme_976865e72ab2.gif)\n\n### 通用 MCP 包装器\n\n[`mcp_wrapper.py`](src\u002Flanggraph_mcp\u002Fmcp_wrapper.py) 使用策略模式，通过一个抽象基类 (`MCPSessionFunction`) 定义了一个用于在 MCP 服务器上执行各种操作的通用接口。该模式包括：\n1. 抽象接口：\n    - `MCPSessionFunction` 定义了一个异步 `__call__` 方法，作为所有会话函数的契约。\n2. 具体实现：\n    - `RoutingDescription` 类实现了根据工具、提示和资源获取路由信息的功能。\n    - `GetTools` 类实现了从 MCP 服务器获取工具，并将其转换为 LangGraph 可消费的格式。\n    - `RunTool` 类实现了在 MCP 服务器上调用工具并返回其输出的功能。\n3. 处理函数：\n    - `apply` 充当统一的执行者。它：\n    - 使用 `mcp` 库中的 `stdio_client` 初始化会话。\n    - 通过 `await fn(server_name, session)` 将实际操作委托给提供的 `MCPSessionFunction` 实例。\n4. 可扩展性：\n    - 可以通过继承 `MCPSessionFunction` 来添加新的操作，而无需修改核心处理逻辑。例如，我们可以使用这种模式来添加获取工具和执行工具的支持。\n\n## 演示！\n\n这里有一个端到端的视频！\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fcf5b9932-33a0-4627-98ca-022979bfb2e7","# langgraph-mcp 快速上手指南\n\nlanggraph-mcp 是一个结合 **LangGraph** 工作流引擎与 **模型上下文协议 (MCP)** 的通用 AI 助手框架。它允许你通过标准化的 MCP 接口连接外部数据源和工具，并利用 LangGraph 的多 Agent 架构自动路由用户请求、选择合适工具并执行任务。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS（推荐）。\n    *   *注意*: 项目默认集成的 **Milvus Lite** 向量数据库不支持 Windows。Windows 用户需使用 Docker 部署 Milvus Server 并修改配置，或直接在 Linux\u002FmacOS\u002FWSL2 环境下开发。\n*   **Python**: 版本 3.10 或更高。\n*   **Git**: 用于克隆代码仓库。\n*   **API Keys**:\n    *   `OPENAI_API_KEY`: 用于驱动 LLM。\n    *   `GITHUB_PERSONAL_ACCESS_TOKEN` (可选): 如果需要使用 GitHub 相关的 MCP 工具。\n\n## 安装步骤\n\n按照以下步骤完成本地开发环境的搭建：\n\n1.  **克隆项目并创建虚拟环境**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fesxr\u002Flanggraph-mcp.git\n    cd langgraph-mcp\n    python3 -m venv .venv\n    source .venv\u002Fbin\u002Factivate\n    ```\n\n2.  **安装 LangGraph CLI**\n    安装带有 `inmem` 扩展的 CLI，以便在不依赖 Docker 的情况下以开发模式运行 LangGraph API 服务器。\n    ```bash\n    pip install -U \"langgraph-cli[inmem]\"\n    ```\n    > **国内加速提示**: 如果下载缓慢，可指定国内镜像源：\n    > `pip install -U \"langgraph-cli[inmem]\" -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n3.  **安装项目依赖**\n    ```bash\n    pip install -e .\n    ```\n    > **国内加速提示**:\n    > `pip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n4.  **配置环境变量**\n    复制示例配置文件并填入你的密钥。\n    ```bash\n    cp env.example .env\n    ```\n    编辑 `.env` 文件，添加必要的凭证：\n    ```text\n    OPENAI_API_KEY=sk-your-openai-key\n    GITHUB_PERSONAL_ACCESS_TOKEN=ghp_your-github-token\n    # 如果使用远程 Milvus 服务器，在此处修改 MILVUS_DB 配置\n    ```\n\n## 基本使用\n\n本项目核心包含三个部分：**路由器 (Router)**、**助手 (Assistant)** 和 **MCP 通用封装**。启动后，系统会自动根据 MCP 服务器提供的工具、资源和提示词构建路由索引，并根据用户输入自动调度 Agent。\n\n### 启动开发服务器\n\n在项目根目录下，使用 LangGraph CLI 启动服务：\n\n```bash\nlanggraph dev\n```\n\n启动成功后，终端会显示本地 API 地址（通常为 `http:\u002F\u002Flocalhost:2024`）以及交互式 Playground 的地址。\n\n### 调用示例\n\n你可以直接向助手发送自然语言指令，系统会自动判断需要调用哪个 MCP 服务器的工具。\n\n**场景示例**：假设你配置了支持 GitHub 和文件检索的 MCP 服务器。\n\n1.  打开浏览器访问 LangGraph Playground UI（由 `langgraph dev` 命令输出）。\n2.  在输入框中输入：\n    ```text\n    帮我查找仓库中关于 authentication 的最新文档，并总结其主要内容。\n    ```\n3.  **执行流程**：\n    *   **Router** 分析意图，识别出需要“搜索文档”和“读取文件”的能力。\n    *   **Assistant** 调度对应的 MCP Agent。\n    *   **MCP Wrapper** 通过 `stdio` 连接到配置的 MCP 服务器，执行具体的 `list_resources` 或 `run_tool` 操作。\n    *   最终返回整合后的回答。\n\n### 自定义扩展\n\n若要添加新的向量数据库检索器或自定义 MCP 操作，可修改以下核心文件：\n*   **路由逻辑**: `src\u002Flanggraph_mcp\u002Fbuild_router_graph.py`\n*   **助手工作流**: `src\u002Flanggraph_mcp\u002Fassistant_graph.py`\n*   **MCP 策略模式实现**: `src\u002Flanggraph_mcp\u002Fmcp_wrapper.py` (继承 `MCPSessionFunction` 即可扩展新功能)","某中型电商公司的后端团队正致力于构建一个能同时处理订单查询、库存更新及 GitHub 代码部署的智能运维助手。\n\n### 没有 langgraph-mcp 时\n- **集成成本高昂**：每接入一个新的内部工具（如 Jira 或自定义数据库），开发人员都需要手动编写大量的胶水代码来定义输入输出格式，耗时且易错。\n- **上下文割裂**：AI 模型难以动态获取外部系统的实时状态，往往只能基于训练数据回答，导致提供的库存信息滞后或错误。\n- **工作流僵化**：面对复杂任务（如“查订单并回滚代码”），硬编码的判断逻辑无法灵活路由，一旦流程变更就需要重构整个应用。\n- **维护困难**：缺乏统一标准，不同工具的连接方式五花八门，新成员上手慢，系统扩展性极差。\n\n### 使用 langgraph-mcp 后\n- **即插即用集成**：借助 MCP 协议的标准接口，团队只需配置即可让 AI 自动发现并调用各类工具，无需为每个工具重复开发连接层。\n- **实时上下文感知**：langgraph-mcp 通过图结构动态编排，使助手能实时从 Milvus 向量库或外部 API 拉取最新数据，确保回复精准可靠。\n- **智能动态路由**：内置的路由器节点能根据用户意图自动选择最佳代理和工具组合，轻松处理跨系统的复杂多步任务。\n- **架构清晰可扩展**：基于 LangGraph 的模块化设计，新增数据源或工具仅需更新配置，大幅降低了长期维护和技术迭代的门槛。\n\nlanggraph-mcp 通过标准化协议与图式编排的结合，将原本繁琐的多工具集成工作转化为灵活、可观测的自动化工作流，极大提升了企业级 AI 助手的落地效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fesxr_langgraph-mcp_48019d33.gif","esxr","Pranav Dhoolia","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fesxr_5ecbdb5d.jpg","Building 👾",null,"dhoolia.pranav@gmail.com","pranav_dhoolia","https:\u002F\u002Fpranav.com.au","https:\u002F\u002Fgithub.com\u002Fesxr",[25,29],{"name":26,"color":27,"percentage":28},"Python","#3572A5",97.9,{"name":30,"color":31,"percentage":32},"Makefile","#427819",2.1,579,107,"2026-04-14T04:09:39","MIT",3,"Linux, macOS","未说明",{"notes":41,"python":42,"dependencies":43},"1. Milvus Lite 不支持 Windows 系统，Windows 用户需使用 Docker 运行 Milvus Server 并修改配置为服务器 URI。2. 开发模式下安装 'langgraph-cli[inmem]' 可无需 Docker 即可运行 LangGraph API 服务器。3. 需要配置 OPENAI_API_KEY 和 GITHUB_PERSONAL_ACCESS_TOKEN 等环境变量。","3.x (通过 python3 命令推断)",[44,45,46],"langgraph-cli[inmem]","mcp","milvus-lite",[48,49,50],"语言模型","开发框架","Agent",2,"ready","2026-03-27T02:49:30.150509","2026-04-17T09:53:29.072078",[],[],[58,68,76,84,94,102],{"id":59,"name":60,"github_repo":61,"description_zh":62,"stars":63,"difficulty_score":37,"last_commit_at":64,"category_tags":65,"status":52},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[50,49,66,67],"图像","数据工具",{"id":69,"name":70,"github_repo":71,"description_zh":72,"stars":73,"difficulty_score":37,"last_commit_at":74,"category_tags":75,"status":52},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[49,66,50],{"id":77,"name":78,"github_repo":79,"description_zh":80,"stars":81,"difficulty_score":51,"last_commit_at":82,"category_tags":83,"status":52},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,"2026-04-16T23:34:05",[49,50,48],{"id":85,"name":86,"github_repo":87,"description_zh":88,"stars":89,"difficulty_score":90,"last_commit_at":91,"category_tags":92,"status":52},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[50,93],"插件",{"id":95,"name":96,"github_repo":97,"description_zh":98,"stars":99,"difficulty_score":51,"last_commit_at":100,"category_tags":101,"status":52},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[49,66,50],{"id":103,"name":104,"github_repo":105,"description_zh":106,"stars":107,"difficulty_score":51,"last_commit_at":108,"category_tags":109,"status":52},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[93,50,66,49]]