[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-teddynote-lab--langgraph-mcp-agents":3,"tool-teddynote-lab--langgraph-mcp-agents":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":77,"difficulty_score":32,"env_os":93,"env_gpu":94,"env_ram":94,"env_deps":95,"category_tags":103,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":107},5647,"teddynote-lab\u002Flanggraph-mcp-agents","langgraph-mcp-agents","LangGraph-powered ReAct agent with Model Context Protocol (MCP) integration. A Streamlit web interface for dynamically configuring, deploying, and interacting with AI agents capable of accessing various data sources and APIs through MCP tools.","langgraph-mcp-agents 是一个基于 LangGraph 构建的智能体开发平台，旨在通过模型上下文协议（MCP）让 AI 轻松连接外部数据源与 API。它提供了一个直观的 Streamlit 网页界面，用户无需编写复杂代码或重启服务，即可动态配置、部署并交互具备 ReAct 推理能力的 AI 智能体。\n\n该项目主要解决了传统 AI 智能体在集成多样化工具时流程繁琐、缺乏可视化监控的痛点。通过内置的工具管理功能，用户可以随时添加或移除 MCP 工具，实时查看智能体的思考过程、工具调用详情及流式响应，并完整保留对话历史，极大提升了调试效率与应用透明度。\n\nlanggraph-mcp-agents 特别适合希望快速构建定制化 AI 应用的开发者、研究人员以及需要验证多工具协作场景的技术团队。其核心技术亮点在于深度整合了 LangChain 的 MCP 适配器架构，将复杂的“主机 - 客户端 - 服务器”通信逻辑封装为友好的图形化操作。此外，项目原生支持 Docker 一键部署，兼容 Intel 及 Apple Silicon 等多种硬件架构，并可选配 LangSmith 进行","langgraph-mcp-agents 是一个基于 LangGraph 构建的智能体开发平台，旨在通过模型上下文协议（MCP）让 AI 轻松连接外部数据源与 API。它提供了一个直观的 Streamlit 网页界面，用户无需编写复杂代码或重启服务，即可动态配置、部署并交互具备 ReAct 推理能力的 AI 智能体。\n\n该项目主要解决了传统 AI 智能体在集成多样化工具时流程繁琐、缺乏可视化监控的痛点。通过内置的工具管理功能，用户可以随时添加或移除 MCP 工具，实时查看智能体的思考过程、工具调用详情及流式响应，并完整保留对话历史，极大提升了调试效率与应用透明度。\n\nlanggraph-mcp-agents 特别适合希望快速构建定制化 AI 应用的开发者、研究人员以及需要验证多工具协作场景的技术团队。其核心技术亮点在于深度整合了 LangChain 的 MCP 适配器架构，将复杂的“主机 - 客户端 - 服务器”通信逻辑封装为友好的图形化操作。此外，项目原生支持 Docker 一键部署，兼容 Intel 及 Apple Silicon 等多种硬件架构，并可选配 LangSmith 进行全链路追踪，让用户能专注于业务逻辑而非环境配置。","# LangGraph Agents + MCP\n\n[![English](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLanguage-English-blue)](README.md) [![Korean](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLanguage-한국어-red)](README_KOR.md)\n\n[![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitHub-langgraph--mcp--agents-black?logo=github)](https:\u002F\u002Fgithub.com\u002Fteddylee777\u002Flanggraph-mcp-agents)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-≥3.12-blue?logo=python&logoColor=white)](https:\u002F\u002Fwww.python.org\u002F)\n[![Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.1.0-orange)](https:\u002F\u002Fgithub.com\u002Fteddylee777\u002Flanggraph-mcp-agents)\n\n![project demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_4af0fa52535b.png)\n\n## Project Overview\n\n![project architecture](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_596ddf7a2749.png)\n\n`LangChain-MCP-Adapters` is a toolkit provided by **LangChain AI** that enables AI agents to interact with external tools and data sources through the Model Context Protocol (MCP). This project provides a user-friendly interface for deploying ReAct agents that can access various data sources and APIs through MCP tools.\n\n### Features\n\n- **Streamlit Interface**: A user-friendly web interface for interacting with LangGraph `ReAct Agent` with MCP tools\n- **Tool Management**: Add, remove, and configure MCP tools through the UI (Smithery JSON format supported). This is done dynamically without restarting the application\n- **Streaming Responses**: View agent responses and tool calls in real-time\n- **Conversation History**: Track and manage conversations with the agent\n\n## MCP Architecture\n\nThe Model Context Protocol (MCP) consists of three main components:\n\n1. **MCP Host**: Programs seeking to access data through MCP, such as Claude Desktop, IDEs, or LangChain\u002FLangGraph.\n\n2. **MCP Client**: A protocol client that maintains a 1:1 connection with the server, acting as an intermediary between the host and server.\n\n3. **MCP Server**: A lightweight program that exposes specific functionalities through a standardized model context protocol, serving as the primary data source.\n\n## Quick Start with Docker\n\nYou can easily run this project using Docker without setting up a local Python environment.\n\n### Requirements (Docker Desktop)\n\nInstall Docker Desktop from the link below:\n\n- [Install Docker Desktop](https:\u002F\u002Fwww.docker.com\u002Fproducts\u002Fdocker-desktop\u002F)\n\n### Run with Docker Compose\n\n1. Navigate to the `dockers` directory\n\n```bash\ncd dockers\n```\n\n2. Create a `.env` file with your API keys in the project root directory.\n\n```bash\ncp .env.example .env\n```\n\nEnter your obtained API keys in the `.env` file.\n\n(Note) Not all API keys are required. Only enter the ones you need.\n- `ANTHROPIC_API_KEY`: If you enter an Anthropic API key, you can use \"claude-3-7-sonnet-latest\", \"claude-3-5-sonnet-latest\", \"claude-3-haiku-latest\" models.\n- `OPENAI_API_KEY`: If you enter an OpenAI API key, you can use \"gpt-4o\", \"gpt-4o-mini\" models.\n- `LANGSMITH_API_KEY`: If you enter a LangSmith API key, you can use LangSmith tracing.\n\n```bash\nANTHROPIC_API_KEY=your_anthropic_api_key\nOPENAI_API_KEY=your_openai_api_key\nLANGSMITH_API_KEY=your_langsmith_api_key\nLANGSMITH_TRACING=true\nLANGSMITH_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGSMITH_PROJECT=LangGraph-MCP-Agents\n```\n\nWhen using the login feature, set `USE_LOGIN` to `true` and enter `USER_ID` and `USER_PASSWORD`.\n\n```bash\nUSE_LOGIN=true\nUSER_ID=admin\nUSER_PASSWORD=admin123\n```\n\nIf you don't want to use the login feature, set `USE_LOGIN` to `false`.\n\n```bash\nUSE_LOGIN=false\n```\n\n3. Select the Docker Compose file that matches your system architecture.\n\n**AMD64\u002Fx86_64 Architecture (Intel\u002FAMD Processors)**\n\n```bash\n# Run container\ndocker compose -f docker-compose.yaml up -d\n```\n\n**ARM64 Architecture (Apple Silicon M1\u002FM2\u002FM3\u002FM4)**\n\n```bash\n# Run container\ndocker compose -f docker-compose-mac.yaml up -d\n```\n\n4. Access the application in your browser at http:\u002F\u002Flocalhost:8585\n\n(Note)\n- If you need to modify ports or other settings, edit the docker-compose.yaml file before building.\n\n## Install Directly from Source Code\n\n1. Clone this repository\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fteddynote-lab\u002Flanggraph-mcp-agents.git\ncd langgraph-mcp-agents\n```\n\n2. Create a virtual environment and install dependencies using uv\n\n```bash\nuv venv\nuv pip install -r requirements.txt\nsource .venv\u002Fbin\u002Factivate  # For Windows: .venv\\Scripts\\activate\n```\n\n3. Create a `.env` file with your API keys (copy from `.env.example`)\n\n```bash\ncp .env.example .env\n```\n\nEnter your obtained API keys in the `.env` file.\n\n(Note) Not all API keys are required. Only enter the ones you need.\n- `ANTHROPIC_API_KEY`: If you enter an Anthropic API key, you can use \"claude-3-7-sonnet-latest\", \"claude-3-5-sonnet-latest\", \"claude-3-haiku-latest\" models.\n- `OPENAI_API_KEY`: If you enter an OpenAI API key, you can use \"gpt-4o\", \"gpt-4o-mini\" models.\n- `LANGSMITH_API_KEY`: If you enter a LangSmith API key, you can use LangSmith tracing.\n```bash\nANTHROPIC_API_KEY=your_anthropic_api_key\nOPENAI_API_KEY=your_openai_api_key\nLANGSMITH_API_KEY=your_langsmith_api_key\nLANGSMITH_TRACING=true\nLANGSMITH_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGSMITH_PROJECT=LangGraph-MCP-Agents\n```\n\n4. (New) Use the login\u002Flogout feature\n\nWhen using the login feature, set `USE_LOGIN` to `true` and enter `USER_ID` and `USER_PASSWORD`.\n\n```bash\nUSE_LOGIN=true\nUSER_ID=admin\nUSER_PASSWORD=admin123\n```\n\nIf you don't want to use the login feature, set `USE_LOGIN` to `false`.\n\n```bash\nUSE_LOGIN=false\n```\n\n## Usage\n\n1. Start the Streamlit application.\n\n```bash\nstreamlit run app.py\n```\n\n2. The application will run in the browser and display the main interface.\n\n3. Use the sidebar to add and configure MCP tools\n\nVisit [Smithery](https:\u002F\u002Fsmithery.ai\u002F) to find useful MCP servers.\n\nFirst, select the tool you want to use.\n\nClick the COPY button in the JSON configuration on the right.\n\n![copy from Smithery](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_c08670138306.png)\n\nPaste the copied JSON string in the `Tool JSON` section.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_3a1ca564cfd6.png\" alt=\"tool json\" style=\"width: auto; height: auto;\">\n\nClick the `Add Tool` button to add it to the \"Registered Tools List\" section.\n\nFinally, click the \"Apply\" button to apply the changes to initialize the agent with the new tools.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_21141b54110e.png\" alt=\"tool json\" style=\"width: auto; height: auto;\">\n\n4. Check the agent's status.\n\n![check status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_cba8d015f5b4.png)\n\n5. Interact with the ReAct agent that utilizes the configured MCP tools by asking questions in the chat interface.\n\n![project demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_4af0fa52535b.png)\n\n## Hands-on Tutorial\n\nFor developers who want to learn more deeply about how MCP and LangGraph integration works, we provide a comprehensive Jupyter notebook tutorial:\n\n- Link: [MCP-HandsOn-KOR.ipynb](.\u002FMCP-HandsOn-KOR.ipynb)\n\nThis hands-on tutorial covers:\n\n1. **MCP Client Setup** - Learn how to configure and initialize the MultiServerMCPClient to connect to MCP servers\n2. **Local MCP Server Integration** - Connect to locally running MCP servers via SSE and Stdio methods\n3. **RAG Integration** - Access retriever tools using MCP for document retrieval capabilities\n4. **Mixed Transport Methods** - Combine different transport protocols (SSE and Stdio) in a single agent\n5. **LangChain Tools + MCP** - Integrate native LangChain tools alongside MCP tools\n\nThis tutorial provides practical examples with step-by-step explanations that help you understand how to build and integrate MCP tools into LangGraph agents.\n\n## License\n\nMIT License \n\n## References\n\n- https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain-mcp-adapters","# LangGraph 代理 + MCP\n\n[![英语](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLanguage-English-blue)](README.md) [![韩语](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLanguage-한국어-red)](README_KOR.md)\n\n[![GitHub](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FGitHub-langgraph--mcp--agents-black?logo=github)](https:\u002F\u002Fgithub.com\u002Fteddylee777\u002Flanggraph-mcp-agents)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPython-≥3.12-blue?logo=python&logoColor=white)](https:\u002F\u002Fwww.python.org\u002F)\n[![版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FVersion-0.1.0-orange)](https:\u002F\u002Fgithub.com\u002Fteddylee777\u002Flanggraph-mcp-agents)\n\n![项目演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_4af0fa52535b.png)\n\n## 项目概述\n\n![项目架构](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_596ddf7a2749.png)\n\n`LangChain-MCP-Adapters` 是由 **LangChain AI** 提供的一个工具包，它使 AI 代理能够通过模型上下文协议 (MCP) 与外部工具和数据源进行交互。该项目提供了一个用户友好的界面，用于部署可以通过 MCP 工具访问各种数据源和 API 的 ReAct 代理。\n\n### 特性\n\n- **Streamlit 界面**: 一个用户友好的 Web 界面，用于与带有 MCP 工具的 LangGraph `ReAct 代理` 进行交互\n- **工具管理**: 通过 UI 添加、移除和配置 MCP 工具（支持 Smithery JSON 格式）。此操作动态完成，无需重启应用程序\n- **流式响应**: 实时查看代理响应和工具调用\n- **对话历史**: 跟踪并管理与代理的对话\n\n## MCP 架构\n\n模型上下文协议 (MCP) 包含三个主要组件：\n\n1. **MCP 主机**: 通过 MCP 访问数据的程序，例如 Claude Desktop、IDE 或 LangChain\u002FLangGraph。\n\n2. **MCP 客户端**: 与服务器保持 1:1 连接的协议客户端，充当主机与服务器之间的中介。\n\n3. **MCP 服务器**: 一个轻量级程序，通过标准化的模型上下文协议暴露特定功能，作为主要的数据源。\n\n## 使用 Docker 快速开始\n\n您无需设置本地 Python 环境，即可使用 Docker 轻松运行该项目。\n\n### 需求（Docker Desktop）\n\n请从以下链接安装 Docker Desktop：\n\n- [安装 Docker Desktop](https:\u002F\u002Fwww.docker.com\u002Fproducts\u002Fdocker-desktop\u002F)\n\n### 使用 Docker Compose 运行\n\n1. 导航到 `dockers` 目录\n\n```bash\ncd dockers\n```\n\n2. 在项目根目录中创建包含您的 API 密钥的 `.env` 文件。\n\n```bash\ncp .env.example .env\n```\n\n将您获取的 API 密钥输入到 `.env` 文件中。\n\n（注意）并非所有 API 密钥都是必需的。只需输入您需要的密钥。\n- `ANTHROPIC_API_KEY`: 如果您输入 Anthropic API 密钥，可以使用 \"claude-3-7-sonnet-latest\"、\"claude-3-5-sonnet-latest\"、\"claude-3-haiku-latest\" 模型。\n- `OPENAI_API_KEY`: 如果您输入 OpenAI API 密钥，可以使用 \"gpt-4o\"、\"gpt-4o-mini\" 模型。\n- `LANGSMITH_API_KEY`: 如果您输入 LangSmith API 密钥，可以使用 LangSmith 追踪功能。\n\n```bash\nANTHROPIC_API_KEY=your_anthropic_api_key\nOPENAI_API_KEY=your_openai_api_key\nLANGSMITH_API_KEY=your_langsmith_api_key\nLANGSMITH_TRACING=true\nLANGSMITH_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGSMITH_PROJECT=LangGraph-MCP-Agents\n```\n\n当使用登录功能时，将 `USE_LOGIN` 设置为 `true`，并输入 `USER_ID` 和 `USER_PASSWORD`。\n\n```bash\nUSE_LOGIN=true\nUSER_ID=admin\nUSER_PASSWORD=admin123\n```\n\n如果您不想使用登录功能，请将 `USE_LOGIN` 设置为 `false`。\n\n```bash\nUSE_LOGIN=false\n```\n\n3. 选择与您的系统架构匹配的 Docker Compose 文件。\n\n**AMD64\u002Fx86_64 架构（Intel\u002FAMD 处理器）**\n\n```bash\n# 运行容器\ndocker compose -f docker-compose.yaml up -d\n```\n\n**ARM64 架构（Apple Silicon M1\u002FM2\u002FM3\u002FM4）**\n\n```bash\n# 运行容器\ndocker compose -f docker-compose-mac.yaml up -d\n```\n\n4. 在浏览器中访问应用：http:\u002F\u002Flocalhost:8585\n\n（注意）\n- 如果您需要修改端口或其他设置，请在构建之前编辑 `docker-compose.yaml` 文件。\n\n## 直接从源代码安装\n\n1. 克隆本仓库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fteddynote-lab\u002Flanggraph-mcp-agents.git\ncd langgraph-mcp-agents\n```\n\n2. 创建虚拟环境并使用 uv 安装依赖项\n\n```bash\nuv venv\nuv pip install -r requirements.txt\nsource .venv\u002Fbin\u002Factivate  # 对于 Windows: .venv\\Scripts\\activate\n```\n\n3. 创建包含您的 API 密钥的 `.env` 文件（从 `.env.example` 复制）\n\n```bash\ncp .env.example .env\n```\n\n将您获取的 API 密钥输入到 `.env` 文件中。\n\n（注意）并非所有 API 密钥都是必需的。只需输入您需要的密钥。\n- `ANTHROPIC_API_KEY`: 如果您输入 Anthropic API 密钥，可以使用 \"claude-3-7-sonnet-latest\"、\"claude-3-5-sonnet-latest\"、\"claude-3-haiku-latest\" 模型。\n- `OPENAI_API_KEY`: 如果您输入 OpenAI API 密钥，可以使用 \"gpt-4o\"、\"gpt-4o-mini\" 模型。\n- `LANGSMITH_API_KEY`: 如果您输入 LangSmith API 密钥，可以使用 LangSmith 追踪功能。\n```bash\nANTHROPIC_API_KEY=your_anthropic_api_key\nOPENAI_API_KEY=your_openai_api_key\nLANGSMITH_API_KEY=your_langsmith_api_key\nLANGSMITH_TRACING=true\nLANGSMITH_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\nLANGSMITH_PROJECT=LangGraph-MCP-Agents\n```\n\n4. （新增）使用登录\u002F登出功能\n\n当使用登录功能时，将 `USE_LOGIN` 设置为 `true`，并输入 `USER_ID` 和 `USER_PASSWORD`。\n\n```bash\nUSE_LOGIN=true\nUSER_ID=admin\nUSER_PASSWORD=admin123\n```\n\n如果您不想使用登录功能，请将 `USE_LOGIN` 设置为 `false`。\n\n```bash\nUSE_LOGIN=false\n```\n\n## 使用方法\n\n1. 启动 Streamlit 应用程序。\n\n```bash\nstreamlit run app.py\n```\n\n2. 应用程序将在浏览器中运行，并显示主界面。\n\n3. 使用侧边栏添加和配置 MCP 工具\n\n访问 [Smithery](https:\u002F\u002Fsmithery.ai\u002F) 查找有用的 MCP 服务器。\n\n首先，选择您想要使用的工具。\n\n点击右侧 JSON 配置中的 COPY 按钮。\n\n![从 Smithery 复制](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_c08670138306.png)\n\n将复制的 JSON 字符串粘贴到 `Tool JSON` 部分。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_3a1ca564cfd6.png\" alt=\"tool json\" style=\"width: auto; height: auto;\">\n\n点击 `Add Tool` 按钮将其添加到“已注册工具列表”部分。\n\n最后，点击“Apply”按钮以应用更改，从而使用新工具初始化代理。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_21141b54110e.png\" alt=\"tool json\" style=\"width: auto; height: auto;\">\n\n4. 检查代理的状态。\n\n![检查状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_cba8d015f5b4.png)\n\n5. 通过聊天界面提问，与利用已配置 MCP 工具的 ReAct 代理进行交互。\n\n![项目演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_readme_4af0fa52535b.png)\n\n## 动手教程\n\n对于希望更深入学习 MCP 与 LangGraph 集成原理的开发者，我们提供了一份全面的 Jupyter Notebook 教程：\n\n- 链接：[MCP-HandsOn-KOR.ipynb](.\u002FMCP-HandsOn-KOR.ipynb)\n\n本动手教程涵盖以下内容：\n\n1. **MCP 客户端设置** - 学习如何配置和初始化 MultiServerMCPClient，以连接到 MCP 服务器\n2. **本地 MCP 服务器集成** - 通过 SSE 和 Stdio 方法连接到本地运行的 MCP 服务器\n3. **RAG 集成** - 使用 MCP 的检索工具获取文档检索能力\n4. **混合传输方式** - 在单个智能体中结合使用不同的传输协议（SSE 和 Stdio）\n5. **LangChain 工具 + MCP** - 将原生 LangChain 工具与 MCP 工具集成在一起\n\n本教程提供了实用的示例，并配有逐步解释，帮助您理解如何构建并将 MCP 工具集成到 LangGraph 智能体中。\n\n## 许可证\n\nMIT 许可证\n\n## 参考资料\n\n- https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain-mcp-adapters","# langgraph-mcp-agents 快速上手指南\n\n`langgraph-mcp-agents` 是一个基于 Streamlit 的可视化工具，旨在帮助开发者轻松部署和管理集成了 **MCP (Model Context Protocol)** 工具的 LangGraph ReAct 智能体。通过该工具，你可以动态配置外部数据源和 API，无需重启应用即可让 AI 智能体调用各种 MCP 服务。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**: Windows, macOS (Intel\u002FApple Silicon), 或 Linux\n*   **Python 版本**: ≥ 3.12\n*   **前置依赖 (二选一)**:\n    *   **方案 A (推荐)**: 安装 [Docker Desktop](https:\u002F\u002Fwww.docker.com\u002Fproducts\u002Fdocker-desktop\u002F) (无需配置本地 Python 环境)\n    *   **方案 B**: 安装 Python 3.12+ 及 `uv` 包管理工具 (用于源码安装)\n*   **API Keys**: 至少准备一个模型服务商的密钥 (Anthropic 或 OpenAI)\n\n## 安装步骤\n\n你可以选择使用 Docker 快速启动，或者从源码直接安装。\n\n### 方案一：使用 Docker (推荐)\n\n此方法最简单，避免了环境配置冲突。\n\n1.  **克隆项目并进入目录**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fteddylee777\u002Flanggraph-mcp-agents.git\n    cd langgraph-mcp-agents\u002Fdockers\n    ```\n\n2.  **配置环境变量**\n    复制示例文件并编辑 `.env`，填入你的 API Key。\n    ```bash\n    cp ..\u002F.env.example .env\n    ```\n    编辑 `.env` 文件（只需填写你需要的密钥）：\n    ```bash\n    # Anthropic (支持 claude-3-7-sonnet-latest 等)\n    ANTHROPIC_API_KEY=your_anthropic_api_key\n    \n    # OpenAI (支持 gpt-4o, gpt-4o-mini)\n    OPENAI_API_KEY=your_openai_api_key\n    \n    # LangSmith (可选，用于追踪调试)\n    LANGSMITH_API_KEY=your_langsmith_api_key\n    LANGSMITH_TRACING=true\n    LANGSMITH_ENDPOINT=https:\u002F\u002Fapi.smith.langchain.com\n    LANGSMITH_PROJECT=LangGraph-MCP-Agents\n    \n    # 登录功能配置 (不需要可设为 false)\n    USE_LOGIN=false\n    ```\n\n3.  **启动容器**\n    根据你的处理器架构选择对应的命令：\n\n    *   **Intel\u002FAMD 处理器 (AMD64\u002Fx86_64)**:\n        ```bash\n        docker compose -f docker-compose.yaml up -d\n        ```\n\n    *   **Apple Silicon M1\u002FM2\u002FM3\u002FM4 (ARM64)**:\n        ```bash\n        docker compose -f docker-compose-mac.yaml up -d\n        ```\n\n4.  **访问应用**\n    打开浏览器访问：http:\u002F\u002Flocalhost:8585\n\n---\n\n### 方案二：源码安装 (本地开发)\n\n适合需要修改代码或进行深度开发的用户。\n\n1.  **克隆项目**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fteddynote-lab\u002Flanggraph-mcp-agents.git\n    cd langgraph-mcp-agents\n    ```\n\n2.  **创建虚拟环境并安装依赖**\n    推荐使用 `uv` 进行快速安装：\n    ```bash\n    uv venv\n    uv pip install -r requirements.txt\n    # Linux\u002FmacOS 激活环境\n    source .venv\u002Fbin\u002Factivate\n    # Windows 激活环境\n    # .venv\\Scripts\\activate\n    ```\n\n3.  **配置环境变量**\n    ```bash\n    cp .env.example .env\n    ```\n    参照上述 Docker 方案中的步骤，编辑 `.env` 文件填入 API Key。\n\n4.  **启动应用**\n    ```bash\n    streamlit run app.py\n    ```\n    应用将在默认浏览器中自动打开（通常为 http:\u002F\u002Flocalhost:8501）。\n\n## 基本使用\n\n启动应用后，按照以下步骤配置并使用 MCP 智能体：\n\n1.  **获取 MCP 工具配置**\n    *   访问 [Smithery](https:\u002F\u002Fsmithery.ai\u002F) 查找你需要的 MCP 服务器（如文件系统、数据库、搜索引擎等）。\n    *   找到目标工具后，点击右侧 JSON 配置区域的 **COPY** 按钮复制 JSON 字符串。\n\n2.  **添加工具到界面**\n    *   在应用左侧边栏找到 **Tool JSON** 输入框。\n    *   粘贴刚才复制的 JSON 字符串。\n    *   点击 **Add Tool** 按钮，该工具将出现在 \"Registered Tools List\" 列表中。\n\n3.  **应用配置**\n    *   配置完成后，点击侧栏底部的 **Apply** 按钮。\n    *   系统将重新初始化智能体，加载新添加的工具（无需重启服务）。\n\n4.  **开始对话**\n    *   在主聊天界面输入问题。\n    *   智能体将根据你的指令，自动调用已配置的 MCP 工具执行任务（如读取文件、查询数据等），并实时流式返回结果和工具调用过程。\n\n> **提示**: 如需深入了解 MCP 与 LangGraph 的集成原理，可参考项目根目录下的 `MCP-HandsOn-KOR.ipynb` 教程笔记。","某电商数据分析师需要每日整合分散在内部数据库、第三方物流 API 及实时库存系统中的多源数据，以生成动态运营报告。\n\n### 没有 langgraph-mcp-agents 时\n- **开发门槛高且重复**：每次接入新数据源（如新的物流商 API），都需要编写大量胶水代码并重启服务，无法动态配置。\n- **工具调用僵化**：传统脚本只能按固定流程执行，无法根据数据异常情况自主决定调用哪个工具或查询哪张表。\n- **调试黑盒化**：当 Agent 决策出错时，缺乏可视化的追踪手段，难以分辨是模型推理错误还是工具参数传递失败。\n- **交互体验割裂**：非技术人员无法直接参与测试，必须依赖开发人员修改代码后才能验证新的数据查询逻辑。\n\n### 使用 langgraph-mcp-agents 后\n- **零代码动态集成**：通过 Streamlit 界面即可上传 Smithery JSON 配置，即时添加或移除 MCP 工具，无需重启应用或修改底层代码。\n- **智能自适应决策**：基于 LangGraph 的 ReAct 架构，Agent 能根据分析目标自主规划路径，灵活组合调用数据库查询与外部 API。\n- **全链路实时可观测**：支持流式响应展示，用户可实时看到 Agent 的思考过程及具体的工具调用细节，问题定位一目了然。\n- **人人可用的交互终端**：业务人员可直接在网页端与 Agent 对话，动态调整数据源配置并立即获取分析结果，大幅降低协作成本。\n\nlanggraph-mcp-agents 将复杂的智能体编排转化为可视化的动态工作流，让连接任意数据源变得像配置插件一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fteddynote-lab_langgraph-mcp-agents_4af0fa52.png","teddynote-lab","Braincrew","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fteddynote-lab_a1ad7913.png","Where AI really happens!",null,"dev@brain-crew.com","https:\u002F\u002Fwww.brain-crew.com","https:\u002F\u002Fgithub.com\u002Fteddynote-lab",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",68.9,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",31.1,694,231,"2026-04-07T09:48:08","Linux, macOS, Windows","未说明",{"notes":96,"python":97,"dependencies":98},"该项目主要通过 Docker 运行，支持 AMD64 (Intel\u002FAMD) 和 ARM64 (Apple Silicon M1\u002FM2\u002FM3\u002FM4) 架构。本地安装建议使用 'uv' 工具管理虚拟环境和依赖。需要配置 Anthropic 或 OpenAI 的 API Key 才能使用模型功能。可通过 Smithery 动态添加 MCP 工具而无需重启应用。","≥3.12",[99,100,101,102],"langchain-mcp-adapters","langgraph","streamlit","uv",[35,14,13],"2026-03-27T02:49:30.150509","2026-04-09T05:24:01.763558",[],[108],{"id":109,"version":110,"summary_zh":111,"released_at":112},162922,"Release","初始版本发布\n\n**核心功能**\n- LangGraph ReAct 代理：基于 LangGraph 实现的高性能 ReAct 代理，可高效调用外部工具\n- LangChain MCP 适配器集成：通过 LangChain AI 提供的适配器，与 Model Context Protocol 无缝对接\n- Smithery 兼容性：只需一键即可轻松添加来自 Smithery（https:\u002F\u002Fsmithery.ai\u002F）的任意 MCP 服务器！\n- 动态工具管理：无需重启应用，即可通过 UI 直接添加、移除和配置 MCP 工具\n- 实时响应流式输出：实时查看代理响应及工具调用过程\n- 直观的 Streamlit 界面：用户友好的 Web 界面，简化复杂 AI 代理系统的控制操作","2025-03-30T17:28:40"]