[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Darwin-lfl--langmanus":3,"tool-Darwin-lfl--langmanus":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":107,"github_topics":76,"view_count":23,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":111},2773,"Darwin-lfl\u002Flangmanus","langmanus","A community-driven AI automation framework that builds upon the incredible work of the open source community. Our goal is to combine language models with specialized tools for tasks like web search, crawling, and Python code execution, while giving back to the community that made this possible.","LangManus 是一个由社区驱动的 AI 自动化框架，旨在将大语言模型与专业工具深度融合，以执行网页搜索、信息抓取及 Python 代码运行等复杂任务。它主要解决了单一模型在处理需要实时数据获取、多步骤逻辑推理及代码执行类任务时的局限性，通过自动化工作流让用户能轻松完成如“计算某模型在特定平台的影响力指数”这类综合性难题。\n\n这款工具特别适合开发者、研究人员以及希望构建高级 AI 代理的技术爱好者使用。其核心亮点在于采用了分层多智能体（Multi-Agent）架构：系统内置协调员、规划师、研究员、程序员、浏览器和报告员等多个专用智能体，由监督者统一调度，各司其职又紧密协作。此外，LangManus 支持 Qwen 等开源模型，集成 Tavily 搜索与 Jina 神经检索技术，并内置基于 uv 的 Python 执行环境，确保了任务处理的高效性与灵活性。秉承“源于开源，回馈开源”的理念，LangManus 不仅功能强大，更鼓励社区共同参与迭代，是探索 AI 自动化可能性的理想选择。","# LangManus\n\n[![Python 3.12+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.12+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n\n[English](.\u002FREADME.md) | [简体中文](.\u002FREADME_zh.md)\n\n> Come From Open Source, Back to Open Source\n\nLangManus is a community-driven AI automation framework that builds upon the incredible work of the open source community. Our goal is to combine language models with specialized tools for tasks like web search, crawling, and Python code execution, while giving back to the community that made this possible.\n\n## Demo Video\n\n> **Task**: Calculate the influence index of DeepSeek R1 on HuggingFace. This index can be designed by considering a weighted sum of factors such as followers, downloads, and likes.\n\n[![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDarwin-lfl_langmanus_readme_b90d6add3d72.gif)](.\u002Fassets\u002Fdemo.mp4)\n\n- [View on YouTube](https:\u002F\u002Fyoutu.be\u002FsZCHqrQBUGk)\n- [Download Video](https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus\u002Fblob\u002Fmain\u002Fassets\u002Fdemo.mp4)\n\n## Table of Contents\n- [Quick Start](#quick-start)\n- [Architecture](#architecture)\n- [Features](#features)\n- [Why LangManus?](#why-langmanus)\n- [Setup](#setup)\n    - [Prerequisites](#prerequisites)\n    - [Installation](#installation)\n    - [Configuration](#configuration)\n- [Usage](#usage)\n- [Web UI](#web-ui)\n- [Development](#development)\n- [Contributing](#contributing)\n- [License](#license)\n- [Acknowledgments](#acknowledgments)\n\n## Quick Start\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus.git\ncd langmanus\n\n# Create and activate virtual environment through uv\nuv python install 3.12\nuv venv --python 3.12\n\nsource .venv\u002Fbin\u002Factivate  # On Windows: .venv\\Scripts\\activate\n\n# Install dependencies\nuv sync\n\n# Configure environment\ncp .env.example .env\n# Edit .env with your API keys\n\n# Run the project\nuv run main.py\n```\n\n## Architecture\n\nLangManus implements a hierarchical multi-agent system where a supervisor coordinates specialized agents to accomplish complex tasks:\n\n![LangManus Architecture](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDarwin-lfl_langmanus_readme_9acb876dbfa2.png)\n\nThe system consists of the following agents working together:\n\n1. **Coordinator** - The entry point that handles initial interactions and routes tasks\n2. **Planner** - Analyzes tasks and creates execution strategies\n3. **Supervisor** - Oversees and manages the execution of other agents\n4. **Researcher** - Gathers and analyzes information\n5. **Coder** - Handles code generation and modifications\n6. **Browser** - Performs web browsing and information retrieval\n7. **Reporter** - Generates reports and summaries of the workflow results\n\n## Features\n\n### Core Capabilities\n- 🤖 **LLM Integration**\n    - Support for open source models like Qwen\n    - OpenAI-compatible API interface\n    - Multi-tier LLM system for different task complexities\n\n### Tools and Integrations\n- 🔍 **Search and Retrieval**\n    - Web search via Tavily API\n    - Neural search with Jina\n    - Advanced content extraction\n\n### Development Features\n- 🐍 **Python Integration**\n    - Built-in Python REPL\n    - Code execution environment\n    - Package management with uv\n\n### Workflow Management\n- 📊 **Visualization and Control**\n    - Workflow graph visualization\n    - Multi-agent orchestration\n    - Task delegation and monitoring\n\n## Why LangManus?\n\nWe believe in the power of open source collaboration. This project wouldn't be possible without the amazing work of projects like:\n- [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) for their open source LLMs\n- [Tavily](https:\u002F\u002Ftavily.com\u002F) for search capabilities\n- [Jina](https:\u002F\u002Fjina.ai\u002F) for neural search technology\n- And many other open source contributors\n\nWe're committed to giving back to the community and welcome contributions of all kinds - whether it's code, documentation, bug reports, or feature suggestions.\n\n## Setup\n\n### Prerequisites\n\n- [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) package manager\n\n### Installation\n\nLangManus leverages [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) as its package manager to streamline dependency management.\nFollow the steps below to set up a virtual environment and install the necessary dependencies:\n\n```bash\n# Step 1: Create and activate a virtual environment through uv\nuv python install 3.12\nuv venv --python 3.12\n\nsource .venv\u002Fbin\u002Factivate  # On Windows: .venv\\Scripts\\activate\n\n# Step 2: Install project dependencies\nuv sync\n```\n\nBy completing these steps, you'll ensure your environment is properly configured and ready for development.\n\n### Configuration\n\nLangManus uses a three-tier LLM system with separate configurations for reasoning, basic tasks, and vision-language tasks. Create a `.env` file in the project root and configure the following environment variables:\n\n```ini\n# Reasoning LLM Configuration (for complex reasoning tasks)\nREASONING_MODEL=your_reasoning_model\nREASONING_API_KEY=your_reasoning_api_key\nREASONING_BASE_URL=your_custom_base_url  # Optional\n\n# Basic LLM Configuration (for simpler tasks)\nBASIC_MODEL=your_basic_model\nBASIC_API_KEY=your_basic_api_key\nBASIC_BASE_URL=your_custom_base_url  # Optional\n\n# Vision-Language LLM Configuration (for tasks involving images)\nVL_MODEL=your_vl_model\nVL_API_KEY=your_vl_api_key\nVL_BASE_URL=your_custom_base_url  # Optional\n\n# Tool API Keys\nTAVILY_API_KEY=your_tavily_api_key\nJINA_API_KEY=your_jina_api_key  # Optional\n\n# Browser Configuration\nCHROME_INSTANCE_PATH=\u002FApplications\u002FGoogle Chrome.app\u002FContents\u002FMacOS\u002FGoogle Chrome  # Optional, path to Chrome executable\n```\n\n> **Note:**\n>\n> - The system uses different models for different types of tasks:\n>     - Reasoning LLM for complex decision-making and analysis\n>     - Basic LLM for simpler text-based tasks\n>     - Vision-Language LLM for tasks involving image understanding\n> - You can customize the base URLs for all LLMs independently\n> - Each LLM can use different API keys if needed\n> - Jina API key is optional. Provide your own key to access a higher rate limit (get your API key at [jina.ai](https:\u002F\u002Fjina.ai\u002F))\n> - Tavily search is configured to return a maximum of 5 results by default (get your API key at [app.tavily.com](https:\u002F\u002Fapp.tavily.com\u002F))\n\nYou can copy the `.env.example` file as a template to get started:\n\n```bash\ncp .env.example .env\n```\n\n### Configure Pre-commit Hook\nLangManus includes a pre-commit hook that runs linting and formatting checks before each commit. To set it up:\n\n1. Make the pre-commit script executable:\n```bash\nchmod +x pre-commit\n```\n\n2. Install the pre-commit hook:\n```bash\nln -s ..\u002F..\u002Fpre-commit .git\u002Fhooks\u002Fpre-commit\n```\n\nThe pre-commit hook will automatically:\n- Run linting checks (`make lint`)\n- Run code formatting (`make format`)\n- Add any reformatted files back to staging\n- Prevent commits if there are any linting or formatting errors\n\n## Usage\n\n### Basic Execution\n\nTo run LangManus with default settings:\n\n```bash\nuv run main.py\n```\n\n### API Server\n\nLangManus provides a FastAPI-based API server with streaming support:\n\n```bash\n# Start the API server\nmake serve\n\n# Or run directly\nuv run server.py\n```\n\nThe API server exposes the following endpoints:\n\n- `POST \u002Fapi\u002Fchat\u002Fstream`: Chat endpoint for LangGraph invoke with streaming support\n    - Request body:\n    ```json\n    {\n      \"messages\": [\n        {\"role\": \"user\", \"content\": \"Your query here\"}\n      ],\n      \"debug\": false\n    }\n    ```\n    - Returns a Server-Sent Events (SSE) stream with the agent's responses\n\n### Advanced Configuration\n\nLangManus can be customized through various configuration files in the `src\u002Fconfig` directory:\n- `env.py`: Configure LLM models, API keys, and base URLs\n- `tools.py`: Adjust tool-specific settings (e.g., Tavily search results limit)\n- `agents.py`: Modify team composition and agent system prompts\n\n### Agent Prompts System\n\nLangManus uses a sophisticated prompting system in the `src\u002Fprompts` directory to define agent behaviors and responsibilities:\n\n#### Core Agent Roles\n\n- **Supervisor ([`src\u002Fprompts\u002Fsupervisor.md`](src\u002Fprompts\u002Fsupervisor.md))**: Coordinates the team and delegates tasks by analyzing requests and determining which specialist should handle them. Makes decisions about task completion and workflow transitions.\n\n- **Researcher ([`src\u002Fprompts\u002Fresearcher.md`](src\u002Fprompts\u002Fresearcher.md))**: Specializes in information gathering through web searches and data collection. Uses Tavily search and web crawling capabilities while avoiding mathematical computations or file operations.\n\n- **Coder ([`src\u002Fprompts\u002Fcoder.md`](src\u002Fprompts\u002Fcoder.md))**: Professional software engineer role focused on Python and bash scripting. Handles:\n    - Python code execution and analysis\n    - Shell command execution\n    - Technical problem-solving and implementation\n\n- **File Manager ([`src\u002Fprompts\u002Ffile_manager.md`](src\u002Fprompts\u002Ffile_manager.md))**: Handles all file system operations with a focus on properly formatting and saving content in markdown format.\n\n- **Browser ([`src\u002Fprompts\u002Fbrowser.md`](src\u002Fprompts\u002Fbrowser.md))**: Web interaction specialist that handles:\n    - Website navigation\n    - Page interaction (clicking, typing, scrolling)\n    - Content extraction from web pages\n\n#### Prompt System Architecture\n\nThe prompts system uses a template engine ([`src\u002Fprompts\u002Ftemplate.py`](src\u002Fprompts\u002Ftemplate.py)) that:\n- Loads role-specific markdown templates\n- Handles variable substitution (e.g., current time, team member information)\n- Formats system prompts for each agent\n\nEach agent's prompt is defined in a separate markdown file, making it easy to modify behavior and responsibilities without changing the underlying code.\n\n## Web UI\n\nLangManus provides a default web UI.\n\nPlease refer to the [langmanus\u002Flangmanus-web-ui](https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus-web) project for more details.\n\n## Development\n\n### Testing\n\nRun the test suite:\n\n```bash\n# Run all tests\nmake test\n\n# Run specific test file\npytest tests\u002Fintegration\u002Ftest_workflow.py\n\n# Run with coverage\nmake coverage\n```\n\n### Code Quality\n\n```bash\n# Run linting\nmake lint\n\n# Format code\nmake format\n```\n\n## Contributing\n\nWe welcome contributions of all kinds! Whether you're fixing a typo, improving documentation, or adding a new feature, your help is appreciated. Please see our [Contributing Guide](CONTRIBUTING.md) for details on how to get started.\n\n## License\n\nThis project is open source and available under the [MIT License](LICENSE).\n\n## Acknowledgments\n\nSpecial thanks to all the open source projects and contributors that make LangManus possible. We stand on the shoulders of giants.\n","# LangManus\n\n[![Python 3.12+](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.12+-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n\n[English](.\u002FREADME.md) | [简体中文](.\u002FREADME_zh.md)\n\n> 来自开源，回馈开源\n\nLangManus 是一个由社区驱动的 AI 自动化框架，它建立在开源社区的卓越工作之上。我们的目标是将语言模型与专门工具相结合，用于网络搜索、爬虫和 Python 代码执行等任务，同时回馈那些使这一切成为可能的社区。\n\n## 演示视频\n\n> **任务**: 计算 DeepSeek R1 在 HuggingFace 上的影响指数。该指数可以通过考虑关注者数、下载量和点赞数等因素的加权和来设计。\n\n[![演示](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDarwin-lfl_langmanus_readme_b90d6add3d72.gif)](.\u002Fassets\u002Fdemo.mp4)\n\n- [在 YouTube 上观看](https:\u002F\u002Fyoutu.be\u002FsZCHqrQBUGk)\n- [下载视频](https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus\u002Fblob\u002Fmain\u002Fassets\u002Fdemo.mp4)\n\n## 目录\n- [快速入门](#quick-start)\n- [架构](#architecture)\n- [特性](#features)\n- [为什么选择 LangManus？](#why-langmanus)\n- [设置](#setup)\n    - [前提条件](#prerequisites)\n    - [安装](#installation)\n    - [配置](#configuration)\n- [使用方法](#usage)\n- [Web UI](#web-ui)\n- [开发](#development)\n- [贡献](#contributing)\n- [许可证](#license)\n- [致谢](#acknowledgments)\n\n## 快速入门\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus.git\ncd langmanus\n\n# 使用 uv 创建并激活虚拟环境\nuv python install 3.12\nuv venv --python 3.12\n\nsource .venv\u002Fbin\u002Factivate  # Windows 系统：.venv\\Scripts\\activate\n\n# 安装依赖\nuv sync\n\n# 配置环境\ncp .env.example .env\n# 编辑 .env 文件以填写您的 API 密钥\n\n# 运行项目\nuv run main.py\n```\n\n## 架构\n\nLangManus 实现了一个分层的多智能体系统，其中协调器负责协调各个专业智能体完成复杂任务：\n\n![LangManus 架构](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDarwin-lfl_langmanus_readme_9acb876dbfa2.png)\n\n该系统由以下智能体协同工作组成：\n\n1. **协调器** - 处理初始交互并路由任务的入口点\n2. **规划者** - 分析任务并制定执行策略\n3. **监督者** - 监督和管理其他智能体的执行\n4. **研究员** - 收集和分析信息\n5. **编码员** - 负责代码生成和修改\n6. **浏览器** - 执行网页浏览和信息检索\n7. **报告员** - 生成工作流结果的报告和摘要\n\n## 特性\n\n### 核心功能\n- 🤖 **LLM 集成**\n    - 支持 Qwen 等开源模型\n    - OpenAI 兼容的 API 接口\n    - 适用于不同复杂度任务的多级 LLM 系统\n\n### 工具与集成\n- 🔍 **搜索与检索**\n    - 通过 Tavily API 进行网络搜索\n    - 使用 Jina 进行神经搜索\n    - 高级内容提取\n\n### 开发功能\n- 🐍 **Python 集成**\n    - 内置 Python REPL\n    - 代码执行环境\n    - 使用 uv 进行包管理\n\n### 流程管理\n- 📊 **可视化与控制**\n    - 工作流图可视化\n    - 多智能体编排\n    - 任务委派与监控\n\n## 为什么选择 LangManus？\n\n我们相信开源协作的力量。如果没有以下项目的杰出工作，这个项目是不可能实现的：\n- [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) 提供的开源 LLM\n- [Tavily](https:\u002F\u002Ftavily.com\u002F) 提供的搜索能力\n- [Jina](https:\u002F\u002Fjina.ai\u002F) 的神经搜索技术\n- 以及其他众多开源贡献者\n\n我们致力于回馈社区，并欢迎各种形式的贡献——无论是代码、文档、错误报告还是功能建议。\n\n## 设置\n\n### 前提条件\n\n- [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) 包管理器\n\n### 安装\n\nLangManus 使用 [uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) 作为其包管理器，以简化依赖管理。请按照以下步骤设置虚拟环境并安装必要的依赖：\n\n```bash\n# 第一步：使用 uv 创建并激活虚拟环境\nuv python install 3.12\nuv venv --python 3.12\n\nsource .venv\u002Fbin\u002Factivate  # Windows 系统：.venv\\Scripts\\activate\n\n# 第二步：安装项目依赖\nuv sync\n```\n\n完成这些步骤后，您的环境将被正确配置，并准备好进行开发。\n\n### 配置\n\nLangManus 使用三级 LLM 系统，分别针对推理、基础任务和视觉-语言任务进行配置。请在项目根目录下创建 `.env` 文件，并配置以下环境变量：\n\n```ini\n# 推理 LLM 配置（用于复杂推理任务）\nREASONING_MODEL=your_reasoning_model\nREASONING_API_KEY=your_reasoning_api_key\nREASONING_BASE_URL=your_custom_base_url  # 可选\n\n# 基础 LLM 配置（用于简单任务）\nBASIC_MODEL=your_basic_model\nBASIC_API_KEY=your_basic_api_key\nBASIC_BASE_URL=your_custom_base_url  # 可选\n\n# 视觉-语言 LLM 配置（用于涉及图像的任务）\nVL_MODEL=your_vl_model\nVL_API_KEY=your_vl_api_key\nVL_BASE_URL=your_custom_base_url  # 可选\n\n# 工具 API 密钥\nTAVILY_API_KEY=your_tavily_api_key\nJINA_API_KEY=your_jina_api_key  # 可选\n\n# 浏览器配置\nCHROME_INSTANCE_PATH=\u002FApplications\u002FGoogle Chrome.app\u002FContents\u002FMacOS\u002FGoogle Chrome  # 可选，Chrome 可执行文件路径\n```\n\n> **注意：**\n>\n> - 系统会根据任务类型使用不同的模型：\n>     - 推理 LLM 用于复杂决策和分析\n>     - 基础 LLM 用于简单的文本任务\n>     - 视觉-语言 LLM 用于涉及图像理解的任务\n> - 您可以独立自定义所有 LLM 的基础 URL\n> - 如果需要，每个 LLM 可以使用不同的 API 密钥\n> - Jina API 密钥是可选的。提供您自己的密钥可以获得更高的速率限制（可在 [jina.ai](https:\u002F\u002Fjina.ai\u002F) 获取 API 密钥）\n> - Tavily 搜索默认最多返回 5 条结果（可在 [app.tavily.com](https:\u002F\u002Fapp.tavily.com\u002F) 获取 API 密钥）\n\n您可以复制 `.env.example` 文件作为模板开始配置：\n\n```bash\ncp .env.example .env\n```\n\n### 配置预提交钩子\nLangManus 包含一个预提交钩子，在每次提交前运行 lint 和格式化检查。要设置它：\n\n1. 将预提交脚本设为可执行：\n```bash\nchmod +x pre-commit\n```\n\n2. 安装预提交钩子：\n```bash\nln -s ..\u002F..\u002Fpre-commit .git\u002Fhooks\u002Fpre-commit\n```\n\n预提交钩子会自动：\n- 运行 lint 检查（`make lint`）\n- 运行代码格式化（`make format`）\n- 将任何重新格式化的文件重新添加到暂存区\n- 如果存在 lint 或格式化错误，则阻止提交\n\n## 使用方法\n\n### 基本执行\n\n要使用默认设置运行 LangManus：\n\n```bash\nuv run main.py\n```\n\n### API 服务器\n\nLangManus 提供了一个基于 FastAPI 的 API 服务器，支持流式传输：\n\n```bash\n# 启动 API 服务器\nmake serve\n\n# 或者直接运行\nuv run server.py\n```\n\nAPI 服务器暴露了以下端点：\n\n- `POST \u002Fapi\u002Fchat\u002Fstream`: 支持流式响应的 LangGraph 调用聊天端点\n    - 请求体：\n    ```json\n    {\n      \"messages\": [\n        {\"role\": \"user\", \"content\": \"您的问题在此\"}\n      ],\n      \"debug\": false\n    }\n    ```\n    - 返回包含代理响应的服务器发送事件（SSE）流\n\n### 高级配置\n\nLangManus 可以通过 `src\u002Fconfig` 目录下的各种配置文件进行自定义：\n- `env.py`: 配置 LLM 模型、API 密钥和基础 URL\n- `tools.py`: 调整工具特定设置（例如，Tavily 搜索结果限制）\n- `agents.py`: 修改团队构成和代理系统提示\n\n### 代理提示系统\n\nLangManus 在 `src\u002Fprompts` 目录中使用了一个复杂的提示系统来定义代理的行为和职责：\n\n#### 核心代理角色\n\n- **主管（[`src\u002Fprompts\u002Fsupervisor.md`](src\u002Fprompts\u002Fsupervisor.md)）**: 通过分析请求并确定由哪位专家处理，协调团队并分配任务。负责决定任务是否完成以及工作流的转换。\n\n- **研究员（[`src\u002Fprompts\u002Fresearcher.md`](src\u002Fprompts\u002Fresearcher.md)）**: 专门通过网络搜索和数据收集来获取信息。利用 Tavily 搜索和网页爬取功能，但不进行数学计算或文件操作。\n\n- **编码员（[`src\u002Fprompts\u002Fcoder.md`](src\u002Fprompts\u002Fcoder.md)）**: 专注于 Python 和 Bash 脚本的专业软件工程师角色。负责：\n    - Python 代码的执行和分析\n    - Shell 命令的执行\n    - 技术问题的解决与实现\n\n- **文件管理员（[`src\u002Fprompts\u002Ffile_manager.md`](src\u002Fprompts\u002Ffile_manager.md)）**: 处理所有文件系统操作，重点在于以 Markdown 格式正确地格式化和保存内容。\n\n- **浏览器（[`src\u002Fprompts\u002Fbrowser.md`](src\u002Fprompts\u002Fbrowser.md)）**: 网页交互专家，负责：\n    - 网站导航\n    - 页面交互（点击、输入、滚动）\n    - 从网页中提取内容\n\n#### 提示系统架构\n\n提示系统使用一个模板引擎（[`src\u002Fprompts\u002Ftemplate.py`](src\u002Fprompts\u002Ftemplate.py)），该引擎：\n- 加载特定角色的 Markdown 模板\n- 处理变量替换（例如，当前时间、团队成员信息）\n- 为每个代理格式化系统提示\n\n每个代理的提示都定义在一个单独的 Markdown 文件中，这样可以轻松修改行为和职责，而无需更改底层代码。\n\n## Web 界面\n\nLangManus 提供了一个默认的 Web 界面。\n\n更多详情请参阅 [langmanus\u002Flangmanus-web-ui](https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus-web) 项目。\n\n## 开发\n\n### 测试\n\n运行测试套件：\n\n```bash\n# 运行所有测试\nmake test\n\n# 运行特定测试文件\npytest tests\u002Fintegration\u002Ftest_workflow.py\n\n# 带覆盖率运行\nmake coverage\n```\n\n### 代码质量\n\n```bash\n# 运行代码检查\nmake lint\n\n# 格式化代码\nmake format\n```\n\n## 贡献\n\n我们欢迎各种形式的贡献！无论是修复拼写错误、改进文档，还是添加新功能，您的帮助都将受到我们的感谢。有关如何开始的详细信息，请参阅我们的[贡献指南](CONTRIBUTING.md)。\n\n## 许可证\n\n本项目是开源的，并根据 [MIT 许可证](LICENSE) 提供。\n\n## 致谢\n\n特别感谢所有使 LangManus 成为可能的开源项目和贡献者。我们站在巨人的肩膀上。","# LangManus 快速上手指南\n\nLangManus 是一个社区驱动的 AI 自动化框架，通过分层多智能体系统（协调员、规划者、研究员、程序员等）协同工作，实现网络搜索、爬虫、代码执行等复杂任务。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.12 或更高版本\n*   **包管理器**：[uv](https:\u002F\u002Fgithub.com\u002Fastral-sh\u002Fuv) (推荐，用于快速管理依赖和虚拟环境)\n*   **浏览器**：Google Chrome (用于 Browser 智能体，可选但推荐)\n\n> **提示**：国内开发者安装 `uv` 时若遇到网络问题，可尝试使用镜像源或代理加速。\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flangmanus\u002Flangmanus.git\ncd langmanus\n```\n\n### 2. 创建并激活虚拟环境\n使用 `uv` 安装 Python 3.12 并创建隔离环境：\n\n```bash\n# 安装 Python 3.12\nuv python install 3.12\n\n# 创建虚拟环境\nuv venv --python 3.12\n\n# 激活环境\n# Linux\u002FmacOS:\nsource .venv\u002Fbin\u002Factivate\n# Windows:\n.venv\\Scripts\\activate\n```\n\n### 3. 安装依赖\n同步安装项目所需的所有依赖包：\n\n```bash\nuv sync\n```\n\n### 4. 配置环境变量\n复制示例配置文件并根据您的需求编辑 `.env` 文件：\n\n```bash\ncp .env.example .env\n```\n\n在 `.env` 文件中填入必要的 API Keys。LangManus 采用三层 LLM 架构（推理、基础、视觉），您可以根据需要配置不同的模型（如 Qwen、OpenAI 等）：\n\n```ini\n# 推理模型 (处理复杂决策)\nREASONING_MODEL=your_reasoning_model\nREASONING_API_KEY=your_reasoning_api_key\n\n# 基础模型 (处理简单文本任务)\nBASIC_MODEL=your_basic_model\nBASIC_API_KEY=your_basic_api_key\n\n# 视觉语言模型 (处理图像理解)\nVL_MODEL=your_vl_model\nVL_API_KEY=your_vl_api_key\n\n# 工具 API Keys\nTAVILY_API_KEY=your_tavily_api_key      # 用于网络搜索 (必填)\nJINA_API_KEY=your_jina_api_key          # 用于神经搜索 (可选，建议填写以提高限额)\n\n# 浏览器路径 (可选，默认自动检测)\n# CHROME_INSTANCE_PATH=\u002Fpath\u002Fto\u002Fchrome\n```\n\n> **注意**：\n> *   [Tavily](https:\u002F\u002Fapp.tavily.com\u002F) 用于网络搜索，需获取 API Key。\n> *   [Jina](https:\u002F\u002Fjina.ai\u002F) 用于内容提取，提供 API Key 可获得更高调用限额。\n> *   支持配置国内兼容 OpenAI 协议的模型服务商地址 (`_BASE_URL`)。\n\n## 基本使用\n\n### 运行主程序\n配置完成后，直接在终端运行以下命令启动 LangManus：\n\n```bash\nuv run main.py\n```\n\n启动后，您可以在命令行中输入任务指令。例如，让系统计算某个模型在 HuggingFace 上的影响力指数，它将自动调用搜索、代码执行等智能体协同完成。\n\n### 启动 API 服务（可选）\n如果您希望通过 API 调用或连接 Web UI，可以启动后端服务：\n\n```bash\n# 方式一：使用 make 命令\nmake serve\n\n# 方式二：直接运行\nuv run server.py\n```\n\n服务启动后，将通过 `POST \u002Fapi\u002Fchat\u002Fstream` 接口提供流式对话能力。\n\n### 进阶定制\n*   **修改智能体行为**：编辑 `src\u002Fprompts\u002F` 目录下的 Markdown 文件（如 `researcher.md`, `coder.md`）可自定义各角色的系统提示词。\n*   **调整工具参数**：修改 `src\u002Fconfig\u002Ftools.py` 可调整搜索返回结果数量等参数。","某金融科技团队需要每日自动追踪全球主流开源社区中关于“量化交易模型”的最新技术动态，并计算各模型的综合热度指数以辅助投资决策。\n\n### 没有 langmanus 时\n- 分析师需手动在多个网站搜索、复制粘贴数据，耗时数小时且容易遗漏关键信息。\n- 不同来源的数据格式混乱，清洗和标准化过程依赖人工编写临时脚本，维护成本极高。\n- 无法实时执行复杂的加权算法（如结合下载量、点赞数、Fork 数），只能进行粗略估算。\n- 多步骤任务缺乏统一调度，一旦中间环节出错（如网页结构变更），整个流程需人工重新介入。\n- 最终报告生成缓慢，导致决策滞后，难以捕捉瞬息万变的市场技术趋势。\n\n### 使用 langmanus 后\n- Planner 代理自动拆解任务，Browser 和 Researcher 代理并发抓取全网数据，将数小时工作压缩至分钟级。\n- 内置的 Python 执行环境自动清洗异构数据，无需人工干预即可完成标准化处理。\n- Coder 代理根据预设公式动态生成并执行代码，精准计算出包含多维因子的综合热度指数。\n- Supervisor 代理全程监控工作流，若遇到反爬或解析错误，自动切换策略或重试，确保任务鲁棒性。\n- Reporter 代理即时生成结构化分析报告，让投资团队能在晨会前获取最新的技术风向标。\n\nlangmanus 通过将分散的搜索、编码与分析能力整合为自主协作的多智能体系统，实现了从“人工拼凑数据”到“自动化洞察决策”的质的飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDarwin-lfl_langmanus_ccb298d8.png","Darwin-lfl",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDarwin-lfl_d2549c39.png","https:\u002F\u002Fgithub.com\u002FDarwin-lfl",[80,84,88],{"name":81,"color":82,"percentage":83},"Python","#3572A5",98.4,{"name":85,"color":86,"percentage":87},"Shell","#89e051",1.2,{"name":89,"color":90,"percentage":91},"Makefile","#427819",0.3,1311,1201,"2026-04-02T02:33:17","MIT","Linux, macOS, Windows","未说明",{"notes":99,"python":100,"dependencies":101},"该项目使用 uv 作为包管理器；需配置 .env 文件设置 LLM API 密钥（支持 OpenAI 兼容接口及开源模型如 Qwen）；依赖 Tavily 进行搜索和 Jina 进行神经搜索（可选）；浏览器功能需安装 Google Chrome 并配置路径；包含预提交钩子用于代码检查和格式化。","3.12+",[102,103,104,105,106],"uv","langgraph","fastapi","tavily-python","jina",[26,13,15],"2026-03-27T02:49:30.150509","2026-04-06T05:36:52.624019",[],[]]