[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Onelevenvy--flock":3,"tool-Onelevenvy--flock":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":110,"forks":111,"last_commit_at":112,"license":113,"difficulty_score":114,"env_os":115,"env_gpu":116,"env_ram":117,"env_deps":118,"category_tags":131,"github_topics":132,"view_count":23,"oss_zip_url":76,"oss_zip_packed_at":76,"status":16,"created_at":153,"updated_at":154,"faqs":155,"releases":191},2802,"Onelevenvy\u002Fflock","flock","Flock is a workflow-based low-code platform for rapidly building chatbots, RAG, and coordinating multi-agent teams, powered by LangGraph, Langchain, FastAPI, and NextJS.（Flock 是一个基于workflow工作流的低代码平台，用于快速构建聊天机器人、RAG、Agent和Muti-Agent应用，采用 LangGraph、Langchain、FastAPI 和 NextJS 构建。）","Flock 是一个基于工作流的低代码平台，旨在帮助开发者快速构建聊天机器人、检索增强生成（RAG）系统以及协调多智能体团队。它底层整合了 LangGraph、LangChain、FastAPI 和 NextJS 等主流技术栈，将复杂的 AI 应用开发转化为可视化的流程编排，有效解决了传统开发中代码量大、多智能体协作逻辑难以管理以及迭代效率低等痛点。\n\nFlock 特别适合希望高效落地 AI 应用的开发者、算法工程师及技术研究人员。通过直观的节点拖拽，用户无需编写大量底层代码即可实现复杂业务逻辑。其独特亮点在于丰富的功能节点支持：不仅包含意图识别、条件分支（If-Else）、Python 代码执行和参数提取等基础能力，还创新性地引入了“人机协同”节点，允许人类介入审核工具调用或修正模型输出。此外，Flock 率先支持模型上下文协议（MCP），可动态连接外部工具服务器，并原生集成 CrewAI 以构建强大的多智能体协作网络。配合子图复用和多模态对话支持，Flock 让构建灵活、模块化且具备自主推理能力的智能体应用变得简单可靠。","[![MseeP.ai Security Assessment Badge](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_cb1d0a72ca77.png)](https:\u002F\u002Fmseep.ai\u002Fapp\u002Fonelevenvy-flock)\n\n## 📃 Flock (Flexible Low-code Orchestrating Collaborative-agent Kits)\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002Fdocs\u002FREADME_cn.md\">简体中文\u003C\u002Fa> |\n  \u003Ca href=\".\u002FREADME.md\">English\u003C\u002Fa> |\n  \u003Ca href=\"#how-to-get-started\">Getting Started\u003C\u002Fa>\n\u003C\u002Fp>\n\n> [!NOTE]\n>\n> ### 🎉 What's New 2025\u002F8\u002F2\n>\n> - **New MCP Tolls**: Added support for Streamble HTTP MCP Tools\n> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_fb02583d3b0f.png\" alt=\"mcp\" width=\"500\" \u002F>\n> ### 🎉 What's New 2025\u002F5\u002F9\n>\n> - **Agent Node Support**: Added dedicated Agent Node for seamless agent integration in workflows! Key features:\n>   - 🧠 Create autonomous agents that can reason, plan, and execute tasks\n>   - 🔄 Support for multiple agent types and architectures\n>   - 🛠️ Easy configuration of agent tools, and behaviors\n>   - 🔗 Seamless integration with other workflow nodes\n>\n> ### 🎉 What's New 2025\u002F3\u002F10\n>\n> - **MCP Tools Support**: Added MCP Node with support for Model Context Protocol (MCP) tools, enabling seamless integration with MCP servers! Key features:\n>   - 🛠️ Convert MCP tools into LangChain tools for use with LangGraph agents\n>   - 📦 Connect to multiple MCP servers and dynamically load tools from them\n>   - 🔄 Support both stdio and SSE transport modes for flexible communication\n>   - 🔗 Seamless integration with existing LangChain workflows\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_4985e6e9df8b.png\" alt=\"mcp\" width=\"500\" \u002F>\n>\n> ### 🎉 What's New 2025\u002F2\u002F25\n>\n> - **Parameter Extractor Node**: Added parameter extraction node that can automatically extract structured information from text and output in JSON format!\n>\n> ### 🎉 What's New 2025\u002F1\u002F21\n>\n> - **Subgraph Node Support**: Added subgraph node that allows you to encapsulate and reuse complete sub-workflows!\n>\n>   - 📦 Modular: Encapsulate complex workflows as standalone subgraph nodes\n>   - 🔄 Reusable: Reuse the same subgraph node across different workflows\n>   - 🎯 Maintainable: Update and maintain sub-workflow logic independently\n>\n> ### 🎉 What's New 2025\u002F1\u002F8\n>\n> - **Human Node**: Added a new human-in-the-loop node supporting key scenarios:\n>   - 🛠️ Tool Call Review: Human review, edit, or approve tool calls requested by the LLM\n>   - ✅ LLM Output Validation: Human review, edit, or approve content generated by the LLM\n>   - 💡 Context Provision: Enable LLM to request human input for clarification or additional details\n>\n> ### 🎉 What's New 2024\u002F12\u002F23\n>\n> - **Multimodal Chat Support**: Added support for multimodal chat (currently only supports image modality, with more modalities coming soon)!  \n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_354037519cc6.png\" alt=\"multimodal\" width=\"500\" \u002F>\n\n> ### 🎉 What's New 2024\u002F12\u002F18\n>\n> - **If-Else Node**: Added If-Else node to support conditional logic in workflows! The node supports various condition types including Contains, Not contains, Start with, End with, Is, Is not, Is empty, and Is not empty. Multiple conditions can be combined using AND\u002FOR operators for complex conditional logic, allowing you to create sophisticated branching workflows based on your data.\n\n> ### 🎉 What's New 2024\u002F12\u002F7\n>\n> - **Code Execution Node**: Added Python code execution capabilities to workflows! This node allows you to write and execute Python scripts directly within your workflow, supporting variable references and dynamic data transformations. Perfect for arithmetic operations, data processing, text manipulation, and custom logic that goes beyond preset node functionalities.\n\n> ### 🎉 What's New 2024\u002F11\u002F12\n>\n> - **Intent Recognition Node**: New Intent Recognition node that can automatically identify user input intent based on preset categories, supporting multi-classification routing!\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_6e1d437cda52.png\" alt=\"intent recognition\" width=\"500\" \u002F>\n>\n> - **CrewAI Node Support**: Now you can leverage CrewAI's powerful multi-agent capabilities in your workflows! Create sophisticated agent teams and orchestrate complex collaborative tasks with ease.\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_4d649202c668.jpg\" alt=\"crewai\" width=\"500\"  \u002F>\n\n### Flock is a workflow-based low-code platform for rapidly building chatbots, RAG applications, and coordinating multi-agent teams. Built on LangChain and LangGraph, it provides a flexible, low-code orchestrating solution for collaborative agents, supporting chatbots, RAG applications, agents, and multi-agent systems, with the capability for offline operation.\n\n\u003Cvideo src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F49232224\u002F386539219-5dc96133-72f3-4cc3-9f50-096c38bde715.mp4?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzE2NjMzNDQsIm5iZiI6MTczMTY2MzA0NCwicGF0aCI6Ii80OTIzMjIyNC8zODY1MzkyMTktNWRjOTYxMzMtNzJmMy00Y2MzLTlmNTAtMDk2YzM4YmRlNzE1Lm1wND9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMTUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTE1VDA5MzA0NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWVhOWY1NTc1Mjk5YWU1MjZmNmQyNmY3Mzk0YjY2MGYyMzlmZWQ2MTVkMjExODEwNmY3YmMxYTVmNGRhNzMxZWEmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.69R3pTktxrl8C6tdduABLiRhkhwdfeVO3vlGGTGK4to\" data-canonical-src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F49232224\u002F386539219-5dc96133-72f3-4cc3-9f50-096c38bde715.mp4?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzE2NjMzNDQsIm5iZiI6MTczMTY2MzA0NCwicGF0aCI6Ii80OTIzMjIyNC8zODY1MzkyMTktNWRjOTYxMzMtNzJmMy00Y2MzLTlmNTAtMDk2YzM4YmRlNzE1Lm1wND9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMTUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTE1VDA5MzA0NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWVhOWY1NTc1Mjk5YWU1MjZmNmQyNmY3Mzk0YjY2MGYyMzlmZWQ2MTVkMjExODEwNmY3YmMxYTVmNGRhNzMxZWEmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.69R3pTktxrl8C6tdduABLiRhkhwdfeVO3vlGGTGK4to\" controls=\"controls\" muted=\"muted\" class=\"d-block rounded-bottom-2 border-top width-fit\" style=\"max-height:640px; min-height: 200px\">\n \u003C\u002Fvideo>\n\n### 🤖️ Overview\n\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_172a8650440e.png\" alt=\"overview\"  \u002F>\n\n### Work Flow\n\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_3f83c12dff35.png\" alt=\"overview\"  \u002F>\n\n### Node Types and Functions\n\nFlock's workflow system consists of various node types, each serving a specific purpose:\n\n1. Input Node: Processes initial input and converts it into a format the workflow can handle.\n2. LLM Node: Utilizes large language models for text generation and processing.\n3. Retrieval Node: Fetches relevant information from knowledge bases.\n4. Tool Node: Executes specific tasks or operations, extending workflow functionality.\n5. Retrieval Tool Node: Combines retrieval capabilities with tool functionality.\n6. Intent Recognition Node: Automatically identifies user input intent based on preset categories and routes to different processing flows.\n7. Answer Node: Generates final answers or outputs, integrating results from previous nodes.\n8. Subgraph Node: Encapsulates a complete sub-workflow, allowing for modular design.\n9. Start and End Nodes: Mark the beginning and end of the workflow.\n\nFuture planned nodes include:\n\n- File Upload Node\n- Parameter Extraction Node\n\nThese nodes can be combined to create powerful and flexible workflows suitable for various complex business needs and application scenarios.\n\n### Image Tools use\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_f8b9bab66d74.png)\n\n### Knowledge Retrieval\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_f4360731a442.png)\n\n### Human in the loop (human approval or let the LLM rethink or ask human for help)\n\n\u003Cp>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_abdc83d455a9.png\" alt=\"image\" style=\"width: 49%; display: inline-block;\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_fc6b32c46c1f.png\" alt=\"image\" style=\"width: 49%; display: inline-block;\">\n\u003C\u002Fp>\n\nInspired by the [StreetLamb](https:\u002F\u002Fgithub.com\u002FStreetLamb) project and its [tribe](https:\u002F\u002Fgithub.com\u002FStreetLamb\u002Ftribe) project , Flock adopts much of the approach and code.\nBuilding on this foundation, it introduces some new features and directions of its own.\n\nSome of the layout in this project references [Lobe-chat](https:\u002F\u002Fgithub.com\u002Flobehub\u002Flobe-chat), [Dify](https:\u002F\u002Fgithub.com\u002Flanggenius\u002Fdify), and [fastgpt](https:\u002F\u002Fgithub.com\u002Flabring\u002FFastGPT).\nThey are all excellent open-source projects, thanks🙇‍.\n\n### 👨‍💻 Development\n\nProject tech stack: LangChain + LangGraph + React + Next.js + Chakra UI + PostgreSQL\n\n### 💡RoadMap\n\n1 APP\n\n- [x] ChatBot\n- [x] SimpleRAG\n- [x] Hierarchical Agent\n- [x] Sequential Agent\n- [x] Work-Flow\n- [x] Intent Recognition Node - Automatically identify user input intent and route to different processing flows\n- [x] CrewAI Integration\n- [ ] More muti-agent ---On Progress\n\n2 Model\n\n- [x] OpenAI\n- [x] ZhipuAI\n- [x] Siliconflow\n- [x] Ollama\n- [x] Qwen\n- [x] Xinference\n- [x] 302.AI\n\n3 Ohters\n\n- [x] Tools Calling\n- [x] I18n\n- [ ] Langchain Templates\n\n### 🏘️Highlights\n\n- Persistent conversations: Save and maintain chat histories, allowing you to continue conversations.\n- Observability: Monitor and track your agents' performance and outputs in real-time using LangSmith to ensure they operate efficiently.\n- Tool Calling: Enable your agents to utilize external tools and APIs.\n- Retrieval Augmented Generation: Enable your agents to reason with your internal knowledge base.\n- Human-In-The-Loop: Enable human approval before tool calling.\n- Open Source Models: Use open-source LLM models such as llama, Qwen and Glm.\n- Multi-Tenancy: Manage and support multiple users and teams.\n\n### How to get started\n\n#### 1. Deploy with Docker Compose\n\n##### 1.1 Method 1: Pull Frontend and Backend Images from Docker Hub\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n# Navigate to the docker directory\ncd flock\u002Fdocker\n\n# Copy the environment configuration file\ncp ..\u002F.env.example .env\n\n# Start docker compose\ndocker compose up -d\n\n#  Access Frontend\n# Local environment\nhttp:\u002F\u002Flocalhost:4433\n\n# Server environment\nhttp:\u002F\u002Fyour_server_ip:4433\n```\n\n#### 1.2 Method 2: Locally Build Frontend and Backend Images\n\n```bash\n# Clone the repository\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n# Navigate to the docker directory\ncd flock\u002Fdocker\n\n# Copy the environment configuration file\ncp ..\u002F.env.example .env\n\n# First, build the frontend and backend images\ndocker compose -f docker-compose.localbuild.yml build\n# Then start docker compose\ndocker compose -f docker-compose.localbuild.yml up -d\n```\n\n#### 2. Start with Local Source Code\n\n##### 2.1 Preparation\n\n##### 2.1.1 Clone the Code\n\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n##### 2.1.2 Copy Environment Configuration File\n\n```bash\ncp .env.example .env\n# Modify environment variables in .env file as needed\n```\n\n##### 2.1.3 Generate Secret Keys\n\nSome environment variables in the .env file have default values set to 'changethis'.\nYou must change these to secret keys. To generate a secret key, you can run the following command:\n\n```bash\npython -c \"import secrets; print(secrets.token_urlsafe(32))\"\n```\n\nCopy the output and use it as your password\u002Fkey. Run the command again to generate another secure key.\n\n##### 2.1.4 Install postgres, qdrant, redis\n\n```bash\ncd docker\ndocker compose --env-file ..\u002F.env up -d\n```\n\n#### 2.2 Run Backend\n\n##### 2.2.1 Install Basic Environment\n\nServer startup requires Python 3.12.x. It's recommended to use pyenv for quick Python environment installation.\n\nTo install additional Python versions, use pyenv install:\n\n```bash\npyenv install 3.12\n```\n\nTo switch to the \"3.12\" Python environment, use the following command:\n\n```bash\npyenv global 3.12\n```\n\nFollow these steps:\nNavigate to the \"backend\" directory:\n\n```bash\ncd backend\n```\n\nActivate the environment:\n\n```bash\nuv sync --python 3.12  \n```\n\n##### 2.2.2 Initialize Data\n\n```bash\n# Migrate database\nalembic upgrade head\n```\n\n##### 2.2.3 Run unicorn\n\n```bash\nuvicorn app.main:app --reload --log-level debug\n```\n\n##### 2.2.4 Run celery (not required unless you want to use rag functionality)\n\n```bash\npoetry run celery -A app.core.celery_app.celery_app worker --loglevel=debug\n```\n\n#### 2.3 Run Frontend\n\n##### 2.3.1 Enter web directory and install dependencies\n\n```bash\ncd web\npnpm install\n```\n\n##### 2.3.2 Start web service\n\n```bash\ncd web\npnpm dev\n\n# or pnpm build then pnpm start\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_1f9468b71faa.png)](https:\u002F\u002Fstar-history.com\u002F#Onelevenvy\u002Fflock&Date)\n","[![MseeP.ai 安全评估徽章](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_cb1d0a72ca77.png)](https:\u002F\u002Fmseep.ai\u002Fapp\u002Fonelevenvy-flock)\n\n## 📃 Flock（灵活的低代码协作智能体编排工具包）\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002Fdocs\u002FREADME_cn.md\">简体中文\u003C\u002Fa> |\n  \u003Ca href=\".\u002FREADME.md\">English\u003C\u002Fa> |\n  \u003Ca href=\"#how-to-get-started\">开始使用\u003C\u002Fa>\n\u003C\u002Fp>\n\n> [!NOTE]\n>\n> ### 🎉 最新动态 2025\u002F8\u002F2\n>\n> - **全新 MCP 工具**：新增对 Streamble HTTP MCP 工具的支持\n> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_fb02583d3b0f.png\" alt=\"mcp\" width=\"500\" \u002F>\n> ### 🎉 最新动态 2025\u002F5\u002F9\n>\n> - **智能体节点支持**：新增专用智能体节点，实现智能体与工作流的无缝集成！主要特性：\n>   - 🧠 创建可自主推理、规划并执行任务的智能体\n>   - 🔄 支持多种智能体类型和架构\n>   - 🛠️ 轻松配置智能体工具及行为\n>   - 🔗 与其他工作流节点无缝对接\n>\n> ### 🎉 最新动态 2025\u002F3\u002F10\n>\n> - **MCP 工具支持**：新增 MCP 节点，支持模型上下文协议（MCP）工具，实现与 MCP 服务器的无缝集成！主要特性：\n>   - 🛠️ 将 MCP 工具转换为 LangChain 工具，供 LangGraph 智能体使用\n>   - 📦 连接多个 MCP 服务器，并从中动态加载工具\n>   - 🔄 同时支持 stdio 和 SSE 传输模式，通信方式灵活\n>   - 🔗 与现有 LangChain 工作流无缝集成\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_4985e6e9df8b.png\" alt=\"mcp\" width=\"500\" \u002F>\n>\n> ### 🎉 最新动态 2025\u002F2\u002F25\n>\n> - **参数提取节点**：新增参数提取节点，可自动从文本中提取结构化信息，并以 JSON 格式输出！\n>\n> ### 🎉 最新动态 2025\u002F1\u002F21\n>\n> - **子图节点支持**：新增子图节点，允许您封装并复用完整的子工作流！\n>\n>   - 📦 模块化：将复杂工作流封装为独立的子图节点\n>   - 🔄 可复用：在不同工作流中重复使用同一子图节点\n>   - 🎯 易于维护：可独立更新和维护子工作流逻辑\n>\n> ### 🎉 最新动态 2025\u002F1\u002F8\n>\n> - **人工节点**：新增人机协作节点，支持以下关键场景：\n>   - 🛠️ 工具调用审核：由人工审核、编辑或批准 LLM 请求的工具调用\n>   - ✅ LLM 输出验证：由人工审核、编辑或批准 LLM 生成的内容\n>   - 💡 提供上下文：允许 LLM 请求人工输入，以获取澄清或补充信息\n>\n> ### 🎉 最新动态 2024\u002F12\u002F23\n>\n> - **多模态聊天支持**：新增多模态聊天支持（目前仅支持图像模态，更多模态即将推出）！  \n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_354037519cc6.png\" alt=\"multimodal\" width=\"500\" \u002F>\n\n> ### 🎉 最新动态 2024\u002F12\u002F18\n>\n> - **If-Else 节点**：新增 If-Else 节点，用于支持工作流中的条件逻辑！该节点支持多种条件类型，包括包含、不包含、以…开头、以…结尾、等于、不等于、为空以及不为空。可通过 AND\u002FOR 运算符组合多个条件，构建复杂的条件逻辑，从而根据您的数据创建精巧的分支工作流。\n\n> ### 🎉 最新动态 2024\u002F12\u002F7\n>\n> - **代码执行节点**：为工作流添加 Python 代码执行功能！该节点允许您直接在工作流中编写并执行 Python 脚本，支持变量引用和动态数据转换。非常适合进行算术运算、数据处理、文本操作以及超出预设节点功能的自定义逻辑。\n\n> ### 🎉 最新动态 2024\u002F11\u002F12\n>\n> - **意图识别节点**：新增意图识别节点，可根据预设类别自动识别用户输入意图，支持多分类路由！\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_6e1d437cda52.png\" alt=\"intent recognition\" width=\"500\" \u002F>\n>\n> - **CrewAI 节点支持**：现在您可以在工作流中利用 CrewAI 强大的多智能体能力！轻松创建复杂的智能体团队，并协调复杂的协作任务。\n>   \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_4d649202c668.jpg\" alt=\"crewai\" width=\"500\" \u002F>\n\n### Flock 是一个基于工作流的低代码平台，用于快速构建聊天机器人、RAG 应用以及协调多智能体团队。它基于 LangChain 和 LangGraph 构建，为协作智能体提供灵活的低代码编排解决方案，支持聊天机器人、RAG 应用、智能体和多智能体系统，并具备离线运行能力。\n\n\u003Cvideo src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F49232224\u002F386539219-5dc96133-72f3-4cc3-9f50-096c38bde715.mp4?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzE2NjMzNDQsIm5iZiI6MTczMTY2MzA0NCwicGF0aCI6Ii80OTIzMjIyNC8zODY1MzkyMTktNWRjOTYxMzMtNzJmMy00Y2MzLTlmNTAtMDk2YzM4YmRlNzE1Lm1wND9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMTUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTE1VDA5MzA0NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWVhOWY1NTc1Mjk5YWU1MjZmNmQyNmY3Mzk0YjY2MGYyMzlmZWQ2MTVkMjExODEwNmY3YmMxYTVmNGRhNzMxZWEmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.69R3pTktxrl8C6tdduABLiRhkhwdfeVO3vlGGTGK4to\" data-canonical-src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F49232224\u002F386539219-5dc96133-72f3-4cc3-9f50-096c38bde715.mp4?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MzE2NjMzNDQsIm5iZiI6MTczMTY2MzA0NCwicGF0aCI6Ii80OTIzMjIyNC8zODY1MzkyMTktNWRjOTYxMzMtNzJmMy00Y2MzLTlmNTAtMDk6YzM4YmRlNzE1Lm1wND9YLUFtei1BbGdvcml0aG09QVdTNC1ITUFDLVNIQTI1NiZYLUFtei1DcmVkZW50aWFsPUFLSUFWQ09EWUxTQTUzUFFLNFpBJTJGMjAyNDExMTUlMkZ1cy1lYXN0LTElMkZzMyUyRmF3czRfcmVxdWVzdCZYLUFtei1EYXRlPTIwMjQxMTE1VDA5MzA0NFomWC1BbXotRXhwaXJlcz0zMDAmWC1BbXotU2lnbmF0dXJlPWVhOWY1NTc1Mjk5YWU1MjZmNmQyNmY3Mzk0YjY2MGYyMzlmZWQ2MTVkMjExODEwNmY3YmMxYTVmNGRhNzMxZWEmWC1BbXotU2lnbmVkSGVhZGVycz1ob3N0In0.69R3pTktxrl8C6tdduABLiRhkhwdfeVO3vlGGTGK4to\" controls=\"controls\" muted=\"muted\" class=\"d-block rounded-bottom-2 border-top width-fit\" style=\"max-height:640px; min-height: 200px\">\n \u003C\u002Fvideo>\n\n### 🤖️ 概述\n\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_172a8650440e.png\" alt=\"overview\"  \u002F>\n\n### 工作流程\n\n \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_3f83c12dff35.png\" alt=\"overview\"  \u002F>\n\n### 节点类型与功能\n\nFlock 的工作流系统由多种节点类型组成，每种节点都有其特定用途：\n\n1. 输入节点：处理初始输入，并将其转换为工作流可处理的格式。\n2. LLM 节点：利用大型语言模型进行文本生成和处理。\n3. 检索节点：从知识库中获取相关信息。\n4. 工具节点：执行特定任务或操作，扩展工作流的功能。\n5. 检索工具节点：结合检索能力和工具功能。\n6. 意图识别节点：根据预设类别自动识别用户输入意图，并路由到不同的处理流程。\n7. 答案节点：生成最终答案或输出，整合之前节点的结果。\n8. 子图节点：封装一个完整的子工作流，支持模块化设计。\n9. 开始和结束节点：标记工作流的起点和终点。\n\n未来计划新增的节点包括：\n\n- 文件上传节点\n- 参数提取节点\n\n这些节点可以组合使用，构建强大且灵活的工作流，适用于各种复杂的业务需求和应用场景。\n\n### 图像工具的使用\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_f8b9bab66d74.png)\n\n### 知识检索\n\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_f4360731a442.png)\n\n### 人机协作（人工审批、让 LLM 重新思考或请求人工帮助）\n\n\u003Cp>\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_abdc83d455a9.png\" alt=\"image\" style=\"width: 49%; display: inline-block;\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_fc6b32c46c1f.png\" alt=\"image\" style=\"width: 49%; display: inline-block;\">\n\u003C\u002Fp>\n\n受 [StreetLamb](https:\u002F\u002Fgithub.com\u002FStreetLamb) 项目及其 [tribe](https:\u002F\u002Fgithub.com\u002FStreetLamb\u002Ftribe) 项目的启发，Flock 借鉴了其中的许多方法和代码。在此基础上，Flock 还引入了一些新的功能和方向。\n\n该项目的部分布局参考了 [Lobe-chat](https:\u002F\u002Fgithub.com\u002Flobehub\u002Flobe-chat)、[Dify](https:\u002F\u002Fgithub.com\u002Flanggenius\u002Fdify) 和 [fastgpt](https:\u002F\u002Fgithub.com\u002Flabring\u002FFastGPT)。这些都是优秀的开源项目，感谢它们的贡献🙇‍。\n\n### 👨‍💻 开发\n\n项目技术栈：LangChain + LangGraph + React + Next.js + Chakra UI + PostgreSQL\n\n### 💡 路线图\n\n1 APP\n\n- [x] 聊天机器人\n- [x] SimpleRAG\n- [x] 层次化智能体\n- [x] 顺序式智能体\n- [x] 工作流\n- [x] 意图识别节点——自动识别用户输入意图并路由到不同处理流程\n- [x] CrewAI 集成\n- [ ] 更多多智能体——正在进行中\n\n2 模型\n\n- [x] OpenAI\n- [x] ZhipuAI\n- [x] Siliconflow\n- [x] Ollama\n- [x] Qwen\n- [x] Xinference\n- [x] 302.AI\n\n3 其他\n\n- [x] 工具调用\n- [x] 多语言支持\n- [ ] Langchain 模板\n\n### 🏘️ 亮点\n\n- 持久对话：保存并维护聊天记录，方便继续对话。\n- 可观测性：通过 LangSmith 实时监控和跟踪智能体的性能和输出，确保其高效运行。\n- 工具调用：使智能体能够使用外部工具和 API。\n- 检索增强生成：使智能体能够结合内部知识库进行推理。\n- 人机协作：在工具调用前需要人工审批。\n- 开源模型：使用开源 LLM 模型，如 llama、Qwen 和 Glm。\n- 多租户：管理和支持多个用户和团队。\n\n### 如何开始\n\n#### 1. 使用 Docker Compose 部署\n\n##### 1.1 方法一：从 Docker Hub 拉取前端和后端镜像\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n# 进入 docker 目录\ncd flock\u002Fdocker\n\n# 复制环境配置文件\ncp ..\u002F.env.example .env\n\n# 启动 docker compose\ndocker compose up -d\n\n# 访问前端\n# 本地环境\nhttp:\u002F\u002Flocalhost:4433\n\n# 服务器环境\nhttp:\u002F\u002Fyour_server_ip:4433\n```\n\n##### 1.2 方法二：本地构建前端和后端镜像\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n# 进入 docker 目录\ncd flock\u002Fdocker\n\n# 复制环境配置文件\ncp ..\u002F.env.example .env\n\n# 首先构建前端和后端镜像\ndocker compose -f docker-compose.localbuild.yml build\n# 然后启动 docker compose\ndocker compose -f docker-compose.localbuild.yml up -d\n```\n\n#### 2. 从本地源码开始\n\n##### 2.1 准备工作\n\n##### 2.1.1 克隆代码\n\ngit clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n\n##### 2.1.2 复制环境配置文件\n\n```bash\ncp .env.example .env\n# 根据需要修改 .env 文件中的环境变量\n```\n\n##### 2.1.3 生成密钥\n\n.env 文件中的一些环境变量默认值设置为 'changethis'，您必须将其更改为安全的密钥。要生成密钥，可以运行以下命令：\n\n```bash\npython -c \"import secrets; print(secrets.token_urlsafe(32))\"\n```\n\n复制输出并将其用作密码\u002F密钥。再次运行该命令以生成另一个安全密钥。\n\n##### 2.1.4 安装 postgres、qdrant、redis\n\n```bash\ncd docker\ndocker compose --env-file ..\u002F.env up -d\n```\n\n#### 2.2 运行后端\n\n##### 2.2.1 安装基础环境\n\n服务器启动需要 Python 3.12.x。建议使用 pyenv 快速安装 Python 环境。\n\n要安装其他 Python 版本，使用 pyenv install：\n\n```bash\npyenv install 3.12\n```\n\n要切换到 \"3.12\" 的 Python 环境，使用以下命令：\n\n```bash\npyenv global 3.12\n```\n\n按照以下步骤操作：\n进入 \"backend\" 目录：\n\n```bash\ncd backend\n```\n\n激活环境：\n\n```bash\nuv sync --python 3.12  \n```\n\n##### 2.2.2 初始化数据\n\n```bash\n# 迁移数据库\nalembic upgrade head\n```\n\n##### 2.2.3 运行 unicorn\n\n```bash\nuvicorn app.main:app --reload --log-level debug\n```\n\n##### 2.2.4 运行 celery（除非您想使用 rag 功能，否则不需要）\n\n```bash\npoetry run celery -A app.core.celery_app.celery_app worker --loglevel=debug\n```\n\n#### 2.3 运行前端\n\n##### 2.3.1 进入 web 目录并安装依赖\n\n```bash\ncd web\npnpm install\n```\n\n##### 2.3.2 启动 web 服务\n\n```bash\ncd web\npnpm dev\n\n# 或 pnpm build 然后 pnpm start\n```\n\n## 星级历史\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_readme_1f9468b71faa.png)](https:\u002F\u002Fstar-history.com\u002F#Onelevenvy\u002Fflock&Date)","# Flock 快速上手指南\n\nFlock 是一个基于工作流的低代码平台，用于快速构建聊天机器人、RAG 应用及协调多智能体团队。它基于 LangChain 和 LangGraph 构建，支持离线运行。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows (需安装 WSL2)\n*   **Docker & Docker Compose**: 用于部署数据库和中间件（推荐方式）\n*   **Python**: 版本需为 **3.12.x**\n    *   推荐使用 `pyenv` 管理 Python 版本：\n        ```bash\n        pyenv install 3.12\n        pyenv global 3.12\n        ```\n*   **包管理工具**:\n    *   `uv`: 用于后端依赖管理（推荐）\n    *   `git`: 代码克隆\n*   **中间件服务** (若不使用 Docker Compose 一键启动，需单独安装):\n    *   PostgreSQL\n    *   Qdrant (向量数据库)\n    *   Redis\n\n## 2. 安装步骤\n\n您可以选择 **Docker Compose 部署**（推荐，最简单）或 **本地源码运行**。\n\n### 方案 A：使用 Docker Compose 部署（推荐）\n\n此方法会自动拉取镜像并启动前后端及所有依赖服务。\n\n1.  **克隆项目**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n    cd flock\u002Fdocker\n    ```\n\n2.  **配置环境变量**\n    ```bash\n    cp ..\u002F.env.example .env\n    ```\n    > **注意**：请编辑 `.env` 文件，将默认值为 `changethis` 的密钥替换为生成的安全密钥。\n    > 生成密钥命令：\n    > ```bash\n    > python -c \"import secrets; print(secrets.token_urlsafe(32))\"\n    > ```\n\n3.  **启动服务**\n    *   **方法一：直接拉取镜像启动**\n        ```bash\n        docker compose up -d\n        ```\n    *   **方法二：本地构建镜像启动**（如需修改代码或网络无法拉取镜像时）\n        ```bash\n        docker compose -f docker-compose.localbuild.yml build\n        docker compose -f docker-compose.localbuild.yml up -d\n        ```\n\n4.  **访问应用**\n    *   本地环境：http:\u002F\u002Flocalhost:4433\n    *   服务器环境：http:\u002F\u002Fyour_server_ip:4433\n\n---\n\n### 方案 B：本地源码运行（开发者模式）\n\n如果您需要调试代码或进行二次开发，请按以下步骤操作。\n\n1.  **克隆代码与配置**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock.git\n    cd flock\n    cp .env.example .env\n    # 请手动编辑 .env 文件，替换所有 'changethis' 为生成的安全密钥\n    ```\n\n2.  **启动基础依赖服务 (Postgres, Qdrant, Redis)**\n    ```bash\n    cd docker\n    docker compose --env-file ..\u002F.env up -d\n    cd ..\n    ```\n\n3.  **安装后端环境**\n    进入后端目录并使用 `uv` 同步依赖：\n    ```bash\n    cd backend\n    uv sync --python 3.12\n    ```\n    *注：确保当前 Python 版本已切换至 3.12 (`pyenv global 3.12`)。*\n\n4.  **启动后端服务**\n    （激活虚拟环境后运行，具体启动命令参考项目后续文档，通常为类似 `uv run ...` 的命令）\n\n5.  **安装前端环境**\n    （进入前端目录，使用 npm\u002Fpnpm\u002Fyarn 安装依赖并启动，具体参考前端目录下的 README）\n\n## 3. 基本使用\n\n安装完成后，您可以通过浏览器访问界面进行零代码\u002F低代码开发。\n\n### 核心功能概览\nFlock 通过拖拽不同类型的**节点 (Nodes)** 来构建工作流：\n\n*   **Input\u002FStart\u002FEnd Node**: 流程的输入、开始与结束标记。\n*   **LLM Node**: 调用大模型进行文本生成或处理。\n*   **Retrieval Node**: 从知识库检索相关信息（支持 RAG）。\n*   **Tool Node**: 执行特定工具或 API 调用。\n*   **Intent Recognition Node**: 自动识别用户意图并路由到不同分支。\n*   **Human Node**: 引入人工介入（审核工具调用、批准输出或提供上下文）。\n*   **Subgraph Node**: 封装子工作流，实现模块化复用。\n*   **Code Node**: 直接执行 Python 代码进行数据处理。\n*   **Agent Node**: 创建具备推理、规划和执行能力的自主智能体。\n\n### 快速创建一个简单工作流\n\n1.  **登录系统**：访问 `http:\u002F\u002Flocalhost:4433`。\n2.  **创建应用**：点击新建应用，选择 \"Workflow\" 类型。\n3.  **编排流程**：\n    *   从左侧组件栏拖入一个 **Input Node** 作为起点。\n    *   连接一个 **LLM Node**，配置模型（支持 OpenAI, ZhipuAI, Ollama, Qwen 等）。\n    *   (可选) 添加 **Retrieval Node** 挂载知识库，实现问答增强。\n    *   连接 **Answer Node** 输出最终结果。\n4.  **调试与发布**：\n    *   点击右上角“运行”或“测试”，输入问题查看链路执行结果。\n    *   确认无误后发布应用，即可通过 API 或嵌入页面使用。\n\n### 高级特性示例\n*   **多智能体协作**：添加 **CrewAI Node** 或 **Agent Node**，配置多个角色协同完成任务。\n*   **条件分支**：使用 **If-Else Node**，根据变量内容（如包含、等于、为空等）决定流程走向。\n*   **人工审核**：在敏感操作前插入 **Human Node**，暂停流程等待用户确认后再继续执行。","某电商公司的技术团队需要快速构建一个能处理复杂售后流程（如退货、换货、投诉）的智能客服系统，该系统需具备多轮对话、人工介入审核及多工具调用能力。\n\n### 没有 flock 时\n- **开发周期漫长**：工程师需手动编写大量 LangChain 和 LangGraph 代码来串联意图识别、参数提取和工具调用逻辑，单个流程调试耗时数天。\n- **多代理协作困难**：难以协调“查询订单”、“判断政策”和“生成方案”等多个 Agent 的协作，状态管理混乱，容易出现死循环或逻辑断层。\n- **人工审核缺失**：无法在关键节点（如大额退款）灵活插入人工确认环节，要么完全自动化导致风险失控，要么硬编码打断流程导致体验割裂。\n- **维护成本高昂**：业务规则变更（如调整退货时限）需要修改底层代码并重新部署，缺乏可视化的工作流视图，非技术人员无法参与优化。\n\n### 使用 flock 后\n- **低代码快速搭建**：利用可视化的 Intent Recognition 节点和 Parameter Extractor 节点，通过拖拽即可在几小时内完成复杂售后工作流的构建与测试。\n- **原生多代理编排**：直接调用 CrewAI 节点或新增的 Agent 节点，轻松定义不同角色的 Agent 团队，自动处理规划与执行，确保多步骤任务流畅协同。\n- **无缝人机协同**：通过 Human-in-the-loop 节点，在涉及敏感操作时自动暂停并请求人工审核，批准后再继续执行，兼顾了效率与安全。\n- **灵活迭代与维护**：借助 Subgraph 节点将通用逻辑封装复用，业务人员可在界面上直观调整 If-Else 分支条件，无需改动代码即可响应策略变化。\n\nflock 将原本需要数周开发的复杂多代理协作系统，转变为可可视化编排、即时迭代且安全可控的低代码工作流，极大提升了企业级 AI 应用的落地效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOnelevenvy_flock_e41901f9.png","Onelevenvy",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOnelevenvy_587999c2.jpg","https:\u002F\u002Fgithub.com\u002FOnelevenvy",[80,84,88,92,96,99,103,107],{"name":81,"color":82,"percentage":83},"TypeScript","#3178c6",67,{"name":85,"color":86,"percentage":87},"Python","#3572A5",32,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",0.4,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.2,{"name":97,"color":98,"percentage":95},"Shell","#89e051",{"name":100,"color":101,"percentage":102},"CSS","#663399",0.1,{"name":104,"color":105,"percentage":106},"Mako","#7e858d",0,{"name":108,"color":109,"percentage":106},"Jinja","#a52a22",1087,136,"2026-04-03T10:17:34","Apache-2.0",4,"Linux, macOS, Windows","未说明 (支持本地模型如 Ollama\u002FXinference，具体取决于所选模型)","未说明",{"notes":119,"python":120,"dependencies":121},"该项目为低代码工作流平台，后端基于 Python 3.12 并使用 uv 管理依赖。部署方式支持 Docker Compose 或本地源码运行。本地运行需手动安装 PostgreSQL、Qdrant 和 Redis（推荐通过 Docker 启动）。项目支持多种大模型后端（包括 OpenAI、Ollama、Xinference 等），若使用本地开源模型，硬件需求取决于具体模型的运行要求。环境变量中涉及密钥的部分需用户自行生成替换默认值。","3.12.x",[122,123,124,125,126,127,128,129,130],"LangChain","LangGraph","React","Next.js","Chakra UI","PostgreSQL","Qdrant","Redis","uv",[14,53,15,26,13],[133,134,135,136,137,138,139,140,141,142,143,144,145,146,147,148,149,150,151,152],"agent","crewai","fastapi","langchain","langgraph","llm","muti-agent","nextjs","ollama","openai","openapi","rag","react-flow","workflow","langgraph-gui","ai","chatbot","deekseek","dify","mcp","2026-03-27T02:49:30.150509","2026-04-06T09:44:28.632581",[156,161,166,171,176,181,186],{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},12958,"安装后如何登录？默认用户名和密码是什么？","登录问题通常是由于前后端地址配置不正确导致的。内网或外网部署逻辑相同，需要修改环境变量将 API 地址指向部署机器的实际 IP。请设置以下环境变量：\nAPI_URL=http:\u002F\u002F\u003C你的部署机器IP>:8000\nNEXT_PUBLIC_API_URL=http:\u002F\u002F\u003C你的部署机器IP>:8000\n例如：API_URL=http:\u002F\u002F192.168.1.95:8000","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F202",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},12959,"在 Mac M1\u002FM2 (Apple Silicon) 芯片上部署失败怎么办？","在 Apple Silicon Mac 上部署时，API 服务可能因架构不兼容而启动失败。解决方法是在 `docker-compose.yml` 文件中为相关服务添加 `platform` 参数，强制使用 x86_64 架构：\nplatform: linux\u002Fx86_64\n参考文档：https:\u002F\u002Fdocs.docker.com\u002Freference\u002Fcompose-file\u002Fbuild\u002F#platforms","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F190",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},12960,"本地构建 Docker 镜像时报错\"poetry.lock: not found\"如何解决？","该错误是因为源码中缺少 `poetry.lock` 文件。你可以先在本地后端目录生成该文件，然后再构建镜像。执行以下步骤：\n1. 进入后端目录：cd backend\n2. 运行命令生成锁文件：poetry install\n这将生成 `poetry.lock` 文件，之后即可正常构建镜像。","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F194",{"id":172,"question_zh":173,"answer_zh":174,"source_url":175},12961,"Docker 部署后前端无法连接后端或登录报错，如何处理？","如果前端默认配置指向 `127.0.0.1` 导致无法连接外部后端，有两种解决方案：\n1. 修改源码重新构建：编辑 `web\u002Fsrc\u002Fcomponents\u002FProvider\u002FClientProviders.tsx` 文件，将 `OpenAPI.BASE= \"http:\u002F\u002F127.0.0.1:8000\";` 修改为你实际的后端 API 地址，然后重新构建前端 Docker 镜像。\n2. 直接源码运行：修改源代码后，不从 Docker 启动前端，而是直接从源码启动前端服务。","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F197",{"id":177,"question_zh":178,"answer_zh":179,"source_url":180},12962,"自定义工具（Custom Tool）的 Skill Definition 输入框无法输入怎么办？","这是一个已知的前端 Bug。目前自定义工具功能存在问题，开发团队暂时隐藏了相关功能逻辑，但忘记隐藏界面上的按钮，导致点击后无法输入。该功能将在后续修复后开放，目前暂时无法使用。","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F219",{"id":182,"question_zh":183,"answer_zh":184,"source_url":185},12963,"代码执行器（Code Executor）如何传递参数？","代码模板中的 `_inputs_placeholder` 用于接收参数。在实际编写代码逻辑时（例如 return 部分），可以直接使用参数名进行计算。例如，如果定义了参数 arg1 和 arg2，可以在代码中写成 `return {\"res\": arg1 + arg2}`，系统会自动传入对应的值并运行得出结果。","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F215",{"id":187,"question_zh":188,"answer_zh":189,"source_url":190},12964,"pyproject.toml 文件中存在变量选项错误或拼写错误怎么办？","用户报告的几个配置错误已在计划修复中，包括：\n1. Celery 相关变量需在 'primary', 'supplemental', 'explicit' 中选择正确的一项。\n2. `isort` 版本号的引号格式错误，应修正为 `\"isort>=6.0.1\"`。\n3. 配置文件路径 `.env` 应修正为 `..\\.env`。\n建议关注项目更新以获取修复后的版本。","https:\u002F\u002Fgithub.com\u002FOnelevenvy\u002Fflock\u002Fissues\u002F232",[192,196,200,204,208,212],{"id":193,"version":194,"summary_zh":76,"released_at":195},71645,"v0.1.0","2025-08-04T00:48:51",{"id":197,"version":198,"summary_zh":76,"released_at":199},71646,"V0.0.6","2025-05-10T04:29:05",{"id":201,"version":202,"summary_zh":76,"released_at":203},71647,"V0.0.5","2025-03-24T00:36:18",{"id":205,"version":206,"summary_zh":76,"released_at":207},71648,"v0.0.4.4","2025-02-19T08:13:01",{"id":209,"version":210,"summary_zh":76,"released_at":211},71649,"v0.0.4.3","2025-01-04T00:03:22",{"id":213,"version":214,"summary_zh":76,"released_at":215},71650,"v0.0.4.2","2024-12-08T07:33:50"]