flock

GitHub
1.1k 136 较难 1 次阅读 2天前Apache-2.0图像插件Agent语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

Flock 是一个基于工作流的低代码平台,旨在帮助开发者快速构建聊天机器人、检索增强生成(RAG)系统以及协调多智能体团队。它底层整合了 LangGraph、LangChain、FastAPI 和 NextJS 等主流技术栈,将复杂的 AI 应用开发转化为可视化的流程编排,有效解决了传统开发中代码量大、多智能体协作逻辑难以管理以及迭代效率低等痛点。

Flock 特别适合希望高效落地 AI 应用的开发者、算法工程师及技术研究人员。通过直观的节点拖拽,用户无需编写大量底层代码即可实现复杂业务逻辑。其独特亮点在于丰富的功能节点支持:不仅包含意图识别、条件分支(If-Else)、Python 代码执行和参数提取等基础能力,还创新性地引入了“人机协同”节点,允许人类介入审核工具调用或修正模型输出。此外,Flock 率先支持模型上下文协议(MCP),可动态连接外部工具服务器,并原生集成 CrewAI 以构建强大的多智能体协作网络。配合子图复用和多模态对话支持,Flock 让构建灵活、模块化且具备自主推理能力的智能体应用变得简单可靠。

使用场景

某电商公司的技术团队需要快速构建一个能处理复杂售后流程(如退货、换货、投诉)的智能客服系统,该系统需具备多轮对话、人工介入审核及多工具调用能力。

没有 flock 时

  • 开发周期漫长:工程师需手动编写大量 LangChain 和 LangGraph 代码来串联意图识别、参数提取和工具调用逻辑,单个流程调试耗时数天。
  • 多代理协作困难:难以协调“查询订单”、“判断政策”和“生成方案”等多个 Agent 的协作,状态管理混乱,容易出现死循环或逻辑断层。
  • 人工审核缺失:无法在关键节点(如大额退款)灵活插入人工确认环节,要么完全自动化导致风险失控,要么硬编码打断流程导致体验割裂。
  • 维护成本高昂:业务规则变更(如调整退货时限)需要修改底层代码并重新部署,缺乏可视化的工作流视图,非技术人员无法参与优化。

使用 flock 后

  • 低代码快速搭建:利用可视化的 Intent Recognition 节点和 Parameter Extractor 节点,通过拖拽即可在几小时内完成复杂售后工作流的构建与测试。
  • 原生多代理编排:直接调用 CrewAI 节点或新增的 Agent 节点,轻松定义不同角色的 Agent 团队,自动处理规划与执行,确保多步骤任务流畅协同。
  • 无缝人机协同:通过 Human-in-the-loop 节点,在涉及敏感操作时自动暂停并请求人工审核,批准后再继续执行,兼顾了效率与安全。
  • 灵活迭代与维护:借助 Subgraph 节点将通用逻辑封装复用,业务人员可在界面上直观调整 If-Else 分支条件,无需改动代码即可响应策略变化。

flock 将原本需要数周开发的复杂多代理协作系统,转变为可可视化编排、即时迭代且安全可控的低代码工作流,极大提升了企业级 AI 应用的落地效率。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明 (支持本地模型如 Ollama/Xinference,具体取决于所选模型)

内存

未说明

依赖
notes该项目为低代码工作流平台,后端基于 Python 3.12 并使用 uv 管理依赖。部署方式支持 Docker Compose 或本地源码运行。本地运行需手动安装 PostgreSQL、Qdrant 和 Redis(推荐通过 Docker 启动)。项目支持多种大模型后端(包括 OpenAI、Ollama、Xinference 等),若使用本地开源模型,硬件需求取决于具体模型的运行要求。环境变量中涉及密钥的部分需用户自行生成替换默认值。
python3.12.x
LangChain
LangGraph
React
Next.js
Chakra UI
PostgreSQL
Qdrant
Redis
uv
flock hero image

快速开始

MseeP.ai 安全评估徽章

📃 Flock(灵活的低代码协作智能体编排工具包)

简体中文 | English | 开始使用

[!NOTE]

🎉 最新动态 2025/8/2

  • 全新 MCP 工具:新增对 Streamble HTTP MCP 工具的支持
mcp ### 🎉 最新动态 2025/5/9
  • 智能体节点支持:新增专用智能体节点,实现智能体与工作流的无缝集成!主要特性:
    • 🧠 创建可自主推理、规划并执行任务的智能体
    • 🔄 支持多种智能体类型和架构
    • 🛠️ 轻松配置智能体工具及行为
    • 🔗 与其他工作流节点无缝对接

🎉 最新动态 2025/3/10

  • MCP 工具支持:新增 MCP 节点,支持模型上下文协议(MCP)工具,实现与 MCP 服务器的无缝集成!主要特性:
    • 🛠️ 将 MCP 工具转换为 LangChain 工具,供 LangGraph 智能体使用
    • 📦 连接多个 MCP 服务器,并从中动态加载工具
    • 🔄 同时支持 stdio 和 SSE 传输模式,通信方式灵活
    • 🔗 与现有 LangChain 工作流无缝集成
    mcp

🎉 最新动态 2025/2/25

  • 参数提取节点:新增参数提取节点,可自动从文本中提取结构化信息,并以 JSON 格式输出!

🎉 最新动态 2025/1/21

  • 子图节点支持:新增子图节点,允许您封装并复用完整的子工作流!

    • 📦 模块化:将复杂工作流封装为独立的子图节点
    • 🔄 可复用:在不同工作流中重复使用同一子图节点
    • 🎯 易于维护:可独立更新和维护子工作流逻辑

🎉 最新动态 2025/1/8

  • 人工节点:新增人机协作节点,支持以下关键场景:
    • 🛠️ 工具调用审核:由人工审核、编辑或批准 LLM 请求的工具调用
    • ✅ LLM 输出验证:由人工审核、编辑或批准 LLM 生成的内容
    • 💡 提供上下文:允许 LLM 请求人工输入,以获取澄清或补充信息

🎉 最新动态 2024/12/23

  • 多模态聊天支持:新增多模态聊天支持(目前仅支持图像模态,更多模态即将推出)! multimodal

🎉 最新动态 2024/12/18

  • If-Else 节点:新增 If-Else 节点,用于支持工作流中的条件逻辑!该节点支持多种条件类型,包括包含、不包含、以…开头、以…结尾、等于、不等于、为空以及不为空。可通过 AND/OR 运算符组合多个条件,构建复杂的条件逻辑,从而根据您的数据创建精巧的分支工作流。

🎉 最新动态 2024/12/7

  • 代码执行节点:为工作流添加 Python 代码执行功能!该节点允许您直接在工作流中编写并执行 Python 脚本,支持变量引用和动态数据转换。非常适合进行算术运算、数据处理、文本操作以及超出预设节点功能的自定义逻辑。

🎉 最新动态 2024/11/12

  • 意图识别节点:新增意图识别节点,可根据预设类别自动识别用户输入意图,支持多分类路由!

    intent recognition
  • CrewAI 节点支持:现在您可以在工作流中利用 CrewAI 强大的多智能体能力!轻松创建复杂的智能体团队,并协调复杂的协作任务。

    crewai

Flock 是一个基于工作流的低代码平台,用于快速构建聊天机器人、RAG 应用以及协调多智能体团队。它基于 LangChain 和 LangGraph 构建,为协作智能体提供灵活的低代码编排解决方案,支持聊天机器人、RAG 应用、智能体和多智能体系统,并具备离线运行能力。

🤖️ 概述

overview

工作流程

overview

节点类型与功能

Flock 的工作流系统由多种节点类型组成,每种节点都有其特定用途:

  1. 输入节点:处理初始输入,并将其转换为工作流可处理的格式。
  2. LLM 节点:利用大型语言模型进行文本生成和处理。
  3. 检索节点:从知识库中获取相关信息。
  4. 工具节点:执行特定任务或操作,扩展工作流的功能。
  5. 检索工具节点:结合检索能力和工具功能。
  6. 意图识别节点:根据预设类别自动识别用户输入意图,并路由到不同的处理流程。
  7. 答案节点:生成最终答案或输出,整合之前节点的结果。
  8. 子图节点:封装一个完整的子工作流,支持模块化设计。
  9. 开始和结束节点:标记工作流的起点和终点。

未来计划新增的节点包括:

  • 文件上传节点
  • 参数提取节点

这些节点可以组合使用,构建强大且灵活的工作流,适用于各种复杂的业务需求和应用场景。

图像工具的使用

image

知识检索

image

人机协作(人工审批、让 LLM 重新思考或请求人工帮助)

image image

StreetLamb 项目及其 tribe 项目的启发,Flock 借鉴了其中的许多方法和代码。在此基础上,Flock 还引入了一些新的功能和方向。

该项目的部分布局参考了 Lobe-chatDifyfastgpt。这些都是优秀的开源项目,感谢它们的贡献🙇‍。

👨‍💻 开发

项目技术栈:LangChain + LangGraph + React + Next.js + Chakra UI + PostgreSQL

💡 路线图

1 APP

  • 聊天机器人
  • SimpleRAG
  • 层次化智能体
  • 顺序式智能体
  • 工作流
  • 意图识别节点——自动识别用户输入意图并路由到不同处理流程
  • CrewAI 集成
  • 更多多智能体——正在进行中

2 模型

  • OpenAI
  • ZhipuAI
  • Siliconflow
  • Ollama
  • Qwen
  • Xinference
  • 302.AI

3 其他

  • 工具调用
  • 多语言支持
  • Langchain 模板

🏘️ 亮点

  • 持久对话:保存并维护聊天记录,方便继续对话。
  • 可观测性:通过 LangSmith 实时监控和跟踪智能体的性能和输出,确保其高效运行。
  • 工具调用:使智能体能够使用外部工具和 API。
  • 检索增强生成:使智能体能够结合内部知识库进行推理。
  • 人机协作:在工具调用前需要人工审批。
  • 开源模型:使用开源 LLM 模型,如 llama、Qwen 和 Glm。
  • 多租户:管理和支持多个用户和团队。

如何开始

1. 使用 Docker Compose 部署

1.1 方法一:从 Docker Hub 拉取前端和后端镜像
# 克隆仓库
git clone https://github.com/Onelevenvy/flock.git

# 进入 docker 目录
cd flock/docker

# 复制环境配置文件
cp ../.env.example .env

# 启动 docker compose
docker compose up -d

# 访问前端
# 本地环境
http://localhost:4433

# 服务器环境
http://your_server_ip:4433
1.2 方法二:本地构建前端和后端镜像
# 克隆仓库
git clone https://github.com/Onelevenvy/flock.git

# 进入 docker 目录
cd flock/docker

# 复制环境配置文件
cp ../.env.example .env

# 首先构建前端和后端镜像
docker compose -f docker-compose.localbuild.yml build
# 然后启动 docker compose
docker compose -f docker-compose.localbuild.yml up -d

2. 从本地源码开始

2.1 准备工作
2.1.1 克隆代码

git clone https://github.com/Onelevenvy/flock.git

2.1.2 复制环境配置文件
cp .env.example .env
# 根据需要修改 .env 文件中的环境变量
2.1.3 生成密钥

.env 文件中的一些环境变量默认值设置为 'changethis',您必须将其更改为安全的密钥。要生成密钥,可以运行以下命令:

python -c "import secrets; print(secrets.token_urlsafe(32))"

复制输出并将其用作密码/密钥。再次运行该命令以生成另一个安全密钥。

2.1.4 安装 postgres、qdrant、redis
cd docker
docker compose --env-file ../.env up -d

2.2 运行后端

2.2.1 安装基础环境

服务器启动需要 Python 3.12.x。建议使用 pyenv 快速安装 Python 环境。

要安装其他 Python 版本,使用 pyenv install:

pyenv install 3.12

要切换到 "3.12" 的 Python 环境,使用以下命令:

pyenv global 3.12

按照以下步骤操作: 进入 "backend" 目录:

cd backend

激活环境:

uv sync --python 3.12  
2.2.2 初始化数据
# 迁移数据库
alembic upgrade head
2.2.3 运行 unicorn
uvicorn app.main:app --reload --log-level debug
2.2.4 运行 celery(除非您想使用 rag 功能,否则不需要)
poetry run celery -A app.core.celery_app.celery_app worker --loglevel=debug

2.3 运行前端

2.3.1 进入 web 目录并安装依赖
cd web
pnpm install
2.3.2 启动 web 服务
cd web
pnpm dev

# 或 pnpm build 然后 pnpm start

星级历史

Star History Chart

版本历史

v0.1.02025/08/04
V0.0.62025/05/10
V0.0.52025/03/24
v0.0.4.42025/02/19
v0.0.4.32025/01/04
v0.0.4.22024/12/08

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

140.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架