[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mario-andreschak--FLUJO":3,"tool-mario-andreschak--FLUJO":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":77,"languages":78,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":111,"env_os":112,"env_gpu":113,"env_ram":113,"env_deps":114,"category_tags":120,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":124},9750,"mario-andreschak\u002FFLUJO","FLUJO","MCP-Hub and -Inspector, Multi-Model Workflow and Chat Interface ","FLUJO 是一款开源的本地化 AI 工作流编排与交互平台，旨在打通模型管理、MCP（模型上下文协议）服务器集成以及复杂任务流程之间的壁垒。它为用户提供了一个统一的图形界面，让用户能够轻松配置多种 AI 模型（包括云端 API 和本地 Ollama 模型），集中加密管理密钥，并可视化地构建自动化工作流。\n\n对于深受 AI 工具碎片化困扰的用户，FLUJO 解决了多模型切换繁琐、MCP 服务部署困难以及工作流难以直观设计的痛点。通过内置的 MCP 中心，用户可以便捷地安装、管理和调试各类 MCP 服务器，甚至支持 Docker 环境运行，同时提供详细的工具检视功能，让 AI 调用外部能力变得透明可控。\n\n这款工具特别适合开发者、AI 研究人员以及希望深度定制本地 AI 工作流的高级用户。如果你需要在本地安全地 orchestrate 复杂的 AI 任务，或者想探索 MCP 生态的潜力，FLUJO 提供了一个灵活且强大的实验场。其基于 PocketFlowFramework 构建，强调开源与本地优先原则，虽然目前处于早期预览阶段，但已展现出连接未来 AI 应用生态的巨大潜力。需要注意的是，","FLUJO 是一款开源的本地化 AI 工作流编排与交互平台，旨在打通模型管理、MCP（模型上下文协议）服务器集成以及复杂任务流程之间的壁垒。它为用户提供了一个统一的图形界面，让用户能够轻松配置多种 AI 模型（包括云端 API 和本地 Ollama 模型），集中加密管理密钥，并可视化地构建自动化工作流。\n\n对于深受 AI 工具碎片化困扰的用户，FLUJO 解决了多模型切换繁琐、MCP 服务部署困难以及工作流难以直观设计的痛点。通过内置的 MCP 中心，用户可以便捷地安装、管理和调试各类 MCP 服务器，甚至支持 Docker 环境运行，同时提供详细的工具检视功能，让 AI 调用外部能力变得透明可控。\n\n这款工具特别适合开发者、AI 研究人员以及希望深度定制本地 AI 工作流的高级用户。如果你需要在本地安全地 orchestrate 复杂的 AI 任务，或者想探索 MCP 生态的潜力，FLUJO 提供了一个灵活且强大的实验场。其基于 PocketFlowFramework 构建，强调开源与本地优先原则，虽然目前处于早期预览阶段，但已展现出连接未来 AI 应用生态的巨大潜力。需要注意的是，当前版本默认开启详细日志，使用时请务必注意保护敏感的 API 密钥信息。","# DISCLAIMER\nFLUJO is still an early preview! Here's a 30 second video to show it off:\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_6b35d40e84e7.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=D63e1XUGbi4)\n\n\nFor *anything* that you struggle with (MCP Installation, Application Issues, Usability Issues, Feedback): **PLEASE LET ME KNOW!**\n-> Create a Github Issue or write on Discord (https:\u002F\u002Fdiscord.gg\u002FKPyrjTSSat) and I will look into it! Maybe a response will take a day, but I will try to get back to each and every one of you.\n\n\nHere's a video guiding you through the whole thing - from installation to output! (15min)\nSorry for the bad audio, a new Video is coming soon!\n\n[![How to install & Run your first Flow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_2a776c95e6f2.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=YIREFCAAdxg)\n \nFLUJO animated Short #1 - \"A sad song about MCP\"\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_7cdf3424a85d.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=boOS9XHQdZc)\n\n# IMPORTANT SECURITY NOTE\nFLUJO has currently EXTENSIVE logging enabled by default! This **may expose your encrypted API-Keys to the terminal output!**. Be VERY careful when grabbing videos or streaming and showing the terminal output!\n\n![FLUJO Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_3619e3f160a7.png)\n\n# FLUJO\n\n[![MIT License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg)](LICENSE)\n[![Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-0.1.0-green.svg)](package.json)\n\nFLUJO is an open-source platform that bridges the gap between **workflow orchestration**, **Model-Context-Protocol (MCP)**, and **AI tool integration**. It provides a unified interface for managing AI models, MCP servers, and complex workflows - all locally and open-source.\n\n![FLUJO Overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_9ace2d1833fd.png)\n\nFLUJO is powered by the [PocketFlowFramework](https:\u002F\u002Fthe-pocket-world.github.io\u002FPocket-Flow-Framework\u002F) and built with [CLine](https:\u002F\u002Fgithub.com\u002Fcline\u002Fcline) and a lot of LOVE.\n\n## 🌟 Key Features\n\n### 🔑 Environment & API Key Management\n\n- **Secure Storage**: Store environment variables and API keys with encryption\n- **Global Access**: Use your stored keys across the entire application\n- **Centralized Management**: Keep all your credentials in one secure place\n\n![API Keys Management](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d1c4580c6640.png)\n\n### 🤖 Model Management\n\n- **Multiple Models**: Configure and use different AI models simultaneously\n- **Pre-defined Prompts**: Create custom system instructions for each model\n- **Provider Flexibility**: Connect to various API providers (OpenAI, Anthropic, etc.)\n- **Local Models**: Integrate with Ollama for local model execution\n\n![Model Configuration](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_5659bca44972.png)\n![Model Settings](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_902087ecea76.png)\n![Ollama Integration](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_cae17fc2edb5.png)\n\n### 🔌 MCP Server Integration\n\n- **Easy Installation**: Install MCP servers from GitHub or local filesystem\n- **Server Management**: Comprehensive interface for managing MCP servers\n- **Tool Inspection**: View and manage available tools from MCP servers\n- **Environment Binding**: Connect server environment variables to global storage\n- **Docker Support**: Run Docker-based MCP servers within Flujo\n\n![MCP Server Installation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_27346a716065.png)\n![MCP Server Management](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_33e6c3677f2e.png)\n![MCP Server Tools](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_735e78df1bd0.png)\n![MCP Environment Variables](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_411cc404075e.png)\n\n### 🔄 Workflow Orchestration\n\n- **Visual Flow Builder**: Create and design complex workflows\n- **Model Integration**: Connect different models in your workflow\n- **Tool Management**: Allow or restrict specific tools for each model\n- **Prompt Design**: Configure system prompts at multiple levels (Model, Flow, Node)\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_196f77a3fffa.png)\n![Flow Design](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_f472715a5520.png)\n![Flow Configuration](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d94667e2bb20.png)\n![System Prompts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_4388e8a0e141.png)\n![Tool References](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_03d517fba653.png)\n![Screenshot 2025-03-08 223218](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_7dfbd40df540.png)\n\n### 💬 Chat Interface\n\n- **Flow Interaction**: Interact with your flows through a chat interface\n- **Message Management**: Edit or disable messages or split conversations to reduce context size \n- **File Attachments**: Attach documents or audio for LLM processing (really bad atm, because for this you should use mcp!)\n- **Transcription**: Process audio inputs with automatic transcription (really bad atm, see roadmap)\n  \n![Screenshot 2025-04-05 210835](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_1ec1cd683c7a.png)\n\n### 🔄 External Tool Integration\n\n- **OpenAI Compatible Endpoint**: Integrate with tools like CLine or Roo\n- **Seamless Connection**: Use FLUJO as a backend for other AI applications\n\n![Screenshot 2025-03-27 130144](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_bb6ac9be4106.png)\n![Screenshot 2025-03-26 213657](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_25662c392026.png)\n\n## 🚀 Getting Started\n\n### Manual installation:\n### Prerequisites\n\n- Node.js (v18 or higher)\n- npm or yarn\n\n### Installation\n\n1. Clone the repository:\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n   cd FLUJO\n   ```\n\n2. Install dependencies:\n   ```bash\n   npm install\n   # or\n   yarn install\n   ```\n\n3. Start the development server:\n   ```bash\n   npm run dev\n   # or\n   yarn dev\n   ```\n\n4. Open your browser and navigate to:\n   ```\n   http:\u002F\u002Flocalhost:4200\n   ```\n   \n5. FLUJO feels and works best if you run it compiled:\n   ```bash\n   npm run build\n   npm start\n   ```\n\n6. To run as a desktop application:\n   ```bash\n   npm run electron-dev    # Development mode\n   # or\n   npm run electron-dist   # Build and package for your platform\n   ```\n\n## 📖 Usage\n\n### Setting up often used API keys\n\n1. Navigate to Settings\n2. Save your API Keys globally to secure them\n\n### Setting Up Models\n\n1. Navigate to the Models page\n2. Click \"Add Model\" to create a new model configuration\n3. Configure your model with name, provider, API key, and system prompt\n4. Save your configuration\n\n### Managing MCP Servers\n\n1. Go to the MCP page\n2. Click \"Add Server\" to install a new MCP server\n3. Choose from GitHub repository or local filesystem\n4. Configure server settings and environment variables\n5. Start and manage your server\n\n### Using SSE MCP-Servers\n1. Got to the MCP Page\n2. Click \"Add Server\" to install a new MCP server\n3. Select \"Local Server\"\n4. Enter a Server Name, enter \"\u002F\" as Server Root Path\n5. Leave Build Command and Install Command empty\n6. Enter \"npx\" as Run Command\n7. Add 1. Argument \"mcp-remote\"\n8. Add 2. Argument \"(your MCP SSE-Url here)\"\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_bde38b1b16bc.png)\n\n\n### Using official Reference servers\n\n1. Go to the MCP page\n2. Click \"Add Server\" to install a new MCP server\n3. Go to the \"Reference Servers\" Tab\n4. (First time executing:) Click \"Refresh\" and waaaaaaait.\n5. Click a server of your choice, wait for the screen to change, click \"Save\" \u002F \"Update Server\" at the bottom.\n   \n### Using Docker-based MCP Servers\n\nWhen running FLUJO in Docker, you can use Docker-based MCP servers:\n\n1. Go to the MCP page\n2. Click \"Add Server\" to install a new MCP server\n3. Choose \"Docker\" as the installation method\n4. Provide the Docker image name and any required environment variables\n5. Start and manage your server\n\n### Creating Workflows\n\n1. Visit the Flows page\n2. Click \"Create Flow\" to start a new workflow\n3. Add processing nodes and connect them \n4. Configure each node with models and tools\n5. Save your flow\n\n![Screenshot 2025-04-12 123657](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_28fe77e320db.png)\n\n\n### Branching\n\n1. Connect one MCP node to multiple subsequent ones\n![Screenshot 2025-04-07 094237](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d8bb6618d04b.png)\n2. Define the branching in the prompt, using the handoff-tools on the \"Agent Tools\" tab\n![Screenshot 2025-04-07 095433](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_751382ba690e.png)\n\n### Loops\n\n1. Same as branching, but connect back to a previous node\n![Screenshot 2025-04-08 165640](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_359ff8daaa52.png)\n\n### Orchestration\n\n1. Same as loops but with multiple ones\n![Screenshot 2025-04-08 180631](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_91142ffc180c.png)\n\n\n\n### Using the Chat Interface\n\n1. Go to the Chat page\n2. Select a flow to interact with\n3. Start chatting with your configured workflow\n![Screenshot 2025-04-07 095653](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_dd92c9f59704.png)\n\n\n## 🔄 MCP Integration\n\nFLUJO provides comprehensive support for the Model Context Protocol (MCP), allowing you to:\n\n- Install and manage MCP servers\n- Inspect server tools\n- Connect MCP servers to your workflows\n- Reference tools directly in prompts\n- Bind environment variables to your global encrypted storage\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_fb10796034bf.png)\n\n### Docker Installation\n\nThe easiest way to run FLUJO is using Docker, which provides a consistent environment and supports running Docker-based MCP servers.\n\n#### Prerequisites\n\n- Docker and Docker Compose installed on your system\n\n#### Using Docker Compose\n\n1. Clone the repository:\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n   cd FLUJO\n   ```\n\n2. Build and start the container:\n   ```bash\n   docker-compose up -d\n   ```\n\n3. Access FLUJO in your browser:\n   ```\n   http:\u002F\u002Flocalhost:4200\n   ```\n\n#### Using Docker Scripts\n\nFor more control over the Docker build and run process, you can use the provided scripts:\n\n1. Build the Docker image:\n   ```bash\n   .\u002Fscripts\u002Fbuild-docker.sh\n   ```\n\n2. Run the Docker container:\n   ```bash\n   .\u002Fscripts\u002Frun-docker.sh\n   ```\n\nOptions for run-docker.sh:\n- `--tag=\u003Ctag>`: Specify the image tag (default: latest)\n- `--detached`: Run in detached mode\n- `--no-privileged`: Run without privileged mode (not recommended)\n- `--port=\u003Cport>`: Specify the host port (default: 4200)\n\nFor more detailed information about Docker support, including Docker-in-Docker capabilities, persistent storage, and troubleshooting, see [DOCKER.md](DOCKER.md).\n\n\n## 📄 License\n\nFLUJO is licensed under the [MIT License](LICENSE).\n## 🚀 Roadmap\nHere's a roadmap of upcoming features and improvements:\n\n- Real-time Voice Feature: Adding support for Whisper.js or OpenWhisper to enable real-time voice capabilities.\n- Visual Debugger: Introducing a visual tool to help debug and troubleshoot more effectively.\n- MCP Roots Support: Implementing Checkpoints and Restore features within MCP Roots for better control and recovery options.\n- MCP Prompts: Enabling users to build custom prompts that fully leverage the capabilities of the MCP server.\n- MCP Proxying STDIO\u003C>SSE: Likely utilizing SuperGateway to proxy standard input\u002Foutput with Server-Sent Events for enhanced communication: Use MCP Servers managed in FLUJo in any other MCP client.\n- Enhanced Integrations: Improving compatibility and functionality with tools like Windsurf, Cursor, and Cline.\n- Advanced Orchestration: Adding agent-driven orchestration, batch processing, and incorporating features inspired by Pocketflow.\n- Online Template Repository: Creating a platform for sharing models, flows, or complete \"packages,\" making it easy to distribute FLUJO flows to others.\n- Edge Device Optimization: Enhancing performance and usability for edge devices.\n\n## 🤝 Contributing\n\nContributions are welcome! Feel free to open issues or submit pull requests.\n\n1. Fork the repository\n2. Create your feature branch (`git checkout -b feature\u002Famazing-feature`)\n3. Commit your changes (`git commit -m 'Add some amazing feature'`)\n4. Push to the branch (`git push origin feature\u002Famazing-feature`)\n5. Open a Pull Request\n\n## 📬 Contact\n\n- GitHub: [mario-andreschak](https:\u002F\u002Fgithub.com\u002Fmario-andreschak)\n- LinkedIn: https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fmario-andreschak-674033299\u002F\n\n## Notes:\n- You can add ~FLUJO=HTML, ~FLUJO=MARKDOWN, ~FLUJO=JSON, ~FLUJO=TEXT in your message to format the response, this will give varying results in different tools where you integrate FLUJO.\n- You can add ~FLUJOEXPAND=1 or ~FLUJODEBUG=1 somewhere in your message to show more details\n- in config\u002Ffeatures.ts you can change the Logging-level for the whole application\n- in config\u002Ffeatures.ts you can enable SSE support which is currently disabled by default\n---\n\nFLUJO - Empowering your AI workflows with open-source orchestration.\n","# 免责声明\nFLUJO 仍处于早期预览阶段！这里有一段 30 秒的视频来展示它的功能：\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_6b35d40e84e7.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=D63e1XUGbi4)\n\n\n如果你在使用过程中遇到任何问题（MCP 安装、应用问题、可用性问题、反馈等）：**请务必告诉我！**\n-> 请创建一个 GitHub Issue，或者在 Discord 上留言（https:\u002F\u002Fdiscord.gg\u002FKPyrjTSSat），我会尽快查看并处理。回复可能需要一天时间，但我会尽力回复每一位用户。\n\n\n这里有一段视频，将带你从安装到生成输出，全程演示！（15 分钟）\n抱歉音频质量不太好，新视频很快就会发布！\n\n[![如何安装并运行你的第一个 Flow](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_2a776c95e6f2.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=YIREFCAAdxg)\n \nFLUJO 动画短片 #1 - “一首关于 MCP 的悲伤歌曲”\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_7cdf3424a85d.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=boOS9XHQdZc)\n\n# 重要安全提示\nFLUJO 目前默认启用了大量的日志记录！这**可能会将你加密的 API 密钥暴露在终端输出中！** 因此，在录制视频或直播展示终端输出时，请务必小心。\n\n![FLUJO Logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_3619e3f160a7.png)\n\n# FLUJO\n\n[![MIT License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg)](LICENSE)\n[![版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-0.1.0-green.svg)](package.json)\n\nFLUJO 是一个开源平台，旨在打通**工作流编排**、**模型上下文协议 (MCP)** 和**AI 工具集成**之间的鸿沟。它提供了一个统一的界面，用于管理本地且开源的 AI 模型、MCP 服务器和复杂的工作流。\n\n![FLUJO 概览](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_9ace2d1833fd.png)\n\nFLUJO 基于 [PocketFlowFramework](https:\u002F\u002Fthe-pocket-world.github.io\u002FPocket-Flow-Framework\u002F) 构建，并使用 [CLine](https:\u002F\u002Fgithub.com\u002Fcline\u002Fcline) 开发，倾注了大量心血。\n\n## 🌟 核心功能\n\n### 🔑 环境与 API 密钥管理\n\n- **安全存储**：以加密方式存储环境变量和 API 密钥\n- **全局访问**：在整个应用程序中使用你存储的密钥\n- **集中管理**：将所有凭据保存在一个安全的地方\n\n![API 密钥管理](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d1c4580c6640.png)\n\n### 🤖 模型管理\n\n- **多模型支持**：同时配置和使用不同的 AI 模型\n- **预定义提示词**：为每个模型创建自定义系统指令\n- **提供商灵活性**：连接多种 API 提供商（OpenAI、Anthropic 等）\n- **本地模型**：与 Ollama 集成，实现本地模型执行\n\n![模型配置](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_5659bca44972.png)\n![模型设置](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_902087ecea76.png)\n![Ollama 集成](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_cae17fc2edb5.png)\n\n### 🔌 MCP 服务器集成\n\n- **轻松安装**：可从 GitHub 或本地文件系统安装 MCP 服务器\n- **服务器管理**：提供全面的界面来管理 MCP 服务器\n- **工具检查**：查看并管理 MCP 服务器上的可用工具\n- **环境绑定**：将服务器环境变量连接到全局存储\n- **Docker 支持**：在 Flujo 中运行基于 Docker 的 MCP 服务器\n\n![MCP 服务器安装](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_27346a716065.png)\n![MCP 服务器管理](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_33e6c3677f2e.png)\n![MCP 服务器工具](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_735e78df1bd0.png)\n![MCP 环境变量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_411cc404075e.png)\n\n### 🔄 工作流编排\n\n- **可视化流程构建器**：创建和设计复杂的工作流\n- **模型集成**：在工作流中连接不同的模型\n- **工具管理**：允许或限制每个模型使用的特定工具\n- **提示词设计**：在多个层级上配置系统提示词（模型、流程、节点）\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_196f77a3fffa.png)\n![流程设计](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_f472715a5520.png)\n![流程配置](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d94667e2bb20.png)\n![系统提示词](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_4388e8a0e141.png)\n![工具引用](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_03d517fba653.png)\n![截图 2025-03-08 223218](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_7dfbd40df540.png)\n\n### 💬 聊天界面\n\n- **流程交互**：通过聊天界面与你的流程互动\n- **消息管理**：编辑或禁用消息，或将对话拆分以减少上下文长度\n- **文件附件**：可以附加文档或音频供 LLM 处理（目前效果很差，因为这应该使用 MCP！）\n- **转录**：自动转录音频输入（目前效果也不好，详见路线图）\n\n![截图 2025-04-05 210835](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_1ec1cd683c7a.png)\n\n### 🔄 外部工具集成\n\n- **兼容 OpenAI 的端点**：可与 CLine 或 Roo 等工具集成\n- **无缝连接**：将 FLUJO 用作其他 AI 应用程序的后端\n\n![截图 2025-03-27 130144](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_bb6ac9be4106.png)\n![截图 2025-03-26 213657](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_25662c392026.png)\n\n## 🚀 快速入门\n\n### 手动安装：\n### 前置条件\n\n- Node.js（v18 或更高版本）\n- npm 或 yarn\n\n### 安装步骤\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n   cd FLUJO\n   ```\n\n2. 安装依赖：\n   ```bash\n   npm install\n   # 或\n   yarn install\n   ```\n\n3. 启动开发服务器：\n   ```bash\n   npm run dev\n   # 或\n   yarn dev\n   ```\n\n4. 打开浏览器并访问：\n   ```\n   http:\u002F\u002Flocalhost:4200\n   ```\n   \n5. 如果你希望 FLUJO 运行得更流畅高效，建议将其编译后运行：\n   ```bash\n   npm run build\n   npm start\n   ```\n\n6. 若要以桌面应用形式运行：\n   ```bash\n   npm run electron-dev    # 开发模式\n   # 或\n   npm run electron-dist   # 编译并打包适用于你的平台\n   ```\n\n## 📖 使用说明\n\n### 设置常用 API 密钥\n\n1. 进入设置页面\n2. 将你的 API 密钥全局保存，以确保安全\n\n### 配置模型\n\n1. 进入模型页面\n2. 点击“添加模型”以创建新的模型配置\n3. 为你的模型填写名称、提供商、API 密钥和系统提示词\n4. 保存配置\n\n### 管理 MCP 服务器\n\n1. 前往 MCP 页面\n2. 点击“添加服务器”以安装新的 MCP 服务器\n3. 选择 GitHub 仓库或本地文件系统\n4. 配置服务器设置和环境变量\n5. 启动并管理您的服务器\n\n### 使用 SSE MCP 服务器\n\n1. 前往 MCP 页面\n2. 点击“添加服务器”以安装新的 MCP 服务器\n3. 选择“本地服务器”\n4. 输入服务器名称，将服务器根路径设为“\u002F”\n5. 构建命令和安装命令留空\n6. 运行命令输入“npx”\n7. 添加第一个参数“mcp-remote”\n8. 添加第二个参数“(此处填写您的 MCP SSE URL)”\n   ![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_bde38b1b16bc.png)\n\n\n### 使用官方参考服务器\n\n1. 前往 MCP 页面\n2. 点击“添加服务器”以安装新的 MCP 服务器\n3. 切换到“参考服务器”选项卡\n4. (首次操作时:) 点击“刷新”并耐心等待。\n5. 选择您喜欢的服务器，等待页面变化后，在底部点击“保存”或“更新服务器”。\n\n### 使用基于 Docker 的 MCP 服务器\n\n在 Docker 中运行 FLUJO 时，您可以使用基于 Docker 的 MCP 服务器：\n\n1. 前往 MCP 页面\n2. 点击“添加服务器”以安装新的 MCP 服务器\n3. 选择“Docker”作为安装方式\n4. 提供 Docker 镜像名称及所需的环境变量\n5. 启动并管理您的服务器\n\n### 创建工作流\n\n1. 访问“流程”页面\n2. 点击“创建流程”开始一个新的工作流\n3. 添加处理节点并连接它们\n4. 为每个节点配置模型和工具\n5. 保存您的流程\n\n![Screenshot 2025-04-12 123657](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_28fe77e320db.png)\n\n\n### 分支\n\n1. 将一个 MCP 节点连接到多个后续节点\n![Screenshot 2025-04-07 094237](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_d8bb6618d04b.png)\n2. 在提示中定义分支，使用“代理工具”选项卡上的交接工具\n![Screenshot 2025-04-07 095433](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_751382ba690e.png)\n\n### 循环\n\n1. 与分支类似，但会回连到之前的节点\n![Screenshot 2025-04-08 165640](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_359ff8daaa52.png)\n\n### 编排\n\n1. 类似于循环，但涉及多个循环\n![Screenshot 2025-04-08 180631](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_91142ffc180c.png)\n\n\n\n### 使用聊天界面\n\n1. 前往“聊天”页面\n2. 选择要交互的流程\n3. 开始与您配置的工作流聊天\n![Screenshot 2025-04-07 095653](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_dd92c9f59704.png)\n\n\n## 🔄 MCP 集成\n\nFLUJO 全面支持模型上下文协议 (MCP)，允许您：\n\n- 安装和管理 MCP 服务器\n- 检查服务器工具\n- 将 MCP 服务器连接到您的工作流\n- 在提示中直接引用工具\n- 将环境变量绑定到您的全局加密存储\n![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_readme_fb10796034bf.png)\n\n### Docker 安装\n\n运行 FLUJO 最简单的方式是使用 Docker，它提供一致的环境，并支持运行基于 Docker 的 MCP 服务器。\n\n#### 先决条件\n\n- 您的系统上已安装 Docker 和 Docker Compose\n\n#### 使用 Docker Compose\n\n1. 克隆仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n   cd FLUJO\n   ```\n\n2. 构建并启动容器：\n   ```bash\n   docker-compose up -d\n   ```\n\n3. 在浏览器中访问 FLUJO：\n   ```\n   http:\u002F\u002Flocalhost:4200\n   ```\n\n#### 使用 Docker 脚本\n\n为了更精细地控制 Docker 的构建和运行过程，您可以使用提供的脚本：\n\n1. 构建 Docker 镜像：\n   ```bash\n   .\u002Fscripts\u002Fbuild-docker.sh\n   ```\n\n2. 运行 Docker 容器：\n   ```bash\n   .\u002Fscripts\u002Frun-docker.sh\n   ```\n\nrun-docker.sh 的选项：\n- `--tag=\u003Ctag>`：指定镜像标签（默认为 latest）\n- `--detached`：以分离模式运行\n- `--no-privileged`：不以特权模式运行（不推荐）\n- `--port=\u003Cport>`：指定主机端口（默认为 4200）\n\n有关 Docker 支持的更多详细信息，包括 Docker-in-Docker 功能、持久化存储和故障排除，请参阅 [DOCKER.md](DOCKER.md)。\n\n\n## 📄 许可证\n\nFLUJO 根据 [MIT 许可证](LICENSE) 授权。\n## 🚀 路线图\n\n以下是即将推出的功能和改进路线图：\n\n- 实时语音功能：添加对 Whisper.js 或 OpenWhisper 的支持，以实现实时语音功能。\n- 可视化调试器：引入可视化工具，帮助更有效地进行调试和故障排除。\n- MCP Roots 支持：在 MCP Roots 中实现检查点和恢复功能，以提供更好的控制和恢复选项。\n- MCP 提示：使用户能够构建充分利用 MCP 服务器功能的自定义提示。\n- MCP 代理 STDIO\u003C>SSE：可能利用 SuperGateway 将标准输入输出与服务器发送事件进行代理，以增强通信能力：可在任何其他 MCP 客户端中使用 FLUJo 管理的 MCP 服务器。\n- 增强集成：提高与 Windsurf、Cursor 和 Cline 等工具的兼容性和功能性。\n- 高级编排：添加代理驱动的编排、批处理，并融入受 Pocketflow 启发的功能。\n- 在线模板库：创建一个用于分享模型、流程或完整“软件包”的平台，方便向他人分发 FLUJO 流程。\n- 边缘设备优化：提升边缘设备的性能和易用性。\n\n## 🤝 贡献\n\n欢迎贡献！请随时提出问题或提交拉取请求。\n\n1. 分叉仓库\n2. 创建您的功能分支 (`git checkout -b feature\u002Famazing-feature`)\n3. 提交您的更改 (`git commit -m 'Add some amazing feature'`)\n4. 推送到分支 (`git push origin feature\u002Famazing-feature`)\n5. 打开拉取请求\n\n## 📬 联系方式\n\n- GitHub：[mario-andreschak](https:\u002F\u002Fgithub.com\u002Fmario-andreschak)\n- LinkedIn：https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fmario-andreschak-674033299\u002F\n\n## 备注：\n- 您可以在消息中添加 ~FLUJO=HTML、~FLUJO=MARKDOWN、~FLUJO=JSON、~FLUJO=TEXT 来格式化响应，这将在您集成 FLUJO 的不同工具中产生不同的效果。\n- 您可以在消息中的某个位置添加 ~FLUJOEXPAND=1 或 ~FLUJODEBUG=1 以显示更多细节。\n- 在 config\u002Ffeatures.ts 中，您可以更改整个应用程序的日志级别。\n- 在 config\u002Ffeatures.ts 中，您可以启用当前默认禁用的 SSE 支持。\n---\n\nFLUJO - 通过开源编排赋能您的 AI 工作流。","# FLUJO 快速上手指南\n\nFLUJO 是一个开源平台，旨在连接**工作流编排**、**模型上下文协议 (MCP)** 和 **AI 工具集成**。它提供了一个统一的本地界面，用于管理 AI 模型、MCP 服务器以及复杂的自动化工作流。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Node.js**：版本 v18 或更高\n*   **包管理器**：npm 或 yarn\n*   **可选（推荐）**：Docker 和 Docker Compose（用于运行基于 Docker 的 MCP 服务器及简化部署）\n\n> **安全提示**：FLUJO 默认启用详细日志记录，这可能会在终端输出中暴露加密的 API Key。在录制屏幕或分享终端输出时请务必小心。\n\n## 安装步骤\n\n您可以选择手动安装或使用 Docker 部署。\n\n### 方式一：手动安装（适合开发调试）\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n    cd FLUJO\n    ```\n\n2.  **安装依赖**\n    ```bash\n    npm install\n    # 或者使用 yarn\n    yarn install\n    ```\n\n3.  **启动开发服务器**\n    ```bash\n    npm run dev\n    # 或者\n    yarn dev\n    ```\n\n4.  **访问应用**\n    打开浏览器访问：`http:\u002F\u002Flocalhost:4200`\n\n    > **建议**：为了获得最佳体验，建议编译后运行：\n    > ```bash\n    > npm run build\n    > npm start\n    > ```\n    > 若需作为桌面应用运行：\n    > ```bash\n    > npm run electron-dist\n    > ```\n\n### 方式二：Docker 部署（推荐，最简便）\n\n如果您已安装 Docker 和 Docker Compose，这是最简单的运行方式，尤其适合需要运行 Docker 版 MCP 服务器的场景。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmario-andreschak\u002FFLUJO.git\n    cd FLUJO\n    ```\n\n2.  **启动容器**\n    ```bash\n    docker-compose up -d\n    ```\n\n3.  **访问应用**\n    打开浏览器访问：`http:\u002F\u002Flocalhost:4200`\n\n## 基本使用\n\n以下是从零开始配置并运行第一个工作流的简要流程：\n\n### 1. 配置 API Keys\n*   进入 **Settings (设置)** 页面。\n*   在全局存储中保存您常用的 API Keys（如 OpenAI, Anthropic 等），以便在整个应用中安全调用。\n\n### 2. 添加 AI 模型\n*   导航至 **Models (模型)** 页面。\n*   点击 **\"Add Model\"**。\n*   配置模型名称、提供商、对应的 API Key 以及系统提示词（System Prompt）。\n*   支持连接云端模型或通过 Ollama 集成本地模型。\n\n### 3. 集成 MCP 服务器\n*   进入 **MCP** 页面，点击 **\"Add Server\"**。\n*   **安装来源**：可选择从 GitHub 仓库、本地文件系统或 Docker 镜像安装。\n*   **配置**：设置环境变量（可绑定到全局加密存储），启动服务器。\n*   **工具检查**：安装后可直接查看该服务器提供的可用工具。\n\n    *技巧：若要使用 SSE 模式的 MCP 服务器，选择 \"Local Server\"，运行命令设为 `npx`，参数依次填入 `mcp-remote` 和您的 SSE URL。*\n\n### 4. 创建工作流 (Flow)\n*   访问 **Flows** 页面，点击 **\"Create Flow\"**。\n*   **可视化编排**：\n    *   添加处理节点 (Nodes)。\n    *   将节点连接起来（支持分支 Branching 和循环 Loops）。\n    *   为每个节点配置使用的模型和允许调用的 MCP 工具。\n    *   在不同层级（模型级、流级、节点级）定制 System Prompts。\n*   保存您的工作流。\n\n### 5. 开始交互\n*   进入 **Chat** 页面。\n*   选择刚才创建的工作流 (Flow)。\n*   在聊天界面中输入指令，FLUJO 将根据您设计的流程自动调度模型和工具完成任务。\n\n---\n*注：FLUJO 目前处于早期预览阶段 (v0.1.0)，如遇问题可通过 GitHub Issues 或官方 Discord 社区反馈。*","某全栈开发者需要构建一个能同时调用本地代码模型、云端分析模型以及外部数据库工具的复杂自动化调试流程。\n\n### 没有 FLUJO 时\n- **环境配置混乱**：需要在终端手动管理多个 API Key 和环境变量，每次切换模型或工具都要重新配置，极易出错且存在密钥泄露风险。\n- **工具集成困难**：安装和调试 MCP（模型上下文协议）服务器依赖繁琐的命令行操作，难以直观查看可用工具列表及其参数定义。\n- **工作流割裂**：无法在一个界面中串联“本地代码生成 -> 云端逻辑审查 -> 数据库验证”的步骤，只能分别在多个窗口手动复制粘贴结果。\n- **模型切换僵硬**：针对不同任务阶段需手动重启服务或修改配置文件才能切换 OpenAI、Anthropic 或本地 Ollama 模型，效率极低。\n\n### 使用 FLUJO 后\n- **统一安全管控**：通过 FLUJO 的加密存储功能集中管理所有凭证，全局自动注入环境变量，既保障了密钥安全又消除了重复配置。\n- **可视化 MCP 管理**：利用图形界面一键安装 GitHub 上的 MCP 服务器，直接 inspect 工具详情并绑定环境变量，无需触碰复杂命令。\n- **流畅编排协作**：在视觉化 Flow Builder 中拖拽节点，轻松构建包含多模型协同与外部工具调用的完整自动化闭环，执行过程一目了然。\n- **灵活模型调度**：在同一工作流中自由配置不同节点使用特定模型（如本地跑代码、云端做推理），系统自动处理供应商连接与上下文传递。\n\nFLUJO 将原本碎片化、高门槛的 AI 工具链整合为本地可控的可视化流水线，让复杂的多模型协作变得像搭积木一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmario-andreschak_FLUJO_6b35d40e.png","mario-andreschak",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmario-andreschak_3e9eac52.jpg","https:\u002F\u002Fgithub.com\u002Fmario-andreschak",[79,83,87,91,95,99,103],{"name":80,"color":81,"percentage":82},"TypeScript","#3178c6",96.4,{"name":84,"color":85,"percentage":86},"AutoIt","#1C3552",1.5,{"name":88,"color":89,"percentage":90},"HTML","#e34c26",1.2,{"name":92,"color":93,"percentage":94},"JavaScript","#f1e05a",0.4,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0.3,{"name":100,"color":101,"percentage":102},"CSS","#663399",0.2,{"name":104,"color":105,"percentage":106},"Dockerfile","#384d54",0.1,588,80,"2026-04-07T14:18:20","MIT",4,"Linux, macOS, Windows","未说明",{"notes":115,"python":113,"dependencies":116},"该工具基于 Node.js 开发，非 Python 项目。支持通过 Electron 作为桌面应用运行，或通过 Docker 部署以支持基于 Docker 的 MCP 服务器。默认开启详细日志，需注意终端输出可能泄露加密的 API 密钥。可集成 Ollama 运行本地模型，具体硬件需求取决于所连接的本地模型。",[117,118,119],"Node.js (v18+)","npm 或 yarn","Docker (可选，用于运行 Docker 版 MCP 服务器)",[35,13,45],"2026-03-27T02:49:30.150509","2026-04-20T04:06:35.273414",[],[125],{"id":126,"version":127,"summary_zh":128,"released_at":129},351221,"preview","Electron 打包目前不可用，我正在处理！","2025-03-11T02:58:03"]