fluid
Fluid 是一款专为云原生环境设计的开源数据编排与加速引擎,特别适用于大数据和人工智能等数据密集型应用。在传统的云架构中,计算任务往往因为需要从远程存储频繁拉取海量数据而面临严重的性能瓶颈,导致训练效率低下且成本高昂。Fluid 正是为了解决这一痛点而生,它通过引入统一的数据集抽象层,将分散的存储资源转化为 Kubernetes 中可灵活调度的“弹性数据集”,并智能利用缓存技术加速数据访问,从而显著缩短作业等待时间,提升整体集群效率。
作为云原生计算基金会(CNCF)的孵化项目,Fluid 的独特之处在于其“计算向数据移动”的设计理念。它无需用户修改现有的 AI 或大数据代码,只需通过简单的配置文件即可实现数据的自动预热、缓存管理及弹性伸缩,让底层复杂的数据调度对上层应用透明。
这款工具非常适合云平台开发者、AI 算法工程师以及负责维护大规模机器学习集群的研究人员使用。如果你正在寻求优化云端深度学习训练任务的 I/O 性能,或者希望在不重构应用的前提下实现高效的数据缓存管理,Fluid 将是一个专业且成熟的解决方案。
使用场景
某大型电商公司的算法团队正在 Kubernetes 集群上训练基于海量商品图像的深度推荐模型,需要频繁读取存储在对象存储中的 PB 级训练数据。
没有 fluid 时
- 训练启动慢:每次任务启动需从远程对象存储全量拉取数据,数百 GB 数据集导致 Pod 长时间处于 Pending 或初始化状态,GPU 资源闲置等待。
- 带宽成本高昂:多个训练任务重复从云端下载相同数据,挤占昂贵的跨可用区网络带宽,产生高额流量费用。
- 运维复杂度高:开发人员需在代码中硬编码各种数据加载逻辑(如预取、缓存清理),针对不同存储后端适配繁琐,难以统一维护。
- 弹性扩展困难:当需要动态增加训练节点时,数据存储层无法感知计算需求的变化,难以实现数据缓存的自动扩容与缩容。
使用 fluid 后
- 秒级任务启动:Fluid 将热点数据自动缓存至集群本地高速存储,后续任务直接读取本地缓存,数据准备时间从小时级缩短至分钟甚至秒级。
- 显著降低成本:通过集群内共享缓存机制,重复数据只需下载一次,大幅减少外网流量支出,同时提升整体吞吐量。
- 开发专注业务:提供统一的 Dataset CRD 抽象,算法工程师只需声明数据需求,Fluid 自动处理底层缓存加速逻辑,代码更简洁。
- 智能弹性伸缩:Fluid 能根据训练任务的负载情况,自动调整缓存运行时(Runtime)的副本数和数据预热策略,完美匹配云原生弹性架构。
Fluid 通过云原生的数据抽象与弹性加速能力,彻底解耦了计算与存储,让 AI 训练像访问本地文件一样高效且低成本。
运行环境要求
- Linux
未说明
未说明

快速开始
| :date: 社区会议 |
|---|
| Fluid项目每两周举行一次社区线上会议。如需加入或查看以往会议的记录与纪要,请参阅会议日程和会议纪要。 |
什么是 Fluid?
Fluid 是一个开源的 Kubernetes 原生分布式数据集编排器和加速器,专为大数据和 AI 等数据密集型应用而设计。它由 云原生计算基金会(CNCF)托管,目前处于孵化阶段。
更多信息请参阅我们的论文:
Rong Gu, Kai Zhang, Zhihao Xu, et al. Fluid:面向云原生深度学习训练作业的数据集抽象与弹性加速。IEEE ICDE,第2183–2196页,2022年5月。(会议版)
Rong Gu, Zhihao Xu, Yang Che, et al. 面向云原生平台下数据密集型AI应用的高级数据抽象与弹性数据缓存。IEEE TPDS,第2946–2964页,第34卷第11期,2023年。(期刊版)
Fluid
英语 | 简体中文
| 🎉 2026年1月8日:Fluid 已晋升为 CNCF 孵化项目!CNCF 技术监督委员会(TOC)正式接受 Fluid 作为孵化项目,这是其成熟度和社区采用方面的一个重要里程碑。 |
| v1.0.8 版本发布:2025年10月31日。Fluid v1.0.8。详情请参阅 CHANGELOG。 |
| v1.0.7 版本发布:2025年9月21日。Fluid v1.0.7。详情请参阅 CHANGELOG。 |
| v1.0.6 版本发布:2025年7月12日。Fluid v1.0.6。详情请参阅 CHANGELOG。 |
| 2021年4月27日。Fluid 被 CNCF 接受!经过评审流程后,CNCF 技术监督委员会(TOC)以多数票通过了将 Fluid 项目接纳为 CNCF 沙盒项目的决定。Fluid 迎来了新的起点! . |
功能特性
数据集抽象
实现对来自多个存储源的数据集的统一抽象,并提供可观测性功能,帮助用户评估是否需要扩展缓存系统。
可扩展的缓存运行时
提供统一的数据访问接口,支持不同运行时的数据操作,从而实现对第三方存储系统的访问。
自动化数据操作
提供多种自动化数据操作模式,便于与自动化运维系统集成。
弹性与调度
通过结合数据缓存技术与弹性伸缩、可移植性、可观测性和数据亲和力调度能力,提升数据访问性能。
运行时平台无关
支持多种环境,并可根据环境运行不同的存储客户端,包括原生环境、边缘环境、Serverless Kubernetes 集群以及多集群 Kubernetes 环境。
核心概念
数据集:数据集是一组在逻辑上相关联的数据,可供计算引擎使用,例如用于大数据分析的 Spark 和用于 AI 应用的 TensorFlow。智能地利用数据往往能够创造核心行业价值。管理数据集可能需要涵盖安全、版本管理和数据加速等多个维度的功能。我们希望从数据加速入手,来支持数据集的管理。
运行时:运行时负责实施数据集的隔离与共享,提供版本管理功能,并通过定义一套贯穿数据集生命周期的接口来实现数据加速,从而在这些接口背后实现管理和加速功能。
系统要求
- Kubernetes 版本 > 1.16,且支持 CSI
- Golang 1.18+
- Helm 3
快速入门
您可以按照我们的入门指南,快速启动一个测试用的 Kubernetes 集群。
文档
您可以在 docs 中找到更详细的安装说明及生产环境使用指南:
您也可以访问 Fluid 官网,获取相关文档。
快速演示
路线图
路线图详情请参阅 ROADMAP.md。该文件可能会不时更新。
社区
如果您有任何问题,请随时联系我们。本项目的维护者可通过以下方式联系:
钉钉群:
微信群:
微信公众号:
Slack:
- 加入
CNCF Slack,并前往#fluid频道进行讨论。
贡献
我们非常欢迎并感激您的贡献。有关提交补丁和贡献流程的详细信息,请参阅 CONTRIBUTING.md。
采用者
如果您对 Fluid 感兴趣,并希望与他人分享您的使用经验,欢迎您在 ADOPTERS.md 页面上添加您的信息。我们将持续与您提前探讨新的需求和功能设计。
开源许可证
Fluid 采用 Apache 2.0 许可证。详细信息请参阅 LICENSE 文件。该许可证具有厂商中立性。
报告漏洞
安全是 Fluid 团队的首要任务。如果您发现相关问题,请发送邮件至 fluid.opensource.project@gmail.com。更多详情请参阅我们的 SECURITY.md 文件。
行为准则
Fluid 采纳 CNCF 行为准则。
版本历史
v1.0.82025/10/31v1.0.72025/09/20v1.0.62025/07/12v1.0.52025/02/26v1.0.42025/01/01v1.0.32024/10/30v1.0.22024/08/30v1.0.12024/07/12v1.0.02024/05/14v0.9.32024/03/13v0.9.22023/10/01v0.8.72023/07/25v0.9.12023/06/24v0.9.02023/05/26v0.8.62023/05/08v0.8.52023/03/27v0.8.42023/02/18v0.8.32023/01/09v0.8.22022/11/08v0.8.12022/10/12常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器







