xla

GitHub
2.8k 568 较难 1 次阅读 昨天NOASSERTION开发框架
AI 解读 由 AI 自动生成,仅供参考

PyTorch/XLA 是一个连接 PyTorch 深度学习框架与谷歌云 TPU 硬件的桥梁工具。它利用 XLA(加速线性代数)编译器,让开发者能够直接在高性能的 TPU 设备上运行和训练 PyTorch 模型,无需大幅修改现有代码。

这一工具主要解决了 PyTorch 原生对 TPU 支持不足的问题,打破了框架与特定硬件间的壁垒。对于习惯使用 PyTorch 生态的研究人员和工程师而言,这意味着可以低成本地利用 TPU 强大的并行计算能力来加速大规模模型的训练与推理,尤其适合处理如 Stable Diffusion 生成或大语言模型微调等计算密集型任务。

其核心技术亮点在于独特的“懒执行”(Lazy Execution)机制:系统会先捕获整个计算图并进行全局优化,再下发给 TPU 执行,从而显著提升硬件利用率。此外,最新版本默认采用 C++11 ABI 构建,进一步优化了计算图追踪性能,有效缓解了因主机 CPU 忙于追踪而导致 TPU 闲置的瓶颈。无论是希望在 Kaggle 上免费体验 TPU 的初学者,还是需要在云端部署分布式训练的专业团队,PyTorch/XLA 都是释放 TPU 算力的理想选择。

使用场景

一家生成式 AI 初创公司正试图在 Google Cloud TPU v5p 集群上微调 Mixtral 8x7B 大语言模型,以降低成本并提升训练效率。

没有 xla 时

  • 硬件资源浪费:由于默认构建版本追踪效率低,主机 CPU 忙于编译计算图,而昂贵的 TPU 核心却处于空闲等待状态,导致算力利用率不足 40%。
  • 训练速度缓慢:无法利用 XLA 编译器对算子进行融合与优化,每个训练步的耗时显著增加,原本预计 3 天的任务需运行超过一周。
  • 显存溢出频繁:缺乏针对 TPU 架构的内存优化,处理长序列数据时极易触发 OOM(内存溢出)错误,迫使团队不断缩小 Batch Size。
  • 生态迁移成本高:团队现有的 PyTorch 代码无法直接运行在 TPU 上,需要花费大量时间重写为 JAX 或 TensorFlow 格式。

使用 xla 后

  • 算力满负荷运转:通过安装 C++11 ABI 版本的 xla,大幅降低了主机追踪开销,TPU 利用率飙升至 90% 以上,实现了“计算不等人”。
  • 训练效率倍增:xla 自动融合算子并优化执行计划,使 Mixtral 8x7B 的吞吐量提升数倍,将训练周期从一周压缩回 3 天内。
  • 支持更大规模数据:借助 xla 的懒张量(Lazy Tensor)机制和内存管理优化,团队成功在单卡上运行更大的 Batch Size,提升了模型收敛稳定性。
  • 代码零改动迁移:仅需引入 torch_xla 包并微调启动脚本,原有的 PyTorch 训练逻辑即可无缝在 TPU 集群上运行,保护了既有代码资产。

xla 的核心价值在于打破了框架与硬件的壁垒,让开发者能用熟悉的 PyTorch 代码,直接释放 Google TPU 的极致算力。

运行环境要求

操作系统
  • Linux
GPU
  • 不需要 NVIDIA GPU
  • 该工具专为 Google Cloud TPU 设计,运行需依赖 TPU 硬件或 TPU VM 环境
内存

未说明

依赖
notes1. 主要运行环境为 Google Cloud TPU VM,也可在 Kaggle 免费试用。 2. 自 2025 年 3 月起,默认使用 C++11 ABI 构建版本,不再提供旧版 ABI,切换至 C++11 ABI 可提升懒张量追踪性能。 3. 支持单进程、多进程及 SPMD(单程序多数据)模式,其中多进程与 SPMD 不兼容。 4. 安装 TPU 版本时需指定额外的 wheel 索引源和查找链接。
python3.8 - 3.13 (稳定版支持 3.8-3.11,夜间版支持 3.11-3.13)
torch==2.8.0 (或对应版本)
torch_xla[tpu]==2.8.0 (或对应版本)
pallas (可选,用于自定义内核)
xla hero image

快速开始

PyTorch/XLA

[!NOTE] 10/2025: 根据社区反馈,我们为 PyTorch 在 TPU 上提出了一个更原生的方向。请阅读 RFC 并在 #9684 中发表评论。

当前 CI 状态: GitHub Actions
状态

PyTorch/XLA 是一个 Python 包,它使用 XLA 深度学习编译器PyTorch 深度学习框架Cloud TPU 连接起来。您现在就可以在单个 Cloud TPU 虚拟机上免费试用,只需通过 Kaggle 即可!

请查看我们的其中一个 Kaggle 笔记本 来开始使用:

安装

TPU

要在新的 TPU 虚拟机中安装 PyTorch/XLA 稳定版: 注意:构建版本适用于 Python 3.8 至 3.11;请使用受支持的版本之一。

# - 对于 venv
# python3.11 -m venv py311
# - 对于 conda
# conda create -n py311 python=3.11

pip install torch==2.8.0 'torch_xla[tpu]==2.8.0'

# 可选:如果您正在使用自定义内核,请安装 pallas 依赖项
pip install --pre torch_xla[pallas] --index-url https://us-python.pkg.dev/ml-oss-artifacts-published/jax/simple/ --find-links https://storage.googleapis.com/jax-releases/libtpu_releases.html

自 2025 年 7 月 16 日起,并从 Pytorch/XLA 2.8 版本开始,PyTorch/XLA 将为 Python 3.11 至 3.13 提供 nightly 和 release 轮子 要在新的 TPU 虚拟机中安装 PyTorch/XLA nightly 版本:

pip install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cpu
# 根据需要将 `cp310-cp310` 编辑为您所需的 Python 版本
pip install 'torch_xla[tpu] @ https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.9.0.dev-cp312-cp312-linux_x86_64.whl' \
  -f https://storage.googleapis.com/libtpu-wheels/index.html

C++11 ABI 构建

自 2025 年 3 月 18 日起,并从 Pytorch/XLA 2.7 版本开始,C++11 ABI 构建已成为默认选项,我们不再提供使用 pre-C++11 ABI 构建的轮子。

在 Pytorch/XLA 2.6 中,我们将提供使用两种 C++ ABI 风格构建的轮子和 Docker 镜像:C++11 和 pre-C++11。Pre-C++11 是默认设置,以与 PyTorch 上游保持一致,但 C++11 ABI 轮子和 Docker 镜像具有更好的延迟张量跟踪性能。

要安装 C++11 ABI 风格的 2.6 轮子(以 Python 3.10 为例):

pip install torch==2.6.0+cpu.cxx11.abi \
  https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.6.0%2Bcxx11-cp310-cp310-manylinux_2_28_x86_64.whl \
  'torch_xla[tpu]' \
  -f https://storage.googleapis.com/libtpu-releases/index.html \
  -f https://storage.googleapis.com/libtpu-wheels/index.html \
  -f https://download.pytorch.org/whl/torch

上述命令适用于 Python 3.10。我们还提供了 Python 3.9 和 3.11 的轮子:

要访问 C++11 ABI 风格的 Docker 镜像:

us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.6.0_3.10_tpuvm_cxx11

如果您的模型处于跟踪瓶颈状态(例如,您会发现主机 CPU 正在忙于跟踪模型,而 TPU 处于空闲状态),切换到 C++11 ABI 轮子或 Docker 镜像可以提高性能。Mixtral 8x7B 在 v5p-256 上的基准测试结果,全局批次大小为 1024:

  • Pre-C++11 ABI MFU:33%
  • C++ ABI MFU:39%

Github 文档地图

我们的 GitHub 存储库包含许多关于如何使用 PyTorch XLA 不同方面的有用文档,以下是分布在我们仓库中的有用文档列表:

入门

以下是两种模式的指南:

  • 单进程:一个 Python 解释器一次控制一个 TPU
  • 多进程:启动 N 个 Python 解释器,分别对应系统中的 N 个 TPU

另一种模式是 SPMD,即一个 Python 解释器控制系统中的所有 N 个 TPU。多进程模式更为复杂,且与 SPMD 不兼容。本教程不涉及 SPMD。如需了解更多信息,请参阅我们的 SPMD 指南

简单的单进程模式

要更新您现有的训练循环,请进行以下更改:

+import torch_xla

 def train(model, training_data, ...):
   ...
   for inputs, labels in train_loader:
+    with torch_xla.step():
       inputs、labels = training_data[i]
+      inputs、labels = inputs.to('xla')、labels.to('xla')
       optimizer.zero_grad()
       outputs = model(inputs)
       loss = loss_fn(outputs、labels)
       loss.backward()
       optimizer.step()

+  torch_xla.sync()
   ...

 if __name__ == '__main__':
   ...
+  # 将模型参数移动到您的 XLA 设备
+  model.to('xla')
   train(model、training_data、...)
   ...

上述更改应能使您的模型在 TPU 上进行训练。

多进程

要更新您现有的训练循环,请进行以下更改:

-import torch.multiprocessing as mp
+import torch_xla
+import torch_xla.core.xla_model as xm

 def _mp_fn(index):
   ...

+  // 将模型参数移动到您的 XLA 设备
+  model.to('xla')

   for inputs, labels in train_loader:
+    with torch_xla.step():
+      // 将数据传输到 XLA 设备。此操作异步进行。
+      inputs, labels = inputs.to('xla'), labels.to('xla')
       optimizer.zero_grad()
       outputs = model(inputs)
       loss = loss_fn(outputs, labels)
       loss.backward()
-      optimizer.step()
+      // `xm.optimizer_step` 会跨副本合并梯度
+      xm.optimizer_step(optimizer)

 if __name__ == '__main__':
-  mp.spawn(_mp_fn, args=(), nprocs=world_size)
+  // torch_xla.launch 会自动选择正确的世界大小
+  torch_xla.launch(_mp_fn, args=())

如果您正在使用 DistributedDataParallel,请进行以下更改:

 import torch.distributed as dist
-import torch.multiprocessing as mp
+import torch_xla
+import torch_xla.distributed.xla_backend

 def _mp_fn(rank):
   ...

-  os.environ['MASTER_ADDR'] = 'localhost'
-  os.environ['MASTER_PORT'] = '12355'
-  dist.init_process_group("gloo", rank=rank, world_size=world_size)
+  // 从 XLA 设备运行时推断出排名和世界大小
+  dist.init_process_group("xla", init_method='xla://')
+
+  model.to('xla')
+  ddp_model = DDP(model, gradient_as_bucket_view=True)

-  model = model.to(rank)
-  ddp_model = DDP(model, device_ids=[rank])

   for inputs, labels in train_loader:
+    with torch_xla.step():
+      inputs, labels = inputs.to('xla'), labels.to('xla')
       optimizer.zero_grad()
       outputs = ddp_model(inputs)
       loss = loss_fn(outputs, labels)
       loss.backward()
       optimizer.step()

 if __name__ == '__main__':
-  mp.spawn(_mp_fn, args=(), nprocs=world_size)
+  torch_xla.launch(_mp_fn, args=())

有关 PyTorch/XLA 的更多信息,包括其语义和功能的描述,可在 PyTorch.org 上找到。有关在 XLA 设备(TPU、CPU 等)上运行网络的最佳实践,请参阅 API 指南

我们的完整用户指南可在以下位置找到:

最新版本的文档

主分支的文档

PyTorch/XLA 教程

参考实现

AI-Hypercomputer/tpu-recipes 仓库包含用于训练和部署多种 LLM 和扩散模型的示例。

可用的 Docker 镜像和轮子包

Python 包

从 r2.1 版本开始,PyTorch/XLA 将在 PyPI 上发布。您现在可以使用 pip install torch_xla 安装主构建。要在安装主构建后同时安装与已安装 torch_xla 对应的 Cloud TPU 插件,请执行以下命令:

pip install torch_xla[tpu]

TPU 的每日构建版本可在我们的公共 GCS 存储桶中找到。

版本 Cloud TPU 每日轮子包
每日版(Python 3.11) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.9.0.dev-cp311-cp311-linux_x86_64.whl
每日版(Python 3.12) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.9.0.dev-cp312-cp312-linux_x86_64.whl
每日版(Python 3.13) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.9.0.dev-cp312-cp312-linux_x86_64.whl

使用每日构建

您还可以添加 yyyymmdd,例如 torch_xla-2.9.0.devyyyymmdd(或最新的开发版本),以获取指定日期的每日轮子包。以下是一个示例:

pip3 install torch==2.9.0.dev20250423+cpu --index-url https://download.pytorch.org/whl/nightly/cpu
pip3 install https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.9.0.dev20250423-cp310-cp310-linux_x86_64.whl

torch 轮子包版本 2.9.0.dev20250423+cpu 可在 https://download.pytorch.org/whl/nightly/torch/ 上找到。

旧版本
版本 Cloud TPU VM 轮子包
2.7(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.7.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.6(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.6.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.5(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.5.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.4(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.4.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.3(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.3.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.2(Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.2.0-cp310-cp310-manylinux_2_28_x86_64.whl
2.1(XRT + Python 3.10) https://storage.googleapis.com/pytorch-xla-releases/wheels/xrt/tpuvm/torch_xla-2.1.0%2Bxrt-cp310-cp310-manylinux_2_28_x86_64.whl
2.1(Python 3.8) https://storage.googleapis.com/pytorch-xla-releases/wheels/tpuvm/torch_xla-2.1.0-cp38-cp38-linux_x86_64.whl

Docker

注意:自 PyTorch/XLA 2.7 版本起,所有构建默认将使用 C++11 ABI

版本 Cloud TPU VM Docker
2.7 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.7.0_3.10_tpuvm
2.6 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.6.0_3.10_tpuvm
2.6(C++11 ABI) us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.6.0_3.10_tpuvm_cxx11
2.5 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.5.0_3.10_tpuvm
2.4 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.4.0_3.10_tpuvm
2.3 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.3.0_3.10_tpuvm
2.2 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.2.0_3.10_tpuvm
2.1 us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:r2.1.0_3.10_tpuvm
每日版 Python us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:nightly_3.10_tpuvm

要使用上述 Docker 镜像,请务必添加 --privileged --net host --shm-size=16G 参数。以下是一个示例:

docker run --privileged --net host --shm-size=16G -it us-central1-docker.pkg.dev/tpu-pytorch-releases/docker/xla:nightly_3.10_tpuvm /bin/bash

故障排除

如果 PyTorch/XLA 的性能未达到预期,请参阅故障排除指南,其中提供了调试和优化您的网络的建议。

提供反馈

PyTorch/XLA 团队始终乐于听取用户和开源社区贡献者的意见!与我们联系的最佳方式是在此 GitHub 仓库中提交一个问题。问题、错误报告、功能请求、构建问题等均欢迎!

贡献

请参阅贡献指南

免责声明

本仓库由 Google、Meta 以及 CONTRIBUTORS 文件中列出的多位个人贡献者共同运营和维护。如有关于 Meta 的问题,请发送邮件至 opensource@fb.com。如有关于 Google 的问题,请发送邮件至 pytorch-xla@googlegroups.com。对于其他所有问题,请在此仓库中提交一个问题

更多阅读材料

您可以在以下链接中找到更多有用的阅读材料:

相关项目

版本历史

v2.9.02025/11/17
v2.8.02025/08/13
v2.7.02025/04/24
v2.6.02025/01/30
v2.5.12024/10/30
v2.5.02024/10/18
v2.4.02024/07/25
v2.3.02024/04/08
v2.2.02024/01/31
v2.1.02023/09/07
v2.0.02023/08/12
v1.13.02022/11/29
v1.12.02022/06/29
v1.5.02020/04/21
v1.6.02020/08/19
v1.8.02021/03/04
v1.10.02021/10/25
v1.11.02022/03/15
v1.9.02021/06/15
v1.8.12021/04/21

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架