physicsnemo

GitHub
2.6k 632 中等 1 次阅读 今天Apache-2.0开发框架
AI 解读 由 AI 自动生成,仅供参考

PhysicsNeMo 是 NVIDIA 推出的开源深度学习框架,专为构建、训练和微调融合物理规律的 AI 模型而设计。它致力于解决传统纯数据驱动模型在科学计算与工程领域中缺乏物理一致性、泛化能力弱以及难以满足实时预测需求的痛点。通过引入先进的科学机器学习(SciML)方法,PhysicsNeMo 让开发者能够轻松将物理知识嵌入神经网络,从而实现更精准、可解释的实时模拟与预测。

这款工具非常适合从事 AI for Science(AI4Science)、计算流体力学、材料科学等领域的研究人员和工程师使用。无论是探索神经算子、图神经网络(GNN)、Transformer,还是开发物理信息神经网络(PINNs),用户都能在其中找到优化的解决方案。

PhysicsNeMo 的核心亮点在于其模块化架构与高性能表现。它提供了丰富的预置模型组件和针对 GPU 深度优化的可扩展训练库,支持无缝集成 PyTorch 生态。此外,框架内置了高效的数据管道,能够灵活处理复杂的科学数据,帮助用户快速搭建从实验验证到大规模部署的完整工作流,极大地降低了物理 AI 模型的开发门槛。

使用场景

某航空航天工程团队正在开发下一代高超音速飞行器的热防护系统,需要快速预测不同飞行姿态下机身表面的复杂气流与热分布。

没有 physicsnemo 时

  • 计算耗时极长:依赖传统计算流体力学(CFD)仿真,单次高精度模拟需数小时甚至数天,无法支持实时的设计迭代。
  • 纯数据模型不可靠:若仅使用普通深度学习模型,在缺乏训练数据的极端工况下,预测结果往往违背物理守恒定律(如质量或能量不守恒),导致工程风险。
  • 开发门槛高且分散:工程师需手动拼接 PyTorch 底层代码来实现物理约束损失函数,难以复用现有的神经算子或图神经网络架构,研发效率低下。
  • 扩展性差:面对大规模网格数据,现有脚本难以有效利用多 GPU 集群进行并行训练,模型收敛速度慢。

使用 physicsnemo 后

  • 实时推理加速:利用 physicsnemo 预优化的神经算子模型,将原本数小时的仿真过程压缩至秒级,实现了飞行器热场的实时预测。
  • 物理一致性保障:通过内置的物理信息神经网络(PINN)模块,自动将纳维 - 斯托克斯方程等物理定律融入损失函数,确保即使在数据稀缺区域,预测结果也严格遵循物理规律。
  • 模块化高效开发:直接调用 physicsnemo.models 中现成的 Transformer 或 GNN 架构,无需从零编写底层逻辑,大幅缩短了从算法验证到部署的周期。
  • 原生 GPU 规模化:借助其可扩展的 GPU 优化训练库,轻松调度多卡集群处理海量网格数据,显著提升了模型训练速度和精度。

physicsnemo 通过将深厚的物理知识与前沿深度学习架构无缝融合,让科学家能以数据驱动的方式实现既快又准的科学计算突破。

运行环境要求

操作系统
  • Linux
GPU

必需 NVIDIA GPU,支持单卡到多节点集群扩展,具体显存大小未说明(取决于模型规模),需安装兼容 PyTorch 的 CUDA 版本

内存

未说明

依赖
notes该工具专为 NVIDIA GPU 优化,基于 PyTorch 构建。支持从单 GPU 到多节点集群的分布式训练。提供针对 CFD、气象气候等领域的专用子模块。文档提到正在更新至 v2.0 版本以简化安装。具体的 Python 版本、CUDA 版本及显存最低要求需参考官方详细安装指南,README 中未列出具体数值。
python未说明
torch
torch.distributed
physicsnemo hero image

快速开始

NVIDIA PhysicsNeMo

📝 NVIDIA PhysicsNeMo 正在升级至 v2.0——所有功能均得以保留,同时安装和与外部包的集成更加简便。更多详情请参阅迁移指南

项目状态:活跃 - 项目已达到稳定可用状态,并正在积极开发中。 GitHub 代码风格:black 安装 CI

NVIDIA PhysicsNeMo | 文档 | 安装指南 | 快速入门 | 贡献指南 | 开发博客

什么是 PhysicsNeMo?

NVIDIA PhysicsNeMo 是一个开源深度学习框架,用于构建、训练、微调和推理物理人工智能模型,采用最先进的 SciML 方法,服务于 AI4Science 和工程领域。

PhysicsNeMo 提供 Python 模块,可组合出可扩展且优化的训练与推理流水线,以探索、开发、验证和部署结合物理知识与数据的人工智能模型,从而实现实时预测。

无论您是在探索神经算子、图神经网络或 Transformer 模型,还是对物理信息神经网络或介于两者之间的混合方法感兴趣,PhysicsNeMo 都能为您提供一套优化的工具栈,帮助您大规模训练模型。

PhysicsNeMo

关于 PhysicsNeMo 的更多信息

从细粒度来看,PhysicsNeMo 被设计为模块化功能,因此提供了内置的可组合模块,并将其封装成几个关键组件:

组件 描述
physicsnemo.models更多细节 一系列优化、可定制且易于使用的模型架构家族,如神经算子、图神经网络、扩散模型、Transformer 模型等
physicsnemo.datapipes 优化且可扩展的内置数据管道,专为处理点云、网格等工程和科学数据结构而设计
physicsnemo.distributed 基于 torch.distributed 构建的分布式计算子模块,只需几步即可实现并行训练
physicsnemo.curator 一个子模块,用于简化和加速工程数据集的数据整理流程
physicsnemo.sym.geometry 一个子模块,用于处理基于构造实体几何建模和 STL 格式 CAD 文件的几何数据,以支持深度学习训练
physicsnemo.sym.eq 一个子模块,允许在深度学习训练中使用偏微分方程,提供多种常见方程的实现方式,并便于用户自定义

完整列表请参阅 PhysicsNeMo API 文档中的 PhysicsNeMo 部分。

AI4Science 库

通常,PhysicsNeMo 可用作以下两种场景之一:

  • 作为 PyTorch 的补充工具,在探索 SciML 和 AI4Science 应用时使用。
  • 作为深度学习研究平台,在 NVIDIA GPU 上提供规模性和最佳性能。

领域专用包

以下是专为特定领域的专家设计的软件包,以满足其独特的研究需求:

  • PhysicsNeMo CFD:PhysicsNeMo 的推理子模块,旨在帮助 CFD 领域专家利用预训练的人工智能模型进行探索、实验和验证。
  • PhysicsNeMo Curator:PhysicsNeMo 的推理子模块,用于简化和加速工程数据集的数据整理过程。
  • Earth-2 Studio:PhysicsNeMo 的推理子模块,使气候研究人员能够利用预训练的人工智能模型探索和试验天气及气候相关问题。

可扩展的 GPU 优化训练库

PhysicsNeMo 提供了一个高度优化且可扩展的训练库,旨在充分发挥 NVIDIA GPU 的强大性能。 分布式计算 工具允许用户仅用几行代码即可高效地从单个 GPU 扩展到多节点 GPU 集群,从而确保大规模物理信息驱动的机器学习(ML)模型能够快速有效地进行训练。 该框架还包含对高级 优化工具、量身定制的 数据管道 以及 验证工具 的支持,以提升端到端训练速度。

一系列物理信息驱动的 ML 模型

PhysicsNeMo 提供了一个专为物理信息驱动的机器学习应用设计的先进模型库。用户可以使用底层 PyTorch 层,并将其与精选的 PhysicsNeMo 层相结合,构建任意模型架构。

模型动物园 包含了多种模型家族的优化实现,例如神经算子:

以及其他众多模型。

这些模型针对不同的物理领域进行了优化,例如计算流体动力学、结构力学和电磁学。用户可以下载、自定义并在此基础上构建模型,以满足其特定需求,从而显著缩短开发高保真度仿真所需的时间。

与 PyTorch 的无缝集成

PhysicsNeMo 构建在 PyTorch 之上,为已经熟悉 PyTorch 的用户提供了一种熟悉且友好的使用体验。 这包括简单的 Python 接口和模块化设计,使得用户能够轻松地将 PhysicsNeMo 与现有的 PyTorch 工作流程结合使用。 用户可以充分利用 PyTorch 庞大的生态系统及其丰富的库和工具,同时受益于 PhysicsNeMo 在物理信息驱动机器学习方面的专业能力。这种无缝集成确保用户无需经历陡峭的学习曲线即可快速上手使用 PhysicsNeMo。

更多信息请参阅 将 PyTorch 模型转换为 PhysicsNeMo 模型

易于自定义和扩展

PhysicsNeMo 设计为高度可扩展,允许用户以最小的努力添加新功能。该框架提供了 Python 式的 API,用于定义新的物理模型、几何形状和约束条件,从而轻松扩展其功能以适应新的应用场景。 PhysicsNeMo 的适应性进一步通过以下关键特性得到增强:支持 ONNX 格式,便于灵活部署模型;强大的 日志记录工具,可简化错误处理;以及高效的 检查点机制,便于模型的加载和保存。

这种可扩展性确保了 PhysicsNeMo 能够适应研究人员和工程师不断变化的需求,从而促进物理信息驱动机器学习领域的创新解决方案的开发。

有关功能和特性的详细信息,请参阅 PhysicsNeMo 文档

参考示例 涵盖了广泛的物理约束和数据驱动的工作流程,以适应科学和工程领域的多样化应用场景。

[!提示] 想了解 PhysicsNeMo 如何帮助您吗?请尝试我们的 [实验性] 聊天机器人——PhysicsNeMo 指南,获取答案。

你好,世界

你可以在自己的 PyTorch 代码中像下面这样简单地开始使用 PhysicsNeMo:

>>> import torch
>>> from physicsnemo.models.mlp.fully_connected import FullyConnected
>>> model = FullyConnected(in_features=32, out_features=64)
>>> input = torch.randn(128, 32)
>>> output = model(input)
>>> output.shape
torch.Size([128, 64])

要使用分布式模块,可以按照以下方式操作(以下示例为分布式数据并行训练;如需更深入的教程,请参阅 PhysicsNeMo 分布式):

import torch
from torch.nn.parallel import DistributedDataParallel
from physicsnemo.distributed import DistributedManager
from physicsnemo.models.mlp.fully_connected import FullyConnected

def main():
    DistributedManager.initialize()
    dist = DistributedManager()

    arch = FullyConnected(in_features=32, out_features=64).to(dist.device)

    if dist.distributed:
        ddps = torch.cuda.Stream()
        with torch.cuda.stream(ddps):
            arch = DistributedDataParallel(
                arch,
                device_ids=[dist.local_rank],
                output_device=dist.device,
                broadcast_buffers=dist.broadcast_buffers,
                find_unused_parameters=dist.find_unused_parameters,
            )
        torch.cuda.current_stream().wait_stream(ddps)

    # 设置优化器
    optimizer = torch.optim.Adam(
        arch.parameters(),
        lr=0.001,
    )

    def training_step(invar, target):
        pred = arch(invar)
        loss = torch.sum(torch.pow(pred - target, 2))
        loss.backward()
        optimizer.step()
        return loss

    # 示例训练循环
    for i in range(20):
        # 为了简单起见,随机生成输入和目标
        input = torch.randn(128, 32, device=dist.device)
        target = torch.randn(128, 64, device=dist.device)

        # 训练步骤
        loss = training_step(input, target)

if __name__ == "__main__":
    main()

要使用 PDE 模块,可以按照以下方式操作:

>>> from physicsnemo.sym.eq.pdes.navier_stokes import NavierStokes
>>> ns = NavierStokes(nu=0.01, rho=1, dim=2)
>>> ns.pprint()
连续性方程: u__x + v__y
动量方程_x: u*u__x + v*u__y + p__x + u__t - 0.01*u__x__x - 0.01*u__y__y
动量方程_y: u*v__x + v*v__y + p__y + v__t - 0.01*v__x__x - 0.01*v__y__y

谁在使用和贡献于 PhysicsNeMo

PhysicsNeMo 是一个开源项目,得到了 SciML 和 AI4Science 领域研究人员的贡献。虽然 PhysicsNeMo 团队致力于优化底层软件栈,但社区也在协作并贡献模型架构、数据集和参考应用,以便我们能够在开发可泛化的模型架构和算法方面不断创新。

近期社区贡献者的一些例子包括:HP 实验室 3D 打印团队斯坦福心血管研究团队伊利诺伊大学厄巴纳-香槟分校团队卡内基梅隆大学团队等。

近期使用 PhysicsNeMo 的研究团队的例子有:橡树岭国家实验室团队慕尼黑工业大学 CFD 团队等。

请访问此页面以获取利用 PhysicsNeMo 的完整研究工作列表。有关使用 PhysicsNeMo 的企业的列表,请参阅 PhysicsNeMo 官网

您是否正在使用 PhysicsNeMo,并希望在 NVIDIA 博客 上展示您的工作?请填写此 提案表单,我们将尽快与您联系!

他们为何使用 PhysicsNeMo

以下是 PhysicsNeMo 在 SciML 模型开发中的主要优势:

SciML 基准测试与验证 轻松使用通用 SciML 模板处理异构数据集 开箱即用的性能与可扩展性
PhysicsNeMo 使研究人员能够针对标准基准问题,使用经过验证的架构,并结合详细的领域特定验证标准来评估其 AI 模型。 PhysicsNeMo 使研究人员能够从最先进的 SciML 架构中选择,并为其用例使用内置的数据管道。 PhysicsNeMo 提供开箱即用的高效训练流水线,包括针对异构工程和科学数据集的优化 ETL 流水线,以及跨多 GPU 和多节点 GPU 的开箱即用扩展能力。

敬请期待同行 SciML 研究人员对 PhysicsNeMo 的评价(即将发布)。

开始使用 PhysicsNeMo

以下资源将帮助您学习如何使用 PhysicsNeMo。最好的方法是从一个参考示例开始,然后根据您自己的用例进行调整。

学习 AI 物理学

资源

安装

您可以通过两种受支持的方式安装 PhysicsNeMo:通过 pip(原生 pip 或 uv)或使用 NVIDIA 容器镜像。请选择适合您的环境和工作流的方法。

以下说明涵盖了 PhysicsNeMo 的基础模块。可选依赖项列在 pyproject.toml 中。训练示例 不包含在 pip 轮子或容器中;请克隆仓库,并将这些示例作为起点。许多示例都包含 requirements.txt 文件,用于安装额外的依赖项。

CUDA 后端选择

重要提示: 若要获得 GPU 加速的 RAPIDS 包(cuML、pylibraft、cupy)以及与 CUDA 版本匹配的 PyTorch 构建,您必须在安装时包含 cu13cu12。诸如 nn-extrasutils-extras 等功能扩展提供了额外的非 CUDA 包(scipy、natten、wandb 等),但它们本身并不包含 RAPIDS 依赖项。

PhysicsNeMo 同时支持 CUDA 12 和 CUDA 13 后端。后端是通过一个与功能扩展无关的额外选项来选择的——您可以自由组合:

额外选项 提供的内容
cu13 PyTorch(CUDA 13.0)、cuML-cu13、pylibraft-cu13、cupy-cuda13x
cu12 PyTorch(CUDA 12.8)、cuML-cu12、pylibraft-cu12、cupy-cuda12x
(无) 来自 PyPI 的 PyTorch(默认构建),不含 RAPIDS 包

PyPI

从 PyPI 安装最新版本:

pip install nvidia-physicsnemo
python -c "import physicsnemo; print('PhysicsNeMo 版本:', physicsnemo.__version__)"

要使用特定的 CUDA 后端和可选的功能扩展进行安装:

# CUDA 13 后端,包含 nn-extras
pip install "nvidia-physicsnemo[cu13,nn-extras]"

# CUDA 12 后端,包含 nn-extras
pip install "nvidia-physicsnemo[cu12,nn-extras]"

其他功能扩展(utils-extrasmesh-extrasmodel-extrasdatapipes-extrasgnns)也可以以相同的方式组合使用。

您还可以通过运行 Hello World 示例来验证安装是否成功。

uv

对于开发或直接从源代码运行示例,您可以使用 uv 克隆仓库并同步依赖项:

git clone https://github.com/NVIDIA/physicsnemo.git
cd physicsnemo
uv sync --extra cu13
uv run python -c "import physicsnemo; print('PhysicsNeMo 版本:', physicsnemo.__version__)"

要安装带有可选功能扩展(例如 nn-extras)的包:

uv sync --extra cu13 --extra nn-extras

对于 CUDA 12 环境,请将 cu13 替换为 cu12

uv sync --extra cu12 --extra nn-extras

NVCR 容器

可以从 NVIDIA 容器注册表 (NGC) 拉取 PhysicsNeMo Docker 镜像:

NVIDIA 容器注册表(请参考 NGC 注册表以获取最新标签):

docker pull nvcr.io/nvidia/physicsnemo/physicsnemo:25.06

在容器内,您可以克隆 PhysicsNeMo 的 Git 仓库,并开始使用示例。以下命令展示了如何启动 PhysicsNeMo 容器并从此仓库运行示例:

docker run --shm-size=1g --ulimit memlock=-1 --ulimit stack=67108864 --runtime nvidia \
--rm -it nvcr.io/nvidia/physicsnemo/physicsnemo:25.06 bash
git clone https://github.com/NVIDIA/physicsnemo.git
cd physicsnemo/examples/cfd/darcy_fno/
pip install warp-lang # 安装 NVIDIA Warp 以运行 Darcy 示例
python train_fno_darcy.py

从源代码安装

要从源代码本地构建 PhysicsNeMo Python 包,请执行以下操作:

git clone git@github.com:NVIDIA/physicsnemo.git && cd physicsnemo

pip install --upgrade pip
pip install .
python -c "import physicsnemo; print('PhysicsNeMo 版本:', physicsnemo.__version__)"

对于可编辑安装、本地测试更改以及贡献工作流程,请参阅文档中的 自定义 PhysicsNeMo 指南。此外,请参阅 贡献指南,了解拉取请求、编码规范和 CI 流程,以及 开发者维基,以获取社区和贡献概述。

从源代码构建 Docker 镜像

要构建 PhysicsNeMo Docker 镜像:

docker build -t physicsnemo:deploy \
    --build-arg TARGETPLATFORM=linux/amd64 --target deploy -f Dockerfile .

或者,您也可以运行 make container-deploy

要构建 CI 镜像:

docker build -t physicsnemo:ci \
    --build-arg TARGETPLATFORM=linux/amd64 --target ci -f Dockerfile .

或者,您也可以运行 make container-ci

平台支持

对于 pip 或 uv 安装,支持 Linux、macOS(ARM)和 Windows。

Docker 容器仅适用于 linux/amd64linux/arm64 平台。如果使用 linux/arm64,某些依赖项(如 warp-lang)可能无法正确安装。

PhysicsNeMo 迁移指南

NVIDIA Modulus 已更名为 NVIDIA PhysicsNeMo。迁移时请注意:

  • 对于 PyPI 轮子,请使用 pip install nvidia-physicsnemo 而不是 pip install nvidia-modulus
  • 对于 Docker 容器,请使用 nvcr.io/nvidia/physicsnemo/physicsnemo:<tag> 而不是 nvcr.io/nvidia/modulus/modulus:<tag>
  • 在您的 pip 依赖文件中(requirements.txtsetup.pysetup.cfgpyproject.toml 等),将 nvidia-modulus 替换为 nvidia-physicsnemo
  • 在代码中,将导入语句从 import modulus 更改为 import physicsnemo

旧的 PyPI 注册表和 NGC 容器注册表将很快被弃用,并且不会再接收任何错误修复或更新。不过,旧的检查点仍将与这些更新兼容。

更多详细信息即将发布。

DGL 到 PyTorch Geometric 迁移指南

PhysicsNeMo 支持广泛的图神经网络(GNN),包括 MeshGraphNet 等。目前,PhysicsNeMo 使用 DGL 库作为其 GNN 后端,并计划在未来的版本中完全过渡到 PyTorch Geometric(PyG)。有关详细信息,请参阅 DGL 到 PyG 迁移指南

为 PhysicsNeMo 做贡献

PhysicsNeMo 是一个开源协作项目,它的成功离不开社区成员对物理与机器学习领域的持续贡献。感谢您为该项目做出贡献,让其他开发者能够在此基础上进一步开发。

有关如何为 PhysicsNeMo 做贡献的指导,请参阅 贡献指南(包括拉取请求、代码风格和持续集成)。如需了解从源码安装、可编辑安装以及测试您的更改等步骤,请参阅文档中的 自定义 PhysicsNeMo 指南。有关社区和贡献的概述,请访问 开发者 Wiki

引用 PhysicsNeMo

如果您在研究中使用了 PhysicsNeMo,并希望对其进行引用,请参考 引用指南

沟通交流

  • GitHub Discussions:讨论新的架构、实现、物理与机器学习研究等。
  • GitHub Issues:用于报告 bug、提出功能请求、解决安装问题等。
  • PhysicsNeMo 论坛:PhysicsNeMo 论坛 面向初级至中级用户及开发者,提供通用聊天、在线讨论、协作等功能。

反馈

您想为 PhysicsNeMo 提出改进建议吗?请使用我们的 反馈表单

许可证

PhysicsNeMo 采用 Apache License 2.0 许可证进行授权。完整的许可证文本请参阅 LICENSE.txt。此外,NVAIE 提供企业级 SLA、技术支持以及预览版访问权限。

版本历史

v2.0.02026/03/10
v1.3.02025/11/18
v1.2.02025/08/25
v1.1.12025/06/16
v1.1.02025/06/10
v1.0.12025/03/25
v1.0.02025/03/18
v0.9.02024/11/27
v0.8.02024/09/24
v0.7.02024/07/23
v0.6.02024/04/17
v0.5.02024/01/26
v0.4.02023/11/20
v0.3.02023/09/21
v0.2.12023/08/09
v0.2.02023/08/07
v0.1.02023/05/08

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|昨天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|昨天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

142.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|今天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|今天
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|今天
语言模型图像Agent