bionemo-framework

GitHub
721 142 较难 1 次阅读 昨天开发框架
AI 解读 由 AI 自动生成,仅供参考

BioNeMo Framework 是 NVIDIA 专为数字生物学打造的一套开源开发框架,旨在帮助研究人员和开发者高效构建及适配用于药物发现的大规模生物 AI 模型。在生物医药领域,训练蛋白质序列等生物大分子模型通常耗时极长且计算成本高昂,BioNeMo 通过提供针对 GPU 深度优化的预置方案(Recipes)和工具库,显著加速了这一过程,让复杂的模型训练与微调变得更加便捷。

该框架特别适合从事生物信息学、药物研发以及大模型训练的科研人员与工程师使用。其核心亮点在于对 Transformer 架构的深度优化,支持 ESM-2、CodonFM 等主流生物基础模型,并集成了稀疏自编码器(SAE)以增强模型可解释性。此外,BioNeMo 率先支持 FP8、MXFP8 等低精度训练技术,能在 NVIDIA 最新硬件上实现极高的算力利用率,大幅降低显存占用并提升训练速度。无论是从零训练大规模模型,还是利用 LoRA 等技术进行轻量级微调,BioNeMo 都能提供流畅的开发体验,是推动 AI 赋能新药研发的强大引擎。

使用场景

某生物制药公司的 AI 研发团队正试图基于 150 亿参数的 ESM-2 大模型,对数百万种新型蛋白质序列进行微调,以加速抗癌靶点的发现。

没有 bionemo-framework 时

  • 训练效率极低:直接使用原生 PyTorch 框架无法充分利用 GPU 算力,导致单次训练周期长达数周,严重拖慢研发进度。
  • 显存资源受限:缺乏针对生物数据的混合精度(如 FP8)和显存优化策略,常因显存溢出(OOM)而被迫缩小模型规模或批次大小。
  • 工程门槛过高:团队需手动编写复杂的分布式训练代码和数据预处理管道,耗费大量精力在底层基建而非算法创新上。
  • 模型适配困难:将通用大模型迁移至特定生物任务时,缺乏标准化的微调食谱(Recipes),实验复现性和稳定性差。

使用 bionemo-framework 后

  • 训练速度飞跃:利用内置的 GPU 优化食谱和 Transformer Engine 加速,同等硬件下训练吞吐量提升数倍,将迭代周期从数周缩短至数天。
  • 大规模模型落地:支持每层精度控制和低精度训练(如 NVFP4),轻松在有限显存中运行 15B+ 规模的生物大模型,无需牺牲精度。
  • 开箱即用的流程:直接调用预置的 ESM-2 微调脚本和数据加载器,研究人员可立即专注于调整超参数和分析生物特征。
  • 标准化与可解释性:提供经过验证的领域专用模型配方及稀疏自编码器(SAE)分析工具,确保实验结果可靠且易于解读。

bionemo-framework 通过提供专为数字生物学设计的 GPU 优化方案,将原本高不可攀的大模型训练转化为高效、标准的日常研发流程。

运行环境要求

操作系统
  • Linux
GPU
  • 必需 NVIDIA GPU
  • 推荐 A100 或更高性能显卡(如 B300/GB300)
  • T4 可能因显存不足或速度过慢而无法运行
  • 支持 FP8/MXFP8/NVFP4 低精度训练以优化显存使用
内存

未说明(建议根据模型规模配置充足系统内存,通常需 64GB+ 以支持大规模数据加载)

依赖
notes该框架专为数字生物学设计,深度集成 NVIDIA TransformerEngine (TE) 和 Megatron-LM (FSDP) 以实现大规模分布式训练。快速开始示例中明确指定了 Python 3.12 环境。安装 transformer_engine 时建议从源码编译或使用提供的预编译 wheel 包,避免直接从 PYPI 安装导致耗时过长。支持多种并行策略(5D 并行、上下文并行、序列打包等),主要面向多卡集群环境。
python3.12
torch
transformer_engine>=2.8.0
megatron-core
huggingface_accelerate
noodles
bionemo-framework hero image

快速开始

BioNeMo框架

针对生物数据的大规模Transformer模型训练的GPU优化配方与工具包

点击此处部署。 文档构建 测试状态 最新标签 codecov

NVIDIA BioNeMo框架是一套全面的编程工具、库和模型,专为数字生物学设计。它通过提供领域特定的优化模型配方和易于集成到基于GPU的计算资源中的工具链,以最先进的性能,加速构建和调整生物分子AI模型过程中最耗时且成本高昂的阶段。


使用BERT架构的知名蛋白质序列模型ESM-2的训练基准。

⚡ 快速入门

# 在Google Colab中尝试BioNeMo配方(推荐A100,T4可能太慢或内存不足)
# 复制粘贴到Google Colab单元格中

!git clone https://github.com/NVIDIA/bionemo-framework.git
cd bionemo-framework/bionemo-recipes/recipes/esm2_native_te/

# 从源代码安装transformer_engine[pytorch],从PYPI安装需要很长时间
!curl -L -o transformer_engine_torch-2.8.0-cp312-cp312-linux_x86_64.whl "https://drive.google.com/uc?export=download&id=1Oz6dkkIMahv3LN_fQhhQRolZ3m-sr9SF"
!pip install --no-build-isolation transformer-engine transformer_engine_torch-2.8.0-cp312-cp312-linux_x86_64.whl

# 安装依赖
!pip install -r requirements.txt

# 使用TE运行ESM2原生配方
!python train_ddp.py

最新消息


用于CodonFM 1B的稀疏自编码器特征仪表板,展示了学习到的潜在特征及其在蛋白质序列上的激活情况。

  • 2026年3月13日 用于模型可解释性的稀疏自编码器 — 在生物基础模型上训练并分析SAE。包含ESM2和CodonFM的配方,以及交互式特征仪表板。
  • 2026年3月9日 Qwen2.5 / Qwen3模型 带有TE加速、FP8/MXFP8、KV缓存推理及双向HF检查点转换。
  • 2026年3月5日 ESM2 NVFP4和MXFP8 低精度训练 — 在NVIDIA B300上以15B规模进行逐层精度控制时,最高可达每GPU 2,367 TFLOPS
  • 2026年2月23日 Mixtral MoE模型 带有TE GroupedLinear 用于高效并行专家计算,支持FP8/FP4,并可转换为HF格式。
  • 2026年2月13日 ESM2 PEFT配方 用于LoRA微调,支持序列打包。
  • 2026年1月14日 Llama3上下文并行 — 将Llama 3 70B扩展到144K上下文,在36个GB300 NVL36上实现约65%的MFU。
  • 2025年10月27日 CodonFM配方 发布!这是原始研究代码库的加速版本,附带科学预印本
  • 2025年9月1日 bionemo-recipes 正式上线!轻量级且便携的示例,具备最先进的训练性能,您可以根据自身需求进行调整和扩展。

代码概览

BioNeMo框架的一个核心用例是帮助数字生物学家将其模型训练加速并扩展到计算集群上。本仓库围绕两个互补的领域组织:

1. 自包含的模型和配方位于bionemo-recipes中。这些示例展示了不同的生物AI工作负载训练模式,包括原生PyTorch、Hugging Face Accelerate以及NVIDIA megatron-FSDP,并在适当的情况下使用NVIDIA TransformerEngine (TE)进行加速。

(点击展开) bionemo-recipes 支持矩阵
目录 描述 支持状态 5D 并行 Megatron-FSDP TE 序列打包 FP8 上下文并行
models/
amplify
使用 TE 加速的蛋白质 BERT,已推送到 HuggingFace ✅ 活跃 🚧 开发中 🚧 开发中
models/
esm2
使用 TE 加速的蛋白质 BERT,已推送到 HuggingFace ✅ 活跃
models/
llama3
使用 TE 加速的 Llama 3 ✅ 活跃 🚧 开发中
models/
geneformer
使用 TE 加速的单细胞 BERT 🚧 开发中 🚧 开发中 🚧 开发中 🚧 开发中 🚧 开发中
recipes/
codonfm_ptl_te
使用 TE 的 CodonFM Encodon 配方 ✅ 活跃 🚧 开发中 🚧 开发中 🚧 开发中
recipes/
esm2_accelerate_te
ESM2 TE + HF Accelerate 的配方 ✅ 活跃 🚧 开发中 🚧 开发中
recipes/
esm2_native_te
ESM2 TE + 原生 PyTorch 的配方 ✅ 活跃
recipes/
geneformer_native_te_mfsdp_fp8
Geneformer HF 模型的配方 🚧 开发中 🚧 开发中
recipes/
llama3_native_te
Llama 3 TE + 原生 PyTorch 的配方 ✅ 活跃 🚧 开发中
models/
mixtral
使用 TE 加速的 MoE 模型 ✅ 活跃 🚧 开发中 🚧 开发中
models/
qwen
使用 TE 加速的 Qwen2.5/Qwen3 ✅ 活跃 🚧 开发中 🚧 开发中
recipes/
esm2_peft_te
ESM2 LoRA 微调的配方 ✅ 活跃 🚧 开发中
recipes/
evo2_megatron
通过 Megatron Bridge 的 Evo2 配方 🚧 开发中
recipes/
fp8_analysis
FP8 训练分析器及热图工具 ✅ 活跃
recipes/
vit
视觉 Transformer 的配方 🚧 开发中 🚧 开发中
  1. sub-packages 中的可重用 BioNeMo 库。这些包仅限于实用函数和生物工作流支持,例如共享的核心接口、数据集助手、I/O、基准测试和配方工具。它们轻量级、可单独安装,可以直接用于 bionemo-recipes 或独立的流程中。
(点击展开)sub-packages 库概览
目录 描述 典型用途
bionemo-core 核心接口、共享数据助手和 PyTorch 工具 BioNeMo 库的共享基础
bionemo-recipeutils 共享的、与框架无关的配方工具和 CLI 多个配方使用
bionemo-moco 用于生成式工作流的分子协同设计工具 独立工作流和可重用组件
bionemo-noodles 基于 noodles 的高性能 FASTA I/O 包装器 序列 I/O 工具
bionemo-scdl 单细胞数据加载和转换工具 单细胞数据工作流
bionemo-scspeedtest 单细胞数据加载器的基准测试工具 基准测试和评估
bionemo-size-aware-batching 内存感知的小批量处理工具 训练和数据管道辅助
bionemo-webdatamodule WebDataset 数据模块工具 工作流和配方中的数据加载辅助

BioNeMo 框架是 NVIDIA 生物制药产品更大生态系统的一部分。获取生物制药领域的新版本、错误修复、关键安全更新等通知。订阅。

文档资源

  • 官方文档: 框架的指南、API 参考和故障排除信息均记录在我们的官方文档中。该文档的每日构建版本可在BioNeMo Framework GitHub Pages上获取。

  • 🚧 文档正在进行中 🚧: bionemo-recipes 的文档目前仍在开发中,不过这些示例本身设计为自说明且易于理解——我们建议您将其输入到您最喜欢的生成式 AI 代码助手中!

本地开发

关于如何使用 BioNeMo 框架的完整文档已在我们的文档中提供: https://docs.nvidia.com/bionemo-framework/latest/user-guide/。我们还在 NGC 上发布了 BioNeMo 框架的容器镜像。要启动预构建的容器,您可以使用 brev.dev 的可部署链接  点击此处进行部署。,或者执行以下命令:

docker run --rm -it \
  --gpus=all --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 \
  nvcr.io/nvidia/clara/bionemo-framework:nightly \
  /bin/bash

设置本地开发环境

在本地构建 Docker 镜像

在本地克隆仓库后,使用以下命令构建 BioNeMo 容器:

docker buildx build . -t my-container-tag

如果您遇到类似 No file descriptors available (os error 24) 的错误消息,请在 docker 构建命令中添加 --ulimit nofile=65535:65535 选项。

用于交互式调试的 VSCode Devcontainer

我们分发了一个适用于 VSCode 的开发容器配置文件(.devcontainer/devcontainer.json),它简化了 bionemo-recipessub-packages 的本地测试与开发流程。使用 VSCode 打开 bionemo-framework 文件夹时,系统应提示您在 devcontainer 环境中重新打开该文件夹。

sub-packages 下的包不会自动安装到该环境中。当您正在开发其中一个包时,可以使用可编辑安装的方式将其安装到当前环境中,例如:

uv pip install -e ./sub-packages/bionemo-core
uv pip install -e ./sub-packages/bionemo-scdl
uv pip install -e "./sub-packages/bionemo-recipeutils[basecamp]"

您也可以选择使用 pip install -e ...

[!NOTE] 第一次启动 devcontainer 时,构建镜像可能需要较长时间。如果您先在本地构建镜像(使用上述命令),则可以确保大部分层已存在于本地 Docker 缓存中。

更多示例

请参阅tutorials 页面以获取示例应用和入门指南。

版本历史

v2.72025/10/01
v2.6.32025/07/31
v2.6.22025/07/02
v2.6.12025/06/02
v2.62025/04/30
v2.52025/03/17
v2.4.12025/02/28
v2.42025/02/25
v2.32025/01/28
v2.22024/12/20
v2.12024/11/21
v2.02024/10/23
v1.102024/10/23

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

156.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|5天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|6天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架