[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-instadeepai--nucleotide-transformer":3,"tool-instadeepai--nucleotide-transformer":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":72,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":144},6167,"instadeepai\u002Fnucleotide-transformer","nucleotide-transformer","Foundation Models for Genomics & Transcriptomics","nucleotide-transformer 是 InstaDeep 推出的一系列面向基因组学和转录组学的 AI 基础模型集合。它旨在解决生物序列数据复杂、难以解读的难题，帮助科研人员从海量的 DNA 和 RNA 序列中高效挖掘功能信息、预测基因调控活性以及进行精准的基因组注释。\n\n这套工具特别适合生物信息学研究人员、计算生物学家以及从事药物研发或农业育种的专业开发者使用。通过提供预训练权重和推理代码，nucleotide-transformer 降低了利用深度学习探索生命科学的门槛，让用户无需从头训练即可开展前沿研究。\n\n其核心技术亮点在于采用了基于 Transformer 的架构，能够以单碱基分辨率处理长达 1Mb 的超长上下文序列。最新的 NTv3 版本更是创新性地融合了 U-Net 结构，不仅支持跨物种的多任务学习（如功能轨道预测），还具备可控的序列生成能力，可用于设计具有特定活性的增强子序列。无论是分析人类基因组还是动植物遗传数据，nucleotide-transformer 都能提供状态领先的准确率，是推动 AI 与生命科学融合的强大开源引擎。","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Finstadeepai_nucleotide-transformer_readme_7785d7c16ac2.png\" alt=\"InstaDeep AI for Genomics Logo\" width=\"200\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">AI Foundation Models for Genomics\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>A hub for InstaDeep's cutting-edge deep learning models and research for genomics, originating from the Nucleotide Transformer and its evolutions.\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002FLICENSE\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-CC%20BY--NC--SA%204.0-blue.svg\" alt=\"License: CC BY-NC-SA 4.0\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdocs.python.org\u002F3.8\u002Flibrary\u002Findex.html\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11-blue.svg\" alt=\"Python 3.8\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjax.readthedocs.io\u002Fen\u002Flatest\u002F\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fjax-0.3.25+-informational\" alt=\"Jax 0.3.25+\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-InstaDeepAI-orange\" alt=\"Hugging Face Models\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🎯 Our Focus: Advancing Genomics with AI\n\nWelcome to the InstaDeep AI for Genomics repository! This is where we feature our collection of transformer-based genomic language models and innovative downstream applications. Our work in the genomics space began with **The Nucleotide Transformer**, developed in collaboration with Nvidia and TUM and trained on Cambridge-1, and has expanded to include projects like the **Agro Nucleotide Transformer** (in collaboration with Google, trained on TPU-v4 accelerators), **SegmentNT**, and **ChatNT**.\n\nOur mission is to provide the scientific community with powerful, reproducible, and accessible tools to unlock new insights from biological sequences. This repository serves as the central place for sharing our models, inference code, pre-trained weights, and research contributions in the genomics domain, with explorations into future areas like single-cell transcriptomics.\n\nWe are thrilled to open-source these works and provide the community with access to the code and pre-trained weights for our diverse set of genomics language models and segmentation models.\n\n## ✨ Featured Models & Research Evolutions\n\nThis section highlights the key models and research directions from our team. Each entry provides a brief overview and links to detailed documentation, publications, and resources. *(Detailed code examples, setup for specific models, and in-depth figures are now located in their respective documentation pages within the `.\u002Fdocs` folder.)*\n\n---\n\n### 🧬 The Nucleotide Transformer v3 (NTv3)\n\nA unified multi-species foundation model that integrates representation learning, functional-track and genome-annotation prediction, and controllable sequence generation within a single efficient framework. NTv3 uses a U-Net-like architecture with single-base tokenization to enable efficient modeling of contexts up to 1 Mb at nucleotide resolution. Pretrained on 9 trillion base pairs from OpenGenome2 and post-trained on > 16,000 functional tracks from 24 animal and plant species, NTv3 achieves state-of-the-art accuracy for functional-track prediction and genome annotation across species. The model can be fine-tuned into a controllable generative model for designing enhancer sequences with specified activity levels, validated experimentally via STARR-seq.\n\n* **Keywords:** Multi-species Foundation Model, Long-context (1 Mb), Single-base Resolution, Functional-track Prediction, Genome Annotation, Controllable Sequence Generation, U-Net Architecture, Masked Diffusion\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fnucleotide_transformer_v3.md)** \n* 📜 **[Read the Paper (bioRxiv)](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.64898\u002F2025.12.22.695963v1)**\n* 🤗 **[Hugging Face Collection](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FInstaDeepAI\u002Fntv3)**\n\n\n\n---\n\n### 🧬 The Nucleotide Transformer (NT)\n\nOur foundational language models leverage DNA sequences from over 3,200 diverse human genomes and 850 genomes from a wide range of species. These models provide extremely accurate molecular phenotype prediction compared to existing methods. *This family includes multiple variants (e.g., 500M_human_ref, 2B5_1000G, NT-v2 series) which are detailed further in the specific documentation.*\n\n* **Keywords:** Foundational Model, Genomics, DNA\u002FRNA, Pre-trained, Sequence Embeddings, Phenotype Prediction\n* ➡️ **[Model Details, Variants & Usage](.\u002Fdocs\u002Fnucleotide_transformer.md)**\n* 📜 **[Read the Paper (Nature Methods 2025)](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-024-02523-z)**\n* 🤗 **[Hugging Face Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fnucleotide-transformer-65099cdde13ff96230f2e592)**\n* 🚀 **Fine-tuning Notebooks (HF): ([LoRA](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fexamples\u002Fnucleotide_transformer_dna_sequence_modelling_with_peft.ipynb) and [regular](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fexamples\u002Fnucleotide_transformer_dna_sequence_modelling.ipynb))**\n\n---\n\n### 🌾 Agro Nucleotide Transformer (AgroNT)\n\nA novel foundational large language model trained on reference genomes from 48 plant species, with a predominant focus on crop species. AgroNT demonstrates state-of-the-art performance across several prediction tasks ranging from regulatory features, RNA processing, and gene expression in plants.\n\n* **Keywords:** Plant Genomics, Foundational Model, Crop Science, Gene Expression, Agriculture AI\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fagro_nucleotide_transformer.md)**\n* 📜 **[Read the Paper (Communications Biology 2024)](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42003-024-06465-2)**\n* 🤗 **[Hugging Face Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fagro-nucleotide-transformer-65b25c077cd0069ad6f6d344)**\n\n---\n\n### 🧩 SegmentNT (& family: SegmentEnformer, SegmentBorzoi)\n\nSegmentation models using transformer backbones (Nucleotide Transformers, Enformer, Borzoi) for predicting genomic elements at single-nucleotide resolution. SegmentNT, for instance, predicts 14 different classes of human genomic elements in sequences up to 30kb (generalizing to 50kbp) and demonstrates superior performance.\n\n* **Keywords:** Genome Segmentation, Single-Nucleotide Resolution, Genomic Elements, U-Net, Enformer, Borzoi\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fsegment_nt.md)** (Covers SegmentNT, SegmentEnformer, SegmentBorzoi)\n* 📜 **[Read the Paper (Nature Methods 2025)](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-025-02881-2)**\n* 🤗 **[Hugging Face Collection](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fsegmentnt-65eb4941c57808b4a3fe1319)**\n* 🚀 **[SegmentNT Inference Notebook (HF)](https:\u002F\u002Fcolab.research.google.com\u002F#fileId=https%3A\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fsegment_nt\u002Fblob\u002Fmain\u002Finference_segment_nt.ipynb)**\n\n---\n\n### 💬 ChatNT\n\nA multimodal conversational agent designed with a deep understanding of DNA biological sequences, enabling interactive exploration and analysis of genomic data through natural language.\n\n* **Keywords:** Conversational AI, Multimodal, DNA Analysis, Genomics Chatbot, Interactive Biology\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fchat_nt.md)**\n* 📜 **[Read the Paper (Nature Machine Intelligence 2025)](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-025-01047-1)**\n* 🤗 **[ChatNT on Hugging Face](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FChatNT)**\n* 🚀 **[ChatNT Inference Notebook (Jax)](.\u002Fnotebooks\u002Fchat_nt\u002Finference.ipynb)**\n\n---\n\n### 3️⃣ Codon-NT (Exploring 3-mer Tokenization)\n\nA Nucleotide Transformer model variant trained on 3-mers (codons). This work investigates alternative tokenization strategies for genomic language models and their impact on downstream performance and interpretability.\n\n* **Keywords:** Genomics, Language Model, Codon, Tokenization, 3-mers, Nucleotide Transformer Variant\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fcodon_nt.md)**\n* 📜 **[Read the Paper (Bioinformatics 2024)](https:\u002F\u002Facademic.oup.com\u002Fbioinformatics\u002Farticle\u002F40\u002F9\u002Fbtae529\u002F7745814)**\n* 🤗 **[Hugging Face Link](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fnucleotide-transformer-v2-50m-3mer-multi-species)**\n\n---\n\n### 🧬 Isoformer\n\nA model designed for learning isoform-aware embeddings directly from RNA-seq data, enabling a deeper understanding of transcript-specific expression and regulation.\n\n* **Keywords:** RNA-seq, Transcriptomics, Isoforms, Gene Expression, Embeddings\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fisoformer.md)**\n* 📜 **[Read the Paper (NeurIPS 2024)](https:\u002F\u002Fpapers.nips.cc\u002Fpaper_files\u002Fpaper\u002F2024\u002Ffile\u002F8f6b3692297e49e5d5c91ba00281379c-Paper-Conference.pdf)**\n* 🤗 **[Hugging Face Link](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fisoformer)**\n* 🚀 **[Isoformer Inference Notebook (HF)](.\u002Fnotebooks\u002Fisoformer\u002Finference.ipynb)**\n\n---\n\n### 🔬 sCT (single-Cell Transformer)\n\nOur foundational transformer model for single-cell and spatial transcriptomics data. sCT aims to learn rich representations from complex, high-dimensional single-cell datasets to improve various downstream analytical tasks.\n\n* **Keywords:** Single-cell RNA-seq, Spatial Transcriptomics, Foundational Model, Transformer, Gene Expression\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fsct.md)**\n* 📜 **[Read the Paper (OpenReview preprint)](https:\u002F\u002Fopenreview.net\u002Fforum?id=VdX9tL3VXH)**\n* 🤗 **[Hugging Face Link](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FsCellTransformer)**\n* 🚀 **[sCT Inference Notebook (HF)](.\u002Fnotebooks\u002Fsct\u002Finference_sCT_pytorch_example.ipynb)**\n\n---\n\n### 🧪 BulkRNABert\n\nBulkRNABert is a transformer-based, encoder-only foundation model designed for bulk RNA-seq data. It learns biologically meaningful representations from large-scale transcriptomic profiles.\n\n* **Keywords:** Bulk RNA-seq, Foundational Model, Transformer, Cancer prognosis\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fbulk_rna_bert.md)**\n* 📜 **[Read the Paper (Machine Learning for Health 2024)](https:\u002F\u002Fproceedings.mlr.press\u002Fv259\u002Fgelard25a.html)**\n* 🤗 **[Hugging Face Link](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FBulkRNABert)**\n* 🚀 **[BulkRNABert Inference Notebook (HF)](notebooks\u002Fbulk_rna_bert\u002Finference_bulkrnabert_pytorch_example.ipynb)**\n\n---\n\n### 🔗 MOJO (\u003Cu>M\u003C\u002Fu>ulti-\u003Cu>O\u003C\u002Fu>mics \u003Cu>JO\u003C\u002Fu>int representation)\n\nMOJO is a multimodal model designed learn embeddings of multi-omics data. It integrates bulk RNA-seq and DNA methylation data to generate powerful joint representations tailored for cancer-type classification and survival analysis.\n\n* **Keywords:** Bulk RNA-seq, DNA Methylation, Foundational Model, Transformer, Multimodal, Cancer prognosis\n* ➡️ **[Model Details & Usage](.\u002Fdocs\u002Fmojo.md)**\n* 📜 **[Read the Paper (ICML Workshop on Generative AI and Biology 2025)](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2025.06.25.661237v1)**\n* 🤗 **[Hugging Face Link](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FMOJO)**\n* 🚀 **[MOJO Inference Notebook (HF)](.\u002Fnotebooks\u002Fmojo\u002Finference_mojo_pytorch_example.ipynb)**\n\n---\n\n## 💡 Why Choose InstaDeep's Genomic Models?\n\n* **Built on Strong Foundations:** Leveraging large-scale pre-training and diverse genomic datasets.\n* **Cutting-Edge Research:** Incorporating the latest advancements in deep learning for biological sequence analysis.\n* **High Performance:** Designed and validated to achieve state-of-the-art results on challenging genomic tasks.\n* **Open and Accessible:** We provide pre-trained weights, usage examples, and aim for easy integration into research workflows.\n* **Collaborative Spirit:** Developed with leading academic and industry partners.\n* **Focused Expertise:** Created by a dedicated team specializing in AI for genomics at InstaDeep.\n\n## 🚀 Getting Started\n\nTo begin using models from this repository:\n\n1.  **Clone the repository:**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer.git\n    cd nucleotide-transformer\n    ```\n2.  **Set up your environment (virtual environment recommended):**\n    ```bash\n    python -m venv .venv\n    source .venv\u002Fbin\u002Factivate # On Windows use `source .venv\\Scripts\\activate`\n    ```\n3.  **Install the package and dependencies:**\n    ```bash\n    pip install . # Installs the local package\n    # Or, for a general requirements file if you have one:\n    # pip install -r requirements.txt\n    ```\n\nFor detailed instructions on individual models, including specific dependencies, downloading pre-trained weights, and Python usage examples, please refer to their dedicated documentation pages linked in the \"Featured Models & Research Evolutions\" section above (e.g., `.\u002Fdocs\u002Fnucleotide_transformer.md`).\n\n## 🤝 Community & Support\n\n* **Questions & Bug Reports:** Please use the [GitHub Issues](https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues) page.\n* **Discussions:** For broader discussions or questions, please use the [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fdiscussions) tab (if enabled).\n* **Stay Updated:** Follow InstaDeep's official channels for announcements on new model releases and research updates.\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Finstadeepai_nucleotide-transformer_readme_7785d7c16ac2.png\" alt=\"InstaDeep AI for Genomics Logo\" width=\"200\"\u002F>\n\u003C\u002Fp>\n\n\u003Ch1 align=\"center\">基因组学的AI基础模型\u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n  \u003Cstrong>这是InstaDeep在基因组学领域前沿深度学习模型与研究的汇聚地，源自核苷酸Transformer及其后续演进。\u003C\u002Fstrong>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\".\u002FLICENSE\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-CC%20BY--NC--SA%204.0-blue.svg\" alt=\"许可证：CC BY-NC-SA 4.0\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdocs.python.org\u002F3.8\u002Flibrary\u002Findex.html\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11-blue.svg\" alt=\"Python 3.8\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjax.readthedocs.io\u002Fen\u002Flatest\u002F\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fjax-0.3.25+-informational\" alt=\"Jax 0.3.25+\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\"> \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-InstaDeepAI-orange\" alt=\"Hugging Face模型\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🎯 我们的重点：用AI推动基因组学发展\n\n欢迎来到InstaDeep基因组学AI仓库！这里展示了我们基于Transformer的基因组语言模型系列及创新的下游应用。我们在基因组学领域的研究始于**核苷酸Transformer**，该模型由Nvidia和TUM合作开发，并在Cambridge-1超级计算机上训练；随后扩展至**农业核苷酸Transformer**（与Google合作，在TPU-v4加速器上训练）、**SegmentNT**和**ChatNT**等项目。\n\n我们的使命是为科学界提供强大、可复现且易于使用的工具，以从生物序列中挖掘新洞见。本仓库作为分享我们基因组学领域模型、推理代码、预训练权重及研究贡献的核心平台，同时也探索单细胞转录组学等未来方向。\n\n我们非常高兴将这些成果开源，向社区开放我们多样化的基因组语言模型和分割模型的代码及预训练权重。\n\n## ✨ 精选模型与研究进展\n\n本节重点介绍我们团队的关键模型与研究方向。每个条目都提供简要概述，并附有详细文档、论文及相关资源的链接。*详细的代码示例、特定模型的部署指南以及深入图表现已移至`.\u002Fdocs`文件夹内的相应文档页面中。*\n\n---\n\n### 🧬 核苷酸Transformer v3 (NTv3)\n\n一款统一的多物种基础模型，将表征学习、功能位点与基因组注释预测，以及可控序列生成整合于一个高效的框架之中。NTv3采用类似U-Net的架构，并使用单碱基分词法，能够在核苷酸分辨率下高效建模长达1 Mb的上下文。该模型在OpenGenome2数据集上的9万亿个碱基对上进行了预训练，并在来自24种动植物的超过16,000个功能位点数据上进行了微调，从而在跨物种的功能位点预测和基因组注释任务中达到最先进水平。此外，该模型还可进一步微调为可控生成模型，用于设计具有指定活性水平的增强子序列，并通过STARR-seq实验加以验证。\n\n* **关键词:** 多物种基础模型、长上下文（1 Mb）、单碱基分辨率、功能位点预测、基因组注释、可控序列生成、U-Net架构、掩码扩散\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fnucleotide_transformer_v3.md)**\n* 📜 **[阅读论文（bioRxiv）](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.64898\u002F2025.12.22.695963v1)**\n* 🤗 **[Hugging Face合集](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FInstaDeepAI\u002Fntv3)**\n\n\n\n---\n\n### 🧬 核苷酸Transformer (NT)\n\n我们的基础语言模型基于超过3,200个人类基因组及850个其他物种基因组的DNA序列构建，相较于现有方法，能够实现极为精准的分子表型预测。*该系列包含多个变体（如500M_human_ref、2B5_1000G、NT-v2系列），具体细节请参阅相关文档。*\n\n* **关键词:** 基础模型、基因组学、DNA\u002FRNA、预训练、序列嵌入、表型预测\n* ➡️ **[模型详情、变体及使用方法](.\u002Fdocs\u002Fnucleotide_transformer.md)**\n* 📜 **[阅读论文（Nature Methods 2025）](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-024-02523-z)**\n* 🤗 **[Hugging Face合集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fnucleotide-transformer-65099cdde13ff96230f2e592)**\n* 🚀 **微调笔记本（HF）：([LoRA](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fexamples\u002Fnucleotide_transformer_dna_sequence_modelling_with_peft.ipynb) 和 [常规](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fnotebooks\u002Fblob\u002Fmain\u002Fexamples\u002Fnucleotide_transformer_dna_sequence_modelling.ipynb))**\n\n---\n\n### 🌾 农业核苷酸Transformer (AgroNT)\n\n一款全新的大型基础语言模型，基于48种植物参考基因组进行训练，重点关注作物物种。AgroNT在调控元件、RNA加工及植物基因表达等多个预测任务中均表现出最先进的性能。\n\n* **关键词:** 植物基因组学、基础模型、作物科学、基因表达、农业AI\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fagro_nucleotide_transformer.md)**\n* 📜 **[阅读论文（Communications Biology 2024）](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42003-024-06465-2)**\n* 🤗 **[Hugging Face合集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fagro-nucleotide-transformer-65b25c077cd0069ad6f6d344)**\n\n---\n\n### 🧩 SegmentNT（及其家族：SegmentEnformer、SegmentBorzoi）\n\n基于Transformer骨干网络（核苷酸Transformer、Enformer、Borzoi）的分割模型，可在单碱基分辨率下预测基因组元件。例如，SegmentNT能够对长达30 kb的人类基因组序列中的14种不同类别的基因组元件进行预测，并展现出卓越的性能。\n\n* **关键词:** 基因组分割、单碱基分辨率、基因组元件、U-Net、Enformer、Borzoi\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fsegment_nt.md)**（涵盖SegmentNT、SegmentEnformer、SegmentBorzoi）\n* 📜 **[阅读论文（Nature Methods 2025）](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-025-02881-2)**\n* 🤗 **[Hugging Face合集](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FInstaDeepAI\u002Fsegmentnt-65eb4941c57808b4a3fe1319)**\n* 🚀 **[SegmentNT推理笔记本（HF）](https:\u002F\u002Fcolab.research.google.com\u002F#fileId=https%3A\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fsegment_nt\u002Fblob\u002Fmain\u002Finference_segment_nt.ipynb)**\n\n---\n\n### 💬 ChatNT\n\n一款多模态对话代理，专为深入理解DNA生物序列而设计，可通过自然语言实现对基因组数据的交互式探索与分析。\n\n* **关键词:** 对话式AI、多模态、DNA分析、基因组聊天机器人、交互式生物学\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fchat_nt.md)**\n* 📜 **[阅读论文（Nature Machine Intelligence 2025）](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-025-01047-1)**\n* 🤗 **[ChatNT 在 Hugging Face 上](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FChatNT)**\n* 🚀 **[ChatNT 推理笔记本（Jax）](.\u002Fnotebooks\u002Fchat_nt\u002Finference.ipynb)**\n\n---\n\n### 3️⃣ Codon-NT（探索3-mer分词法）\n\n一种基于3-mer（密码子）训练的核苷酸Transformer模型变体。本研究探讨了基因组语言模型的替代分词策略及其对下游性能和可解释性的影响。\n\n* **关键词:** 基因组学、语言模型、密码子、分词、3-mer、核苷酸Transformer变体\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fcodon_nt.md)**\n* 📜 **[阅读论文（Bioinformatics 2024）](https:\u002F\u002Facademic.oup.com\u002Fbioinformatics\u002Farticle\u002F40\u002F9\u002Fbtae529\u002F7745814)**\n* 🤗 **[Hugging Face 链接](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fnucleotide-transformer-v2-50m-3mer-multi-species)**\n\n---\n\n### 🧬 Isoformer\n\n一款直接从RNA-seq数据中学习异构体感知嵌入的模型，能够更深入地理解转录本特异性表达与调控机制。\n\n* **关键词:** RNA-seq、转录组学、异构体、基因表达、嵌入\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fisoformer.md)**\n* 📜 **[阅读论文（NeurIPS 2024）](https:\u002F\u002Fpapers.nips.cc\u002Fpaper_files\u002Fpaper\u002F2024\u002Ffile\u002F8f6b3692297e49e5d5c91ba00281379c-Paper-Conference.pdf)**\n* 🤗 **[Hugging Face 链接](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002Fisoformer)**\n* 🚀 **[Isoformer 推理笔记本（HF）](.\u002Fnotebooks\u002Fisoformer\u002Finference.ipynb)**\n\n---\n\n### 🔬 sCT（单细胞Transformer）\n\n我们用于单细胞和空间转录组学数据的基础Transformer模型。sCT旨在从复杂、高维的单细胞数据集中学习丰富的表征，以提升各类下游分析任务的性能。\n\n* **关键词:** 单细胞RNA-seq、空间转录组学、基础模型、Transformer、基因表达\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fsct.md)**\n* 📜 **[阅读论文（OpenReview 预印本）](https:\u002F\u002Fopenreview.net\u002Fforum?id=VdX9tL3VXH)**\n* 🤗 **[Hugging Face 链接](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FsCellTransformer)**\n* 🚀 **[sCT 推理笔记本（HF）](.\u002Fnotebooks\u002Fsct\u002Finference_sCT_pytorch_example.ipynb)**\n\n---\n\n### 🧪 BulkRNABert\n\nBulkRNABert是一款基于Transformer的仅编码器型基础模型，专为批量RNA-seq数据设计。它可以从大规模转录组谱中学习具有生物学意义的表征。\n\n* **关键词:** 批量RNA-seq、基础模型、Transformer、癌症预后\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fbulk_rna_bert.md)**\n* 📜 **[阅读论文（Machine Learning for Health 2024）](https:\u002F\u002Fproceedings.mlr.press\u002Fv259\u002Fgelard25a.html)**\n* 🤗 **[Hugging Face 链接](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FBulkRNABert)**\n* 🚀 **[BulkRNABert 推理笔记本（HF）](notebooks\u002Fbulk_rna_bert\u002Finference_bulkrnabert_pytorch_example.ipynb)**\n\n---\n\n### 🔗 MOJO（\u003Cu>M\u003C\u002Fu>ulti-\u003Cu>O\u003C\u002Fu>mics \u003Cu>JO\u003C\u002Fu>int representation）\n\nMOJO是一种多模态模型，旨在学习多组学数据的嵌入表示。它整合了批量RNA-seq和DNA甲基化数据，生成强大的联合表征，专门用于癌症类型分类和生存分析。\n\n* **关键词:** 批量RNA-seq、DNA甲基化、基础模型、Transformer、多模态、癌症预后\n* ➡️ **[模型详情与使用方法](.\u002Fdocs\u002Fmojo.md)**\n* 📜 **[阅读论文（ICML 生物生成式AI研讨会 2025）](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2025.06.25.661237v1)**\n* 🤗 **[Hugging Face 链接](https:\u002F\u002Fhuggingface.co\u002FInstaDeepAI\u002FMOJO)**\n* 🚀 **[MOJO 推理笔记本（HF）](.\u002Fnotebooks\u002Fmojo\u002Finference_mojo_pytorch_example.ipynb)**\n\n---\n\n## 💡 为什么选择 InstaDeep 的基因组学模型？\n\n* **建立在坚实基础上：** 利用大规模预训练和多样化的基因组数据集。\n* **前沿研究：** 融合深度学习在生物序列分析领域的最新进展。\n* **高性能：** 经过精心设计和验证，在具有挑战性的基因组学任务上达到最先进水平。\n* **开放且易用：** 我们提供预训练权重、使用示例，并致力于使其易于集成到科研工作流中。\n* **协作精神：** 与领先的学术界和工业界合作伙伴共同开发。\n* **专注的专业知识：** 由 InstaDeep 专注于基因组学AI的专家团队打造。\n\n## 🚀 开始使用\n\n要开始使用本仓库中的模型：\n\n1.  **克隆仓库：**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer.git\n    cd nucleotide-transformer\n    ```\n2.  **设置环境（建议使用虚拟环境）：**\n    ```bash\n    python -m venv .venv\n    source .venv\u002Fbin\u002Factivate # Windows系统请使用 `source .venv\\Scripts\\activate`\n    ```\n3.  **安装包及依赖项：**\n    ```bash\n    pip install . # 安装本地包\n    # 或者，如果您有通用的依赖文件，可以运行：\n    # pip install -r requirements.txt\n    ```\n\n有关各模型的详细说明，包括特定依赖项、预训练权重下载以及Python使用示例，请参阅上述“精选模型与研究进展”部分中链接的专用文档页面（例如：`.\u002Fdocs\u002Fnucleotide_transformer.md`）。\n\n## 🤝 社区与支持\n\n* **问题与错误报告：** 请使用 [GitHub Issues](https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues) 页面。\n* **讨论：** 如需更广泛的讨论或提问，请使用 [GitHub Discussions](https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fdiscussions) 标签页（如已启用）。\n* **保持更新：** 关注 InstaDeep 的官方渠道，以获取新模型发布和研究进展的相关公告。","# Nucleotide Transformer 快速上手指南\n\nNucleotide Transformer 是 InstaDeep 推出的一系列基于深度学习的基因组学基础模型，涵盖 DNA\u002FRNA 序列分析、功能预测、基因组注释及多组学整合等任务。本指南将帮助您快速搭建环境并运行模型。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)\n*   **Python**: 版本需为 **3.11** (官方推荐，兼容 JAX 最新特性)\n*   **硬件加速**: \n    *   推荐使用 **GPU** (NVIDIA) 或 **TPU** 以获得最佳推理和训练性能。\n    *   若仅进行小规模测试，CPU 亦可运行，但速度较慢。\n*   **前置依赖**: 确保已安装 `git` 和 `pip`。\n\n> **注意**：该项目主要基于 **JAX** 框架，部分模型（如 sCT, BulkRNABert, MOJO）也提供了 PyTorch 的推理示例。\n\n## 2. 安装步骤\n\n### 第一步：克隆仓库\n首先从 GitHub 获取源代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer.git\ncd nucleotide-transformer\n```\n\n### 第二步：创建虚拟环境\n建议创建一个独立的 Python 虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv .venv\nsource .venv\u002Fbin\u002Factivate \n# Windows 用户请使用: .venv\\Scripts\\activate\n```\n\n### 第三步：安装依赖\n安装项目包及其依赖。由于 JAX 对硬件后端敏感，建议先安装适配您硬件的 JAX 版本，再安装本项目。\n\n**方案 A：直接安装（自动处理依赖）**\n```bash\npip install .\n```\n\n**方案 B：手动指定 JAX 版本（推荐用于 GPU 用户）**\n如果您使用 NVIDIA GPU，建议显式安装带有 CUDA 支持的 JAX：\n```bash\n# 示例：安装支持 CUDA 12 的 JAX (具体版本请参考 jax.readthedocs.io)\npip install \"jax[cuda12_pip]\" -f https:\u002F\u002Fstorage.googleapis.com\u002Fjax-releases\u002Fjax_cuda_releases.html\npip install .\n```\n\n> **国内加速提示**：如果下载速度较慢，可使用国内镜像源安装：\n> ```bash\n> pip install . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 3. 基本使用\n\n安装完成后，您可以加载预训练模型进行序列嵌入或预测。以下以经典的 **Nucleotide Transformer (NT)** 为例，展示如何生成 DNA 序列的嵌入向量。\n\n### 简单推理示例\n\n```python\nimport jax\nimport jax.numpy as jnp\nfrom transformers import AutoTokenizer, AutoModel # 假设通过 huggingface 接口调用，或引用本地库\n\n# 1. 准备输入序列 (DNA 字符串)\ndna_sequence = \"ACGTACGTACGTACGTACGT\"\n\n# 2. 加载分词器和模型 (以 Hugging Face 托管的模型为例)\n# 请根据具体模型名称替换 repo_id，例如 \"InstaDeepAI\u002Fnucleotide-transformer-v2-500m-human-ref\"\nmodel_name = \"InstaDeepAI\u002Fnucleotide-transformer-v2-500m-human-ref\"\n\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModel.from_pretrained(model_name)\n\n# 3. 预处理输入\ninputs = tokenizer(dna_sequence, return_tensors=\"pt\") # 或 return_tensors=\"jax\" 取决于具体实现\n\n# 4. 执行推理\nwith jax.no_grad(): # 如果使用纯 JAX 实现，语法略有不同，参考具体 docs\n    outputs = model(**inputs)\n    \n# 5. 获取结果 (序列嵌入)\nembeddings = outputs.last_hidden_state\n\nprint(f\"输入序列长度：{len(dna_sequence)}\")\nprint(f\"输出嵌入形状：{embeddings.shape}\")\n```\n\n### 进阶资源指引\n本仓库包含多个专用模型，详细用法请参阅对应的文档：\n*   **NTv3**: 适用于长上下文 (1Mb) 和功能轨道预测 -> `.\u002Fdocs\u002Fnucleotide_transformer_v3.md`\n*   **AgroNT**: 专为植物基因组设计 -> `.\u002Fdocs\u002Fagro_nucleotide_transformer.md`\n*   **SegmentNT**: 单碱基分辨率的基因组分割 -> `.\u002Fdocs\u002Fsegment_nt.md`\n*   **ChatNT**: 基因组数据的多模态对话助手 -> `.\u002Fdocs\u002Fchat_nt.md`\n\n您可以直接在 `.\u002Fnotebooks` 目录中找到各模型的 Colab 或 Jupyter 推理示例代码。","某合成生物学团队正致力于设计一种能高效降解塑料的新型细菌增强子序列，需要精准预测 DNA 片段的功能活性并生成符合特定表达水平的新序列。\n\n### 没有 nucleotide-transformer 时\n- 研究人员依赖传统的序列比对或浅层机器学习模型，难以捕捉长达 1Mb 的基因组上下文依赖关系，导致功能预测准确率低下。\n- 跨物种知识迁移困难，利用人类基因组数据训练的模型无法有效指导植物或微生物的基因编辑，需为每个物种重新收集大量标注数据。\n- 序列设计主要靠试错或随机突变，缺乏可控生成能力，无法直接指定“高活性”等目标来反向设计增强子，实验验证周期长达数月。\n- 单碱基分辨率的特征提取计算成本高昂，处理全基因组规模数据时算力瓶颈明显，严重拖慢研发迭代速度。\n\n### 使用 nucleotide-transformer 后\n- 借助其 U-Net 架构和单碱基分词技术，团队能直接建模百万级碱基对的长上下文，在多种动植物物种中实现了业界领先的功能轨迹预测精度。\n- 利用在 3200+ 人类及 850+ 其他物种基因组上预训练的基础模型，无需大量新数据即可将知识迁移至目标细菌，大幅降低数据门槛。\n- 通过微调后的可控生成功能，直接输入期望的活性水平即可自动生成候选增强子序列，经 STARR-seq 实验验证成功率显著提升。\n- 高效的推理框架支持快速扫描全基因组注释，将原本数周的分析任务缩短至数小时，加速了从设计到湿实验验证的闭环。\n\nnucleotide-transformer 将基因序列分析从“被动解读”升级为“主动设计”，极大缩短了合成生物学的研发周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Finstadeepai_nucleotide-transformer_639c3117.png","instadeepai","InstaDeep Ltd","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Finstadeepai_f2efb2ea.png","We productionise innovation for the benefit of everyone",null,"hello@instadeep.com","https:\u002F\u002Finstadeep.com","https:\u002F\u002Fgithub.com\u002Finstadeepai",[81,85],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",84.1,{"name":86,"color":87,"percentage":88},"Python","#3572A5",15.9,848,92,"2026-04-09T05:01:54","NOASSERTION","Linux, macOS, Windows","部分模型（如 AgroNT）需在 TPU-v4 或 NVIDIA GPU 上训练\u002F推理，具体显存需求未说明，依赖 JAX 后端可能需 CUDA 支持","未说明",{"notes":97,"python":98,"dependencies":99},"该工具集主要基于 JAX 框架（部分模型提供 PyTorch 示例），包含多个不同架构的基因组大模型（如 NTv3 支持 1Mb 上下文）。不同子模型（如 ChatNT, SegmentNT, sCT）可能有特定的依赖和环境要求，建议参考各模型对应的文档文件夹（.\u002Fdocs）获取详细配置。许可证为 CC BY-NC-SA 4.0（禁止商业用途）。","3.11",[100,101,102,103],"jax>=0.3.25","torch","transformers","huggingface_hub",[35,14],[106,107,108,109,110,111,112],"genomics","deep-learning","transformer","dna","foundation-models","transcriptomics","biology","2026-03-27T02:49:30.150509","2026-04-10T15:54:56.176814",[116,121,126,131,136,140],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},27927,"模型预测的表达量为什么会出现负值？这是归一化导致的吗？","是的，预测结果是经过标准化（z-score normalized）处理的，而非原始表达量。具体流程如下：\n1. **训练数据准备**：标签使用 z-score 标准化处理。\n2. **模型输出**：模型预测的是标准化后的值（均值≈0，标准差≈1），因此负值表示表达水平低于均值，属于正常现象。\n3. **获取原始值**：若需获得原始 TPM 值，需要对预测结果进行反归一化操作。\n数据管道示例：\n- 原始 TPM -> Log 转换 (log(TPM + 1)) -> Z-score 标准化 ((x - mean) \u002F std) -> 模型训练\u002F预测。","https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues\u002F104",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},27928,"运行推理时遇到\"Input length must be divisible by...\"错误，对输入序列长度有什么要求？","该错误是因为输入序列长度不符合模型架构要求。由于模型包含 6-mer tokenization 和卷积层，输入序列长度必须满足以下条件：\n1. 必须是 6 的倍数（以便被 6-mer tokenizer 正确分词）。\n2. 分词后的长度必须是 4 的倍数（以适应卷积层的下采样）。\n综上，**输入的核苷酸序列总长度必须是 24 的倍数** (6 * 4)。\n如果遇到非 ATGC 字符导致长度不匹配，建议裁剪序列末尾使其满足整除条件，但不建议在包含非 ATGC 字符的序列上直接使用针对特定物种微调的模型（如 SegmentNT），因为模型训练时未见过此类情况。","https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues\u002F66",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},27929,"加载 2B5 等大模型时出现下载错误或文件损坏报错，如何解决？","这通常是由于缓存中的模型文件损坏或下载不完整导致的。解决方法如下：\n1. 找到模型缓存目录（例如 Linux 系统下通常为 `~\u002F.cache\u002Fnucleotide_transformer\u002F`）。\n2. 删除对应模型的文件夹（例如 `2B5_multi_species\u002F` 或 `2B5_1000G\u002F`）。\n3. 重新运行代码，让程序自动重新下载完整的模型权重和超参数文件。\n此方法在 Linux、Windows 和 Mac 上均适用。","https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues\u002F4",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},27930,"NTv3 论文中提到的基于同源性的物种基因组数据划分（Species Genome Data Splits）是如何实现的？","该划分策略旨在最小化训练集、验证集和测试集之间的同源基因泄露，但并非完全消除。具体实现步骤如下：\n1. **边加权（Edge Weighting）**：构建基因组窗口间的连接矩阵，边的权重由共享同源基因对的碱基对大小之和决定。共享基因内容越多，连接越强。\n2. **MCL 聚类**：使用马尔可夫聚类算法（MCL）基于加权边进行聚类。算法通过迭代修剪较弱的连接来形成簇，确保簇内同源性远强于簇间同源性，但允许存在少量残留的同源性。\n3. **特定物种修剪**：针对特定物种（如水稻），会进行额外的修剪步骤以进一步优化划分。\n核心思想是将窗口作为分配单位，利用窗口间的同源基因对量化连接性，从而将强同源关系的窗口分到同一集合中。","https:\u002F\u002Fgithub.com\u002Finstadeepai\u002Fnucleotide-transformer\u002Fissues\u002F132",{"id":137,"question_zh":138,"answer_zh":139,"source_url":125},27931,"如何处理包含非 ATGC 字符（如 'N'）的序列以避免分词错误？","当序列中包含非 ATGC 字符（如 'N'）时，tokenizer 会将其视为单个 token 而不是 6-mer 的一部分，这会导致分词后的序列长度不符合模型要求的整除条件（需被 4 整除）。\n建议的处理方案：\n1. **自行分词并替换**：手动将序列分割为 6-mer，对于包含非 ATGC 字符的 6-mer，将其标记为 `\u003Cunk>` token。这样模型可能会忽略或降低其信息权重。\n2. **裁剪序列**：如果只是为了让代码跑通，可以裁剪掉序列末尾导致长度不整除的部分。\n注意：对于经过微调的模型（如 SegmentNT），官方不建议直接输入包含大量非 ATGC 字符的序列，因为模型在微调阶段未见此类数据，可能影响预测精度。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":120},27932,"如何从模型的标准化预测结果还原为原始的表达量数值？","模型输出的是经过 z-score 标准化的值，要还原为原始表达量（如 TPM），需要执行反归一化操作。虽然具体均值和标准差参数需参考论文附录或训练配置，但通用还原公式如下：\n`原始值 = (预测值 * 标准差) + 均值`\n其中，均值和标准差是在训练前对 `log(TPM + 1)` 数据进行统计得到的。完整的数据流逆向过程为：\n1. 获取模型输出的标准化值。\n2. 乘以训练集的标准差 (`sigma_t`) 并加上均值 (`m_t`)，得到 `log(TPM + 1)` 值。\n3. 进行指数运算并减 1：`TPM = exp(log_value) - 1`。\n具体参数请查阅项目文档的 Appendix B 部分。",[]]