cell2sentence

GitHub
843 123 中等 1 次阅读 今天Apache-2.0语言模型其他
AI 解读 由 AI 自动生成,仅供参考

cell2sentence 是一款创新性的开源框架,旨在让大型语言模型(LLM)“听懂”生物学语言,从而直接应用于单细胞转录组数据分析。传统上,基因表达数据是复杂的数值矩阵,难以被擅长处理文本的 AI 模型直接理解。cell2sentence 巧妙地提出了一种“细胞句子”概念,将每个细胞的基因表达向量转化为按表达量降序排列的基因名称序列。通过这种转换,它成功地将生物数据变成了自然语言,使得大模型能够原生地建模和分析单细胞数据。

该工具主要解决了生物信息学领域数据模态不匹配的难题,让研究人员能够利用大模型强大的推理能力,执行细胞类型预测、扰动效应推演、数据集自动总结以及回答复杂的生物学问题等高级任务。其最新的 C2S-Scale 版本更是将模型规模扩展至 270 亿参数,并统一了转录组与文本数据的处理能力。

cell2sentence 非常适合生物信息学家、计算生物学家以及从事单细胞研究的科研人员使用,同时也欢迎对 AI 赋能生命科学感兴趣的开发者参与探索。其独特的技术亮点在于无需复杂的特征工程,仅通过简单的排序变换即可打通生物学数据与大语言模型之间的壁垒,为下一代单细胞发现提供了高效、可扩展的新范式。

使用场景

某生物制药公司的计算生物学团队正试图从数百万个单细胞测序数据中,快速识别出对新型免疫疗法产生耐药性的特定细胞亚群及其分子机制。

没有 cell2sentence 时

  • 数据模态割裂:研究人员需分别使用统计软件处理基因表达矩阵、用自然语言记录实验假设,两者无法直接交互,导致信息整合效率极低。
  • 复杂推理受限:传统深度学习模型仅能进行简单的聚类或差异分析,难以回答“若抑制 A 基因,B 细胞亚群会如何演变”这类需要多步逻辑推理的生物学问题。
  • 结果解读门槛高:模型输出的往往是抽象的向量或热图,缺乏直观的自然语言解释,生物学家必须花费大量时间手动将数据翻译回生物学故事。
  • 知识复用困难:海量的公共文本文献知识与内部的单细胞数据无法统一建模,难以利用已有的生物学常识辅助新数据的挖掘。

使用 cell2sentence 后

  • 模态天然统一:cell2sentence 将基因表达量转化为按丰度排序的“细胞句子”,让大语言模型能像理解文本一样直接“阅读”单细胞数据,实现无缝融合。
  • 具备推理能力:基于 C2S-Scale 架构,模型不仅能分类细胞类型,还能直接通过对话预测基因扰动后的细胞状态变化,甚至生成详细的亚群特征描述。
  • 输出直观易懂:分析结果直接以自然语言形式呈现(如“该亚群高表达炎症通路基因,提示其处于激活态”),大幅降低了生物学家理解数据的门槛。
  • 知识驱动发现:模型在训练时已内化了广泛的生物学文本知识,能主动结合文献常识,精准定位那些传统统计方法容易忽略的罕见耐药细胞亚群。

cell2sentence 通过赋予大语言模型理解生物学“母语”的能力,将单细胞分析从单纯的数据统计升级为具备逻辑推理与知识融合的智能发现过程。

运行环境要求

操作系统
  • 未说明
GPU
  • 非绝对必需,但强烈建议安装 flash-attention 以加速长序列推理(特别是生成包含数百个基因的细胞时)
  • 具体显卡型号、显存大小及 CUDA 版本未在文中明确说明,需参考 flash-attention 官方文档
内存

未说明

依赖
notes建议使用 Anaconda 创建名为 'cell2sentence' 的虚拟环境进行安装。可通过 'make install' 或 'pip install cell2sentence==1.1.0' 进行安装。该工具支持加载 HuggingFace 上的多种预训练模型(如基于 Pythia 架构的 1B、410M 参数模型,以及基于 Gemma-2 的 2B 和 27B 参数模型),运行大型模型(如 27B)时对硬件资源要求较高。
python3.8+
cell2sentence
flash-attn (可选)
cell2sentence hero image

快速开始

Cell2Sentence:使用大语言模型进行单细胞分析

代码许可证:Apache 2.0 PyPI版本 DOI:10.1101/2025.04.14.648850 Python 3.8+

cell2sentence工作流程图

这是对“将大型语言模型扩展用于下一代单细胞分析”的实现,即最新的Cell2Sentence (C2S-Scale)框架,用于将大型语言模型(LLMs)应用于单细胞转录组学。此前建立C2S方法论的论文可在此处找到:这里

C2S提出了一种将表达向量转换为细胞句子的排序变换——按降序排列的以空格分隔的基因名称——这使得LLMs能够原生地使用自然语言来建模scRNA-seq数据。

新的C2S-Scale模型规模达到270亿参数,统一了转录组学和文本数据,并支持包括扰动预测、数据集摘要、聚类注释以及生物问题回答在内的高级单细胞任务。基于Pythia架构的C2S-Scale模型已在Huggingface上发布,而基于Gemma-2的模型也将很快推出。

欲了解更多信息,请查看论文、浏览文档,或联系van Dijk实验室

新闻

🚀 (2025年10月15日) C2S-Scale Gemma-2 2B和27B预训练模型现已在HuggingFace上线:C2S-Scale-Gemma-Models。请查阅我们更新的预印本以及来自Google的博客文章,了解最新进展!

📰 (2025年4月17日) 我们与Google Research和Google DeepMind合作发表了一篇博客文章!请阅读此处,了解Cell2Sentence如何借助LLMs推动下一代单细胞研究。

🧠 (2025年4月17日) 我们发布了新的C2S-Scale预印本,其中包含了更大规模的模型和大量新实验!完整论文可在bioRxiv上查看:这里

🚀 (2025年4月17日) C2S-Scale-1B预训练模型现已在HuggingFace上线:vandijklab/c2s-scale-1b

🎉 (2024年12月8日) 新增了对自定义提示模板微调以及多细胞提示格式化的内置支持!示例请参见教程7和8。

🎉 (2024年9月3日) 我们发布了全新的C2S代码库,其中包含在常见单细胞工作流中使用C2S模型的核心功能!

🎉 (2024年9月3日) 我们推出了一系列Pythia模型,用于细胞类型预测、条件生成以及多样化的多细胞多任务模型!这些模型基于来自CellxGene和人类细胞图谱的超过5700万个人类和小鼠细胞进行训练。

🎉 (2024年5月1日) Cell2Sentence已被ICML 2024接收!祝贺所有参与该项目的作者。维也纳见!

🎉 (2024年2月15日) 基于完整细胞句子训练的pythia-160m-c2s已在Hugging Face Hub上线:这里! 这款新模型直接通过文本,利用Pythia-160基础模型,生成并预测细胞类型。

🎉 (2024年2月15日) 我们的更新预印本已发布在BioRxiv上:这里。我们介绍了最新的成果,包括完整细胞句子生成、组合式细胞标签预测、摘要生成,以及基于包含3600万细胞的大规模多组织数据集的训练。

安装

要设置cell2sentence环境,首先在本地克隆仓库:

git clone https://github.com/vandijklab/cell2sentence.git

进入仓库根目录的终端。接下来,使用anaconda创建一个基于python3的Anaconda环境:

conda create -n cell2sentence python=3.8

然后激活环境:

conda activate cell2sentence

最后运行安装命令:

make install

这将安装最新的cell2sentence开发环境以及其他依赖包。您也可以使用pip单独安装cell2sentence:

pip install cell2sentence==1.1.0

C2S软件包将允许您使用C2S的核心功能,包括使用现有C2S模型进行推理,以及在您自己的数据集上微调C2S模型。

如果您希望加快推理速度,可以可选地安装flash-attention,它能显著提升长序列的推理速度(例如,生成包含数百个基因的细胞时):

pip install flash-attn --no-build-isolation

有关flash-attention的详细安装说明,请参阅官方安装指南。要启用flash attention 2,请参阅教程笔记本第5课(细胞生成)中的示例。

教程

以下笔记本提供了使用 C2S 模型进行常见工作流的指南。有关特定函数和模块的更多信息,请查看 C2S 官方文档页面

笔记本 描述
c2s_tutorial_0_data_preparation.ipynb 免疫组织数据集上的数据加载和预处理示例
c2s_tutorial_1_rank_transformation_and_reconstruction.ipynb C2S 排序转换为细胞句子及逆转换
c2s_tutorial_2_cell_embedding.ipynb 使用 C2S 模型获取细胞类型嵌入
c2s_tutorial_3_finetuning_on_new_datasets.ipynb 在新数据集上微调 C2S 模型
c2s_tutorial_4_cell_type_prediction.ipynb 使用 C2S 模型进行细胞类型预测
c2s_tutorial_5_cell_generation.ipynb 基于细胞类型条件生成细胞
c2s_tutorial_6_cell_annotation_with_foundation_model.ipynb 使用基础模型进行细胞类型注释

模型库

以下是公开发布的 C2S 预训练模型集合。每个模型均可通过 Hugging Face 获取,并具有不同的功能和预训练配方。每个模型的详细信息均在其对应的 Hugging Face 卡片中提供,而针对不同 C2S 工作流的教程笔记本则会说明各自使用的模型。

模型名称 任务 训练数据
C2S-Pythia-410M 细胞类型预测模型 下一代基因预测、细胞类型预测 CellxGene、HCA、细胞类型注释
C2S-Pythia-410M 基于细胞类型条件的单细胞生成模型 下一代基因预测、基于细胞类型条件的单细胞生成 CellxGene、HCA、细胞类型注释
C2S-Pythia-410M 多样化单细胞与多细胞任务模型 下一代基因预测、多样化单细胞与多细胞预测和生成任务 CellxGene、HCA、细胞类型与组织注释、论文摘要
C2S-Pythia-160M 全功能细胞生成(旧版) 下一代基因预测、细胞类型预测 免疫组织(Domínguez Conde 等人)、细胞类型注释
GPT-2 Large 基础模型(旧版) 下一代基因预测、细胞类型预测、条件式单细胞生成 CellxGene、HCA、细胞类型与组织注释、论文摘要

功能开发

  • 添加用于细胞句子转换和数据操作的核心功能
  • 添加 CSModel 包装器及微调功能
  • 添加提示格式化功能,支持多任务
  • 添加将表达向量逆向重建的功能
  • 添加主要 C2S 工作流的教程笔记本:细胞类型预测、细胞生成
  • 添加多细胞提示格式化功能
  • 添加对旧版 C2S-GPT-2 模型提示的支持
  • 添加参数高效的微调方法(LoRA)

许可证

根据 Apache License 2.0 许可。

引用 Cell2Sentence

如果您在工作中使用了 Cell2Sentence,请引用我们的论文:

@article{rizvi2025scaling,
  title={Scaling large language models for next-generation single-cell analysis},
  author={Rizvi, Syed Asad and Levine, Daniel and Patel, Aakash and Zhang, Shiyang and Wang, Eric and Perry, Curtis Jamison and Constante, Nicole Mayerli and He, Sizhuang and Zhang, David and Tang, Cerise and others},
  journal={BioRxiv},
  pages={2025--04},
  year={2025},
  publisher={Cold Spring Harbor Laboratory}
}

版本历史

tag-test2024/09/03

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

141.5k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|今天
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|昨天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75k|★★★☆☆|今天
语言模型图像开发框架