deeplearning-biology

GitHub
2.1k 491 较难 1 次阅读 3天前其他
AI 解读 由 AI 自动生成,仅供参考

deeplearning-biology 是一个专注于生物学领域的深度学习实现资源清单。它系统性地整理了将深度学习方法应用于生物科学的各类开源项目与代码库,尤其侧重于基因组学方向。

在生物数据日益复杂且海量的背景下,研究人员往往难以快速找到适配特定任务的成熟算法模型。deeplearning-biology 有效解决了这一痛点,它将分散的资源按应用场景分类,涵盖序列建模、多组学整合、蛋白质结构预测与功能设计、药物发现、单细胞分析以及群体遗传学等前沿领域。除了具体的代码实现,该清单还精选了高质量的综述论文,帮助读者理解卷积网络、图神经网络及生成模型等在生物场景中的理论基础与应用前景。

这份资源非常适合生物信息学研究人员、计算生物学家以及从事医疗 AI 开发的工程师使用。无论是希望利用现有模型加速科研进程,还是寻找灵感以开发新的算法架构,用户都能从中获得极具价值的指引。作为连接人工智能技术与生命科学研究的桥梁,deeplearning-biology 以开放的社区协作模式持续更新,是探索"AI+ 生物”交叉领域不可或缺的实用指南。

使用场景

某生物信息学团队正致力于利用深度学习预测新型抗癌药物的靶点蛋白功能,急需寻找合适的算法模型进行验证。

没有 deeplearning-biology 时

  • 检索效率低下:研究人员需在 GitHub、arXiv 和各类期刊网站间反复切换搜索,耗费数周时间才能拼凑出零散的代码资源。
  • 领域匹配困难:通用的深度学习模型库缺乏生物学特异性,难以区分哪些算法适用于基因组变异检测,哪些适合蛋白质结构预测。
  • 技术选型盲目:缺乏权威的综述指引,团队无法快速了解卷积网络、图神经网络等在特定生物任务中的最新进展与优劣对比。
  • 重复造轮子:因找不到现成的多组学整合或药物相互作用预测实现,不得不从头编写基础代码,严重拖慢研发进度。

使用 deeplearning-biology 后

  • 资源一站获取:直接通过分类目录(如“蛋白质功能预测”或“药物发现”)定位到经过筛选的高质量开源实现,将调研周期从数周缩短至几天。
  • 场景精准对接:借助清晰的子领域划分,迅速锁定针对非编码 RNA 或单细胞应用的具体模型,确保技术方案与生物问题高度契合。
  • 前沿视野开阔:通过内置的综述文献链接,团队快速掌握了可解释性模型和迁移学习在医疗领域的最新应用范式,优化了架构设计。
  • 开发加速落地:直接复用列表中成熟的变体调用或增强子预测代码库,让团队能专注于核心业务逻辑调试而非底层实现。

deeplearning-biology 通过构建垂直领域的算法地图,消除了生物学家与深度学习技术之间的鸿沟,显著提升了科研转化的效率。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库并非单一的可执行软件工具,而是一个深度学习在生物学领域应用的项目、论文和代码库的汇总列表(Awesome List)。README 中列出的各个子项目(如 Kipoi, DragoNN, UniRep 等)拥有各自独立的运行环境和依赖要求。部分提及的工具(如 pysster)基于 TensorFlow 且支持 GPU,但整个列表没有统一的操作系统、Python 版本或硬件需求说明。用户需根据具体感兴趣的子项目查阅其对应的 GitHub 仓库以获取详细安装指南。
python未说明
deeplearning-biology hero image

快速开始

深度学习-生物学

这是一个将深度学习方法应用于生物学领域的实现列表,最初发表在 Follow the Data 上。该列表偏向于基因组学,因为这是我最密切关注的子领域。

欢迎大家为这个不断增长的列表贡献力量,尤其是在我尚未充分覆盖的类别中!

你也可以参考 awesome deepbio 列表。

目录

评论

这些并非具体的实现方案,但提供了很有价值的参考。由于该领域的综述论文时效性较强,我特别标注了期刊发表的月份。需要注意的是,在某些情况下,原始预印本可能早已在线发布,远早于正式出版版本。

(2021-11) 多药联合用药副作用、联合协同效应及药物相互作用预测的关联深度学习统一视角 [开放获取论文]

近年来,针对多药联合用药副作用识别、药物相互作用预测以及联合治疗方案设计等任务,涌现出了大量机器学习模型。本文提出了一种能够解决这些任务的关联机器学习模型的统一理论框架。我们给出了基本定义,比较了现有模型架构,并讨论了性能指标、数据集和评估协议。此外,我们还强调了该领域中可能产生重大影响的应用场景以及未来重要的研究方向。

(2019-12) 药物基因组学资源的深度学习:迈向精准肿瘤学 [Briefings in Bioinformatics]

(2019-04) 阿尔法狗来了:基因组学的新计算建模技术 [Nature Reviews Genetics 论文]

这是一篇非常优秀的概念性综述,阐述了深度学习在基因组学中的应用方式。文中详细解释了卷积网络、循环网络、图卷积网络、自编码器和生成对抗网络的工作原理,并介绍了多模态学习、迁移学习以及模型可解释性等重要概念。

(2019-01) 医疗健康领域的深度学习指南 [Nature Medicine 论文]

摘要指出:“在此,我们介绍用于医疗健康的深度学习技术,重点围绕计算机视觉、自然语言处理、强化学习以及通用方法展开讨论。我们描述了这些计算技术如何影响医学的几个关键领域,并探讨了端到端系统的构建方法。其中,计算机视觉部分主要聚焦于医学影像;自然语言处理则应用于电子健康记录数据等领域。同样地,强化学习被置于机器人辅助手术的背景下进行讨论,而面向基因组学的通用深度学习方法也得到了回顾。”

(2018-11) 基因组学深度学习入门 [Nature Genetics 论文][Colaboratory 教程笔记本]

这篇由本人参与撰写的综述被称为“入门”,旨在帮助基因组学研究人员快速上手深度学习。为此,我们着重讨论了许多实际问题,如工具选择(不仅包括深度学习框架,还有 GPU 云平台、模型库和在线课程)、如何明确深度学习问题、模型可解释性以及故障排除等。此外,我们还在 Colaboratory 上提供了一个教程,演示如何搭建并运行一个用于学习结合基序的简单卷积网络模型,以及在模型训练完成后如何检查其预测结果。

(2018-10) 生物医学中的深度学习 [Nature Biotechnology 论文]

摘要写道:“凭借整合海量数据、学习任意复杂关系以及融合已有知识的能力,深度学习正逐渐对生物学研究和生物医学应用产生深远影响。目前,深度学习模型已能在不同程度上成功预测遗传变异如何改变参与疾病发生发展的细胞过程、哪些小分子能够调节治疗相关蛋白的活性,以及放射影像是否提示疾病存在。然而,深度学习的高度灵活性也为部署系统的性能保障以及与利益相关方、临床医生和监管机构建立信任带来了新的挑战——后者需要决策背后的合理依据。我们认为,正是这种灵活性本身将有助于克服这些挑战;例如,通过训练深度模型使其能够输出预测结果的理由。要充分发挥深度学习在生物医学领域的潜力,仍需开展大量相关研究。”

(2018-04) 生物学与医学中深度学习的机遇与挑战 [bioRxiv 预印本][J Roy Soc interface 论文]

这篇令人印象深刻的协作式综述完全在 Github 上公开撰写完成。它重点探讨了深度学习在未来如何变革患者分类与治疗,以及基础生物学研究,并分析了可能阻碍这一进程的主要障碍。文中提出了许多引人深思的观点。结合下文列出的更具技术性的综述,读者可以全面了解深度学习在生物学和医学领域的应用现状及潜在前景。

(2017-01) 健康信息学中的深度学习 [开放获取论文]

概述了几种类型的深度神经网络及其在转化生物信息学、医学影像、“普适感知”、医疗数据和公共卫生等领域的应用。

(2016-07) 计算生物学中的深度学习 [开放获取论文]

这是一篇关于深度学习在生物学中应用的优秀综述。文章主要讨论卷积网络,并深入阐释了为何以及如何将其用于序列(和图像)分类。

模型仓库与资源

Kipoi 仓库加速了基因组学预测模型的社区交流与复用 [Github][网站][论文]

Kipoi 是一个面向基因组学的模型库,可通过简单的 pip install 安装,并为数百个基因组学预测模型提供一致的接口。Kipoi 实现了一套标准的数据加载器,用于深度学习中序列模型的训练和预测。

DragoNN [Github][网站]

DragoNN 提供了一个工具包,用于利用神经网络对调控序列进行建模研究。它包含解释序列模型的工具以及基于 Jupyter Notebook 的在线教程,可用于教学交互式模型操作与可视化。

序列建模

这是一系列主要受自然语言处理启发的模型,用于建模生物序列,如蛋白质或基因。随着生物学中的语言模型逐渐主流化,这些模型或许应被移至其他章节。

用于深度基因组学和深度蛋白质组学的生物序列连续分布式表示[github][论文]

GitHub 项目简介写道:“我们提出了一种新的生物序列表示方法。统称为 bio-vectors(BioVec),其中 protein-vectors(ProtVec)用于蛋白质(氨基酸序列),gene-vectors(GeneVec)则用于基因序列。这种表示方法可广泛应用于蛋白质组学和基因组学领域的深度学习任务。Biovectors 基本上是针对生物序列(DNA、RNA 和蛋白质)的 n-gram 字符跳字词向量。在本工作中,我们探讨了这一表示空间的生物物理和生化意义,并在多种生物信息学任务中展示了这种序列表示的强大之处。”

pysster:使用卷积神经网络从 DNA 和 RNA 序列中学习序列和结构基序[github][预印本]

这是一个基于 TensorFlow 的库,用于通过卷积神经网络从 DNA/RNA 序列数据中学习基序。该工具箱据称开箱即用即可在 GPU 上运行,并且还支持超参数优化以及可视化不同网络层所学习的内容。

基于序列的深度表示学习实现统一理性蛋白质工程 [github][论文]

作者提出了 UniRep,一种早期的基于 mLSTM(乘法 LSTM)的蛋白质序列语言模型。该模型在 UniRef50 数据集上的 2400 万条蛋白质序列上进行训练,可以将蛋白质序列转换为包含蛋白质属性信息的数值向量表示。例如,这些表示可用于训练下游的蛋白质稳定性与功能预测器。此外,UniRep 还可用作“闲聊者”或生成模型来设计新蛋白质。

自然语言预测病毒逃逸机制 [github][论文]

这篇论文尝试使用基于 BiLSTM 的网络构建氨基酸语言模型,以模拟病毒如何逃避免疫系统的检测(即“病毒逃逸”)。作者认为,能够逃避免疫系统识别的序列应当具有较高的“存活能力”,这类似于句子的语法正确性;同时,它们还应具备不同的“语义”,即从抗原性的角度来看要有所不同。语法正确性作为一项预测任务在最后一层学习得到,而语义则从倒数第二层的表示中提取出来。

Genomic-ULMFiT:适用于基因组序列数据的 ULMFiT 模型 [github]

该仓库是 FastAI 的 ULMFiT 语言迁移学习模型在基因组学领域的实现。ULMFiT 基于 AWD-LSTM 模型,已被证明在解决各类文本分类任务时非常有效。在此,仓库作者扩展了 FastAI 的类,增加了专门用于 DNA 序列数据的子类。ULMFiT 的核心思想是:(1) 通过无监督方式从大量文本中学习语言模型——即无需标签,让模型预测下一个词(或标记);(2) 将步骤 (1) 中学到的语言模型进一步微调到较小的标注数据集上,用于具体的分类任务,但在此步骤中仍采用无标签的方式进行训练,并尝试预测下一个词;(3) 最后在最终的分类任务上使用标签进行微调。在基因组学领域,步骤 (1) 中的大量文本可以是整个人类基因组,或其他来自 GenBank 或 Sequence Read Archive 等数据库的部分数据。作者表明,这种方法在一系列分类问题上表现良好,例如大肠杆菌与人类启动子分类、宏基因组分类、增强子分类以及 mRNA/lincRNA 分类。

通过将无监督学习扩展到 2.5 亿条蛋白质序列,揭示生物结构与功能 [github][预印本]

在 Facebook(现 Meta)人工智能团队的这项工作中,他们使用 BERT 语言模型,在 2.5 亿条序列共 860 亿个氨基酸的基础上训练了一个名为 ESM-1 的语言模型。与上述 ULMFiT 类似,其核心思想也是利用迁移学习:先在海量数据上进行预训练,使模型掌握 DNA 或蛋白质语言的基本逻辑,从而为进一步针对特定任务的微调奠定基础。

ProGen2:探索蛋白质语言模型的边界 [github][预印本]

令人惊讶的是,Salesforce 也长期参与蛋白质语言模型的研究。在这篇预印本中,他们介绍了一系列可用于序列适应度预测和序列生成等任务的蛋白质语言模型。

MSA Transformer [github][预印本]

在这里,来自Meta的同一团队——他们之前推出了ESM-1模型(见上文)——展示了另一种类型的Transformer,它以多序列比对(MSA)作为输入,而非蛋白质序列,在参数量更少的情况下,仍能取得比BERT风格的Transformer更好的效果。他们引入了不同形式的行注意力和列注意力机制,以尽可能从MSA中提取更多信息。该模型的GitHub仓库中包含一个已训练好的版本,即ESM-MSA-1b。

ProtTrans:通过自监督深度学习与高性能计算破解生命密码的语言 [github][huggingface][预印本]

这是一项大规模的工作,旨在对蛋白质序列训练并评估Transformer模型,该项目甚至将其多个模型公开发布在HuggingFace模型库上。摘要开头写道:“计算生物学和生物信息学从蛋白质序列中挖掘出海量数据宝藏,这些数据非常适合借鉴自然语言处理(NLP)中的语言模型(LM)。借助这些语言模型,我们能够在较低的推理成本下突破新的预测边界。在此,我们基于UniRef和BFD的数据训练了两个自回归语言模型(Transformer-XL、XLNet)以及两个自编码器模型(Bert、Albert),所用数据包含多达3930亿个氨基酸(相当于“词”),来自21亿条蛋白质序列(分别是整个英文维基百科的22倍和112倍)。这些语言模型是在橡树岭国家实验室(ORNL)的Summit超级计算机上训练的,使用了936个节点(共计5616块GPU)以及一台TPU Pod(V3-512或V3-1024)。"

通过整合长程相互作用实现高效的基因表达序列预测 [github][tensorflow hub][论文]

Transformer架构能否帮助解决将基因组增强子与基因表达联系起来这一难题?实验上将远端增强子与基因关联起来非常耗时,而大量长程相互作用的存在使得仅靠相关性分析(多重检验问题)、卷积神经网络(感受野过短)或循环神经网络(难以维持足够长的记忆)从数据中学习这些关系变得十分困难。如今,DeepMind、Calico和Google的研究人员提出了“增强子Transformer”,即Enformer,它能够利用自注意力机制学习比以往更长距离的增强子—基因表达相互作用。值得称赞的是,作者不仅在GitHub上公开了代码,还在TensorFlow Hub上提供了一个预训练模型。

DNABERT [github][论文]

一种类似BERT的掩码语言模型,以k-mer作为token,在人类DNA序列上进行训练。

GenSLMs:基因组规模的语言模型揭示SARS-CoV-2的进化动态 [github][论文]

与早期的Enformer类似,这也是一个针对核苷酸(DNA或RNA)的Transformer模型,但其设计和目标有所不同。Enformer是为哺乳动物基因组(人类和小鼠)预训练的模型,而GenSLM则旨在作为更简单基因组的基础模型,例如细菌和病毒。它基于1.1亿个原核生物(细菌和古菌)基因组,采用GPT风格的“预测下一个token”损失函数进行预训练。这里的token是密码子(三个核苷酸组成的三联体),因此训练后的模型可以像GPT-3那样以密码子作为提示进行生成。该基础模型还可以进一步针对特定基因组子集进行微调(“进化微调”),例如本文中针对150万个SARS-CoV-2基因组进行微调,从而得到一个专门用于SARS-CoV-2的语言模型,该模型蕴含着关于病毒进化轨迹的隐含知识,并可用于识别值得关注的变异株。此外,本文还有一个有趣的创新点:Enformer曾尝试用卷积结合自注意力来解决长程相互作用问题,而这里则采用了扩散模型(类似于Stable Diffusion)来建模这些相互作用。

核苷酸Transformer:构建并评估稳健的人类基因组学基础模型 [github][预印本] 这是由Instadeep公司完成的工作,该公司是一家机器学习咨询公司,于2023年1月被开发辉瑞mRNA新冠疫苗的BioNTech收购。作者试图基于比以往更广泛的基因组数据构建核苷酸(即DNA和RNA)序列的基础模型,具体包括超过3000个人类基因组以及来自不同生物体的850个非人类基因组。这些模型旨在用于迁移学习,并声称即使在数据稀缺的情况下也能很好地应用于下游预测任务。具体而言,这些模型是类似BERT的结构,以核苷酸6-mers作为token。

GENA-LM [github] 这是一个在人类DNA序列上训练的掩码语言模型(类似于上述DNABERT或核苷酸Transformer)。 根据GitHub页面介绍,与DNABERT的一个区别在于,GENA-LM采用BPE分词法而非k-mer,因此能够处理约3000个核苷酸的输入序列(512个BPE token),而DNABERT的上限仅为510个核苷酸。

多组学整合

深度学习在精准医学中用于基因组、蛋白质组和代谢组数据整合的兴起。 [论文]

一篇关于深度学习在多组学数据整合中潜力的综述论文。

蛋白质生物学

本类别细分为若干子类别。

结构预测

利用 AlphaFold 实现高精度蛋白质结构预测 [github][论文]

这款模型想必无需多言。DeepMind 于 2018 年发布了其蛋白质折叠方法 AlphaFold 的首个版本,并在当时赢得了享有盛誉的 CASP 竞赛冠军。而经过全新设计的版本(有时被称为 AlphaFold2)则在 2020 年以压倒性优势再次夺得该项赛事桂冠。新版本引入了一种名为“Evoformer”的组件,它是一种基于 Transformer 架构的模块,能够迭代处理一组对齐的蛋白质序列以及氨基酸间两两相互作用矩阵,从而生成可用于折叠模块的表征;该折叠模块采用了一种称为“不变逐点注意力”的特殊注意力机制。自最初的 AlphaFold 论文发表以来,已有大量研究通过不同方式对模型进行改进,以解决新的任务。

OpenFold [github]

这是一款基于 PyTorch 的开源 AlphaFold 重实现,几乎复现了原版的所有功能。在 AlphaFold 公开其模型权重之前,OpenFold 曾是训练自有折叠模型的一种途径。

MiniFold:DeepMind AlphaFold 的重新实现 [github]

近年来,深度学习在生物学领域最引人注目的成就之一便是 DeepMind 的 AlphaFold 模型在 CASP13 蛋白质结构预测挑战赛中夺冠。最初该模型并未被列入本页,因为尚无公开的实现版本,但如今这一情况已得到改变。无论如何,MiniFold 是一次尝试以更为精简的方式重新实现 AlphaFold 的工作。

基于语言模型的进化尺度原子级蛋白质结构预测 [github][预印本]

本文介绍了 Meta 研究团队开发的 ESM-1、ESM-MSA 等模型,并指出大型语言模型同样可以用于蛋白质结构预测。当模型具备足够多的参数和充足的训练数据时,它会开始隐式地学习关于三维构象的信息。作者声称,这种仅依赖语言模型的方法(即不使用多序列比对或主链输入)相较于其他方法(如 AlphaFold)速度可提升多达 60 倍。他们利用该模型为 6 亿个宏基因组样本(环境 DNA)进行了结构预测。

基于深度生成对抗网络的蛋白质环区建模[论文][网站]

摘录自摘要:“生物学与医学长期以来一直关注蛋白质的计算结构预测与建模。蛋白质结构中常常存在缺失区域或需要重新建模的区域。预测蛋白质结构中特定缺失区域的过程被称为环区建模。在本文中,我们提出了一种基于深度学习的生成对抗网络(GAN),并借鉴图像修复的思想来实现环区建模。生成网络负责捕捉环区的上下文信息并预测缺失部分;而判别网络则使预测结果更加逼真,并为生成网络提供梯度信号。所提出的网络在环区建模的常用基准测试集上进行了评估。实验结果表明,我们的方法能够成功预测环区,并且性能优于当前最先进的工具。据我们所知,这项工作首次将 GAN 应用于生物信息学研究。”

Pcons2 – 利用蛋白质类似接触模式识别改进接触预测 [网页界面]

在此,研究人员采用一种包含五层的“深度随机森林”模型,以提高对蛋白质中哪些残基(氨基酸)之间存在物理相互作用的预测准确性。这对于预测蛋白质的整体结构(一个极其困难的问题)非常有帮助。

蛋白质设计

基于数据高效深度学习的低N蛋白工程 [预印本]

作者基于UniRep模型(本文其他部分有介绍),提出了一种机器学习范式或工作流程,用于训练能够预测蛋白质性质并根据极少量标注样本(少至20–30个)设计新型序列变体的模型。在该范式中,首先在一个包含大量多样化蛋白质序列的大数据集上以无监督方式训练基础模型(如原始UniRep论文所述),随后使用相同的损失函数,在与目标蛋白质进化相关的更狭窄的蛋白质家族上进一步微调该模型。这一过程被称为“evotuning”或进化微调。经过这一步骤后,作者表明,仅需少量标注样本,利用由evotuned模型生成的表示进行有监督学习通常就能取得良好效果。有了有监督模型之后,便可通过计算机辅助定向进化来设计出具有所需特性的目标蛋白质新变体。

ProteinGAN:利用生成对抗网络扩展功能性蛋白质序列空间 [代码][预印本]

摘要中写道:“为催化任何期望的化学反应而从头设计蛋白质,一直是蛋白质工程领域的一个长期目标,因为它具有广泛的技术、科学和医学应用前景。然而,目前无论是从计算还是实验的角度来看,将蛋白质序列映射到其功能仍然难以实现。在此,我们开发了ProteinGAN,这是一种专门的生成对抗网络变体,能够‘学习’天然蛋白质序列的多样性,并生成具有功能的蛋白质序列。ProteinGAN直接从复杂的多维氨基酸序列空间中学习蛋白质序列之间的进化关系,创造出具有天然类似物理性质的高多样性新序列变体。以苹果酸脱氢酶为模板酶,我们证明,在经过实验测试的ProteinGAN生成序列中,24%具有可溶性,并且在所测试的体外条件下表现出野生型水平的催化活性,即使是在高度突变(超过100处突变)的序列中亦是如此。因此,ProteinGAN展示了人工智能在允许的序列空间生物约束范围内快速生成高度多样化的新型功能性蛋白质的潜力。”

基于ProteinMPNN的鲁棒深度学习蛋白质序列设计 [代码][预印本]

这项工作提出了一种设计蛋白质序列的方法,该序列被预测能够折叠成指定构象,即与AlphaFold的方向相反:从结构到序列。其实现方式是使用一种图神经网络——消息传递神经网络(MPNN)。生成序列的多样性可以调节,作者同时采用AlphaFold预测结果和实验验证两种方式对该方法的性能进行了测试。

从数百万个预测结构中学习逆向折叠 [代码][预印本]

与ProteinMPNN类似,这是一种逆向折叠方法,旨在从蛋白质骨架原子坐标(即结构)推导出序列。尽管ProteinMPNN是基于实验测定的结构进行训练的,但这种方法称为ESM-IF,其训练材料则是由AlphaFold预测的1200万个结构。

功能预测

基于PDB结构的肿瘤抑制基因和癌基因深度学习预测模型 [GitHub][bioRxiv预印本]

作者利用卷积神经网络处理从蛋白质数据库(PDB)中的蛋白质三维结构中提取的特征图,以预测癌基因和肿瘤抑制基因。

Deep-RBPPred:基于深度学习的蛋白质组规模RNA结合蛋白预测 [代码][bioRxiv预印本]

利用卷积神经网络预测RNA结合蛋白。

EVOVAE:蛋白质序列的变分自编码[代码][arXiv预印本]

摘要中写道:“我们提出了一种基于变分自编码器的天然蛋白质序列嵌入方法,并利用它来预测突变对蛋白质功能的影响。通过这种无监督方法,我们可以对天然变异体进行聚类,并学习蛋白质内部各位置之间的相互作用。该方法的整体表现优于不考虑序列内相互作用的基线方法,在某些情况下甚至优于采用反Potts模型的最先进方法。这种生成模型可用于计算引导蛋白质序列空间的探索,并更好地支持理性及自动化的蛋白质设计。”

基于图卷积网络的结构功能预测 [预印本]

摘要中写道:“我们提出了一种基于序列和结构数据训练的深度学习图卷积网络(GCN),并在蛋白质数据库(PDB)中约4万个具有已知结构和功能的蛋白质上对其进行了评估。我们的GCN在功能预测方面的准确性高于仅基于序列数据训练的卷积神经网络及其他竞争方法。通过语言模型进行特征提取,无需构建多重序列比对或进行特征工程。我们的模型能够稳健地预测与训练集序列相似度不超过30%的蛋白质的功能,从而学习到普遍适用的结构—功能关系。借助类别激活映射技术,我们可以自动识别出每个被自信预测的功能所对应的残基水平结构区域,从而推进位点特异性功能预测。”

基因组学

该类别可分为若干子领域。

变异检测

DeepVariant [github][预印本]

这篇来自谷歌的预印本最初发表于2016年末,但在大约一年后代码公开并陆续有新闻稿发布时才引起广泛关注。谷歌的研究人员采用了一种反直觉但巧妙的方法来解决一个已被广泛研究的问题——从DNA测序数据中进行变异检测(即在个体的DNA中准确识别与参考基因组相比的差异,例如突变或多态性)。他们没有直接使用测序DNA片段中的核苷酸序列(以A、C、G、T四种符号表示),而是先将这些序列转换为图像,再对这些图像(代表“pile-up”或DNA序列堆叠)应用卷积神经网络。事实证明,这种方法在变异检测方面非常有效,这一点不仅得到了谷歌内部基准测试的支持,也得到了独立机构的验证。

语言模型实现零样本预测突变对蛋白质功能的影响 [github][预印本]

这项工作基于Meta公司的蛋白质语言模型(ESM-1等;见上文),表明这些模型可用于“零样本”预测变异对蛋白质功能的影响——也就是说,无需额外的实验数据或模型训练。只需直接使用蛋白质语言模型即可推断变异效应。

基因表达

在建模基因表达时,输入通常是数值型数据(整数或浮点数),用于估计在特定细胞类型或条件下,由DNA模板转录产生的RNA量。

scPRINT:基于5000万细胞的预训练实现稳健的基因调控网络预测 [github] [bioRxiv] 一种大型细胞模型,可在转录组水平上预测基因间相互作用等信息。它利用新颖的RNA-seq数据编码与解码方法,从数千万个单细胞RNA-seq谱中学习调控机制。

基于基因互作图的基因表达卷积模型 [github] [arXiv] 文中讨论了如何利用基因间互作图(如同一条通路、蛋白质-蛋白质相互作用、共表达关系或科研文献中的关联)为深度神经网络模型引入类似卷积操作对图像施加的空间偏置。研究发现,在数据稀缺的情况下,这种方法对特定任务具有优势,但其效果高度依赖所用图的质量。

ADAGE——基于去噪自编码器的基因表达数据分析 [github]

这是一个使用Theano实现的堆叠式去噪自编码器工具,用于从大规模基因表达数据集中提取相关模式,可视为一种特征构建方法。我个人曾多次尝试使用该工具包。作者最初发表了一篇会议论文(http://www.worldscientific.com/doi/abs/10.1142/9789814644730_0014),将该模型应用于乳腺癌(微阵列)基因表达数据集;近期又在bioRxiv上发表了一篇论文(http://biorxiv.org/content/early/2015/11/05/030650),将其应用于病原菌铜绿假单胞菌的所有可用表达数据(微阵列和RNA-seq)。据悉,该文即将被期刊正式发表。

利用Ladder网络进行基因表达分类 [论文]

本文将半监督深度学习方法Ladder网络应用于二分类癌症问题。模型性能在TCGA数据集上与其他深度学习及传统机器学习方法进行了对比评估。

利用深度架构学习基因表达数据中的结构 [论文]

同样探讨了使用堆叠式去噪自编码器处理基因表达数据,但据我所知目前尚无可用的实现。此处列出仅供参考。

基于深度学习的基因表达推断 [github][论文]

该研究聚焦于一项特定的预测任务,即根据约1000个预先选定的“标志基因”面板,预测指定目标基因的表达水平。作者指出,基因表达水平往往高度相关,在某些情况下,使用此类基因面板并通过计算推断其他基因的表达是一种经济高效的做法。基于Pylearn2/Theano框架。

利用自编码器模型学习酵母转录组系统的层次化表征 [论文]

作者使用堆叠式自编码器从数千份酵母微阵列数据中学习生物学特征,并分析隐藏层的表征,结果表明这些表征以层次化方式编码了生物学信息,例如转录因子会在第一层隐藏层中得到体现。

结合系统级生物学信息提升基因表达聚类:鲁棒自编码器方法 [bioRxiv预印本]

采用鲁棒自编码器(带有异常值过滤功能的自编码器)对基因表达谱进行聚类分析。

基于深度学习的从头预测变异对表达及疾病风险的影响 [github][论文]

作者采用两步模型预测遗传变异对基因表达的影响。第一步,他们训练了一个卷积神经网络,用于建模ENCODE和ROADMAP联盟收集的2002种表观遗传标记;第二步,基于第一步卷积神经网络模型所编码的基因顺式调控区域,进一步训练了一个组织特异性正则化线性模型。随后,通过计算机模拟诱变计算变异对组织特异性基因表达的影响及其变化幅度。

影像与基因表达

数字病理学中的转录组学习 [预印本]

摘自摘要:“我们提出了一种基于多模态数据融合的创新方法,并证明我们的深度学习模型HE2RNA仅通过全切片图像即可系统性地预测RNA测序谱,而无需专家标注。HE2RNA在设计上具有可解释性,从而为虚拟染色开辟了新的机遇。事实上,它能够实现基因表达的虚拟空间化,这一点已在独立数据集上的双重染色实验中得到验证。此外,HE2RNA所学习到的转录组表示可以被迁移,以提升其他任务的预测性能,尤其是在小规模数据集上。”

预测增强子和调控区域

在此类研究中,输入通常是“原始”DNA序列,卷积网络(或卷积层)常被用来学习序列中的规律性特征。感谢Melissa Gymrek指出其中一些工作。

DanQ:一种混合卷积与循环神经网络的深度神经网络,用于量化DNA序列的功能 [github]

该模型用于预测非编码DNA序列的功能。它使用卷积层来捕捉调控基序(即控制基因表达的单个DNA片段等),并利用LSTM类型的循环层尝试发现这些单个基序如何协同工作的“语法”。基于Keras/Theano框架。

Basset – 利用深度卷积神经网络学习可及基因组的调控代码 [github]

该软件基于Torch框架,专注于预测染色质的可及性(或“开放性”)——即遗传信息(DNA及其相关蛋白质)的物理包装状态。不同细胞类型中,染色质可能处于更为紧密或松弛的状态,而这在一定程度上受DNA序列的影响(但并非完全由其决定,否则所有细胞的染色质状态将无差异)。

Basenji – 利用卷积神经网络跨染色体进行序列调控活性预测 [github1][github2][biorxiv]

作为Basset的后续项目,这款基于TensorFlow的模型同时使用标准卷积和扩张卷积来建模多种细胞类型的调控信号及基因表达(以CAGE标签密度的形式)。值得注意的是,其底层模型已被纳入Google的Tensor2Tensor库(见上述“github2”链接),该库汇集了大量用于图像和语音识别、机器翻译、文本分类等领域的模型。然而,在撰写本文时,Tensor2Tensor中的模型似乎尚未成熟到易于使用,因此目前仍建议直接使用专门的Basenji仓库(“github1”)。

DeepSEA – 基于深度学习序列模型预测非编码变异的影响 [网页服务器][论文]

与上述工具类似,该软件也对染色质的可及性、特定蛋白质(转录因子)与DNA的结合情况,以及与可及性变化相关的所谓组蛋白标记进行了建模。与其他工具相比,DeepSEA更明确地聚焦于预测单核苷酸突变如何影响染色质结构。发表于高影响力期刊《Nature Methods》。

DeepBind – 利用深度学习预测DNA和RNA结合蛋白的序列特异性 [代码][论文]

该模型来自多伦多Brendan Frey团队,其作者还参与创立了Deep Genomics公司。DeepBind专注于根据ChIP-seq、ChIP-chip、RIP-seq、蛋白质结合微阵列以及HT-SELEX等实验数据,预测DNA结合蛋白或RNA结合蛋白的结合特异性。发表于高影响力期刊《Nature Biotechnology》。

DeeperBind - 提升DNA结合蛋白序列特异性预测能力 [预印本]

这是对DeepBind的改进尝试,通过在卷积层之后添加一个循环序列学习模块(LSTM),以捕捉原始DeepBind设计中池化步骤所丢失的位置维度。作者声称,基准测试表明,这种架构相较于先前的工作表现更优。

DeepMotif - 可视化基因组序列分类 [论文]

该研究同样致力于学习和预测蛋白质与特定DNA模式或“基序”的结合特异性。不过,这篇论文采用了卷积层与高速公路网络相结合的方式,层数比DeepBind网络更多。作者还展示了如何通过输入优化生成典型的DNA基序:在保持所有权重不变的情况下应用反向传播,以找到能够最大程度激活网络中相应输出节点的输入模式。

用于预测DNA-蛋白质结合的卷积神经网络架构 [代码][论文]

这项工作系统性地探讨了用于DNA-蛋白质结合任务的卷积神经网络(CNN)架构,并得出结论:卷积核对于这类基于基序的任务的成功至关重要。有趣的是,作者不仅提供了Frey实验室DeepBind的Docker化实现(见上文),还提供了EC2启动脚本以及用于比较不同基于Caffe框架、支持GPU加速的模型的代码。

PEDLA:基于深度学习算法框架预测增强子 [代码][论文]

该软件用于基于来自ENCODE计划等项目的异质数据,结合共1,114个特征预测增强子(即在特定条件下或特定细胞类型中能够增强基因表达的DNA片段,通常远离目标基因本身)。

DEEP:用于预测增强子的通用计算框架 [论文][代码]

一种用于增强子的集成预测方法。

利用监督式深度学习方法进行顺式调控区域的全基因组预测(以及多篇将各类深度网络应用于调控区域预测的其他论文)[代码](其中一篇[论文])

Wyeth Wasserman课题组开发了一套基于Theano教程的工具包[代码],用于将不同类型的深度学习架构应用于顺式调控元件(能够调节附近基因表达的DNA片段)的预测。他们在网络中使用了一个特殊的“特征选择层”,以限制模型中的特征数量。该层被实现为一个多层感知机输入层与第一隐藏层之间的一个额外的稀疏一对一线性层。

FIDDLE:用于功能基因组数据推断的整合式深度学习框架 [论文][代码][YouTube演讲]

该团队预测了转录起始位点和调控区域,但声称这一解决方案可以轻松推广到其他特征的预测。FIDDLE代表“深度学习驱动的数据灵活整合”。其核心思想(作者在上述YouTube视频中进行了清晰阐述)是利用卷积神经网络联合建模多种基因组信号,例如DNase-seq、ATAC-seq、ChIP-seq、TSS-seq,甚至可能是RNA-seq信号(如以.wig文件形式存储、每碱基对应一个值的基因组数据)。

从50万个随机序列中学习酵母5′非翻译区的调控语法的深度学习 [论文][代码]

这是一个CNN模型,旨在根据特定类型基因组区域——5' UTR(5′非翻译区)——的DNA序列预测蛋白质表达。该模型基于Keras构建,作者的一个亮点是使用hyperopt优化了模型参数,相关过程也在随论文附带的Jupyter笔记本中有所展示。根据我的实验结果,该模型的表现令人鼓舞且易于复现。

基于注意力机制的神经网络对增强子-启动子相互作用的建模 [bioRxiv预印本][代码]

近年来,(循环)神经网络中的注意力机制变得非常流行,尤其是在机器翻译模型中取得了显著成效。本文提出了一种基于注意力机制的模型,用于研究增强子序列与启动子序列之间的相互作用。

利用卷积核网络预测转录因子结合位点 [bioRxiv预印本][代码]

本文采用CNN(用于学习良好的表示)与核方法(用于学习有效的预测函数)相结合的方式,来预测转录因子结合位点。

利用RNA-seq、WGS和深度学习预测泛癌肿瘤基因组中的DNA可及性 [bioRxiv预印本]

与上文提到的Basset类似,本文展示了如何使用CNN从序列中预测DNA可及性,但进一步引入了来自不同细胞类型的RNA测序数据作为输入。通过这种方式,与细胞类型相关的隐含信息可以“传递”到DNA可及性的预测任务中。

基于碱基分辨率的深度学习揭示顺式调控密码的基元语法 [bioRxiv预印本]

这里使用了一个带有扩张卷积的CNN来学习不同转录因子结合基元之间的协同作用。这正是标题中提到的“基元语法”。该神经网络被训练用来预测来自碱基分辨率ChIP实验(ChIP-nexus)的信号,随后利用训练好的网络推导出基元协同作用的规则。

类BERT的DNA语言模型是强大的零样本全基因组变异效应预测器 [GitHub][预印本]

一种类似于BERT的DNA语言模型,辅以扩张卷积处理原始的独热编码输入,同时保持序列长度固定,被训练于多个不同的植物基因组,并被证明能够预测拟南芥中的变异效应。作者声称,这种名为基因组预训练网络(GPN)的模型,在性能上超越了基于phyloP和phastCons等常用保守性评分的预测方法。

非编码RNA

DeepLNC:基于深度神经网络的长链非编码RNA预测工具 [论文] [网页服务器]

基于k-mer谱图,从DNA序列中识别潜在的长链非编码RNA分子。

深度循环神经网络发现复杂生物规则以解析RNA的蛋白质编码潜力 [GitHub][论文]

摘自摘要:尽管传统的基于特征的RNA分类方法受限于当前的科学认知,但深度学习方法能够从数据中自主地、从头开始发现复杂的生物规则。我们用人类信使RNA(mRNA)和长链非编码RNA(lncRNA)序列训练了一个门控循环神经网络(RNN)。我们的模型mRNA RNN(mRNN)在预测蛋白质编码潜力方面超越了现有最先进的方法。

甲基化

DeepCpG - 预测单细胞中的DNA甲基化 [论文] [代码] [文档]

DeepCpG是一种用于预测多个细胞中DNA甲基化的深度神经网络。该模型采用模块化架构,包括一个循环CpG模块,用于捕捉细胞内及细胞间CpG位点之间的相关性;一个卷积DNA模块,用于从较宽的DNA序列窗口中提取模式特征;以及一个联合模块,整合来自CpG模块和DNA模块的信息,从而预测目标CpG位点在多个细胞中的甲基化状态。DeepCpG能够提供准确的预测结果,帮助发现与DNA甲基化状态及细胞间差异相关的DNA序列基序,并可用于分析单核苷酸突变对DNA甲基化的影响。DeepCpG基于Python实现,且已公开发布。

利用基因组拓扑特征和深度网络预测CpG二核苷酸的DNA甲基化状态 [论文][网页服务器]

该方法使用了一个堆叠自编码器,并在其顶部添加了一个监督层,以预测被称为“CpG岛”的特定基因组区域是否发生甲基化(DNA的一种化学修饰,可改变其功能;例如,基因附近的甲基化通常但不总是与该基因的下调或沉默相关)。本文采用的网络结构中,自编码器部分的隐藏层节点数远多于输入层,因此如果能进一步了解作者对这些隐藏层所代表意义的思考,将更有助于理解模型的工作原理。

单细胞应用

DeepCpG - 预测单细胞DNA甲基化 [论文] [代码] [文档]

参见上文。

CellCnn – 用于检测疾病相关细胞亚群的表征学习 [代码][论文]

这是一种基于卷积网络(Lasagne/Theano)的方法,用于“表征学习以检测与表型相关的细胞亚群”。它之所以有趣,是因为大多数针对高维分子测量数据的神经网络方法(如上述基因表达类别中的方法)都使用自编码器而非卷积网络。

DeepCyTOF:通过深度学习和领域自适应实现质谱流式细胞术数据的自动化细胞分类[论文]

描述了使用自编码器方法(堆叠自编码器和多自编码器)对质谱流式细胞术(CyTOF)数据进行门控分析(将细胞分配到离散群体中)。

利用神经网络改进单细胞RNA测序数据分析[预印本]

测试了多种神经网络架构,以获得单细胞基因表达数据的降维表示。同时引入了一个包含数万个单细胞图谱的数据库,用户可以通过查询该数据库,基于降维表示推断细胞类型或状态。

利用分布匹配残差网络去除批次效应[代码][论文]

基因组学、蛋白质组学等领域的大多数高通量实验都会在一定程度上受到系统性技术误差的影响,即所谓的“批次效应”。本文采用残差神经网络,通过尝试匹配例如单细胞RNA测序或质谱流式细胞术等重复实验的数据分布,来减弱批次效应。

主动深度学习降低自动细胞分割中的标注负担 [bioRxiv预印本]

主动学习是一种解决如何选择训练样本以最高效地训练模型的框架。研究表明,主动学习可以显著减少专家在高通量高内涵显微镜图像中进行细胞分割标注所需的时间。当然,此类应用的深度学习模型训练需要大量高质量的标注数据,但能够提供这些标注的人力资源既有限又昂贵。

scVAE:用于单细胞基因表达数据的变分自编码器 [代码][预印本]

该方法直接从计数数据建模单细胞基因表达,无需初始归一化,并在潜在空间中进行聚类。由于基于变分自编码器,它还可以通过从潜在分布中采样来生成合成的单细胞数据。

CellBender remove-background:一种用于无监督去除scRNA-seq数据背景噪声的深度生成模型 [代码][预印本]

作者提出了一种生成模型,用于去除单细胞RNA测序数据中的统计背景噪声。

scVAE:单细胞变分自编码器 [代码][预印本]

scVAE是一个命令行工具,用于利用变分自编码器对单细胞转录本计数进行建模。通过变分自编码器,不仅可以更紧凑地建模数据,还能根据真实数据的分布生成逼真的合成数据。

利用生成对抗神经网络实现单细胞RNA测序数据的逼真计算机模拟生成与增强 [代码][预印本]

摘要内容如下:“生物医学研究中的一个根本问题在于可用观测数量较少,这主要是由于生物样本不足、成本过高或伦理原因所致。通过用计算机模拟生成的样本对少量真实观测进行扩充,有望获得更稳健的分析结果并提高实验的可重复性。在此,我们提出使用条件单细胞生成对抗神经网络(cscGANs),以实现单细胞RNA测序数据的逼真生成。cscGANs可以从复杂的多细胞类型样本中学习非线性的基因间依赖关系,并利用这些信息生成具有明确类型的逼真细胞。”

知识驱动的神经网络实现单细胞测序数据的生物学可解释性深度学习 [代码][预印本]

摘要内容如下:“深度学习已成为预测各种复杂生物现象的强大方法。然而,由于通用深度神经网络难以揭示成功预测背后的生物学机制,其在生物发现方面的实用性迄今仍较为有限。在此,我们展示了 在生物网络上的深度学习应用,其中每个节点都对应一个分子实体(如蛋白质或基因),每条边都有明确的机制解释(如信号通路中的调控相互作用)。借助知识驱动的神经网络(KPNNs),我们充分利用深度学习算法为多层网络赋予有意义权重的能力,从而实现可解释的深度学习。”

FlashDeconv:图谱规模的空间转录组学去卷积 [代码][论文]

一种高性能的细胞类型去卷积方法,采用保持结构的随机化草图技术和图神经网络正则化。可在约3分钟内处理100万个点,且计算复杂度呈线性O(N)增长。该方法利用杠杆得分重要性采样来保留稀有细胞类型的信号,并通过稀疏图拉普拉斯正则化实现空间一致性的预测结果。特别针对亚细胞分辨率平台(Visium HD、Stereo-seq、Xenium)进行了优化。

化学信息学与药物发现

面向分布外分子表征的子结构不变性学习 [github][论文]

MoleOOD 是一种通用的分子表征学习框架,可将任何现有的分子表征学习方法作为骨干模型,以提升其在分布漂移情况下的泛化能力。具体而言,MoleOOD 设计了一种新的学习方案及其等效的实用实现。此外,MoleOOD 还开发了一个环境推理模型,无需手动指定环境即可识别每种分子对应的环境。

神经图指纹 [github]

一种卷积神经网络,能够学习对预测新分子性质有用的特征——即“分子指纹”。该网络基于图结构运行,其中原子为节点,化学键为边。由瑞安·亚当斯团队开发,他曾共同主持非常优秀的播客节目《Talking Machines》。

基于数据驱动的分子连续表示的自动化学设计 [github][预印本]

摘要开头:“我们报告了一种将分子的离散表示与多维连续表示相互转换的方法。该模型允许我们在开放的化学化合物空间中高效地探索和优化,从而生成新分子。”

目标强化生成对抗网络(ORGAN) [github][预印本]

这是一种将生成模型与强化学习相结合的方法,用于引导生成过程朝着特定目标进行。ORGAN 是一种适用于离散数据的通用方法,但在本例中以药物发现为应用场景进行了演示。

从化学反应的无监督学习中提取有机化学语法 [github][论文]

该工具包利用 Transformer 网络进行化学中的原子映射。摘要中写道:在过去的几百年里,化学家通过观察原子在化学转化过程中如何重新排列,推导出一系列“反应规则”,这一过程称为原子映射。原子映射是一项繁琐的实验工作,而采用计算方法时,则需要持续标注化学反应并制定逻辑一致的指令。在此,我们证明了 Transformer 神经网络能够在无需监督或人工标注的情况下学习产物与反应物之间的原子映射信息。借助 Transformer 的注意力权重,我们构建了一个化学无关、基于注意力的反应映射器,并从未标注的反应数据集中提取出连贯的化学语法。

基于深度强化学习的分子从头设计 [github][预印本]

这是一个使用强化学习的 PyTorch 序列生成模型。GitHub 页面上展示了一个精美的小部件,用于显示训练进度以及训练过程中生成的分子。摘要开头:“本文介绍了一种针对分子从头设计的序列生成模型的调优方法,该模型通过增强的片段似然函数,能够学习生成具有特定期望性质的结构。我们展示了该模型如何执行多种任务,例如生成查询结构的类似物,以及生成预计对特定生物靶点具有活性的化合物。”

药物发现中的单样本学习模型与 DeepChem [github][Python 库][论文]

DeepChem 是一个“……旨在使机器学习在药物发现中的应用变得简单便捷的 Python 库”,它涵盖了深度学习领域的诸多前沿技术:单样本学习、图卷积网络、少样本学习以及 LSTM 嵌入等。根据 GitHub 网站介绍,“DeepChem 旨在提供一套高质量的开源工具链,以 democratize 深度学习在药物发现、材料科学和量子化学中的应用。”

有意义先导化合物的宝库:将深度对抗自编码器应用于肿瘤学中新分子的开发 [github][论文]

探讨了生成对抗网络(GAN)在生成新型药物候选分子方面的应用。类似于生成“看起来”来自某个特定分布的图像或视频,甚至可以根据条件生成“给我一张猫的照片”,作者认为也可以通过提示所需药物类型来生成新颖的类药分子结构。在此研究中,他们探索了一种特定类型的生成网络——对抗自编码器(AAE),并将其改造为所谓的“人工智能驱动的药物发现引擎”。

深度学习助力快速鉴定强效 DDR1 激酶抑制剂 [github][论文] 在 Insilico Medicine 于 2019 年发表的一篇备受关注的论文中,研究人员采用了一种名为 GENTRL(生成张量强化学习)的方法,快速发现了针对某一重要靶点的小分子抑制剂。借助该方法,作者仅用 21 天就筛选出了一种候选分子。该模型首先通过变分自编码器进行生成,随后利用强化学习策略探索化学空间。他们还使用了一种基于 Kohonen 自组织映射的独特损失函数,并采用张量分解来编码化学结构与性质之间的关系。

Deep Genomics 提名业界首个由 AI 发现的治疗候选药物 [预印本]

2019 年 9 月,Deep Genomics 宣布其基于深度学习的平台已确定了一个治疗靶点及相应的药物候选。关于该候选分子所针对的致病机制的详细信息,请参阅上述预印本链接。

生物标志物发现

人类衰老的深度生物标志物 [在线预测工具][论文]

摘要中指出:“人类衰老研究的主要障碍之一,是缺乏一套全面且可操作的生物标志物,这些标志物可用于监测和评估治疗干预的效果。在本研究中,我们设计了一个由21个深度神经网络组成的模块化集成模型,这些网络具有不同的深度、结构和优化策略,能够仅通过常规血液检测来预测人的实际年龄。”

代谢组学

深度学习准确预测乳腺癌代谢组学数据中的雌激素受体状态 [代码][论文]

该研究比较了用于代谢组学数据中雌激素受体状态分类的算法,并发现表现最佳的是基于自编码器的前馈神经网络,其参数通过H2O的R语言接口进行调优。

生成模型

在许多情况下,生成与真实数据相似的合成数据有助于扩充数据集规模或避免侵犯患者隐私。以下列出了一些相关方法。

保护隐私的生成式深度神经网络支持临床数据共享 [GitHub][bioRxiv预印本]

本文提出了一种巧妙的方法:利用生成对抗网络(GAN)合成与研究参与者实际测量数据高度相似但无法追溯到特定个体的模拟数据。这种方法从设计上就融入了差分隐私机制,从而为确保研究对象不会被识别为试验参与者提供了强有力的保障。

利用生成模型创建人工人类基因组 [预印本]

作者比较了受限玻尔兹曼机(RBM)和生成对抗网络(GAN)这两种工具在生成合成人类基因组方面的应用。

群体遗传学

用于群体遗传推断的深度学习 [代码][论文]

饮食网络:瘦型参数应对胖型基因组学 [手稿]

这篇标题颇为奇特的论文探讨了基因组学领域中常见的问题:特征数量远大于训练样本数量。在此背景下,作者聚焦于单核苷酸多态性(SNP,即个体间的遗传变异),提出了一种新的网络参数化方法,通过多任务架构学习输入特征的有效嵌入表示,从而大幅减少自由参数的数量。

dna-claude-analysis [GitHub]

这是一款个人基因组分析工具包,采用大语言模型驱动的变异解读技术,对来自23andMe或AncestryDNA等平台的原始DNA数据进行分析,涵盖健康风险、祖先溯源、药物基因组学、营养、运动健身、长寿等多个类别。该工具通过Python脚本解析SNP数据,并向语言模型查询每个变异的解释,最终生成结构化的报告,以单页HTML形式呈现分析结果。

系统生物学

利用深度学习建模细胞的层级结构与功能 [网络服务器][论文]

在这篇极具雄心的研究中,作者尝试基于数百万条基因型-表型关联数据,构建一个可解释的神经网络模型(VNN;可见神经网络),用于描述真核细胞。该网络采用12层的层级结构,每一层都对应着具有生物学意义的组织层次。最终构建的模型能够根据给定的遗传扰动预测可能产生的表型变化。

相似工具推荐

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

awesome-machine-learning

awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。

72.1k|★☆☆☆☆|2天前
开发框架其他

scikit-learn

scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最

65.6k|★☆☆☆☆|今天
开发框架其他数据工具

keras

Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。

63.9k|★★☆☆☆|昨天
开发框架数据工具其他