[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-aqlaboratory--openfold":3,"tool-aqlaboratory--openfold":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":113,"env_os":114,"env_gpu":114,"env_ram":114,"env_deps":115,"category_tags":119,"github_topics":120,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":124,"updated_at":125,"faqs":126,"releases":156},6673,"aqlaboratory\u002Fopenfold","openfold","Trainable, memory-efficient, and GPU-friendly PyTorch reproduction of AlphaFold 2","OpenFold 是 DeepMind 革命性蛋白质结构预测模型 AlphaFold 2 的开源复现版本，基于 PyTorch 框架构建。它旨在解决原始 AlphaFold 2 代码难以修改、训练成本高且对硬件环境要求苛刻的问题，让全球科研人员能够更灵活地探索蛋白质折叠机制。\n\n这款工具特别适合生物信息学研究人员、AI 开发者以及需要深入理解或改进蛋白质预测算法的团队使用。与原版相比，OpenFold 不仅忠实还原了 AlphaFold 2 的预测精度，更具备“可训练”的核心优势。它经过优化，显著降低了显存占用，对 GPU 更加友好，使得在常规科研算力下进行模型微调、架构实验乃至从头训练成为可能。此外，OpenFold 配套发布了大规模训练数据集 OpenProteinSet，进一步降低了结构生物学领域的研究门槛。无论是希望验证新算法的研究者，还是试图将蛋白质预测集成到自有流程的开发者，OpenFold 都提供了一个透明、高效且社区驱动的理想平台。","![header ](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faqlaboratory_openfold_readme_46a203d7e1ed.png)\n_Figure: Comparison of OpenFold and AlphaFold2 predictions to the experimental structure of PDB 7KDX, chain B._\n\n# OpenFold\n\nA faithful but trainable PyTorch reproduction of DeepMind's \n[AlphaFold 2](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Falphafold).\n\n# Documentation\nSee our new home for docs at [openfold.readthedocs.io](https:\u002F\u002Fopenfold.readthedocs.io\u002Fen\u002Flatest\u002F), with instructions for installation and model inference\u002Ftraining.\n\nMuch of the content from this page may be found [here.](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fblob\u002Fmain\u002Fdocs\u002Fsource\u002Foriginal_readme.md)\n\n## Copyright Notice\n\nWhile AlphaFold's and, by extension, OpenFold's source code is licensed under\nthe permissive Apache Licence, Version 2.0, DeepMind's pretrained parameters \nfall under the CC BY 4.0 license, a copy of which is downloaded to \n`openfold\u002Fresources\u002Fparams` by the installation script. Note that the latter\nreplaces the original, more restrictive CC BY-NC 4.0 license as of January 2022.\n\n## Contributing\n\nIf you encounter problems using OpenFold, feel free to create an issue! We also\nwelcome pull requests from the community.\n\n## Citing this Work\n\nPlease cite our paper:\n\n```bibtex\n@article {Ahdritz2022.11.20.517210,\n\tauthor = {Ahdritz, Gustaf and Bouatta, Nazim and Floristean, Christina and Kadyan, Sachin and Xia, Qinghui and Gerecke, William and O{\\textquoteright}Donnell, Timothy J and Berenberg, Daniel and Fisk, Ian and Zanichelli, Niccolò and Zhang, Bo and Nowaczynski, Arkadiusz and Wang, Bei and Stepniewska-Dziubinska, Marta M and Zhang, Shang and Ojewole, Adegoke and Guney, Murat Efe and Biderman, Stella and Watkins, Andrew M and Ra, Stephen and Lorenzo, Pablo Ribalta and Nivon, Lucas and Weitzner, Brian and Ban, Yih-En Andrew and Sorger, Peter K and Mostaque, Emad and Zhang, Zhao and Bonneau, Richard and AlQuraishi, Mohammed},\n\ttitle = {{O}pen{F}old: {R}etraining {A}lpha{F}old2 yields new insights into its learning mechanisms and capacity for generalization},\n\telocation-id = {2022.11.20.517210},\n\tyear = {2022},\n\tdoi = {10.1101\u002F2022.11.20.517210},\n\tpublisher = {Cold Spring Harbor Laboratory},\n\tURL = {https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2022.11.20.517210},\n\teprint = {https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002Fearly\u002F2022\u002F11\u002F22\u002F2022.11.20.517210.full.pdf},\n\tjournal = {bioRxiv}\n}\n```\nIf you use OpenProteinSet, please also cite:\n\n```bibtex\n@misc{ahdritz2023openproteinset,\n      title={{O}pen{P}rotein{S}et: {T}raining data for structural biology at scale}, \n      author={Gustaf Ahdritz and Nazim Bouatta and Sachin Kadyan and Lukas Jarosch and Daniel Berenberg and Ian Fisk and Andrew M. Watkins and Stephen Ra and Richard Bonneau and Mohammed AlQuraishi},\n      year={2023},\n      eprint={2308.05326},\n      archivePrefix={arXiv},\n      primaryClass={q-bio.BM}\n}\n```\nAny work that cites OpenFold should also cite [AlphaFold](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-021-03819-2) and [AlphaFold-Multimer](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2021.10.04.463034v1) if applicable.\n","![header ](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faqlaboratory_openfold_readme_46a203d7e1ed.png)\n_图：OpenFold 和 AlphaFold2 的预测结果与 PDB 7KDX 链 B 的实验结构对比。_\n\n# OpenFold\n\nDeepMind 的 [AlphaFold 2](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Falphafold) 的忠实且可训练的 PyTorch 复现版本。\n\n# 文档\n请访问我们的新文档主页 [openfold.readthedocs.io](https:\u002F\u002Fopenfold.readthedocs.io\u002Fen\u002Flatest\u002F)，其中包含安装指南以及模型推理和训练的相关说明。\n\n本页面的大部分内容可在 [这里](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fblob\u002Fmain\u002Fdocs\u002Fsource\u002Foriginal_readme.md) 找到。\n\n## 版权声明\n\n尽管 AlphaFold 及其衍生项目 OpenFold 的源代码采用宽松的 Apache 许可证第 2.0 版授权，但 DeepMind 的预训练参数则受 CC BY 4.0 许可证保护。安装脚本会将该许可证的副本下载至 `openfold\u002Fresources\u002Fparams` 目录下。请注意，自 2022 年 1 月起，该许可证已取代原先更为严格的 CC BY-NC 4.0 许可证。\n\n## 贡献\n如果您在使用 OpenFold 时遇到问题，欢迎随时提交 issue！我们也非常欢迎社区的 pull request。\n\n## 引用本工作\n请引用我们的论文：\n\n```bibtex\n@article {Ahdritz2022.11.20.517210,\n\tauthor = {Ahdritz, Gustaf and Bouatta, Nazim and Floristean, Christina and Kadyan, Sachin and Xia, Qinghui and Gerecke, William and O{\\textquoteright}Donnell, Timothy J and Berenberg, Daniel and Fisk, Ian and Zanichelli, Niccolò and Zhang, Bo and Nowaczynski, Arkadiusz and Wang, Bei and Stepniewska-Dziubinska, Marta M and Zhang, Shang and Ojewole, Adegoke and Guney, Murat Efe and Biderman, Stella and Watkins, Andrew M and Ra, Stephen and Lorenzo, Pablo Ribalta and Nivon, Lucas and Weitzner, Brian and Ban, Yih-En Andrew and Sorger, Peter K and Mostaque, Emad and Zhang, Zhao and Bonneau, Richard and AlQuraishi, Mohammed},\n\ttitle = {{O}pen{F}old: {R}etraining {A}lpha{F}old2 yields new insights into its learning mechanisms and capacity for generalization},\n\telocation-id = {2022.11.20.517210},\n\tyear = {2022},\n\tdoi = {10.1101\u002F2022.11.20.517210},\n\tpublisher = {Cold Spring Harbor Laboratory},\n\tURL = {https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2022.11.20.517210},\n\teprint = {https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002Fearly\u002F2022\u002F11\u002F22\u002F2022.11.20.517210.full.pdf},\n\tjournal = {bioRxiv}\n}\n```\n\n如果您使用 OpenProteinSet，请同时引用：\n\n```bibtex\n@misc{ahdritz2023openproteinset,\n      title={{O}pen{P}rotein{S}et: {T}raining data for structural biology at scale}, \n      author={Gustaf Ahdritz and Nazim Bouatta and Sachin Kadyan and Lukas Jarosch and Daniel Berenberg and Ian Fisk and Andrew M. Watkins and Stephen Ra and Richard Bonneau and Mohammed AlQuraishi},\n      year={2023},\n      eprint={2308.05326},\n      archivePrefix={arXiv},\n      primaryClass={q-bio.BM}\n}\n```\n\n任何引用 OpenFold 的工作，还应根据需要引用 [AlphaFold](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-021-03819-2) 和 [AlphaFold-Multimer](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2021.10.04.463034v1)，如果适用的话。","# OpenFold 快速上手指南\n\nOpenFold 是 DeepMind AlphaFold 2 的忠实 PyTorch 复现版本，不仅支持推理，还支持端到端的训练和微调。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+)\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（推荐显存 16GB+ 以运行完整模型）\n*   **软件依赖**:\n    *   Python 3.7+\n    *   PyTorch 1.9+ (需匹配对应的 CUDA 版本)\n    *   Git\n\n**前置依赖安装建议：**\n建议使用 Conda 管理环境。如果您在中国大陆，推荐使用清华或中科大镜像源加速包下载。\n\n```bash\n# 创建并激活虚拟环境\nconda create -n openfold python=3.9\nconda activate openfold\n\n# (可选) 配置国内镜像源\nconda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F\nconda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Ffree\u002F\nconda config --set show_channel_urls yes\n```\n\n## 安装步骤\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold.git\ncd openfold\n```\n\n### 2. 安装 Python 依赖\n项目根目录通常包含 `requirements.txt`。使用 pip 安装时建议指定国内镜像以提升速度：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n*注意：如果 `requirements.txt` 中未明确指定 PyTorch 版本，请先根据您本地的 CUDA 版本手动安装 PyTorch。例如：*\n```bash\n# 示例：安装带有 CUDA 11.8 支持的 PyTorch (请根据实际情况调整)\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 获取预训练参数\nOpenFold 的安装脚本会自动下载 DeepMind 的预训练参数（遵循 CC BY 4.0 协议）。这些参数将被保存至 `openfold\u002Fresources\u002Fparams` 目录。\n\n运行安装脚本或按照官方文档指示完成参数下载：\n```bash\n# 具体下载命令可能随版本更新变化，通常涉及运行 setup 脚本或手动下载\n# 请参考最新文档：https:\u002F\u002Fopenfold.readthedocs.io\u002Fen\u002Flatest\u002F\n```\n\n## 基本使用\n\n以下是最简单的单序列蛋白质结构预测示例。\n\n### 运行推理\n假设您有一个 FASTA 格式的输入文件 `input.fasta`，执行以下命令进行预测：\n\n```bash\npython scripts\u002Frun_pretrained_openfold.py \\\n    input.fasta \\\n    .\u002Foutput_dir \\\n    --model_names model_1 \\\n    --device cuda:0 \\\n    --fp16 \\\n    --cpu_offload \\\n    --replace_sse\n```\n\n**参数说明：**\n*   `input.fasta`: 输入的蛋白质序列文件。\n*   `.\u002Foutput_dir`: 输出结果目录（将包含 PDB 文件和置信度数据）。\n*   `--model_names`: 指定使用的模型权重（如 `model_1` 到 `model_5`）。\n*   `--fp16`: 启用半精度推理以节省显存并加速。\n*   `--cpu_offload`: 当显存不足时，自动将部分计算卸载到 CPU。\n\n### 查看结果\n运行完成后，检查输出目录：\n```bash\nls .\u002Foutput_dir\n# 您将看到生成的 .pdb 文件，可使用 PyMOL 或 ChimeraX 查看结构\n```\n\n> **提示**：更多高级功能（如多聚体预测、模型训练、自定义数据集处理）请参阅完整文档：[openfold.readthedocs.io](https:\u002F\u002Fopenfold.readthedocs.io\u002Fen\u002Flatest\u002F)。","某生物医药公司的算法团队正致力于针对一种新型耐药菌蛋白进行结构预测，并希望通过微调模型来提升对特定突变位点的预测精度。\n\n### 没有 openfold 时\n- **无法自定义训练**：官方 AlphaFold 2 仅支持推理，团队无法利用自有的高分辨率实验数据对模型进行微调，导致针对特殊突变体的预测准确率遭遇瓶颈。\n- **显存占用过高**：原生框架在批量处理长序列蛋白时显存效率低下，迫使团队只能使用昂贵的顶级显卡，且单次并发任务数极低。\n- **黑盒难以优化**：由于缺乏可训练的 PyTorch 复现版本，研究人员难以深入分析模型内部注意力机制，无法针对特定失败案例进行算法层面的诊断与改进。\n- **部署灵活性差**：原有环境依赖复杂且不够友好，难以集成到公司现有的自动化药物发现流水线中，阻碍了大规模筛选的落地。\n\n### 使用 openfold 后\n- **实现端到端微调**：借助 openfold 的可训练特性，团队成功利用私有数据集对模型进行了重训练，显著提升了对该耐药菌突变位点的结构预测置信度。\n- **大幅降低硬件门槛**：得益于其内存优化和 GPU 友好设计，相同显存下批量处理能力翻倍，使得在中端显卡集群上运行大规模预测成为可能。\n- **白盒化研究机制**：基于纯 PyTorch 架构，研究人员能够轻松修改网络层并可视化中间状态，快速定位并修复了模型在特定折叠模式上的偏差。\n- **无缝集成流水线**：openfold 简洁的接口和完善的文档让团队迅速将其嵌入现有 CI\u002FCD 流程，实现了从序列输入到结构输出的全自动化高通量筛选。\n\nopenfold 通过将 AlphaFold 2 转化为可训练、高效率的开源形态，不仅打破了性能黑盒，更让科研机构能够基于自有数据定制专属的结构预测模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faqlaboratory_openfold_46a203d7.png","aqlaboratory","AQ Laboratory","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Faqlaboratory_14546198.png","",null,"m.alquraishi@columbia.edu","MoAlQuraishi","aqlab.io","https:\u002F\u002Fgithub.com\u002Faqlaboratory",[82,86,89,93,97,101,105],{"name":83,"color":84,"percentage":85},"Python","#3572A5",93.5,{"name":87,"color":88,"percentage":10},"Jupyter Notebook","#DA5B0B",{"name":90,"color":91,"percentage":92},"Shell","#89e051",2.7,{"name":94,"color":95,"percentage":96},"Cuda","#3A4E3A",0.5,{"name":98,"color":99,"percentage":100},"C++","#f34b7d",0.2,{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0.1,{"name":106,"color":107,"percentage":108},"C","#555555",0,3332,667,"2026-04-11T09:08:32","Apache-2.0",4,"未说明",{"notes":116,"python":114,"dependencies":117},"README 中未直接列出具体的运行环境需求（如操作系统版本、GPU 型号、显存大小、内存大小、Python 版本及具体依赖库版本）。文档指出详细的安装说明、模型推理及训练指南已迁移至官方文档网站 (openfold.readthedocs.io)。该工具是 AlphaFold 2 的 PyTorch 复现版，支持训练功能。预训练参数文件遵循 CC BY 4.0 许可，安装脚本会自动下载至 openfold\u002Fresources\u002Fparams 目录。",[118],"PyTorch",[14],[121,122,123],"pytorch","protein-structure","alphafold2","2026-03-27T02:49:30.150509","2026-04-11T23:22:26.891073",[127,132,137,142,147,152],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},30136,"安装时遇到 CUDA 版本不匹配错误（例如检测到 10.1 但 PyTorch 编译于 11.2），或者出现 'no kernel image is available' 错误怎么办？","这通常是因为系统本地的 nvcc 编译器版本与 conda 环境中安装的 PyTorch 所需的 CUDA 版本不一致。解决方案是通过 conda 安装匹配的 cudatoolkit-dev：\n运行命令：`conda install cudatoolkit-dev -c conda-forge`。\n这将确保本地编译环境与 PyTorch 期望的 CUDA 版本一致，从而解决版本冲突和内核镜像缺失的问题。","https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fissues\u002F172",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},30137,"在安装 FlashAttention 或运行脚本时遇到 'ModuleNotFoundError: No module named torch' 错误如何解决？","该错误通常发生在构建过程中，因为构建系统无法找到 torch 模块。如果项目包含 `pyproject.toml` 文件，请确保在 `[build-system]` 部分的 `requires` 列表中添加 \"torch\"。配置示例如下：\n```\n[build-system]\nrequires = [\"setuptools>=42\", \"wheel\", \"torch\"]\nbuild-backend = \"setuptools.build_meta\"\n```\n如果是运行安装脚本失败，可以尝试手动执行脚本中创建 conda 环境和安装依赖的部分，确保 torch 已正确安装后再继续后续步骤。","https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fissues\u002F194",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},30138,"使用 bfloat16 进行训练时出现 OOM（显存溢出）或 'log_sigmoid_forward_cuda not implemented for BFloat16' 错误怎么办？","这是因为 PyTorch 的某些操作（如 logsigmoid）尚未完全支持 bfloat16 类型。解决方法是修改损失函数计算方式，将 `torch.nn.functional.logsigmoid(logits)` 替换为 `torch.log(torch.sigmoid(logits))`。这种写法可以兼容 bfloat16 并避免运行时错误。此外，确保使用的是最新版本的代码库，因为相关修复可能已经提交。","https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fissues\u002F39",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},30139,"训练数据预处理耗时过长，是否有现成的比对文件（alignment files）下载？数据格式有什么特殊要求？","官方未提供预处理的比对文件下载，但性能瓶颈往往源于数据格式问题。关键是要对数据进行“扁平化”（flatten）处理。如果数据未扁平化，模型可能会读取到空的 MSA（多序列比对）和模板，导致训练异常或效率低下。请检查数据处理脚本，确保生成的输入数据是扁平化格式，这样模型才能正确读取并高效训练。","https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fissues\u002F113",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},30140,"运行推理脚本时遇到 'ModuleNotFoundError: No module named flash_attn' 错误如何处理？","这表明缺少 FlashAttention 依赖库。你需要手动安装 flash-attn 模块。通常可以通过 pip 从源码安装：\n`pip install git+https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Fflash-attention.git`\n注意：安装前请确保已正确安装 CUDA 工具包和 PyTorch，且版本兼容。如果是在更新代码后突然出现此错误，说明新版本强依赖 FlashAttention，必须安装该模块才能运行。","https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fissues\u002F151",{"id":153,"question_zh":154,"answer_zh":155,"source_url":131},30141,"在特定 GPU（如 Tesla P40）上推理失败，但在其他 GPU（如 V100）上正常，可能的原因是什么？","这通常与 GPU 架构兼容性有关。较旧的 GPU（如 Tesla P40）可能不支持某些新版本的 CUDA 内核或计算能力要求。如果遇到此类问题，建议尝试更换为较新的 GPU（如 V100、A100）进行测试。如果必须使用旧卡，可能需要降低 CUDA 版本或重新编译针对该架构优化的 PyTorch 扩展，但这通常比较复杂，推荐优先使用兼容的硬件环境。",[157,162,167,172,177,182],{"id":158,"version":159,"summary_zh":160,"released_at":161},214528,"v2.2.0","随着 `pl_upgrades` 分支合并到 main 分支，CUDA 12 和 PyTorch 2 已成为 OpenFold 的默认安装构建版本。其他依赖项也已更新，包括：\n\n- numpy -> 2\n- PyTorch Lightning -> 2.5\n- OpenMM -> 8.2\n\nColab 笔记本也已更新，以使用 NumPy 2 和 PyTorch 2。","2025-04-26T01:37:59",{"id":163,"version":164,"summary_zh":165,"released_at":166},214529,"v.2.1.0","在此版本中，我们新增了 OpenFold 文档的主页，地址为：https:\u002F\u002Fopenfold.readthedocs.io\u002F。\n\n我们希望文档中提供的指南能够帮助用户完成常见工作流程，并解决常遇到的问题。\n\n此外，还包含了一些提升使用体验的改进：\n\n- 新增脚本，用于从 RODA 上存储的数据集创建 OpenFold 训练集。我们计划在不久的将来也将处理后的数据集托管到 RODA 上。\n- 新增一个脚本，用于将 OpenFold v1 的权重转换为 OpenFold v2 的权重，更多信息请参阅[此页面](https:\u002F\u002Fopenfold.readthedocs.io\u002Fen\u002Flatest\u002Fconvert_of_v1_weights.html)。\n- 为 `run_pretrained_openfold.py` 和 `train_openfold.py` 添加了 `--experiment_config_json` 选项，以便更便捷地编辑 openfold\u002Fconfig.py 中的模型配置设置。\n\n## 变更内容\n* 由 @ljarosch 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F418 中修复了分布式种子行为问题。\n* 由 @ljarosch 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F420 中修复了 mmcif 解析中的分辨率字段问题。\n* 由 @jnwei 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F437 中将 mkl 版本添加到 environment.yml 文件中。\n* 由 @dingquanyu 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F406 中更新了多链排列及相应的单元测试。\n* 由 @ljarosch 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F419 中增加了对重复扩展的支持。\n* 由 @vaclavhanzl 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F432 中通过使用 pl_upgrades 中的 OF 提交来修复 Colab 环境问题。\n* 由 @jnwei 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F439 中添加了文档并进行了一些小的用户体验优化。\n\n## 新贡献者\n* @ljarosch 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F418 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fcompare\u002Fv2.0.0...v.2.1.0","2024-05-13T10:12:34",{"id":168,"version":169,"summary_zh":170,"released_at":171},214530,"v2.0.0","## 主要变更\n\n- SoloSeq 推理：现已支持使用 ESM-1b 嵌入和模板特征进行单序列推理。更多信息请参阅 [README 中的 SoloSeq 部分](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold?tab=readme-ov-file#soloseq-inference)。\n- 多聚体：现已支持使用 [AlphaFold-Multimer](https:\u002F\u002Fwww.biorxiv.org\u002Fcontent\u002F10.1101\u002F2021.10.04.463034v2.full.pdf) 权重进行多聚体模式下的推理。更多说明请参阅 [README 中的多聚体部分](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold?tab=readme-ov-file#multimer-inference)，或在 [Colab 笔记本](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fblob\u002Fmain\u002Fnotebooks\u002FOpenFold.ipynb) 中尝试多聚体推理。\n- 新增自定义 DeepSpeed DS4Sci_EvoformerAttention 内核，可将峰值设备内存需求降低 13 倍，从而使训练速度提升 15%，推理速度提升 4 倍。您可以通过 [`openfold\u002Fconfig.py`](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fblob\u002Fmain\u002Fopenfold\u002Fconfig.py#L466) 中的 `use_deepspeed_evo_attention` 选项来试用。更多信息请参阅 [README](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Ftree\u002Fmain?tab=readme-ov-file#features)。\n\n\n## 所有变更\n* @decarboxy 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F253 中添加了命令行长序列推理选项。\n* @p-durandin 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F252 中修复了仅 CPU 安装的问题。\n* @l-bick 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F264 中修复了过时的解析逻辑及“文件未找到”问题。\n* @l-bick 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F263 中实现了预训练 JAX 权重的加载。\n* @awaelchli 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F278 中修正了 README 中的 `--cpus_per_task` 参数。\n* @awaelchli 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F279 中添加了一个 `.gitignore` 文件。\n* @jonathanking 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F290 中向 DeepSpeed 配置生成脚本中添加了缺失的 `warmup_num_steps` 参数。\n* @vaclavhanzl 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F285 中修复了 Colab 笔记本：Colab 现已升级至 Python 3.8，修正了导入语句，并缓解了 UTF-8 编码问题。\n* @josemduarte 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F287 中新增了以 ModelCIF 格式而非 PDB 格式输出的选项。\n* @jonathanking 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F292 中修复了下载 CAMEO 数据时对 `max_seqlen` 的比较逻辑。\n* @zrqiao 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F275 中解决了仅 CPU 安装时 PyTorch CUDA 可用性的问题。\n* @nikitos9000 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F295 中提升了 fp16 模式下 TriangularMultiplicativeUpdate 的稳定性。\n* @vaclavhanzl 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F309 中将 Python 版本升级至 3.9，以便在 Ubuntu Lunar Lobster 上构建 Docker 镜像。\n* @luwei0917 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F314 中添加了关于歧义原子解释的注释。\n* @vaclavhanzl 在 https:\u002F\u002Fgithub.之后再次修复了 Colab 笔记本，主要针对 ModelCIF 合并以及 Colab 中 Python 版本变更所带来的问题。","2024-02-08T16:04:02",{"id":173,"version":174,"summary_zh":175,"released_at":176},214531,"v1.0.1","截至我们论文发表时的 OpenFold 版本。包含多项新特性，包括 FP16 训练以及更稳定的训练流程。\n\n## 变更内容\n* @decarboxy 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F117 中实现了使用多个模型进行推理的功能。\n* @brianloyal 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F116 中更新了输入处理逻辑。\n* @decarboxy 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F133 中为 README 中的图片添加了说明文字。\n* @decarboxy 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F142 中改进了在评估多个模型时文件输出的处理方式。\n* @josemduarte 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F166 中修复了 download_mgnify.sh 脚本中的问题。\n* @sdvillal 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F164 中修复了对多个 FASTA 文件进行预测时标签与序列不匹配的问题。\n* @sdvillal 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F163 中增加了对 openmm ≥ 7.6 的支持。\n* @josemduarte 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F171 中修复了 download_uniref90.sh 脚本中的问题。\n* @epenning 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F178 中修复了在卸载推理中 use_flash 参数传递错误的问题。\n* @NZ99 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F185 中将 DeepSpeed 版本升级至 0.5.10。\n* @NZ99 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F188 中修复了处理 .pdb 文件时出现的错误。\n* @Zhang690683220 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F182 中修复了从检查点重启后学习率预热不正确的问题。\n* @SauravMaheshkar 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F128 中将 opencontainers image-spec 添加到 `Dockerfile`。\n* @brianloyal 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F201 中实现了将推理和松弛耗时写入文件的功能。\n* @timodonnell 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F202 中对设置脚本进行了小幅修复。\n* @nikitos9000 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F199 中进行了少量优化和修复，以支持 ESMFold。\n* @timodonnell 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F210 中移除了训练过程中缺失结构数据的链。\n* @decarboxy 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F206 中添加了一个将序列搭接到结构上的脚本。\n* @NZ99 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F212 中将默认数据加载器配置中的 pin_memory 设置为 True。\n* @mhrmsn 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F217 中修复了 prep_output 调用中缺少 subtract_plddt 参数的问题。\n* @beiwang2003 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F222 中修复了 FP16 相关问题。\n* @ar-nowaczynski 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F223 中为批次中的每个样本独立设置钳制或非钳制 FAPE。\n* @atgctg 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F225 中将概率类型由 `int` 改为 `float`。\n* @jonathanking 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fpull\u002F232 中对 prep_mmseqs_dbs 函数进行了小幅修复。\n\n## 新贡献者\n* @brianloyal 在 https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold 中完成了首次贡献。","2022-11-23T20:46:07",{"id":178,"version":179,"summary_zh":180,"released_at":181},214532,"v1.0.0","OpenFold 在我们发布原始模型参数和训练数据集时推出。相比之前的测试版，它带来了无数改进，包括但不限于：\n\n- 多项错误修复，使训练更加稳定、准确且更具通用性\n- 支持使用我们的原始权重运行 OpenFold\n- 自定义注意力核及替代的注意力实现，可大幅降低峰值内存占用\n- 一个性能卓越的 Colab 笔记本，其推理速度比原版快得多\n- 高效的比对计算脚本，包括运行 MMSeqs2 比对流水线的选项\n- 训练与推理过程中日志记录的显著提升\n- 细致的优化，使推理和训练的速度与内存使用都得到大幅提升\n- 机会性优化，在处理较短（约 1500 个残基以下）链时可动态加速推理\n- 引入了 AlphaFold 仓库中的一些更新内容，包括错误修复、GPU 使用优化等\n- “AlphaFold-Gap” 支持允许使用 OpenFold 和 AlphaFold 的权重对复合物进行推理\n- `multimer` 分支上正在进行中的 OpenFold-Multimer 实现\n- 数据管道测试的改进\n- 部分 CPU 异构计算功能扩展了推理序列长度的上限\n- Docker 支持\n- 原始版本中缺失的功能，包括学习率调度器、蒸馏数据集支持等\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fcompare\u002Fv0.1.0...v1.0.0","2022-06-22T08:09:03",{"id":183,"version":184,"summary_zh":185,"released_at":186},214533,"v0.1.0","OpenFold 的首次发布。\n\n**完整更新日志**：https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\u002Fcommits\u002Fv0.1.0","2021-11-18T20:10:11"]