[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kyegomez--Open-AF3":3,"tool-kyegomez--Open-AF3":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":99,"github_topics":100,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":141},8187,"kyegomez\u002FOpen-AF3","Open-AF3","Implementation of Alpha Fold 3 from the paper: \"Accurate structure prediction of biomolecular interactions with AlphaFold3\" in PyTorch","Open-AF3 是一个基于 PyTorch 框架开源实现的 AlphaFold 3 项目，旨在复现论文中提出的生物分子相互作用结构预测能力。它主要解决了如何高精度预测蛋白质、核酸及配体等复杂生物分子三维结构的问题，为理解生命机制和药物研发提供关键的结构数据支持。\n\n这款工具特别适合人工智能研究人员、生物信息学开发者以及计算生物学领域的学者使用。用户可以直接利用其代码进行模型训练、推理实验或二次开发，探索大分子结构预测的前沿技术。\n\n在技术亮点上，Open-AF3 摒弃了传统复杂的 MSA（多序列比对）处理流程，转而采用简化的模块设计，并引入全新的\"Pairformer\"架构来协同处理成对与单体特征表示。其核心创新在于集成了“遗传扩散”（Genetic Diffusion）模块，该模块直接作用于原子坐标，通过去噪过程从随机噪声中逐步生成精确的三维结构。此外，项目还采用了独特的交叉蒸馏策略，利用 AlphaFold Multimer v2.3 的预测结果增强训练数据，有效抑制了扩散模型可能产生的“幻觉”现象，并配备了能够评估原子级误差的置信度预测头，显著提升了生成结构的可靠性与实用性。","# Open-AlphaFold\n\nOpen source Implementation of Alpha Fold from the paper: \"Accurate structure prediction of biomolecular interactions with AlphaFold3\" in PyTorch. I and the contributors to this repository are not in any way related or connected to Google or Deepmind\n\n\n## install\n`$ pip install alphafold3`\n\n## Input Tensor Size Example\n\n```python\nimport torch\n\n# Define the batch size, number of nodes, and number of features\nbatch_size = 1\nnum_nodes = 5\nnum_features = 64\n\n# Generate random pair representations using torch.randn\n# Shape: (batch_size, num_nodes, num_nodes, num_features)\npair_representations = torch.randn(\n    batch_size, num_nodes, num_nodes, num_features\n)\n\n# Generate random single representations using torch.randn\n# Shape: (batch_size, num_nodes, num_features)\nsingle_representations = torch.randn(\n    batch_size, num_nodes, num_features\n)\n```\n\n## Genetic Diffusion\nNeed review but basically it operates on atomic coordinates.\n\n```python\nimport torch\nfrom alphafold3.diffusion import GeneticDiffusion\n\n# Create an instance of the GeneticDiffusionModuleBlock\nmodel = GeneticDiffusion(channels=3, training=True)\n\n# Generate random input coordinates\ninput_coords = torch.randn(10, 100, 100, 3)\n\n# Generate random ground truth coordinates\nground_truth = torch.randn(10, 100, 100, 3)\n\n# Pass the input coordinates and ground truth coordinates through the model\noutput_coords, loss = model(input_coords, ground_truth)\n\n# Print the output coordinates\nprint(output_coords)\n\n# Print the loss value\nprint(loss)\n```\n\n## Full Model Example Forward pass\n\n```python\nimport torch \nfrom alphafold3 import AlphaFold3\n\n# Create random tensors\nx = torch.randn(1, 5, 5, 64)  # Shape: (batch_size, seq_len, seq_len, dim)\ny = torch.randn(1, 5, 64)  # Shape: (batch_size, seq_len, dim)\n\n# Initialize AlphaFold3 model\nmodel = AlphaFold3(\n    dim=64,\n    seq_len=5,\n    heads=8,\n    dim_head=64,\n    attn_dropout=0.0,\n    ff_dropout=0.0,\n    global_column_attn=False,\n    pair_former_depth=48,\n    num_diffusion_steps=1000,\n    diffusion_depth=30,\n)\n\n# Forward pass through the model\noutput = model(x, y)\n\n# Print the shape of the output tensor\nprint(output.shape)\n```\n\n\n\n# Notes\n-> pairwise representation -> explicit atomic positions\n\n-> within the trunk, msa processing is de emphasized with a simpler MSA block, 4 blocks\n\n-> msa processing -> pair weighted averaging \n\n-> pairformer: replaces evoformer, operates on pair representation and single representation\n\n-> pairformer 48 blocks\n\n-> pair and single representation together with the input representation are passed to the diffusion module\n\n-> diffusion takes in 3 tensors [pair, single representation, with new pairformer representation]\n\n-> diffusion module operates directory on raw atom coordinates\n\n-> standard diffusion approach, model is trained to receiev noised atomic coordinates then predict the true coordinates\n\n-> the network learns protein structure at a variety of length scales where the denoising task at small noise emphasizes large scale structure of the system.\n\n-> at inference time, random noise is sampled and then recurrently denoised to produce a final structure\n\n-> diffusion module produces a distribution of answers\n\n-> for each answer the local structure will be sharply defined\n\n-> diffusion models are prone to hallucination where the model may hallucinate plausible looking structures\n\n-> to counteract hallucination, they use a novel cross distillation method where they enrich the training data with alphafold multimer v2.3 predicted strutctures. \n\n-> confidence measures predicts the atom level and pairwise errors in final structures, this is done by regressing the error in the outut of the structure mdule in training,\n\n-> Utilizes diffusion rollout procedure for the full structure generation during training ( using a larger step suze than normal)\n\n-> diffused predicted structure is used to permute the ground truth and ligands to compute metrics to train the confidence head.\n\n-> confidence head uses the pairwise representation to predict the lddt (pddt) and a predicted aligned error matrix as used in alphafold 2 as well as distance error matrix which is the error in the distance matrix of the predicted structure as compared to the true structure\n\n-> confidence measures also preduct atom level and pairwise errors\n\n-> early stopping using a weighted average of all above metic\n\n-> af3 can predict srtructures from input polymer sequences, rediue modifications, ligand smiles\n\n-> uses structures below 1000 residues\n\n-> alphafold3 is able to predict protein nuclear structures with thousnads of residues\n\n-> Covalent modifications (bonded ligands, glycosylation, and modified protein residues and\n202 nucleic acid bases) are also accurately predicted by AF\n\n-> distills alphafold2 preductions\n\n-> key problem in protein structure prediction is they predict static structures and not the dynamical behavior\n\n-> multiple random seeds for either the diffusion head or network does not product an approximation of the solution ensenble\n\n-> in future: generate large number of predictions and rank them\n\n-> inference: top confidence sample from 5 seed runs and 5 diffusion samples per model seed for a total of 25 samples\n\n-> interface accuracy via interface lddt which is calculated from distances netween atoms across different chains in the interface\n\n-> uses a lddt to polymer metric which considers differences from each atom of a entity to any c or c1 polymer atom within  aradius\n\n\n# Todo\n\n## Model Architecture\n- Implement input Embedder from Alphafold2 openfold \nimplementation [LINK](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n\n- Implement the template module from openfold [LINK](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n\n- Implement the MSA embedding from openfold [LINK](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n\n- Fix residuals and make sure pair representation and generated output goes into the diffusion model\n\n- Implement reclying to fix residuals\n\n\n## Training pipeline\n- Get all datasets pushed to huggingface\n\n# Resources\n- [ EvoFormer Paper ](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-021-03819-2)\n- [ Pairformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2311.03583)\n- [ AlphaFold 3 Paper](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-024-07487-w)\n\n- [OpenFold](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n\n## Citations\n\n```bibtex\n@article{Abramson2024-fj,\n  title    = \"Accurate structure prediction of biomolecular interactions with\n              {AlphaFold} 3\",\n  author   = \"Abramson, Josh and Adler, Jonas and Dunger, Jack and Evans,\n              Richard and Green, Tim and Pritzel, Alexander and Ronneberger,\n              Olaf and Willmore, Lindsay and Ballard, Andrew J and Bambrick,\n              Joshua and Bodenstein, Sebastian W and Evans, David A and Hung,\n              Chia-Chun and O'Neill, Michael and Reiman, David and\n              Tunyasuvunakool, Kathryn and Wu, Zachary and {\\v Z}emgulyt{\\.e},\n              Akvil{\\.e} and Arvaniti, Eirini and Beattie, Charles and\n              Bertolli, Ottavia and Bridgland, Alex and Cherepanov, Alexey and\n              Congreve, Miles and Cowen-Rivers, Alexander I and Cowie, Andrew\n              and Figurnov, Michael and Fuchs, Fabian B and Gladman, Hannah and\n              Jain, Rishub and Khan, Yousuf A and Low, Caroline M R and Perlin,\n              Kuba and Potapenko, Anna and Savy, Pascal and Singh, Sukhdeep and\n              Stecula, Adrian and Thillaisundaram, Ashok and Tong, Catherine\n              and Yakneen, Sergei and Zhong, Ellen D and Zielinski, Michal and\n              {\\v Z}{\\'\\i}dek, Augustin and Bapst, Victor and Kohli, Pushmeet\n              and Jaderberg, Max and Hassabis, Demis and Jumper, John M\",\n  journal  = \"Nature\",\n  month    = \"May\",\n  year     =  2024\n}\n```\n\n```bibtex\n@inproceedings{Darcet2023VisionTN,\n    title   = {Vision Transformers Need Registers},\n    author  = {Timoth'ee Darcet and Maxime Oquab and Julien Mairal and Piotr Bojanowski},\n    year    = {2023},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:263134283}\n}\n```\n\n```bibtex\n@article{Arora2024SimpleLA,\n    title   = {Simple linear attention language models balance the recall-throughput tradeoff},\n    author  = {Simran Arora and Sabri Eyuboglu and Michael Zhang and Aman Timalsina and Silas Alberti and Dylan Zinsley and James Zou and Atri Rudra and Christopher R'e},\n    journal = {ArXiv},\n    year    = {2024},\n    volume  = {abs\u002F2402.18668},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:268063190}\n}\n```\n\n```bibtex\n@article{Puny2021FrameAF,\n    title   = {Frame Averaging for Invariant and Equivariant Network Design},\n    author  = {Omri Puny and Matan Atzmon and Heli Ben-Hamu and Edward James Smith and Ishan Misra and Aditya Grover and Yaron Lipman},\n    journal = {ArXiv},\n    year    = {2021},\n    volume  = {abs\u002F2110.03336},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:238419638}\n}\n```\n\n```bibtex\n@article{Duval2023FAENetFA,\n    title   = {FAENet: Frame Averaging Equivariant GNN for Materials Modeling},\n    author  = {Alexandre Duval and Victor Schmidt and Alex Hernandez Garcia and Santiago Miret and Fragkiskos D. Malliaros and Yoshua Bengio and David Rolnick},\n    journal = {ArXiv},\n    year    = {2023},\n    volume  = {abs\u002F2305.05577},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:258564608}\n}\n```\n\n```bibtex\n@article{Wang2022DeepNetST,\n    title   = {DeepNet: Scaling Transformers to 1, 000 Layers},\n    author  = {Hongyu Wang and Shuming Ma and Li Dong and Shaohan Huang and Dongdong Zhang and Furu Wei},\n    journal = {ArXiv},\n    year    = {2022},\n    volume  = {abs\u002F2203.00555},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:247187905}\n}\n```\n\n```bibtex\n@inproceedings{Ainslie2023CoLT5FL,\n    title   = {CoLT5: Faster Long-Range Transformers with Conditional Computation},\n    author  = {Joshua Ainslie and Tao Lei and Michiel de Jong and Santiago Ontan'on and Siddhartha Brahma and Yury Zemlyanskiy and David Uthus and Mandy Guo and James Lee-Thorp and Yi Tay and Yun-Hsuan Sung and Sumit Sanghai},\n    year    = {2023}\n}\n```\n\n# Citation\n```bibtex\n@article{Abramson2024-fj,\n  title    = \"Accurate structure prediction of biomolecular interactions with\n              {AlphaFold} 3\",\n  author   = \"Abramson, Josh and Adler, Jonas and Dunger, Jack and Evans,\n              Richard and Green, Tim and Pritzel, Alexander and Ronneberger,\n              Olaf and Willmore, Lindsay and Ballard, Andrew J and Bambrick,\n              Joshua and Bodenstein, Sebastian W and Evans, David A and Hung,\n              Chia-Chun and O'Neill, Michael and Reiman, David and\n              Tunyasuvunakool, Kathryn and Wu, Zachary and {\\v Z}emgulyt{\\.e},\n              Akvil{\\.e} and Arvaniti, Eirini and Beattie, Charles and\n              Bertolli, Ottavia and Bridgland, Alex and Cherepanov, Alexey and\n              Congreve, Miles and Cowen-Rivers, Alexander I and Cowie, Andrew\n              and Figurnov, Michael and Fuchs, Fabian B and Gladman, Hannah and\n              Jain, Rishub and Khan, Yousuf A and Low, Caroline M R and Perlin,\n              Kuba and Potapenko, Anna and Savy, Pascal and Singh, Sukhdeep and\n              Stecula, Adrian and Thillaisundaram, Ashok and Tong, Catherine\n              and Yakneen, Sergei and Zhong, Ellen D and Zielinski, Michal and\n              {\\v Z}{\\'\\i}dek, Augustin and Bapst, Victor and Kohli, Pushmeet\n              and Jaderberg, Max and Hassabis, Demis and Jumper, John M\",\n  journal  = \"Nature\",\n  month    =  \"May\",\n  year     =  2024\n}\n```\n\n\n","# Open-AlphaFold\n\n基于论文《使用 AlphaFold3 准确预测生物分子相互作用的结构》的 AlphaFold 开源实现，采用 PyTorch 框架。本人及本仓库的贡献者与 Google 或 DeepMind 均无任何关联。\n\n## 安装\n`$ pip install alphafold3`\n\n## 输入张量尺寸示例\n\n```python\nimport torch\n\n# 定义批次大小、节点数和特征数\nbatch_size = 1\nnum_nodes = 5\nnum_features = 64\n\n# 使用 torch.randn 生成随机的成对表示\n# 形状：(batch_size, num_nodes, num_nodes, num_features)\npair_representations = torch.randn(\n    batch_size, num_nodes, num_nodes, num_features\n)\n\n# 使用 torch.randn 生成随机的单体表示\n# 形状：(batch_size, num_nodes, num_features)\nsingle_representations = torch.randn(\n    batch_size, num_nodes, num_features\n)\n```\n\n## 遗传扩散\n尚需审核，但其核心操作是基于原子坐标进行的。\n\n```python\nimport torch\nfrom alphafold3.diffusion import GeneticDiffusion\n\n# 创建 GeneticDiffusionModuleBlock 实例\nmodel = GeneticDiffusion(channels=3, training=True)\n\n# 生成随机输入坐标\ninput_coords = torch.randn(10, 100, 100, 3)\n\n# 生成随机真实坐标\nground_truth = torch.randn(10, 100, 100, 3)\n\n# 将输入坐标和真实坐标输入模型\noutput_coords, loss = model(input_coords, ground_truth)\n\n# 打印输出坐标\nprint(output_coords)\n\n# 打印损失值\nprint(loss)\n```\n\n## 全模型示例前向传播\n\n```python\nimport torch \nfrom alphafold3 import AlphaFold3\n\n# 创建随机张量\nx = torch.randn(1, 5, 5, 64)  # 形状：(batch_size, seq_len, seq_len, dim)\ny = torch.randn(1, 5, 64)  # 形状：(batch_size, seq_len, dim)\n\n# 初始化 AlphaFold3 模型\nmodel = AlphaFold3(\n    dim=64,\n    seq_len=5,\n    heads=8,\n    dim_head=64,\n    attn_dropout=0.0,\n    ff_dropout=0.0,\n    global_column_attn=False,\n    pair_former_depth=48,\n    num_diffusion_steps=1000,\n    diffusion_depth=30,\n)\n\n# 进行前向传播\noutput = model(x, y)\n\n# 打印输出张量的形状\nprint(output.shape)\n```\n\n\n\n# 笔记\n-> 成对表示 -> 显式原子位置\n\n-> 在主干网络中，MSA 处理被弱化，仅使用一个更简单的 MSA 模块，共 4 层。\n\n-> MSA 处理 -> 对成对表示进行加权平均。\n\n-> Pairformer：取代了 Evoformer，直接作用于成对表示和单体表示。\n\n-> Pairformer 共 48 层。\n\n-> 成对表示、单体表示以及输入表示一同传递给扩散模块。\n\n-> 扩散模块接收 3 个张量 [成对表示、单体表示，以及新的 Pairformer 表示]。\n\n-> 扩散模块直接操作原始原子坐标。\n\n-> 采用标准扩散方法，模型训练时接收带噪声的原子坐标，并预测真实的原子坐标。\n\n-> 网络在不同长度尺度上学习蛋白质结构，其中小噪声下的去噪任务更强调系统的宏观结构。\n\n-> 推理时，先采样随机噪声，然后逐步去噪以生成最终结构。\n\n-> 扩散模块会生成一组可能的结构。\n\n-> 对于每种可能的结构，局部细节都会非常清晰。\n\n-> 扩散模型容易产生“幻觉”，即生成看似合理但实际上不准确的结构。\n\n-> 为应对这一问题，他们采用了一种新颖的交叉蒸馏方法，在训练数据中加入了 AlphaFold Multimer v2.3 预测的结构。\n\n-> 置信度评估可以预测最终结构中的原子级误差和成对误差，这是通过在训练过程中回归结构模块输出的误差来实现的。\n\n-> 训练时采用扩散展开过程生成完整结构（步长比正常情况更大）。\n\n-> 使用扩散生成的预测结构来排列真实结构和配体，从而计算指标以训练置信度头。\n\n-> 置信度头利用成对表示预测 LDDT（pLDDT），并生成类似于 AlphaFold 2 中使用的对齐误差矩阵，以及预测结构与真实结构的距离误差矩阵。\n\n-> 置信度评估还能预测原子级和成对误差。\n\n-> 根据上述各项指标的加权平均进行早停。\n\n-> AF3 可以根据输入的聚合物序列、修饰信息和配体 SMILES 预测结构。\n\n-> 适用于少于 1000 个残基的结构。\n\n-> AlphaFold3 还能预测包含数千个残基的蛋白质核结构。\n\n-> 共价修饰（如结合配体、糖基化以及修饰后的蛋白质残基和 202 个核酸碱基）也能被 AF 准确预测。\n\n-> 蒸馏了 AlphaFold2 的预测结果。\n\n-> 蛋白质结构预测的一个关键问题是，目前的方法只能预测静态结构，而无法捕捉动态行为。\n\n-> 即使使用多个随机种子运行扩散头或整个网络，也无法近似得到解的集合。\n\n-> 未来计划：生成大量预测结果并对其进行排序。\n\n-> 推理时：从 5 次种子运行和每个模型种子的 5 次扩散运行中，选择置信度最高的样本，总共得到 25 个样本。\n\n-> 接口精度通过接口 LDDT 来衡量，该指标基于接口处不同链之间原子间的距离计算得出。\n\n-> 使用一种针对聚合物的 LDDT 指标，该指标考虑实体中的每个原子与半径范围内的任意 C 或 C1 聚合物原子之间的差异。\n\n# 待办事项\n\n## 模型架构\n- 实现来自 AlphaFold2 openfold 的输入嵌入模块 [链接](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n- 实现来自 openfold 的模板模块 [链接](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n- 实现来自 openfold 的 MSA 嵌入 [链接](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n- 修复残差连接，并确保成对表示和生成的输出能够正确进入扩散模型。\n- 实现循环机制以修复残差连接。\n\n## 训练流程\n- 将所有数据集上传至 Hugging Face。\n\n# 资料\n- [EvoFormer 论文](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-021-03819-2)\n- [Pairformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2311.03583)\n- [AlphaFold 3 论文](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-024-07487-w)\n\n- [OpenFold](https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold)\n\n## 参考文献\n\n```bibtex\n@article{Abramson2024-fj,\n  title    = {使用{AlphaFold} 3准确预测生物分子相互作用的结构},\n  author   = {阿布拉姆森，乔什；阿德勒，乔纳斯；邓格，杰克；埃文斯，理查德；格林，蒂姆；普里茨尔，亚历山大；罗内贝格，奥拉夫；威尔莫尔，林赛；巴拉德，安德鲁·J；班布里克，乔舒亚；博登斯坦，塞巴斯蒂安·W；埃文斯，大卫·A；洪，贾春；奥尼尔，迈克尔；雷曼，大卫；图尼亚苏瓦纳库尔，凯瑟琳；吴，扎卡里；泽姆古利特，阿克维莱；阿尔瓦尼蒂，艾琳妮；比蒂，查尔斯；贝尔托利，奥塔维娅；布里奇兰德，亚历克斯；切列帕诺夫，阿列克谢；康格里夫，迈尔斯；科温-里弗斯，亚历山大·I；科伊，安德鲁；菲古尔诺夫，米哈伊尔；福克斯，法比安·B；格拉德曼，汉娜；贾因，里舒布；汗，优素福·A；洛，卡罗琳·M·R；佩尔林，库巴；波塔彭科，安娜；萨维，帕斯卡尔；辛格，苏赫迪普；斯泰库拉，阿德里安；蒂拉孙达拉姆，阿肖克；通，凯瑟琳；亚克宁，谢尔盖；钟，艾伦·D；齐耶林斯基，米哈尔；日代克，奥古斯丁；巴普斯特，维克托；科利，普什米特；雅德伯格，马克斯；哈萨比斯，德米斯；詹珀，约翰·M},\n  journal  = {自然},\n  month    =  \"五月\",\n  year     =  2024\n}\n```\n\n```bibtex\n@inproceedings{Darcet2023VisionTN,\n    title   = {视觉Transformer需要寄存器},\n    author  = {蒂莫泰·达尔塞、马克西姆·欧卡布、朱利安·梅拉尔、皮奥特尔·博扬诺夫斯基},\n    year    = {2023},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:263134283}\n}\n```\n\n```bibtex\n@article{Arora2024SimpleLA,\n    title   = {简单的线性注意力语言模型平衡召回率与吞吐量的权衡},\n    author  = {西姆兰·阿罗拉、萨布里·埃尤博格鲁、迈克尔·张、阿曼·蒂马尔西纳、西拉斯·阿尔贝蒂、迪伦·津斯利、詹姆斯·邹、阿特里·鲁德拉、克里斯托弗·R'e},\n    journal = {ArXiv},\n    year    = {2024},\n    volume  = {abs\u002F2402.18668},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:268063190}\n}\n```\n\n```bibtex\n@article{Puny2021FrameAF,\n    title   = {用于不变性和等变网络设计的帧平均},\n    author  = {奥姆里·普尼、马坦·阿茨蒙、赫利·本-哈穆、爱德华·詹姆斯·史密斯、伊桑·米斯拉、阿迪提亚·格罗弗、亚龙·利普曼},\n    journal = {ArXiv},\n    year    = {2021},\n    volume  = {abs\u002F2110.03336},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:238419638}\n}\n```\n\n```bibtex\n@article{Duval2023FAENetFA,\n    title   = {FAENet：用于材料建模的帧平均等变图神经网络},\n    author  = {亚历山大·杜瓦尔、维克托·施密特、亚历克斯·埃尔南德斯·加西亚、圣地亚哥·米雷特、弗拉吉斯科斯·D·马利亚罗斯、约书亚·本吉奥、大卫·罗尔尼克},\n    journal = {ArXiv},\n    year    = {2023},\n    volume  = {abs\u002F2305.05577},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:258564608}\n}\n```\n\n```bibtex\n@article{Wang2022DeepNetST,\n    title   = {DeepNet：将Transformer扩展到1,000层},\n    author  = {洪宇·王、舒明·马、李东、绍韩·黄、董东·张、富鲁·魏},\n    journal = {ArXiv},\n    year    = {2022},\n    volume  = {abs\u002F2203.00555},\n    url     = {https:\u002F\u002Fapi.semanticscholar.org\u002FCorpusID:247187905}\n}\n```\n\n```bibtex\n@inproceedings{Ainslie2023CoLT5FL,\n    title   = {CoLT5：利用条件计算加速长距离Transformer},\n    author  = {乔舒亚·艾恩斯利、陶雷、米希尔·德·容、圣地亚哥·昂塔翁、西达尔塔·布拉玛、尤里·泽姆良斯基、戴维·乌瑟斯、曼迪·郭、詹姆斯·李-索普、易泰、云轩·宋、苏米特·桑盖},\n    year    = {2023}\n}\n```\n\n# 引用\n```bibtex\n@article{Abramson2024-fj,\n  title    = {使用{AlphaFold} 3准确预测生物分子相互作用的结构},\n  author   = {阿布拉姆森，乔什；阿德勒，乔纳斯；邓格，杰克；埃文斯，理查德；格林，蒂姆；普里茨尔，亚历山大；罗内贝格，奥拉夫；威尔莫尔，林赛；巴拉德，安德鲁·J；班布里克，乔舒亚；博登斯坦，塞巴斯蒂安·W；埃文斯，大卫·A；洪，贾春；奥尼尔，迈克尔；雷曼，大卫；图尼亚苏瓦纳库尔，凯瑟琳；吴，扎卡里；泽姆古利特，阿克维莱；阿尔瓦尼蒂，艾琳妮；比蒂，查尔斯；贝尔托利，奥塔维娅；布里奇兰德，亚历克斯；切列帕诺夫，阿列克谢；康格里夫，迈尔斯；科温-里弗斯，亚历山大·I；科伊，安德鲁；菲古尔诺夫，米哈伊尔；福克斯，法比安·B；格拉德曼，汉娜；贾因，里舒布；汗，优素福·A；洛，卡罗琳·M·R；佩尔林，库巴；波塔彭科，安娜；萨维，帕斯卡尔；辛格，苏赫迪普；斯泰库拉，阿德里安；蒂拉孙达拉姆，阿肖克；通，凯瑟琳；亚克宁，谢尔盖；钟，艾伦·D；齐耶林斯基，米哈尔；日代克，奥古斯丁；巴普斯特，维克托；科利，普什米特；雅德伯格，马克斯；哈萨比斯，德米斯；詹珀，约翰·M},\n  journal  = {自然},\n  month    =  \"五月\",\n  year     =  2024\n}\n```","# Open-AF3 快速上手指南\n\nOpen-AF3 是基于 PyTorch 实现的 AlphaFold3 开源项目，旨在复现论文《Accurate structure prediction of biomolecular interactions with AlphaFold3》中的核心算法。本项目由社区贡献者维护，与 Google 或 DeepMind 无官方关联。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户建议使用 WSL2）\n*   **Python 版本**：推荐 Python 3.8 及以上版本\n*   **深度学习框架**：PyTorch（需支持 CUDA 加速以获得最佳性能）\n*   **依赖管理**：pip\n\n> **提示**：国内开发者在安装大型依赖时，建议配置清华或阿里镜像源以加速下载：\n> `pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n通过 pip 直接安装预发布的 `alphafold3` 包：\n\n```bash\npip install alphafold3\n```\n\n## 基本使用\n\n以下是初始化模型并执行一次前向传播（Forward Pass）的最小可用示例。该示例展示了如何构建随机输入张量并获取模型输出。\n\n### 完整模型前向传播示例\n\n```python\nimport torch \nfrom alphafold3 import AlphaFold3\n\n# 创建随机输入张量\n# x: 成对表示 (batch_size, seq_len, seq_len, dim)\nx = torch.randn(1, 5, 5, 64)\n# y: 单体表示 (batch_size, seq_len, dim)\ny = torch.randn(1, 5, 64)\n\n# 初始化 AlphaFold3 模型\n# 注意：此处参数为示例配置，实际训练或推理可根据需求调整\nmodel = AlphaFold3(\n    dim=64,\n    seq_len=5,\n    heads=8,\n    dim_head=64,\n    attn_dropout=0.0,\n    ff_dropout=0.0,\n    global_column_attn=False,\n    pair_former_depth=48,\n    num_diffusion_steps=1000,\n    diffusion_depth=30,\n)\n\n# 执行前向传播\noutput = model(x, y)\n\n# 打印输出张量的形状\nprint(output.shape)\n```\n\n### 核心模块说明\n*   **输入表示**：模型接收“成对表示”（pair representations）和“单体表示”（single representations）。\n*   **PairFormer**：取代了 AlphaFold2 中的 Evoformer，专门处理成对和单体表示。\n*   **扩散模块 (Diffusion Module)**：直接作用于原始原子坐标。通过去噪过程，从随机噪声中生成最终的蛋白质结构分布。","某生物制药公司的算法团队正在研发针对新型病毒蛋白与宿主受体结合机制的创新药物，急需高精度预测两者复合物的三维结构以指导分子设计。\n\n### 没有 Open-AF3 时\n- **依赖封闭黑盒**：团队只能等待 Google DeepMind 的 API 更新或受限于非开源版本，无法针对特定的病毒变异株进行模型微调或内部部署。\n- **复现门槛极高**：试图从零复现论文中的扩散模块（Diffusion Module）和 Pairformer 架构时，因缺乏清晰的 PyTorch 实现参考，导致原子坐标去噪逻辑频繁出错。\n- **置信度评估缺失**：难以获取原子级别的误差预测，无法有效区分模型生成的“合理幻觉”结构与真实生物构象，增加了湿实验验证的失败风险。\n- **数据增强困难**：缺少内置的交叉蒸馏机制，无法利用 AlphaFold Multimer v2.3 的预测结果来丰富训练数据，导致对罕见蛋白互作模式的泛化能力不足。\n\n### 使用 Open-AF3 后\n- **自主可控迭代**：直接通过 `pip install alphafold3` 部署开源版本，团队可自由修改 GeneticDiffusion 模块代码，快速适配新发现的病毒蛋白序列。\n- **架构透明高效**：基于清晰的 PyTorch 代码示例，迅速理解了从成对表示到显式原子位置的映射逻辑，将原本数周的复现周期缩短至几天。\n- **精准误差量化**：利用内置的置信度头（Confidence Head）回归原子级误差，自动过滤掉扩散模型可能产生的幻觉结构，显著提升了候选结构的可靠性。\n- **训练策略优化**：直接应用其新颖的交叉蒸馏方法和扩散展开程序（diffusion rollout），在有限算力下实现了更鲁棒的多尺度结构生成。\n\nOpen-AF3 通过提供透明、可定制的 PyTorch 实现，让研发团队打破了黑盒限制，将生物大分子结构预测从“被动等待”转变为“主动探索”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkyegomez_Open-AF3_23773d0a.png","kyegomez","Kye Gomez","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkyegomez_0b95c3bb.jpg","Founder of swarms.ai","Swarms","Palo Alto",null,"KyeGomezB","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002Fswarms","https:\u002F\u002Fgithub.com\u002Fkyegomez",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,802,103,"2026-04-01T13:23:31","MIT","未说明","未说明 (基于 PyTorch 和扩散模型架构，推测需要支持 CUDA 的 NVIDIA GPU)",{"notes":95,"python":92,"dependencies":96},"这是一个 AlphaFold3 的开源 PyTorch 实现，并非 Google\u002FDeepMind 官方版本。安装命令为 `pip install alphafold3`。代码示例显示模型涉及大量的张量运算（如 Pairformer 48 层块、扩散步骤），对显存要求可能较高。目前仍处于开发阶段（Todo 列表显示缺少部分模块如 MSA 嵌入、模板模块等），且明确提到该实现简化了 MSA 处理。训练数据包含来自 AlphaFold Multimer v2.3 的预测结构以进行蒸馏。",[97,98],"torch","alphafold3",[14,13,15],[101,102,103,104,105,106,107,108],"ai","alphafold","bio","ml","geneml","artificial-intelligence","biology","biology-ai","2026-03-27T02:49:30.150509","2026-04-17T08:25:20.496674",[112,117,122,127,131,136],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},36614,"安装 alphafold3 时遇到 'ModuleNotFoundError: No module named scripts' 错误怎么办？","该问题通常是因为 PyPI 上的 openfold 包版本过旧（仅 v0.0.1）导致的。解决方法有两种：\n1. 优先尝试使用项目提供的 requirements.txt 文件进行安装：\n   pip install -r requirements.txt\n2. 如果上述方法无效，可以直接从 GitHub 安装最新版本的 openfold：\n   pip install git+https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002FOpen-AF3\u002Fissues\u002F6",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},36615,"执行 'pip install alphafold3' 时提示找不到匹配的分发版本（No matching distribution found）如何解决？","这通常意味着 PyPI 上没有直接可用的预编译包或版本信息缺失。建议不要直接使用 'pip install alphafold3'，而是克隆该仓库后，通过本地安装依赖文件来解决：\n1. 克隆仓库并进入目录。\n2. 运行命令：pip install -r requirements.txt\n这将确保安装正确版本的依赖项（如 openfold），避免从 PyPI 拉取损坏或过时的包。","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002FOpen-AF3\u002Fissues\u002F10",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},36616,"本地安装 alphafold3 时，在构建 openfold 依赖轮子（wheel）时报错退出，该如何处理？","此错误通常源于 openfold 的 PyPI 旧版本与当前环境不兼容。最可靠的解决方案是跳过 PyPI 上的 openfold 包，直接从源码安装最新版。请执行以下命令：\npip install git+https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\n或者，如果是在本项目目录下，直接运行：\npip install -r requirements.txt\n这样可以自动处理正确的依赖版本。","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002FOpen-AF3\u002Fissues\u002F2",{"id":128,"question_zh":129,"answer_zh":130,"source_url":116},36617,"安装过程中出现 torch 相关错误或 openfold 脚本模块缺失，是否有特定的安装顺序建议？","是的，建议先手动安装特定版本的 PyTorch，然后再安装其他依赖。例如，对于 CUDA 11.7 环境，可以先运行：\npip install -U torch==2.0.0+cu117 torchtext==0.15.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu117\n解决 Torch 问题后，再运行 'pip install -r requirements.txt' 来完成剩余依赖（包括修复 openfold 的脚本模块问题）的安装。",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},36618,"如何向模型提交目标蛋白的序列进行预测？","根据目前的社区反馈，该仓库的具体用法和输入接口尚不明确，官方文档可能尚未完善。多位用户表示不清楚该仓库的具体操作流程。建议密切关注仓库的 README 更新或等待维护者的正式回复。目前暂无明确的命令行或 API 调用指南可供参考。","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002FOpen-AF3\u002Fissues\u002F16",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},36619,"在 Linux 服务器上本地安装 AlphaFold3 时频繁遇到 'scripts' 模块缺失错误，通用修复方案是什么？","这是一个已知的普遍问题，原因是 pip 默认拉取的 openfold 包版本过低。通用的修复方案是强制从 GitHub 主分支安装 openfold，而不是依赖 PyPI。请在终端执行：\npip install git+https:\u002F\u002Fgithub.com\u002Faqlaboratory\u002Fopenfold\n执行完毕后，再次尝试安装 alphafold3 或直接运行项目安装脚本即可。","https:\u002F\u002Fgithub.com\u002Fkyegomez\u002FOpen-AF3\u002Fissues\u002F11",[]]