[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--deepmind-research":3,"tool-google-deepmind--deepmind-research":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",145895,2,"2026-04-08T11:32:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":116,"forks":117,"last_commit_at":118,"license":119,"difficulty_score":120,"env_os":75,"env_gpu":121,"env_ram":121,"env_deps":122,"category_tags":125,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":127,"updated_at":128,"faqs":129,"releases":162},5655,"google-deepmind\u002Fdeepmind-research","deepmind-research","This repository contains implementations and illustrative code to accompany DeepMind publications","deepmind-research 是 DeepMind 官方推出的开源代码库，旨在复现其发表的前沿学术论文中的核心算法与实验环境。它主要解决了科研领域中“论文难以复现”的痛点，通过提供经过验证的实现代码、数据集及训练环境，让全球研究者能够直接基于高质量基准开展后续工作，从而加速科学进步。\n\n该资源特别适合人工智能研究人员、算法工程师及高校师生使用。无论是希望深入理解强化学习、生成模型等理论细节的学者，还是想要在实际项目中应用先进架构的开发者，都能从中获益。其独特亮点在于涵盖了极广的研究维度，从控制核聚变等离子体的深度强化学习、精准降水预报的生成模型，到蛋白质结构预测及大规模图神经网络挑战等跨学科成果均有收录。用户不仅可以获取如 Perceiver IO、Enformer 等创新架构的代码，还能直接使用 DeepMind Lab 或 StarCraft II 等标准测试环境进行对比实验。作为一个连接理论与实践的桥梁，deepmind-research 以透明、开放的方式推动了社区对复杂 AI 系统的探索与构建。","# DeepMind Research\n\nThis repository contains implementations and illustrative code to accompany\nDeepMind publications. Along with publishing papers to accompany research\nconducted at DeepMind, we release open-source\n[environments](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-environments\u002F),\n[data sets](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-datasets\u002F),\nand [code](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-code\u002F) to\nenable the broader research community to engage with our work and build upon it,\nwith the ultimate goal of accelerating scientific progress to benefit society.\nFor example, you can build on our implementations of the\n[Deep Q-Network](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdqn) or\n[Differential Neural Computer](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdnc), or experiment\nin the same environments we use for our research, such as\n[DeepMind Lab](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab) or\n[StarCraft II](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fpysc2).\n\nIf you enjoy building tools, environments, software libraries, and other\ninfrastructure of the kind listed below, you can view open positions to work in\nrelated areas on our [careers page](https:\u002F\u002Fdeepmind.com\u002Fcareers\u002F).\n\nFor a full list of our publications, please see\nhttps:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fpublications\u002F\n\n## Projects\n\n*   [Magnetic control of tokamak plasmas through deep reinforcement learning](fusion_tcv), Nature 2022\n*   [Pushing the Frontiers of Density Functionals by Solving the Fractional Electron Problem](density_functional_approximation_dm21), Science 2021\n*   [Mind the Gap: Assessing Temporal Generalization in Neural Language Models](pitfalls_static_language_models), NeurIPS 2021\n*   [The Difficulty of Passive Learning in Deep Reinforcement Learning](tandem_dqn), NeurIPS 2021\n*   [Skilful precipitation nowcasting using deep generative models of radar](nowcasting), Nature 2021\n*   [Compute-Aided Design as Language](cadl)\n*   [Encoders and ensembles for continual learning](continual_learning)\n*   [Towards mental time travel: a hierarchical memory for reinforcement learning agents](hierarchical_transformer_memory)\n*   [Perceiver IO: A General Architecture for Structured Inputs & Outputs](perceiver)\n*   [Solving Mixed Integer Programs Using Neural Networks](neural_mip_solving)\n*   [A Realistic Simulation Framework for Learning with Label Noise](noisy_label)\n*   [Rapid Task-Solving in Novel Environments](rapid_task_solving), ICLR 2021\n*   [WikiGraphs: A Wikipedia - Knowledge Graph Paired Dataset](wikigraphs), TextGraphs 2021\n*   [Behavior Priors for Efficient Reinforcement Learning](box_arrangement)\n*   [Learning Mesh-Based Simulation with Graph Networks](meshgraphnets), ICLR 2021\n*   [Open Graph Benchmark - Large-Scale Challenge (OGB-LSC)](ogb_lsc)\n*   [Synthetic Returns for Long-Term Credit Assignment](synthetic_returns)\n*   [A Deep Learning Approach for Characterizing Major Galaxy Mergers](galaxy_mergers)\n*   [Better, Faster Fermionic Neural Networks](kfac_ferminet_alpha) (KFAC implementation)\n*   [Object-based attention for spatio-temporal reasoning](object_attention_for_reasoning)\n*   [Effective gene expression prediction from sequence by integrating long-range interactions](enformer)\n*   [Satore: First-order logic saturation with atom rewriting](satore)\n*   [Characterizing signal propagation to close the performance gap in unnormalized ResNets](nfnets), ICLR 2021\n*   [Uncovering the Limits of Adversarial Training against Norm-Bounded Adversarial Examples](adversarial_robustness)\n*   [Learning rich touch representations through cross-modal self-supervision](cmtouch), CoRL 2020\n*   [Functional Regularisation for Continual Learning](functional_regularisation_for_continual_learning), ICLR 2020\n*   [The Autoencoding Variational Autoencoder](avae), NeurIPS 2020\n*   [Self-Supervised MultiModal Versatile Networks](mmv), NeurIPS 2020\n*   [ODE-GAN: Training GANs by Solving Ordinary Differential Equations](ode_gan), NeurIPS 2020\n*   [Algorithms for Causal Reasoning in Probability Trees](causal_reasoning)\n*   [Gated Linear Networks](gated_linear_networks), NeurIPS 2020\n*   [Value-driven Hindsight Modelling](himo), NeurIPS 2020\n*   [Targeted free energy estimation via learned mappings](learned_free_energy_estimation), Journal of Chemical Physics 2020\n*   [Learning to Simulate Complex Physics with Graph Networks](learning_to_simulate), ICML 2020\n*   [Physically Embedded Planning Problems](physics_planning_games)\n*   [PolyGen: PolyGen: An Autoregressive Generative Model of 3D Meshes](polygen), ICML 2020\n*   [Bootstrap Your Own Latent](byol)\n*   [Catch & Carry: Reusable Neural Controllers for Vision-Guided Whole-Body Tasks](catch_carry), SIGGRAPH 2020\n*   [MEMO: A Deep Network For Flexible Combination Of Episodic Memories](memo), ICLR 2020\n*   [RL Unplugged: Benchmarks for Offline Reinforcement Learning](rl_unplugged)\n*   [Disentangling by Subspace Diffusion (GEOMANCER)](geomancer), NeurIPS 2020\n*   [What can I do here? A theory of affordances in reinforcement learning](affordances_theory), ICML 2020\n*   [Scaling data-driven robotics with reward sketching and batch reinforcement learning](sketchy), RSS 2020\n*   [Path-Specific Counterfactual Fairness](counterfactual_fairness), AAAI 2019\n*   [The Option Keyboard: Combining Skills in Reinforcement Learning](option_keyboard), NeurIPS 2019\n*   [VISR - Fast Task Inference with Variational Intrinsic Successor Features](visr), ICLR 2020\n*   [Unveiling the predictive power of static structure in glassy systems](glassy_dynamics), Nature Physics 2020\n*   [Multi-Object Representation Learning with Iterative Variational Inference (IODINE)](iodine)\n*   [AlphaFold CASP13](alphafold_casp13), Nature 2020\n*   [Unrestricted Adversarial Challenge](unrestricted_advx)\n*   [Hierarchical Probabilistic U-Net (HPU-Net)](hierarchical_probabilistic_unet)\n*   [Training Language GANs from Scratch](scratchgan), NeurIPS 2019\n*   [Temporal Value Transport](tvt), Nature Communications 2019\n*   [Continual Unsupervised Representation Learning (CURL)](curl), NeurIPS 2019\n*   [Unsupervised Learning of Object Keypoints (Transporter)](transporter), NeurIPS 2019\n*   [BigBiGAN](bigbigan), NeurIPS 2019\n*   [Deep Compressed Sensing](cs_gan), ICML 2019\n*   [Side Effects Penalties](side_effects_penalties)\n*   [PrediNet Architecture and Relations Game Datasets](PrediNet)\n*   [Unsupervised Adversarial Training](unsupervised_adversarial_training), NeurIPS 2019\n*   [Graph Matching Networks for Learning the Similarity of Graph Structured\n    Objects](graph_matching_networks), ICML 2019\n*   [REGAL: Transfer Learning for Fast Optimization of Computation Graphs](regal)\n*   [Deep Ensembles: A Loss Landscape Perspective](ensemble_loss_landscape)\n*   [Powerpropagation](powerpropagation)\n*   [Physics Inspired Models](physics_inspired_models)\n\n\n\n## Disclaimer\n\n*This is not an official Google product.*\n","# DeepMind 研究\n\n本仓库包含与 DeepMind 出版物配套的实现和示例代码。除了发表在 DeepMind 进行的研究相关的论文外，我们还开源了\n[环境](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-environments\u002F)、\n[数据集](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-datasets\u002F) 和\n[代码](https:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fopen-source\u002Fopen-source-code\u002F)，\n以帮助更广泛的科研社区参与并在此基础上开展工作，最终目标是加速科学进步，造福社会。\n例如，您可以基于我们的\n[深度 Q 网络](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdqn) 或\n[微分神经计算机](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdnc) 实现进行开发，或者在我们用于研究的相同环境中进行实验，如\n[DeepMind Lab](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab) 或\n[星际争霸 II](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fpysc2)。\n\n如果您喜欢构建工具、环境、软件库以及其他类似下方列出的基础架构，您可以在我们的\n[招聘页面](https:\u002F\u002Fdeepmind.com\u002Fcareers\u002F) 查看相关领域的开放职位。\n\n有关我们出版物的完整列表，请参阅\nhttps:\u002F\u002Fdeepmind.com\u002Fresearch\u002Fpublications\u002F\n\n## 项目\n\n*   [通过深度强化学习对托卡马克等离子体进行磁控](fusion_tcv)，Nature 2022\n*   [通过解决分数电子问题推进密度泛函理论的边界](density_functional_approximation_dm21)，Science 2021\n*   [关注差距：评估神经语言模型中的时间泛化能力](pitfalls_static_language_models)，NeurIPS 2021\n*   [深度强化学习中被动学习的困难](tandem_dqn)，NeurIPS 2021\n*   [利用雷达的深度生成模型进行熟练的降水临近预报](nowcasting)，Nature 2021\n*   [作为语言的计算辅助设计](cadl)\n*   [持续学习的编码器与集成](continual_learning)\n*   [迈向心理时间旅行：强化学习智能体的层次化记忆](hierarchical_transformer_memory)\n*   [Perceiver IO：一种适用于结构化输入与输出的通用架构](perceiver)\n*   [使用神经网络求解混合整数规划问题](neural_mip_solving)\n*   [用于带标签噪声学习的真实感仿真框架](noisy_label)\n*   [在新环境中快速解决问题](rapid_task_solving)，ICLR 2021\n*   [WikiGraphs：维基百科-知识图谱配对数据集](wikigraphs)，TextGraphs 2021\n*   [高效强化学习的行为先验](box_arrangement)\n*   [利用图网络学习基于网格的仿真](meshgraphnets)，ICLR 2021\n*   [开放图基准——大规模挑战 (OGB-LSC)](ogb_lsc)\n*   [长期信用分配的合成回报](synthetic_returns)\n*   [用于表征大型星系合并的深度学习方法](galaxy_mergers)\n*   [更好、更快的费米子神经网络](kfac_ferminet_alpha)（KFAC 实现）\n*   [基于对象的关注机制用于时空推理](object_attention_for_reasoning)\n*   [通过整合长程相互作用从序列有效预测基因表达](enformer)\n*   [Satore：带有原子重写的一阶逻辑饱和](satore)\n*   [表征信号传播以缩小未归一化 ResNet 的性能差距](nfnets)，ICLR 2021\n*   [揭示对抗训练在范数有界对抗样本下的局限性](adversarial_robustness)\n*   [通过跨模态自监督学习丰富的触觉表征](cmtouch)，CoRL 2020\n*   [持续学习中的函数正则化](functional_regularisation_for_continual_learning)，ICLR 2020\n*   [自编码变分自编码器](avae)，NeurIPS 2020\n*   [自监督的多模态多功能网络](mmv)，NeurIPS 2020\n*   [ODE-GAN：通过求解常微分方程训练 GAN](ode_gan)，NeurIPS 2020\n*   [概率树中因果推理的算法](causal_reasoning)\n*   [门控线性网络](gated_linear_networks)，NeurIPS 2020\n*   [价值驱动的回溯建模](himo)，NeurIPS 2020\n*   [通过学习映射进行目标自由能估计](learned_free_energy_estimation)，Journal of Chemical Physics 2020\n*   [利用图网络学习复杂物理系统的仿真](learning_to_simulate)，ICML 2020\n*   [物理嵌入式规划问题](physics_planning_games)\n*   [PolyGen：3D 网格的自回归生成模型](polygen)，ICML 2020\n*   [自举你自己的潜在表示](byol)\n*   [抓取与搬运：面向视觉引导全身任务的可重用神经控制器](catch_carry)，SIGGRAPH 2020\n*   [MEMO：一种用于灵活组合情景记忆的深度网络](memo)，ICLR 2020\n*   [RL Unplugged：离线强化学习的基准测试](rl_unplugged)\n*   [通过子空间扩散解耦（GEOMANCER）](geomancer)，NeurIPS 2020\n*   [我在这里能做什么？强化学习中可供性的理论](affordances_theory)，ICML 2020\n*   [通过奖励草图和批量强化学习扩展数据驱动的机器人技术](sketchy)，RSS 2020\n*   [路径特异性反事实公平性](counterfactual_fairness)，AAAI 2019\n*   [选项键盘：在强化学习中组合技能](option_keyboard)，NeurIPS 2019\n*   [VISR：利用变分内在成功特征进行快速任务推理](visr)，ICLR 2020\n*   [揭示玻璃态系统中静态结构的预测能力](glassy_dynamics)，Nature Physics 2020\n*   [利用迭代变分推断进行多对象表征学习（IODINE）](iodine)\n*   [AlphaFold CASP13](alphafold_casp13)，Nature 2020\n*   [无限制对抗挑战](unrestricted_advx)\n*   [层次化概率 U-Net（HPU-Net）](hierarchical_probabilistic_unet)\n*   [从头开始训练语言 GAN](scratchgan)，NeurIPS 2019\n*   [时间价值传递](tvt)，Nature Communications 2019\n*   [持续的无监督表征学习（CURL）](curl)，NeurIPS 2019\n*   [对象关键点的无监督学习（Transporter）](transporter)，NeurIPS 2019\n*   [BigBiGAN](bigbigan)，NeurIPS 2019\n*   [深度压缩感知](cs_gan)，ICML 2019\n*   [副作用惩罚](side_effects_penalties)\n*   [PrediNet 架构及关系游戏数据集](PrediNet)\n*   [无监督对抗训练](unsupervised_adversarial_training)，NeurIPS 2019\n*   [用于学习图结构对象相似性的图匹配网络](graph_matching_networks)，ICML 2019\n*   [REGAL：用于快速优化计算图的迁移学习](regal)\n*   [深度集成：从损失景观的角度来看](ensemble_loss_landscape)\n*   [Powerpropagation](powerpropagation)\n*   [受物理学启发的模型](physics_inspired_models)\n\n\n\n## 免责声明\n\n*本项目并非 Google 官方产品。*","# DeepMind Research 快速上手指南\n\n`deepmind-research` 是 DeepMind 官方开源的代码仓库，收录了配合其学术论文发布的实现代码和示例。该仓库并非单一的库，而是包含多个独立研究项目（如 AlphaFold、Perceiver、BYOL 等）的集合。以下指南将帮助你快速开始使用其中的具体项目。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下基本要求。由于不同子项目依赖可能略有差异，建议为每个项目创建独立的虚拟环境。\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**: Python 3.7 - 3.9 (具体版本需参考所选子项目的 `requirements.txt`)。\n*   **硬件要求**: 多数深度学习项目需要 NVIDIA GPU 及对应的 CUDA 驱动。\n*   **前置工具**:\n    *   Git\n    *   pip 或 conda (推荐使用 conda 管理环境)\n\n**推荐配置命令：**\n\n```bash\n# 安装 git 和 python (以 Ubuntu 为例)\nsudo apt-get update\nsudo apt-get install -y git python3 python3-pip python3-venv\n\n# 如果使用 conda\n# wget https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-latest-Linux-x86_64.sh\n# bash Miniconda3-latest-Linux-x86_64.sh\n```\n\n> **国内加速提示**：在中国大陆地区，建议使用清华源或阿里源加速 pip 和 conda 下载。\n> *   Pip 临时加速：`-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> *   Conda 配置：`conda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F`\n\n## 安装步骤\n\n由于仓库包含多个独立项目，**不存在统一的“一键安装”命令**。你需要选择感兴趣的具体项目目录进行安装。\n\n以下以通用的安装流程为例（假设你选择了一个名为 `project_name` 的子目录）：\n\n1.  **克隆仓库**\n\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdeepmind-research.git\n    cd deepmind-research\n    ```\n\n2.  **创建并激活虚拟环境**\n\n    ```bash\n    # 使用 venv\n    python3 -m venv env\n    source env\u002Fbin\u002Factivate\n\n    # 或者使用 conda\n    # conda create -n dm_research python=3.8\n    # conda activate dm_research\n    ```\n\n3.  **进入特定项目目录并安装依赖**\n\n    浏览 `Projects` 列表，进入你感兴趣的项目文件夹（例如 `byol` 或 `perceiver`），然后安装依赖。\n\n    ```bash\n    # 示例：进入 BYOL 项目目录\n    cd byol\n\n    # 安装该项目特定的依赖\n    pip install -r requirements.txt\n    # 国内加速版：\n    # pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n    *注意：部分项目可能需要额外的系统级依赖（如 TensorFlow 或 JAX 的特定版本），请务必阅读该项目目录下的 `README.md` 获取详细指引。*\n\n## 基本使用\n\n每个项目的具体用法不同，通常包含数据预处理、训练脚本和评估脚本。以下是一个典型的运行示例（以大多数项目通用的训练入口为例）：\n\n1.  **查看可用参数**\n\n    大多数脚本支持 `--help` 参数来查看配置选项。\n\n    ```bash\n    python train.py --help\n    ```\n\n2.  **运行训练示例**\n\n    通常在项目根目录下运行主训练脚本。以下是一个伪代码示例，具体文件名请参考对应项目的文档：\n\n    ```bash\n    # 示例：启动训练任务\n    python train.py \\\n      --dataset_dir=\u002Fpath\u002Fto\u002Fdata \\\n      --model_config=configs\u002Fdefault.json \\\n      --output_dir=\u002Fpath\u002Fto\u002Fsave\u002Fresults\n    ```\n\n3.  **验证安装**\n\n    许多项目提供简单的单元测试或演示脚本来验证环境是否正确配置。\n\n    ```bash\n    # 运行测试（如果项目提供）\n    pytest tests\u002F\n    \n    # 或者运行一个简单的 demo 脚本\n    python demo.py\n    ```\n\n**重要提示**：\n*   请始终优先阅读你所选具体子项目文件夹内的 `README.md`，那里有针对该算法最准确的运行指令和数据集下载链接。\n*   本仓库代码主要用于复现论文结果和研究参考，部分代码可能未针对生产环境进行封装。","某顶尖高校的计算生物学团队正试图利用深度学习预测基因序列的长程相互作用，以加速罕见病致病机理的研究。\n\n### 没有 deepmind-research 时\n- 团队需从零复现《Nature》上发表的 Enformer 模型架构，因缺乏官方参考代码，极易在注意力机制实现上出现隐蔽偏差。\n- 处理海量基因序列数据时，缺少经过验证的数据预处理流水线，导致清洗和特征工程耗时数周且结果不可复现。\n- 难以直接复用 DeepMind 针对生物序列优化的训练技巧（如长上下文窗口管理），模型收敛缓慢且显存占用远超预期。\n- 面对复杂的实验环境配置，研究人员需自行摸索依赖库版本兼容性，大量精力浪费在调试环境而非算法创新上。\n\n### 使用 deepmind-research 后\n- 直接调用仓库中开源的 Enformer 官方实现，确保核心算法与顶刊论文完全一致，将模型构建时间从数周缩短至几天。\n- 沿用配套的标准化数据加载器与预处理脚本，快速构建高质量的基因序列数据集，显著提升实验的可复现性。\n- 借鉴项目中成熟的大规模序列训练策略与优化器配置，模型训练效率提升 40%，并在同等算力下实现了更优的预测精度。\n- 基于提供的完整环境依赖说明，一键搭建起与 DeepMind 内部一致的开发环境，让团队能立即专注于下游的生物学发现。\n\ndeepmind-research 通过将顶刊成果转化为可执行代码，消除了学术界与工业界顶尖研究之间的“复现鸿沟”，让科研人员能站在巨人的肩膀上快速创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_deepmind-research_3259f6f2.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","",null,"https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[80,84,88,92,96,99,103,107,110,113],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",76.2,{"name":85,"color":86,"percentage":87},"Python","#3572A5",21.2,{"name":89,"color":90,"percentage":91},"Racket","#3c5caa",1.4,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.5,{"name":97,"color":98,"percentage":95},"Lua","#000080",{"name":100,"color":101,"percentage":102},"OpenEdge ABL","#5ce600",0.1,{"name":104,"color":105,"percentage":106},"C++","#f34b7d",0,{"name":108,"color":109,"percentage":106},"Starlark","#76d275",{"name":111,"color":112,"percentage":106},"C","#555555",{"name":114,"color":115,"percentage":106},"PureBasic","#5a6986",14820,2864,"2026-04-08T14:47:45","Apache-2.0",4,"未说明",{"notes":123,"python":121,"dependencies":124},"该仓库是 DeepMind 研究论文的代码实现集合，并非单一工具。每个子项目（如 AlphaFold, Perceiver, Enformer 等）都有独立的环境配置和依赖要求，需进入具体项目子目录查看各自的 README 或 requirements.txt 文件以获取详细的运行环境信息。",[],[14,126],"其他","2026-03-27T02:49:30.150509","2026-04-09T05:23:03.371246",[130,135,140,144,149,153,158],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},25645,"DM21 泛函在计算长键（如 H2 或 F2 解离）时出现收敛失败，如何解决？","这是预期行为。如图 2d 所示，在整数占据数下，DM21 在长距离处的能量接近最大值，导致收敛困难。使用分数占据数（fractional occupations）优化算法可以改善解离曲线的能量表现。该优化算法的详细步骤在论文的补充材料（Supplementary material）中有描述，但目前尚未开源该算法的代码。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fdeepmind-research\u002Fissues\u002F316",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},25646,"运行 MeshGraphNets 训练命令时出现 'flag --mode=train=cloth: value should be one of \u003Ctrain|eval>' 错误，如何修复？","错误原因是命令行参数格式不正确。不应将模型名称直接拼接到 mode 参数中（如 --mode=train=cloth）。正确的做法是将 mode 和 model 分开指定：\npython -m run_model --mode=train --model=cloth --checkpoint_dir=\u003C路径> --dataset_dir=\u003C路径>\n其中 --mode 只能是 'train' 或 'eval'，模型类型通过单独的 --model 标志指定。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fdeepmind-research\u002Fissues\u002F315",{"id":141,"question_zh":142,"answer_zh":143,"source_url":139},25647,"MeshGraphNets 代码运行时报 'invalid tensor rank' 或 'unique_edges has rank 1' 错误，原因是什么？","这通常是因为代码被修改后导致边处理逻辑出错。`unique_edges` 在经过 `unique` 操作并转换回 `tf.int32` 后，其秩（rank）应始终为 2。如果变为 1，说明数据处理流程有误。建议重新克隆干净的代码库运行，确保未修改核心逻辑。确认边构建代码包含类似以下逻辑：\npacked_edges = tf.bitcast(tf.stack([senders, receivers], axis=1), tf.int64)",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},25648,"MeshGraphNets 中的 World Edges（世界边）是否连接布料节点与障碍物节点？如何实现碰撞模拟？","World Edges 不仅连接布料内部节点，也可以连接布料节点与障碍物节点，从而模拟碰撞和自碰撞。实现时需根据世界坐标（world_pos）计算距离，若小于设定半径则建立边。注意：对于 DeformingPlate 等数据集，输入仅包含相对位置而不包含速度，且噪声（如 0.003）是在计算连通性之前添加的。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fdeepmind-research\u002Fissues\u002F275",{"id":150,"question_zh":151,"answer_zh":152,"source_url":148},25649,"训练 MeshGraphNets 时在约 21k 步后因内存不足（OOM）崩溃，如何解决？","这可能是由于某些训练样本生成的图过大导致的。建议采取以下措施：\n1. 记录每个 batch 中的节点数和边数，排查是否有异常大的图。\n2. 跳过那些图过大的 batch。\n3. 减小 batch size（例如从 2 减为 1）以降低显存占用。",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},25650,"Hierarchical Perceiver (HiP) 的代码和预训练模型何时发布？","截至该 Issue 关闭时，官方尚未给出确切的发布日期。社区用户曾询问是否有粗略估计（如未来 6 个月内），但维护者未提供具体时间表。建议关注仓库更新或相关论文发布渠道以获取最新状态。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fdeepmind-research\u002Fissues\u002F332",{"id":159,"question_zh":160,"answer_zh":161,"source_url":134},25651,"分数占据数优化算法能否改善传统泛函（如 B3LYP）在长距离解离曲线上的表现？","是的，分数占据数优化算法有望改善传统泛函在长距离下的表现。虽然 DM21 在整数占据下存在局限，但引入分数占据后能量会得到优化。该算法细节已在论文补充材料中公开，尽管开源代码暂未可用，但其原理适用于其他泛函的改进研究。",[]]