[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--scalable_agent":3,"tool-google-deepmind--scalable_agent":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":110,"github_topics":79,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":144},3338,"google-deepmind\u002Fscalable_agent","scalable_agent","A TensorFlow implementation of Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures.","scalable_agent 是一个基于 TensorFlow 实现的开源强化学习框架，核心复现了著名的 IMPALA（重要性加权演员 - 学习者架构）算法。它主要解决了传统深度强化学习在大规模训练时面临的效率瓶颈与稳定性难题，通过独特的“动态批处理”模块和分布式架构，让多个智能体（Actor）能并行收集数据，而中央学习者（Learner）利用重要性采样技术高效更新模型，从而在海量环境交互中保持快速收敛。\n\n该工具特别适合人工智能研究人员、算法工程师以及需要构建高性能强化学习系统的开发者使用。虽然官方示例基于 DeepMind Lab 环境，但其架构具有极强的通用性，已成功应用于 Atari 游戏、街景导航甚至图像生成等多个领域。对于希望探索分布式训练、提升样本利用率或复现前沿 RL 论文成果的专业用户而言，scalable_agent 提供了一个经过验证的坚实基线。需要注意的是，运行此项目需要配置 TensorFlow、DeepMind Lab 及 Sonnet 等依赖环境，建议具备一定深度学习工程基础的团队使用。","# Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures\n\nThis repository contains an implementation of \"Importance Weighted Actor-Learner\nArchitectures\", along with a *dynamic batching* module. This is not an\nofficially supported Google product.\n\nFor a detailed description of the architecture please read [our paper][arxiv].\nPlease cite the paper if you use the code from this repository in your work.\n\n### Bibtex\n\n```\n@inproceedings{impala2018,\n  title={IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures},\n  author={Espeholt, Lasse and Soyer, Hubert and Munos, Remi and Simonyan, Karen and Mnih, Volodymir and Ward, Tom and Doron, Yotam and Firoiu, Vlad and Harley, Tim and Dunning, Iain and others},\n  booktitle={Proceedings of the International Conference on Machine Learning (ICML)},\n  year={2018}\n}\n```\n\n## Running the Code\n\n### Prerequisites\n\n[TensorFlow][tensorflow] >=1.9.0-dev20180530, the environment\n[DeepMind Lab][deepmind_lab] and the neural network library\n[DeepMind Sonnet][sonnet]. Although we use [DeepMind Lab][deepmind_lab] in this\nrelease, the agent has been successfully applied to other domains such as\n[Atari][arxiv], [Street View][learning_nav] and has been modified to\n[generate images][generate_images].\n\nWe include a [Dockerfile][dockerfile] that serves as a reference for the\nprerequisites and commands needed to run the code.\n\n### Single Machine Training on a Single Level\n\nTraining on `explore_goal_locations_small`. Most runs should end up with average\nepisode returns around 200 or around 250 after 1B frames.\n\n```sh\npython experiment.py --num_actors=48 --batch_size=32\n```\n\nAdjust the number of actors (i.e. number of environments) and batch size to\nmatch the size of the machine it runs on. A single actor, including DeepMind\nLab, requires a few hundred MB of RAM.\n\n### Distributed Training on DMLab-30\n\nTraining on the full [DMLab-30][dmlab30]. Across 10 runs with different seeds\nbut identical hyperparameters, we observed between 45 and 50 capped human\nnormalized training score with different seeds (`--seed=[seed]`). Test scores\nare usually an absolute of ~2% lower.\n\n#### Learner\n\n```sh\npython experiment.py --job_name=learner --task=0 --num_actors=150 \\\n    --level_name=dmlab30 --batch_size=32 --entropy_cost=0.0033391318945337044 \\\n    --learning_rate=0.00031866995608948655 \\\n    --total_environment_frames=10000000000 --reward_clipping=soft_asymmetric\n```\n\n#### Actor(s)\n\n```sh\nfor i in $(seq 0 149); do\n  python experiment.py --job_name=actor --task=$i \\\n      --num_actors=150 --level_name=dmlab30 --dataset_path=[...] &\ndone;\nwait\n```\n\n#### Test Score\n\n```sh\npython experiment.py --mode=test --level_name=dmlab30 --dataset_path=[...] \\\n    --test_num_episodes=10\n```\n\n[arxiv]: https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01561\n[deepmind_lab]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab\n[sonnet]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\n[learning_nav]: https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.00168\n[generate_images]: https:\u002F\u002Fdeepmind.com\u002Fblog\u002Flearning-to-generate-images\u002F\n[tensorflow]: https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\n[dockerfile]: Dockerfile\n[dmlab30]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab\u002Ftree\u002Fmaster\u002Fgame_scripts\u002Flevels\u002Fcontributed\u002Fdmlab30\n","# 带有重要性加权执行者-学习者架构的可扩展分布式深度强化学习\n\n本仓库包含“重要性加权执行者-学习者架构”的实现，以及一个*动态批处理*模块。这并非 Google 官方支持的产品。\n\n有关该架构的详细描述，请参阅[我们的论文][arxiv]。如果您在工作中使用了本仓库中的代码，请引用该论文。\n\n### Bibtex\n\n```\n@inproceedings{impala2018,\n  title={IMPALA: Scalable Distributed Deep-RL with Importance Weighted Actor-Learner Architectures},\n  author={Espeholt, Lasse and Soyer, Hubert and Munos, Remi and Simonyan, Karen and Mnih, Volodymir and Ward, Tom and Doron, Yotam and Firoiu, Vlad and Harley, Tim and Dunning, Iain and others},\n  booktitle={Proceedings of the International Conference on Machine Learning (ICML)},\n  year={2018}\n}\n```\n\n## 运行代码\n\n### 先决条件\n\n[TensorFlow][tensorflow] >=1.9.0-dev20180530，环境[DeepMind Lab][deepmind_lab]，以及神经网络库[DeepMind Sonnet][sonnet]。尽管我们在此次发布中使用了[DeepMind Lab][deepmind_lab]，但该智能体已成功应用于其他领域，例如[Atari][arxiv]、[Street View][learning_nav]，并被修改用于[生成图像][generate_images]。\n\n我们提供了一个[Dockerfile][dockerfile]，作为运行代码所需先决条件和命令的参考。\n\n### 单机单关卡训练\n\n在 `explore_goal_locations_small` 上进行训练。大多数实验在经过 10 亿帧后，平均每个episode的回报应达到约 200 或 250。\n\n```sh\npython experiment.py --num_actors=48 --batch_size=32\n```\n\n请根据运行机器的规模调整执行者的数量（即环境的数量）和批大小。单个执行者（包括 DeepMind Lab）大约需要几百 MB 的内存。\n\n### 在 DMLab-30 上进行分布式训练\n\n在完整的 [DMLab-30][dmlab30] 上进行训练。在 10 次使用不同随机种子但超参数完全相同的实验中，我们观察到不同种子下（`--seed=[seed]`）的上限为 50 的人类归一化训练分数介于 45 到 50 之间。测试分数通常会低约 2%。\n\n#### 学习者\n\n```sh\npython experiment.py --job_name=learner --task=0 --num_actors=150 \\\n    --level_name=dmlab30 --batch_size=32 --entropy_cost=0.0033391318945337044 \\\n    --learning_rate=0.00031866995608948655 \\\n    --total_environment_frames=10000000000 --reward_clipping=soft_asymmetric\n```\n\n#### 执行者\n\n```sh\nfor i in $(seq 0 149); do\n  python experiment.py --job_name=actor --task=$i \\\n      --num_actors=150 --level_name=dmlab30 --dataset_path=[...] &\ndone;\nwait\n```\n\n#### 测试分数\n\n```sh\npython experiment.py --mode=test --level_name=dmlab30 --dataset_path=[...] \\\n    --test_num_episodes=10\n```\n\n[arxiv]: https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01561\n[deepmind_lab]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab\n[sonnet]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet\n[learning_nav]: https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.00168\n[generate_images]: https:\u002F\u002Fdeepmind.com\u002Fblog\u002Flearning-to-generate-images\u002F\n[tensorflow]: https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\n[dockerfile]: Dockerfile\n[dmlab30]: https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab\u002Ftree\u002Fmaster\u002Fgame_scripts\u002Flevels\u002Fcontributed\u002Fdmlab30","# scalable_agent 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下前置依赖要求：\n\n*   **操作系统**: Linux (推荐，官方提供 Dockerfile 参考)\n*   **Python 版本**: 兼容 TensorFlow 1.9+ 的版本\n*   **核心依赖**:\n    *   [TensorFlow](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow) >= 1.9.0-dev20180530\n    *   [DeepMind Lab](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Flab): 强化学习环境\n    *   [DeepMind Sonnet](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet): 神经网络库\n*   **硬件资源**: \n    *   单个 Actor（包含 DeepMind Lab 环境）约需几百 MB 内存。\n    *   请根据机器配置调整 Actor 数量（`--num_actors`）和批次大小（`--batch_size`）。\n\n> **提示**: 项目根目录包含 `Dockerfile`，可作为安装环境和运行命令的权威参考。国内开发者若遇到 GitHub 克隆或依赖下载缓慢问题，建议配置国内镜像源或使用代理加速。\n\n## 安装步骤\n\n由于依赖项较为复杂（特别是 DeepMind Lab 需要编译），强烈建议使用官方提供的 Docker 环境或参照 `Dockerfile` 进行安装。\n\n1.  **克隆代码库**:\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fscalable_agent.git\n    cd scalable_agent\n    ```\n\n2.  **安装依赖**:\n    请确保已安装 TensorFlow、Sonnet 和 DeepMind Lab。若使用 pip 安装 Python 包：\n    ```bash\n    pip install tensorflow>=1.9.0\n    pip install dm-sonnet\n    # DeepMind Lab 需要从源码编译安装，请参考其官方 GitHub 文档\n    ```\n\n## 基本使用\n\n以下示例展示如何在单机上对单个关卡进行训练。\n\n### 单机单关卡训练\n\n此命令将在 `explore_goal_locations_small` 关卡上启动训练。默认配置下，经过 10 亿帧（1B frames）的训练后，平均回合回报通常在 200 到 250 之间。\n\n```sh\npython experiment.py --num_actors=48 --batch_size=32\n```\n\n**参数调整建议**:\n*   `--num_actors`: 调整并发环境数量。数值越大，数据采集越快，但内存消耗也越高。\n*   `--batch_size`: 调整批次大小，需匹配机器算力。\n\n### 进阶：分布式训练 (DMLab-30)\n\n若需在多台机器或大规模单机上进行分布式训练（例如 DMLab-30 全套关卡），需分别启动 Learner（学习者）和 Actors（执行者）。\n\n**1. 启动 Learner:**\n```sh\npython experiment.py --job_name=learner --task=0 --num_actors=150 \\\n    --level_name=dmlab30 --batch_size=32 --entropy_cost=0.0033391318945337044 \\\n    --learning_rate=0.00031866995608948655 \\\n    --total_environment_frames=10000000000 --reward_clipping=soft_asymmetric\n```\n\n**2. 启动 Actors (循环启动 150 个进程):**\n```sh\nfor i in $(seq 0 149); do\n  python experiment.py --job_name=actor --task=$i \\\n      --num_actors=150 --level_name=dmlab30 --dataset_path=[...] &\ndone;\nwait\n```\n\n**3. 测试评估:**\n训练完成后，可使用以下命令评估模型得分：\n```sh\npython experiment.py --mode=test --level_name=dmlab30 --dataset_path=[...] \\\n    --test_num_episodes=10\n```\n\n> **注意**: 分布式训练中，请确保所有节点网络互通，并根据实际路径替换 `[...]` 中的数据集路径。","某自动驾驶研发团队正试图利用深度强化学习训练车辆在复杂城市路况（类似 DMLab-30 环境）中的导航策略，以应对动态障碍物和多变的路径规划挑战。\n\n### 没有 scalable_agent 时\n- **训练效率极低**：单台机器串行采集数据，智能体需数周才能遍历足够多的驾驶场景，严重拖慢算法迭代周期。\n- **资源利用率不均**：增加并行环境时，由于缺乏动态批处理机制，GPU 经常处于空闲等待状态，计算资源被大量浪费。\n- **策略更新滞后**：数据采集（Actor）与模型训练（Learner）耦合紧密，导致模型无法及时利用最新的路况经验，收敛速度慢且不稳定。\n- **扩展成本高昂**：想要提升训练速度只能堆砌高性能单机，难以利用廉价的分布式集群进行横向扩展。\n\n### 使用 scalable_agent 后\n- **训练速度飞跃**：依托重要性加权 Actor-Learner 架构，团队轻松部署 150+ 个并行演员节点，将原本数周的训练时间压缩至数天。\n- **算力满载运行**：内置的动态批处理模块自动聚合不同步长的数据，确保 GPU 持续满负荷运算，显著降低了单次实验的硬件成本。\n- **实时策略进化**：分离式架构允许 Learner 异步更新模型，智能体能即时吸收来自各个路口的最新驾驶教训，大幅提升了策略在复杂场景下的鲁棒性。\n- **弹性集群部署**：支持标准的分布式任务配置，研究人员可根据需求灵活增减 Actor 数量，无缝适配从单卡调试到大规模集群训练的各种场景。\n\nscalable_agent 通过解耦数据采集与模型训练并引入动态批处理，将深度强化学习从“单兵作战”升级为高效的“分布式协同”，彻底解决了复杂环境下训练慢、成本高的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_scalable_agent_d07e7bc6.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","",null,"https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",82.5,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",15.1,{"name":92,"color":93,"percentage":94},"Dockerfile","#384d54",2.4,1019,160,"2026-04-02T12:51:39","Apache-2.0",5,"Linux","未说明（基于 TensorFlow 1.9，通常建议配备支持 CUDA 的 NVIDIA GPU，但文中未明确型号或显存要求）","单 Actor 需数百 MB；分布式训练（150 Actors）建议数 GB 至数十 GB",{"notes":104,"python":105,"dependencies":106},"该项目非 Google 官方支持产品。虽然示例使用 DeepMind Lab，但该架构也适用于 Atari、Street View 等环境。官方提供了 Dockerfile 作为环境配置参考。分布式训练时需分别启动 Learner 和多个 Actor 进程。","未说明（需兼容 TensorFlow >=1.9.0-dev20180530 的版本，推测为 Python 2.7 或 3.5-3.6）",[107,108,109],"tensorflow>=1.9.0-dev20180530","deepmind_lab","deepmind_sonnet",[13,15],"2026-03-27T02:49:30.150509","2026-04-06T05:17:30.544465",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},15319,"如何在测试模式下可视化智能体（Agent）的行为或记录轨迹？","默认的测试模式（--mode=test）只会输出平均回合回报（Mean episode return），不会自动生成可视化文件。如果需要记录智能体的动作和观察值以便后续可视化，您需要编写一个包装类（wrapper class）来包裹环境，在该类中拦截并记录每一步的动作（actions）和观察值（observations）。代码本身不提供直接的可视化界面，需要用户根据记录的数据自行实现可视化逻辑。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F46",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},15320,"为什么队列容量（capacity）设置为 1，却可以一次性出队（dequeue）大于 1 的批量大小（batch_size）？","即使 tf.FIFOQueue 的容量设置为 1，也可以出队更多元素。当请求出队的数量超过当前队列容量时，出队操作会阻塞，直到有足够的入队操作发生来解除阻塞。将容量设置为 1（而不是演员数量或其他值）的主要原因是：限制每个演员（actor）在批次中能贡献的经验量，从而保持批次数据的多样性，减少经验之间的相关性，并防止行为策略（behaviour policy）过于滞后于目标策略（target policy）。理想情况下容量应为 0（即阻塞通道），但 TensorFlow 不支持。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F5",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},15321,"该项目支持多机分布式训练吗？如何配置？","是的，该项目支持多机分布式训练，它使用的是分布式 TensorFlow（Distributed TF）。要进行多机训练，您需要具备分布式 TensorFlow 的相关知识。具体配置步骤是：修改 `experiment.py` 文件中的集群规范（cluster spec）以适配您的机器设置，然后在每台机器上运行一个演员进程，并通过命令行参数 `--task=...` 指定对应的任务角色。建议在 README 中补充相关文档链接以帮助新用户。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F2",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},15322,"导入 Sonnet 时报错 'module tensorflow has no attribute function' 怎么办？","该错误通常是因为 TensorFlow 版本不兼容导致的。Sonnet 是基于 TensorFlow 2 构建的，而报错显示您正在使用 TensorFlow 1.9.0（该版本没有 `tf.function` 属性）。虽然项目可能依赖旧版 TF 的某些特性（如 `tf.contrib`），但解决此特定导入错误通常需要升级 TensorFlow 到兼容版本，或者检查 Sonnet 版本是否与当前的 TF 版本匹配。注意：如果升级到 TF2，原本依赖 `tf.contrib` 的代码可能需要重构，因为 TF2 移除了 contrib 模块。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F47",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},15323,"运行实验时提示 'Sonnet requires tensorflow_probability' 错误如何解决？","这是因为 Sonnet 依赖 `tensorflow-probability` 库且对版本有最低要求（例如 0.4.0）。即使您认为已安装，也可能版本过低或未正确安装到当前环境。请运行以下命令安装或升级该依赖：`pip install tensorflow-probability` 或 `pip install tensorflow-probability-gpu`。安装完成后，请再次检查版本号是否满足 Sonnet 的要求。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F28",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},15324,"可以在不使用 Sonnet 的情况下运行 IMPALA 吗？是否必须使用 Placeholder 和 Session？","可以不使用 Sonnet。Sonnet 只是一个构建神经网络的库，您可以将其替换为 `tf.layers`、`tf.keras` 或其他 TensorFlow 原生模块来定义网络结构。关于执行方式，虽然示例代码使用了 Session 和 Placeholder（TF1 风格），但这并非强制要求。核心逻辑在于模型定义和优化，您可以尝试使用 TF2 的即时执行模式（Eager Execution）重写前向传播部分，但这可能需要对代码进行较多修改以适应新的 API。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fscalable_agent\u002Fissues\u002F6",[]]