[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-shariqiqbal2810--maddpg-pytorch":3,"tool-shariqiqbal2810--maddpg-pytorch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":107,"github_topics":81,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":108,"updated_at":109,"faqs":110,"releases":141},2267,"shariqiqbal2810\u002Fmaddpg-pytorch","maddpg-pytorch","PyTorch Implementation of MADDPG (Lowe et. al. 2017)","maddpg-pytorch 是一个基于 PyTorch 框架实现的开源项目，复现了经典的 MADDPG（多智能体深度确定性策略梯度）算法。它旨在解决复杂环境下的多智能体协作与竞争问题，让多个 AI 代理能够在混合场景中通过自主学习掌握配合、欺骗或围捕等高级策略。\n\n该工具特别适用于人工智能研究人员和开发者，尤其是那些希望深入理解多智能体强化学习（MARL）机制，或需要在自定义环境中验证算法效果的技术人员。借助 maddpg-pytorch，用户可以轻松复现论文中的经典实验，如“物理欺骗”中智能体如何通过掩护迷惑对手，“合作通信”中智能体如何建立语言默契，以及“捕食者 - 猎物”场景下的团队围捕战术。\n\n其技术亮点在于不仅完整还原了核心算法逻辑，还参考了 OpenAI 官方实现进行了优化，包括梯度范数裁剪和策略正则化等细节，确保了训练的稳定性和收敛效果。虽然部分高阶功能（如集成训练）尚未包含，但其清晰的代码结构和基于主流深度学习库的实现，使其成为学习和研究多智能体系统的理想起点。无论是用于学术探索还是算法原型开发，maddpg-pytorch 都提供了一个可靠且灵活的基准平台。","# MADDPG-PyTorch\nPyTorch Implementation of MADDPG from [*Multi-Agent Actor-Critic for Mixed\nCooperative-Competitive Environments*](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.02275) (Lowe et. al. 2017)\n\n## Requirements\n\n* [OpenAI baselines](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines), commit hash: 98257ef8c9bd23a24a330731ae54ed086d9ce4a7\n* My [fork](https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmultiagent-particle-envs) of Multi-agent Particle Environments\n* [PyTorch](http:\u002F\u002Fpytorch.org\u002F), version: 0.3.0.post4\n* [OpenAI Gym](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym), version: 0.9.4\n* [Tensorboard](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorboard), version: 0.4.0rc3 and [Tensorboard-Pytorch](https:\u002F\u002Fgithub.com\u002Flanpa\u002Ftensorboard-pytorch), version: 1.0 (for logging)\n\nThe versions are just what I used and not necessarily strict requirements.\n\n## How to Run\n\nAll training code is contained within `main.py`. To view options simply run:\n\n```\npython main.py --help\n```\n\n## Results\n\n### Physical Deception\n\nIn this task, the two blue agents are rewarded by minimizing the closest of their distances to the green landmark (only one needs to be close to get optimal reward), while maximizing the distance of the red adversary from the green landmark. The red adversary is rewarded by minimizing it's distance to the green landmark; however, on any given trial, it does not know which landmark is green, so it must follow the blue agents. As such, the blue agents should learn to deceive the red agent by covering *both* landmarks.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_922136b845ae.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_e5cc87f9168e.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_829d7d416874.gif\" width=\"33%\">\n\n### Cooperative Communication\n\nThis task involves two agents, one that is stationary and one that can move. The stationary agent sees the color of the other agent as its observation, and outputs a one-hot communication vector as its action. The moving agent receives the communication vector, as well as its relative distance to all landmarks on the screen; however, it does not know its own color. The goal of both agents is for the moving agent to reach the landmark that matches its own color. Thus, the agents must learn to communicate such that the moving agent knows where to go on each randomized trial.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_59c032a5a1de.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_f5006975fc1b.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_ab749059a909.gif\" width=\"33%\">\n\n### Predator-Prey\n\nThis task involves a single prey agent (in green) and a team of three predators (in red). The prey agent is 30% faster than the predators, so the predators must learn how to team up in order to catch the prey.\n\nIn the trials below, the prey agent uses DDPG as its learning algorithm.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_e7496b677817.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_1a5d8b6495de.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_32e557e3daf2.gif\" width=\"33%\">\n\n## Not Implemented\n\nThere are a few items from the paper that have not been implemented in this repo\n\n* Ensemble Training\n* Inferring other agents' policies\n* Mixed continuous\u002Fdiscrete action spaces\n\n## Acknowledgements\n\nThe OpenAI baselines [Tensorflow implementation](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines\u002Ftree\u002Fmaster\u002Fbaselines\u002Fddpg) and Ilya Kostrikov's [Pytorch implementation](https:\u002F\u002Fgithub.com\u002Fikostrikov\u002Fpytorch-ddpg-naf) of DDPG were used as references. After the majority of this codebase was complete, OpenAI released their [code](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fmaddpg) for MADDPG, and I made some tweaks to this repo to reflect some of the details in their implementation (e.g. gradient norm clipping and policy regularization).","# MADDPG-PyTorch\n基于 [*多智能体演员-评论家算法用于混合协作-竞争环境*](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.02275)（Lowe 等，2017）的 MADDPG PyTorch 实现\n\n## 需求\n\n* [OpenAI baselines](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines)，commit hash: 98257ef8c9bd23a24a330731ae54ed086d9ce4a7\n* 我对多智能体粒子环境的[分支](https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmultiagent-particle-envs)\n* [PyTorch](http:\u002F\u002Fpytorch.org\u002F)，版本：0.3.0.post4\n* [OpenAI Gym](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym)，版本：0.9.4\n* [TensorBoard](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorboard)，版本：0.4.0rc3 以及 [TensorBoard-PyTorch](https:\u002F\u002Fgithub.com\u002Flanpa\u002Ftensorboard-pytorch)，版本：1.0（用于日志记录）\n\n这些版本只是我所使用的，并非严格的必要要求。\n\n## 如何运行\n\n所有训练代码都包含在 `main.py` 中。要查看可用选项，只需运行：\n\n```\npython main.py --help\n```\n\n## 结果\n\n### 物理欺骗\n\n在这个任务中，两个蓝色智能体的目标是通过最小化它们与绿色地标之间的最近距离来获得奖励（只要其中一个靠近即可获得最优奖励），同时最大化红色敌对智能体与绿色地标的距离。红色敌对智能体则希望通过缩短它与绿色地标的距离来获得奖励；然而，在每次试验中，它并不知道哪个地标是绿色的，因此必须跟随蓝色智能体。因此，蓝色智能体需要学会通过遮挡*两个*地标来欺骗红色智能体。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_922136b845ae.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_e5cc87f9168e.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_829d7d416874.gif\" width=\"33%\">\n\n### 协作通信\n\n该任务涉及两个智能体：一个静止不动，另一个可以移动。静止智能体将其观察到的另一智能体的颜色作为输入，并输出一个独热编码的通信向量作为动作。移动智能体接收到通信向量以及它与屏幕上所有地标之间的相对距离；但它并不知道自己是什么颜色。双方的目标是让移动智能体到达与其自身颜色匹配的地标。因此，这两个智能体必须学会通过通信使移动智能体在每次随机试验中都能准确找到目标地标。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_59c032a5a1de.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_f5006975fc1b.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_ab749059a909.gif\" width=\"33%\">\n\n### 捕食者-猎物\n\n该任务涉及一个绿色的猎物智能体和一支由三个红色智能体组成的捕食者团队。猎物智能体的速度比捕食者快30%，因此捕食者必须学会协同合作才能抓住猎物。\n\n在下面的试验中，猎物智能体使用 DDPG 作为其学习算法。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_e7496b677817.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_1a5d8b6495de.gif\" width=\"33%\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_readme_32e557e3daf2.gif\" width=\"33%\">\n\n## 尚未实现的功能\n\n论文中提到的一些内容尚未在此仓库中实现：\n\n* 集成训练\n* 推断其他智能体的策略\n* 混合连续\u002F离散动作空间\n\n## 致谢\n\n本项目参考了 OpenAI baselines 的[TensorFlow 实现](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines\u002Ftree\u002Fmaster\u002Fbaselines\u002Fddpg)以及 Ilya Kostrikov 的[PyTorch 实现](https:\u002F\u002Fgithub.com\u002Fikostrikov\u002Fpytorch-ddpg-naf)。在本代码库的大部分工作完成后，OpenAI 发布了他们的 MADDPG [代码](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fmaddpg)，我随后对本仓库进行了一些调整，以反映他们实现中的部分细节（例如梯度范数裁剪和策略正则化）。","# MADDPG-PyTorch 快速上手指南\n\n本指南基于 `maddpg-pytorch` 项目，帮助开发者快速在 PyTorch 环境中复现多智能体演员 - 评论家（MADDPG）算法。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下依赖要求。注意：原文列出的版本为作者测试时的版本，实际使用中建议使用兼容的较新版本，但若遇到复现问题可尝试指定版本。\n\n*   **Python 环境**: 推荐 Python 3.6+\n*   **核心框架**:\n    *   [PyTorch](http:\u002F\u002Fpytorch.org\u002F) (原文测试版本：0.3.0.post4)\n    *   [OpenAI Gym](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym) (原文测试版本：0.9.4)\n*   **关键依赖**:\n    *   [OpenAI Baselines](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines) (需检出特定 commit: `98257ef8c9bd23a24a330731ae54ed086d9ce4a7`)\n    *   [Multi-agent Particle Environments](https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmultiagent-particle-envs) (作者fork 版本)\n*   **可视化工具** (可选，用于日志记录):\n    *   Tensorboard (原文测试版本：0.4.0rc3)\n    *   Tensorboard-Pytorch (原文测试版本：1.0)\n\n> **国内加速建议**：安装 Python 包时，推荐使用清华或阿里镜像源以加快下载速度。\n> 例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`\n\n## 安装步骤\n\n请按顺序执行以下命令来配置运行环境。\n\n### 1. 克隆必要的代码库\n\n首先克隆多智能体粒子环境（使用作者的 fork 版本）和 OpenAI Baselines（切换到指定 commit）。\n\n```bash\n# 克隆多智能体环境\ngit clone https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmultiagent-particle-envs.git\ncd multiagent-particle-envs\npip install -e .\ncd ..\n\n# 克隆 OpenAI Baselines 并切换到指定版本\ngit clone https:\u002F\u002Fgithub.com\u002Fopenai\u002Fbaselines.git\ncd baselines\ngit checkout 98257ef8c9bd23a24a330731ae54ed086d9ce4a7\npip install -e .\ncd ..\n```\n\n### 2. 安装其他依赖\n\n安装 PyTorch、Gym 以及可视化工具。以下命令以 CPU 版本为例，如需 GPU 支持请访问 PyTorch 官网获取对应安装命令。\n\n```bash\n# 使用国内镜像源安装依赖\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch==0.3.0.post4 gym==0.9.4 tensorboard==0.4.0rc3 tensorboard-pytorch==1.0\n```\n*(注：若您的环境无法安装如此古老的 PyTorch 版本，建议尝试较新版本并自行调整代码兼容性，或仅在 Docker 容器中运行原版本)*\n\n### 3. 获取 MADDPG 代码\n\n如果您尚未下载本项目代码，请克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch.git\ncd maddpg-pytorch\n```\n\n## 基本使用\n\n所有训练逻辑均包含在 `main.py` 文件中。\n\n### 查看可用选项\n\n运行以下命令查看支持的参数（如场景选择、超参数设置等）：\n\n```bash\npython main.py --help\n```\n\n### 开始训练\n\n虽然 README 未提供具体的默认运行命令，但通常此类项目的运行方式如下（以“物理欺骗”场景为例，具体场景名称请通过 `--help` 确认）：\n\n```bash\npython main.py --scenario physical_deception\n```\n\n### 实验场景说明\n\n该项目主要包含以下三个经典多智能体协作\u002F竞争场景：\n\n1.  **Physical Deception (物理欺骗)**: 蓝色智能体需掩护绿色地标，误导红色对手；红色对手需追踪蓝色智能体以找到地标。\n2.  **Cooperative Communication (协作通信)**: 一个静止智能体通过通信向量告知移动智能体目标地标的颜色，两者协作完成任务。\n3.  **Predator-Prey (捕食者 - 猎物)**: 三只红色捕食者需团队协作捕捉一只速度更快的绿色猎物。\n\n训练完成后，日志数据可通过 Tensorboard 进行可视化查看。","某智慧物流团队正在开发一套多无人机协同配送系统，需要在动态环境中让多架无人机自主协作完成货物投递，同时规避空中干扰者。\n\n### 没有 maddpg-pytorch 时\n- 各无人机只能基于局部视野独立决策，无法感知队友意图，导致多次重复飞往同一地点或遗漏目标。\n- 面对移动干扰源时，单机策略极易被欺骗，缺乏协同诱敌或包围的战术能力，任务成功率不足 40%。\n- 传统单智能体强化学习算法（如 DDPG）在多方博弈中收敛极慢，且难以处理“合作 - 竞争”混合的复杂奖励机制。\n- 开发者需从零推导多智能体梯度更新公式并手动实现通信协议，研发周期长达数月且代码极难调试。\n\n### 使用 maddpg-pytorch 后\n- 利用集中式训练去中心化执行架构，无人机在训练中共享全局信息，学会了自动分工覆盖不同投送点，协作效率提升显著。\n- 针对物理欺骗场景，智能体成功习得“佯动”战术：部分无人机主动吸引干扰者注意，掩护队友完成核心任务，成功率提升至 85% 以上。\n- 原生支持混合合作与竞争环境，算法能稳定处理复杂的博弈奖励信号，在捕食 - 逃避类动态对抗中表现出成熟的围捕策略。\n- 直接复用基于 PyTorch 的成熟实现，团队省去了底层数学推导与工程搭建时间，仅需一周即可完成从环境配置到模型验证的全流程。\n\nmaddpg-pytorch 将复杂的多智能体博弈理论转化为可落地的工程代码，让分布式智能体在动态对抗中学会了真正的团队协作。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fshariqiqbal2810_maddpg-pytorch_03012aba.png","shariqiqbal2810","Shariq Iqbal","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fshariqiqbal2810_853385c1.jpg","Applied reinforcement learning research","Deepmind","London, UK",null,"shariqbal","https:\u002F\u002Fshariqiqbal2810.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,688,138,"2026-03-27T04:06:56","MIT",4,"","未说明",{"notes":98,"python":99,"dependencies":100},"该项目基于较旧的 PyTorch 版本 (0.3.0)，与现代环境兼容性可能较差。依赖中的 OpenAI baselines 需安装特定 commit 哈希版本，且多智能体粒子环境需使用作者提供的 fork 版本而非官方原版。","未说明 (基于 PyTorch 0.3.0 推测为 Python 2.7 或 3.5\u002F3.6)",[101,102,103,104,105,106],"openai-baselines (commit: 98257ef)","multiagent-particle-envs (fork)","pytorch==0.3.0.post4","gym==0.9.4","tensorboard==0.4.0rc3","tensorboard-pytorch==1.0",[13,15],"2026-03-27T02:49:30.150509","2026-04-06T05:44:06.447803",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},10406,"运行 main.py 时提示缺少必需参数 env_id 和 model_name，应该如何正确传入这些参数？","这些是必需的位置参数，不需要使用标志名（如 --env_id），只需按顺序直接输入即可。例如：\npython main.py simple_tag model_name\n注意：不要添加 '--' 前缀，否则会导致 'unrecognized arguments' 错误。","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F14",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},10407,"遇到 'NotImplementedError' 错误或环境无法重置（reset）的问题该如何解决？","这通常是由依赖包版本不匹配引起的。请确保安装了 README 文件中指定版本的 gym 和其他依赖包。\n如果版本正确但仍报错，可以尝试修改环境文件（environment.py），将私有方法改为公共方法，即把 '_step' 改为 'step'，'_reset' 改为 'reset' 等。","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F30",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},10408,"运行 cooperative communication 环境时报错 'Box object has no attribute n' 怎么办？","这是因为动作空间类型判断问题。运行脚本时需要添加 '--discrete_action' 标志来指定离散动作空间。\n示例命令：\npython main.py simple_speaker_listener model_name --discrete_action","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F5",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},10409,"在离散动作空间（discrete case）下，代码是如何进行探索（exploration）的？","代码在 explore=True 时使用 Gumbel-Softmax 分布进行采样以探索动作空间，这比传统的 epsilon-greedy 策略更有效。\n代码中遗留的 self.exploration = 0.3 是旧版 epsilon-greedy 的代码残留，在当前的离散情况实现中实际上并未被使用。","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F21",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},10410,"如何处理具有多个离散动作空间（Multi-discrete action spaces）的环境（如 simple_reference）？","默认算法可能不支持多离散空间，需要修改代码以正确计算形状。\n建议在 algorithms\u002Fmaddpg.py 中将 get_shape 修改为：\nget_shape = lambda x: sum(x.high) + x.num_discrete_space\n同时在 main.py 中相应位置修改为：\nsum(acsp.high) + acsp.num_discrete_space\n注意：MADDPG 输出的是 one-hot 向量，环境会将其转换为移动或消息动作，不能同时执行。","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F26",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},10411,"如何复现论文中的结果？为什么训练结果有时不稳定？","对于 simple_tag 场景，推荐的配置是：Policy 网络使用 2 层 128 单元的 MLP，Critic 网络使用 1 层 64 单元的 MLP，训练 60k 个 episode。\n结果出现波动是正常的，因为随机策略使得算法在某些方面类似于随机价值梯度（Stochastic Value Gradients），每一步计算的是价值函数梯度的单样本蒙特卡洛估计，这会导致一定的方差。","https:\u002F\u002Fgithub.com\u002Fshariqiqbal2810\u002Fmaddpg-pytorch\u002Fissues\u002F1",[]]