[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-HumanCompatibleAI--overcooked_ai":3,"tool-HumanCompatibleAI--overcooked_ai":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":114,"forks":115,"last_commit_at":116,"license":117,"difficulty_score":23,"env_os":118,"env_gpu":118,"env_ram":118,"env_deps":119,"category_tags":124,"github_topics":125,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":131,"updated_at":132,"faqs":133,"releases":169},2558,"HumanCompatibleAI\u002Fovercooked_ai","overcooked_ai","A benchmark environment for fully cooperative human-AI performance.","Overcooked-AI 是一个基于热门游戏《胡闹厨房》（Overcooked）构建的基准测试环境，专门用于评估人类与人工智能在完全协作任务中的表现。在这个虚拟厨房中，智能体需要与队友默契配合，完成分配食材、烹饪汤品及送餐等一系列复杂操作，目标是以最快速度交付订单以获取高分。\n\n该工具主要解决了人机协作中“默契度”难以量化和训练的难题。传统 AI 往往擅长与同类配合，却难以适应人类多变的操作习惯。Overcooked-AI 通过提供高度灵活的关卡布局和标准化的交互接口，让研究人员能够系统地训练和测试 AI 理解人类意图、动态调整策略以及灵活分工的能力。\n\n它非常适合人工智能研究人员、强化学习开发者以及对人机交互（HRI）感兴趣的学者使用。借助该平台，用户可以复现经典论文实验，或利用已有的真人游戏数据训练更懂人类的协作型智能体。其独特亮点在于不仅提供了丰富的预设地图和程序化生成能力，还开源了大量珍贵的人机协作实测数据，为开发具备高度适应性和鲁棒性的协作算法提供了坚实基础。","![MDP python tests](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fworkflows\u002F.github\u002Fworkflows\u002Fpythontests.yml\u002Fbadge.svg) ![overcooked-ai codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg) [![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fovercooked-ai.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fovercooked-ai) [![\"Open Issues\"](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FHumanCompatibleAI\u002Fovercooked_ai.svg)](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fminerl\u002Fovercooked_ai) [![GitHub issues by-label](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fbug.svg?color=red)](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues?utf8=%E2%9C%93&q=is%3Aissue+is%3Aopen+label%3Abug) [![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanCompatibleAI_overcooked_ai_readme_e67c971e9521.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fovercooked-ai)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-1910.05789-bbbbbb.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789)\n\n# Overcooked-AI 🧑‍🍳🤖\n\n\u003Cp align=\"center\">\n  \u003C!-- \u003Cimg src=\"overcooked_ai_js\u002Fimages\u002Fscreenshot.png\" width=\"350\"> -->\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanCompatibleAI_overcooked_ai_readme_3c8443aaed7b.gif\" width=\"100%\"> \n  \u003Ci>5 of the available layouts. New layouts are easy to hardcode or generate programmatically.\u003C\u002Fi>\n\u003C\u002Fp>\n\n## Introduction 🥘\n\nOvercooked-AI is a benchmark environment for fully cooperative human-AI task performance, based on the wildly popular video game [Overcooked](http:\u002F\u002Fwww.ghosttowngames.com\u002Fovercooked\u002F).\n\nThe goal of the game is to deliver soups as fast as possible. Each soup requires placing up to 3 ingredients in a pot, waiting for the soup to cook, and then having an agent pick up the soup and delivering it. The agents should split up tasks on the fly and coordinate effectively in order to achieve high reward.\n\nYou can **try out the game [here](https:\u002F\u002Fhumancompatibleai.github.io\u002Fovercooked-demo\u002F)** (playing with some previously trained DRL agents). To play with your own trained agents using this interface, or to collect more human-AI or human-human data, you can use the code [here](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Ftree\u002Fmaster\u002Fsrc\u002Fovercooked_demo). You can find some human-human and human-AI gameplay data already collected [here](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Ftree\u002Fmaster\u002Fsrc\u002Fhuman_aware_rl\u002Fstatic\u002Fhuman_data).\n\n**NOTE + LOOKING FOR CONTRIBUTORS:** DRL and BC implementations are now deprecated. We used to include code for training BC and PPO agents in the `human_aware_rl` directory. See [this issue](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F162) for more details.\n\nThis benchmark was build in the context of a 2019 paper: *[On the Utility of Learning about Humans for Human-AI Coordination](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789)*. Also see our [blog post](https:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2019\u002F10\u002F21\u002Fcoordination\u002F).\n\n## Research Papers using Overcooked-AI 📑\n\n\n- Carroll, Micah, Rohin Shah, Mark K. Ho, Thomas L. Griffiths, Sanjit A. Seshia, Pieter Abbeel, and Anca Dragan. [\"On the utility of learning about humans for human-ai coordination.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789) NeurIPS 2019.\n- Charakorn, Rujikorn, Poramate Manoonpong, and Nat Dilokthanakul. [“Investigating Partner Diversification Methods in Cooperative Multi-Agent Deep Reinforcement Learning.”](https:\u002F\u002Fwww.rujikorn.com\u002Ffiles\u002Fpapers\u002Fdiversity_ICONIP2020.pdf) Neural Information Processing. ICONIP 2020.\n- Knott, Paul, Micah Carroll, Sam Devlin, Kamil Ciosek, Katja Hofmann, Anca D. Dragan, and Rohin Shah. [\"Evaluating the Robustness of Collaborative Agents.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05507) AAMAS 2021.\n- Nalepka, Patrick, Jordan P. Gregory-Dunsmore, James Simpson, Gaurav Patil, and Michael J. Richardson. [\"Interaction Flexibility in Artificial Agents Teaming with Humans.\"](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F351533529_Interaction_Flexibility_in_Artificial_Agents_Teaming_with_Humans) Cogsci 2021.\n- Fontaine, Matthew C., Ya-Chuan Hsu, Yulun Zhang, Bryon Tjanaka, and Stefanos Nikolaidis. [“On the Importance of Environments in Human-Robot Coordination”](http:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10853) RSS 2021.\n- Zhao, Rui, Jinming Song, Hu Haifeng, Yang Gao, Yi Wu, Zhongqian Sun, Yang Wei. [\"Maximum Entropy Population Based Training for Zero-Shot Human-AI Coordination\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.11701). NeurIPS Cooperative AI Workshop, 2021.\n- Sarkar, Bidipta, Aditi Talati, Andy Shih, and Dorsa Sadigh. [“PantheonRL: A MARL Library for Dynamic Training Interactions”](https:\u002F\u002Filiad.stanford.edu\u002Fpdfs\u002Fpublications\u002Fsarkar2022pantheonrl.pdf). AAAI 2022.\n- Ribeiro, João G., Cassandro Martinho, Alberto Sardinha, Francisco S. Melo. [\"Assisting Unknown Teammates in Unknown Tasks: Ad Hoc Teamwork under Partial Observability\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03538).\n- Xihuai Wang, Shao Zhang, Wenhao Zhang, Wentao Dong, Jingxiao Chen, Ying Wen and Weinan Zhang. NeurIPS 2024. [“ZSC-Eval: An Evaluation Toolkit and Benchmark for Multi-agent Zero-shot Coordination”](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05208v2).\n\n\n## Installation ☑️\n\n### Installing from PyPI 🗜\n\nYou can install the pre-compiled wheel file using pip.\n```\npip install overcooked-ai\n```\nNote that PyPI releases are stable but infrequent. For the most up-to-date development features, build from source. We recommend using [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F) to install the package, so that you can use the provided lockfile to ensure no minimal package version issues.\n\n\n### Building from source 🔧\n\nClone the repo \n```\ngit clone https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai.git\n```\n\nUsing uv (recommended):\n```\nuv venv\nuv sync\n```\n\n\n### Verifying Installation 📈\n\nWhen building from source, you can verify the installation by running the Overcooked unit test suite. The following commands should all be run from the `overcooked_ai` project root directory:\n\n```\npython testing\u002Fovercooked_test.py\n```\n\n\n\n\nIf you're thinking of using the planning code extensively, you should run the full testing suite that verifies all of the Overcooked accessory tools (this can take 5-10 mins): \n```\npython -m unittest discover -s testing\u002F -p \"*_test.py\"\n```\n\nSee this [notebook](Overcooked%20Tutorial.ipynb) for a quick guide on getting started using the environment.\n\n## Code Structure Overview 🗺\n\n`overcooked_ai_py` contains:\n\n`mdp\u002F`:\n- `overcooked_mdp.py`: main Overcooked game logic\n- `overcooked_env.py`: environment classes built on top of the Overcooked mdp\n- `layout_generator.py`: functions to generate random layouts programmatically\n\n`agents\u002F`:\n- `agent.py`: location of agent classes\n- `benchmarking.py`: sample trajectories of agents (both trained and planners) and load various models\n\n`planning\u002F`:\n- `planners.py`: near-optimal agent planning logic\n- `search.py`: A* search and shortest path logic\n\n`overcooked_demo` contains:\n\n`server\u002F`:\n- `app.py`: The Flask app \n- `game.py`: The main logic of the game. State transitions are handled by overcooked.Gridworld object embedded in the game environment\n- `move_agents.py`: A script that simplifies copying checkpoints to [agents](src\u002Fovercooked_demo\u002Fserver\u002Fstatic\u002Fassets\u002Fagents\u002F) directory. Instruction of how to use can be found inside the file or by running `python move_agents.py -h`\n\n`up.sh`: Shell script to spin up the Docker server that hosts the game \n\n`human_aware_rl` contains (NOTE: this is not supported anymore, see bottom of the README for more info):\n\n`ppo\u002F`:\n- `ppo_rllib.py`: Primary module where code for training a PPO agent resides. This includes an rllib compatible wrapper on `OvercookedEnv`, utilities for converting rllib `Policy` classes to Overcooked `Agent`s, as well as utility functions and callbacks\n- `ppo_rllib_client.py` Driver code for configuing and launching the training of an agent. More details about usage below\n- `ppo_rllib_from_params_client.py`: train one agent with PPO in Overcooked with variable-MDPs \n- `ppo_rllib_test.py` Reproducibility tests for local sanity checks\n- `run_experiments.sh` Script for training agents on 5 classical layouts\n- `trained_example\u002F` Pretrained model for testing purposes\n\n`rllib\u002F`:\n- `rllib.py`: rllib agent and training utils that utilize Overcooked APIs\n- `utils.py`: utils for the above\n- `tests.py`: preliminary tests for the above\n\n`imitation\u002F`:\n- `behavior_cloning_tf2.py`:  Module for training, saving, and loading a BC model\n- `behavior_cloning_tf2_test.py`: Contains basic reproducibility tests as well as unit tests for the various components of the bc module.\n\n`human\u002F`:\n- `process_data.py` script to process human data in specific formats to be used by DRL algorithms\n- `data_processing_utils.py` utils for the above\n\n`utils.py`: utils for the repo\n\n\n## Raw Data :ledger:\n\nThe raw data used during BC training is >100 MB, which makes it inconvenient to distribute via git. The code uses pickled dataframes for training and testing, but in case one needs to original data it can be found [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1aGV8eqWeOG5BMFdUcVoP2NHU_GFPqi57?usp=share_link) \n\n## Deprecated: Behavior Cloning and Reinforcement Learning \n\n\n\n\n\n## Further Issues and questions ❓\n\nIf you have issues or questions, you can contact [Micah Carroll](https:\u002F\u002Fmicahcarroll.github.io) at mdc@berkeley.edu.","![MDP Python 测试](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fworkflows\u002F.github\u002Fworkflows\u002Fpythontests.yml\u002Fbadge.svg) ![overcooked-ai codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg) [![PyPI 版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fovercooked-ai.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fovercooked-ai) [![\"未解决问题\"](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FHumanCompatibleAI\u002Fovercooked_ai.svg)](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fminerl\u002Fovercooked_ai) [![GitHub 按标签的问题](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fbug.svg?color=red)](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues?utf8=%E2%9C%93&q=is%3Aissue+is%3Aopen+label%3Abug) [![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanCompatibleAI_overcooked_ai_readme_e67c971e9521.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fovercooked-ai)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-1910.05789-bbbbbb.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789)\n\n# Overcooked-AI 🧑‍🍳🤖\n\n\u003Cp align=\"center\">\n  \u003C!-- \u003Cimg src=\"overcooked_ai_js\u002Fimages\u002Fscreenshot.png\" width=\"350\"> -->\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanCompatibleAI_overcooked_ai_readme_3c8443aaed7b.gif\" width=\"100%\"> \n  \u003Ci>5 种可用布局。新的布局可以轻松硬编码或通过程序生成。\u003C\u002Fi>\n\u003C\u002Fp>\n\n## 简介 🥘\n\nOvercooked-AI 是一个用于完全协作式人机任务表现的基准环境，基于广受欢迎的电子游戏 [Overcooked](http:\u002F\u002Fwww.ghosttowngames.com\u002Fovercooked\u002F)。\n\n游戏的目标是尽快送出汤品。每份汤需要将最多 3 种食材放入锅中，等待汤煮熟后，由智能体拿起汤并送达。智能体应实时分配任务并有效协作，以获得高奖励。\n\n您可以在 **这里尝试游戏**（使用一些先前训练好的 DRL 智能体）。要使用此界面与您自己训练的智能体进行交互，或收集更多人机或人人数据，您可以使用 [此处](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Ftree\u002Fmaster\u002Fsrc\u002Fovercooked_demo) 的代码。我们已经收集了一些人人和人机对战数据，可在此处找到：[https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Ftree\u002Fmaster\u002Fsrc\u002Fhuman_aware_rl\u002Fstatic\u002Fhuman_data](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Ftree\u002Fmaster\u002Fsrc\u002Fhuman_aware_rl\u002Fstatic\u002Fhuman_data)。\n\n**注意 + 寻求贡献者：** DRL 和 BC 实现现已弃用。我们过去曾在 `human_aware_rl` 目录中包含训练 BC 和 PPO 智能体的代码。有关详细信息，请参阅 [此问题](https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F162)。\n\n该基准是在 2019 年的一篇论文背景下构建的：*[关于学习人类知识对人机协作的效用](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789)*。另请参阅我们的 [博客文章](https:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2019\u002F10\u002F21\u002Fcoordination\u002F)。\n\n## 使用 Overcooked-AI 的研究论文 📑\n\n\n- Carroll, Micah, Rohin Shah, Mark K. Ho, Thomas L. Griffiths, Sanjit A. Seshia, Pieter Abbeel, and Anca Dragan. [\"关于学习人类知识对人机协作的效用。\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.05789) NeurIPS 2019。\n- Charakorn, Rujikorn, Poramate Manoonpong, and Nat Dilokthanakul. [“合作式多智能体深度强化学习中伙伴多样化方法的研究。”](https:\u002F\u002Fwww.rujikorn.com\u002Ffiles\u002Fpapers\u002Fdiversity_ICONIP2020.pdf) 神经信息处理。ICONIP 2020。\n- Knott, Paul, Micah Carroll, Sam Devlin, Kamil Ciosek, Katja Hofmann, Anca D. Dragan, and Rohin Shah. [\"评估协作智能体的鲁棒性。\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.05507) AAMAS 2021。\n- Nalepka, Patrick, Jordan P. Gregory-Dunsmore, James Simpson, Gaurav Patil, and Michael J. Richardson. [\"人工智能体与人类团队合作中的交互灵活性。\"](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F351533529_Interaction_Flexibility_in_Artificial_Agents_Teaming_with_Humans) Cogsci 2021。\n- Fontaine, Matthew C., Ya-Chuan Hsu, Yulun Zhang, Bryon Tjanaka, and Stefanos Nikolaidis. [“环境在人机协作中的重要性”](http:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10853) RSS 2021。\n- Zhao, Rui, Jinming Song, Hu Haifeng, Yang Gao, Yi Wu, Zhongqian Sun, Yang Wei. [\"最大熵群体基础训练用于零样本人机协作\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.11701)。NeurIPS 合作人工智能研讨会，2021 年。\n- Sarkar, Bidipta, Aditi Talati, Andy Shih, and Dorsa Sadigh. [“PantheonRL：用于动态训练交互的 MARL 库”](https:\u002F\u002Filiad.stanford.edu\u002Fpdfs\u002Fpublications\u002Fsarkar2022pantheonrl.pdf)。AAAI 2022。\n- Ribeiro, João G., Cassandro Martinho, Alberto Sardinha, Francisco S. Melo. [\"在部分可观测环境下协助未知队友完成未知任务：临时团队合作\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2201.03538)。\n- Xihuai Wang, Shao Zhang, Wenhao Zhang, Wentao Dong, Jingxiao Chen, Ying Wen and Weinan Zhang. NeurIPS 2024。[“ZSC-Eval：用于多智能体零样本协作的评估工具包和基准测试”](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05208v2)。\n\n\n## 安装 ☑️\n\n### 从 PyPI 安装 🗜\n\n您可以使用 pip 安装预编译的 wheel 文件。\n```\npip install overcooked-ai\n```\n请注意，PyPI 发布版本稳定但频率较低。如需最新的开发功能，请从源代码构建。我们建议使用 [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F) 来安装软件包，以便您可以使用提供的锁定文件来确保不会出现最低软件包版本问题。\n\n\n### 从源代码构建 🔧\n\n克隆仓库\n```\ngit clone https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai.git\n```\n\n使用 uv（推荐）：\n```\nuv venv\nuv sync\n```\n\n\n### 验证安装 📈\n\n从源代码构建时，可以通过运行 Overcooked 单元测试套件来验证安装。以下命令都应在 `overcooked_ai` 项目根目录下执行：\n\n```\npython testing\u002Fovercooked_test.py\n```\n\n\n\n\n如果您打算大量使用规划代码，应运行完整的测试套件，以验证所有 Overcooked 附加工具（这可能需要 5–10 分钟）：\n```\npython -m unittest discover -s testing\u002F -p \"*_test.py\"\n```\n\n有关快速入门环境使用的指南，请参阅此 [笔记本](Overcooked%20Tutorial.ipynb)。\n\n## 代码结构概览 🗺\n\n`overcooked_ai_py` 包含以下内容：\n\n`mdp\u002F`：\n- `overcooked_mdp.py`：Overcooked 游戏的主要逻辑\n- `overcooked_env.py`：基于 Overcooked MDP 构建的环境类\n- `layout_generator.py`：用于以编程方式生成随机布局的函数\n\n`agents\u002F`：\n- `agent.py`：智能体类的存放位置\n- `benchmarking.py`：智能体（包括训练好的模型和规划器）的示例轨迹，并可加载各种模型\n\n`planning\u002F`：\n- `planners.py`：近似最优的智能体规划逻辑\n- `search.py`：A* 搜索及最短路径逻辑\n\n`overcooked_demo` 包含以下内容：\n\n`server\u002F`：\n- `app.py`：Flask 应用程序\n- `game.py`：游戏的主要逻辑。状态转移由嵌入在游戏环境中的 overcooked.Gridworld 对象处理\n- `move_agents.py`：一个脚本，用于简化将检查点文件复制到 [agents](src\u002Fovercooked_demo\u002Fserver\u002Fstatic\u002Fassets\u002Fagents\u002F) 目录的操作。使用说明可在文件内找到，或通过运行 `python move_agents.py -h` 获取\n\n`up.sh`：用于启动托管游戏的 Docker 服务器的 Shell 脚本\n\n`human_aware_rl` 包含以下内容（注意：此部分已不再维护，更多信息请参阅 README 的底部）：\n\n`ppo\u002F`：\n- `ppo_rllib.py`：PPO 智能体训练代码的主要模块。其中包括对 `OvercookedEnv` 的 rllib 兼容封装、将 rllib 的 `Policy` 类转换为 Overcooked `Agent` 的工具函数，以及一些实用函数和回调\n- `ppo_rllib_client.py`：用于配置和启动智能体训练的驱动代码。使用详情见下文\n- `ppo_rllib_from_params_client.py`：在具有可变 MDP 的 Overcooked 环境中使用 PPO 训练单个智能体\n- `ppo_rllib_test.py`：用于本地验证的可重复性测试\n- `run_experiments.sh`：用于在 5 种经典布局上训练智能体的脚本\n- `trained_example\u002F`：用于测试的预训练模型\n\n`rllib\u002F`：\n- `rllib.py`：利用 Overcooked API 的 rllib 智能体及训练工具\n- `utils.py`：上述模块的工具函数\n- `tests.py`：上述模块的初步测试\n\n`imitation\u002F`：\n- `behavior_cloning_tf2.py`：用于训练、保存和加载行为克隆模型的模块\n- `behavior_cloning_tf2_test.py`：包含基本的可重复性测试以及行为克隆模块各组件的单元测试\n\n`human\u002F`：\n- `process_data.py`：用于将人类数据处理成特定格式以便 DRL 算法使用的脚本\n- `data_processing_utils.py`：上述脚本的工具函数\n\n`utils.py`：整个仓库的工具函数\n\n## 原始数据 :ledger:\n\n行为克隆训练过程中使用的原始数据超过 100 MB，因此不便通过 Git 分发。代码使用了序列化后的 DataFrame 进行训练和测试，但如果需要原始数据，可以在此处获取：[链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1aGV8eqWeOG5BMFdUcVoP2NHU_GFPqi57?usp=share_link)\n\n## 已弃用：行为克隆与强化学习\n\n\n\n\n\n## 更多问题与疑问 ❓\n\n如有任何问题或疑问，请联系 [Micah Carroll](https:\u002F\u002Fmicahcarroll.github.io)，邮箱地址为 mdc@berkeley.edu。","# Overcooked-AI 快速上手指南\n\nOvercooked-AI 是一个基于热门游戏《胡闹厨房》（Overcooked）构建的基准环境，旨在研究完全协作模式下的人机交互与多智能体强化学习。本指南将帮助开发者快速搭建环境并运行基础测试。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows (推荐 Linux\u002FmacOS 以获得最佳兼容性)\n*   **Python 版本**: Python 3.8 或更高版本\n*   **包管理工具**: \n    *   推荐安装 **[uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F)** (用于快速、可靠地管理依赖和虚拟环境)\n    *   或者使用标准的 `pip` 和 `venv`\n*   **Git**: 用于克隆源代码仓库\n\n> **国内开发者提示**：如果使用 `pip` 安装，建议配置国内镜像源（如清华源、阿里源）以加速下载：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>\n> ```\n\n## 安装步骤\n\n您可以选择通过 PyPI 安装稳定版，或从源码构建以获取最新功能。\n\n### 方案一：通过 PyPI 安装（推荐新手）\n\n适用于只需要使用稳定版本环境的用户。\n\n```bash\npip install overcooked-ai\n```\n\n### 方案二：从源码构建（推荐开发者）\n\n适用于需要最新功能、修改底层逻辑或参与贡献的开发者。推荐使用 `uv` 进行环境管理。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai.git\n    cd overcooked_ai\n    ```\n\n2.  **创建并同步虚拟环境 (使用 uv)**\n    ```bash\n    uv venv\n    uv sync\n    ```\n    *(如果不使用 uv，可手动创建 venv 并使用 `pip install -e .` 进行安装)*\n\n### 验证安装\n\n安装完成后，建议运行单元测试以确保环境配置正确。\n\n**基础验证**（快速检查）：\n在项目根目录下运行：\n```bash\npython testing\u002Fovercooked_test.py\n```\n\n**完整验证**（包含规划工具等所有组件，耗时约 5-10 分钟）：\n```bash\npython -m unittest discover -s testing\u002F -p \"*_test.py\"\n```\n\n## 基本使用\n\n安装成功后，您可以通过 Python 代码初始化环境并观察布局。以下是最简单的使用示例，展示如何加载一个预设布局并打印状态信息。\n\n```python\nfrom overcooked_ai_py.mdp.overcooked_mdp import OvercookedGridworld\nfrom overcooked_ai_py.mdp.overcooked_env import OvercookedEnv\n\n# 1. 定义一个布局名称 (例如: \"cramped_room\")\n# 可用布局包括: cramped_room, asymmetric_advantages, coordination_ring, forced_coordination, counter_circuit 等\nlayout_name = \"cramped_room\"\n\n# 2. 初始化 MDP (马尔可夫决策过程) 对象\nmdp = OvercookedGridworld.from_layout_name(layout_name)\n\n# 3. 创建环境实例\nenv = OvercookedEnv.from_mdp(mdp, horizon=400)\n\n# 4. 重置环境并获取初始状态\nstate, info = env.reset()\n\n# 5. 打印当前布局信息和初始状态概览\nprint(f\"当前布局：{layout_name}\")\nprint(f\"网格尺寸：{mdp.width} x {mdp.height}\")\nprint(f\"初始状态对象位置：{state.objects}\")\nprint(f\"初始状态厨师位置：{state.players}\")\n\n# 6. (可选) 渲染当前状态为文本形式查看\nprint(env.mdp.to_text(state))\n```\n\n**进阶提示**：\n*   若要查看可视化的游戏界面或测试训练好的代理，请参考项目中的 `overcooked_demo` 目录，其中包含了基于 Flask 的前端演示服务。\n*   详细的 API 文档和更多用例请参考项目根目录下的 `Overcooked Tutorial.ipynb` Notebook 文件。","某高校人机协作实验室正在研发一款能与人类自然配合的服务型机器人，急需验证其动态分工与即时协调能力。\n\n### 没有 overcooked_ai 时\n- **缺乏标准化测试场**：团队需自行搭建复杂的模拟环境来测试协作逻辑，代码重复开发且难以复现经典博弈场景。\n- **评估指标不统一**：由于缺少公认的基准（Benchmark），不同算法间的协作效率无法横向对比，论文实验数据缺乏说服力。\n- **真人测试成本高昂**：直接让真人与早期机器人原型配合测试风险高、耗时久，且难以收集到足够多的“人类 - 人类”高质量协作数据作为训练参照。\n- **场景泛化性差**：自研环境往往布局单一，导致训练出的智能体只会死记硬背特定路线，一旦厨房布局微调就彻底“罢工”。\n\n### 使用 overcooked_ai 后\n- **即插即用基准环境**：直接调用内置的多种厨房布局（如不对称通道、动态障碍），瞬间获得工业级标准的协作测试场，大幅缩短研发周期。\n- **量化协作性能**：利用其成熟的评分机制，精确量化机器人在“煮汤”、“递盘”等环节与人类的配合度，使实验结果可被学术界直接认可。\n- **低成本数据增强**：通过内置接口快速采集或利用已有的大规模人类协作数据集，让智能体在虚拟环境中先学会“像人一样思考”，再上岗实战。\n- **提升鲁棒性与适应性**：在随机生成的复杂布局中强化训练，使机器人学会根据队友位置动态调整策略，即使面对陌生厨房布局也能灵活补位。\n\novercooked_ai 将抽象的人机协作理论转化为可视化的烹饪博弈，成为衡量智能体是否真正具备“团队意识”的黄金标尺。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FHumanCompatibleAI_overcooked_ai_3c8443aa.gif","HumanCompatibleAI","Center for Human-Compatible AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FHumanCompatibleAI_99aa916f.png","CHAI seeks to develop the conceptual and technical wherewithal to reorient the general thrust of AI research towards provably beneficial systems.",null,"https:\u002F\u002Fhumancompatible.ai","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI",[83,87,91,95,99,103,106,110],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",50.1,{"name":88,"color":89,"percentage":90},"Python","#3572A5",38.6,{"name":92,"color":93,"percentage":94},"PureBasic","#5a6986",4.9,{"name":96,"color":97,"percentage":98},"JavaScript","#f1e05a",4.1,{"name":100,"color":101,"percentage":102},"Shell","#89e051",1,{"name":104,"color":105,"percentage":102},"HTML","#e34c26",{"name":107,"color":108,"percentage":109},"CSS","#663399",0.2,{"name":111,"color":112,"percentage":113},"Dockerfile","#384d54",0.1,950,208,"2026-04-01T17:10:50","MIT","未说明",{"notes":120,"python":118,"dependencies":121},"该项目主要是一个基于 Python 的基准测试环境。README 中未明确列出具体的操作系统、GPU、内存或 Python 版本要求，也未列出详细的底层依赖库（如 numpy, pygame 等），仅提到可通过 pip 安装或使用 uv 从源码构建。注意：原有的深度强化学习（DRL）和行为克隆（BC）实现（位于 human_aware_rl 目录）已弃用，不再受支持。若需运行完整测试套件（包含规划代码验证），可能需要 5-10 分钟。",[122,123],"overcooked-ai","uv (推荐用于环境管理)",[13],[126,127,128,129,130],"artificial-intelligence","deep-learning","machine-learning","pytorch","reinforcement-learning","2026-03-27T02:49:30.150509","2026-04-06T05:16:22.949349",[134,139,144,149,154,159,164],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},11826,"为什么使用 `gym.make('Overcooked-v0')` 创建环境时，动作空间（action space）为 None？","这是因为该代码库实际上并未在其内部使用 Gym 环境接口。当前的 Gym 封装只是为了参考旧版本代码而保留的，并未完全实现标准 Gym API 的功能。如果您需要符合标准多智能体环境的 Gym 接口，可以自行修改相关类并提交 PR。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F68",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},11827,"在从源码构建环境并运行测试时，遇到 `ModuleNotFoundError: No module named 'ray'` 或 `ray.rllib.agents` 错误如何解决？","这通常是因为安装命令中的括号被 Shell 解释为模式匹配表达式。请确保在克隆仓库的目录下运行以下命令，并尝试给参数加上引号：\n1. `pip install -e \".[harl]\"`\n2. 或者 `pip install -e \"overcooked_ai[harl]\"`\n如果使用的是 zsh 或其他 Shell，务必使用引号包裹包含方括号的参数以避免解析错误。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F133",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},11828,"在 Windows 上运行安装验证测试时失败（涉及编码或权限错误），该如何解决？","这是由于 Windows 默认的编码标准不是 UTF-8，而测试过程中会打印包含特殊字符（如向上箭头键）的内容，导致写入日志文件时出错，进而引发权限问题。维护者已推送修复代码来解决此问题。建议 Windows 用户更新到最新代码，或者在可能的情况下使用 Mac 或 Linux 系统进行开发以避免此类编码兼容性问题。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F136",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},11829,"如何收集自己的数据并训练自定义的行为克隆（BC）智能体？","1. **数据收集**：参考 `src\u002Fovercooked_demo\u002FREADME.md` 启动演示服务器。在本地浏览器打开后，勾选“collect data”选项以启用数据收集。收集的轨迹数据将根据 `docker-compose.yml` 中的配置保存。\n2. **数据格式处理**：收集到的数据格式与训练脚本中使用的格式略有不同。原始数据是一个哈希映射，其中键 `trajectory` 对应一个列表，列表元素是包含状态数据的 DataFrame。您需要编写预处理代码，将这些数据转换为 `behavior_cloning_tf2.py` 所需的格式（通常是状态 - 动作对的序列）。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F129",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},11830,"Overcooked 环境是否基于 PettingZoo 库实现？","根据现有讨论，该项目主要维护了自己的环境类（如 `OvercookedGridworld` 和 `OvercookedEnv`），并没有直接依赖 PettingZoo 库作为核心实现。虽然社区有讨论将其与 PettingZoo 集成或统一接口的可能性，但原生实现是独立的。如果需要 PettingZoo 接口，可能需要查看是否有单独的包装器或自行实现适配。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F127",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},11831,"如何创建一个统一的图形化仪表盘（Dashboard）来可视化训练过程和轨迹？","目前可以通过以下步骤实现类似功能：\n1. 使用 Python 脚本包装 overcooked-demo 的功能，使其能通过命令行运行（例如加载智能体并启动游戏）。\n2. 运行可视化脚本，例如：`python visualization_dashboard.py --trajs-dir=trajectories_directory --agents-dir=agents_directory`。\n3. 该仪表盘可以展示多轨迹图表以演示训练进度，并支持区分物品掉落、烹饪和汤品交付等具体事件的可视化。具体的实现细节可参考相关的 Pull Request（如 #38 和 overcooked-demo 的更新）。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F46",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},11832,"是否应该合并 `OvercookedGridworld` 和 `OvercookedEnv` 这两个类？","不建议合并。保持环境（Env）和 MDP（网格世界）的分离非常重要，因为一个环境实例内部可能包含多个不同的 MDP（用于多布局支持）。`OvercookedState` 应仅包含轻量级的动态状态数据，而静态数据（如地形、回合限制）应保留在 `OvercookedGridworld` 中。强行合并会破坏多布局功能的架构基础。","https:\u002F\u002Fgithub.com\u002FHumanCompatibleAI\u002Fovercooked_ai\u002Fissues\u002F44",[170,175],{"id":171,"version":172,"summary_zh":173,"released_at":174},62291,"1.1.0","为更新的 MDP 动力学添加状态编码支持，以及一些 minor bug 修复和通用代码改进。","2021-05-29T02:00:13",{"id":176,"version":177,"summary_zh":79,"released_at":178},62292,"1.0.4","2020-09-04T17:30:50"]