[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-beyretb--AnimalAI-Olympics":3,"tool-beyretb--AnimalAI-Olympics":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":102,"github_topics":103,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":143},2643,"beyretb\u002FAnimalAI-Olympics","AnimalAI-Olympics","Code repository for the Animal AI Olympics competition","AnimalAI-Olympics 是一个将动物认知研究引入人工智能领域的开源测试平台。它旨在解决当前 AI 代理在通用认知技能评估方面缺乏标准化环境的问题，通过模拟源自或受启发于动物认知文献的任务，帮助开发者训练和测试 AI 的智能水平。\n\n该项目基于 Unity ML-Agents 构建，提供了一个包含固定大小竞技场的虚拟环境。在这个环境中，AI 代理需要通过与各种物体互动（如获取绿色、黄色奖励球或避开红色惩罚球）来完成多达 900 个精心设计的任务。这些任务被划分为不同类别，分别对应记忆、推理、空间导航等多种核心认知能力。\n\nAnimalAI-Olympics 特别适合 AI 研究人员、强化学习开发者以及对比较认知科学感兴趣的教育工作者使用。它不仅提供了完整的训练环境和配置库，还兼容 OpenAI Gym 接口，方便用户快速上手进行实验。其独特的技术亮点在于将复杂的心理学实验转化为可量化的计算任务，让机器智能的评估有了类似“动物奥运会”般的公平竞技场。虽然该仓库主要维护的是 2019 年竞赛使用的 v2 版本，但它仍为理解机器如何习得基础认知技能提供了宝贵的基准数据和研究框架。","\n**UPDATE: Animal-AI v3 is now up [on a separate repo](https:\u002F\u002Fgithub.com\u002Fmdcrosby\u002Fanimal-ai.git).** The below repository contains the codebase for the competition that was ran in 2019. It is not under active maintenance but issues are still monitored to some extent. \n\n# Animal-AI 2.0.0\n\n\u003Cp align=\"center\">\n  \u003Cimg height=\"300\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_72ac45cea482.png\">\n\u003C\u002Fp>\n\n\n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_79b3b13881b3.gif) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_5146b2fc5d48.gif) |\n|---|---|\n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_43bb8d6846cc.gif) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_f2e5158d4a06.gif) |\n\n## Overview\n\nThe [Animal-AI Testbed](http:\u002F\u002Fanimalaiolympics.com\u002FAAI) introduces the study of animal cognition to the world of AI. \nIt provides an environment for testing agents on tasks taken from, or inspired by, the animal cognition literature.\nDecades of research in this field allow us to train and test for cognitive skills in Artificial Intelligence agents.\n\nThis repo contains the [training environment](animalai), a [training library](animalai_train) as well as [900 tasks](competition_configurations) for testing and\u002For training agents.\nThe experiments are divided into categories meant to reflect various cognitive skills. Details can be found on the [website](http:\u002F\u002Fanimalaiolympics.com\u002FAAI\u002Ftestbed).\n\nWe ran a competition using this environment and the associated tests, more details about the results can be found [here](http:\u002F\u002Fanimalaiolympics.com)\n\nThe environment is built using [Unity ml-agents](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fdocs) and contains an agent enclosed in a fixed sized arena. Objects can spawn in this arena, including positive \nand negative rewards (green, yellow and red spheres) that the agent must obtain (or avoid). All of the tests are made from combinations of objects in the training environment. \n\n## TL;DR\n\nJust want to get started? Then:\n- Clone this repo\n- In the `examples` folder run `pip install -r requirements.txt`\n- Get the [environment executable](#requirements) for your platform\n- In the `examples` folder, start `jupyter notebook` and go through the [environment](examples\u002Fenvironment_tutorial.ipynb) \nand the [training](examples\u002Ftraining_tutorial.ipynb) notebooks!\n\nFor more examples to run see [the examples folder](examples).\n\n## Requirements\n\nFirst **download the environment** for your system:\n\n| OS | Environment link |\n| --- | --- |\n| Windows | [download v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1BVFAO3pV9DxoPrc6PiDajp2SwCaWZNvJ\u002Fview?usp=sharing) |\n| Mac | [download v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dzC3JoDiDhlpVKHXsYi_g-oe9mlIMu6t\u002Fview?usp=sharing) |\n| Linux |  [download v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18DUEff51hvED5ityNktTpVSaAfZgeKDr\u002Fview?usp=sharing) |\n| Linux |  [download v2.0.2](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MqVpLU3amisN8I_-4XWIE96gYIfWDzIX\u002Fview?usp=sharing) |\n\nV2.0.2 is only available for linux and fixes an issue with agent speed that makes a few environments impossible in the 2.0.1 version. There are no plans to maintain or update other versions. Current development is towards v3 to release mid 2021.\n\nUnzip the **entire content** of the archive to the `examples\u002Fenv` folder. On linux you may have to make the file executable by running `chmod +x env\u002FAnimalAI.x86_64`.\n\nThe Animal-AI packages works on Linux, Mac and Windows and requires python 3.\n\n- The main package is an API for interfacing with the Unity environment. It contains both a \n[gym environment](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym) as well as an extension of Unity's \n[ml-agents environments](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fml-agents-envs). You can install it\n via pip:\n    ```\n    pip install animalai\n    ```\n    Or you can install it from the source by running `pip install -e animalai` from the repo folder\n\n- We also provide a package that can be used as a starting point for training, and which is required to run most of the \nexample scripts found in the `examples\u002F` folder. It contains an extension of \n[ml-agents' training environment](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fml-agents) that relies on \n[OpenAI's PPO](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-baselines-ppo\u002F) and [BAIR's SAC](https:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2018\u002F12\u002F14\u002Fsac\u002F). You can also install this package using pip:\n    ```\n    pip install animalai-train\n    ```\n    Or you can install it from source by running `pip install -e animalai_train` from the repo folder\n\n**The Unity source files** for the environment can be found on our [ml-agents fork](https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents). \n\n## Manual Control\n\nIf you launch the environment directly from the executable or through the `load_config_and_play,py` script it will launch\n in player mode. Here you can control the agent with the following:\n\n| Keyboard Key  | Action    |\n| --- | --- |\n| W   | move agent forwards |\n| S   | move agent backwards|\n| A   | turn agent left     |\n| D   | turn agent right    |\n| C   | switch camera       |\n| R   | reset environment   |\n\n## Citing\nIf you use the Animal-AI environment in your work you can cite the environment paper:\n\nBeyret, B., Hernández-Orallo, J., Cheke, L., Halina, M., Shanahan, M., Crosby, M. [The Animal-AI Environment: Training and Testing Animal-Like Artificial Cognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.07483), arXiv preprint\n\n```\n@inproceedings{Beyret2019TheAE,\n  title={The Animal-AI Environment: Training and Testing Animal-Like Artificial Cognition},\n  author={Benjamin Beyret and Jos'e Hern'andez-Orallo and Lucy Cheke and Marta Halina and Murray Shanahan and Matthew Crosby},\n  year={2019}\n}\n```\n\nPaper with all the details of the test battery will be released after the competition has finished.\n\n## Unity ML-Agents\n\nThe Animal-AI Olympics was built using [Unity's ML-Agents Toolkit.](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents)\n\nThe Python library located in [animalai](animalai) extends [ml-agents v0.15.0](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002F0.15.0). Mainly, we add the \npossibility to change the configuration of arenas between episodes. \n\nJuliani, A., Berges, V., Vckay, E., Gao, Y., Henry, H., Mattar, M., Lange, D. (2018). [Unity: A General Platform for \nIntelligent Agents.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.02627) *arXiv preprint arXiv:1809.02627*\n\n## EvalAI\n\nThe competition was kindly hosted on [EvalAI](https:\u002F\u002Fgithub.com\u002FCloud-CV\u002FEvalAI), an open source web application for AI competitions. Special thanks to [Rishabh Jain](https:\u002F\u002Frishabhjain.xyz\u002F) for his help in setting this up.\nWe will aim to reopen submissions with new hidden files in order to keep some form of competition going.\n\nDeshraj Yadav, Rishabh Jain, Harsh Agrawal, Prithvijit Chattopadhyay, Taranjeet Singh, Akash Jain, Shiv Baran Singh, Stefan Lee and Dhruv Batra (2019) [EvalAI: Towards Better Evaluation Systems for AI Agents](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.03570)\n\n\n## Version History\n\n- v2.0.1 (env only):\n  - movable objects are lighter and easier to move\n\n- v2.0.0:\n    - fix small bugs\n    - adds tutorial notebooks\n    - Bump ml-agents from 0.7 to 0.15 which:\n        - allows multiple parallel environments for training\n        - adds Soft actor critic (SAC) trainer\n        - has a new kind of actions\u002Fobservations loop (on demand decisions)\n        - removes brains and some protobufs\n        - adds side-channels to replace some protobufs\n        - refactoring of the codebase\n    - GoodGoalMulti are now yellow with the same texture (light emitting) as GoodGoal and BadGoal\n    - The whole project including the Unity source is now available on [our ml-agents fork](https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents)\n\nFor earlier versions see [here](documentation\u002Fversions.md)\n","**更新：Animal-AI v3现已上线[在另一个仓库中](https:\u002F\u002Fgithub.com\u002Fmdcrosby\u002Fanimal-ai.git)。** 下面的仓库包含2019年举办的竞赛代码库。该仓库目前不再积极维护，但问题仍会得到一定程度的关注。\n\n# Animal-AI 2.0.0\n\n\u003Cp align=\"center\">\n  \u003Cimg height=\"300\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_72ac45cea482.png\">\n\u003C\u002Fp>\n\n\n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_79b3b13881b3.gif) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_5146b2fc5d48.gif) |\n|---|---|\n| ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_43bb8d6846cc.gif) | ![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_readme_f2e5158d4a06.gif) |\n\n## 概述\n\n[Animal-AI 测试平台](http:\u002F\u002Fanimalaiolympics.com\u002FAAI)将动物认知研究引入了人工智能领域。\n它提供了一个环境，用于测试智能体完成从动物认知文献中提取或受其启发的任务。\n该领域的数十年研究使我们能够训练和测试人工智能智能体的认知技能。\n\n此仓库包含[训练环境](animalai)、[训练库](animalai_train)以及用于测试和\u002F或训练智能体的[900个任务](competition_configurations)。\n实验被划分为不同的类别，以反映各种认知技能。详细信息可在[网站](http:\u002F\u002Fanimalaiolympics.com\u002FAAI\u002Ftestbed)上找到。\n\n我们使用此环境和相关测试举办了一场竞赛，更多关于结果的详情可在此处查看[这里](http:\u002F\u002Fanimalaiolympics.com)。\n\n该环境基于[Unity ml-agents](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fdocs)构建，包含一个被固定大小竞技场包围的智能体。物体可以在该竞技场中生成，包括正向和负向奖励（绿色、黄色和红色球体），智能体必须获取（或避开）这些奖励。所有测试都是由训练环境中物体的组合构成的。\n\n## 简要说明\n\n只想开始？那么：\n- 克隆此仓库\n- 在`examples`文件夹中运行`pip install -r requirements.txt`\n- 获取适用于您平台的[环境可执行文件](#requirements)\n- 在`examples`文件夹中，启动`jupyter notebook`并浏览[环境](examples\u002Fenvironment_tutorial.ipynb)和[训练](examples\u002Ftraining_tutorial.ipynb)笔记本！\n\n有关更多示例，请参阅[examples文件夹](examples)。\n\n## 需求\n\n首先为您的系统**下载环境**：\n\n| 操作系统 | 环境链接 |\n| --- | --- |\n| Windows | [下载v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1BVFAO3pV9DxoPrc6PiDajp2SwCaWZNvJ\u002Fview?usp=sharing) |\n| Mac | [下载v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dzC3JoDiDhlpVKHXsYi_g-oe9mlIMu6t\u002Fview?usp=sharing) |\n| Linux |  [下载v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18DUEff51hvED5ityNktTpVSaAfZgeKDr\u002Fview?usp=sharing) |\n| Linux |  [下载v2.0.2](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MqVpLU3amisN8I_-4XWIE96gYIfWDzIX\u002Fview?usp=sharing) |\n\nV2.0.2仅适用于Linux，修复了导致2.0.1版本中部分环境无法运行的智能体速度问题。目前没有计划维护或更新其他版本。当前开发正在向v3推进，预计于2021年中期发布。\n\n将归档中的**全部内容**解压到`examples\u002Fenv`文件夹中。在Linux上，您可能需要通过运行`chmod +x env\u002FAnimalAI.x86_64`使文件可执行。\n\nAnimal-AI软件包支持Linux、Mac和Windows，并需要Python 3。\n\n- 主要软件包是一个用于与Unity环境交互的API。它既包含一个[gym环境](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym)，也包含Unity的[ml-agents环境](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fml-agents-envs)的扩展。您可以使用pip安装：\n    ```\n    pip install animalai\n    ```\n    或者您也可以从源码安装，只需在仓库文件夹中运行`pip install -e animalai`\n\n- 我们还提供一个可用作训练起点的软件包，也是运行`examples\u002F`文件夹中大多数示例脚本所必需的。它包含对[ml-agents训练环境](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002Fmaster\u002Fml-agents)的扩展，该扩展依赖于[OpenAI的PPO](https:\u002F\u002Fopenai.com\u002Fblog\u002Fopenai-baselines-ppo\u002F)和[BAIR的SAC](https:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2018\u002F12\u002F14\u002Fsac\u002F)。您也可以使用pip安装此包：\n    ```\n    pip install animalai-train\n    ```\n    或者您也可以从源码安装，只需在仓库文件夹中运行`pip install -e animalai_train`\n\n**环境的Unity源文件**可在我们的[ml-agents分支](https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents)中找到。\n\n## 手动控制\n\n如果您直接从可执行文件或通过`load_config_and_play,py`脚本启动环境，则会以玩家模式启动。在这里，您可以使用以下按键控制智能体：\n\n| 键盘键  | 动作    |\n| --- | --- |\n| W   | 智能体向前移动 |\n| S   | 智能体向后移动|\n| A   | 智能体左转     |\n| D   | 智能体右转    |\n| C   | 切换摄像头       |\n| R   | 重置环境   |\n\n## 引用\n如果您在工作中使用了Animal-AI环境，可以引用该环境的相关论文：\n\nBeyret, B., Hernández-Orallo, J., Cheke, L., Halina, M., Shanahan, M., Crosby, M. [The Animal-AI Environment: Training and Testing Animal-Like Artificial Cognition](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.07483), arXiv预印本\n\n```\n@inproceedings{Beyret2019TheAE,\n  title={The Animal-AI Environment: Training and Testing Animal-Like Artificial Cognition},\n  author={Benjamin Beyret and Jos'e Hern'andez-Orallo and Lucy Cheke and Marta Halina and Murray Shanahan and Matthew Crosby},\n  year={2019}\n}\n```\n\n包含所有测试细节的论文将在竞赛结束后发布。\n\n## Unity ML-Agents\n\nAnimal-AI奥林匹克运动会是使用[Unity的ML-Agents工具包](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents)构建的。\n\n位于[animalai](animalai)中的Python库扩展了[ml-agents v0.15.0](https:\u002F\u002Fgithub.com\u002FUnity-Technologies\u002Fml-agents\u002Ftree\u002F0.15.0)。主要增加了在不同episode之间更改竞技场配置的功能。\n\nJuliani, A., Berges, V., Vckay, E., Gao, Y., Henry, H., Mattar, M., Lange, D. (2018). [Unity: 一种用于智能体的通用平台。](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.02627) *arXiv预印本 arXiv:1809.02627*\n\n## EvalAI\n\n本次竞赛由开源AI竞赛Web应用[EvalAI](https:\u002F\u002Fgithub.com\u002FCloud-CV\u002FEvalAI)友好承办。特别感谢[Rishabh Jain](https:\u002F\u002Frishabhjain.xyz\u002F)在设置过程中提供的帮助。\n我们将努力重新开放提交，并使用新的隐藏文件，以保持某种形式的竞赛持续进行。\n\nDeshraj Yadav, Rishabh Jain, Harsh Agrawal, Prithvijit Chattopadhyay, Taranjeet Singh, Akash Jain, Shiv Baran Singh, Stefan Lee 和 Dhruv Batra (2019) [EvalAI: 朝着更好的AI智能体评估系统迈进](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.03570)\n\n## 版本历史\n\n- v2.0.1（仅环境）：\n  - 可移动物体变得更轻，更容易推动\n\n- v2.0.0：\n  - 修复了一些小错误\n  - 新增教程笔记本\n  - 将 ml-agents 从 0.7 升级到 0.15，具体变更如下：\n    - 支持多并行环境进行训练\n    - 新增软演员评论家（SAC）训练器\n    - 引入一种新型的交互循环（按需决策）\n    - 移除了大脑组件及部分 Protocol Buffers 文件\n    - 添加了侧信道以替代部分 Protocol Buffers 文件\n    - 对代码库进行了重构\n  - GoodGoalMulti 现在变为黄色，且纹理与 GoodGoal 和 BadGoal 相同（发光效果）\n  - 整个项目，包括 Unity 源代码，现已发布在 [我们的 ml-agents 分支](https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents) 上\n\n如需查看早期版本，请参阅 [此处](documentation\u002Fversions.md)","# AnimalAI-Olympics 快速上手指南\n\nAnimalAI-Olympics 是一个基于 Unity ML-Agents 构建的 AI 训练环境，旨在通过源自动物认知文献的任务来测试和训练人工智能代理的认知能力。本指南将帮助您快速搭建环境并运行示例。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Windows, macOS 或 Linux\n*   **Python 版本**: Python 3.x\n*   **依赖工具**: `pip`, `git`, `jupyter notebook`\n*   **硬件建议**: 支持 OpenGL 的显卡（用于运行 Unity 环境）\n\n> **注意**：本项目主要维护的是 2019 年竞赛版本的代码库（v2.0.x）。最新的 v3 版本已在独立仓库中发布。\n\n## 安装步骤\n\n### 1. 克隆项目代码\n首先，将仓库克隆到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmdcrosby\u002Fanimal-ai.git\ncd animal-ai\n```\n\n### 2. 下载并配置 Unity 环境\n您需要根据操作系统下载对应的 Unity 环境可执行文件，并将其解压到指定目录。\n\n| 操作系统 | 下载链接 (v2.0.1\u002Fv2.0.2) |\n| :--- | :--- |\n| **Windows** | [下载 v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1BVFAO3pV9DxoPrc6PiDajp2SwCaWZNvJ\u002Fview?usp=sharing) |\n| **macOS** | [下载 v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dzC3JoDiDhlpVKHXsYi_g-oe9mlIMu6t\u002Fview?usp=sharing) |\n| **Linux** | [下载 v2.0.1](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18DUEff51hvED5ityNktTpVSaAfZgeKDr\u002Fview?usp=sharing) \u003Cbr> [下载 v2.0.2*](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1MqVpLU3amisN8I_-4XWIE96gYIfWDzIX\u002Fview?usp=sharing) |\n\n*\\*注：v2.0.2 仅适用于 Linux，修复了代理速度问题。其他平台请使用 v2.0.1。*\n\n**配置步骤：**\n1.  下载完成后，解压压缩包内的**所有内容**。\n2.  将解压后的文件夹移动到项目根目录下的 `examples\u002Fenv` 文件夹中。\n3.  **Linux 用户专属**：需要赋予可执行权限。\n    ```bash\n    chmod +x examples\u002Fenv\u002FAnimalAI.x86_64\n    ```\n\n### 3. 安装 Python 依赖包\n进入 `examples` 目录并安装必要的 Python 库：\n\n```bash\ncd examples\npip install -r requirements.txt\n```\n\n此外，您也可以单独安装核心包（如果上述命令未包含）：\n```bash\n# 安装环境交互 API\npip install animalai\n# 或者从源码安装\npip install -e ..\u002Fanimalai\n\n# 安装训练库 (包含 PPO 和 SAC 算法支持)\npip install animalai-train\n# 或者从源码安装\npip install -e ..\u002Fanimalai_train\n```\n\n## 基本使用\n\n安装完成后，您可以通过 Jupyter Notebook 快速体验环境交互和训练流程。\n\n### 启动教程\n在 `examples` 目录下启动 Jupyter Notebook：\n```bash\njupyter notebook\n```\n\n在浏览器中打开后，依次运行以下两个核心教程：\n1.  **环境交互教程**: `environment_tutorial.ipynb`\n    *   学习如何加载环境、观察状态以及手动控制代理。\n2.  **训练教程**: `training_tutorial.ipynb`\n    *   学习如何使用内置的训练脚本对代理进行强化学习训练。\n\n### 手动控制测试\n如果您想直接运行可执行文件来手动控制代理（玩家模式），可以使用项目提供的脚本或直接运行二进制文件。在玩家模式下，您可以使用以下键盘按键控制代理：\n\n| 按键 | 动作 |\n| :--- | :--- |\n| **W** | 向前移动 |\n| **S** | 向后移动 |\n| **A** | 向左转向 |\n| **D** | 向右转向 |\n| **C** | 切换摄像头视角 |\n| **R** | 重置环境 |\n\n您也可以通过运行以下脚本加载配置并进入游戏模式（需确保环境路径配置正确）：\n```bash\npython load_config_and_play.py\n```\n\n更多示例代码和任务配置请参考 `examples` 文件夹及 `competition_configurations` 目录。","某高校认知科学实验室的研究团队正致力于开发能模拟动物空间推理能力的 AI 代理，以验证强化学习算法在复杂认知任务中的泛化性。\n\n### 没有 AnimalAI-Olympics 时\n- **环境构建耗时巨大**：研究人员需从零开始使用 Unity 搭建包含奖励机制和障碍物的 3D 测试场，耗费数周时间却难以保证物理交互的准确性。\n- **缺乏标准化基准**：自行设计的测试任务主观性强，无法与学术界已有的动物认知研究数据对标，导致实验结果难以被同行复现或认可。\n- **认知维度覆盖不全**：团队仅能设计简单的寻路任务，难以系统性地涵盖工具使用、延迟满足等 900 种高阶认知技能测试场景。\n- **接口对接繁琐**：将自定义环境与主流强化学习框架（如 Gym 或 ML-Agents）对接需要编写大量底层胶水代码，分散了算法研究的精力。\n\n### 使用 AnimalAI-Olympics 后\n- **即插即用的高保真环境**：直接下载预编译的 Unity 环境包，通过 `pip install animalai` 即可一键加载包含精确物理反馈的标准化竞技场，将环境准备时间从数周缩短至几小时。\n- **权威的对标测试体系**：直接调用源自真实动物认知文献的 900 个预设任务，使 AI 代理的表现能直接与动物行为数据及全球竞赛结果进行量化对比。\n- **全方位的技能评估**：利用其分类明确的实验模块，系统化地训练和测试代理在空间记忆、因果推理等多维度的认知能力，填补了单一任务评估的盲区。\n- **无缝的框架集成**：借助其原生支持的 Gym 接口和 ML-Agents 扩展，研究人员可直接复用现有的训练脚本，专注于核心算法优化而非工程适配。\n\nAnimalAI-Olympics 通过将复杂的动物认知实验标准化为可编程的 AI 测试床，极大地降低了跨学科研究的门槛并提升了实验的可信度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbeyretb_AnimalAI-Olympics_72ac45ce.png","beyretb","Benjamin Beyret","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbeyretb_2f8d374e.jpg","Google Deepmind Research Engineer",null,"https:\u002F\u002Fgithub.com\u002Fbeyretb",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,577,83,"2026-01-10T18:36:38","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":93,"python":94,"dependencies":95},"该工具基于 Unity ML-Agents v0.15.0 构建。需手动下载对应操作系统的 Unity 环境可执行文件（约几百 MB 至几 GB，具体大小未说明）并解压至 examples\u002Fenv 目录。Linux 用户需赋予执行权限。代码库本身处于非活跃维护状态（2019 年竞赛版本），最新开发已转向 v3 版本。训练算法支持 OpenAI 的 PPO 和 BAIR 的 SAC。","3.x",[96,97,98,99,100,101],"animalai","animalai-train","gym","ml-agents==0.15.0","tensorflow (隐含于 PPO\u002FSAC)","jupyter notebook",[13,55,15,14],[104,105,106,107,108,109],"competition","reinforcement-learning","deep-learning","deep-reinforcement-learning","ai","cognition","2026-03-27T02:49:30.150509","2026-04-06T08:45:24.905811",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},12235,"如何计算智能体在两次 env.step 调用之间移动的距离？","观察数据返回的速度单位是米\u002F秒。由于速度是由 Unity 物理引擎根据施加的各种力（包括阻力）计算得出的，很难找到手动计算速度的明确公式。但是，时间步长常数是固定的且与机器无关。无论使用什么资源或在训练\u002F推理模式下，相同的动作都会产生相同的速度。建议通过实验测量该常数：在已知环境下执行固定动作，记录速度和时间，从而推算出距离。不要简单地用墙钟时间（wall clock time）乘以速度，因为模拟时间与真实时间不同。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F43",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},12236,"提交评估时是否必须使用 84x84 的分辨率？我可以更改它吗？","是的，最终评估（evaluation）必须使用 84x84 的分辨率。虽然为了公平起见，官方曾考虑开放更多分辨率选项，但为了避免对已经基于 84x84 进行了大量工作的团队造成不公，决定在评估脚本中强制要求 84x84。不过，您仍然可以在*训练*阶段使用多种分辨率，只是在提交进行最终测试时必须调整为 84x84。如果在评估脚本中使用其他分辨率，会收到 'The resolution provided must be 84' 的错误。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F54",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},12237,"比赛的评分标准是什么？为什么我在本地测试得分高但提交得分低？","比赛的目标不是猜测具体的测试场景（这几乎不可能且收益极小），而是训练出一个能在广泛情境下获取食物的智能体。每个类别的分数通常基于 30 次运行中获得奖励的次数。如果您在本地针对特定示例（如 1-Food.yaml）过拟合，而在提交时遇到该类别下不同的随机配置，得分就会大幅下降。关于回避区域（avoidance area）内包含目标的情况，如果智能体因无法进入而超时未获奖励，这是正常现象；评分旨在测试特定的认知能力而非随机测试。建议不要过度针对特定种子或配置进行训练，以提高泛化能力。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F46",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},12238,"训练时渲染窗口帧率（FPS）很低且卡顿，如何解决或替代？","训练时的低帧率渲染通常是为了加速训练过程而牺牲了视觉效果，这在某些机器上是正常的。如果您只是为了观察智能体行为，不需要在训练循环中调用 `env.render()`。您可以移除该行代码，智能体仍能正常接收观察数据和奖励并进行训练。如果需要可视化，可以使用专门的可视化工具脚本（如 `visualizeLightsOff.py`），它利用 matplotlib 展示智能体所见的内容，但这仅用于调试和观察，不参与实际训练过程。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F21",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},12239,"担心模型在评估用的试验数据上过拟合（overtrained），导致鲁棒性差，有解决办法吗？","这是一个普遍关注的问题。如果发现代码微调导致评估分数大幅波动，而本地测试变化不大，可能是过拟合了特定的评估数据集。官方已意识到这一点，并计划通过改变评估配置来缓解此问题，例如在最终评估时改变随机种子值（seed value）或提供其他配置组合，以测试智能体的真正鲁棒性，防止因长期针对同一数据集训练而导致在实际评估中失败。请关注官方发布的最终提交指南。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F80",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},12240,"智能体的移动模型有何特点？为什么向前行动时速度增量会随速度增加而减小？","移动模型并非每步施加恒定的力。随着速度增加，每次向前动作带来的速度增量会减小，这通常是因为物理引擎中应用了阻力（drag）或其他非线性因素。这种行为是 Unity 物理引擎计算的结果，旨在模拟更真实的物理环境。开发者需注意不能假设简单的线性运动模型，而应通过实验观察不同速度下的加速度变化，以适应这种非线性的动力学特性。","https:\u002F\u002Fgithub.com\u002Fbeyretb\u002FAnimalAI-Olympics\u002Fissues\u002F37",[144,149,154,159,164,169,174,179,184],{"id":145,"version":146,"summary_zh":147,"released_at":148},62613,"v2.0.0","- v2.0.0：\n  - 修复了一些小 bug\n  - 新增了教程笔记本\n  - 将 ml-agents 从 0.7 升级到 0.15，具体变更如下：\n    - 支持多并行环境进行训练\n    - 新增软演员评论家（SAC）训练器\n    - 引入了一种新型的动作\u002F观测循环（按需决策）\n    - 移除了 Brain 组件及部分 Protocol Buffers 文件\n    - 添加了侧信道以替代部分 Protocol Buffers 文件\n    - 对代码库进行了重构\n  - GoodGoalMulti 现在变为黄色，且纹理与 GoodGoal 和 BadGoal 相同（发光效果）\n  - 整个项目，包括 Unity 源代码，现已发布在我们的 ml-agents 分支：[https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents](https:\u002F\u002Fgithub.com\u002Fbeyretb\u002Fml-agents)","2020-05-04T21:08:41",{"id":150,"version":151,"summary_zh":152,"released_at":153},62614,"v1.1.1","课程表加载顺序错误的修复补丁","2019-09-17T07:07:51",{"id":155,"version":156,"summary_zh":157,"released_at":158},62615,"v1.1.0","在 `animalai-train` 中添加课程学习功能，以使用 YAML 配置文件。","2019-09-16T09:21:11",{"id":160,"version":161,"summary_zh":162,"released_at":163},62616,"v1.0.5","- v1.0.5\n  - 在评估过程中添加可自定义分辨率功能\n  - 将 `animalai-train` 更新至 TensorFlow 1.14，以修复 `gin` 的依赖问题\n  - 发布环境的源代码（目前暂不提供相关支持）\n  - 修复了两个库中的一些旧版依赖和拼写错误","2019-08-14T12:46:22",{"id":165,"version":166,"summary_zh":167,"released_at":168},62617,"v1.0.3","- v1.0.3\n    - 在 Gym 环境中添加推理模式\n    - 为 Gym 环境添加随机种子\n    - 提供包含已训练智能体的提交示例文件夹\n    - 提供竞赛的提交说明\n    - 提供在 AWS 上进行训练的文档\n\n此外，还有未标记为发布版本的先前更新：\n\n- v1.0.2\n    - 同时为 Docker 训练添加自定义分辨率\n    - 修复版本检查器\n\n- v1.0.0\n    - 为 Unity 和 Gym 环境均添加自定义分辨率\n    - 在环境中添加推理模式，用于可视化已训练的智能体\n    - 公布奖项\n    - 提供更多关于竞赛的详细信息","2019-07-08T16:48:25",{"id":170,"version":171,"summary_zh":172,"released_at":173},62618,"v0.6.0","- 在游戏模式下添加得分（当前得分和历史得分）\n- 游戏模式现在直接支持关闭灯光功能（在 `examples` 目录下尝试：`python visualizeArena.py configs\u002FlightsOff.yaml`）\n- 为简化环境，移除了若干不必要的对象 [详见此处](documentation\u002FdefinitionsOfObjects.md)\n- **多个对象的属性已更改** [同样请参阅此处](documentation\u002FdefinitionsOfObjects.md)\n- 每个动作对应的帧数由 5 帧减少至 3 帧（即：对于您发送的每个动作，我们会将其重复一定数量的帧，以确保物理模拟更加平滑）\n- 添加环境与 API 之间的版本兼容性检查\n- 从 `animalai.environment.step` 中移除 `step_number` 参数","2019-06-24T13:05:34",{"id":175,"version":176,"summary_zh":177,"released_at":178},62619,"v0.5","- v0.5 包含 `animalai`，兼容 Gym，提供 Dopamine 示例，并修复了若干 bug\n    - 在 Python 中将环境 API 和训练 API 分离\n    - 以 `animalai` 和 `animalai-train` 两个 PyPI 包发布（便于通过 `pip` 安装）\n    - 演示模式下智能体的速度在不同平台上保持一致\n    - 提供 Gym 环境\n    - 添加 `trainBaselines.py` 脚本，用于使用 Dopamine 和 Gym 封装器进行训练\n    - 创建用于提交智能体的 `agent.py` 接口\n    - 添加 `HotZone` 对象（等同于红色区域，但不会导致死亡）","2019-06-03T15:23:24",{"id":180,"version":181,"summary_zh":182,"released_at":183},62620,"v0.4","0.4 - 灯光开关移至 Unity 中，颜色配置、比例目标、错误修复\r\n\r\n- 现在灯光直接在 Unity 内切换开\u002F关，配置文件保持不变\r\n- 停电现在支持无限期（t=0）\r\n- 移除了 rand_colors 配置项，用户现在可以直接传入 RGB 值，详情请见此处\r\n- 目标的奖励现在与其大小成正比（除 DeathZone 外），详情请见此处\r\n- 智能体现在是一个球体，而非立方体\r\n- 增强了智能体生成时的安全性，以避免死循环\r\n- 错误修复","2019-05-28T14:33:12",{"id":185,"version":186,"summary_zh":187,"released_at":188},62621,"v0.3","我们新增了按指定间隔关闭灯光的功能。\n- visualizeLightsOff.py 展示了一个从智能体视角出发的灯光关闭示例。\n- 已移除 Beam 对象。\n- 新增了一个 `Cylinder` 对象，其行为与 `Woodlog` 类似。\n- 不可移动的 `Cylinder` 隧道现更名为 `CylinderTunnel`。","2019-05-20T08:48:19"]