[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-openai--neural-mmo":3,"tool-openai--neural-mmo":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[26,14,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":10,"env_os":100,"env_gpu":101,"env_ram":101,"env_deps":102,"category_tags":107,"github_topics":108,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":137},880,"openai\u002Fneural-mmo","neural-mmo","Code for the paper \"Neural MMO: A Massively Multiagent Game Environment for Training and Evaluating Intelligent Agents\"","Neural MMO 是一个用于训练和评估智能体的大规模多智能体游戏环境，它模拟了一个类似 MMORPG（大型多人在线角色扮演游戏）的虚拟世界。这个环境可以支持数千个智能体在同一个持久世界中同时活动，包含多样化的技能系统、全局经济和即时冲突，旨在为智能体提供接近真实世界复杂度的训练场景。\n\n它主要解决了传统智能体训练环境规模有限、交互单一的问题，使得研究人员能够在大规模、开放式的多智能体场景中研究智能体的适应性、协作与竞争行为。通过模拟一个持续运行且具备经济、战斗、资源采集等元素的虚拟世界，Neural MMO 为推进多智能体强化学习与通用人工智能研究提供了重要实验平台。\n\n该工具适合人工智能领域的研究人员、强化学习开发者以及对多智能体系统感兴趣的技术爱好者使用。它提供了模块化的工程架构（包括环境引擎、渲染、神经网络接口等），方便用户定制环境规则或设计新型智能体算法。\n\nNeural MMO 的技术亮点在于其高度可扩展的环境设计，能够支持成千上万的智能体同时交互，并提供了独立的客户端用于可视化渲染。项目采用工程与研究分离的架构，使得环境扩展与智能体算法开发可以并行推进。需要注意的是，当","Neural MMO 是一个用于训练和评估智能体的大规模多智能体游戏环境，它模拟了一个类似 MMORPG（大型多人在线角色扮演游戏）的虚拟世界。这个环境可以支持数千个智能体在同一个持久世界中同时活动，包含多样化的技能系统、全局经济和即时冲突，旨在为智能体提供接近真实世界复杂度的训练场景。\n\n它主要解决了传统智能体训练环境规模有限、交互单一的问题，使得研究人员能够在大规模、开放式的多智能体场景中研究智能体的适应性、协作与竞争行为。通过模拟一个持续运行且具备经济、战斗、资源采集等元素的虚拟世界，Neural MMO 为推进多智能体强化学习与通用人工智能研究提供了重要实验平台。\n\n该工具适合人工智能领域的研究人员、强化学习开发者以及对多智能体系统感兴趣的技术爱好者使用。它提供了模块化的工程架构（包括环境引擎、渲染、神经网络接口等），方便用户定制环境规则或设计新型智能体算法。\n\nNeural MMO 的技术亮点在于其高度可扩展的环境设计，能够支持成千上万的智能体同时交互，并提供了独立的客户端用于可视化渲染。项目采用工程与研究分离的架构，使得环境扩展与智能体算法开发可以并行推进。需要注意的是，当前仓库为初始版本的存档，后续活跃开发已在其他分支进行。","[ags]: resource\u002Fdocs\u002Fags.png?raw=true\n[earth]: resource\u002Fdocs\u002Fearth_thumbnail.png\n[fire]: resource\u002Fdocs\u002Ffire_thumbnail.png\n[water]: resource\u002Fdocs\u002Fwater_thumbnail.png\n[air]: resource\u002Fdocs\u002Fair_thumbnail.png\n[env]: resource\u002Fdocs\u002Fenv.jpg\n[demo]: v1.2.png\n\n**Status:** Archive (code is provided as-is, no updates expected)\n\n# ![][ags] Neural MMO: A Massively Multiagent Game Environment for Training and Evaluating Intelligent Agents\n\n## (9\u002F19) This is an archive of the inital release of the [Neural MMO project](https:\u002F\u002Fopenai.com\u002Fblog\u002Fneural-mmo\u002F). Active development continuing at [jsuarez5341\u002Fneural-mmo](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo). At the time of archiving, the project is on version 1.2 and has made significant progress since v1.0 -- here is a screenshot:\n\n![][demo]\n\n# ![][ags] Neural MMO v1.0 Release\n\nThis environment is the first neural MMO; it attempts to create agents that scale to real world complexity. Simulating evolution on Earth is computationally infeasible, but we can construct a reasonable and efficient facsimile. We consider MMORPGs (Massive Multiplayer Online Role Playing Games) the best proxy for the real world among human games: they are complete macrocosms featuring thousands of agents per persistent world, diverse skilling systems, global economies, and ad-hoc high stakes single and team based conflict.\n\n![][env]\n\n## ![][ags] Quickstart\n\n```\n# Recommended Setup:\nmkdir projekt\ncd projekt\n\ngit clone https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo-client\ncd neural-mmo-client\nbash setup.sh\ncd ..\n\ngit clone https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\ncd neural-mmo\nbash scripts\u002Fsetup\u002Fsetup.sh\npython setup.py\n```\n\nThis will download both the OpenAI environment and the independent client, which is required for rendering. Some setups may require you fix the symlink to the client (e.g. `ln -s ..\u002F..\u002Fneural-mmo-client\u002F embyr` from `forge\u002Fembyr`). The setup file will only install _external_ dependencies -- we assume you have already setup **Anaconda with Python 3.6+**. The environment is framework independently, but our experiment code does depend on PyTorch -- set this up separately.\n\nRun the following, then navigate to http:\u002F\u002Flocalhost:8080\u002Fforge\u002Fembyr\u002F in Firefox or Chrome to pull up the renderer. Click to start and give it a few seconds to load assets and stabilize fps. For troubleshooting, see the [Client Repo](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo-client).\n```\npython Forge.py --render #Run the environment with rendering on\n```\n\n## ![][ags] Overview\n\nThe project is divided into four modules:\n\n| Engineering   | Research      |\n| ------------- |-------------|\n| ![][earth] Blade: Env | ![][water] Trinity: API   |\n| ![][fire] Embyr: Render  | ![][air] Ethyr: Neural |\n\nThe objective is to create agents that scale to the complexity and robustness of the real world. This is a variant phrasing of \"artificial life.\" A key perspective of the project is decoupling this statement into subproblems that are concrete, feasible, and directly composable to solve the whole problem. We split the objective into \"agents that scale to their environment\" and \"environments that scale to the real world.\" These are large respective research and engineering problems, but unlike the original objective, they are specific enough to attempt individually. For a more thorough overview of the project approach and objective, see this [Two Pager](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F1_76rYTPtPysSh2_cFFz3Mfso-9VL3_tF5ziaIZ8qmS8\u002Fedit?usp=sharing).\n\n![][water]![][air] Research: Agents that scale to env complexity\n\n![][earth]![][fire] Engineering: Env that scales to real world complexity\n\n### ![][water] Trinity\nTrinity is the native API for researchers (the naming is simply flavor -- see \"Namesake\" below). It consists of three base classes, Pantheon, God, and Sword, which you can override to execute code at the Cluster, Server, and Agent levels, respectively.\n\n```python\nfrom forge.trinity import smith, Trinity, Pantheon, God, Sword\ntrinity = Trinity(Pantheon, God, Sword)\nenvs = smith.Native(config, args, trinity)\nenvs.run()\n```\nThat's it -- all communications are handled internally. The provided Pantheon class includes sample gradient aggregation, optimization, and model saving code. The provided God class is mainly a stub to enable future work incorporating population level training algorithms. The provided Sword class contains our simple fully connected model. The full API is defined in forge\u002Ftrinity\u002Ftrinity.py.\n\nThe VecEnv\u002FGym computation model not well suited to this setting and performs 10-1000x more interprocess communication than is required. The native API is simpler, more efficient, and requires much less code. However, we do provide a canonical Gym API minimally modified to support a variable number of agents. Forge.py contains a complete forward pass example for a single population. Basic usage is:\n\n```python\nfrom forge.trinity import smith\nenvs = smith.VecEnv(config, args, self.step)\n\n#The environment is persistent: call reset only upon initialization\nobs = envs.reset()\n\n#Observations contain entity and stimulus\n#for each agent in each environment.\nactions = your_algorithm_here(obs)\n\n#The environment is persistent: \"dones\" is always None\n#If an observation is missing, that agent has died\nobs, rewards, dones, infos = envs.step(actions)\n```\n\nYou can try these both out with:\n```\n# Run Options:\npython Forge.py --nRealm 2 --api native #Run 2 environments with native API\npython Forge.py --nRealm 2 --api vecenv #Run 2 environments with vecenv API\n```\n\n### ![][air] Ethyr\nEthyr is the \"contrib\" for this project. It contains useful research tools for interacting with the project. I've seeded it with the helper classes for our experiments, including a model save\u002Fload manager, a rollout objects, and a basic optimizer. If you would like to contribute code (in any framework, not just PyTorch), please submit a pull request.\n\n### ![][earth] Blade\nBlade is the core environment, including game state and control flow. Researchers should not need to touch this, outside perhaps importing core configurations and enums.\n### ![][fire] Embyr\nEmbyr is the independent THREE.js web client. This is downloaded from a separate repository in the setup above and symlinked to the OpenAI repository. You may have to fix the symbolic link if you get forge\u002Fembyr import errors. Again, researchers should not have to edit this. In order to run it, run Forge.py with --render enabled, then navigate to localhost:8080\u002Fforge\u002Fembyr in Firefox. It will take a couple seconds to initialize and load assets. You will need to refresh the page whenever you reboot the server (Forge.py). Chrome and Safari might work, but we do not currently offer official support.\n\n## ![][ags] Failure Modes\nEvaluation can be somewhat difficult in our setting but is not a major blocker. For smaller experiments, we find population size and resource utilization to be reasonable metrics of success. For larger experiments with sufficient domain randomization, Tournaments (as described in the accompanying paper) allow for cross validation of approaches.\n\nWe are currently aware of three failure cases for the project:\n  * Computational infeasibility\n  * \"Agents that scale to their environment\" is too hard\n  * \"Environments that scale to the real world\" is too hard\n\nThe first failure case is a serious risk, but is shared among all areas of the field. This project is not uniquely compute intensive -- in fact, it is one of few environments where it is straightforward to train reasonable policies on a single CPU. If scale is the main issue here, it is likely shared among most if not all other approaches.\n\nThe second problem is probably most familiar to researchers as exploration. Given a cold start, how can agents bootstrap both to better policies and to better exploration strategies? This is a hard problem, but it is unlikely to kill the project because:\n  * This is independently an important problem that many researchers are already working on already\n  * The environment of this project is designed collaboratively to assist agents early on in learning, rather than adversarially as a hard benchmark\n  * [Recent](https:\u002F\u002Fblog.openai.com\u002Fopenai-five\u002F) [projects](https:\u002F\u002Fblog.openai.com\u002Flearning-dexterity\u002F) have demonstrated success at scale.\n\nThe third problem probably appears most likely to many researchers, but least likely to anyone who has spent a significant amount of time in MMOs. Here is a map of the NYC subway:\n\n![QuestMap](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_ca10b9ea61ac.png)\n[Source](https:\u002F\u002Fwww.reddit.com\u002Fuser\u002FGamez_X)\n\nActually, it's a quest map of Runescape, a particular MMO that our environment is loosely based upon. Each quest is a puzzle in itself, takes anywhere from several minutes to several hours to complete, is part of an interconnected web of prerequisites of other quests, and provides different incentives for completion ranging from equipment to unlockable content to experience in a tightly connected set of skills:\n\n![Skills](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_4f119ea2008c.png)\n![Equipment](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_ccb61f662ab6.png)\n[Source](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)\n\nIn a massive open world:\n\n![GameMap](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_a33f82a20e4f.png)\n[Source](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)\n\nThe most complex class of games considered to date is MOBAs (Massive Online Battle Arenas, e.g. Dota, Quake CTF), which are round based, take on order of an hour, and are mechanically intensive. Achieving 99 in all skills and acquiring the best gear in Runescape takes, at minimum, several thousand hours. In a tournament setting where attacking other players is allowed everywhere, moment-to-moment gameplay is less important than balancing the risks and rewards of any potential strategy--especially in the presence of hundreds of other players attempting to do the same. There is almost certainly still a complexity gap from MMOs to the real world, but we believe it is much smaller than that in environments currently available.\n\nWhile our environment is nowhere near the level of complexity of a real MMO yet, it does contain key properties of persistence, population scale, and open-endedness. As agents begin to reach the ceiling of the current environment, we plan on continuing development to raise the ceiling.\n\n## ![][ags] File Structure\n![][water] **\u002Fforge\u002Ftrinity** ~350 lines\n* **\u002Fforge\u002Ftrinity\u002Fann.py** - Defines architectures\n* **\u002Fforge\u002Ftrinity\u002Fgod.py** - Defines server level code (e.g. entity tagging)\n* **\u002Fforge\u002Ftrinity\u002Fpantheon.py** - Defines cluster level code (e.g. gradient averaging)\n* **\u002Fforge\u002Ftrinity\u002Fsword.py** - Defines core level code (e.g. running networks, collecting rollouts, computing gradients)\n* **\u002Fforge\u002Ftrinity\u002Ftrinity.py** - Wraps a pantheon, god, and sword\n* **\u002Fforge\u002Ftrinity\u002Fsmith.py** - Defines the Native and VecEnv \u002F Gym APIs\n\n![][air] **\u002Fforge\u002Fethyr** ~250 lines\n* **\u002Fforge\u002Fethyr\u002Frollouts.py** - Collects and merges rollouts\n* **\u002Fforge\u002Fethyr\u002Fstim.py** - Produces a stimulus from local game state\n* **\u002Fforge\u002Fethyr\u002Ftorch** - pytorch specific neural utilities\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Floss.py** - Defines policy\u002Fvalue loss and advantage\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Foptim.py** - Defines optimization and gradient computation\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Fparam.py** - Network surgery useful for serialization\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Fstim.py** - Wraps the generic stimulus library with pytorch tensors\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Futils.py** - Generic pytorch tools\n\n![][earth] **\u002Fforge\u002Fblade** ~2k lines, of which >1k are for future expansion. Only italicized files are relevant.\n  * **\u002Fforge\u002Fblade\u002Faction** - Defines what entities can do, what occurs when they do it, and provides structure for reasoning over actions.\n    * **\u002Fforge\u002Fblade\u002Faction\u002Faction.py** - Class stubs for each action\n    * **\u002Fforge\u002Fblade\u002Faction\u002Ftree.py** - Tree structure for assembling actions (e.g. action -> sub-action -> args)\n    * **_\u002Fforge\u002Fblade\u002Faction\u002Fv2.py_** - Actions that entities can select, instantiate, and .call() to directly modify world state\n  * **\u002Fforge\u002Fblade\u002Fcore** — Contains ~500 lines of state and game loop code.\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fconfig.py_** - Defines specifications for each test environment, including entity statistics, the map, and spawn locations.\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Ftile.py_** - Defines an individual game tile\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fmap.py_** - Defines a map of game tiles\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fenv.py_** - Wraps the full game state\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Frealm.py_** - Defines the game loop updating the environment and agents.\n  * **\u002Fforge\u002Fblade\u002Fentity** - Defines agents, both neural and scripted\n    * **_\u002Fforge\u002Fblade\u002Fentity\u002Fplayer.py_** — Defines \"player\" state\n    * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002F**\n      * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002Fnpc.py** — This defines client state (e.g. wraps the neural net making decisions)\n      * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002Fmobs.py** - Defines scripted npcs\n  * **\u002Fforge\u002Fblade\u002Fhook** - Defines startup scripts that preassemble references\n  * **\u002Fforge\u002Fblade\u002Fitem** - Defines all items in the game, including equipment\n  * **\u002Fforge\u002Fblade\u002Flib** - Defines generic utilities that either do not have clean python implementations or require specific changes for the project\n  * **\u002Fforge\u002Fblade\u002Fsystems** - Defines game content\n\n![][fire] **\u002Fforge\u002Fembyr** See [Client Repo](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002FGodsword-Client)\n\n## ![][ags] Namesake\nIn formal publications, we refer to our project as simply a \"Neural MMO.\" Internally and informally, we call it \"Projekt: Godsword.\" The name comes from two sources: CD Projekt Red, my personal favorite game dev studio, and OldSchool Runescape, which contains an iconic set of weapons called god swords. The latter is a particularly good model for AI environments; the former is more of a soft flavor inspiration.\n\n## ![][ags] Authorship\n I, [Joseph Suarez](https:\u002F\u002Fgithub.com\u002Fjsuarez5341), am the author of the core code base. Yilun Du assisted with running experiments and particularly in setting up tournaments. Phillip Isola and Igor Mordatch have been invaluable collaborators and advisers throughout the project. The client was developed independently as a collaboration between myself and Clare Zhu.\n\n## ![][ags] License & Assets\nThe OpenAI repository is open sourced under the MIT License. There is a smaller original code base and game kernel that I (Joseph Suarez) retain ownership of, along with associated ideas. I created these before my employment -- the initial commit here represents the latest pre-employment timestep.\n\nSome assets used in this project belong to [Jagex](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)\n, the creators of Runescape, such as\n\n![Alt text](resource\u002Fdocs\u002Fags.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fearth_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fwater_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Ffire_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fair_thumbnail.png?raw=true \"Title\")\n\nWe currently use them for flavor as an homage to the game that inspired the project. We believe these fall under fair use as a not-for-profit project for the advancement of artificial intelligence research -- however, we are more than happy to remove them upon request. We do own the 2D and 3D files for agents.\n\n![Alt text](resource\u002Fdocs\u002FneuralRED.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralBLUE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralGREEN.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralFUCHSIA.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralORANGE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralMINT.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralPURPLE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralSPRING.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralYELLOW.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralCYAN.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralMAGENTA.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralSKY.png?raw=true \"Title\")\n","**状态：** 归档（代码按原样提供，预计不再更新）\n\n# ![][ags] Neural MMO：用于训练和评估智能体的大规模多智能体游戏环境\n\n## (9\u002F19) 这是 [Neural MMO 项目](https:\u002F\u002Fopenai.com\u002Fblog\u002Fneural-mmo\u002F) 初始版本的归档。活跃开发已在 [jsuarez5341\u002Fneural-mmo](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo) 继续。归档时，项目版本为 1.2，自 v1.0 以来已取得重大进展——以下是截图：\n\n![][demo]\n\n# ![][ags] Neural MMO v1.0 发布\n\n此环境是首个神经 MMO；它试图创建能够扩展到现实世界复杂性的智能体。在计算上模拟地球上的进化是不可行的，但我们可以构建一个合理且高效的模拟。我们认为 MMORPG（大型多人在线角色扮演游戏）是人类游戏中模拟现实世界的最佳代理：它们是完整的宏观世界，每个持久世界拥有数千个智能体，包含多样化的技能系统、全球经济以及临时的高风险个人和团队冲突。\n\n![][env]\n\n## ![][ags] 快速开始\n\n```\n# 推荐设置：\nmkdir projekt\ncd projekt\n\ngit clone https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo-client\ncd neural-mmo-client\nbash setup.sh\ncd ..\n\ngit clone https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\ncd neural-mmo\nbash scripts\u002Fsetup\u002Fsetup.sh\npython setup.py\n```\n\n这将下载 OpenAI 环境和独立的客户端（用于渲染）。某些设置可能需要你修复指向客户端的符号链接（例如，从 `forge\u002Fembyr` 目录执行 `ln -s ..\u002F..\u002Fneural-mmo-client\u002F embyr`）。安装文件只会安装*外部*依赖项——我们假设你已经设置了 **Anaconda with Python 3.6+**。环境本身是框架无关的，但我们的实验代码确实依赖 PyTorch——请单独设置。\n\n运行以下命令，然后在 Firefox 或 Chrome 中导航到 http:\u002F\u002Flocalhost:8080\u002Fforge\u002Fembyr\u002F 以启动渲染器。点击开始，并等待几秒钟加载资源并稳定帧率。故障排除请参阅 [客户端仓库](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo-client)。\n```\npython Forge.py --render # 运行环境并开启渲染\n```\n\n## ![][ags] 概述\n\n项目分为四个模块：\n\n| 工程模块      | 研究模块      |\n| ------------- |-------------|\n| ![][earth] Blade：环境 | ![][water] Trinity：API   |\n| ![][fire] Embyr：渲染  | ![][air] Ethyr：神经网络 |\n\n目标是创建能够扩展到现实世界复杂性和鲁棒性的智能体。这是“人工生命”的一种变体表述。该项目的一个关键视角是将这一目标分解为具体、可行且可直接组合以解决整体问题的子问题。我们将目标分解为“能够扩展到其环境的智能体”和“能够扩展到现实世界复杂性的环境”。这些分别是巨大的研究和工程问题，但与原始目标不同，它们足够具体，可以单独尝试。关于项目方法和目标的更全面概述，请参阅此 [两页文档](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F1_76rYTPtPysSh2_cFFz3Mfso-9VL3_tF5ziaIZ8qmS8\u002Fedit?usp=sharing)。\n\n![][water]![][air] 研究：能够扩展到环境复杂性的智能体\n\n![][earth]![][fire] 工程：能够扩展到现实世界复杂性的环境\n\n### ![][water] Trinity\nTrinity 是面向研究人员的原生 API（命名仅为趣味性——见下文“命名由来”）。它包含三个基类：Pantheon、God 和 Sword，你可以分别重写它们以在集群、服务器和智能体级别执行代码。\n\n```python\nfrom forge.trinity import smith, Trinity, Pantheon, God, Sword\ntrinity = Trinity(Pantheon, God, Sword)\nenvs = smith.Native(config, args, trinity)\nenvs.run()\n```\n就是这样——所有通信都在内部处理。提供的 Pantheon 类包含示例梯度聚合、优化和模型保存代码。提供的 God 类主要是一个存根，以便未来工作可以集成群体级别的训练算法。提供的 Sword 类包含我们简单的全连接模型。完整的 API 定义在 forge\u002Ftrinity\u002Ftrinity.py 中。\n\nVecEnv\u002FGym 计算模型不太适合此场景，其进程间通信量是所需量的 10-1000 倍。原生 API 更简单、更高效，并且需要更少的代码。然而，我们也提供了一个经过最小修改以支持可变数量智能体的规范 Gym API。Forge.py 包含了一个单一群体的完整前向传播示例。基本用法如下：\n\n```python\nfrom forge.trinity import smith\nenvs = smith.VecEnv(config, args, self.step)\n\n# 环境是持久化的：仅在初始化时调用 reset\nobs = envs.reset()\n\n# 观测包含每个环境中每个智能体的实体和刺激信息。\nactions = your_algorithm_here(obs)\n\n# 环境是持久化的：\"dones\" 始终为 None\n# 如果某个观测缺失，则该智能体已死亡\nobs, rewards, dones, infos = envs.step(actions)\n```\n\n你可以通过以下命令尝试这两种方式：\n```\n# 运行选项：\npython Forge.py --nRealm 2 --api native # 使用原生 API 运行 2 个环境\npython Forge.py --nRealm 2 --api vecenv # 使用 vecenv API 运行 2 个环境\n```\n\n### ![][air] Ethyr\nEthyr 是本项目的“贡献”模块。它包含用于与项目交互的有用研究工具。我已经为其添加了我们实验的辅助类，包括模型保存\u002F加载管理器、rollout 对象和一个基础优化器。如果你想贡献代码（任何框架，不仅仅是 PyTorch），请提交拉取请求。\n\n### ![][earth] Blade\nBlade 是核心环境模块，包括游戏状态和控制流。研究人员通常不需要接触此部分，除了可能导入核心配置和枚举。\n\n### ![][fire] Embyr\nEmbyr 是独立的 THREE.js 网页客户端。它通过上述设置从单独的仓库下载，并符号链接到 OpenAI 仓库。如果遇到 forge\u002Fembyr 导入错误，你可能需要修复符号链接。同样，研究人员无需编辑此部分。为了运行它，请使用 `--render` 参数运行 Forge.py，然后在 Firefox 中导航到 localhost:8080\u002Fforge\u002Fembyr。初始化并加载资源需要几秒钟。每当重启服务器（Forge.py）时，你需要刷新页面。Chrome 和 Safari 可能可以工作，但我们目前不提供官方支持。\n\n## ![][ags] 故障模式\n在我们的设定中，评估可能有些困难，但这并非主要障碍。对于较小的实验，我们发现种群规模和资源利用率是衡量成功的合理指标。对于具有充分领域随机化的大型实验，锦标赛（如配套论文所述）允许对方法进行交叉验证。\n\n我们目前意识到该项目存在三种故障情况：\n* 计算不可行性\n* \"智能体适应其环境扩展\"过于困难\n* \"环境扩展到现实世界\"过于困难\n\n第一种故障情况是严重风险，但在该领域的所有方向中都普遍存在。本项目并非独特的计算密集型项目——事实上，它是少数几个可以在单个 CPU 上直接训练合理策略的环境之一。如果规模是这里的主要问题，那么很可能大多数（如果不是全部）其他方法也会面临同样的问题。\n\n第二个问题对研究人员来说可能最熟悉，即探索问题。给定冷启动，智能体如何引导出更好的策略和更好的探索策略？这是一个难题，但不太可能扼杀该项目，因为：\n* 这本身就是一个重要问题，许多研究人员已经在研究\n* 本项目环境是协作设计的，旨在早期协助智能体学习，而不是作为硬基准对抗性地设计\n* [近期](https:\u002F\u002Fblog.openai.com\u002Fopenai-five\u002F) [项目](https:\u002F\u002Fblog.openai.com\u002Flearning-dexterity\u002F) 已在大规模上证明了成功\n\n第三个问题可能对许多研究人员来说似乎最有可能，但对任何在 MMO（大型多人在线游戏）中花费大量时间的人来说最不可能。以下是纽约地铁的地图：\n\n![QuestMap](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_ca10b9ea61ac.png)\n[来源](https:\u002F\u002Fwww.reddit.com\u002Fuser\u002FGamez_X)\n\n实际上，这是《Runescape》（我们的环境大致基于的一款特定 MMO）的任务地图。每个任务本身就是一个谜题，完成时间从几分钟到几小时不等，是其他任务先决条件相互关联网络的一部分，并提供不同的完成激励，从装备到可解锁内容，再到紧密关联技能体系中的经验值：\n\n![Skills](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_4f119ea2008c.png)\n![Equipment](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_ccb61f662ab6.png)\n[来源](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)\n\n在一个巨大的开放世界中：\n\n![GameMap](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_readme_a33f82a20e4f.png)\n[来源](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)\n\n迄今为止被认为最复杂的游戏类别是 MOBA（多人在线战术竞技游戏，例如 Dota、Quake CTF），它们是回合制的，大约持续一小时，并且对操作要求很高。在《Runescape》中，将所有技能练到 99 级并获得最佳装备至少需要数千小时。在允许随处攻击其他玩家的锦标赛环境中，即时游戏玩法的重要性不如平衡任何潜在策略的风险和回报——尤其是在有数百名其他玩家试图做同样事情的情况下。从 MMO 到现实世界几乎肯定仍然存在复杂性差距，但我们认为这比当前可用环境中的差距要小得多。\n\n虽然我们的环境还远未达到真实 MMO 的复杂程度，但它确实包含了持久性、种群规模和开放性的关键属性。随着智能体开始触及当前环境的上限，我们计划继续开发以提高上限。\n\n## ![][ags] 文件结构\n![][water] **\u002Fforge\u002Ftrinity** ~350 行\n* **\u002Fforge\u002Ftrinity\u002Fann.py** - 定义架构\n* **\u002Fforge\u002Ftrinity\u002Fgod.py** - 定义服务器级别代码（例如实体标记）\n* **\u002Fforge\u002Ftrinity\u002Fpantheon.py** - 定义集群级别代码（例如梯度平均）\n* **\u002Fforge\u002Ftrinity\u002Fsword.py** - 定义核心级别代码（例如运行网络、收集轨迹、计算梯度）\n* **\u002Fforge\u002Ftrinity\u002Ftrinity.py** - 包装 pantheon、god 和 sword\n* **\u002Fforge\u002Ftrinity\u002Fsmith.py** - 定义 Native 和 VecEnv \u002F Gym API\n\n![][air] **\u002Fforge\u002Fethyr** ~250 行\n* **\u002Fforge\u002Fethyr\u002Frollouts.py** - 收集和合并轨迹\n* **\u002Fforge\u002Fethyr\u002Fstim.py** - 从本地游戏状态生成刺激\n* **\u002Fforge\u002Fethyr\u002Ftorch** - pytorch 特定的神经网络工具\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Floss.py** - 定义策略\u002F价值损失和优势\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Foptim.py** - 定义优化和梯度计算\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Fparam.py** - 对序列化有用的网络手术\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Fstim.py** - 用 pytorch 张量包装通用刺激库\n  * **\u002Fforge\u002Fethyr\u002Ftorch\u002Futils.py** - 通用 pytorch 工具\n\n![][earth] **\u002Fforge\u002Fblade** ~2k 行，其中 >1k 行用于未来扩展。仅斜体文件是相关的。\n  * **\u002Fforge\u002Fblade\u002Faction** - 定义实体可以做什么，它们做时会发生什么，并提供推理行动的结构。\n    * **\u002Fforge\u002Fblade\u002Faction\u002Faction.py** - 每个动作的类存根\n    * **\u002Fforge\u002Fblade\u002Faction\u002Ftree.py** - 组装动作的树结构（例如 动作 -> 子动作 -> 参数）\n    * **_\u002Fforge\u002Fblade\u002Faction\u002Fv2.py_** - 实体可以选择、实例化并 .call() 以直接修改世界状态的动作\n  * **\u002Fforge\u002Fblade\u002Fcore** — 包含约 500 行状态和游戏循环代码。\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fconfig.py_** - 定义每个测试环境的规格，包括实体统计信息、地图和生成位置。\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Ftile.py_** - 定义单个游戏图块\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fmap.py_** - 定义游戏图块的地图\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Fenv.py_** - 包装完整的游戏状态\n    * **_\u002Fforge\u002Fblade\u002Fcore\u002Frealm.py_** - 定义更新环境和代理的游戏循环。\n  * **\u002Fforge\u002Fblade\u002Fentity** - 定义智能体，包括神经网络的和脚本的\n    * **_\u002Fforge\u002Fblade\u002Fentity\u002Fplayer.py_** — 定义\"玩家\"状态\n    * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002F**\n      * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002Fnpc.py** — 定义客户端状态（例如包装做出决策的神经网络）\n      * **\u002Fforge\u002Fblade\u002Fentity\u002Fnpc\u002Fmobs.py** - 定义脚本 NPC\n  * **\u002Fforge\u002Fblade\u002Fhook** - 定义预组装引用的启动脚本\n  * **\u002Fforge\u002Fblade\u002Fitem** - 定义游戏中的所有物品，包括装备\n  * **\u002Fforge\u002Fblade\u002Flib** - 定义通用工具，这些工具要么没有干净的 Python 实现，要么需要针对项目进行特定更改\n  * **\u002Fforge\u002Fblade\u002Fsystems** - 定义游戏内容\n\n![][fire] **\u002Fforge\u002Fembyr** 参见 [客户端仓库](https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002FGodsword-Client)\n\n## ![][ags] 项目命名\n在正式出版物中，我们将本项目简称为“Neural MMO”。在内部和非正式场合，我们称其为“Projekt: Godsword”。该名称来源于两个出处：CD Projekt Red（我个人最喜爱的游戏开发工作室）和《OldSchool Runescape》（其中包含一套标志性武器，名为“神剑”）。后者是人工智能环境的绝佳模型；前者则更多是软性风格灵感来源。\n\n## ![][ags] 作者信息\n核心代码库的作者是我，[Joseph Suarez](https:\u002F\u002Fgithub.com\u002Fjsuarez5341)。Yilun Du 协助运行实验，特别是在组织锦标赛方面。Phillip Isola 和 Igor Mordatch 在整个项目过程中提供了宝贵的合作与指导。客户端由我与 Clare Zhu 独立合作开发完成。\n\n## ![][ags] 许可证与资源\n本 OpenAI 代码库依据 MIT 许可证开源。此外，还有一个较小的原创代码库和游戏内核，其所有权及相关创意归我（Joseph Suarez）所有。这些内容在我受雇之前就已创建——此处的初始提交代表了我受雇前的最新时间节点。\n\n本项目使用的部分资源归属于《Runescape》的创造者 [Jagex](https:\u002F\u002Fwww.jagex.com\u002Fen-GB\u002F)，例如：\n\n![Alt text](resource\u002Fdocs\u002Fags.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fearth_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fwater_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Ffire_thumbnail.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002Fair_thumbnail.png?raw=true \"Title\")\n\n我们目前使用这些资源是为了向启发本项目的游戏致敬，增添项目特色。我们认为，作为一个旨在推动人工智能研究的非营利项目，这属于合理使用范畴。但若收到相关请求，我们非常乐意移除这些资源。智能体（agents）的 2D 和 3D 文件归我们所有。\n\n![Alt text](resource\u002Fdocs\u002FneuralRED.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralBLUE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralGREEN.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralFUCHSIA.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralORANGE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralMINT.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralPURPLE.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralSPRING.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralYELLOW.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralCYAN.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralMAGENTA.png?raw=true \"Title\")\n![Alt text](resource\u002Fdocs\u002FneuralSKY.png?raw=true \"Title\")","# Neural MMO 快速上手指南\n\n## 环境准备\n\n**系统要求**\n*   **操作系统**: Linux 或 macOS (Windows 未官方支持，但可能通过 WSL 运行)\n*   **Python**: 3.6 或更高版本\n*   **包管理器**: 强烈建议使用 **Anaconda** 或 Miniconda 来管理 Python 环境。\n*   **深度学习框架**: 环境本身是框架无关的，但项目提供的实验代码依赖于 **PyTorch**。你需要单独安装 PyTorch。\n*   **浏览器**: 用于客户端渲染，推荐 **Firefox** 或 **Chrome**。\n\n## 安装步骤\n\n1.  **创建项目目录并克隆仓库**\n    建议在一个统一的目录下进行操作。\n\n    ```bash\n    mkdir projekt\n    cd projekt\n\n    # 克隆渲染客户端仓库\n    git clone https:\u002F\u002Fgithub.com\u002Fjsuarez5341\u002Fneural-mmo-client\n    cd neural-mmo-client\n    bash setup.sh\n    cd ..\n\n    # 克隆主环境仓库\n    git clone https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\n    cd neural-mmo\n    ```\n\n2.  **运行环境安装脚本**\n    此脚本将安装项目的外部依赖。\n\n    ```bash\n    bash scripts\u002Fsetup\u002Fsetup.sh\n    python setup.py\n    ```\n\n    **注意**:\n    *   安装脚本**不会**安装 PyTorch 或 Anaconda，你需要提前准备好。\n    *   如果遇到 `forge\u002Fembyr` 相关的导入错误，可能需要手动创建符号链接。在 `neural-mmo\u002Fforge\u002F` 目录下执行：\n        ```bash\n        ln -s ..\u002F..\u002Fneural-mmo-client\u002F embyr\n        ```\n\n## 基本使用\n\n1.  **启动环境与渲染服务器**\n    运行以下命令启动后端环境并开启渲染服务。\n\n    ```bash\n    python Forge.py --render\n    ```\n\n2.  **打开客户端进行可视化**\n    启动命令后，在 **Firefox** 或 **Chrome** 浏览器中访问以下地址：\n    ```\n    http:\u002F\u002Flocalhost:8080\u002Fforge\u002Fembyr\u002F\n    ```\n    页面加载后，点击界面开始渲染。首次加载需要几秒钟时间来加载资源并稳定帧率。\n\n3.  **运行简单的 API 示例**\n    你可以使用两种不同的 API 来运行环境。在新的终端窗口中，进入 `neural-mmo` 目录，尝试以下命令：\n\n    *   **使用高效的 Native API 运行（推荐）**:\n        ```bash\n        python Forge.py --nRealm 2 --api native\n        ```\n    *   **使用修改版的 Gym (VecEnv) API 运行**:\n        ```bash\n        python Forge.py --nRealm 2 --api vecenv\n        ```\n    以上命令会启动 2 个并行运行的游戏世界 (`--nRealm 2`)。\n\n4.  **代码示例：使用 VecEnv\u002FGym API**\n    以下是一个使用 VecEnv API 与环境交互的基本代码结构：\n\n    ```python\n    from forge.trinity import smith\n\n    # 初始化环境\n    config = ... # 你的配置\n    args = ...   # 你的参数\n    envs = smith.VecEnv(config, args, self.step)\n\n    # 环境是持久化的：仅在初始化时调用 reset\n    obs = envs.reset()\n\n    # 观测值(obs)包含每个环境中每个智能体的实体和刺激信息\n    # 在此处插入你的算法来决定动作\n    actions = your_algorithm_here(obs)\n\n    # 环境是持久化的：\"dones\" 始终为 None\n    # 如果某个智能体的观测值缺失，则表示该智能体已死亡\n    obs, rewards, dones, infos = envs.step(actions)\n    ```\n\n**项目状态说明**：本仓库 (`openai\u002Fneural-mmo`) 是项目的初始版本归档，后续活跃开发已在 `jsuarez5341\u002Fneural-mmo` 进行。本指南基于归档的 v1.0 版本编写。","**场景背景**：某AI实验室的研究员小张，正在为多智能体强化学习项目设计一个能够模拟复杂社会交互的训练环境，以开发更通用、更鲁棒的AI智能体。\n\n### 没有 neural-mmo 时\n- **环境复杂度不足**：小张只能使用简单的网格世界或雅达利游戏环境，智能体面临的状态空间有限，难以模拟真实世界中大量智能体并存、资源竞争与合作的复杂动态。\n- **智能体交互单一**：现有环境通常只支持少量智能体（几个到几十个），且交互模式固定（如纯竞争或纯合作），无法研究大规模（数百上千）异质智能体之间涌现出的复杂社会行为。\n- **评估体系不完善**：由于环境本身简单，评估指标往往局限于任务得分，难以衡量智能体在长期生存、探索、社交、经济等维度的综合能力，导致研究结论的普适性存疑。\n- **开发与实验效率低**：从零构建一个大规模多智能体环境需要耗费数月进行底层引擎开发、网络同步和性能优化，严重挤占了核心算法研究的时间。\n\n### 使用 neural-mmo 后\n- **获得高复杂度模拟世界**：neural-mmo 提供了一个持久化运行的庞大奇幻世界，包含地形、资源、技能系统和经济体系，为智能体创造了近乎“真实世界”的复杂、动态训练场。\n- **支持大规模多智能体研究**：环境原生支持成千上万个智能体同时在线互动，智能体可以自由探索、采集、战斗、交易，研究者得以观察和研究大规模群体中涌现出的社会结构和复杂策略。\n- **建立多维评估基准**：该环境本身就是一个评估平台，智能体的表现可以从生存时长、探索范围、战斗效率、财富积累等多个维度进行综合衡量，为通用AI能力提供了更全面的测试床。\n- **专注算法创新，加速科研**：小张可以直接利用 neural-mmo 提供的成熟环境、API接口和可视化工具，将全部精力投入到多智能体协作、竞争、进化等核心算法的设计与实验上，极大提升了科研效率。\n\nneural-mmo 通过提供一个大规模、持久化、开放结局的多智能体游戏环境，将强化学习研究从“玩具问题”推向“准真实世界复杂度”，为核心算法研究提供了不可或缺的复杂基础。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fopenai_neural-mmo_4f119ea2.png","openai","OpenAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fopenai_1960bbf4.png","",null,"https:\u002F\u002Fopenai.com\u002F","https:\u002F\u002Fgithub.com\u002Fopenai",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",98.8,{"name":89,"color":90,"percentage":91},"GLSL","#5686a5",1,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.2,1651,265,"2026-04-05T04:34:51","MIT","Linux, macOS","未说明",{"notes":103,"python":104,"dependencies":105},"1. 项目已归档，代码按原样提供，无后续更新。\n2. 需要分别克隆主环境和独立客户端仓库并运行安装脚本。\n3. 渲染需要独立客户端，运行后通过浏览器访问 localhost:8080\u002Fforge\u002Fembyr 查看。\n4. 环境框架独立，但实验代码依赖 PyTorch，需单独安装。\n5. 建议使用 Anaconda 管理 Python 环境。\n6. 某些设置可能需要手动修复客户端符号链接。","3.6+",[106],"PyTorch",[15,46],[109],"paper","2026-03-27T02:49:30.150509","2026-04-06T07:13:59.948379",[113,118,123,128,132],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},3805,"使用 Docker 时客户端只显示背景（没有地图）怎么办？","这个问题在后续版本中已修复。用户报告在远程服务器上使用 Docker 时，客户端能显示标题屏幕和绿色背景，但地图无法渲染。解决方案是更新到最新版本（1.1 或更高），因为维护者表示此问题已解决。如果仍遇到问题，请确保 Docker 配置正确，并检查网络端口映射（-p 8080:8080）是否正常。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\u002Fissues\u002F12",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},3806,"遇到 'No module named \"forge.embyr\"' 错误如何解决？","此错误通常是由于客户端代码未正确链接导致的。解决方案是创建一个符号链接（symlink），将 'neural-mmo-client' 目录链接到 'neural-mmo\u002Fforge\u002Fembyr'。具体命令为：`ln -s neural-mmo-client neural-mmo\u002Fforge\u002Fembyr`。确保在正确的目录下执行此操作，并且 neural-mmo-client 已通过 git clone 下载。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\u002Fissues\u002F19",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},3807,"导入错误：无法从 'scipy.misc' 导入 'imread' 怎么办？","这是由于 scipy 版本不兼容导致的。解决方案是安装特定版本的 scipy（1.2.0）。使用命令：`pip install scipy==1.2`。请注意，Python 3.8 可能不支持 scipy 1.2.1，建议使用 Python 3.6 或 3.7 环境。如果使用 conda，也需要确保版本匹配。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\u002Fissues\u002F10",{"id":5,"question_zh":129,"answer_zh":130,"source_url":131},"neural-mmo 是否支持 Windows 系统？","neural-mmo 在 Windows 上可能无法正常工作，主要因为依赖库 Ray 在 Windows 上不可用。目前没有官方的 Windows 支持计划。建议 Windows 用户使用 Linux 子系统（WSL）、Docker 容器或在虚拟机中运行 Linux 环境来使用 neural-mmo。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\u002Fissues\u002F21",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},3809,"渲染时代理（agent）传递石头是什么问题？","这是一个在早期版本中出现的视觉渲染错误，代理在游戏中看起来像是在传递石头。维护者表示在版本 1.1 中已修复此问题。如果用户仍遇到此问题，请确保更新到最新代码版本，并重新检查安装步骤。如果问题依旧，可能是特定机器或设置问题，建议提供更多重现细节。","https:\u002F\u002Fgithub.com\u002Fopenai\u002Fneural-mmo\u002Fissues\u002F5",[]]