[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-danijar--crafter":3,"tool-danijar--crafter":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":112,"oss_zip_packed_at":112,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":116},2212,"danijar\u002Fcrafter","crafter","Benchmarking the Spectrum of Agent Capabilities","Crafter 是一款专为评估人工智能代理能力而设计的开源二维开放世界生存游戏基准。在这个随机生成的像素世界中，智能体需要像人类玩家一样觅食、寻找庇护所、抵御怪物、收集资源并制作工具。\n\n传统强化学习评估往往需要在多个独立环境中分别训练，计算成本高昂且难以全面衡量智能体的综合水平。Crafter 通过单一环境集成了从基础生存到复杂制造的 22 项语义化成就，有效解决了评估维度单一和迭代效率低的问题。它重点考察智能体的泛化能力、深度探索策略、表征学习以及长程推理与信用分配能力，为研究人员提供了一个既能测试有奖励代理也能测试无监督代理的通用平台。\n\n该工具主要面向强化学习领域的研究人员和算法开发者。其独特亮点在于采用稀疏奖励机制，并引入“几何平均分”作为核心评价指标，确保在困难任务上的突破能更显著地体现整体能力提升。同时，Crafter 完美兼容 OpenAI Gym 接口，支持快速安装与可视化交互，让用户能便捷地复现论文结果或直观观察智能体的成长过程，是探索通用人工智能能力的理想试验场。","**Status:** Stable release\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fcrafter.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fcrafter\u002F#history)\n\n# Crafter\n\nOpen world survival game for evaluating a wide range of agent abilities within\na single environment.\n\n![Crafter Terrain](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_readme_db90ac2f6673.png)\n\n## Overview\n\nCrafter features randomly generated 2D worlds where the player needs to forage\nfor food and water, find shelter to sleep, defend against monsters, collect\nmaterials, and build tools. Crafter aims to be a fruitful benchmark for\nreinforcement learning by focusing on the following design goals:\n\n- **Research challenges:** Crafter poses substantial challenges to current\n  methods, evaluating strong generalization, wide and deep exploration,\n  representation learning, and long-term reasoning and credit assignment.\n\n- **Meaningful evaluation:** Agents are evaluated by semantically meaningful\n  achievements that can be unlocked in each episode, offering insights into the\n  ability spectrum of both reward agents and unsupervised agents.\n\n- **Iteration speed:** Crafter evaluates many agent abilities within a single\n  env, vastly reducing the computational requirements over benchmarks suites\n  that require training on many separate envs from scratch.\n\nSee the research paper to find out more: [Benchmarking the Spectrum of Agent\nCapabilities](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2109.06780.pdf)\n\n```\n@article{hafner2021crafter,\n  title={Benchmarking the Spectrum of Agent Capabilities},\n  author={Danijar Hafner},\n  year={2021},\n  journal={arXiv preprint arXiv:2109.06780},\n}\n```\n\n## Play Yourself\n\n```sh\npython3 -m pip install crafter  # Install Crafter\npython3 -m pip install pygame   # Needed for human interface\npython3 -m crafter.run_gui      # Start the game\n```\n\n\u003Cdetails>\n\u003Csummary>Keyboard mapping (click to expand)\u003C\u002Fsummary>\n\n| Key | Action |\n| :-: | :----- |\n| WASD | Move around |\n| SPACE| Collect material, drink from lake, hit creature |\n| TAB | Sleep |\n| T | Place a table |\n| R | Place a rock |\n| F | Place a furnace |\n| P | Place a plant |\n| 1 | Craft a wood pickaxe |\n| 2 | Craft a stone pickaxe |\n| 3 | Craft an iron pickaxe |\n| 4 | Craft a wood sword |\n| 5 | Craft a stone sword |\n| 6 | Craft an iron sword |\n\n\u003C\u002Fdetails>\n\n![Crafter Video](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fcrafter\u002Fraw\u002Fmain\u002Fmedia\u002Fvideo.gif)\n\n## Interface\n\nTo install Crafter, run `pip3 install crafter`. The environment follows the\n[OpenAI Gym][gym] interface. Observations are images of size (64, 64, 3) and\noutputs are one of 17 categorical actions.\n\n```py\nimport gym\nimport crafter\n\nenv = gym.make('CrafterReward-v1')  # Or CrafterNoReward-v1\nenv = crafter.Recorder(\n  env, '.\u002Fpath\u002Fto\u002Flogdir',\n  save_stats=True,\n  save_video=False,\n  save_episode=False,\n)\n\nobs = env.reset()\ndone = False\nwhile not done:\n  action = env.action_space.sample()\n  obs, reward, done, info = env.step(action)\n```\n\n[gym]: https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym\n\n## Evaluation\n\nAgents are allowed a budget of 1M environmnent steps and are evaluated by their\nsuccess rates of the 22 achievements and by their geometric mean score. Example\nscripts for computing these are included in the `analysis` directory of the\nrepository.\n\n- **Reward:** The sparse reward is `+1` for unlocking an achievement during\n  the episode and `-0.1` or `+0.1` for lost or regenerated health points.\n  Results should be reported not as reward but as success rates and score.\n\n- **Success rates:** The success rates of the 22 achievemnts are computed\n  as the percentage across all training episodes in which the achievement was\n  unlocked, allowing insights into the ability spectrum of an agent.\n\n- **Crafter score:** The score is the geometric mean of success rates, so that\n  improvements on difficult achievements contribute more than improvements on\n  achievements with already high success rates.\n\n## Scoreboards\n\nPlease create a pull request if you would like to add your or another algorithm\nto the scoreboards. For the reinforcement learning and unsupervised agents\ncategories, the interaction budget is 1M. The external knowledge category is\ndefined more broadly.\n\n### Reinforcement Learning\n\n| Algorithm | Score (%) | Reward | Open Source |\n|:----------|----------:|-------:|:-----------:|\n| [Curious Replay](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.15934.pdf) | 19.4±1.6 | - | [AutonomousAgentsLab\u002Fcr-dv3](https:\u002F\u002Fgithub.com\u002FAutonomousAgentsLab\u002Fcr-dv3) |\n| [PPO (ResNet)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.03486.pdf)| 15.6±1.6 | 10.3±0.5 | [snu-mllab\u002FAchievement-Distillation](https:\u002F\u002Fgithub.com\u002Fsnu-mllab\u002FAchievement-Distillation) \n| [DreamerV3](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.04104v1.pdf) | 14.5±1.6 | 11.7±1.9 | [danijar\u002Fdreamerv3](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv3) |\n| [LSTM-SPCNN](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.03374.pdf) | 12.1±0.8 | — | [astanic\u002Fcrafter-ood](https:\u002F\u002Fgithub.com\u002Fastanic\u002Fcrafter-ood) |\n| [EDE](https:\u002F\u002Fopenreview.net\u002Fpdf?id=GZDsKahGY-2) | 11.7±1.0 | — | [yidingjiang\u002Fede](https:\u002F\u002Fgithub.com\u002Fyidingjiang\u002Fede) |\n| [OC-SA](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.03374.pdf) | 11.1±0.7 | — | [astanic\u002Fcrafter-ood](https:\u002F\u002Fgithub.com\u002Fastanic\u002Fcrafter-ood) |\n| [DreamerV2](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.02193.pdf) | 10.0±1.2 | 9.0±1.7 | [danijar\u002Fdreamerv2](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv2) |\n| [PPO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.02298.pdf) | 4.6±0.3 | 4.2±1.2 | [DLR-RM\u002Fstable-baselines3](https:\u002F\u002Fgithub.com\u002FDLR-RM\u002Fstable-baselines3) |\n| [Rainbow](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.02298.pdf) | 4.3±0.2 | 6.0±1.3 | [Kaixhin\u002FRainbow](https:\u002F\u002Fgithub.com\u002FKaixhin\u002FRainbow) |\n\n### Unsupervised Agents\n\n| Algorithm | Score (%) | Reward | Open Source |\n|:----------|----------:|-------:|:-----------:|\n| [Plan2Explore](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.02193.pdf) | 2.1±0.1 | 2.1±1.5 | [danijar\u002Fdreamerv2](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv2) |\n| [RND](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.12894.pdf) | 2.0±0.1 | 0.7±1.3 | [alirezakazemipour\u002FPPO-RND](https:\u002F\u002Fgithub.com\u002Falirezakazemipour\u002FPPO-RND) |\n| Random | 1.6±0.0 | 2.1±1.3 | — |\n\n### External Knowledge\n\n| Algorithm | Score (%) | Reward | Uses | Interaction | Open Source |\n|:----------|----------:|-------:|:-----|:-----------:|:-----------:|\n| [Human](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FHuman) | 50.5±6.8 | 14.3±2.3 | Life experience | 0 | [crafter_human_dataset](https:\u002F\u002Farchive.org\u002Fdetails\u002Fcrafter_human_dataset) |\n| [SPRING](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15486.pdf) | 27.3±1.2 | 12.3±0.7 | LLM, scene description, Crafter paper | 0 | ❌ |\n| [Achievement Distillation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.03486.pdf) | 21.8±1.4 | 12.6±0.3 | Reward structure | 1M | [snu-mllab\u002FAchievement-Distillation](https:\u002F\u002Fgithub.com\u002Fsnu-mllab\u002FAchievement-Distillation) |\n| [ELLM](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2302.06692.pdf) | — | 6.0±0.4 | LLM, scene description | 5M | ❌ |\n\n## Baselines\n\nBaseline scores of various agents are available for Crafter, both with and\nwithout rewards. The scores are available in JSON format in the `scores`\ndirectory of the repository. For comparison, the score of human expert players\nis 50.5\\%. The [baseline\nimplementations](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fcrafter-baselines) are available as\na separate repository.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_readme_c41a4529b43e.png\" width=\"400\"\u002F>\n\n## Questions\n\nPlease [open an issue][issues] on Github.\n\n[issues]: https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fcrafter\u002Fissues\n","**状态:** 稳定版\n\n[![PyPI](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fcrafter.svg)](https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fcrafter\u002F#history)\n\n# Crafter\n\n一款开放世界生存游戏，旨在通过单一环境评估智能体的广泛能力。\n\n![Crafter 地形](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_readme_db90ac2f6673.png)\n\n## 概述\n\nCrafter 提供随机生成的 2D 世界，玩家需要在其中采集食物和水、寻找庇护所休息、抵御怪物侵袭、收集资源并制作工具。Crafter 的设计目标是成为强化学习领域的一个高效基准测试平台，具体体现在以下几个方面：\n\n- **研究挑战性：** Crafter 对现有方法提出了重大挑战，能够评估模型的强泛化能力、深度与广度探索、表征学习以及长期推理和信用分配等能力。\n  \n- **有意义的评估：** 智能体的表现通过每一轮游戏中可解锁的语义化成就来衡量，这不仅适用于基于奖励的智能体，也适用于无监督学习的智能体，从而更全面地反映其能力范围。\n\n- **迭代效率：** Crafter 在一个环境中即可评估多种智能体能力，相比需要从头训练多个独立环境的基准测试套件，显著降低了计算需求。\n\n更多信息请参阅相关论文：[Benchmarking the Spectrum of Agent Capabilities](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2109.06780.pdf)\n\n```\n@article{hafner2021crafter,\n  title={Benchmarking the Spectrum of Agent Capabilities},\n  author={Danijar Hafner},\n  year={2021},\n  journal={arXiv preprint arXiv:2109.06780},\n}\n```\n\n## 自己来玩一玩\n\n```sh\npython3 -m pip install crafter  # 安装 Crafter\npython3 -m pip install pygame   # 需要用于人机交互界面\npython3 -m crafter.run_gui      # 启动游戏\n```\n\n\u003Cdetails>\n\u003Csummary>键盘映射（点击展开）\u003C\u002Fsummary>\n\n| 键 | 动作 |\n| :-: | :----- |\n| WASD | 移动 |\n| SPACE| 收集资源、饮水、攻击生物 |\n| TAB | 睡觉 |\n| T | 放置桌子 |\n| R | 放置石头 |\n| F | 放置熔炉 |\n| P | 放置植物 |\n| 1 | 制作木镐 |\n| 2 | 制作石镐 |\n| 3 | 制作铁镐 |\n| 4 | 制作木剑 |\n| 5 | 制作石剑 |\n| 6 | 制作铁剑 |\n\n\u003C\u002Fdetails>\n\n![Crafter 视频](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_readme_5baed70b4c4f.gif)\n\n## 接口\n\n安装 Crafter 可以运行 `pip3 install crafter`。该环境遵循 [OpenAI Gym][gym] 接口。观测值为大小为 (64, 64, 3) 的图像，动作空间包含 17 种离散动作。\n\n```py\nimport gym\nimport crafter\n\nenv = gym.make('CrafterReward-v1')  # 或者 CrafterNoReward-v1\nenv = crafter.Recorder(\n  env, '.\u002Fpath\u002Fto\u002Flogdir',\n  save_stats=True,\n  save_video=False,\n  save_episode=False,\n)\n\nobs = env.reset()\ndone = False\nwhile not done:\n  action = env.action_space.sample()\n  obs, reward, done, info = env.step(action)\n```\n\n[gym]: https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgym\n\n## 评估\n\n智能体被允许使用 100 万步的交互预算，并根据 22 项成就的成功率及其几何平均分进行评估。仓库中的 `analysis` 目录包含了用于计算这些指标的示例脚本。\n\n- **奖励机制：** 奖励较为稀疏，每解锁一项成就得 +1 分，而健康值每损失或恢复一点则分别扣或加 0.1 分。报告结果时应以成功率和分数为主，而非总奖励值。\n  \n- **成功率：** 22 项成就的成功率是指在所有训练回合中成功解锁该成就的比例，借此可以深入了解智能体的能力分布。\n\n- **Crafter 分数：** 分数由各项成就成功率的几何平均值得出，这意味着对高难度成就的提升比对已有较高成功率成就的改进更能显著影响最终得分。\n\n## 得分榜\n\n如果您希望将自己的算法或其他算法添加到得分榜上，请提交 Pull Request。对于强化学习和无监督学习两类，交互预算均为 100 万步；外部知识类别则定义更为宽泛。\n\n### 强化学习\n\n| 算法 | 分数 (%) | 奖励 | 开源 |\n|:----------|----------:|-------:|:-----------:|\n| [Curious Replay](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.15934.pdf) | 19.4±1.6 | - | [AutonomousAgentsLab\u002Fcr-dv3](https:\u002F\u002Fgithub.com\u002FAutonomousAgentsLab\u002Fcr-dv3) |\n| [PPO (ResNet)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.03486.pdf)| 15.6±1.6 | 10.3±0.5 | [snu-mllab\u002FAchievement-Distillation](https:\u002F\u002Fgithub.com\u002Fsnu-mllab\u002FAchievement-Distillation) \n| [DreamerV3](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.04104v1.pdf) | 14.5±1.6 | 11.7±1.9 | [danijar\u002Fdreamerv3](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv3) |\n| [LSTM-SPCNN](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.03374.pdf) | 12.1±0.8 | — | [astanic\u002Fcrafter-ood](https:\u002F\u002Fgithub.com\u002Fastanic\u002Fcrafter-ood) |\n| [EDE](https:\u002F\u002Fopenreview.net\u002Fpdf?id=GZDsKahGY-2) | 11.7±1.0 | — | [yidingjiang\u002Fede](https:\u002F\u002Fgithub.com\u002Fyidingjiang\u002Fede) |\n| [OC-SA](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2208.03374.pdf) | 11.1±0.7 | — | [astanic\u002Fcrafter-ood](https:\u002F\u002Fgithub.com\u002Fastanic\u002Fcrafter-ood) |\n| [DreamerV2](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.02193.pdf) | 10.0±1.2 | 9.0±1.7 | [danijar\u002Fdreamerv2](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv2) |\n| [PPO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.02298.pdf) | 4.6±0.3 | 4.2±1.2 | [DLR-RM\u002Fstable-baselines3](https:\u002F\u002Fgithub.com\u002FDLR-RM\u002Fstable-baselines3) |\n| [Rainbow](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1710.02298.pdf) | 4.3±0.2 | 6.0±1.3 | [Kaixhin\u002FRainbow](https:\u002F\u002Fgithub.com\u002FKaixhin\u002FRainbow) |\n\n### 无监督学习\n\n| 算法 | 分数 (%) | 奖励 | 开源 |\n|:----------|----------:|-------:|:-----------:|\n| [Plan2Explore](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.02193.pdf) | 2.1±0.1 | 2.1±1.5 | [danijar\u002Fdreamerv2](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fdreamerv2) |\n| [RND](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.12894.pdf) | 2.0±0.1 | 0.7±1.3 | [alirezakazemipour\u002FPPO-RND](https:\u002F\u002Fgithub.com\u002Falirezakazemipour\u002FPPO-RND) |\n| 随机 | 1.6±0.0 | 2.1±1.3 | — |\n\n### 外部知识\n\n| 算法 | 分数 (%) | 奖励 | 使用 | 交互次数 | 开源 |\n|:----------|----------:|-------:|:-----|:-----------:|:-----------:|\n| [人类](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FHuman) | 50.5±6.8 | 14.3±2.3 | 生活经验 | 0 | [crafter_human_dataset](https:\u002F\u002Farchive.org\u002Fdetails\u002Fcrafter_human_dataset) |\n| [SPRING](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15486.pdf) | 27.3±1.2 | 12.3±0.7 | LLM、场景描述、Crafter 论文 | 0 | ❌ |\n| [Achievement Distillation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.03486.pdf) | 21.8±1.4 | 12.6±0.3 | 奖励结构 | 100万 | [snu-mllab\u002FAchievement-Distillation](https:\u002F\u002Fgithub.com\u002Fsnu-mllab\u002FAchievement-Distillation) |\n| [ELLM](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2302.06692.pdf) | — | 6.0±0.4 | LLM、场景描述 | 500万 | ❌ |\n\n## 基线\n\nCrafter 提供了多种智能体的基线分数，包括带奖励和不带奖励两种情况。这些分数以 JSON 格式存储在仓库的 `scores` 目录中。作为对比，人类专家玩家的得分为 50.5%。基线实现已作为一个独立仓库提供：[基线实现](https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fcrafter-baselines)。\n\n![基线分数图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_readme_c41a4529b43e.png)\n\n## 问题\n\n请在 GitHub 上 [提交一个问题][issues]。\n\n[issues]: https:\u002F\u002Fgithub.com\u002Fdanijar\u002Fcrafter\u002Fissues","# Crafter 快速上手指南\n\nCrafter 是一个用于评估智能体能力的开放世界生存游戏环境，专为强化学习研究设计。它在一个环境中集成了觅食、建造、战斗等多种挑战，是测试智能体泛化能力、探索能力和长期规划能力的理想基准。\n\n## 环境准备\n\n*   **系统要求**：支持 Linux、macOS 或 Windows。\n*   **Python 版本**：推荐 Python 3.7 及以上版本。\n*   **前置依赖**：\n    *   `gym`：Crafter 遵循 OpenAI Gym 接口标准。\n    *   `pygame`：仅当需要人工试玩（GUI 界面）时需要安装。\n\n> **提示**：国内开发者建议使用清华源或阿里源加速安装过程。\n\n## 安装步骤\n\n### 1. 安装核心库\n使用 pip 安装 Crafter 及其依赖：\n\n```bash\npython3 -m pip install crafter -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 安装图形界面依赖（可选）\n如果你希望亲自体验游戏或查看可视化界面，需额外安装 `pygame`：\n\n```bash\npython3 -m pip install pygame -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n### 模式一：人工试玩\n安装完成后，运行以下命令即可启动游戏窗口，通过键盘控制角色进行生存挑战：\n\n```bash\npython3 -m crafter.run_gui\n```\n\n**操作按键说明：**\n| 按键 | 功能 |\n| :--- | :--- |\n| **WASD** | 移动角色 |\n| **SPACE** | 收集材料 \u002F 喝水 \u002F 攻击生物 |\n| **TAB** | 睡觉（恢复状态） |\n| **T \u002F R \u002F F \u002F P** | 放置桌子 \u002F 石头 \u002F 熔炉 \u002F 植物 |\n| **1-3** | 制作木\u002F石\u002F铁 镐 |\n| **4-6** | 制作木\u002F石\u002F铁 剑 |\n\n### 模式二：代码集成（强化学习训练）\nCrafter 完全兼容 Gym 接口，可直接用于训练 RL 智能体。以下是最小可用示例：\n\n```py\nimport gym\nimport crafter\n\n# 创建环境 (可选 'CrafterNoReward-v1' 用于无监督学习)\nenv = gym.make('CrafterReward-v1')\n\n# 可选：添加记录器以保存统计数据和视频\nenv = crafter.Recorder(\n  env, '.\u002Fpath\u002Fto\u002Flogdir',\n  save_stats=True,\n  save_video=False,\n  save_episode=False,\n)\n\nobs = env.reset()\ndone = False\n\nwhile not done:\n  # 此处替换为你的智能体动作选择逻辑\n  action = env.action_space.sample()\n  \n  obs, reward, done, info = env.step(action)\n```\n\n**关键参数说明：**\n*   **观测空间 (Observation)**：形状为 `(64, 64, 3)` 的 RGB 图像。\n*   **动作空间 (Action)**：包含 17 种离散动作（如移动、交互、制作等）。\n*   **奖励机制**：解锁成就时获得 `+1` 稀疏奖励，生命值变化会有微小奖惩。评估时通常关注**成就解锁率**和**几何平均得分**，而非累计奖励。","某 AI 实验室团队正在研发一种具备通用能力的强化学习智能体，旨在让机器人能在未知环境中自主完成觅食、建造和防御等复杂长程任务。\n\n### 没有 crafter 时\n- **评估成本高昂**：团队需搭建多个独立环境分别测试探索、规划或表征学习能力，导致算力资源分散且训练周期漫长。\n- **能力维度割裂**：不同基准测试仅关注单一指标，难以直观判断智能体是否具备从“收集木材”到“打造铁剑”这种跨阶段的综合推理能力。\n- **反馈信号稀疏且模糊**：传统环境的奖励机制设计复杂，难以区分智能体是靠运气得分还是真正掌握了生存策略，缺乏语义明确的成就解锁机制。\n- **泛化性验证困难**：固定地图容易过拟合，无法有效检验智能体在面对随机生成的地形和怪物分布时，是否具备真正的适应性与鲁棒性。\n\n### 使用 crafter 后\n- **一站式高效评测**：crafter 在单个随机生成的 2D 开放世界中集成了觅食、睡眠、战斗和合成等全套挑战，大幅降低了多环境切换的算力与时间成本。\n- **全景能力谱系分析**：通过 22 个语义明确的成就（如“制作石镐”、“击败怪物”），团队能清晰绘制出智能体的能力雷达图，精准定位其在长程规划或深度探索上的短板。\n- **科学量化进步幅度**：利用几何平均分（Geometric Mean）机制，crafter 让攻克难关（如打造铁器）带来的评分提升远高于简单任务，真实反映算法的核心突破。\n- **强制泛化测试**：每次重置都是全新的随机世界，迫使智能体必须学习通用的生存逻辑而非死记硬背地图，显著提升了模型在现实部署中的可靠性。\n\ncrafter 通过将复杂的通用智能评估浓缩于一个高迭代速度的开放世界游戏中，为研究者提供了衡量智能体“全能性”的黄金标尺。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdanijar_crafter_db90ac2f.png","danijar","Danijar Hafner","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdanijar_d28ece3b.jpg","Building AI that makes autonomous decisions using world models, artificial curiosity, and temporal abstraction","DeepMind","San Francisco","mail@danijar.com","danijarh","https:\u002F\u002Fdanijar.com","https:\u002F\u002Fgithub.com\u002Fdanijar",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,532,87,"2026-04-02T00:24:51","MIT",1,"未说明 (通常支持 Linux, macOS, Windows)","未说明 (作为基准测试环境，主要依赖 CPU 运行，训练代理时的 GPU 需求取决于具体算法)","未说明",{"notes":99,"python":100,"dependencies":101},"Crafter 本身是一个轻量级的 2D 强化学习环境，遵循 OpenAI Gym 接口。安装仅需 'pip install crafter'。若需人类试玩界面，需额外安装 'pygame'。具体的计算资源需求（如 GPU、内存）主要取决于用户在此环境中训练的强化学习算法（如 Dreamer, PPO 等），而非 Crafter 环境本身。","3.x (README 示例使用 python3)",[102,103],"gym","pygame",[54,13],[106,107,108,109,110,111],"artificial-intelligence","reinforcement-learning","minecraft","environment","simulation","deep-learning",null,"2026-03-27T02:49:30.150509","2026-04-06T08:18:25.706613",[],[]]