[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google--brax":3,"tool-google--brax":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":10,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":112,"github_topics":114,"view_count":24,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":146},9956,"google\u002Fbrax","brax","Massively parallel rigidbody physics simulation on accelerator hardware.","Brax 是一个基于 JAX 构建的高性能物理引擎，专为在加速器硬件（如 TPU 和 GPU）上进行大规模并行刚体模拟而设计。它主要解决了传统物理仿真速度慢、难以扩展以及无法直接融入深度学习流程的痛点，能够以每秒数百万步的速度运行仿真，并将训练智能体的时间从数天缩短至几分钟。\n\n这款工具非常适合从事机器人学、强化学习、材料科学及人类感知研究的研究人员与开发者使用。Brax 的核心亮点在于其“完全可微分”的特性，这意味着物理模拟过程可以直接计算梯度，从而支持解析策略梯度等高级算法，让基于物理的端到端学习成为可能。此外，Brax 提供了四种可灵活切换的物理计算管道（包括 MuJoCo XLA、广义坐标、位置动力学及弹簧模型），它们共享同一套 API，既方便快速原型验证，也利于缩小仿真与现实世界的差距。需要注意的是，随着项目演进，Brax 正逐渐聚焦于强化学习训练库的定位，若需纯粹的底层物理模拟，官方建议结合 MJX 或 MuJoCo Warp 使用。通过简洁的接口和云端 Colab 示例，Brax 让用户无需复杂的数据中心配置，即可在单设备或多设备上高效开展大规模仿真实验。","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_1d39ebc3113f.gif\" width=\"336\" height=\"80\" alt=\"BRAX\"\u002F>\n\n> **WARNING**\n> Only `brax\u002Ftraining` is actively being maintained as of 0.13.0. Instead of `brax\u002Fenvs`, users should use [MuJoCo Playground](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_playground), all of which train well with `brax\u002Ftraining`. If you want to use Brax for physics simulation, please use MJX available at [github.com\u002Fgoogle-deepmind\u002Fmujoco](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco) (`pip install mujoco_mjx`) or [MuJoCo Warp](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_warp) rather than Brax as a wrapper to MuJoCo physics simulation. We may repurpose `brax` purely as an RL library in the future.\n\nBrax is a fast and fully differentiable physics engine used for research and\ndevelopment of robotics, human perception, materials science, reinforcement\nlearning, and other simulation-heavy applications.\n\nBrax is written in [JAX](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax) and is designed for use\non acceleration hardware. It is both efficient for single-device simulation, and\nscalable to massively parallel simulation on multiple devices, without the need\nfor pesky datacenters.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_5fcf40977c5b.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_7ea0934baab6.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_ee386f75d55f.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_a1c291981ecf.gif\" width=\"160\" height=\"160\"\u002F>\n\nBrax simulates environments at millions of physics steps per second on TPU, and includes a suite of learning algorithms that train agents in seconds\nto minutes:\n\n*   Baseline learning algorithms such as\n    [PPO](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fppo),\n    [SAC](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fsac),\n    [ARS](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fars), and\n    [evolutionary strategies](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fes).\n*   Learning algorithms that leverage the differentiability of the simulator, such as [analytic policy gradients](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fapg).\n\n## One API, Four Pipelines\n\nBrax offers four distinct physics pipelines that are easy to swap:\n\n* [MuJoCo XLA - MJX](https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fmjx.html) - a JAX\nreimplementation of the MuJoCo physics engine.\n* [Generalized](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fgeneralized\u002F)\ncalculates motion in [generalized coordinates](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FGeneralized_coordinates)\nusing dynamics algorithms similar to [MuJoCo](https:\u002F\u002Fmujoco.org\u002F) and [TDS](https:\u002F\u002Fgithub.com\u002Ferwincoumans\u002Ftiny-differentiable-simulator).\n* [Positional](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fpositional\u002F)\nuses [Position Based Dynamics](https:\u002F\u002Fmatthias-research.github.io\u002Fpages\u002Fpublications\u002FposBasedDyn.pdf),\na fast but stable method of resolving joint and collision constraints.\n* [Spring](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fspring\u002F) provides\nfast and cheap simulation for rapid experimentation, using simple impulse-based\nmethods often found in video games.\n\nThese pipelines share the same API and can run side-by-side within the same\nsimulation.  This makes Brax well suited for experiments in transfer learning\nand closing the gap between simulation and the real world.\n\n## Quickstart: Colab in the Cloud\n\nExplore Brax easily and quickly through a series of colab notebooks:\n\n* [Brax Basics](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Fbasics.ipynb) introduces the Brax API, and shows how to simulate basic physics primitives.\n* [Brax Training](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining.ipynb) introduces Brax's training algorithms, and lets you train your own policies directly within the colab. It also demonstrates loading and saving policies.\n* [Brax Training with MuJoCo XLA - MJX](https:\u002F\u002Fcolab.sandbox.google.com\u002Fgithub\u002Fgoogle-deepmind\u002Fmujoco\u002Fblob\u002Fmain\u002Fmjx\u002Ftutorial.ipynb) demonstrates training in Brax using the `MJX` physics simulator.\n* [Brax Training with PyTorch on GPU](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining_torch.ipynb) demonstrates how Brax can be used in other ML frameworks for fast training, in this case PyTorch.\n\n## Using Brax Locally\n\nTo install Brax from pypi, install it with:\n\n```\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install brax\n```\n\nYou may also install from [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002F) or [Mamba](https:\u002F\u002Fgithub.com\u002Fmamba-org\u002Fmamba):\n\n```\nconda install -c conda-forge brax  # s\u002Fconda\u002Fmamba for mamba\n```\n\nAlternatively, to install Brax from source, clone this repo, `cd` to it, and then:\n\n```\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -e .\n```\n\nTo train a model:\n\n```\nlearn\n```\n\nTraining on NVidia GPU is supported, but you must first install\n[CUDA, CuDNN, and JAX with GPU support](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax#installation).\n\n## Learn More\n\nFor a deep dive into Brax's design and performance characteristics, please see\nour paper, [Brax -- A Differentiable Physics Engine for Large Scale Rigid Body Simulation\n](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.13281), which appeared in the [Datasets and Benchmarks Track](https:\u002F\u002Fneurips.cc\u002FConferences\u002F2021\u002FCallForDatasetsBenchmarks) at [NeurIPS 2021](https:\u002F\u002Fnips.cc\u002FConferences\u002F2021).\n\n## Citing Brax\n\nIf you would like to reference Brax in a publication, please use:\n\n```\n@software{brax2021github,\n  author = {C. Daniel Freeman and Erik Frey and Anton Raichuk and Sertan Girgin and Igor Mordatch and Olivier Bachem},\n  title = {Brax - A Differentiable Physics Engine for Large Scale Rigid Body Simulation},\n  url = {http:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax},\n  version = {0.14.2},\n  year = {2021},\n}\n```\n\n## Acknowledgements\n\nBrax has come a long way since its original publication.  We offer gratitude and\neffusive praise to the following people:\n\n* Manu Orsini and Nikola Momchev who provided a major refactor of Brax's\ntraining algorithms to make them more accessible and reusable.\n* Erwin Coumans who has graciously offered advice and mentorship, and many\nuseful references from [Tiny Differentiable Simulator](https:\u002F\u002Fgithub.com\u002Ferwincoumans\u002Ftiny-differentiable-simulator).\n* Baruch Tabanpour, a colleague who helped launch brax v2 and overhauled the contact library.\n* [Shixiang Shane Gu](https:\u002F\u002Fsites.google.com\u002Fcorp\u002Fview\u002Fgugurus) and [Hiroki Furuta](https:\u002F\u002Ffrt03.github.io\u002F), who contributed BIG-Gym and Braxlines, and a scene composer to Brax.\n* Our awesome [open source collaborators and contributors](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fgraphs\u002Fcontributors).  Thank you!\n","\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_1d39ebc3113f.gif\" width=\"336\" height=\"80\" alt=\"BRAX\"\u002F>\n\n> **警告**\n> 自 0.13.0 版本起，只有 `brax\u002Ftraining` 模块仍在积极维护。用户应改用 [MuJoCo Playground](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_playground)，而不是 `brax\u002Fenvs`；所有这些环境都可以很好地与 `brax\u002Ftraining` 配合训练。如果您希望使用 Brax 进行物理仿真，请使用位于 [github.com\u002Fgoogle-deepmind\u002Fmujoco](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco) 的 MJX（通过 `pip install mujoco_mjx` 安装）或 [MuJoCo Warp](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_warp)，而非将 Brax 作为 MuJoCo 物理引擎的封装层。未来我们可能会将 `brax` 单纯重新定位为一个强化学习库。\n\nBrax 是一款快速且完全可微分的物理引擎，用于机器人技术、人类感知、材料科学、强化学习以及其他高度依赖仿真的研究与开发领域。\n\nBrax 使用 [JAX](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax) 编写，专为加速硬件设计。它既能在单设备上高效运行，又可扩展到多设备上的大规模并行仿真，而无需依赖繁琐的数据中心。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_5fcf40977c5b.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_7ea0934baab6.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_ee386f75d55f.gif\" width=\"160\" height=\"160\"\u002F>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_readme_a1c291981ecf.gif\" width=\"160\" height=\"160\"\u002F>\n\nBrax 在 TPU 上每秒可模拟数百万个物理步，并提供一系列学习算法，能够在几秒到几分钟内训练智能体：\n\n* 基线学习算法，如\n    [PPO](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fppo)、\n    [SAC](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fsac)、\n    [ARS](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fars) 以及\n    [进化策略](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fes)。\n* 利用模拟器可微性的学习算法，例如 [解析策略梯度](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Ftraining\u002Fagents\u002Fapg)。\n\n## 一套 API，四种物理管道\n\nBrax 提供四种易于切换的独立物理管道：\n\n* [MuJoCo XLA - MJX](https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fmjx.html) —— MuJoCo 物理引擎的 JAX 重实现。\n* [广义坐标](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fgeneralized\u002F) 使用类似于 [MuJoCo](https:\u002F\u002Fmujoco.org\u002F) 和 [TDS](https:\u002F\u002Fgithub.com\u002Ferwincoumans\u002Ftiny-differentiable-simulator) 的动力学算法，在[广义坐标](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FGeneralized_coordinates)中计算运动。\n* [位置动力学](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fpositional\u002F) 采用[基于位置的动力学](https:\u002F\u002Fmatthias-research.github.io\u002Fpages\u002Fpublications\u002FposBasedDyn.pdf)，这是一种快速且稳定的关节和碰撞约束求解方法。\n* [弹簧模型](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fbrax\u002Fspring\u002F) 提供快速且廉价的仿真，适用于快速实验，其方法基于常见于视频游戏中的简单冲量法。\n\n这些管道共享同一套 API，可以在同一仿真中并行运行。这使得 Brax 非常适合迁移学习实验以及缩小仿真与现实之间的差距。\n\n## 快速入门：云端 Colab\n\n通过一系列 Colab 笔记本，您可以轻松快速地探索 Brax：\n\n* [Brax 基础](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Fbasics.ipynb) 介绍了 Brax 的 API，并演示如何模拟基本的物理原语。\n* [Brax 训练](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining.ipynb) 介绍了 Brax 的训练算法，并允许您直接在 Colab 中训练自己的策略。此外，还展示了策略的加载和保存。\n* [使用 MuJoCo XLA - MJX 进行 Brax 训练](https:\u002F\u002Fcolab.sandbox.google.com\u002Fgithub\u002Fgoogle-deepmind\u002Fmujoco\u002Fblob\u002Fmain\u002Fmjx\u002Ftutorial.ipynb) 演示了如何使用 `MJX` 物理模拟器在 Brax 中进行训练。\n* [使用 PyTorch 在 GPU 上进行 Brax 训练](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining_torch.ipynb) 演示了如何将 Brax 应用于其他机器学习框架以实现快速训练，此处以 PyTorch 为例。\n\n## 在本地使用 Brax\n\n要从 PyPI 安装 Brax，请执行以下命令：\n\n```\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install brax\n```\n\n您也可以通过 [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002F) 或 [Mamba](https:\u002F\u002Fgithub.com\u002Fmamba-org\u002Fmamba) 安装：\n\n```\nconda install -c conda-forge brax  # 如果使用 Mamba，则将 conda 替换为 mamba\n```\n\n或者，若要从源代码安装 Brax，克隆此仓库并进入该目录后，执行以下操作：\n\n```\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -e .\n```\n\n要训练模型：\n\n```\nlearn\n```\n\n支持在 NVIDIA GPU 上训练，但您需要先安装 [CUDA、CuDNN 以及支持 GPU 的 JAX](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax#installation)。\n\n## 了解更多信息\n\n如需深入了解 Brax 的设计与性能特性，请参阅我们的论文《Brax——用于大规模刚体仿真的可微分物理引擎》（[arXiv:2106.13281](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.13281)），该论文发表于 [NeurIPS 2021](https:\u002F\u002Fnips.cc\u002FConferences\u002F2021) 的 [数据集与基准赛道](https:\u002F\u002Fneurips.cc\u002FConferences\u002F2021\u002FCallForDatasetsBenchmarks)。\n\n## 引用 Brax\n\n如果您希望在出版物中引用 Brax，请使用以下格式：\n\n```\n@software{brax2021github,\n  author = {C. Daniel Freeman and Erik Frey and Anton Raichuk and Sertan Girgin and Igor Mordatch and Olivier Bachem},\n  title = {Brax - A Differentiable Physics Engine for Large Scale Rigid Body Simulation},\n  url = {http:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax},\n  version = {0.14.2},\n  year = {2021},\n}\n```\n\n## 致谢\n\n自最初发布以来，Brax 已取得了长足进展。我们对以下人士表示由衷的感谢与高度赞赏：\n\n* Manu Orsini 和 Nikola Momchev 对 Brax 训练算法进行了重大重构，使其更易用且可复用。\n* Erwin Coumans 慷慨地提供了建议与指导，并分享了许多来自 [Tiny Differentiable Simulator](https:\u002F\u002Fgithub.com\u002Ferwincoumans\u002Ftiny-differentiable-simulator) 的实用参考资料。\n* Baruch Tabanpour，一位帮助推出 brax v2 并彻底改造接触库的同事。\n* [Shixiang Shane Gu](https:\u002F\u002Fsites.google.com\u002Fcorp\u002Fview\u002Fgugurus) 和 [Hiroki Furuta](https:\u002F\u002Ffrt03.github.io\u002F)，他们为 Brax 贡献了 BIG-Gym 和 Braxlines，以及场景编排功能。\n* 我们出色的 [开源协作者与贡献者](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fgraphs\u002Fcontributors)。感谢你们！","# Brax 快速上手指南\n\n> **⚠️ 重要提示 (v0.13.0+)**\n> 目前仅 `brax\u002Ftraining`（强化学习训练部分）处于活跃维护状态。\n> *   **环境仿真**：不再推荐使用 `brax\u002Fenvs`。请使用 [MuJoCo Playground](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_playground)，它可与 `brax\u002Ftraining` 完美配合。\n> *   **物理引擎**：如需纯物理仿真，请直接使用 [MJX](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco) (`pip install mujoco_mjx`) 或 [MuJoCo Warp](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_warp)。\n> *   Brax 未来可能专注于作为纯强化学习库。\n\nBrax 是一个基于 [JAX](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax) 构建的高速、可微分物理引擎，专为机器人学、强化学习及大规模并行仿真设计。它能在 TPU\u002FGPU 上实现每秒百万级的物理步长仿真，并内置了 PPO、SAC 等主流强化学习算法。\n\n## 环境准备\n\n*   **操作系统**：Linux (推荐), macOS, Windows (WSL2)\n*   **硬件要求**：\n    *   **CPU**：支持 AVX2 指令集。\n    *   **GPU**：NVIDIA GPU (需安装 CUDA 和 cuDNN) 可获得最佳加速效果；也支持 TPU。\n*   **软件依赖**：\n    *   Python 3.9+\n    *   pip 或 conda\u002Fmamba 包管理器\n    *   **GPU 用户前置步骤**：在安装 Brax 前，请确保已正确安装对应 CUDA 版本的 JAX。参考 [JAX GPU 安装指南](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax#installation)。\n\n## 安装步骤\n\n### 方法一：使用 pip 安装（推荐）\n\n```bash\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install brax\n```\n\n> **国内加速建议**：如果下载速度慢，可使用清华或阿里镜像源：\n> `pip install brax -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 方法二：使用 Conda\u002FMamba 安装\n\n```bash\nconda install -c conda-forge brax\n# 如果使用 mamba:\n# mamba install -c conda-forge brax\n```\n\n### 方法三：从源码安装（开发者模式）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax.git\ncd brax\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install --upgrade pip\npip install -e .\n```\n\n## 基本使用\n\nBrax 的核心功能主要分为**物理仿真**和**强化学习训练**。由于新版架构调整，推荐结合 MuJoCo Playground 进行环境交互，或使用 Brax 内置的训练管道。\n\n### 1. 运行预置训练示例\n\n安装完成后，Brax 提供了一个简单的命令行工具来启动训练。以下命令将使用默认配置训练一个智能体（通常在几秒到几分钟内完成）：\n\n```bash\nlearn\n```\n\n*注：若在 GPU 环境下运行，请确保 JAX 已正确识别 GPU。*\n\n### 2. Python API 快速示例\n\n以下是最基础的代码结构，展示如何导入库并检查可用环境（具体环境加载建议参考 MuJoCo Playground 文档）：\n\n```python\nimport brax\nfrom brax import envs\n\n# 注意：brax\u002Fenvs 在新版本中已不再作为主要维护对象\n# 以下为概念性演示，实际训练建议结合 mujoco_playground 使用\nprint(\"Available environments in legacy brax:\", envs.registered_environment_names())\n\n# 引入训练组件\nfrom brax.training import ppo\n\n# 典型的训练流程通常涉及创建环境、初始化网络、然后运行训练循环\n# 详细用法强烈建议参考官方 Colab 教程\n```\n\n### 3. 进阶学习：Colab 交互式教程\n\n对于初学者，最直观的上手方式是通过 Google Colab 运行官方提供的 Notebook，无需本地配置即可体验全部功能：\n\n*   **基础入门**：[Brax Basics](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Fbasics.ipynb) - 了解 API 及基础物理原语仿真。\n*   **强化学习训练**：[Brax Training](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining.ipynb) - 学习如何使用 PPO\u002FSAC 等算法训练策略，以及模型的保存与加载。\n*   **结合 MJX 仿真**：[Brax Training with MJX](https:\u002F\u002Fcolab.sandbox.google.com\u002Fgithub\u002Fgoogle-deepmind\u002Fmujoco\u002Fblob\u002Fmain\u002Fmjx\u002Ftutorial.ipynb) - 使用最新的 MJX 物理后端进行训练。\n*   **PyTorch 集成**：[Brax Training with PyTorch](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Fbrax\u002Fblob\u002Fmain\u002Fnotebooks\u002Ftraining_torch.ipynb) - 在 PyTorch 框架下利用 Brax 进行快速训练。","某机器人实验室的研究团队正在开发一款新型四足机器人的强化学习控制策略，需要在极短时间内完成数百万次物理交互训练以验证算法鲁棒性。\n\n### 没有 brax 时\n- **训练周期漫长**：传统 CPU 物理引擎每秒仅能处理数千步仿真，训练一个成熟的行走策略往往需要数天甚至数周，严重拖慢研发迭代节奏。\n- **硬件资源浪费**：为了加速实验，团队不得不维护昂贵的专用数据中心集群，且难以充分利用现代 GPU\u002FTPU 加速卡的并行计算能力。\n- **算法探索受限**：由于仿真速度瓶颈，研究人员无法尝试依赖海量样本的复杂算法（如解析策略梯度），只能局限于传统的采样效率较低的方案。\n- **环境切换成本高**：不同物理后端（如高精度与高速度）之间 API 不兼容，对比实验时需要重写大量代码，阻碍了迁移学习的研究。\n\n### 使用 brax 后\n- **秒级策略成型**：借助 brax 在 TPU\u002FGPU 上的大规模并行能力，物理仿真步数提升至百万级\u002F秒，将原本数周的训练任务压缩至几分钟内完成。\n- **单机即可扩展**：无需庞大集群，单台配备加速卡的 workstation 即可运行海量并行环境，大幅降低了硬件门槛和运维成本。\n- **解锁前沿算法**：利用 brax 的全可微分特性，团队成功部署了解析策略梯度等高级算法，显著提升了机器人在复杂地形下的适应性能。\n- **灵活管线切换**：通过统一 API，研究人员能在 MJX（高精度）、Positional（高稳定性）和 Spring（超快速）四种物理管线间无缝切换，高效验证 sim-to-real 效果。\n\nbrax 通过将物理仿真彻底加速并差异化，让机器人智能体的研发从“等待结果”转变为“即时验证”，极大释放了创新潜能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_brax_5fcf4097.gif","google","Google","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle_c4bedcda.png","Google ❤️ Open Source",null,"opensource@google.com","GoogleOSS","https:\u002F\u002Fopensource.google\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle",[82,86,90,94],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",67.5,{"name":87,"color":88,"percentage":89},"Python","#3572A5",31.5,{"name":91,"color":92,"percentage":93},"JavaScript","#f1e05a",1,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",0.1,3124,338,"2026-04-19T18:51:28","Apache-2.0","Linux, macOS, Windows","非必需，但训练推荐 NVIDIA GPU；需手动安装 CUDA、CuDNN 及支持 GPU 的 JAX 版本；具体显存大小和 CUDA 版本未说明（取决于 JAX 和任务规模）；支持 TPU","未说明",{"notes":106,"python":107,"dependencies":108},"自 v0.13.0 起，仅 'brax\u002Ftraining' 模块处于积极维护状态；原 'brax\u002Fenvs' 已弃用，建议改用 'MuJoCo Playground'；若仅需物理模拟，官方推荐使用 'MJX' (pip install mujoco_mjx) 或 'MuJoCo Warp' 而非 Brax；Brax 专为加速硬件（TPU\u002FGPU）设计，支持大规模并行模拟；可通过 pip 或 conda\u002Fmamba 安装。","3.8+",[109,110,111],"jax","mujoco_mjx (可选)","torch (可选，用于 PyTorch 集成)",[14,113],"其他",[109,115,116,117],"reinforcement-learning","robotics","physics-simulation","2026-03-27T02:49:30.150509","2026-04-20T12:55:22.372094",[121,126,131,136,141],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},44705,"如何加载预训练模型而不重新运行整个训练过程？","Brax 最近为 PPO 添加了更直接的检查点（checkpointing）功能，包含策略加载函数。您可以参考相关提交（commit 8526f9a...）来直接使用策略加载器。如果在加载时遇到缺少参数（如 episode_length）的错误，请确保在调用时传入该参数。如果使用的是 MuJoCo Playground 中的 train_jax_ppo.py 且遇到问题，建议提供最小可复现示例（MRE）以便进一步排查。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F438",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},44706,"为什么胶囊体或球体与平面的碰撞检测有时失效（例如球体卡在墙里）？","这通常是因为在 Proto 定义中指定了 `Material` 字段，但未显式设置弹性（elasticity）值。如果省略该值，它默认为 0.0，导致碰撞时能量在法线方向完全耗散，从而使物体卡住。解决方法是：当应用每体（per-body）材质时，必须同时给定一个弹性值，不能依赖默认的全局摩擦\u002F弹性设置。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F127",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},44707,"如何将 Brax 安装到 Conda 环境中？","Brax 现已发布在 conda-forge 上。您可以使用以下命令进行安装：\n`conda install -c conda-forge brax`\n或者如果您使用 mamba：\n`mamba install -c conda-forge brax`","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F222",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},44708,"如何在本地开发并调试 Brax 的 JavaScript 可视化组件（如添加新的几何体）？","默认的 HTML 渲染功能通过 CDN 引用特定版本的 `viewer.js`，因此本地代码修改不会立即生效。虽然官方尚未内置简单的本地开发标志，但开发者可以通过本地托管 `viewer.js` 并修改 HTML 引用来实现本地调试。如果您有通用的本地开发解决方案，可以向维护者反馈，以便未来在代码中添加支持标志。此外，也可以尝试使用 pytinyrenderer 进行替代调试，尽管它可能需要修补且动画性能尚未优化。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F74",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},44709,"是否支持 Box 与 Sphere 或 Capsule 之间的碰撞检测？","是的，Brax 已经添加了对 Sphere\u003C>Box 和 Capsule\u003C>Box 碰撞检测的支持。相关功能已在提交 34a70fa... 中合并，您可以查看该提交了解具体实现。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F57",[147,152,157,162,167,172,177,182,187,192,197,202,207,212,217,222,227,232,237,242],{"id":148,"version":149,"summary_zh":150,"released_at":151},352149,"v0.14.2","# Brax v0.14.2 发行说明\n\n* **分布式 PPO 支持**：添加了分布式价值函数以捕捉回报的方差，从而得到更可靠的优势估计，并改进策略更新（参考：https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10044）。\n* 在 Brax PPO 中参数化 CNN 网络。\n","2026-03-15T22:31:45",{"id":153,"version":154,"summary_zh":155,"released_at":156},352150,"v0.14.1","# Brax v0.14.1 发行说明\n\n* 修复 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F653。\n* 在策略网络中添加软符号裁剪。\n","2026-02-12T23:21:40",{"id":158,"version":159,"summary_zh":160,"released_at":161},352151,"v0.14.0","# Brax v0.14.0 发行说明\n\n* 在检查点保存中支持自定义激活函数。\n* 为 PPO 添加价值函数系数。\n* 将核初始化器传递给 SAC\u002FPPO 网络，并允许对这些参数进行检查点保存。\n* 允许在评估期间对 episode 指标按 episode 长度进行归一化，前提是指标名称以 “per_step” 结尾。\n* 为 PPO 添加自适应学习率。期望的 KL 敏感于网络初始化权重和熵成本，可能需要针对您的环境进行一些调优。\n* 向 PPO 训练日志记录器中添加损失指标。\n* 在 brax PPO 中添加 `donate_argnums`，以在使用 MJX-Warp 时一定程度上缓解重复图捕获的问题。\n* 为 PPO 添加 `normalize_observations_mode`，以允许使用 EMA 来计算运行统计量，而不是 Welford 方法。EMA 在较长的训练过程中更加稳定。\n* 修复多 GPU 设备上 PPO 训练指标日志记录频率的 bug。\n* 为 PPO 添加在 `timeout` 时的价值 bootstrap。如果 `bootstrap_on_timeout` 设置为 True，则执行 `reward += gamma * V(s) * time_out`。\n* 为 PPO 添加 `clipping_epsilon_value`。如果 `clipping_epsilon_value` 不为 None，则使用裁剪后的价值损失：`v_loss = max((vs - V(s))^2, (vs - clip(V(s), V_old(s) - epsilon, V_old(s) + epsilon))^2)`。\n","2025-12-16T20:54:57",{"id":163,"version":164,"summary_zh":165,"released_at":166},352152,"v0.13.0","# Brax v0.13.0 发行说明\n\n- 修复对 `orbax-checkpoint` 的版本依赖，因为在 0.11.22 版本中，`orbax-checkpoint` 引入了破坏性变更。\n","2025-08-15T18:50:11",{"id":168,"version":169,"summary_zh":170,"released_at":171},352153,"v0.12.5","# Brax v0.12.5 发行说明\n\n* 修复检查点保存中的 JSON 序列化问题 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F619。\n* 修复使用领域随机化包装器时出现的意外追踪器问题 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F609。\n* 在 PPO 中添加参数化正态分布。修复 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F620。感谢 zakka@ 的贡献。\n* 允许用户在 PPO 训练的重置函数中禁用 pmap。\n","2025-08-14T16:18:54",{"id":173,"version":174,"summary_zh":175,"released_at":176},352154,"v0.12.4","# Brax v0.12.4 发行说明\n\n* 确保 Brax 与 MJX API 的变更兼容：https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco\u002Fcommit\u002F6cfea719850f7dbc91b9d6fb36deafb3c5d04eaf。\n* 修复 #595：在未指定检查点路径时，针对使用非 ReLU 激活函数的检查点保存问题的补丁。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F582。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F549。\n* 移除 brax\u002Fv1。\n* 在 brax.io.mjcf 中发出警告。我们建议用户改用\n  [MJX](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco\u002Ftree\u002Fmain\u002Fmjx) 和\n  [MuJoCo Playground](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco_playground)。不过，Brax 的训练功能目前仍在积极维护中。\n","2025-06-13T18:40:01",{"id":178,"version":179,"summary_zh":180,"released_at":181},352155,"v0.12.3","# Brax v0.12.3 发行说明\n\n* 为 brax PPO 添加训练指标，使用户在训练过程中无需运行评估即可更频繁地获取指标更新（类似于 RSL-RL）。只需设置 `num_evals=0` 和 `log_training_metrics=True`。\n* 直接将检查点功能集成到 brax PPO 中，不再依赖 `policy_params_fn` 回调。\n* 修复倒立摆中的 bug（#574），该 bug 导致尖端位置计算错误。\n* 在 brax 训练中添加 UInt64 类型，以防止训练步数溢出。修复 #578。\n","2025-04-11T21:54:04",{"id":183,"version":184,"summary_zh":185,"released_at":186},352156,"v0.12.1","# Brax v0.12.0 发行说明\n\n* 在训练 API 中添加 `wrap_env_fn`。这允许用户为他们的环境指定自定义包装函数。\n* 移除 Brax 环境和训练 API 中的 `FrozenDict`。\n","2024-12-11T18:53:31",{"id":188,"version":189,"summary_zh":190,"released_at":191},352157,"v0.12.0","# Brax v0.12.0 发行说明\n\n* 为所有 Brax 的 `train` 函数添加布尔参数 `wrap_env`，该参数可选择性地对环境进行包装以用于训练，或直接使用原始环境。\n* 修复 PPO 训练中的一个 bug：当 `num_timesteps` 为 0 时，返回已加载的检查点。\n* 在 `make_q_network` 中添加层归一化，并在 `make_sace_networks` 的 Q 网络中将 `layer_norm` 设置为 `True`。\n* 修改 PPO 训练函数，使其同时返回价值网络和策略网络的参数，而不再仅返回策略网络参数。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F561，为 PPO 添加梯度范数裁剪。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fissues\u002F477，调整推杆环境的速度阻尼。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F558，在渲染函数中添加 `mocap_pos` 和 `mocap_quat` 参数。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F559，允许环境状态使用字典形式的观测值。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F562，支持 PPO 的非对称演员-评论家架构。\n* 合并 https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fbrax\u002Fpull\u002F560，使 PPO 能够基于视觉输入进行训练。","2024-12-05T22:09:44",{"id":193,"version":194,"summary_zh":195,"released_at":196},352158,"v0.11.0","# Brax v0.11.0 发行说明\n\n* 从查看器中移除了联系调试功能。这是一项与 Brax 旧版本不兼容的更改。使用新查看器将无法渲染旧的保存文件。\n* 向 `MJX pipeline.init` 添加了 `ctrl` 输入。\n* 修复了 #513、#512 和 #504 中的问题。\n","2024-10-07T21:18:45",{"id":198,"version":199,"summary_zh":200,"released_at":201},352159,"v0.10.5","# Brax v0.10.5 Release Notes\n\n* Modify `policy_params_fn` in the PPO implementation to take in the full model params. This can be used for checkpointing models.\n* Add `restore_checkpoint_path` in PPO implementation.\n","2024-06-07T02:07:24",{"id":203,"version":204,"summary_zh":205,"released_at":206},352160,"v0.10.4","# Brax v0.10.4 Release Notes\n\n- Add support for compressing json embedded in HTML output for large models.\n- Remove legacy `dt` field in the brax System. We rely on MuJoCo's `opt.timestep` field instead.\n- Add `act` to `pipeline.init` functions. See https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fcomputation\u002Findex.html#physics-state.\n- Updated basic APG algorithm #476, h\u002Ft @Andrew-Luo1.\n","2024-05-13T18:17:43",{"id":208,"version":209,"summary_zh":210,"released_at":211},352161,"v0.10.3","# Brax v0.10.3 Release Notes\n\n- Fix a bug in rendering capsules and cylinders with the wrong size.\n","2024-03-13T20:26:27",{"id":213,"version":214,"summary_zh":215,"released_at":216},352162,"v0.10.2","# Brax v0.10.2 Release Notes\n\n- Fix bug in rendering cylinders and planes.\n- Fix issue with link offsets in `io.mjcf.load_model`.","2024-03-12T01:41:38",{"id":218,"version":219,"summary_zh":220,"released_at":221},352163,"v0.10.1","# Brax Release Notes\n\n* Fixes #460, #461, and an issue related to #353.\n* Removes barkour v0 joystick policy in favor of the [MJX tutorial](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle-deepmind\u002Fmujoco\u002Fblob\u002Fmain\u002Fmjx\u002Ftutorial.ipynb) training barkour vb.\n* Fixes #466.\n","2024-03-11T20:43:38",{"id":223,"version":224,"summary_zh":225,"released_at":226},352164,"v0.10.0","# Brax v0.10.0 Release Notes\r\n\r\nThis minor release makes several changes to the brax API, such that [MJX](https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fmjx.html) data structures are the core data structures used in brax. This allows for more seamless model loading from `MuJoCo` XMLs, and allows for running `MJX` physics more seamlessly in brax.\r\n\r\n* Rebase brax `System` and `State` onto `mjx.Model` and `mjx.Data`.\r\n* Separate validation logic from the model loading logic in `brax.io.mjcf`. This allows users to load an [MJX](https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fmjx.html) model in brax, without hitting validation errors for other physics backends like `positional` and `spring`.\r\n* Remove `System.geoms`, since `brax.System` inherits from `mjx.Model` and all geom information is available in `mjx.Model`. We also update the brax viewer to work with this new schema.\r\n* Delete the brax contact library and use the contact library from `MJX`.\r\n* Use the MuJoCo renderer instead of pytinyrenderer for `brax.io.image`.\r\n","2024-02-07T22:43:21",{"id":228,"version":229,"summary_zh":230,"released_at":231},352165,"v0.9.4","# Brax v0.9.4 Release Notes\n\n* Fixes gradients for generalized by changing a jp.linalg.norm to safe_norm.\n* Adds the [MJX](https:\u002F\u002Fmujoco.readthedocs.io\u002Fen\u002Fstable\u002Fmjx.html) pipeline to Brax as well as an MjxEnv for RL training.\n","2024-01-04T01:02:54",{"id":233,"version":234,"summary_zh":235,"released_at":236},352166,"v0.9.3","# Brax v0.9.3 Release Notes\n\nThis patch release:\n\n* Fixes compatibility issues with MuJoCo 3.0.0\n* Fixes bugs with gym and dm envs.\n","2023-10-19T22:08:01",{"id":238,"version":239,"summary_zh":240,"released_at":241},352167,"v0.9.2","# Brax v0.9.2 Release Notes\n\nThis patch release:\n* Adds domain randomization module\n* Adds swimmer env\n* Adds barkour env to experimental\n","2023-09-07T22:05:10",{"id":243,"version":244,"summary_zh":245,"released_at":246},352168,"v0.9.1","# Brax v0.9.1 Release Notes\n\nThis patch release includes:\n* Add support for positional actuators.\n* Add fluid viscosity + density via box model.\n* Adds cylinder collider (but only for wafer-thin cylinders)\n* Bring back dm_env and torch env wrappers.\n* Bring back image rendering via pytinyrenderer.\n","2023-06-02T23:04:29"]