[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-roboterax--humanoid-gym":3,"similar-roboterax--humanoid-gym":98},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":19,"owner_twitter":18,"owner_website":18,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":18,"difficulty_score":29,"env_os":30,"env_gpu":31,"env_ram":32,"env_deps":33,"category_tags":40,"github_topics":46,"view_count":54,"oss_zip_url":18,"oss_zip_packed_at":18,"status":55,"created_at":56,"updated_at":57,"faqs":58,"releases":94},272,"roboterax\u002Fhumanoid-gym","humanoid-gym","Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05695","Humanoid-Gym 是一个基于 Nvidia Isaac Gym 的强化学习框架，专门用于训练双足机器人的运动能力。它的核心特点是支持“零样本 sim2real 迁移”，这意味着在模拟环境中训练好的策略可以直接部署到真实机器人上，无需额外的微调。\n\n这个框架主要解决了双足机器人运动控制训练困难的问题。传统方法需要在真实环境中反复调试，耗时且成本高昂。Humanoid-Gym 通过精心设计的奖励机制和高保真仿真环境，大大简化了从模拟到真实世界的迁移过程。\n\n它特别适合对双足机器人运动控制感兴趣的研究人员和开发者。框架提供了从 Isaac Gym 到 Mujoco 的 sim2sim 管道，以及先进的去噪世界模型学习（DWL）方法，帮助用户更高效地训练和验证机器人策略。目前已在 RobotEra 的 XBot-S（1.2米）和 XBot-L（1.65米）两款双足机器人上成功验证了零样本迁移效果。","# \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fhumanoid-gym\u002F\">Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fhumanoid-gym\u002F\">\u003Cstrong>Project Page\u003C\u002Fstrong>\u003C\u002Fa>\n  |\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05695\">\u003Cstrong>arXiv\u003C\u002Fstrong>\u003C\u002Fa>\n  |\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Froboterax\u002Fstatus\u002F1765038672641175662\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzlw21gxy\">Xinyang Gu*\u003C\u002Fa>, \n  \u003Ca href=\"https:\u002F\u002Fwangyenjen.github.io\u002F\">Yen-Jen Wang*\u003C\u002Fa>,\n  \u003Ca href=\"http:\u002F\u002Fpeople.iiis.tsinghua.edu.cn\u002F~jychen\u002F\">Jianyu Chen†\u003C\u002Fa>\n\n  *: Equal contribution. Project Co-lead., †: Corresponding Author.\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Froboterax_humanoid-gym_readme_08b274196659.gif)\n\nHumanoid-Gym is an easy-to-use reinforcement learning (RL) framework based on Nvidia Isaac Gym, designed to train locomotion skills for humanoid robots, emphasizing zero-shot transfer from simulation to the real-world environment. Humanoid-Gym also integrates a sim-to-sim framework from Isaac Gym to Mujoco that allows users to verify the trained policies in different physical simulations to ensure the robustness and generalization of the policies.\n\nThis codebase is verified by RobotEra's XBot-S (1.2-meter tall humanoid robot) and XBot-L (1.65-meter tall humanoid robot) in a real-world environment with zero-shot sim-to-real transfer.\n\n## Features\n\n### 1. Humanoid Robot Training\nThis repository offers comprehensive guidance and scripts for the training of humanoid robots. Humanoid-Gym features specialized rewards for humanoid robots, simplifying the difficulty of sim-to-real transfer. In this repository, we use RobotEra's XBot-L as a primary example. It can also be used for other robots with minimal adjustments. Our resources cover setup, configuration, and execution. Our goal is to fully prepare the robot for real-world locomotion by providing in-depth training and optimization.\n\n\n- **Comprehensive Training Guidelines**: We offer thorough walkthroughs for each stage of the training process.\n- **Step-by-Step Configuration Instructions**: Our guidance is clear and succinct, ensuring an efficient setup process.\n- **Execution Scripts for Easy Deployment**: Utilize our pre-prepared scripts to streamline the training workflow.\n\n### 2. Sim2Sim Support\nWe also share our sim2sim pipeline, which allows you to transfer trained policies to highly accurate and carefully designed simulated environments. Once you acquire the robot, you can confidently deploy the RL-trained policies in real-world settings.\n\nOur simulator settings, particularly with Mujoco, are finely tuned to closely mimic real-world scenarios. This careful calibration ensures that the performances in both simulated and real-world environments are closely aligned. This improvement makes our simulations more trustworthy and enhances our confidence in their applicability to real-world scenarios.\n\n\n### 3. Denoising World Model Learning\n#### Robotics: Science and Systems (RSS), 2024 (Best Paper Award Finalist)\n\u003Ca href=\"https:\u002F\u002Fenriquecoronadozu.github.io\u002Frssproceedings2024\u002Frss20\u002Fp058.pdf\">\u003Cstrong>Paper\u003C\u002Fstrong>\u003C\u002Fa>\n|\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Fwangyenjen\u002Fstatus\u002F1792741940087394540\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzlw21gxy\">Xinyang Gu*\u003C\u002Fa>, \n\u003Ca href=\"https:\u002F\u002Fwangyenjen.github.io\u002F\">Yen-Jen Wang*\u003C\u002Fa>,\nXiang Zhu*, Chengming Shi*, Yanjiang Guo, Yichen Liu,\n\u003Ca href=\"http:\u002F\u002Fpeople.iiis.tsinghua.edu.cn\u002F~jychen\u002F\">Jianyu Chen†\u003C\u002Fa>\n\n*: Equal contribution. Project Co-lead., †: Corresponding Author.\n\nDenoising World Model Learning(DWL) presents an advanced sim-to-real framework that integrates state estimation and system identification. This dual-method approach ensures the robot's learning and adaptation are both practical and effective in real-world contexts.\n\n- **Enhanced Sim-to-real Adaptability**: Techniques to optimize the robot's transition from simulated to real environments.\n- **Improved State Estimation Capabilities**: Advanced tools for precise and reliable state analysis.\n\n### Perceptive Locomotion Learning for Humanoid Robots (Coming Soon!)\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Froboterax\u002Fstatus\u002F1798694054374564010\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n### Dexterous Hand Manipulation (Coming Soon!)\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Froboterax\u002Fstatus\u002F1791349763448938924\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n## Installation\n\n1. Generate a new Python virtual environment with Python 3.8 using `conda create -n myenv python=3.8`.\n2. For the best performance, we recommend using NVIDIA driver version 525 `sudo apt install nvidia-driver-525`. The minimal driver version supported is 515. If you're unable to install version 525, ensure that your system has at least version 515 to maintain basic functionality.\n3. Install PyTorch 1.13 with Cuda-11.7:\n   - `conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia`\n4. Install numpy-1.23 with `conda install numpy=1.23`.\n5. Install Isaac Gym:\n   - Download and install Isaac Gym Preview 4 from https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym.\n   - `cd isaacgym\u002Fpython && pip install -e .`\n   - Run an example with `cd examples && python 1080_balls_of_solitude.py`.\n   - Consult `isaacgym\u002Fdocs\u002Findex.html` for troubleshooting.\n6. Install humanoid-gym:\n   - Clone this repository.\n   - `cd humanoid-gym && pip install -e .`\n\n\n\n## Usage Guide\n\n#### Examples\n\n```bash\n# Under the directory humanoid-gym\u002Fhumanoid\n# Launching PPO Policy Training for 'v1' Across 4096 Environments\n# This command initiates the PPO algorithm-based training for the humanoid task.\npython scripts\u002Ftrain.py --task=humanoid_ppo --run_name v1 --headless --num_envs 4096\n\n# Evaluating the Trained PPO Policy 'v1'\n# This command loads the 'v1' policy for performance assessment in its environment. \n# Additionally, it automatically exports a JIT model, suitable for deployment purposes.\npython scripts\u002Fplay.py --task=humanoid_ppo --run_name v1\n\n# Implementing Simulation-to-Simulation Model Transformation\n# This command facilitates a sim-to-sim transformation using exported 'v1' policy.\n# You have to run play.py first to get the JIT model and use it with sim2sim.py\npython scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Flogs\u002FXBot_ppo\u002Fexported\u002Fpolicies\u002Fpolicy_1.pt\n\n# Run our trained policy\npython scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Flogs\u002FXBot_ppo\u002Fexported\u002Fpolicies\u002Fpolicy_example.pt\n\n```\n\n#### 1. Default Tasks\n\n\n- **humanoid_ppo**\n   - Purpose: Baseline, PPO policy, Multi-frame low-level control\n   - Observation Space: Variable $(47 \\times H)$ dimensions, where $H$ is the number of frames\n   - $[O_{t-H} ... O_t]$\n   - Privileged Information: $73$ dimensions\n\n- **humanoid_dwl (coming soon)**\n\n#### 2. PPO Policy\n- **Training Command**: For training the PPO policy, execute:\n  ```\n  python humanoid\u002Fscripts\u002Ftrain.py --task=humanoid_ppo --load_run log_file_path --name run_name\n  ```\n- **Running a Trained Policy**: To deploy a trained PPO policy, use:\n  ```\n  python humanoid\u002Fscripts\u002Fplay.py --task=humanoid_ppo --load_run log_file_path --name run_name\n  ```\n- By default, the latest model of the last run from the experiment folder is loaded. However, other run iterations\u002Fmodels can be selected by adjusting `load_run` and `checkpoint` in the training config.\n\n#### 3. Sim-to-sim\n- **Please note: Before initiating the sim-to-sim process, ensure that you run `play.py` to export a JIT policy.**\n- **Mujoco-based Sim2Sim Deployment**: Utilize Mujoco for executing simulation-to-simulation (sim2sim) deployments with the command below:\n  ```\n  python scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Fexport\u002Fmodel.pt\n  ```\n\n\n#### 4. Parameters\n- **CPU and GPU Usage**: To run simulations on the CPU, set both `--sim_device=cpu` and `--rl_device=cpu`. For GPU operations, specify `--sim_device=cuda:{0,1,2...}` and `--rl_device={0,1,2...}` accordingly. Please note that `CUDA_VISIBLE_DEVICES` is not applicable, and it's essential to match the `--sim_device` and `--rl_device` settings.\n- **Headless Operation**: Include `--headless` for operations without rendering.\n- **Rendering Control**: Press 'v' to toggle rendering during training.\n- **Policy Location**: Trained policies are saved in `humanoid\u002Flogs\u002F\u003Cexperiment_name>\u002F\u003Cdate_time>_\u003Crun_name>\u002Fmodel_\u003Citeration>.pt`.\n\n#### 5. Command-Line Arguments\nFor RL training, please refer to `humanoid\u002Futils\u002Fhelpers.py#L161`.\nFor the sim-to-sim process, please refer to `humanoid\u002Fscripts\u002Fsim2sim.py#L169`.\n\n## Code Structure\n\n1. Every environment hinges on an `env` file (`legged_robot.py`) and a `configuration` file (`legged_robot_config.py`). The latter houses two classes: `LeggedRobotCfg` (encompassing all environmental parameters) and `LeggedRobotCfgPPO` (denoting all training parameters).\n2. Both `env` and `config` classes use inheritance.\n3. Non-zero reward scales specified in `cfg` contribute a function of the corresponding name to the sum-total reward.\n4. Tasks must be registered with `task_registry.register(name, EnvClass, EnvConfig, TrainConfig)`. Registration may occur within `envs\u002F__init__.py`, or outside of this repository.\n\n\n## Add a new environment \n\nThe base environment `legged_robot` constructs a rough terrain locomotion task. The corresponding configuration does not specify a robot asset (URDF\u002F MJCF) and no reward scales.\n\n1. If you need to add a new environment, create a new folder in the `envs\u002F` directory with a configuration file named `\u003Cyour_env>_config.py`. The new configuration should inherit from existing environment configurations.\n2. If proposing a new robot:\n    - Insert the corresponding assets in the `resources\u002F` folder.\n    - In the `cfg` file, set the path to the asset, define body names, default_joint_positions, and PD gains. Specify the desired `train_cfg` and the environment's name (python class).\n    - In the `train_cfg`, set the `experiment_name` and `run_name`.\n3. If needed, create your environment in `\u003Cyour_env>.py`. Inherit from existing environments, override desired functions and\u002For add your reward functions.\n4. Register your environment in `humanoid\u002Fenvs\u002F__init__.py`.\n5. Modify or tune other parameters in your `cfg` or `cfg_train` as per requirements. To remove the reward, set its scale to zero. Avoid modifying the parameters of other environments!\n6. If you want a new robot\u002Fenvironment to perform sim2sim, you may need to modify `humanoid\u002Fscripts\u002Fsim2sim.py`: \n    - Check the joint mapping of the robot between MJCF and URDF.\n    - Change the initial joint position of the robot according to your trained policy.\n\n## Troubleshooting\n\nObserve the following cases:\n\n```bash\n# error\nImportError: libpython3.8.so.1.0: cannot open shared object file: No such file or directory\n\n# solution\n# set the correct path\nexport LD_LIBRARY_PATH=\"~\u002Fminiconda3\u002Fenvs\u002Fyour_env\u002Flib:$LD_LIBRARY_PATH\" \n\n# OR\nsudo apt install libpython3.8\n\n# error\nAttributeError: module 'distutils' has no attribute 'version'\n\n# solution\n# install pytorch 1.12.0\nconda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch\n\n# error, results from libstdc++ version distributed with conda differing from the one used on your system to build Isaac Gym\nImportError: \u002Fhome\u002Froboterax\u002Fanaconda3\u002Fbin\u002F..\u002Flib\u002Flibstdc++.so.6: version `GLIBCXX_3.4.20` not found (required by \u002Fhome\u002Froboterax\u002Fcarbgym\u002Fpython\u002Fisaacgym\u002F_bindings\u002Flinux64\u002Fgym_36.so)\n\n# solution\nmkdir ${YOUR_CONDA_ENV}\u002Flib\u002F_unused\nmv ${YOUR_CONDA_ENV}\u002Flib\u002Flibstdc++* ${YOUR_CONDA_ENV}\u002Flib\u002F_unused\n```\n\n## Citation\n\nPlease cite the following if you use this code or parts of it:\n```\n@article{gu2024humanoid,\n  title={Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer},\n  author={Gu, Xinyang and Wang, Yen-Jen and Chen, Jianyu},\n  journal={arXiv preprint arXiv:2404.05695},\n  year={2024}\n}\n\n@inproceedings{gu2024advancing,\n  title={Advancing Humanoid Locomotion: Mastering Challenging Terrains with Denoising World Model Learning},\n  author={Gu, Xinyang and Wang, Yen-Jen and Zhu, Xiang and Shi, Chengming and Guo, Yanjiang and Liu, Yichen and Chen, Jianyu},\n  booktitle={Robotics: Science and Systems},\n  year={2024},\n  url={https:\u002F\u002Fenriquecoronadozu.github.io\u002Frssproceedings2024\u002Frss20\u002Fp058.pdf}\n}\n```\n\n## Acknowledgment\n\nThe implementation of Humanoid-Gym relies on resources from [legged_gym](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym) and [rsl_rl](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl) projects, created by the Robotic Systems Lab. We specifically utilize the `LeggedRobot` implementation from their research to enhance our codebase.\n\n## Any Questions?\n\nIf you have any more questions, please contact [support@robotera.com](mailto:support@robotera.com) or create an issue in this repository.\n","# \u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fhumanoid-gym\u002F\">Humanoid-Gym：用于人形机器人的零样本仿真到现实迁移强化学习框架\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fsites.google.com\u002Fview\u002Fhumanoid-gym\u002F\">\u003Cstrong>项目主页\u003C\u002Fstrong>\u003C\u002Fa>\n  |\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05695\">\u003Cstrong>arXiv\u003C\u002Fstrong>\u003C\u002Fa>\n  |\n  \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002Froboterax\u002Fstatus\u002F1765038672641175662\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzlw21gxy\">Xinyang Gu*\u003C\u002Fa>, \n  \u003Ca href=\"https:\u002F\u002Fwangyenjen.github.io\u002F\">Yen-Jen Wang*\u003C\u002Fa>,\n  \u003Ca href=\"http:\u002F\u002Fpeople.iiis.tsinghua.edu.cn\u002F~jychen\u002F\">Jianyu Chen†\u003C\u002Fa>\n\n  *：同等贡献。项目联合负责人，†：通讯作者。\n\n![Demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Froboterax_humanoid-gym_readme_08b274196659.gif)\n\nHumanoid-Gym 是一个基于 Nvidia Isaac Gym 的易用强化学习（Reinforcement Learning，RL）框架，专为训练人形机器人运动技能而设计，强调从仿真到现实环境的零样本迁移。Humanoid-Gym 还集成了从 Isaac Gym 到 Mujoco 的仿真到仿真（sim-to-sim）框架，允许用户在不同的物理仿真环境中验证训练好的策略，以确保策略的鲁棒性和泛化能力。\n\n该代码库已通过 RobotEra 的 XBot-S（1.2米高的人形机器人）和 XBot-L（1.65米高的人形机器人）在真实环境中进行验证，实现了零样本仿真到现实迁移。\n\n## 特性\n\n### 1. 人形机器人训练\n本仓库提供人形机器人训练的全面指导和脚本。Humanoid-Gym 专门为人形机器人设计了奖励函数，简化了仿真到现实迁移的难度。在本仓库中，我们以 RobotEra 的 XBot-L 为主要示例。只需少量调整，也可用于其他机器人。我们的资源涵盖设置、配置和执行。我们的目标是通过深入的训练和优化，为机器人投入真实世界的运动任务做好充分准备。\n\n- **全面的训练指南**：我们为训练的每个阶段提供详细的操作指南。\n- **逐步配置说明**：我们的指导清晰简洁，确保高效的设置过程。\n- **便于部署的执行脚本**：利用我们预先准备好的脚本简化训练工作流程。\n\n### 2. 仿真到仿真支持\n我们还分享了仿真到仿真（sim2sim）管道，允许您将训练好的策略转移到高度精确且精心设计的仿真环境中。获得机器人后，您可以自信地在真实环境中部署强化学习训练的策略。\n\n我们的仿真器设置，特别是 Mujoco，经过精细调整以密切模拟真实场景。这种精心的校准确保了仿真环境和真实环境中的性能紧密对齐。这一改进使我们的仿真更加可信，并增强了对其在真实世界适用性的信心。\n\n### 3. 去噪世界模型学习\n#### 机器人学：科学与系统（RSS），2024（最佳论文奖入围）\n\u003Ca href=\"https:\u002F\u002Fenriquecoronadozu.github.io\u002Frssproceedings2024\u002Frss20\u002Fp058.pdf\">\u003Cstrong>论文\u003C\u002Fstrong>\u003C\u002Fa>\n|\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Fwangyenjen\u002Fstatus\u002F1792741940087394540\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fzlw21gxy\">Xinyang Gu*\u003C\u002Fa>, \n\u003Ca href=\"https:\u002F\u002Fwangyenjen.github.io\u002F\">Yen-Jen Wang*\u003C\u002Fa>,\nXiang Zhu*, Chengming Shi*, Yanjiang Guo, Yichen Liu,\n\u003Ca href=\"http:\u002F\u002Fpeople.iiis.tsinghua.edu.cn\u002F~jychen\u002F\">Jianyu Chen†\u003C\u002Fa>\n\n*：同等贡献。项目联合负责人，†：通讯作者。\n\n去噪世界模型学习（Denoising World Model Learning，DWL）是一个先进的仿真到现实框架，集成了状态估计和系统识别。这种双重方法确保了机器人在真实环境中的学习和适应既实用又有效。\n\n- **增强的仿真到现实适应性**：优化机器人从仿真环境过渡到真实环境的技术。\n- **改进的状态估计能力**：用于精确可靠状态分析的高级工具。\n\n### 人形机器人感知运动学习（即将推出！）\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Froboterax\u002Fstatus\u002F1798694054374564010\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n### 灵巧手操作（即将推出！）\n\u003Ca href=\"https:\u002F\u002Fx.com\u002Froboterax\u002Fstatus\u002F1791349763448938924\">\u003Cstrong>Twitter\u003C\u002Fstrong>\u003C\u002Fa>\n\n## 安装\n\n1. 使用 `conda create -n myenv python=3.8` 创建一个 Python 3.8 的新 Python 虚拟环境。\n2. 为获得最佳性能，我们建议使用 NVIDIA 驱动版本 525 `sudo apt install nvidia-driver-525`。支持的最低驱动版本为 515。如果您无法安装版本 525，请确保您的系统至少具有版本 515 以保持基本功能。\n3. 安装 PyTorch 1.13 和 Cuda-11.7：\n   - `conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia`\n4. 使用 `conda install numpy=1.23` 安装 numpy-1.23。\n5. 安装 Isaac Gym：\n   - 从 https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym 下载并安装 Isaac Gym Preview 4。\n   - `cd isaacgym\u002Fpython && pip install -e .`\n   - 运行示例 `cd examples && python 1080_balls_of_solitude.py`。\n   - 有关问题排查，请参阅 `isaacgym\u002Fdocs\u002Findex.html`。\n6. 安装 humanoid-gym：\n   - 克隆本仓库。\n   - `cd humanoid-gym && pip install -e .`\n\n## 使用指南\n\n#### 示例\n\n```bash\n# 在 humanoid-gym\u002Fhumanoid 目录下\n# 启动 4096 个环境下的 'v1' PPO 策略训练\n# 此命令启动基于 PPO 算法的类人任务训练。\npython scripts\u002Ftrain.py --task=humanoid_ppo --run_name v1 --headless --num_envs 4096\n\n# 评估训练好的 PPO 策略 'v1'\n# 此命令加载 'v1' 策略以在其环境中进行性能评估。\n# 此外，它还会自动导出一个适合部署的 JIT（Just-In-Time，即时编译）模型。\npython scripts\u002Fplay.py --task=humanoid_ppo --run_name v1\n\n# 实现仿真到仿真模型转换\n# 此命令使用导出的 'v1' 策略进行仿真到仿真转换。\n# 您必须先运行 play.py 获取 JIT 模型，然后将其与 sim2sim.py 一起使用\npython scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Flogs\u002FXBot_ppo\u002Fexported\u002Fpolicies\u002Fpolicy_1.pt\n```\n\n# 运行我们训练好的策略\npython scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Flogs\u002FXBot_ppo\u002Fexported\u002Fpolicies\u002Fpolicy_example.pt\n\n```\n\n#### 1. 默认任务\n\n\n- **humanoid_ppo**\n   - 用途：基线，PPO（Proximal Policy Optimization，近端策略优化）策略，多帧低层级控制\n   - 观测空间：可变维度 $(47 \\times H)$，其中 $H$ 是帧数\n   - $[O_{t-H} ... O_t]$\n   - privileged信息：73维度\n\n- **humanoid_dwl（即将推出）**\n\n#### 2. PPO 策略\n- **训练命令**：要训练 PPO 策略，请执行：\n  ```\n  python humanoid\u002Fscripts\u002Ftrain.py --task=humanoid_ppo --load_run log_file_path --name run_name\n  ```\n- **运行训练好的策略**：要部署训练好的 PPO 策略，请使用：\n  ```\n  python humanoid\u002Fscripts\u002Fplay.py --task=humanoid_ppo --load_run log_file_path --name run_name\n  ```\n- 默认情况下，会加载实验文件夹中最后一次运行的最新模型。但是，可以通过在训练配置中调整 `load_run` 和 `checkpoint` 来选择其他运行迭代\u002F模型。\n\n#### 3. 仿真到仿真（Sim-to-sim）\n- **请注意：在启动 sim-to-sim 流程之前，请确保运行 `play.py` 导出 JIT（即时编译）策略。**\n- **基于 Mujoco 的 Sim2Sim 部署**：使用以下命令利用 Mujoco 执行仿真到仿真（sim2sim）部署：\n  ```\n  python scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Fexport\u002Fmodel.pt\n  ```\n\n\n#### 4. 参数\n- **CPU 和 GPU 使用**：要在 CPU 上运行仿真，请同时设置 `--sim_device=cpu` 和 `--rl_device=cpu`。对于 GPU 操作，请相应地指定 `--sim_device=cuda:{0,1,2...}` 和 `--rl_device={0,1,2...}`。请注意，`CUDA_VISIBLE_DEVICES` 不适用，并且必须匹配 `--sim_device` 和 `--rl_device` 的设置。\n- **无头运行**：如需无渲染运行，请包含 `--headless`。\n- **渲染控制**：在训练期间按 'v' 键切换渲染。\n- **策略位置**：训练好的策略保存在 `humanoid\u002Flogs\u002F\u003Cexperiment_name>\u002F\u003Cdate_time>_\u003Crun_name>\u002Fmodel_\u003Citeration>.pt`。\n\n#### 5. 命令行参数\n关于 RL 训练，请参阅 `humanoid\u002Futils\u002Fhelpers.py#L161`。\n关于 sim-to-sim 流程，请参阅 `humanoid\u002Fscripts\u002Fsim2sim.py#L169`。\n\n## 代码结构\n\n1. 每个环境都依赖于一个 `env` 文件（`legged_robot.py`）和一个 `配置文件`（`legged_robot_config.py`）。后者包含两个类：`LeggedRobotCfg`（包含所有环境参数）和 `LeggedRobotCfgPPO`（表示所有训练参数）。\n2. `env` 和 `config` 类都使用继承。\n3. `cfg` 中指定的非零奖励权重会将相应名称的函数添加到总奖励中。\n4. 任务必须通过 `task_registry.register(name, EnvClass, EnvConfig, TrainConfig)` 注册。注册可以在 `envs\u002F__init__.py` 中进行，也可以在该仓库外部进行。\n\n## 添加新环境\n\n基础环境 `legged_robot` 构建了一个粗糙地形 locomotion（运动）任务。相应的配置没有指定机器人资产（URDF\u002FMJCF），也没有设置奖励权重。\n\n1. 如果需要添加新环境，请在 `envs\u002F` 目录中创建一个新文件夹，并创建一个名为 `\u003Cyour_env>_config.py` 的配置文件。新配置应继承自现有环境配置。\n2. 如果要引入新机器人：\n   - 将相应的资产插入 `resources\u002F` 文件夹。\n   - 在 `cfg` 文件中，设置资产路径，定义 body 名称、default_joint_positions（默认关节位置）和 PD gains（比例-微分增益）。指定所需的 `train_cfg` 和环境名称（python 类）。\n   - 在 `train_cfg` 中，设置 `experiment_name` 和 `run_name`。\n3. 如需要，在 `\u003Cyour_env>.py` 中创建您的环境。继承自现有环境，覆盖所需函数和\u002F或添加您的奖励函数。\n4. 在 `humanoid\u002Fenvs\u002F__init__.py` 中注册您的环境。\n5. 根据需要修改或调整 `cfg` 或 `cfg_train` 中的其他参数。要移除奖励，请将其权重设置为零。不要修改其他环境的参数！\n6. 如果您希望新机器人\u002F环境执行 sim2sim，您可能需要修改 `humanoid\u002Fscripts\u002Fsim2sim.py`：\n   - 检查机器人在 MJCF 和 URDF 之间的关节映射。\n   - 根据您训练的策略更改机器人的初始关节位置。\n\n## 故障排除\n\n请注意以下情况：\n\n```bash\n# 错误\nImportError: libpython3.8.so.1.0: cannot open shared object file: No such file or directory\n\n# 解决方案\n# 设置正确的路径\nexport LD_LIBRARY_PATH=\"~\u002Fminiconda3\u002Fenvs\u002Fyour_env\u002Flib:$LD_LIBRARY_PATH\" \n\n# 或者\nsudo apt install libpython3.8\n\n# 错误\nAttributeError: module 'distutils' has no attribute 'version'\n\n# 解决方案\n# 安装 pytorch 1.12.0\nconda install pytorch torchvision torchaudio cudatoolkit=11.3 -c pytorch\n\n# 错误，源于 conda 分发的 libstdc++ 版本与构建 Isaac Gym 时使用的版本不同\nImportError: \u002Fhome\u002Froboterax\u002Fanaconda3\u002Fbin\u002F..\u002Flib\u002Flibstdc++.so.6: version `GLIBCXX_3.4.20` not found (required by \u002Fhome\u002Froboterax\u002Fcarbgym\u002Fpython\u002Fisaacgym\u002F_bindings\u002Flinux64\u002Fgym_36.so)\n\n# 解决方案\nmkdir ${YOUR_CONDA_ENV}\u002Flib\u002F_unused\nmv ${YOUR_CONDA_ENV}\u002Flib\u002Flibstdc++* ${YOUR_CONDA_ENV}\u002Flib\u002F_unused\n```\n\n## 引用\n\n如果您使用此代码或其部分内容，请引用以下文献：\n```\n@article{gu2024humanoid,\n  title={Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer},\n  author={Gu, Xinyang and Wang, Yen-Jen and Chen, Jianyu},\n  journal={arXiv preprint arXiv:2404.05695},\n  year={2024}\n}\n\n@inproceedings{gu2024advancing,\n  title={Advancing Humanoid Locomotion: Mastering Challenging Terrains with Denoising World Model Learning},\n  author={Gu, Xinyang and Wang, Yen-Jen and Zhu, Xiang and Shi, Chengming and Guo, Yanjiang and Liu, Yichen and Chen, Jianyu},\n  booktitle={Robotics: Science and Systems},\n  year={2024},\n  url={https:\u002F\u002Fenriquecoronadozu.github.io\u002Frssproceedings2024\u002Frss20\u002Fp058.pdf}\n}\n```\n\n## 致谢\n\nHumanoid-Gym 的实现依赖于 [legged_gym](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym) 和 [rsl_rl](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl) 项目（由 Robotic Systems Lab 创建）提供的资源。我们特别使用了他们研究中的 `LeggedRobot` 实现来增强我们的代码库。\n\n## 如有疑问？\n\n如果您有任何其他问题，请联系 [support@robotera.com](mailto:support@robotera.com) 或在此仓库中创建 issue。","# Humanoid-Gym 快速上手指南\n\nHumanoid-Gym 是一个基于 Nvidia Isaac Gym 的强化学习框架，用于训练人形机器人运动技能，支持零样本 sim2real 迁移。\n\n## 环境准备\n\n### 系统要求\n\n- **Python**: 3.8\n- **NVIDIA 驱动**: 推荐 525（最低 515）\n- **CUDA**: 11.7\n- **操作系统**: Linux\n\n### 前置依赖\n\n```bash\n# 创建 Python 3.8 虚拟环境\nconda create -n humanoid_gym python=3.8\nconda activate humanoid_gym\n\n# 安装 PyTorch 1.13 + CUDA 11.7\nconda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia\n\n# 安装 numpy\nconda install numpy=1.23\n```\n\n### 安装 Isaac Gym\n\n1. 从 [NVIDIA 官网](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym) 下载 Isaac Gym Preview 4\n2. 安装 Isaac Gym Python 包：\n\n```bash\ncd isaacgym\u002Fpython && pip install -e .\n```\n\n验证安装：\n\n```bash\ncd isaacgym\u002Fexamples && python 1080_balls_of_solitude.py\n```\n\n## 安装步骤\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fzlw21gxy\u002Fhumanoid-gym.git\ncd humanoid-gym\n\n# 安装 humanoid-gym\npip install -e .\n```\n\n## 基本使用\n\n### 训练模型\n\n```bash\ncd humanoid-gym\u002Fhumanoid\n\n# 训练 PPO 策略（4096 个环境并行）\npython scripts\u002Ftrain.py --task=humanoid_ppo --run_name v1 --headless --num_envs 4096\n```\n\n### 评估模型\n\n```bash\n# 加载并评估训练好的策略\npython scripts\u002Fplay.py --task=humanoid_ppo --run_name v1\n```\n\n### Sim2Sim 迁移\n\n```bash\n# 先运行 play.py 导出 JIT 模型，然后执行 sim2sim\npython scripts\u002Fsim2sim.py --load_model \u002Fpath\u002Fto\u002Flogs\u002FXBot_ppo\u002Fexported\u002Fpolicies\u002Fpolicy_1.pt\n```\n\n### 常用参数\n\n| 参数 | 说明 |\n|------|------|\n| `--headless` | 无渲染模式运行 |\n| `--sim_device=cpu` | CPU 模拟 |\n| `--rl_device=cuda:0` | GPU 训练 |\n| `--num_envs` | 并行环境数量 |\n\n### 训练输出\n\n训练好的策略保存在：\n```\nhumanoid\u002Flogs\u002F\u003Cexperiment_name>\u002F\u003Cdate_time>_\u003Crun_name>\u002Fmodel_\u003Citeration>.pt\n```","某机器人创业公司的人形机器人团队正在开发双足行走功能，目标是让机器人能在家庭环境中自主导航。\n\n### 没有 humanoid-gym 时\n\n- 团队需要在真实机器人上反复调试行走策略，每次测试都面临硬件损耗风险，迭代周期长达数周\n- 模拟环境中训练好的策略直接部署到真实机器人时几乎完全失效，需要大量手动微调物理参数\n- 奖励函数设计完全依赖经验，缺乏针对人形机器人的标准化设计指南，团队走了大量弯路\n- 只能在单一模拟器中验证策略，无法评估策略在不同物理引擎下的鲁棒性\n- 团队成员需要同时精通强化学习算法和机器人硬件调试，学习成本极高\n\n### 使用 humanoid-gym 后\n\n- 直接在 Isaac Gym 中完成训练，零样本迁移到 XBot-L 真实机器人上即可稳定行走，首次部署一次成功\n- 内置专门为人形机器人设计的奖励函数，大幅降低 sim2real 差距，策略可直接泛化到真实环境\n- 提供 sim2sim 管道，可将策略从 Isaac Gym 迁移到 Mujoco 进行交叉验证，确保策略的鲁棒性\n- 附带完整的训练脚本和配置说明，新成员也能快速上手，团队效率显著提升\n- 已在 RobotEra 的真实机器人上验证，团队可以直接复用经过验证的方案\n\nhumanoid-gym 将原本需要数月的 sim2real 适配工作缩短到数天，让人形机器人开发从\"烧钱\"变成可快速迭代的工程问题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Froboterax_humanoid-gym_95a26da2.png","roboterax","RobotEra TECHNOLOGY CO.,LTD.","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Froboterax_10db809f.jpg","Founded in 2023, RobotEra TECHNOLOGY CO., LTD focuses on the R&D of embodied AI general-purpose humanoid robots.",null,"support@robotera.com","https:\u002F\u002Fgithub.com\u002Froboterax",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,1926,249,"2026-04-05T07:05:26",3,"Linux","需要 NVIDIA GPU，建议驱动版本 525（最低 515），CUDA 11.7+","未说明",{"notes":34,"python":35,"dependencies":36},"基于 Nvidia Isaac Gym 的强化学习框架，需要从 NVIDIA 官网下载并安装 Isaac Gym Preview 4。建议使用 conda 管理 Python 环境。运行模拟需要 GPU 支持，可通过 --sim_device 和 --rl_device 参数指定设备。","3.8",[37,38,39],"pytorch==1.13.1","numpy==1.23","isaacgym",[41,42,43,44,45],"开发框架","图像","Agent","视频","其他",[47,48,49,50,51,52,53],"ai","artificial-intelligence","control-systems","humanoid-robot","locomotion","machine-learning","robotics",8,"ready","2026-03-27T02:49:30.150509","2026-04-06T07:13:57.326590",[59,64,69,74,79,84,89],{"id":60,"question_zh":61,"answer_zh":62,"source_url":63},878,"如何在 Isaac Gym 渲染界面中同时显示多个机器人？","在运行 python scripts\u002Fplay.py --task=humanoid_ppo --run_name v1 时，默认只显示一个机器人。需要修改 humanoid\u002Fscripts\u002Fplay.py 第 51 行处的最大数量设置，将其改为更大的数值，并添加参数 --num_envs 32，例如：python scripts\u002Fplay.py --task=humanoid_ppo --run_name v1 --num_envs 32，即可同时渲染 32 个机器人。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F39",{"id":65,"question_zh":66,"answer_zh":67,"source_url":68},879,"为什么在 Isaac Gym 训练好的模型迁移到 MuJoCo 后无法正常行走？","训练步数多不一定能保证更好的 sim2real 结果。在奖励函数收敛后，再继续训练几百步是常见做法，建议至少训练 1000 步作为良好起点。多迭代几次可以解决此问题。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F24",{"id":70,"question_zh":71,"answer_zh":72,"source_url":73},880,"为什么在 trimesh 地形上训练的模型无法正常行走，而在 plane 地形上可以？","输入命令波动是因为系统每 8 秒会随机重新采样命令，之后切换到 play 脚本中指定的默认命令。如果想忽略此行为，可以修改环境中的 _resample_commands 函数。建议切换到最新的 main 分支，开发团队已在此修复了相关 bug。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F4",{"id":75,"question_zh":76,"answer_zh":77,"source_url":78},881,"特权观察（privileged observations）是什么？在实际部署中如何使用？","特权观察（State）由 Observation（47维）和红色框内容（26维）组成，总维度为 73。特权观察仅在训练阶段用于强化学习的价值函数（critic），在实际部署时并不直接使用。迁移到 MuJoCo 是作为验证集，用于验证在不同动力学环境下的性能，不应用于训练或调优。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F12",{"id":80,"question_zh":81,"answer_zh":82,"source_url":83},882,"为什么踝关节的 kp 设置为 15 这么小？实际机器人上也能正常跟踪吗？","使用较小的 kp 值（15）有两个原因：首先，踝关节电机比其他关节电机更小，扭矩限制约为其他较大电机的十分之一；其次，团队进行了系统辨识，给定固定正弦波时，对实际机器人的关节轨迹与 MuJoCo 和 IsaacGym 中的进行校准。比较是基于响应关节位置而非目标关节位置（action），因为重力、摩擦力等因素会导致两者不一致。当相同的 action 施加到实际机器人和模拟器中的机器人时，它们的行为是相似的。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F26",{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},883,"如何创建 URDF 文件中的惯性矩（Moment of Inertia）？使用 SolidWorks 导出时惯性矩不正确导致机器人滑倒或飞走怎么办？","使用 SolidWorks 扩展导出的 URDF 文件中惯性矩可能不正确，这会导致机器人滑倒或飞走。建议参考正确的机器人 URDF 文件（如 XBot-L 的 URDF）中的惯性矩设置方法，确保质量和惯性参数设置正确。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F46",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},884,"如何在运行 play.py 时更改地形（如斜坡）？","用户尝试取消注释相关代码后，地形仍然显示为平地。目前评论中没有提供明确的解决方案，需要进一步查看代码中地形配置的具体实现方式。","https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym\u002Fissues\u002F42",[95],{"id":96,"version":97,"summary_zh":18,"released_at":18},110163,"v1.0.0",[99,107,117,125,133,144],{"id":100,"name":101,"github_repo":102,"description_zh":103,"stars":104,"difficulty_score":29,"last_commit_at":105,"category_tags":106,"status":55},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[41,42,43],{"id":108,"name":109,"github_repo":110,"description_zh":111,"stars":112,"difficulty_score":113,"last_commit_at":114,"category_tags":115,"status":55},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[41,43,116],"语言模型",{"id":118,"name":119,"github_repo":120,"description_zh":121,"stars":122,"difficulty_score":113,"last_commit_at":123,"category_tags":124,"status":55},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[41,42,43],{"id":126,"name":127,"github_repo":128,"description_zh":129,"stars":130,"difficulty_score":113,"last_commit_at":131,"category_tags":132,"status":55},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[41,116],{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":113,"last_commit_at":139,"category_tags":140,"status":55},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[42,141,44,142,43,45,116,41,143],"数据工具","插件","音频",{"id":145,"name":146,"github_repo":147,"description_zh":148,"stars":149,"difficulty_score":29,"last_commit_at":150,"category_tags":151,"status":55},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[43,42,41,116,45]]