[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-AgibotTech--agibot_x1_train":3,"tool-AgibotTech--agibot_x1_train":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":79,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":103,"github_topics":104,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":108,"updated_at":109,"faqs":110,"releases":121},2650,"AgibotTech\u002Fagibot_x1_train","agibot_x1_train","The reinforcement learning training code for AgiBot X1.","agibot_x1_train 是专为智元机器人（AgiBot）开源人形机器人 X1 打造的强化学习训练代码库。它核心解决了人形机器人在复杂地形下如何实现稳定、灵活行走的控制难题，通过算法训练让机器人具备自适应运动能力。\n\n该项目主要面向机器人领域的开发者与研究人员。用户不仅可以利用它复现 X1 机器人的真实行走调试，还能将其迁移至其他机器人模型进行定制化训练。项目基于智元开源的 AimRT 中间件框架，支持从仿真环境到实机部署的全流程开发。\n\n其技术亮点在于提供了完整的工具链：既包含基于 Isaac Gym 的高效并行训练功能，也支持生成 JIT 和 ONNX 格式模型以便部署；同时集成了 Mujoco 仿真验证（sim2sim）及手柄遥测控制功能，极大降低了算法验证门槛。此外，项目结构清晰，文档详尽，方便用户快速添加新的机器人环境与任务配置，是进行足式机器人运动控制研究的实用开源方案。","English | [中文](README.zh_CN.md)\n## Introduction\n[AgiBot X1](https:\u002F\u002Fwww.zhiyuan-robot.com\u002Fqzproduct\u002F169.html) is a modular humanoid robot with high dof developed and open-sourced by AgiBot. It is built upon AgiBot's open-source framework `AimRT` as middleware and using reinforcement learning for locomotion control.\n\nThis project is about the reinforcement learning training code used by AgiBot X1. It can be used in conjunction with the [inference software](https:\u002F\u002Faimrt.org\u002F) provided with AgiBot X1 for real-robot and simulated walking debugging, or be imported to other robot models for training.\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_4ad3ab84924f.jpg)\n\n## Start\n\n### Install Dependencies\n1. Create a new Python 3.8 virtual environment:\n   - `conda create -n myenv python=3.8`.\n2. Install pytorch 1.13 and cuda-11.7:\n   - `conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia`\n3. Install numpy-1.23:\n   - `conda install numpy=1.23`.\n4. Install Isaac Gym:\n   - Download and install Isaac Gym Preview 4 from https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym.\n   - `cd isaacgym\u002Fpython && pip install -e .`\n   - Run an example with `cd examples && python 1080_balls_of_solitude.py`.\n   - Consult `isaacgym\u002Fdocs\u002Findex.html` for troubleshooting.\n6. Install the training code dependencies:\n   - Clone this repository.\n   - `pip install -e .`\n### Usage\n#### Train:\n```python scripts\u002Ftrain.py --task=x1_dh_stand --run_name=\u003Crun_name> --headless```\n- The trained model will be saved in `\u002Flog\u002F\u003Cexperiment_name>\u002Fexported_data\u002F\u003Cdate_time>\u003Crun_name>\u002Fmodel_\u003Citeration>.pt`, where `\u003Cexperiment_name>` is defined in the config file.\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_e5146493b14c.gif)\n\n#### Play:\n```python \u002Fscripts\u002Fplay.py --task=x1_dh_stand --load_run=\u003Cdate_time>\u003Crun_name>```\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_ac68ebfc0db1.gif)\n#### Generate the JIT Model:\n``` python scripts\u002Fexport_policy_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>\u003Crun_name>  ```\n- The JIT model will be saved in ``` log\u002Fexported_policies\u002F\u003Cdate_time>```\n\n#### Generate the ONNX Model:\n``` python scripts\u002Fexport_onnx_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>  ```\n- The ONNX model will be saved at ```log\u002Fexported_policies\u002F\u003Cdate_time>```\n\n#### Parameter Descriptions:\n- task: Task name\n- resume: Resume training from a checkpoint\n- experiment_name:  Name of the experiment to run or load.\n- run_name: Name of the run.\n- load_run: Name of the run to load when resume=True. If -1: will load the last run.\n- checkpoint: Saved model checkpoint number. If -1: will load the last checkpoint.\n- num_envs: Number of environments to create.\n- seed: Random seed.\n- max_iterations: Maximum number of training iterations.\n\n### Add New Environments\n1. Create a new folder under the `envs\u002F` directory, and then create a configuration file `\u003Cyour_env>_config.py` and an environment file `\u003Cyour_env>_env.py` in the folder. The two files should inherit `LeggedRobotCfg` and `LeggedRobot` respectively.\n\n2. Place the URDF, mesh, and MJCF files of the new robot in the `resources\u002F` folder.\n- Configure the URDF path, PD gain, body name, default_joint_angles, experiment_name, etc., for the new robot in `\u003Cyour_env>_config.py`.\n\n3. Register the new robot in `humanoid\u002Fenvs\u002F__init__.py`.\n### sim2sim\nUse Mujoco for sim2sim validation:\n  ```\n  python scripts\u002Fsim2sim.py --task=x1_dh_stand --load_model \u002Fpath\u002Fto\u002Fexported_policies\u002F\n  ```\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_e6414d0cae8f.gif)\n### Usage of Joystick\nWe use the Logitech F710 Joystick. When starting play.py and sim2sim.py, press and hold button 4 while rotating the joystick to control the robot to move forward\u002Fbackward, strafe left\u002Fright or rotate.\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_872d2d0d9858.jpg)\n|         Button           |         Command         |\n| -------------------- |:--------------------:|\n|         4 + 1-        |         Move forward          |\n|         4 + 1+        |         Move backward          |\n|         4 + 0-        |        Strafe left         |\n|         4 + 0+        |        Strafe right         |\n|         4 + 3-        |       Rotate counterclockwise       |\n|         4 + 3+        |       Rotate clockwise       |\n\n\n## Directory Structure\n```\n.\n|— humanoid           # Main code directory\n|  |—algo             # Algorithm directory\n|  |—envs             # Environment directory\n|  |—scripts          # Script directory\n|  |—utilis           # Utility and function directory\n|— logs               # Model directory\n|— resources          # Resource library\n|  |— robots          # Robot urdf, mjcf, mesh\n|— README.md          # README document\n```\n\n> References\n> * [GitHub - leggedrobotics\u002Flegged_gym: Isaac Gym Environments for Legged Robots](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym)\n> * [GitHub - leggedrobotics\u002Frsl_rl: Fast and simple implementation of RL algorithms, designed to run fully on GPU.](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)\n> * [GitHub - roboterax\u002Fhumanoid-gym: Humanoid-Gym: Reinforcement Learning for Humanoid Robot with Zero-Shot Sim2Real Transfer https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05695](https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym)\n\n","中文 | [English](README.zh_CN.md)\n## 简介\n[AgiBot X1](https:\u002F\u002Fwww.zhiyuan-robot.com\u002Fqzproduct\u002F169.html) 是一款由 AgiBot 开发并开源的高自由度模块化人形机器人。它基于 AgiBot 的开源框架 `AimRT` 作为中间件，并采用强化学习进行运动控制。\n\n本项目包含 AgiBot X1 所使用的强化学习训练代码。该代码可与 AgiBot X1 随附的 [推理软件](https:\u002F\u002Faimrt.org\u002F) 结合使用，用于真实机器人和仿真环境中的行走调试；也可导入到其他机器人模型中进行训练。\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_4ad3ab84924f.jpg)\n\n## 使用说明\n\n### 安装依赖\n1. 创建一个新的 Python 3.8 虚拟环境：\n   - `conda create -n myenv python=3.8`。\n2. 安装 PyTorch 1.13 和 CUDA 11.7：\n   - `conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia`。\n3. 安装 NumPy 1.23：\n   - `conda install numpy=1.23`。\n4. 安装 Isaac Gym：\n   - 从 https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym 下载并安装 Isaac Gym Preview 4。\n   - `cd isaacgym\u002Fpython && pip install -e .`。\n   - 运行示例：`cd examples && python 1080_balls_of_solitude.py`。\n   - 如遇问题，请参考 `isaacgym\u002Fdocs\u002Findex.html` 进行排查。\n6. 安装训练代码依赖：\n   - 克隆本仓库。\n   - `pip install -e .`。\n\n### 使用方法\n#### 训练：\n```python scripts\u002Ftrain.py --task=x1_dh_stand --run_name=\u003Crun_name> --headless```\n- 训练好的模型将保存在 `\u002Flog\u002F\u003Cexperiment_name>\u002Fexported_data\u002F\u003Cdate_time>\u003Crun_name>\u002Fmodel_\u003Citeration>.pt`，其中 `\u003Cexperiment_name>` 在配置文件中定义。\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_e5146493b14c.gif)\n\n#### 演示：\n```python \u002Fscripts\u002Fplay.py --task=x1_dh_stand --load_run=\u003Cdate_time>\u003Crun_name>```\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_ac68ebfc0db1.gif)\n\n#### 生成 JIT 模型：\n``` python scripts\u002Fexport_policy_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>\u003Crun_name>  ```\n- JIT 模型将保存在 ``` log\u002Fexported_policies\u002F\u003Cdate_time>```。\n\n#### 生成 ONNX 模型：\n``` python scripts\u002Fexport_onnx_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>  ```\n- ONNX 模型将保存在 ```log\u002Fexported_policies\u002F\u003Cdate_time>```。\n\n#### 参数说明：\n- task: 任务名称\n- resume: 从检查点恢复训练\n- experiment_name: 要运行或加载的实验名称\n- run_name: 运行名称\n- load_run: 当 resume=True 时要加载的运行名称。若为 -1，则加载最近一次运行。\n- checkpoint: 保存的模型检查点编号。若为 -1，则加载最近一次检查点。\n- num_envs: 要创建的环境数量\n- seed: 随机种子\n- max_iterations: 最大训练迭代次数。\n\n### 添加新环境\n1. 在 `envs\u002F` 目录下创建一个新文件夹，并在该文件夹中创建配置文件 `\u003Cyour_env>_config.py` 和环境文件 `\u003Cyour_env>_env.py`。这两个文件应分别继承 `LeggedRobotCfg` 和 `LeggedRobot`。\n\n2. 将新机器人的 URDF、网格和 MJCF 文件放入 `resources\u002F` 文件夹中。\n   - 在 `\u003Cyour_env>_config.py` 中配置新机器人的 URDF 路径、PD 增益、主体名称、默认关节角度、实验名称等参数。\n\n3. 在 `humanoid\u002Fenvs\u002F__init__.py` 中注册新机器人。\n\n### sim2sim\n使用 Mujoco 进行 sim2sim 验证：\n  ```\n  python scripts\u002Fsim2sim.py --task=x1_dh_stand --load_model \u002Fpath\u002Fto\u002Fexported_policies\u002F\n  ```\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_e6414d0cae8f.gif)\n\n### 操纵杆使用说明\n我们使用 Logitech F710 操纵杆。在启动 play.py 和 sim2sim.py 时，按住按钮 4 并旋转操纵杆，即可控制机器人前进\u002F后退、侧移或旋转。\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_readme_872d2d0d9858.jpg)\n|         按钮           |         命令         |\n| -------------------- |:--------------------:|\n|         4 + 1-        |         向前移动          |\n|         4 + 1+        |         后退          |\n|         4 + 0-        |        左侧移         |\n|         4 + 0+        |        右侧移         |\n|         4 + 3-        |       逆时针旋转       |\n|         4 + 3+        |       顺时针旋转       |\n\n\n## 目录结构\n```\n.\n|— humanoid           # 主代码目录\n|  |—algo             # 算法目录\n|  |—envs             # 环境目录\n|  |—scripts          # 脚本目录\n|  |—utilis           # 工具和函数目录\n|— logs               # 模型目录\n|— resources          # 资源库\n|  |— robots          # 机器人 URDF、MJCF、网格\n|— README.md          # README 文档\n```\n\n> 参考资料\n> * [GitHub - leggedrobotics\u002Flegged_gym: 适用于腿式机器人的 Isaac Gym 环境](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym)\n> * [GitHub - leggedrobotics\u002Frsl_rl: 快速且简单的强化学习算法实现，专为 GPU 全面运行而设计。](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)\n> * [GitHub - roboterax\u002Fhumanoid-gym: 人形机器人强化学习，支持零样本 sim2real 迁移 https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.05695](https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym)","# AgiBot X1 训练代码快速上手指南\n\n本指南旨在帮助开发者快速搭建 `agibot_x1_train` 环境，并掌握基于强化学习的人形机器人运动控制训练流程。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04)\n*   **Python 版本**: 3.8\n*   **GPU**: 支持 CUDA 11.7 的 NVIDIA 显卡\n*   **前置依赖**:\n    *   Conda (用于环境管理)\n    *   Isaac Gym Preview 4 (需前往 NVIDIA 官网下载并同意许可协议)\n\n## 安装步骤\n\n### 1. 创建虚拟环境\n使用 Conda 创建名为 `myenv` 的 Python 3.8 环境：\n```bash\nconda create -n myenv python=3.8\nconda activate myenv\n```\n\n### 2. 安装 PyTorch 与 CUDA\n安装指定版本的 PyTorch (1.13.1) 和 CUDA (11.7)。\n> **提示**：国内用户建议使用清华源或阿里源加速下载。\n```bash\n# 官方源命令\nconda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c pytorch -c nvidia\n\n# 国内加速示例 (清华源)\n# conda install pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch-cuda=11.7 -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fpytorch\u002F -c https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fcloud\u002Fnvidia\u002F\n```\n\n### 3. 安装 NumPy\n安装指定版本的 NumPy 以避免兼容性问题：\n```bash\nconda install numpy=1.23\n```\n\n### 4. 安装 Isaac Gym\n1. 访问 [NVIDIA Isaac Gym](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym) 下载 **Preview 4** 版本并解压。\n2. 进入 Python 目录并进行编辑模式安装：\n```bash\ncd isaacgym\u002Fpython && pip install -e .\n```\n3. (可选) 验证安装是否成功：\n```bash\ncd examples && python 1080_balls_of_solitude.py\n```\n若示例运行正常且能看到球体掉落仿真，则安装成功。\n\n### 5. 安装项目依赖\n克隆本项目仓库并安装依赖：\n```bash\ngit clone \u003Crepository_url>\ncd agibot_x1_train\npip install -e .\n```\n\n## 基本使用\n\n### 开始训练\n使用以下命令启动训练任务。`--headless` 参数表示不显示图形界面（适合服务器环境），若需观察仿真过程可去掉该参数。\n\n```bash\npython scripts\u002Ftrain.py --task=x1_dh_stand --run_name=my_first_run --headless\n```\n*   **输出位置**：训练好的模型将保存在 `log\u002F\u003Cexperiment_name>\u002Fexported_data\u002F\u003Cdate_time>\u003Crun_name>\u002Fmodel_\u003Citeration>.pt`。\n\n### 测试模型 (Play)\n加载已训练好的模型进行仿真测试：\n\n```bash\npython scripts\u002Fplay.py --task=x1_dh_stand --load_run=\u003Cdate_time>my_first_run\n```\n*   **操作说明**：默认支持罗技 F710 手柄。按住 **Button 4** 并拨动摇杆可控制机器人前进、后退、平移或旋转。\n\n### 导出部署模型\n训练完成后，可将模型导出为 JIT 或 ONNX 格式以便部署到真机或其他仿真器。\n\n**导出 JIT 模型：**\n```bash\npython scripts\u002Fexport_policy_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>my_first_run\n```\n\n**导出 ONNX 模型：**\n```bash\npython scripts\u002Fexport_onnx_dh.py --task=x1_dh_stand --load_run=\u003Cdate_time>my_first_run\n```\n*   **输出位置**：导出的模型位于 `log\u002Fexported_policies\u002F\u003Cdate_time>` 目录下。\n\n### Sim2Sim 验证 (Mujoco)\n使用 Mujoco 进行跨仿真器验证：\n```bash\npython scripts\u002Fsim2sim.py --task=x1_dh_stand --load_model \u002Fpath\u002Fto\u002Fexported_policies\u002F\n```","某具身智能实验室正在为自研的双足人形机器人开发复杂地形下的自适应行走算法，急需验证强化学习策略的迁移效果。\n\n### 没有 agibot_x1_train 时\n- **仿真环境搭建困难**：团队需从零编写物理引擎接口和环境奖励函数，耗时数周仍难以复现真实的电机延迟与接触反馈，导致训练起步缓慢。\n- **虚实迁移鸿沟巨大**：在通用框架中训练的模型直接部署到真机时，因缺乏针对高自由度关节的专项优化，机器人往往站立不稳甚至摔倒，调试周期长达数月。\n- **策略部署流程繁琐**：将训练好的 PyTorch 模型转换为可嵌入控制器的格式（如 ONNX 或 JIT）需要手动编写转换脚本，极易出错且不支持热更新。\n- **交互测试手段匮乏**：缺乏内置的遥测与遥控机制，研究人员只能通过打印日志观察数据，无法实时通过手柄干预机器人动作以验证极端情况。\n\n### 使用 agibot_x1_train 后\n- **开箱即用的训练基线**：直接复用其基于 Isaac Gym 构建的高保真环境配置，内置了 AgiBot X1 的动力学参数，团队仅需 3 天即可完成新步态任务的初步训练。\n- **高效的 Sim2Sim 验证**：利用工具集成的 Mujoco 验证脚本，在部署前即可在另一物理引擎中交叉验证策略鲁棒性，将真机试错成本降低了 80%。\n- **一键式模型导出**：通过简单的命令行指令即可生成优化后的 JIT 或 ONNX 模型，无缝对接 AimRT 中间件，实现了从训练到真机推理的分钟级迭代。\n- **直观的手柄调试体验**：原生支持罗技手柄映射，研究人员可在仿真或真机运行时实时操控机器人前后移动、侧移及旋转，快速定位平衡算法的边界条件。\n\nagibot_x1_train 通过提供标准化的强化学习训练闭环与便捷的部署工具链，将人形机器人运动控制的研发效率提升了数倍。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAgibotTech_agibot_x1_train_4ad3ab84.jpg","AgibotTech","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAgibotTech_a38f725a.jpg","以智能机器创造无限生产力",null,"https:\u002F\u002Fwww.agibot.com\u002F","https:\u002F\u002Fgithub.com\u002FAgibotTech",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1649,507,"2026-04-02T13:59:37",4,"Linux","必需 NVIDIA GPU，需支持 CUDA 11.7，具体显存大小未说明（建议 8GB+ 以运行 Isaac Gym）","未说明",{"notes":95,"python":96,"dependencies":97},"1. 必须安装 NVIDIA Isaac Gym Preview 4 仿真环境，该组件通常仅支持 Linux 系统。\n2. 推荐使用 Conda 创建虚拟环境并严格匹配指定的 PyTorch (1.13.1) 和 CUDA (11.7) 版本。\n3. 训练和推理基于强化学习，需配合 AgiBot X1 机器人或仿真环境使用。\n4. 支持通过手柄 (Logitech F710) 进行实时控制调试。","3.8",[98,99,100,101,102],"pytorch==1.13.1","torchvision==0.14.1","torchaudio==0.13.1","numpy==1.23","isaacgym (Preview 4)",[18],[105,106,107],"open-source","reinforcement-learning","robotics","2026-03-27T02:49:30.150509","2026-04-06T07:05:47.555374",[111,116],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},12276,"训练过程中机器人关节几乎不动怎么办？","这通常是因为 URDF 文件中的 collision（碰撞）设置有问题。请检查并修正机器人模型描述文件中的碰撞几何体配置，确保其与实际物理属性匹配。","https:\u002F\u002Fgithub.com\u002FAgibotTech\u002Fagibot_x1_train\u002Fissues\u002F6",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},12277,"在哪里可以找到 RL 模型的原理说明或图示？","相关文档和说明已发布在项目仓库的 doc 目录下，请访问以下链接查看：https:\u002F\u002Fgithub.com\u002FAgibotTech\u002Fagibot_x1_train\u002Ftree\u002Fmain\u002Fdoc","https:\u002F\u002Fgithub.com\u002FAgibotTech\u002Fagibot_x1_train\u002Fissues\u002F3",[]]