[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Open-X-Humanoid--TienKung-Lab":3,"tool-Open-X-Humanoid--TienKung-Lab":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":108,"github_topics":109,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":148},2449,"Open-X-Humanoid\u002FTienKung-Lab","TienKung-Lab","Tien Kung-Lab: Direct IsaacLab Workflow for Legged Robots","TienKung-Lab 是专为“天工”全尺寸人形机器人打造的强化学习运动控制框架，基于 NVIDIA Isaac Lab 构建。它旨在解决人形机器人在复杂环境中实现自然、稳定且高效行走与跑步的控制难题，通过整合 AMP（对抗性运动先验）风格奖励与周期性步态奖励，让机器人的动作更加拟人化且具备高动态性能。\n\n这一工具的核心价值在于打通了从仿真到实物的完整工作流。它不仅支持在 Isaac Sim 中进行高保真训练，还能无缝迁移至 MuJoCo 进行 Sim2Sim 验证，并已成功在真实的天工机器人上完成部署验证。值得一提的是，TienKung-Lab 引入了基于光线投射的传感器模拟，增强了机器人对环境的感知能力，使其能够实现更精准的交互与避障。其模块化架构设计灵活，便于用户根据需求进行自定义扩展。\n\nTienKung-Lab 主要面向机器人领域的研究人员、算法工程师以及高阶开发者。如果你正在探索人形机器人的 locomotion（移动控制）算法，或希望在一个成熟、开源的环境中测试强化学习策略，它将是一个极具参考价值的平台。无论是进行运动重定向研究，还是开发新的感知控制算法，TienKun","TienKung-Lab 是专为“天工”全尺寸人形机器人打造的强化学习运动控制框架，基于 NVIDIA Isaac Lab 构建。它旨在解决人形机器人在复杂环境中实现自然、稳定且高效行走与跑步的控制难题，通过整合 AMP（对抗性运动先验）风格奖励与周期性步态奖励，让机器人的动作更加拟人化且具备高动态性能。\n\n这一工具的核心价值在于打通了从仿真到实物的完整工作流。它不仅支持在 Isaac Sim 中进行高保真训练，还能无缝迁移至 MuJoCo 进行 Sim2Sim 验证，并已成功在真实的天工机器人上完成部署验证。值得一提的是，TienKung-Lab 引入了基于光线投射的传感器模拟，增强了机器人对环境的感知能力，使其能够实现更精准的交互与避障。其模块化架构设计灵活，便于用户根据需求进行自定义扩展。\n\nTienKung-Lab 主要面向机器人领域的研究人员、算法工程师以及高阶开发者。如果你正在探索人形机器人的 locomotion（移动控制）算法，或希望在一个成熟、开源的环境中测试强化学习策略，它将是一个极具参考价值的平台。无论是进行运动重定向研究，还是开发新的感知控制算法，TienKung-Lab 都提供了坚实的基础设施和支持，帮助用户加速从理论仿真到真机落地的研发进程。","# TienKung-Lab: Direct IsaacLab Workflow for TienKung\n\n[![IsaacSim](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIsaacSim-4.5.0-silver.svg)](https:\u002F\u002Fdocs.omniverse.nvidia.com\u002Fisaacsim\u002Flatest\u002Foverview.html)\n[![Isaac Lab](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIsaacLab-2.1.0-silver)](https:\u002F\u002Fisaac-sim.github.io\u002FIsaacLab)\n[![RSL_RK](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRSL_RL-2.3.1-silver)](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10-blue.svg)](https:\u002F\u002Fdocs.python.org\u002F3\u002Fwhatsnew\u002F3.10.html)\n[![Linux platform](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-linux--64-orange.svg)](https:\u002F\u002Freleases.ubuntu.com\u002F22.04\u002F)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-BSD--3-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause)\n[![pre-commit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--commit-enabled-brightgreen?logo=pre-commit&logoColor=white)](https:\u002F\u002Fpre-commit.com\u002F)\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_000e8d6d396b.jpg\" width=\"600\">\n  \u003Cbr>\n  \u003Cb>\u003Cspan style=\"font-size:1.2em;\">TienKung humanoid robot won the championship in the first Humanoid Robot Half Marathon\u003C\u002Fspan>\u003C\u002Fb>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\n\n\n## Overview\n\n| Motion |              AMP Animation               |                     Sensors                      |                   RL + AMP                    |                   Sim2Sim                   |\n| :----: | :--------------------------------------: | :----------------------------------------------: | :-------------------------------------------: | :-----------------------------------------: |\n|  Walk  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_98587c5ec243.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_72f92535a232.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_8514e0940255.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_d6aee3fc63d1.gif\" width=\"200\"> |\n|  Run   | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_438d852cc52b.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_017f20fe2369.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_c29eb94fdbde.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_09994c3559b4.gif\" width=\"200\">  |\n\nThis framework is an RL-based locomotion control system designed for full-sized humanoid robots, TienKung. It integrates AMP-style rewards with periodic gait rewards, facilitating natural, stable, and efficient walking and running behaviors.\n\nThe codebase is built on IsaacLab, supports Sim2Sim transfer to MuJoCo, and features a modular architecture for seamless customization and extension. Additionally, it incorporates ray-casting-based sensors for enhanced perception, enabling precise environmental interaction and obstacle avoidance. The framework has also been successfully validated on the real TienKung robot.\n\n## TODO List\n- [x] Motion retargeting support 2025-09-27\n- [x] Add sim2real demo 2025-11-07\n- [x] Add a hyperlink to the deployment [repository](https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FDeploy_Tienkung.git) 2025-11-19\n- [ ] Add more sensors\n- [ ] Add Perceptive Control\n\n## Installation\nTienKung-Lab is built with IsaacSim 4.5.0 and IsaacLab 2.1.0.\n\n- Install Isaac Lab by following the [installation guide](https:\u002F\u002Fisaac-sim.github.io\u002FIsaacLab\u002Fmain\u002Fsource\u002Fsetup\u002Finstallation\u002Findex.html). We recommend using the conda installation as it simplifies calling Python scripts from the terminal.\n\n- Clone this repository separately from the Isaac Lab installation (i.e. outside the `IsaacLab` directory)\n\n- Using a python interpreter that has Isaac Lab installed, install the library\n\n```bash\ncd TienKung-Lab\npip install -e .\n```\n- Install the rsl-rl library\n\n```bash\ncd TienKung-Lab\u002Frsl_rl\npip install -e .\n```\n\n- Verify that the extension is correctly installed by running the following command:\n\n```bash\npython legged_lab\u002Fscripts\u002Ftrain.py --task=walk  --logger=tensorboard --headless --num_envs=64\n```\n\n## Usage\n\n### Motion Retargeting\n\n| AMASS  |  GMR               |                     TIENKUNGLAB                      | \n| :----: | :--------------------------------------: | :----------------------------------------------: | \n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_347f6344001e.gif\" height=\"150\">   | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_991a9bc4d977.gif\" height=\"150\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_769658f8e691.gif\" height=\"150\"> | \n\nThis section uses [GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR) for motion retargeting, Tienkung currently supports motion retargeting only for SMPLX types (AMASS, OMOMO).\n\n**1. Prepare the dataset and Motion retargeting with [GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR).**\n```bash\npython scripts\u002Fsmplx_to_robot.py --smplx_file \u003Cpath_to_smplx_data> --robot tienkung  --save_path \u003Cpath_to_save_robot_data.pkl>\n```\n**2. Data Processing and Data Saving.**\n\nThe dataset consists of two parts with distinct functions and formats, requiring conversion in two steps.\n\n- **`motion_visualization\u002F`**  \n  Used for motion playback with `play_amp_animation.py` to check motion correctness and quality.  \n  Data fields:  [root_pos, root_rot, dof_pos, root_lin_vel, root_ang_vel, dof_vel]\n\n- **`motion_amp_expert\u002F`**  \n  Used during training as expert reference data for AMP.  \n  Data fields:  [dof_pos, dof_vel, end-effector pos]\n  \n- **Step 1: Data Processing and Visualization Data Saving.**\n\n```bash\npython legged_lab\u002Fscripts\u002Fgmr_data_conversion.py --input_pkl \u003Cpath_to_save_robot_data.pkl> --output_txt legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_visualization\u002Fmotion.txt\n```\n\n**Note**: Before starting step 2, set the `amp_motion_files_display` path in the config to the file generated in step 1.\n\n- **Step 2: Motion Visualization and Expert Data Saving.**\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1 --save_path legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_amp_expert\u002Fmotion.txt --fps 30.0\n```\n**Note**: After step 2, set the `amp_motion_files` path in the config to the file generated in step 2.\n\n### Visualize motion\n\nVisualize the motion by updating the simulation with data from tienkung\u002Fdatasets\u002Fmotion_visualization.\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run --num_envs=1\n```\n\n### Visualize motion with sensors\n\nVisualize the motion with sensors by updating the simulation with data from tienkung\u002Fdatasets\u002Fmotion_visualization.\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk_with_sensor --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run_with_sensor --num_envs=1\n```\n\n### Train\n\nTrain the policy using AMP expert data from tienkung\u002Fdatasets\u002Fmotion_amp_expert.\n\n```bash\npython legged_lab\u002Fscripts\u002Ftrain.py --task=walk --headless --logger=tensorboard --num_envs=4096\npython legged_lab\u002Fscripts\u002Ftrain.py --task=run --headless --logger=tensorboard --num_envs=4096\n```\n\n### Play\n\nRun the trained policy.\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay.py --task=walk --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay.py --task=run --num_envs=1\n```\n\n### Sim2Sim(MuJoCo)\n\nEvaluate the trained policy in MuJoCo to perform cross-simulation validation.\n\nExported_policy\u002F contains pretrained policies provided by the project. When using the play script, trained policy is exported automatically and saved to path like logs\u002Frun\u002F[timestamp]\u002Fexported\u002Fpolicy.pt.\n```bash\npython legged_lab\u002Fscripts\u002Fsim2sim.py --task walk --policy Exported_policy\u002Fwalk.pt --duration 100\n```\n\n### Sim2Real\nThe results of the TienKung-Lab have been successfully verified on the real **TienKung** robot.\n\nFor deployment details, refer to the repository [here](https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FDeploy_Tienkung.git).\n\n**Safety Notice:** Testing on real robot is risky. RL policy may cause unexpected or violent motions, so ensure accident insurance is in place and the emergency stop works.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_da164fa96f94.gif\" width=\"200\">\n\u003C\u002Fp>\n\n## Code formatting\n\nWe have a pre-commit template to automatically format your code.\nTo install pre-commit:\n\n```bash\npip install pre-commit\n```\n\nThen you can run pre-commit with:\n\n```bash\npre-commit run --all-files\n```\n\n## Troubleshooting\n\n### Pylance Missing Indexing of Extensions\n\nIn some VsCode versions, the indexing of part of the extensions is missing. In this case, add the path to your extension in `.vscode\u002Fsettings.json` under the key `\"python.analysis.extraPaths\"`.\n\n```json\n{\n    \"python.analysis.extraPaths\": [\n        \"${workspaceFolder}\u002Flegged_lab\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_tasks\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_mimic\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fextensions\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_assets\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_rl\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab\",\n    ]\n}\n```\n\n## Acknowledgement\n* [GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR):General Motion Retargeting.\n* [Legged Lab](https:\u002F\u002Fgithub.com\u002FHellod035\u002FLeggedLab): a direct IsaacLab Workflow for Legged Robots.\n* [Humanoid-Gym](https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym):a reinforcement learning (RL) framework based on NVIDIA Isaac Gym, with Sim2Sim support.\n* [RSL RL](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl): a fast and simple implementation of RL algorithms.\n* [AMP_for_hardware](https:\u002F\u002Fgithub.com\u002FAlescontrela\u002FAMP_for_hardware?tab=readme-ov-file): codebase for learning skills from short reference motions using Adversarial Motion Priors.\n* [Omni-Perception](https:\u002F\u002Facodedog.github.io\u002FOmniPerceptionPages\u002F): a perception library for legged robots, which provides a set of sensors and perception algorithms.\n* [Warp](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fwarp): a Python framework for writing high-performance simulation and graphics code.\n\n## Discussions\nIf you're interested in TienKung-Lab, welcome to join our WeChat group for discussions.\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_3a23bae7fdcc.png\" border=0 width=40%>\n\n","# TienKung-Lab: 直接面向TienKung的IsaacLab工作流\n\n[![IsaacSim](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIsaacSim-4.5.0-silver.svg)](https:\u002F\u002Fdocs.omniverse.nvidia.com\u002Fisaacsim\u002Flatest\u002Foverview.html)\n[![Isaac Lab](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FIsaacLab-2.1.0-silver)](https:\u002F\u002Fisaac-sim.github.io\u002FIsaacLab)\n[![RSL_RK](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRSL_RL-2.3.1-silver)](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)\n[![Python](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10-blue.svg)](https:\u002F\u002Fdocs.python.org\u002F3\u002Fwhatsnew\u002F3.10.html)\n[![Linux平台](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fplatform-linux--64-orange.svg)](https:\u002F\u002Freleases.ubuntu.com\u002F22.04\u002F)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-BSD--3-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause)\n[![pre-commit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--commit-enabled-brightgreen?logo=pre-commit&logoColor=white)](https:\u002F\u002Fpre-commit.com\u002F)\n\n\u003Cdiv align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_000e8d6d396b.jpg\" width=\"600\">\n  \u003Cbr>\n  \u003Cb>\u003Cspan style=\"font-size:1.2em;\">天穹人形机器人在首届人形机器人半程马拉松中夺冠\u003C\u002Fspan>\u003C\u002Fb>\n  \u003Cbr>\n\u003C\u002Fdiv>\n\n\n\n## 概述\n\n| 动作 |              AMP动画               |                     传感器                      |                   RL + AMP                    |                   Sim2Sim                   |\n| :----: | :--------------------------------------: | :----------------------------------------------: | :-------------------------------------------: | :-----------------------------------------: |\n|  步行  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_98587c5ec243.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_72f92535a232.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_8514e0940255.gif\" width=\"200\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_d6aee3fc63d1.gif\" width=\"200\"> |\n|  跑步   | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_438d852cc52b.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_017f20fe2369.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_c29eb94fdbde.gif\" width=\"200\">  | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_09994c3559b4.gif\" width=\"200\">  |\n\n本框架是一个基于强化学习的全尺寸人形机器人TienKung的运动控制系统。它将AMP风格的奖励与周期性步态奖励相结合，从而实现自然、稳定且高效的步行和跑步行为。\n\n该代码库基于IsaacLab构建，支持从IsaacSim到MuJoCo的Sim2Sim迁移，并采用模块化架构，便于无缝定制和扩展。此外，它还集成了基于光线投射的传感器以增强感知能力，从而实现精确的环境交互和障碍物规避。该框架已在真实的TienKung机器人上成功验证。\n\n## 待办事项\n- [x] 支持动作重定向 2025-09-27\n- [x] 添加Sim2Real演示 2025-11-07\n- [x] 添加部署[仓库](https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FDeploy_Tienkung.git)的超链接 2025-11-19\n- [ ] 添加更多传感器\n- [ ] 添加感知控制\n\n## 安装\nTienKung-Lab基于IsaacSim 4.5.0和IsaacLab 2.1.0构建。\n\n- 按照[安装指南](https:\u002F\u002Fisaac-sim.github.io\u002FIsaacLab\u002Fmain\u002Fsource\u002Fsetup\u002Finstallation\u002Findex.html)安装Isaac Lab。我们建议使用conda安装方式，因为它可以简化从终端调用Python脚本的过程。\n\n- 将本仓库单独克隆，不要与Isaac Lab安装目录合并（即不在`IsaacLab`目录内）。\n\n- 使用已安装Isaac Lab的Python解释器安装库：\n\n```bash\ncd TienKung-Lab\npip install -e .\n```\n\n- 安装rsl-rl库：\n\n```bash\ncd TienKung-Lab\u002Frsl_rl\npip install -e .\n```\n\n- 通过运行以下命令验证扩展是否正确安装：\n\n```bash\npython legged_lab\u002Fscripts\u002Ftrain.py --task=walk  --logger=tensorboard --headless --num_envs=64\n```\n\n## 使用方法\n\n### 动作重定向\n\n| AMASS  |  GMR               |                     TIENKUNGLAB                      | \n| :----: | :--------------------------------------: | :----------------------------------------------: | \n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_347f6344001e.gif\" height=\"150\">   | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_991a9bc4d977.gif\" height=\"150\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_769658f8e691.gif\" height=\"150\"> | \n\n本节使用[GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR)进行动作重定向。目前，TienKung仅支持SMPLX类型的动作重定向（AMASS、OMOMO）。\n\n**1. 准备数据集并使用[GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR)进行动作重定向。**\n```bash\npython scripts\u002Fsmplx_to_robot.py --smplx_file \u003Csmplx数据路径> --robot tienkung  --save_path \u003C保存机器人数据路径.pkl>\n```\n**2. 数据处理与保存。**\n\n数据集分为两个部分，功能和格式各不相同，需要分两步转换。\n\n- **`motion_visualization\u002F`**  \n  用于通过`play_amp_animation.py`播放动作，以检查动作的正确性和质量。  \n  数据字段：  [root_pos, root_rot, dof_pos, root_lin_vel, root_ang_vel, dof_vel]\n\n- **`motion_amp_expert\u002F`**  \n  在训练过程中作为AMP的专家参考数据使用。  \n  数据字段：  [dof_pos, dof_vel, end-effector pos]\n  \n- **第一步：数据处理与可视化数据保存。**\n\n```bash\npython legged_lab\u002Fscripts\u002Fgmr_data_conversion.py --input_pkl \u003C保存的机器人数据路径.pkl> --output_txt legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_visualization\u002Fmotion.txt\n```\n\n**注意**：在开始第二步之前，需将配置中的`amp_motion_files_display`路径设置为第一步生成的文件。\n\n- **第二步：动作可视化与专家数据保存。**\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1 --save_path legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_amp_expert\u002Fmotion.txt --fps 30.0\n```\n\n**注意**：完成第二步后，需将配置中的`amp_motion_files`路径设置为第二步生成的文件。\n\n### 可视化动作\n\n通过更新模拟中的tienkung\u002Fdatasets\u002Fmotion_visualization数据来可视化动作。\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run --num_envs=1\n```\n\n### 带传感器的动作可视化\n\n通过更新模拟中的tienkung\u002Fdatasets\u002Fmotion_visualization数据来带传感器地可视化动作。\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk_with_sensor --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run_with_sensor --num_envs=1\n```\n\n### 训练\n\n使用来自tienkung\u002Fdatasets\u002Fmotion_amp_expert的AMP专家数据训练策略。\n\n```bash\npython legged_lab\u002Fscripts\u002Ftrain.py --task=walk --headless --logger=tensorboard --num_envs=4096\npython legged_lab\u002Fscripts\u002Ftrain.py --task=run --headless --logger=tensorboard --num_envs=4096\n```\n\n### 演示\n\n运行训练好的策略。\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay.py --task=walk --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay.py --task=run --num_envs=1\n```\n\n### Sim2Sim(MuJoCo)\n\n在MuJoCo中评估训练好的策略，以进行跨仿真验证。\n\nExported_policy\u002F 目录包含项目提供的预训练策略。使用play脚本时，训练好的策略会自动导出并保存到类似 logs\u002Frun\u002F[timestamp]\u002Fexported\u002Fpolicy.pt 的路径。\n```bash\npython legged_lab\u002Fscripts\u002Fsim2sim.py --task walk --policy Exported_policy\u002Fwalk.pt --duration 100\n```\n\n### Sim2Real\nTienKung-Lab 的成果已在真实的 **TienKung** 机器人上成功验证。\n\n有关部署详情，请参阅此仓库：[Deploy_Tienkung](https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FDeploy_Tienkung.git)。\n\n**安全提示：** 在真实机器人上进行测试具有风险。强化学习策略可能导致意外或剧烈的动作，因此请确保已购买事故保险，并确认紧急停止功能正常工作。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_da164fa96f94.gif\" width=\"200\">\n\u003C\u002Fp>\n\n## 代码格式化\n\n我们提供了一个 pre-commit 模板，用于自动格式化您的代码。安装 pre-commit：\n\n```bash\npip install pre-commit\n```\n\n然后您可以运行以下命令来执行 pre-commit：\n```bash\npre-commit run --all-files\n```\n\n## 故障排除\n\n### Pylance 缺失扩展索引\n\n在某些版本的 VsCode 中，部分扩展的索引可能会缺失。此时，请在 `.vscode\u002Fsettings.json` 文件中，将您的扩展路径添加到 `\"python.analysis.extraPaths\"` 键下。\n\n```json\n{\n    \"python.analysis.extraPaths\": [\n        \"${workspaceFolder}\u002Flegged_lab\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_tasks\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_mimic\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fextensions\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_assets\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab_rl\",\n        \"\u003Cpath-to-IsaacLab>\u002Fsource\u002Fisaaclab\",\n    ]\n}\n```\n\n## 致谢\n* [GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR)：通用运动重定向。\n* [Legged Lab](https:\u002F\u002Fgithub.com\u002FHellod035\u002FLeggedLab)：适用于足式机器人的直接 IsaacLab 工作流。\n* [Humanoid-Gym](https:\u002F\u002Fgithub.com\u002Froboterax\u002Fhumanoid-gym)：基于 NVIDIA Isaac Gym 的强化学习（RL）框架，支持 Sim2Sim。\n* [RSL RL](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)：快速且简单的强化学习算法实现。\n* [AMP_for_hardware](https:\u002F\u002Fgithub.com\u002FAlescontrela\u002FAMP_for_hardware?tab=readme-ov-file)：利用对抗性运动先验从短参考运动中学习技能的代码库。\n* [Omni-Perception](https:\u002F\u002Facodedog.github.io\u002FOmniPerceptionPages\u002F)：面向足式机器人的感知库，提供一系列传感器和感知算法。\n* [Warp](https:\u002F\u002Fgithub.com\u002FNVIDIA\u002Fwarp)：用于编写高性能仿真和图形代码的 Python 框架。\n\n## 讨论\n如果您对 TienKung-Lab 感兴趣，欢迎加入我们的微信群进行交流讨论。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_readme_3a23bae7fdcc.png\" border=0 width=40%>","# TienKung-Lab 快速上手指南\n\nTienKung-Lab 是一个基于 IsaacLab 的全尺寸人形机器人“天工”（TienKung）强化学习运动控制框架。它集成了 AMP 风格奖励与周期性步态奖励，支持自然稳定的行走和奔跑行为，并具备 Sim2Sim（至 MuJoCo）及 Sim2Real 能力。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 22.04)\n*   **Python 版本**: 3.10\n*   **核心依赖**:\n    *   NVIDIA Isaac Sim 4.5.0\n    *   Isaac Lab 2.1.0\n    *   RSL_RL 2.3.1\n\n> **注意**：建议先按照 [Isaac Lab 官方安装指南](https:\u002F\u002Fisaac-sim.github.io\u002FIsaacLab\u002Fmain\u002Fsource\u002Fsetup\u002Finstallation\u002Findex.html) 完成基础环境的搭建，推荐使用 Conda 进行环境管理以简化终端调用。\n\n## 安装步骤\n\n请按照以下步骤克隆仓库并安装依赖。**注意：请将此仓库克隆在 Isaac Lab 安装目录之外。**\n\n1.  **克隆仓库**\n    ```bash\n    git clone \u003Crepository_url>\n    cd TienKung-Lab\n    ```\n\n2.  **安装主库**\n    使用已安装 Isaac Lab 的 Python 解释器执行：\n    ```bash\n    pip install -e .\n    ```\n\n3.  **安装 RSL-RL 库**\n    ```bash\n    cd TienKung-Lab\u002Frsl_rl\n    pip install -e .\n    cd ..\n    ```\n\n4.  **验证安装**\n    运行以下命令检查扩展是否正确安装（无头模式，64个环境）：\n    ```bash\n    python legged_lab\u002Fscripts\u002Ftrain.py --task=walk  --logger=tensorboard --headless --num_envs=64\n    ```\n\n## 基本使用\n\n### 1. 动作重定向与数据准备 (可选)\n如果您需要使用自定义动作数据，需先通过 [GMR](https:\u002F\u002Fgithub.com\u002FYanjieZe\u002FGMR) 进行重定向。目前仅支持 SMPLX 类型数据（如 AMASS, OMOMO）。\n\n*   **转换数据格式**：\n    ```bash\n    python scripts\u002Fsmplx_to_robot.py --smplx_file \u003Cpath_to_smplx_data> --robot tienkung  --save_path \u003Cpath_to_save_robot_data.pkl>\n    ```\n\n*   **生成可视化数据 (Step 1)**：\n    ```bash\n    python legged_lab\u002Fscripts\u002Fgmr_data_conversion.py --input_pkl \u003Cpath_to_save_robot_data.pkl> --output_txt legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_visualization\u002Fmotion.txt\n    ```\n    > **配置提示**：执行下一步前，请在配置文件中将 `amp_motion_files_display` 路径指向上述生成的文件。\n\n*   **生成 AMP 专家数据 (Step 2)**：\n    ```bash\n    python legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1 --save_path legged_lab\u002Fenvs\u002Ftienkung\u002Fdatasets\u002Fmotion_amp_expert\u002Fmotion.txt --fps 30.0\n    ```\n    > **配置提示**：执行训练前，请在配置文件中将 `amp_motion_files` 路径指向此步生成的文件。\n\n### 2. 运动可视化\n查看预定义或处理后的动作效果：\n\n*   **基础动作回放**：\n    ```bash\n    # 行走\n    python legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk --num_envs=1\n    # 奔跑\n    python legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run --num_envs=1\n    ```\n\n*   **带传感器信息的动作回放**：\n    ```bash\n    python legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=walk_with_sensor --num_envs=1\n    python legged_lab\u002Fscripts\u002Fplay_amp_animation.py --task=run_with_sensor --num_envs=1\n    ```\n\n### 3. 策略训练\n使用 AMP 专家数据进行强化学习训练：\n\n```bash\n# 训练行走策略\npython legged_lab\u002Fscripts\u002Ftrain.py --task=walk --headless --logger=tensorboard --num_envs=4096\n\n# 训练奔跑策略\npython legged_lab\u002Fscripts\u002Ftrain.py --task=run --headless --logger=tensorboard --num_envs=4096\n```\n\n### 4. 策略测试 (Play)\n加载训练好的策略进行仿真测试：\n\n```bash\npython legged_lab\u002Fscripts\u002Fplay.py --task=walk --num_envs=1\npython legged_lab\u002Fscripts\u002Fplay.py --task=run --num_envs=1\n```\n\n### 5. Sim2Sim 验证 (MuJoCo)\n将训练好的策略导出并在 MuJoCo 中进行跨仿真器验证，以评估泛化能力：\n\n```bash\npython legged_lab\u002Fscripts\u002Fsim2sim.py --task walk --policy Exported_policy\u002Fwalk.pt --duration 100\n```\n*注：训练过程中策略会自动导出至 `logs\u002Frun\u002F[timestamp]\u002Fexported\u002Fpolicy.pt`，也可使用项目提供的预训练模型。*\n\n### 6. Sim2Real 真机部署\n该框架已在真实的“天工”机器人上验证成功。具体的真机部署代码和细节请参考独立仓库：[Deploy_Tienkung](https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FDeploy_Tienkung.git)。\n\n> **⚠️ 安全警告**：真机测试存在风险。强化学习策略可能导致不可预测或剧烈的动作。请务必确保急停按钮正常工作，并做好安全防护措施。","某具身智能研发团队正致力于为人形机器人“天工”开发一套能在复杂地形中稳定奔跑与行走的运动控制算法，目标是让机器人具备类似人类的自然步态并适应真实物理环境。\n\n### 没有 TienKung-Lab 时\n- **仿真环境搭建繁琐**：团队需手动整合 Isaac Sim 与底层物理引擎，配置人形机器人的 URDF 模型、关节限制及传感器参数，耗时数周且极易出现仿真与实机不一致的“Reality Gap”。\n- **步态自然度难以调优**：传统强化学习奖励函数难以捕捉人类运动的细微特征，导致机器人动作僵硬、机械感强，缺乏 AMP（Adversarial Motion Priors）带来的生物力学自然感。\n- **跨平台迁移成本高**：从 NVIDIA Isaac 仿真环境迁移到 MuJoCo 或其他验证平台时，需重写大量接口代码，Sim2Sim（仿真到仿真）验证流程断裂，迭代效率低下。\n- **感知与控制割裂**：缺乏集成的射线铸造（Ray-casting）传感器支持，团队需额外开发环境感知模块，导致避障逻辑与运动控制策略难以协同优化。\n\n### 使用 TienKung-Lab 后\n- **开箱即用的工作流**：基于 IsaacLab 2.1.0 构建的标准化流程，预置了天工机器人的完整模型与传感器配置，团队可直接通过 `pip install` 快速启动训练，将环境搭建时间缩短至小时级。\n- **原生支持 AMP 自然步态**：内置 AMP 风格奖励与周期性步态奖励机制，直接利用 AMASS 等运动数据集进行模仿学习，使机器人快速学会流畅、自然的行走与奔跑动作。\n- **无缝的 Sim2Sim 验证**：框架原生支持向 MuJoCo 的物理迁移，团队可在不同仿真器间无缝切换验证算法鲁棒性，确保控制策略在不同物理引擎下的一致性。\n- **集成化感知控制**：直接调用内置的射线铸造传感器接口，实现环境深度感知与障碍物规避，让运动控制与感知决策在同一框架下闭环优化，大幅提升复杂场景适应性。\n\nTienKung-Lab 通过提供标准化的 IsaacLab 工作流与先进的 AMP 模仿学习机制，显著降低了人形机器人运动控制算法的研发门槛与迭代周期，加速了从仿真到真机的部署进程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOpen-X-Humanoid_TienKung-Lab_000e8d6d.jpg","Open-X-Humanoid","Open X-Humanoid","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOpen-X-Humanoid_b5916e55.png","the first innovation center in China that focuses on the core technology, product development, and application ecosystem construction of humanoid robots.",null,"opensource@x-humanoid.com","https:\u002F\u002Fopensource.x-humanoid-cloud.com\u002F","https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,663,92,"2026-04-02T17:19:46","NOASSERTION",4,"Linux","需要支持 Isaac Sim 4.5.0 的 NVIDIA GPU（具体型号和显存未说明，通常建议 RTX 3090\u002F4090 或 A系列，显存 24GB+ 以获得最佳性能），需安装与 Isaac Sim 兼容的 CUDA 版本","未说明",{"notes":98,"python":99,"dependencies":100},"1. 仅支持 Linux-64 平台（徽章显示 Ubuntu 22.04）。2. 强烈建议使用 conda 安装 Isaac Lab 以简化环境管理。3. 代码库需克隆在 Isaac Lab 目录之外。4. 运动重定向目前仅支持 SMPLX 类型的数据（如 AMASS, OMOMO）。5. 真机部署存在风险，需确保急停功能正常并购买意外保险。","3.10",[101,102,103,104,105,106,107],"IsaacSim==4.5.0","IsaacLab==2.1.0","rsl_rl==2.3.1","GMR","MuJoCo","TensorBoard","pre-commit",[13,54],[110,111,112,113,114,115,116],"embodied-ai","humanoid-robot","reinforcement-learning","sim2sim","tienkung","isaaclab","isaacsim","2026-03-27T02:49:30.150509","2026-04-06T05:32:18.923204",[120,125,130,135,140,144],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},11267,"在 Sim2Sim 和真机部署中，Actor 的观测空间（Observation）是否需要包含线性速度？","不需要。该存储库基于原始的 LeggedLab，其中并不包含线性速度作为观测输入，但策略仍然可以在机器人上正常运行。因此，在 sim2sim 测试和实机部署时，无需强制加入线性速度观测。","https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FTienKung-Lab\u002Fissues\u002F1",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},11268,"训练人形机器人步态时，Agent 不向前移动、单脚踮脚尖并摆臂，可能是什么原因？","这通常是因为策略使用的是基于风格的学习（style-based learning）而不是模仿学习（mimic）。如果修改奖励函数后机器人能走但姿态不自然（如脚底不平行接触地面、内八或外八），可能需要调整具体的奖励项权重，例如终止惩罚、脚部受力以及步态周期性奖励等，以引导更自然的足部接触。","https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FTienKung-Lab\u002Fissues\u002F16",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},11269,"如果在训练时使用隐式 PD 控制器，如何部署到实机？仿真中通过巨大阻尼模拟，但实机电机无法提供如此大的阻尼。","可以参考 Issue #21 中的讨论方案。虽然在关节驱动上直接添加巨大阻尼有时会导致仿真不稳定，但采用社区讨论中的替代方案是可以运行的。通常这意味着在实机部署时需要调整控制逻辑或增益，以适配真实电机的物理特性，而不是直接套用仿真中的高阻尼设置。","https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FTienKung-Lab\u002Fissues\u002F45",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},11270,"从 URDF 导出 MuJoCo 的 .xml 文件时报错 \"empty name in material\"，如何解决？","这通常是由于 URDF 转换工具（如 urdf2mjcf）生成的 XML 文件中存在未命名的材质元素。此外，如果在 Isaac Sim 中训练良好但在 MuJoCo 中频繁摔倒，可能是由于 Isaac Sim 和 MuJoCo 之间的关节顺序（joint ordering）不匹配导致的。请检查并修正 XML 文件中的材质命名，并确保两个仿真环境中的关节定义顺序一致。","https:\u002F\u002Fgithub.com\u002FOpen-X-Humanoid\u002FTienKung-Lab\u002Fissues\u002F15",{"id":141,"question_zh":142,"answer_zh":143,"source_url":139},11271,"如何使用自由度较多的机器人版本（如 Pro 版，20+ DOF）运行仅针对较少自由度（如 Lite 版，20 DOF）训练的策略？","你可以修改 `sim2sim.py` 中发送关节动作给 MuJoCo 的部分。具体做法是保持网络的输入和输出不变，手动将策略未控制的额外关节（例如 Pro 版多出的 10 个关节）的位置命令设置为零。这样，受控的 20 个关节由训练好的策略驱动，而额外的关节则固定在零位。代码示例：在 `self.data.ctrl = self.position_control()` 相关逻辑中进行掩码处理或赋值。",{"id":145,"question_zh":146,"answer_zh":147,"source_url":139},11272,"AMP 数据是否会影响 MuJoCo 中的 Sim2Sim 迁移效果？","AMP 数据本身不会影响 MuJoCo 中的 Sim2Sim 迁移，它仅在训练阶段起作用。如果在 Sim2Sim 中出现问题，更可能的原因是仿真模型本身的差异（如关节顺序、物理参数等），而非 AMP 数据集的问题。",[]]