[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Teddy-Liao--walk-these-ways-go2":3,"tool-Teddy-Liao--walk-these-ways-go2":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":84,"owner_website":84,"owner_url":85,"languages":86,"stars":111,"forks":112,"last_commit_at":113,"license":114,"difficulty_score":115,"env_os":116,"env_gpu":117,"env_ram":118,"env_deps":119,"category_tags":127,"github_topics":128,"view_count":10,"oss_zip_url":84,"oss_zip_packed_at":84,"status":22,"created_at":135,"updated_at":136,"faqs":137,"releases":173},2487,"Teddy-Liao\u002Fwalk-these-ways-go2","walk-these-ways-go2","Deploy walk-these-ways project on Unitree Go2","walk-these-ways-go2 是一个专为宇树科技（Unitree）Go2 四足机器人设计的开源项目，旨在实现从仿真环境到真实世界的运动控制部署。该项目基于 Improbable-AI 开发的 walk-these-ways 框架进行改编，核心目标是让 Go2 机器人能够像其前代产品 Go1 一样，具备灵活、稳定的行走能力。\n\n这一工具主要解决了新一代 Go2 机器人在开发适配上的技术断层问题。由于 Go2 采用了全新的 unitree_sdk2 架构，不再依赖传统的 UDP 通信协议，导致原本适用于 Go1 或 A1 的控制代码无法直接复用。walk-these-ways-go2 通过修改底层 SDK 接口，并引入轻量级通信编组（LCM）技术，成功打通了高层策略与底层控制之间的数据链路，实现了传感器数据、电机指令及手柄状态的高效传输。\n\n该项目特别适合具备一定编程基础的机器人开发者、研究人员以及强化学习爱好者使用。用户需要熟悉 Python 和 C++ 开发环境，并拥有配备 Nvidia GPU（至少 8GB 显存）的计算设备以支持 Isaac Gym 仿真训练。目前，训练好","walk-these-ways-go2 是一个专为宇树科技（Unitree）Go2 四足机器人设计的开源项目，旨在实现从仿真环境到真实世界的运动控制部署。该项目基于 Improbable-AI 开发的 walk-these-ways 框架进行改编，核心目标是让 Go2 机器人能够像其前代产品 Go1 一样，具备灵活、稳定的行走能力。\n\n这一工具主要解决了新一代 Go2 机器人在开发适配上的技术断层问题。由于 Go2 采用了全新的 unitree_sdk2 架构，不再依赖传统的 UDP 通信协议，导致原本适用于 Go1 或 A1 的控制代码无法直接复用。walk-these-ways-go2 通过修改底层 SDK 接口，并引入轻量级通信编组（LCM）技术，成功打通了高层策略与底层控制之间的数据链路，实现了传感器数据、电机指令及手柄状态的高效传输。\n\n该项目特别适合具备一定编程基础的机器人开发者、研究人员以及强化学习爱好者使用。用户需要熟悉 Python 和 C++ 开发环境，并拥有配备 Nvidia GPU（至少 8GB 显存）的计算设备以支持 Isaac Gym 仿真训练。目前，训练好的策略模型主要通过 PC 或笔记本电脑进行部署，尚未完全适配 Jetson Orin 等嵌入式平台。\n\n技术亮点方面，walk-these-ways-go2 不仅提供了完整的训练与推理流程，还预置了经过步态条件敏捷性训练的 Go2 模型，用户可直接加载体验或基于此进行二次开发。此外，项目详细说明了 LCM 消息类型的配置与编译方法，为希望深入理解 Sim-to-Real（仿真到现实）迁移技术的用户提供了宝贵的参考实例。","# Sim-to-Real project on Unitree Go2\n\n## Overview \n\nThis repository is forked from [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways), which is a Go1 Sim-to-Real Locomotion Starter Kit. It seems that [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) can be untilized on Unitree [A1](https:\u002F\u002Fgithub.com\u002Ffan-ziqi\u002Fdog_rl_deploy) with simple modifications, since those robots are base on [unitree-legged-sdk](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_legged_sdk). \n\nHowever, the brand-new architecture [unitree-sdk2 ](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2)is not based on UDP anymore, so this project aims to train and deploy walk-these-ways on Unitree Go2 by modifying SDK interfaces.\n\n## Requirements \n* miniconda\n* pytorch 1.10 with cuda-11.3\n* Isaac Gym\n* Nvidia GPU with at least 8GB of VRAM\n\n---\n## Train and Play\nClone this repository and install:\n\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2.git\ncd walk-these-ways-go2\npip install -e .\n```\n\nStart training: \n```bash\npython scripts\u002Ftrain.py\n```\n\n`go2_gym` and `go2_gym_learn` folders are the main folders for training process.\n\nPlay the model:\n```bash\ncd scripts\npython play.py\n```\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_f2d3cccde960.jpg)\n\nGo2 pretrained model is provided in [.\u002Fruns](runs\u002Fgait-conditioned-agility\u002Fpretrain-go2), you can choose whether to use provide pretrained model by modifying the label line `label = \"gait-conditioned-agility\u002Fpretrain-go2\u002Ftrain\"` to your own trained model.\n\n### Known Issues\n* `flip_visual_attachments` in [go2_config](go2_gym\u002Fenvs\u002Fgo2\u002Fgo2_config.py) should be set to `True`, otherwise errors would occur when visualizing.\n* To change configuration parameters of env or the robot, you should modify parameters in [go2_config](go2_gym\u002Fenvs\u002Fgo2\u002Fgo2_config.py), not in [legged_robot_config](go2_gym\u002Fenvs\u002Fbase\u002Flegged_robot_config.py)\n\n\n---\n## Deploy on PC\nTrained policy is only supported to be deployed through your PC or laptop now, because I am not familiar with Jetson Orin, and hope I can fix it and deploy on Jetson Orin.\n\n### Requirements\n#### Install LCM\nSince [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) implement an interface based on Lightweight Communications and Marshalling ([LCM](https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm)) to pass sensor data, motor commands, and joystick state between their code and the low-level control SDK provided by Unitree, LCM should be installed firstly in your PC or laptlop.\n\nClone LCM repository to any location (where you usually place installed softwares), then install LCM:\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm.git\nmkdir build\ncd build\ncmake ..\nmake\nsudo make install\n```\n\n#### Unitree_SDK2\nunitree_sdk2 has been inclued in `go2_gym_deploy\u002Funitree_sdk2_bin\u002Flibrary\u002Funitree_sdk2`,  you can also clone from [Unitree Robotics](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2) to make sure the sdk is updated version.\n\n```bash\ncd go2_gym_deploy\u002Funitree_sdk2_bin\u002Flibrary\u002Funitree_sdk2\n```\nDelete build file\n```bash\nrm -r build\n```\nInstall and build:\n```bash\nsudo .\u002Finstall.sh\nmkdir build\ncd build\ncmake ..\nmake\n```\n\n### Build lcm_position_go2\n`go2_gym_deploy\u002Funitree_sdk2_bin\u002Flcm_position_go2.cpp` is the core file of this project, which is similar to `lcm_position.cpp` in [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways), but replace unitree_legged_sdk with unitree_sdk2.\n\nBuild lcm_position_go2 and generate runfile `lcm_position_go2`\n```bash\ncd go2_gym_deploy\nrm -r build\nmkdir build\ncd build\ncmake ..\nmake -j\n```\n\nAll LCM messages files in `go2_gym_deploy\u002Flcm_types` are set as the same format shown in [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) to ensure successful connection with python files. LCM message files are provided in this project, and you can also generate customized LCM message files through the following instructions: \n\n`xxx_lcmt.hpp` files are generated by:\n```bash\nlcm-gen -x xxx.lcm\n```\n\n### Verify connection\nConnect your PC\u002FLaptop with Go2 robot with ethernet cable and check connection by:\n```bash\nping 192.168.123.161\n```\n\nCheck the network interface address, and copy the network interface address.\n```bash\nifconfig\n```\nIf error occurs, please check [Unitree Support](https:\u002F\u002Fsupport.unitree.com\u002Fhome\u002Fzh\u002Fdeveloper\u002FQuick_start) for details.\n\n### Test communication between LCM and unitree_sdk2\nYou can verify LCM send by opening a new terminal:\n```bash\ncd go2_gym_deploy\u002Fbuild\nsudo .\u002Flcm_receive\n```\n\nIf LCM and unitree_sdk2 are correctly connected with each other, messages will be shown in the terminal:\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_a723820c3ef4.png)\n\n### Start LCM\nBefore starting LCM, ensure that lcm_receive has been properly shut down. \n**It's important not to run lcm_receive and lcm_position_go2 simultaneously.**\n\n```bash\ncd go2_gym_deploy\u002Fbuild\nsudo .\u002Flcm_position_go2 eth0\n```\nReplace `eth0` with your own network interface address. According to the messages shown in terminal, press `Enter` for several times and the communication between LCM and unitree_sdk2 will set up.\n\nThis command will automatically shut down Unitree sport_mode Service and set the robot to LOW-LEVEL. Please make sure This will Go2 is hung up or lie on the ground.\n\n\n### Load and run policy\nOpen a new terminate and run:\n```bash\ncd go2_gym_deploy\u002Fscripts\npython deploy_policy.py\n```\nAccording to the hints shown in terminal, Press button [R2] to start the controller. You can check RC mapping in the following subsection.\n\n\n### Joystick Mapping\n\n![Joystick Mapping](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_7374726665e0.png)\n\n\nTo view the details of joystick mapping or even modify default mapping logic, please refer to the `get_command` function within the [cheetah_state_estimator.py](go2_gym_deploy\u002Futils\u002Fcheetah_state_estimator.py) file. In this project, the default gait is set to trot.\n\n\n**Caution**:\n* Press [L2+B] to switch to damping mode if any unexpected situation occurs!!!\n* This is research code; use at your own risk; we do not take responsibility for any damage.\n\nTest Video on Unitree Go2: \n- Test in my bedroom: https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1tQ4y1c7ZG\u002F?spm_id_from=333.999.0.0&vd_source=07873ebe2a113dac57775e264a210929\n- Test by other contributors: https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Ut421H7Fr\u002F?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=07873ebe2a113dac57775e264a210929\n\n\n---\n## Deploy on Nvidia Jetson Orin\n\nThe Unitree Go2 robot is equipped with an onboard Nvidia Jetson Orin Nano\u002FNX, which operates on an ARM-based architecture. Default information of this onboard computer is shown below, and you can connnect to Jetson by SSH, VScode(remote development) or plugging a HDMI cable.\n\n```\nIP:192.168.123.18\nuser name：unitree\npassword：123\n```\n\n### Requirements for Jetson\n- cuda\n- pytorch\n- miniconda (Omitted here; please install it by yourself)\n- cudnn (Omitted here; please install it by yourself)\n\n\nTwo different ways are provided to set up correct environments in Jetson: through Internet or through Docker.\n\n### Through Internet\nConnecting a Nvidia Jetson device to the internet can be done in two primary ways:\n\n1. **Wired Connection**: Directly plug an Ethernet cable with internet access into the Jetson's Ethernet port. This method provides a stable and fast internet connection, suitable for tasks that require high bandwidth or low latency.\n\n2. **Wireless Connection via USB Wi-Fi Adapter**: Purchase a USB Wi-Fi adapter compatible with the Jetson device. This method adds wireless connectivity, offering the flexibility to connect to the internet without the need for physical cables. However, it's important to ensure the USB Wi-Fi adapter is supported by the Jetson's operating system and drivers.\n\n\n\n#### Check Jetpack Version\nJetpack toolbox has been preinstalled on Jetson, you should check the jetpack vertsion firstly.\n```bash\nsudo -H pip install jetson-stats  #Install jetson-stats toolkit\nsudo jtop\n```\nAccording to the detail information printed in the terminal window, the Jetpack version of my Unitree Go2 is `Jetpack 5.1.1 [L4T 35.3.1]`\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_3c886b116de1.png)\n\nYou can also check libraries that have been preinstalled: \n```bash\nsudo jetson_release\n```\n#### Install cuda for jetson\nCheck if there is a preinstalled version of cuda. \n```bash\nnvcc -V # check preinstalled cuda version\n```\n\nIf the preinstalled version if too high, you should uninstall it because, for instance, there is no Pytorch version that is compatible with cuda-12.2.\n\n```bash\nsudo apt-get remove cuda\nsudo apt autoremove \nsudo apt-get remove cuda*\nsudo dpkg -l |grep cuda # check if any residual cuda file exists\nsudo dpkg -P Residual filename\n```\n\nPersonally, I recommend to install cuda-11.8. Click the link, [CUDA Toolkit 11.8 Downloads](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-8-0-download-archive?target_os=Linux&target_arch=aarch64-jetson&Compilation=Native&Distribution=Ubuntu&target_version=20.04&target_type=deb_local) , to check installation commands.\n\n#### Install Pytorch for Jetson\n\nPlease [download](https:\u002F\u002Fforums.developer.nvidia.com\u002Ft\u002Fpytorch-for-jetson\u002F72048) pre-built PyTorch pip wheel installers for Jetson Nano, which is different from the way we install Pytorch on PC. Note that correct pytorch version should be chosen to make it compatible with specific version of cuda and Jetpack. \n\n#### Run codes without cable\nAs long as the environment and requirements on the Jetson are properly configured, you can follow the same deployment guidelines as you would on a PC. This liberates the robot! Now, you can test the code cable-free, offering more freedom to the robot's movements and applications.\n\n### Through Docker\n\nTo be continue ...\n\n--- \n\n🌟🌟🌟  **Please star this repository if it does help you! Many Thanks!** 🌟🌟🌟 \n\n\n---\n## Acknowledgements\n* Many thanks to [Leolar](https:\u002F\u002Fgithub.com\u002FNihaoyaLeolar), who provide Nvidia 3060ti and supporting.\n* Many thanks to [Jony](https:\u002F\u002Fgithub.com\u002Fjonyzhang2023) and Peter for their support and encourage me to learn basic kownledge about RL.\n* Many thanks to [Simonforyou](https:\u002F\u002Fgithub.com\u002FSimonforyou), who provide Go2 pretrained model.\n\n---\n## TO DO\n- [x] Do not inherit config and env from go1_gym, build customized config and env files for Go2\n- [x] Deploy on Jeston Orin Nano\n- [ ] Deploy through Docker\n","# Unitree Go2 上的 Sim-to-Real 项目\n\n## 概述\n\n本仓库基于 [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) 分叉而来，后者是一个用于 Go1 的 Sim-to-Real 行走运动入门套件。由于这些机器人均基于 [unitree-legged-sdk](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_legged_sdk)，因此只需进行简单修改，便可在 Unitree [A1](https:\u002F\u002Fgithub.com\u002Ffan-ziqi\u002Fdog_rl_deploy) 上使用 [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways)。\n\n然而，全新的架构 [unitree-sdk2 ](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2) 已不再基于 UDP，因此本项目旨在通过修改 SDK 接口，在 Unitree Go2 上训练并部署 walk-these-ways。\n\n## 需求\n* Miniconda\n* PyTorch 1.10（支持 CUDA 11.3）\n* Isaac Gym\n* 至少配备 8GB 显存的 NVIDIA GPU\n\n---\n## 训练与运行\n克隆本仓库并安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2.git\ncd walk-these-ways-go2\npip install -e .\n```\n\n开始训练：\n```bash\npython scripts\u002Ftrain.py\n```\n\n`go2_gym` 和 `go2_gym_learn` 文件夹是训练过程的主要目录。\n\n运行模型：\n```bash\ncd scripts\npython play.py\n```\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_f2d3cccde960.jpg)\n\nGo2 预训练模型位于 [.\u002Fruns](runs\u002Fgait-conditioned-agility\u002Fpretrain-go2)，您可以通过修改 `label = \"gait-conditioned-agility\u002Fpretrain-go2\u002Ftrain\"` 这一行来选择是否使用提供的预训练模型，或替换为您自己训练的模型。\n\n### 已知问题\n* 在 [go2_config](go2_gym\u002Fenvs\u002Fgo2\u002Fgo2_config.py) 中，`flip_visual_attachments` 应设置为 `True`，否则在可视化时会出现错误。\n* 若要更改环境或机器人的配置参数，应修改 [go2_config](go2_gym\u002Fenvs\u002Fgo2\u002Fgo2_config.py) 中的参数，而非 [legged_robot_config](go2_gym\u002Fenvs\u002Fbase\u002Flegged_robot_config.py)。\n\n---\n## PC 上的部署\n目前，训练好的策略仅支持通过您的 PC 或笔记本电脑进行部署，因为我对 Jetson Orin 并不熟悉，希望未来能够解决这一问题并在 Jetson Orin 上完成部署。\n\n### 需求\n#### 安装 LCM\n由于 [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) 实现了一个基于 Lightweight Communications and Marshalling ([LCM](https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm)) 的接口，用于在其代码与 Unitree 提供的底层控制 SDK 之间传递传感器数据、电机指令和操纵杆状态，因此首先需要在您的 PC 或笔记本电脑上安装 LCM。\n\n将 LCM 仓库克隆到任意位置（通常放置已安装软件的地方），然后安装 LCM：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm.git\nmkdir build\ncd build\ncmake ..\nmake\nsudo make install\n```\n\n#### Unitree_SDK2\nunitree_sdk2 已包含在 `go2_gym_deploy\u002Funitree_sdk2_bin\u002Flibrary\u002Funitree_sdk2` 中，您也可以从 [Unitree Robotics](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2) 克隆以确保 SDK 是最新版本。\n\n```bash\ncd go2_gym_deploy\u002Funitree_sdk2_bin\u002Flibrary\u002Funitree_sdk2\n```\n删除构建文件：\n```bash\nrm -r build\n```\n安装并构建：\n```bash\nsudo .\u002Finstall.sh\nmkdir build\ncd build\ncmake ..\nmake\n```\n\n### 构建 lcm_position_go2\n`go2_gym_deploy\u002Funitree_sdk2_bin\u002Flcm_position_go2.cpp` 是该项目的核心文件，它类似于 [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) 中的 `lcm_position.cpp`，但将 unitree_legged_sdk 替换为 unitree_sdk2。\n\n构建 lcm_position_go2 并生成可执行文件 `lcm_position_go2`：\n```bash\ncd go2_gym_deploy\nrm -r build\nmkdir build\ncd build\ncmake ..\nmake -j\n```\n\n`go2_gym_deploy\u002Flcm_types` 中的所有 LCM 消息文件均采用与 [walk-these-ways](https:\u002F\u002Fgithub.com\u002FImprobable-AI\u002Fwalk-these-ways) 相同的格式，以确保与 Python 文件成功连接。本项目提供了 LCM 消息文件，您也可以按照以下说明生成自定义的 LCM 消息文件：\n\n`xxx_lcmt.hpp` 文件由以下命令生成：\n```bash\nlcm-gen -x xxx.lcm\n```\n\n### 验证连接\n使用以太网线将您的 PC\u002F笔记本电脑与 Go2 机器人连接，并通过以下命令检查连接：\n```bash\nping 192.168.123.161\n```\n\n查看网络接口地址，并复制该地址：\n```bash\nifconfig\n```\n如果出现错误，请参考 [Unitree 支持](https:\u002F\u002Fsupport.unitree.com\u002Fhome\u002Fzh\u002Fdeveloper\u002FQuick_start) 获取详细信息。\n\n### 测试 LCM 与 unitree_sdk2 之间的通信\n您可以通过打开一个新的终端来验证 LCM 是否发送成功：\n```bash\ncd go2_gym_deploy\u002Fbuild\nsudo .\u002Flcm_receive\n```\n\n如果 LCM 和 unitree_sdk2 正确连接，终端中将显示消息：\n\n![Alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_a723820c3ef4.png)\n\n### 启动 LCM\n在启动 LCM 之前，请确保 lcm_receive 已经正确关闭。**请注意，不要同时运行 lcm_receive 和 lcm_position_go2。**\n\n```bash\ncd go2_gym_deploy\u002Fbuild\nsudo .\u002Flcm_position_go2 eth0\n```\n将 `eth0` 替换为您自己的网络接口地址。根据终端中显示的消息，多次按下回车键，即可建立 LCM 与 unitree_sdk2 之间的通信。\n\n此命令会自动关闭 Unitree 的 sport_mode 服务，并将机器人设置为低级模式。请确保 Go2 处于悬空或平躺状态。\n\n### 加载并运行策略\n打开一个新的终端并运行：\n```bash\ncd go2_gym_deploy\u002Fscripts\npython deploy_policy.py\n```\n根据终端中的提示，按下 [R2] 键启动控制器。RC 映射可在下文查看。\n\n### 操纵杆映射\n\n![操纵杆映射](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_7374726665e0.png)\n\n\n要查看操纵杆映射的详细信息，或甚至修改默认的映射逻辑，请参阅 [cheetah_state_estimator.py](go2_gym_deploy\u002Futils\u002Fcheetah_state_estimator.py) 文件中的 `get_command` 函数。在本项目中，缺省步态设置为小跑。\n\n**注意**：\n* 如发生任何意外情况，请按下 [L2+B] 切换至阻尼模式！！！\n* 本代码为研究用途，请自行承担风险；我们不对任何损害承担责任。\n\nUnitree Go2 上的测试视频：\n- 我的卧室测试：https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1tQ4y1c7ZG\u002F?spm_id_from=333.999.0.0&vd_source=07873ebe2a113dac57775e264a210929\n- 其他贡献者的测试：https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Ut421H7Fr\u002F?spm_id_from=333.1007.top_right_bar_window_history.content.click&vd_source=07873ebe2a113dac57775e264a210929\n\n\n---\n## Nvidia Jetson Orin 上的部署\n\nUnitree Go2 机器人配备了一块基于 ARM 架构的 Nvidia Jetson Orin Nano\u002FNX 板载计算机。该板载计算机的默认信息如下，您可以使用 SSH、VScode（远程开发）或 HDMI 线缆连接到 Jetson。\n\n```\nIP:192.168.123.18\n用户名：unitree\n密码：123\n```\n\n### Jetson 的需求\n- CUDA\n- PyTorch\n- Miniconda（此处省略；请自行安装）\n- cuDNN（此处省略；请自行安装）\n\n\n为了在 Jetson 上搭建正确的环境，提供了两种方法：通过互联网或通过 Docker。\n\n### 通过互联网\n将 Nvidia Jetson 设备连接到互联网主要有两种方式：\n\n1. **有线连接**：直接将带有互联网接入的以太网电缆插入 Jetson 的以太网端口。这种方式提供稳定且快速的互联网连接，适用于需要高带宽或低延迟的任务。\n\n2. **通过 USB Wi‑Fi 适配器的无线连接**：购买一个与 Jetson 设备兼容的 USB Wi‑Fi 适配器。这种方法增加了无线连接功能，使您无需物理电缆即可连接到互联网。不过，务必确保该 USB Wi‑Fi 适配器受 Jetson 操作系统及驱动程序的支持。\n\n\n\n#### 检查 Jetpack 版本\nJetson 上已预装了 Jetpack 工具箱，因此您应首先检查 Jetpack 的版本。\n```bash\nsudo -H pip install jetson-stats  # 安装 jetson-stats 工具包\nsudo jtop\n```\n根据终端窗口中显示的详细信息，我的 Unitree Go2 的 Jetpack 版本为 `Jetpack 5.1.1 [L4T 35.3.1]`。\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_readme_3c886b116de1.png)\n\n您还可以检查已预装的库：\n```bash\nsudo jetson_release\n```\n\n#### 为 Jetson 安装 CUDA\n检查是否已预装 CUDA 版本。\n```bash\nnvcc -V # 检查预装的 CUDA 版本\n```\n\n如果预装的版本过高，您应该将其卸载，例如，目前没有与 CUDA 12.2 兼容的 PyTorch 版本。\n\n```bash\nsudo apt-get remove cuda\nsudo apt autoremove \nsudo apt-get remove cuda*\nsudo dpkg -l |grep cuda # 检查是否存在残留的 CUDA 文件\nsudo dpkg -P 残留文件名\n```\n\n我个人建议安装 CUDA 11.8。请点击链接 [CUDA Toolkit 11.8 下载](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-8-0-download-archive?target_os=Linux&target_arch=aarch64-jetson&Compilation=Native&Distribution=Ubuntu&target_version=20.04&target_type=deb_local)，查看安装命令。\n\n#### 为 Jetson 安装 PyTorch\n\n请从 [这里](https:\u002F\u002Fforums.developer.nvidia.com\u002Ft\u002Fpytorch-for-jetson\u002F72048)下载为 Jetson Nano 预编译的 PyTorch pip 轮子安装包，这与在 PC 上安装 PyTorch 的方式不同。请注意，必须选择与特定版本的 CUDA 和 Jetpack 兼容的正确 PyTorch 版本。\n\n#### 无缆运行代码\n只要在 Jetson 上正确配置了环境和所需依赖，您就可以按照与在 PC 上相同的部署指南进行操作。这样一来，机器人就不再受电缆束缚了！现在您可以无需电缆测试代码，从而为机器人的运动和应用提供更多自由度。\n\n### 通过 Docker\n\n待续……\n\n---\n\n🌟🌟🌟  **如果您觉得本项目对您有帮助，请给它点个赞！非常感谢！** 🌟🌟🌟 \n\n\n---\n## 致谢\n* 非常感谢 [Leolar](https:\u002F\u002Fgithub.com\u002FNihaoyaLeolar)，他提供了 Nvidia 3060ti 显卡及相关支持。\n* 非常感谢 [Jony](https:\u002F\u002Fgithub.com\u002Fjonyzhang2023) 和 Peter 对我的支持，并鼓励我学习强化学习的基础知识。\n* 非常感谢 [Simonforyou](https:\u002F\u002Fgithub.com\u002FSimonforyou)，他提供了 Go2 的预训练模型。\n\n---\n## 待办事项\n- [x] 不再继承 go1_gym 的配置和环境，为 Go2 构建自定义的配置和环境文件\n- [x] 在 Jeston Orin Nano 上部署\n- [ ] 通过 Docker 部署","# walk-these-ways-go2 快速上手指南\n\n本项目旨在将 `walk-these-ways` 强化学习 locomotion 框架适配至宇树科技（Unitree）Go2 机器狗，支持从仿真训练到真机部署的全流程。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**：Linux (推荐 Ubuntu)\n*   **硬件**：\n    *   NVIDIA GPU（显存至少 8GB）\n    *   PC 或笔记本电脑用于部署（目前主要支持 PC 端部署，Jetson Orin 需额外配置）\n    *   网线（用于连接 Go2 机器人）\n\n### 软件依赖\n*   Miniconda\n*   PyTorch 1.10 (配合 CUDA 11.3)\n*   Isaac Gym\n*   LCM (Lightweight Communications and Marshalling)\n*   Unitree SDK2\n\n## 安装步骤\n\n### 1. 克隆与基础安装\n在终端中执行以下命令克隆仓库并安装 Python 依赖：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2.git\ncd walk-these-ways-go2\npip install -e .\n```\n\n### 2. 安装 LCM 通信库\nLCM 用于在控制代码与底层 SDK 之间传递传感器数据和电机指令。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm.git\nmkdir build\ncd build\ncmake ..\nmake\nsudo make install\n```\n\n### 3. 编译 Unitree SDK2 与部署程序\n项目已包含 `unitree_sdk2`，需重新编译以生成可执行文件。\n\n**编译 SDK:**\n```bash\ncd go2_gym_deploy\u002Funitree_sdk2_bin\u002Flibrary\u002Funitree_sdk2\nrm -r build\nsudo .\u002Finstall.sh\nmkdir build\ncd build\ncmake ..\nmake\n```\n\n**编译 lcm_position_go2:**\n```bash\ncd go2_gym_deploy\nrm -r build\nmkdir build\ncd build\ncmake ..\nmake -j\n```\n\n## 基本使用\n\n### 1. 仿真训练与测试\n在部署到真机前，建议先在仿真环境中训练或测试模型。\n\n**开始训练：**\n```bash\npython scripts\u002Ftrain.py\n```\n*注：主要训练逻辑位于 `go2_gym` 和 `go2_gym_learn` 文件夹中。*\n\n**运行预训练模型演示：**\n```bash\ncd scripts\npython play.py\n```\n*提示：若要使用自己训练的模型，请修改 `play.py` 中的 `label` 路径。*\n\n### 2. 真机部署 (PC 端)\n\n**步骤一：连接机器人**\n使用网线连接 PC 与 Go2，检查网络连通性：\n```bash\nping 192.168.123.161\n```\n查看并记录你的网卡接口名称（如 `eth0`）：\n```bash\nifconfig\n```\n\n**步骤二：启动底层通信服务**\n在新终端中运行以下命令（替换 `eth0` 为你的实际网卡名）。此操作会自动关闭 Sport 模式并进入底层控制模式，**请确保机器人处于悬挂或平躺状态**。\n\n```bash\ncd go2_gym_deploy\u002Fbuild\nsudo .\u002Flcm_position_go2 eth0\n```\n根据终端提示，按几次 `Enter` 键以建立 LCM 与 SDK 的通信。\n\n**步骤三：加载策略并控制**\n打开另一个新终端，运行部署脚本：\n```bash\ncd go2_gym_deploy\u002Fscripts\npython deploy_policy.py\n```\n根据终端提示，按下遥控器的 **[R2]** 键启动控制器。默认步态为小跑（Trot）。\n\n**紧急停止：**\n如遇异常情况，请立即按下遥控器 **[L2+B]** 切换至阻尼模式。\n\n### 3. Jetson Orin 板载部署（简述）\nGo2 内置 Nvidia Jetson Orin Nano\u002FNX。若需在板载电脑运行：\n1.  通过 SSH 或 HDMI 连接 Jetson (IP: `192.168.123.18`, User: `unitree`, Pass: `123`)。\n2.  检查 Jetpack 版本 (`sudo jtop`)，推荐 Jetpack 5.1.1。\n3.  安装兼容的 CUDA (推荐 11.8) 和 PyTorch (需下载 Jetson 专用 wheel 包)。\n4.  环境配置完成后，部署步骤与 PC 端类似，可实现无线自由运动。","某高校机器人实验室的研究团队正致力于将强化学习算法从仿真环境迁移至宇树 Go2 四足机器人，以验证其在复杂地形下的自适应步态控制能力。\n\n### 没有 walk-these-ways-go2 时\n- **底层通信壁垒高**：Go2 采用了全新的 unitree_sdk2 架构，不再支持旧版 UDP 通信，研究人员需从头编写底层驱动接口，开发周期长达数周。\n- **仿真与实机割裂**：缺乏统一的 Sim-to-Real（仿真到现实）框架，在 Isaac Gym 中训练好的策略无法直接部署，需手动重写数据序列化逻辑，极易引入误差。\n- **调试效率低下**：传感器数据与控制指令之间缺乏标准化的中间件（如 LCM）桥接，导致实时状态监控困难，排查运动抖动或失衡原因如同“盲人摸象”。\n- **配置管理混乱**：环境参数与机器人物理属性分散在不同代码文件中，修改步态或地形参数时容易遗漏关键配置，导致训练崩溃或实机运行异常。\n\n### 使用 walk-these-ways-go2 后\n- **无缝对接新架构**：工具内置了适配 unitree_sdk2 的 C++ 接口封装（lcm_position_go2），自动处理底层通信细节，让团队能直接聚焦于上层算法优化。\n- **端到端流畅部署**：通过标准化的 LCM 消息格式，实现了从 Python 训练脚本到 C++ 底层控制的透明数据传输，预训练模型可直接加载测试，大幅缩短验证周期。\n- **可视化调试便捷**：集成了完整的 LCM 日志系统，研究人员可实时查看关节状态、电机命令及 joystick 输入，快速定位并解决步态不稳问题。\n- **集中化配置管理**：所有关键参数统一收敛于 `go2_config.py`，修改地形难度或机器人动力学参数只需调整单一文件，显著降低了实验复现的难度。\n\nwalk-these-ways-go2 的核心价值在于消除了新一代四足机器人底层驱动与上层强化学习算法之间的技术鸿沟，让科研人员能以最低成本实现从仿真训练到真机落地的快速闭环。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTeddy-Liao_walk-these-ways-go2_f2d3cccd.jpg","Teddy-Liao","Liao Dengting","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTeddy-Liao_0bb8be37.jpg","无限进步","Beijing Institute of Technology","Beijing","540614105@qq.com",null,"https:\u002F\u002Fgithub.com\u002FTeddy-Liao",[87,91,95,99,103,107],{"name":88,"color":89,"percentage":90},"C++","#f34b7d",70.6,{"name":92,"color":93,"percentage":94},"Python","#3572A5",17.4,{"name":96,"color":97,"percentage":98},"Makefile","#427819",7.7,{"name":100,"color":101,"percentage":102},"CMake","#DA3434",2.4,{"name":104,"color":105,"percentage":106},"C","#555555",1.9,{"name":108,"color":109,"percentage":110},"Shell","#89e051",0.1,574,63,"2026-04-02T12:32:09","MIT",4,"Linux","必需 NVIDIA GPU，显存至少 8GB，训练需 CUDA 11.3；Jetson Orin 部署推荐 CUDA 11.8","未说明",{"notes":120,"python":118,"dependencies":121},"1. 该项目基于 Isaac Gym 进行训练，仅支持 Linux 环境。2. 部署分为 PC 端和 Jetson Orin 端：PC 端需安装 LCM 和 unitree_sdk2 并通过以太网连接机器人；Jetson Orin 端需适配 ARM 架构的 PyTorch 和 CUDA（推荐 11.8），可通过有线或 USB Wi-Fi 联网。3. 训练和推理均依赖 NVIDIA 显卡，且需注意 PyTorch 版本与 CUDA 版本的兼容性（如 Jetson 上避免使用过高版本的 CUDA）。4. 代码为研究用途，存在风险，操作时请确保机器人处于安全状态（如悬挂或平躺）。",[122,123,124,125,126],"miniconda","pytorch==1.10","Isaac Gym","LCM (Lightweight Communications and Marshalling)","unitree_sdk2",[18],[129,130,131,132,133,134],"go2","isaac","reinforcement-learning","robotics","sim2real","unitree","2026-03-27T02:49:30.150509","2026-04-06T07:23:22.526496",[138,143,148,153,158,163,168],{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},11459,"Go2 机器人在部署训练好的模型后出现脚部打滑问题，如何解决？","打滑的原因可能是 `play.py` 脚本使用了 Go1 的执行器网络（actuator network），而在实际部署中你使用的是简单的 PD 控制器，其行为与训练时使用的执行器模型不同。\n\n解决方案有两种：\n1. 修改代码并重新训练：将 `scripts\u002Ftrain.py` 第 32 行左右的代码改为 `Cfg.control.control_type = \"P\"`，然后重新训练并部署新的策略。\n2. 训练自定义执行器网络：为 Go2 机器人训练专用的执行器网络，并使用该模型进行训练，而不是使用提供的 Go1 执行器网络。如果难以自行训练，可以参考其他开源项目中的 Go2 执行器网络资源。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F25",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},11460,"编译 unitree_sdk2 时报错提示 'gettid' 未定义引用或 std 相关错误，如何处理？","这通常是由于系统环境或依赖不完整导致的。建议尝试以下方法：\n1. 单独编译 unitree_sdk2 项目，检查环境和依赖的完整性。\n2. 如果当前系统版本较高（如 Ubuntu 22.04+），尝试切换到 Ubuntu 20.04 系统，许多用户反馈更换系统后该编译错误消失。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F9",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},11461,"项目中提供的执行器网络权重文件 (unitree_go1.pt) 是用于 Go2 机器人的吗？","不是。该网络是使用 Unitree Go1 的数据训练的，源自原始的 walk-these-ways 项目。如果你使用的是 Go2 机器人，建议尝试使用 Go2 的数据重新训练执行器网络以获得更好的效果。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F11",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},11462,"如何在仿真环境中实时可视化真实 Go2 机器人的状态？","你可以使用 Matplotlib 来可视化机器人的状态。如果你指的是在类似 Rviz 的仿真环境中实时显示真实机器人状态，目前建议通过编写脚本将真实机器人的状态数据映射到可视化工具中。如果是为了验证神经网络，也可以在 Webots、Mujoco 或 Gazebo 中进行 Sim-to-Sim 的交叉验证。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F6",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},11463,"如何在本地路径下恢复预训练模型继续训练？","虽然预训练模型通常通过 ml_logger 下载，但你可以在本地加载 `.pt` 文件来恢复策略（policy）。注意，恢复时可能不需要加载所有的课程学习参数（curriculum parameters，如 distribution pkl 文件），仅加载策略权重通常足以继续训练或微调。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F21",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},11464,"在 WSL-2 中运行 `sudo .\u002Flcm_receive` 没有响应或卡住，会影响项目运行吗？","WSL-2 的网络配置可能导致 LCM 通信出现问题。但如果只是 `lcm_receive` 测试程序没有输出，而 Ping 测试正常，通常仍然可以运行该项目的主要功能。如果后续控制出现通信延迟或丢包，建议考虑使用原生 Linux 系统或配置 WSL 的网络桥接模式。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F20",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},11465,"Isaac Gym 在 Jetson 和 PC 上的安装有什么区别？遇到导入错误怎么办？","Isaac Gym 主要针对 x86_64 架构优化，在 Jetson (ARM) 上直接运行可能会遇到兼容性问题（如 `cannot open shared object file`）。\n\n建议方案：\n1. 在 PC 上进行训练。\n2. 部署时，可以将训练好的神经网络通过 LibTorch、MNN 或其他推理引擎部署到 Jetson 或机器人 onboard 计算机上，而不是直接在 Jetson 上运行完整的 Isaac Gym 仿真环境。","https:\u002F\u002Fgithub.com\u002FTeddy-Liao\u002Fwalk-these-ways-go2\u002Fissues\u002F10",[]]