[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-RoboVerseOrg--RoboVerse":3,"tool-RoboVerseOrg--RoboVerse":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,2,"2026-04-06T11:09:19",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74991,"2026-04-06T23:16:49",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65644,"2026-04-06T10:25:08",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":68,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":102,"env_os":103,"env_gpu":104,"env_ram":103,"env_deps":105,"category_tags":118,"github_topics":119,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":124,"updated_at":125,"faqs":126,"releases":159},4878,"RoboVerseOrg\u002FRoboVerse","RoboVerse","RoboVerse: Towards a Unified Platform, Dataset and Benchmark for Scalable and Generalizable Robot Learning","RoboVerse 是一个面向机器人学习的统一开源平台，旨在整合数据集、仿真环境与评估基准，解决当前机器人算法研发中环境碎片化、任务单一及难以复现的痛点。它通过兼容 Isaac Lab、MuJoCo、SAPIEN、PyBullet 等主流物理引擎，并集成 RLBench、ManiSkill、LIBERO 等十余个知名数据集，让研究人员能够在同一框架下轻松切换不同仿真器与任务场景。\n\n这一设计极大地降低了跨环境验证算法的门槛，显著提升了机器人学习模型的可扩展性与泛化能力。无论是希望快速构建训练环境的研究学者，还是需要大规模并行实验的算法开发者，都能利用 RoboVerse 高效地原型化新想法或复现前沿成果。其独特的技术亮点在于强大的“元仿真”架构，不仅支持从静态场景到复杂交互的多样化任务工作流，还建立了开放的社区协作机制，允许用户通过投票决定新功能开发优先级。作为已获 RSS 2025 收录的前沿项目，RoboVerse 正致力于成为推动通用机器人智能发展的核心基础设施。","\u003Cp align=\"center\">\n  \u003Cimg src=\"docs\u002Fsource\u002F_static\u002FRoboVerse86.22.svg\" width=\"50%\" alt=\"RoboVerse\">\n\u003C\u002Fp>\n\n![RoboVerse](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoboVerseOrg_RoboVerse_readme_f690c6649c35.jpg)\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Froboverseorg.github.io\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fproject-page-brightgreen\" alt=\"Project Page\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.18904\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpaper-preprint-red\" alt=\"Paper\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Froboverse.wiki\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdoc-page-orange\" alt=\"Documentation\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FRoboVerseOrg\u002FRoboVerse?color=yellow\" alt=\"Issues\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fdiscussions\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdiscussions\u002FRoboVerseOrg\u002FRoboVerse?color=blueviolet\" alt=\"Discussions\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002F6e2CPVnAD3\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1356345436927168552?logo=discord&color=blue\" alt=\"Discord\">\u003C\u002Fa>\n  \u003Ca href=\"docs\u002Fsource\u002F_static\u002Fwechat.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwechat-QR_code-green\" alt=\"WeChat\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 💡 News\n- [2025-04-10] RoboVerse gets accepted by RSS 2025!\n- [2025-04-03] Code released! This codebase is actively evolving, and we are continuously working to improve it. Contributions from the open-source community are highly encouraged, and we welcome feedback and bug reports through the GitHub Issues page.\n\n## 🚀 Getting Started\n\nPlease refer to the [documentation](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002F#).\n\nWe also privide detailed [tutorials](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002Fget_started\u002Fquick_start\u002F0_static_scene) for getting started\n\n## 🥰 Contributing\nContributions are welcome! Please see [CONTRIBUTING.md](.\u002FCONTRIBUTING.md) for more details on how to contribute to this project.\n\n## 🎅 Wish List\nIf you have any feature requests (e.g., support for new simulators, new tasks, new workflows, or new features), feel free to add them to the Wish List section of our [GitHub Discussions](https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fdiscussions\u002Fcategories\u002Fwish-list).\n\nYou can also upvote the requests you find most relevant or important. We'll prioritize updates based on the number of upvotes each request receives!\n\n## 📖 License and Acknowledgments\n\nThe RoboVerse source code is licensed under the Apache License 2.0.\n\nRoboVerse makes use of the following simulation frameworks, renderers, and libraries:\n- [Isaac Lab](https:\u002F\u002Fgithub.com\u002Fisaac-sim\u002FIsaacLab), which is built on top of [Isaac Sim](https:\u002F\u002Fdocs.isaacsim.omniverse.nvidia.com\u002Flatest\u002Findex.html)\n- [Isaac Gym](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym)\n- [MuJoCo](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco)\n- [SAPIEN](https:\u002F\u002Fgithub.com\u002Fhaosulab\u002FSAPIEN)\n- [PyBullet](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3)\n- [Genesis](https:\u002F\u002Fgithub.com\u002FGenesis-Embodied-AI\u002FGenesis)\n- [cuRobo](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fcurobo)\n- [PyRep](https:\u002F\u002Fgithub.com\u002Fstepjam\u002FPyRep), which is built on top of [CoppeliaSim](https:\u002F\u002Fwww.coppeliarobotics.com\u002F)\n- [Blender](https:\u002F\u002Fwww.blender.org\u002F)\n\nRoboVerse also integrates data from the following projects:\n- [RLBench](https:\u002F\u002Fgithub.com\u002Fstepjam\u002FRLBench)\n- [Maniskill](https:\u002F\u002Fgithub.com\u002Fhaosulab\u002FManiSkill)\n- [LIBERO](https:\u002F\u002Fgithub.com\u002FLifelong-Robot-Learning\u002FLIBERO)\n- [Meta-World](https:\u002F\u002Fgithub.com\u002FFarama-Foundation\u002FMetaworld)\n- [robosuite](https:\u002F\u002Fgithub.com\u002FARISE-Initiative\u002Frobosuite)\n- [GraspNet](https:\u002F\u002Fgraspnet.net\u002F)\n- [ARNOLD](https:\u002F\u002Farnold-benchmark.github.io\u002F)\n- [GAPartNet](https:\u002F\u002Fgithub.com\u002FPKU-EPIC\u002FGAPartNet)\n- [GAPartManip](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.18276)\n- [UniDoorManip](https:\u002F\u002Fgithub.com\u002FsectionZ6\u002FUniDoorManip)\n- [SimplerEnv](https:\u002F\u002Fgithub.com\u002Fsimpler-env\u002FSimplerEnv)\n- [RLAfford](https:\u002F\u002Fgithub.com\u002Fhyperplane-lab\u002FRLAfford)\n- [Open6DOR](https:\u002F\u002Fgithub.com\u002FSelina2023\u002FOpen6DOR)\n- [CALVIN](https:\u002F\u002Fgithub.com\u002Fmees\u002Fcalvin)\n- [GarmentLab](https:\u002F\u002Fgithub.com\u002FGarmentLab\u002FGarmentLab)\n- [Matterport3D](https:\u002F\u002Fgithub.com\u002Fniessner\u002FMatterport)\n- [VLN-CE](https:\u002F\u002Fgithub.com\u002Fjacobkrantz\u002FVLN-CE)\n- [vMaterials](https:\u002F\u002Fdeveloper.nvidia.com\u002Fvmaterials)\n- [HumanoidBench](https:\u002F\u002Fgithub.com\u002Fcarlosferrazza\u002Fhumanoid-bench)\n\nThe licenses for the assets used in RoboVerse will be added soon. Please contact us if you have any issues.\n\n## Citation\nIf you find RoboVerse useful, please consider citing it:\n```bibtex\n@misc{geng2025roboverse,\n      title={RoboVerse: Towards a Unified Platform, Dataset and Benchmark for Scalable and Generalizable Robot Learning}, \n      author={Haoran Geng and Feishi Wang and Songlin Wei and Yuyang Li and Bangjun Wang and Boshi An and Charlie Tianyue Cheng and Haozhe Lou and Peihao Li and Yen-Jen Wang and Yutong Liang and Dylan Goetting and Chaoyi Xu and Haozhe Chen and Yuxi Qian and Yiran Geng and Jiageng Mao and Weikang Wan and Mingtong Zhang and Jiangran Lyu and Siheng Zhao and Jiazhao Zhang and Jialiang Zhang and Chengyang Zhao and Haoran Lu and Yufei Ding and Ran Gong and Yuran Wang and Yuxuan Kuang and Ruihai Wu and Baoxiong Jia and Carlo Sferrazza and Hao Dong and Siyuan Huang and Yue Wang and Jitendra Malik and Pieter Abbeel},\n      year={2025},\n      eprint={2504.18904},\n      archivePrefix={arXiv},\n      primaryClass={cs.RO},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.18904}, \n}\n```\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"docs\u002Fsource\u002F_static\u002FRoboVerse86.22.svg\" width=\"50%\" alt=\"RoboVerse\">\n\u003C\u002Fp>\n\n![RoboVerse](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoboVerseOrg_RoboVerse_readme_f690c6649c35.jpg)\n\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Froboverseorg.github.io\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fproject-page-brightgreen\" alt=\"Project Page\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.18904\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpaper-preprint-red\" alt=\"Paper\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Froboverse.wiki\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdoc-page-orange\" alt=\"Documentation\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FRoboVerseOrg\u002FRoboVerse?color=yellow\" alt=\"Issues\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fdiscussions\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdiscussions\u002FRoboVerseOrg\u002FRoboVerse?color=blueviolet\" alt=\"Discussions\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002F6e2CPVnAD3\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1356345436927168552?logo=discord&color=blue\" alt=\"Discord\">\u003C\u002Fa>\n  \u003Ca href=\"docs\u002Fsource\u002F_static\u002Fwechat.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fwechat-QR_code-green\" alt=\"WeChat\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\n## 💡 最新消息\n- [2025-04-10] RoboVerse 被 RSS 2025 接收！\n- [2025-04-03] 代码已发布！本代码库仍在积极开发中，我们将持续改进。我们非常欢迎开源社区的贡献，并通过 GitHub Issues 页面接受反馈和问题报告。\n\n## 🚀 快速入门\n\n请参阅[文档](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002F#)。\n\n我们还提供了详细的[教程](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002Fget_started\u002Fquick_start\u002F0_static_scene)，帮助您快速上手。\n\n## 🥰 贡献\n欢迎各位贡献！有关如何参与本项目的详细信息，请参阅[CONTRIBUTING.md](.\u002FCONTRIBUTING.md)。\n\n## 🎅 愿望清单\n如果您有任何功能需求（例如支持新的模拟器、新任务、新工作流程或新特性），欢迎将其添加到我们的[GitHub Discussions](https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fdiscussions\u002Fcategories\u002Fwish-list)中的愿望清单部分。\n\n您也可以为认为最相关或最重要的请求点赞。我们将根据每个请求的点赞数来优先安排更新！\n\n## 📖 许可与致谢\n\nRoboVerse 的源代码采用 Apache License 2.0 许可协议。\n\nRoboVerse 使用了以下仿真框架、渲染器和库：\n- [Isaac Lab](https:\u002F\u002Fgithub.com\u002Fisaac-sim\u002FIsaacLab)，基于 [Isaac Sim](https:\u002F\u002Fdocs.isaacsim.omniverse.nvidia.com\u002Flatest\u002Findex.html) 构建\n- [Isaac Gym](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym)\n- [MuJoCo](https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Fmujoco)\n- [SAPIEN](https:\u002F\u002Fgithub.com\u002Fhaosulab\u002FSAPIEN)\n- [PyBullet](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3)\n- [Genesis](https:\u002F\u002Fgithub.com\u002FGenesis-Embodied-AI\u002FGenesis)\n- [cuRobo](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fcurobo)\n- [PyRep](https:\u002F\u002Fgithub.com\u002Fstepjam\u002FPyRep)，基于 [CoppeliaSim](https:\u002F\u002Fwww.coppeliarobotics.com\u002F) 构建\n- [Blender](https:\u002F\u002Fwww.blender.org\u002F)\n\nRoboVerse 还整合了来自以下项目的数据：\n- [RLBench](https:\u002F\u002Fgithub.com\u002Fstepjam\u002FRLBench)\n- [Maniskill](https:\u002F\u002Fgithub.com\u002Fhaosulab\u002FManiSkill)\n- [LIBERO](https:\u002F\u002Fgithub.com\u002FLifelong-Robot-Learning\u002FLIBERO)\n- [Meta-World](https:\u002F\u002Fgithub.com\u002FFarama-Foundation\u002FMetaworld)\n- [robosuite](https:\u002F\u002Fgithub.com\u002FARISE-Initiative\u002Frobosuite)\n- [GraspNet](https:\u002F\u002Fgraspnet.net\u002F)\n- [ARNOLD](https:\u002F\u002Farnold-benchmark.github.io\u002F)\n- [GAPartNet](https:\u002F\u002Fgithub.com\u002FPKU-EPIC\u002FGAPartNet)\n- [GAPartManip](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.18276)\n- [UniDoorManip](https:\u002F\u002Fgithub.com\u002FsectionZ6\u002FUniDoorManip)\n- [SimplerEnv](https:\u002F\u002Fgithub.com\u002Fsimpler-env\u002FSimplerEnv)\n- [RLAfford](https:\u002F\u002Fgithub.com\u002Fhyperplane-lab\u002FRLAfford)\n- [Open6DOR](https:\u002F\u002Fgithub.com\u002FSelina2023\u002FOpen6DOR)\n- [CALVIN](https:\u002F\u002Fgithub.com\u002Fmees\u002Fcalvin)\n- [GarmentLab](https:\u002F\u002Fgithub.com\u002FGarmentLab\u002FGarmentLab)\n- [Matterport3D](https:\u002F\u002Fgithub.com\u002Fniessner\u002FMatterport)\n- [VLN-CE](https:\u002F\u002Fgithub.com\u002Fjacobkrantz\u002FVLN-CE)\n- [vMaterials](https:\u002F\u002Fdeveloper.nvidia.com\u002Fvmaterials)\n- [HumanoidBench](https:\u002F\u002Fgithub.com\u002Fcarlosferrazza\u002Fhumanoid-bench)\n\nRoboVerse 中使用的各类资源的许可信息将尽快补充。如有任何问题，请随时联系我们。\n\n## 引用\n如果您觉得 RoboVerse 对您有帮助，请考虑引用如下文献：\n```bibtex\n@misc{geng2025roboverse,\n      title={RoboVerse: Towards a Unified Platform, Dataset and Benchmark for Scalable and Generalizable Robot Learning}, \n      author={Haoran Geng and Feishi Wang and Songlin Wei and Yuyang Li and Bangjun Wang and Boshi An and Charlie Tianyue Cheng and Haozhe Lou and Peihao Li and Yen-Jen Wang and Yutong Liang and Dylan Goetting and Chaoyi Xu and Haozhe Chen and Yuxi Qian and Yiran Geng and Jiageng Mao and Weikang Wan and Mingtong Zhang and Jiangran Lyu and Siheng Zhao and Jiazhao Zhang and Jialiang Zhang and Chengyang Zhao and Haoran Lu and Yufei Ding and Ran Gong and Yuran Wang and Yuxuan Kuang and Ruihai Wu and Baoxiong Jia and Carlo Sferrazza and Hao Dong and Siyuan Huang and Yue Wang and Jitendra Malik and Pieter Abbeel},\n      year={2025},\n      eprint={2504.18904},\n      archivePrefix={arXiv},\n      primaryClass={cs.RO},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.18904}, \n}\n```","# RoboVerse 快速上手指南\n\nRoboVerse 是一个面向可扩展和通用机器人学习的统一平台、数据集与基准测试框架。它集成了多种主流仿真器（如 Isaac Sim, MuJoCo, SAPIEN 等）和经典机器人任务数据集。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04 或 22.04)。Windows 和 macOS 支持有限，建议优先使用 Linux。\n*   **Python 版本**: Python 3.8 - 3.10。\n*   **GPU 驱动**: 若使用基于 GPU 的仿真器（如 Isaac Sim\u002FLab），请确保已安装兼容的 NVIDIA 驱动和 CUDA 工具包。\n*   **前置依赖**:\n    *   Git\n    *   Conda 或 Mamba (推荐用于管理虚拟环境)\n\n> **注意**：RoboVerse 底层依赖多个仿真引擎（如 Isaac Lab, MuJoCo, SAPIEN 等）。具体仿真器的系统要求（如 Omniverse 对于 Isaac Sim 的要求）请参考各子项目的官方文档。\n\n## 2. 安装步骤\n\n### 步骤一：克隆代码库\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse.git\ncd RoboVerse\n```\n\n### 步骤二：创建并激活虚拟环境\n\n推荐使用 Conda 创建独立环境：\n\n```bash\nconda create -n roboverse python=3.9\nconda activate roboverse\n```\n\n### 步骤三：安装核心依赖\n\n安装项目基础依赖包：\n\n```bash\npip install -e .\n```\n\n> **提示**：由于 RoboVerse 集成了多种仿真后端，完整的安装可能需要根据您计划使用的特定仿真器（如 `isaac-lab`, `mujoco`, `sapien` 等）额外安装对应的依赖。详细的环境配置指南请参阅 [官方文档](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002F#)。\n\n若遇到网络问题，可尝试使用国内镜像源加速安装：\n\n```bash\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 3. 基本使用\n\nRoboVerse 的设计旨在提供统一的接口来加载不同的仿真环境和任务。以下是一个最基础的静态场景加载示例（具体 API 可能随版本迭代微调，请以最新文档为准）：\n\n### 示例：启动一个静态场景\n\n```python\nfrom roboverse import MetaSim\n\n# 初始化模拟器实例\n# 指定仿真后端，例如 'isaac_lab', 'mujoco', 'sapien' 等\nenv = MetaSim(\n    simulator=\"isaac_lab\", \n    task=\"static_scene\",\n    headless=False  # 设置为 True 可在无头模式下运行\n)\n\n# 重置环境\nobs, info = env.reset()\n\n# 执行简单的步进循环\nfor i in range(100):\n    # 这里替换为具体的动作逻辑，例如随机动作或策略输出\n    action = env.action_space.sample() \n    \n    obs, reward, terminated, truncated, info = env.step(action)\n    \n    if terminated or truncated:\n        obs, info = env.reset()\n\n# 关闭环境\nenv.close()\n```\n\n### 进阶学习\n\n*   **详细教程**：访问 [Quick Start Tutorials](https:\u002F\u002Froboverse.wiki\u002Fmetasim\u002Fget_started\u002Fquick_start\u002F0_static_scene) 获取更多关于任务配置、自定义资产和多机协同的示例。\n*   **社区交流**：遇到问题欢迎在 [GitHub Issues](https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues) 提交反馈，或加入 [Discord](https:\u002F\u002Fdiscord.gg\u002F6e2CPVnAD3) 及微信扫码群参与讨论。","某具身智能实验室的研究团队正致力于开发一种能同时适应家庭服务与工业分拣任务的通用机器人策略，急需在多个仿真环境中验证算法的泛化能力。\n\n### 没有 RoboVerse 时\n- **环境适配成本极高**：研究人员需分别为 Isaac Sim、MuJoCo 和 PyBullet 编写独立的接口代码，花费数周时间解决不同引擎间的坐标系统与物理参数差异。\n- **数据孤岛严重**：无法直接复用 RLBench、ManiSkill 或 LIBERO 等现有高质量数据集，导致每个新任务都要从零开始采集演示数据，训练效率低下。\n- **基准测试不统一**：缺乏统一的评估标准，难以公平对比不同算法在跨模拟器场景下的真实性能，论文实验结果常因环境偏差受到质疑。\n- **复现难度巨大**：团队成员间因本地仿真配置不一致，导致代码跑不通或结果无法复现，严重拖慢迭代节奏。\n\n### 使用 RoboVerse 后\n- **一次编写，多端运行**：借助 RoboVerse 的统一平台架构，团队只需定义一次任务逻辑，即可无缝切换至 Isaac Lab、SAPIEN 或 Genesis 等后端引擎进行大规模并行训练。\n- **数据集即插即用**：直接调用集成的 GraspNet、CALVIN 等多元数据集，瞬间构建出涵盖抓取、开门、衣物整理等复杂技能的混合训练库。\n- **标准化权威评测**：利用内置的 Scalable Benchmark，在不同物理引擎下自动执行标准化测试，快速验证策略的泛化边界并产出可信的实验数据。\n- **社区协同高效**：基于统一的文档与开源工作流，新老成员能快速上手，并通过 Discord 或 GitHub 直接获取社区最新支持的任务模板。\n\nRoboVerse 通过打破仿真器与数据集的壁垒，将机器人学习算法的研发周期从“月级”缩短至“天级”，真正实现了可扩展且可泛化的通用机器人学习。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoboVerseOrg_RoboVerse_f690c664.jpg","RoboVerseOrg","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRoboVerseOrg_99ca4fb4.png","RoboVerse Platform",null,"https:\u002F\u002Froboverse.wiki\u002F","https:\u002F\u002Fgithub.com\u002FRoboVerseOrg",[83,87,90,94],{"name":84,"color":85,"percentage":86},"Python","#3572A5",98.7,{"name":88,"color":89,"percentage":46},"Shell","#89e051",{"name":91,"color":92,"percentage":93},"HTML","#e34c26",0.2,{"name":95,"color":96,"percentage":97},"Dockerfile","#384d54",0.1,1702,156,"2026-04-05T12:16:49","Apache-2.0",4,"未说明","必需（基于 Isaac Sim\u002FIsaac Lab 等框架），具体型号、显存大小及 CUDA 版本未在 README 中明确列出，通常此类仿真平台需要支持光线追踪的 NVIDIA RTX 系列显卡",{"notes":106,"python":103,"dependencies":107},"README 未直接提供具体的系统配置参数，而是引导用户查阅外部文档 (https:\u002F\u002Froboverse.wiki) 获取详细的安装和快速入门教程。该工具是一个集成平台，底层依赖多个物理仿真引擎（如 NVIDIA Omniverse 系列的 Isaac Sim、Google 的 MuJoCo 等），实际运行环境需求取决于用户选择启用的具体仿真后端。",[108,109,110,111,112,113,114,115,116,117],"Isaac Lab","Isaac Sim","Isaac Gym","MuJoCo","SAPIEN","PyBullet","Genesis","cuRobo","PyRep","Blender",[18],[120,121,122,123],"imitation-learning","reinforcement-learning","robotics","simulation","2026-03-27T02:49:30.150509","2026-04-07T13:28:53.923018",[127,132,136,141,145,150,154],{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},22170,"运行 Isaaclab 示例时出现 'ModuleNotFoundError: No module named omni.isaac.lab' 错误怎么办？","该错误通常由 NVIDIA 最近更新的 isaacsim4.2 wheel 使用了不正确的 usd 库版本引起。解决方案包括：\n1. 暂时切换到之前的提交版本（例如 `2fd9615`），Isaaclab 即可正常运行。\n2. 或者更新 Docker 配置以使用最新的 isaaclab2 (基于 isaacsim4.5)。\n3. 如果是在本地构建，建议先按照官方指南单独安装 standalone IsaacLab 以排查环境问题。","https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\u002F173",{"id":133,"question_zh":134,"answer_zh":135,"source_url":131},22171,"在 RoboVerse Docker 容器中运行 Isaacgym 时遇到 'Segmentation fault (core dumped)' 错误如何解决？","此问题通常与宿主机的驱动或 CUDA 版本有关，而在宿主机直接安装 Isaacgym 通常能正常工作。请提供以下信息以便进一步调试或自行检查：\n1. NVIDIA 驱动版本（在宿主机运行 `nvidia-smi`）。\n2. 宿主机上的 CUDA Toolkit 版本（在宿主机运行 `nvcc --version`）。\n3. Docker 内部的系统日志（在 Docker 内运行 `sudo dmesg -T`）。\n确保 Docker 容器正确挂载了必要的设备并拥有权限。",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},22172,"运行 Sapien 模拟器时提示 'Failed to find Vulkan ICD file' 警告或错误怎么办？","这通常是由于 NVIDIA 驱动安装不正确或不完整导致的。SAPIEN 会尝试提供自己的 ICD 文件，但可能无法正常工作。\n解决方法：\n1. 检查并重新安装或更新宿主机的 NVIDIA 驱动程序。\n2. 确保在运行 Docker 容器时正确传递了 Vulkan 相关的设备文件或环境变量。\n注意：部分相关数据可能仍在开发中（WIP），请参考项目其他相关议题。","https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\u002F93",{"id":142,"question_zh":143,"answer_zh":144,"source_url":140},22173,"从源码构建 curobo 时遇到 PyTorch 与 CUDA 版本不匹配的问题如何解决？","你需要确保 PyTorch 版本与安装的 CUDA Toolkit 版本一致。有两种主要解决途径：\n1. 将 CUDA Toolkit 版本降级到 11.8。\n2. 或者重新安装与当前 CUDA 版本（如 12.4）匹配的 PyTorch。\n可以使用以下命令安装特定版本的 PyTorch（以 cu124 为例）：\n`uv pip install torch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124`\n请访问 PyTorch 官网获取对应你环境的安装命令。",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},22174,"使用 uv 构建 Docker 容器时遇到 'Downloaded wheel and SHA256 don't match' 断言错误怎么办？","这表明下载的 NVIDIA wheel 包哈希值不匹配，可能是网络问题或包源临时不一致导致的。\n建议步骤：\n1. 清除缓存后重试构建。\n2. 如果问题依旧，建议在本地 PC 上先尝试独立安装 IsaacLab，遵循其官方安装指南，确认是否是环境特有问题。\n3. 检查网络连接或尝试更换镜像源。","https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\u002F58",{"id":151,"question_zh":152,"answer_zh":153,"source_url":131},22175,"Genesis 模拟器运行时抛出 'ValueError: only one element tensors can be converted to Python scalars' 错误是什么原因？","这是一个已知的代码兼容性问题，通常发生在状态重置（reset）过程中处理张量数据时。\n虽然具体修复代码可能在后续提交中，但目前的临时解决办法是：\n1. 检查是否有更新的代码提交修复了 `metasim\u002Fsim\u002Fgenesis\u002Fgenesis.py` 中的 `set_states` 方法。\n2. 如果急需使用，可以尝试切换到该项目之前的稳定提交版本（如维护者建议的 `2fd9615` 或其他已知稳定的 commit），避开引入该错误的更改。",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},22176,"在 Docker 容器初始化时遇到 'mamba is running as a subprocess and can't modify the parent shell' 错误如何处理？","这是因为 mamba 作为子进程运行无法修改父 shell 的环境。\n解决方法：\n1. 将初始化命令从 `mamba init bash` 改为 `conda init`。\n2. 确保在 Dockerfile 或启动脚本中正确 sourcing 了初始化后的 shell 配置文件（如 `.bashrc`），以便环境变量生效。","https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fissues\u002F172",[160,165],{"id":161,"version":162,"summary_zh":163,"released_at":164},135906,"v1.0.0-alpha","我们关于 metasim 有一个重大更新，使用新版本号 1.0.0 来进行跟踪。目前所有基础功能均已支持，部分实用的 API 仍在积极开发中。\n\n我们已支持或正在开发的功能如下：\n\n## **核心功能**\n\n✅ 已完成\n\n| 序号 | 功能 |\n| --- | --- |\n| 1  | 全部入门指南 |\n| 2  | 回放演示 \u002F 收集演示数据 |\n| 3  | 强化学习训练（所有模拟器？） |\n| 4  | 获取轨迹文件 \u002F 自动下载资源 |\n| 5  | 运动规划 |\n| 6  | 任务注册 |\n| 7  | gym.make |\n| 8  | isaacsim |\n| 9  | 域随机化：基础设施与测试 |\n| 10 | 强化学习基础设施标准化 |\n| 11 | 示教学习基础设施标准化 |\n| 12 | 查询 |\n| 13 | 文档（基本完成） |\n| 14 | 强化学习示例任务（Reach、Humanoidbench） |\n| 15 | 示教学习示例任务（Maniskill、libero、rl bench） |\n| 16 | Dex Hand 手指模型 |\n| 17 | 示例任务与资源（仅需 metasim 文件夹） |\n| 18 | 列表-张量自动转换 |\n| 19 | 资源转换工具 |\n| 20 | 相机：多相机、安装方式 |\n\n---\n### ❌ 开发中 \u002F 修复中 \u002F 需要测试\n\n| 序号 | 功能 |\n| --- | --- |\n| 1  | isaaclab 修复 |\n| 2  | VLA 基础设施与算法 |\n| 3  | 末端执行器 \u002F 扭矩 \u002F PD 控制支持 |\n| 4  | 单元测试 |\n| 5  | 机器人配置类 |\n| 6  | 基于状态的回放 |\n| 7  | 渲染：高级功能？光照？场景？混合渲染？ |\n| 8  | 多机器人 |\n| 9  | 控制基础设施 |\n| 10 | pip 安装与发布 |\n| 11 | 更多脚本，如远程操作？ |\n| 12 | set_dof_target 对齐，适用于 mujoco 和 genesis |\n","2025-08-31T08:23:55",{"id":166,"version":167,"summary_zh":168,"released_at":169},135907,"v0.1.0-beta","## 变更内容\n* 修复了 pybullet 机器人始终固定 base_link 的问题，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F18 中完成。\n* 开发\u002F机器人文档更新，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F19 中完成。\n* 添加场景列表，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F20 中完成。\n* 开发\u002F机器人文档更新，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F21 中完成。\n* 开发\u002F机器人文档更新，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F23 中完成。\n* 添加文档，由 @boshi-an 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F24 中完成。\n* 更新资产转换器文档，由 @charlietcheng 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F25 中完成。\n* 修复：解决 `fix_base_link == False` 时加载机器人相关的 Isaac Gym 错误。由 @EmptyBlueBox 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F27 中完成。\n* 在 GitHub README 中添加论文链接，由 @sjtuyinjie 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F28 中完成。\n* Pull\u002F29\u002Fhead，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F30 中完成。\n* MuJoCo 和 IsaacGym 基础设施更新，由 @EmptyBlueBox 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F52 中完成。\n* IsaacGym 和 IsaacLab 基础设施变更，由 @EmptyBlueBox 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F59 中完成。\n* 修复：解决在 roboverse_learn 中使用评估脚本时的错误，由 @szang18 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F61 中完成。\n* 开发\u002F状态作为观测值，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F65 中完成。\n* [docs\u002Ffix] 在 installation.rst 中添加克隆项目说明，由 @15101051 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F68 中完成。\n* 清理训练 DP 和 ACT，并改进文档，由 @dylan-goetting 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F74 中完成。\n* 开发\u002Fhf 自动下载，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F78 中完成。\n* 修复 mujoco.py 中关节名称提取错误，由 @WeisonWEileen 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F84 中完成。\n* 为处理器添加设备属性，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F88 中完成。\n* 从处理器中删除 get_observation() 方法，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F89 中完成。\n* 更新强化学习基础设施，由 @charlietcheng 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F86 中完成。\n* 将状态张量化，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F92 中完成。\n* HumanoidBench 加速约 30 倍，由 @geng-haoran 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F96 中完成。\n* 最初的 PR 107，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F108 中完成。\n* 快速修复\u002Fbody 和 device，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F109 中完成。\n* 修复最小测试脚本以适配张量化状态，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F111 中完成。\n* 快速修复：IsaacGym 获取相机图像，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F112 中完成。\n* 开发\u002F整理获取物体关节名称的方法，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FRoboVerseOrg\u002FRoboVerse\u002Fpull\u002F114 中完成。\n* 修复\u002Fbug97 2，由 @Fisher-Wang 在 https:\u002F\u002Fgithub.com\u002FR","2025-08-10T09:54:40"]