[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bulletphysics--bullet3":3,"tool-bulletphysics--bullet3":65},[4,18,32,40,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,3,"2026-04-06T03:28:53",[13,14,15,16],"开发框架","图像","Agent","视频","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,2,"2026-04-06T11:09:19",[14,27,16,28,15,29,30,13,31],"数据工具","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":10,"last_commit_at":38,"category_tags":39,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,30,29],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":17},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75054,"2026-04-07T10:38:03",[30,14,13,29],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":17},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,29],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":17},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65679,"2026-04-07T11:38:52",[13,29,27],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":116,"forks":117,"last_commit_at":118,"license":119,"difficulty_score":54,"env_os":120,"env_gpu":121,"env_ram":122,"env_deps":123,"category_tags":131,"github_topics":132,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":142,"updated_at":143,"faqs":144,"releases":175},5259,"bulletphysics\u002Fbullet3","bullet3","Bullet Physics SDK: real-time collision detection and multi-physics simulation for VR, games, visual effects, robotics, machine learning etc.","Bullet3 是一款功能强大的开源物理引擎 SDK，专注于提供实时的碰撞检测与多物理场模拟能力。它广泛服务于虚拟现实（VR）、电子游戏开发、视觉特效制作、机器人技术以及机器学习等领域，帮助开发者在数字世界中构建符合真实物理规律的运动与交互效果。\n\n对于需要处理复杂物体互动、刚体动力学或柔性体模拟的项目，Bullet3 提供了高效且稳定的解决方案，显著降低了从零编写物理算法的难度与成本。无论是游戏开发者追求逼真的破坏效果，还是科研人员训练强化学习模型，亦或是机器人工程师验证控制算法，都能从中获益。\n\n该工具的一大亮点是提供了名为 PyBullet 的 Python 绑定接口，极大地简化了安装与调用流程，使其成为机器人学和人工智能研究领域的热门选择。此外，Bullet3 还支持实验性的 OpenCL GPGPU 加速，能够将整个碰撞检测和刚体动力学计算卸载到高性能显卡上运行，从而大幅提升大规模模拟的计算效率。基于宽松的 zlib 许可证，Bullet3 允许用户自由地将其集成到商业或个人项目中，是连接理论算法与实际物理仿真应用的桥梁。","[![Travis Build Status](https:\u002F\u002Fapi.travis-ci.org\u002Fbulletphysics\u002Fbullet3.png?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fbulletphysics\u002Fbullet3)\n[![Appveyor Build status](https:\u002F\u002Fci.appveyor.com\u002Fapi\u002Fprojects\u002Fstatus\u002F6sly9uxajr6xsstq)](https:\u002F\u002Fci.appveyor.com\u002Fproject\u002Ferwincoumans\u002Fbullet3)\n\n# Bullet Physics SDK\n\nThis is the official C++ source code repository of the Bullet Physics SDK: real-time collision detection and multi-physics simulation for VR, games, visual effects, robotics, machine learning etc.\n\n![PyBullet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbulletphysics_bullet3_readme_5b439f461e84.png)\n\n## Issues ##\nThe Issue tracker was flooded with support questions and is closed until it is cleaned up. Use the [PyBullet forums](http:\u002F\u002Fpybullet.org) to discuss with others.\n\n## PyBullet ##\nIt is highly recommended to use PyBullet Python bindings for improved support for robotics, reinforcement learning and VR. Use pip install pybullet and checkout the [PyBullet Quickstart Guide](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F10sXEhzFRSnvFcl3XxNGhnD4N2SedqwdAvK3dsihxVUA\u002Fedit#heading=h.2ye70wns7io3).\n\nInstallation is simple:\n```\npip3 install pybullet --upgrade --user\npython3 -m pybullet_envs.examples.enjoy_TF_AntBulletEnv_v0_2017may\npython3 -m pybullet_envs.examples.enjoy_TF_HumanoidFlagrunHarderBulletEnv_v1_2017jul\npython3 -m pybullet_envs.deep_mimic.testrl --arg_file run_humanoid3d_backflip_args.txt\n```\n\nIf you use PyBullet in your research, please cite it like this:\n\n```\n@MISC{coumans2021,\nauthor =   {Erwin Coumans and Yunfei Bai},\ntitle =    {PyBullet, a Python module for physics simulation for games, robotics and machine learning},\nhowpublished = {\\url{http:\u002F\u002Fpybullet.org}},\nyear = {2016--2021}\n}\n```\n\n## Requirements for Bullet Physics C++\n\nA C++ compiler for C++ 2003. The library is tested on Windows, Linux, Mac OSX, iOS, Android,\nbut should likely work on any platform with C++ compiler. \nSome optional demos require OpenGL 2 or OpenGL 3, there are some non-graphical demos and unit tests too.\n\n## Contributors and Coding Style information\n\nhttps:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F1u9vyzPtrVoVhYqQOGNWUgjRbfwfCdIts_NzmvgiJ144\u002Fedit\n\n## Requirements for experimental OpenCL GPGPU support\n\nThe entire collision detection and rigid body dynamics can be executed on the GPU.\n\nA high-end desktop GPU, such as an AMD Radeon 7970 or NVIDIA GTX 680 or better.\nWe succesfully tested the software under Windows, Linux and Mac OSX.\nThe software currently doesn't work on OpenCL CPU devices. It might run\non a laptop GPU but performance will not likely be very good. Note that\noften an OpenCL drivers fails to compile a kernel. Some unit tests exist to\ntrack down the issue, but more work is required to cover all OpenCL kernels.\n\n## License\n\nAll source code files are licensed under the permissive zlib license\n(http:\u002F\u002Fopensource.org\u002Flicenses\u002FZlib) unless marked differently in a particular folder\u002Ffile.\n\n## Build instructions for Bullet using vcpkg\n\nYou can download and install Bullet using the [vcpkg](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg\u002F) dependency manager:\n\n    git clone https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg.git\n    cd vcpkg\n    .\u002Fbootstrap-vcpkg.sh\n    .\u002Fvcpkg integrate install\n    .\u002Fvcpkg install bullet3\n\nThe Bullet port in vcpkg is kept up to date by Microsoft team members and community contributors. If the version is out of date, please [create an issue or pull request](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg) on the vcpkg repository.\n\n## Build instructions for Bullet using premake. You can also use cmake instead.\n\n**Windows**\n\nClick on build_visual_studio_vr_pybullet_double.bat and open build3\u002Fvs2010\u002F0_Bullet3Solution.sln\nWhen asked, convert the projects to a newer version of Visual Studio.\nIf you installed Python in the C:\\ root directory, the batch file should find it automatically.\nOtherwise, edit this batch file to choose where Python include\u002Flib directories are located.\n\n**Windows Virtual Reality sandbox for HTC Vive and Oculus Rift**\n\nBuild and run the App_SharedMemoryPhysics_VR project, preferably in Release\u002Foptimized build.\nYou can connect from Python pybullet to the sandbox using:\n\n```\nimport pybullet as p\np.connect(p.SHARED_MEMORY) #or (p.TCP, \"localhost\", 6667) or (p.UDP, \"192.168.86.10\",1234)\n```\n\n**Linux and Mac OSX gnu make**\n\nMake sure gcc and cmake is installed (`sudo apt-get install build-essential` and `sudo apt-get install cmake` for Linux, `brew install cmake` for Mac, or https:\u002F\u002Fcmake.org)\n\nIn a terminal type:\n```\n.\u002Fbuild_cmake_pybullet_double.sh\n```\nThis script will invoke cmake and build in the build_cmake directory. You can find pybullet in Bullet\u002Fexamples\u002Fpybullet.\nThe BulletExampleBrowser binary will be in Bullet\u002Fexamples\u002FExampleBrowser.\n\nYou can also build Bullet using premake. There are premake executables in the build3 folder.\nDepending on your system (Linux 32bit, 64bit or Mac OSX) use one of the following lines\nUsing premake:\n```\ncd build3\n.\u002Fpremake4_linux --double gmake\n.\u002Fpremake4_linux64 --double gmake\n.\u002Fpremake4_osx --double --enable_pybullet gmake\n```\nThen\n```\ncd gmake\nmake\n```\n\nNote that on Linux, you need to use cmake to build pybullet, since the compiler has issues of mixing shared and static libraries.\n\n**Mac OSX Xcode**\n\t\nClick on build3\u002Fxcode4.command or in a terminal window execute\n```\t\n.\u002Fpremake_osx xcode4\n```\n## Usage\n\nThe App_ExampleBrowser executables will be located in the bin folder.\nYou can just run it though a terminal\u002Fcommand prompt, or by clicking it.\n\n\n```\n[--start_demo_name=\"Demo Name\"]     Start with a selected demo  \n[--mp4=moviename.mp4]               Create a mp4 movie of the window, requires ffmpeg installed\n[--mouse_move_multiplier=0.400000]  Set the mouse move sensitivity\n[--mouse_wheel_multiplier=0.01]     Set the mouse wheel sensitivity\n[--background_color_red= 0.9]       Set the red component for background color. Same for green and blue\n[--fixed_timestep= 0.0]             Use either a real-time delta time (0.0) or a fixed step size (0.016666)\n```\n\nYou can use mouse picking to grab objects. When holding the ALT or CONTROL key, you have Maya style camera mouse controls.\nPress F1 to create a series of screenshots. Hit ESCAPE to exit the demo app.\n\nCheck out the docs folder and the Bullet physics forums for further information.\n","[![Travis 构建状态](https:\u002F\u002Fapi.travis-ci.org\u002Fbulletphysics\u002Fbullet3.png?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fbulletphysics\u002Fbullet3)\n[![Appveyor 构建状态](https:\u002F\u002Fci.appveyor.com\u002Fapi\u002Fprojects\u002Fstatus\u002F6sly9uxajr6xsstq)](https:\u002F\u002Fci.appveyor.com\u002Fproject\u002Ferwincoumans\u002Fbullet3)\n\n# Bullet 物理 SDK\n\n这是 Bullet 物理 SDK 的官方 C++ 源代码仓库：用于 VR、游戏、视觉特效、机器人、机器学习等领域的实时碰撞检测和多物理仿真。\n\n![PyBullet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbulletphysics_bullet3_readme_5b439f461e84.png)\n\n## 问题 ##\n问题跟踪器曾被大量支持请求淹没，现已关闭，直至清理完毕。请使用 [PyBullet 论坛](http:\u002F\u002Fpybullet.org)与其他用户交流。\n\n## PyBullet ##\n强烈建议使用 PyBullet Python 绑定，以更好地支持机器人、强化学习和 VR。可通过 pip install pybullet 安装，并查看 [PyBullet 快速入门指南](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F10sXEhzFRSnvFcl3XxNGhnD4N2SedqwdAvK3dsihxVUA\u002Fedit#heading=h.2ye70wns7io3)。\n\n安装非常简单：\n```\npip3 install pybullet --upgrade --user\npython3 -m pybullet_envs.examples.enjoy_TF_AntBulletEnv_v0_2017may\npython3 -m pybullet_envs.examples.enjoy_TF_HumanoidFlagrunHarderBulletEnv_v1_2017jul\npython3 -m pybullet_envs.deep_mimic.testrl --arg_file run_humanoid3d_backflip_args.txt\n```\n\n如果您在研究中使用 PyBullet，请按以下方式引用：\n\n```\n@MISC{coumans2021,\nauthor =   {Erwin Coumans 和 Yunfei Bai},\ntitle =    {PyBullet，一款用于游戏、机器人和机器学习的物理仿真 Python 模块},\nhowpublished = {\\url{http:\u002F\u002Fpybullet.org}},\nyear = {2016--2021}\n}\n```\n\n## Bullet Physics C++ 的要求 ##\n需要支持 C++ 2003 标准的 C++ 编译器。该库已在 Windows、Linux、Mac OSX、iOS 和 Android 上测试过，但理论上应在任何具备 C++ 编译器的平台上运行。部分可选演示需要 OpenGL 2 或 OpenGL 3，同时也有非图形化的演示和单元测试。\n\n## 贡献者与编码规范信息 ##\nhttps:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F1u9vyzPtrVoVhYqQOGNWUgjRbfwfCdIts_NzmvgiJ144\u002Fedit\n\n## 实验性 OpenCL GPGPU 支持的要求 ##\n整个碰撞检测和刚体动力学都可以在 GPU 上执行。\n需要高端桌面 GPU，例如 AMD Radeon 7970 或 NVIDIA GTX 680 及更高配置。我们已在 Windows、Linux 和 Mac OSX 上成功测试了该软件。目前该软件尚不支持 OpenCL CPU 设备。虽然可能在笔记本电脑的 GPU 上运行，但性能通常不会太理想。需要注意的是，OpenCL 驱动程序有时无法编译内核。我们已有一些单元测试来排查问题，但仍需进一步工作以覆盖所有 OpenCL 内核。\n\n## 许可证 ##\n除非特定文件夹或文件另有说明，所有源代码文件均采用宽松的 zlib 许可证（http:\u002F\u002Fopensource.org\u002Flicenses\u002FZlib）。\n\n## 使用 vcpkg 构建 Bullet 的说明 ##\n您可以通过 [vcpkg](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg\u002F) 依赖管理工具下载并安装 Bullet：\n\n    git clone https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg.git\n    cd vcpkg\n    .\u002Fbootstrap-vcpkg.sh\n    .\u002Fvcpkg integrate install\n    .\u002Fvcpkg install bullet3\n\nvcpkg 中的 Bullet 包由 Microsoft 团队成员和社区贡献者维护。如果版本过时，请在 vcpkg 仓库中 [提交问题或拉取请求](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg)。\n\n## 使用 premake 构建 Bullet 的说明。您也可以使用 cmake 替代。##\n\n**Windows**\n\n双击 build_visual_studio_vr_pybullet_double.bat，然后打开 build3\u002Fvs2010\u002F0_Bullet3Solution.sln。系统提示时，将项目转换为较新版本的 Visual Studio。如果您将 Python 安装在 C:\\ 根目录下，批处理文件应能自动找到它。否则，请编辑此批处理文件以指定 Python 的 include\u002Flib 目录位置。\n\n**Windows 虚拟现实沙盒（适用于 HTC Vive 和 Oculus Rift）**\n\n构建并运行 App_SharedMemoryPhysics_VR 项目，最好选择 Release\u002F优化版本。您可以通过以下方式从 Python 的 pybullet 连接到该沙盒：\n\n```\nimport pybullet as p\np.connect(p.SHARED_MEMORY) #或 (p.TCP, \"localhost\", 6667) 或 (p.UDP, \"192.168.86.10\",1234)\n```\n\n**Linux 和 Mac OSX gnu make**\n\n确保已安装 gcc 和 cmake（对于 Linux，运行 `sudo apt-get install build-essential` 和 `sudo apt-get install cmake`；对于 Mac，运行 `brew install cmake`，或访问 https:\u002F\u002Fcmake.org）。\n\n在终端中输入：\n```\n.\u002Fbuild_cmake_pybullet_double.sh\n```\n该脚本将调用 cmake 并在 build_cmake 目录中进行构建。您可以在 Bullet\u002Fexamples\u002Fpybullet 中找到 pybullet。而 BulletExampleBrowser 二进制文件则位于 Bullet\u002Fexamples\u002FExampleBrowser。\n\n您也可以使用 premake 构建 Bullet。build3 文件夹中包含 premake 可执行文件。根据您的系统（Linux 32位、64位或 Mac OSX），使用以下命令之一：\n使用 premake：\n```\ncd build3\n.\u002Fpremake4_linux --double gmake\n.\u002Fpremake4_linux64 --double gmake\n.\u002Fpremake4_osx --double --enable_pybullet gmake\n```\n然后：\n```\ncd gmake\nmake\n```\n\n请注意，在 Linux 上，由于编译器在混合共享库和静态库时存在问题，因此必须使用 cmake 来构建 pybullet。\n\n**Mac OSX Xcode**\n\n点击 build3\u002Fxcode4.command，或在终端窗口中执行：\n```\n.\u002Fpremake_osx xcode4\n```\n\n## 使用方法 ##\nApp_ExampleBrowser 可执行文件位于 bin 文件夹中。您可以通过终端\u002F命令提示符直接运行，或直接双击打开。\n\n```\n[--start_demo_name=\"Demo Name\"]     从选定的演示开始  \n[--mp4=moviename.mp4]               创建窗口的 mp4 视频，需安装 ffmpeg\n[--mouse_move_multiplier=0.400000]  设置鼠标移动灵敏度\n[--mouse_wheel_multiplier=0.01]     设置鼠标滚轮灵敏度\n[--background_color_red= 0.9]       设置背景颜色的红色分量。绿色和蓝色同理\n[--fixed_timestep= 0.0]             使用实时时间步长（0.0）或固定时间步长（0.016666）\n```\n\n您可以使用鼠标拾取功能抓取物体。按住 ALT 或 CONTROL 键时，即可使用 Maya 风格的相机控制。按下 F1 可拍摄一系列截图。按 ESCAPE 键退出演示应用。\n\n更多详细信息请参阅 docs 文件夹和 Bullet 物理论坛。","# Bullet Physics (bullet3) 快速上手指南\n\nBullet Physics 是一个用于实时碰撞检测和多物理模拟的 C++ SDK，广泛应用于 VR、游戏、视觉特效、机器人及机器学习领域。对于大多数用户，官方强烈推荐使用 **PyBullet**（Python 绑定），以获得更便捷的机器人学、强化学习和 VR 开发支持。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**：Windows, Linux, Mac OSX, iOS, Android。\n*   **编译器**：支持 C++ 2003 标准的编译器（如需编译 C++ 源码）。\n*   **图形接口**：部分演示程序需要 OpenGL 2 或 OpenGL 3；也有无需图形界面的单元测试。\n*   **GPU 加速（可选）**：若需使用 OpenCL GPGPU 进行全 GPU 碰撞检测和刚体动力学模拟，需高端桌面显卡（如 AMD Radeon 7970 或 NVIDIA GTX 680 及以上）。注意：目前不支持 OpenCL CPU 设备，笔记本显卡性能可能受限。\n\n### 前置依赖\n*   **Python 用户**：需安装 Python 3 及 pip。\n*   **Linux 用户**：建议安装构建工具链和 CMake。\n    ```bash\n    sudo apt-get install build-essential\n    sudo apt-get install cmake\n    ```\n*   **Mac 用户**：建议通过 Homebrew 安装 CMake。\n    ```bash\n    brew install cmake\n    ```\n\n## 安装步骤\n\n### 方案一：安装 PyBullet（推荐）\n这是最简单且功能最全面的方式，适用于机器人、强化学习及 VR 开发。\n\n```bash\npip3 install pybullet --upgrade --user\n```\n\n### 方案二：通过 vcpkg 安装 C++ 库\n如果你需要使用 C++ 原生库，可以使用 vcpkg 包管理器：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FMicrosoft\u002Fvcpkg.git\ncd vcpkg\n.\u002Fbootstrap-vcpkg.sh\n.\u002Fvcpkg integrate install\n.\u002Fvcpkg install bullet3\n```\n\n### 方案三：从源码编译（Linux\u002FMac）\n如需自定义编译或运行示例浏览器：\n\n```bash\n.\u002Fbuild_cmake_pybullet_double.sh\n```\n*注：该脚本会在 `build_cmake` 目录中构建项目。PyBullet 模块位于 `Bullet\u002Fexamples\u002Fpybullet`，示例浏览器二进制文件位于 `Bullet\u002Fexamples\u002FExampleBrowser`。*\n\n## 基本使用\n\n### 1. 运行 PyBullet 示例\n安装完成后，可直接运行以下命令体验内置的强化学习环境示例：\n\n```bash\npython3 -m pybullet_envs.examples.enjoy_TF_AntBulletEnv_v0_2017may\npython3 -m pybullet_envs.examples.enjoy_TF_HumanoidFlagrunHarderBulletEnv_v1_2017jul\npython3 -m pybullet_envs.deep_mimic.testrl --arg_file run_humanoid3d_backflip_args.txt\n```\n\n### 2. 连接 VR 沙盒（可选）\n如果在 Windows 上构建了 VR 项目（如 HTC Vive 或 Oculus Rift 支持），可通过共享内存从 Python 连接：\n\n```python\nimport pybullet as p\np.connect(p.SHARED_MEMORY) \n# 或者使用 TCP: p.connect(p.TCP, \"localhost\", 6667)\n# 或者使用 UDP: p.connect(p.UDP, \"192.168.86.10\", 1234)\n```\n\n### 3. 运行示例浏览器 (App_ExampleBrowser)\n编译完成后，可执行 `bin` 文件夹下的 `App_ExampleBrowser`。支持以下常用参数：\n\n```bash\n[--start_demo_name=\"Demo Name\"]     # 启动指定演示\n[--mp4=moviename.mp4]               # 录制窗口视频为 mp4 (需安装 ffmpeg)\n[--mouse_move_multiplier=0.400000]  # 设置鼠标移动灵敏度\n[--mouse_wheel_multiplier=0.01]     # 设置鼠标滚轮灵敏度\n[--background_color_red= 0.9]       # 设置背景色红色分量 (同理 green\u002Fblue)\n[--fixed_timestep= 0.0]             # 使用时间步长 (0.0 为实时，0.016666 为固定步长)\n```\n\n**操作提示**：\n*   **抓取物体**：使用鼠标拾取。\n*   **相机控制**：按住 `ALT` 或 `CONTROL` 键，使用 Maya 风格的鼠标控制相机。\n*   **截图**：按 `F1` 生成一系列截图。\n*   **退出**：按 `ESCAPE` 键退出程序。","某机器人研发团队正在开发一款基于强化学习的四足机器人，需要在虚拟环境中训练其应对复杂地形和动态障碍物的行走能力。\n\n### 没有 bullet3 时\n- 物理仿真精度低，机器人在虚拟环境中行走时经常出现“穿模”或悬浮现象，导致训练数据失真。\n- 碰撞检测计算缓慢，无法实时处理多腿与地面的高频交互，严重拖慢强化学习算法的迭代速度。\n- 缺乏对刚体动力学的高效支持，模拟机器人摔倒或受外力冲击时，动作表现僵硬且不自然。\n- 难以对接 Python 生态，团队需花费大量时间编写底层 C++ 接口代码，无法快速验证新的控制策略。\n- 不支持 GPU 加速，大规模并行训练场景下算力瓶颈明显，实验周期被迫延长数倍。\n\n### 使用 bullet3 后\n- 借助 bullet3 高精度的实时碰撞检测，机器人脚部与地形的接触反馈真实可靠，彻底消除了“穿模”问题。\n- 利用其优化的多物理引擎，系统能流畅处理高频步态交互，显著提升了强化学习模型的训练效率。\n- 通过 bullet3 强大的刚体动力学模拟，机器人跌倒、翻滚等复杂动态行为表现自然，大幅增强了策略的鲁棒性。\n- 直接调用 PyBullet 绑定，团队可用 Python 快速搭建仿真环境并集成 TensorFlow\u002FPyTorch，研发周期缩短 60%。\n- 开启 OpenCL GPU 加速功能后，大规模并行仿真实验运行流畅，原本需要数天的训练任务现在仅需数小时。\n\nbullet3 通过提供高精度、实时的物理仿真与便捷的 Python 接口，成为连接机器人算法研究与现实部署的关键桥梁。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbulletphysics_bullet3_5b439f46.png","bulletphysics","Bullet Physics SDK","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbulletphysics_f09127dd.png","Bullet Physics development team",null,"erwin.coumans@gmail.com","http:\u002F\u002Fbulletphysics.org","https:\u002F\u002Fgithub.com\u002Fbulletphysics",[85,89,93,97,101,105,109,112],{"name":86,"color":87,"percentage":88},"C++","#f34b7d",84.3,{"name":90,"color":91,"percentage":92},"C","#555555",12.7,{"name":94,"color":95,"percentage":96},"CMake","#DA3434",1.2,{"name":98,"color":99,"percentage":100},"Lua","#000080",0.9,{"name":102,"color":103,"percentage":104},"Python","#3572A5",0.6,{"name":106,"color":107,"percentage":108},"Batchfile","#C1F12E",0.1,{"name":110,"color":111,"percentage":108},"Shell","#89e051",{"name":113,"color":114,"percentage":115},"Makefile","#427819",0,14374,3060,"2026-04-07T10:48:10","NOASSERTION","Windows, Linux, macOS, iOS, Android","可选：若启用实验性 OpenCL GPGPU 支持，需高端桌面显卡（如 AMD Radeon 7970 或 NVIDIA GTX 680 及以上）；不支持 OpenCL CPU 设备；笔记本 GPU 性能可能较差。常规运行仅需 OpenGL 2 或 3（用于部分演示）。","未说明",{"notes":124,"python":125,"dependencies":126},"1. 核心库为 C++ 编写，支持 C++ 2003 标准。2. 强烈建议使用 PyBullet Python 绑定进行机器人、强化学习和 VR 开发。3. 实验性 GPU 加速功能依赖 OpenCL，且在特定驱动下可能存在内核编译失败的问题。4. 在 Linux 上构建 PyBullet 必须使用 CMake，以避免混合链接共享库和静态库时的编译器问题。5. Windows 用户可通过提供的批处理文件自动查找 Python，若未安装在根目录需手动配置路径。","Python 3 (通过 pip3 安装 pybullet)",[127,94,128,129,130],"C++ 编译器 (支持 C++ 2003)","GCC (Linux)","OpenGL 2\u002F3 (可选，用于图形演示)","FFmpeg (可选，用于录制 MP4)",[29,16],[133,134,135,136,137,138,139,140,141],"simulation","robotics","kinematics","virtual-reality","reinforcement-learning","computer-animation","game-development","simulator","pybullet","2026-03-27T02:49:30.150509","2026-04-08T05:28:55.958279",[145,150,155,160,165,170],{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},23835,"如何正确安装 pybullet 并运行 Gym 示例？","推荐安装 Anaconda (Python 3.6)，然后依次运行以下 pip 命令：\npip install pybullet\npip install tensorflow\npip install gym\npip install baselines\n\n安装完成后，进入 bullet3\u002Fexamples\u002Fpybullet\u002Ftensorflow 目录，运行 python humanoid_running.py 测试安装。如果遇到路径问题，请检查是否有多余的自定义工具干扰了模块路径。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F1234",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},23836,"如何在 macOS 上解决编译 pybullet 时出现的 'wchar.h: No such file or directory' 错误？","该错误通常发生在 macOS 上使用 GCC 编译时找不到系统头文件。这往往是因为 Anaconda 环境中的 GCC 版本与系统不兼容或路径配置问题。建议尝试使用系统默认的 Clang 编译器，或者重新安装\u002F更新 Xcode Command Line Tools (运行 xcode-select --install)。如果必须使用 Conda，请确保环境变量中没有强制指向错误的 include 路径。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F830",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},23837,"Bullet C-API 在哪里？如何链接使用？","Bullet C-API 的头文件位于 Bullet\u002Fexamples\u002FSharedMemory\u002FPhysicsClientC_API.h。\n在编译时，如果使用 CMake，可以编译 App_RobotSimulator_NoGUI 或 App_RobotSimulator，它们会链接到 BulletRobotics 库。\n如果需要生成共享库以使用 C API，请在 CMake 配置时添加选项：-DBUILD_SHARED_LIBS=ON。\n注意：部分特定符号（如 b3CreateInProcessPhysicsServerAndConnect 等）可能在某些构建配置中不可见，如果不使用这些特定函数，库通常可以正常工作。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F130",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},23838,"Conda-forge 上的 bullet 包和 pip 上的 pybullet 包有什么区别？","Conda-forge 上的 `bullet` 包实际上安装的是 `pybullet`，但这经常引起混淆，因为底层的 C++ 引擎 `bullet` 和 Python 绑定 `pybullet` 在概念上是不同的。\n主要问题在于 conda-forge 的包更新可能滞后于 pip 版本。如果需要使用最新功能，建议直接使用 `pip install pybullet`。如果必须在 Conda 环境中使用，需注意 pip 安装可能会覆盖 conda 安装的包。目前社区正在努力整合 bullet-cpp 和 pybullet 到同一个 conda feedstock 中以解决此问题。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F3073",{"id":166,"question_zh":167,"answer_zh":168,"source_url":169},23839,"训练 Kuka 抓取示例 (train_kuka_grasping.py) 需要多长时间？","具体的训练时间取决于硬件配置和环境设置，Issue 中未给出确切的标准时长。但该问题引发了关于 Kuka 环境文档更新的讨论。如果您在使用 Kuka 环境时遇到困惑，建议参考最新的官方文档或 Quickstart Guide，因为早期版本中描述的一些问题（如 KukaBulletEnv-v0 环境的特定行为）可能已在后续版本中修复。此外，社区中有用户分享了针对 Kuka 的 A2C 算法实现和模仿学习课程，如有兴趣可联系相关贡献者获取协作。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F1386",{"id":171,"question_zh":172,"answer_zh":173,"source_url":174},23840,"PyBullet 是否提供用于调试的坐标变换可视化工具？","目前官方没有资源专门开发任意姿态\u002F坐标系的可视化工具或通用的变换查询对象（如 Issue 中提议的 setPoseObject 或 getTransform 等高级 API）。\n维护者表示，如果有志愿者提交小型的代码补丁（small patch），团队会考虑合并。在此之前，建议使用现有的 CoordinateSystemDemo 作为参考，或者通过获取物体的位置 (position) 和方向 (orientation\u002Fquaternion) 自行编写简单的可视化调试代码。位置和方向在底层通常是分开存储的。","https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F1136",[176,181,185,189,194,199,204,209,214,219,224],{"id":177,"version":178,"summary_zh":179,"released_at":180},145412,"3.25","Bug修复：恢复凹面体的早期退出机制，请参阅 https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fissues\u002F4263\n\n3.24版本中的另一项修复：在使用createMultiBody时避免内存泄漏。感谢Jason Peng提供的报告和复现案例。\n\n一个小的修复，与addUserDebugPoints补丁引入的调试线绘制问题相关。此外，移除了C++11的‘override’关键字。\n\n更多变更请查看提交历史。\n\n有关点云的快速调试点渲染，请参阅此PR：\nhttps:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fpull\u002F3996\n\n这里有一个包含示例的[压缩包](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fpull\u002F3996#issuecomment-968279222)，说明如何使用该功能。\n\u003Cimg width=\"1136\" alt=\"debug_points\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F165001985-c56beb43-78d4-4d49-b5f9-e21d249bd7d6.png\">\n\n","2022-04-24T23:54:27",{"id":182,"version":183,"summary_zh":80,"released_at":184},145413,"3.22b","2022-03-26T02:31:09",{"id":186,"version":187,"summary_zh":80,"released_at":188},145414,"3.21","2021-12-01T18:25:16",{"id":190,"version":191,"summary_zh":192,"released_at":193},145415,"3.17","本次更新的 Bullet Physics 版本被用于由 Jason Peng 领导的“通过模仿动物学习敏捷的机器人运动技能”研究。\n\n![motion_imitation2](https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F94179275-22ed3b00-fe51-11ea-832b-1aebac09428d.png)\n\n更多信息请参见：https:\u002F\u002Fxbpeng.github.io\u002Fprojects\u002FRobotic_Imitation\u002Findex.html  \n相关视频：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lKYh6uuCwRY  \n\n此外，还提供了一个用于四足机器人运动的模型预测控制（MPC）示例。  \n代码库地址：https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmotion_imitation  \n\n安装 PyBullet 的命令为：pip3 install pybullet --user --upgrade","2020-11-26T22:27:00",{"id":195,"version":196,"summary_zh":197,"released_at":198},145416,"3.06","本次更新的 Bullet Physics 版本被用于由 Jason Peng 领导的“通过模仿动物学习敏捷机器人运动技能”研究。\n\n![motion_imitation2](https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F94179275-22ed3b00-fe51-11ea-832b-1aebac09428d.png)\n\n更多信息请参见：https:\u002F\u002Fxbpeng.github.io\u002Fprojects\u002FRobotic_Imitation\u002Findex.html  \n相关视频：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=lKYh6uuCwRY  \n\n此外，还提供了一个用于四足机器人运动的模型预测控制（MPC）示例。  \n代码仓库地址：https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmotion_imitation  \n\n安装 PyBullet 的命令为：pip3 install pybullet --user --upgrade","2020-09-24T17:18:46",{"id":200,"version":201,"summary_zh":202,"released_at":203},145417,"2.89","Bullet 2.89 引入了基于有限元方法的全新可变形体和布料实现，由 Xuchen Han 完成。通过统一的约束求解器，实现了可变形体与刚体\u002F多体之间的双向耦合。\n\nPyBullet 针对机器人领域的模拟到现实迁移进行了优化，提供了 Laikago 四足机器人的真实感模型，并实现了 [Deep Mimic](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Ftree\u002Fmaster\u002Fexamples\u002Fpybullet\u002Fgym\u002Fpybullet_envs\u002Fdeep_mimic) 算法。\n\n使用以下命令安装 PyBullet 并运行相关示例：\n```bash\npip3 install pybullet\npython3 -m pybullet_envs.examples.laikago\npython3 -m pybullet_envs.deep_mimic.testrl --arg_file run_humanoid3d_backflip_args.txt\n```\n\n![image](https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F71300105-fac32f80-2346-11ea-83cf-3a50ad085147.png)  \nDeep Mimic 后空翻视频：[https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aiWxIjtMMFI](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aiWxIjtMMFI)  \n\n更多内容请参阅：\n[PyBullet 快速入门指南](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F10sXEhzFRSnvFcl3XxNGhnD4N2SedqwdAvK3dsihxVUA\u002Fedit#heading=h.2ye70wns7io3)\n\n利用摩擦力保持抓握状态的有限元可变形体：\n![image](https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F71300033-58a34780-2346-11ea-8690-e71438b974c1.png)","2019-12-21T00:46:19",{"id":205,"version":206,"summary_zh":207,"released_at":208},145418,"2.88","今年，我们投入了大量精力来改进用于机器人和强化学习研究的 [PyBullet](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F10sXEhzFRSnvFcl3XxNGhnD4N2SedqwdAvK3dsihxVUA\u002Fedit#heading=h.2ye70wns7io3)。该 SDK 已被 [Google Brain 机器人团队](https:\u002F\u002Fai.google\u002Fresearch\u002Fteams\u002Fbrain\u002Frobotics\u002F) 的多篇已发表研究论文所采用，其中包括我们在 RSS 2018 上发表的论文《从仿真到现实：为四足机器人学习敏捷运动》（[arXiv 链接](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.10332)），相关视频请见 [这里](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xf_UXK0OTIk)。  \n![img](https:\u002F\u002Fpbs.twimg.com\u002Fmedia\u002FDaoiYjdVAAA4olg.jpg)  \n其中一些改进涉及在保存和恢复仿真时保持确定性，以及提升 GJK 凸体碰撞检测和 btMultiBody 的精度。","2018-12-31T21:03:07",{"id":210,"version":211,"summary_zh":212,"released_at":213},145419,"2.87","Bullet 2.87 对机器人、强化学习和 VR 的支持得到了增强。特别地，请参阅 http:\u002F\u002Fpybullet.org 上的 pybullet 快速入门指南中的“强化学习”部分。此外，还提供了初步的 [C# 绑定](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fblob\u002Fmaster\u002Fexamples\u002Fpybullet\u002Funity3d\u002Fautogen\u002FNativeMethods.cs)，以便在 Unity 3D 中使用 pybullet 进行机器人和强化学习相关开发。\n\n以下是一些视频：\n+ [Minitaur 使用 TF Agents PPO 训练，改进了电机模型并加入了随机化](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tfqCHDoFHRQ)\n+ [pybullet Ant 使用 TensorFlow Agents 训练](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=xmCH-i9Vfw4)\n+ [pybullet KUKA 抓取训练\u002F体验：TensorFlow + OpenAI Gym + Baselines DQN](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=JzmcRT5rc3c)\n\n以下是一个使用 TensorFlow Agents PPO 训练 pybullet_pendulum 的示例：\n```bash\npip install pybullet, agents, tensorflow, gym\n```\n\n```bash\npython -m pybullet_envs.agents.train_ppo --config=pybullet_pendulum --logdir=pendulum\ntensorboard --logdir=pendulum --port=2222\npython -m pybullet_envs.agents.visualize_ppo --logdir=pendulum\u002Fxxxxx --outdir=pendulum_video\n```\n\n![图片](https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F31039490-dd31bae8-a532-11e7-9958-0906b6265ea9.png)\n\nMinitaur 行走任务的 TensorBoard 训练进度图：\n\u003Cimg width=\"811\" alt=\"minitaur\" src=\"https:\u002F\u002Fuser-images.githubusercontent.com\u002F725468\u002F31039612-db32065c-a533-11e7-8926-496b35b11cb5.png\">\n\n","2017-09-29T23:37:13",{"id":215,"version":216,"summary_zh":217,"released_at":218},145420,"2.86.1","Bullet 2.86 对用于机器人、机器学习和 VR 的 Python 绑定 pybullet 进行了改进，请参阅 [pybullet 快速入门指南](https:\u002F\u002Fdocs.google.com\u002Fdocument\u002Fd\u002F10sXEhzFRSnvFcl3XxNGhnD4N2SedqwdAvK3dsihxVUA\u002Fedit)。\n\n此外，PGS LCP 约束求解器新增了一个选项：当残差（误差）低于指定的容差时即可提前终止求解（而非在固定迭代次数后才终止）。同时，还提供了可选的 [多线程优化](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3\u002Fpull\u002F847)，这要感谢 lunkhound 的贡献。目前初步支持加载部分 MuJoCo MJCF XML 文件（详见 data\u002Fmjcf 目录），请参阅使用 VR 手套进行的 Bullet VR 触觉实验：\n\nhttps:\u002F\u002Fwww.youtube.com\u002Fwatch?v=0JC-yukK-jo\n\n![app_sharedmemoryphysics_vr_vs20 2017-01-26 10-12-45-16](https:\u002F\u002Fcloud.githubusercontent.com\u002Fassets\u002F725468\u002F22344299\u002F825edb1c-e3b0-11e6-8d0d-b372c95f9207.png)","2017-02-19T13:43:45",{"id":220,"version":221,"summary_zh":222,"released_at":223},145421,"2.85.1","Bullet 2.85（此前称为 2.84）引入了 pybullet——一套易于使用的 Python 绑定——以及对 HTC Vive 和 Oculus Rift 的虚拟现实支持。此外，还新增了逆运动学和逆动力学的支持。在文档更新之前，此版本仍被标记为“预发布”。另请参阅此视频：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=VMJyZtHQL50\n\u003Cimg width=\"1283\" alt=\"img\" src=\"https:\u002F\u002Fcloud.githubusercontent.com\u002Fassets\u002F725468\u002F19355503\u002F7a7fb3a0-911f-11e6-87ae-3d5075770010.png\">\n","2016-10-15T17:50:55",{"id":225,"version":226,"summary_zh":227,"released_at":228},145422,"2.83.7","Bullet 物理 SDK 2.83 是首个使用全新示例浏览器的版本。请参阅 docs\u002FBulletQuickstart.pdf 了解如何开始使用。\n\n![bullet2 83](https:\u002F\u002Fcloud.githubusercontent.com\u002Fassets\u002F725468\u002F7449383\u002Ff05182ec-f1e9-11e4-98e3-e87d88a5bb2b.png)\n\n请注意，示例浏览器还需要进一步完善，部分旧版示例尚未迁移到新的示例结构中。这将是未来版本的一个待办事项。","2016-01-12T21:45:46"]