[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ahundt--awesome-robotics":3,"tool-ahundt--awesome-robotics":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":87,"forks":88,"last_commit_at":89,"license":86,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":86,"oss_zip_packed_at":86,"status":16,"created_at":128,"updated_at":129,"faqs":130,"releases":131},3406,"ahundt\u002Fawesome-robotics","awesome-robotics","A curated list of awesome links and software libraries that are useful for robots.","awesome-robotics 是一个精心整理的机器人领域资源合集，旨在为开发者提供一站式的高质量链接与软件库导航。在机器人开发过程中，从业者往往面临工具分散、选型困难以及学习路径不清晰等挑战，awesome-robotics 通过系统化的分类，有效解决了信息碎片化问题，帮助用户快速定位所需的技术栈。\n\n这份清单内容极为丰富，涵盖了从底层仿真到上层智能算法的全链路资源。它不仅收录了 CoppeliaSim、Microsoft AirSim 等主流机器人模拟器，还整合了 Pangolin、PlotJuggler 等可视化与数据处理工具。特别值得一提的是，它在机器学习与深度学习领域提供了详尽的指引，包括 TensorFlow、Keras 及其在图像分割、循环神经网络等方面的具体应用库，甚至关联了前沿学术论文与在线课程资源。\n\nawesome-robotics 非常适合机器人工程师、科研人员以及希望进入该领域的学生使用。无论是需要搭建仿真环境、优化感知算法，还是寻找最新的研究基准，都能从中获得极具价值的参考。对于希望高效构建机器人系统或追踪技术前沿的专业人士而言，这是一个不可或缺的实用指南","awesome-robotics 是一个精心整理的机器人领域资源合集，旨在为开发者提供一站式的高质量链接与软件库导航。在机器人开发过程中，从业者往往面临工具分散、选型困难以及学习路径不清晰等挑战，awesome-robotics 通过系统化的分类，有效解决了信息碎片化问题，帮助用户快速定位所需的技术栈。\n\n这份清单内容极为丰富，涵盖了从底层仿真到上层智能算法的全链路资源。它不仅收录了 CoppeliaSim、Microsoft AirSim 等主流机器人模拟器，还整合了 Pangolin、PlotJuggler 等可视化与数据处理工具。特别值得一提的是，它在机器学习与深度学习领域提供了详尽的指引，包括 TensorFlow、Keras 及其在图像分割、循环神经网络等方面的具体应用库，甚至关联了前沿学术论文与在线课程资源。\n\nawesome-robotics 非常适合机器人工程师、科研人员以及希望进入该领域的学生使用。无论是需要搭建仿真环境、优化感知算法，还是寻找最新的研究基准，都能从中获得极具价值的参考。对于希望高效构建机器人系统或追踪技术前沿的专业人士而言，这是一个不可或缺的实用指南。","# Awesome Robotics\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n\nAwesome links, software libraries, [papers](papers.md), and other [intersting links](interesting.md) that are useful for robots.\n\n\nRelevant Awesome Lists\n----------------------\n\n- [Kiloreaux\u002Fawesome-robotics](https:\u002F\u002Fgithub.com\u002FKiloreux\u002Fawesome-robotics) - Learn about Robotics.\n- [Robotics Libraries](https:\u002F\u002Fgithub.com\u002Fjslee02\u002Fawesome-robotics-libraries) - Another list of awesome robotics libraries.\n- [Robotics Coursework](https:\u002F\u002Fgithub.com\u002Fmithi\u002Frobotics-coursework) - A list of robotics courses you can take online\n- [Computer Vision](https:\u002F\u002Fgithub.com\u002Fjbhuang0604\u002Fawesome-computer-vision)\n- [Deep Learning](https:\u002F\u002Fgithub.com\u002FChristosChristofidis\u002Fawesome-deep-learning) - Neural networks.\n    - [TensorFlow](https:\u002F\u002Fgithub.com\u002Fjtoy\u002Fawesome-tensorflow) - Library for machine intelligence.\n    - [Papers](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers) - The most cited deep learning papers.\n- [Deep Vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision) - Deep learning for computer vision\n- [Data Visualization](https:\u002F\u002Fgithub.com\u002Ffasouto\u002Fawesome-dataviz) - See what your robot is doing with any programming language.\n- [paperswithcode state of the art](https:\u002F\u002Fpaperswithcode.com\u002Fsota) - List of state of the art results on various machine learning benchmarks.\n\nSimulators\n----------\n\n- [CoppeliaSim](coppeliarobotics.com\u002Findex.html) - Create, Simulate, any Robot. (formerly named V-REP)\n- [Microsoft Airsim](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002FAirSim) - Open source simulator based on Unreal Engine for autonomous vehicles from Microsoft AI & Research.\n- [Bullet Physics SDK](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3) - Real-time collision detection and multi-physics simulation for VR, games, visual effects, robotics, machine learning etc. Also see [pybullet](https:\u002F\u002Fpybullet.org).\n\nVisualization, Video, Display, and Rendering\n-----------------------\n\n - [Pangolin](https:\u002F\u002Fgithub.com\u002Fstevenlovegrove\u002FPangolin) - A lightweight portable rapid development library for managing OpenGL display \u002F interaction and abstracting video input.\n- [PlotJuggler](https:\u002F\u002Fgithub.com\u002Ffacontidavide\u002FPlotJuggler) - Quickly plot and re-plot data on the fly! Includes optional ROS integration.\n- [Data Visualization](https:\u002F\u002Fgithub.com\u002Ffasouto\u002Fawesome-dataviz) - A list of awesome data visualization tools.\n\nMachine Learning\n----------------\n\n### TensorFlow related\n\n- [Keras](https:\u002F\u002Fkeras.io) - Deep Learning library for Python. Convnets, recurrent neural networks, and more. Runs on TensorFlow or Theano.\n- [keras-contrib](https:\u002F\u002Fgithub.com\u002Ffarizrahman4u\u002Fkeras-contrib) - Keras community contributions.\n- [TensorFlow](tensorflow.org) - An open-source software library for Machine Intelligence.\n- [recurrentshop](https:\u002F\u002Fgithub.com\u002Fdatalogai\u002Frecurrentshop) - Framework for building complex recurrent neural networks with Keras.\n- [tensorpack](https:\u002F\u002Fgithub.com\u002Fppwwyyxx\u002Ftensorpack) - Neural Network Toolbox on TensorFlow.\n- [tensorlayer](https:\u002F\u002Fgithub.com\u002Fzsdonghao\u002Ftensorlayer) - Deep Learning and Reinforcement Learning Library for Researchers and Engineers.\n- [TensorFlow-Examples](https:\u002F\u002Fgithub.com\u002Faymericdamien\u002FTensorFlow-Examples) - TensorFlow Tutorial and Examples for beginners.\n- [hyperas](https:\u002F\u002Fgithub.com\u002Fmaxpumperla\u002Fhyperas) - Keras + Hyperopt: A very simple wrapper for convenient hyperparameter optimization.\n- [elephas](https:\u002F\u002Fgithub.com\u002Fmaxpumperla\u002Felephas) - Distributed Deep learning with Keras & Spark\n- [PipelineAI](https:\u002F\u002Fgithub.com\u002Ffluxcapacitor\u002Fpipeline) - End-to-End ML and AI Platform for Real-time Spark and Tensorflow Data Pipelines.\n- [sonnet](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet) - Google Deepmind APIs on top of TensorFlow.\n- [visipedia\u002Ftfrecords](https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Ftfrecords) - Demonstrates the use of TensorFlow's TFRecord data format.\n\n#### Image Segmentation\n\n- [tf-image-segmentation](https:\u002F\u002Fgithub.com\u002Fwarmspringwinds\u002Ftf-image-segmentation) - Image Segmentation framework based on Tensorflow and TF-Slim library.\n- [Keras-FCN](https:\u002F\u002Fgithub.com\u002Faurora95\u002FKeras-FCN)\n\n\nLogging and Messaging\n---------------------\n\n- [spdlog](https:\u002F\u002Fgithub.com\u002Fgabime\u002Fspdlog) - Super fast C++ logging library.\n- [lcm](https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm) - Lightweight Communications and Marshalling, message passing and data marshalling for real-time systems where high-bandwidth and low latency are critical.\n\nTracking\n--------\n\n- [simtrack](https:\u002F\u002Fgithub.com\u002Fkarlpauwels\u002Fsimtrack) - A simulation-based framework for tracking.\n- [ar_track_alvar](https:\u002F\u002Fgithub.com\u002Fsniekum\u002Far_track_alvar) - AR tag tracking library for ROS.\n- [artoolkit5](https:\u002F\u002Fgithub.com\u002Fartoolkit\u002Fartoolkit5) - Augmented Reality Toolkit, which has excellent AR tag tracking software.\n\nRobot Operating System (ROS)\n----------------------------\n\n- [ROS](ros.org) - Main ROS website.\n- [ros2\u002Fdesign](https:\u002F\u002Fgithub.com\u002Fros2\u002Fdesign) - Design documentation for ROS 2.0 effort.\n\n\nKinematics, Dynamics, Constrained Optimization\n----------------------------------------------\n\n- [jrl-umi3218\u002FTasks](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FTasks) - Tasks is library for real time control of robots and kinematic trees using constrained optimization.\n- [jrl-umi3218\u002FRBDyn](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FRBDyn) - RBDyn provides a set of classes and functions to model the dynamics of rigid body systems.\n- [ceres-solver](https:\u002F\u002Fgithub.com\u002Fceres-solver\u002Fceres-solver) - Solve Non-linear Least Squares problems with bounds constraints and general unconstrained optimization problems. Used in production at Google since 2010.\n- [orocos_kinematics_dynamics](https:\u002F\u002Fgithub.com\u002Forocos\u002Forocos_kinematics_dynamics) - Orocos Kinematics and Dynamics C++ library.\n- [flexible-collsion-library](https:\u002F\u002Fgithub.com\u002Fflexible-collision-library\u002Ffcl) - Performs three types of proximity queries on a pair of geometric models composed of triangles, integrated with ROS. \n- [robot_calibration](https:\u002F\u002Fgithub.com\u002Fmikeferguson\u002Frobot_calibration) - generic robot kinematics calibration for ROS\n- [ruckig](https:\u002F\u002Fgithub.com\u002Fpantor\u002Fruckig) - Real-time, time-optimal and jerk-constrained online trajectory generation.\n\nCalibration\n-----------\n\n- [handeye-calib-camodocal](https:\u002F\u002Fgithub.com\u002Fjhu-lcsr\u002Fhandeye_calib_camodocal) - generic robot hand-eye calibration.\n- [robot_calibration](https:\u002F\u002Fgithub.com\u002Fmikeferguson\u002Frobot_calibration) - generic robot kinematics calibration for ROS\n- [kalibr](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Fkalibr) - camera and imu calibration for ROS\n\nReinforcement Learning\n----------------------\n\n- [\"Good Robot!\": Efficient Reinforcement Learning for Multi-Step Visual Tasks with Sim to Real Transfer](https:\u002F\u002Fgithub.com\u002Fjhu-lcsr\u002Fgood_robot) - A real robot completes multi-step tasks after \u003C20k simulated actions. [Good Robot on ArXiV](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.11730) (disclaimer: @ahundt is first author)\n- [TensorForce](https:\u002F\u002Fgithub.com\u002Freinforceio\u002Ftensorforce) - A TensorFlow library for applied reinforcement learning\n- [gqcnn](https:\u002F\u002Fgithub.com\u002FBerkeleyAutomation\u002Fgqcnn) -  [Grasp Quality Convolutional Neural Networks (GQ-CNNs)](https:\u002F\u002Fberkeleyautomation.github.io\u002Fgqcnn\u002Finfo\u002Finfo.html) for grasp planning using training datasets from the [Dexterity Network (Dex-Net)](https:\u002F\u002Fberkeleyautomation.github.io\u002Fdex-net)\n- [Guided Policy Search](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fgps) - Guided policy search (gps) algorithm and LQG-based trajectory optimization, meant to help others understand, reuse, and build upon existing work. \n\nDrivers for Sensors, Devices and Arms\n-------------------------------------\n\n- [libfreenect2](https:\u002F\u002Fgithub.com\u002FOpenKinect\u002Flibfreenect2) - Open source drivers for the Kinect for Windows v2 and Xbox One devices.\n- [iai_kinect2](https:\u002F\u002Fgithub.com\u002Fcode-iai\u002Fiai_kinect2) - Tools for using the Kinect One (Kinect v2) in ROS.\n- [grl](https:\u002F\u002Fgithub.com\u002Fahundt\u002Fgrl) - Generic Robotics Library: Cross platform drivers for Kuka iiwa and Atracsys FusionTrack with optional v-rep and ros drivers. Also has cross platform Hand Eye Calibration and Tool Tip Calibration.\n\nDatasets\n--------\n\n- [CoSTAR Block Stacking Dataset](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fcostardataset) - Robot stacking colored children's blocks (disclaimer: created by @ahundt)\n- [shapestacks](http:\u002F\u002Fshapestacks.robots.ox.ac.uk\u002F#paper) - simulated stacks of colored children's objects\n- [pascal voc 2012](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F) - The classic reference image segmentation dataset.\n- [openimages](https:\u002F\u002Fgithub.com\u002Fopenimages\u002Fdataset\u002F) - Huge imagenet style dataset by Google.\n- [COCO](mscoco.org) - Objects with segmentation, keypoints, and links to many other external datasets.\n- [cocostuff](https:\u002F\u002Fgithub.com\u002Fnightrome\u002Fcocostuff) - COCO additional full scene segmentation including backgrounds and annotator.\n- [Google Brain Robot Data](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbrainrobotdata\u002Fhome) - Robotics datasets including grasping, pushing, and pouring.\n- [Materials in Context](http:\u002F\u002Fopensurfaces.cs.cornell.edu\u002Fpublications\u002Fminc\u002F) - Materials Dataset with real world images in 23 categories.\n- [Dex-Net 2.0](http:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2017\u002F06\u002F27\u002Fdexnet-2.0\u002F) - 6.7 million pairs of synthetic point clouds and grasps with robustness labels.\n\n#### Dataset Collection\n- [LabelFusion](labelfusion.csail.mit.edu) - \"A Pipeline for Generating Ground Truth Labels for Real RGBD Data of Cluttered Scenes\" [code](https:\u002F\u002Fgithub.com\u002FRobotLocomotion\u002FLabelFusion)\n- [cocostuff](https:\u002F\u002Fgithub.com\u002Fnightrome\u002Fcocostuff) - COCO additional full scene segmentation including backgrounds and annotator.\n\nLinear Algebra & Geometry\n-------------------------\n\n- [Eigen](http:\u002F\u002Feigen.tuxfamily.org) - Eigen is a C++ template library for linear algebra: matrices, vectors, numerical solvers, and related algorithms.\n- [Boost.QVM](https:\u002F\u002Fgithub.com\u002Fboostorg\u002Fqvm) - Quaternions, Vectors, Matrices library for Boost.\n- [Boost.Geometry](https:\u002F\u002Fgithub.com\u002Fboostorg\u002Fgeometry\u002F) - Boost.Geometry contains instantiable geometry classes, but library users can also use their own.\n- [SpaceVecAlg](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FSpaceVecAlg) - Implementation of spatial vector algebra for 3D geometry with the Eigen3 linear algebra library.\n- [Sophus](https:\u002F\u002Fgithub.com\u002Fstrasdat\u002FSophus) - C++ implementation of Lie Groups which are for 3D Geometry, using Eigen.\n\n\nPoint Clouds\n------------\n\n- [libpointmatcher](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Flibpointmatcher) - An \"Iterative Closest Point\" library robotics and 2-D\u002F3-D mapping.\n- [Point Cloud Library (pcl)](https:\u002F\u002Fgithub.com\u002FPointCloudLibrary\u002Fpcl) - The Point Cloud Library (PCL) is a standalone, large scale, open project for 2D\u002F3D image and point cloud processing.\n\n\n\nSimultaneous Localization and Mapping (SLAM)\n--------------------------------------------\n\n- [ElasticFusion](https:\u002F\u002Fgithub.com\u002Fmp3guy\u002FElasticFusion) - Real-time dense visual SLAM system.\n- [co-fusion](https:\u002F\u002Fgithub.com\u002Fmartinruenz\u002Fco-fusion) - Real-time Segmentation, Tracking and Fusion of Multiple Objects. Extends ElasticFusion.\n- [Google Cartographer](https:\u002F\u002Fgithub.com\u002Fgooglecartographer\u002Fcartographer\u002F) - Cartographer is a system that provides real-time simultaneous localization and mapping (SLAM) in 2D and 3D across multiple platforms and sensor configurations.\n- [OctoMap](https:\u002F\u002Fgithub.com\u002FOctoMap\u002Foctomap) - An Efficient Probabilistic 3D Mapping Framework Based on Octrees. Contains the main OctoMap library, the viewer octovis, and dynamicEDT3D.\n- [ORB_SLAM2](https:\u002F\u002Fgithub.com\u002Fraulmur\u002FORB_SLAM2) - Real-Time SLAM for Monocular, Stereo and RGB-D Cameras, with Loop Detection and Relocalization Capabilities.\n\n\n# License\n\n\u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F\">\u003Cimg alt=\"Creative Commons License\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fahundt_awesome-robotics_readme_4650c94e56fa.png\" \u002F>\u003C\u002Fa>\u003Cbr \u002F>This work is licensed under a \u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F\">Creative Commons Attribution 4.0 International License\u003C\u002Fa>.\n","# 令人惊叹的机器人技术\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n\n关于机器人的精彩链接、软件库、[论文](papers.md)以及其他[有趣链接](interesting.md)。\n\n相关 Awesome 列表\n----------------------\n\n- [Kiloreaux\u002Fawesome-robotics](https:\u002F\u002Fgithub.com\u002FKiloreux\u002Fawesome-robotics) - 学习机器人技术。\n- [Robotics Libraries](https:\u002F\u002Fgithub.com\u002Fjslee02\u002Fawesome-robotics-libraries) - 另一个优秀的机器人技术库列表。\n- [Robotics Coursework](https:\u002F\u002Fgithub.com\u002Fmithi\u002Frobotics-coursework) - 在线可修读的机器人课程列表。\n- [计算机视觉](https:\u002F\u002Fgithub.com\u002Fjbhuang0604\u002Fawesome-computer-vision)\n- [深度学习](https:\u002F\u002Fgithub.com\u002FChristosChristofidis\u002Fawesome-deep-learning) - 神经网络。\n    - [TensorFlow](https:\u002F\u002Fgithub.com\u002Fjtoy\u002Fawesome-tensorflow) - 用于机器智能的库。\n    - [论文](https:\u002F\u002Fgithub.com\u002Fterryum\u002Fawesome-deep-learning-papers) - 被引用最多的深度学习论文。\n- [Deep Vision](https:\u002F\u002Fgithub.com\u002Fkjw0612\u002Fawesome-deep-vision) - 面向计算机视觉的深度学习。\n- [数据可视化](https:\u002F\u002Fgithub.com\u002Ffasouto\u002Fawesome-dataviz) - 使用任何编程语言查看你的机器人在做什么。\n- [paperswithcode 最新进展](https:\u002F\u002Fpaperswithcode.com\u002Fsota) - 各种机器学习基准上的最新成果列表。\n\n仿真器\n----------\n\n- [CoppeliaSim](coppeliarobotics.com\u002Findex.html) - 创建并仿真任意机器人。（原名 V-REP）\n- [Microsoft Airsim](https:\u002F\u002Fgithub.com\u002FMicrosoft\u002FAirSim) - 基于虚幻引擎的开源仿真器，适用于微软人工智能与研究部门的自动驾驶车辆。\n- [Bullet Physics SDK](https:\u002F\u002Fgithub.com\u002Fbulletphysics\u002Fbullet3) - 用于 VR、游戏、视觉特效、机器人、机器学习等领域的实时碰撞检测和多物理场仿真。另请参阅 [pybullet](https:\u002F\u002Fpybullet.org)。\n\n可视化、视频、显示与渲染\n-----------------------\n\n - [Pangolin](https:\u002F\u002Fgithub.com\u002Fstevenlovegrove\u002FPangolin) - 一个轻量级、便携式的快速开发库，用于管理 OpenGL 显示\u002F交互以及抽象视频输入。\n- [PlotJuggler](https:\u002F\u002Fgithub.com\u002Ffacontidavide\u002FPlotJuggler) - 快速地即时绘制和重绘数据！包含可选的 ROS 集成。\n- [数据可视化](https:\u002F\u002Fgithub.com\u002Ffasouto\u002Fawesome-dataviz) - 优秀数据可视化工具列表。\n\n机器学习\n----------------\n\n### TensorFlow 相关\n\n- [Keras](https:\u002F\u002Fkeras.io) - Python 的深度学习库。卷积神经网络、循环神经网络等。可在 TensorFlow 或 Theano 上运行。\n- [keras-contrib](https:\u002F\u002Fgithub.com\u002Ffarizrahman4u\u002Fkeras-contrib) - Keras 社区贡献。\n- [TensorFlow](tensorflow.org) - 一个用于机器智能的开源软件库。\n- [recurrentshop](https:\u002F\u002Fgithub.com\u002Fdatalogai\u002Frecurrentshop) - 使用 Keras 构建复杂循环神经网络的框架。\n- [tensorpack](https:\u002F\u002Fgithub.com\u002Fppwwyyxx\u002Ftensorpack) - 基于 TensorFlow 的神经网络工具箱。\n- [tensorlayer](https:\u002F\u002Fgithub.com\u002Fzsdonghao\u002Ftensorlayer) - 面向研究人员和工程师的深度学习与强化学习库。\n- [TensorFlow-Examples](https:\u002F\u002Fgithub.com\u002Faymericdamien\u002FTensorFlow-Examples) - 面向初学者的 TensorFlow 教程和示例。\n- [hyperas](https:\u002F\u002Fgithub.com\u002Fmaxpumperla\u002Fhyperas) - Keras + Hyperopt：一个非常简单的封装，方便进行超参数优化。\n- [elephas](https:\u002F\u002Fgithub.com\u002Fmaxpumperla\u002Felephas) - 使用 Keras 和 Spark 进行分布式深度学习。\n- [PipelineAI](https:\u002F\u002Fgithub.com\u002Ffluxcapacitor\u002Fpipeline) - 用于实时 Spark 和 TensorFlow 数据管道的端到端机器学习与人工智能平台。\n- [sonnet](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fsonnet) - Google DeepMind 在 TensorFlow 之上提供的 API。\n- [visipedia\u002Ftfrecords](https:\u002F\u002Fgithub.com\u002Fvisipedia\u002Ftfrecords) - 展示了 TensorFlow 的 TFRecord 数据格式的使用方法。\n\n#### 图像分割\n\n- [tf-image-segmentation](https:\u002F\u002Fgithub.com\u002Fwarmspringwinds\u002Ftf-image-segmentation) - 基于 TensorFlow 和 TF-Slim 库的图像分割框架。\n- [Keras-FCN](https:\u002F\u002Fgithub.com\u002Faurora95\u002FKeras-FCN)\n\n\n日志记录与消息传递\n---------------------\n\n- [spdlog](https:\u002F\u002Fgithub.com\u002Fgabime\u002Fspdlog) - 超高速 C++ 日志库。\n- [lcm](https:\u002F\u002Fgithub.com\u002Flcm-proj\u002Flcm) - 轻量级通信与序列化，用于实时系统中的消息传递和数据序列化，其中高带宽和低延迟至关重要。\n\n跟踪\n--------\n\n- [simtrack](https:\u002F\u002Fgithub.com\u002Fkarlpauwels\u002Fsimtrack) - 基于仿真跟踪的框架。\n- [ar_track_alvar](https:\u002F\u002Fgithub.com\u002Fsniekum\u002Far_track_alvar) - 用于 ROS 的 AR 标记跟踪库。\n- [artoolkit5](https:\u002F\u002Fgithub.com\u002Fartoolkit\u002Fartoolkit5) - 增强现实工具包，拥有出色的 AR 标记跟踪软件。\n\n机器人操作系统 (ROS)\n----------------------------\n\n- [ROS](ros.org) - ROS 官方网站。\n- [ros2\u002Fdesign](https:\u002F\u002Fgithub.com\u002Fros2\u002Fdesign) - ROS 2.0 计划的设计文档。\n\n\n运动学、动力学、约束优化\n----------------------------------------------\n\n- [jrl-umi3218\u002FTasks](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FTasks) - Tasks 是一个利用约束优化进行机器人及运动学树实时控制的库。\n- [jrl-umi3218\u002FRBDyn](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FRBDyn) - RBDyn 提供了一组类和函数来建模刚体系统的动力学。\n- [ceres-solver](https:\u002F\u002Fgithub.com\u002Fceres-solver\u002Fceres-solver) - 解决带有边界约束的非线性最小二乘问题以及一般的无约束优化问题。自 2010 年以来一直在 Google 生产环境中使用。\n- [orocos_kinematics_dynamics](https:\u002F\u002Fgithub.com\u002Forocos\u002Forocos_kinematics_dynamics) - Orocos 运动学与动力学 C++ 库。\n- [flexible-collsion-library](https:\u002F\u002Fgithub.com\u002Fflexible-collision-library\u002Ffcl) - 对由三角形组成的几何模型对执行三种类型的邻近度查询，并与 ROS 集成。\n- [robot_calibration](https:\u002F\u002Fgithub.com\u002Fmikeferguson\u002Frobot_calibration) - 适用于 ROS 的通用机器人运动学标定。\n- [ruckig](https:\u002F\u002Fgithub.com\u002Fpantor\u002Fruckig) - 实时、时间最优且受加速度限制的在线轨迹生成。\n\n标定\n-----------\n\n- [handeye-calib-camodocal](https:\u002F\u002Fgithub.com\u002Fjhu-lcsr\u002Fhandeye_calib_camodocal) - 通用的机器人手眼标定。\n- [robot_calibration](https:\u002F\u002Fgithub.com\u002Fmikeferguson\u002Frobot_calibration) - 适用于 ROS 的通用机器人运动学标定。\n- [kalibr](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Fkalibr) - 适用于 ROS 的相机和 IMU 标定。\n\n强化学习\n----------------------\n\n- [\"好机器人！\": 具有模拟到现实迁移能力的多步视觉任务高效强化学习](https:\u002F\u002Fgithub.com\u002Fjhu-lcsr\u002Fgood_robot) - 一台真实机器人仅经过不到2万次的模拟操作便能完成多步任务。[ArXiV上的好机器人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.11730)（声明：@ahundt 是第一作者）\n- [TensorForce](https:\u002F\u002Fgithub.com\u002Freinforceio\u002Ftensorforce) - 一个用于应用强化学习的 TensorFlow 库\n- [gqcnn](https:\u002F\u002Fgithub.com\u002FBerkeleyAutomation\u002Fgqcnn) - 基于 [Dexterity Network (Dex-Net)](https:\u002F\u002Fberkeleyautomation.github.io\u002Fdex-net) 训练数据集的抓取规划用 [抓取质量卷积神经网络 (GQ-CNNs)](https:\u002F\u002Fberkeleyautomation.github.io\u002Fgqcnn\u002Finfo\u002Finfo.html)\n- [引导策略搜索](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fgps) - 引导策略搜索 (gps) 算法和基于 LQG 的轨迹优化，旨在帮助他人理解、复用并在此基础上进一步开发。\n\n传感器、设备与机械臂驱动程序\n-------------------------------------\n\n- [libfreenect2](https:\u002F\u002Fgithub.com\u002FOpenKinect\u002Flibfreenect2) - 针对 Kinect for Windows v2 和 Xbox One 设备的开源驱动程序。\n- [iai_kinect2](https:\u002F\u002Fgithub.com\u002Fcode-iai\u002Fiai_kinect2) - 在 ROS 中使用 Kinect One (Kinect v2) 的工具。\n- [grl](https:\u002F\u002Fgithub.com\u002Fahundt\u002Fgrl) - 通用机器人库：跨平台的 Kuka iiwa 和 Atracsys FusionTrack 驱动程序，可选配 v-rep 和 ros 驱动。还包含跨平台的手眼标定和工具末端标定功能。\n\n数据集\n--------\n\n- [CoSTAR 积木堆叠数据集](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fcostardataset) - 机器人堆叠彩色儿童积木（声明：由 @ahundt 创建）\n- [shapestacks](http:\u002F\u002Fshapestacks.robots.ox.ac.uk\u002F#paper) - 模拟的彩色儿童物品堆叠\n- [pascal voc 2012](http:\u002F\u002Fhost.robots.ox.ac.uk\u002Fpascal\u002FVOC\u002Fvoc2012\u002F) - 经典的图像分割参考数据集。\n- [openimages](https:\u002F\u002Fgithub.com\u002Fopenimages\u002Fdataset\u002F) - 谷歌提供的大型 ImageNet 类型数据集。\n- [COCO](mscoco.org) - 包含对象分割、关键点以及与其他多个外部数据集链接的数据集。\n- [cocostuff](https:\u002F\u002Fgithub.com\u002Fnightrome\u002Fcocostuff) - COCO 的补充全场景分割数据集，包括背景和标注者信息。\n- [Google Brain 机器人数据](https:\u002F\u002Fsites.google.com\u002Fsite\u002Fbrainrobotdata\u002Fhome) - 包括抓取、推动和倾倒等任务的机器人数据集。\n- [Context 中的材料](http:\u002F\u002Fopensurfaces.cs.cornell.edu\u002Fpublications\u002Fminc\u002F) - 包含 23 类真实世界图像的材料数据集。\n- [Dex-Net 2.0](http:\u002F\u002Fbair.berkeley.edu\u002Fblog\u002F2017\u002F06\u002F27\u002Fdexnet-2.0\u002F) - 670 万个带有鲁棒性标签的合成点云与抓取配对数据。\n\n#### 数据集收集\n- [LabelFusion](labelfusion.csail.mit.edu) - “用于生成杂乱场景真实 RGBD 数据真值标签的流程” [代码](https:\u002F\u002Fgithub.com\u002FRobotLocomotion\u002FLabelFusion)\n- [cocostuff](https:\u002F\u002Fgithub.com\u002Fnightrome\u002Fcocostuff) - COCO 的补充全场景分割数据集，包括背景和标注者信息。\n\n线性代数与几何\n-------------------------\n\n- [Eigen](http:\u002F\u002Feigen.tuxfamily.org) - Eigen 是一个 C++ 模板库，用于线性代数：矩阵、向量、数值求解器及相关算法。\n- [Boost.QVM](https:\u002F\u002Fgithub.com\u002Fboostorg\u002Fqvm) - Boost 的四元数、向量、矩阵库。\n- [Boost.Geometry](https:\u002F\u002Fgithub.com\u002Fboostorg\u002Fgeometry\u002F) - Boost.Geometry 包含可实例化的几何类，但库的用户也可以使用自己的几何类。\n- [SpaceVecAlg](https:\u002F\u002Fgithub.com\u002Fjrl-umi3218\u002FSpaceVecAlg) - 使用 Eigen3 线性代数库实现的三维几何空间向量代数。\n- [Sophus](https:\u002F\u002Fgithub.com\u002Fstrasdat\u002FSophus) - 基于 Eigen 实现的用于三维几何的李群 C++ 库。\n\n\n点云\n------------\n\n- [libpointmatcher](https:\u002F\u002Fgithub.com\u002Fethz-asl\u002Flibpointmatcher) - 用于机器人技术和二维\u002F三维建图的“迭代最近点”库。\n- [点云库 (pcl)](https:\u002F\u002Fgithub.com\u002FPointCloudLibrary\u002Fpcl) - 点云库 (PCL) 是一个独立的、大规模的开源项目，用于处理二维\u002F三维图像和点云数据。\n\n\n\n同时定位与地图构建 (SLAM)\n--------------------------------------------\n\n- [ElasticFusion](https:\u002F\u002Fgithub.com\u002Fmp3guy\u002FElasticFusion) - 实时稠密视觉 SLAM 系统。\n- [co-fusion](https:\u002F\u002Fgithub.com\u002Fmartinruenz\u002Fco-fusion) - 多物体的实时分割、跟踪与融合。扩展了 ElasticFusion。\n- [Google Cartographer](https:\u002F\u002Fgithub.com\u002Fgooglecartographer\u002Fcartographer\u002F) - Cartographer 是一个可在多种平台和传感器配置下提供二维和三维实时同时定位与地图构建 (SLAM) 的系统。\n- [OctoMap](https:\u002F\u002Fgithub.com\u002FOctoMap\u002Foctomap) - 基于八叉树的高效概率 3D 地图构建框架。包含主 OctoMap 库、查看器 octovis 以及 dynamicEDT3D。\n- [ORB_SLAM2](https:\u002F\u002Fgithub.com\u002Fraulmur\u002FORB_SLAM2) - 适用于单目、立体和 RGB-D 相机的实时 SLAM，具备回环检测和重定位功能。\n\n\n\n\n# 许可证\n\n\u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F\">\u003Cimg alt=\"知识共享许可协议\" style=\"border-width:0\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fahundt_awesome-robotics_readme_4650c94e56fa.png\" \u002F>\u003C\u002Fa>\u003Cbr \u002F>本作品采用 \u003Ca rel=\"license\" href=\"http:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F\">知识共享署名 4.0 国际许可协议\u003C\u002Fa>授权。","# Awesome Robotics 快速上手指南\n\n`awesome-robotics` 并非一个单一的软体库或可执行工具，而是一个**精选资源列表**，汇集了机器人领域优秀的开源库、模拟器、数据集、论文及相关工具。本指南将帮助你如何利用这份清单快速构建你的机器人开发环境。\n\n## 环境准备\n\n由于该列表涵盖多个子领域（如仿真、机器学习、SLAM、ROS 等），具体的系统要求取决于你选择使用的具体工具。以下是通用的推荐配置：\n\n*   **操作系统**: 推荐 **Ubuntu Linux** (20.04 或 22.04 LTS)，这是大多数机器人开源工具（特别是 ROS 生态）的首选平台。部分工具支持 macOS 和 Windows。\n*   **核心依赖**:\n    *   **Git**: 用于克隆仓库。\n    *   **CMake & Build Essentials**: 编译 C++ 项目所需 (`build-essential`, `cmake`)。\n    *   **Python 3**: 大多数机器学习和数据处理的依赖 (`python3`, `pip3`)。\n    *   **ROS\u002FROS 2**: 如果想使用列表中的大量机器人专用库，建议安装 [ROS Noetic](http:\u002F\u002Fwiki.ros.org\u002Fnoetic) 或 [ROS 2 Humble\u002FIron](https:\u002F\u002Fdocs.ros.org\u002F)。\n*   **硬件加速 (可选)**: 若涉及深度学习或大型仿真，建议配备 NVIDIA GPU 并安装 CUDA Toolkit。\n\n> **国内加速建议**:\n> *   **Git 克隆**: 若访问 GitHub 缓慢，可使用国内镜像源（如 Gitee 上的同步仓库）或配置代理。\n> *   **Python 包**: 使用清华源或阿里源安装 pip 依赖：\n>     ```bash\n>     pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n>     ```\n> *   **ROS 源**: 安装 ROS 时请务必替换为清华或中科大镜像源。\n\n## 安装步骤\n\n既然 `awesome-robotics` 是一个资源索引，\"安装\"它实际上是指获取该列表并根据你的需求安装其中的具体工具。\n\n### 1. 获取资源列表\n克隆该仓库到本地，以便随时查阅分类好的链接：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FKiloreux\u002Fawesome-robotics.git\ncd awesome-robotics\n```\n*(注：原 README 中列出了多个相关的 Awesome 列表，如 `jslee02\u002Fawesome-robotics-libraries`，建议一并收藏)*\n\n### 2. 安装典型工具示例\n根据列表分类，以下是安装几个核心组件的通用命令示例：\n\n**A. 安装机器人操作系统 (ROS)**\n以 Ubuntu 20.04 安装 ROS Noetic 为例：\n```bash\nsudo sh -c 'echo \"deb http:\u002F\u002Fpackages.ros.org\u002Fros\u002Fubuntu $(lsb_release -sc) main\" > \u002Fetc\u002Fapt\u002Fsources.list.d\u002Fros-latest.list'\nsudo apt-key adv --keyserver 'hkp:\u002F\u002Fkeyserver.ubuntu.com:80' --recv-key C1CF6E31E6BADE8868B172B4F42ED6FBAB17C654\nsudo apt update\nsudo apt install ros-noetic-desktop-full\nsource \u002Fopt\u002Fros\u002Fnoetic\u002Fsetup.bash\n```\n\n**B. 安装点云库 (PCL)**\n列表中推荐的 `Point Cloud Library` 是处理 3D 数据的标准工具：\n```bash\nsudo apt update\nsudo apt install libpcl-dev pcl-tools\n```\n\n**C. 安装深度学习框架 (TensorFlow\u002FPyTorch)**\n针对列表中的机器学习部分，推荐使用 pip 安装（配合国内源）：\n```bash\npip install tensorflow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n# 或者\npip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n**D. 安装仿真器 (以 CoppeliaSim 为例)**\n部分仿真器需手动下载二进制文件：\n1. 访问 [CoppeliaSim 官网](https:\u002F\u002Fwww.coppeliarobotics.com\u002F) 下载 Linux 版本。\n2. 解压并运行：\n```bash\ntar -xvf CoppeliaSim_Edu_V4_1_0_Linux.tar.xz\ncd CoppeliaSim_Edu_V4_1_0_Linux\n.\u002FcoppeliaSim.sh\n```\n\n## 基本使用\n\n使用 `awesome-robotics` 的核心流程是：**浏览分类 -> 选择工具 -> 集成开发**。\n\n### 场景示例：构建一个简单的视觉 SLAM 系统\n\n假设你想基于列表资源搭建一个实时 SLAM 系统：\n\n1.  **查阅列表**: 在本地仓库或网页版中查看 **Simultaneous Localization and Mapping (SLAM)** 章节。\n2.  **选择工具**: 列表推荐了 `ORB_SLAM2` 或 `Google Cartographer`。我们选择 `ORB_SLAM2`。\n3.  **获取代码**:\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fraulmur\u002FORB_SLAM2.git ORB_SLAM2\n    cd ORB_SLAM2\n    ```\n4.  **安装依赖**: 根据该项目具体的 `README` 安装 Eigen, Pangolin (列表中 Visualization 章节也有推荐) 等依赖。\n    ```bash\n    # 示例：安装 Pangolin\n    git clone https:\u002F\u002Fgithub.com\u002Fstevenlovegrove\u002FPangolin.git\n    cd Pangolin\n    mkdir build && cd build\n    cmake ..\n    make -j4\n    sudo make install\n    ```\n5.  **编译与运行**:\n    ```bash\n    cd ..\u002FORB_SLAM2\n    chmod +x build.sh\n    .\u002Fbuild.sh\n    # 运行单目相机示例\n    .\u002FExamples\u002FMonocular\u002Fmono_tum Vocabulary\u002FORBvoc.txt Examples\u002FMonocular\u002FTUM1.yaml PATH_TO_SEQUENCE_FOLDER\n    ```\n\n### 场景示例：利用数据集训练抓取模型\n\n1.  **查阅列表**: 查看 **Datasets** 和 **Reinforcement Learning** 章节。\n2.  **选择资源**: 选择 `Dex-Net 2.0` 数据集和 `gqcnn` 代码库。\n3.  **下载数据**: 访问提供的链接下载合成点云数据。\n4.  **运行训练**: 按照 `gqcnn` 仓库的指示，利用 TensorFlow (列表中 Machine Learning 章节) 进行模型训练。\n\n通过这种方式，你可以将 `awesome-robotics` 作为导航图，快速组合出适合你项目的技术栈。","某初创团队正在研发一款基于视觉的自主仓储巡检机器人，急需整合仿真、感知与决策模块以加速原型验证。\n\n### 没有 awesome-robotics 时\n- **资源检索如大海捞针**：工程师需花费数天在搜索引擎中筛选过时的教程或商业软件广告，难以找到经过社区验证的高质量开源库。\n- **技术栈选型盲目试错**：在选择仿真器（如 V-REP 还是 AirSim）或深度学习框架时缺乏横向对比依据，导致前期架构设计不合理，后期推倒重来。\n- **关键模块重复造轮子**：因不了解现有的图像分割或数据可视化工具（如 PlotJuggler），团队耗费大量精力自行开发基础功能，严重拖慢核心算法迭代。\n- **学习曲线陡峭断裂**：缺乏系统性的课程链接和经典论文索引，新入职成员难以快速建立从理论到工程落地的知识体系。\n\n### 使用 awesome-robotics 后\n- **一站式获取精选资源**：直接利用 curated list 锁定 CoppeliaSim、Microsoft AirSim 等主流仿真器及对应的 Python 绑定库，将环境搭建时间从周缩短至小时。\n- **科学决策技术路线**：通过对比列表中 TensorFlow、Keras 及相关 SOTA 论文链接，团队迅速确定了适合边缘计算的轻量级视觉方案，规避了性能瓶颈。\n- **高效复用成熟组件**：直接集成 Pangolin 进行 OpenGL 可视化、调用现成的图像分割模型，让团队能专注于路径规划等核心业务逻辑的开发。\n- **构建完整知识闭环**：依托提供的在线课程和深学习论文清单，团队成员快速补齐了从计算机视觉到强化学习的知识短板，提升了整体研发效率。\n\nawesome-robotics 通过提供经过严格筛选的生态图谱，将机器人开发者的探索成本降至最低，使其能从“寻找工具”转向“创造价值”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fahundt_awesome-robotics_77c78709.png","ahundt","Andrew Hundt","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fahundt_eefaf82d.jpg","Robotics and AI, Carnegie Mellon CIFellow, prev postdoc at GATech, PhD from Johns Hopkins, previously at CMU's National Robotics Engineering Center","Carnegie Mellon University","Pittsburgh, PA, USA","ATHundt@gmail.com","athundt","ahundt.github.io","https:\u002F\u002Fgithub.com\u002Fahundt",null,1364,176,"2026-04-03T09:09:37",1,"","未说明",{"notes":94,"python":92,"dependencies":95},"该仓库是一个资源列表（Awesome List），而非单一的可执行软件工具。它汇集了机器人学领域的各种库、模拟器、数据集和论文链接。因此，具体的运行环境需求取决于用户选择使用的特定子项目（例如：使用 ROS 通常需要 Linux\u002FUbuntu；使用 TensorFlow 或 PyBullet 可能需要 GPU 支持；部分 C++ 库如 Eigen 或 PCL 需要编译环境）。请根据您具体想要使用的工具查阅其各自的文档以获取详细的环境配置要求。",[96,97,98,99,100,101,102,103,104,105],"ROS (Robot Operating System)","TensorFlow","Keras","Eigen (C++ linear algebra)","PCL (Point Cloud Library)","OpenCV (implied by computer vision tools)","Bullet Physics \u002F PyBullet","Ceres Solver","spdlog","LCM",[51,54,13,14],[108,109,110,111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127],"robotics","robot","ros","tensorflow","machine-learning","reinforcement-learning","sensors","physics","simulation","deep-learning","point-cloud","datasets","optimization","optimization-algorithms","planning-algorithms","awesome","awesome-list","lists","list","image-segmentation","2026-03-27T02:49:30.150509","2026-04-06T07:13:54.984963",[],[]]