[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mit-acl--cadrl_ros":3,"tool-mit-acl--cadrl_ros":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":77,"difficulty_score":10,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":116,"github_topics":117,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":169},9313,"mit-acl\u002Fcadrl_ros","cadrl_ros","ROS package for dynamic obstacle avoidance for ground robots trained with deep RL","cadrl_ros 是一个基于 ROS 开发的开源软件包，专为地面机器人设计，旨在利用深度强化学习（Deep RL）实现动态环境下的智能避障。它主要解决了机器人在移动过程中，如何安全、高效地避开其他正在移动且具备自主决策能力的智能体（如行人或其他机器人）这一难题。\n\n该工具的核心亮点在于其内置了经过训练的深度神经网络策略，能够像人类一样预测周围动态障碍物的行为并做出实时反应，而不仅仅是被动躲避静止物体。作为 2018 年 IROS 会议获奖论文的官方代码实现，cadrl_ros 提供了完整的网络架构文件及预训练模型参数，极大地降低了复现前沿算法的门槛。\n\ncadrl_ros 非常适合机器人领域的研究人员和开发者使用。对于学术研究者，它是验证和对比新型运动规划算法的理想基准；对于工程开发者，它提供了一个成熟的模块示例，展示了如何将深度学习策略集成到实际的机器人导航系统中。虽然其 ROS 节点部分针对特定硬件进行了测试，但通过简单的接口调整，即可适配不同的感知系统。无论是希望在仿真环境中快速测试算法逻辑，还是计划在真实机器人上部署动态避障功能，cadrl_ros 都是一个极具参考价值的技术","cadrl_ros 是一个基于 ROS 开发的开源软件包，专为地面机器人设计，旨在利用深度强化学习（Deep RL）实现动态环境下的智能避障。它主要解决了机器人在移动过程中，如何安全、高效地避开其他正在移动且具备自主决策能力的智能体（如行人或其他机器人）这一难题。\n\n该工具的核心亮点在于其内置了经过训练的深度神经网络策略，能够像人类一样预测周围动态障碍物的行为并做出实时反应，而不仅仅是被动躲避静止物体。作为 2018 年 IROS 会议获奖论文的官方代码实现，cadrl_ros 提供了完整的网络架构文件及预训练模型参数，极大地降低了复现前沿算法的门槛。\n\ncadrl_ros 非常适合机器人领域的研究人员和开发者使用。对于学术研究者，它是验证和对比新型运动规划算法的理想基准；对于工程开发者，它提供了一个成熟的模块示例，展示了如何将深度学习策略集成到实际的机器人导航系统中。虽然其 ROS 节点部分针对特定硬件进行了测试，但通过简单的接口调整，即可适配不同的感知系统。无论是希望在仿真环境中快速测试算法逻辑，还是计划在真实机器人上部署动态避障功能，cadrl_ros 都是一个极具参考价值的技术资源。","# cadrl_ros (Collision Avoidance with Deep RL)\n\nROS implementation of a dynamic obstacle avoidance algorithm trained with Deep RL\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-acl_cadrl_ros_readme_7ab926f1f8de.png\" width=\"500\" alt=\"20 agent circle\">\n\n#### Paper:\n\nM. Everett, Y. Chen, and J. P. How, \"Motion Planning Among Dynamic, Decision-Making Agents with Deep Reinforcement Learning\", IEEE\u002FRSJ International Conference on Intelligent Robots and Systems (IROS), 2018\n\nPaper: https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01956\nVideo: https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XHoXkWLhwYQ\n\nBibtex:\n```\n@inproceedings{Everett18_IROS,\n  address = {Madrid, Spain},\n  author = {Everett, Michael and Chen, Yu Fan and How, Jonathan P.},\n  booktitle = {IEEE\u002FRSJ International Conference on Intelligent Robots and Systems (IROS)},\n  date-modified = {2018-10-03 06:18:08 -0400},\n  month = sep,\n  title = {Motion Planning Among Dynamic, Decision-Making Agents with Deep Reinforcement Learning},\n  year = {2018},\n  url = {https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01956.pdf},\n  bdsk-url-1 = {https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01956.pdf}\n}\n```\n\n#### Dependencies:\n\n* [TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F) is required (tested with version 1.4.0)\n\n* numpy is required\n\n* [ROS](http:\u002F\u002Fwiki.ros.org\u002F) is optional (tested with Kinetic on Ubuntu 16.04)\n\n* [ford_msgs](https:\u002F\u002Fbitbucket.org\u002Facl-swarm\u002Fford_msgs\u002Fsrc\u002Fmaster\u002F) if you're using ROS, for our custom msg definitions.\n\n#### General Notes:\nThe main contribution of this software is the `network.py` file and trained model parameters (TensorFlow checkpoints).\nThose contain the policy as reported in our paper and enables other reasearchers to easily compare future algorithms.\n\nTo make it easy to understand the flow of the code, we provide an example in `scripts\u002Fga3c_cadrl_demo.ipynb`, in the form of a Jupyter notebook. This can be used just as a reference, but if you want to edit the file, make sure Jupyter is installed in your tensorflow virtualenv to be sure it will work.\n\n#### To Run Jupyter Notebook (minimum working example of algorithm)\n\nThis assumes you have `nvidia-docker` installed already. Might work with regular docker with minor changes.\n\n```\ngit clone git@github.com\u002Fmfe7\u002Fcadrl_ros\n.\u002Fcadrl_ros\u002Fdocker\u002Fbuild_docker.sh\n.\u002Fcadrl_ros\u002Fdocker\u002Frun_docker.sh\n```\n\nThat will start an instance of the docker container, and output a Jupyter notebook URL. Copy the URL into a browser, navigate to `cadrl_ros\u002Fscripts` and open `ga3c_cadrl_demo.ipynb`.\n\nTensorflow and other deps are already installed in the docker container you just built, so the notebook should \"just work.\"\n\n#### ROS Notes:\n\nWe also provide a ROS implementation that we tested on a Clearpath Jackal ground robot.\nThis node is just one module of the software required for autonomous navigation among dynamic obstacles, and much of it is written as to integrate with our system.\nThe ROS node as written may not be particularly useful for other systems, but should provide an example of how one might connect the modules to test our learned collision avoidance policy on hardware.\nFor example, other systems likely have different representation formats for dynamic obstacles as extracted from their perception system, but it should be straightforward to just replace our `cbClusters` method with another one, as long as the same information makes it into the state vector when the policy is queried.\nWe recommend looking at the Jupyter notebook first.\n\nThe algorithm was trained with goals set to be \u003C10m from the agent's start position, so it would be necessary to provide this system with local subgoals if it were to be tested in a long journey.\nFor short distances, say in an open atrium, this is probably not necessary.\n\n\n#### To Run ROS version:\nClone and build this repo and its dependency (assume destination is ~\u002Fcatkin_ws\u002Fsrc)\n```\ncd ~\u002Fcatkin_ws\u002Fsrc\ngit clone git@github.com\u002Fmfe7\u002Fcadrl_ros\ngit clone git@bitbucket.org:acl-swarm\u002Fford_msgs.git -b dev\ncd ~\u002Fcatkin_ws && catkin_make\n```\n\nConnect inputs\u002Foutputs of your system to `launch\u002Fcadrl_node.launch`\n\n##### Subscribed Topics:\n* ~pose [[geometry_msgs\u002FPoseStamped]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FPoseStamped.html)\n\tRobot's pose in the global frame\n\n* ~velocity [[geometry_msgs\u002FVector3]](http:\u002F\u002Fdocs.ros.org\u002Fkinetic\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FVector3.html)\n\tRobot's linear velocity in the global frame (vx, vy)\n\n* ~goal [[geometry_msgs\u002FPoseStamped]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FPoseStamped.html)\n\tRobot's goal position in the global frame\n\n* ~clusters [[ford_msgs\u002FClusters]]()\n\tPositions, velocities, sizes of other agents in vicinity\n\n* TODO: planner_mode, safe_actions, peds\n\n##### Published Topics:\n* ~nn_cmd_vel [[geometry_msgs\u002FTwist]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FTwist.html)\n\tRobot's commanded twist (linear, angular speed) according to network's output\n\n* The other published topics are just markers for visualization\n\t* ~pose_marker shows yellow rectangle at position according to ~pose\n\t* ~path_marker shows red trajectory according to history of ~pose\n\t* ~goal_path_marker shows blue arrow pointing toward position of commanded velocity 1 second into future\n\t* ~agent_markers shows orange cylinders at the positions\u002Fsizes of nearby agents\n\n* TODO: remove other_agents_marker, other_vels\n\n##### Parameters:\n* ~jackal_speed\n\tRobot's preferred speed (m\u002Fs) - tested below 1.2m\u002Fs (and trained to be optimized near this speed)\n\t\n#### Datasets:\nAs mentioned in the paper, we provide a few datasets that might be useful to researchers hoping to train NNs for collision avoidance.\nPlease find the files in [this Dropbox folder](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002Fyu1spzhhj8c9akl\u002FAAALo8yXSfQ1nxaU2KFRGWuTa?dl=0), along with instructions for use.\n\nThe test cases used in the paper are posted in [this Dropbox folder](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F58uodr11pke8yi0\u002FAACPrZQr8wFWyNlETIFDCc7Pa?dl=0).\nThese contain initial positions, goal positions, preferred speed, radius settings for each test case, and are separated by number of agents.\nThey were randomly generated in a way to produce reasonably interesting scenarios to evaluate the algorithms, but since they are random, some may be really easy or boring.\n\n#### Primary code maintainer:\nMichael Everett (https:\u002F\u002Fgithub.com\u002Fmfe7)\n","# cadrl_ros（基于深度强化学习的碰撞规避）\n\n使用深度强化学习训练的动态障碍物避障算法的 ROS 实现  \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-acl_cadrl_ros_readme_7ab926f1f8de.png\" width=\"500\" alt=\"20个智能体的圆形场景\">\n\n#### 论文：\n\nM. Everett, Y. Chen 和 J. P. How，“基于深度强化学习的动态决策型智能体间的运动规划”，IEEE\u002FRSJ 智能机器人与系统国际会议 (IROS)，2018 年\n\n论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01956  \n视频：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=XHoXkWLhwYQ\n\nBibTeX 格式：\n```\n@inproceedings{Everett18_IROS,\n  address = {Madrid, Spain},\n  author = {Everett, Michael and Chen, Yu Fan and How, Jonathan P.},\n  booktitle = {IEEE\u002FRSJ International Conference on Intelligent Robots and Systems (IROS)},\n  date-modified = {2018-10-03 06:18:08 -0400},\n  month = sep,\n  title = {Motion Planning Among Dynamic, Decision-Making Agents with Deep Reinforcement Learning},\n  year = {2018},\n  url = {https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01956.pdf},\n  bdsk-url-1 = {https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01956.pdf}\n}\n```\n\n#### 依赖项：\n\n* 需要 [TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F)（已测试版本为 1.4.0）\n\n* 需要 numpy\n\n* [ROS](http:\u002F\u002Fwiki.ros.org\u002F) 是可选的（已在 Ubuntu 16.04 的 Kinetic 版本上测试过）\n\n* 如果使用 ROS，还需要 [ford_msgs](https:\u002F\u002Fbitbucket.org\u002Facl-swarm\u002Fford_msgs\u002Fsrc\u002Fmaster\u002F)，用于我们自定义的消息定义。\n\n#### 一般说明：\n该软件的主要贡献在于 `network.py` 文件以及训练好的模型参数（TensorFlow 检查点）。这些内容包含了我们在论文中报告的策略，并使其他研究人员能够方便地比较未来的算法。\n\n为了便于理解代码流程，我们在 `scripts\u002Fga3c_cadrl_demo.ipynb` 中提供了一个 Jupyter 笔记本形式的示例。这可以作为参考，但如果您打算编辑该文件，请确保在 TensorFlow 的虚拟环境中安装了 Jupyter，以保证其正常运行。\n\n#### 运行 Jupyter 笔记本（算法的最小工作示例）\n\n此步骤假设您已经安装了 `nvidia-docker`。稍作修改后也可能适用于普通 Docker。\n\n```\ngit clone git@github.com\u002Fmfe7\u002Fcadrl_ros\n.\u002Fcadrl_ros\u002Fdocker\u002Fbuild_docker.sh\n.\u002Fcadrl_ros\u002Fdocker\u002Frun_docker.sh\n```\n\n这将启动一个 Docker 容器实例，并输出 Jupyter 笔记本的 URL。将该 URL 复制到浏览器中，导航至 `cadrl_ros\u002Fscripts` 并打开 `ga3c_cadrl_demo.ipynb`。\n\n您刚刚构建的 Docker 容器中已安装好 TensorFlow 及其他依赖项，因此该笔记本应该可以直接运行。\n\n#### ROS 注意事项：\n\n我们还提供了一个 ROS 实现，该实现已在 Clearpath Jackal 地面机器人上进行了测试。该节点只是实现动态障碍物间自主导航所需软件中的一个模块，其中大部分代码都是为了与我们的系统集成而编写的。按照当前编写方式，该 ROS 节点可能对其他系统并不特别有用，但它可以作为一个示例，展示如何连接各个模块，以便在硬件上测试我们所学习的碰撞规避策略。例如，其他系统可能从其感知系统提取的动态障碍物表示格式不同，但只要在查询策略时能够将相同的信息传递到状态向量中，就可以轻松替换我们的 `cbClusters` 方法。我们建议先查看 Jupyter 笔记本。\n\n该算法是在目标距离设置为距智能体起始位置小于 10 米的情况下训练的，因此如果要在较长的旅程中进行测试，就需要为该系统提供局部子目标。而对于较短的距离，比如在一个开放的中庭内，则可能不需要这样做。\n\n#### 运行 ROS 版本：\n\n克隆并构建本仓库及其依赖项（假设目标路径为 ~\u002Fcatkin_ws\u002Fsrc）：\n\n```\ncd ~\u002Fcatkin_ws\u002Fsrc\ngit clone git@github.com\u002Fmfe7\u002Fcadrl_ros\ngit clone git@bitbucket.org:acl-swarm\u002Fford_msgs.git -b dev\ncd ~\u002Fcatkin_ws && catkin_make\n```\n\n将您系统的输入\u002F输出连接到 `launch\u002Fcadrl_node.launch`。\n\n##### 订阅的主题：\n* ~pose [[geometry_msgs\u002FPoseStamped]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FPoseStamped.html)  \n  机器人在全局坐标系中的位姿\n\n* ~velocity [[geometry_msgs\u002FVector3]](http:\u002F\u002Fdocs.ros.org\u002Fkinetic\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FVector3.html)  \n  机器人在全局坐标系中的线速度（vx, vy）\n\n* ~goal [[geometry_msgs\u002FPoseStamped]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FPoseStamped.html)  \n  机器人在全局坐标系中的目标位置\n\n* ~clusters [[ford_msgs\u002FClusters]]()  \n  周围其他智能体的位置、速度和尺寸信息\n\n* 待办事项：planner_mode、safe_actions、peds\n\n##### 发布的主题：\n* ~nn_cmd_vel [[geometry_msgs\u002FTwist]](http:\u002F\u002Fdocs.ros.org\u002Fapi\u002Fgeometry_msgs\u002Fhtml\u002Fmsg\u002FTwist.html)  \n  根据网络输出，机器人被命令的扭转速度（线速度和角速度）\n\n* 其他发布的话题仅用于可视化：\n  * ~pose_marker 在 ~pose 所指示的位置显示黄色矩形\n  * ~path_marker 按照 ~pose 的历史轨迹显示红色轨迹\n  * ~goal_path_marker 显示指向未来 1 秒钟处命令速度方向的蓝色箭头\n  * ~agent_markers 在附近智能体的位置显示橙色圆柱体\n\n* 待办事项：移除 other_agents_marker 和 other_vels\n\n##### 参数：\n* ~jackal_speed  \n  机器人期望的速度（m\u002Fs）——已在低于 1.2 m\u002Fs 的速度下测试过（并且训练目标是优化在此速度附近）\n\n#### 数据集：\n如论文所述，我们提供了一些数据集，可能对希望训练碰撞规避神经网络的研究人员有所帮助。请在 [此 Dropbox 文件夹](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002Fyu1spzhhj8c9akl\u002FAAALo8yXSfQ1nxaU2KFRGWuTa?dl=0) 中找到这些文件及使用说明。\n\n论文中使用的测试案例已发布在 [此 Dropbox 文件夹](https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F58uodr11pke8yi0\u002FAACPrZQr8wFWyNlETIFDCc7Pa?dl=0) 中。这些测试案例包含每个案例的初始位置、目标位置、期望速度、半径设置等信息，并按智能体数量分类。它们是随机生成的，旨在产生一些有趣的场景来评估算法性能，但由于是随机生成的，有些场景可能会非常简单或乏味。\n\n#### 主要代码维护者：\nMichael Everett（https:\u002F\u002Fgithub.com\u002Fmfe7）","# cadrl_ros 快速上手指南\n\ncadrl_ros 是一个基于深度强化学习（Deep RL）的动态障碍物避障算法的 ROS 实现。该工具允许机器人在存在其他动态决策智能体的环境中进行运动规划。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: 推荐 Ubuntu 16.04 (已测试)，其他 Linux 发行版可能需要调整。\n*   **核心依赖**:\n    *   **TensorFlow**: 必需 (测试版本为 1.4.0)。\n    *   **NumPy**: 必需。\n    *   **ROS**: 可选 (若需集成到机器人系统，测试版本为 ROS Kinetic)。\n    *   **ford_msgs**: 若使用 ROS，需安装此自定义消息包。\n*   **容器化运行 (推荐)**: 为了简化依赖配置，强烈建议使用 `nvidia-docker` 或标准 `docker` 运行 Jupyter 演示示例。\n\n> **注意**：由于 TensorFlow 1.x 版本较老且部分源可能访问受限，建议在国内网络环境下配置好相应的 pip 镜像源（如清华源或阿里源）后再安装 Python 依赖。\n\n## 安装步骤\n\n您可以根据需求选择两种安装方式：**Jupyter 演示模式**（最简单，用于理解算法逻辑）或 **ROS 原生模式**（用于实机集成）。\n\n### 方式一：Docker 运行 Jupyter 演示（推荐初学者）\n\n此方式无需手动配置复杂的 TensorFlow 和 ROS 环境，通过 Docker 容器即可运行最小可行性示例。\n\n1.  **克隆代码库**:\n    ```bash\n    git clone git@github.com:mfe7\u002Fcadrl_ros\n    ```\n\n2.  **构建并运行 Docker 容器**:\n    确保已安装 `nvidia-docker` (或兼容的 docker 运行时)。\n    ```bash\n    .\u002Fcadrl_ros\u002Fdocker\u002Fbuild_docker.sh\n    .\u002Fcadrl_ros\u002Fdocker\u002Frun_docker.sh\n    ```\n\n3.  **访问界面**:\n    脚本运行后，终端会输出一个 Jupyter Notebook 的 URL。将其复制到浏览器中打开，导航至 `cadrl_ros\u002Fscripts` 目录，打开 `ga3c_cadrl_demo.ipynb` 即可运行演示。\n\n### 方式二：ROS 原生安装（用于实机部署）\n\n如果您需要将算法集成到真实的机器人系统（如 Clearpath Jackal）中，请按以下步骤操作。假设您的工作空间位于 `~\u002Fcatkin_ws`。\n\n1.  **克隆代码及依赖**:\n    ```bash\n    cd ~\u002Fcatkin_ws\u002Fsrc\n    git clone git@github.com:mfe7\u002Fcadrl_ros\n    git clone git@bitbucket.org:acl-swarm\u002Fford_msgs.git -b dev\n    ```\n\n2.  **编译工作空间**:\n    ```bash\n    cd ~\u002Fcatkin_ws && catkin_make\n    ```\n\n3.  **配置启动文件**:\n    根据您的传感器和系统架构，修改 `launch\u002Fcadrl_node.launch` 以连接正确的输入\u002F输出话题。\n\n## 基本使用\n\n### 1. 算法逻辑验证 (Jupyter Notebook)\n\n在 Docker 容器启动后，打开 `ga3c_cadrl_demo.ipynb`。该笔记本展示了算法的核心流程：\n*   加载预训练的 TensorFlow 模型参数 (`network.py`)。\n*   构建状态向量（包含自身位置、速度、目标点及周围障碍物信息）。\n*   调用策略网络输出避障指令。\n*   **适用场景**: 研究算法原理、复现论文结果或在仿真环境中测试策略。\n\n### 2. ROS 节点运行\n\n在原生 ROS 环境中，该节点作为一个模块运行，负责发布速度指令。\n\n*   **订阅话题 (Inputs)**:\n    *   `~pose` (`geometry_msgs\u002FPoseStamped`): 机器人在全局坐标系下的位姿。\n    *   `~velocity` (`geometry_msgs\u002FVector3`): 机器人在全局坐标系下的线速度 (vx, vy)。\n    *   `~goal` (`geometry_msgs\u002FPoseStamped`): 机器人的目标位置。\n    *   `~clusters` (`ford_msgs\u002FClusters`): 周围动态障碍物的位置、速度和尺寸信息。\n        *   *提示*: 如果您的感知系统输出格式不同，需重写 `cbClusters` 方法以适配状态向量输入。\n\n*   **发布话题 (Outputs)**:\n    *   `~nn_cmd_vel` (`geometry_msgs\u002FTwist`): 神经网络输出的控制指令（线速度和角速度）。\n    *   可视化标记 (Markers): 包括机器人位姿、历史轨迹、预测路径及障碍物位置，可在 RViz 中查看。\n\n*   **关键参数**:\n    *   `~jackal_speed`: 机器人偏好速度 (m\u002Fs)。模型训练时针对 1.2m\u002Fs 以下速度进行了优化，建议设置在此范围内。\n\n> **重要提示**: 该算法训练时的目标距离设定在起点 10 米以内。若用于长距离导航，请务必提供局部子目标点（local subgoals）；若在开阔短距离场景（如大厅）测试，可直接使用全局目标。","某物流仓库部署了多台自主移动机器人（AMR），需要在狭窄通道中与频繁穿梭的叉车及人工搬运工共享空间，实现高效且安全的货物转运。\n\n### 没有 cadrl_ros 时\n- 机器人依赖传统的静态路径规划算法，遇到动态障碍物（如突然出现的叉车）时只能紧急刹车或原地等待，导致运输效率大幅下降。\n- 在多机器人交汇场景下，缺乏对他人意图的预测能力，容易陷入“死锁”状态，即双方互相避让却无法通过，需人工远程介入重置。\n- 避障行为生硬且不可预测，频繁的急停急转不仅增加了机械磨损，还让周围工作人员感到不安，难以建立人机协作的信任感。\n- 调整避障参数需要反复修改代码并重新编译测试，开发周期长，难以适应仓库布局或作业流程的动态变化。\n\n### 使用 cadrl_ros 后\n- 基于深度强化学习的策略使机器人能实时预测动态障碍物的运动轨迹，主动规划平滑的绕行路径，无需停车即可流畅通过复杂区域。\n- 算法具备“社交感知”能力，能理解其他智能体的决策逻辑，在多机交汇时自动协商出最优通行顺序，彻底消除了死锁现象。\n- 机器人的移动轨迹更加拟人化且平稳，减少了突兀的加减速动作，显著提升了现场人员的安全感和协作流畅度。\n- 利用预训练模型和 TensorFlow 接口，开发者可直接在仿真环境中验证新场景，大幅缩短了从算法部署到真机测试的迭代周期。\n\ncadrl_ros 通过将深度强化学习融入 ROS 系统，让地面机器人在动态环境中具备了类似人类的预判与协商能力，实现了从“被动避障”到“主动协同”的质的飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmit-acl_cadrl_ros_7ab926f1.png","mit-acl","MIT Aerospace Controls Laboratory","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmit-acl_3da1f771.png","see more code at https:\u002F\u002Fgitlab.com\u002Fmit-acl",null,"http:\u002F\u002Facl.mit.edu","https:\u002F\u002Fgithub.com\u002Fmit-acl",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"Python","#3572A5",66.1,{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",25.6,{"name":90,"color":91,"percentage":92},"CMake","#DA3434",7.3,{"name":94,"color":95,"percentage":96},"Dockerfile","#384d54",0.8,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0.3,703,158,"2026-04-15T12:05:48","Linux (Ubuntu 16.04)","建议使用 NVIDIA GPU (通过 nvidia-docker 运行)，具体型号和显存未说明","未说明",{"notes":108,"python":109,"dependencies":110},"该项目主要贡献为网络结构和训练好的模型参数。官方推荐使用 Docker (nvidia-docker) 运行 Jupyter Notebook 示例以确保环境一致。若使用 ROS 版本，需在 Ubuntu 16.04 上安装 ROS Kinetic 并编译工作空间。算法训练时的目标距离设定在 10 米以内，长距离导航需提供局部子目标。","未说明 (需配合 TensorFlow 1.4.0 环境)",[111,112,113,114,115,86],"TensorFlow==1.4.0","numpy","ROS Kinetic (可选)","ford_msgs (自定义消息包)","nvidia-docker",[14],[118,119,120,121,122],"tensorflow","ros","deep-reinforcement-learning","collision-avoidance","jackal","2026-03-27T02:49:30.150509","2026-04-19T06:02:50.235197",[126,131,135,140,145,150,155,160,165],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},41788,"运行 launch 文件时出现 'syntax error near unexpected token' 错误怎么办？","该错误通常是因为 CADRL 节点在接收到目标点（goal）之前无法计算速度。节点启动后会原地等待，直到收到目标位置消息。你需要发布消息到对应的目标话题来设置目标点。一旦收到目标，机器人会先原地旋转对齐方向，然后根据神经网络输出向前移动。如果只想测试策略而不需要 ROS 环境，可以使用单独的仓库进行单步查询。","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F13",{"id":132,"question_zh":133,"answer_zh":134,"source_url":130},41789,"为什么 \u002FJA01\u002Fnn_cmd_vel 话题的输出速度为零？","这是因为节点尚未接收到目标点（goal）。命令速度为零表示机器人正在原地等待目标。解决方法是发布消息到与目标点对应的话题。一旦接收到目标，代理会先产生非零的角速度（angular z）进行原地旋转以对齐目标，随后才会产生向前的线速度。",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},41790,"遇到 'Invalid Feasible Actions message' 错误且 feasible_actions 为空如何解决？","该问题是因为 ~safe_actions 话题没有接收到消息，导致 feasible_actions 列表为空。需要确保有一个发布者在该话题上发布消息，触发 cbNNActions 回调函数来填充 feasible_actions。建议检查相关分支（如开发者提到的切换分支操作），确认可行动作发布器是否正常运行。","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F3",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},41791,"项目使用了什么样的感知管道（perception pipeline）？","该项目使用的感知管道详情已在麻省理工学院的论文中描述。您可以参考以下链接获取详细信息：https:\u002F\u002Fdspace.mit.edu\u002Fhandle\u002F1721.1\u002F111698","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F16",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},41792,"如何从传感器数据（如局部代价地图）生成 Cluster 消息？静态障碍物会被发布为 Cluster 消息吗？","在示例中，Cluster 消息通常是直接从障碍物的里程计（odom）数据发布的。若要从传感器数据（如 move_base 包的局部代价地图）生成，需要自行编写转换逻辑。关于静态障碍物，示例中的机器人能感知柱子等静态物体，但这通常意味着静态障碍物也被处理并发布为了 Cluster 消息，或者通过其他方式融入了状态观测中。此外，ROS 节点中有一个最大机器人速度参数会传递给神经网络，策略训练时包含了随机采样的最大速度，因此可能适用于较低速度的机器人（如 TurtleBot）。","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F15",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},41793,"数据集文档中 states.shape 显示为 (100000, 26)，但实际应该是多少？","状态数组的描述取决于观测风格。一种观测风格包含 26 个元素，另一种包含 28 个元素。文档中提到的 (100000, 26) 对应其中一种风格，而常规数据集如果是另一种风格则应为 (100000, 28)。请根据您使用的具体观测类型来确认维度。","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F2",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},41794,"在哪里可以找到 ford_msgs 包？它是 ROS 的标准包吗？","ford_msgs 不是 ROS 的标准包，而是一个自定义包。您可以在以下链接找到该仓库，并请务必使用 'dev' 分支：https:\u002F\u002Fbitbucket.org\u002Facl-swarm\u002Fford_msgs\u002Fsrc","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F1",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},41795,"如何在 Ubuntu 20.04 (Noetic) 上运行此项目？","由于项目依赖 TensorFlow 1.x，而 Ubuntu 20.04 默认搭载 Python 3.8 和 TF 2.x，直接运行可能会遇到问题。推荐的解决方案是使用虚拟环境（如 pyenv）安装支持 TF 1.x 的旧版本 Python（例如 Python 3.6.9）。目前维护者暂无计划更新代码以完全兼容 TensorFlow 2.x。","https:\u002F\u002Fgithub.com\u002Fmit-acl\u002Fcadrl_ros\u002Fissues\u002F17",{"id":166,"question_zh":167,"answer_zh":168,"source_url":159},41796,"本项目是否包含训练代码？使用了什么仿真软件？","本仓库仅包含用于推理的预训练网络，不包含训练代码。作者团队编写了专用的模拟器来处理代理动力学，但目前尚未公开该模拟器，也没有具体的发布时间表。",[]]