[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZJU-FAST-Lab--ego-planner-swarm":3,"tool-ZJU-FAST-Lab--ego-planner-swarm":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":114,"forks":115,"last_commit_at":116,"license":117,"difficulty_score":118,"env_os":119,"env_gpu":120,"env_ram":121,"env_deps":122,"category_tags":130,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":132,"updated_at":133,"faqs":134,"releases":163},7115,"ZJU-FAST-Lab\u002Fego-planner-swarm","ego-planner-swarm","An efficient single\u002Fmulti-agent trajectory planner for multicopters.","ego-planner-swarm 是一款专为多旋翼无人机集群设计的高效轨迹规划开源系统。它源自著名的 EGO-Planner，旨在解决多个机器人在未知且障碍物密集的复杂环境中，如何仅依靠机载资源实现完全自主、去中心化的协同导航难题。\n\n传统集群方案往往依赖中央服务器或高精度外部定位，而 ego-planner-swarm 通过分布式异步架构，让每架无人机都能独立感知环境并规划路径，同时避免彼此碰撞。这意味着即使在没有 GPS 或通信受限的室内、森林等场景中，无人机群也能保持队形灵活穿梭。其核心技术亮点在于将单智能体规划能力成功扩展至多智能体协作，兼顾了计算效率与安全性。\n\n该工具主要面向机器人领域的研究人员、算法开发者以及高校实验室团队，特别适合从事无人机集群控制、自主导航研究的用户进行二次开发或仿真验证。项目提供了完善的 ROS 支持（涵盖 ROS1 及 ROS2 分支）和快速上手指南，用户可在几分钟内完成编译并在仿真环境中体验集群飞行效果。如果你正在探索去中心化集群系统的落地应用，ego-planner-swarm 提供了一个坚实且经过实飞验证的技术基座。","# Update: ROS2 Support\nFor the ROS2 version, please refer to the branch [ros2_version](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Ftree\u002Fros2_version).\n\n# Quick Start within 3 Minutes \nCompiling tests passed on ubuntu **16.04, 18.04, and 20.04** with ros installed.\nYou can just execute the following commands one by one.\n```\nsudo apt-get install libarmadillo-dev\ngit clone https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm.git\ncd ego-planner-swarm\ncatkin_make -j1\nsource devel\u002Fsetup.bash\nroslaunch ego_planner simple_run.launch\n```\n\u003C!If your network to github is slow, We recommend you to try the gitee repository [https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm](https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm). They synchronize automatically.\u002F>\n\nIf you find this work useful or interesting, please kindly give us a star :star:, thanks!:grinning:\n\n# Acknowledgements\n\n- This work extends [EGO-Planner](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner) to swarm navigation.\n\n# EGO-Swarm\nEGO-Swarm: A Fully Autonomous and Decentralized Quadrotor Swarm System in Cluttered Environments\n\n**EGO-Swarm** is a decentralized and asynchronous systematic solution for multi-robot autonomous navigation in unknown obstacle-rich scenes using merely onboard resources.\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_c5dd77d8509d.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_a78e9aa0c54c.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_3ac569bf9430.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_8ad687038503.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\n**Video Links:** [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=K5WKg8meb94&ab_channel=FeiGao), [bilibili](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Nt4y1e7KD) (for Mainland China)\n\n## 1. Related Paper\nEGO-Swarm: A Fully Autonomous and Decentralized Quadrotor Swarm System in Cluttered Environments, Xin Zhou, Jiangchao Zhu, Hongyu Zhou, Chao Xu, and Fei Gao (Published in ICRA2021). [Paper link](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9561902) and [Science](https:\u002F\u002Fwww.sciencemag.org\u002Fnews\u002F2020\u002F12\u002Fwatch-swarm-drones-fly-through-heavy-forest-while-staying-formation) report.\n\n## 2. Standard Compilation\n\n**Requirements**: ubuntu 16.04, 18.04 or 20.04 with ros-desktop-full installation.\n\n**Step 1**. Install [Armadillo](http:\u002F\u002Farma.sourceforge.net\u002F), which is required by **uav_simulator**.\n```\nsudo apt-get install libarmadillo-dev\n``` \n\n**Step 2**. Clone the code from github or gitee. These two repositories synchronize automatically.\n\nFrom github,\n```\ngit clone https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm.git\n```\n\n\u003C!--Or from gitee,\n```\ngit clone https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm.git\n```\n\u002F-->\n\n**Step 3**. Compile,\n```\ncd ego-planner\ncatkin_make -DCMAKE_BUILD_TYPE=Release -j1\n```\n\n**Step 4**. Run.\n\nIn a terminal at the _ego-planner-swarm\u002F_ folder, open the rviz for visualization and interactions\n```\nsource devel\u002Fsetup.bash\nroslaunch ego_planner rviz.launch\n```\n\nIn another terminal at the _ego-planner-swarm\u002F_, run the planner in simulation by\n```\nsource devel\u002Fsetup.bash\nroslaunch ego_planner swarm.launch\n```\n\nThen you can follow the gif below to control the drone.\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_de89f3d57085.gif\" width = \"640\" height = \"360\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\n## 3. Using an IDE\nWe recommend using [vscode](https:\u002F\u002Fcode.visualstudio.com\u002F), the project file has been included in the code you have cloned, which is the _.vscode_ folder.\nThis folder is **hidden** by default.\nFollow the steps below to configure the IDE for auto code completion & jump.\nIt will take 3 minutes.\n\n**Step 1**. Install C++ and CMake extentions in vscode.\n\n**Step 2**. Re-compile the code using the command\n```\ncatkin_make -DCMAKE_BUILD_TYPE=Release -DCMAKE_EXPORT_COMPILE_COMMANDS=Yes\n```\nIt will export a compile commands file, which can help vscode to determine the code architecture.\n\n**Step 3**. Launch vscode and select the _ego-planner_ folder to open.\n```\ncode ~\u002F\u003C......>\u002Fego-planner-swarm\u002F\n```\n\nPress **Ctrl+Shift+B** in vscode to compile the code. This command is defined in _.vscode\u002Ftasks.json_.\nYou can add customized arguments after **\"args\"**. The default is **\"-DCMAKE_BUILD_TYPE=Release\"**.\n\n**Step 4**. Close and re-launch vscode, you will see the vscode has already understood the code architecture and can perform auto completion & jump.\n\n ## 4. Use GPU or Not\n Packages in this repo, **local_sensing** have GPU, CPU two different versions. By default, they are in CPU version for better compatibility. By changing\n \n ```\n set(ENABLE_CUDA false)\n ```\n \n in the _CMakeList.txt_ in **local_sensing** packages, to\n \n ```\n set(ENABLE_CUDA true)\n ```\n \nCUDA will be turned-on to generate depth images as a real depth camera does. \n\nPlease remember to also change the 'arch' and 'code' flags in the line of \n```\n    set(CUDA_NVCC_FLAGS \n      -gencode arch=compute_61,code=sm_61;\n    ) \n``` \nin _CMakeList.txt_. If you encounter compiling error due to different Nvidia graphics card you use or you can not see proper depth images as expected, you can check the right code via [link1](https:\u002F\u002Farnon.dk\u002Fmatching-sm-architectures-arch-and-gencode-for-various-nvidia-cards\u002F) or [link2](https:\u002F\u002Fgithub.com\u002Ftpruvot\u002Fccminer\u002Fwiki\u002FCompatibility).\n \nDon't forget to re-compile the code!\n\n**local_sensing** is the simulated sensors. If ```ENABLE_CUDA``` **true**, it mimics the depth measured by stereo cameras and renders a depth image by GPU. If ```ENABLE_CUDA``` **false**, it will publish pointclouds with no ray-casting. Our local mapping module automatically selects whether depth images or pointclouds as its input.\n\nFor installation of CUDA, please go to [CUDA ToolKit](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit)\n\n## 5. Use Drone Simulation Considering Dynamics or Not\nTypical simulations use a dynamic model to calculate the motion of the drone under given commands.\nHowever, it requires continuous iterations to solve a differential equation, which consumes quite a lot computation.\nWhen launching a swarm of drones, this computation burden may cause significant lag.\nOn an i7 9700KF CPU I use, 15 drones are the upper limit.\nTherefore, for compatibility and scalability purposes, I use a \"[fake_drone](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Ftree\u002Fmaster\u002Fsrc\u002Fuav_simulator\u002Ffake_drone)\" package to convert commands to drone odometry directly by default.\n\nIf you want to use a more realistic quadrotor model, you can un-comment the node `quadrotor_simulator_so3` and `so3_control\u002FSO3ControlNodelet` in [simulator.xml](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fblob\u002Fmaster\u002Fsrc\u002Fplanner\u002Fplan_manage\u002Flaunch\u002Fsimulator.xml) to enable quadrotor simulation considering dynamics.\nPlease don't forget to comment the package `poscmd_2_odom` right after the above two nodes.\n\n## 6. Utilize the Full Performance of CPU\nThe computation time of our planner is too short for the OS to increase CPU frequency, which makes the computation time tend to be longer and unstable.\n\nTherefore, we recommend you to manually set the CPU frequency to the maximum.\nFirstly, install a tool by\n```\nsudo apt install cpufrequtils\n```\nThen you can set the CPU frequency to the maximum allowed by\n```\nsudo cpufreq-set -g performance\n```\nMore information can be found in [http:\u002F\u002Fwww.thinkwiki.org\u002Fwiki\u002FHow_to_use_cpufrequtils](http:\u002F\u002Fwww.thinkwiki.org\u002Fwiki\u002FHow_to_use_cpufrequtils).\n\nNote that CPU frequency may still decrease due to high temperature in high load.\n\n\u003C!--\n# Improved ROS-RealSense Driver\n\nWe modified the ros-realsense driver to enable the laser emitter strobe every other frame, allowing the device to output high quality depth images with the help of emitter, and along with binocular images free from laser interference.\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_abe336c3951c.png\" width = \"640\" height = \"158\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\nThis ros-driver is modified from [https:\u002F\u002Fgithub.com\u002FIntelRealSense\u002Frealsense-ros](https:\u002F\u002Fgithub.com\u002FIntelRealSense\u002Frealsense-ros) and is compatible with librealsense2 2.30.0.\nTests are performed on Intel RealSense D435 and D435i.\n\nParameter ```emitter_on_off``` is to turn on\u002Foff the added function.\nNote that if this function is turned on, the output frame rate from the device will be reduced to half of the frame rate you set, since the device uses half of the stream for depth estimation and the other half as binocular grayscale outputs.\nWhat's more, parameters ```depth_fps``` and ```infra_fps``` must be identical, and ```enable_emitter``` must be true as well under this setting.\n\n##  Install\n\nThe driver of librealsense2 2.30.0 should be installed explicitly.\nOn a x86 CPU, this can be performed easily within 5 minutes.\nFirstly, remove the currently installed driver by \n```\nsudo apt remove librealsense2-utils\n```\nor manually remove the files if you have installed the librealsense from source.\nThen, you can install the library of version 2.30.0 by\n```\nsudo apt-key adv --keyserver keys.gnupg.net --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE || sudo apt-key adv --keyserver hkp:\u002F\u002Fkeyserver.ubuntu.com:80 --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE\n```\nFor ubuntu 16.04\n```\nsudo add-apt-repository \"deb http:\u002F\u002Frealsense-hw-public.s3.amazonaws.com\u002FDebian\u002Fapt-repo xenial main\" -u\n```\nFor ubuntu 18.04\n```\nsudo add-apt-repository \"deb http:\u002F\u002Frealsense-hw-public.s3.amazonaws.com\u002FDebian\u002Fapt-repo bionic main\" -u\n```\nThen continue with\n```\nsudo apt-get install librealsense2-dkms\nsudo apt install librealsense2=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-gl=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-utils=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-dev=2.30.0-0~realsense0.1693\nsudo apt remove librealsense2-udev-rules\nsudo apt install librealsense2-udev-rules=2.30.0-0~realsense0.1693\n``` \nHere you can verify the installation by \n```\nrealsense_viewer\n```\n\n##  Run\n\nIf everything looks well, you can now compile the ros-realsense package named _modified_realsense2_camera.zip_ by ```catkin_make```, then run ros realsense node by \n```\nroslaunch realsense_camera rs_camera.launch\n```\nThen you will receive depth stream along with binocular stream together at 30Hz by default.\n-->\n\n# Licence\nThe source code is released under [GPLv3](http:\u002F\u002Fwww.gnu.org\u002Flicenses\u002F) license.\n\n# Maintenance\nWe are still working on extending the proposed system and improving code reliability. \n\nFor any technical issues, please contact Xin Zhou (iszhouxin@zju.edu.cn) or Fei GAO (fgaoaa@zju.edu.cn).\n\nFor commercial inquiries, please contact Fei GAO (fgaoaa@zju.edu.cn).\n","# 更新：ROS2支持\n对于ROS2版本，请参考分支 [ros2_version](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Ftree\u002Fros2_version)。\n\n# 3分钟快速入门\n在已安装ROS的Ubuntu **16.04、18.04和20.04**上，编译测试均已通过。\n您只需依次执行以下命令即可：\n```\nsudo apt-get install libarmadillo-dev\ngit clone https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm.git\ncd ego-planner-swarm\ncatkin_make -j1\nsource devel\u002Fsetup.bash\nroslaunch ego_planner simple_run.launch\n```\n\u003C!如果您的GitHub访问速度较慢，建议尝试使用码云仓库 [https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm](https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm)。该仓库会自动同步。\u002F>\n\n如果您觉得这项工作有用或有趣，请为我们点个赞 :star:，谢谢！:grinning:\n\n# 致谢\n\n- 本工作是在[EGO-Planner](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner)的基础上扩展到群体导航的。\n\n# EGO-Swarm\nEGO-Swarm：一种完全自主且去中心化的复杂环境四旋翼无人机集群系统\n\n**EGO-Swarm** 是一种去中心化、异步的系统化解决方案，仅利用机载资源即可实现在未知障碍密集场景中的多机器人自主导航。\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_c5dd77d8509d.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_a78e9aa0c54c.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_3ac569bf9430.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_8ad687038503.gif\" width = \"413\" height = \"232\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\n**视频链接**：[YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=K5WKg8meb94&ab_channel=FeiGao)，[哔哩哔哩](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1Nt4y1e7KD)（适用于中国大陆）\n\n## 1. 相关论文\nEGO-Swarm：一种完全自主且去中心化的复杂环境四旋翼无人机集群系统，Xin Zhou、Jiangchao Zhu、Hongyu Zhou、Chao Xu 和 Fei Gao（发表于ICRA2021）。[论文链接](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9561902)及[Science](https:\u002F\u002Fwww.sciencemag.org\u002Fnews\u002F2020\u002F12\u002Fwatch-swarm-drones-fly-through-heavy-forest-while-staying-formation)报道。\n\n## 2. 标准编译\n\n**要求**：Ubuntu 16.04、18.04 或 20.04，且已安装ros-desktop-full。\n\n**步骤1**。安装[Armadillo](http:\u002F\u002Farma.sourceforge.net\u002F)，这是**uav_simulator**所必需的。\n```\nsudo apt-get install libarmadillo-dev\n``` \n\n**步骤2**。从GitHub或码云克隆代码。这两个仓库会自动同步。\n\n从GitHub，\n```\ngit clone https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm.git\n```\n\n\u003C!--或者从码云，\n```\ngit clone https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm.git\n```\n\u002F-->\n\n**步骤3**。编译，\n```\ncd ego-planner\ncatkin_make -DCMAKE_BUILD_TYPE=Release -j1\n```\n\n**步骤4**。运行。\n\n在_ego-planner-swarm\u002F_文件夹下的一个终端中，打开rviz进行可视化和交互操作：\n```\nsource devel\u002Fsetup.bash\nroslaunch ego_planner rviz.launch\n```\n\n在另一个位于_ego-planner-swarm\u002F_的终端中，通过以下命令在仿真环境中运行规划器：\n```\nsource devel\u002Fsetup.bash\nroslaunch ego_planner swarm.launch\n```\n\n然后您可以按照下面的动图来控制无人机。\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_de89f3d57085.gif\" width = \"640\" height = \"360\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\n## 3. 使用IDE\n我们推荐使用[VSCode](https:\u002F\u002Fcode.visualstudio.com\u002F)。您已克隆的代码中包含了项目文件，即_.vscode_文件夹。该文件夹默认是隐藏的。\n请按照以下步骤配置IDE以实现自动代码补全和跳转功能，整个过程大约需要3分钟。\n\n**步骤1**。在VSCode中安装C++和CMake插件。\n\n**步骤2**。使用以下命令重新编译代码：\n```\ncatkin_make -DCMAKE_BUILD_TYPE=Release -DCMAKE_EXPORT_COMPILE_COMMANDS=Yes\n```\n这将导出一个编译命令文件，帮助VSCode理解代码架构。\n\n**步骤3**。启动VSCode并选择打开_ego-planner_文件夹：\n```\ncode ~\u002F\u003C......>\u002Fego-planner-swarm\u002F\n```\n\n在VSCode中按**Ctrl+Shift+B**来编译代码。此命令已在_.vscode\u002Ftasks.json_中定义。您可以在**\"args\"**后添加自定义参数，默认为**\"-DCMAKE_BUILD_TYPE=Release\"**。\n\n**步骤4**。关闭并重新启动VSCode，您会发现它已经理解了代码架构，并能进行自动补全和跳转。\n\n## 4. 是否使用GPU\n本仓库中的**local_sensing**包提供了GPU和CPU两种版本。默认情况下，为了更好的兼容性，使用的是CPU版本。若要启用CUDA以生成类似真实深度相机的深度图像，只需将**local_sensing**包中的_CMakeList.txt_文件中的\n```\nset(ENABLE_CUDA false)\n```\n改为\n```\nset(ENABLE_CUDA true)\n```\n\n同时，请记得修改_CMakeList.txt_中\n```\n    set(CUDA_NVCC_FLAGS \n      -gencode arch=compute_61,code=sm_61;\n    ) \n``` \n这一行的'arch'和'code'标志。如果您因使用的NVIDIA显卡不同而遇到编译错误，或无法看到预期的深度图像，可以通过[链接1](https:\u002F\u002Farnon.dk\u002Fmatching-sm-architectures-arch-and-gencode-for-various-nvidia-cards\u002F)或[链接2](https:\u002F\u002Fgithub.com\u002Ftpruvot\u002Fccminer\u002Fwiki\u002FCompatibility)检查正确的设置。\n\n别忘了重新编译代码！\n\n**local_sensing**是模拟传感器模块。当`ENABLE_CUDA`为`true`时，它会模仿立体相机测量的深度，并通过GPU渲染深度图像；而当`ENABLE_CUDA`为`false`时，则会发布不带光线追踪的点云数据。我们的本地建图模块会自动选择以深度图像或点云作为输入。\n\n关于CUDA的安装，请访问[NVIDIA CUDA工具包](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit)。\n\n## 5. 是否考虑动力学的无人机仿真\n典型的仿真会使用动力学模型来计算无人机在给定指令下的运动轨迹。\n然而，求解微分方程需要不断迭代，这会消耗大量计算资源。\n在运行无人机集群时，这种计算负担可能导致明显的延迟。\n在我使用的i7 9700KF CPU上，15架无人机已经是上限。\n因此，出于兼容性和可扩展性的考虑，我默认使用“[fake_drone](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Ftree\u002Fmaster\u002Fsrc\u002Fuav_simulator\u002Ffake_drone)”包，直接将指令转换为无人机的里程计信息。\n\n如果您希望使用更真实的四旋翼模型，可以取消注释[simulator.xml](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fblob\u002Fmaster\u002Fsrc\u002Fplanner\u002Fplan_manage\u002Flaunch\u002Fsimulator.xml)中的节点`quadrotor_simulator_so3`和`so3_control\u002FSO3ControlNodelet`，以启用考虑动力学的四旋翼仿真。\n请注意，在上述两个节点之后，务必注释掉`poscmd_2_odom`包。\n\n## 6. 充分发挥CPU性能\n我们的规划器计算时间过短，操作系统来不及提升CPU频率，这会导致计算时间变长且不稳定。\n\n因此，我们建议您手动将CPU频率设置为最高。首先，通过以下命令安装工具：\n```\nsudo apt install cpufrequtils\n```\n然后，您可以使用以下命令将CPU频率设置为最大允许值：\n```\nsudo cpufreq-set -g performance\n```\n更多信息请参阅[http:\u002F\u002Fwww.thinkwiki.org\u002Fwiki\u002FHow_to_use_cpufrequtils](http:\u002F\u002Fwww.thinkwiki.org\u002Fwiki\u002FHow_to_use_cpufrequtils)。\n\n请注意，在高负载情况下，由于温度过高，CPU频率仍可能降低。\n\n\u003C!--\n# 改进的ROS-RealSense驱动程序\n\n我们对ros-realsense驱动进行了修改，使其能够每隔一帧点亮激光发射器，从而在发射器的帮助下输出高质量的深度图像，并同时提供不受激光干扰的双目图像。\n\n\u003Cp align = \"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_readme_abe336c3951c.png\" width = \"640\" height = \"158\" border=\"5\" \u002F>\n\u003C\u002Fp>\n\n该ROS驱动基于[https:\u002F\u002Fgithub.com\u002FIntelRealSense\u002Frealsense-ros](https:\u002F\u002Fgithub.com\u002FIntelRealSense\u002Frealsense-ros)进行修改，兼容librealsense2 2.30.0版本。测试已在Intel RealSense D435和D435i设备上完成。\n\n参数`emitter_on_off`用于开启或关闭新增功能。需要注意的是，当此功能开启时，设备的输出帧率将减半，因为设备会用一半的流进行深度估计，另一半则作为双目灰度图像输出。此外，在此设置下，`depth_fps`和`infra_fps`必须相同，并且`enable_emitter`也必须设置为true。\n\n## 安装\n\n需要显式安装librealsense2 2.30.0版本的驱动。在x86架构的CPU上，这一过程通常可在5分钟内完成。首先，卸载当前已安装的驱动：\n```\nsudo apt remove librealsense2-utils\n```\n或者如果您是从源码编译安装的librealsense，则需手动删除相关文件。随后，您可以按照以下步骤安装2.30.0版本的库：\n```\nsudo apt-key adv --keyserver keys.gnupg.net --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE || sudo apt-key adv --keyserver hkp:\u002F\u002Fkeyserver.ubuntu.com:80 --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE\n```\n对于Ubuntu 16.04：\n```\nsudo add-apt-repository \"deb http:\u002F\u002Frealsense-hw-public.s3.amazonaws.com\u002FDebian\u002Fapt-repo xenial main\" -u\n```\n对于Ubuntu 18.04：\n```\nsudo add-apt-repository \"deb http:\u002F\u002Frealsense-hw-public.s3.amazonaws.com\u002FDebian\u002Fapt-repo bionic main\" -u\n```\n接着继续执行以下命令：\n```\nsudo apt-get install librealsense2-dkms\nsudo apt install librealsense2=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-gl=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-utils=2.30.0-0~realsense0.1693\nsudo apt install librealsense2-dev=2.30.0-0~realsense0.1693\nsudo apt remove librealsense2-udev-rules\nsudo apt install librealsense2-udev-rules=2.30.0-0~realsense0.1693\n``` \n您可以通过运行以下命令来验证安装是否成功：\n```\nrealsense_viewer\n```\n\n## 运行\n\n如果一切正常，您可以使用`catkin_make`编译名为`modified_realsense2_camera.zip`的ros-realsense包，然后通过以下命令启动ROS RealSense节点：\n```\nroslaunch realsense_camera rs_camera.launch\n```\n默认情况下，您将同时接收到30Hz的深度流和双目流。\n-->\n\n# 许可证\n本项目源代码采用[GPLv3](http:\u002F\u002Fwww.gnu.org\u002Flicenses\u002F)许可证发布。\n\n# 维护\n我们仍在致力于扩展所提出的系统并提高代码的可靠性。\n\n如遇任何技术问题，请联系Xin Zhou（iszhouxin@zju.edu.cn）或Fei GAO（fgaoaa@zju.edu.cn）。\n\n如需商业合作，请联系Fei GAO（fgaoaa@zju.edu.cn）。","# EGO-Swarm 快速上手指南\n\nEGO-Swarm 是一个完全自主、去中心化的四旋翼无人机集群系统，专为在未知且障碍物密集的环境中进行多机器人自主导航而设计。本指南将帮助您在 3 分钟内完成编译并运行仿真演示。\n\n## 1. 环境准备\n\n**系统要求：**\n- 操作系统：Ubuntu 16.04 \u002F 18.04 \u002F 20.04\n- ROS 版本：需安装 `ros-desktop-full` (对应系统的 Kinetic\u002FMelodic\u002FNoetic)\n\n**前置依赖：**\n本项目依赖 Armadillo 线性代数库，请先执行以下命令安装：\n```bash\nsudo apt-get install libarmadillo-dev\n```\n\n## 2. 安装步骤\n\n为保证国内下载速度，推荐使用 Gitee 镜像源（与 GitHub 仓库自动同步）。\n\n**第一步：克隆代码**\n```bash\ngit clone https:\u002F\u002Fgitee.com\u002Fiszhouxin\u002Fego-planner-swarm.git\n# 若需使用 GitHub 源，请使用：git clone https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm.git\n```\n\n**第二步：编译项目**\n进入项目目录并使用单线程编译（推荐以避免内存溢出）：\n```bash\ncd ego-planner-swarm\ncatkin_make -DCMAKE_BUILD_TYPE=Release -j1\n```\n\n**第三步：配置环境变量**\n```bash\nsource devel\u002Fsetup.bash\n```\n\n## 3. 基本使用\n\n以下命令将启动可视化界面 (RViz) 并运行集群仿真演示。请打开两个终端分别执行。\n\n**终端 1：启动可视化界面**\n用于观察无人机状态及进行交互：\n```bash\nsource devel\u002Fsetup.bash\nroslaunch ego_planner rviz.launch\n```\n\n**终端 2：启动集群仿真**\n在同一个项目目录下，运行规划器仿真节点：\n```bash\nsource devel\u002Fsetup.bash\nroslaunch ego_planner swarm.launch\n```\n\n启动后，您将在 RViz 中看到无人机集群在障碍环境中自主飞行。您可以参考项目文档中的演示 GIF 了解如何通过鼠标交互控制无人机。\n\n> **提示**：若需获得最佳计算性能，建议将 CPU 频率设置为高性能模式：\n> ```bash\n> sudo apt install cpufrequtils\n> sudo cpufreq-set -g performance\n> ```","某应急救援团队需要在浓烟弥漫的倒塌建筑内部，部署多架无人机协同搜索幸存者并构建实时地图。\n\n### 没有 ego-planner-swarm 时\n- **依赖集中式控制**：必须建立稳定的中央服务器来分配每架无人机的路径，一旦通信链路因墙体遮挡中断，整个编队立即瘫痪或发生碰撞。\n- **避障反应迟钝**：传统算法难以处理动态未知障碍，无人机在狭窄走廊中容易因计算延迟而卡死或撞击突发掉落的碎石。\n- **协同效率低下**：多机之间缺乏自主协商机制，容易出现多架无人机同时涌向同一区域，导致搜索覆盖不均且浪费电量。\n- **部署门槛极高**：工程师需要手动编写复杂的逻辑代码来处理多机互斥和死锁问题，调试周期长达数周。\n\n### 使用 ego-planner-swarm 后\n- **实现完全去中心化**：每架无人机仅凭机载资源即可独立规划轨迹，即使部分节点失联，其余无人机仍能自主完成任务并保持安全距离。\n- **毫秒级动态避障**：利用其高效的单\u002F多智能体规划能力，无人机能在高速飞行中实时感知并绕过突然出现的障碍物，流畅穿越复杂废墟。\n- **自适应群体协作**：系统异步协调多机路径，自动将搜索区域分散，确保在无预设指令下也能高效、无重复地覆盖所有死角。\n- **快速落地验证**：借助现成的 ROS 仿真环境和简洁的编译流程，团队可在 3 分钟内启动测试，将开发重点从底层算法转向任务策略。\n\nego-planner-swarm 通过去中心化与异步规划技术，让无人机群在极端未知环境中实现了真正的全自主、高可靠协同作业。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZJU-FAST-Lab_ego-planner-swarm_c5dd77d8.gif","ZJU-FAST-Lab","ZJU FAST Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZJU-FAST-Lab_3f336c9b.jpg","",null,"www.zju-fast.com","https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab",[80,84,88,92,96,99,103,107,110],{"name":81,"color":82,"percentage":83},"C++","#f34b7d",80.9,{"name":85,"color":86,"percentage":87},"CMake","#DA3434",7.4,{"name":89,"color":90,"percentage":91},"Python","#3572A5",6.6,{"name":93,"color":94,"percentage":95},"C","#555555",2.2,{"name":97,"color":98,"percentage":32},"Cuda","#3A4E3A",{"name":100,"color":101,"percentage":102},"CSS","#663399",0.6,{"name":104,"color":105,"percentage":106},"Makefile","#427819",0.1,{"name":108,"color":109,"percentage":106},"Fortran","#4d41b1",{"name":111,"color":112,"percentage":113},"HTML","#e34c26",0,1986,342,"2026-04-13T07:32:43","GPL-3.0",4,"Linux (Ubuntu 16.04, 18.04, 20.04)","非必需。默认使用 CPU 版本；若需启用 GPU 加速深度图渲染，需要 NVIDIA GPU 并安装 CUDA Toolkit，需在 CMakeLists.txt 中手动配置对应的 compute capability (arch\u002Fcode)。","未说明（文中提及 i7-9700KF CPU 下模拟 15 架无人机为上限，暗示对多核性能有要求）",{"notes":123,"python":124,"dependencies":125},"1. 该项目基于 ROS1 (catkin)，ROS2 版本需切换至 ros2_version 分支。\n2. 默认仿真使用简化模型以保证多机扩展性，若需高保真动力学仿真需修改 launch 文件配置。\n3. 建议将 CPU 频率设置为'performance'模式以获得更稳定的规划计算性能。\n4. 若启用 CUDA，需根据显卡型号修改 CMakeLists.txt 中的 arch 和 code 标志。","未说明",[126,127,128,85,129],"ROS (Desktop Full)","catkin","libarmadillo-dev","CUDA Toolkit (可选)",[13,131],"其他","2026-03-27T02:49:30.150509","2026-04-13T22:46:02.043420",[135,140,145,150,154,158],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},32008,"在 ROS2 版本中使用 flight_type=1 时，为什么通过 Rviz 的'2D Goal Pose'设置目标点无法导航？","这是因为 ROS2 的 Rviz 插件'2D Goal Pose'实际上是将 PoseStamped 消息发送到 `\u002Fgoal_pose` 话题，而代码中默认监听的是 ROS1 的 `\u002Fmove_base_simple\u002Fgoal` 话题。\n解决方法：修改源码 `src\u002Fplanner\u002Fplan_manage\u002Fsrc\u002Fego_replan_fsm.cpp` 第 118 行，将订阅的话题名称改为 `\u002Fgoal_pose`。修改后重新编译并启动即可正常导航。","https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fissues\u002F79",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},32009,"如何在真实无人机上使用 LiDAR（激光雷达）代替深度相机运行 EGO-Planner？","要在真实无人机上使用 LiDAR，需要注意以下几点：\n1. **话题修改**：不要修改深度相机对应的话题，只需将点云话题改为雷达话题（如 `\u002Fuav0\u002Flivox\u002Flidar`），里程计话题保持不变。\n2. **坐标帧检查**：确保雷达点云发布在正确的传感器坐标系下，而不是相机坐标系，否则地图会出现旋转错误。\n3. **定位系统**：强烈建议使用基于 LiDAR 的定位方案（如 LIO），推荐开源包包括 [GLIM](https:\u002F\u002Fgithub.com\u002Fkoide3\u002Fglim.git) 或 [FAST-LIO](https:\u002F\u002Fgithub.com\u002Fhku-mars\u002FFAST_LIO.git)，以提供高精度的状态估计。仅使用普通 GPS 不推荐，若需 GNSS 定位请使用 RTK 以达到厘米级精度。\n4. **控制与适配**：如果是 ROS2 环境，可能需要自行移植控制代码或使用现有的 ROS2 控制包替代原有的 ROS1 实现。","https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fissues\u002F84",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},32010,"EGO-Planner 是否受限于初始设定的地图大小？如何突破这个限制？","是的，当前版本的规划器受限于初始给定的地图缓冲区大小。\n解决方案：\n1. 参考升级版项目 [EGO-Planner-v2](https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002FEGO-Planner-v2)。\n2. 技术上可以通过实现“3D 环形缓冲区（3D-circular buffer）”来解决无限地图问题（参考论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.01416），但这需要自行编码或等待官方发布带有环形地图功能的新版本规划器。","https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fissues\u002F23",{"id":151,"question_zh":152,"answer_zh":153,"source_url":139},32011,"如果我没有深度相机，只有激光雷达（如 Mid360），需要在哪些地方修改代码才能使用 EGO-Planner？","EGO-Planner 原生支持激光雷达，无需大幅修改核心算法。具体操作如下：\n1. **话题替换**：只需在启动文件（launch file）中将输入的点云话题和里程计话题修改为雷达对应的主题即可，不需要修改深度相机相关的话题。\n2. **地图生成**：地图生成逻辑在 `uav_simulator\u002Fmap_generator` 或 `plan_env` 中的 `grid_map.cpp` 处理，雷达数据处理逻辑与深度相机不同，但接口已预留。\n3. **Rviz 显示**：如果使用实物，需修改发布 Rviz 图像话题的程序，使其适配雷达数据，以便在 Rviz 中正确显示。\n4. **高度设置**：注意默认输出的位置 Z 轴高度可能固定为 1 米，需根据实际需求在代码中进行修改。",{"id":155,"question_zh":156,"answer_zh":157,"source_url":144},32012,"在实机部署时，除了传感器适配，还需要考虑哪些关键因素以确保无人机能正确跟随轨迹？","在实机部署中，要让无人机正确跟随轨迹，除了传感器配置外，还需综合考虑以下因素：\n1. **无人机性能**：检查推重比（thrust to weight ratio）和 PID 参数设置，确保动力学模型匹配。\n2. **定位精度**：必须拥有高精度的定位系统。推荐使用 LIO（激光惯性里程计），如 GLIM 或 FAST-LIO。避免使用非 RTK 的普通 GPS。\n3. **计算设备**：确保机载计算机有足够的算力处理点云和规划算法。\n4. **控制系统**：如果是 ROS2 环境，可能需要自行编写或适配 PX4 等飞控的控制接口，因为官方示例多基于 ROS1。",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},32013,"程序运行时出现'double free or corruption'或节点进程崩溃（process has died）怎么办？","这类错误通常由内存管理问题、话题连接错误或配置不匹配引起。\n建议排查步骤：\n1. **检查话题映射**：确认 launch 文件中定义的话题名称（如 odom, cloud, depth）与实际发布的 topic 完全一致，类型匹配。\n2. **查看日志**：检查 `.ros\u002Flog\u002F` 目录下生成的详细 log 文件，定位具体的崩溃堆栈。\n3. **硬件与驱动**：如果是实机，检查传感器驱动是否正常发布数据，数据频率是否稳定。\n4. **编译环境**：尝试清理工作空间（`catkin_make clean`）并重新编译，排除编译残留导致的二进制冲突。\n注：由于该错误原因多样，若上述步骤无效，建议提供完整的报错日志和 launch 文件配置向社区求助。","https:\u002F\u002Fgithub.com\u002FZJU-FAST-Lab\u002Fego-planner-swarm\u002Fissues\u002F13",[]]