[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ZYunfeii--UAV_Obstacle_Avoiding_DRL":3,"tool-ZYunfeii--UAV_Obstacle_Avoiding_DRL":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":98,"forks":99,"last_commit_at":100,"license":79,"difficulty_score":32,"env_os":101,"env_gpu":102,"env_ram":101,"env_deps":103,"category_tags":111,"github_topics":113,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":134},8177,"ZYunfeii\u002FUAV_Obstacle_Avoiding_DRL","UAV_Obstacle_Avoiding_DRL","This is a project about deep reinforcement learning autonomous obstacle avoidance algorithm for UAV.","UAV_Obstacle_Avoiding_DRL 是一个专注于无人机（UAV）自主避障的开源项目，旨在利用深度强化学习技术解决无人机在复杂环境中的路径规划难题。该项目不仅覆盖了静态障碍物的规避，还深入探索了动态环境下的实时避障策略，有效提升了无人机飞行的安全性与智能化水平。\n\n对于从事机器人控制、人工智能算法研究的研究人员及开发者而言，这是一个极具价值的参考实现。项目独特之处在于其混合架构设计：在静态场景中，它创新性地结合了多智能体强化学习与人工势场法；而在动态场景中，则融合了扰动流场算法与单智能体强化学习。此外，项目还提供了包括 MADDPG、TD3、PPO 在内的多种主流算法实现，并附带了 A*、RRT、蚁群算法等传统方法的 MATLAB 代码供对比验证。无论是希望复现学术论文实验，还是寻求无人机避障算法改进思路的技术人员，都能从中获得丰富的代码资源与理论启发。","[![Typing SVG](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_93f9dbb1bd13.png)](https:\u002F\u002Fgit.io\u002Ftyping-svg)\n\n# README\n\nThis is a project about deep reinforcement learning autonomous obstacle avoidance algorithm for **UAV**. The whole project includes obstacle avoidance in **static environment** and obstacle avoidance in **dynamic environment**. In the static environment, **Multi-Agent Reinforcement Learning** and **artificial potential field algorithm** are combined. In the dynamic environment, the project adopts the combination of **disturbed flow field algorithm** and **single agent reinforcement learning algorithm**.\n\nAs this is my undergraduate graduation project and my academic level is limited, I wrote a conference paper at that time. The address of the paper is: [Adaptive Interfered Fluid Dynamic System Algorithm Based on Deep Reinforcement Learning Framework](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-16-9492-9_139)\n\n## Static environment\n\nThere are four methods to solve:\n\n1. **MADDPG**\n2. **Fully Centralized DDPG**\n3. **Fully Decentralized DDPG**\n4. **Fully Centralized TD3**\n\nThe third and the fourth methods perform better than others.\n\n## Dynamic environment\n\nThere are four methods to solve:\n\n1. **PPO+GAE(with multi-processing )**\n2. **TD3**\n3. **DDPG**\n4. **SAC**\n\nThe first three methods perform just the same. PPO convergence needs less episodes. TD3 and DDPG converge fast. Though Soft Actor-Critic is an outstanding algorithm in DRL, it has no obvious effect in my environment.\n\n## Traditional methods for  UAV path planning\n\nThree traditional methods are written with **MATLAB**:\n\n1. **A * search algorithm***\n2. **RRT algorithm**\n3. **Ant colony algorithm**\n\n**C++:**\n\n1. **D star algorithm**\n\nThe experiments show that A* search algorithm is much better than others but it is less effective than reinforcement learning path planning.\n\n## Artificial potential field algorithm\n\nThis project provides the MATLAB and Python realization of artificial potential field algorithm.\n\n**Python realization**: .\u002FAPF\u002FAPFPy2.py      .\u002FAPF\u002FAPFPy3.py    .\u002FAPF\u002FApfAlgorithm.py  (two-dimensional and three-dimensional)\n\n**Matlab realization**: .\u002FAPF\u002FAPF_matlab (two-dimensional)\n\n## IFDS and IIFDS algorithm\n\nThis is an obstacle avoidance planning algorithm based on flow field. I realize it with matlab. The code is in folder **IIFDS_and_IFDS**.\n\n## How to begin trainning\n\nFor example, you want to train the agent in dynamic environment with TD3, what you need to do is just running the **main.py**, then **test.py**, finally open matlab and run the **test.m** to draw.\n\nIf you want to test the model in the environment with 4 obstacles, you just need to run  **Multi_obstacle_environment_test.py**.\n\n## Requirements\n\nnumpy\n\ntorch\n\nmatplotlib\n\nseaborn==0.11.1\n\n## Files to illustrate\n\n**calGs.m**: calculate the index Gs which shows the performance of the route.\n\n**calLs.m**: calculate the index Ls which shows the performance of the route.\n\n**draw.py**: this file includes the Painter class which can draw the reward curve of various methods.\n\n**config.py**: this file give the setting of the parameters in trainning process of the algorithm such as the MAX_EPISODE, batch_size and so on.\n\n**Method.py**: this file concludes many important methods such as how to calculate the reward of the agents.\n\n**static_obstacle_environment.py**: there are many static obstacle environments' parameters in this file.\n\n**dynamic_obstacle_environment.py**: there are many dynamic obstacle environments' parameters in this file.\n\n**Multi_obstacle_environment_test.py**: this file test the dynamic model in the environment in dynamic_obstacle_environment.py.\n\n**data_csv**: this file save some data such as the trace of UAV and the reward in trainning.\n\n**AntColonybenchmark.m**: ACO algorithm realized by MATLAB.\n\n**Astarbenchmark.m**: A\\* algorithm realized by MATLAB.\n\n**RRTbenchmark.m**: RRT algorithm realized by MATLAB.\n\n# A simple simulation example\n\n- ![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_5d65fe325790.gif)\n\n# Star history\n- ![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_22859f12a94c.png)\n\n\n\n*all rights reserved.*\n\n","[![打字效果SVG](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_93f9dbb1bd13.png)](https:\u002F\u002Fgit.io\u002Ftyping-svg)\n\n# README\n\n这是一个关于**无人机**自主避障的深度强化学习算法项目。整个项目分为**静态环境下的避障**和**动态环境下的避障**两部分。在静态环境中，我们结合了**多智能体强化学习**和**人工势场算法**；而在动态环境中，则采用了**扰动流场算法**与**单智能体强化学习算法**的结合。\n\n由于这是我的本科毕业设计，学术水平有限，当时我还撰写了一篇会议论文，论文地址如下：[基于深度强化学习框架的自适应干扰流场系统算法](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-981-16-9492-9_139)\n\n## 静态环境\n\n针对静态环境，我们提供了四种解决方案：\n\n1. **MADDPG**\n2. **完全中心化DDPG**\n3. **完全去中心化DDPG**\n4. **完全中心化TD3**\n\n其中，第三种和第四种方法表现优于其他方法。\n\n## 动态环境\n\n对于动态环境，我们也提出了四种解决方法：\n\n1. **PPO+GAE（多进程版）**\n2. **TD3**\n3. **DDPG**\n4. **SAC**\n\n前三种方法的效果相差不大，不过PPO收敛所需的训练轮次较少。TD3和DDPG则收敛速度较快。尽管Soft Actor-Critic是强化学习领域中非常优秀的算法，但在我们的实验环境中并未展现出明显优势。\n\n## 传统无人机路径规划方法\n\n我们使用**MATLAB**实现了三种传统路径规划算法：\n\n1. **A\\*搜索算法**\n2. **RRT算法**\n3. **蚁群算法**\n\n此外，还用**C++**实现了一个经典的**D\\*算法**。\n\n实验结果表明，A\\*搜索算法的表现远超其他传统方法，但仍然不及强化学习路径规划的效果。\n\n## 人工势场算法\n\n本项目提供了人工势场算法的MATLAB和Python实现。\n\n**Python实现**：.\u002FAPF\u002FAPFPy2.py      .\u002FAPF\u002FAPFPy3.py    .\u002FAPF\u002FApfAlgorithm.py  （二维和三维）\n\n**MATLAB实现**：.\u002FAPF\u002FAPF_matlab （二维）\n\n## IFDS与IIFDS算法\n\n这是一种基于流场的避障规划算法，我们用MATLAB进行了实现，代码位于**IIFDS_and_IFDS**文件夹中。\n\n## 如何开始训练\n\n以使用TD3算法在动态环境中训练智能体为例，您只需依次运行以下脚本：**main.py**、**test.py**，最后打开MATLAB并运行**test.m**进行绘图即可。\n\n如果您想在包含4个障碍物的环境中测试模型，只需运行**Multi_obstacle_environment_test.py**即可。\n\n## 依赖库\n\nnumpy  \ntorch  \nmatplotlib  \nseaborn==0.11.1\n\n## 相关文件说明\n\n**calGs.m**：计算指标Gs，用于评估路径性能。\n\n**calLs.m**：计算指标Ls，用于评估路径性能。\n\n**draw.py**：该文件包含Painter类，可用于绘制不同方法的奖励曲线。\n\n**config.py**：该文件定义了训练过程中的一些参数设置，如MAX_EPISODE、batch_size等。\n\n**Method.py**：该文件包含了多种重要方法，例如如何计算智能体的奖励。\n\n**static_obstacle_environment.py**：该文件定义了多个静态障碍物环境的参数。\n\n**dynamic_obstacle_environment.py**：该文件定义了多个动态障碍物环境的参数。\n\n**Multi_obstacle_environment_test.py**：该文件用于在dynamic_obstacle_environment.py中定义的动态环境中测试模型。\n\n**data_csv**：该文件保存了一些数据，例如无人机的轨迹和训练过程中的奖励值。\n\n**AntColonybenchmark.m**：MATLAB实现的蚁群算法。\n\n**Astarbenchmark.m**：MATLAB实现的A\\*算法。\n\n**RRTbenchmark.m**：MATLAB实现的RRT算法。\n\n# 简单仿真示例\n\n- ![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_5d65fe325790.gif)\n\n# 星标历史\n- ![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_readme_22859f12a94c.png)\n\n\n\n*版权所有。*","# UAV_Obstacle_Avoiding_DRL 快速上手指南\n\n本项目是一个基于深度强化学习（DRL）的无人机（UAV）自主避障算法库，涵盖**静态环境**（多智能体强化学习 + 人工势场法）和**动态环境**（干扰流场算法 + 单智能体强化学习）两种场景。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux \u002F macOS \u002F Windows\n- **编程语言**: Python 3.x\n- **可视化工具**: MATLAB (用于部分传统算法对比及结果绘图)\n\n### 前置依赖\n项目主要依赖以下 Python 库：\n- `numpy`\n- `torch`\n- `matplotlib`\n- `seaborn` (版本需为 0.11.1)\n\n建议国内开发者使用清华源或阿里源加速安装。\n\n## 安装步骤\n\n1. **克隆项目代码**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002F你的仓库地址\u002FUAV_Obstacle_Avoiding_DRL.git\n   cd UAV_Obstacle_Avoiding_DRL\n   ```\n\n2. **安装 Python 依赖**\n   推荐使用国内镜像源安装：\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n   或者手动安装指定版本：\n   ```bash\n   pip install numpy torch matplotlib seaborn==0.11.1 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n3. **MATLAB 环境配置（可选）**\n   若需运行传统算法对比（A*, RRT, 蚁群算法）或绘制特定结果图，请确保本地已安装 MATLAB，并将项目中的 `.m` 文件所在文件夹添加到 MATLAB 路径中。\n\n## 基本使用\n\n以下以**动态环境**下使用 **TD3** 算法进行训练和测试为例：\n\n### 1. 训练模型\n运行主训练脚本：\n```bash\npython main.py\n```\n*注：具体使用的算法和环境类型可在 `config.py` 中配置参数（如 MAX_EPISODE, batch_size 等）。*\n\n### 2. 测试模型\n训练完成后，运行测试脚本验证模型效果：\n```bash\npython test.py\n```\n\n### 3. 可视化结果\n打开 MATLAB，运行绘图脚本以生成奖励曲线或轨迹图：\n```matlab\ntest.m\n```\n或者使用 Python 绘图工具查看奖励曲线：\n```bash\npython draw.py\n```\n\n### 4. 多障碍物场景测试\n若需在包含 4 个障碍物的动态环境中测试模型，直接运行：\n```bash\npython Multi_obstacle_environment_test.py\n```\n\n### 其他场景说明\n- **静态环境**: 支持 MADDPG, Centralized DDPG, Decentralized DDPG, Centralized TD3 等方法，参数在 `static_obstacle_environment.py` 中配置。\n- **人工势场法 (APF)**: Python 实现位于 `.\u002FAPF\u002F` 目录，MATLAB 实现位于 `.\u002FAPF\u002FAPF_matlab`。\n- **流场算法 (IFDS\u002FIIFDS)**: 代码位于 `IIFDS_and_IFDS` 文件夹，需通过 MATLAB 运行。","某物流科技公司正在研发用于城市复杂环境下的无人机自动配送系统，需解决高密度建筑群中的实时避障难题。\n\n### 没有 UAV_Obstacle_Avoiding_DRL 时\n- 依赖传统的 A*或 RRT 算法规划路径，在面对动态移动的车辆或行人时反应迟钝，极易导致碰撞或任务中断。\n- 静态环境下多机协同困难，缺乏有效的多智能体强化学习（MADDPG）机制，无人机编队容易在狭窄空间发生相互干扰。\n- 路径平滑度差，传统人工势场法易陷入局部最优，导致无人机在障碍物附近频繁震荡，增加能耗并缩短续航。\n- 开发验证周期长，每次调整避障策略均需重新编写 MATLAB 代码进行仿真，难以快速迭代适应不同城市场景。\n\n### 使用 UAV_Obstacle_Avoiding_DRL 后\n- 利用动态环境下的 TD3 或 PPO 算法，无人机能像流体一样灵活绕过突发障碍，实现毫秒级自主决策，显著降低碰撞率。\n- 在静态密集区启用多智能体强化学习结合人工势场算法，多架无人机可高效协同穿梭，互不干扰且路径最优。\n- 基于深度强化学习的奖励机制优化了飞行轨迹，消除了局部震荡问题，飞行路线更加平滑，有效提升了电池利用率。\n- 通过内置的 Python 训练框架与可视化脚本（如 draw.py），团队可快速复现论文算法并直观对比奖励曲线，将算法迭代效率提升数倍。\n\nUAV_Obstacle_Avoiding_DRL 通过将前沿的深度强化学习算法工程化，成功让无人机从“按图索骥”的机械执行者进化为具备动态感知与自适应能力的智能飞行员。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FZYunfeii_UAV_Obstacle_Avoiding_DRL_5d65fe32.gif","ZYunfeii","Y. F. Zhang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FZYunfeii_4b635d36.jpg","Love living, love QJX.\r\n\r\n","Buaa","Beijing, China",null,"https:\u002F\u002Fzyunfeii.github.io","https:\u002F\u002Fgithub.com\u002FZYunfeii",[83,87,91,95],{"name":84,"color":85,"percentage":86},"Python","#3572A5",66.1,{"name":88,"color":89,"percentage":90},"MATLAB","#e16737",31.3,{"name":92,"color":93,"percentage":94},"C++","#f34b7d",2.4,{"name":96,"color":79,"percentage":97},"M",0.1,701,90,"2026-04-16T08:18:46","未说明","未说明 (项目基于 PyTorch，通常支持 CUDA，但 README 未明确指定显卡型号或显存需求)",{"notes":104,"python":105,"dependencies":106},"该项目包含 MATLAB 实现的传统算法（如 A*、RRT、蚁群算法）及可视化脚本（test.m），因此运行完整功能需要安装 MATLAB。训练动态环境下的多进程模型（PPO+GAE）可能需要多核 CPU 支持。","未说明 (依赖中包含 seaborn==0.11.1，暗示可能兼容 Python 3.7-3.9，但未明确指定版本)",[107,108,109,110],"numpy","torch","matplotlib","seaborn==0.11.1",[13,112],"其他",[114,115,116],"reinforcement-learning","reinforcement-learning-algorithms","uav","2026-03-27T02:49:30.150509","2026-04-17T08:25:56.854589",[120,125,129],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},36586,"代码中 row0、theta 和 sigma0 这三个参数分别代表什么含义？","这三个参数是名为 IFDS（浸入式流体动力学系统）算法的核心参数。其中，row0 用于计算排斥矩阵（repulsiveMatrix），决定无人机避开障碍物的排斥力强度；theta 和 sigma0 用于计算切向矩阵（tangentialMatrix），决定无人机沿障碍物表面滑行的切向力特性。它们直接影响算法的避障效果和轨迹平滑度。","https:\u002F\u002Fgithub.com\u002FZYunfeii\u002FUAV_Obstacle_Avoiding_DRL\u002Fissues\u002F2",{"id":126,"question_zh":127,"answer_zh":128,"source_url":124},36587,"为什么要使用深度强化学习（DRL）来训练排斥参数和切向参数？这些不是障碍物的固有属性吗？","这是一个常见的误解。row0、theta 和 sigma0 并非障碍物本身的物理固有属性（如大小或位置），而是 IFDS 避障算法的控制参数。不同的参数组合会产生不同的避障行为（例如更激进或更保守的绕行）。使用 DRL 的目的是让无人机通过与环境交互，自动学习并调整这些算法参数，以适应复杂多变的动态环境，从而获得最优的避障策略，而不是固定不变地使用一组参数。",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},36588,"项目无法运行，报错或无反应该怎么办？","维护者指出该仓库仅针对其特定的代码库和实验环境提供支持。如果遇到无法运行的情况，首先请检查是否已正确安装所有依赖项（如 numpy 等），并确认运行环境与作者使用的 Python 版本一致。由于维护者表示“只能回答关于我仓库的问题”，如果错误信息与仓库核心逻辑无关（如本地环境配置错误），建议优先检查本地依赖完整性或参考通用的 Python 环境调试步骤。","https:\u002F\u002Fgithub.com\u002FZYunfeii\u002FUAV_Obstacle_Avoiding_DRL\u002Fissues\u002F1",[]]