[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ArztSamuel--Applying_EANNs":3,"tool-ArztSamuel--Applying_EANNs":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":143},8916,"ArztSamuel\u002FApplying_EANNs","Applying_EANNs","A 2D Unity simulation in which cars learn to navigate themselves through different courses. The cars are steered by a feedforward neural network. The weights of the network are trained using a modified genetic algorithm.","Applying_EANNs 是一个基于 Unity 引擎开发的 2D 仿真项目，旨在演示汽车如何通过人工智能自主学习驾驶技巧。在这个模拟环境中，车辆需要利用前方的五个传感器感知障碍物距离，并依靠前馈神经网络自主控制引擎动力与转向力度，从而在不碰撞墙壁的前提下穿越各种复杂赛道。\n\n该项目主要解决了传统硬编码规则难以适应多变路况的问题，展示了如何让智能体在未知环境中通过“试错”进化出导航策略。其核心技术亮点在于结合了神经网络与改进的遗传算法：系统会初始化一群随机参数的车辆，每代筛选出表现最优者进行基因重组与变异，生成新一代车队，如此循环迭代直至涌现出成熟的驾驶行为。可视化界面还能实时展示最佳车辆的神经网络结构，通过连线的颜色与粗细直观呈现权重变化。\n\nApplying_EANNs 非常适合 AI 初学者、教育工作者以及对强化学习和进化计算感兴趣的研究人员使用。对于开发者而言，其代码结构清晰，允许用户轻松调整遗传算法逻辑或自定义赛道场景，是理解“进化人工神经网络”原理的理想实验平台。普通用户也可直接运行构建文件，直观观察人工智能从混乱无序到熟练驾驶的完整进化过程。","# Applying Evolutionary Artificial Neural Networks\n\nA 2D Unity simulation in which cars learn to navigate themselves through different courses. The cars are steered by a feedforward Neural Network. The weights of the network are trained using a modified genetic algorithm.\nShort demo video of an early version: https:\u002F\u002Fyoutu.be\u002FrEDzUT3ymw4\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_c1cc2ea23cff.gif)\n\n\n## The Simulation\n\nCars have to navigate through a course without touching the walls or any other obstacles of the course. A car has five front-facing sensors which measure the distance to obstacles in a given direction. The readings of these sensors serve as the input of the car's neural network. Each sensor points into a different direction, covering a front facing range of approximately 90 degrees. The maximum range of a sensor is 10 unity units. The output of the Neural Network then determines the car’s current engine and turning force.\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_3b1fcf7e3db9.png\" width=\"250\">\n\n\nIf you would like to tinker with the parameters of the simulation, you can do so in the Unity Editor. If you would simply like to run the simulation with default parameters, you can start the built file [Builds\u002FApplying EANNs.exe](Builds\u002FApplying EANNs.exe).\n\n\n## The Neural Network\n\nThe Neural Network used is a standard, fully connected, feedforward Neural Network. It comprises 4 layers: an input layer with 5 neurons, two hidden layers with 4 and 3 neurons respectively and an output layer with 2 neurons.\nThe code for the Neural Network can be found at [UnityProject\u002FAssets\u002FScripts\u002FAI\u002FNeuralNetworks\u002F](UnityProject\u002FAssets\u002FScripts\u002FAI\u002FNeuralNetworks\u002F).\n\n\n## Training the Neural Network\n\nThe weights of the Neural Network are trained using an Evolutionary Algorithm known as the Genetic Algorithm.\n\nAt first there are N randomly initialised cars spawned. The best cars are then selected to be recombined with each other, creating new \"offspring\" cars. These offspring cars then form a new population of N cars and are \nalso slightly mutated in order to inject some more diversity into the population. The newly created population of cars then tries to navigate the course again and the process of evaluation, selection, recombination and mutation starts again. One complete cycle from the evaluation of one population to the evaluation of the next is called a generation.\n\nThe generic version of a Genetic Algorithm can be found at [UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FGeneticAlgorithm.cs](UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FGeneticAlgorithm.cs). This class can be modified in a very easy way, by simply assigning your own methods to the delegate operator methods of the class. Some example code for adapting the Genetic Algorithm to your own needs can be found in the EvolutionManager  [UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FEvolutionManager.cs](UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FEvolutionManager.cs), which is already able to switch between two differently modified Genetic Algorithms.\n\n\n## User Interface\n\nThe user interface always displays the data of the current best car. In the top left corner the Neural Network's output (engine and turning) is displayed. Right below the output, the evaluation value is displayed (the evaluation value is equal to the percentage of course completion). In the lower left corner a generation counter is displayed. In the upper right corner the Neural Network of the current best car is displayed. The weights are symbolised by the color and width of the connections between neurons: The wider a connection, the bigger the absolute value of the weight; Green means that the weight is positive, red means that the weight is negative.\n\nThe entire UI-code is located at [UnityProject\u002FAssets\u002FScripts\u002FGUI\u002F](UnityProject\u002FAssets\u002FScripts\u002FGUI\u002F).\n\n\n## Courses\n\nThere are multiple courses of different difficulties which are all located in different unity scenes and can be found in the folder [UnityProject\u002FAssets\u002FScenes\u002FTracks\u002F](UnityProject\u002FAssets\u002FScenes\u002FTracks\u002F).\n\nIn order to start the simulation on a specific course, open the Main scene and enter the desired track-name (= scene name) in the Inspector of the GameStateManager object.\n\n\n\n![Two different courses the cars can be trained on.](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_8d50227936b6.png)\n\n\n## License\n\nFeel free to use my code in your personal projects. I would be very interested in any work that originates from this project. I would be more than happy to hear from your impressions and results, so feel free to mail me at arzt.samuel@live.de.\nYou can also follow me on twitter: https:\u002F\u002Ftwitter.com\u002FSamuelArzt\n\n\n\n","# 应用进化型人工神经网络\n\n这是一个基于Unity的2D模拟，其中车辆通过学习自主导航不同的赛道。车辆由一个前馈神经网络控制转向。该神经网络的权重使用一种改进的遗传算法进行训练。\n早期版本的简短演示视频：https:\u002F\u002Fyoutu.be\u002FrEDzUT3ymw4\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_c1cc2ea23cff.gif)\n\n\n## 模拟场景\n\n车辆必须在不触碰赛道墙壁或其他障碍物的情况下完成赛道行驶。每辆车配备五个前置传感器，用于测量特定方向上的障碍物距离。这些传感器的读数作为车辆神经网络的输入。每个传感器指向不同的方向，覆盖约90度的前方视野。传感器的最大检测范围为10个Unity单位。神经网络的输出则决定车辆当前的发动机推力和转向力。\n\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_3b1fcf7e3db9.png\" width=\"250\">\n\n\n如果您想调整模拟中的参数，可以在Unity编辑器中进行修改。如果您只想以默认参数运行模拟，可以直接启动编译后的可执行文件 [Builds\u002FApplying EANNs.exe](Builds\u002FApplying EANNs.exe)。\n\n\n## 神经网络\n\n所使用的神经网络是一个标准的全连接前馈神经网络，包含4层：输入层有5个神经元，两个隐藏层分别有4个和3个神经元，输出层有2个神经元。\n神经网络的代码位于 [UnityProject\u002FAssets\u002FScripts\u002FAI\u002FNeuralNetworks\u002F] 中。\n\n\n## 神经网络的训练\n\n神经网络的权重采用一种称为遗传算法的进化算法进行训练。\n\n首先会随机生成N辆初始车辆。然后选择表现最好的几辆车进行交叉重组，产生新的“后代”车辆。这些后代车辆组成一个新的N辆种群，并且还会进行轻微的变异，以增加种群的多样性。新生成的种群再次尝试通过赛道，评估、选择、重组和变异的过程重新开始。从一个种群的评估到下一个种群的评估，这一完整循环被称为一代。\n\n通用版遗传算法的代码位于 [UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FGeneticAlgorithm.cs] 中。可以通过简单地为该类的委托方法分配您自己的实现来轻松修改此算法。有关如何根据自身需求定制遗传算法的示例代码，可在EvolutionManager中找到，它已经能够在这两种不同修改版本的遗传算法之间切换。[UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FEvolutionManager.cs]\n\n\n## 用户界面\n\n用户界面始终显示当前最佳车辆的相关数据。左上角显示神经网络的输出（发动机推力和转向力）。输出下方显示评估值（评估值等于赛道完成百分比）。左下角显示当前的代数计数器。右上角则展示当前最佳车辆的神经网络结构，其中各连接线的颜色和宽度代表权重的大小与正负：连线越粗，表示权重的绝对值越大；绿色表示权重为正，红色表示权重为负。\n\n整个UI代码位于 [UnityProject\u002FAssets\u002FScripts\u002FGUI\u002F] 中。\n\n\n## 赛道\n\n系统提供了多个难度各异的赛道，它们分别位于不同的Unity场景中，存放于文件夹 [UnityProject\u002FAssets\u002FScenes\u002FTracks\u002F] 中。\n要在一个特定赛道上启动模拟，请打开Main场景，并在GameStateManager对象的Inspector面板中输入所需的赛道名称（即场景名称）。\n\n\n\n![两种可供车辆训练的赛道。](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_readme_8d50227936b6.png)\n\n\n## 许可协议\n\n您可以自由地将我的代码用于个人项目。我非常期待看到基于本项目衍生出的作品。如果您有任何感想或成果，欢迎随时通过arzt.samuel@live.de与我联系。您也可以在Twitter上关注我：https:\u002F\u002Ftwitter.com\u002FSamuelArzt","# Applying_EANNs 快速上手指南\n\n本项目是一个基于 Unity 的 2D 仿真模拟，展示了汽车如何利用进化人工神经网络（EANNs）和遗传算法自主学习导航，穿越不同赛道而不碰撞障碍物。\n\n## 环境准备\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux\n*   **核心软件**：Unity Hub 及 Unity Editor（推荐版本参考项目 `.unityversion` 文件，通常适用于较新的 LTS 版本）\n*   **前置依赖**：无需额外的 Python 或外部库依赖，所有逻辑均通过 C# 在 Unity 内部实现。\n*   **硬件要求**：支持 OpenGL 3.0+ 的显卡（用于运行仿真和可视化神经网络）。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    打开终端，执行以下命令下载源码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fsamuelarzt\u002FApplying_EANNs.git\n    cd Applying_EANNs\n    ```\n\n2.  **导入 Unity 项目**\n    *   启动 **Unity Hub**。\n    *   点击 **\"Add\" (添加)** 按钮。\n    *   选择刚才克隆的文件夹中的 `UnityProject` 目录。\n    *   等待 Unity 自动导入资源并编译脚本。\n\n3.  **直接使用构建版（可选）**\n    如果您仅想运行演示而无需修改代码，可直接运行预构建的可执行文件（仅限 Windows）：\n    ```text\n    Builds\u002FApplying EANNs.exe\n    ```\n\n## 基本使用\n\n### 1. 启动仿真\n*   在 Unity Editor 中，打开场景 `Assets\u002FScenes\u002FMain.unity`。\n*   点击编辑器顶部的 **Play (播放)** 按钮即可开始训练。\n*   默认情况下，系统将生成一群汽车，它们将通过遗传算法不断迭代，学习如何避开墙壁。\n\n### 2. 切换赛道\n项目包含多个不同难度的赛道场景。要更改训练环境：\n*   保持 `Main` 场景打开。\n*   在层级视图 (Hierarchy) 中找到 **GameStateManager** 对象。\n*   在检查器 (Inspector) 面板中，找到 **Track Name** 字段。\n*   输入目标赛道的场景名称（位于 `Assets\u002FScenes\u002FTracks\u002F` 目录下），例如输入具体的赛道文件名，然后重新点击 Play。\n\n### 3. 观察与调试\n*   **界面信息**：\n    *   **左上角**：显示当前最佳车辆的神经网络输出（引擎动力和转向力）及评估值（赛道完成百分比）。\n    *   **左下角**：显示当前代数 (Generation)。\n    *   **右上角**：可视化当前最佳车辆的神经网络结构。连线越宽代表权重绝对值越大；绿色代表正权重，红色代表负权重。\n*   **修改参数**：\n    *   若要调整遗传算法逻辑，请编辑 `UnityProject\u002FAssets\u002FScripts\u002FAI\u002FEvolution\u002FGeneticAlgorithm.cs`。\n    *   若要自定义适应度函数或选择策略，请参考 `EvolutionManager.cs` 中的示例代码。\n    *   若要修改神经网络结构，请查看 `UnityProject\u002FAssets\u002FScripts\u002FAI\u002FNeuralNetworks\u002F` 目录。\n\n训练过程是自动进行的：系统会评估每一代车辆的表现，选择最优个体进行重组和变异，生成新一代种群，直至车辆能够熟练通过赛道。","某独立游戏开发团队正在制作一款 2D 赛车游戏，需要为 NPC 车辆设计能够自动适应不同复杂赛道的智能驾驶行为。\n\n### 没有 Applying_EANNs 时\n- 开发者必须手动编写繁琐的状态机代码来处理转弯、加速和避障逻辑，代码量大且难以维护。\n- 调整车辆在不同赛道上的表现极其耗时，每次修改参数都需要重新编译并人工测试数百次。\n- 传统的脚本驾驶行为僵硬单一，车辆无法应对未预设的突发障碍，玩家很容易发现规律并感到无聊。\n- 缺乏可视化的训练过程，开发者无法直观理解 AI 决策背后的权重变化，调试如同“黑盒”操作。\n\n### 使用 Applying_EANNs 后\n- 利用内置的进化人工神经网络，车辆通过遗传算法自动学习驾驶策略，无需手写任何具体的避障规则。\n- 只需运行仿真，系统即可在数代进化中自动筛选出最优驾驶模型，大幅缩短从原型到成品的迭代周期。\n- 生成的驾驶行为具有高度适应性，车辆能灵活应对各种新赛道和动态障碍，呈现出类似人类玩家的直觉反应。\n- 实时 UI 面板清晰展示当前最佳车辆的神经网络结构与权重颜色，让开发者能直观监控并调整进化方向。\n\nApplying_EANNs 将原本需要数周手工调优的自动驾驶逻辑，转化为一个可观察、自进化的自动化训练过程，极大提升了游戏 AI 的开发效率与智能上限。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FArztSamuel_Applying_EANNs_2865a3e9.png","ArztSamuel","Samuel Arzt","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FArztSamuel_f07b3f6e.jpg","Coding, AI, Space, Gamedev. I kind of like those things.",null,"Austria","samuelarzt.com","https:\u002F\u002Fgithub.com\u002FArztSamuel",[81,85],{"name":82,"color":83,"percentage":84},"ASP","#6a40fd",57,{"name":86,"color":87,"percentage":88},"C#","#178600",43,1570,371,"2026-04-17T08:08:54","MIT",4,"Windows","未说明",{"notes":97,"python":98,"dependencies":99},"该项目是一个基于 Unity 引擎的 2D 仿真程序，并非传统的 Python AI 库。核心逻辑使用 C# 编写。用户可以直接运行提供的 Windows 可执行文件 (Builds\u002FApplying EANNs.exe)，或者安装 Unity Editor 来修改参数和重新编译。神经网络和遗传算法均在本地实时训练，无需外部深度学习框架（如 PyTorch 或 TensorFlow）或 GPU 加速。","不适用 (基于 Unity 引擎，主要使用 C#)",[100],"Unity Engine",[14],[103,104,105,106,107,108,109],"artificial-neural-networks","neural-networks","evolutionary-algorithms","genetic-algorithm","deep-learning","machine-learning","self-driving-cars","2026-03-27T02:49:30.150509","2026-04-18T14:24:40.952580",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},39973,"如何安装该项目？在 Windows 7 上运行有什么要求？","这是一个 Unity 项目。若要直接运行，只需执行 Build 文件夹中的 `Applying EANNs.exe` 文件。在 Windows 系统上通常已满足所有软件要求。如果您想修改项目设置或尝试不同地图，需要下载 Unity 引擎。建议使用 Unity 5.5.2 版本打开项目以避免兼容性问题，所有 Unity 历史版本可在 Unity 官网归档页面下载。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F2",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},39974,"是否有源代码？对于不熟悉 C# 的初学者有什么学习资源推荐？","项目包含源代码（C#）。如果您觉得代码难以理解，维护者推荐以下学习资源：Jurgen Schmidhuber 的《Deep Learning Overview》和 Darrell Whitley 的《A Genetic Algorithm Tutorial》。此外，各大主流在线课程网站上也有关于机器学习和深度学习的丰富课程。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F1",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},39975,"如何在关闭应用后保存并加载最新的神经网络权重值？","`Genotype` 类持有当前所有的权重值，并实现了 `SaveToFile` 和 `LoadFromFile` 方法。要保存特定基因型（如某辆车），调用其 `SaveToFile` 方法；加载时调用 `LoadFromFile` 并传入文件路径即可。项目中已有一个机制可以自动保存前 N 辆完成赛道的车辆的权重（在 Main 场景的 EvolutionManager 对象 Inspector 面板中设置 \"Save First N Genotypes\"）。注意：`LoadFromFile` 方法主要是为了完整性而实现，可能未经过充分测试，如遇问题需自行调试。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F3",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},39976,"在哪里设置神经网络的大小？","虽然具体配置位置未在评论中直接指出代码行号，但用户反馈表明可以在相关面板中找到设置。有用户提到随着网络变大模拟会变慢，因此选择隐藏了神经网络面板。通常在 Unity 项目的 Inspector 面板或相关的 AI 配置脚本中可以调整神经网络的层数和节点数量。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},39977,"如何实现训练过程中自动切换地图以增强模型的适应性？","目前项目不支持自动切换地图，只能在主场景的 Inspector 中手动选择。若要实现该功能，维护者建议尝试卸载当前赛道场景并以附加模式（additively）加载新赛道。由于 EvolutionManager、GameStateManager 和生成的车辆位于独立的 Main 场景中，这种方法应该可行。实施时需注意在进化周期的合适时间点进行场景切换，并确保新场景完全加载后再继续模拟。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F5",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},39978,"在一个赛道训练好的模型直接用到新赛道上能成功吗？还是需要重新学习？","这取决于新赛道的情况。如果新赛道没有引入原赛道中完全不存在的基本新概念（例如急转弯\u002FU 型弯），训练好的模型通常能够直接完成。否则，模型需要针对新引入的概念进行额外的训练才能适应。","https:\u002F\u002Fgithub.com\u002FArztSamuel\u002FApplying_EANNs\u002Fissues\u002F6",[]]