[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kendricktan--suiron":3,"tool-kendricktan--suiron":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":100,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":120},7533,"kendricktan\u002Fsuiron","suiron","Machine Learning for RC Cars","Suiron 是一个专为遥控车（RC Cars）打造的机器学习开源项目，旨在让普通的玩具赛车具备自主驾驶能力。它通过摄像头实时捕捉前方路况，利用深度学习模型自动判断转向角度和行驶速度，从而解决传统遥控车依赖人工操作、无法实现自动化巡航的痛点。\n\n该项目特别适合对嵌入式人工智能、机器人技术感兴趣的开发者及研究人员使用。用户只需配备树莓派等车载计算机和摄像头，即可按照指引完成数据采集、模型训练到实车部署的全流程。Suiron 的核心技术亮点在于其神经网络架构直接借鉴了 NVIDIA 著名的“端到端自动驾驶”论文，能够从原始图像像素直接映射出控制指令，无需复杂的人工规则编写。此外，项目提供了完整的数据收集脚本与可视化工具，让用户能直观地对比实际轨迹与模型预测轨迹，极大地降低了自动驾驶算法的学习与验证门槛。无论是用于教育演示还是作为进阶自动驾驶研究的入门实践，Suiron 都是一个极具参考价值的开源范例。","# Suiron\n### Machine Learning for RC Cars \n\n## Prediction visualization (green = actual, blue = prediction)\n![](https:\u002F\u002Fthumbs.gfycat.com\u002FDarlingForkedAcaciarat-size_restricted.gif)\n\n## Click the video below to see it in action!\n[![IMAGE ALT TEXT](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendricktan_suiron_readme_6efc47bceb15.jpg)](https:\u002F\u002Fyoutu.be\u002FtFwCyHdAWf0 \"Machine Learning Car\")\n\n## Dependencies\n#### __Python 2.7__ was chosen as it was supported by all the libraries used at the time\n```\nsudo apt-get update\nsudo apt-get upgrade\nsudo apt-get install python-opencv python-dev\n\nexport TF_BINARY_URL=https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow\u002Flinux\u002Fcpu\u002Ftensorflow-0.10.0-cp27-none-linux_x86_64.whl\nsudo pip install --upgrade $TF_BINARY_URL\n\nsudo pip install -r requirements.txt\n```\n\n## Collecting data\n```\npython collect.py\n```\n\n## Visualizing collected data\n```\npython visualize_collect.py\n```\n\n## Training data\n```\npython train.py\n```\n\n## Visualizing predicted data\n```\npython visualize_predict.py\n```\n\n# References\n\nBlog Post detailing how the hardware and software communicate - [Communicating between RC Car and the On-board Computer - Jabelone](http:\u002F\u002Fjabelone.com.au\u002Fblog\u002Fmake-autonomous-car-code-included\u002F)\n\n\nCommunication between hardware and software repo - [car-controller](https:\u002F\u002Fgithub.com\u002Fjabelone\u002Fcar-controller)\n\nNeural Network architecture was based on NVIDIA's Self-driving car paper - [End-To-End Learning for Self-Driving Cars](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.07316v1.pdf)\n","# 讨论\n### 用于遥控车的机器学习\n\n## 预测可视化（绿色 = 实际，蓝色 = 预测）\n![](https:\u002F\u002Fthumbs.gfycat.com\u002FDarlingForkedAcaciarat-size_restricted.gif)\n\n## 点击下方视频，观看实际运行效果！\n[![图片替代文本](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendricktan_suiron_readme_6efc47bceb15.jpg)](https:\u002F\u002Fyoutu.be\u002FtFwCyHdAWf0 \"机器学习汽车\")\n\n## 依赖项\n#### 选择了 __Python 2.7__，因为当时所用的所有库都支持该版本\n```\nsudo apt-get update\nsudo apt-get upgrade\nsudo apt-get install python-opencv python-dev\n\nexport TF_BINARY_URL=https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow\u002Flinux\u002Fcpu\u002Ftensorflow-0.10.0-cp27-none-linux_x86_64.whl\nsudo pip install --upgrade $TF_BINARY_URL\n\nsudo pip install -r requirements.txt\n```\n\n## 数据采集\n```\npython collect.py\n```\n\n## 可视化采集到的数据\n```\npython visualize_collect.py\n```\n\n## 训练数据\n```\npython train.py\n```\n\n## 可视化预测结果\n```\npython visualize_predict.py\n```\n\n# 参考资料\n\n一篇详细说明硬件与软件如何通信的博客文章 - [遥控车与车载计算机之间的通信 - Jabelone](http:\u002F\u002Fjabelone.com.au\u002Fblog\u002Fmake-autonomous-car-code-included\u002F)\n\n\n硬件与软件通信的相关代码仓库 - [car-controller](https:\u002F\u002Fgithub.com\u002Fjabelone\u002Fcar-controller)\n\n神经网络架构参考了英伟达的自动驾驶汽车论文 - [端到端自动驾驶学习](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1604.07316v1.pdf)","# Suiron 快速上手指南\n\nSuiron 是一个基于机器学习的遥控车（RC Car）自动驾驶项目，采用端到端学习架构（参考 NVIDIA 自动驾驶论文），通过摄像头采集数据并训练模型以控制车辆行驶。\n\n## 环境准备\n\n- **操作系统**：Linux（推荐 Ubuntu）\n- **Python 版本**：Python 2.7（项目依赖当时仅支持该版本的库）\n- **硬件要求**：需配备摄像头的遥控车及车载计算机（如 Raspberry Pi 或类似设备）\n- **前置依赖**：\n  - OpenCV\n  - TensorFlow 0.10.0 (CPU 版本)\n  - 其他 Python 依赖包（见 `requirements.txt`）\n\n> ⚠️ 注意：本项目较旧，强制依赖 Python 2.7 和 TensorFlow 0.10.0。若在现代环境中运行，建议使用 Docker 或虚拟机隔离环境。\n\n## 安装步骤\n\n1. **更新系统并安装基础依赖**\n   ```bash\n   sudo apt-get update\n   sudo apt-get upgrade\n   sudo apt-get install python-opencv python-dev\n   ```\n\n2. **安装 TensorFlow 0.10.0**\n   > 由于官方源下载较慢，国内用户可尝试使用清华或阿里镜像加速 pip 安装，但需注意 wheel 文件地址需替换为镜像源地址（若镜像源无此旧版本，则需保留原链接或使用本地缓存）。\n   ```bash\n   export TF_BINARY_URL=https:\u002F\u002Fstorage.googleapis.com\u002Ftensorflow\u002Flinux\u002Fcpu\u002Ftensorflow-0.10.0-cp27-none-linux_x86_64.whl\n   sudo pip install --upgrade $TF_BINARY_URL\n   ```\n   *（国内加速提示：若直接下载失败，可手动下载该 `.whl` 文件至本地，然后执行 `sudo pip install tensorflow-0.10.0-cp27-none-linux_x86_64.whl`）*\n\n3. **安装项目其余依赖**\n   ```bash\n   sudo pip install -r requirements.txt\n   ```\n\n## 基本使用\n\n### 1. 采集数据\n连接摄像头后，运行以下脚本开始录制驾驶数据（需人工遥控车辆以生成训练样本）：\n```bash\npython collect.py\n```\n\n### 2. 可视化采集的数据\n检查采集到的图像和转向标签是否正确：\n```bash\npython visualize_collect.py\n```\n\n### 3. 训练模型\n使用采集的数据训练神经网络模型：\n```bash\npython train.py\n```\n\n### 4. 可视化预测结果\n加载训练好的模型，查看模型对输入图像的预测轨迹（绿色为实际路径，蓝色为预测路径）：\n```bash\npython visualize_predict.py\n```\n\n完成上述步骤后，可将模型部署至车载计算机，结合 [car-controller](https:\u002F\u002Fgithub.com\u002Fjabelone\u002Fcar-controller) 项目实现真正的自动驾驶控制。","某高校机器人实验室的团队正致力于将一辆普通的遥控车改造为能在复杂赛道上自主行驶的智能小车。\n\n### 没有 suiron 时\n- 开发者必须手动编写繁琐的规则代码（如“检测到左转标志则转向 30 度”），难以应对赛道光线变化或突发障碍物。\n- 调整车辆行为需要反复修改硬编码参数，每次测试失败都要重新烧录程序，调试周期长达数小时。\n- 车辆缺乏泛化能力，一旦赛道布局微调或地面摩擦力改变，原本写死的逻辑就会失效导致脱轨。\n- 无法直观看到决策过程，团队只能凭猜测判断是摄像头识别错误还是控制指令延迟，排查问题如同盲人摸象。\n\n### 使用 suiron 后\n- 团队只需驾驶遥控车在赛道上采集几轮人类操作数据，suiron 即可基于 NVIDIA 架构自动训练出端到端的驾驶模型。\n- 模型能直接从摄像头画面输出转向和油门指令，无需人工设定规则，车辆能像人类一样灵活应对弯道和直道。\n- 借助迁移学习特性，只需补充少量新场景数据重新训练，车辆就能快速适应新的赛道环境或光照条件。\n- 利用内置的可视化脚本，开发者能实时对比“实际轨迹”与“预测轨迹”，精准定位模型偏差并针对性优化数据集。\n\nsuiron 将原本依赖人工经验的规则式开发，转变为数据驱动的自学习模式，让低成本遥控车也能具备类人的自动驾驶直觉。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendricktan_suiron_6efc47bc.jpg","kendricktan","Kendrick Tan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkendricktan_9c4cd236.jpg","i have a little meower",null,"https:\u002F\u002Fkndrck.co\u002F","https:\u002F\u002Fgithub.com\u002Fkendricktan",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,708,77,"2026-01-08T03:59:38","MIT",5,"Linux","未说明 (安装指令明确指定使用 CPU 版本的 TensorFlow)","未说明",{"notes":94,"python":95,"dependencies":96},"该项目基于较旧的 NVIDIA 端到端自动驾驶论文架构。安装脚本中硬编码了 TensorFlow 0.10.0 的 CPU 版本二进制文件链接，专为 Linux x86_64 架构设计。由于依赖 Python 2.7 和极旧版本的 TensorFlow，现代环境直接运行可能存在兼容性困难，建议构建遗留环境或使用容器运行。","2.7",[97,98,99],"tensorflow==0.10.0 (CPU 版)","opencv-python (python-opencv)","python-dev",[15,101],"其他","2026-03-27T02:49:30.150509","2026-04-15T06:50:34.274538",[105,110,115],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},33775,"是否可以提供项目收集的原始数据集？","维护者已提供原始数据下载链接。在使用数据进行训练前，请执行以下步骤：\n1. 在项目根目录下创建一个名为 `data` 的文件夹，并将下载的原始数据放入其中。\n2. 修改 `train.py` 文件的第 16 行，替换为：`DATA_FILES = ['data\u002Foutput_0.csv', 'data\u002Foutput_1.csv']`。\n3. 运行命令 `python train.py` 开始训练。\n注意：需要持续训练直到 CNN 的 loss 值达到渐近稳定状态（在 GTX 760 显卡上大约需要 5 小时）。\n数据来源：https:\u002F\u002Fwww.dropbox.com\u002Fsh\u002F3k65pft7gd4krhu\u002FAABUJ9oJeOft1zZyDQbZ7l6aa?dl=0","https:\u002F\u002Fgithub.com\u002Fkendricktan\u002Fsuiron\u002Fissues\u002F2",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},33776,"运行 collect.py 后生成的 CSV 文件只有表头没有数据，这是什么原因？","这通常是因为用户等待时间不足导致的。虽然代码运行无报错且摄像头灯亮起，但数据采集需要一定的时间积累。请尝试延长运行时间（例如等待更久再按下 Ctrl+C 停止），确保有足够的数据被写入到 output_*.csv 文件中。","https:\u002F\u002Fgithub.com\u002Fkendricktan\u002Fsuiron\u002Fissues\u002F4",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},33777,"运行 train.py 时出现 'pandas.errors.EmptyDataError: No columns to parse from file' 错误怎么办？","该错误表明程序试图读取的 CSV 文件是空的（没有列数据）。这通常是因为数据采集步骤（collect.py）未成功生成有效数据，或者指定的数据文件路径不正确。请检查以下几点：\n1. 确认数据文件（如 output_0.csv）中是否包含除表头外的实际数据。\n2. 如果文件为空，请重新运行数据采集脚本并采集足够长的时间。\n3. 确保 `train.py` 中配置的文件路径与实际数据文件位置一致。","https:\u002F\u002Fgithub.com\u002Fkendricktan\u002Fsuiron\u002Fissues\u002F7",[]]