[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-georgesung--ssd_tensorflow_traffic_sign_detection":3,"tool-georgesung--ssd_tensorflow_traffic_sign_detection":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":141},8383,"georgesung\u002Fssd_tensorflow_traffic_sign_detection","ssd_tensorflow_traffic_sign_detection","Implementation of Single Shot MultiBox Detector in TensorFlow, to detect and classify traffic signs","ssd_tensorflow_traffic_sign_detection 是一个基于 TensorFlow 框架实现的开源项目，旨在利用单次多框检测器（SSD）算法，自动识别并分类道路上的交通标志。它主要解决了在复杂道路场景中快速、准确检测特定交通标志（目前支持停车标志和人行横道标志）的技术难题，为自动驾驶感知系统或智能交通监控提供了基础能力。\n\n该项目非常适合计算机视觉领域的开发者、研究人员以及希望深入理解目标检测算法的学生使用。用户不仅可以利用其进行推理测试，还能参考其完整的训练流程，基于 LISA 交通标志数据集从头训练模型。\n\n在技术实现上，该工具有几个显著特点：它采用 AlexNet 作为基础网络架构，并将输入图像分辨率设定为 400x260 以平衡速度与精度；同时引入了基于特征图尺寸的动态缩放因子，优化了默认锚框的匹配效果。在硬件性能方面，项目在 GTX 1080 显卡配合 i7 处理器环境下，推理速度可达每秒 40-45 帧。不过需要注意的是，目前版本仍处于开发完善阶段，存在一定程度的过拟合现象，作者建议通过迁移学习或数据增强来进一步提升模型的泛化能力。","# SSD in TensorFlow: Traffic Sign Detection and Classification\n## Overview\nImplementation of [Single Shot MultiBox Detector (SSD)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325) in TensorFlow, to detect and classify traffic signs. This implementation was able to achieve 40-45 fps on a GTX 1080 with an Intel Core i7-6700K.\n\n*Note this project is still work-in-progress*. The main issue now is model overfitting. I am currently working on pre-training on VOC2012 first, then performing transfer learning over to traffic sign detection.\n\nCurrently only stop signs and pedestrian crossing signs are detected. Example detection images are below.\n\n![example1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_b5afb6ed55c2.png)\n![example2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_2913051441e9.png)\n![example3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_1d8afd877816.png)\n![example4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_7ac62d09ab92.png)\n![example5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_1a4ea642ad99.png)\n![example6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_8792af736df5.png)\n\nThe model was trained on the [LISA Traffic Sign Dataset](http:\u002F\u002Fcvrr.ucsd.edu\u002FLISA\u002Flisa-traffic-sign-dataset.html), a dataset of US traffic signs.\n\n## Dependencies\n* Python 3.5+\n* TensorFlow v0.12.0\n* Pickle\n* OpenCV-Python\n* Matplotlib (optional)\n\n## How to run\nClone this repository somewhere, let's refer to it as `$ROOT`\n\nTraining the model from scratch:\n* Download the [LISA Traffic Sign Dataset](http:\u002F\u002Fcvrr.ucsd.edu\u002FLISA\u002Flisa-traffic-sign-dataset.html), and store it in a directory `$LISA_DATA`\n* `cd $LISA_DATA`\n* Follow instructions in the LISA Traffic Sign Dataset to create 'mergedAnnotations.csv' such that only stop signs and pedestrian crossing signs are shown\n* `cp $ROOT\u002Fdata_gathering\u002Fcreate_pickle.py $LISA_DATA`\n* `python create_pickle.py`\n* `cd $ROOT`\n* `ln -s $LISA_DATA\u002Fresized_images_* .`\n* `ln -s $LISA_DATA\u002Fdata_raw_*.p .`\n* `python data_prep.py`\n  * This performs box matching between ground-truth boxes and default boxes, and packages the data into a format used later in the pipeline\n* `python train.py`\n  * This trains the SSD model\n* `python inference.py -m demo`\n  * This will take the images from sample_images, annotate them, and display them on screen\n* To run predictions on your own images and\u002For videos, use the `-i` flag in inference.py (see the code for more details)\n  * Note the model severly overfits at this time\n\n## Differences between original SSD implementation\nObivously, we are only detecting certain traffic signs in this implementation, whereas the original SSD implemetation detected a greater number of object classes in the PASCAL VOC and MS COCO datasets. Other notable differences are:\n* Uses AlexNet as the base network\n* Input image resolution is 400x260\n* Uses a dynamic scaling factor based on the dimensions of the feature map relative to original image dimensions\n\n## Performance\nAs mentioned above, this SSD implementation was able to achieve 40-45 fps on a GTX 1080 with an Intel Core i7 6700K.\n\nThe inference time is the sum of the neural network inference time, and Non-Maximum Suppression (NMS) time. Overall, the neural network inference time is significantly less than the NMS time, with the neural network inference time generally between 7-8 ms, whereas the NMS time is between 15-16 ms. The NMS algorithm implemented here has not been optimized, and runs on CPU only, so further effort to improve performance can be done there.\n\n## Dataset characteristics\nThe entire LISA Traffic Sign Dataset consists of 47 distinct traffic sign classes. Since we are only concered with a subset of those classes, we only use a subset of the LISA dataset. Also, we ignore all training samples where we do not find a matching default box, further reducing our dataset's size. Due to this process, we end up with very little data to work with.\n\nIn order to improve on this issue, we can perform image data augmentation, and\u002For pre-train the model on a larger dataset (e.g. VOC2012, ILSVRC)\n\n## Training process\nGiven the small size of our pruned dataset, I chose a train\u002Fvalidation split of 95\u002F5. The model was trained with Adadelta optimizers, with the default parameters provided by TensorFlow. The model was trained over 200 epochs, with a batch size of 32.\n\n## Areas of improvement\nThere are multiple potential areas of improvement in this project:\n\n* Pre-train the model on VOC2012 and\u002For ILSVRC\n* Image data augmentation\n* Hyper-parameter tuning\n* Optimize NMS alogorithm, or leverage existing optimized NMS algorithm\n* Implement and report mAP metric\n* Try different base networks\n* Expand to more traffic sign classes\n","# TensorFlow 中的 SSD：交通标志检测与分类\n## 概述\n在 TensorFlow 中实现了 [单次多框检测器 (SSD)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.02325)，用于检测和分类交通标志。该实现能够在配备 Intel Core i7-6700K 处理器的 GTX 1080 显卡上达到 40–45 帧\u002F秒的运行速度。\n\n*请注意，该项目仍在开发中*。目前的主要问题是模型过拟合。我正在尝试先在 VOC2012 数据集上进行预训练，然后再将其迁移到交通标志检测任务上。\n\n目前仅检测停止标志和人行横道标志。以下是一些检测示例图像：\n\n![example1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_b5afb6ed55c2.png)\n![example2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_2913051441e9.png)\n![example3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_1d8afd877816.png)\n![example4](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_7ac62d09ab92.png)\n![example5](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_1a4ea642ad99.png)\n![example6](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_readme_8792af736df5.png)\n\n该模型是在 [LISA 交通标志数据集](http:\u002F\u002Fcvrr.ucsd.edu\u002FLISA\u002Flisa-traffic-sign-dataset.html) 上训练的，该数据集包含美国的交通标志。\n\n## 依赖项\n* Python 3.5+\n* TensorFlow v0.12.0\n* Pickle\n* OpenCV-Python\n* Matplotlib（可选）\n\n## 运行方法\n将此仓库克隆到某个位置，我们将其称为 `$ROOT`。\n\n从头开始训练模型：\n* 下载 [LISA 交通标志数据集](http:\u002F\u002Fcvrr.ucsd.edu\u002FLISA\u002Flisa-traffic-sign-dataset.html)，并将其存储在目录 `$LISA_DATA` 中。\n* `cd $LISA_DATA`\n* 按照 LISA 交通标志数据集中的说明创建 `mergedAnnotations.csv` 文件，确保只包含停止标志和人行横道标志。\n* `cp $ROOT\u002Fdata_gathering\u002Fcreate_pickle.py $LISA_DATA`\n* `python create_pickle.py`\n* `cd $ROOT`\n* `ln -s $LISA_DATA\u002Fresized_images_* .`\n* `ln -s $LISA_DATA\u002Fdata_raw_*.p .`\n* `python data_prep.py`\n  * 此步骤会执行真实框与默认框之间的匹配，并将数据打包成后续流程中使用的格式。\n* `python train.py`\n  * 此步骤将训练 SSD 模型。\n* `python inference.py -m demo`\n  * 此命令会从 sample_images 目录中读取图像，对其进行标注，并在屏幕上显示结果。\n* 若要对自己的图像或视频进行预测，请在 inference.py 中使用 `-i` 标志（详情请参阅代码）。\n  * 请注意，当前模型存在严重的过拟合问题。\n\n## 与原始 SSD 实现的区别\n显然，本实现仅检测特定类型的交通标志，而原始 SSD 实现则可以在 PASCAL VOC 和 MS COCO 数据集中检测更多种类的对象。其他显著差异包括：\n* 使用 AlexNet 作为基础网络。\n* 输入图像分辨率为 400×260。\n* 根据特征图尺寸与原始图像尺寸的比例动态调整缩放因子。\n\n## 性能\n如上所述，该 SSD 实现能够在配备 Intel Core i7 6700K 处理器的 GTX 1080 显卡上达到 40–45 帧\u002F秒的运行速度。\n\n推理时间由神经网络推理时间和非极大值抑制 (NMS) 时间组成。总体而言，神经网络推理时间远小于 NMS 时间，前者通常在 7–8 毫秒之间，而后者则为 15–16 毫秒。此处实现的 NMS 算法尚未优化，且仅在 CPU 上运行，因此未来可以在此方面进一步提升性能。\n\n## 数据集特征\n整个 LISA 交通标志数据集包含 47 种不同的交通标志类别。由于我们只关注其中的一部分类别，因此仅使用了 LISA 数据集的一个子集。此外，我们还忽略了所有无法找到匹配默认框的训练样本，从而进一步缩小了数据集规模。由于这一过程，最终可用于训练的数据量非常有限。\n\n为了改善这一问题，我们可以进行图像数据增强，或者在更大的数据集（例如 VOC2012 或 ILSVRC）上对模型进行预训练。\n\n## 训练过程\n鉴于我们修剪后的数据集规模较小，我选择了 95\u002F5 的训练\u002F验证集划分比例。模型使用 Adadelta 优化器进行训练，参数采用 TensorFlow 的默认设置。训练共进行了 200 个 epoch，批量大小为 32。\n\n## 改进方向\n该项目有多个潜在的改进方向：\n\n* 在 VOC2012 和\u002F或 ILSVRC 数据集上对模型进行预训练。\n* 进行图像数据增强。\n* 调整超参数。\n* 优化 NMS 算法，或使用现有的优化 NMS 算法。\n* 实现并报告 mAP 指标。\n* 尝试不同的基础网络。\n* 扩展到更多种类的交通标志。","# SSD TensorFlow 交通标志检测快速上手指南\n\n本项目是基于 TensorFlow 实现的单次多框检测器（SSD），专门用于检测和分类交通标志（目前支持**停车标志**和**人行横道标志**）。在 GTX 1080 + i7-6700K 环境下，推理速度可达 40-45 FPS。\n\n> **注意**：本项目仍处于开发阶段，当前模型存在过拟合问题，建议仅作为学习参考或在此基础上进行迁移学习优化。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**: Linux \u002F macOS (Windows 需自行配置兼容环境)\n*   **Python**: 3.5 或更高版本\n\n### 前置依赖\n请确保已安装以下 Python 库：\n*   `tensorflow` (推荐版本 v0.12.0，新版可能需要修改代码适配)\n*   `pickle` (通常内置)\n*   `opencv-python`\n*   `matplotlib` (可选，用于可视化)\n\n**安装命令：**\n```bash\npip install tensorflow==0.12.0 opencv-python matplotlib\n```\n*(注：由于 TF 0.12 版本较老，若遇到兼容性问题，建议在新环境中尝试或使用 Docker 容器)*\n\n## 安装与数据准备步骤\n\n### 1. 克隆项目\n将仓库克隆到本地，假设根目录为 `$ROOT`：\n```bash\ngit clone \u003Crepository_url>\ncd \u003Crepository_name>\nexport ROOT=$(pwd)\n```\n\n### 2. 下载并处理数据集\n本项目使用 [LISA Traffic Sign Dataset](http:\u002F\u002Fcvrr.ucsd.edu\u002FLISA\u002Flisa-traffic-sign-dataset.html)。\n*(国内用户若下载缓慢，可尝试寻找国内镜像或学术资源站)*\n\n假设数据集下载并解压至 `$LISA_DATA` 目录：\n\n```bash\n# 进入数据集目录\ncd $LISA_DATA\n\n# 按照 LISA 数据集官方说明，生成 'mergedAnnotations.csv'\n# 确保只保留 \"stop signs\" 和 \"pedestrian crossing signs\" 两类标签\n\n# 复制数据处理脚本\ncp $ROOT\u002Fdata_gathering\u002Fcreate_pickle.py $LISA_DATA\n\n# 生成 pickle 格式数据\npython create_pickle.py\n\n# 返回项目根目录\ncd $ROOT\n\n# 创建软链接，将处理后的图像和数据链接到项目目录\nln -s $LISA_DATA\u002Fresized_images_* .\nln -s $LISA_DATA\u002Fdata_raw_*.p .\n\n# 执行数据预处理（进行真值框与默认框的匹配）\npython data_prep.py\n```\n\n### 3. 训练模型\n运行训练脚本（从头开始训练）：\n```bash\npython train.py\n```\n*   **训练配置**：默认使用 Adadelta 优化器，Batch Size 为 32，训练 200 个 epoch。\n*   **数据划分**：训练集\u002F验证集比例为 95\u002F5。\n\n## 基本使用\n\n### 运行演示推理\n使用项目自带的示例图片进行测试并显示结果：\n```bash\npython inference.py -m demo\n```\n该命令会读取 `sample_images` 中的图片，进行标注并在屏幕上显示。\n\n### 自定义图片\u002F视频推理\n对自己的图片或视频进行检测，使用 `-i` 参数指定输入路径：\n```bash\n# 检测单张图片或文件夹\npython inference.py -i \u002Fpath\u002Fto\u002Fyour\u002Fimage_or_folder\n\n# 检测视频文件\npython inference.py -i \u002Fpath\u002Fto\u002Fyour\u002Fvideo.mp4\n```\n*(具体参数细节请参阅 `inference.py` 源码)*\n\n---\n**性能提示**：当前版本的非极大值抑制（NMS）算法仅在 CPU 上运行且未优化，占据了大部分推理时间（约 15-16ms），神经网络前向传播仅需 7-8ms。如需提升速度，可尝试优化 NMS 部分。","某自动驾驶初创团队正在开发一款针对城市道路的低成本辅助驾驶原型车，需要实时识别停车标志和人行横道标志以触发车辆减速。\n\n### 没有 ssd_tensorflow_traffic_sign_detection 时\n- **检测延迟高**：传统图像处理算法在复杂光照下计算耗时，无法在普通工控机上达到实时帧率，导致车辆反应滞后。\n- **分类能力弱**：难以区分形状相似的交通标志，经常将“人行横道”误判为普通广告牌，存在严重安全隐患。\n- **开发周期长**：团队需从零构建深度学习模型架构，数据预处理和边界框匹配逻辑复杂，耗费数周仍难调通。\n- **硬件依赖重**：现有方案必须依赖昂贵的高端 GPU 集群才能勉强运行，不符合低成本原型的预算限制。\n\n### 使用 ssd_tensorflow_traffic_sign_detection 后\n- **实时响应流畅**：基于 SSD 架构的优化模型在 GTX 1080 上实现了 40-45 FPS 的推理速度，确保车辆对路况做出毫秒级反应。\n- **识别精准可靠**：专为 LISA 数据集训练的模型能准确锁定停车牌和人行横道，显著降低了误报率和漏检率。\n- **落地效率提升**：直接复用其完整的数据准备（如 pickle 格式化）和训练流水线，团队仅需几天即可完成从数据到部署的闭环。\n- **资源利用优化**：神经网络推理仅需 7-8 毫秒，大部分耗时集中在可优化的 CPU 端 NMS 算法，为后续在边缘设备移植留出空间。\n\nssd_tensorflow_traffic_sign_sign_detection 通过提供成熟的单阶段检测实现，帮助团队以极低算力成本解决了特定交通标志的实时高精度识别难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgeorgesung_ssd_tensorflow_traffic_sign_detection_b5afb6ed.png","georgesung","Jou-ching (George) Sung","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgeorgesung_3b7eddb0.png",null,"Taipei, Taiwan","sungjouching","https:\u002F\u002Fwww.georgesung.com","https:\u002F\u002Fgithub.com\u002Fgeorgesung",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,530,219,"2026-02-18T06:10:27","MIT",4,"未说明","非必需但推荐用于高性能运行。测试环境为 NVIDIA GTX 1080（达到 40-45 fps）。NMS 算法仅在 CPU 上运行且未优化。",{"notes":93,"python":94,"dependencies":95},"该项目基于非常古老的 TensorFlow 0.12.0 版本，与现代环境兼容性极差。目前模型存在严重的过拟合问题，仅支持检测停车标志和人行横道标志。训练数据需从 LISA 交通标志数据集手动预处理生成 pickle 文件。由于 NMS 算法未优化且在 CPU 运行，整体推理速度受限于此部分。","3.5+",[96,97,98,99],"tensorflow==0.12.0","pickle","opencv-python","matplotlib",[15,14],[102,103,104,105,106,107],"tensorflow","object-detection","computer-vision","ssd","python","traffic-signs","2026-03-27T02:49:30.150509","2026-04-17T10:19:45.091437",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},37526,"运行推理脚本时提示找不到 'signnames.csv' 文件怎么办？","该文件通常包含在 LISA 交通标志数据集中。请确保已下载 LISA Traffic Sign Dataset，并按照 README 中的说明将数据集放置在正确目录。如果仍然缺失，可能需要手动创建该文件或检查数据集解压是否完整。维护者已在 README 中补充了从头训练的指导说明。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F1",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},37527,"运行代码时出现 'TypeError: Expected int32, got list containing Tensors' 错误如何解决？","这是由 TensorFlow 版本不兼容引起的。原代码是基于 TensorFlow v0.12 开发的，而在 v1.x 版本中 `tf.concat` 的参数顺序发生了变化。\n解决方案有两种：\n1. 降级使用 TensorFlow v0.12.0 版本。\n2. 修改 `model.py` 文件中的代码，将：\n   `final_pred_conf = tf.concat(1, preds_conf)`\n   `final_pred_loc = tf.concat(1, preds_loc)`\n   改为：\n   `final_pred_conf = tf.concat(preds_conf, 1)`\n   `final_pred_loc = tf.concat(preds_loc, 1)`\n   （注意参数顺序调整为先列表后轴索引）。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F3",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},37528,"如何生成训练所需的 'mergedAnnotations.csv' 文件？","该文件不会直接提供，需要用户自行生成。步骤如下：\n1. 下载 LISA Traffic Sign Dataset 并存储在某目录（例如 $LISA_DATA）。\n2. 进入该目录。\n3. 使用数据集工具包中的脚本 `signDatabasePublicFramesOnly\u002Ftools\u002FmergeAnnotationFiles.py` 来创建 csv 文件。\n4. 按照 LISA 数据集的说明操作，确保生成的文件中仅包含停车标志（stop signs）和人行横道标志（pedestrian crossing signs）。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F9",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},37529,"如何过滤数据只保留停车标志和行人穿越标志进行训练？","在生成标注文件时进行过滤。具体操作是遵循 LISA Traffic Sign Dataset 的官方说明，运行其提供的工具脚本（如 `mergeAnnotationFiles.py`），在配置或执行过程中指定只提取 'stop sign' 和 'pedestrian crossing' 类别的标注，从而生成仅包含这两类目标的 'mergedAnnotations.csv' 文件。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F29",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},37530,"训练完成后损失值（Loss）很高且无法检测到交通标志，该如何优化？","如果训练损失和验证损失都很高且模型无法检测目标，可以尝试以下调整：\n1. 降低学习率（learning rate）并恢复训练（resume learning）。\n2. 检查损失曲线（loss curve）观察收敛情况。\n3. 尝试减小批次大小（batch size），例如有用户反馈将 batch_size 改为 2 后损失降至接近 2。\n4. 确认是否过拟合，如有必要可增加正则化或调整网络结构。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F5",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},37531,"代码支持哪些 TensorFlow 版本？新版 TF 能直接运行吗？","该代码库最初是基于 TensorFlow v0.12 开发的。直接在 TensorFlow v1.x 或更高版本上运行通常会报错，因为 API 发生了不兼容的变更（如 `tf.concat` 用法改变）。\n如果要使用新版 TensorFlow，必须手动修改代码以适配新 API；或者建议安装 TensorFlow v0.12.0 环境以确保原汁原味地运行。维护者曾表示计划更新以支持 TF v1，但在更新前需自行修改代码。","https:\u002F\u002Fgithub.com\u002Fgeorgesung\u002Fssd_tensorflow_traffic_sign_detection\u002Fissues\u002F14",[]]