[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-virajmavani--semi-auto-image-annotation-tool":3,"tool-virajmavani--semi-auto-image-annotation-tool":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":111,"oss_zip_packed_at":111,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":150},5145,"virajmavani\u002Fsemi-auto-image-annotation-tool","semi-auto-image-annotation-tool","Anno-Mage: A Semi Automatic Image Annotation Tool which helps you in annotating images by suggesting you annotations for 80 object classes using a pre-trained model","Anno-Mage 是一款基于 TensorFlow 和 Keras 构建的半自动图像标注工具，旨在显著提升计算机视觉数据集的制作效率。它通过集成预训练的物体检测模型，能够自动识别并建议图像中多达 80 种常见物体的标注框，将传统繁琐的全手工绘制转变为“模型推荐 + 人工微调”的高效模式，有效解决了大规模数据标注耗时费力且成本高昂的痛点。\n\n该工具特别适合需要构建自定义数据集的 AI 开发者、科研人员以及计算机视觉领域的学生使用。用户只需在界面中选择所需的 COCO 物体类别并加载模型，点击检测即可快速获取初始标注结果，随后可手动修正或补充细节，最终导出标准的 CSV 或 XML 格式文件。其技术亮点在于灵活支持多种主流检测架构（如 RetinaNet），允许用户轻松切换预训练权重或部署自定义模型，同时兼容 Windows、Linux 及 macOS 系统。对于希望加速模型训练数据准备流程的技术团队而言，Anno-Mage 是一个实用且易于集成的开源解决方案。","# Anno-Mage: A Semi Automatic Image Annotation Tool\n\n![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvirajmavani_semi-auto-image-annotation-tool_readme_db47e088de51.gif)\n\nSemi Automatic Image Annotation Toolbox with tensorflow and keras object detection models.\n\n## Installation\n\n1) Clone this repository.\n\n2) In the repository, execute `pip install -r requirements.txt`.\n   Note that due to inconsistencies with how `tensorflow` should be installed,\n   this package does not define a dependency on `tensorflow` as it will try to install that (which at least on Arch Linux results in an incorrect installation).\n   Please make sure `tensorflow` is installed as per your systems requirements.\n   Also, make sure Keras 2.1.3 or higher and OpenCV 3.x is installed.\n\n3) a) For Keras model - Download the [pretrained weights](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet\u002Freleases\u002Fdownload\u002F0.3.1\u002Fresnet50_coco_best_v2.1.0.h5) and save it in \u002Fsnapshots\u002Fkeras.\n\n   b) For tensorflow model get the desired model from [here](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Fblob\u002Fmaster\u002Fresearch\u002Fobject_detection\u002Fg3doc\u002Fdetection_model_zoo.md) and extract it in \u002Fsanpshots\u002Ftensorfow\n   \n   c) You can even save custom pre trained model in the respective directory.\n  \n   \n\n### Dependencies\n\n1) Tensorflow >= 1.7.0\n\n2) OpenCV = 3.x\n\n3) Keras >= 2.1.3\n\nFor, Python >= 3.5\n\n### Instructions\n\n1) Select the COCO object classes for which you need suggestions from the drop-down menu and add them. Or simply click on ```Add all classes``` .\n\n2) Select the desired model and click on ```Add model```.\n\n3) Click on ```detect``` button.\n\n4) When annotating manually, select the object class from the List and while keep it selected, select the BBox.\n\n5) The final annotations can be found in the file `annotations.csv` in .\u002Fannotations\u002F . Also a xml file will saved.\n\n### Usage\n\nFor MSCOCO dataset\n```\npython main.py\n```\nFor any other dataset-\n\nFirst change the labels in config.py (for keras model) or in tf_config.py( for tensorflow model).\nThen run:\n```\npython main.py\n```\n\n#### Tested on:\n1. Windows 10\n\n2. Linux 16.04\n\n3. macOS High Sierra\n\n### Join the developers channel for contributions\n\nSlack: https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fannomage\u002Fshared_invite\u002Fzt-dh4ca9du-4VOcwUMCSNA6lmyG~tNUPg\n\n### Acknowledgments\n\n1) [Meditab Software Inc.](https:\u002F\u002Fwww.meditab.com\u002F)\n\n2) [Keras implementation of RetinaNet object detection](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet)\n\n3) [Computer Vision Group](https:\u002F\u002Fcvgldce.github.io\u002F), L.D. College of Engineering\n","# Anno-Mage：一款半自动图像标注工具\n\n![alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvirajmavani_semi-auto-image-annotation-tool_readme_db47e088de51.gif)\n\n基于 TensorFlow 和 Keras 目标检测模型的半自动图像标注工具箱。\n\n## 安装\n\n1) 克隆本仓库。\n\n2) 在仓库目录下执行 `pip install -r requirements.txt`。\n   注意，由于 TensorFlow 的安装方式存在不一致性，本包并未直接指定对 TensorFlow 的依赖，因为这可能会导致错误的安装（至少在 Arch Linux 上会出现此类问题）。请根据您的系统要求正确安装 TensorFlow。\n   同时，请确保已安装 Keras 2.1.3 或更高版本以及 OpenCV 3.x。\n\n3) a) 对于 Keras 模型：下载 [预训练权重](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet\u002Freleases\u002Fdownload\u002F0.3.1\u002Fresnet50_coco_best_v2.1.0.h5)，并将其保存到 `\u002Fsnapshots\u002Fkeras` 目录下。\n\n   b) 对于 TensorFlow 模型：从 [这里](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Fblob\u002Fmaster\u002Fresearch\u002Fobject_detection\u002Fg3doc\u002Fdetection_model_zoo.md) 获取所需的模型，并解压至 `\u002Fsanpshots\u002Ftensorfow` 目录。\n\n   c) 您也可以将自定义的预训练模型保存到相应的目录中。\n\n### 依赖项\n\n1) TensorFlow ≥ 1.7.0\n\n2) OpenCV = 3.x\n\n3) Keras ≥ 2.1.3\n\nPython ≥ 3.5\n\n### 使用说明\n\n1) 从下拉菜单中选择您需要建议的 COCO 物体类别并添加。或者直接点击 ```Add all classes```。\n\n2) 选择所需的模型，然后点击 ```Add model```。\n\n3) 点击 ```detect``` 按钮。\n\n4) 手动标注时，从列表中选择物体类别，并保持选中状态的同时绘制边界框。\n\n5) 最终的标注结果将保存在 `.\u002Fannotations\u002Fannotations.csv` 文件中，同时也会生成一个 XML 文件。\n\n### 使用示例\n\n对于 MSCOCO 数据集：\n```\npython main.py\n```\n\n对于其他数据集：\n\n首先修改 `config.py`（针对 Keras 模型）或 `tf_config.py`（针对 TensorFlow 模型）中的标签配置。\n然后运行：\n```\npython main.py\n```\n\n#### 测试环境：\n1. Windows 10\n\n2. Linux 16.04\n\n3. macOS High Sierra\n\n### 欢迎加入开发者社区参与贡献\n\nSlack 链接：https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fannomage\u002Fshared_invite\u002Fzt-dh4ca9du-4VOcwUMCSNA6lmyG~tNUPg\n\n### 致谢\n\n1) [Meditab Software Inc.](https:\u002F\u002Fwww.meditab.com\u002F)\n\n2) [Keras 实现的 RetinaNet 目标检测模型](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet)\n\n3) [计算机视觉小组](https:\u002F\u002Fcvgldce.github.io\u002F)，L.D. 工程学院","# Anno-Mage 半自动图像标注工具快速上手指南\n\nAnno-Mage 是一款基于 TensorFlow 和 Keras 目标检测模型的半自动图像标注工具箱，旨在通过 AI 模型预标注来加速人工标注流程。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Windows 10, Linux (如 Ubuntu 16.04), 或 macOS High Sierra 及以上版本。\n*   **Python 版本**：Python >= 3.5。\n*   **核心依赖**（需手动安装）：\n    *   `tensorflow` >= 1.7.0（请注意：由于安装方式差异，本工具未将其列入自动依赖，请根据系统自行安装）。\n    *   `keras` >= 2.1.3。\n    *   `opencv-python` == 3.x。\n\n> **提示**：国内用户建议使用清华源或阿里源加速 Python 包安装，例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>`。\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool.git\ncd semi-auto-image-annotation-tool\n```\n\n### 2. 安装基础依赖\n执行以下命令安装除 TensorFlow 外的其他依赖：\n```bash\npip install -r requirements.txt\n```\n*注意：请确保已按上述“环境准备”要求单独正确安装了 TensorFlow、Keras 和 OpenCV。*\n\n### 3. 下载预训练模型\n根据您想使用的框架，下载对应的权重文件并放入指定目录：\n\n*   **方案 A：使用 Keras 模型 (RetinaNet)**\n    下载 [resnet50_coco_best_v2.1.0.h5](https:\u002F\u002Fgithub.com\u002Ffizyr\u002Fkeras-retinanet\u002Freleases\u002Fdownload\u002F0.3.1\u002Fresnet50_coco_best_v2.1.0.h5) 并保存至 `\u002Fsnapshots\u002Fkeras` 目录。\n\n*   **方案 B：使用 TensorFlow 模型**\n    从 [TensorFlow 模型库](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Fblob\u002Fmaster\u002Fresearch\u002Fobject_detection\u002Fg3doc\u002Fdetection_model_zoo.md) 选择所需模型，解压后放入 `\u002Fsnapshots\u002Ftensorflow` 目录。\n\n*   **自定义模型**：也可将自定义预训练模型保存至上述对应目录中。\n\n## 基本使用\n\n### 1. 启动工具\n如果您使用的是标准的 MSCOCO 数据集类别，直接运行：\n```bash\npython main.py\n```\n\n如果您使用的是自定义数据集，请先修改配置文件：\n*   Keras 模型：编辑 `config.py` 中的标签列表。\n*   TensorFlow 模型：编辑 `tf_config.py` 中的标签列表。\n然后运行：\n```bash\npython main.py\n```\n\n### 2. 标注流程\n软件界面操作如下：\n\n1.  **选择类别**：在下拉菜单中选择需要 AI 建议的 COCO 物体类别并添加，或直接点击 `Add all classes`。\n2.  **加载模型**：选择已下载的模型，点击 `Add model`。\n3.  **自动检测**：点击 `detect` 按钮，AI 将自动生成建议框。\n4.  **人工修正**：\n    *   从列表中选中正确的物体类别。\n    *   保持选中状态，手动绘制或调整边界框（BBox）。\n5.  **保存结果**：标注完成后，结果将自动保存。\n    *   CSV 格式：位于 `.\u002Fannotations\u002Fannotations.csv`\n    *   XML 格式：同目录下生成的 XML 文件。","某自动驾驶初创公司的数据标注团队正急需为城市道路监控视频中的车辆、行人及交通标志生成高质量训练数据，以迭代其目标检测模型。\n\n### 没有 semi-auto-image-annotation-tool 时\n- 标注员需完全依靠肉眼识别并手动绘制每个目标的边界框，面对成千上万张图片，重复性劳动导致效率极低且容易疲劳。\n- 在处理包含 80 种不同类别的复杂场景时，人工频繁切换标签类别极易发生选错分类或漏标现象，数据一致性难以保证。\n- 项目初期缺乏预训练模型辅助，冷启动阶段耗时漫长，导致算法团队迟迟无法获得首批有效数据进行模型验证。\n- 随着数据量激增，单纯依靠人力堆砌不仅成本高昂，还因标注质量参差不齐拖慢了整体研发进度。\n\n### 使用 semi-auto-image-annotation-tool 后\n- 工具利用内置的 RetinaNet 等预训练模型自动建议 80 类物体的边界框，标注员只需微调即可，将单图处理时间从分钟级缩短至秒级。\n- 通过下拉菜单一键加载所需类别，系统自动匹配推荐标签，大幅降低了人为选错类别的概率，显著提升了数据集的准确性。\n- 团队可立即加载 COCO 数据集权重或自定义模型快速启动项目，实现了“开箱即用”，让算法验证周期提前了数周。\n- 半自动化流程让人力专注于修正疑难样本而非基础绘制，在同等预算下数据吞吐量提升数倍，加速了模型迭代闭环。\n\nsemi-auto-image-annotation-tool 通过将 AI 预测能力融入人工流程，成功将枯燥的体力劳动转化为高效的审核工作，极大降低了计算机视觉项目的数据准备门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fvirajmavani_semi-auto-image-annotation-tool_db47e088.gif","virajmavani","Viraj Mavani","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fvirajmavani_da48eea2.jpg","Engineering @ Meta","Meta","Seattle, WA","viraj.mavani1996@gmail.com","vdmavani","www.virajmavani.com\u002F","https:\u002F\u002Fgithub.com\u002Fvirajmavani",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,589,129,"2026-04-03T04:43:32","Apache-2.0",4,"Windows, Linux, macOS","未说明",{"notes":95,"python":96,"dependencies":97},"README 明确指出由于安装不一致性问题，requirements.txt 不包含 tensorflow 依赖，需用户根据系统要求手动安装。使用前需手动下载预训练权重文件（Keras 模型或 TensorFlow 模型）并放入指定目录（\u002Fsnapshots\u002Fkeras 或 \u002Fsnapshots\u002Ftensorflow）。测试环境包括 Windows 10、Linux 16.04 和 macOS High Sierra。",">=3.5",[98,99,100],"tensorflow>=1.7.0","keras>=2.1.3","opencv-python==3.x",[14,16,13,15],[103,104,105,106,107,108,109,110],"deep-learning","tensorflow","keras","image-annotation","image-labeling","automation","hackoctoberfest","hacktoberfest2020",null,"2026-03-27T02:49:30.150509","2026-04-08T01:10:06.626528",[115,120,125,130,135,140,145],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},23346,"运行程序时提示 'couldn't recognize data in image file icon.png' 错误，如何解决？","这通常是因为 Tkinter 版本兼容性问题。请检查您的 Tkinter 版本（在 Python 中输入 `import tkinter; print(tkinter.TkVersion)`）。如果版本是 8.6，尝试降级到 8.5 版本，因为 8.6 版本在某些平台上加载 PNG 文件存在问题。维护者已修复此问题并推送到 master 分支，您也可以尝试更新代码。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F4",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},23347,"遇到 'ValueError: Cannot use ... strided_slice_2 ... in a while loop' 错误怎么办？","这是由于 Keras 和 TensorFlow 版本不兼容导致的。解决方案是将 Keras 版本降级为 2.2.5，并确保 keras-retinanet 版本为 0.5.1。您可以运行以下命令进行安装：`pip install keras==2.2.5 keras-retinanet==0.5.1`。拉取最新的 git 代码通常也能解决此问题。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F16",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},23348,"如何将生成的 CSV 标注文件转换为 Pascal VOC 格式的 XML 文件？","该功能已在 PR #15 中实现并合并。请切换到项目的 'dev' 分支查看相关代码，那里包含了将 CSV 转换为 Pascal VOC XML 格式的脚本。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F7",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},23349,"取消选择目录对话框后，图像目录无法加载且报错 'FileNotFoundError'，如何修复？","这是一个已知 bug，当用户取消目录选择对话框时，程序会尝试访问空路径导致崩溃。维护者已在最新代码中修复了此问题（包括打开单个图像时的类似问题）。请拉取最新的 master 分支代码即可解决。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F6",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},23350,"运行工具所需的模型快照文件（snapshots）在哪里获取？","请参阅项目 README.md 文件中“安装（Installation）”部分的第 3 点，其中详细说明了如何下载或生成所需的快照文件。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F5",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},23351,"代码检查时报错 'undefined name args' (F821)，该如何处理？","这是代码中的一个定义错误，维护者确认该问题已在最近的提交（commit）中修复。请确保您拉取了仓库的最新代码，错误即可消除。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F1",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},23352,"除了 JPG 格式，该工具还支持哪些图像格式（如 BMP）？","虽然 Issue 中未直接列出所有支持格式，但该工具基于 Python 的 PIL\u002FPillow 和 OpenCV 库。通常情况下，这些库支持常见的图像格式，包括 BMP、PNG、JPEG、TIFF 等。如果遇到问题，建议优先使用 JPG 或 PNG 格式以确保兼容性。","https:\u002F\u002Fgithub.com\u002Fvirajmavani\u002Fsemi-auto-image-annotation-tool\u002Fissues\u002F23",[]]