[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-pedropro--TACO":3,"similar-pedropro--TACO":102},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":20,"owner_twitter":17,"owner_website":21,"owner_url":22,"languages":23,"stars":32,"forks":33,"last_commit_at":34,"license":35,"difficulty_score":36,"env_os":37,"env_gpu":38,"env_ram":37,"env_deps":39,"category_tags":46,"github_topics":50,"view_count":36,"oss_zip_url":17,"oss_zip_packed_at":17,"status":58,"created_at":59,"updated_at":60,"faqs":61,"releases":92},3068,"pedropro\u002FTACO","TACO","🌮 Trash Annotations in Context Dataset Toolkit","TACO 是一个专注于野外垃圾检测的开源图像数据集与工具包，全称为“上下文中的垃圾标注数据集”。它致力于解决计算机视觉在复杂自然环境中识别和分割各类垃圾的难题。通过收集森林、道路、海滩等多样化场景下的真实垃圾照片，TACO 提供了经过人工精细标注和语义分割的数据，并采用分层分类体系，帮助算法更准确地理解不同种类的废弃物。\n\n这套工具特别适合人工智能开发者、环境科研人员以及计算机视觉领域的学生使用。无论是训练目标检测模型，还是评估算法在真实场景下的表现，TACO 都能提供坚实的数据基础。其技术亮点在于采用了业界通用的 COCO 标注格式，便于无缝对接主流深度学习框架；同时项目还集成了改进版的 Mask R-CNN 检测器示例，支持用户快速复现垃圾分割效果。此外，TACO 拥有活跃的社区贡献机制，持续通过在线平台收集新的图像与标注，使数据集规模不断成长。对于希望利用 AI 技术助力环境保护、开发自动清洁系统或研究生态监测的团队来说，TACO 是一个实用且开放的起点。","\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_cb5d607dce16.png\" width=\"25%\"\u002F>\n\u003C\u002Fp>\n\nTACO is a growing image dataset of waste in the wild. It contains images of litter taken under\ndiverse environments: woods, roads and beaches. These images are manually labeled and segmented\naccording to a hierarchical taxonomy to train and evaluate object detection algorithms. Currently,\nimages are hosted on Flickr and we have a server that is collecting more images and\nannotations @ [tacodataset.org](http:\u002F\u002Ftacodataset.org)\n\n\n\u003Cdiv align=\"center\">\n  \u003Cdiv class=\"column\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_123e9d88b4dc.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_41fee276245a.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_2981571044de.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_9f3d55f78fa6.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_1664a9923300.png\" width=\"17%\" hspace=\"3\">\n  \u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\nFor convenience, annotations are provided in COCO format. Check the metadata here:\nhttp:\u002F\u002Fcocodataset.org\u002F#format-data\n\nTACO is still relatively small, but it is growing. Stay tuned!\n\n# Publications\n\nFor more details check our paper: https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.06975\n\nIf you use this dataset and API in a publication, please cite us using: &nbsp;\n```\n@article{taco2020,\n    title={TACO: Trash Annotations in Context for Litter Detection},\n    author={Pedro F Proença and Pedro Simões},\n    journal={arXiv preprint arXiv:2003.06975},\n    year={2020}\n}\n```\n\n# News\n**December 20, 2019** - Added more 785 images and 2642 litter segmentations. \u003Cbr\u002F>\n**November 20, 2019** - TACO is officially open for new annotations: http:\u002F\u002Ftacodataset.org\u002Fannotate\n\n# Getting started\n\n### Requirements \n\nTo install the required python packages simply type\n```\npip3 install -r requirements.txt\n```\nAdditionaly, to use ``demo.pynb``, you will also need [coco python api](https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi). You can get this using\n```\npip3 install git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI\n```\n\n### Download\n\nTo download the dataset images simply issue\n```\npython3 download.py\n```\nAlternatively, download from [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.3587843.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.3587843)\n\nOur API contains a jupyter notebook ``demo.pynb`` to inspect the dataset and visualize annotations.\n\n**Unlabeled data**\n\nA list of URLs for both unlabeled and labeled images is now also provided in `data\u002Fall_image_urls.csv`.\nEach image contains one URL for each original image (second column) and one URL for a VGA-resized version (first column)\nfor images hosted by Flickr. If you decide to annotate these images using other tools, please make them public and contact us so we can keep track.\n\n**Unofficial data**\n\nAnnotations submitted via our website are added weekly to `data\u002Fannotations_unofficial.json`. These have not yet been been reviewed by us -- some may be inaccurate or have poor segmentations. \nYou can use the same command to download the respective images:\n```\npython3 download.py --dataset_path .\u002Fdata\u002Fannotations_unofficial.json\n```\n\n### Trash Detection\n\nThe implementation of [Mask R-CNN by Matterport](https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN)  is included in ``\u002Fdetector``\nwith a few modifications. Requirements are the same. Before using this, the dataset needs to be split. You can either donwload our [weights and splits](https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Freleases\u002Ftag\u002F1.0) or generate these from scratch using the `split_dataset.py` script to generate \nN random train, val, test subsets. For example, run this inside the directory `detector`:\n```\npython3 split_dataset.py --dataset_dir ..\u002Fdata\n```\n\nFor further usage instructions, check ``detector\u002Fdetector.py``.\n\nAs you can see [here](http:\u002F\u002Ftacodataset.org\u002Fstats), most of the original classes of TACO have very few annotations, therefore these must be either left out or merged together. Depending on the problem, ``detector\u002Ftaco_config`` contains several class maps to target classes, which maintain the most dominant classes, e.g., Can, Bottles and Plastic bags. Feel free to make your own classes.\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_d078238fc9ca.gif\" width=\"75%\"\u002F>\u003C\u002Fp>\n","\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_cb5d607dce16.png\" width=\"25%\"\u002F>\n\u003C\u002Fp>\n\nTACO 是一个不断增长的野外垃圾图像数据集。它包含在不同环境中拍摄的垃圾图片：森林、道路和海滩。这些图片经过人工标注和分割，并按照层次化分类体系进行组织，用于训练和评估目标检测算法。目前，图片托管在 Flickr 上，我们还有一个服务器正在收集更多图片和标注，地址是 [tacodataset.org](http:\u002F\u002Ftacodataset.org)。\n\n\n\u003Cdiv align=\"center\">\n  \u003Cdiv class=\"column\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_123e9d88b4dc.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_41fee276245a.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_2981571044de.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_9f3d55f78fa6.png\" width=\"17%\" hspace=\"3\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_1664a9923300.png\" width=\"17%\" hspace=\"3\">\n  \u003C\u002Fdiv>\n\u003C\u002Fdiv>\n\u003C\u002Fbr>\n\n为方便起见，标注以 COCO 格式提供。元数据请参阅：http:\u002F\u002Fcocodataset.org\u002F#format-data\n\nTACO 目前规模仍然较小，但正在不断扩展中。敬请关注！\n\n# 出版物\n\n更多详情请参阅我们的论文：https:\u002F\u002Farxiv.org\u002Fabs\u002F2003.06975\n\n如果您在出版物中使用本数据集和 API，请引用如下：\n```\n@article{taco2020,\n    title={TACO: Trash Annotations in Context for Litter Detection},\n    author={Pedro F Proença and Pedro Simões},\n    journal={arXiv preprint arXiv:2003.06975},\n    year={2020}\n}\n```\n\n# 新闻\n**2019年12月20日** - 增加了785张图片和2642个垃圾区域的分割标注。\u003Cbr\u002F>\n**2019年11月20日** - TACO 正式开放新标注功能：http:\u002F\u002Ftacodataset.org\u002Fannotate\n\n# 使用指南\n\n### 需求\n\n安装所需的 Python 包，只需运行：\n```\npip3 install -r requirements.txt\n```\n此外，要使用 `demo.pynb`，还需要 [coco python api](https:\u002F\u002Fgithub.com\u002Fcocodataset\u002Fcocoapi)。可以通过以下命令安装：\n```\npip3 install git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI\n```\n\n### 下载\n\n下载数据集图片，只需执行：\n```\npython3 download.py\n```\n或者直接从 [![DOI](https:\u002F\u002Fzenodo.org\u002Fbadge\u002FDOI\u002F10.5281\u002Fzenodo.3587843.svg)](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.3587843) 下载。\n\n我们的 API 包含一个 Jupyter Notebook 文件 `demo.pynb`，可用于查看数据集并可视化标注。\n\n**未标注数据**\n\n现在也提供了未标注和已标注图片的 URL 列表，存储在 `data\u002Fall_image_urls.csv` 中。每张图片包含两个 URL：第一个是 Flickr 托管的 VGA 分辨率缩略图，第二个是原图 URL。如果您决定使用其他工具对这些图片进行标注，请将其公开，并与我们联系以便我们跟踪进展。\n\n**非官方数据**\n\n通过我们网站提交的标注每周会添加到 `data\u002Fannotations_unofficial.json` 中。这些标注尚未经过我们的审核——其中一些可能不准确或分割质量较差。您可以使用相同的命令下载对应的图片：\n```\npython3 download.py --dataset_path .\u002Fdata\u002Fannotations_unofficial.json\n```\n\n### 垃圾检测\n\nMatterport 的 [Mask R-CNN 实现](https:\u002F\u002Fgithub.com\u002Fmatterport\u002FMask_RCNN) 已包含在 `\u002Fdetector` 目录中，并做了一些修改。所需依赖与之前相同。在使用之前，需要先对数据集进行划分。您可以下载我们提供的 [权重和划分文件](https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Freleases\u002Ftag\u002F1.0)，也可以使用 `split_dataset.py` 脚本从头生成随机的训练、验证和测试子集。例如，在 `detector` 目录下运行：\n```\npython3 split_dataset.py --dataset_dir ..\u002Fdata\n```\n\n更多使用说明请参阅 `detector\u002Fdetector.py`。\n\n正如您在 [tacodataset.org\u002Fstats](http:\u002F\u002Ftacodataset.org\u002Fstats) 上所看到的，TACO 的大多数原始类别标注数量非常少，因此这些类别要么被舍弃，要么需要合并。根据具体问题，`detector\u002Ftaco_config` 中提供了多个类映射方案，用于将目标类别归并到最常用的几类，比如罐头、瓶子和塑料袋。您也可以根据需求自定义类别。\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_readme_d078238fc9ca.gif\" width=\"75%\"\u002F>\u003C\u002Fp>","# TACO 垃圾检测数据集快速上手指南\n\nTACO (Trash Annotations in Context) 是一个用于训练和评估物体检测算法的野外垃圾图像数据集。数据包含森林、道路和海滩等多种环境下的垃圾图像，并提供手动标注的分层分类标签。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n- **操作系统**: Linux 或 macOS (Windows 需配置相应 Python 环境)\n- **Python 版本**: Python 3.x\n- **前置依赖**: \n  - `pip3` 包管理工具\n  - Git (用于克隆代码库)\n\n## 安装步骤\n\n### 1. 安装基础依赖\n克隆项目后，进入目录并安装基础 Python 包：\n```bash\npip3 install -r requirements.txt\n```\n\n### 2. 安装 COCO API\n为了运行演示笔记本 (`demo.pynb`) 和处理标注数据，需要安装 COCO Python API：\n```bash\npip3 install git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI\n```\n> **提示**：如果国内下载速度较慢，可尝试使用镜像源加速：\n> ```bash\n> pip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple git+https:\u002F\u002Fgithub.com\u002Fphilferriere\u002Fcocoapi.git#subdirectory=PythonAPI\n> ```\n\n### 3. 下载数据集\n运行以下脚本自动从 Flickr 下载图像数据：\n```bash\npython3 download.py\n```\n或者，您也可以直接从 Zenodo 手动下载数据集存档。\n\n## 基本使用\n\n### 查看数据集与标注\n项目提供了一个 Jupyter Notebook (`demo.pynb`) 用于浏览数据和可视化标注。安装好 Jupyter 后运行：\n```bash\njupyter notebook demo.pynb\n```\n\n### 准备垃圾检测模型数据\n若需使用内置的 Mask R-CNN 检测器（位于 `\u002Fdetector` 目录），首先需要划分数据集。\n\n**选项 A：使用官方预划分的数据集和权重**\n直接前往 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Freleases\u002Ftag\u002F1.0) 下载。\n\n**选项 B：自行划分数据集**\n在 `detector` 目录下运行以下命令，将数据随机划分为训练集、验证集和测试集：\n```bash\ncd detector\npython3 split_dataset.py --dataset_dir ..\u002Fdata\n```\n\n### 配置检测类别\n由于原始数据中部分类别样本较少，建议在 `detector\u002Ftaco_config.py` 中调整类别映射。默认配置已合并为主流类别（如：易拉罐、瓶子、塑料袋等）。您可以根据具体任务需求自定义类别映射。\n\n配置完成后，参考 `detector\u002Fdetector.py` 进行模型训练或推理。","某环保科技团队正在开发一款基于无人机航拍的城市垃圾自动巡检系统，旨在快速识别公园、海滩及路边的散落废弃物。\n\n### 没有 TACO 时\n- **数据收集困难**：团队需人工拍摄并整理成千上万张不同场景（如树林、沙滩）的垃圾照片，耗时数月且覆盖场景单一。\n- **标注成本高昂**：缺乏现成的分层分类标准，工程师需手动定义垃圾类别并逐帧绘制分割掩码，人力成本极高。\n- **模型泛化差**：由于训练数据多来自特定角度或光照条件，部署后的模型在复杂野外环境下误报率居高不下。\n- **格式转换繁琐**：找到的零散开源数据集格式不一，需编写大量脚本转换为 COCO 格式才能适配主流检测算法。\n\n### 使用 TACO 后\n- **开箱即用数据**：直接下载 TACO 包含的多样化野外垃圾图像库，瞬间获得涵盖 woods、roads 和 beaches 的高质量训练集。\n- **标准化分层标注**：利用 TACO 预定义的层级分类体系和精确的像素级分割掩码，大幅减少数据预处理时间。\n- **提升检测鲁棒性**：基于丰富的真实场景数据训练 Mask R-CNN 模型，显著提升了系统在复杂光照和背景下的识别准确率。\n- **无缝集成开发**：借助 TACO 提供的原生 COCO 格式注解和 Python API，团队可直接运行 demo 脚本验证效果，加速原型迭代。\n\nTACO 通过提供高质量、多样化的野外垃圾标注数据集，将环保 AI 项目的数据准备周期从数月缩短至数天，让开发者能专注于算法优化而非数据清洗。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpedropro_TACO_cb5d607d.png","pedropro","Pedro F. Proença","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpedropro_fe37289f.jpg",null,"NASA - JPL","Los Angeles","pproenxa@gmail.com","https:\u002F\u002Fpedropro.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fpedropro",[24,28],{"name":25,"color":26,"percentage":27},"Jupyter Notebook","#DA5B0B",99.5,{"name":29,"color":30,"percentage":31},"Python","#3572A5",0.5,719,241,"2026-04-03T10:03:29","MIT",2,"未说明","未说明 (基于 Mask R-CNN 实现，通常建议配备 NVIDIA GPU 以加速训练和推理，但 README 未明确具体型号或显存要求)",{"notes":40,"python":41,"dependencies":42},"该工具主要是一个垃圾检测数据集及相关的评估代码。核心依赖包括 COCO API 和经过修改的 Mask R-CNN 实现。使用前需运行脚本下载数据集图像（托管在 Flickr）或从 Zenodo 下载。代码包含用于划分数据集的脚本，且由于原始类别标注较少，可能需要根据 config 文件合并类别或自定义类别映射。","3.x (README 示例命令使用 python3 和 pip3，未指定具体小版本)",[43,44,45],"cocoapi (通过 git 安装)","Mask_RCNN (Matterport 实现，包含在 \u002Fdetector 目录)","requirements.txt 中定义的包 (具体列表未在 README 中展示)",[47,48,49],"开发框架","数据工具","图像",[51,52,53,54,55,56,57],"trash","dataset","mask-rcnn","object-detection","litter","deep-learning","garbage","ready","2026-03-27T02:49:30.150509","2026-04-06T11:30:52.648026",[62,67,72,77,82,87],{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},14126,"如何在 Windows 上下载数据集时解决缺少模块的错误？","在运行下载脚本前，需要手动安装缺少的 Python 依赖包。如果提示缺少 'requests' 模块，请运行：`pip3 install requests`；如果提示缺少图像处理模块，请运行：`pip3 install Pillow`。安装完成后即可正常运行 `python3 download.py`。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F4",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},14127,"标注数据中的边界框（bbox）坐标顺序和原点是什么？","项目采用标准的 COCO 格式，坐标顺序为 `{x_min, y_min, width, height}`，且原点是图像的左上角 (0,0)。注意：早期版本中 `y_min` 曾定义为物体底部到图像底部的距离（导致坐标看起来像是镜像的），但维护者已确认将修正为标准的左上角坐标系。使用时请参考 `demo.ipynb` 中的可视化代码以确保坐标正确。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F2",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},14128,"为什么加载预训练模型进行推理时会报维度不匹配（Dimension mismatch）或断言错误？","这通常是由于 TensorFlow、Keras 和 Python 的版本不兼容导致的。该项目对版本非常敏感，推荐的稳定运行配置是：Python 3.5\u002F3.6，TensorFlow 1.3.0 - 1.14.0，Keras 2.0.8 - 2.1.6。如果遇到 `AttributeError: module 'tensorflow' has no attribute 'log'` 或权重形状不匹配错误，请尝试降低 TensorFlow 和 Keras 的版本至上述范围。建议维护者在 requirements.txt 中明确指定版本号以避免此类问题。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F20",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},14129,"如何获取尚未标注的剩余图片以协助项目标注？","维护者已将未标注的图片公开在 GitHub 仓库中。你可以直接访问 `https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Ftree\u002Fmaster\u002Fdata` 获取。如果你使用其他工具完成了标注，欢迎将其公开并通知维护者以便致谢。此外，社区用户也分享过通过脚本爬取标注页面获取图片 URL 的方法，但直接使用仓库中的数据是最简便的途径。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F13",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},14130,"运行 detector.py 时出现 'module 'tensorflow' has no attribute 'log'' 错误怎么办？","这是典型的 TensorFlow 版本过高导致的兼容性问题。该错误表明当前安装的 TensorFlow 版本移除了旧版 API。解决方案是将 TensorFlow 降级到 1.3.0 版本，同时配合 Keras 2.0.8 使用。命令示例：`pip install tensorflow==1.3.0 keras==2.0.8`。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F31",{"id":88,"question_zh":89,"answer_zh":90,"source_url":91},14131,"标注文件中的 Y 轴坐标看起来是上下颠倒的，这是 Bug 吗？","这不是 Bug，而是早期数据继承自 Labelbox 平台的特性，其 Y 坐标是从图像底部向上计算的。维护者已意识到这与标准 COCO 格式（从顶部向下计算）不一致，并计划上传修正后的标注文件。在修正文件发布前，如果需要自行转换坐标，可以使用公式：`correct_y = image_height - object_y - object_height` 来还原正确的 Y 坐标。","https:\u002F\u002Fgithub.com\u002Fpedropro\u002FTACO\u002Fissues\u002F8",[93,98],{"id":94,"version":95,"summary_zh":96,"released_at":97},80865,"1.0","这些权重是使用 TACO-10 类别映射通过 4 折交叉验证获得的。  \n每个文件的命名格式为：`\u003Cdataset>_\u003Cmap_number_of_target_classes>_\u003Cfold number>.zip`，其中包含以下内容：\n- 实际权重文件：`mask_rcnn_taco_\u003Cepoch number>.h5`。请将该文件复制到 `detector\u002Fmodels\u002Flogs` 目录下。\n- 对应的数据集划分文件：`annotations_0_\u003Csubset>.json`。请将这 3 个文件复制到您的数据集目录中。\n\n**使用的环境：**\ntensorflow 1.9.0  \nkeras 2.16  \n\n**注意：** 较新版本可能不兼容。请查看 #17。","2020-03-05T17:42:44",{"id":99,"version":100,"summary_zh":17,"released_at":101},80866,"v0.1","2019-06-09T23:09:46",[103,113,122,130,138,150],{"id":104,"name":105,"github_repo":106,"description_zh":107,"stars":108,"difficulty_score":109,"last_commit_at":110,"category_tags":111,"status":58},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[47,49,112],"Agent",{"id":114,"name":115,"github_repo":116,"description_zh":117,"stars":118,"difficulty_score":36,"last_commit_at":119,"category_tags":120,"status":58},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,"2026-04-05T23:32:43",[47,112,121],"语言模型",{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":36,"last_commit_at":128,"category_tags":129,"status":58},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[47,49,112],{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":36,"last_commit_at":136,"category_tags":137,"status":58},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[47,121],{"id":139,"name":140,"github_repo":141,"description_zh":142,"stars":143,"difficulty_score":36,"last_commit_at":144,"category_tags":145,"status":58},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[49,48,146,147,112,148,121,47,149],"视频","插件","其他","音频",{"id":151,"name":152,"github_repo":153,"description_zh":154,"stars":155,"difficulty_score":109,"last_commit_at":156,"category_tags":157,"status":58},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[112,49,47,121,148]]