[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cvdfoundation--open-images-dataset":3,"tool-cvdfoundation--open-images-dataset":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":77,"owner_url":79,"languages":77,"stars":80,"forks":81,"last_commit_at":82,"license":77,"difficulty_score":32,"env_os":83,"env_gpu":83,"env_ram":84,"env_deps":85,"category_tags":89,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":90,"updated_at":91,"faqs":92,"releases":133},9730,"cvdfoundation\u002Fopen-images-dataset","open-images-dataset","Open Images is a dataset of ~9 million images that have been annotated with image-level labels and bounding boxes spanning thousands of classes.","Open Images Dataset 是一个规模宏大的开源图像数据集，收录了约 900 万张带有详细标注的图片。它主要解决了计算机视觉领域长期面临的“高质量、大规模训练数据稀缺”的难题，为算法模型提供了丰富的学习素材。\n\n该数据集涵盖了超过 6000 个物体类别，不仅提供图像级别的标签，还包含了精确的边界框标注，部分子集甚至支持实例分割和视觉关系分析。为了方便全球研究者使用，所有图片均经过统一处理，长边缩放至 1024 像素以内并保留原始比例，在确保质量的同时优化了存储与读取效率。数据被科学地划分为训练集、验证集和测试集，并曾作为 2018 及 2019 年 Open Images 挑战赛的官方数据源。\n\nOpen Images Dataset 特别适合人工智能研究人员、深度学习开发者以及计算机视觉工程师使用。无论是需要训练目标检测模型，还是进行图像分类研究，都能从中获取标准化的海量数据支持。借助 AWS S3 云存储，用户可以灵活地全量下载或按需获取特定分包，极大地降低了数据获取门槛，是构建高性能视觉模型不可或缺的基石。","# Open Images Dataset\nOpen Images is a dataset of ~9 million URLs to images that have been annotated with labels spanning over 6000 categories. This page aims to provide the download instructions and mirror sites for Open Images Dataset. Please visit the [project page](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html) for more details on the dataset.\n\n# Download Images\n\n## Download Images With Bounding Boxes Annotations\n\nCVDF hosts image files that have bounding boxes annotations in the Open Images Dataset V4\u002FV5. These images contain the complete subsets of images for which instance segmentations and visual relations are annotated. The images are split into train (1,743,042), validation (41,620), and test (125,436) sets. The train set is also used in the Open Images Challenge 2018 and 2019.\nThe images are rescaled to have at most 1024 pixels on their longest side, while preserving their original aspect-ratio. The total size is 561GB. The images can be directly downloaded into a local directory from the CVDF AWS S3 cloud storage bucket:\n```\ns3:\u002F\u002Fopen-images-dataset\n```\nYou can either download the images to a local directory or to your own AWS S3 cloud storage bucket with the following procedures:\n1. install [awscli](https:\u002F\u002Faws.amazon.com\u002Fcli\u002F)\n2. download images for the train set, validation set, test set:\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftrain [target_dir\u002Ftrain] (513GB)  \n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fvalidation [target_dir\u002Fvalidation] (12GB)  \n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftest [target_dir\u002Ftest] (36GB)\n  \nAlternatively, you can download the subsets in separate packed files (the subset train_x contains all images with ID starting with x):\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_0.tar.gz [target_dir] (46G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_1.tar.gz [target_dir] (34G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_2.tar.gz [target_dir] (33G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_3.tar.gz [target_dir] (32G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_4.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_5.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_6.tar.gz [target_dir] (32G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_7.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_8.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_9.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_a.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_b.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_c.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_d.tar.gz [target_dir] (31G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_e.tar.gz [target_dir] (28G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_f.tar.gz [target_dir] (28G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Fvalidation.tar.gz [target_dir] (12G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftest.tar.gz [target_dir] (36G)\n\n\n\nThe target_dir can be a local directory or a AWS S3 cloud storage bucket.\n\n\n## Download the Open Images Challenge 2018\u002F2019 test set\n\nCVDF also hosts the Open Images Challenge 2018\u002F2019 test set, which is disjoint from the Open Images V4\u002FV5 train, val, and test sets. The same AWS instructions above apply. Note that since the images from the 2019 challenge have not changed, the filenames only include the year 2018.\n\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fchallenge2018 [target_dir\u002Ftest_challenge_2018] (10GB)\n\n  We also provide the zipped file for challenge 2018\u002F2019 set. You can download the zipped file using\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Fchallenge2018.tar.gz [target_dir] (9.7G)\n  \n\n## Download Full Dataset With Google Storage Transfer\n**Prerequisite: Google Cloud Platform account**\n\nIn this section, we describe the procedures to download all images in the Open Images Dataset to a Google Cloud storage bucket. We recommend to use the user interface provided in the Google Cloud storage console for the task.\n\nGoogle Storage provides a \"storage transfer\" function to transfer online files into a storage bucket. This function can be used to transfer images from original urls into user's storage bucket. CVDF prepares the tsv files that contain all image urls in Open Images Dataset for the transfer. The step-by-step instructions are described in [Creating and Managing Transfers with the Console](https:\u002F\u002Fcloud.google.com\u002Fstorage\u002Ftransfer\u002Fcreate-manage-transfer-console). The size of the whole dataset is around 18TB. Please note that user needs to pay for hosting the dataset on Google Cloud storage after downloading it. The hosting price can be found on [Google Cloud Storage Pricing](https:\u002F\u002Fcloud.google.com\u002Fstorage\u002Fpricing).\n\nThe tsv files for the train set, in 10 partitions:  \nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train0.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train1.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train2.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train3.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train4.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train5.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train6.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train7.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train8.tsv\u003Cbr>\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train9.tsv\u003Cbr>\n\nThe tsv file for the validation set:  \nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-validation.tsv\n\nThe tsv file for the test set:  \nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-test.tsv\n\n","# Open Images 数据集\nOpen Images 是一个包含约 900 万个图像 URL 的数据集，这些图像已被标注了超过 6000 个类别的标签。本页面旨在提供 Open Images 数据集的下载说明及镜像站点。有关该数据集的更多详细信息，请访问 [项目页面](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html)。\n\n# 下载图像\n\n## 下载带有边界框标注的图像\n\nCVDF 托管了 Open Images 数据集 V4\u002FV5 中带有边界框标注的图像文件。这些图像包含了实例分割和视觉关系均已标注的完整子集。图像被划分为训练集（1,743,042 张）、验证集（41,620 张）和测试集（125,436 张）。其中，训练集也被用于 2018 年和 2019 年的 Open Images 挑战赛。\n\n图像被重新缩放，使其最长边不超过 1024 像素，同时保持原始宽高比。总大小为 561GB。用户可以直接从 CVDF 的 AWS S3 云存储桶将图像下载到本地目录：\n```\ns3:\u002F\u002Fopen-images-dataset\n```\n您可以通过以下步骤将图像下载到本地目录或您自己的 AWS S3 云存储桶中：\n1. 安装 [awscli](https:\u002F\u002Faws.amazon.com\u002Fcli\u002F) 工具。\n2. 下载训练集、验证集和测试集的图像：\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftrain [target_dir\u002Ftrain] (513GB)\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fvalidation [target_dir\u002Fvalidation] (12GB)\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftest [target_dir\u002Ftest] (36GB)\n\n或者，您也可以下载按 ID 分割的压缩包子集（例如，train_x 包含所有以 x 开头的图像 ID）：\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_0.tar.gz [target_dir] (46G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_1.tar.gz [target_dir] (34G)\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_2.tar.gz [target_dir] (33G)\n  * 以此类推，直到 train_9.tar.gz 和其他子集。\n\n此外，您还可以下载挑战赛相关的数据集：\n  * aws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fchallenge2018 [target_dir\u002Ftest_challenge_2018] (10GB)\n\n我们还提供了 2018\u002F2019 挑战赛数据集的压缩包，您可以使用以下命令下载：\n  * aws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Fchallenge2018.tar.gz [target_dir] (9.7G)\n\n其中，target_dir 可以是本地目录，也可以是 AWS S3 云存储桶。\n\n## 使用 Google Storage Transfer 下载完整数据集\n**前提条件：Google Cloud Platform 账号**\n\n本节介绍如何将 Open Images 数据集中的所有图像下载到 Google Cloud 存储桶中。我们建议使用 Google Cloud 存储控制台提供的用户界面来完成此操作。\n\nGoogle Storage 提供“存储转移”功能，可将在线文件传输到存储桶中。此功能可用于将原始 URL 中的图像转移到用户的存储桶中。CVDF 已准备好包含 Open Images 数据集中所有图像 URL 的 TSV 文件，以便进行转移。具体步骤请参阅 [使用控制台创建和管理转移任务](https:\u002F\u002Fcloud.google.com\u002Fstorage\u002Ftransfer\u002Fcreate-manage-transfer-console)。整个数据集的大小约为 18TB。请注意，下载完成后，用户需要为在 Google Cloud 存储上托管数据集支付费用。托管价格可在 [Google Cloud Storage 定价页面](https:\u002F\u002Fcloud.google.com\u002Fstorage\u002Fpricing) 查看。\n\n以下是各部分的 TSV 文件下载链接：\n\n### 训练集（共 10 个分区）：\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train0.tsv  \nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train1.tsv  \n……  \nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-train9.tsv  \n\n### 验证集：\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-validation.tsv  \n\n### 测试集：\nhttps:\u002F\u002Fstorage.googleapis.com\u002Fcvdf-datasets\u002Foid\u002Fopen-images-dataset-test.tsv","# Open Images Dataset 快速上手指南\n\nOpen Images Dataset 是一个包含约 900 万张图像 URL 的大型数据集，标注了超过 6000 个类别的标签。本指南将帮助您快速下载带有边界框标注的图像子集。\n\n## 环境准备\n\n在开始下载前，请确保您的环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (需配置好命令行环境)\n*   **前置依赖**：必须安装 AWS CLI 工具。\n    *   安装指南参考：[AWS CLI 官方文档](https:\u002F\u002Faws.amazon.com\u002Fcli\u002F)\n*   **存储空间**：\n    *   完整训练集（含边界框）：约 561 GB\n    *   验证集：约 12 GB\n    *   测试集：约 36 GB\n    *   *注：若只需部分数据，可按需下载分卷包。*\n*   **网络环境**：由于数据托管在 AWS S3，国内用户建议配置稳定的网络环境或使用代理加速下载。目前官方未提供专门的中国镜像源。\n\n## 安装与下载步骤\n\n### 1. 安装 AWS CLI\n请根据您的操作系统前往 [AWS CLI 安装页面](https:\u002F\u002Faws.amazon.com\u002Fcli\u002F) 完成安装。安装完成后，在终端运行 `aws --version` 确认安装成功。\n\n### 2. 下载图像数据\n数据存储在公开的 AWS S3 存储桶中，无需配置 AWS 密钥即可匿名下载。您可以根据需求选择**全量同步**或**分卷下载**。\n\n#### 方案 A：全量同步（推荐用于拥有充足存储和带宽的用户）\n此命令会将指定数据集完整同步到本地目录。\n\n```bash\n# 下载训练集 (约 513GB)\naws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftrain [target_dir\u002Ftrain]\n\n# 下载验证集 (约 12GB)\naws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fvalidation [target_dir\u002Fvalidation]\n\n# 下载测试集 (约 36GB)\naws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Ftest [target_dir\u002Ftest]\n```\n*请将 `[target_dir\u002F...]` 替换为您本地的实际目标路径。*\n\n#### 方案 B：分卷下载（适合断点续传或按需获取）\n训练集被分割为多个 `.tar.gz` 压缩包（按图像 ID 首字符分类），您可以单独下载需要的部分。\n\n```bash\n# 示例：下载训练集的部分分卷\naws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_0.tar.gz [target_dir]\naws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Ftrain_1.tar.gz [target_dir]\n# ... 依次下载 train_2 到 train_f 以及 validation.tar.gz, test.tar.gz\n```\n\n#### 方案 C：下载挑战赛测试集 (2018\u002F2019)\n如果您需要独立的挑战赛测试集：\n\n```bash\n# 同步方式\naws s3 --no-sign-request sync s3:\u002F\u002Fopen-images-dataset\u002Fchallenge2018 [target_dir\u002Ftest_challenge_2018]\n\n# 或下载压缩包 (约 9.7GB)\naws s3 --no-sign-request cp s3:\u002F\u002Fopen-images-dataset\u002Ftar\u002Fchallenge2018.tar.gz [target_dir]\n```\n\n## 基本使用\n\n下载完成后，数据将以标准的图像文件格式（如 .jpg）存储在您的目标目录中。\n\n**最简单的使用示例（Python 读取）：**\n\n假设您已下载训练集到 `.\u002Fdata\u002Ftrain` 目录，可以使用以下代码加载并查看一张图片：\n\n```python\nimport os\nfrom PIL import Image\n\n# 设置数据目录\ndata_dir = \".\u002Fdata\u002Ftrain\"\n\n# 获取目录下的第一个图像文件\nfiles = os.listdir(data_dir)\nimage_files = [f for f in files if f.endswith('.jpg')]\n\nif image_files:\n    img_path = os.path.join(data_dir, image_files[0])\n    \n    # 打开并显示图像\n    img = Image.open(img_path)\n    print(f\"Image size: {img.size}\")\n    img.show()\nelse:\n    print(\"未找到图像文件，请检查下载路径。\")\n```\n\n**关于标注文件：**\n本指南主要涉及图像文件的下载。对应的边界框、实例分割和视觉关系标注文件（CSV\u002FJSON 格式）通常需要单独从 [Open Images 项目主页](https:\u002F\u002Fstorage.googleapis.com\u002Fopenimages\u002Fweb\u002Findex.html) 下载，并与下载的图像 ID 进行匹配使用。","某电商初创公司的算法团队正致力于开发一款能自动识别并定位商品细节（如“红色高跟鞋”、“皮质背包”）的智能搜索系统，急需海量带标注的训练数据。\n\n### 没有 open-images-dataset 时\n- **数据采集成本极高**：团队需耗费数周时间从网络爬取图片，且难以一次性获取覆盖 6000+ 类别的多样化素材。\n- **标注工作量大到停滞**：缺乏现成的边界框（Bounding Boxes）标注，人工为百万级图片绘制检测框不仅耗资巨大，且周期长达数月。\n- **模型泛化能力受限**：由于自建数据集规模小、场景单一，训练出的模型在面对复杂背景或罕见商品时，识别准确率极低。\n- **数据清洗负担重**：自行收集的图片分辨率参差不齐，需额外编写脚本进行统一的尺寸缩放和格式标准化处理。\n\n### 使用 open-images-dataset 后\n- **即刻获取海量资源**：通过 AWS S3 直接同步约 900 万张已分类图片，瞬间构建起涵盖数千种商品类别的庞大训练库。\n- **开箱即用的精准标注**：直接利用数据集中预置的高质量边界框和实例分割标签，省去了最耗时的人工标注环节，项目启动时间从数月缩短至几天。\n- **显著提升模型性能**：基于千万级多样本训练，模型对长尾商品和复杂场景的鲁棒性大幅增强，检测精度达到生产级标准。\n- **预处理流程标准化**：数据集已统一将图片长边缩放至 1024 像素并保持宽高比，团队可直接加载数据投入训练，无需重复开发清洗代码。\n\nopen-images-dataset 通过提供大规模、预标注的视觉数据，将计算机视觉项目的冷启动门槛从“月级”降低到了“天级”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcvdfoundation_open-images-dataset_024e2daf.png","cvdfoundation","Common Visual Data Foundation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcvdfoundation_05c44203.png","The Common Visual Data Foundation is a 501(c)(3) non-profit organization with a mission to enable open community-driven research in computer vision.",null,"info@cvdfoundation.org","https:\u002F\u002Fgithub.com\u002Fcvdfoundation",1117,168,"2026-04-17T14:02:52","未说明","未说明 (下载完整数据集需约 561GB - 18TB 存储空间)",{"notes":86,"python":83,"dependencies":87},"该工具为数据集而非运行模型，主要需求为存储空间和网络带宽。若使用 AWS S3 下载带边界框标注的子集，需安装 awscli 命令行工具，训练集约 513GB。若通过 Google Cloud Storage Transfer 下载全量原始图片，需拥有 Google Cloud Platform 账户，数据总量约 18TB，且用户需承担云存储费用。",[88],"awscli",[15,16],"2026-03-27T02:49:30.150509","2026-04-20T04:04:31.696021",[93,98,103,108,113,118,123,128],{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},43688,"运行 gsutil 命令时出现 'Unknown option: m' 或 'No command was given' 错误怎么办？","这通常是因为系统中预安装了另一个名为 gsutil 的工具（由 GrandStream BudgeTone 开发），而不是 Google Cloud Storage 的 gsutil。解决方法是：\n1. 将 Google Cloud Storage 版本的 gsutil 路径移动到环境变量 PATH 的前面；\n2. 或者在运行命令时指定完整路径，例如：\u002Fhome\u002Fusers\u002Fjoan\u002Fgsutil\u002Fgsutil ls。\n请参考官方安装文档：https:\u002F\u002Fcloud.google.com\u002Fstorage\u002Fdocs\u002Fgsutil_install","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F10",{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},43689,"如何下载完整数据集（18TB）？是否需要提交访问申请？","不需要提交访问申请即可访问存储桶。完整数据集可以通过提供的 URL 下载。CVDF 提供了 TSV 文件以方便使用 Google Cloud Platform 进行数据传输。请按照 README 中“使用 Google Storage Transfer 下载完整数据集”部分的说明进行操作。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F7",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},43690,"数据集已从 Google Storage 切换到 Amazon S3，原来的 Google Storage 链接还有效吗？为什么要切换？","Google Storage 仍然保持开放，用户可以继续从 Google Storage 下载数据。创建 S3 副本的原因是 AWS 提供免费云服务来支持学术界公开和自由地分发数据集的努力。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F14",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},43691,"提交访问申请表单后多久能获得访问权限？如果一直未收到权限怎么办？","通常在提交表单后应该立即获得访问权限。如果长时间未收到权限，维护者建议检查并提交与您表单中关联的 Gmail 账户信息，以便他们手动核查。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F4",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},43692,"填写访问申请表单时提示 'Error occurs, please double check you enter the correct email address' 怎么办？","该错误可能是暂时性的系统问题。建议稍后重试。如果问题依旧，请检查收件箱，通常在几分钟内会收到一封包含成功注册信息的欢迎邮件。如果仍未收到，可联系维护者提供您填写的具体信息进行排查。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F2",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},43693,"下载图片时遇到 'AccessDeniedException: 403 ... does not have storage.objects.list access' 错误如何解决？","此错误通常是因为尚未完成注册流程。请务必先填写并提交了官方的注册表单（http:\u002F\u002Fwww.cvdfoundation.org\u002Fdatasets\u002Fopen-images-dataset\u002Fsignup.html）。提交成功后，您的邮箱将获得相应的访问权限。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F1",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},43694,"如何在 AWS S3 上使用 Google Cloud Storage Transfer Service 传输数据集？需要额外权限吗？","为了支持使用 Google Cloud Storage Transfer Service 将数据集从 AWS S3 复制到 Google Cloud Storage，存储桶策略中已添加了 's3:GetBucketLocation' 权限。现在您可以直接使用 GCSTS 进行传输，无需额外申请权限。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F20",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},43695,"发现数据集中有不适当的内容（如裸露图片）该如何报告？","如果发现不适当的图片，可以通过 GitHub Issue 直接报告图片 ID、类型、子集等信息。虽然官网曾提供邮箱联系方式，但若邮箱失效，直接在项目 Issues 中反馈也是有效的处理方式，维护者会跟进处理。","https:\u002F\u002Fgithub.com\u002Fcvdfoundation\u002Fopen-images-dataset\u002Fissues\u002F33",[]]