[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-google-research-datasets--conceptual-captions":3,"similar-google-research-datasets--conceptual-captions":93},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":34,"forks":35,"last_commit_at":36,"license":37,"difficulty_score":38,"env_os":39,"env_gpu":40,"env_ram":40,"env_deps":41,"category_tags":44,"github_topics":18,"view_count":38,"oss_zip_url":18,"oss_zip_packed_at":18,"status":48,"created_at":49,"updated_at":50,"faqs":51,"releases":92},9711,"google-research-datasets\u002Fconceptual-captions","conceptual-captions","Conceptual Captions is a dataset containing (image-URL, caption) pairs designed for the training and evaluation of machine learned image captioning systems. ","Conceptual Captions 是一个专为训练和评估机器图像描述系统而设计的大规模数据集。它包含了超过 330 万对“图片链接 - 自然语言描述”数据，旨在解决传统数据集（如 MS-COCO）规模较小、风格单一且依赖人工标注的局限性。\n\n该数据集的独特之处在于其数据来源与处理方式：图片和描述均抓取自互联网图片的 Alt-text 属性，覆盖了极其丰富的现实场景与多样风格。谷歌团队开发了一套自动化流水线，对这些原始数据进行提取、过滤和转换，在保持数据清洁度的同时，确保了描述的信息量、流畅性以及模型的可学习性。此外，项目还提供了基于机器生成的图像标签子集，并设立了隐藏的测试集以举办竞赛，确保模型评估的客观性与公正性，有效防止过拟合。\n\nConceptual Captions 非常适合人工智能研究人员、计算机视觉开发者以及从事多模态学习的研究团队使用。无论是希望提升图像描述生成（Image Captioning）模型的泛化能力，还是探索大规模弱监督学习的研究者，都能从中获得高质量的数据支持，推动相关技术在实际复杂场景中的应用落地。","# Conceptual Captions Dataset\n\nConceptual Captions is a dataset containing (image-URL, caption) pairs designed\nfor the training and evaluation of machine learned image captioning systems.\n\n## Downloads\nSee \u003Chttp:\u002F\u002Fai.google.com\u002Fresearch\u002FConceptualCaptions> for details.\n\n## Motivation\n\nAutomatic image captioning is the task of producing a natural-language\nutterance (usually a sentence) that correctly reflects the visual content of an\nimage. Up to this point, the resource most used for this task was the\n[MS-COCO dataset](http:\u002F\u002Fcocodataset.org), containing around 120,000\nimages and 5-way image-caption annotations (produced by paid annotators).\n\nGoogle's Conceptual Captions dataset has more than 3 million images, paired\nwith natural-language captions. In contrast with the curated style of the\nMS-COCO images, Conceptual Captions images and their raw descriptions are\nharvested from the web, and therefore represent a wider variety of styles. The\nraw descriptions are harvested from the Alt-text HTML attribute associated with\nweb images. We developed an automatic pipeline that extracts, filters, and\ntransforms candidate image\u002Fcaption pairs, with the goal of achieving a balance\nof cleanliness, informativeness, fluency, and learnability of the resulting\ncaptions.\n\nMore details are available in this paper (please cite the paper if you use or discuss this dataset in your work):\n\n\u003Cdiv class=\"highlight highlight-source-shell\">\u003Cpre>\n@inproceedings{sharma2018conceptual,\n  title = {Conceptual Captions: A Cleaned, Hypernymed, Image Alt-text Dataset For Automatic Image Captioning},\n  author = {Sharma, Piyush and Ding, Nan and Goodman, Sebastian and Soricut, Radu},\n  booktitle = {Proceedings of ACL},\n  year = {2018},\n}\n\u003C\u002Fpre>\u003C\u002Fdiv>\nAdditionally, we provide machine-generated labels for a subset of 2.0M images from the Conceptual Captions training set.\nPlease cite this paper if you use the image labels in your work.\n\n\u003Cdiv class=\"highlight highlight-source-shell\">\u003Cpre>\n@article{ng2020understanding,\n  title={Understanding Guided Image Captioning Performance across Domains},\n  author={Edwin G. Ng and Bo Pang and Piyush Sharma and Radu Soricut},\n  journal={arXiv preprint arXiv:2012.02339},\n  year={2020}\n}\n\u003C\u002Fpre>\u003C\u002Fdiv>\n\n## Dataset Description\n\nConceptual Captions dataset release contains two splits: train (~3.3M examples) and validation (~16K examples).\nSee Table 1 below for more details.\n\n\u003Cp align='center'>Table 1: Dataset stats.\u003C\u002Fp>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd colspan=\"3\">\u003C\u002Ftd>\n    \u003Ctd colspan=\"3\">\u003Ccenter>\u003Cb>Tokens per Caption\u003C\u002Fb>\u003C\u002Fcenter>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cb>Split\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>Examples\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>Uniqe Tokens\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>Mean\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>StdDev\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>Median\u003C\u002Fb>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Train\u003C\u002Ftd>\n    \u003Ctd>3,318,333\u003C\u002Ftd>\n    \u003Ctd>51,201\u003C\u002Ftd>\n    \u003Ctd>10.3\u003C\u002Ftd>\n    \u003Ctd>4.5\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Valid\u003C\u002Ftd>\n    \u003Ctd>15,840\u003C\u002Ftd>\n    \u003Ctd>10,900\u003C\u002Ftd>\n    \u003Ctd>10.4\u003C\u002Ftd>\n    \u003Ctd>4.7\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr bgcolor=\"#808080\">\n    \u003Ctd>Test (Hidden)\u003C\u002Ftd>\n    \u003Ctd>12,559\u003C\u002Ftd>\n    \u003Ctd>9,645\u003C\u002Ftd>\n    \u003Ctd>10.2\u003C\u002Ftd>\n    \u003Ctd>4.6\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## Hidden Test set\n\nWe are not releasing the official test split (~12.5K examples).\nInstead, we are hosting a competition (see \u003Chttp:\u002F\u002Fai.google.com\u002Fresearch\u002FConceptualCaptions>) dedicated to supporting submissions and evaluations of model outputs on this blind test set.\n\nWe strongly believe that this setup has several advantages: a) it allows the evaluation to be done using an unbiased, large number of images b) it keeps the test completely blind and eliminate suspicions of fitting to the test, cheating, etc. c) it overall provides a clean setup for advancing the SoTA on this task, including reporting reproducible results for paper publications, etc.\n\n\n## Image Labels\n\nThe image labels are obtained using the Google Cloud Vision API (\u003Chttps:\u002F\u002Fcloud.google.com\u002Fvision>). Each image label has a machine-generated identifier (MID) corresponding to the label's Google Knowledge Graph entry and a confidence score for its presence in the image.\nThese labels have been obtained running the same model and are presented in a similar fashion with the image labels made available for the T2 Guiding dataset available at https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002FT2-Guiding.\n\n## Data Format for Conceptual Captions\n\nThe Conceptual Captions training and validation sets are provided as TSV (tab-separated values) text files with the following columns:\n\n\u003Cp align='center'>Table 2: Columns in Train\u002FValidation TSV files.\u003C\u002Fp>\n\n| Column   | Description                                                                      |\n| -------- | -------------------------------------------------------------------------------- |\n| 1        | Caption. The text has been tokenized and lowercased.                             |\n| 2        | Image URL                                                                        |\n\n## Data Format for Image Labels\n\nThe image labels for a 2.0M subset of the training set are provided as TSV (tab-separated values) text files with the following columns:\n\n\u003Cp align='center'>Table 3: Columns in Image Labels TSV files.\u003C\u002Fp>\n\n| Column   | Description                                                                      |\n| -------- | -------------------------------------------------------------------------------- |\n| 1        | Caption. The text has been tokenized and lowercased.                             |\n| 2        | Image URL                                                                        |\n| 3        | Image labels. Comma separated list in descending order of confidence.            |\n| 4        | MIDs. Comma separated list corresponding to the image labels list.               |\n| 5        | Confidence scores. Comma separated list corresponding to the image labels list.  |\n\n\n## Contact us\n\nIf you have a technical question regarding the dataset, code or publication, please create an issue in this repository.\nThis is the fastest way to reach us.\n\nIf you would like to share feedback or report concerns, please email us at conceptual-captions@google.com\n","# 概念字幕数据集\n\n概念字幕数据集是一个包含 (图像URL, 字幕) 对的数据集，专为训练和评估机器学习图像字幕生成系统而设计。\n\n## 下载\n详情请参见 \u003Chttp:\u002F\u002Fai.google.com\u002Fresearch\u002FConceptualCaptions>。\n\n## 动机\n\n自动图像字幕生成是指生成一段自然语言语句（通常是一句话），准确反映图像视觉内容的任务。迄今为止，用于该任务的主要资源是 [MS-COCO 数据集](http:\u002F\u002Fcocodataset.org)，其中包含约 12 万张图像以及由付费标注人员提供的五重图像-字幕标注。\n\n谷歌的概念字幕数据集包含超过 300 万张图像，并配有自然语言字幕。与 MS-COCO 数据集中经过精心挑选的图像风格不同，概念字幕数据集中的图像及其原始描述是从网络上抓取的，因此代表了更为多样的风格。这些原始描述来源于与网络图像关联的 HTML alt 属性。我们开发了一套自动化流程，用于提取、筛选和转换候选的图像\u002F字幕对，旨在使最终生成的字幕在清晰度、信息量、流畅性和可学习性之间达到平衡。\n\n更多详细信息请参阅以下论文（如果您在工作中使用或讨论本数据集，请引用该论文）：\n\n\u003Cdiv class=\"highlight highlight-source-shell\">\u003Cpre>\n@inproceedings{sharma2018conceptual,\n  title = {Conceptual Captions: A Cleaned, Hypernymed, Image Alt-text Dataset For Automatic Image Captioning},\n  author = {Sharma, Piyush and Ding, Nan and Goodman, Sebastian and Soricut, Radu},\n  booktitle = {Proceedings of ACL},\n  year = {2018},\n}\n\u003C\u002Fpre>\u003C\u002Fdiv>\n\n此外，我们还为概念字幕训练集中的 200 万张图像子集提供了机器生成的标签。如果您在工作中使用这些图像标签，请引用以下论文：\n\n\u003Cdiv class=\"highlight highlight-source-shell\">\u003Cpre>\n@article{ng2020understanding,\n  title={Understanding Guided Image Captioning Performance across Domains},\n  author={Edwin G. Ng and Bo Pang and Piyush Sharma and Radu Soricut},\n  journal={arXiv preprint arXiv:2012.02339},\n  year={2020}\n}\n\u003C\u002Fpre>\u003C\u002Fdiv>\n\n## 数据集描述\n\n概念字幕数据集发布包含两个划分：训练集（约 330 万个样本）和验证集（约 1.6 万个样本）。更多详情请参见下表 1。\n\n\u003Cp align='center'>表 1：数据集统计信息。\u003C\u002Fp>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Ctd colspan=\"3\">\u003C\u002Ftd>\n    \u003Ctd colspan=\"3\">\u003Ccenter>\u003Cb>每条字幕的词数\u003C\u002Fb>\u003C\u002Fcenter>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003Cb>划分\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>样本数\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>唯一词数\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>平均值\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>标准差\u003C\u002Fb>\u003C\u002Ftd>\n    \u003Ctd>\u003Cb>中位数\u003C\u002Fb>\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>训练集\u003C\u002Ftd>\n    \u003Ctd>3,318,333\u003C\u002Ftd>\n    \u003Ctd>51,201\u003C\u002Ftd>\n    \u003Ctd>10.3\u003C\u002Ftd>\n    \u003Ctd>4.5\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>验证集\u003C\u002Ftd>\n    \u003Ctd>15,840\u003C\u002Ftd>\n    \u003Ctd>10,900\u003C\u002Ftd>\n    \u003Ctd>10.4\u003C\u002Ftd>\n    \u003Ctd>4.7\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr bgcolor=\"#808080\">\n    \u003Ctd>测试集（隐藏）\u003C\u002Ftd>\n    \u003Ctd>12,559\u003C\u002Ftd>\n    \u003Ctd>9,645\u003C\u002Ftd>\n    \u003Ctd>10.2\u003C\u002Ftd>\n    \u003Ctd>4.6\u003C\u002Ftd>\n    \u003Ctd>9.0\u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n## 隐藏测试集\n\n我们并未公开官方测试划分（约 1.25 万个样本）。相反，我们举办了一场竞赛（详见 \u003Chttp:\u002F\u002Fai.google.com\u002Fresearch\u002FConceptualCaptions>），专门用于支持针对该盲测集的模型输出提交与评估。\n\n我们坚信这种设置具有多项优势：a) 可以利用大量无偏见的图像进行评估；b) 使测试完全保持盲测状态，从而消除对测试数据过拟合、作弊等行为的疑虑；c) 总体上提供了一个干净的环境，有助于推动该任务的最先进水平发展，包括报告可复现的研究成果等。\n\n\n## 图像标签\n\n图像标签是通过 Google Cloud Vision API 获取的（\u003Chttps:\u002F\u002Fcloud.google.com\u002Fvision>）。每个图像标签都附有一个机器生成的标识符 (MID)，对应于该标签在 Google 知识图谱中的条目，以及其在图像中出现的置信度分数。这些标签采用相同的模型生成，并以与 T2 引导数据集所发布的图像标签相似的方式呈现，后者可在 https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002FT2-Guiding 上找到。\n\n## 概念字幕数据集的数据格式\n\n概念字幕的训练集和验证集以 TSV（制表符分隔值）文本文件的形式提供，包含以下列：\n\n\u003Cp align='center'>表 2：训练\u002F验证 TSV 文件中的列。\u003C\u002Fp>\n\n| 列   | 描述                                                                      |\n| -------- | -------------------------------------------------------------------------------- |\n| 1        | 字幕。文本已被分词并转为小写。                             |\n| 2        | 图像 URL                                                                        |\n\n## 图像标签的数据格式\n\n训练集中 200 万张图像子集的图像标签以 TSV（制表符分隔值）文本文件的形式提供，包含以下列：\n\n\u003Cp align='center'>表 3：图像标签 TSV 文件中的列。\u003C\u002Fp>\n\n| 列   | 描述                                                                      |\n| -------- | -------------------------------------------------------------------------------- |\n| 1        | 字幕。文本已被分词并转为小写。                             |\n| 2        | 图像 URL                                                                        |\n| 3        | 图像标签。按置信度降序排列的逗号分隔列表。            |\n| 4        | MID。与图像标签列表对应的逗号分隔列表。               |\n| 5        | 置信度分数。与图像标签列表对应的逗号分隔列表。  |\n\n\n## 联系我们\n\n如果您对数据集、代码或论文有任何技术问题，请在此仓库中创建一个问题。这是联系我们最快的方式。\n\n如果您希望分享反馈或提出关切，请发送邮件至 conceptual-captions@google.com。","# Conceptual Captions 快速上手指南\n\nConceptual Captions 是一个包含超过 300 万张图像及其对应自然语言描述的数据集，专为训练和评估自动图像描述（Image Captioning）模型而设计。与人工标注的 MS-COCO 不同，该数据集源自网络图像的 Alt-text 属性，经过自动化清洗和过滤，风格更加多样化。\n\n## 环境准备\n\n本工具主要为数据集资源，无需复杂的软件安装，但需满足以下基础环境要求以进行数据下载和处理：\n\n*   **操作系统**：Linux, macOS 或 Windows (推荐 Linux 环境)\n*   **存储空间**：建议预留至少 50GB 可用空间（用于存储原始图片及处理后的数据）\n*   **前置依赖**：\n    *   Python 3.6+ (用于编写数据加载脚本)\n    *   `wget` 或 `curl` (用于下载数据文件)\n    *   稳定的网络连接（由于数据托管在 Google 服务器，国内用户可能需要配置代理或使用加速工具）\n\n## 安装步骤\n\nConceptual Captions 不提供传统的安装包，其核心是获取数据文件。请按照以下步骤操作：\n\n1.  **访问官方下载页面**\n    前往项目主页获取最新的下载链接和详细说明：\n    \u003Chttp:\u002F\u002Fai.google.com\u002Fresearch\u002FConceptualCaptions>\n\n2.  **下载数据集文件**\n    数据集以 TSV (Tab-Separated Values) 格式提供。假设您已获取到具体的下载链接（通常为 `.tsv.gz` 压缩文件），使用以下命令下载训练集和验证集：\n\n    ```bash\n    # 示例：下载训练集 (请替换为页面提供的实际最新链接)\n    wget \u003CTRAINING_DATA_URL> -O conceptual_captions_train.tsv.gz\n\n    # 示例：下载验证集 (请替换为页面提供的实际最新链接)\n    wget \u003CVALIDATION_DATA_URL> -O conceptual_captions_valid.tsv.gz\n    ```\n\n    > **注意**：若需使用包含机器生成标签的子集（200 万图像），请单独下载对应的 Label 文件。\n\n3.  **解压数据**\n    下载完成后，解压文件以便读取：\n\n    ```bash\n    gunzip conceptual_captions_train.tsv.gz\n    gunzip conceptual_captions_valid.tsv.gz\n    ```\n\n## 基本使用\n\n数据文件格式为 TSV，包含两列（或带标签时为五列）：`Caption`（已分词并小写化的文本）和 `Image URL`。\n\n### 1. 查看数据结构\n您可以直接使用命令行查看前几行数据：\n\n```bash\nhead -n 5 conceptual_captions_train.tsv\n```\n\n输出示例（列之间由制表符分隔）：\n```text\na group of people sitting on a bench\thttp:\u002F\u002Fexample.com\u002Fimage1.jpg\ntwo dogs playing in the snow\thttp:\u002F\u002Fexample.com\u002Fimage2.jpg\n...\n```\n\n### 2. Python 数据加载示例\n以下是最简单的 Python 脚本，用于读取数据集并解析图像链接与标题：\n\n```python\nimport csv\n\ndef load_conceptual_captions(file_path, limit=5):\n    data = []\n    with open(file_path, 'r', encoding='utf-8') as f:\n        reader = csv.reader(f, delimiter='\\t')\n        for i, row in enumerate(reader):\n            if i >= limit:\n                break\n            if len(row) >= 2:\n                caption = row[0]\n                image_url = row[1]\n                data.append({'caption': caption, 'url': image_url})\n                \n                # 如果使用的是带标签的子集，row[2] 为标签列表，row[3] 为 MIDs，row[4] 为置信度\n                if len(row) > 2:\n                    data[-1]['labels'] = row[2].split(',')\n                    \n    return data\n\n# 使用示例\ndataset = load_conceptual_captions('conceptual_captions_train.tsv')\n\nfor item in dataset:\n    print(f\"Caption: {item['caption']}\")\n    print(f\"Image URL: {item['url']}\")\n    if 'labels' in item:\n        print(f\"Top Label: {item['labels'][0]}\")\n    print(\"-\" * 30)\n```\n\n### 3. 关于测试集\n官方未公开测试集（Test Split）的具体数据，而是通过举办竞赛的方式，在盲测集上评估模型性能。如需参与评估，请访问官方竞赛页面提交结果。\n\n### 引用说明\n如果您在研究或工作中使用了此数据集或其图像标签，请务必引用以下论文：\n\n*   **数据集**: Sharma et al., \"Conceptual Captions: A Cleaned, Hypernymed, Image Alt-text Dataset For Automatic Image Captioning\", ACL 2018.\n*   **图像标签**: Ng et al., \"Understanding Guided Image Captioning Performance across Domains\", arXiv 2020.","某电商初创公司的算法团队正致力于开发一款能自动为海量商品图生成营销文案的 AI 系统，以替代昂贵的人工标注流程。\n\n### 没有 conceptual-captions 时\n- **数据规模受限**：团队只能依赖 MS-COCO 等经典数据集，仅 12 万张图片的体量难以支撑深度学习大模型的训练，导致生成的文案泛化能力差。\n- **场景覆盖单一**：现有数据多为精心策划的生活场景，缺乏电商常见的白底图、复杂背景或特定构图，模型遇到真实商品图时往往“失语”。\n- **标注成本高昂**：若自行扩充数据，需雇佣大量人员进行“看图写话”，不仅耗资巨大，且人工描述风格统一，缺乏自然语言的多样性。\n- **长尾词汇缺失**：小规模数据集包含的独特词汇有限，模型无法准确识别并描述冷门商品属性或新兴网络用语。\n\n### 使用 conceptual-captions 后\n- **数据量级飞跃**：直接利用其 330 万对图像 - 文本数据进行预训练，模型迅速掌握了丰富的视觉 - 语言映射关系，基础理解能力显著提升。\n- **风格高度适配**：得益于从网页 Alt-text 清洗而来的数据，涵盖了各种随意、真实的网络图片风格，模型能更好地处理电商场景中千奇百怪的商品实拍图。\n- **零成本获取多样表达**：无需额外标注费用，即可获取经过自动化管道清洗、兼具流畅性与信息量的自然语言描述，大幅降低了研发门槛。\n- **词汇库极大丰富**：海量的唯一令牌（Unique Tokens）让模型学会了更精准的形容词和名词组合，生成的营销文案更加生动且符合互联网语境。\n\nconceptual-captions 通过提供大规模、多样化且低成本的网页级图文数据，彻底解决了图像描述任务中数据匮乏与场景单一的瓶颈，让中小团队也能训练出工业级的智能文案生成模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research-datasets_conceptual-captions_18444310.png","google-research-datasets","Google Research Datasets","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-research-datasets_af261fb1.png","Datasets released by Google Research",null,"research.google","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets",[22,26,30],{"name":23,"color":24,"percentage":25},"Shell","#89e051",53.8,{"name":27,"color":28,"percentage":29},"Python","#3572A5",40.4,{"name":31,"color":32,"percentage":33},"Dockerfile","#384d54",5.8,563,26,"2026-04-06T19:53:07","NOASSERTION",2,"","未说明",{"notes":42,"python":40,"dependencies":43},"该项目主要是一个数据集（Conceptual Captions Dataset），而非直接可运行的 AI 模型代码库。README 中未提供具体的软件运行环境、依赖库或硬件需求。数据以 TSV 格式提供，包含图像 URL 和标题，用户需自行编写代码下载图像并构建训练流程。部分图像标签是通过 Google Cloud Vision API 生成的。",[],[45,46,47],"图像","数据工具","其他","ready","2026-03-27T02:49:30.150509","2026-04-20T04:05:07.137563",[52,57,62,67,72,77,82,87],{"id":53,"question_zh":54,"answer_zh":55,"source_url":56},43616,"为什么无法下载数据集，点击下载按钮没有反应？","如果直接点击下载按钮无效，请尝试右键点击下载链接，然后选择“另存为”（Save link as）来保存文件。此外，如果是权限错误（如访问被拒绝），通常维护者会在收到反馈后修复权限问题，请稍后重试。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F13",{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},43617,"数据集中包含大量无效或无法读取的图片链接，这是正常现象吗？","是的，这是正常现象。由于数据集是基于网络爬取的，许多原始 URL 可能已失效或图片无法读取。用户反馈显示，即使使用脚本批量下载，通常也只能成功获取约 20% 到 63 万张图片（总目标约为 330 万）。建议在使用前编写脚本过滤掉无法加载的链接。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F5",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},43618,"是否提供去除了专有名词（如人名、地名）之前的原始数据集版本？","不提供。原始的 Alt-text（替代文本）数据并未发布，目前公开的数据集已经是经过清洗的版本，其中移除了专有名词。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F11",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},43619,"是否会发布论文中使用的预训练模型（如 RNN 或 Transformer 模型）？","不会发布。维护者明确表示，论文中提到的预训练模型目前没有公开计划。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F3",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},43620,"是否会发布用于生成标题的代码或原始的 Alt-text 数据？","不会发布。维护者确认没有发布原始 Alt-text 数据或用于生成标题的代码的计划。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F6",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},43621,"能否获取 Flickr1K 测试集上的模型输出数据用于评估新指标？","目前无法发布 Flickr1K 测试集上单个标题的评分数据。Conceptual Captions 的测试集是隐藏的，因此也无法发布该集合上的模型输出。不过，维护者曾计划在特定时间（如 CVPR 研讨会期间）发布另一组 1K 测试图像的模型输出及对应的人工评判数据，请关注相关挑战赛页面获取最新信息。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F7",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},43622,"如何获取特定主题（如野生动物）的图片子集？","数据集中没有单独划分的特定主题子集。建议您自行从训练集中筛选，提取那些标题（caption）中包含您感兴趣关键词（例如动物名称）的样本作为子集使用。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F4",{"id":88,"question_zh":89,"answer_zh":90,"source_url":91},43623,"下载验证集时出现“访问被拒绝”（Access denied）错误怎么办？","这通常是由于存储权限配置临时问题导致的。维护者在收到此类报告后通常会修复权限。如果遇到此错误，请稍后再试，或者查看 Issue 评论区确认维护者是否已声明修复完成。","https:\u002F\u002Fgithub.com\u002Fgoogle-research-datasets\u002Fconceptual-captions\u002Fissues\u002F2",[],[94,105,113,121,130,139],{"id":95,"name":96,"github_repo":97,"description_zh":98,"stars":99,"difficulty_score":100,"last_commit_at":101,"category_tags":102,"status":48},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[103,104,45,46],"Agent","开发框架",{"id":106,"name":107,"github_repo":108,"description_zh":109,"stars":110,"difficulty_score":100,"last_commit_at":111,"category_tags":112,"status":48},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[104,45,103],{"id":114,"name":115,"github_repo":116,"description_zh":117,"stars":118,"difficulty_score":38,"last_commit_at":119,"category_tags":120,"status":48},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[104,45,103],{"id":122,"name":123,"github_repo":124,"description_zh":125,"stars":126,"difficulty_score":38,"last_commit_at":127,"category_tags":128,"status":48},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[129,103,45,104],"插件",{"id":131,"name":132,"github_repo":133,"description_zh":134,"stars":135,"difficulty_score":100,"last_commit_at":136,"category_tags":137,"status":48},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[138,45,103,104],"语言模型",{"id":140,"name":141,"github_repo":142,"description_zh":143,"stars":144,"difficulty_score":100,"last_commit_at":145,"category_tags":146,"status":48},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[104,45,103,147],"视频"]