[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-facebookresearch--co3d":3,"tool-facebookresearch--co3d":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":106,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":107,"updated_at":108,"faqs":109,"releases":145},1675,"facebookresearch\u002Fco3d","co3d","Tooling for the Common Objects In 3D dataset.","co3d 是一套专为\"3D 常见物体数据集（CO3Dv2）”设计的开源工具库，旨在帮助开发者高效处理、加载和评估大规模真实世界物体的 3D 重建数据。它解决了以往 3D 数据集在视频解码伪影、前景物体分割不稳定以及下载管理困难等方面的痛点，提供了更高质量的视频帧、更精准的稳定跟踪掩码，以及支持断点续传的分块下载机制。\n\n这套工具特别适合从事计算机视觉、3D 重建和新视角合成研究的科研人员与算法工程师。通过内置的 Python 脚本，用户可以轻松自动化下载高达 5.5TB 的全量数据，或仅获取 8.9GB 的精简子集用于快速验证。co3d 还引入了全新的用户友好型数据格式，确保序列内图像尺寸统一，并原生支持基于 PyTorch3D 的深度学习流程。其独特亮点包括配套的\"3D 常见物体挑战赛”，允许用户在隐藏测试集上进行透明公正的模型评估，推动了社区在单序列多视角任务上的技术演进。无论是进行基础数据探索还是训练前沿重建模型，co3d 都能提供稳定可靠的基础设施支持。","\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_baeabc086c7c.png\" width=\"400\" \u002F>\n\u003C\u002Fcenter>\n\n\u003Cbr>\n\nCO3Dv2: Common Objects In 3D (version 2) \n========================================\n\nThis repository contains a set of tools for working with the \u003Cb>2nd version\u003C\u002Fb> of the Common Objects in 3D \u003Ci>(CO3Dv2)\u003C\u002Fi> dataset.\n\nThe original dataset has been introduced in our ICCV'21 paper: [Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life 3D Category Reconstruction](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.00512). For accessing the original data, please switch to the `v1` branch of this repository.\n\n\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_c31b6d2ef7a3.gif\" width=\"800\" \u002F>\n\u003C\u002Fcenter>\n\n\n## New features in CO3Dv2\n- \u003Cb>[Common Objects in 3D Challenge](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1819\u002Foverview) which allows transparent evaluation on a hidden test server - more details in the [challenge README](.\u002Fco3d\u002Fchallenge\u002FREADME.md) \u003C\u002Fb>\n- 2x larger number of sequences, and 4x larger number of frames\n- Improved image quality - less blocky artifacts due to better video decoding\n- Improved segmentation masks - stable tracking of the main foreground object without jumping to background objects\n- Enabled downloading of a smaller single-sequence subset of ~100 sequences consisting only of the sequences used to evalute the many-view single-sequence task\n- Dataset files are hosted in 20 GB chunks facilitating more stable downloads\n- A novel, more user-friendly, dataset format\n- All images within a sequence are cropped to the same height x width\n\n\n## Download the dataset\nThe links to all dataset files are present in this repository in `dataset\u002Flinks.json`.\n\n\n### Automatic batch-download\nWe also provide a python script that allows downloading all dataset files at once.\nIn order to do so, execute the download script:\n\n```\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder DOWNLOAD_FOLDER\n```\n\nwhere `DOWNLOAD_FOLDER` is a local target folder for downloading the dataset files.\nMake sure to create this folder before commencing the download.\n\n\u003Cb>Size:\u003C\u002Fb> All zip files of the dataset occupy \u003Cb>5.5 TB of disk-space\u003C\u002Fb>.\n\n\n### Single-sequence dataset subset\nWe also provide a subset of the dataset consisting only of the sequences selected for the many-view single-sequence task where both training and evaluation are commonly conducted on a single image sequence. In order to download this subset add the\n`--single_sequence_subset` option to `download_dataset.py`:\n    \n```\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder DOWNLOAD_FOLDER --single_sequence_subset\n```\n\n\u003Cb>Size:\u003C\u002Fb> The single-sequence subset is much smaller than the full dataset and takes \u003Cb>8.9 GB of disk-space\u003C\u002Fb>.\n\n\n# Common Objects in 3D Challenge\n\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_ff931c625132.png\" width=\"400\" \u002F>\n\u003C\u002Fcenter>\nTogether with releasing v2 of the dataset, we also organize the Common Objects in 3D Challenge hosted on EvalAI.\nPlease visit the [challenge website](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1819\u002Foverview) and [challenge README](.\u002Fco3d\u002Fchallenge\u002FREADME.md) for the more information.\n\n\n# Installation\nThis is a `Python 3` \u002F `PyTorch` codebase.\n1) [Install `PyTorch`.](https:\u002F\u002Fpytorch.org\u002F)\n2) [Install `PyTorch3D`.](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Fblob\u002Fmain\u002FINSTALL.md#2-install-from-a-local-clone)\n    - \u003Cb>Please note that Pytorch3D has to be built from source to enable the Implicitron module\u003C\u002Fb>\n3) Install the remaining dependencies in `requirements.txt`:\n```\npip install visdom tqdm requests h5py \n```\n4) Install the CO3D package itself: `pip install -e .`\n\n\n##  Dependencies\n- [`PyTorch`](https:\u002F\u002Fpytorch.org\u002F)\n- [`PyTorch3D`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Fblob\u002Fmain\u002FINSTALL.md#2-install-from-a-local-clone) (built from source)\n- [`tqdm`](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftqdm\u002F)\n- [`visdom`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom)\n- [`requests`](https:\u002F\u002Fdocs.python-requests.org\u002Fen\u002Fmaster\u002F)\n- ['h5py'](http:\u002F\u002Fwww.h5py.org\u002F)\n\nNote that the core data model in `co3d\u002Fdataset\u002Fdata_types.py` is independent of `PyTorch`\u002F`PyTorch3D` and can be imported and used with other machine-learning frameworks.\n\n\n# Getting started\n1. Install dependencies - See [Installation](#installation) above.\n2. Download the dataset [here] to a given root folder `CO3DV2_DATASET_ROOT`.\n3. Set the environment variable `CO3DV2_DATASET_ROOT` to the dataset root:\n    ```bash\n    export CO3DV2_DATASET_ROOT=\"your_dataset_root_folder\"\n    ```\n4. Run `example_co3d_challenge_submission.py`:\n    ```\n    cd examples\n    python example_co3d_challenge_submission.py\n    ```\n    Note that `example_co3d_challenge_submission.py` runs an evaluation of a simple depth-based image rendering (DBIR) model on all challenges and sets of the CO3D Challenge. Feel free to extend the script in order to provide your own submission to the CO3D Challenge.\n\n\n# Running tests\nUnit tests can be executed with:\n```\npython -m unittest\n```\n\n\n# Reproducing results\n[Implicitron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Ftree\u002Fmain\u002Fprojects\u002Fimplicitron_trainer) is our open-source framework used to train all implicit shape learning methods from the CO3D paper.\nPlease visit the following link for more details:\nhttps:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Ftree\u002Fmain\u002Fprojects\u002Fimplicitron_trainer\n\n\n# Dataset format\nThe dataset is organized in the filesystem as follows:\n\n```\nCO3DV2_DATASET_ROOT\n    ├── \u003Ccategory_0>\n    │   ├── \u003Csequence_name_0>\n    │   │   ├── depth_masks\n    │   │   ├── depths\n    │   │   ├── images\n    │   │   ├── masks\n    │   │   └── pointcloud.ply\n    │   ├── \u003Csequence_name_1>\n    │   │   ├── depth_masks\n    │   │   ├── depths\n    │   │   ├── images\n    │   │   ├── masks\n    │   │   └── pointcloud.ply\n    │   ├── ...\n    │   ├── \u003Csequence_name_N>\n    │   ├── set_lists\n    │       ├── set_lists_\u003Csubset_name_0>.json\n    │       ├── set_lists_\u003Csubset_name_1>.json\n    │       ├── ...\n    │       ├── set_lists_\u003Csubset_name_M>.json\n    │   ├── eval_batches\n    │   │   ├── eval_batches_\u003Csubset_name_0>.json\n    │   │   ├── eval_batches_\u003Csubset_name_1>.json\n    │   │   ├── ...\n    │   │   ├── eval_batches_\u003Csubset_name_M>.json\n    │   ├── frame_annotations.jgz\n    │   ├── sequence_annotations.jgz\n    ├── \u003Ccategory_1>\n    ├── ...\n    ├── \u003Ccategory_K>\n```\n\nThe dataset contains sequences named `\u003Csequence_name_i>` from `K` categories with\nnames `\u003Ccategory_j>`. Each category comprises sequence folders `\u003Ccategory_k>\u002F\u003Csequence_name_i>` containing the list of sequence images, depth maps, foreground masks, and valid-depth masks `images`, `depths`, `masks`, and `depth_masks` respectively. Furthermore, `\u003Ccategory_k>\u002F\u003Csequence_name_i>\u002Fset_lists\u002F` stores `M` json files `set_lists_\u003Csubset_name_l>.json`, each describing a certain sequence subset.\n\nUsers specify the loaded dataset subset by setting `self.subset_name` to one of the\navailable subset names `\u003Csubset_name_l>`.\n\n`frame_annotations.jgz` and `sequence_annotations.jgz` are gzipped json files containing the list of all frames and sequences of the given category stored as lists of `FrameAnnotation` and `SequenceAnnotation` objects respectivelly.\n\n\n## Set lists\n\nEach `set_lists_\u003Csubset_name_l>.json` file contains the following dictionary:   \n```\n{\n    \"train\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    \"val\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    \"test\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n}\n```\ndefining the list of frames (identified with their `sequence_name` and `frame_number`) in the \"train\", \"val\", and \"test\" subsets of the dataset.\n\n\u003Ci>Note that `frame_number` can be obtained only from `frame_annotations.jgz` and does not necesarrily correspond to the numeric suffix of the corresponding image file name (e.g. a file `\u003Ccategory_0>\u002F\u003Csequence_name_0>\u002Fimages\u002Fframe00005.jpg` can have its frame number set to 20, not 5).\u003C\u002Fi>\n\n\n### Available subset names in CO3Dv2\n\nIn CO3DV2, by default, each category contains a _subset_ of the following set lists:\n```\n\"set_lists_fewview_test.json\"  # Few-view task on the \"test\" sequence set.\n\"set_lists_fewview_dev.json\"  # Few-view task on the \"dev\" sequence set.\n\"set_lists_manyview_test.json\"  # Many-view task on the \"test\" sequence of a category.\n\"set_lists_manyview_dev_0.json\"  # Many-view task on the 1st \"dev\" sequence of a category.\n\"set_lists_manyview_dev_1.json\"  # Many-view task on the 2nd \"dev\" sequence of a category.\n```\n\n## Eval batches\n\nEach `eval_batches_\u003Csubset_name_l>.json` file contains a list of evaluation examples in the following form:\n```\n[\n    [  # batch 1\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    [  # batch 1\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n]\n```\nNote that the evaluation examples always come from the `\"test\"` part of the corresponding set list `set_lists_\u003Csubset_name_l>.json`.\n\n\u003Cb>The evaluation task\u003C\u002Fb> then consists of generating the first image in each batch given the knowledge of the other ones. Hence, the first image in each batch represents the (unseen) target frame, for which only the camera parameters are known, while the rest of the images in the batch are the known source frames whose cameras and colors are given.\n\nNote that for the Many-view task, where a user is given many known views of a particular sequence and the goal is to generate held-out views from the same sequence, `eval_batches_manyview_\u003Csequence_set>_\u003Csequence_id>.json` contain a single (target) frame per evaluation batch. Users can obtain the known views from the corresponding `\"train\"` list of frames in the set list `set_lists_manyview_\u003Csequence_set>_\u003Csequence_id>.json`.\n\n\n# PyTorch-independent usage\nThe core data model in `co3d\u002Fdataset\u002Fdata_types.py` is independent of `PyTorch`\u002F`PyTorch3D` and can be imported and used with other machine-learning frameworks.\n\nFor example, in order to load the per-category frame and sequence annotations users can execute the following code:\n```python\nfrom typing import List\nfrom co3d.dataset.data_types import (\n    load_dataclass_jgzip, FrameAnnotation, SequenceAnnotation\n)\ncategory_frame_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fframe_annotations.jgz\", List[FrameAnnotation]\n)\ncategory_sequence_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fsequence_annotations.jgz\", List[SequenceAnnotation]\n)\n```\n\nFurthermore, all challenge-related code under `co3d\u002Fchallenge` also does not depend on `PyTorch`.\n\n\n# Reference\nIf you use our dataset, please use the following citation:\n```\n@inproceedings{reizenstein21co3d,\n\tAuthor = {Reizenstein, Jeremy and Shapovalov, Roman and Henzler, Philipp and Sbordone, Luca and Labatut, Patrick and Novotny, David},\n\tBooktitle = {International Conference on Computer Vision},\n\tTitle = {Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life 3D Category Reconstruction},\n\tYear = {2021},\n}\n```\n\n\n# License\nThe CO3D codebase is released under the [CC BY-NC 4.0](LICENSE).\n\n\n# Overview video\nThe following presentation of the dataset was delivered at the Extreme Vision Workshop at CVPR 2021:\n[![Overview](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_9a076a692b03.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=hMx9nzG50xQ)\n","\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_baeabc086c7c.png\" width=\"400\" \u002F>\n\u003C\u002Fcenter>\n\n\u003Cbr>\n\nCO3Dv2：三维中的常见物体（版本2）\n========================================\n\n本仓库包含一套用于处理\u003Cem>三维中的常见物体\u003C\u002Fem>数据集\u003Cb>第2版\u003C\u002Fb>\u003Ci>(CO3Dv2)\u003C\u002Fi>的工具。\n\n原始数据集已在我们的ICCV'21论文中介绍：[三维中的常见物体：大规模的真实世界3D类别重建学习与评估](https:\u002F\u002Farxiv.org\u002Fabs\u002F2109.00512)。如需访问原始数据，请切换到本仓库的`v1`分支。\n\n\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_c31b6d2ef7a3.gif\" width=\"800\" \u002F>\n\u003C\u002Fcenter>\n\n\n## CO3Dv2的新特性\n- \u003Cb>[三维中的常见物体挑战赛](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1819\u002Foverview)，可在隐藏的测试服务器上进行透明评估——更多详情请参阅[挑战赛README](.\u002Fco3d\u002Fchallenge\u002FREADME.md)\u003C\u002Fb>\n- 序列数量增加至原来的2倍，帧数增加至原来的4倍\n- 图像质量提升——由于更好的视频解码，块状伪影更少\n- 分割掩码改进——主前景物体跟踪更加稳定，不会误跳到背景物体上\n- 支持下载一个较小的单序列子集，约100个序列，仅包含用于多视角单序列任务评估的序列\n- 数据集文件以20 GB为单位分块存储，便于更稳定的下载\n- 采用全新、更友好的数据集格式\n- 同一序列内的所有图像均裁剪为相同的高度×宽度\n\n\n## 下载数据集\n本仓库的`dataset\u002Flinks.json`文件中包含了所有数据集文件的下载链接。\n\n\n### 自动批量下载\n我们还提供了一个Python脚本，可一次性下载所有数据集文件。执行以下命令即可开始下载：\n\n```\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder DOWNLOAD_FOLDER\n```\n\n其中`DOWNLOAD_FOLDER`是用于存放下载数据集文件的本地目标文件夹。请务必在开始下载前创建该文件夹。\n\n\u003Cb>大小：\u003C\u002Fb>数据集的所有压缩文件共占用\u003Cb>5.5 TB磁盘空间\u003C\u002Fb>。\n\n\n### 单序列数据集子集\n我们还提供一个仅包含多视角单序列任务所选序列的数据集子集，该任务通常在单个图像序列上同时进行训练和评估。要下载此子集，请在`download_dataset.py`中添加`--single_sequence_subset`选项：\n\n```\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder DOWNLOAD_FOLDER --single_sequence_subset\n```\n\n\u003Cb>大小：\u003C\u002Fb>单序列子集远小于完整数据集，仅占用\u003Cb>8.9 GB磁盘空间\u003C\u002Fb>。\n\n\n# 三维中的常见物体挑战赛\n\u003Ccenter>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_ff931c625132.png\" width=\"400\" \u002F>\n\u003C\u002Fcenter>\n随着数据集v2版本的发布，我们也在EvalAI平台上组织了三维中的常见物体挑战赛。更多信息请访问[挑战赛官网](https:\u002F\u002Feval.ai\u002Fweb\u002Fchallenges\u002Fchallenge-page\u002F1819\u002Foverview)和[挑战赛README](.\u002Fco3d\u002Fchallenge\u002FREADME.md)。\n\n\n# 安装\n本项目基于`Python 3`和`PyTorch`。\n1) [安装PyTorch。](https:\u002F\u002Fpytorch.org\u002F)\n2) [安装PyTorch3D。](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Fblob\u002Fmain\u002FINSTALL.md#2-install-from-a-local-clone)\n    - \u003Cb>请注意，必须从源代码构建PyTorch3D才能启用Implicitron模块\u003C\u002Fb>\n3) 安装`requirements.txt`中的其余依赖项：\n```\npip install visdom tqdm requests h5py \n```\n4) 安装CO3D包本身：`pip install -e .`\n\n\n## 依赖项\n- [`PyTorch`](https:\u002F\u002Fpytorch.org\u002F)\n- [`PyTorch3D`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Fblob\u002Fmain\u002FINSTALL.md#2-install-from-a-local-clone)（需从源代码构建）\n- [`tqdm`](https:\u002F\u002Fpypi.org\u002Fproject\u002Ftqdm\u002F)\n- [`visdom`](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fvisdom)\n- [`requests`](https:\u002F\u002Fdocs.python-requests.org\u002Fen\u002Fmaster\u002F)\n- [`h5py`](http:\u002F\u002Fwww.h5py.org\u002F)\n\n需要注意的是，`co3d\u002Fdataset\u002Fdata_types.py`中的核心数据模型独立于`PyTorch`\u002F`PyTorch3D`，可以被其他机器学习框架导入并使用。\n\n\n# 开始使用\n1. 安装依赖项——请参阅上方的[安装说明]。\n2. 在指定根目录`CO3DV2_DATASET_ROOT`中下载数据集[此处]。\n3. 设置环境变量`CO3DV2_DATASET_ROOT`指向数据集根目录：\n    ```bash\n    export CO3DV2_DATASET_ROOT=\"your_dataset_root_folder\"\n    ```\n4. 运行`example_co3d_challenge_submission.py`：\n    ```\n    cd examples\n    python example_co3d_challenge_submission.py\n    ```\n    请注意，`example_co3d_challenge_submission.py`会针对CO3D挑战赛的所有任务和数据集运行一个简单的基于深度的图像渲染（DBIR）模型的评估。您可以自由扩展该脚本，以提交您自己的CO3D挑战赛参赛作品。\n\n\n# 运行测试\n单元测试可以通过以下命令执行：\n```\npython -m unittest\n```\n\n\n# 复现结果\n[Implicitron](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Ftree\u002Fmain\u002Fprojects\u002Fimplicitron_trainer)是我们开源的框架，用于训练CO3D论文中提出的所有隐式形状学习方法。\n更多详情请访问以下链接：\nhttps:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Ftree\u002Fmain\u002Fprojects\u002Fimplicitron_trainer\n\n# 数据集格式\n数据集在文件系统中的组织结构如下：\n\n```\nCO3DV2_DATASET_ROOT\n    ├── \u003Ccategory_0>\n    │   ├── \u003Csequence_name_0>\n    │   │   ├── depth_masks\n    │   │   ├── depths\n    │   │   ├── images\n    │   │   ├── masks\n    │   │   └── pointcloud.ply\n    │   ├── \u003Csequence_name_1>\n    │   │   ├── depth_masks\n    │   │   ├── depths\n    │   │   ├── images\n    │   │   ├── masks\n    │   │   └── pointcloud.ply\n    │   ├── ...\n    │   ├── \u003Csequence_name_N>\n    │   ├── set_lists\n    │       ├── set_lists_\u003Csubset_name_0>.json\n    │       ├── set_lists_\u003Csubset_name_1>.json\n    │       ├── ...\n    │       ├── set_lists_\u003Csubset_name_M>.json\n    │   ├── eval_batches\n    │   │   ├── eval_batches_\u003Csubset_name_0>.json\n    │   │   ├── eval_batches_\u003Csubset_name_1>.json\n    │   │   ├── ...\n    │   │   ├── eval_batches_\u003Csubset_name_M>.json\n    │   ├── frame_annotations.jgz\n    │   ├── sequence_annotations.jgz\n    ├── \u003Ccategory_1>\n    ├── ...\n    ├── \u003Ccategory_K>\n```\n\n该数据集包含来自 `K` 个类别的序列，每个类别下有若干序列文件夹 `\u003Ccategory_k>\u002F\u003Csequence_name_i>`，其中分别存放了序列的图像、深度图、前景掩码和有效深度掩码，即 `images`、`depths`、`masks` 和 `depth_masks`。此外，`\u003Ccategory_k>\u002F\u003Csequence_name_i>\u002Fset_lists\u002F` 目录下存储了 `M` 个 JSON 文件 `set_lists_\u003Csubset_name_l>.json`，每个文件描述了一个特定的序列子集。\n\n用户可以通过将 `self.subset_name` 设置为可用的子集名称 `\u003Csubset_name_l>` 来指定加载的数据集子集。\n\n`frame_annotations.jgz` 和 `sequence_annotations.jgz` 是压缩的 JSON 文件，分别包含了给定类别中所有帧和序列的列表，以 `FrameAnnotation` 和 `SequenceAnnotation` 对象的形式存储。\n\n## 子集列表\n\n每个 `set_lists_\u003Csubset_name_l>.json` 文件包含以下字典：\n```\n{\n    \"train\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    \"val\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    \"test\": [\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n}\n```\n定义了数据集中“train”、“val”和“test”子集中各帧的列表（通过 `sequence_name` 和 `frame_number` 标识）。\n\n\u003Ci>请注意，`frame_number` 只能从 `frame_annotations.jgz` 中获取，并不一定与对应图像文件名中的数字后缀一致（例如，文件 `\u003Ccategory_0>\u002F\u003Csequence_name_0>\u002Fimages\u002Fframe00005.jpg` 的帧编号可能是 20，而不是 5）。\u003C\u002Fi>\n\n### CO3Dv2 中可用的子集名称\n\n在 CO3DV2 中，默认情况下，每个类别都包含以下子集列表：\n```\n\"set_lists_fewview_test.json\"  # 在“test”序列集上进行少视角任务。\n\"set_lists_fewview_dev.json\"  # 在“dev”序列集上进行少视角任务。\n\"set_lists_manyview_test.json\"  # 在某个类别的“test”序列上进行多视角任务。\n\"set_lists_manyview_dev_0.json\"  # 在某个类别的第 1 个“dev”序列上进行多视角任务。\n\"set_lists_manyview_dev_1.json\"  # 在某个类别的第 2 个“dev”序列上进行多视角任务。\n```\n\n## 评估批次\n\n每个 `eval_batches_\u003Csubset_name_l>.json` 文件包含以下形式的评估示例列表：\n```\n[\n    [  # 批次 1\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n    [  # 批次 2\n        (sequence_name: str, frame_number: int, image_path: str),\n        ...\n    ],\n]\n```\n\n请注意，评估示例始终来自对应的子集列表 `set_lists_\u003Csubset_name_l>.json` 中的“test”部分。\n\n\u003Cb>评估任务\u003C\u002Fb>是根据已知的其他图像生成每个批次中的第一张图像。因此，每个批次中的第一张图像代表未见的目标帧，仅已知其相机参数；而批次中的其余图像则是已知的源帧，其相机和颜色均已给出。\n\n对于多视角任务，当用户被提供某一序列的多个已知视图并需要生成该序列中未提供的视图时，`eval_batches_manyview_\u003Csequence_set>_\u003Csequence_id>.json` 文件中的每个评估批次只包含一张目标帧。用户可以从子集列表 `set_lists_manyview_\u003Csequence_set>_\u003Csequence_id>.json` 中对应的“train”帧列表中获取这些已知视图。\n\n# 不依赖 PyTorch 的使用方式\n`co3d\u002Fdataset\u002Fdata_types.py` 中的核心数据模型独立于 `PyTorch`\u002F`PyTorch3D`，可以导入并在其他机器学习框架中使用。\n\n例如，要加载每个类别的帧和序列标注，可以执行以下代码：\n```python\nfrom typing import List\nfrom co3d.dataset.data_types import (\n    load_dataclass_jgzip, FrameAnnotation, SequenceAnnotation\n)\ncategory_frame_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fframe_annotations.jgz\", List[FrameAnnotation]\n)\ncategory_sequence_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fsequence_annotations.jgz\", List[SequenceAnnotation]\n)\n```\n\n此外，`co3d\u002Fchallenge` 下的所有挑战相关代码也不依赖于 `PyTorch`。\n\n# 参考文献\n如果您使用我们的数据集，请引用以下文献：\n```\n@inproceedings{reizenstein21co3d,\n\tAuthor = {Reizenstein, Jeremy and Shapovalov, Roman and Henzler, Philipp and Sbordone, Luca and Labatut, Patrick and Novotny, David},\n\tBooktitle = {International Conference on Computer Vision},\n\tTitle = {Common Objects in 3D: Large-Scale Learning and Evaluation of Real-life 3D Category Reconstruction},\n\tYear = {2021},\n}\n```\n\n\n# 许可证\nCO3D 代码库采用 [CC BY-NC 4.0](LICENSE) 许可证发布。\n\n# 概览视频\n以下是在 CVPR 2021 极端视觉研讨会中展示的数据集介绍：\n[![概览](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_readme_9a076a692b03.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=hMx9nzG50xQ)","# CO3Dv2 快速上手指南\n\nCO3Dv2 (Common Objects in 3D version 2) 是一个用于真实世界 3D 物体重建的大规模数据集及配套工具库。本指南帮助开发者快速搭建环境并运行基础示例。\n\n## 环境准备\n\n本项目基于 `Python 3` 和 `PyTorch` 构建。\n\n### 系统要求\n- **操作系统**: Linux (推荐) 或 macOS\n- **磁盘空间**: \n  - 完整数据集约需 **5.5 TB**\n  - 单序列子集（适合快速测试）约需 **8.9 GB**\n- **GPU**: 推荐具备 CUDA 支持的 NVIDIA GPU（用于运行深度学习模型）\n\n### 前置依赖\n在开始之前，请确保已安装以下核心依赖：\n1. **PyTorch**: 请访问 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 根据你的环境安装。\n   > *国内用户建议使用清华或中科大镜像源加速安装。*\n2. **PyTorch3D**: 必须从源码编译安装以启用 Implicitron 模块。\n   - 安装说明参考：[PyTorch3D Installation](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fpytorch3d\u002Fblob\u002Fmain\u002FINSTALL.md#2-install-from-a-local-clone)\n3. **其他 Python 库**: `visdom`, `tqdm`, `requests`, `h5py`\n\n## 安装步骤\n\n请按顺序执行以下命令完成环境配置：\n\n1. **安装剩余依赖包**\n   ```bash\n   pip install visdom tqdm requests h5py\n   ```\n   > *国内用户可使用国内镜像源加速：*\n   > `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple visdom tqdm requests h5py`\n\n2. **安装 CO3D 工具包**\n   克隆本仓库后，在项目根目录下执行：\n   ```bash\n   pip install -e .\n   ```\n\n## 基本使用\n\n### 1. 下载数据集\n数据集链接存储在 `dataset\u002Flinks.json` 中。你可以选择下载完整数据集或较小的单序列子集。\n\n**下载单序列子集（推荐用于快速验证，仅需 8.9 GB）：**\n```bash\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder YOUR_DATASET_PATH --single_sequence_subset\n```\n\n**下载完整数据集（需 5.5 TB）：**\n```bash\npython .\u002Fco3d\u002Fdownload_dataset.py --download_folder YOUR_DATASET_PATH\n```\n*请将 `YOUR_DATASET_PATH` 替换为你本地的目标文件夹路径，并确保该文件夹已创建。*\n\n### 2. 配置环境变量\n下载完成后，设置数据集根目录的环境变量：\n```bash\nexport CO3DV2_DATASET_ROOT=\"YOUR_DATASET_PATH\"\n```\n\n### 3. 运行示例代码\n进入 `examples` 目录并运行挑战提交示例脚本。该脚本会在 CO3D Challenge 的所有任务上评估一个简单的基于深度的图像渲染 (DBIR) 模型：\n\n```bash\ncd examples\npython example_co3d_challenge_submission.py\n```\n\n### 4. 独立加载数据（非 PyTorch 环境）\n如果你仅需要读取数据标注而不依赖 PyTorch，可以使用核心数据模型：\n\n```python\nfrom typing import List\nfrom co3d.dataset.data_types import (\n    load_dataclass_jgzip, FrameAnnotation, SequenceAnnotation\n)\n\n# 替换 category_name 为具体类别，如 'teddybear'\ncategory_frame_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fframe_annotations.jgz\", List[FrameAnnotation]\n)\ncategory_sequence_annotations = load_dataclass_jgzip(\n    f\"{CO3DV2_DATASET_ROOT}\u002F{category_name}\u002Fsequence_annotations.jgz\", List[SequenceAnnotation]\n)\n```","某计算机视觉团队正在研发一款基于单张商品图片生成高质量 3D 模型的电商应用，需要利用大规模真实世界数据来训练和评估其重建算法。\n\n### 没有 co3d 时\n- **数据获取极其困难**：面对高达 5.5TB 的原始数据集，缺乏分块下载和自动批处理脚本，下载过程极易中断且难以管理。\n- **预处理耗时巨大**：原始视频存在解码伪影，分割掩码不稳定（容易跳变到背景），工程师需花费数周编写代码清洗数据和对齐图像尺寸。\n- **评估标准不统一**：缺乏官方的隐藏测试服务器和标准化挑战框架，团队只能在本地构建有偏差的测试集，导致模型泛化能力无法被客观验证。\n- **存储资源浪费**：无法灵活选择数据子集，即使只需验证“多视图单序列”任务，也不得不下载全量数据，占用大量昂贵的存储空间。\n\n### 使用 co3d 后\n- **下载高效稳定**：利用 co3d 提供的自动批下载脚本及 20GB 分块文件机制，团队轻松完成了数据拉取，并可通过参数直接获取仅 8.9GB 的单序列子集。\n- **数据开箱即用**：co3d v2 版本已预先修复了视频解码块状伪影，提供了稳定的前景物体分割掩码，且序列内图片尺寸统一，省去了繁琐的清洗步骤。\n- **评估权威透明**：通过集成 co3d 主办的官方挑战赛接口，团队将模型提交至隐藏测试服务器，获得了与全球顶尖方案公平对比的客观评分。\n- **开发流程加速**：得益于更友好的数据格式和 PyTorch3D 的深度集成，研究人员将原本用于数据工程的时间全部投入到核心算法迭代中。\n\nco3d 通过提供清洗后的高质量数据、灵活的下载策略及标准化的评估体系，将 3D 重建项目的数据准备周期从数周缩短至数天，显著提升了研发效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffacebookresearch_co3d_9a076a69.jpg","facebookresearch","Meta Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffacebookresearch_449342bd.png","",null,"https:\u002F\u002Fopensource.fb.com","https:\u002F\u002Fgithub.com\u002Ffacebookresearch",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1141,88,"2026-03-30T19:28:57","NOASSERTION",4,"未说明","需要 NVIDIA GPU（因依赖 PyTorch3D 且需从源码编译以启用 Implicitron 模块），具体显存和 CUDA 版本未说明","未说明（完整数据集需 5.5TB 磁盘空间，子集需 8.9GB）",{"notes":97,"python":98,"dependencies":99},"1. PyTorch3D 必须从源代码编译安装，以支持 Implicitron 模块。\n2. 完整数据集大小为 5.5TB，建议下载单序列子集（8.9GB）进行测试。\n3. 需设置环境变量 CO3DV2_DATASET_ROOT 指向数据集根目录。\n4. 核心数据模型独立于 PyTorch，可与其他机器学习框架配合使用。","Python 3",[100,101,102,103,104,105],"PyTorch","PyTorch3D (需从源码编译)","visdom","tqdm","requests","h5py",[18],"2026-03-27T02:49:30.150509","2026-04-06T09:46:58.396011",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},9564,"如何自动化下载数据集到远程机器？","官方提供了下载脚本，支持在 Mac 和 Ubuntu Linux 上运行。用户可以直接使用该脚本将整个数据集自动下载到远程机器，无需手动点击链接。如果遇到问题，请确保使用的是最新的脚本版本。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F2",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},9565,"相机内参矩阵的主点（principal_point）为什么都是 [0, 0]？","这是正常现象。在 CO3Dv1 发布后，PyTorch3D 更改了 NDC（归一化设备坐标）约定，导致非正方形图像的处理方式不同。如果视点标注包含 `intrinsics_format: ndc_isotropic` 字段，则使用新格式；否则使用旧格式。具体代码实现可参考：https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fblob\u002Fmain\u002Fco3d\u002Fdataset\u002Fdata_types.py#L72","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F4",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},9566,"如何将深度图反投影生成点云？","建议使用 `Co3dDataset` 加载数据，其中 `frame_data.camera` 是 PyTorch3D 格式的相机对象，可直接与 `get_rgbd_point_cloud` 函数配合使用。注意：深度图文件不是标准的 16 位 PNG，加载函数会将二进制 16 位值重新解释为浮点数。相机处于 NDC 坐标系中，详细信息请参阅 PyTorch3D 文档：https:\u002F\u002Fpytorch3d.org\u002Fdocs\u002Fcameras","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F25",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},9567,"训练 NeRF 模型时，相机的 near 和 far 边界值应该如何设置？","建议将球体半径设置为 8（注意是半径而非直径）。该值可作为实验参考用于计算相机的 near 和 far 边界。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F18",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},9568,"下载单序列子集（Single-Sequence Subset）时缺少 pointcloud.ply 文件或图像异常怎么办？","这些缺失的文件或异常图像是 Co3D 挑战赛中使用的目标数据，如果使用官方提供的数据加载器，它们会被归类到测试子集中。此外，维护者推荐使用更新、更大的 uCO3D 数据集替代：https:\u002F\u002Fuco3d.github.io\u002F","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F95",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},9569,"下载数据集时遇到 'Bad CRC-32' 错误如何解决？","该错误通常由硬盘问题引起，尝试更换外部存储驱动器即可解决。另外请注意，https:\u002F\u002Fai.facebook.com\u002Fdatasets\u002Fco3d-downloads\u002F 对应的是已弃用的 v1 版本，请下载 v2 版本时仅参考 GitHub 仓库中的说明和脚本。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F65",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},9570,"数据集下载链接失效或部分类别缺失怎么办？","基础设施团队已修复数据集完整性问题，目前完整数据集已可用。但部分类别（如 Orange, Teddybear, toaster, toilet, toybus）在主页面仍可能缺失，且“Download all links”中的某些 URL（如 chair, hairdryer）可能已过期。建议优先测试主页面上显示的 46 个类别链接，它们通常有效。","https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fco3d\u002Fissues\u002F23",[]]