[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-dessa-oss--DeepFake-Detection":3,"similar-dessa-oss--DeepFake-Detection":105},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":19,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":22,"stars":35,"forks":36,"last_commit_at":37,"license":38,"difficulty_score":39,"env_os":40,"env_gpu":41,"env_ram":42,"env_deps":43,"category_tags":51,"github_topics":55,"view_count":69,"oss_zip_url":19,"oss_zip_packed_at":19,"status":70,"created_at":71,"updated_at":72,"faqs":73,"releases":104},4145,"dessa-oss\u002FDeepFake-Detection","DeepFake-Detection","Towards deepfake detection that actually works","DeepFake-Detection 是一个致力于解决现实场景中深度伪造视频检测难题的开源项目。当前许多先进的检测模型在实验室数据上表现优异，但面对从 YouTube 等平台随机收集的真实视频时，往往难以有效泛化。DeepFake-Detection 通过大量实验证实，仅依赖现有的标准数据集（如 FaceForensics++）不足以训练出能应对真实世界人脸篡改技术的神经网络。\n\n为了解决这一痛点，该项目提出检测器必须利用真实世界数据进行持续更新，并提供了一套基于 PyTorch 的解决方案。其核心思路是在 ImageNet 预训练的 ResNet18 模型基础上进行微调，并通过引入更多样化的数据来提升模型的泛化能力。项目还集成了 Dessa 开源的实验调度与管理工具 Atlas，支持大规模实验验证。\n\n该工具主要适合人工智能研究人员、算法工程师以及对深度伪造检测技术感兴趣的开发者使用。使用者需要具备一定的深度学习基础，并满足较高的硬件要求（建议内存 32GB 以上且配备 GPU）。通过提供详细的数据重构脚本和 Docker 部署方案，DeepFake-Detection 帮助研究者复","DeepFake-Detection 是一个致力于解决现实场景中深度伪造视频检测难题的开源项目。当前许多先进的检测模型在实验室数据上表现优异，但面对从 YouTube 等平台随机收集的真实视频时，往往难以有效泛化。DeepFake-Detection 通过大量实验证实，仅依赖现有的标准数据集（如 FaceForensics++）不足以训练出能应对真实世界人脸篡改技术的神经网络。\n\n为了解决这一痛点，该项目提出检测器必须利用真实世界数据进行持续更新，并提供了一套基于 PyTorch 的解决方案。其核心思路是在 ImageNet 预训练的 ResNet18 模型基础上进行微调，并通过引入更多样化的数据来提升模型的泛化能力。项目还集成了 Dessa 开源的实验调度与管理工具 Atlas，支持大规模实验验证。\n\n该工具主要适合人工智能研究人员、算法工程师以及对深度伪造检测技术感兴趣的开发者使用。使用者需要具备一定的深度学习基础，并满足较高的硬件要求（建议内存 32GB 以上且配备 GPU）。通过提供详细的数据重构脚本和 Docker 部署方案，DeepFake-Detection 帮助研究者复现实验结果，推动构建更鲁棒的防伪检测系统，是探索视频内容真实性验证的有力工具。","![parallel coordinates plot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_3fcd509aa12a.gif)\n\nRead the technical deep dive: https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works\n\n# Visual DeepFake Detection\n\nIn our recent [article](https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works), we make the following contributions:\n* We show that the model proposed in current state of the art in video manipulation (FaceForensics++) does not generalize to real-life videos randomly \ncollected \nfrom Youtube.\n* We show the need for the detector to be constantly updated with real-world data, and propose an initial solution in hopes of solving deepfake video detection.\n\nOur Pytorch implementation, conducts extensive experiments to demonstrate that the datasets produced by Google and detailed in the FaceForensics++ \npaper are not sufficient for making neural networks generalize to detect real-life face manipulation techniques. It also provides a current solution for such\n behavior which relies on adding more data. \n \nOur Pytorch model is based on a pre-trained ResNet18 on Imagenet, that we finetune to solve the deepfake detection problem.\nWe also conduct large scale experiments using Dessa's open source scheduler + experiment manger [Atlas](https:\u002F\u002Fgithub.com\u002Fdessa-research\u002Fatlas).\n\n## Setup \n\n## Prerequisities\nTo run the code, your system should meet the following requirements: RAM >= 32GB , GPUs >=1\n\n## Steps\n\n0. Install [nvidia-docker](https:\u002F\u002Fgithub.com\u002Fnvidia\u002Fnvidia-docker\u002Fwiki\u002FInstallation-(version-2.0))\n00. Install [ffmpeg](https:\u002F\u002Fwww.ffmpeg.org\u002Fdownload.html) or `sudo apt install ffmpeg`\n1. Git Clone this repository.\n2. If you haven't already, install [Atlas](https:\u002F\u002Fgithub.com\u002Fdessa-research\u002Fatlas).\n3. Once you've installed Atlas, activate your environment if you haven't already, and navigate to your project folder.\n\nThat's it, You're ready to go!\n\n## Datasets\nHalf of the dataset used in this project is from the [FaceForensics](https:\u002F\u002Fgithub.com\u002Fondyari\u002FFaceForensics\u002Ftree\u002Fmaster\u002Fdataset) deepfake detection dataset.\n. \n\nTo download this data, please make sure to fill out the [google form](https:\u002F\u002Fgithub.com\u002Fondyari\u002FFaceForensics\u002F#access) to request access to the data.\n\nFor the dataset that we collected from Youtube, it is accessible on [S3](ttps:\u002F\u002Fdeepfake-detection.s3.amazonaws.com\u002Faugment_deepfake.tar.gz) for download.\n\nTo automatically download and restructure both datasets, please execute:\n\n```\nbash restructure_data.sh faceforensics_download.py\n```\n\nNote: You need to have received the download script from FaceForensics++ people before executing the restructure script.\n\nNote2: We created the `restructure_data.sh` to do a split that replicates our exact experiments avaiable in the UI above, please feel free to change the \nsplits as you wish.\n\n## Walkthrough\n\nBefore starting to train\u002Fevaluate models, we should first create the docker image that we will be running our experiments with. To do so, we already prepared\n a dockerfile to do that inside `custom_docker_image`. To create the docker image, execute the following commands in terminal:\n \n ```\n cd custom_docker_image\n nvidia-docker build . -t atlas_ff\n ```\n \nNote: if you change the image name, please make sure you also modify line 16 of `job.config.yaml` to match the docker image name.\n\nInside `job.config.yaml`, please modify the data path on host from `\u002Fmedia\u002Fbiggie2\u002FFaceForensics\u002Fdatasets\u002F` to the absolute path of your `datasets` folder.\n\nThe folder containing your datasets should have the following structure:\n\n```\ndatasets\n├── augment_deepfake        (2)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── base_deepfake           (1)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── both_deepfake           (3)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── precomputed             (4)\n└── T_deepfake              (0)\n    ├── manipulated_sequences\n    │   ├── DeepFakeDetection\n    │   ├── Deepfakes\n    │   ├── Face2Face\n    │   ├── FaceSwap\n    │   └── NeuralTextures\n    └── original_sequences\n        ├── actors\n        └── youtube\n```\n\nNotes:\n* (0) is the dataset downloaded using the FaceForensics repo scripts\n* (1) is a reshaped version of FaceForensics data to match the expected structure by the codebase. subfolders called `frames` contain frames collected using \n`ffmpeg`\n* (2) is the augmented dataset, collected from youtube, available on s3.\n* (3) is the combination of both base and augmented datasets.\n* (4) precomputed will be automatically created during training. It holds cashed cropped frames.\n\nThen, to run all the experiments we will show in the article to come, you can launch the script `hparams_search.py` using:\n\n```bash\npython hparams_search.py\n```\n\n## Results\n\nIn the following pictures, the title for each subplot is in the form `real_prob, fake_prob | prediction | label`.\n\n#### Model trained on FaceForensics++ dataset\n\nFor models trained on the paper dataset alone, we notice that the model only learns to detect the manipulation techniques mentioned in the paper and misses \nall the manipulations in real world data (from data)\n\n![model1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_0de2cd097de2.png)\n![model11](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_9fb2d2142413.png)\n\n#### Model trained on Youtube dataset\n\nModels trained on the youtube data alone learn to detect real world deepfakes, but also learn to detect easy deepfakes in the paper dataset as well. These \nmodels however fail to detect any other type of manipulation (such as NeuralTextures).\n\n![model2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_1e01b4cf4a67.png)\n![model22](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_34b71ef56bd1.png)\n\n#### Model trained on Paper + Youtube dataset\n\nFinally, models trained on the combination of both datasets together, learns to detect both real world manipulation techniques as well as the other methods \nmentioned in FaceForensics++ paper. \n\n![model3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_ba59858a26e0.png)\n![model33](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_7472071cd748.png)\n\nfor a more in depth explanation of these results, please refer to the [article](https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works) we published. More results can be seen in the \n[interactive UI](http:\u002F\u002Fdeepfake-detection.dessa.com\u002Fprojects)\n\n## Help improve this technology\n\nPlease feel free to fork this work and keep pushing on it.\n\nIf you also want to help improving the deepfake detection datasets, please share your real\u002Fforged samples at foundations@dessa.com.\n\n## LICENSE\n© 2020 Square, Inc. ATLAS, DESSA, the Dessa Logo, and others are trademarks of Square, Inc. All third party names and trademarks are properties of their respective owners and are used for identification purposes only.","![平行坐标图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_3fcd509aa12a.gif)\n\n阅读技术深度解析：https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works\n\n# 可视化深度伪造检测\n\n在我们最近的[文章](https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works)中，我们做出了以下贡献：\n* 我们表明，当前视频篡改领域最先进方法（FaceForensics++）所提出的模型，并不能泛化到从YouTube随机收集的真实生活视频。\n* 我们指出检测器需要不断用真实世界的数据进行更新，并提出了一种初步解决方案，以期解决深度伪造视频的检测问题。\n\n我们的PyTorch实现进行了大量实验，证明由Google生成并在FaceForensics++论文中详细描述的数据集，并不足以使神经网络泛化，从而检测现实生活中的面部篡改技术。同时，我们也提供了一种当前的解决方案，即通过增加数据来应对这一问题。\n\n我们的PyTorch模型基于在ImageNet上预训练的ResNet18，并对其进行微调以解决深度伪造检测问题。\n此外，我们还使用Dessa的开源调度器和实验管理工具[Atlas](https:\u002F\u002Fgithub.com\u002Fdessa-research\u002Fatlas)进行了大规模实验。\n\n## 设置\n\n## 先决条件\n要运行代码，您的系统应满足以下要求：内存 >= 32GB，GPU >=1。\n\n## 步骤\n\n0. 安装[nvidia-docker](https:\u002F\u002Fgithub.com\u002Fnvidia\u002Fnvidia-docker\u002Fwiki\u002FInstallation-(version-2.0))\n00. 安装[ffmpeg](https:\u002F\u002Fwww.ffmpeg.org\u002Fdownload.html) 或 `sudo apt install ffmpeg`\n1. 克隆本仓库。\n2. 如果您尚未安装，请安装[Atlas](https:\u002F\u002Fgithub.com\u002Fdessa-research\u002Fatlas)。\n3. 安装Atlas后，如果您尚未激活环境，请先激活，并导航到您的项目文件夹。\n\n至此，您已准备就绪！\n\n## 数据集\n本项目使用的数据集中有一半来自[FaceForensics](https:\u002F\u002Fgithub.com\u002Fondyari\u002FFaceForensics\u002Ftree\u002Fmaster\u002Fdataset)深度伪造检测数据集。\n\n要下载这些数据，请务必填写[谷歌表单](https:\u002F\u002Fgithub.com\u002Fondyari\u002FFaceForensics\u002F#access)，以申请访问权限。\n\n对于我们从YouTube收集的数据集，您可以通过[S3](ttps:\u002F\u002Fdeepfake-detection.s3.amazonaws.com\u002Faugment_deepfake.tar.gz)下载。\n\n要自动下载并重新组织这两个数据集，请执行：\n\n```\nbash restructure_data.sh faceforensics_download.py\n```\n\n注意：在执行重新组织脚本之前，您需要先从FaceForensics++团队获取下载脚本。\n\n注2：我们创建了`restructure_data.sh`脚本，用于按照与上方UI中完全相同的实验设置进行数据划分，您可以根据自己的需求调整划分方式。\n\n## 操作指南\n\n在开始训练或评估模型之前，我们首先需要创建将用于运行实验的Docker镜像。为此，我们在`custom_docker_image`目录下已经准备好了Dockerfile。要构建Docker镜像，请在终端中执行以下命令：\n\n```\ncd custom_docker_image\nnvidia-docker build . -t atlas_ff\n```\n\n注意：如果您更改了镜像名称，请确保同时修改`job.config.yaml`文件第16行，以匹配Docker镜像名称。\n\n在`job.config.yaml`文件中，请将主机上的数据路径从`\u002Fmedia\u002Fbiggie2\u002FFaceForensics\u002Fdatasets\u002F`更改为您的`datasets`文件夹的绝对路径。\n\n包含数据集的文件夹应具有以下结构：\n\n```\ndatasets\n├── augment_deepfake        (2)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── base_deepfake           (1)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── both_deepfake           (3)\n│   ├── fake\n│   │   └── frames\n│   ├── real\n│   │   └── frames\n│   └── val\n│       ├── fake\n│       └── real\n├── precomputed             (4)\n└── T_deepfake              (0)\n    ├── manipulated_sequences\n    │   ├── DeepFakeDetection\n    │   ├── Deepfakes\n    │   ├── Face2Face\n    │   ├── FaceSwap\n    │   └── NeuralTextures\n    └── original_sequences\n        ├── actors\n        └── youtube\n```\n\n注释：\n* (0) 是使用FaceForensics仓库脚本下载的数据集。\n* (1) 是对FaceForensics数据进行重塑后的版本，以符合代码库预期的结构。名为`frames`的子文件夹中包含了使用`ffmpeg`采集的帧。\n* (2) 是从YouTube收集的增强数据集，可在S3上获取。\n* (3) 是基础数据集与增强数据集的结合。\n* (4) 预计算数据将在训练过程中自动生成，其中保存着缓存的裁剪帧。\n\n接下来，要运行我们将在后续文章中展示的所有实验，您可以使用以下命令启动`hparams_search.py`脚本：\n\n```bash\npython hparams_search.py\n```\n\n## 结果\n\n在下面的图片中，每个子图的标题格式为“真实概率，虚假概率 | 预测 | 标签”。\n\n#### 基于FaceForensics++数据集训练的模型\n\n对于仅使用论文中数据集训练的模型，我们注意到该模型只能识别论文中提到的篡改技术，而无法检测真实世界数据中的其他篡改内容。\n\n![model1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_0de2cd097de2.png)\n![model11](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_9fb2d2142413.png)\n\n#### 基于YouTube数据集训练的模型\n\n仅使用YouTube数据集训练的模型能够检测真实世界的深度伪造，但同时也误判了论文数据集中的简单伪造样本。然而，这些模型无法检测其他类型的篡改（如NeuralTextures）。\n\n![model2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_1e01b4cf4a67.png)\n![model22](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_34b71ef56bd1.png)\n\n#### 基于论文+YouTube数据集联合训练的模型\n\n最后，结合两个数据集共同训练的模型，不仅能够检测真实世界的篡改技术，还能识别FaceForensics++论文中提到的其他方法。\n\n![model3](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_ba59858a26e0.png)\n![model33](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_readme_7472071cd748.png)\n\n有关这些结果的更深入解释，请参阅我们发布的[文章](https:\u002F\u002Fwww.dessa.com\u002Fpost\u002Fdeepfake-detection-that-actually-works)。更多结果可在[交互式UI](http:\u002F\u002Fdeepfake-detection.dessa.com\u002Fprojects)中查看。\n\n## 帮助改进这项技术\n\n欢迎您fork本项目并继续推进。\n\n如果您也希望帮助改进深度伪造检测数据集，请将您的真实\u002F伪造样本发送至foundations@dessa.com。\n\n## 许可证\n© 2020 Square, Inc. ATLAS、DESSA、Dessa标志等均为Square, Inc.的商标。所有第三方名称及商标均属于其各自所有者，仅用于标识目的。","# DeepFake-Detection 快速上手指南\n\n本指南基于 Dessa 开源的 DeepFake 检测项目，旨在帮助开发者快速搭建环境并复现论文中的实验。该模型基于预训练的 ResNet18，通过结合 FaceForensics++ 数据集与真实 YouTube 视频数据，提升对现实世界深度伪造视频的泛化检测能力。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下硬件和软件要求：\n\n### 系统要求\n- **内存 (RAM)**: ≥ 32GB\n- **显卡 (GPU)**: ≥ 1 块 (支持 CUDA)\n- **操作系统**: Linux (推荐 Ubuntu)\n\n### 前置依赖\n您需要安装以下基础工具：\n1. **NVIDIA Docker**: 用于容器化运行环境。\n   - 安装参考：[nvidia-docker v2.0 安装指南](https:\u002F\u002Fgithub.com\u002Fnvidia\u002Fnvidia-docker\u002Fwiki\u002FInstallation-(version-2.0))\n2. **FFmpeg**: 用于视频帧提取。\n   - 安装命令：\n     ```bash\n     sudo apt install ffmpeg\n     ```\n3. **Atlas**: Dessa 开源的任务调度与实验管理工具。\n   - 安装参考：[Atlas GitHub 仓库](https:\u002F\u002Fgithub.com\u002Fdessa-research\u002Fatlas)\n\n## 安装步骤\n\n### 1. 克隆项目代码\n```bash\ngit clone \u003Crepository_url>\ncd \u003Crepository_folder>\n```\n*(注：请将 `\u003Crepository_url>` 替换为实际的项目地址)*\n\n### 2. 配置 Atlas 环境\n如果您尚未安装 Atlas，请先完成安装。安装完成后，激活您的 Python 环境并进入项目目录。\n\n### 3. 构建 Docker 镜像\n项目提供了自定义 Dockerfile 以统一实验环境。在项目根目录下执行：\n\n```bash\ncd custom_docker_image\nnvidia-docker build . -t atlas_ff\n```\n\n**注意**：如果您修改了镜像名称（`-t` 后面的名字），请务必同步修改 `job.config.yaml` 文件第 16 行中的镜像名称以保持一致。\n\n### 4. 准备数据集\n本项目使用两部分数据：\n1. **FaceForensics++ 数据集**：需前往 [FaceForensics GitHub](https:\u002F\u002Fgithub.com\u002Fondyari\u002FFaceForensics\u002F#access) 填写 Google 表单申请访问权限并获取下载脚本。\n2. **YouTube 增强数据集**：可直接从 S3 下载。\n\n#### 数据重组\n确保您已拥有 FaceForensics 的官方下载脚本后，运行以下命令自动下载（如已下载）并重组数据结构：\n\n```bash\nbash restructure_data.sh faceforensics_download.py\n```\n\n#### 配置文件调整\n打开 `job.config.yaml`，将宿主机的数据路径从默认的 `\u002Fmedia\u002Fbiggie2\u002FFaceForensics\u002Fdatasets\u002F` 修改为您本地实际的 `datasets` 文件夹绝对路径。\n\n**预期的目录结构如下：**\n```text\ndatasets\n├── augment_deepfake        (YouTube 增强数据)\n│   ├── fake\u002Fframes\n│   ├── real\u002Fframes\n│   └── val\u002F...\n├── base_deepfake           (FaceForensics 重构数据)\n│   ├── fake\u002Fframes\n│   ├── real\u002Fframes\n│   └── val\u002F...\n├── both_deepfake           (合并数据)\n├── precomputed             (训练时自动生成，缓存裁剪帧)\n└── T_deepfake              (FaceForensics 原始数据)\n    ├── manipulated_sequences\u002F...\n    └── original_sequences\u002F...\n```\n\n## 基本使用\n\n完成上述配置后，您可以直接启动超参数搜索脚本来运行论文中展示的实验：\n\n```bash\npython hparams_search.py\n```\n\n该脚本将利用 Atlas 调度器在 Docker 容器中启动训练任务。训练完成后，模型将能够同时识别 FaceForensics++ 中定义的伪造技术以及现实世界中采集的深度伪造视频。\n\n*更多详细的实验结果可视化与分析，请参考项目原文技术文章或交互式 UI 演示。*","某新闻机构的内容审核团队每天需处理大量来自社交平台的突发视频素材，急需甄别其中是否包含伪造的政治人物讲话片段以防止假新闻扩散。\n\n### 没有 DeepFake-Detection 时\n- 依赖传统的 FaceForensics++ 模型，但在面对 YouTube 等真实场景采集的视频时，检测准确率大幅下降，误报率极高。\n- 缺乏持续更新机制，模型无法适应不断演变的深度伪造技术，导致新型伪造视频轻易绕过审核。\n- 人工复核工作量巨大，审核员需在海量视频中逐帧排查，严重拖慢新闻发布的时效性。\n- 无法量化评估不同数据集对模型泛化能力的影响，优化方向模糊，只能盲目尝试。\n\n### 使用 DeepFake-Detection 后\n- 采用基于 ResNet18 微调的专用模型，并结合真实世界 YouTube 数据训练，显著提升了对非实验室环境下伪造视频的识别精度。\n- 建立了“数据驱动”的迭代流程，通过不断纳入新收集的真实伪造样本更新模型，确保持续对抗最新的造假手段。\n- 利用 Atlas 调度器自动化大规模实验，快速筛选最优参数，将视频初筛效率提升数倍，让人工仅聚焦于高疑点案例。\n- 通过可视化平行坐标图清晰展示数据分布与模型表现，帮助团队精准定位数据缺口，科学制定数据采集策略。\n\nDeepFake-Detection 通过引入真实世界数据闭环和自动化实验管理，将深度伪造检测从“实验室玩具”转变为真正可用的防线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdessa-oss_DeepFake-Detection_f76aa5e0.png","dessa-oss","Dessa - Open Source","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdessa-oss_ef5c1bb2.png","We 😻 open source and working together to push the limits of applied machine learning",null,"www.dessa.com","https:\u002F\u002Fgithub.com\u002Fdessa-oss",[23,27,31],{"name":24,"color":25,"percentage":26},"Python","#3572A5",84.9,{"name":28,"color":29,"percentage":30},"Shell","#89e051",13,{"name":32,"color":33,"percentage":34},"Dockerfile","#384d54",2.1,647,198,"2026-04-04T08:43:29","MIT",4,"Linux","必需，NVIDIA GPU (数量 >=1)，需安装 nvidia-docker",">= 32GB",{"notes":44,"python":45,"dependencies":46},"1. 必须安装 nvidia-docker (version 2.0+) 和 ffmpeg。2. 项目依赖 Dessa 开源的 Atlas 调度器进行实验管理。3. 数据集分为 FaceForensics++（需申请访问）和 YouTube 采集数据（S3 下载），需运行脚本重新结构化数据。4. 模型基于 ImageNet 预训练的 ResNet18 进行微调。5. 运行前需构建自定义 Docker 镜像并修改配置文件中的数据路径。","未说明",[47,48,49,50],"PyTorch","nvidia-docker","ffmpeg","Atlas (Dessa scheduler)",[52,53,54],"图像","开发框架","数据工具",[56,57,58,59,60,61,62,63,64,65,66,67,68],"machine-learning","deep-learning","deep-fakes","pytorch","resnet-18","resnet","transfer-learning","new-york-times","deepfake-detection","deepfake","deepfakes","deepfake-dataset","faceforensics",2,"ready","2026-03-27T02:49:30.150509","2026-04-06T12:04:30.032418",[74,79,84,89,94,99],{"id":75,"question_zh":76,"answer_zh":77,"source_url":78},18889,"数据加载器中的 collate 函数有什么作用？","collate 函数主要用于处理样本中人脸裁剪失败或不存在的异常情况。dlib 有时会错误地裁剪人脸或根本未在视频中找到人脸，collate 函数的作用是将此类无效样本从批次（batch）中移除。需要注意的是，这可能导致原本设定为 32 张图像的批次最终只包含 28 张有效图像。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F5",{"id":80,"question_zh":81,"answer_zh":82,"source_url":83},18890,"如何解决 'ModuleNotFoundError: No module named foundations' 错误？","该错误是因为缺少 'foundations' 模块。实际上，这个 'foundation' 指的是 Atlas 库。请确保已正确安装 Atlas 库以解决此依赖问题。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F4",{"id":85,"question_zh":86,"answer_zh":87,"source_url":88},18891,"如何获取用于提取 YouTube 数据的原始视频 URL 列表？","项目维护者没有保留所用 YouTube 视频的确切 URL 记录。数据的收集和清洗过程（主要是剪辑和相关片段的选择）涉及一定的手工操作，因此无法提供原始的 URL 列表。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F7",{"id":90,"question_zh":91,"answer_zh":92,"source_url":93},18892,"在 Docker 构建过程中遇到 cmake 缺失导致 dlib 安装失败怎么办？","如果在运行容器时因缺少 cmake 导致安装 dlib 失败（RuntimeError），通常是因为在错误的目录下运行了 cmake 或者容器内未安装 cmake。虽然尝试在 pip install 步骤前添加 'RUN apt-get install -y cmake' 是一种思路，但首先应检查是否在当前正确的目录执行构建命令。如果确认目录无误仍报错，则需确保 Dockerfile 中正确安装了 cmake 及其依赖。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F12",{"id":95,"question_zh":96,"answer_zh":97,"source_url":98},18893,"为什么 Foundations 包中没有 .submit 成员导致代码报错？","这是一个已知的环境兼容性问题。用户在使用 PyPI 上的 Foundations 包时发现缺少 .submit 成员，这通常与 Python 版本有关。该项目原本依赖特定的内部环境或 Python 2.7，而在标准 Python 3 环境下直接使用公共包可能会失效。建议检查项目是否提供了特定的自定义 Docker 镜像或依赖配置，或者考虑将环境迁移至 Python 3+ 并寻找替代的超参数搜索方案。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F3",{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},18894,"下载 FaceForensics 数据集时出现 'Connection refused' 错误如何解决？","在下载 FaceForensics 数据集部分遇到 'ConnectionRefusedError: [Errno 111] Connection refused' 错误，通常是由于网络连接问题或目标服务器拒绝连接导致的。虽然 YouTube 数据集部分可能下载成功，但 FaceForensics 的源地址可能不稳定。建议检查网络代理设置，或者手动从 FaceForensics 官网申请访问权限后，通过其他稳定渠道下载数据并放置到指定目录，再运行重组脚本。","https:\u002F\u002Fgithub.com\u002Fdessa-oss\u002FDeepFake-Detection\u002Fissues\u002F14",[],[106,116,125,133,142,150],{"id":107,"name":108,"github_repo":109,"description_zh":110,"stars":111,"difficulty_score":112,"last_commit_at":113,"category_tags":114,"status":70},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[53,52,115],"Agent",{"id":117,"name":118,"github_repo":119,"description_zh":120,"stars":121,"difficulty_score":69,"last_commit_at":122,"category_tags":123,"status":70},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,"2026-04-05T23:32:43",[53,115,124],"语言模型",{"id":126,"name":127,"github_repo":128,"description_zh":129,"stars":130,"difficulty_score":69,"last_commit_at":131,"category_tags":132,"status":70},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[53,52,115],{"id":134,"name":135,"github_repo":136,"description_zh":137,"stars":138,"difficulty_score":112,"last_commit_at":139,"category_tags":140,"status":70},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[53,52,115,141],"视频",{"id":143,"name":144,"github_repo":145,"description_zh":146,"stars":147,"difficulty_score":69,"last_commit_at":148,"category_tags":149,"status":70},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[53,124],{"id":151,"name":152,"github_repo":153,"description_zh":154,"stars":155,"difficulty_score":69,"last_commit_at":156,"category_tags":157,"status":70},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[52,54,141,158,115,159,124,53,160],"插件","其他","音频"]