[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-datitran--face2face-demo":3,"tool-datitran--face2face-demo":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":102,"github_topics":103,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":107,"updated_at":108,"faqs":109,"releases":140},688,"datitran\u002Fface2face-demo","face2face-demo","pix2pix demo that learns from facial landmarks and translates this into a face","face2face-demo 是一个基于 pix2pix 架构的开源项目，核心功能是将人脸关键点坐标转化为逼真的人脸图像。它不仅支持离线训练，还提供了一个启用摄像头的实时演示应用，能将输入者的面部动作即时映射到目标脸上。这个项目主要解决了从抽象的面部结构数据重建视觉画面的难题，帮助开发者直观理解生成式对抗网络在人脸合成中的应用。\n\n它非常适合计算机视觉领域的开发者、AI 研究人员以及希望深入掌握深度学习技术的爱好者。虽然需要配置 Conda 环境并运行 Python 脚本，但整个流程设计得非常清晰。其独特亮点在于提供了一套端到端的解决方案：从视频提取训练数据，到模型训练、权重压缩导出，最后通过 TensorFlow 实现低延迟的实时推理。官方甚至提供了预训练模型和示例数据集，大大降低了复现门槛。如果你想在本地部署人脸风格迁移或表情驱动应用，face2face-demo 是一个极佳的起点，能让你快速体验从数据准备到实时生成的完整链路。","# face2face-demo\n\nThis is a pix2pix demo that learns from facial landmarks and translates this into a face. A webcam-enabled application is also provided that translates your face to the trained face in real-time.\n\n## Getting Started\n\n#### 1. Prepare Environment\n\n```\n# Clone this repo\ngit clone git@github.com:datitran\u002Fface2face-demo.git\n\n# Create the conda environment from file (Mac OSX)\nconda env create -f environment.yml\n```\n\n#### 2. Generate Training Data\n\n```\npython generate_train_data.py --file angela_merkel_speech.mp4 --num 400 --landmark-model shape_predictor_68_face_landmarks.dat\n```\n\nInput:\n\n- `file` is the name of the video file from which you want to create the data set.\n- `num` is the number of train data to be created.\n- `landmark-model` is the facial landmark model that is used to detect the landmarks. A pre-trained facial landmark model is provided [here](http:\u002F\u002Fdlib.net\u002Ffiles\u002Fshape_predictor_68_face_landmarks.dat.bz2).\n\nOutput:\n\n- Two folders `original` and `landmarks` will be created.\n\nIf you want to download my dataset, here is also the [video file](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002F2g04onlkmkq9c69\u002Fangela_merkel_speech.mp4) that I used and the generated [training dataset](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002Fpfm8b0yogmum63w\u002Fdataset.zip) (400 images already split into training and validation).\n\n#### 3. Train Model\n\n```\n# Clone the repo from Christopher Hesse's pix2pix TensorFlow implementation\ngit clone https:\u002F\u002Fgithub.com\u002Faffinelayer\u002Fpix2pix-tensorflow.git\n\n# Move the original and landmarks folder into the pix2pix-tensorflow folder\nmv face2face-demo\u002Flandmarks face2face-demo\u002Foriginal pix2pix-tensorflow\u002Fphotos\n\n# Go into the pix2pix-tensorflow folder\ncd pix2pix-tensorflow\u002F\n\n# Resize original images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Foriginal \\\n  --operation resize \\\n  --output_dir photos\u002Foriginal_resized\n  \n# Resize landmark images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks \\\n  --operation resize \\\n  --output_dir photos\u002Flandmarks_resized\n  \n# Combine both resized original and landmark images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks_resized \\\n  --b_dir photos\u002Foriginal_resized \\\n  --operation combine \\\n  --output_dir photos\u002Fcombined\n  \n# Split into train\u002Fval set\npython tools\u002Fsplit.py \\\n  --dir photos\u002Fcombined\n  \n# Train the model on the data\npython pix2pix.py \\\n  --mode train \\\n  --output_dir face2face-model \\\n  --max_epochs 200 \\\n  --input_dir photos\u002Fcombined\u002Ftrain \\\n  --which_direction AtoB\n```\n\nFor more information around training, have a look at Christopher Hesse's [pix2pix-tensorflow](https:\u002F\u002Fgithub.com\u002Faffinelayer\u002Fpix2pix-tensorflow) implementation.\n\n#### 4. Export Model\n\n1. First, we need to reduce the trained model so that we can use an image tensor as input: \n    ```\n    python reduce_model.py --model-input face2face-model --model-output face2face-reduced-model\n    ```\n    \n    Input:\n    \n    - `model-input` is the model folder to be imported.\n    - `model-output` is the model (reduced) folder to be exported.\n    \n    Output:\n    \n    - It returns a reduced model with less weights file size than the original model.\n\n2. Second, we freeze the reduced model to a single file.\n    ```\n    python freeze_model.py --model-folder face2face-reduced-model\n    ```\n\n    Input:\n    \n    - `model-folder` is the model folder of the reduced model.\n    \n    Output:\n    \n    - It returns a frozen model file `frozen_model.pb` in the model folder.\n    \nI have uploaded a pre-trained frozen model [here](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002Frzfaoeb3e2ta343\u002Fface2face_model_epoch_200.zip). This model is trained on 400 images with epoch 200.\n    \n#### 5. Run Demo\n\n```\npython run_webcam.py --source 0 --show 0 --landmark-model shape_predictor_68_face_landmarks.dat --tf-model face2face-reduced-model\u002Ffrozen_model.pb\n```\n\nInput:\n\n- `source` is the device index of the camera (default=0).\n- `show` is an option to either display the normal input (0) or the facial landmark (1) alongside the generated image (default=0).\n- `landmark-model` is the facial landmark model that is used to detect the landmarks.\n- `tf-model` is the frozen model file.\n\nExample:\n\n![example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatitran_face2face-demo_readme_351e8c22054a.gif)\n\n## Requirements\n- [Anaconda \u002F Python 3.5](https:\u002F\u002Fwww.continuum.io\u002Fdownloads)\n- [TensorFlow 1.2](https:\u002F\u002Fwww.tensorflow.org\u002F)\n- [OpenCV 3.0](http:\u002F\u002Fopencv.org\u002F)\n- [Dlib 19.4](http:\u002F\u002Fdlib.net\u002F)\n\n## Acknowledgments\nKudos to [Christopher Hesse](https:\u002F\u002Fgithub.com\u002Fchristopherhesse) for his amazing pix2pix TensorFlow implementation and [Gene Kogan](http:\u002F\u002Fgenekogan.com\u002F) for his inspirational workshop. \n\n## Copyright\n\nSee [LICENSE](LICENSE) for details.\nCopyright (c) 2017 [Dat Tran](http:\u002F\u002Fwww.dat-tran.com\u002F).\n","# face2face-demo\n\n这是一个基于 **pix2pix**（图像到图像转换框架）的演示项目，它从面部关键点中学习并将其转换为人脸。此外还提供了一款支持网络摄像头的应用程序，可实时将你的面部转换为训练好的人脸。\n\n## 开始使用\n\n#### 1. 准备环境\n\n```\n# Clone this repo\ngit clone git@github.com:datitran\u002Fface2face-demo.git\n\n# Create the conda environment from file (Mac OSX)\nconda env create -f environment.yml\n```\n\n#### 2. 生成训练数据\n\n```\npython generate_train_data.py --file angela_merkel_speech.mp4 --num 400 --landmark-model shape_predictor_68_face_landmarks.dat\n```\n\n输入：\n\n- `file` 是你希望从中创建数据集的视频文件名。\n- `num` 是要创建的训练数据数量。\n- `landmark-model` 是用于检测关键点的**面部关键点模型** (facial landmark model)。预训练的面部关键点模型在此提供 [here](http:\u002F\u002Fdlib.net\u002Ffiles\u002Fshape_predictor_68_face_landmarks.dat.bz2)。\n\n输出：\n\n- 将创建两个文件夹 `original` 和 `landmarks`。\n\n如果你想下载我的数据集，这里也有我使用的 [视频文件](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002F2g04onlkmkq9c69\u002Fangela_merkel_speech.mp4) 和生成的 [训练数据集](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002Fpfm8b0yogmum63w\u002Fdataset.zip)（400 张图片已分为训练集和验证集）。\n\n#### 3. 训练模型\n\n```\n# Clone the repo from Christopher Hesse's pix2pix TensorFlow implementation\ngit clone https:\u002F\u002Fgithub.com\u002Faffinelayer\u002Fpix2pix-tensorflow.git\n\n# Move the original and landmarks folder into the pix2pix-tensorflow folder\nmv face2face-demo\u002Flandmarks face2face-demo\u002Foriginal pix2pix-tensorflow\u002Fphotos\n\n# Go into the pix2pix-tensorflow folder\ncd pix2pix-tensorflow\u002F\n\n# Resize original images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Foriginal \\\n  --operation resize \\\n  --output_dir photos\u002Foriginal_resized\n  \n# Resize landmark images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks \\\n  --operation resize \\\n  --output_dir photos\u002Flandmarks_resized\n  \n# Combine both resized original and landmark images\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks_resized \\\n  --b_dir photos\u002Foriginal_resized \\\n  --operation combine \\\n  --output_dir photos\u002Fcombined\n  \n# Split into train\u002Fval set\npython tools\u002Fsplit.py \\\n  --dir photos\u002Fcombined\n  \n# Train the model on the data\npython pix2pix.py \\\n  --mode train \\\n  --output_dir face2face-model \\\n  --max_epochs 200 \\\n  --input_dir photos\u002Fcombined\u002Ftrain \\\n  --which_direction AtoB\n```\n\n关于训练的更多信息，请查看 Christopher Hesse 的 [pix2pix-tensorflow](https:\u002F\u002Fgithub.com\u002Faffinelayer\u002Fpix2pix-tensorflow) 实现。\n\n#### 4. 导出模型\n\n1. 首先，我们需要简化训练好的模型，以便我们可以使用图像张量 (tensor) 作为输入： \n    ```\n    python reduce_model.py --model-input face2face-model --model-output face2face-reduced-model\n    ```\n    \n    输入：\n    \n    - `model-input` 是要导入的模型文件夹。\n    - `model-output` 是要导出的模型（简化后）文件夹。\n    \n    输出：\n    \n    - 返回一个简化的模型，其权重文件大小比原始模型小。\n\n2. 其次，我们将简化后的模型冻结为单个文件。\n    ```\n    python freeze_model.py --model-folder face2face-reduced-model\n    ```\n\n    输入：\n    \n    - `model-folder` 是简化模型的模型文件夹。\n    \n    输出：\n    \n    - 在模型文件夹中返回一个冻结的模型文件 `frozen_model.pb`。\n    \n我已经上传了一个预训练的冻结模型 [here](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002Frzfaoeb3e2ta343\u002Fface2face_model_epoch_200.zip)。该模型在 400 张图片上进行了训练，epoch（轮次）为 200。\n    \n#### 5. 运行演示\n\n```\npython run_webcam.py --source 0 --show 0 --landmark-model shape_predictor_68_face_landmarks.dat --tf-model face2face-reduced-model\u002Ffrozen_model.pb\n```\n\n输入：\n\n- `source` 是摄像头的设备索引（默认=0）。\n- `show` 是一个选项，用于选择显示正常输入 (0) 还是面部关键点 (1)，以及与生成的图像并列显示（默认=0）。\n- `landmark-model` 是用于检测关键点的**面部关键点模型**。\n- `tf-model` 是冻结的模型文件。\n\n示例：\n\n![example](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatitran_face2face-demo_readme_351e8c22054a.gif)\n\n## 依赖项\n- [Anaconda \u002F Python 3.5](https:\u002F\u002Fwww.continuum.io\u002Fdownloads)\n- [TensorFlow 1.2](https:\u002F\u002Fwww.tensorflow.org\u002F)\n- [OpenCV 3.0](http:\u002F\u002Fopencv.org\u002F)\n- [Dlib 19.4](http:\u002F\u002Fdlib.net\u002F)\n\n## 致谢\n感谢 [Christopher Hesse](https:\u002F\u002Fgithub.com\u002Fchristopherhesse) 出色的 pix2pix TensorFlow 实现，以及 [Gene Kogan](http:\u002F\u002Fgenekogan.com\u002F) 富有启发性的研讨会。 \n\n## 版权\n\n详情见 [LICENSE](LICENSE)。\n版权所有 (c) 2017 [Dat Tran](http:\u002F\u002Fwww.dat-tran.com\u002F)。","# face2face-demo 快速上手指南\n\n`face2face-demo` 是一个基于 pix2pix 的开源项目，能够从面部特征点学习并生成对应的面部图像，支持实时摄像头转换功能。\n\n## 环境准备\n\n本项目依赖以下软件环境，建议使用 Anaconda 进行环境管理：\n\n- **Anaconda \u002F Python 3.5**\n- **TensorFlow 1.2**\n- **OpenCV 3.0**\n- **Dlib 19.4**\n\n> **注意**：由于涉及深度学习模型训练，请确保 GPU 驱动已正确安装（如使用 CUDA）。克隆仓库时若网络较慢，可考虑使用国内镜像加速。\n\n## 安装步骤\n\n1. **克隆项目仓库**\n```bash\ngit clone git@github.com:datitran\u002Fface2face-demo.git\n```\n\n2. **创建 Conda 环境**\n```bash\n# Mac OSX 用户\nconda env create -f environment.yml\n```\n\n## 基本使用\n\n### 方法一：使用预训练模型（推荐快速体验）\n\n如果您希望立即运行演示而无需等待训练，可直接下载作者提供的预训练冻结模型。\n\n1. **下载模型**\n访问 [Dropbox 链接](https:\u002F\u002Fdl.dropboxusercontent.com\u002Fs\u002Frzfaoeb3e2ta343\u002Fface2face_model_epoch_200.zip) 下载并解压至项目目录。\n\n2. **运行摄像头演示**\n```bash\npython run_webcam.py --source 0 --show 0 --landmark-model shape_predictor_68_face_landmarks.dat --tf-model face2face-reduced-model\u002Ffrozen_model.pb\n```\n*参数说明：`--source` 为摄像头设备索引，`--show` 控制是否显示原始输入或特征点，`--tf-model` 指向冻结后的模型文件。*\n\n### 方法二：自定义训练流程\n\n如需训练自己的模型，请按以下步骤操作：\n\n1. **生成训练数据**\n```bash\npython generate_train_data.py --file angela_merkel_speech.mp4 --num 400 --landmark-model shape_predictor_68_face_landmarks.dat\n```\n*此步骤会生成 `original` 和 `landmarks` 两个文件夹。*\n\n2. **准备训练环境**\n克隆 pix2pix 实现并移动数据文件：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Faffinelayer\u002Fpix2pix-tensorflow.git\nmv face2face-demo\u002Flandmarks face2face-demo\u002Foriginal pix2pix-tensorflow\u002Fphotos\ncd pix2pix-tensorflow\u002F\n```\n\n3. **处理与合并图像**\n```bash\n# 调整尺寸\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Foriginal \\\n  --operation resize \\\n  --output_dir photos\u002Foriginal_resized\n  \npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks \\\n  --operation resize \\\n  --output_dir photos\u002Flandmarks_resized\n  \n# 合并图像\npython tools\u002Fprocess.py \\\n  --input_dir photos\u002Flandmarks_resized \\\n  --b_dir photos\u002Foriginal_resized \\\n  --operation combine \\\n  --output_dir photos combined\n  \n# 划分数据集\npython tools\u002Fsplit.py \\\n  --dir photos\u002Fcombined\n```\n\n4. **训练模型**\n```bash\npython pix2pix.py \\\n  --mode train \\\n  --output_dir face2face-model \\\n  --max_epochs 200 \\\n  --input_dir photos\u002Fcombined\u002Ftrain \\\n  --which_direction AtoB\n```\n\n5. **导出模型**\n```bash\n# 减小模型体积\npython reduce_model.py --model-input face2face-model --model-output face2face-reduced-model\n\n# 冻结模型\npython freeze_model.py --model-folder face2face-reduced-model\n```\n\n完成上述步骤后，即可参考“方法一”中的命令运行您的自定义模型。","某内容创作者团队计划制作一期趣味直播节目，希望主播能实时“变身”为特定公众人物形象与观众互动。\n\n### 没有 face2face-demo 时\n- 传统后期制作需逐帧处理视频素材，单期节目渲染耗时超过两天，效率极低。\n- 现有开源方案多依赖静态图片，无法捕捉动态表情变化，画面显得僵硬。\n- 部署深度学习环境门槛高，团队成员缺乏 GPU 调优经验，容易报错。\n- 实时反馈缺失，无法在直播前测试表情同步效果，风险较大。\n\n### 使用 face2face-demo 后\n- face2face-demo 利用少量视频片段即可自动生成训练数据集，大幅缩短准备时间至几小时。\n- 内置实时摄像头接口，主播开播前即可预览面部转换的流畅度，及时调整参数。\n- 基于 68 点面部关键点技术，确保说话时的口型与表情高度匹配，视觉欺骗性强。\n- 提供冻结模型文件，降低了硬件要求，普通工作站即可流畅运行，无需昂贵服务器。\n\n它让非专业团队也能低成本实现高质量的实时人脸迁移效果。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdatitran_face2face-demo_6c2afdbe.png","datitran","Dat Tran","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdatitran_62a22cb4.jpg","Partner\u002FCTO @ DATANOMIQ | VP of AI\u002FML at Beams Safety AI 🤖 | Advisor. Ex-CTO\u002FCo-Founder @Priceloop. Ex-Head of AI @AxelSpringer, Ex-Pivotal.","DATANOMIQ","Berlin",null,"https:\u002F\u002Fdat-tran.com\u002F","https:\u002F\u002Fgithub.com\u002Fdatitran",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,1460,413,"2026-04-02T08:35:38","MIT","未说明",{"notes":95,"python":96,"dependencies":97},"项目发布于 2017 年，依赖 TensorFlow 1.2 等旧版本库；首次运行需下载人脸关键点模型文件；训练前需额外克隆 pix2pix-tensorflow 仓库；建议使用 conda 创建独立环境以管理依赖","3.5",[98,99,100,101],"tensorflow==1.2","opencv==3.0","dlib==19.4","anaconda",[13],[104,105,106],"tensorflow","pix2pix-tensorflow","python3","2026-03-27T02:49:30.150509","2026-04-06T08:18:30.572969",[110,115,120,125,130,135],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},2871,"预训练模型文件链接无法访问怎么办？","原 Dropbox 链接因权限变更失效，维护者已修复链接。请重新尝试下载。","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F5",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},2872,"视频和训练数据集链接无法访问如何解决？","维护者指出 Dropbox 权限变更导致链接失效并已修复。若仍有问题，可尝试修改 environment.yml 将 tbb 改为 conda-forge:tbb，并在生成数据脚本中使用 skvideo.io 替代 cv2。","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F4",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},2873,"运行 generate_train_data 脚本时报 dlib 导入错误怎么办？","这是 dlib 与 conda 环境依赖冲突导致的。请执行以下命令修复：\nconda config --add channels conda-forge\nconda install dlib","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F1",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},2874,"生成训练数据脚本运行后 FPS 为 0 且无文件输出怎么办？","通常是 OpenCV 版本或路径问题。建议通过 conda-forge 更新 OpenCV 至 3.3 版本：\nconda install -c conda-forge opencv\n同时确保 landmark 模型文件路径正确，避免报错 Unable to open shape_predictor_68_face_landmarks.dat。","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F3",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},2875,"加载 checkpoint 时出现 Key not found 的 NotFoundError 错误怎么办？","这是由于网络结构名称作用域差异导致的不兼容。解决方案是下载旧版本的 pix2pix.py (2017.07 版本) 替换当前最新文件使用。","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F14",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},2876,"生成的视频结果非常模糊且颜色失真怎么办？","这通常与拍摄距离有关。建议坐在与数据集中控制源人物完全相同的距离面对摄像头。注意该仓库可能无法完全复现原始 Face2Face 研究的高清示例效果。","https:\u002F\u002Fgithub.com\u002Fdatitran\u002Fface2face-demo\u002Fissues\u002F31",[]]