[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bryandlee--animegan2-pytorch":3,"tool-bryandlee--animegan2-pytorch":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":77,"owner_company":77,"owner_location":79,"owner_email":80,"owner_twitter":77,"owner_website":77,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":23,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":105,"github_topics":106,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":143},873,"bryandlee\u002Fanimegan2-pytorch","animegan2-pytorch","PyTorch implementation of AnimeGANv2","animegan2-pytorch 是一个基于 PyTorch 实现的 AnimeGANv2 开源工具，能够将普通照片或写实图像转换为动漫风格的图像。它通过深度学习模型自动提取并重构图像中的线条、色彩和纹理，生成具有手绘动漫效果的图片。\n\n这个工具主要解决了传统滤镜转换效果生硬、细节丢失的问题，能够更好地保持原图的结构与光影，同时赋予图像协调统一的动漫质感。它适用于多种场景，比如为个人照片添加动漫风格、为设计作品提供创意素材，或用于视频帧的风格化处理。\n\nanimegan2-pytorch 适合不同用户群体：开发者与研究人员可以直接调用模型或进行二次训练；设计师和内容创作者可以用它快速生成动漫风格的视觉素材；普通用户也能通过 Colab 或 Hugging Face 提供的在线演示轻松体验。工具支持多种预训练模型，包括人脸肖像、插画风格等，并可通过 Torch Hub 快速集成到现有项目中。\n\n其技术亮点包括完整的 PyTorch 实现、与原 TensorFlow 版本的高度兼容、支持权重转换，并提供多个经过优化的预训练模型，用户可根据不同图像类型选择最合适的风格。整体使用方式灵活，既","animegan2-pytorch 是一个基于 PyTorch 实现的 AnimeGANv2 开源工具，能够将普通照片或写实图像转换为动漫风格的图像。它通过深度学习模型自动提取并重构图像中的线条、色彩和纹理，生成具有手绘动漫效果的图片。\n\n这个工具主要解决了传统滤镜转换效果生硬、细节丢失的问题，能够更好地保持原图的结构与光影，同时赋予图像协调统一的动漫质感。它适用于多种场景，比如为个人照片添加动漫风格、为设计作品提供创意素材，或用于视频帧的风格化处理。\n\nanimegan2-pytorch 适合不同用户群体：开发者与研究人员可以直接调用模型或进行二次训练；设计师和内容创作者可以用它快速生成动漫风格的视觉素材；普通用户也能通过 Colab 或 Hugging Face 提供的在线演示轻松体验。工具支持多种预训练模型，包括人脸肖像、插画风格等，并可通过 Torch Hub 快速集成到现有项目中。\n\n其技术亮点包括完整的 PyTorch 实现、与原 TensorFlow 版本的高度兼容、支持权重转换，并提供多个经过优化的预训练模型，用户可根据不同图像类型选择最合适的风格。整体使用方式灵活，既支持命令行批量处理，也便于在 Python 项目中作为模块调用。","## PyTorch Implementation of [AnimeGANv2](https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2)\n\n\n**Updates**\n\n* `2021-10-17` Add weights for [FacePortraitV2](#additional-model-weights). [![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fblob\u002Fmain\u002Fcolab_demo.ipynb)\n\n    ![sample](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_fe48cae53bf3.gif)\n\n* `2021-11-07` Thanks to [ak92501](https:\u002F\u002Ftwitter.com\u002Fak92501), a [web demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FAnimeGANv2) is integrated to [Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces) with [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio). [![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FAnimeGANv2)\n\n* `2021-11-07` Thanks to [xhlulu](https:\u002F\u002Fgithub.com\u002Fxhlulu), the `torch.hub` model is now available. See [Torch Hub Usage](#torch-hub-usage).\n \n \n## Basic Usage\n\n**Inference**\n```\npython test.py --input_dir [image_folder_path] --device [cpu\u002Fcuda]\n```\n\n\n## Torch Hub Usage\n\nYou can load the model via `torch.hub`:\n\n```python\nimport torch\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch\", \"generator\").eval()\nout = model(img_tensor)  # BCHW tensor\n```\n\nCurrently, the following `pretrained` shorthands are available:\n```python\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"celeba_distill\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v1\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v2\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"paprika\")\n```\n\nYou can also load the `face2paint` util function:\n```python\nfrom PIL import Image\n\nface2paint = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"face2paint\", size=512)\n\nimg = Image.open(...).convert(\"RGB\")\nout = face2paint(model, img)\n```\nMore details about `torch.hub` is in [the torch docs](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fhub.html)\n\n\n## Weight Conversion from the Original Repo (Tensorflow)\n1. Install the [original repo's dependencies](https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2#requirements): python 3.6, tensorflow 1.15.0-gpu\n2. Install torch >= 1.7.1\n3. Clone the original repo & run\n```\ngit clone https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2\npython convert_weights.py\n```\n\n\u003Cdetails>\n\u003Csummary>samples\u003C\u002Fsummary>\n\n\u003Cbr>\nResults from converted `Paprika` style model (input image, original tensorflow result, pytorch result from left to right)\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_ea97f47f9876.jpg\" width=\"960\"> &nbsp; \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_061396fdaf20.jpg\" width=\"960\"> &nbsp; \n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_24e095abdfee.jpg\" width=\"960\"> &nbsp; \n   \n\u003C\u002Fdetails>\n \n**Note:** Results from converted weights slightly different due to the [bilinear upsample issue](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fissues\u002F10604)\n\n\n## Additional Model Weights\n\n**Webtoon Face** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F10T6F3-_RFOCJn6lMb-6mRmcISuYWJXGc)\n\n\u003Cdetails>\n\u003Csummary>samples\u003C\u002Fsummary>\n\nTrained on \u003Cb>256x256\u003C\u002Fb> face images. Distilled from [webtoon face model](https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fnaver-webtoon-faces\u002Fblob\u002Fmaster\u002FREADME.md#face2webtoon) with L2 + VGG + GAN Loss and CelebA-HQ images.\n\n![face_results](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_e0a76fc35eaa.jpg) &nbsp; \n  \n\u003C\u002Fdetails>\n\n\n**Face Portrait v1** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1WK5Mdt6mwlcsqCZMHkCUSDJxN1UyFi0-)\n\n\u003Cdetails>\n\u003Csummary>samples\u003C\u002Fsummary>\n\nTrained on \u003Cb>512x512\u003C\u002Fb> face images.\n\n[![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing)\n  \n![samples](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_1c41e15bbf98.jpg)\n\n[📺](https:\u002F\u002Fyoutu.be\u002FCbMfI-HNCzw?t=317)\n  \n![sample](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_80b30ee6c7db.gif)\n\n\u003C\u002Fdetails>\n\n\n**Face Portrait v2** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Fuc?id=18H3iK09_d54qEDoWIc82SyWB2xun4gjU)\n\n\u003Cdetails>\n\u003Csummary>samples\u003C\u002Fsummary>\n\nTrained on \u003Cb>512x512\u003C\u002Fb> face images. Compared to v1, `🔻beautify` `🔺robustness` \n\n[![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing)\n  \n![face_portrait_v2_0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_f2c29d2fc750.jpg)\n\n![face_portrait_v2_1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_b90ada42d855.jpg)\n\n🦑 🎮 🔥\n  \n![face_portrait_v2_squid_game](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_cf23a3673a8c.jpg)\n\n\n\u003C\u002Fdetails>\n\n\n","## [AnimeGANv2](https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2) 的 PyTorch 实现\n\n**更新日志**\n\n* `2021-10-17` 添加了 [FacePortraitV2](#额外模型权重) 的权重。 [![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fblob\u002Fmain\u002Fcolab_demo.ipynb)\n\n    ![sample](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_fe48cae53bf3.gif)\n\n* `2021-11-07` 感谢 [ak92501](https:\u002F\u002Ftwitter.com\u002Fak92501)，一个 [Web 演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FAnimeGANv2) 已通过 [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio) 集成到 [Huggingface Spaces](https:\u002F\u002Fhuggingface.co\u002Fspaces)。 [![Hugging Face Spaces](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Spaces-blue)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FAnimeGANv2)\n\n* `2021-11-07` 感谢 [xhlulu](https:\u002F\u002Fgithub.com\u002Fxhlulu)，现在可以使用 `torch.hub` 模型。请参阅 [Torch Hub 用法](#torch-hub-usage)。\n\n\n## 基本用法\n\n**推理**\n```\npython test.py --input_dir [image_folder_path] --device [cpu\u002Fcuda]\n```\n\n\n## Torch Hub 用法\n\n你可以通过 `torch.hub` 加载模型：\n\n```python\nimport torch\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch\", \"generator\").eval()\nout = model(img_tensor)  # BCHW tensor\n```\n\n目前，可用的 `pretrained` 简写如下：\n```python\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"celeba_distill\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v1\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v2\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"paprika\")\n```\n\n你也可以加载 `face2paint` 工具函数：\n```python\nfrom PIL import Image\n\nface2paint = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"face2paint\", size=512)\n\nimg = Image.open(...).convert(\"RGB\")\nout = face2paint(model, img)\n```\n关于 `torch.hub` 的更多细节，请参阅 [torch 文档](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fhub.html)\n\n\n## 从原始仓库（Tensorflow）转换权重\n1.  安装 [原始仓库的依赖](https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2#requirements): python 3.6, tensorflow 1.15.0-gpu\n2.  安装 torch >= 1.7.1\n3.  克隆原始仓库并运行\n```\ngit clone https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2\npython convert_weights.py\n```\n\n\u003Cdetails>\n\u003Csummary>示例\u003C\u002Fsummary>\n\n\u003Cbr>\n从转换后的 `Paprika` 风格模型得到的结果（从左到右：输入图像，原始 Tensorflow 结果，PyTorch 结果）\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_ea97f47f9876.jpg\" width=\"960\"> &nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_061396fdaf20.jpg\" width=\"960\"> &nbsp;\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_24e095abdfee.jpg\" width=\"960\"> &nbsp;\n\n\u003C\u002Fdetails>\n\n**注意：** 由于 [双线性上采样问题](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch\u002Fissues\u002F10604)，转换后的权重得到的结果略有不同。\n\n\n## 额外模型权重\n\n**Webtoon Face** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F10T6F3-_RFOCJn6lMb-6mRmcISuYWJXGc)\n\n\u003Cdetails>\n\u003Csummary>示例\u003C\u002Fsummary>\n\n在 \u003Cb>256x256\u003C\u002Fb> 人脸图像上训练。使用 L2 + VGG + GAN 损失和 CelebA-HQ 图像，从 [webtoon face model](https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fnaver-webtoon-faces\u002Fblob\u002Fmaster\u002FREADME.md#face2webtoon) 蒸馏而来。\n\n![face_results](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_e0a76fc35eaa.jpg) &nbsp;\n\n\u003C\u002Fdetails>\n\n\n**Face Portrait v1** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1WK5Mdt6mwlcsqCZMHkCUSDJxN1UyFi0-)\n\n\u003Cdetails>\n\u003Csummary>示例\u003C\u002Fsummary>\n\n在 \u003Cb>512x512\u003C\u002Fb> 人脸图像上训练。\n\n[![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing)\n\n![samples](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_1c41e15bbf98.jpg)\n\n[📺](https:\u002F\u002Fyoutu.be\u002FCbMfI-HNCzw?t=317)\n\n![sample](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_80b30ee6c7db.gif)\n\n\u003C\u002Fdetails>\n\n\n**Face Portrait v2** [[ckpt]](https:\u002F\u002Fdrive.google.com\u002Fuc?id=18H3iK09_d54qEDoWIc82SyWB2xun4gjU)\n\n\u003Cdetails>\n\u003Csummary>示例\u003C\u002Fsummary>\n\n在 \u003Cb>512x512\u003C\u002Fb> 人脸图像上训练。与 v1 相比，`🔻美化程度降低` `🔺鲁棒性增强`\n\n[![Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing)\n\n![face_portrait_v2_0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_f2c29d2fc750.jpg)\n\n![face_portrait_v2_1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_b90ada42d855.jpg)\n\n🦑 🎮 🔥\n\n![face_portrait_v2_squid_game](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_readme_cf23a3673a8c.jpg)\n\n\u003C\u002Fdetails>","# AnimeGAN2-PyTorch 快速上手指南\n\n## 环境准备\n\n**系统要求**\n- Python 3.6+\n- PyTorch >= 1.7.1\n- CUDA（如需GPU加速）\n\n**前置依赖安装**\n```bash\npip install torch torchvision pillow\n```\n\n## 安装步骤\n\n**方法一：直接克隆仓库**\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch.git\ncd animegan2-pytorch\n```\n\n**方法二：通过PyPI安装（如可用）**\n```bash\n# 官方源\npip install animegan2-pytorch\n\n# 或使用国内镜像加速\npip install animegan2-pytorch -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n**方式一：命令行推理**\n```bash\n# 处理单个图片文件夹\npython test.py --input_dir [图片文件夹路径] --device [cpu\u002Fcuda]\n```\n\n**方式二：Python代码调用**\n```python\nimport torch\nfrom PIL import Image\n\n# 加载模型（使用Hugging Face镜像加速）\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \n                      \"generator\", \n                      pretrained=\"face_paint_512_v2\")\n\n# 加载图片处理工具\nface2paint = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \n                           \"face2paint\", \n                           size=512)\n\n# 处理图片\nimg = Image.open(\"input.jpg\").convert(\"RGB\")\nresult = face2paint(model, img)\nresult.save(\"output.jpg\")\n```\n\n**方式三：在线体验**\n- Hugging Face演示空间：https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fakhaliq\u002FAnimeGANv2\n- Google Colab笔记本：https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fblob\u002Fmain\u002Fcolab_demo.ipynb\n\n## 预训练模型选择\n\n```python\n# 多种风格可选\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"celeba_distill\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v1\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"face_paint_512_v2\")\nmodel = torch.hub.load(\"bryandlee\u002Fanimegan2-pytorch:main\", \"generator\", pretrained=\"paprika\")\n```\n\n## 权重转换（从TensorFlow原版）\n\n如需使用原版TensorFlow模型的权重：\n```bash\n# 克隆原版仓库\ngit clone https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2\n\n# 运行转换脚本\npython convert_weights.py\n```\n\n**注意**：转换后的权重结果可能与原版略有差异，这是由于PyTorch和TensorFlow在双线性上采样实现上的不同。","**场景背景：**  \n独立游戏开发者小林正在制作一款像素风冒险游戏，需要为游戏中的角色立绘和场景素材添加统一的动漫风格渲染，以增强画面表现力并节省美术资源开销。\n\n### 没有 animegan2-pytorch 时\n- **美术资源成本高**：需要聘请专业画师对大量角色立绘和场景图进行手绘风格化处理，时间和资金投入大。\n- **风格一致性难保证**：不同画师或批次处理的素材在色彩、线条和光影上存在差异，导致游戏画面风格不统一。\n- **迭代效率低下**：每次角色设计或场景调整后，都需要重新委托绘制，反馈周期长，拖慢开发进度。\n- **技术门槛限制**：团队缺乏风格迁移模型的部署和优化经验，自行训练模型需要大量数据和算力，难以实现。\n\n### 使用 animegan2-pytorch 后\n- **成本大幅降低**：通过 PyTorch 模型批量处理现有素材，自动生成动漫风格图像，减少了对专业画师的依赖。\n- **风格高度统一**：使用预训练的 `face_paint_512_v2` 等模型，能确保所有素材呈现一致的色彩和笔触效果。\n- **开发流程敏捷化**：借助 Torch Hub 接口快速集成模型，配合脚本批量处理新素材，立绘调整后能实时生成风格化结果。\n- **技术开箱即用**：直接调用预训练模型或通过 Colab 在线 demo 测试，无需从头训练，即使非专业算法人员也能轻松部署使用。\n\n该工具让小型团队能以极低的成本和技术门槛，快速获得风格统一、质量稳定的动漫化素材，显著提升了独立游戏的视觉表现力和开发效率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbryandlee_animegan2-pytorch_fe48cae5.gif","bryandlee",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbryandlee_c4bf62c4.png","Seoul, Korea","bryandlee1@gmail.com","https:\u002F\u002Fgithub.com\u002Fbryandlee",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",98.6,{"name":88,"color":89,"percentage":90},"Python","#3572A5",1.4,4453,642,"2026-04-04T04:45:55","MIT","未说明","支持 CUDA 和 CPU，推荐使用 GPU 加速，具体型号和显存要求未说明",{"notes":98,"python":99,"dependencies":100},"支持通过 torch.hub 快速加载模型；提供 Colab 在线演示和 Hugging Face Spaces Web Demo；包含多种预训练风格模型（celeba_distill、face_paint_512_v1\u002Fv2、paprika 等）；可从原始 TensorFlow 仓库转换权重","3.6+（基于原始 TensorFlow 版本要求）",[101,102,103,104],"torch>=1.7.1","tensorflow==1.15.0-gpu（仅权重转换需要）","gradio（Web Demo）","PIL",[14],[107,108,109],"image2image","style-transfer","gan","2026-03-27T02:49:30.150509","2026-04-06T08:46:05.261763",[113,118,123,128,133,138],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},3758,"如何训练像 Netflix《双城之战》（ARCANE）那样的动画风格模型？","是的，可以训练类似《双城之战》的风格。一位用户 Sxela 已经训练了一个名为 ArcaneGAN 的模型。你可以查看这个项目：https:\u002F\u002Fgithub.com\u002FSxela\u002FArcaneGAN。该模型使用了 pix2pixHD 网络架构（并非 AnimeGAN 架构）。需要注意的是，训练可能需要较长时间，并且可能会遇到类似 StyleGAN1 中的“液滴伪影”问题。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F17",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},3759,"如何训练像“Face Portrait v1”这样的人脸肖像模型？","训练人脸肖像模型需要使用类似 pix2pix 的方法。基本流程是：输入人脸 → AnimeGAN2 生成器 → 输出，目标是人像，损失函数为 LPIPS + L2 + GAN。具体可以参考 toonify 项目（https:\u002F\u002Fgithub.com\u002Fjustinpinkney\u002Ftoonify）。训练技巧包括：1. 在微调层交换模型时冻结映射层。2. 使用属性编码器来强制原始图像和转换后图像之间的属性相似性。3. 在 pix2pix 训练阶段使用额外的数据增强来保持低层次属性，例如对源图像应用多种破坏以增强鲁棒性，但对源图像和目标图像应用相同的颜色偏移以保持颜色一致。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F3",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},3760,"如何转换全身照片？转换结果脸部很好但身体部分很丑怎么办？","当使用 face_paint_512_v2.pt 模型转换全身照片时，如果脸部效果很好但身体部分效果差，可以结合使用人脸检测和图像分割模型。具体步骤是：先检测照片中的人脸区域，只对该区域应用动漫化转换，对身体其他部分使用其他处理方式或保持原样，最后将处理后的脸部与身体部分重新组合。这样可以确保脸部的高质量转换，同时避免身体部分出现不协调的丑化效果。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F66",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},3761,"如何处理带有透明背景的 PNG 图像？","当前代码可能不支持直接处理带有透明背景的 PNG 图像。一个解决方案是在处理前将图像转换为 RGB 模式。可以使用以下代码片段：`image_rgb = image.convert(\"RGB\")`。然后对转换后的 RGB 图像进行人脸检测和尺寸调整，再进行模型推理。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F53",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},3762,"在苹果 M1 芯片的 Mac 上运行出错（ModuleNotFoundError: No module named 'tensorflow.contrib'）怎么办？","这个错误是因为代码依赖 TensorFlow 1.x 的 `tensorflow.contrib` 模块，而该模块在 TensorFlow 2.x 中已被移除。对于 M1 Mac 用户，可以考虑使用另一个 PyTorch 实现版本：https:\u002F\u002Fgithub.com\u002FTachibanaYoshino\u002FAnimeGANv2。另外，目前 PyTorch 在 M1 上的 GPU 加速支持可能还不完善。可以尝试使用提供的 `pytorch_generator_Paprika.pt` 模型文件在 CPU 上运行，虽然速度可能较慢。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F13",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},3763,"权重转换需要特定版本的 TensorFlow 和 Python，具体是什么版本？","权重转换步骤需要 TensorFlow 1.x 版本。经过验证，可以使用 `tensorflow-gpu==1.15.0` 和 Python 3.6 环境来成功运行转换脚本。请注意，TensorFlow 1.x 通常与 Python 3.5-3.7 兼容，但并非仅限于 Python 2。请确保你的环境配置正确。","https:\u002F\u002Fgithub.com\u002Fbryandlee\u002Fanimegan2-pytorch\u002Fissues\u002F31",[]]