[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-XingangPan--DragGAN":3,"tool-XingangPan--DragGAN":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":79,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":10,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":122,"github_topics":123,"view_count":128,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":129,"updated_at":130,"faqs":131,"releases":162},3096,"XingangPan\u002FDragGAN","DragGAN","Official Code for DragGAN (SIGGRAPH 2023)","DragGAN 是一款基于生成式人工智能的图像编辑工具，让用户能够像“拖拽”实物一样直观地操控图片内容。它主要解决了传统修图软件在处理复杂形变、姿态调整或物体移动时操作繁琐且效果不自然的痛点。用户只需在图像上标记起始点和目标点，DragGAN 就能自动计算并生成逼真的变形效果，无论是让狮子转头、让人物微笑，还是改变汽车的角度，都能轻松实现。\n\n这款工具特别适合设计师、数字艺术家以及希望探索 AI 创作潜力的研究人员使用。对于普通用户而言，通过其提供的在线演示平台，也能零门槛体验神奇的图像操控乐趣。DragGAN 的核心技术亮点在于其创新的“基于点的交互操纵”机制，它直接在生成模型的潜在流形上进行操作，确保了编辑后的图像在保持高分辨率和细节真实性的同时，拥有极高的自由度。作为 SIGGRAPH 2023 的获奖成果，DragGAN 将复杂的深度学习技术转化为简单直观的交互体验，为创意工作流带来了全新的可能性。","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold\u003C\u002Fh1>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fxingangpan.github.io\u002F\">\u003Cstrong>Xingang Pan\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fayushtewari.com\u002F\">\u003Cstrong>Ayush Tewari\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fpeople.mpi-inf.mpg.de\u002F~tleimkue\u002F\">\u003Cstrong>Thomas Leimkühler\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Flingjie0206.github.io\u002F\">\u003Cstrong>Lingjie Liu\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fwww.meka.page\u002F\">\u003Cstrong>Abhimitra Meka\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"http:\u002F\u002Fwww.mpi-inf.mpg.de\u002F~theobalt\u002F\">\u003Cstrong>Christian Theobalt\u003C\u002Fstrong>\u003C\u002Fa>\n  \u003C\u002Fp>\n  \u003Ch2 align=\"center\">SIGGRAPH 2023 Conference Proceedings\u003C\u002Fh2>\n  \u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXingangPan_DragGAN_readme_6bc092bb8672.gif\", width=\"600\">\n  \u003C\u002Fdiv>\n\n  \u003Cp align=\"center\">\n  \u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F\">\u003Cimg alt=\"PyTorch\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-ee4c2c?logo=pytorch&logoColor=white\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FXingangP\">\u003Cimg alt='Twitter' src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FXingangP?label=%40XingangP\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10973\">\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=adobeacrobatreader&logoWidth=20&logoColor=white&labelColor=66cc00&color=94DD15' alt='Paper PDF'>\n    \u003C\u002Fa>\n    \u003Ca href='https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FDragGAN\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDragGAN-Page-orange?style=for-the-badge&logo=Google%20chrome&logoColor=white&labelColor=D35400' alt='Project Page'>\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mey-IXPwQC_qSthI5hO-LTX7QL4ivtPh?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n## Web Demos\n\n[![Open in OpenXLab](https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg)](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FXingangPan\u002FDragGAN)\n\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fradames\u002FDragGan\">\u003Cimg alt=\"Huggingface\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-DragGAN-orange\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## Requirements\n\nIf you have CUDA graphic card, please follow the requirements of [NVlabs\u002Fstylegan3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3#requirements).  \n\nThe usual installation steps involve the following commands, they should set up the correct CUDA version and all the python packages\n\n```\nconda env create -f environment.yml\nconda activate stylegan3\n```\n\nThen install the additional requirements\n\n```\npip install -r requirements.txt\n```\n\nOtherwise (for GPU acceleration on MacOS with Silicon Mac M1\u002FM2, or just CPU) try the following:\n\n```sh\ncat environment.yml | \\\n  grep -v -E 'nvidia|cuda' > environment-no-nvidia.yml && \\\n    conda env create -f environment-no-nvidia.yml\nconda activate stylegan3\n\n# On MacOS\nexport PYTORCH_ENABLE_MPS_FALLBACK=1\n```\n\n## Run Gradio visualizer in Docker \n\nProvided docker image is based on NGC PyTorch repository. To quickly try out visualizer in Docker, run the following:  \n\n```sh\n# before you build the docker container, make sure you have cloned this repo, and downloaded the pretrained model by `python scripts\u002Fdownload_model.py`.\ndocker build . -t draggan:latest  \ndocker run -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n# (Use GPU)if you want to utilize your Nvidia gpu to accelerate in docker, please add command tag `--gpus all`, like:\n#   docker run --gpus all  -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n\ncd src && python visualizer_drag_gradio.py --listen\n```\nNow you can open a shared link from Gradio (printed in the terminal console).   \nBeware the Docker image takes about 25GB of disk space!\n\n## Download pre-trained StyleGAN2 weights\n\nTo download pre-trained weights, simply run:\n\n```\npython scripts\u002Fdownload_model.py\n```\nIf you want to try StyleGAN-Human and the Landscapes HQ (LHQ) dataset, please download weights from these links: [StyleGAN-Human](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dlFEHbu-WzQWJl7nBBZYcTyo000H9hVm\u002Fview?usp=sharing), [LHQ](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16twEf0T9QINAEoMsWefoWiyhcTd-aiWc\u002Fview?usp=sharing), and put them under `.\u002Fcheckpoints`.\n\nFeel free to try other pretrained StyleGAN.\n\n## Run DragGAN GUI\n\nTo start the DragGAN GUI, simply run:\n```sh\nsh scripts\u002Fgui.sh\n```\nIf you are using windows, you can run:\n```\n.\\scripts\\gui.bat\n```\n\nThis GUI supports editing GAN-generated images. To edit a real image, you need to first perform GAN inversion using tools like [PTI](https:\u002F\u002Fgithub.com\u002Fdanielroich\u002FPTI). Then load the new latent code and model weights to the GUI.\n\nYou can run DragGAN Gradio demo as well, this is universal for both windows and linux:\n```sh\npython visualizer_drag_gradio.py\n```\n\n## Acknowledgement\n\nThis code is developed based on [StyleGAN3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3). Part of the code is borrowed from [StyleGAN-Human](https:\u002F\u002Fgithub.com\u002Fstylegan-human\u002FStyleGAN-Human).\n\n(cheers to the community as well)\n## License\n\nThe code related to the DragGAN algorithm is licensed under [CC-BY-NC](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F).\nHowever, most of this project are available under a separate license terms: all codes used or modified from [StyleGAN3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3) is under the [Nvidia Source Code License](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002FLICENSE.txt).\n\nAny form of use and derivative of this code must preserve the watermarking functionality showing \"AI Generated\".\n\n## BibTeX\n\n```bibtex\n@inproceedings{pan2023draggan,\n    title={Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold},\n    author={Pan, Xingang and Tewari, Ayush, and Leimk{\\\"u}hler, Thomas and Liu, Lingjie and Meka, Abhimitra and Theobalt, Christian},\n    booktitle = {ACM SIGGRAPH 2023 Conference Proceedings},\n    year={2023}\n}\n```\n","\u003Cp align=\"center\">\n\n  \u003Ch1 align=\"center\">拖动你的GAN：生成图像流形上的交互式点操作\u003C\u002Fh1>\n  \u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fxingangpan.github.io\u002F\">\u003Cstrong>潘星刚\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fayushtewari.com\u002F\">\u003Cstrong>阿尤什·特瓦里\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fpeople.mpi-inf.mpg.de\u002F~tleimkue\u002F\">\u003Cstrong>托马斯·莱姆库勒\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Flingjie0206.github.io\u002F\">\u003Cstrong>刘凌杰\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fwww.meka.page\u002F\">\u003Cstrong>阿比米特拉·梅卡\u003C\u002Fstrong>\u003C\u002Fa>\n    ·\n    \u003Ca href=\"http:\u002F\u002Fwww.mpi-inf.mpg.de\u002F~theobalt\u002F\">\u003Cstrong>克里斯蒂安·特奥巴尔特\u003C\u002Fstrong>\u003C\u002Fa>\n  \u003C\u002Fp>\n  \u003Ch2 align=\"center\">SIGGRAPH 2023会议论文集\u003C\u002Fh2>\n  \u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXingangPan_DragGAN_readme_6bc092bb8672.gif\", width=\"600\">\n  \u003C\u002Fdiv>\n\n  \u003Cp align=\"center\">\n  \u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F\">\u003Cimg alt=\"PyTorch\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPyTorch-ee4c2c?logo=pytorch&logoColor=white\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Ftwitter.com\u002FXingangP\">\u003Cimg alt='Twitter' src=\"https:\u002F\u002Fimg.shields.io\u002Ftwitter\u002Ffollow\u002FXingangP?label=%40XingangP\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.10973\">\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPaper-PDF-green?style=for-the-badge&logo=adobeacrobatreader&logoWidth=20&logoColor=white&labelColor=66cc00&color=94DD15' alt='Paper PDF'>\n    \u003C\u002Fa>\n    \u003Ca href='https:\u002F\u002Fvcai.mpi-inf.mpg.de\u002Fprojects\u002FDragGAN\u002F'>\n      \u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDragGAN-Page-orange?style=for-the-badge&logo=Google%20chrome&logoColor=white&labelColor=D35400' alt='Project Page'>\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mey-IXPwQC_qSthI5hO-LTX7QL4ivtPh?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\">\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n## 网页演示\n\n[![在OpenXLab中打开](https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg)](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FXingangPan\u002FDragGAN)\n\n\u003Cp align=\"left\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fradames\u002FDragGan\">\u003Cimg alt=\"Huggingface\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20 Face-DragGAN-orange\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n## 需求说明\n\n如果你拥有CUDA显卡，请遵循[NVlabs\u002Fstylegan3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3#requirements)的要求。\n\n常规安装步骤包括以下命令，它们将设置正确的CUDA版本和所有Python包：\n\n```\nconda env create -f environment.yml\nconda activate stylegan3\n```\n\n然后安装额外的依赖项：\n\n```\npip install -r requirements.txt\n```\n\n否则（例如在搭载Apple Silicon芯片的MacOS设备上进行GPU加速，或仅使用CPU），请尝试以下步骤：\n\n```sh\ncat environment.yml | \\\n  grep -v -E 'nvidia|cuda' > environment-no-nvidia.yml && \\\n    conda env create -f environment-no-nvidia.yml\nconda activate stylegan3\n\n# 在MacOS上\nexport PYTORCH_ENABLE_MPS_FALLBACK=1\n```\n\n## 在Docker中运行Gradio可视化工具\n\n提供的Docker镜像基于NGC PyTorch仓库。要快速在Docker中试用可视化工具，运行以下命令：\n\n```sh\n# 在构建Docker容器之前，请确保已克隆此仓库，并通过`python scripts\u002Fdownload_model.py`下载预训练模型。\ndocker build . -t draggan:latest  \ndocker run -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n# （使用GPU）如果你想利用Nvidia GPU加速Docker中的计算，请添加`--gpus all`标签，例如：\n#   docker run --gpus all  -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n\ncd src && python visualizer_drag_gradio.py --listen\n```\n现在你可以打开Gradio打印在终端控制台中的共享链接。请注意，该Docker镜像大约需要25GB的磁盘空间！\n\n## 下载预训练的StyleGAN2权重\n\n要下载预训练权重，只需运行：\n\n```\npython scripts\u002Fdownload_model.py\n```\n\n如果你想尝试StyleGAN-Human和Landscape HQ (LHQ)数据集，请从以下链接下载权重：[StyleGAN-Human](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dlFEHbu-WzQWJl7nBBZYcTyo000H9hVm\u002Fview?usp=sharing)，[LHQ](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16twEf0T9QINAEoMsWefoWiyhcTd-aiWc\u002Fview?usp=sharing)，并将它们放置在`.\u002Fcheckpoints`目录下。\n\n你也可以尝试其他预训练的StyleGAN模型。\n\n## 运行DragGAN GUI\n\n要启动DragGAN GUI，只需运行：\n\n```sh\nsh scripts\u002Fgui.sh\n```\n\n如果你使用的是Windows系统，可以运行：\n\n```\n.\\scripts\\gui.bat\n```\n\n该GUI支持编辑由GAN生成的图像。若要编辑真实图像，你需要先使用如[PTI](https:\u002F\u002Fgithub.com\u002Fdanielroich\u002FPTI)之类的工具进行GAN反演，然后将新的潜在代码和模型权重加载到GUI中。\n\n你还可以运行DragGAN Gradio演示，这适用于Windows和Linux系统：\n\n```sh\npython visualizer_drag_gradio.py\n```\n\n## 致谢\n\n本代码基于[StyleGAN3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3)开发。部分代码借自[StyleGAN-Human](https:\u002F\u002Fgithub.com\u002Fstylegan-human\u002FStyleGAN-Human)。\n\n（也感谢社区的支持）\n## 许可证\n\n与DragGAN算法相关的代码采用[CC-BY-NC](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F)许可协议授权。\n\n然而，本项目的大部分内容适用单独的许可条款：所有来自[StyleGAN3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3)的使用或修改代码均受[Nvidia源代码许可](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3\u002Fblob\u002Fmain\u002FLICENSE.txt)约束。\n\n任何形式的使用及衍生作品都必须保留显示“AI Generated”的水印功能。\n\n## BibTeX\n\n```bibtex\n@inproceedings{pan2023draggan,\n    title={Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold},\n    author={Pan, Xingang and Tewari, Ayush, and Leimk{\\\"u}hler, Thomas and Liu, Lingjie and Meka, Abhimitra and Theobalt, Christian},\n    booktitle = {ACM SIGGRAPH 2023 Conference Proceedings},\n    year={2023}\n}\n```","# DragGAN 快速上手指南\n\nDragGAN 是一款基于生成式图像流形的交互式图像编辑工具，允许用户通过拖拽图像上的特征点来精确控制生成图像的姿态、表情和结构。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux, Windows, 或 macOS (M1\u002FM2)\n- **GPU**: 推荐 NVIDIA GPU (支持 CUDA)，macOS Silicon 芯片可使用 MPS 加速，也可仅使用 CPU（速度较慢）\n- **磁盘空间**: 约 25GB+ (包含 Docker 镜像或完整依赖及模型权重)\n- **软件依赖**: \n  - Python 3.8+\n  - Conda (推荐用于环境管理)\n  - Docker (可选，用于容器化部署)\n\n### 前置依赖\n本项目基于 [StyleGAN3](https:\u002F\u002Fgithub.com\u002FNVlabs\u002Fstylegan3) 开发。若使用 NVIDIA GPU，请确保已安装正确的 CUDA 版本和驱动程序。\n\n## 安装步骤\n\n### 方法一：Conda 本地安装（推荐）\n\n1. **创建并激活 Conda 环境**\n   \n   对于拥有 NVIDIA GPU 的用户：\n   ```bash\n   conda env create -f environment.yml\n   conda activate stylegan3\n   ```\n\n   对于 macOS (M1\u002FM2) 或仅使用 CPU 的用户：\n   ```bash\n   cat environment.yml | \\\n     grep -v -E 'nvidia|cuda' > environment-no-nvidia.yml && \\\n       conda env create -f environment-no-nvidia.yml\n   conda activate stylegan3\n   \n   # macOS 用户需额外设置\n   export PYTORCH_ENABLE_MPS_FALLBACK=1\n   ```\n\n2. **安装额外依赖**\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n3. **下载预训练模型权重**\n   \n   运行以下脚本自动下载默认权重：\n   ```bash\n   python scripts\u002Fdownload_model.py\n   ```\n   \n   *可选*：若想尝试 StyleGAN-Human 或 LHQ 数据集，可手动下载权重并放入 `.\u002Fcheckpoints` 目录：\n   - [StyleGAN-Human](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1dlFEHbu-WzQWJl7nBBZYcTyo000H9hVm\u002Fview?usp=sharing)\n   - [LHQ](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F16twEf0T9QINAEoMsWefoWiyhcTd-aiWc\u002Fview?usp=sharing)\n\n### 方法二：Docker 部署\n\n若希望快速体验且避免环境配置问题，可使用 Docker：\n\n1. **构建并运行容器**\n   ```bash\n   # 确保已克隆仓库并下载模型 (见上文下载步骤)\n   docker build . -t draggan:latest\n   \n   # 运行容器 (CPU 模式)\n   docker run -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n   \n   # 运行容器 (GPU 加速模式，需添加 --gpus all)\n   # docker run --gpus all -p 7860:7860 -v \"$PWD\":\u002Fworkspace\u002Fsrc -it draggan:latest bash\n   ```\n\n2. **启动可视化界面**\n   ```bash\n   cd src && python visualizer_drag_gradio.py --listen\n   ```\n   启动后，终端会打印 Gradio 的访问链接。\n\n## 基本使用\n\n### 启动图形界面 (GUI)\n\n安装完成后，可通过以下命令启动 DragGAN 的本地图形界面进行交互式编辑：\n\n**Linux \u002F macOS:**\n```bash\nsh scripts\u002Fgui.sh\n```\n\n**Windows:**\n```bash\n.\\scripts\\gui.bat\n```\n\n**通用 Gradio 演示模式 (推荐):**\n```bash\npython visualizer_drag_gradio.py\n```\n\n### 操作说明\n1. 启动后在浏览器打开显示的本地地址（通常为 `http:\u002F\u002F127.0.0.1:7860`）。\n2. 选择预训练模型生成的图像，或在经过 GAN 反演（如使用 [PTI](https:\u002F\u002Fgithub.com\u002Fdanielroich\u002FPTI) 处理真实图片）后加载潜在代码。\n3. 在图像上点击添加**控制点**（起始点）和**目标点**。\n4. 点击\"Drag\"按钮，观察图像特征随拖拽方向实时变化。\n\n> **注意**: 本工具主要用于编辑 GAN 生成的图像。若要编辑真实照片，必须先通过 GAN 反演技术将其转换为潜在空间代码。","一位电商设计师正在为新款皮包制作宣传图，需要调整生成式 AI 产出的模特姿态，让原本侧身的模特转为正脸以清晰展示产品细节。\n\n### 没有 DragGAN 时\n- **重绘成本高昂**：一旦对生成图像的姿态不满意，必须重新输入提示词反复尝试，难以精确控制模特转头的角度和幅度。\n- **后期修图繁琐**：若使用 Photoshop 手动液化或拼接，极易破坏皮包的纹理细节和光影一致性，导致画面看起来“假”。\n- **局部联动缺失**：强行移动身体某一部分（如肩膀）时，无法自动带动相邻部位（如手臂、衣褶）自然形变，造成肢体扭曲断裂。\n- **身份特征丢失**：在传统编辑过程中，模特的面部特征容易发生改变，导致同一系列海报中的人物形象不统一。\n\n### 使用 DragGAN 后\n- **指点即达的操控**：设计师只需在图片上标记关键点并拖动目标位置，DragGAN 即可实时将侧身模特平滑调整为正脸，精准度极高。\n- **光影纹理自洽**：基于生成流形的特性，DragGAN 在改变姿态时会自动补全被遮挡的区域，保持皮包皮革质感与光照逻辑的完美连续。\n- **全局自然联动**：拖动肩膀时，手臂和衣物褶皱会跟随物理规律自然变形，彻底消除了人工修图中常见的肢体断裂感。\n- **身份高度一致**：无论姿态如何大幅调整，DragGAN 都能锁定模特的面部特征，确保不同角度的宣传图中人物始终是同一人。\n\nDragGAN 将原本需要数小时的专业修图工作缩减为秒级的交互式操作，真正实现了“所想即所得”的图像编辑自由。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXingangPan_DragGAN_f6acb2ea.png","XingangPan","Xingang Pan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FXingangPan_9e619272.png","Assistant Professor at Nanyang Technological University",null,"Singapore","https:\u002F\u002Fxingangpan.github.io\u002F","https:\u002F\u002Fgithub.com\u002FXingangPan",[84,88,92,96,100,103],{"name":85,"color":86,"percentage":87},"Python","#3572A5",78.8,{"name":89,"color":90,"percentage":91},"Cuda","#3A4E3A",16.6,{"name":93,"color":94,"percentage":95},"C++","#f34b7d",4.5,{"name":97,"color":98,"percentage":99},"Dockerfile","#384d54",0,{"name":101,"color":102,"percentage":99},"Batchfile","#C1F12E",{"name":104,"color":105,"percentage":99},"Shell","#89e051",35921,3434,"2026-04-04T02:14:56","NOASSERTION","Linux, macOS, Windows","NVIDIA GPU 推荐（需遵循 StyleGAN3 要求，通常需支持 CUDA）；MacOS M1\u002FM2 可通过 MPS 加速；支持纯 CPU 模式但性能较低。具体显存大小未说明，建议 8GB+ 以获得流畅体验。","未说明",{"notes":114,"python":115,"dependencies":116},"1. 推荐使用 Conda 创建环境（基于 stylegan3 环境）。2. MacOS 用户需设置环境变量 `export PYTORCH_ENABLE_MPS_FALLBACK=1`。3. Docker 镜像体积较大（约 25GB）。4. 首次运行前需执行脚本下载预训练模型权重。5. 编辑真实图片需先使用 PTI 等工具进行 GAN 反转。6. 代码涉及 DragGAN 算法部分采用 CC-BY-NC 协议，基于 StyleGAN3 的部分采用 Nvidia 源代码许可证，且必须保留'AI Generated'水印功能。","未说明 (通过 conda environment.yml 管理)",[117,118,119,120,121],"pytorch","stylegan3 (基于 NVlabs\u002Fstylegan3)","gradio","numpy","pillow",[14],[124,125,126,127],"artificial-intelligence","generative-adversarial-network","generative-models","image-manipulation",6,"2026-03-27T02:49:30.150509","2026-04-06T11:31:59.492886",[132,137,142,147,152,157],{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},14253,"如何在 Windows 上正确安装并运行 DragGAN？","在 Windows 上可以通过以下步骤在 Anaconda PowerShell 中成功运行：\n1. 从 base 环境克隆创建一个新环境：`conda create --name gan3 --clone base`\n2. 激活新环境：`conda activate gan3`\n3. 安装 PyTorch 和 CUDA：`conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia`\n4. 安装依赖模块：`pip install -r requirements.txt`\n5. 启动 GUI：`.\\scripts\\gui.bat`","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F126",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},14254,"遇到 'ModuleNotFoundError: No module named imgui' 错误如何解决？","该错误通常是因为没有使用项目提供的 `environment.yml` 文件来配置 Conda 环境。请确保执行 `conda env create -f environment.yml` 来创建环境，该文件会自动安装包括 `imgui` 在内的所有必要依赖。如果已手动创建环境，请重新按照文档使用 environment.yml 配置，或手动运行 `pip install imgui`。","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F51",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},14255,"DragGAN 的源代码何时发布？是否开源？","官方代码已于 6 月发布。该项目是开源的，您可以直接在 GitHub 仓库中查看代码。此外，社区也有早期实现版本可供参考，例如：https:\u002F\u002Fgithub.com\u002FZeqiang-Lai\u002FDragGAN","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F15",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},14256,"运行时提示 'FileNotFoundError: ... checkpoints' 找不到检查点文件夹怎么办？","这是因为缺少预训练的模型权重文件。您需要手动下载模型文件：\n1. 编辑相关脚本文件，找到其中的下载链接。\n2. 将链接复制到浏览器中下载所有必要的文件。\n3. 下载完成后，将所有文件复制到项目根目录下的 `checkpoints` 文件夹中即可解决。","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F74",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},14257,"如何使用 DragGAN 编辑自己的真实照片（而非 GAN 生成的图像）？","DragGAN 原生支持编辑 GAN 生成的图像。若要编辑真实照片，必须先进行 GAN 反转（GAN Inversion）以获取对应的潜代码（latent code）。具体步骤如下：\n1. 使用如 [PTI](https:\u002F\u002Fgithub.com\u002Fdanielroich\u002FPTI) 等工具上传您的自定义图片并运行其代码。\n2. 获取生成的模型权重和 `w_pivot` 文件。\n3. 将模型权重转换为 pickle 格式。\n4. 在 DragGAN 的 GUI 中加载这些新的 `w_pivot` 和模型权重即可开始编辑。","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F100",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},14258,"Windows 用户是否有无需复杂环境配置的简易启动包？","有的。社区成员制作了专为 Windows 设计的启动包，内置了 15 个模型，解压即可使用，无需手动配置 Python 或 Conda 环境。您可以访问以下项目获取：https:\u002F\u002Fgithub.com\u002Fzhaoyun0071\u002FDragGAN-Windows-GUI","https:\u002F\u002Fgithub.com\u002FXingangPan\u002FDragGAN\u002Fissues\u002F63",[]]