[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MadryLab--photoguard":3,"tool-MadryLab--photoguard":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":104,"github_topics":105,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":113,"updated_at":114,"faqs":115,"releases":116},7469,"MadryLab\u002Fphotoguard","photoguard","Raising the Cost of Malicious AI-Powered Image Editing","PhotoGuard 是一款专为保护数字图像免受恶意 AI 编辑而设计的开源防御工具。随着 Stable Diffusion 等生成式模型的普及，未经授权的图像篡改（如深度伪造、恶意修图）变得愈发容易，PhotoGuard 旨在解决这一安全隐患，通过提高攻击者的“作恶成本”来守护图像安全。\n\n其核心原理是在图像中嵌入人眼无法察觉的对抗性扰动。当有人试图利用 AI 模型对经过 PhotoGuard 处理的图片进行“图生图”重绘或局部修复（Inpainting）时，模型生成的输出将变得严重失真、虚假或与原意完全无关，从而有效阻断恶意编辑流程。该项目提供了从基础编码器攻击到更复杂的扩散模型攻击等多种防护策略，并附带了详细的代码实现、Colab 笔记本教程以及基于 Gradio 的交互式演示，方便用户快速上手体验。\n\nPhotoGuard 非常适合关注数字版权保护的摄影师、设计师、媒体从业者，以及研究 AI 安全与对抗样本的开发者和技术人员。对于希望防止个人照片被 AI 滥用的普通用户，它也提供了一个极具价值的前瞻性技术参考。通过主动防御，PhotoGuard 让创作者在享受 AI 红利的同时","PhotoGuard 是一款专为保护数字图像免受恶意 AI 编辑而设计的开源防御工具。随着 Stable Diffusion 等生成式模型的普及，未经授权的图像篡改（如深度伪造、恶意修图）变得愈发容易，PhotoGuard 旨在解决这一安全隐患，通过提高攻击者的“作恶成本”来守护图像安全。\n\n其核心原理是在图像中嵌入人眼无法察觉的对抗性扰动。当有人试图利用 AI 模型对经过 PhotoGuard 处理的图片进行“图生图”重绘或局部修复（Inpainting）时，模型生成的输出将变得严重失真、虚假或与原意完全无关，从而有效阻断恶意编辑流程。该项目提供了从基础编码器攻击到更复杂的扩散模型攻击等多种防护策略，并附带了详细的代码实现、Colab 笔记本教程以及基于 Gradio 的交互式演示，方便用户快速上手体验。\n\nPhotoGuard 非常适合关注数字版权保护的摄影师、设计师、媒体从业者，以及研究 AI 安全与对抗样本的开发者和技术人员。对于希望防止个人照片被 AI 滥用的普通用户，它也提供了一个极具价值的前瞻性技术参考。通过主动防御，PhotoGuard 让创作者在享受 AI 红利的同时，也能更好地掌握自己作品的主动权。","# Raising the Cost of Malicious AI-Powered Image Editing\n\nThis repository contains the code for our recent work on safe-guarding images against manipulation by ML-powerd photo-editing models such as [stable diffusion](https:\u002F\u002Fstability.ai\u002Fblog\u002Fstable-diffusion-public-release).\n\n**Raising the Cost of Malicious AI-Powered Image Editing** \u003Cbr>\n_Hadi Salman\\*, Alaa Khaddaj\\*, Guillaume Leclerc\\*, Andrew Ilyas, Aleksander Madry_ \u003Cbr>\n**Paper:** https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06588 \u003Cbr>\n**Blog post:** https:\u002F\u002Fgradientscience.org\u002Fphotoguard \u003Cbr>\n**Interactive demo:** https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhadisalman\u002Fphotoguard (check [below](#new-interactive-demo) for how to run it locally) \u003Cbr>\n\n```bibtex\n    @article{salman2023raising,\n      title={Raising the Cost of Malicious AI-Powered Image Editing},\n      author={Salman, Hadi and Khaddaj, Alaa and Leclerc, Guillaume and Ilyas, Andrew and Madry, Aleksander},\n      journal={arXiv preprint arXiv:2302.06588},\n      year={2023}\n    }\n```\n\n\u003Cp>\n\u003Ckbd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_7ab1b69d1906.png\" width=\"1000\" >\n\u003C\u002Fkbd>\n\u003C\u002Fp>\n\n## Getting started\n\nOur code relies on the [stable diffusion code on Hugging Face](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers).\n\n1.  Clone our repo: `git clone https:\u002F\u002Fgithub.com\u002Fmadrylab\u002Fphotoguard.git`\n\n2.  Install dependencies:\n\n    ```\n      conda create -n photoguard python=3.10\n      conda activate photoguard\n      pip install -r requirements.txt\n      huggingface-cli login\n    ```\n\n3.  You should now be all set! Check out our notebooks!\n\n## [New] Interactive demo\n\nWe created an interactive demo using [gradio](https:\u002F\u002Fgradio.app\u002F), and we are hosting it on [this HuggingFace space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhadisalman\u002Fphotoguard).\n\n[![image alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_251f8d9ee9dc.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aTC59Q6ZDNM)\n\nHowever, for faster inference, you can run the demo locally on your machine! Simply do this:\n\n```\nconda activate photoguard\ncd demo\npython app.py\n```\n\n## Generating high-quality fake images\n\nThe first step is we will walk you through how you can generate high quality fake images. Check out this notebook! The result will be such images:\n\nSee [this notebook](notebooks\u002Fgenerating_fake_images.ipynb)!\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1pwfeSe6MUjD7UfqdWxurMSWWZhic9TPl?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_cd0961dc2ec7.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n## Simple photo-guarding (Encoder Attack):\n\nNow, we describe the simplest form of photo safeguarding that we implement. In particular, we implement a simple PGD attack on the image embedding part of the stable diffusion model. We have two demos demonstrating the efficacy of such photo safeguarding method. The goal of both is to cause the stable diffusion model to generate something that is either unrealistic, or unrelated to the original image.\n\n### Photo-guarding against Image-to-Image pipelines\n\nThe first is the case where someone uses an image + prompt to modify the input image based on the prompt description.\n\nSee [this notebook](notebooks\u002Fdemo_simple_attack_img2img.ipynb)!\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1P9_Xkbb05d5ynuvucFO6TjXJoXLq_Vyg?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_8083a7ae84af.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n### Photo-guarding against Inpainting pipelines\n\nThe second is the more interesting scenario where someone wants to edit parts of an existing image via inpainting. The generated images after immunization are clearly fake!\n\nSee [this notebook](notebooks\u002Fdemo_simple_attack_inpainting.ipynb)!\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1q-p8_PWROVOAl6B07znev0W-Z9gKgoW2?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_1c529af40d8a.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n## Complex photo-guarding (Diffusion attack)\n\nFor more effective photo-guarding especially against image inpainting, we need to attack the stable diffusion model end-to-end. Now, the generated images after immunization are even more clearly fake than above!\n\nSee [this notebook](notebooks\u002Fdemo_complex_attack_inpainting.ipynb)!\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_5404de085396.png\" width=\"1000\" >\n\u003C\u002Fp>\n\nThat's it! Please let us know if you have any questions. And check our paper for details about each of these attacks.\n","# 提高恶意AI图像编辑的成本\n\n本仓库包含我们近期关于保护图像免受机器学习驱动的图片编辑模型（如[Stable Diffusion](https:\u002F\u002Fstability.ai\u002Fblog\u002Fstable-diffusion-public-release)）篡改的工作代码。\n\n**提高恶意AI图像编辑的成本** \u003Cbr>\n_哈迪·萨尔曼\\*, 阿拉·卡达吉\\*, 吉约姆·勒克莱尔\\*, 安德鲁·伊利亚斯，亚历山大·马德里_ \u003Cbr>\n**论文:** https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.06588 \u003Cbr>\n**博客文章:** https:\u002F\u002Fgradientscience.org\u002Fphotoguard \u003Cbr>\n**交互式演示:** https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhadisalman\u002Fphotoguard（请参阅[下方](#new-interactive-demo)了解如何在本地运行） \u003Cbr>\n\n```bibtex\n    @article{salman2023raising,\n      title={Raising the Cost of Malicious AI-Powered Image Editing},\n      author={Salman, Hadi and Khaddaj, Alaa and Leclerc, Guillaume and Ilyas, Andrew and Madry, Aleksander},\n      journal={arXiv preprint arXiv:2302.06588},\n      year={2023}\n    }\n```\n\n\u003Cp>\n\u003Ckbd>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_7ab1b69d1906.png\" width=\"1000\" >\n\u003C\u002Fkbd>\n\u003C\u002Fp>\n\n## 快速入门\n\n我们的代码依赖于[Hugging Face上的Stable Diffusion代码库](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers)。\n\n1.  克隆我们的仓库：`git clone https:\u002F\u002Fgithub.com\u002Fmadrylab\u002Fphotoguard.git`\n\n2.  安装依赖：\n\n    ```\n      conda create -n photoguard python=3.10\n      conda activate photoguard\n      pip install -r requirements.txt\n      huggingface-cli login\n    ```\n\n3.  现在您已经准备就绪！请查看我们的笔记本！\n\n## [新] 交互式演示\n\n我们使用[Gradio](https:\u002F\u002Fgradio.app\u002F)创建了一个交互式演示，并将其托管在[Hugging Face空间](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhadisalman\u002Fphotoguard)上。\n\n[![image alt text](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_251f8d9ee9dc.png)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aTC59Q6ZDNM)\n\n不过，为了获得更快的推理速度，您也可以在本地机器上运行该演示！只需执行以下命令：\n\n```\nconda activate photoguard\ncd demo\npython app.py\n```\n\n## 生成高质量假图像\n\n第一步我们将指导您如何生成高质量的假图像。请查看此笔记本！最终效果如下所示：\n\n请参阅[此笔记本](notebooks\u002Fgenerating_fake_images.ipynb)！\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1pwfeSe6MUjD7UfqdWxurMSWWZhic9TPl?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_cd0961dc2ec7.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n## 简单的照片防护（编码器攻击）：\n\n接下来，我们将介绍我们实现的最简单形式的照片防护方法。具体来说，我们对Stable Diffusion模型的图像嵌入部分实施了一个简单的PGD攻击。我们有两个演示展示了这种照片防护方法的有效性。两者的目的是让Stable Diffusion模型生成要么不真实、要么与原始图像无关的内容。\n\n### 针对图像到图像流水线的照片防护\n\n第一个场景是有人使用一张图像和提示词，根据提示描述来修改输入图像。\n\n请参阅[此笔记本](notebooks\u002Fdemo_simple_attack_img2img.ipynb)！\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1P9_Xkbb05d5ynuvucFO6TjXJoXLq_Vyg?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_8083a7ae84af.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n### 针对修复流水线的照片防护\n\n第二个更有趣的场景是有人希望通过修复技术编辑现有图像的某些部分。经过免疫处理后生成的图像明显是伪造的！\n\n请参阅[此笔记本](notebooks\u002Fdemo_simple_attack_inpainting.ipynb)！\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1q-p8_PWROVOAl6B07znev0W-Z9gKgoW2?usp=sharing)\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_1c529af40d8a.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n## 复杂的照片防护（扩散攻击）\n\n为了更有效地防护，尤其是在应对图像修复时，我们需要对Stable Diffusion模型进行端到端的攻击。此时，经过免疫处理后生成的图像比之前更加明显地呈现出伪造特征！\n\n请参阅[此笔记本](notebooks\u002Fdemo_complex_attack_inpainting.ipynb)！\n\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_readme_5404de085396.png\" width=\"1000\" >\n\u003C\u002Fp>\n\n好了！如果您有任何问题，请随时告诉我们。更多关于这些攻击的细节，请参阅我们的论文。","# PhotoGuard 快速上手指南\n\nPhotoGuard 是一个旨在保护图像免受恶意 AI 编辑（如 Stable Diffusion 生成的篡改图像）的开源工具。它通过对图像添加人眼不可见的扰动，使得 AI 模型在尝试编辑该图像时生成失真或无关的结果。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)\n*   **Python 版本**: 3.10\n*   **硬件要求**: 推荐配备 NVIDIA GPU 以加速推理和攻击生成过程\n*   **前置依赖**:\n    *   [Conda](https:\u002F\u002Fdocs.conda.io\u002Fen\u002Flatest\u002Fminiconda.html) (推荐用于环境管理)\n    *   Git\n    *   Hugging Face 账号 (用于下载预训练模型)\n\n## 安装步骤\n\n请按照以下步骤在本地搭建 PhotoGuard 环境：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmadrylab\u002Fphotoguard.git\n    cd photoguard\n    ```\n\n2.  **创建并激活 Conda 环境**\n    ```bash\n    conda create -n photoguard python=3.10\n    conda activate photoguard\n    ```\n\n3.  **安装 Python 依赖**\n    > **提示**: 国内用户若遇到 `pip` 下载速度慢的问题，可添加清华源加速：\n    > `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n    \n    ```bash\n    pip install -r requirements.txt\n    ```\n\n4.  **登录 Hugging Face**\n    您需要登录以下载 Stable Diffusion 模型权重：\n    ```bash\n    huggingface-cli login\n    ```\n    *按提示输入您的 Hugging Face Access Token。*\n\n## 基本使用\n\n安装完成后，您可以通过运行官方提供的 Jupyter Notebook 来体验核心功能，或者启动本地的交互式演示。\n\n### 方式一：运行交互式演示 (推荐新手)\n\n该项目提供了一个基于 Gradio 的本地演示界面，方便直观地测试图片防护效果。\n\n1.  进入 demo 目录：\n    ```bash\n    cd demo\n    ```\n\n2.  启动应用：\n    ```bash\n    python app.py\n    ```\n\n3.  在浏览器中打开终端显示的本地地址（通常为 `http:\u002F\u002F127.0.0.1:7860`），上传图像并选择防护模式（如 Image-to-Image 或 Inpainting）即可看到防护后的效果。\n\n### 方式二：通过 Notebook 体验核心算法\n\n如果您希望深入了解代码逻辑或生成高质量的对抗样本，建议使用 Google Colab 或本地 Jupyter 运行以下笔记：\n\n*   **生成高质量伪造图像示例**:\n    [notebooks\u002Fgenerating_fake_images.ipynb](notebooks\u002Fgenerating_fake_images.ipynb)\n    *(也可在 Colab 直接运行)*\n\n*   **简单防护模式 (Encoder Attack)**:\n    针对 Image-to-Image 或 Inpainting 流程的基础防护，使生成结果变得不真实。\n    *   Image-to-Image: [notebooks\u002Fdemo_simple_attack_img2img.ipynb](notebooks\u002Fdemo_simple_attack_img2img.ipynb)\n    *   Inpainting: [notebooks\u002Fdemo_simple_attack_inpainting.ipynb](notebooks\u002Fdemo_simple_attack_inpainting.ipynb)\n\n*   **复杂防护模式 (Diffusion Attack)**:\n    端到端攻击 Stable Diffusion 模型，提供更强的防护效果，尤其适用于防止局部重绘（Inpainting）。\n    *   Inpainting: [notebooks\u002Fdemo_complex_attack_inpainting.ipynb](notebooks\u002Fdemo_complex_attack_inpainting.ipynb)","一位独立摄影师将高清人像作品发布到社交媒体，却担心这些照片被他人利用 Stable Diffusion 等 AI 模型恶意篡改为虚假色情内容或进行深度伪造。\n\n### 没有 photoguard 时\n- 原始图片一旦公开，任何人都可下载并作为“图生图”或“局部重绘（Inpainting）”的输入素材，几乎零成本启动恶意编辑。\n- AI 模型能精准理解原图的人物特征与光影结构，生成的伪造图像逼真度极高，肉眼难以辨别真伪。\n- 摄影师缺乏技术防御手段，只能被动等待侵权发生后进行投诉维权，此时虚假内容往往已广泛传播。\n- 恶意修改者只需简单调整提示词（Prompt），即可让模特“换上”完全不存在的服装或置身于虚构场景中。\n\n### 使用 photoguard 后\n- 摄影师在发布前对图片施加不可见的对抗性扰动，大幅提高了恶意编辑的计算门槛和失败率。\n- 当攻击者尝试利用受保护图片进行 AI 生成时，模型输出的结果会变得扭曲、噪点密集或与原图内容完全无关。\n- 即使针对局部区域的精细篡改（如换脸或改衣），photoguard 也能破坏模型的潜在嵌入表示，使合成痕迹明显且虚假。\n- 创作者从被动防御转为主动免疫，无需依赖平台审核机制，直接在源头阻断了高质量假图的生成路径。\n\nphotoguard 通过给图片穿上“数字防弹衣”，将恶意 AI 编辑的成本提升至不可行的高度，有效守护了视觉内容的真实性和创作者权益。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMadryLab_photoguard_251f8d9e.png","MadryLab","Madry Lab","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMadryLab_4dfbd7f6.png","Towards a Principled Science of Deep Learning",null,"madry-lab.ml","https:\u002F\u002Fgithub.com\u002FMadryLab",[81,85],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",100,{"name":86,"color":87,"percentage":88},"Python","#3572A5",0,671,65,"2026-04-13T23:40:40","MIT","未说明","必需（基于 Stable Diffusion 和对抗攻击计算），具体型号和显存大小未说明，建议使用支持 CUDA 的 NVIDIA GPU",{"notes":96,"python":97,"dependencies":98},"项目依赖 Hugging Face 的 Stable Diffusion 代码库。需使用 conda 创建名为 'photoguard' 的环境并安装 requirements.txt 中的依赖。运行前需执行 'huggingface-cli login' 进行认证。包含交互式 Demo（基于 Gradio）和多个 Jupyter Notebook 用于生成假图及测试简单的编码器攻击或复杂的扩散模型攻击。首次运行需下载较大的模型文件。","3.10",[99,100,101,102,103],"diffusers (Hugging Face)","gradio","torch","transformers","accelerate",[15,14],[106,107,108,109,110,111,112],"adversarial-attacks","adversarial-examples","deep-learning","deepfakes","robustness","stable-diffusion","computer-vision","2026-03-27T02:49:30.150509","2026-04-15T03:27:46.841604",[],[]]