[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yenchenlin--awesome-adversarial-machine-learning":3,"tool-yenchenlin--awesome-adversarial-machine-learning":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":80,"stars":83,"forks":84,"last_commit_at":85,"license":80,"difficulty_score":46,"env_os":86,"env_gpu":87,"env_ram":87,"env_deps":88,"category_tags":91,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":92,"updated_at":93,"faqs":94,"releases":95},3577,"yenchenlin\u002Fawesome-adversarial-machine-learning","awesome-adversarial-machine-learning","A curated list of awesome adversarial machine learning resources","awesome-adversarial-machine-learning 是一份精心整理的对抗性机器学习资源清单，旨在为初学者和研究者提供该领域的入门指引。随着深度学习在图像识别、自动驾驶等关键场景的广泛应用，模型面临被“对抗样本”误导的风险——即人类肉眼难以察觉的微小扰动，却能让 AI 做出完全错误的判断。这份清单正是为了帮助大家理解、复现并防御此类攻击而诞生。\n\n它系统性地汇集了该领域最具影响力的博客文章、学术论文和技术演讲，涵盖了从基础理论（如神经网络的脆弱性）到具体攻击手段（针对图像分类、强化学习及目标检测的黑盒与白盒攻击），再到防御策略评估的全方位内容。虽然作者已注明不再持续更新最新论文，但其收录的经典文献（如 Goodfellow 和 Madry 等人的开创性工作）依然是构建知识体系的坚实基石。\n\n无论是从事 AI 安全研究的研究人员、希望提升模型鲁棒性的算法工程师，还是对 AI 局限性感兴趣的技术爱好者，都能从中快速找到高质量的学习路径。通过阅读这些资源，用户可以深入理解 AI 模型为何会“犯错”，并掌握评估与增强模型安全性的核心方法，是进入对抗性机器学习领域不可多得的导","awesome-adversarial-machine-learning 是一份精心整理的对抗性机器学习资源清单，旨在为初学者和研究者提供该领域的入门指引。随着深度学习在图像识别、自动驾驶等关键场景的广泛应用，模型面临被“对抗样本”误导的风险——即人类肉眼难以察觉的微小扰动，却能让 AI 做出完全错误的判断。这份清单正是为了帮助大家理解、复现并防御此类攻击而诞生。\n\n它系统性地汇集了该领域最具影响力的博客文章、学术论文和技术演讲，涵盖了从基础理论（如神经网络的脆弱性）到具体攻击手段（针对图像分类、强化学习及目标检测的黑盒与白盒攻击），再到防御策略评估的全方位内容。虽然作者已注明不再持续更新最新论文，但其收录的经典文献（如 Goodfellow 和 Madry 等人的开创性工作）依然是构建知识体系的坚实基石。\n\n无论是从事 AI 安全研究的研究人员、希望提升模型鲁棒性的算法工程师，还是对 AI 局限性感兴趣的技术爱好者，都能从中快速找到高质量的学习路径。通过阅读这些资源，用户可以深入理解 AI 模型为何会“犯错”，并掌握评估与增强模型安全性的核心方法，是进入对抗性机器学习领域不可多得的导航图。","# :warning: Deprecated\nI no longer include up-to-date papers, but the list is still a good reference for starters.\n\n\n# Awesome Adversarial Machine Learning: [![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\nA curated list of awesome adversarial machine learning resources, inspired by [awesome-computer-vision](https:\u002F\u002Fgithub.com\u002Fjbhuang0604\u002Fawesome-computer-vision).\n\n## Table of Contents\n\n - [Blogs](#blogs)\n - [Papers](#papers)\n - [Talks](#talks)\n\n## Blogs\n * [Breaking Linear Classifiers on ImageNet](http:\u002F\u002Fkarpathy.github.io\u002F2015\u002F03\u002F30\u002Fbreaking-convnets\u002F), A. Karpathy et al.\n * [Breaking things is easy](http:\u002F\u002Fwww.cleverhans.io\u002Fsecurity\u002Fprivacy\u002Fml\u002F2016\u002F12\u002F16\u002Fbreaking-things-is-easy.html), N. Papernot & I. Goodfellow et al.\n * [Attacking Machine Learning with Adversarial Examples](https:\u002F\u002Fblog.openai.com\u002Fadversarial-example-research\u002F), N. Papernot, I. Goodfellow, S. Huang, Y. Duan, P. Abbeel, J. Clark.\n * [Robust Adversarial Examples](https:\u002F\u002Fblog.openai.com\u002Frobust-adversarial-inputs\u002F), Anish Athalye.\n * [A Brief Introduction to Adversarial Examples](http:\u002F\u002Fpeople.csail.mit.edu\u002Fmadry\u002Flab\u002Fblog\u002Fadversarial\u002F2018\u002F07\u002F06\u002Fadversarial_intro\u002F), A. Madry et al.\n * [Training Robust Classifiers (Part 1)](http:\u002F\u002Fpeople.csail.mit.edu\u002Fmadry\u002Flab\u002Fblog\u002Fadversarial\u002F2018\u002F07\u002F11\u002Frobust_optimization_part1\u002F), A. Madry et al.\n * [Adversarial Machine Learning Reading List](https:\u002F\u002Fnicholas.carlini.com\u002Fwriting\u002F2018\u002Fadversarial-machine-learning-reading-list.html), N. Carlini\n * [Recommendations for Evaluating Adversarial Example Defenses](https:\u002F\u002Fnicholas.carlini.com\u002Fwriting\u002F2018\u002Fevaluating-adversarial-example-defenses.html), N. Carlini\n\n \n## Papers\n### General\n * [Intriguing properties of neural networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6199), C. Szegedy et al., arxiv 2014\n * [Explaining and Harnessing Adversarial Examples](https:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6572), I. Goodfellow et al., ICLR 2015\n * [Motivating the Rules of the Game for Adversarial Example Research](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.06732), J. Gilmer et al., arxiv 2018\n * [Wild Patterns: Ten Years After the Rise of Adversarial Machine Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.03141), B. Biggio, Pattern Recognition 2018\n\n### Attack\n**Image Classification**\n\n * [DeepFool: a simple and accurate method to fool deep neural networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.04599), S. Moosavi-Dezfooli et al., CVPR 2016\n * [The Limitations of Deep Learning in Adversarial Settings](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07528), N. Papernot et al., ESSP 2016\n * [Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Samples](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07277), N. Papernot et al., arxiv 2016\n * [Adversarial Examples In The Physical World](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.02533v3.pdf), A. Kurakin et al., ICLR workshop 2017 \n * [Delving into Transferable Adversarial Examples and Black-box Attacks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.02770) Liu et al., ICLR 2017\n * [Towards Evaluating the Robustness of Neural Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.04644) N. Carlini et al., SSP 2017\n * [Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.02697), N. Papernot et al., Asia CCS 2017\n * [Privacy and machine learning: two unexpected allies?](http:\u002F\u002Fwww.cleverhans.io\u002Fprivacy\u002F2018\u002F04\u002F29\u002Fprivacy-and-machine-learning.html), I. Goodfellow et al.\n\n**Reinforcement Learning**\n\n* [Adversarial attacks on neural network policies](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.02284), S. Huang et al, ICLR workshop 2017\n* [Tactics of Adversarial Attacks on Deep Reinforcement Learning Agents](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06748), Y. Lin et al, IJCAI 2017\n* [Delving into adversarial attacks on deep policies](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.06452), J. Kos et al., ICLR workshop 2017\n\n**Segmentation & Object Detection**\n\n* [Adversarial Examples for Semantic Segmentation and Object Detection](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.08603.pdf), C. Xie, ICCV 2017\n\n**VAE-GAN**\n\n* [Adversarial examples for generative models](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.06832), J. Kos et al. arxiv 2017\n\n**Speech Recognition**\n\n* [Audio Adversarial Examples: Targeted Attacks on Speech-to-Text](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.01944), N. Carlini et al., arxiv 2018\n\n**Questiona Answering System**\n\n* [Adversarial Examples for Evaluating Reading Comprehension Systems](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07328), R. Jia et al., EMNLP 2017\n\n### Defence\n\n**Adversarial Training**\n\n* [Adversarial Machine Learning At Scale](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.01236.pdf), A. Kurakin et al., ICLR 2017\n* [Ensemble Adversarial Training: Attacks and Defenses](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.07204), F. Tramèr et al., arxiv 2017\n\n**Defensive Distillation**\n* [Distillation as a Defense to Adversarial Perturbations against Deep Neural Networks](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.04508.pdf), N. Papernot et al., SSP 2016\n* [Extending Defensive Distillation](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.05264), N. Papernot et al., arxiv 2017\n\n**Generative Model**\n* [PixelDefend: Leveraging Generative Models to Understand and Defend against Adversarial Examples](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10766), Y. Song et al., ICLR 2018\n* [Detecting Adversarial Attacks on Neural Network Policies with Visual Foresight](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.00814), Y. Lin et al., NIPS workshop 2017\n\n### Regularization\n * [Distributional Smoothing with Virtual Adversarial Training](https:\u002F\u002Farxiv.org\u002Fabs\u002F1507.00677), T. Miyato et al., ICLR 2016\n * [Adversarial Training Methods for Semi-Supervised Text Classification](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725), T. Miyato et al., ICLR 2017\n\n### Others\n * [Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images](https:\u002F\u002Farxiv.org\u002Fabs\u002F1412.1897), A. Nguyen et al., CVPR 2015\n \n## Talks\n * [Do Statistical Models Understand the World?](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Pq4A2mPCB0Y), I. Goodfellow, 2015\n * [Classifiers under Attack](https:\u002F\u002Fwww.usenix.org\u002Fconference\u002Fenigma2017\u002Fconference-program\u002Fpresentation\u002Fevans), David Evans, 2017\n  * [Adversarial Examples in Machine Learning](https:\u002F\u002Fwww.usenix.org\u002Fconference\u002Fenigma2017\u002Fconference-program\u002Fpresentation\u002Fpapernot), Nicolas Papernot, 2017\n  * [Poisoning Behavioral Malware Clustering](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1121), Biggio. B, Rieck. K, Ariu. D, Wressnegger. C, Corona. I. Giacinto, G. Roli. F, 2014\n  * [Is Data Clustering in Adversarial Settings Secure?](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F955), BBiggio. B, Pillai. I, Rota Bulò. S, Ariu. D, Pelillo. M, Roli. F, 2015\n  * [Poisoning complete-linkage hierarchical clustering](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1089), Biggio. B, Rota Bulò. S, Pillai. I, Mura. M, Zemene Mequanint. E, Pelillo. M, Roli. F, 2014\n  * [Is Feature Selection Secure against Training Data Poisoning?](https:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1191), Xiao. H, Biggio. B, Brown. G, Fumera. G, Eckert. C, Roli. F, 2015\n  * [Adversarial Feature Selection Against Evasion Attacks](https:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1188), \tZhang. F, Chan. PPK, Biggio. B, Yeung. DS, Roli. F, 2016\n\n## Licenses\nLicense\n\n[![CC0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_awesome-adversarial-machine-learning_readme_b7657951a0bb.png)](http:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\nTo the extent possible under law, [Yen-Chen Lin](http:\u002F\u002Fyclin.me\u002F) has waived all copyright and related or neighboring rights to this work.\n","# ：警告：已弃用\n我不再包含最新的论文，但该列表对于初学者来说仍然是一个很好的参考。\n\n\n# 令人惊叹的对抗机器学习：[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n一份精心整理的优秀对抗机器学习资源列表，灵感来源于 [awesome-computer-vision](https:\u002F\u002Fgithub.com\u002Fjbhuang0604\u002Fawesome-computer-vision)。\n\n## 目录\n\n - [博客](#blogs)\n - [论文](#papers)\n - [演讲](#talks)\n\n## 博客\n * [在ImageNet上攻破线性分类器](http:\u002F\u002Fkarpathy.github.io\u002F2015\u002F03\u002F30\u002Fbreaking-convnets\u002F)，A. Karpathy 等。\n * [破坏事物很容易](http:\u002F\u002Fwww.cleverhans.io\u002Fsecurity\u002Fprivacy\u002Fml\u002F2016\u002F12\u002F16\u002Fbreaking-things-is-easy.html)，N. Papernot & I. Goodfellow 等。\n * [用对抗样本攻击机器学习](https:\u002F\u002Fblog.openai.com\u002Fadversarial-example-research\u002F)，N. Papernot、I. Goodfellow、S. Huang、Y. Duan、P. Abbeel、J. Clark。\n * [鲁棒的对抗样本](https:\u002F\u002Fblog.openai.com\u002Frobust-adversarial-inputs\u002F)，Anish Athalye。\n * [对抗样本简要介绍](http:\u002F\u002Fpeople.csail.mit.edu\u002Fmadry\u002Flab\u002Fblog\u002Fadversarial\u002F2018\u002F07\u002F06\u002Fadversarial_intro\u002F)，A. Madry 等。\n * [训练鲁棒分类器（第1部分）](http:\u002F\u002Fpeople.csail.mit.edu\u002Fmadry\u002Flab\u002Fblog\u002Fadversarial\u002F2018\u002F07\u002F11\u002Frobust_optimization_part1\u002F)，A. Madry 等。\n * [对抗机器学习阅读清单](https:\u002F\u002Fnicholas.carlini.com\u002Fwriting\u002F2018\u002Fadversarial-machine-learning-reading-list.html)，N. Carlini。\n * [评估对抗样本防御措施的建议](https:\u002F\u002Fnicholas.carlini.com\u002Fwriting\u002F2018\u002Fevaluating-adversarial-example-defenses.html)，N. Carlini。\n\n \n## 论文\n### 通用\n * [神经网络的有趣特性](https:\u002F\u002Farxiv.org\u002Fabs\u002F1312.6199)，C. Szegedy 等，arXiv 2014年。\n * [解释与利用对抗样本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1412.6572)，I. Goodfellow 等，ICLR 2015年。\n * [为对抗样本研究制定游戏规则的动机](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.06732)，J. Gilmer 等，arXiv 2018年。\n * [狂野模式：对抗机器学习兴起十年之后](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.03141)，B. Biggio，模式识别 2018年。\n\n### 攻击\n**图像分类**\n\n * [DeepFool：一种简单而准确的欺骗深度神经网络的方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.04599)，S. Moosavi-Dezfooli 等，CVPR 2016年。\n * [深度学习在对抗环境中的局限性](https:\u002F\u002Farxiv.org\u002Fabs\u002F1511.07528)，N. Papernot 等，ESSP 2016年。\n * [机器学习中的迁移性：从现象到使用对抗样本的黑盒攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07277)，N. Papernot 等，arXiv 2016年。\n * [物理世界中的对抗样本](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1607.02533v3.pdf)，A. Kurakin 等，ICLR研讨会 2017年。\n * [深入研究可迁移的对抗样本和黑盒攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.02770) Liu等，ICLR 2017年。\n * [迈向评估神经网络的鲁棒性](https:\u002F\u002Farxiv.org\u002Fabs\u002F1608.04644) N. Carlini 等，SSP 2017年。\n * [使用对抗样本对深度学习系统进行实用的黑盒攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.02697)，N. Papernot 等，Asia CCS 2017年。\n * [隐私与机器学习：两个意想不到的盟友？](http:\u002F\u002Fwww.cleverhans.io\u002Fprivacy\u002F2018\u002F04\u002F29\u002Fprivacy-and-machine-learning.html)，I. Goodfellow 等。\n\n**强化学习**\n\n* [对神经网络策略的对抗攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.02284)，S. Huang 等，ICLR研讨会 2017年。\n* [深度强化学习智能体的对抗攻击战术](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06748)，Y. Lin 等，IJCAI 2017年。\n* [深入研究对深度策略的对抗攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.06452)，J. Kos 等，ICLR研讨会 2017年。\n\n**分割与目标检测**\n\n* [语义分割和目标检测的对抗样本](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1703.08603.pdf)，C. Xie，ICCV 2017年。\n\n**VAE-GAN**\n\n* [生成模型的对抗样本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.06832)，J. Kos 等，arXiv 2017年。\n\n**语音识别**\n\n* [音频对抗样本：针对语音转文本的定向攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.01944)，N. Carlini 等，arXiv 2018年。\n\n**问答系统**\n\n* [用于评估阅读理解系统的对抗样本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07328)，R. Jia 等，EMNLP 2017年。\n\n### 防御\n\n**对抗训练**\n\n* [大规模的对抗机器学习](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1611.01236.pdf)，A. Kurakin 等，ICLR 2017年。\n * [集成对抗训练：攻击与防御](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.07204)，F. Tramèr 等，arXiv 2017年。\n\n**防御蒸馏**\n* [蒸馏作为抵御深度神经网络对抗扰动的防御措施](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1511.04508.pdf)，N. Papernot 等，SSP 2016年。\n* [扩展防御蒸馏](https:\u002F\u002Farxiv.org\u002Fabs\u002F1705.05264)，N. Papernot 等，arXiv 2017年。\n\n**生成模型**\n* [PixelDefend：利用生成模型理解和防御对抗样本](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.10766)，Y. Song 等，ICLR 2018年。\n* [通过视觉预见检测神经网络策略上的对抗攻击](https:\u002F\u002Farxiv.org\u002Fabs\u002F1710.00814)，Y. Lin 等，NIPS研讨会 2017年。\n\n### 正则化\n * [使用虚拟对抗训练进行分布平滑](https:\u002F\u002Farxiv.org\u002Fabs\u002F1507.00677)，T. Miyato 等，ICLR 2016年。\n * [半监督文本分类的对抗训练方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725)，T. Miyato 等，ICLR 2017年。\n\n### 其他\n * [深度神经网络很容易被欺骗：对无法识别的图像给出高置信度预测](https:\u002F\u002Farxiv.org\u002Fabs\u002F1412.1897)，A. Nguyen 等，CVPR 2015年。\n\n## 演讲\n * [统计模型能理解世界吗？](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=Pq4A2mPCB0Y), I. Goodfellow, 2015\n * [遭受攻击的分类器](https:\u002F\u002Fwww.usenix.org\u002Fconference\u002Fenigma2017\u002Fconference-program\u002Fpresentation\u002Fevans), 大卫·埃文斯, 2017\n  * [机器学习中的对抗样本](https:\u002F\u002Fwww.usenix.org\u002Fconference\u002Fenigma2017\u002Fconference-program\u002Fpresentation\u002Fpapernot), 尼古拉斯·帕佩诺, 2017\n  * [污染行为恶意软件聚类](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1121), Biggio. B, Rieck. K, Ariu. D, Wressnegger. C, Corona. I. Giacinto, G. Roli. F, 2014\n  * [在对抗性环境中进行数据聚类是否安全？](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F955), BBiggio. B, Pillai. I, Rota Bulò. S, Ariu. D, Pelillo. M, Roli. F, 2015\n  * [污染完全链接层次聚类](http:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1089), Biggio. B, Rota Bulò. S, Pillai. I, Mura. M, Zemene Mequanint. E, Pelillo. M, Roli. F, 2014\n  * [特征选择能否抵御训练数据投毒？](https:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1191), Xiao. H, Biggio. B, Brown. G, Fumera. G, Eckert. C, Roli. F, 2015\n  * [针对规避攻击的对抗性特征选择](https:\u002F\u002Fpralab.diee.unica.it\u002Fen\u002Fnode\u002F1188), \tZhang. F, Chan. PPK, Biggio. B, Yeung. DS, Roli. F, 2016\n\n## 许可证\n许可证\n\n[![CC0](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_awesome-adversarial-machine-learning_readme_b7657951a0bb.png)](http:\u002F\u002Fcreativecommons.org\u002Fpublicdomain\u002Fzero\u002F1.0\u002F)\n\n在法律允许的最大范围内，[Yen-Chen Lin](http:\u002F\u002Fyclin.me\u002F) 已放弃本作品的所有版权及相关或邻接权利。","# awesome-adversarial-machine-learning 快速上手指南\n\n**项目说明**：`awesome-adversarial-machine-learning` 并非一个可直接安装运行的软件库或框架，而是一个**精选资源列表**。它汇集了对抗性机器学习（Adversarial Machine Learning）领域的经典博客、学术论文和技术演讲。本指南旨在帮助开发者高效利用该列表进行学习和研究。\n\n> **注意**：根据原作者声明，该项目已不再持续更新最新的论文，但其收录的经典文献仍是入门该领域的绝佳参考。\n\n## 1. 环境准备\n\n由于本项目本质是文档索引，无需特定的系统环境或运行时依赖。但为了深入实践列表中提到的算法（如 DeepFool, FGSM, 对抗训练等），建议开发者准备以下基础环境：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **编程语言**：Python 3.6+\n*   **深度学习框架**（任选其一，视具体论文实现而定）：\n    *   PyTorch\n    *   TensorFlow \u002F Keras\n    *   JAX\n*   **辅助工具库**：\n    *   `numpy`, `scipy`, `matplotlib`\n    *   `cleverhans` (经典的对抗样本库，列表中多篇论文与此相关)\n    *   `foolbox` (另一个流行的对抗攻击库)\n\n**推荐安装基础科学计算环境：**\n\n```bash\npip install numpy scipy matplotlib jupyter\n```\n\n若需复现列表中的经典攻击与防御代码，推荐安装 `cleverhans`：\n\n```bash\n# 使用国内镜像源加速安装\npip install cleverhans -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 2. 获取与浏览资源\n\n本项目没有传统的“安装”步骤，获取方式即为克隆仓库或直接在线浏览。\n\n**方式一：在线浏览（推荐）**\n直接访问 GitHub 仓库页面查看分类整理的链接：\n[https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fawesome-adversarial-machine-learning](https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fawesome-adversarial-machine-learning)\n\n**方式二：克隆到本地**\n方便离线查阅或作为个人知识库备份。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyenchenlin\u002Fawesome-adversarial-machine-learning.git\ncd awesome-adversarial-machine-learning\n```\n\n*注：若 GitHub 访问缓慢，可使用国内镜像源（如 Gitee 上的同步仓库，如有）或通过代理加速。*\n\n## 3. 基本使用与研究路径\n\n本项目的“使用”即是指引你阅读其中的资源并复现相关算法。以下是基于该列表内容的推荐学习路径：\n\n### 第一步：建立概念认知 (Blogs)\n先阅读列表中的 **Blogs** 部分，快速理解对抗样本的基本原理。\n*   **推荐阅读**：\n    *   [Breaking Linear Classifiers on ImageNet](http:\u002F\u002Fkarpathy.github.io\u002F2015\u002F03\u002F30\u002Fbreaking-convnets\u002F) (Andrej Karpathy)\n    *   [A Brief Introduction to Adversarial Examples](http:\u002F\u002Fpeople.csail.mit.edu\u002Fmadry\u002Flab\u002Fblog\u002Fadversarial\u002F2018\u002F07\u002F06\u002Fadversarial_intro\u002F) (Aleksander Madry)\n\n### 第二步：研读核心论文 (Papers)\n根据研究方向选择 **Papers** 中的经典文献。\n\n*   **入门必读（通用理论）**：\n    *   *Intriguing properties of neural networks* (Szegedy et al., 2014) - 发现了对抗样本现象。\n    *   *Explaining and Harnessing Adversarial Examples* (Goodfellow et al., 2015) - 提出了著名的 FGSM 攻击方法。\n\n*   **实战复现（攻击算法）**：\n    若你想动手写代码实现攻击，可从 **Attack -> Image Classification** 分类入手：\n    *   *DeepFool*: 一种简单且准确的欺骗深度神经网络的方法。\n    *   *Adversarial Examples In The Physical World*: 研究物理世界中的对抗攻击。\n\n*   **防御研究（防御算法）**：\n    若关注模型安全性，参考 **Defence** 分类：\n    *   *Adversarial Training At Scale*: 对抗训练的大规模应用。\n    *   *Defensive Distillation*: 利用蒸馏技术进行防御。\n\n### 第三步：代码复现示例\n列表本身不提供统一代码，但你可以结合 `cleverhans` 库复现列表中提到的 **FGSM** 攻击（源自 Goodfellow 的论文）。以下是一个基于 PyTorch 和 CleverHans 的最小化复现逻辑示例：\n\n```python\n# 这是一个概念示例，展示如何利用相关库复现论文思路\nimport torch\nfrom cleverhans.torch import fgsm\n\n# 假设你已经加载了模型 (model) 和输入数据 (x)，以及真实标签 (y)\n# x 需要设置为 requires_grad=True 以便计算梯度\nx = torch.randn(1, 3, 224, 224, requires_grad=True)\ny = torch.tensor([1]) \n\n# 定义损失函数\nloss_fn = torch.nn.CrossEntropyLoss()\n\n# 前向传播\nlogits = model(x)\nloss = loss_fn(logits, y)\n\n# 反向传播计算梯度\nloss.backward()\n\n# 使用 FGSM 生成对抗样本 (epsilon 为扰动强度)\n# 对应论文: Explaining and Harnessing Adversarial Examples\nx_adv = fgsm(model, x, eps=0.3, clip_min=0.0, clip_max=1.0)\n\n# 测试对抗样本的效果\nadv_logits = model(x_adv)\nprint(f\"Original prediction: {logits.argmax()}\")\nprint(f\"Adversarial prediction: {adv_logits.argmax()}\")\n```\n\n### 第四步：拓展视野 (Talks)\n观看 **Talks** 部分的视频演讲，了解领域大牛（如 Ian Goodfellow, Nicolas Papernot）对对抗性机器学习的深度见解和未来展望。\n\n---\n*提示：由于该列表涵盖范围广泛，建议针对具体感兴趣的子领域（如强化学习对抗、语音识别对抗等）深入挖掘对应的论文链接，并在 arXiv 或会议官网获取最新代码实现。*","某自动驾驶初创公司的安全团队正在为感知模型构建防御体系，急需评估系统面对对抗样本攻击时的鲁棒性。\n\n### 没有 awesome-adversarial-machine-learning 时\n- **文献检索如大海捞针**：团队成员需在 arXiv、Google Scholar 等多个平台分散搜索，难以系统性掌握从基础理论到物理世界攻击的全貌。\n- **复现基准缺失**：缺乏权威的论文清单，导致无法快速定位 DeepFool 或黑盒攻击等经典算法的原始实现，复现对比实验耗时数周。\n- **认知盲区风险高**：容易遗漏强化学习或语义分割领域的最新攻击手段（如针对策略网络的战术攻击），致使防御方案存在严重短板。\n- **入门门槛极高**：新人面对零散的技术博客和晦涩论文，缺乏像 Karpathy 或 Goodfellow 等专家整理的导读路径，学习曲线陡峭。\n\n### 使用 awesome-adversarial-machine-learning 后\n- **资源一站式获取**：直接利用其分类清晰的目录，迅速锁定图像分类、强化学习等特定领域的核心论文与技术博客，调研效率提升十倍。\n- **快速建立评测基线**：按图索骥找到\"Breaking Linear Classifiers\"等关键文章及对应代码库，当天即可搭建起标准的对抗攻击测试环境。\n- **防御视野全覆盖**：通过清单中关于物理世界攻击和隐私泄露的研究条目，团队及时补充了针对摄像头干扰和模型反推的防御策略。\n- **系统化学习路径**：借助 Nicholas Carlini 等大牛推荐的阅读列表，新成员能在三天内理清对抗样本的研究脉络并上手实战。\n\nawesome-adversarial-machine-learning 将碎片化的学术成果转化为结构化的工程指南，帮助团队在对抗博弈中从被动应对转向主动防御。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyenchenlin_awesome-adversarial-machine-learning_f3d50dac.png","yenchenlin","Yen-Chen Lin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyenchenlin_0259d25e.jpg",null,"http:\u002F\u002Fyenchenlin.me","https:\u002F\u002Fgithub.com\u002Fyenchenlin",1902,291,"2026-03-31T19:10:36","","未说明",{"notes":89,"python":87,"dependencies":90},"该项目是一个已弃用（Deprecated）的对抗性机器学习资源列表（包含博客、论文和演讲链接），并非可执行的软件工具或代码库，因此没有任何运行环境、依赖库或硬件需求。",[],[18],"2026-03-27T02:49:30.150509","2026-04-06T07:13:48.556582",[],[]]