[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-carlini--nn_robust_attacks":3,"tool-carlini--nn_robust_attacks":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":103,"github_topics":77,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":142},9629,"carlini\u002Fnn_robust_attacks","nn_robust_attacks","Robust evasion attacks against neural network to find adversarial examples","nn_robust_attacks 是一个基于 TensorFlow 实现的开源工具，专门用于生成对抗样本，以评估神经网络在面对恶意攻击时的鲁棒性。它源自 Nicholas Carlini 和 David Wagner 在 2017 年发表的经典论文，核心目标是解决深度学习模型容易受到微小扰动欺骗的问题，帮助开发者发现模型在安全层面的潜在漏洞。\n\n该工具主要面向 AI 安全研究人员、算法工程师以及对模型安全性有深入需求的开发者。通过内置的三种攻击算法（包括著名的 Carlini & Wagner L2 攻击），用户可以轻松构建测试环境，验证自家模型是否容易被“误导”。其技术亮点在于提供了高度可配置的超参数，这些参数直观且能在攻击成功率与计算效率之间提供灵活的权衡；同时支持批量并行攻击，大幅提升了测试效率。使用前只需定义好不含 Softmax 层的预测模型，即可快速启动测试。无论是学术研究还是工业界的安全审计，nn_robust_attacks 都是检验神经网络防御能力的得力助手。","### About\n\nCorresponding code to the paper \"Towards Evaluating the Robustness of Neural\nNetworks\" by Nicholas Carlini and David Wagner, at IEEE Symposium on Security &\nPrivacy, 2017.\n\nImplementations of the three attack algorithms in Tensorflow. It runs correctly\non Python 3 (and probably Python 2 without many changes).\n\nTo evaluate the robustness of a neural network, create a model class with a\npredict method that will run the prediction network *without softmax*.  The\nmodel should have variables \n\n    model.image_size: size of the image (e.g., 28 for MNIST, 32 for CIFAR)\n    model.num_channels: 1 for greyscale, 3 for color images\n    model.num_labels: total number of valid labels (e.g., 10 for MNIST\u002FCIFAR)\n\n### Running attacks\n\n```python\n     from robust_attacks import CarliniL2\n     CarliniL2(sess, model).attack(inputs, targets)\n```\nwhere inputs are a (*batch x height x width x channels*) tensor and targets are\na (*batch x classes*) tensor. The L2 attack supports a batch_size paramater to\nrun attacks in parallel. Each attack has many tunable hyper-paramaters. All\nare intuitive and strictly increase attack efficacy in one direction and are\nmore efficient in the other direction.\n\n### Pre-requisites\n\nThe following steps should be sufficient to get these attacks up and running on\nmost Linux-based systems.\n\n```bash\n    sudo apt-get install python3-pip\n    sudo pip3 install --upgrade pip\n    sudo pip3 install pillow scipy numpy tensorflow-gpu keras h5py\n```\n   \n#### To create the MNIST\u002FCIFAR models:\n\n```bash\npython3 train_models.py\n```\n\n#### To download the inception model:\n\n```bash\npython3 setup_inception.py\n```\n\n#### And finally to test the attacks\n\n```bash\npython3 test_attack.py\n```\n\nThis code is provided under the BSD 2-Clause, Copyright 2016 to Nicholas Carlini.\n","### 关于\n\n对应 Nicholas Carlini 和 David Wagner 在 2017 年 IEEE 安全与隐私研讨会上发表的论文《迈向神经网络鲁棒性评估》的代码实现。\n\n在 TensorFlow 中实现了三种攻击算法。该代码可在 Python 3 上正确运行（在 Python 2 上也可能无需太多修改即可运行）。\n\n要评估神经网络的鲁棒性，需创建一个包含 `predict` 方法的模型类，该方法将运行预测网络，但不使用 softmax 激活函数。模型应具有以下变量：\n\n- `model.image_size`: 图像尺寸（例如，MNIST 为 28，CIFAR 为 32）\n- `model.num_channels`: 灰度图像为 1，彩色图像为 3\n- `model.num_labels`: 有效标签的总数（例如，MNIST\u002FCIFAR 为 10）\n\n### 运行攻击\n\n```python\nfrom robust_attacks import CarliniL2\nCarliniL2(sess, model).attack(inputs, targets)\n```\n\n其中，`inputs` 是一个 (*batch x height x width x channels*) 张量，`targets` 是一个 (*batch x classes*) 张量。L2 攻击支持 `batch_size` 参数，以便并行执行攻击。每种攻击都有许多可调超参数，这些参数都比较直观：它们在一个方向上会显著提升攻击效果，而在另一个方向则会提高效率。\n\n### 先决条件\n\n在大多数基于 Linux 的系统上，按照以下步骤操作即可成功运行这些攻击。\n\n```bash\nsudo apt-get install python3-pip\nsudo pip3 install --upgrade pip\nsudo pip3 install pillow scipy numpy tensorflow-gpu keras h5py\n```\n\n#### 创建 MNIST\u002FCIFAR 模型：\n\n```bash\npython3 train_models.py\n```\n\n#### 下载 Inception 模型：\n\n```bash\npython3 setup_inception.py\n```\n\n#### 最后测试攻击：\n\n```bash\npython3 test_attack.py\n```\n\n本代码采用 BSD 2-Clause 许可证，版权归属 Nicholas Carlini，2016 年。","# nn_robust_attacks 快速上手指南\n\n本工具是论文《Towards Evaluating the Robustness of Neural Networks》的官方实现，提供了基于 TensorFlow 的三种神经网络对抗攻击算法（如 Carlini & Wagner L2 攻击），用于评估模型的鲁棒性。\n\n## 环境准备\n\n- **操作系统**：推荐 Linux 系统\n- **Python 版本**：Python 3（兼容 Python 2）\n- **核心依赖**：TensorFlow (GPU 版本推荐)、Keras、NumPy、SciPy、Pillow、h5py\n\n> **国内加速建议**：在安装 Python 依赖时，建议使用清华或阿里云镜像源以提升下载速度。\n\n## 安装步骤\n\n1. 安装 pip 并升级至最新版本：\n```bash\nsudo apt-get install python3-pip\nsudo pip3 install --upgrade pip\n```\n\n2. 安装所需 Python 库（推荐使用国内镜像源）：\n```bash\nsudo pip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple pillow scipy numpy tensorflow-gpu keras h5py\n```\n\n3. （可选）训练 MNIST\u002FCIFAR 测试模型：\n```bash\npython3 train_models.py\n```\n\n4. （可选）下载 Inception 模型：\n```bash\npython3 setup_inception.py\n```\n\n5. 运行测试脚本验证安装：\n```bash\npython3 test_attack.py\n```\n\n## 基本使用\n\n要发起攻击，首先需定义一个模型类，该类包含 `predict` 方法（输出不含 softmax 的 logits），并设置以下属性：\n- `model.image_size`：图像尺寸（如 MNIST 为 28，CIFAR 为 32）\n- `model.num_channels`：通道数（灰度图为 1，彩色图为 3）\n- `model.num_labels`：类别总数（如 MNIST\u002FCIFAR 为 10）\n\n最简单的 Carlini L2 攻击调用示例如下：\n\n```python\nfrom robust_attacks import CarliniL2\nCarliniL2(sess, model).attack(inputs, targets)\n```\n\n其中：\n- `inputs`：形状为 `(batch x height x width x channels)` 的输入张量\n- `targets`：形状为 `(batch x classes)` 的目标标签张量\n\n该攻击支持 `batch_size` 参数以并行处理批量数据，且提供多个可调节的超参数以平衡攻击成功率与效率。","某自动驾驶初创公司的算法团队正在对车载交通标志识别模型进行上线前的安全压力测试，急需验证其在对抗样本攻击下的鲁棒性。\n\n### 没有 nn_robust_attacks 时\n- 团队只能依赖随机噪声或简单的梯度符号法（FGSM）进行测试，生成的对抗样本强度不足，无法暴露模型深层的安全漏洞。\n- 缺乏统一的评估标准，不同成员编写的攻击脚本效果参差不齐，难以量化模型在 L2 范数等严格指标下的真实防御能力。\n- 手动复现论文中的 Carlini & Wagner (C&W) 攻击算法耗时极长，且容易因数学推导细节错误导致攻击失效，严重拖慢研发进度。\n- 无法批量并行生成高质量对抗样本，导致在大规模测试集上的鲁棒性评估效率极低，难以覆盖长尾场景。\n\n### 使用 nn_robust_attacks 后\n- 直接调用内置的 CarliniL2 等高级攻击算法，轻松生成极高成功率的对抗样本，精准挖掘出模型在细微扰动下误判交通标志的致命缺陷。\n- 基于业界权威的 S&P 2017 论文实现，提供了标准化的评估流程，确保测试结果具有可比性和公信力，明确量化了模型的安全边界。\n- 无需从零推导复杂的优化目标，通过简单的 Python 接口即可配置超参数，将原本数周的算法复现工作缩短为几小时的调试与运行。\n- 支持批处理模式并行攻击，大幅提升了在 MNIST、CIFAR 及 Inception 等大模型上的测试吞吐量，快速完成全量数据集的压力扫描。\n\nnn_robust_attacks 将高门槛的学术级攻击算法转化为工程利器，帮助开发者在黑客利用漏洞前主动发现并修复模型缺陷，筑牢 AI 系统的安全防线。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcarlini_nn_robust_attacks_6814eef7.png","carlini","Nicholas Carlini","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcarlini_94385bac.jpg","I break things",null,"nicholas@carlini.com","nicholas.carlini.com","https:\u002F\u002Fgithub.com\u002Fcarlini",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,861,235,"2026-04-12T21:32:34","BSD-2-Clause","Linux","需要 NVIDIA GPU (通过 tensorflow-gpu)，具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":94,"python":95,"dependencies":96},"该工具是论文《Towards Evaluating the Robustness of Neural Networks》的对应代码。模型类需实现不含 softmax 的预测方法。虽然主要测试环境为 Linux，但 README 提到可能在 Python 2 上无需大量修改即可运行。","3.x (兼容 2.x)",[97,98,99,100,101,102],"tensorflow-gpu","keras","numpy","scipy","pillow","h5py",[15,104],"其他","2026-03-27T02:49:30.150509","2026-04-20T04:04:31.760337",[108,113,118,123,128,133,137],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},43231,"在运行 train_models.py 时遇到 TensorFlow 和 Keras 的版本兼容性错误（如 TypeError: Expected binary or unicode string）怎么办？","该错误通常由 TensorFlow 或 Keras 版本过新导致，特别是 `softmax_cross_entropy_with_logits` 已被弃用。建议检查代码中是否使用了旧版 API，并参考错误提示升级到 `tf.nn.softmax_cross_entropy_with_logits_v2`。此外，确保 NumPy 版本与 TensorFlow 兼容，避免出现 'numpy.dtype size changed' 警告。如果是初学者，建议创建独立的虚拟环境并安装项目推荐的特定版本依赖库。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F24",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},43232,"设置 confidence=0 时，L2 攻击的对抗准确率在不同运行间波动很大（有时 1%，有时 30%），原因是什么？","这可能是因为模型本身包含随机性（如 Dropout 或随机初始化），导致攻击过程过度优化了某一次特定的随机状态。解决方法包括：1. 尝试对不同的随机种子进行集成攻击；2. 调整迭代次数，有用户发现较少的迭代次数（如 max_iterations=100）反而比更多迭代（如 10000）效果更好；3. 检查代码中是否存在 reduce_sum 等对批次大小敏感的操作，尝试减小批次大小或单样本测试以定位问题。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F22",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},43233,"在 PyTorch 中复现 L2 攻击时，部分样本无法生成对抗样本（距离为默认初始值 1e10），如何解决？","这通常是由于 PyTorch 中的 Adam 优化器行为与 TensorFlow 不同导致的。解决方案是引入学习率衰减策略：例如每 20 次迭代将学习率减半（总迭代次数设为 100）。此外，务必确认使用的是 softmax 之前的输出（pre-softmax logits）而非之后的概率值，使用 post-softmax 会导致结果非常差。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F23",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},43234,"加载预训练的 Keras MNIST 模型生成对抗样本时，生成的图像全为黑色（全零），是什么原因？","这通常是因为模型加载或数据预处理环节存在问题。虽然维护者未直接给出代码修复，但用户反馈表明需确保模型加载路径正确且模型架构与权重匹配。另外，需检查输入数据的归一化方式是否与训练时一致。如果修改了 `setup_mnist.py` 中的 `MNISTModel` 类，请确保 `image_size`、`num_channels` 等参数与原模型完全一致。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F21",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},43235,"复现 CIFAR-10 的 L0 攻击时，生成的对抗样本噪声不稀疏（L0 范数接近像素总数 3072），如何解决？","这个问题通常是由数据转换过程中的数据类型错误引起的。在加载或处理数据时，必须显式指定数据类型为 float32。请在代码中添加：`inputs = np.array(inputs, dtype='float32')`。如果数据类型默认为 int 或其他类型，会导致计算误差，使得 L0 攻击退化为类似 L2 的效果，失去稀疏性。此外，保存和重新加载浮点数组时也需注意精度损失。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F30",{"id":134,"question_zh":135,"answer_zh":136,"source_url":112},43236,"是否有必要在运行 test_attack.py 之前先运行 train_model.py 训练模型？","是的，非常有必要。如果不预先训练模型，攻击一个随机初始化的神经网络通常没有实际意义，除非你的研究目标仅仅是探究网络架构本身的鲁棒性属性。攻击预训练好的模型才能反映真实场景下的对抗效果。如果因内存不足无法训练，可以尝试减小批次大小（batch size）或使用更小的模型架构。",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},43237,"L0 攻击代码中是否存在实现错误，导致多通道图像（如 RGB）的攻击效果不正确？","是的，社区用户指出 L0 攻击代码在处理多通道图像时存在逻辑缺陷。当 `independent_channels` 为 False 时，代码中 `valid` 和 `totalchange` 的形状不匹配（分别为 (pixels, channels) 和 (pixels,)），导致通道维度的计算错误。此外，`compare` 函数在某些路径下未被调用，导致缺乏攻击成功性的验证。建议在并行攻击或生产环境中手动添加验证检查，并修正通道维度的广播逻辑。","https:\u002F\u002Fgithub.com\u002Fcarlini\u002Fnn_robust_attacks\u002Fissues\u002F16",[]]