[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-research--sam":3,"tool-google-research--sam":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":68,"owner_location":68,"owner_email":68,"owner_twitter":68,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":90,"env_deps":92,"category_tags":99,"github_topics":68,"view_count":23,"oss_zip_url":68,"oss_zip_packed_at":68,"status":16,"created_at":100,"updated_at":101,"faqs":102,"releases":131},2884,"google-research\u002Fsam","sam",null,"SAM（Sharpness-Aware Minimization）是一种旨在提升深度学习模型泛化能力的优化算法。在传统训练中，模型往往只关注降低训练误差，这容易导致参数落入损失函数中“尖锐”的极小值点，使得模型在面对新数据时表现不佳。SAM 通过同时最小化损失值及其“尖锐度”，引导模型参数收敛到周围损失均较低的“平坦”区域，从而显著增强模型的鲁棒性和泛化性能。\n\n该技术特别适合人工智能研究人员和深度学习开发者使用，尤其是在处理图像分类、模型微调或应对标签噪声等挑战性任务时。实验表明，SAM 在 CIFAR、ImageNet 等多个基准数据集上，配合 WideResNet、EfficientNet 等主流架构，能轻松刷新多项最先进（SOTA）成绩。其独特亮点在于将复杂的几何理论转化为高效的梯度下降过程，无需大幅修改现有训练流程即可集成。此外，SAM 原生具备抵抗标签噪声的能力，效果媲美专门设计的去噪算法。对于希望在不增加过多计算成本的前提下，挖掘模型潜力并提升最终落地效果的从业者而言，SAM 是一个值得尝试的强大工具。","# SAM: Sharpness-Aware Minimization for Efficiently Improving Generalization\n\nby Pierre Foret, Ariel Kleiner, Hossein Mobahi and Behnam Neyshabur.\n\n\n## SAM in a few words\n\n**Abstract**: In today's heavily overparameterized models, the value of the training loss provides few guarantees on model generalization ability. Indeed, optimizing only the training loss value, as is commonly done, can easily lead to suboptimal model quality. Motivated by the connection between geometry of the loss landscape and generalization---including a generalization bound that we prove here---we introduce a novel, effective procedure for instead simultaneously minimizing loss value and loss sharpness. In particular, our procedure, Sharpness-Aware Minimization (SAM), seeks parameters that lie in neighborhoods having uniformly low loss; this formulation results in a min-max optimization problem on which gradient descent can be performed efficiently. We present empirical results showing that SAM improves model generalization across a variety of benchmark datasets (e.g., CIFAR-{10, 100}, ImageNet, finetuning tasks) and models, yielding novel state-of-the-art performance for several. Additionally, we find that SAM natively provides robustness to label noise on par with that provided by state-of-the-art procedures that specifically target learning with noisy labels.\n\n\n|      ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_71f85b63209d.png)    |  ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_3e0b9ad03ae4.png)   |  ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_f16935d58201.png)     |\n|:--------------:|:----------:|:----------------------:|\n| Error rate reduction obtained by switching to SAM. Each point is a different dataset \u002F model \u002F data augmentation | A sharp minimum to which a ResNet trained with SGD converged | A wide minimum to which the same ResNet trained with SAM converged. |\n\n\n\n## About this repo\n\nThis code allows the user to replicate most of the experiments of the paper, including:\n\n * Training from scratch Wideresnets and Pyramidnets (with shake shake \u002F shake drop) on CIFAR10\u002FCIFAR100\u002FSVHN\u002FFashion MNIST, with or without SAM, with or without cutout and AutoAugment.\n * Training Resnets and Efficientnet on Imagenet, with or without SAM or RandAugment.\n * Finetuning Efficientnet from checkpoints trained on Imagenet\u002FJFT on imagenet.\n\n\n## How to train from scratch\n\nOnce the repo is cloned, experiments can be launched using sam.sam_jax.train.py:\n\n```\npython3 -m sam.sam_jax.train --dataset cifar10 --model_name WideResnet28x10 \\\n--output_dir \u002Ftmp\u002Fmy_experiment --image_level_augmentations autoaugment \\\n--num_epochs 1800 --sam_rho 0.05\n```\n\nNote that our code uses all available GPUs\u002FTPUs for training.\n\nTo see a detailed list of all available flags, run python3 -m sam.sam_jax.train --help.\n\n#### Output\n\nTraining curves can be loaded using TensorBoard. TensorBoard events will be\nsaved in the output_dir, and their path will contain the learning_rate,\nthe weight_decay, rho and the random_seed.\n\n## Finetuning EfficientNet:\n\nWe provide a FLAX checkpoint compatible with our implementation for all checkpoints\navailable on [official tensorflow efficientnet implementation](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet):\n\n|               |   B0    |  B1   |  B2    |  B3   |  B4   |  B5    | B6 | B7 | B8 |  L2 |\n|----------     |--------  | ------| ------|------ |------ |------ | --- | --- | --- | --- |\n| Baseline preprocessing |  76.7% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz))   | 78.7% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 79.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 82.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 83.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | | || | |\n| AutoAugment (AA) |  77.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz))   | 79.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 80.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 82.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 83.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) |  84.0% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 84.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz))  || |\n| RandAugment (RA) |  |  |  |  |  | 83.7%  ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Frandaug\u002Fefficientnet-b5-randaug\u002Fcheckpoint.tar.gz)) |  | 84.7%  ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Frandaug\u002Fefficientnet-b7-randaug\u002Fcheckpoint.tar.gz)) |  | |\n| AdvProp + AA | 77.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz)) | 79.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 80.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 83.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 84.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | 84.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 85.2% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz)) | 85.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b8\u002Fcheckpoint.tar.gz))|| |\n| NoisyStudent + RA | 78.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz)) | 81.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz)) | 82.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 84.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 85.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 86.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | 86.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 86.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz)) | - |88.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-l2\u002Fcheckpoint.tar.gz)) |\n\n\u003Csup>* We report in this table the scores as found [here](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet). If you use these checkpoints with another codebase, you might obtain some slightly different scores based on the type of accelerator you use and your data processing pipeline (resizing algorithm in particular).\u003C\u002Fsup>\n\n\u003Csup>* Advprop requires some slight modification of the input pipeline. See [here](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet) for more details. \u003C\u002Fsup>\n\n\u003Csup>* Please refer to the README of the [official tensorflow efficientnet implementation](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet) to see which paper should be cited for which checkpoint.\u003C\u002Fsup>\n\nOnce the checkpoint is downloaded and uncompressed, it can be finetuned on any of the datasets:\n\n```\npython3 -m sam.sam_jax.train --output_dir \u002Ftmp\u002Fmy_finetuning_experiment \\\n--dataset imagenet --from_pretrained_checkpoint true \\\n--efficientnet_checkpoint_path \u002Ftmp\u002Fpath_to_efficientnet_checkpoint_to_finetune \\\n--learning_rate 0.1 --model_name efficientnet-l2-475 --batch_size 512 \\\n--num_epochs 10 --gradient_clipping 1.0 --label_smoothing 0.1 --sam_rho 0.1\n```\n\n\n## Bibtex\n\n```\n@ARTICLE{2020arXiv201001412F,\n       author = {{Foret}, Pierre and {Kleiner}, Ariel and {Mobahi}, Hossein and {Neyshabur}, Behnam},\n        title = \"{Sharpness-Aware Minimization for Efficiently Improving Generalization}\",\n         year = 2020,\n          eid = {arXiv:2010.01412},\n       eprint = {2010.01412},\n}\n```\n\n**This is not an official Google product.**\n","# SAM：用于高效提升泛化能力的尖锐度感知最小化\n\n作者：皮埃尔·福雷、阿里尔·克莱纳、侯赛因·莫巴希和贝赫南·内伊沙布尔。\n\n\n## 简而言之：SAM\n\n**摘要**：在当今高度过参数化的模型中，训练损失值本身并不能很好地保证模型的泛化能力。事实上，仅优化训练损失值（这是目前常用的做法）很容易导致模型性能不佳。基于损失景观几何结构与泛化之间的联系——包括我们在此证明的一个泛化界——我们提出了一种新颖而有效的算法，该算法同时最小化损失值和损失的尖锐度。具体来说，我们的方法称为“尖锐度感知最小化”（SAM），它寻找位于具有均匀低损失邻域内的参数；这种设定将问题转化为一个可高效使用梯度下降法求解的极小-极大优化问题。实验结果表明，SAM能够在多种基准数据集（如CIFAR-{10, 100}、ImageNet以及微调任务）和不同模型上提升模型的泛化性能，并在其中多个任务上取得了新的最先进水平。此外，我们还发现，SAM天然具备与专门针对噪声标签学习的最先进方法相当的抗标签噪声鲁棒性。\n\n\n|      ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_71f85b63209d.png)    |  ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_3e0b9ad03ae4.png)   |  ![fig](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_readme_f16935d58201.png)     |\n|:--------------:|:----------:|:----------------------:|\n| 切换到SAM后获得的误差率降低。每个点代表不同的数据集\u002F模型\u002F数据增强方式 | 使用SGD训练的ResNet收敛到的一个尖锐极小点 | 使用SAM训练的同一ResNet收敛到的一个宽广极小点。 |\n\n\n\n## 关于本仓库\n\n此代码允许用户复现论文中的大部分实验，包括：\n\n * 在CIFAR10\u002FCIFAR100\u002FSVHN\u002FFashion MNIST数据集上从头开始训练Wideresnet和Pyramidnet（采用shake shake\u002Fshake drop正则化），可选择是否使用SAM、cutout和AutoAugment。\n * 在ImageNet数据集上训练Resnet和Efficientnet，可选择是否使用SAM或RandAugment。\n * 基于在ImageNet\u002FJFT上预训练的检查点对Efficientnet进行微调。\n\n\n## 如何从头开始训练\n\n克隆仓库后，可通过sam.sam_jax.train.py启动实验：\n\n```\npython3 -m sam.sam_jax.train --dataset cifar10 --model_name WideResnet28x10 \\\n--output_dir \u002Ftmp\u002Fmy_experiment --image_level_augmentations autoaugment \\\n--num_epochs 1800 --sam_rho 0.05\n```\n\n请注意，我们的代码会利用所有可用的GPU\u002FTPU进行训练。\n\n如需查看所有可用参数的详细列表，请运行python3 -m sam.sam_jax.train --help。\n\n#### 输出\n\n训练曲线可以使用TensorBoard加载。TensorBoard事件文件将保存在output_dir目录下，其路径中会包含学习率、权重衰减、rho参数以及随机种子信息。\n\n## EfficientNet 微调：\n\n我们为 [TensorFlow 官方 EfficientNet 实现](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet) 中提供的所有检查点，提供了与我们的实现兼容的 FLAX 检查点：\n\n|               |   B0    |  B1   |  B2    |  B3   |  B4   |  B5    | B6 | B7 | B8 |  L2 |\n|----------     |--------  | ------| ------|------ |------ |------ | --- | --- | --- | --- |\n| 基线预处理 |  76.7% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz))   | 78.7% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 79.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 82.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 83.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckpts\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | | || | |\n| AutoAugment (AA) |  77.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz))   | 79.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 80.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 82.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 83.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) |  84.0% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 84.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fckptsaug\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz))  || |\n| RandAugment (RA) |  |  |  |  |  | 83.7%  ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Frandaug\u002Fefficientnet-b5-randaug\u002Fcheckpoint.tar.gz)) |  | 84.7%  ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Frandaug\u002Fefficientnet-b7-randaug\u002Fcheckpoint.tar.gz)) |  | |\n| AdvProp + AA | 77.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz)) | 79.6% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz))  | 80.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 81.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 83.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 84.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | 84.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 85.2% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz)) | 85.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fadvprop\u002Fefficientnet-b8\u002Fcheckpoint.tar.gz))|| |\n| NoisyStudent + RA | 78.8% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b0\u002Fcheckpoint.tar.gz)) | 81.5% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b1\u002Fcheckpoint.tar.gz)) | 82.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b2\u002Fcheckpoint.tar.gz)) | 84.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b3\u002Fcheckpoint.tar.gz)) | 85.3% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b4\u002Fcheckpoint.tar.gz)) | 86.1% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b5\u002Fcheckpoint.tar.gz)) | 86.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b6\u002Fcheckpoint.tar.gz)) | 86.9% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-b7\u002Fcheckpoint.tar.gz)) | - |88.4% ([ckpt](https:\u002F\u002Fstorage.googleapis.com\u002Fgresearch\u002Fsam\u002Fefficientnet_checkpoints\u002Fnoisystudent\u002Fefficientnet-l2\u002Fcheckpoint.tar.gz)) |\n\n\u003Csup>* 本表中的分数源自 [此处](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet)。若您将这些检查点用于其他代码库，根据所使用的加速器类型及数据处理流水线（尤其是调整大小的算法），可能会得到略有不同的结果。\u003C\u002Fsup>\n\n\u003Csup>* Advprop 需要对输入流水线进行一些细微调整。详情请参阅 [此处](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet)。\u003C\u002Fsup>\n\n\u003Csup>* 请参考 [TensorFlow 官方 EfficientNet 实现](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftpu\u002Ftree\u002Fmaster\u002Fmodels\u002Fofficial\u002Fefficientnet) 的 README 文件，以了解应针对每个检查点引用哪篇论文。\u003C\u002Fsup>\n\n下载并解压检查点后，即可在任意数据集上对其进行微调：\n\n```\npython3 -m sam.sam_jax.train --output_dir \u002Ftmp\u002Fmy_finetuning_experiment \\\n--dataset imagenet --from_pretrained_checkpoint true \\\n--efficientnet_checkpoint_path \u002Ftmp\u002Fpath_to_efficientnet_checkpoint_to_finetune \\\n--learning_rate 0.1 --model_name efficientnet-l2-475 --batch_size 512 \\\n--num_epochs 10 --gradient_clipping 1.0 --label_smoothing 0.1 --sam_rho 0.1\n```\n\n\n## 参考文献\n\n```\n@ARTICLE{2020arXiv201001412F,\n       author = {{Foret}, Pierre and {Kleiner}, Ariel and {Mobahi}, Hossein and {Neyshabur}, Behnam},\n        title = \"{Sharpness-Aware Minimization for Efficiently Improving Generalization}\",\n         year = 2020,\n          eid = {arXiv:2010.01412},\n       eprint = {2010.01412},\n}\n```\n\n**这并非 Google 官方产品。**","# SAM (Sharpness-Aware Minimization) 快速上手指南\n\nSAM 是一种通过同时最小化损失值和损失锐度（sharpness）来提升模型泛化能力的优化算法。它能使模型收敛到更平坦的极小值点，从而在 CIFAR、ImageNet 等数据集上获得更优性能，并天然具备对抗标签噪声的鲁棒性。\n\n## 环境准备\n\n本工具基于 JAX\u002FFlax 框架开发，运行前请确保满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04+) 或 macOS\n*   **硬件**: 支持 CUDA 的 NVIDIA GPU 或 Google TPU（代码会自动利用所有可用加速器）\n*   **Python 版本**: Python 3.7+\n*   **核心依赖**:\n    *   `jax` & `jaxlib` (需匹配对应的 CUDA\u002FcuDNN 版本)\n    *   `flax`\n    *   `tensorflow-datasets` (用于加载数据集)\n    *   `tensorboard` (用于查看训练曲线)\n\n> **提示**: 建议使用虚拟环境（如 `venv` 或 `conda`）进行隔离安装。国内用户可使用清华源或阿里源加速 Python 包下载。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fsam.git\n    cd sam\n    ```\n\n2.  **安装依赖**\n    由于 JAX 对硬件驱动有特定要求，请先访问 [JAX 官方安装页面](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fjax#installation) 获取适合你 GPU\u002FCUDA 版本的安装命令。以下为通用 CPU\u002FGPU 安装示例（国内用户可替换 pip 源）：\n\n    ```bash\n    # 示例：安装 CPU 版本 JAX (若需 GPU 请参照官网替换命令)\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple jax jaxlib flax tensorflow-datasets tensorboard optax\n    \n    # 安装当前项目依赖 (如果项目根目录有 requirements.txt)\n    # pip install -r requirements.txt\n    ```\n\n## 基本使用\n\n### 1. 从头开始训练 (Training from Scratch)\n\n使用提供的脚本在 CIFAR-10 数据集上训练 WideResNet 模型并启用 SAM 优化器。\n\n```bash\npython3 -m sam.sam_jax.train --dataset cifar10 --model_name WideResnet28x10 \\\n--output_dir \u002Ftmp\u002Fmy_experiment --image_level_augmentations autoaugment \\\n--num_epochs 1800 --sam_rho 0.05\n```\n\n**参数说明：**\n*   `--dataset`: 数据集名称 (如 `cifar10`, `cifar100`, `imagenet`)\n*   `--model_name`: 模型架构 (如 `WideResnet28x10`, `Resnet`, `Efficientnet`)\n*   `--sam_rho`: SAM 算法的关键超参数，控制邻域半径（通常设为 0.05 或 0.1）\n*   `--output_dir`: 训练日志和检查点保存路径（可用于 TensorBoard 查看）\n\n> **注意**: 该脚本默认会使用环境中所有可用的 GPU 或 TPU 进行训练。如需查看所有可用参数，运行 `python3 -m sam.sam_jax.train --help`。\n\n### 2. 微调 EfficientNet (Finetuning)\n\n如果你已有在 ImageNet 或 JFT 上预训练的 EfficientNet 检查点，可以使用 SAM 进行微调以获得更高精度。\n\n首先，从官方提供的链接下载并解压检查点文件（例如 EfficientNet-B0）。然后运行以下命令：\n\n```bash\npython3 -m sam.sam_jax.train --output_dir \u002Ftmp\u002Fmy_finetuning_experiment \\\n--dataset imagenet --from_pretrained_checkpoint true \\\n--efficientnet_checkpoint_path \u002Ftmp\u002Fpath_to_efficientnet_checkpoint_to_finetune \\\n--learning_rate 0.1 --model_name efficientnet-l2-475 --batch_size 512 \\\n--num_epochs 10 --gradient_clipping 1.0 --label_smoothing 0.1 --sam_rho 0.1\n```\n\n**关键配置：**\n*   `--from_pretrained_checkpoint true`: 开启微调模式\n*   `--efficientnet_checkpoint_path`: 指向本地解压后的检查点路径\n*   `--sam_rho`: 微调任务中通常建议使用稍大的 rho 值（如 0.1）\n\n训练完成后，可在 `output_dir` 指定的目录下找到 TensorBoard 事件文件，通过 `tensorboard --logdir=\u002Ftmp\u002Fmy_experiment` 查看损失下降曲线和准确率变化。","某计算机视觉团队正在基于 EfficientNet 模型开发医疗影像诊断系统，面临训练集标签存在少量噪声且模型在测试集上泛化能力不足的难题。\n\n### 没有 sam 时\n- 模型过度拟合训练数据中的错误标签，导致在干净的验证集上准确率停滞不前，甚至出现“训练损失低但测试误差高”的现象。\n- 优化过程容易陷入损失景观中尖锐的局部极小值，参数对微小扰动极其敏感，部署后面对轻微变化的影像表现不稳定。\n- 为了缓解过拟合，工程师不得不花费大量时间手动调整正则化策略或清洗数据，研发周期被显著拉长。\n- 在 ImageNet 等大规模数据集上进行微调时，即便使用先进的数据增强，仍难以突破现有的性能瓶颈。\n\n### 使用 sam 后\n- sam 通过同时最小化损失值及其锐度，使模型自动忽略标签噪声的影响，无需额外清洗数据即可获得与专用去噪算法相当的鲁棒性。\n- 引导模型收敛至损失景观中宽阔平坦的极小值区域，显著提升了模型对未见数据的泛化能力，测试集准确率刷新了行业纪录。\n- 简化了调参流程，仅需在训练命令中加入 `--sam_rho` 参数，即可在原有 GPU 资源下高效完成训练，大幅缩短迭代周期。\n- 在 CIFAR 和 ImageNet 等多个基准任务中验证了有效性，特别是在从 JFT 预训练权重微调 EfficientNet 时，直接带来了实质性的性能跃升。\n\nsam 的核心价值在于将传统的单一损失最小化升级为兼顾平坦度的优化策略，从根本上解决了过参数化模型在噪声数据下的泛化失效问题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_sam_6a4cf22f.png","google-research","Google Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-research_c23b2adf.png","","https:\u002F\u002Fresearch.google","https:\u002F\u002Fgithub.com\u002Fgoogle-research",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,626,80,"2026-04-01T18:52:16","Apache-2.0","未说明","需要 GPU 或 TPU（代码会自动使用所有可用设备），具体型号、显存大小及 CUDA 版本未说明",{"notes":93,"python":94,"dependencies":95},"该工具基于 JAX\u002FFLAX 框架（非 PyTorch）。支持在 GPU 和 TPU 上运行，训练时会自动占用所有可用加速器。提供针对 EfficientNet 系列的预训练 FLAX 检查点用于微调任务。实验涵盖 CIFAR、ImageNet 等数据集，支持 AutoAugment 和 RandAugment 等增强策略。","3.x (通过 python3 命令调用)",[96,97,98],"JAX","FLAX","TensorBoard",[13,54],"2026-03-27T02:49:30.150509","2026-04-06T08:09:02.742642",[103,108,113,118,123,127],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},13337,"运行实验时出现循环导入错误（ImportError: cannot import name 'Error' from partially initialized module 'sam'）如何解决？","该问题通常是由于与之前已安装的 Python 包发生冲突导致的。建议检查并清理环境中可能存在的旧版本或冲突的 'sam' 相关包，确保在干净的环境中重新安装依赖。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fsam\u002Fissues\u002F11",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},13338,"无法复现论文中的 CIFAR-10 实验结果，损失值相差很大怎么办？","这是一个已知且常见的问题，许多用户在尝试复现时都遇到了类似情况（误差数量级差异）。虽然具体解决方案在讨论中未完全明确，但建议首先确认是否使用了完全一致的 Docker 镜像（tensorflow-gpu）、数据集预处理方式以及超参数设置。同时可参考其他用户遇到的类似问题（如 Issue #6）进行排查。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fsam\u002Fissues\u002F4",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},13339,"如何绘制模型收敛曲线图？有对应的代码吗？","提问者后续表示已自行找到绘图代码，但未在评论中公开具体位置。建议查看项目仓库中的可视化工具目录、TensorBoard 日志导出脚本，或参考官方文档中关于训练监控的部分。也可在 Issues 中搜索关键词 'plot' 或 'converge' 查找社区分享的具体实现。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fsam\u002Fissues\u002F16",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},13340,"SAM 方法是否适用于非分类任务（如分割、目标检测）？效果如何？","目前官方尚未在非分类任务上提供明确的实验结果或推荐用法。该问题仍处于开放探讨阶段，建议用户自行在小规模数据集上尝试迁移应用，并关注后续更新或社区实践经验分享。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fsam\u002Fissues\u002F15",{"id":124,"question_zh":125,"answer_zh":126,"source_url":112},13341,"多个用户报告复现结果失败，是否有统一的排查清单？","是的，多个 Issue（如 #4、#6、#11）均反映了复现困难。建议按以下顺序排查：1) 使用官方推荐的 tensorflow-gpu Docker 环境；2) 确保无本地代码修改；3) 检查 Python 包冲突（特别是名为 'sam' 的包）；4) 验证数据集加载和增强配置是否与论文一致；5) 对比 TensorBoard 日志中的中间指标。",{"id":128,"question_zh":129,"answer_zh":130,"source_url":107},13342,"如果在运行 train 模块时遇到模块找不到或初始化错误，应该检查什么？","首先确认执行命令路径正确，其次检查是否存在命名冲突（如本地文件或已安装包名为 'sam' 导致循环导入）。推荐使用虚拟环境或容器隔离依赖，并确保从项目根目录运行命令：`python3 -m sam.sam_jax.train ...`",[]]