[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-YU1ut--MixMatch-pytorch":3,"tool-YU1ut--MixMatch-pytorch":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":144},4442,"YU1ut\u002FMixMatch-pytorch","MixMatch-pytorch","Code for \"MixMatch - A Holistic Approach to Semi-Supervised Learning\"","MixMatch-pytorch 是经典半监督学习算法\"MixMatch\"的非官方 PyTorch 实现版本，旨在帮助开发者在标记数据稀缺的场景下训练出高性能的图像分类模型。它主要解决了传统深度学习依赖大量标注数据成本高、效率低的痛点，通过巧妙结合少量有标签数据和大量无标签数据，显著提升模型的泛化能力。\n\n该工具特别适合人工智能研究人员、算法工程师以及希望探索半监督学习技术的开发者使用。其核心亮点在于完整复现了原论文中的关键细节，包括数据增强混合（MixUp）、一致性正则化以及基于预测分布的标签猜测机制，形成了一套“整体式”的学习策略。目前，该项目已在 CIFAR-10 数据集上完成了验证，在使用 250 至 4000 个不同数量的标签样本时，均取得了与原论文高度接近的准确率结果。对于需要快速复现前沿算法或在小样本场景下进行模型迭代的团队来说，MixMatch-pytorch 提供了一个可靠且易于上手的技术基线。","# MixMatch\nThis is an unofficial PyTorch implementation of [MixMatch: A Holistic Approach to Semi-Supervised Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.02249). \nThe official Tensorflow implementation is [here](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmixmatch).\n\nNow only experiments on CIFAR-10 are available.\n\nThis repository carefully implemented important details of the official implementation to reproduce the results.\n\n\n## Requirements\n- Python 3.6+\n- PyTorch 1.0\n- **torchvision 0.2.2 (older versions are not compatible with this code)** \n- tensorboardX\n- progress\n- matplotlib\n- numpy\n\n## Usage\n\n### Train\nTrain the model by 250 labeled data of CIFAR-10 dataset:\n\n```\npython train.py --gpu \u003Cgpu_id> --n-labeled 250 --out cifar10@250\n```\n\nTrain the model by 4000 labeled data of CIFAR-10 dataset:\n\n```\npython train.py --gpu \u003Cgpu_id> --n-labeled 4000 --out cifar10@4000\n```\n\n### Monitoring training progress\n```\ntensorboard.sh --port 6006 --logdir cifar10@250\n```\n\n## Results (Accuracy)\n| #Labels | 250 | 500 | 1000 | 2000| 4000 |\n|:---|:---:|:---:|:---:|:---:|:---:|\n|Paper | 88.92 ± 0.87 | 90.35 ± 0.94 | 92.25 ± 0.32| 92.97 ± 0.15 |93.76 ± 0.06|\n|This code | 88.71 | 88.96 | 90.52 | 92.23 | 93.52 |\n\n(Results of this code were evaluated on 1 run. Results of 5 runs with different seeds will be updated later. )\n\n## References\n```\n@article{berthelot2019mixmatch,\n  title={MixMatch: A Holistic Approach to Semi-Supervised Learning},\n  author={Berthelot, David and Carlini, Nicholas and Goodfellow, Ian and Papernot, Nicolas and Oliver, Avital and Raffel, Colin},\n  journal={arXiv preprint arXiv:1905.02249},\n  year={2019}\n}\n```","# MixMatch\n这是一个 [MixMatch: 一种半监督学习的整体方法](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.02249) 的非官方 PyTorch 实现。\n官方的 TensorFlow 实现可以在 [这里](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmixmatch) 找到。\n\n目前仅提供了在 CIFAR-10 数据集上的实验结果。\n\n该仓库仔细实现了官方实现中的重要细节，以复现其结果。\n\n\n## 需求\n- Python 3.6+\n- PyTorch 1.0\n- **torchvision 0.2.2（较旧版本与此代码不兼容）**\n- tensorboardX\n- progress\n- matplotlib\n- numpy\n\n## 使用方法\n\n### 训练\n使用 CIFAR-10 数据集中 250 个标注数据训练模型：\n\n```\npython train.py --gpu \u003Cgpu_id> --n-labeled 250 --out cifar10@250\n```\n\n使用 CIFAR-10 数据集中 4000 个标注数据训练模型：\n\n```\npython train.py --gpu \u003Cgpu_id> --n-labeled 4000 --out cifar10@4000\n```\n\n### 监控训练进度\n```\ntensorboard.sh --port 6006 --logdir cifar10@250\n```\n\n## 结果（准确率）\n| 标注样本数 | 250 | 500 | 1000 | 2000 | 4000 |\n|:---|:---:|:---:|:---:|:---:|:---:|\n|论文 | 88.92 ± 0.87 | 90.35 ± 0.94 | 92.25 ± 0.32| 92.97 ± 0.15 |93.76 ± 0.06|\n|本代码 | 88.71 | 88.96 | 90.52 | 92.23 | 93.52 |\n\n（本代码的结果基于单次运行评估。后续将更新使用不同随机种子进行的 5 次运行的结果。）\n\n## 参考文献\n```\n@article{berthelot2019mixmatch,\n  title={MixMatch: A Holistic Approach to Semi-Supervised Learning},\n  author={Berthelot, David and Carlini, Nicholas and Goodfellow, Ian and Papernot, Nicolas and Oliver, Avital and Raffel, Colin},\n  journal={arXiv preprint arXiv:1905.02249},\n  year={2019}\n}\n```","# MixMatch-pytorch 快速上手指南\n\nMixMatch 是一种半监督学习算法，本项目是其非官方的 PyTorch 实现，旨在复现原论文在 CIFAR-10 数据集上的实验结果。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求。**特别注意 `torchvision` 的版本兼容性**。\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python**: 3.6 或更高版本\n*   **PyTorch**: 1.0 或更高版本\n*   **Torchvision**: **必须为 0.2.2** (其他版本可能导致代码不兼容)\n*   **其他依赖**:\n    *   tensorboardX\n    *   progress\n    *   matplotlib\n    *   numpy\n\n> **国内加速建议**：安装 Python 包时，推荐使用清华或阿里镜像源以提升下载速度。\n\n## 安装步骤\n\n1.  **创建虚拟环境（推荐）**\n    ```bash\n    python -m venv mixmatch_env\n    source mixmatch_env\u002Fbin\u002Factivate  # Windows 用户使用: mixmatch_env\\Scripts\\activate\n    ```\n\n2.  **安装核心深度学习框架**\n    请根据您的 CUDA 版本前往 [PyTorch 官网](https:\u002F\u002Fpytorch.org\u002F) 获取安装命令。若需指定 `torchvision` 版本，可参考以下示例：\n    ```bash\n    pip install torch==1.0.0 torchvision==0.2.2 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **安装其他依赖库**\n    ```bash\n    pip install tensorboardX progress matplotlib numpy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n4.  **克隆项目代码**\n    ```bash\n    git clone \u003C项目仓库地址>\n    cd MixMatch-pytorch\n    ```\n\n## 基本使用\n\n本项目目前仅支持 CIFAR-10 数据集的实验。以下是训练模型和监控进度的最简示例。\n\n### 1. 训练模型\n\n使用 250 个标记样本进行训练（将 `\u003Cgpu_id>` 替换为您的显卡编号，如 `0`）：\n\n```bash\npython train.py --gpu \u003Cgpu_id> --n-labeled 250 --out cifar10@250\n```\n\n若使用 4000 个标记样本进行训练：\n\n```bash\npython train.py --gpu \u003Cgpu_id> --n-labeled 4000 --out cifar10@4000\n```\n\n### 2. 监控训练进度\n\n启动 TensorBoard 查看损失曲线和准确率变化：\n\n```bash\ntensorboard.sh --port 6006 --logdir cifar10@250\n```\n\n启动后，在浏览器中访问 `http:\u002F\u002Flocalhost:6006` 即可看到可视化图表。","某医疗影像初创团队正试图构建肺炎 X 光片分类模型，但面临专业医生标注成本极高、已标注数据严重不足的困境。\n\n### 没有 MixMatch-pytorch 时\n- **模型性能遭遇瓶颈**：仅依靠有限的几百张标注图片训练，模型在测试集上的准确率难以突破 70%，无法满足临床辅助诊断的最低要求。\n- **海量数据被闲置**：医院数据库中存有的数万张未标注 X 光片完全无法利用，只能眼睁睁看着数据资源浪费。\n- **开发周期被迫拉长**：为了凑齐足够的训练数据，团队不得不暂停算法迭代，花费数月时间和高昂预算等待人工标注完成。\n- **过拟合风险极高**：在小样本下强行训练深度网络，模型死记硬背了训练集噪声，面对新患者图像时泛化能力极差。\n\n### 使用 MixMatch-pytorch 后\n- **小样本实现高精度**：利用 MixMatch-pytorch 的半监督学习机制，仅用 250 张标注图配合大量未标注数据，就将分类准确率提升至 88% 以上，接近全监督学习效果。\n- **激活沉睡数据价值**：成功将原本无用的未标注 X 光片转化为有效的训练信号，通过混合匹配策略让模型从数据分布中学习特征。\n- **大幅降低落地成本**：减少了对人工标注的依赖，标注需求量降低 90% 以上，使项目预算和时间表回到可控范围。\n- **增强模型鲁棒性**：算法特有的数据增强与一致性正则化，有效抑制了小样本下的过拟合，模型在面对不同拍摄条件的影像时表现更稳定。\n\nMixMatch-pytorch 的核心价值在于它能以极低的标注成本，将海量未标注数据转化为模型性能的提升动力，彻底解决高价值领域数据稀缺的痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FYU1ut_MixMatch-pytorch_727c7bc7.png","YU1ut","YUI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FYU1ut_eea00535.jpg","The University of Tokyo  ",null,"imikushana@gmail.com","https:\u002F\u002Fgithub.com\u002FYU1ut",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,653,135,"2025-12-28T15:54:50","MIT","","运行命令中包含 --gpu 参数，表明需要 GPU 支持，但具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":92,"python":93,"dependencies":94},"torchvision 必须为 0.2.2 版本，旧版本不兼容。目前仅支持在 CIFAR-10 数据集上进行实验。训练时需指定 GPU ID 和标记数据数量（如 250 或 4000）。","3.6+",[95,96,97,98,99,100],"PyTorch 1.0","torchvision 0.2.2","tensorboardX","progress","matplotlib","numpy",[14],[103,104,105],"semi-supervised-learning","pytorch","deep-learning","2026-03-27T02:49:30.150509","2026-04-06T22:08:44.673420",[109,114,119,124,129,134,139],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},20199,"运行代码时出现 'CIFAR10' object has no attribute 'targets' 错误怎么办？","这是由于 torchvision 版本不兼容导致的。请将 torchvision 升级到 0.2.2 或 0.3.0 及以上版本，因为新版本中 CIFAR10 数据集的属性名称发生了变化。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F2",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},20200,"在训练过程中对未标记样本进行前向传播时，是否应该使用 model.eval() 模式？","不应该直接使用 model.eval()，因为这会导致 BatchNorm 层使用初始化的 running_mean (0) 和 running_var (1)，从而产生错误结果。正确的做法是在 torch.no_grad() 上下文中，临时冻结 BN 层的统计更新（设置 track_running_stats=False），计算完伪标签后再恢复。示例代码如下：\nimport torch.nn as nn\ndef freeze_bn(m):\n    if isinstance(m, nn.BatchNorm2d):\n        m.track_running_stats = False\nwith torch.no_grad():\n    model.apply(freeze_bn)\n    outputs_u = model(inputs_u)\n    # ... 计算伪标签逻辑","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F43",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},20201,"为什么需要缓慢更新 lambda 参数，如何实现？","缓慢更新 lambda 参数（例如在 1024 个 epoch 内逐渐增加到最大值）可以使训练过程中的准确率提升更加平滑，提高训练的稳定性。官方建议不要瞬间切换，而是设计一个函数控制其随 epoch 逐步变化的过程。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F9",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},20202,"结果表格中的准确率是指“最佳准确率”还是“平均准确率”？","结果表格中展示的准确率通常指的是多次实验的平均准确率（Mean accuracy），而不是单次运行的最佳准确率（Best acc）。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F14",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},20203,"如何在混合标记和未标记样本的批次中正确计算 BatchNorm？","可以在批次间交错排列标记和未标记样本以获得正确的 BatchNorm 计算结果。但需要注意的是，如果改变了批次大小（batch size），必须相应地调整学习率（learning rate），以遵循官方实现的设置。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F5",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},20204,"lambda_u 的线性升温（rampup）实现是否正确，步长如何计算？","lambda_u 的计算应基于总步数（step）而非单纯的 epoch 数。官方实现中 warmup_kimg=1024，意味着升温过程覆盖约 100 万张图片的处理量。如果用户更改了 batch_size，需要重新计算对应的 epoch 数（例如：1048576 \u002F (batch_size * iterations_per_epoch)），确保升温策略与官方一致（通常为 16 个 epoch 左右，具体取决于 batch size）。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F6",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},20205,"在 CIFAR-100 数据集上训练效果不佳（如 Top-1 只有 0.68），可能是什么原因？","这通常是由于超参数设置不当引起的。建议在 CIFAR-100 上仔细调整学习率（LR）和其他关键参数。有用户反馈通过微调参数后，Top-1 分数可从 0.68 提升至 0.88。此外，确保数据预处理和增强策略适合该数据集。","https:\u002F\u002Fgithub.com\u002FYU1ut\u002FMixMatch-pytorch\u002Fissues\u002F3",[]]