[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-dragen1860--MAML-Pytorch":3,"similar-dragen1860--MAML-Pytorch":83},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":19,"owner_email":18,"owner_twitter":18,"owner_website":18,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":33,"env_deps":34,"category_tags":39,"github_topics":18,"view_count":42,"oss_zip_url":18,"oss_zip_packed_at":18,"status":43,"created_at":44,"updated_at":45,"faqs":46,"releases":82},7209,"dragen1860\u002FMAML-Pytorch","MAML-Pytorch","Elegant PyTorch implementation of paper Model-Agnostic Meta-Learning (MAML)","MAML-Pytorch 是经典论文《Model-Agnostic Meta-Learning》的优雅 PyTorch 实现，旨在让模型具备“学会学习”的能力。它核心解决了传统深度学习在数据稀缺场景下的适应难题：通过元学习算法，让模型仅需少量样本（如每张类别仅 1-5 张图片）进行微调，即可快速掌握新任务。这对于小样本图像分类等研究极具价值。\n\n该工具主要面向人工智能研究人员和开发者，特别是那些希望复现 MAML 算法、探索少样本学习（Few-Shot Learning）或开展相关学术研究的群体。项目支持 MiniImagenet 和 Omniglot 两大主流基准数据集，并提供了清晰的训练脚本与配置指南。\n\n其技术亮点在于代码结构的重构与优化。相较于早期版本，2.0 版本重写了元学习器与基础学习器模块，修复了若干严重漏洞，提升了运行的稳定性。虽然官方指出 MAML 训练难度较大且对显存有一定要求（例如 5 路 1 射实验约需 6GB 显存），但 MAML-Pytorch 提供了一个坚实可靠的起点，帮助研究者在此基础上进一步调整超参数或改进算法，以复现论文性能或探索新的研究方向。","#  MAML-Pytorch\nPyTorch implementation of the supervised learning experiments from the paper:\n[Model-Agnostic Meta-Learning (MAML)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.03400).\n\n> Version 1.0: Both `MiniImagenet` and `Omniglot` Datasets are supported! Have Fun~\n\n> Version 2.0: Re-write meta learner and basic learner. Solved some serious bugs in version 1.0.\n\nFor Tensorflow Implementation, please visit official [HERE](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml) and simplier version [HERE](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-TensorFlow).\n\nFor First-Order Approximation Implementation, Reptile namely, please visit [HERE](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FReptile-Pytorch).\n\n![heart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdragen1860_MAML-Pytorch_readme_46c87ce019a7.gif)\n\n# Platform\n- python: 3.x\n- Pytorch: 0.4+\n\n# MiniImagenet\n\n\n## Howto\n\nFor 5-way 1-shot exp., it allocates nearly 6GB GPU memory.\n\n1. download `MiniImagenet` dataset from [here](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FLearningToCompare-Pytorch\u002Fissues\u002F4), splitting: `train\u002Fval\u002Ftest.csv` from [here](https:\u002F\u002Fgithub.com\u002Ftwitter\u002Fmeta-learning-lstm\u002Ftree\u002Fmaster\u002Fdata\u002FminiImagenet).\n2. extract it like:\n```shell\nminiimagenet\u002F\n├── images\n\t├── n0210891500001298.jpg  \n\t├── n0287152500001298.jpg \n\t...\n├── test.csv\n├── val.csv\n└── train.csv\n\n\n```\n3. modify the `path` in `miniimagenet_train.py`:\n```python\n        mini = MiniImagenet('miniimagenet\u002F', mode='train', n_way=args.n_way, k_shot=args.k_spt,\n                    k_query=args.k_qry,\n                    batchsz=10000, resize=args.imgsz)\n\t\t...\n        mini_test = MiniImagenet('miniimagenet\u002F', mode='test', n_way=args.n_way, k_shot=args.k_spt,\n                    k_query=args.k_qry,\n                    batchsz=100, resize=args.imgsz)\n```\nto your actual data path.\n\n4. just run `python miniimagenet_train.py` and the running screenshot is as follows:\n![screenshot-miniimagetnet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdragen1860_MAML-Pytorch_readme_ae3dfb5a9c73.png)\n\nIf your reproducation perf. is not so good, maybe you can enlarge your `training epoch` to get longer training. And MAML is notorious for its hard training. Therefore, this implementation only provide you a basic start point to begin your research.\nand the performance below is true and achieved on my machine.\n\n## Benchmark\n\n| Model                               | Fine Tune | 5-way Acc. |        | 20-way Acc.|        |\n|-------------------------------------|-----------|------------|--------|------------|--------|\n|                                     |           | 1-shot     | 5-shot | 1-shot     | 5-shot |\n| Matching Nets                       | N         | 43.56%     | 55.31% | 17.31%     | 22.69% |\n| Meta-LSTM                           |           | 43.44%     | 60.60% | 16.70%     | 26.06% |\n| MAML                                | Y         | 48.7%      | 63.11% | 16.49%     | 19.29% |\n| **Ours**                            | Y         | 46.2%      | 60.3%\t| -    \t\t | - \t|\n\n\n\n# Ominiglot\n\n## Howto\nrun `python omniglot_train.py`, the program will download `omniglot` dataset automatically.\n\ndecrease the value of `args.task_num` to fit your GPU memory capacity.\n\nFor 5-way 1-shot exp., it allocates nearly 3GB GPU memory.\n\n\n# Refer to this Rep.\n```\n@misc{MAML_Pytorch,\n  author = {Liangqu Long},\n  title = {MAML-Pytorch Implementation},\n  year = {2018},\n  publisher = {GitHub},\n  journal = {GitHub repository},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch}},\n  commit = {master}\n}\n```\n","# MAML-PyTorch\n本项目是论文中监督学习实验的 PyTorch 实现：\n[模型无关的元学习 (MAML)](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.03400)。\n\n> 版本 1.0：同时支持 `MiniImagenet` 和 `Omniglot` 数据集！尽情享受吧~\n\n> 版本 2.0：重写了元学习器和基础学习器，修复了版本 1.0 中的一些严重 bug。\n\n如需 TensorFlow 实现，请访问官方 [这里](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml) 以及更简单的版本 [这里](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-TensorFlow)。\n\n如需一阶近似实现（即 Reptile），请访问 [这里](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FReptile-Pytorch)。\n\n![heart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdragen1860_MAML-Pytorch_readme_46c87ce019a7.gif)\n\n# 平台\n- Python: 3.x\n- PyTorch: 0.4+\n\n# MiniImagenet\n\n\n## 使用方法\n\n对于 5 路 1 次采样实验，大约需要 6GB 显存。\n\n1. 从 [这里](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FLearningToCompare-Pytorch\u002Fissues\u002F4) 下载 `MiniImagenet` 数据集，并从 [这里](https:\u002F\u002Fgithub.com\u002Ftwitter\u002Fmeta-learning-lstm\u002Ftree\u002Fmaster\u002Fdata\u002FminiImagenet) 获取划分文件：`train\u002Fval\u002Ftest.csv`。\n2. 解压后目录结构如下：\n```shell\nminiimagenet\u002F\n├── images\n\t├── n0210891500001298.jpg  \n\t├── n0287152500001298.jpg \n\t...\n├── test.csv\n├── val.csv\n└── train.csv\n\n\n```\n3. 修改 `miniimagenet_train.py` 中的 `path`：\n```python\n        mini = MiniImagenet('miniimagenet\u002F', mode='train', n_way=args.n_way, k_shot=args.k_spt,\n                    k_query=args.k_qry,\n                    batchsz=10000, resize=args.imgsz)\n\t\t...\n        mini_test = MiniImagenet('miniimagenet\u002F', mode='test', n_way=args.n_way, k_shot=args.k_spt,\n                    k_query=args.k_qry,\n                    batchsz=100, resize=args.imgsz)\n```\n将其修改为你实际的数据路径。\n\n4. 直接运行 `python miniimagenet_train.py` 即可，运行截图如下：\n![screenshot-miniimagetnet](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdragen1860_MAML-Pytorch_readme_ae3dfb5a9c73.png)\n\n如果你的复现效果不够理想，可以适当增加训练轮数以延长训练时间。MAML 的训练难度众所周知，因此本实现仅提供一个基础起点，供你开展研究。以下性能数据是在我的机器上真实测得的。\n\n## 基准测试\n\n| 模型                               | 微调 | 5 路准确率 |        | 20 路准确率|        |\n|-------------------------------------|-----------|------------|--------|------------|--------|\n|                                     |           | 1 次采样     | 5 次采样 | 1 次采样     | 5 次采样 |\n| 匹配网络                       | N         | 43.56%     | 55.31% | 17.31%     | 22.69% |\n| 元 LSTM                           |           | 43.44%     | 60.60% | 16.70%     | 26.06% |\n| MAML                                | Y         | 48.7%      | 63.11% | 16.49%     | 19.29% |\n| **我们的实现**                            | Y         | 46.2%      | 60.3%\t| -    \t\t | - \t|\n\n\n\n# Omniglot\n\n## 使用方法\n运行 `python omniglot_train.py`，程序会自动下载 `omniglot` 数据集。\n\n可根据你的显存容量适当降低 `args.task_num` 的值。\n\n对于 5 路 1 次采样实验，大约需要 3GB 显存。\n\n\n# 参考本项目\n```\n@misc{MAML_Pytorch,\n  author = {Liangqu Long},\n  title = {MAML-PyTorch 实现},\n  year = {2018},\n  publisher = {GitHub},\n  journal = {GitHub 仓库},\n  howpublished = {\\url{https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch}},\n  commit = {master}\n}\n```","# MAML-Pytorch 快速上手指南\n\n本指南基于 `MAML-Pytorch` 项目，帮助开发者快速在 PyTorch 环境中复现模型无关元学习（MAML）算法。\n\n## 环境准备\n\n确保您的开发环境满足以下要求：\n\n- **操作系统**: Linux \u002F macOS \u002F Windows\n- **Python**: 3.x\n- **PyTorch**: 0.4+ (建议使用较新版本以兼容现有生态)\n- **GPU**: 推荐 NVIDIA GPU\n  - MiniImagenet (5-way 1-shot) 约需 6GB 显存\n  - Omniglot (5-way 1-shot) 约需 3GB 显存\n\n**依赖安装：**\n```bash\npip install torch torchvision\n# 其他标准库如 numpy, tqdm 等通常已包含或按需安装\n```\n\n## 安装步骤\n\n本项目无需复杂的安装过程，直接克隆仓库即可使用。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch.git\ncd MAML-Pytorch\n```\n\n> **提示**：如果下载速度较慢，可使用国内镜像加速：\n> `git clone https:\u002F\u002Fgitee.com\u002Fmirror\u002FMAML-Pytorch.git` (如有对应镜像) 或通过代理克隆。\n\n## 基本使用\n\n本项目主要支持 **MiniImagenet** 和 **Omniglot** 两个数据集的实验。\n\n### 1. MiniImagenet 实验\n\n**步骤一：准备数据**\n手动下载数据集及划分文件，并按以下结构整理目录：\n\n1. 下载图片数据：[MiniImagenet Dataset](https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FLearningToCompare-Pytorch\u002Fissues\u002F4)\n2. 下载划分文件 (`train\u002Fval\u002Ftest.csv`)：[Splits](https:\u002F\u002Fgithub.com\u002Ftwitter\u002Fmeta-learning-lstm\u002Ftree\u002Fmaster\u002Fdata\u002FminiImagenet)\n\n整理后的目录结构应如下：\n```text\nminiimagenet\u002F\n├── images\n│   ├── n0210891500001298.jpg  \n│   ├── n0287152500001298.jpg \n│   └── ...\n├── test.csv\n├── val.csv\n└── train.csv\n```\n\n**步骤二：配置路径**\n编辑 `miniimagenet_train.py`，将数据路径修改为您本地的实际路径：\n\n```python\n# 修改前\nmini = MiniImagenet('miniimagenet\u002F', mode='train', ...)\nmini_test = MiniImagenet('miniimagenet\u002F', mode='test', ...)\n\n# 确保 'miniimagenet\u002F' 指向您存放上述数据的文件夹根目录\n```\n\n**步骤三：运行训练**\n执行以下命令开始训练（默认 5-way 1-shot）：\n\n```bash\npython miniimagenet_train.py\n```\n\n> **注意**：MAML 训练难度较大，若复现效果不佳，可尝试增加 `training epoch`。\n\n### 2. Omniglot 实验\n\nOmniglot 数据集支持自动下载，使用更为便捷。\n\n**运行命令：**\n```bash\npython omniglot_train.py\n```\n\n**显存优化：**\n如果您的 GPU 显存不足，请在代码或命令行参数中减小 `args.task_num` 的值以适应硬件限制。\n\n---\n*基准性能参考：在 5-way 1-shot 设置下，本实现约为 46.2% 准确率；5-shot 设置下约为 60.3%。*","某医疗 AI 初创团队需要开发一个能快速适应不同医院罕见病影像数据的诊断模型，但面临各院数据量极少且标注成本高昂的困境。\n\n### 没有 MAML-Pytorch 时\n- **冷启动困难**：针对每家新医院的少量样本（如仅 5 张片子），传统深度学习模型因数据不足无法收敛，必须从头收集大量数据才能训练。\n- **重复造轮子**：研究人员需手动复现复杂的元学习算法梯度更新逻辑，极易在二阶导数计算中引入隐蔽 Bug，导致实验结果不可复现。\n- **泛化能力差**：模型在源数据集表现良好，但迁移到新分布数据时性能断崖式下跌，无法实现“学会学习”的快速适配。\n- **资源浪费**：为验证不同元学习变体，团队需耗费数周搭建基础框架，而非专注于核心业务逻辑与数据策略。\n\n### 使用 MAML-Pytorch 后\n- **极速小样本适配**：利用 MAML-Pytorch 预置的 MiniImagenet 和 Omniglot 支持，模型仅需少量梯度步数即可在新医院数据上完成微调，显著降低数据依赖。\n- **开箱即用的可靠基线**：直接调用其修复过严重 Bug 的 Meta Learner 模块，避免了底层数学实现的陷阱，让团队能立即在标准基准上验证想法。\n- **强大的跨域泛化**：通过模型无关的元学习机制，初始参数具备了极强的通用性，面对新任务时只需极少样本即可达到可观的准确率。\n- **研发效率倍增**：基于成熟的 PyTorch 实现，团队将原本数周的框架搭建时间缩短至几天，迅速将精力投入到医疗场景的特殊优化中。\n\nMAML-Pytorch 通过提供稳定高效的元学习基线，让开发者在数据稀缺场景下也能快速构建具备强泛化能力的智能模型。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdragen1860_MAML-Pytorch_a5904a20.png","dragen1860","Jackie Loong","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdragen1860_75473de7.jpg","Make machines behave like me.\r\n\r\nliangqu.long@gmail.com",null,"Sydney","https:\u002F\u002Fgithub.com\u002Fdragen1860",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,2479,440,"2026-04-13T05:21:32","MIT",3,"","需要 GPU。运行 MiniImagenet 5-way 1-shot 实验需约 6GB 显存；运行 Omniglot 5-way 1-shot 实验需约 3GB 显存。具体显卡型号和 CUDA 版本未说明。","未说明",{"notes":35,"python":36,"dependencies":37},"MiniImagenet 数据集需手动下载并解压，同时需单独下载 train\u002Fval\u002Ftest.csv 分割文件并修改代码中的路径。Omniglot 数据集可自动下载。MAML 训练难度较大，若复现效果不佳，建议增加训练轮数（epoch）。可通过减小 `args.task_num` 参数来适应较小的显存容量。","3.x",[38],"PyTorch>=0.4",[40,41],"开发框架","其他",2,"ready","2026-03-27T02:49:30.150509","2026-04-14T03:09:25.055984",[47,52,57,62,67,72,77],{"id":48,"question_zh":49,"answer_zh":50,"source_url":51},32365,"如何实现二阶 MAML（2nd-order MAML）？需要设置什么参数？","需要在使用 `torch.autograd.grad` 函数时设置 `create_graph=True`。如果不设置该参数，计算出的梯度 `requires_grad` 将为 False，导致无法计算高阶导数，从而退化为只使用一阶导数的 MAML（First-order MAML）。正确用法示例：`grad = torch.autograd.grad(loss, self.net.parameters(), create_graph=True)`。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F17",{"id":53,"question_zh":54,"answer_zh":55,"source_url":56},32366,"为什么在 MiniImageNet 数据集上复现的结果只有约 43%，达不到论文报告的精度？","默认参数下可能只能达到约 42.94% 的准确率。维护者确认 README 中的性能报告是真实的，解决方法是**增加训练轮数（training epoch）**。有用户反馈通过增加训练轮数，准确率可以提升至 46.44% 甚至更高。此外，确保使用的是修复了测试数据泄露 bug 的最新版本代码。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F16",{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},32367,"之前的版本（包含 MetaLearner 和 Learner 类）有什么问题？还能找到吗？","旧版本中存在一些 Bug，且架构较为复杂。维护者已在新版本中移除了 `MetaLearner` 和 `Learner` 类以修复这些问题并简化代码。当前最新版本已在 Omniglot 和 Mini-ImageNet 数据集上验证可用。如果需要参考旧版架构（Reptile 相关），可以访问单独的仓库：https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FReptile-Pytorch。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F2",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},32368,"MAML 训练速度非常慢，即使使用 GPU 也像 CPU 一样慢，支持多显卡训练吗？","由于 MAML 涉及二阶导数（2nd order derivative）的计算，其训练速度天然比普通的监督学习慢很多，这是正常现象。关于多显卡训练，有用户反馈即使使用单张 GPU，大部分时间程序似乎仍在 CPU 上运行，因此多显卡加速效果可能不明显或需要特定的并行实现策略。目前官方代码主要关注算法正确性而非多卡并行优化。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F21",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},32369,"代码中是否使用了停止梯度（stop_gradient）来近似一阶导数？","该实现**没有**包含 `stop_gradient` 操作。`stop_gradient` 通常用于将二阶导数近似为一阶导数以加速计算。此项目直接实现了完整的二阶导数版本（2nd order version），理论上性能会更好，但计算成本也更高。如果你看到类似 `tf.stop_gradient` 的代码，那是原始 TensorFlow 实现中的一阶近似选项，在此 PyTorch 版本中未采用。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F19",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},32370,"之前报告的“测试数据泄露到元训练”的问题解决了吗？","已解决。旧版本中 `forward()` 函数在元测试（meta testing）阶段错误地执行了优化步骤，导致测试样本信息泄露给元学习器。维护者已在最新版本中修复此 Bug，确保在测试模式下跳过优化步骤。请务必执行 `git pull` 获取最新代码，否则测试结果会过于乐观且不准确。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F3",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},32371,"在元训练的内部更新（inner update）阶段，是更新整个模型还是只更新最后一层？","在元训练的训练阶段（train phase of meta training），**整个模型**的参数都会进行更新。这符合 MAML 原始论文的算法机制。不要将其与某些仅在测试阶段微调最后一层的其他方法混淆。如有疑虑，建议参考原始 MAML 论文以获取更多算法细节。","https:\u002F\u002Fgithub.com\u002Fdragen1860\u002FMAML-Pytorch\u002Fissues\u002F22",[],[84,95,103,112,120,129],{"id":85,"name":86,"github_repo":87,"description_zh":88,"stars":89,"difficulty_score":30,"last_commit_at":90,"category_tags":91,"status":43},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[92,40,93,94],"Agent","图像","数据工具",{"id":96,"name":97,"github_repo":98,"description_zh":99,"stars":100,"difficulty_score":30,"last_commit_at":101,"category_tags":102,"status":43},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[40,93,92],{"id":104,"name":105,"github_repo":106,"description_zh":107,"stars":108,"difficulty_score":42,"last_commit_at":109,"category_tags":110,"status":43},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,"2026-04-13T11:34:59",[40,92,111],"语言模型",{"id":113,"name":114,"github_repo":115,"description_zh":116,"stars":117,"difficulty_score":42,"last_commit_at":118,"category_tags":119,"status":43},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[40,93,92],{"id":121,"name":122,"github_repo":123,"description_zh":124,"stars":125,"difficulty_score":42,"last_commit_at":126,"category_tags":127,"status":43},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[128,92,93,40],"插件",{"id":130,"name":131,"github_repo":132,"description_zh":133,"stars":134,"difficulty_score":42,"last_commit_at":135,"category_tags":136,"status":43},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[128,40]]