[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-floodsung--LearningToCompare_FSL":3,"tool-floodsung--LearningToCompare_FSL":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,2,"2026-04-18T11:18:24",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":101,"github_topics":103,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":139},9626,"floodsung\u002FLearningToCompare_FSL","LearningToCompare_FSL","PyTorch code for CVPR 2018 paper: Learning to Compare: Relation Network for Few-Shot Learning (Few-Shot Learning part)","LearningToCompare_FSL 是 CVPR 2018 经典论文《Learning to Compare: Relation Network for Few-Shot Learning》的 PyTorch 官方复现代码，专注于解决“小样本学习”难题。在现实应用中，我们常面临训练数据极度匮乏的场景（如每种类别仅有几张图片），传统深度学习模型往往难以奏效。该工具通过引入“关系网络（Relation Network）”，让模型学会如何比较样本间的相似性，从而在仅凭少量示例的情况下，也能精准识别新类别。\n\n其核心技术亮点在于摒弃了固定的距离度量方式，转而使用一个可学习的神经网络模块来动态计算特征之间的关系，显著提升了模型的泛化能力。代码库完整覆盖了 Omniglot 和 mini-ImageNet 两大主流基准数据集的实验流程，提供了从数据预处理、模型训练到测试评估的一站式脚本，支持多种小样本设置（如 5 路 1  shot、5 路 5 shot 等）。\n\n这款工具非常适合人工智能研究人员、算法工程师以及对小样本学习感兴趣的高校师生使用。无论是希望复现顶会论文结果、深入理解关系网络","LearningToCompare_FSL 是 CVPR 2018 经典论文《Learning to Compare: Relation Network for Few-Shot Learning》的 PyTorch 官方复现代码，专注于解决“小样本学习”难题。在现实应用中，我们常面临训练数据极度匮乏的场景（如每种类别仅有几张图片），传统深度学习模型往往难以奏效。该工具通过引入“关系网络（Relation Network）”，让模型学会如何比较样本间的相似性，从而在仅凭少量示例的情况下，也能精准识别新类别。\n\n其核心技术亮点在于摒弃了固定的距离度量方式，转而使用一个可学习的神经网络模块来动态计算特征之间的关系，显著提升了模型的泛化能力。代码库完整覆盖了 Omniglot 和 mini-ImageNet 两大主流基准数据集的实验流程，提供了从数据预处理、模型训练到测试评估的一站式脚本，支持多种小样本设置（如 5 路 1  shot、5 路 5 shot 等）。\n\n这款工具非常适合人工智能研究人员、算法工程师以及对小样本学习感兴趣的高校师生使用。无论是希望复现顶会论文结果、深入理解关系网络架构，还是以此为基础开展新的学术研究，LearningToCompare_FSL 都提供了一个清晰、可靠的代码起点。需要注意的是，由于项目基于较早期的 PyTorch 0.3 版本开发，使用者在运行前可能需要对代码进行适当的兼容性调整。","# LearningToCompare_FSL\nPyTorch code for CVPR 2018 paper: [Learning to Compare: Relation Network for Few-Shot Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.06025) (Few-Shot Learning part)\n\nFor Zero-Shot Learning part, please visit [here](https:\u002F\u002Fgithub.com\u002Flzrobots\u002FLearningToCompare_ZSL).\n\n# Requirements\n\nPython 2.7\n\nPytorch 0.3\n\n# Data\n\nFor Omniglot experiments, I directly attach omniglot 28x28 resized images in the git, which is created based on [omniglot](https:\u002F\u002Fgithub.com\u002Fbrendenlake\u002Fomniglot) and [maml](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml).\n\nFor mini-Imagenet experiments, please download [mini-Imagenet](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3Irx3uQNoBMQ1FlNXJsZUdYWEE) and put it in .\u002Fdatas\u002Fmini-Imagenet and run proc_image.py to preprocess generate train\u002Fval\u002Ftest datasets. (This process method is based on [maml](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml)).\n\n# Train\n\nomniglot 5way 1 shot:\n\n```\npython omniglot_train_one_shot.py -w 5 -s 1 -b 19 \n```\n\nomniglot 5way 5 shot:\n\n```\npython omniglot_train_few_shot.py -w 5 -s 5 -b 15 \n```\n\nomniglot 20way 1 shot:\n\n```\npython omniglot_train_one_shot.py -w 20 -s 1 -b 10\n```\n\nomniglot 20way 5 shot:\n\n```\npython omniglot_train_few_shot.py -w 20 -s 5 -b 5\n```\n\nmini-Imagenet 5 way 1 shot:\n\n```\npython miniimagenet_train_one_shot.py -w 5 -s 1 -b 15\n```\n\nmini-Imagenet 5 way 5 shot:\n\n```\npython miniimagenet_train_few_shot.py -w 5 -s 5 -b 10\n```\n\nyou can change -b parameter based on your GPU memory. Currently It will load my trained model, if you want to train from scratch, you can delete models by yourself.\n\n## Test\n\nomniglot 5way 1 shot:\n\n```\npython omniglot_test_one_shot.py -w 5 -s 1\n```\n\nOther experiments' testings are similar.\n\n\n## Citing\n\nIf you use this code in your research, please use the following BibTeX entry.\n\n```\n@inproceedings{sung2018learning,\n  title={Learning to Compare: Relation Network for Few-Shot Learning},\n  author={Sung, Flood and Yang, Yongxin and Zhang, Li and Xiang, Tao and Torr, Philip HS and Hospedales, Timothy M},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2018}\n}\n```\n\n## Reference\n\n[MAML](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml)\n\n[MAML-pytorch](https:\u002F\u002Fgithub.com\u002Fkaterakelly\u002Fpytorch-maml)\n\n\n","# LearningToCompare_FSL\n用于 CVPR 2018 论文的 PyTorch 代码：[Learning to Compare: Relation Network for Few-Shot Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1711.06025)（少样本学习部分）\n\n关于零样本学习部分，请访问 [这里](https:\u002F\u002Fgithub.com\u002Flzrobots\u002FLearningToCompare_ZSL)。\n\n# 需求\n\nPython 2.7\n\nPytorch 0.3\n\n# 数据\n\n对于 Omniglot 实验，我直接在仓库中附上了基于 [omniglot](https:\u002F\u002Fgithub.com\u002Fbrendenlake\u002Fomniglot) 和 [maml](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml) 创建的 28x28 尺寸的 Omniglot 图像。\n\n对于 mini-Imagenet 实验，请下载 [mini-Imagenet](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3Irx3uQNoBMQ1FlNXJsZUdYWEE)，并将其放置在 .\u002Fdatas\u002Fmini-Imagenet 目录下，然后运行 proc_image.py 脚本进行预处理，生成训练\u002F验证\u002F测试数据集。（该处理方法参考了 [maml](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml)。）\n\n# 训练\n\nOmniglot 5 路 1 次采样：\n\n```\npython omniglot_train_one_shot.py -w 5 -s 1 -b 19 \n```\n\nOmniglot 5 路 5 次采样：\n\n```\npython omniglot_train_few_shot.py -w 5 -s 5 -b 15 \n```\n\nOmniglot 20 路 1 次采样：\n\n```\npython omniglot_train_one_shot.py -w 20 -s 1 -b 10\n```\n\nOmniglot 20 路 5 次采样：\n\n```\npython omniglot_train_few_shot.py -w 20 -s 5 -b 5\n```\n\nmini-Imagenet 5 路 1 次采样：\n\n```\npython miniimagenet_train_one_shot.py -w 5 -s 1 -b 15\n```\n\nmini-Imagenet 5 路 5 次采样：\n\n```\npython miniimagenet_train_few_shot.py -w 5 -s 5 -b 10\n```\n\n您可以根据显存情况调整 -b 参数。目前脚本会加载我预先训练好的模型；如果您想从头开始训练，可以自行删除 models 文件夹中的模型文件。\n\n## 测试\n\nOmniglot 5 路 1 次采样：\n\n```\npython omniglot_test_one_shot.py -w 5 -s 1\n```\n\n其他实验的测试方法类似。\n\n## 引用\n\n如果您在研究中使用了本代码，请使用以下 BibTeX 条目：\n\n```\n@inproceedings{sung2018learning,\n  title={Learning to Compare: Relation Network for Few-Shot Learning},\n  author={Sung, Flood and Yang, Yongxin and Zhang, Li and Xiang, Tao and Torr, Philip HS and Hospedales, Timothy M},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2018}\n}\n```\n\n## 参考文献\n\n[MAML](https:\u002F\u002Fgithub.com\u002Fcbfinn\u002Fmaml)\n\n[MAML-pytorch](https:\u002F\u002Fgithub.com\u002Fkaterakelly\u002Fpytorch-maml)","# LearningToCompare_FSL 快速上手指南\n\n本指南基于 CVPR 2018 论文《Learning to Compare: Relation Network for Few-Shot Learning》的 PyTorch 实现，专注于小样本学习（Few-Shot Learning）任务。\n\n## 环境准备\n\n本项目对 Python 和 PyTorch 版本有严格要求，建议使用虚拟环境以避免冲突。\n\n*   **操作系统**：Linux \u002F macOS (Windows 需自行配置兼容环境)\n*   **Python 版本**：2.7\n*   **深度学习框架**：PyTorch 0.3\n*   **其他依赖**：标准科学计算库（如 numpy, PIL 等，通常随 PyTorch 安装或需额外安装）\n\n> **注意**：由于项目依赖较旧的 Python 2.7 和 PyTorch 0.3，在新版系统中可能需要通过 `conda` 创建特定历史版本的环境。\n\n## 安装步骤\n\n### 1. 克隆代码库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Flzrobots\u002FLearningToCompare_FSL.git\ncd LearningToCompare_FSL\n```\n\n### 2. 配置运行环境\n推荐使用 Conda 创建隔离环境并安装指定版本的 PyTorch：\n\n```bash\n# 创建 Python 2.7 环境\nconda create -n fsl_env python=2.7\nconda activate fsl_env\n\n# 安装 PyTorch 0.3 (根据 CUDA 版本选择，以下为 CPU 版本示例，GPU 版本请参考 PyTorch 历史文档)\npip install torch==0.3.1 torchvision==0.2.1\n\n# 安装其他必要依赖\npip install numpy pillow scipy\n```\n\n### 3. 数据准备\n\n#### Omniglot 数据集\n代码库已直接包含预处理好的 28x28  resized 图像，无需额外下载，可直接使用。\n\n#### Mini-ImageNet 数据集\n需手动下载并预处理：\n\n1.  下载 [mini-Imagenet](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B3Irx3uQNoBMQ1FlNXJsZUdYWEE)。\n2.  将下载的数据放入 `.\u002Fdatas\u002Fmini-Imagenet` 目录。\n3.  运行预处理脚本生成训练\u002F验证\u002F测试集：\n    ```bash\n    python proc_image.py\n    ```\n\n## 基本使用\n\n以下展示最基础的 **Omniglot 5 路 1 射 (5-way 1-shot)** 训练与测试流程。你可以通过修改 `-w` (ways), `-s` (shots), `-b` (batch size) 参数适配不同实验场景。\n\n### 1. 训练模型\n\n运行以下命令开始训练（默认会加载预训练模型继续训练，若需从头训练请手动删除 `models` 目录下的文件）：\n\n```bash\npython omniglot_train_one_shot.py -w 5 -s 1 -b 19 \n```\n\n*   `-w 5`: 5 个类别\n*   `-s 1`: 每个类别 1 个支持样本\n*   `-b 19`: 批大小（可根据显存大小调整）\n\n### 2. 测试模型\n\n训练完成后，使用以下命令评估模型性能：\n\n```bash\npython omniglot_test_one_shot.py -w 5 -s 1\n```\n\n### 其他常见实验配置示例\n\n*   **Omniglot 5-way 5-shot**:\n    ```bash\n    python omniglot_train_few_shot.py -w 5 -s 5 -b 15 \n    ```\n*   **Mini-ImageNet 5-way 1-shot**:\n    ```bash\n    python miniimagenet_train_one_shot.py -w 5 -s 1 -b 15\n    ```","某医疗影像初创团队急需开发一个能识别罕见皮肤病变的 AI 模型，但手头每种病症仅收集到寥寥数张标注图片。\n\n### 没有 LearningToCompare_FSL 时\n- **数据瓶颈难以突破**：传统深度学习模型依赖海量样本，面对“每类仅 1-5 张图”的极端少样本情况，模型直接过拟合，无法泛化。\n- **特征工程成本高昂**：工程师需手动设计复杂的图像特征提取器来弥补数据不足，耗时数周且效果依然不稳定。\n- **新病种上线缓慢**：每当发现新的罕见病例，都需要重新收集大量数据并从头训练模型，业务响应周期长达数月。\n- **分类精度极低**：在缺乏对比学习机制的情况下，模型难以区分细微的病灶差异，误诊率居高不下。\n\n### 使用 LearningToCompare_FSL 后\n- **极少样本即可训练**：利用关系网络（Relation Network）的核心算法，仅需 1 到 5 张参考图就能让模型学会识别新病种，完美适配稀缺数据场景。\n- **自动学习度量标准**：无需人工干预特征工程，模型通过端到端训练自动学习如何“比较”图片间的相似性，大幅降低开发门槛。\n- **快速迭代新类别**：新增疾病类型时，只需提供少量示例图进行微调或推理，无需重训整个网络，将新病种上线时间缩短至小时级。\n- **显著提升判别能力**：通过在 Omniglot 和 mini-ImageNet 上验证的少样本学习架构，模型在细粒度图像分类上的准确率大幅提升，有效辅助医生诊断。\n\nLearningToCompare_FSL 通过让机器学会“比较”而非死记硬背，成功解决了数据稀缺场景下的模型冷启动难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffloodsung_LearningToCompare_FSL_c378c9e6.png","floodsung","Flood Sung","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffloodsung_59fb4692.jpg","Focus on AGI, Deep Reinforcement Learning, Meta Learning, Robot Learning, Physics-based Animation","moonshot.ai",null,"floodsung@gmail.com","floodsung.github.io","https:\u002F\u002Fgithub.com\u002Ffloodsung",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,1075,264,"2026-04-15T02:48:53","MIT",4,"","需要 GPU（具体型号未说明），显存大小需根据 -b (batch size) 参数调整，CUDA 版本未说明","未说明",{"notes":97,"python":98,"dependencies":99},"该项目基于较旧的 PyTorch 0.3 和 Python 2.7 构建。Omniglot 数据集已包含在代码库中；Mini-Imagenet 数据集需手动下载并运行 proc_image.py 进行预处理。训练时可通过调整 -b 参数以适应当前 GPU 显存大小。默认情况下会加载预训练模型，若需从头训练请自行删除模型文件。","2.7",[100],"PyTorch==0.3",[15,102],"其他",[104,105],"few-shot-learning","meta-learning","2026-03-27T02:49:30.150509","2026-04-20T04:05:13.102706",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},43219,"在哪里可以找到 miniImagenet 数据集的 csv 文件？","您可以从 Twitter meta-learning-lstm 项目的数据目录中获取这些文件。具体链接为：https:\u002F\u002Fgithub.com\u002Ftwitter\u002Fmeta-learning-lstm\u002Ftree\u002Fmaster\u002Fdata\u002FminiImagenet。此外，维护者提到这些文件也可能已添加到项目本地的 \u002Fdatas\u002Fminiimagenet 目录下。","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F1",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},43220,"运行代码时出现 RuntimeError: Expected object of scalar type Long but got scalar type Int 错误，如何解决？","该错误是因为 scatter_ 函数的索引参数类型不匹配。需要将 batch_labels 转换为 Long 类型。请修改出错行的代码，将：\nbatch_labels.view(-1,1)\n改为：\nbatch_labels.view(-1,1).long()\n\n完整修复后的代码示例：\n_one_hot_labels = Variable(torch.zeros(BATCH_NUM_PER_CLASS*CLASS_NUM, CLASS_NUM).scatter_(1, batch_labels.view(-1,1).long(), 1).cuda(GPU))_","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F30",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},43221,"为什么在特征拼接前要对支持集（support set）的特征进行求和而不是直接拼接？","对支持集特征求和是一种简单的操作，旨在保持维度一致。虽然论文未明确提及此求和操作，但直接拼接每个支持图像特征可能导致效果不佳。您可以尝试求和操作以保持维度相同，当然也可以尝试拼接，但求和通常是更稳定的选择。","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F11",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},43222,"数据归一化部分为什么 mean 和 std 的三个通道值都是一样的？","这是为了保持 3D 图像数据的均值和标准差一致，是 ImageNet 数据集处理中的常见做法。即使输入图像可能看似不同，统一使用相同的均值 [0.92206, 0.92206, 0.92206] 和标准差 [0.08426, 0.08426, 0.08426] 是该项目的标准预处理流程。","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F7",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},43223,"为什么新版论文中的\"shallow\"RN 准确率比旧版低？加深网络结构后出现过拟合怎么办？","1. 准确率降低的原因：旧版本训练时使用了验证集（valid set），而新版本发现其他方法大多不使用验证集，因此重新仅用训练集（train net）进行训练，导致准确率数值有所下降。\n2. 关于过拟合：由于缺乏验证集，训练更深的残差网络（deeper RN）时确实容易遇到过拟合问题（如在 80000 episode 后测试准确率低于 0.60）。因此，新版本中移除了加深网络结构的部分以避免此问题。","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F3",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},43224,"运行命令时出现 ValueError: sample larger than population 错误，原因是什么？","该错误通常发生在随机采样时请求的样本数量超过了总体数量。在执行类似 python miniimagenet_train_one_shot.py -w 5 -s 1 -b 15 的命令时，如果配置的分类数（CLASS_NUM）或每类样本数超过了数据集中实际可用的类别文件夹数量（self.character_folders），random.sample 函数就会抛出此异常。请检查您的数据路径是否正确，以及命令行参数中的类别数量设置是否超出了数据集的实际范围。","https:\u002F\u002Fgithub.com\u002Ffloodsung\u002FLearningToCompare_FSL\u002Fissues\u002F39",[]]