[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zhirongw--lemniscate.pytorch":3,"tool-zhirongw--lemniscate.pytorch":61},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":24,"last_commit_at":59,"category_tags":60,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":73,"owner_company":73,"owner_location":73,"owner_email":73,"owner_twitter":73,"owner_website":73,"owner_url":75,"languages":76,"stars":81,"forks":82,"last_commit_at":83,"license":73,"difficulty_score":10,"env_os":84,"env_gpu":85,"env_ram":84,"env_deps":86,"category_tags":91,"github_topics":93,"view_count":24,"oss_zip_url":73,"oss_zip_packed_at":73,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":145},9979,"zhirongw\u002Flemniscate.pytorch","lemniscate.pytorch","Unsupervised Feature Learning via Non-parametric Instance Discrimination","lemniscate.pytorch 是一个基于 PyTorch 实现的无监督特征学习工具，源自 CVPR 2018 的经典论文。它旨在解决在没有人工标注标签的情况下，如何让机器自动从海量图像中学习高质量视觉特征这一难题。通过采用“非参数实例判别”的独特视角，该工具将每张图像视为独立类别进行训练，从而让模型学会区分不同实例，提取出紧凑且通用的特征表示。\n\n该项目特别适合计算机视觉领域的研究人员和开发者使用，尤其是那些希望探索自监督学习、预训练模型或需要在缺乏标注数据场景下构建视觉系统的团队。其技术亮点在于能够生成低至 128 维的高效特征编码，并无缝兼容最近邻分类器；同时，它充分吸收了监督学习中的先进架构（如 ResNet）优势。项目不仅提供了基于新损失函数优化的预训练模型（在 ImageNet 上线性评估准确率可达 58.5%），还保留了原始版本的模型权重与全量特征数据，方便用户直接复用或对比研究。无论是用于学术实验还是作为下游任务的特征提取基座，lemniscate.pytorch 都是一个坚实可靠的选择。","## Unsupervised Feature Learning via Non-parameteric Instance Discrimination\n\nThis repo constains the pytorch implementation for the CVPR2018 unsupervised learning paper [(arxiv)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01978.pdf).\n\n## Updated Pretrained Model\n\nAn updated instance discrimination model with memory bank implementation and with nce-k=65536 negatives is provided.\nThe updated model is trained with Softmax-CE loss as in CPC\u002FMoCo instead of the original NCE loss.\n\n- [ResNet 50](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50_update.pth) (Linear ImageNet Acc 58.5%)\n\n\n**Oldies**: original releases of ResNet18 and ResNet50 trained with 4096 negatives and the NCE loss.\nEach tar ball contains the feature representation of all ImageNet training images (600 mb) and model weights (100-200mb).\nYou can also get these representations by forwarding the network for the entire ImageNet images.\n\n- [ResNet 18](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet18.pth) (top 1 nearest neighbor accuracy 41.0%)\n- [ResNet 50](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50.pth) (top 1 nearest neighbor accuracy 46.8%)\n\n\n## Highlight\n\n- We formulate unsupervised learning from a completely different non-parametric perspective.\n- Feature encodings can be as compact as 128 dimension for each image.\n- Enjoys the benefit of advanced architectures and techniques from supervised learning.\n- Runs seamlessly with nearest neighbor classifiers.\n\n## Nearest Neighbor\n\nPlease follow [this link](http:\u002F\u002Fzhirongw.westus2.cloudapp.azure.com\u002Fnn.html) for a list of nearest neighbors on ImageNet.\nResults are visualized from our ResNet50 model, compared with raw image features and supervised features.\nFirst column is the query image, followed by 20 retrievals ranked by the similarity.\n\n## Usage\n\nOur code extends the pytorch implementation of imagenet classification in [official pytorch release](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002Fmaster\u002Fimagenet). \nPlease refer to the official repo for details of data preparation and hardware configurations.\n\n- supports python27 and [pytorch=0.4](http:\u002F\u002Fpytorch.org)\n\n- if you are looking for pytorch 0.3, please switch to tag v0.3\n\n- clone this repo: `git clone https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch`\n\n- Training on ImageNet:\n\n  `python main.py DATAPATH --arch resnet18 -j 32 --nce-k 4096 --nce-t 0.07  --lr 0.03 --nce-m 0.5 --low-dim 128 -b 256 `\n\n  - parameter nce-k controls the number of negative samples. If nce-k sets to 0, the code also supports full softmax learning.\n  - nce-t controls temperature of the distribution. 0.07-0.1 works well in practice.\n  - nce-m stabilizes the learning process. A value of 0.5 works well in practice.\n  - learning rate is initialized to 0.03, a bit smaller than standard supervised learning.\n  - the embedding size is controlled by the parameter low-dim.\n\n- During training, we monitor the supervised validation accuracy by K nearest neighbor with K=1, as it's faster, and gives a good estimation of the feature quality.\n\n- Testing on ImageNet:\n\n  `python main.py DATAPATH --arch resnet18 --resume input_model.pth.tar -e` runs testing with default K=200 neighbors.\n\n- Training on CIFAR10:\n\n  `python cifar.py --nce-k 0 --nce-t 0.1 --lr 0.03`\n\n\n## Citation\n\n```\n@inproceedings{wu2018unsupervised,\n  title={Unsupervised Feature Learning via Non-Parametric Instance Discrimination},\n  author={Wu, Zhirong and Xiong, Yuanjun and Stella, X Yu and Lin, Dahua},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2018}\n}\n```\n\n## Contact\n\nFor any questions, please feel free to reach \n```\nZhirong Wu: xavibrowu@gmail.com\n```\n","## 基于非参数化实例判别的无监督特征学习\n\n本仓库包含CVPR2018无监督学习论文的PyTorch实现 [(arxiv)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1805.01978.pdf)。\n\n## 更新的预训练模型\n\n提供了一个更新的实例判别模型，采用了记忆库实现，并使用了65536个负样本的NCE损失。该更新后的模型采用CPC\u002FMoCo中使用的Softmax-CE损失进行训练，而非原始的NCE损失。\n\n- [ResNet 50](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50_update.pth)（线性ImageNet准确率58.5%）\n\n\n**旧版**：原始发布的ResNet18和ResNet50模型，分别使用4096个负样本和NCE损失进行训练。每个tar包包含ImageNet所有训练图像的特征表示（600 MB）以及模型权重（100–200 MB）。您也可以通过将整个ImageNet数据集输入网络来获取这些特征表示。\n\n- [ResNet 18](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet18.pth)（top 1最近邻准确率41.0%）\n- [ResNet 50](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50.pth)（top 1最近邻准确率46.8%）\n\n\n## 亮点\n\n- 我们从一个完全不同的非参数化视角来构建无监督学习。\n- 每张图像的特征编码可以紧凑到仅128维。\n- 能够受益于监督学习中先进的架构和技术。\n- 可以与最近邻分类器无缝配合使用。\n\n## 最近邻检索\n\n请访问[此链接](http:\u002F\u002Fzhirongw.westus2.cloudapp.azure.com\u002Fnn.html)，查看ImageNet上的最近邻检索结果。结果基于我们的ResNet50模型生成，并与原始图像特征及监督学习特征进行了对比。第一列为查询图像，随后是按相似度排序的20个检索结果。\n\n## 使用方法\n\n我们的代码扩展了[官方PyTorch发布](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002Fmaster\u002Fimagenet)中用于ImageNet分类的PyTorch实现。有关数据准备和硬件配置的详细信息，请参考官方仓库。\n\n- 支持Python 2.7和PyTorch 0.4版本\n- 如果您需要PyTorch 0.3版本，请切换到v0.3标签\n- 克隆本仓库：`git clone https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch`\n- 在ImageNet上进行训练：\n\n  `python main.py DATAPATH --arch resnet18 -j 32 --nce-k 4096 --nce-t 0.07  --lr 0.03 --nce-m 0.5 --low-dim 128 -b 256`\n\n  - 参数nce-k控制负样本的数量。若nce-k设置为0，则代码也支持全Softmax学习。\n  - nce-t控制分布的温度。实践中0.07–0.1效果较好。\n  - nce-m用于稳定训练过程。实践中0.5是一个合适的值。\n  - 学习率初始设为0.03，略低于标准的监督学习设置。\n  - 嵌入维度由参数low-dim控制。\n  \n- 在训练过程中，我们通过K=1的最近邻方法监控监督验证准确率，因为这种方法速度更快，且能较好地评估特征质量。\n  \n- 在ImageNet上进行测试：\n\n  `python main.py DATAPATH --arch resnet18 --resume input_model.pth.tar -e` 将以默认的K=200个邻居进行测试。\n  \n- 在CIFAR10上进行训练：\n\n  `python cifar.py --nce-k 0 --nce-t 0.1 --lr 0.03`\n\n\n## 引用\n\n```\n@inproceedings{wu2018unsupervised,\n  title={Unsupervised Feature Learning via Non-Parametric Instance Discrimination},\n  author={Wu, Zhirong and Xiong, Yuanjun and Stella, X Yu and Lin, Dahua},\n  booktitle={Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition},\n  year={2018}\n}\n```\n\n## 联系方式\n\n如有任何问题，请随时联系：\n```\nZhirong Wu: xavibrowu@gmail.com\n```","# lemniscate.pytorch 快速上手指南\n\n本指南基于 CVPR 2018 论文《Unsupervised Feature Learning via Non-Parametric Instance Discrimination》的 PyTorch 实现，帮助用户快速搭建无监督特征学习环境。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **Python 版本**: Python 2.7 (官方原始支持)，也兼容 Python 3 (需自行调整部分语法)\n*   **深度学习框架**: PyTorch 0.4 (官方原始版本)\n    *   *注：若需使用 PyTorch 0.3，请切换至代码库的 `v0.3` 标签。现代高版本 PyTorch 可能需要修改部分废弃 API。*\n*   **硬件要求**: 支持 CUDA 的 NVIDIA GPU (建议显存 8GB 以上以运行 ResNet50)\n*   **数据集**: ImageNet 或 CIFAR-10 (需预先下载并整理为标准格式)\n\n## 安装步骤\n\n1.  **克隆代码仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\n    cd lemniscate.pytorch\n    ```\n\n2.  **安装依赖**\n    确保已安装对应版本的 PyTorch。若未安装，可参考 PyTorch 官网历史版本指引。\n    ```bash\n    # 示例：安装 PyTorch 0.4 (具体命令视您的 CUDA 版本而定，以下为通用示意)\n    pip install torch==0.4.1 torchvision==0.2.1\n    ```\n    *其他依赖如 `numpy`, `scipy` 等通常随 PyTorch 自动安装，若缺失请手动 `pip install`。*\n\n## 基本使用\n\n### 1. 在 ImageNet 上训练\n\n以下命令使用 ResNet-18 架构进行无监督训练。请将 `DATAPATH` 替换为您的 ImageNet 数据集根目录路径。\n\n```bash\npython main.py DATAPATH --arch resnet18 -j 32 --nce-k 4096 --nce-t 0.07 --lr 0.03 --nce-m 0.5 --low-dim 128 -b 256\n```\n\n**关键参数说明：**\n*   `--nce-k`: 负样本数量。设为 `0` 时启用全 Softmax 学习。\n*   `--nce-t`: 分布温度系数，推荐范围 `0.07` - `0.1`。\n*   `--nce-m`: 动量系数，用于稳定学习过程，推荐 `0.5`。\n*   `--low-dim`: 特征嵌入维度，此处设为 `128`。\n*   `--lr`: 初始学习率，无监督任务通常略低于有监督任务 (默认 `0.03`)。\n\n> **提示**：训练过程中，代码会通过 K=1 的最近邻分类器监控验证集准确率，以此评估特征质量。\n\n### 2. 在 ImageNet 上测试 (评估)\n\n加载预训练模型进行评估（默认使用 K=200 个最近邻）：\n\n```bash\npython main.py DATAPATH --arch resnet18 --resume input_model.pth.tar -e\n```\n*请将 `input_model.pth.tar` 替换为您训练好的模型路径或下载的预训练权重文件。*\n\n### 3. 在 CIFAR-10 上训练\n\n针对小规模数据集的快速实验：\n\n```bash\npython cifar.py --nce-k 0 --nce-t 0.1 --lr 0.03\n```\n\n### 4. 使用官方预训练模型\n\n您可以直接下载更新的预训练模型（基于 Softmax-CE Loss 训练，效果更优）：\n\n*   **ResNet-50 (更新版)**: [下载链接](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50_update.pth) (ImageNet 线性分类准确率 58.5%)\n*   **ResNet-18 (原版)**: [下载链接](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet18.pth)\n*   **ResNet-50 (原版)**: [下载链接](https:\u002F\u002Ffrontiers.blob.core.windows.net\u002Fpretraining\u002Fcheckpoints\u002Fpil_pretrained_models\u002Flemniscate\u002Flemniscate_resnet50.pth)\n\n下载后，使用上述“测试”命令加载即可提取特征或进行评估。","某初创医疗影像团队需要在缺乏标注数据的情况下，快速构建一个能识别肺部异常特征的预训练模型，以辅助医生进行早期筛查。\n\n### 没有 lemniscate.pytorch 时\n- **标注成本高昂**：团队必须花费数月时间和巨额资金聘请放射科专家手动标注数万张 CT 影像，项目启动严重受阻。\n- **特征表达能力弱**：若直接使用随机初始化的网络或简单的自编码器，提取的特征过于粗糙，无法区分细微的病灶纹理差异。\n- **迁移效果不佳**：在少量标注数据上微调传统无监督模型时，收敛速度慢且最终分类准确率远低于预期，难以满足临床辅助需求。\n- **计算资源浪费**：为了获得可用的特征表示，不得不尝试多种复杂的半监督方案，导致 GPU 算力长期空转在无效的试错实验中。\n\n### 使用 lemniscate.pytorch 后\n- **实现零标注预训练**：利用非参数实例判别技术，直接让模型在无标签的 ImageNet 或自有医疗影像库上进行自监督学习，彻底省去了初期的人工标注环节。\n- **生成紧凑高质特征**：模型将每张图像编码为紧凑的 128 维向量，却能精准捕捉图像语义，最近邻检索准确率显著提升，有效区分正常组织与微小结节。\n- **小样本微调高效**：基于预训练权重，仅需极少量的标注样本进行微调，模型即可快速收敛并达到接近全监督学习的诊断准确率。\n- **架构兼容性强**：无缝集成 ResNet 等成熟架构，直接复用现有的 PyTorch 分类代码框架，大幅降低了工程落地和调试的复杂度。\n\nlemniscate.pytorch 通过非参数实例判别机制，成功将无标签数据转化为高质量特征表示，解决了医疗领域标注数据稀缺的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhirongw_lemniscate.pytorch_31f854be.png","zhirongw",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzhirongw_08473ce9.png","https:\u002F\u002Fgithub.com\u002Fzhirongw",[77],{"name":78,"color":79,"percentage":80},"Python","#3572A5",100,759,132,"2026-04-17T05:45:01","未说明","必需（基于 PyTorch ImageNet 分类实现，通常训练需要 NVIDIA GPU），具体型号和显存大小未说明",{"notes":87,"python":88,"dependencies":89},"该代码扩展了官方 PyTorch 的 ImageNet 分类实现，数据准备和硬件配置详情需参考官方仓库。若需使用 PyTorch 0.3 版本，请切换至 v0.3 标签。训练 ImageNet 时建议使用多进程加载数据（-j 参数）。预训练模型包含特征表示（约 600MB）和模型权重（100-200MB）。","2.7 (支持 Python 3 需参考官方 PyTorch ImageNet 示例配置)",[90],"pytorch==0.4",[92,15,14],"其他",[94,95,96,97,98,99,100,101,102],"computer-vision","deep-learning","unsupervised-learning","imagenet","pytorch","nce","cvpr2018","representation-learning","self-supervised-learning","2026-03-27T02:49:30.150509","2026-04-20T12:54:37.114415",[106,111,115,120,125,130,135,140],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},44821,"运行代码时遇到 'CIFAR10Instance' object has no attribute 'train_labels' 错误怎么办？","这是因为较新版本的 torchvision 中，CIFAR10 数据集的标签属性名已从 'train_labels' 更改为 'targets'。你需要修改代码（通常在 dataset\u002Fcifar10.py 或 cifar.py 中），将访问标签的地方改为使用 'targets'。具体修改如下：\n将 `img, target = self.data[index], self.train_labels[index]` 修改为 `img, target = self.data[index], self.targets[index]`。\n同时确保 `__getitem__` 方法返回正确的格式：\n```python\ndef __getitem__(self, index):\n    img, target = self.data[index], self.targets[index]\n    img = Image.fromarray(img)\n    if self.transform is not None:\n        img = self.transform(img)\n    if self.target_transform is not None:\n        target = self.target_transform(target)\n    return img, target, index\n```","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F20",{"id":112,"question_zh":113,"answer_zh":114,"source_url":110},44822,"在 Windows 上运行时出现 'BrokenPipeError: [Errno 32] Broken pipe' 错误如何解决？","该错误通常与 Windows 下的多进程数据加载（multiprocessing）有关。虽然主要问题是属性名变更（见上一条 FAQ），但在修复属性名后如果仍报错，可以尝试将 DataLoader 的 `num_workers` 参数设置为 0，即禁用多进程加载：\n```python\ntrainloader = torch.utils.data.DataLoader(..., num_workers=0, ...)\n```\n这可以避免 Windows 下 spawn 启动子进程时的管道错误。",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},44823,"下载预训练模型文件后，使用 tar 命令解压报错 'This does not look like a tar archive' 怎么办？","这些文件（.pth.tar）实际上是 PyTorch 的序列化模型文件，并不是真正的 tar 归档文件，因此不需要也不应该使用 `tar xf` 命令解压。你可以直接在 Python 代码中使用 `torch.load()` 加载它们：\n```python\nimport torch\nmodel_data = torch.load('lemniscate_resnet50.pth.tar')\n```\n如果加载时出现 `ImportError: No module named lib.NCEAverage`，请确保运行代码时当前目录包含项目的 lib 文件夹，或者将项目根目录添加到 PYTHONPATH 中。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F3",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},44824,"代码中的公式 (9) 损失函数在哪里实现？为什么找不到？","代码实现与论文描述存在差异。论文中的公式 (9)（用于使迭代 t 的特征表示与 t-1 相似）在代码中并未直接以损失函数的形式出现，而是通过记忆库（memory bank）的动量更新（momentum update）等效实现的。\n维护者解释：记忆库槽位的梯度更新方向在两种情况下都是 `(v - v_memory)`。因此，公式 (9) 中的损失权重作用类似于动量更新中的 `nce-m` 参数。由于动量更新更直观且易于调整，发布的代码采用了这种设置。你可以在 `lib\u002FNCEAverage.py` 的 backward 函数中看到具体的动量更新逻辑。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F11",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},44825,"在 ImageNet-1k 上使用 ResNet-50 训练需要多长时间？","根据维护者的回复，训练时间取决于显卡数量：\n- 如果使用 4 张 V100 显卡，大约需要 4 天。\n- 如果使用 8 张 V100 显卡，大约需要 3 天。\n每次迭代的运行时间与监督学习的 ResNet 类似。模型通常需要训练 200 个 epoch 才能收敛，更长时间的训练有助于进一步提升性能。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F14",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},44826,"运行 cifar10 时报错 'ModuleNotFoundError: No module named alias_multinomial' 如何解决？","这是一个导入路径问题。在 `lib\u002FNCEAverage.py` 文件中，导入语句缺少了相对路径的点号。\n请将第 4 行的：\n```python\nfrom alias_multinomial import AliasMethod\n```\n修改为：\n```python\nfrom .alias_multinomial import AliasMethod\n```\n添加点号 `.` 表示从当前包内导入。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F5",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},44827,"代码中为什么要使用 AliasMethod 来生成均匀分布？这是否多余？","你的观察是正确的，对于均匀分布的多项式采样，确实可以直接使用 `floor(x * n)` 这样简单的方法。作者使用 AliasMethod 主要是为了代码的灵活性和效率，因为 AliasMethod 可以方便地扩展到非均匀分布的采样场景。虽然当前代码仅用于均匀分布，但保留该结构使得未来如果需要改变采样分布时无需重构代码。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F2",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},44828,"在小数据集上负采样时是否应该确保正样本索引不被选为负样本（idx != y）？","理论上你是对的，应该确保正样本不被选为负样本。但在 ImageNet 规模的数据集上，这种冲突概率极低，对最终性能影响不大。然而，维护者承认在小数据集上这确实可能导致问题。对于小数据集（如 CIFAR10），建议不使用负采样，而是切换到像 CIFAR10 示例中那样的全 Softmax 损失函数，这样可以避免采样冲突并保证正确性。","https:\u002F\u002Fgithub.com\u002Fzhirongw\u002Flemniscate.pytorch\u002Fissues\u002F13",[]]