[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ternaus--TernausNet":3,"tool-ternaus--TernausNet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":78,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":133},5990,"ternaus\u002FTernausNet","TernausNet","UNet model with VGG11 encoder pre-trained on Kaggle Carvana dataset","TernausNet 是一款专为图像分割任务设计的深度学习模型，它是对经典 U-Net 架构的优化升级。该工具主要解决了在数据量有限或训练时间受限的情况下，如何快速获得高精度二值图像分割结果的问题。通过引入在 ImageNet 大规模数据集上预训练的 VGG11 作为编码器，TernausNet 能够显著加速模型收敛，即使面对语义特征差异较大的新数据集（如航拍影像或医疗图像），也能表现出卓越的泛化能力。\n\n这款工具特别适合人工智能研究人员、计算机视觉开发者以及需要处理医学影像、卫星地图或工业缺陷检测的数据科学家使用。其独特的技术亮点在于成功将迁移学习的优势融入 U-Net 结构中，不仅保留了原架构捕捉细节的能力，还利用预训练权重提升了特征提取效率。值得一提的是，TernausNet 曾是 Kaggle Carvana 图像掩膜挑战赛冠军方案的核心组成部分，在 735 支参赛队伍中脱颖而出，证明了其在实际竞赛和复杂场景中的强大实力。用户只需通过简单的 pip 命令即可安装，并参考官方提供的机器人手术分割案例快速上手，是进行高效图像分割研究的得力助手。","# TernausNet: U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image Segmentation\n\nBy [Vladimir Iglovikov](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Figlovikov\u002F) and [Alexey Shvets](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fshvetsiya\u002F)\n\n# Introduction\n\nTernausNet is a modification of the celebrated UNet architecture that is widely used for binary Image Segmentation. For more details, please refer to our [arXiv paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.05746).\n\n![UNet11](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fternaus_TernausNet_readme_cfdda7cabf55.png)\n\n\n![loss_curve](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fternaus_TernausNet_readme_10afc52add7b.png)\n\nPre-trained encoder speeds up convergence even on the datasets with a different semantic features. Above curve shows validation Jaccard Index (IOU) as a function of epochs for [Aerial Imagery](https:\u002F\u002Fproject.inria.fr\u002Faerialimagelabeling\u002F)\n\nThis architecture was a part of the [winning solutiuon](http:\u002F\u002Fblog.kaggle.com\u002F2017\u002F12\u002F22\u002Fcarvana-image-masking-first-place-interview\u002F) (1st out of 735 teams) in the [Carvana Image Masking Challenge](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fcarvana-image-masking-challenge).\n\n# Installation\n\n```bash\npip install ternausnet\n```\n\n# Citing TernausNet\nPlease cite TernausNet in your publications if it helps your research:\n\n```\n@ARTICLE{arXiv:1801.05746,\n         author = {V. Iglovikov and A. Shvets},\n          title = {TernausNet: U-Net with VGG11 Encoder Pre-Trained on ImageNet for Image Segmentation},\n        journal = {ArXiv e-prints},\n         eprint = {1801.05746},\n           year = 2018\n        }\n```\n\n# Example of the train and test pipeline\n\nhttps:\u002F\u002Fgithub.com\u002Fternaus\u002Frobot-surgery-segmentation\n","# TernausNet：基于在 ImageNet 上预训练的 VGG11 编码器的 U-Net，用于图像分割\n\n作者：[Vladimir Iglovikov](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Figlovikov\u002F) 和 [Alexey Shvets](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fshvetsiya\u002F)\n\n# 简介\n\nTernausNet 是对广受好评的 UNet 架构的一种改进，该架构被广泛应用于二值图像分割任务。更多详细信息，请参阅我们的 [arXiv 论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1801.05746)。\n\n![UNet11](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fternaus_TernausNet_readme_cfdda7cabf55.png)\n\n\n![loss_curve](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fternaus_TernausNet_readme_10afc52add7b.png)\n\n使用预训练编码器即使在语义特征不同的数据集上也能加速收敛。上图展示了针对 [Aerial Imagery](https:\u002F\u002Fproject.inria.fr\u002Faerialimagelabeling\u002F) 数据集的验证 Jaccard 指数（IOU）随 epoch 数的变化曲线。\n\n该架构曾是 [Carvana 图像掩码挑战赛](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fcarvana-image-masking-challenge) 中 [获胜方案](http:\u002F\u002Fblog.kaggle.com\u002F2017\u002F12\u002F22\u002Fcarvana-image-masking-first-place-interview\u002F) 的一部分（在 735 支队伍中排名第一）。\n\n# 安装\n\n```bash\npip install ternausnet\n```\n\n# 引用 TernausNet\n\n如果您在研究中使用了 TernausNet，请在您的出版物中引用它：\n\n```\n@ARTICLE{arXiv:1801.05746,\n         author = {V. Iglovikov and A. Shvets},\n          title = {TernausNet：基于在 ImageNet 上预训练的 VGG11 编码器的 U-Net，用于图像分割},\n        journal = {ArXiv e-prints},\n         eprint = {1801.05746},\n           year = 2018\n        }\n```\n\n# 训练与测试流程示例\n\nhttps:\u002F\u002Fgithub.com\u002Fternaus\u002Frobot-surgery-segmentation","# TernausNet 快速上手指南\n\nTernausNet 是一种改进的 U-Net 架构，采用在 ImageNet 上预训练的 VGG11 作为编码器，专为二值图像分割任务设计。该模型曾助力团队在 Kaggle Carvana 图像掩膜挑战赛中荣获冠军，具有收敛速度快、泛化能力强等特点。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows（推荐 Linux）\n- **Python 版本**：3.6 及以上\n- **核心依赖**：\n  - PyTorch\n  - torchvision\n  - numpy\n  - Pillow\n  - tqdm\n\n> 💡 建议先安装 PyTorch（可根据你的 CUDA 版本选择对应命令），参考官网：https:\u002F\u002Fpytorch.org\u002Fget-started\u002Flocally\u002F  \n> 国内用户可使用清华镜像加速安装：\n> ```bash\n> pip install torch torchvision -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n使用 pip 直接安装官方发布包：\n\n```bash\npip install ternausnet\n```\n\n国内用户推荐使用清华镜像源加速安装：\n\n```bash\npip install ternausnet -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是一个最简单的训练与推理流程示例（基于官方机器人手术分割项目简化）：\n\n### 1. 导入模型\n\n```python\nfrom ternausnet import UNet11\nimport torch\n\n# 加载预训练编码器（VGG11 on ImageNet）\nmodel = UNet11(pretrained=True)\nmodel.eval()\n```\n\n### 2. 准备输入数据\n\n```python\n# 假设你有一张 RGB 图像（H x W x 3），需转换为 Tensor 并归一化\nfrom torchvision import transforms\n\ntransform = transforms.Compose([\n    transforms.ToTensor(),\n    transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])\n])\n\n# 示例：加载并预处理图像（请替换为你的图像路径）\nfrom PIL import Image\nimage = Image.open(\"input.jpg\").convert(\"RGB\")\ninput_tensor = transform(image).unsqueeze(0)  # 添加 batch 维度\n```\n\n### 3. 执行推理\n\n```python\nwith torch.no_grad():\n    output = model(input_tensor)\n\n# 输出为 logits，可通过 sigmoid + 阈值转为二值掩膜\nimport torch.nn.functional as F\nmask = (F.sigmoid(output) > 0.5).byte()\n```\n\n### 4. 保存结果（可选）\n\n```python\nfrom torchvision.utils import save_image\nsave_image(mask.float(), \"output_mask.png\")\n```\n\n> 📌 完整训练管道及数据集加载示例请参考官方仓库：  \n> https:\u002F\u002Fgithub.com\u002Fternaus\u002Frobot-surgery-segmentation\n\n---\n\n✅ 现在你可以开始使用 TernausNet 进行高效的图像分割任务了！","某医疗科技公司的算法团队正在开发一套内窥镜手术视频分析系统，需要实时精准地分割出手术器械与人体组织，以辅助医生进行微创操作。\n\n### 没有 TernausNet 时\n- **训练周期漫长**：团队从零开始训练标准 U-Net 模型，由于缺乏有效的特征提取初始化，模型在有限的手术数据集上收敛极慢，耗时数周仍难以达到理想精度。\n- **小样本过拟合严重**：标注好的手术视频帧数据稀缺，模型极易记住噪声而非学习通用特征，导致在面对新患者或不同光照条件时泛化能力极差。\n- **边缘分割粗糙**：对于细小的手术钳尖端或模糊的组织边界，模型输出的掩码往往断裂或粘连，无法满足毫米级的手术导航需求。\n- **调参成本高昂**：工程师需花费大量时间尝试不同的编码器结构和超参数组合，却难以复现论文中的高性能表现。\n\n### 使用 TernausNet 后\n- **收敛速度显著提升**：直接加载在 ImageNet 和 Carvana 数据集上预训练的 VGG11 编码器，利用其强大的通用特征提取能力，模型在少量手术数据上仅需数天即可快速收敛。\n- **泛化性能大幅增强**：得益于预训练权重的迁移学习能力，TernausNet 有效缓解了小样本过拟合问题，在面对未见过的复杂手术场景时依然保持稳定的分割效果。\n- **细节捕捉更加精准**：架构优化使得器械边缘和组织边界的分割更加连续平滑，显著提升了细微结构的识别准确率，满足了临床辅助的精度要求。\n- **研发效率成倍提高**：团队无需重复造轮子，直接基于成熟的预训练模型进行微调，将原本数月的算法迭代周期缩短至几周，加速了产品落地。\n\nTernausNet 通过引入高质量的预训练编码器，成功解决了医疗影像领域数据稀缺与高精度需求之间的矛盾，让手术机器人“看得更清、学得更快”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fternaus_TernausNet_b6767aa0.png","ternaus","Vladimir Iglovikov","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fternaus_43c1c3a1.jpg","Founder and CEO at Albumentations.AI,\r\n\r\nPh.D. in Physics.,\r\n\r\nKaggle GrandMaster","Albumentations.AI","San Francisco",null,"viglovikov","https:\u002F\u002Fgithub.com\u002Fternaus",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,1064,245,"2026-03-25T16:17:46","MIT","","未说明",{"notes":93,"python":91,"dependencies":94},"README 中仅提供了通过 pip 安装 'ternausnet' 包的指令，未明确列出具体的操作系统、GPU、内存、Python 版本或底层依赖库（如 PyTorch）的版本要求。该工具基于 VGG11 编码器和 U-Net 架构，通常隐含需要 PyTorch 环境。示例代码仓库指向机器人手术分割任务。",[95],"ternausnet",[15,14],[98,99],"pytorch","image-segmentation","2026-03-27T02:49:30.150509","2026-04-10T04:28:26.019844",[103,108,113,118,123,128],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},27146,"如何让代码仅支持 3 波段（RGB）图像？","原始的 Kaggle DSTL 提交代码是基于 Keras 和 Theano 后端编写的，而 Theano 已不再维护。建议改用医学影像分割仓库（https:\u002F\u002Fgithub.com\u002Fternaus\u002Frobot-surgery-segmentation），该仓库更易于适配。从深度学习角度来看，分割算法在医学影像、卫星影像或其他 RGB 图像上的工作原理非常相似，可以直接迁移使用。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F9",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},27147,"是否有训练网络的具体示例代码？","可以参考以下两个仓库中的训练脚本：\n1. https:\u002F\u002Fgithub.com\u002Fasanakoy\u002Fkaggle_carvana_segmentation\u002Fblob\u002Fmaster\u002Fternaus\u002Fsrc\u002Ftrain.py\n2. https:\u002F\u002Fgithub.com\u002Fternaus\u002Frobot-surgery-segmentation\n这些示例展示了如何正确配置和运行训练流程。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F2",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},27148,"论文中使用的联合损失函数 L = H - log(J) 为什么要加 log？","使用 log 是可选的。作者目前推荐使用不带 log 的形式：L = H + (1 - J)。其中加上 1 是为了防止损失值变为负数。这种形式在实践中同样有效且更稳定。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F7",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},27149,"单张图像的预测时间是多少？","在 GTX 1060 6GB 显卡上，处理一张示例图像大约需要 600 毫秒。实际时间可能因硬件配置和图像分辨率而异。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F5",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},27150,"导入 unet_models 时出现 'SyntaxError: invalid syntax' 错误怎么办？","该错误是因为代码中使用了 Python 3 的类型注解语法（如 def __init__(self, in_: int, out: int)），而您使用的 PyTorch 0.1.12 可能搭配的是较旧版本的 Python。维护者已移除类型注解以兼容旧环境。请拉取最新代码，或手动删除函数参数后的类型声明即可解决。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F1",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},27151,"num_classes 参数应该如何设置？例如只有背景和汽车两类时设为 1 还是 2？","在二元分割任务中（如背景 vs 汽车），虽然逻辑上有两个类别，但模型通常只需输出一个通道（即 num_classes=1），通过 sigmoid 激活函数判断前景概率。若设为 2，则需使用 softmax 并输出两个通道。本代码库默认采用单通道输出方式，因此对于二分类问题应设置 num_classes=1。","https:\u002F\u002Fgithub.com\u002Fternaus\u002FTernausNet\u002Fissues\u002F3",[]]