[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-bubbliiiing--deeplabv3-plus-pytorch":3,"similar-bubbliiiing--deeplabv3-plus-pytorch":112},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":18,"owner_location":18,"owner_email":18,"owner_twitter":18,"owner_website":19,"owner_url":20,"languages":21,"stars":26,"forks":27,"last_commit_at":28,"license":29,"difficulty_score":30,"env_os":31,"env_gpu":32,"env_ram":33,"env_deps":34,"category_tags":39,"github_topics":18,"view_count":42,"oss_zip_url":18,"oss_zip_packed_at":18,"status":43,"created_at":44,"updated_at":45,"faqs":46,"releases":97},1183,"bubbliiiing\u002Fdeeplabv3-plus-pytorch","deeplabv3-plus-pytorch","这是一个deeplabv3-plus-pytorch的源码，可以用于训练自己的模型。","DeepLabv3+ 是一个基于 PyTorch 实现的语义分割模型，支持多种主干网络（如 MobileNetV2 和 Xception），能够对图像中的每个像素进行分类，实现精准的物体识别与分割。它解决了图像语义分割中对细节和边界处理的需求，适用于需要高精度分割的应用场景。适合开发者和研究人员使用，尤其适合希望快速搭建和训练分割模型的用户。工具支持多 GPU 训练、多种优化器和学习率策略，具备良好的扩展性和灵活性。","## DeepLabv3+：Encoder-Decoder with Atrous Separable Convolution语义分割模型在Pytorch当中的实现\n---\n\n### 目录\n1. [仓库更新 Top News](#仓库更新)\n2. [相关仓库 Related code](#相关仓库)\n3. [性能情况 Performance](#性能情况)\n4. [所需环境 Environment](#所需环境)\n5. [文件下载 Download](#文件下载)\n6. [训练步骤 How2train](#训练步骤)\n7. [预测步骤 How2predict](#预测步骤)\n8. [评估步骤 miou](#评估步骤)\n9. [参考资料 Reference](#Reference)\n\n## Top News\n**`2022-04`**:**支持多GPU训练。**  \n\n**`2022-03`**:**进行大幅度更新、支持step、cos学习率下降法、支持adam、sgd优化器选择、支持学习率根据batch_size自适应调整。**  \nBiliBili视频中的原仓库地址为：https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Ftree\u002Fbilibili\n\n**`2020-08`**:**创建仓库、支持多backbone、支持数据miou评估、标注数据处理、大量注释等。**  \n\n## 相关仓库\n| 模型 | 路径 |\n| :----- | :----- |\nUnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Funet-pytorch  \nPSPnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fpspnet-pytorch\ndeeplabv3+ | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\nhrnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fhrnet-pytorch\n\n### 性能情况\n| 训练数据集 | 权值文件名称 | 测试数据集 | 输入图片大小 | mIOU | \n| :-----: | :-----: | :------: | :------: | :------: | \n| VOC12+SBD | [deeplab_mobilenetv2.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_mobilenetv2.pth) | VOC-Val12 | 512x512| 72.59 | \n| VOC12+SBD | [deeplab_xception.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_xception.pth) | VOC-Val12 | 512x512| 76.95 | \n\n### 所需环境\ntorch==1.2.0\n\n### 注意事项\n代码中的deeplab_mobilenetv2.pth和deeplab_xception.pth是基于VOC拓展数据集训练的。训练和预测时注意修改backbone。    \n\n### 文件下载\n训练所需的deeplab_mobilenetv2.pth和deeplab_xception.pth可在百度网盘中下载。     \n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IQ3XYW-yRWQAy7jxCUHq8Q 提取码: qqq4   \n\nVOC拓展数据集的百度网盘如下：  \n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1vkk3lMheUm6IjTXznlg7Ng 提取码: 44mk   \n\n### 训练步骤\n#### a、训练voc数据集\n1、将我提供的voc数据集放入VOCdevkit中（无需运行voc_annotation.py）。  \n2、在train.py中设置对应参数，默认参数已经对应voc数据集所需要的参数了，所以只要修改backbone和model_path即可。  \n3、运行train.py进行训练。  \n\n#### b、训练自己的数据集\n1、本文使用VOC格式进行训练。  \n2、训练前将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的SegmentationClass中。    \n3、训练前将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中。    \n4、在训练前利用voc_annotation.py文件生成对应的txt。    \n5、在train.py文件夹下面，选择自己要使用的主干模型和下采样因子。本文提供的主干模型有mobilenet和xception。下采样因子可以在8和16中选择。需要注意的是，预训练模型需要和主干模型相对应。   \n6、注意修改train.py的num_classes为分类个数+1。    \n7、运行train.py即可开始训练。  \n\n### 预测步骤\n#### a、使用预训练权重\n1、下载完库后解压，如果想用backbone为mobilenet的进行预测，直接运行predict.py就可以了；如果想要利用backbone为xception的进行预测，在百度网盘下载deeplab_xception.pth，放入model_data，修改deeplab.py的backbone和model_path之后再运行predict.py，输入。  \n```python\nimg\u002Fstreet.jpg\n```\n可完成预测。    \n2、在predict.py里面进行设置可以进行fps测试、整个文件夹的测试和video视频检测。       \n\n#### b、使用自己训练的权重\n1、按照训练步骤训练。    \n2、在deeplab.py文件里面，在如下部分修改model_path、num_classes、backbone使其对应训练好的文件；**model_path对应logs文件夹下面的权值文件，num_classes代表要预测的类的数量加1，backbone是所使用的主干特征提取网络**。    \n```python\n_defaults = {\n    #----------------------------------------#\n    #   model_path指向logs文件夹下的权值文件\n    #----------------------------------------#\n    \"model_path\"        : 'model_data\u002Fdeeplab_mobilenetv2.pth',\n    #----------------------------------------#\n    #   所需要区分的类的个数+1\n    #----------------------------------------#\n    \"num_classes\"       : 21,\n    #----------------------------------------#\n    #   所使用的的主干网络\n    #----------------------------------------#\n    \"backbone\"          : \"mobilenet\",\n    #----------------------------------------#\n    #   输入图片的大小\n    #----------------------------------------#\n    \"input_shape\"       : [512, 512],\n    #----------------------------------------#\n    #   下采样的倍数，一般可选的为8和16\n    #   与训练时设置的一样即可\n    #----------------------------------------#\n    \"downsample_factor\" : 16,\n    #--------------------------------#\n    #   blend参数用于控制是否\n    #   让识别结果和原图混合\n    #--------------------------------#\n    \"blend\"             : True,\n    #-------------------------------#\n    #   是否使用Cuda\n    #   没有GPU可以设置成False\n    #-------------------------------#\n    \"cuda\"              : True,\n}\n```\n3、运行predict.py，输入    \n```python\nimg\u002Fstreet.jpg\n```\n可完成预测。    \n4、在predict.py里面进行设置可以进行fps测试、整个文件夹的测试和video视频检测。   \n\n### 评估步骤\n1、设置get_miou.py里面的num_classes为预测的类的数量加1。  \n2、设置get_miou.py里面的name_classes为需要去区分的类别。  \n3、运行get_miou.py即可获得miou大小。  \n\n### Reference\nhttps:\u002F\u002Fgithub.com\u002Fggyyzm\u002Fpytorch_segmentation  \nhttps:\u002F\u002Fgithub.com\u002Fbonlime\u002Fkeras-deeplab-v3-plus\n","## DeepLabv3+：带空洞可分离卷积的编码器-解码器语义分割模型在PyTorch中的实现\n---\n\n### 目录\n1. [仓库更新 Top News](#仓库更新)\n2. [相关仓库 Related code](#相关仓库)\n3. [性能情况 Performance](#性能情况)\n4. [所需环境 Environment](#所需环境)\n5. [文件下载 Download](#文件下载)\n6. [训练步骤 How2train](#训练步骤)\n7. [预测步骤 How2predict](#预测步骤)\n8. [评估步骤 miou](#评估步骤)\n9. [参考资料 Reference](#Reference)\n\n## Top News\n**`2022-04`**:**支持多GPU训练。**  \n\n**`2022-03`**:**进行大幅度更新、支持step、cos学习率下降法、支持adam、sgd优化器选择、支持学习率根据batch_size自适应调整。**  \nBiliBili视频中的原仓库地址为：https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Ftree\u002Fbilibili\n\n**`2020-08`**:**创建仓库、支持多backbone、支持数据miou评估、标注数据处理、大量注释等。**  \n\n## 相关仓库\n| 模型 | 路径 |\n| :----- | :----- |\nUnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Funet-pytorch  \nPSPnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fpspnet-pytorch\ndeeplabv3+ | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\nhrnet | https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fhrnet-pytorch\n\n### 性能情况\n| 训练数据集 | 权值文件名称 | 测试数据集 | 输入图片大小 | mIOU | \n| :-----: | :-----: | :------: | :------: | :------: | \n| VOC12+SBD | [deeplab_mobilenetv2.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_mobilenetv2.pth) | VOC-Val12 | 512x512| 72.59 | \n| VOC12+SBD | [deeplab_xception.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_xception.pth) | VOC-Val12 | 512x512| 76.95 | \n\n### 所需环境\ntorch==1.2.0\n\n### 注意事项\n代码中的deeplab_mobilenetv2.pth和deeplab_xception.pth是基于VOC拓展数据集训练的。训练和预测时注意修改backbone。    \n\n### 文件下载\n训练所需的deeplab_mobilenetv2.pth和deeplab_xception.pth可在百度网盘中下载。     \n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1IQ3XYW-yRWQAy7jxCUHq8Q 提取码: qqq4   \n\nVOC拓展数据集的百度网盘如下：  \n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1vkk3lMheUm6IjTXznlg7Ng 提取码: 44mk   \n\n### 训练步骤\n#### a、训练voc数据集\n1、将我提供的voc数据集放入VOCdevkit中（无需运行voc_annotation.py）。  \n2、在train.py中设置对应参数，默认参数已经对应voc数据集所需要的参数了，所以只要修改backbone和model_path即可。  \n3、运行train.py进行训练。  \n\n#### b、训练自己的数据集\n1、本文使用VOC格式进行训练。  \n2、训练前将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的SegmentationClass中。    \n3、训练前将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中。    \n4、在训练前利用voc_annotation.py文件生成对应的txt。    \n5、在train.py文件夹下面，选择自己要使用的主干模型和下采样因子。本文提供的主干模型有mobilenet和xception。下采样因子可以在8和16中选择。需要注意的是，预训练模型需要和主干模型相对应。   \n6、注意修改train.py的num_classes为分类个数+1。    \n7、运行train.py即可开始训练。  \n\n### 预测步骤\n#### a、使用预训练权重\n1、下载完库后解压，如果想用backbone为mobilenet的进行预测，直接运行predict.py就可以了；如果想要利用backbone为xception的进行预测，在百度网盘下载deeplab_xception.pth，放入model_data，修改deeplab.py的backbone和model_path之后再运行predict.py，输入。  \n```python\nimg\u002Fstreet.jpg\n```\n可完成预测。    \n2、在predict.py里面进行设置可以进行fps测试、整个文件夹的测试和video视频检测。       \n\n#### b、使用自己训练的权重\n1、按照训练步骤训练。    \n2、在deeplab.py文件里面，在如下部分修改model_path、num_classes、backbone使其对应训练好的文件；**model_path对应logs文件夹下面的权值文件，num_classes代表要预测的类的数量加1，backbone是所使用的主干特征提取网络**。    \n```python\n_defaults = {\n    #----------------------------------------#\n    #   model_path指向logs文件夹下的权值文件\n    #----------------------------------------#\n    \"model_path\"        : 'model_data\u002Fdeeplab_mobilenetv2.pth',\n    #----------------------------------------#\n    #   所需要区分的类的个数+1\n    #----------------------------------------#\n    \"num_classes\"       : 21,\n    #----------------------------------------#\n    #   所使用的的主干网络\n    #----------------------------------------#\n    \"backbone\"          : \"mobilenet\",\n    #----------------------------------------#\n    #   输入图片的大小\n    #----------------------------------------#\n    \"input_shape\"       : [512, 512],\n    #----------------------------------------#\n    #   下采样的倍数，一般可选的为8和16\n    #   与训练时设置的一样即可\n    #----------------------------------------#\n    \"downsample_factor\" : 16,\n    #--------------------------------#\n    #   blend参数用于控制是否\n    #   让识别结果和原图混合\n    #--------------------------------#\n    \"blend\"             : True,\n    #-------------------------------#\n    #   是否使用Cuda\n    #   没有GPU可以设置成False\n    #-------------------------------#\n    \"cuda\"              : True,\n}\n```\n3、运行predict.py，输入    \n```python\nimg\u002Fstreet.jpg\n```\n可完成预测。    \n4、在predict.py里面进行设置可以进行fps测试、整个文件夹的测试和video视频检测。   \n\n### 评估步骤\n1、设置get_miou.py里面的num_classes为预测的类的数量加1。  \n2、设置get_miou.py里面的name_classes为需要去区分的类别。  \n3、运行get_miou.py即可获得miou大小。  \n\n### Reference\nhttps:\u002F\u002Fgithub.com\u002Fggyyzm\u002Fpytorch_segmentation  \nhttps:\u002F\u002Fgithub.com\u002Fbonlime\u002Fkeras-deeplab-v3-plus","# DeepLabv3+ PyTorch 快速上手指南\n\n## 环境准备\n\n### 系统要求\n- 操作系统：Linux \u002F Windows \u002F macOS（建议使用 Linux）\n- Python 版本：3.6 或以上\n\n### 前置依赖\n- PyTorch 1.2.0  \n- 其他依赖可通过 `pip install -r requirements.txt` 安装（如无该文件，可手动安装以下包）：\n  ```bash\n  pip install numpy opencv-python matplotlib\n  ```\n\n> 建议使用国内镜像源加速安装，例如：\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装步骤\n\n1. 克隆仓库到本地：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch.git\n   cd deeplabv3-plus-pytorch\n   ```\n\n2. 安装依赖（如果存在 `requirements.txt` 文件）：\n   ```bash\n   pip install -r requirements.txt\n   ```\n\n3. 下载预训练权重文件（可选）：\n   - [deeplab_mobilenetv2.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_mobilenetv2.pth)\n   - [deeplab_xception.pth](https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Freleases\u002Fdownload\u002Fv1.0\u002Fdeeplab_xception.pth)\n\n   将下载的权重文件放入 `model_data` 目录。\n\n## 基本使用\n\n### 使用预训练模型进行预测\n1. 修改 `deeplab.py` 中的配置，确保 `model_path`、`num_classes` 和 `backbone` 正确。\n2. 运行预测脚本：\n   ```bash\n   python predict.py img\u002Fstreet.jpg\n   ```\n   支持对单张图片、文件夹或视频进行预测，可在 `predict.py` 中设置相关参数。\n\n### 训练自己的数据集\n1. 准备 VOC 格式的数据集，将图片放在 `VOCdevkit\u002FVOC2007\u002FJPEGImages`，标签放在 `VOCdevkit\u002FVOC2007\u002FSegmentationClass`。\n2. 运行 `voc_annotation.py` 生成标注文件。\n3. 修改 `train.py` 中的参数（如 `backbone`、`num_classes` 等）。\n4. 开始训练：\n   ```bash\n   python train.py\n   ```\n\n### 评估 mIOU\n1. 修改 `get_miou.py` 中的 `num_classes` 和 `name_classes`。\n2. 运行评估脚本：\n   ```bash\n   python get_miou.py\n   ```","某城市智慧交通团队正在开发一套基于图像的交通标志识别系统，用于辅助自动驾驶车辆识别道路标识。他们需要对大量街景图片进行语义分割，以精准提取交通标志区域。\n\n### 没有 deeplabv3-plus-pytorch 时  \n- 需要从零开始搭建模型架构，耗时且容易出错  \n- 缺乏成熟的训练流程和评估方法，难以保证模型质量  \n- 数据预处理和标注效率低，无法快速迭代模型  \n- 模型推理速度慢，影响实际部署效果  \n\n### 使用 deeplabv3-plus-pytorch 后  \n- 直接使用现成的模型结构，节省大量开发时间  \n- 提供完整的训练、预测和评估流程，提升模型可靠性  \n- 支持多种骨干网络和数据增强方式，提高标注效率  \n- 优化后的推理速度满足实时性需求，便于部署到车载系统  \n\ndeeplabv3-plus-pytorch 显著提升了交通标志识别系统的开发效率与性能表现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbubbliiiing_deeplabv3-plus-pytorch_fb242e2e.png","bubbliiiing","Bubbliiiing","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbubbliiiing_ad57dd39.jpg","Bubbliiiing哔哩哔哩空间： \r\nhttps:\u002F\u002Fspace.bilibili.com\u002F472467171   ",null,"https:\u002F\u002Fblog.csdn.net\u002Fweixin_44791964","https:\u002F\u002Fgithub.com\u002Fbubbliiiing",[22],{"name":23,"color":24,"percentage":25},"Python","#3572A5",100,1274,200,"2026-04-05T14:34:03","MIT",3,"Linux, macOS, Windows","需要 NVIDIA GPU，显存 8GB+，CUDA 11.7+","未说明",{"notes":35,"python":36,"dependencies":37},"建议使用 conda 管理环境，首次运行需下载约 5GB 模型文件。注意修改 backbone 和 model_path 参数以适配不同模型和数据集。","3.8+",[38],"torch==1.2.0",[40,41],"图像","开发框架",4,"ready","2026-03-27T02:49:30.150509","2026-04-06T08:41:37.114121",[47,52,57,62,67,72,77,82,87,92],{"id":48,"question_zh":49,"answer_zh":50,"source_url":51},5383,"deeplabv3支持的最大图片输入宽高是多少？","代码中设置的input_shape = [512, 512]表示将图片resize到512x512。如果你有6000*3000的图片，需要根据实际需求调整这个值。但改大后可能会导致内存不足。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F9",{"id":53,"question_zh":54,"answer_zh":55,"source_url":56},5384,"miou一直下降，f_score一直上升是什么原因？","这可能是由于数据集标签没有白边导致的。建议检查数据集的标注是否正确，并确保训练过程中模型能够正确学习特征。此外，可以尝试调整损失函数或优化器参数。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F96",{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},5385,"如何获取预测结果的坐标？","你可以使用np.where来获取坐标，然后通过计算所有点坐标的min和max来得到左上方和右下方的坐标。具体实现可以参考相关代码逻辑。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F32",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},5386,"PyTorch 版本和 TF\u002FKeras 版本的性能差异是什么原因？","主要原因是预训练权重不同。TF\u002FKeras版本可能使用了更好的预训练模型，导致在相同数据集上的表现更优。可以通过统一预训练模型或使用ONNX格式进行转换来改善性能。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F8",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},5387,"为什么num_classes需要在分类个数上+1？","因为需要包含背景类别。总分类数应为实际类别数加一，以确保模型能够正确区分背景和其他类别。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F102",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},5388,"如何将训练好的模型导出为ONNX格式？","可以参考用户提供的示例代码：https:\u002F\u002Fgithub.com\u002Fjackhanyuan\u002Fdeeplabv3-plus-pytorch\u002Fblob\u002Fmain\u002Fexport_onnx.py。该脚本实现了模型的导出功能。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F18",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},5389,"训练时会卡住不动，是什么原因？","可能是由于forward()函数的缩进错误导致的。请检查代码中的缩进是否正确，特别是与模块调用相关的部分。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F55",{"id":83,"question_zh":84,"answer_zh":85,"source_url":86},5390,"训练时loss在下降，但验证集抖动严重怎么办？","这可能是过拟合的表现。建议增加正则化、调整学习率或使用早停策略来防止模型过度拟合训练数据。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F69",{"id":88,"question_zh":89,"answer_zh":90,"source_url":91},5391,"为什么PyTorch版本的miou比TensorFlow版本低很多？","主要是因为预训练模型不同。TensorFlow版本可能使用了更好的预训练权重，导致在相同数据集上的表现更优。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F60",{"id":93,"question_zh":94,"answer_zh":95,"source_url":96},5392,"预测结果全是黑的，是什么原因？","请检查注释内容，确保预测过程中的参数配置正确。例如，输出路径、颜色映射等设置是否合理。","https:\u002F\u002Fgithub.com\u002Fbubbliiiing\u002Fdeeplabv3-plus-pytorch\u002Fissues\u002F25",[98,103,108],{"id":99,"version":100,"summary_zh":101,"released_at":102},114561,"v3.0","## 重要更新\r\n- 支持step、cos学习率下降法。\r\n- 支持adam、sgd优化器选择。\r\n- 支持学习率根据batch_size自适应调整。\r\n- 支持不同预测模式的选择，单张图片预测、文件夹预测、视频预测、图片裁剪。\r\n- 更新summary.py文件，用于观看网络结构。\r\n- 增加了多GPU训练。","2022-04-22T12:06:36",{"id":104,"version":105,"summary_zh":106,"released_at":107},114562,"v2.0","## 重要更新\r\n- 更新train.py文件，增加了大量的注释，增加多个可调整参数。\r\n- 更新predict.py文件，增加了大量的注释，增加fps、视频预测、批量预测等功能。\r\n- 更新deeplab.py文件，增加了大量的注释，增加先验框选择、置信度、非极大抑制等参数。\r\n- 合并get_dr_txt.py、get_gt_txt.py和get_map.py文件，通过一个文件来实现数据集的评估。\r\n- 更新voc_annotation.py文件，增加多个可调整参数。\r\n- 更新summary.py文件，用于观看网络结构。","2022-03-04T07:58:17",{"id":109,"version":110,"summary_zh":18,"released_at":111},114563,"v1.0","2021-09-05T04:53:46",[113,122,132,140,148,161],{"id":114,"name":115,"github_repo":116,"description_zh":117,"stars":118,"difficulty_score":30,"last_commit_at":119,"category_tags":120,"status":43},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[41,40,121],"Agent",{"id":123,"name":124,"github_repo":125,"description_zh":126,"stars":127,"difficulty_score":128,"last_commit_at":129,"category_tags":130,"status":43},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[41,121,131],"语言模型",{"id":133,"name":134,"github_repo":135,"description_zh":136,"stars":137,"difficulty_score":128,"last_commit_at":138,"category_tags":139,"status":43},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[41,40,121],{"id":141,"name":142,"github_repo":143,"description_zh":144,"stars":145,"difficulty_score":128,"last_commit_at":146,"category_tags":147,"status":43},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[41,131],{"id":149,"name":150,"github_repo":151,"description_zh":152,"stars":153,"difficulty_score":128,"last_commit_at":154,"category_tags":155,"status":43},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[40,156,157,158,121,159,131,41,160],"数据工具","视频","插件","其他","音频",{"id":162,"name":163,"github_repo":164,"description_zh":165,"stars":166,"difficulty_score":30,"last_commit_at":167,"category_tags":168,"status":43},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[121,40,41,131,159]]