[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jocicmarko--ultrasound-nerve-segmentation":3,"tool-jocicmarko--ultrasound-nerve-segmentation":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":81,"view_count":102,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":103,"updated_at":104,"faqs":105,"releases":135},1145,"jocicmarko\u002Fultrasound-nerve-segmentation","ultrasound-nerve-segmentation","Deep Learning Tutorial for Kaggle Ultrasound Nerve Segmentation competition, using Keras","ultrasound-nerve-segmentation 是一个基于Keras的深度学习项目，专注于医学影像分析中的神经结构分割任务。通过构建卷积神经网络，它能自动识别超声图像中目标神经区域，为医疗影像分析提供技术参考。项目采用U-Net架构的变体，利用编码器-解码器结构与跳跃连接，提升分割精度。针对比赛数据集，已实现约0.57的评分表现，其核心创新在于将Dice系数作为损失函数，通过自定义优化策略提升模型效果。项目包含完整数据预处理流程、模型训练代码及结果保存功能，支持用户快速验证算法效果。适合具备Python和深度学习基础的开发者及研究者使用，可作为医学影像分割的入门实践案例，也可作为改进现有模型的基准参考。","# Deep Learning Tutorial for Kaggle Ultrasound Nerve Segmentation competition, using Keras\n\nThis tutorial shows how to use [Keras library](http:\u002F\u002Fkeras.io\u002F) to build deep neural network for ultrasound image nerve segmentation.\nMore info on this Kaggle competition can be found on [https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation).\n\nThis deep neural network achieves **~0.57 score on the leaderboard** based on test images,\nand can be a good staring point for further, more serious approaches.\n\nThe architecture was inspired by [U-Net: Convolutional Networks for Biomedical Image Segmentation](http:\u002F\u002Flmb.informatik.uni-freiburg.de\u002Fpeople\u002Fronneber\u002Fu-net\u002F).\n\n\n---\n\n## Update 02.04.2017.\n\nChanges:\n- using Keras 2\n- using TF backend instead of Theano\n- using scikit-image instead of cv2\n- added code for saving predicted images to disk \n- training data is now split into train\u002Fvalidation data (80%\u002F20%)\n\n---\n\n## Overview\n\n### Data\n\n[Provided data](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation\u002Fdata) is processed by ```data.py``` script.\nThis script just loads the images and saves them into NumPy binary format files **.npy** for faster loading later.\n\n### Pre-processing\n\nThe images are not pre-processed in any way, except resizing to 96 x 96. Since the images are pretty noisy,\nI expect that some thoughtful pre-processing could yield better performance of the model.\n\nOutput images (masks) are scaled to \\[0, 1\\] interval.\n\n### Model\n\nThe provided model is basically a convolutional auto-encoder, but with a twist - it has skip connections from encoder layers to decoder layers that are on the same \"level\".\nSee picture below (note that image size and numbers of convolutional filters in this tutorial differs from the original U-Net architecture).\n\n![https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjocicmarko_ultrasound-nerve-segmentation_readme_db00bc07c6f1.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjocicmarko_ultrasound-nerve-segmentation_readme_db00bc07c6f1.png)\n\nThis deep neural network is implemented with Keras functional API, which makes it extremely easy to experiment with different interesting architectures.\n\nOutput from the network is a 96 x 96 which represents mask that should be learned. Sigmoid activation function\nmakes sure that mask pixels are in \\[0, 1\\] range.\n\n### Training\n\nThe model is trained for 20 epochs, where each epoch took ~30 seconds on Titan X. Memory footprint of the model is ~800MB.\n\nAfter 20 epochs, calculated Dice coefficient is ~0.68, which yielded ~0.57 score on leaderboard, so obviously this model overfits (cross-validation pull requests anyone? ;)).\n\nLoss function for the training is basically just a **negative of Dice coefficient**\n(which is used as [evaluation metric on the competition](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation\u002Fdetails\u002Fevaluation)),\nand this is implemented as custom loss function using Keras backend - check ```dice_coef()``` and ```dice_coef_loss()``` functions in ```train.py``` for more detail.\nAlso, for making the loss function smooth, a factor ```smooth = 1``` factor is added.\n\nThe weights are updated by Adam optimizer, with a 1e-5 learning rate. During training, model's weights are saved in HDF5 format.\n\n---\n\n## How to use\n\n### Dependencies\n\nThis tutorial depends on the following libraries:\n\n* scikit-image\n* Tensorflow\n* Keras >= 2.0\n\nAlso, this code should be compatible with Python versions 2.7-3.5.\n\n### Prepare the data\n\nIn order to extract raw images and save them to *.npy* files,\nyou should first prepare its structure. Make sure that ```raw``` dir is located in the root of this project.\nAlso, the tree of ```raw``` dir must be like:\n\n```\n-raw\n |\n ---- train\n |    |\n |    ---- 1_1.tif\n |    |\n |    ---- …\n |\n ---- test\n      |\n      ---- 1.tif\n      |\n      ---- …\n```\n\n* Now run ```python data.py```.\n\nRunning this script will create train and test images and save them to **.npy** files.\n\n### Define the model\n\n* Check out ```get_unet()``` in ```train.py``` to modify the model, optimizer and loss function.\n\n### Train the model and generate masks for test images\n\n* Run ```python train.py``` to train the model.\n\nCheck out ```train_predict()``` to modify the number of iterations (epochs), batch size, etc.\n\nAfter this script finishes, in ```imgs_mask_test.npy``` masks for corresponding images in ```imgs_test.npy```\nshould be generated. I suggest you examine these masks for getting further insight of your model's performance.\n\n### Generate submission\n\n* Run ```python submission.py``` to generate the submission file ```submission.csv``` for the generated masks.\n\nCheck out function ```submission()``` and ```run_length_enc()``` (thanks woshialex) for details.\n\n\n## About Keras\n\nKeras is a minimalist, highly modular neural networks library, written in Python and capable of running on top of either TensorFlow or Theano. It was developed with a focus on enabling fast experimentation. Being able to go from idea to result with the least possible delay is key to doing good research.\n\nUse Keras if you need a deep learning library that:\n\nallows for easy and fast prototyping (through total modularity, minimalism, and extensibility).\nsupports both convolutional networks and recurrent networks, as well as combinations of the two.\nsupports arbitrary connectivity schemes (including multi-input and multi-output training).\nruns seamlessly on CPU and GPU.\nRead the documentation [Keras.io](http:\u002F\u002Fkeras.io\u002F)\n\nKeras is compatible with: Python 2.7-3.5.\n","# Kaggle 超声神经分割竞赛深度学习教程，使用 Keras\n\n本教程演示如何使用 [Keras 库](http:\u002F\u002Fkeras.io\u002F) 构建用于超声图像神经分割的深度神经网络。\n有关此 Kaggle 竞赛的更多信息，请访问 [https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation)。\n\n该深度神经网络基于测试图像在排行榜上取得了 **约 0.57 的分数**，\n可以作为进一步更深入研究的良好起点。\n\n该网络架构受到 [U-Net：用于生物医学图像分割的卷积网络](http:\u002F\u002Flmb.informatik.uni-freiburg.de\u002Fpeople\u002Fronneber\u002Fu-net\u002F) 的启发。\n\n\n---\n\n## 更新：2017年4月2日。\n\n变更：\n- 使用 Keras 2\n- 使用 TensorFlow 后端代替 Theano\n- 使用 scikit-image 代替 cv2\n- 添加了将预测图像保存到磁盘的代码\n- 训练数据现在被划分为训练集和验证集（80%\u002F20%）\n\n---\n\n## 概述\n\n### 数据\n\n[提供的数据](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation\u002Fdata) 由 ```data.py``` 脚本处理。\n该脚本仅加载图像，并将其保存为 NumPy 二进制格式文件 **.npy**，以便后续更快地加载。\n\n### 预处理\n\n图像未进行任何预处理，除了将其调整为 96 x 96 像素大小。由于图像噪声较大，\n我预计经过一些精心设计的预处理可能会提高模型性能。\n\n输出图像（掩码）被缩放到 \\[0, 1\\] 区间。\n\n### 模型\n\n提供的模型基本上是一个卷积自编码器，但有一个特别之处——它具有从编码器层到解码器层的跳跃连接，这些层处于相同的“级别”。\n请参见下图（请注意，本教程中的图像尺寸和卷积滤波器数量与原始 U-Net 架构有所不同）。\n\n![https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjocicmarko_ultrasound-nerve-segmentation_readme_db00bc07c6f1.png](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjocicmarko_ultrasound-nerve-segmentation_readme_db00bc07c6f1.png)\n\n该深度神经网络使用 Keras 的函数式 API 实现，这使得尝试不同的有趣架构变得极其容易。\n\n网络的输出是一个 96 x 96 的张量，表示需要学习的掩码。Sigmoid 激活函数确保掩码像素值位于 \\[0, 1\\] 范围内。\n\n### 训练\n\n模型训练了 20 个 epoch，每个 epoch 在 Titan X 上大约耗时 30 秒。模型的内存占用约为 800MB。\n\n经过 20 个 epoch 后，计算出的 Dice 系数约为 0.68，这对应于排行榜上的约 0.57 分，因此显然该模型存在过拟合现象（欢迎提交交叉验证的 Pull Request；））。\n\n训练使用的损失函数基本上就是 **Dice 系数的负值**\n（该系数是本次竞赛的 [评估指标](https:\u002F\u002Fwww.kaggle.com\u002Fc\u002Fultrasound-nerve-segmentation\u002Fdetails\u002Fevaluation)），\n并通过 Keras 后端实现为自定义损失函数——详细信息请参阅 ```train.py``` 中的 ```dice_coef()``` 和 ```dice_coef_loss()``` 函数。\n此外，为了使损失函数更加平滑，还添加了一个 ```smooth = 1``` 的平滑因子。\n\n权重更新采用 Adam 优化器，学习率为 1e-5。在训练过程中，模型的权重会以 HDF5 格式保存。\n\n---\n\n## 使用方法\n\n### 依赖项\n\n本教程依赖以下库：\n\n* scikit-image\n* Tensorflow\n* Keras >= 2.0\n\n此外，该代码应兼容 Python 2.7 至 3.5 版本。\n\n### 准备数据\n\n为了提取原始图像并将其保存为 *.npy* 文件，\n您需要先准备好数据目录结构。请确保项目根目录下存在 ```raw``` 目录。\n```raw``` 目录的树状结构应如下所示：\n\n```\n-raw\n |\n ---- train\n |    |\n |    ---- 1_1.tif\n |    |\n |    ---- …\n |\n ---- test\n      |\n      ---- 1.tif\n      |\n      ---- …\n```\n\n* 现在运行 ```python data.py```。\n\n运行此脚本将生成训练和测试图像，并将其保存为 **.npy** 文件。\n\n### 定义模型\n\n* 查看 ```train.py``` 中的 ```get_unet()``` 函数，以修改模型、优化器和损失函数。\n\n### 训练模型并生成测试图像的掩码\n\n* 运行 ```python train.py``` 来训练模型。\n\n查看 ```train_predict()``` 函数，以调整迭代次数（epoch）、批量大小等参数。\n\n脚本执行完毕后，应在 ```imgs_mask_test.npy``` 中生成与 ```imgs_test.npy``` 中对应图像的掩码。\n建议您检查这些掩码，以便更好地了解模型的性能。\n\n### 生成提交文件\n\n* 运行 ```python submission.py``` 以根据生成的掩码创建提交文件 ```submission.csv```。\n\n详细信息请参阅 ```submission()``` 函数以及 ```run_length_enc()``` 函数（感谢 woshialex）。\n\n\n## 关于 Keras\n\nKeras 是一个极简、高度模块化的神经网络库，用 Python 编写，可在 TensorFlow 或 Theano 之上运行。它专注于支持快速实验。能够在最短的时间内将想法转化为结果，是开展优秀研究的关键。\n\n如果您需要一个深度学习库，满足以下条件，那么就使用 Keras：\n\n- 支持简单快速的原型开发（通过完全模块化、极简性和可扩展性）。\n- 支持卷积网络和循环网络，以及两者的组合。\n- 支持任意连接方案（包括多输入和多输出训练）。\n- 可无缝运行在 CPU 和 GPU 上。\n请阅读文档 [Keras.io](http:\u002F\u002Fkeras.io\u002F)\n\nKeras 兼容 Python 2.7 至 3.5 版本。","# ultrasound-nerve-segmentation 快速上手指南\n\n## 环境准备\n- **系统要求**：Python 2.7–3.5（建议使用 Python 3.6+ 以获得更好兼容性）\n- **前置依赖**：\n  - scikit-image\n  - TensorFlow\n  - Keras ≥ 2.0\n\n## 安装步骤\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple scikit-image tensorflow keras\n```\n\n## 基本使用\n1. **数据准备**  \n   在项目根目录创建 `raw` 目录，结构如下：\n   ```\n   raw\u002F\n   ├── train\u002F\n   │   ├── 1_1.tif\n   │   └── ...（其他训练图像）\n   └── test\u002F\n       ├── 1.tif\n       └── ...（其他测试图像）\n   ```\n\n2. **处理数据**  \n   将原始图像转换为 NumPy 格式：\n   ```bash\n   python data.py\n   ```\n\n3. **训练模型**  \n   运行训练脚本（默认训练 20 轮）：\n   ```bash\n   python train.py\n   ```\n   训练完成后，生成 `imgs_mask_test.npy`（测试图像的分割掩码）。\n\n4. **生成提交文件**  \n   生成 Kaggle 提交文件：\n   ```bash\n   python submission.py\n   ```\n   输出 `submission.csv` 可直接用于竞赛提交。","某医疗AI初创公司\"MedAI\"的工程师团队正为合作医院开发超声图像实时分析系统，用于辅助医生在超声检查中精准定位神经位置，以提升手术安全性和诊断效率。\n\n### 没有 ultrasound-nerve-segmentation 时\n- - 数据预处理耗时严重：需手动处理原始TIFF图像，转换为训练格式，平均每天消耗2小时工时，拖慢整体进度\n- - 模型开发门槛高：从零实现U-Net架构需反复调试跳过连接和自定义损失函数，团队耗时2周才完成基础模型\n- - 初始分割精度不达标：训练模型Dice系数仅0.45，无法满足临床要求的0.6+标准，导致多次返工\n- - 代码维护成本高：自定义损失函数易出错，团队需投入大量时间排查优化器和学习率问题\n\n### 使用 ultrasound-nerve-segmentation 后\n- - 数据预处理效率提升：通过data.py脚本自动将图像转为npy格式，预处理时间压缩至10分钟内\n- - 模型快速构建：直接调用get_unet()函数，10分钟内完成模型定义，避免重复编码\n- - 分割精度显著提升：模型Dice系数达0.68，测试分数0.57，轻松满足临床精度要求\n- - 开发聚焦核心优化：团队将精力转向数据增强和模型调优，项目周期缩短50%并提前交付\n\nultrasound-nerve-segmentation 为医疗AI团队提供了开箱即用的深度学习解决方案，让超声神经分割从\"技术难题\"变为\"快速实现\"。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjocicmarko_ultrasound-nerve-segmentation_e65b034b.png","jocicmarko","Marko Jocić","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjocicmarko_f2fc623f.jpg","ML Engineer @ BoolSi","@80015i ","Novi Sad, Serbia",null,"https:\u002F\u002Ftwitter.com\u002F_jocicmarko","https:\u002F\u002Fgithub.com\u002Fjocicmarko",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,944,327,"2026-04-03T23:38:44","MIT","未说明",{"notes":95,"python":96,"dependencies":97},"需要准备原始数据目录结构（raw\u002Ftrain 和 raw\u002Ftest），运行 data.py 处理数据，生成 .npy 文件","2.7-3.5",[98,99,100],"scikit-image","TensorFlow","Keras>=2.0",[14],5,"2026-03-27T02:49:30.150509","2026-04-06T07:23:22.318590",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},5174,"如何将imgs_mask_test.npy转换为图像格式？","可以使用提供的脚本view_mask_test.py进行转换，需要安装OpenCV 2。该脚本可处理.npy文件并输出TIFF\u002FPNG\u002FJPEG格式图像。","https:\u002F\u002Fgithub.com\u002Fjocicmarko\u002Fultrasound-nerve-segmentation\u002Fissues\u002F10",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},5175,"如何让U-Net处理不同尺寸的图像？","直接输入大尺寸图像会超出显存限制，建议将大图像切分为合理尺寸的重叠块进行预测，最后合并结果。修改输入层为`inputs = Input((1, None, None))`可能无法直接解决问题。","https:\u002F\u002Fgithub.com\u002Fjocicmarko\u002Fultrasound-nerve-segmentation\u002Fissues\u002F17",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},5176,"如何解决预测mask对比度低的问题？","需要调整后处理代码，可能通过修改阈值或归一化方法增强对比度。建议检查生成mask时的数值范围，并使用图像处理库（如OpenCV）进行对比度拉伸。","https:\u002F\u002Fgithub.com\u002Fjocicmarko\u002Fultrasound-nerve-segmentation\u002Fissues\u002F52",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},5177,"如何计算Dice系数？是按样本计算还是整体计算？","建议按每个样本单独计算Dice系数后再取平均值。Keras内置的Dice指标可能与numpy实现存在精度差异，需注意数据类型（float32 vs float64）的影响。","https:\u002F\u002Fgithub.com\u002Fjocicmarko\u002Fultrasound-nerve-segmentation\u002Fissues\u002F67",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},5178,"UpSampling2D和Conv2DTranspose有什么区别？","UpSampling2D通过复制像素块进行上采样，而Conv2DTranspose使用可学习的权重进行更灵活的上采样。建议使用Conv2DTranspose替代UpSampling2D以提升性能。","https:\u002F\u002Fgithub.com\u002Fjocicmarko\u002Fultrasound-nerve-segmentation\u002Fissues\u002F2",{"id":132,"question_zh":133,"answer_zh":134,"source_url":110},5179,"如何将train_masks.csv转换为train_mask.jpg？","需要编写脚本读取CSV文件并将其转换为图像格式。可参考view_mask_test.py中的图像处理逻辑，使用OpenCV或PIL库进行像素值映射和保存。",[]]