[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jakeret--tf_unet":3,"tool-jakeret--tf_unet":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",148568,2,"2026-04-09T23:34:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":137},6070,"jakeret\u002Ftf_unet","tf_unet","Generic U-Net Tensorflow implementation for image segmentation","tf_unet 是一个基于 TensorFlow 框架实现的通用 U-Net 模型，专为图像分割任务设计。它核心解决了如何从复杂背景中精准提取目标区域的问题，无论是简单的几何图形识别，还是天文观测中的射电干扰去除、星系恒星检测，都能通过训练适应不同的成像数据。\n\n这款工具特别适合从事计算机视觉研究的科研人员、深度学习开发者以及需要处理专业影像数据的天文学家使用。其最大的技术亮点在于高度的通用性与灵活性：代码不绑定特定领域的分割任务，用户只需准备相应的数据集，即可将其应用于从“玩具问题”（如在噪声图中检测圆圈）到高精度科学探测等多种场景。此外，项目提供了详细的文档和 Jupyter Notebook 演示，帮助用户快速上手并复现论文中的经典案例。\n\n需要注意的是，由于原版 tf_unet 已停止维护，官方建议新用户转向其兼容 TensorFlow 2 的重构版本以获取更好的支持与性能，但理解 tf_unet 的原理仍是掌握这一经典分割架构的重要基础。","=============================\nTensorflow Unet\n=============================\n\n.. image:: https:\u002F\u002Freadthedocs.org\u002Fprojects\u002Ftf-unet\u002Fbadge\u002F?version=latest\n\t:target: http:\u002F\u002Ftf-unet.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest\n\t:alt: Documentation Status\n\t\t\n.. image:: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-1609.09077-orange.svg?style=flat\n        :target: http:\u002F\u002Farxiv.org\u002Fabs\u002F1609.09077\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fascl-1611.002-blue.svg?colorB=262255\n        :target: http:\u002F\u002Fascl.net\u002F1611.002\n\n.. image:: https:\u002F\u002Fmybinder.org\u002Fbadge.svg\n        :target: https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002Fjakeret\u002Ftf_unet\u002Fmaster?filepath=demo%2Fdemo_toy_problem.ipynb\n\n\n.. warning::\n\n    This project is discontinued in favour of a Tensorflow 2 compatible reimplementation of this project found under https:\u002F\u002Fgithub.com\u002Fjakeret\u002Funet\n\n\nThis is a generic **U-Net** implementation as proposed by `Ronneberger et al. \u003Chttps:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.04597.pdf>`_ developed with **Tensorflow**. The code has been developed and used for `Radio Frequency Interference mitigation using deep convolutional neural networks \u003Chttp:\u002F\u002Farxiv.org\u002Fabs\u002F1609.09077>`_ .\n\nThe network can be trained to perform image segmentation on arbitrary imaging data. Checkout the `Usage \u003Chttp:\u002F\u002Ftf-unet.readthedocs.io\u002Fen\u002Flatest\u002Fusage.html>`_ section or the included Jupyter notebooks for a `toy problem \u003Chttps:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fblob\u002Fmaster\u002Fdemo\u002Fdemo_toy_problem.ipynb>`_ or the `Radio Frequency Interference mitigation \u003Chttps:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fblob\u002Fmaster\u002Fdemo\u002Fdemo_radio_data.ipynb>`_ discussed in our paper.\n\nThe code is not tied to a specific segmentation such that it can be used in a toy problem to detect circles in a noisy image.\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Ftoy_problem.png\n   :alt: Segmentation of a toy problem.\n   :align: center\n\nTo more complex application such as the detection of radio frequency interference (RFI) in radio astronomy.\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Frfi.png\n   :alt: Segmentation of RFI in radio data.\n   :align: center\n\nOr to detect galaxies and star in wide field imaging data.\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Fgalaxies.png\n   :alt: Segmentation of a galaxies.\n   :align: center\n\n\nAs you use **tf_unet** for your exciting discoveries, please cite the paper that describes the package::\n\n\n\t@article{akeret2017radio,\n\t  title={Radio frequency interference mitigation using deep convolutional neural networks},\n\t  author={Akeret, Joel and Chang, Chihway and Lucchi, Aurelien and Refregier, Alexandre},\n\t  journal={Astronomy and Computing},\n\t  volume={18},\n\t  pages={35--39},\n\t  year={2017},\n\t  publisher={Elsevier}\n\t}\n","=============================\nTensorFlow U-Net\n=============================\n\n.. image:: https:\u002F\u002Freadthedocs.org\u002Fprojects\u002Ftf-unet\u002Fbadge\u002F?version=latest\n\t:target: http:\u002F\u002Ftf-unet.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest\n\t:alt: 文档状态\n\t\t\n.. image:: http:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-1609.09077-orange.svg?style=flat\n        :target: http:\u002F\u002Farxiv.org\u002Fabs\u002F1609.09077\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fascl-1611.002-blue.svg?colorB=262255\n        :target: http:\u002F\u002Fascl.net\u002F1611.002\n\n.. image:: https:\u002F\u002Fmybinder.org\u002Fbadge.svg\n        :target: https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002Fjakeret\u002Ftf_unet\u002Fmaster?filepath=demo%2Fdemo_toy_problem.ipynb\n\n\n.. warning::\n\n    本项目已停止维护，推荐使用在 https:\u002F\u002Fgithub.com\u002Fjakeret\u002Funet 上找到的兼容 TensorFlow 2 的重新实现版本。\n\n\n这是一个基于 `Ronneberger 等人 \u003Chttps:\u002F\u002Farxiv.org\u002Fpdf\u002F1505.04597.pdf>`_ 提出的通用 **U-Net** 实现，采用 **TensorFlow** 开发。该代码最初为 `利用深度卷积神经网络消除射频干扰 \u003Chttp:\u002F\u002Farxiv.org\u002Fabs\u002F1609.09077>`_ 项目而开发并应用。\n\n该网络可以被训练用于对任意图像数据进行分割任务。请参阅 `使用说明 \u003Chttp:\u002F\u002Ftf-unet.readthedocs.io\u002Fen\u002Flatest\u002Fusage.html>`_ 部分或附带的 Jupyter 笔记本，其中包含一个 `玩具问题 \u003Chttps:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fblob\u002Fmaster\u002Fdemo\u002Fdemo_toy_problem.ipynb>`_ 示例，以及我们论文中讨论的 `射频干扰消除 \u003Chttps:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fblob\u002Fmaster\u002Fdemo\u002Fdemo_radio_data.ipynb>`_ 应用。\n\n该代码并不局限于特定的分割任务，因此也可以用于解决简单的玩具问题，例如在噪声图像中检测圆形。\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Ftoy_problem.png\n   :alt: 玩具问题的分割结果。\n   :align: center\n\n此外，它还可以应用于更复杂的场景，例如射电天文学中的射频干扰（RFI）检测：\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Frfi.png\n   :alt: 射电数据中射频干扰的分割结果。\n   :align: center\n\n或者用于在广域成像数据中检测星系和恒星：\n\n.. image:: https:\u002F\u002Fraw.githubusercontent.com\u002Fjakeret\u002Ftf_unet\u002Fmaster\u002Fdocs\u002Fgalaxies.png\n   :alt: 星系的分割结果。\n   :align: center\n\n\n当您使用 **tf_unet** 进行有意义的研究时，请引用描述该软件包的论文：\n\n\n\t@article{akeret2017radio,\n\t  title={利用深度卷积神经网络消除射频干扰},\n\t  author={Akeret, Joel and Chang, Chihway and Lucchi, Aurelien and Refregier, Alexandre},\n\t  journal={天文学与计算},\n\t  volume={18},\n\t  pages={35--39},\n\t  year={2017},\n\t  publisher={Elsevier}\n\t}","# tf_unet 快速上手指南\n\n> **⚠️ 重要提示**：本项目已停止维护。作者推荐使用基于 TensorFlow 2 的重构版本：[https:\u002F\u002Fgithub.com\u002Fjakeret\u002Funet](https:\u002F\u002Fgithub.com\u002Fjakeret\u002Funet)。以下指南仅适用于需要沿用旧版 TensorFlow 1 环境的特定场景。\n\ntf_unet 是一个基于 TensorFlow 实现的通用 U-Net 架构，主要用于图像分割任务（如噪声图像中的圆圈检测、射电天文数据中的射频干扰消除、星系检测等）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.6 - 3.8 (需兼容 TensorFlow 1.x)\n*   **核心依赖**：\n    *   TensorFlow 1.x (项目基于 TF1 开发)\n    *   NumPy\n    *   Matplotlib\n    *   Jupyter Notebook (用于运行示例)\n\n## 安装步骤\n\n您可以选择通过 `pip` 直接安装，或从源码安装以获取最新代码。\n\n### 方式一：使用 pip 安装（推荐）\n\n```bash\npip install tf_unet\n```\n\n*国内用户加速建议*：如果下载速度较慢，可使用清华或阿里镜像源：\n```bash\npip install tf_unet -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：从源码安装\n\n如果您需要修改代码或运行最新的 Demo，建议克隆仓库安装：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet.git\ncd tf_unet\npip install -e .\n```\n\n## 基本使用\n\ntf_unet 提供了灵活的 API 用于训练和预测。最简单的使用方式是运行官方提供的 Jupyter Notebook 示例来理解流程。\n\n### 1. 运行玩具问题示例 (Toy Problem)\n\n这是一个最基础的示例，演示如何在含噪图像中检测圆形。\n\n```bash\n# 进入 demo 目录\ncd demo\n\n# 启动 Jupyter Notebook 并打开示例文件\njupyter notebook demo_toy_problem.ipynb\n```\n\n在 Notebook 中，您将看到完整的流程：\n1.  **数据生成**：自动生成带有随机圆圈的合成图像。\n2.  **模型构建**：初始化 U-Net 网络结构。\n3.  **训练**：使用生成的数据进行训练。\n4.  **预测与可视化**：展示分割结果。\n\n### 2. 代码调用示例\n\n如果您希望在 Python 脚本中直接调用，基本逻辑如下：\n\n```python\nimport tensorflow as tf\nfrom tf_unet import unet, util, image_gen\n\n# 1. 准备数据生成器 (以玩具问题为例)\ndata_provider = image_gen.GrayScaleDataProvider(512, 512, cnt=10)\n\n# 2. 创建 U-Net 网络\n# features: 每层特征图数量, layers: 网络层数\nnet = unet.Unet(data_provider.channels, features=32, layers=3)\n\n# 3. 初始化训练器\ntrainer = unet.Trainer(net, optimizer=\"momentum\", opt_kwargs=dict(momentum=0.2))\n\n# 4. 开始训练\n# data_provider: 数据源, output_path: 模型保存路径, training_iters: 迭代次数\npath = trainer.train(data_provider, \".\u002Fmodels\u002Ftoy_model\", training_iters=100)\n\n# 5. 进行预测\nx_test, y_test = data_provider(1)\nprediction = net.predict(\".\u002Fmodels\u002Ftoy_model\u002Fmodel.cpkt-100\", x_test)\n```\n\n对于更复杂的实际应用（如射电数据干扰消除），请参考仓库中 `demo\u002Fdemo_radio_data.ipynb` 的实现。","某天文台的数据处理团队正致力于从海量射电望远镜观测图像中，自动识别并剔除无线电频率干扰（RFI），以还原纯净的宇宙信号。\n\n### 没有 tf_unet 时\n- 依赖传统阈值算法或人工目视检查，难以区分形态复杂的干扰信号与真实天体特征，误删率极高。\n- 面对不同观测波段和噪声环境，每次都需要手动重新调整参数规则，缺乏泛化能力，维护成本巨大。\n- 处理大规模巡天数据时效率低下，往往需要数周时间才能完成一批数据的清洗，严重拖慢科研进度。\n- 无法端到端地输出像素级掩膜，后续分析步骤需额外编写代码进行轮廓提取，流程繁琐且易出错。\n\n### 使用 tf_unet 后\n- 利用 U-Net 架构强大的特征提取能力，tf_unet 能精准分割出各种形态的 RFI 干扰，在保留微弱星系信号的同时彻底去除噪声。\n- 模型一旦训练完成即可适应多种观测场景，无需针对新数据反复调参，显著提升了算法的鲁棒性和通用性。\n- 借助 TensorFlow 的加速推理，tf_unet 将原本数周的数据清洗工作缩短至数小时，极大释放了天文学家的研究精力。\n- 直接输出高精度的像素级分割掩膜，无缝对接后续的光度测量与形态分析流程，实现了全自动化的数据处理流水线。\n\ntf_unet 通过深度学习将繁琐的图像清洗工作转化为高效的自动化流程，让科研人员能从嘈杂数据中更快速地捕捉宇宙的真实信号。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjakeret_tf_unet_47b1927f.png","jakeret","Joel Akeret","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjakeret_ac01248c.png",null,"https:\u002F\u002Fgithub.com\u002Fjakeret",[78,82,85],{"name":79,"color":80,"percentage":81},"Python","#3572A5",97.9,{"name":83,"color":84,"percentage":32},"Makefile","#427819",{"name":86,"color":87,"percentage":88},"Shell","#89e051",0.2,1917,739,"2026-04-02T08:34:08","GPL-3.0",4,"","未说明",{"notes":97,"python":95,"dependencies":98},"该项目已停止维护，官方建议迁移至 TensorFlow 2 兼容的重实现版本（地址：https:\u002F\u002Fgithub.com\u002Fjakeret\u002Funet）。原项目基于 TensorFlow 1.x 开发，主要用于图像分割任务。",[99],"tensorflow",[15,14],[102,103,104,99],"image-segmentation","neural-network","deep-learning","2026-03-27T02:49:30.150509","2026-04-10T10:34:31.695343",[108,113,118,122,127,132],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},27497,"输入图像和掩码尺寸一致，为什么仍报错 \"logits and labels must be broadcastable\"？","即使单张图像的掩码尺寸正确，如果数据集中包含多张图像，所有输入图像必须调整为相同的维度。建议批量处理图像：先将所有图像缩放为正方形，通过 U-Net 处理后再将输出缩放回原始比例。可以使用 ImageMagick 等工具批量转换图像尺寸。","https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fissues\u002F91",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},27498,"训练数据中的掩码（Mask）形状必须是 row*column*2 吗？如果是单通道掩码该如何处理？","是的，代码期望标签数组的形状为 [batch, height, width, 2]，其中最后一维代表两个类别的 One-hot 编码。如果你只有单通道掩码（row*column*1），需要将其转换为双通道。具体做法是：创建一个全零数组 labels[..., 1] = mask_data，然后 labels[..., 0] = ~mask_data（即背景类为掩码的反转）。这确保了每个像素点都有两个类别的概率分布。","https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fissues\u002F2",{"id":119,"question_zh":120,"answer_zh":121,"source_url":117},27499,"模型训练不收敛或参数优化失败，有哪些调试建议？","建议采取以下步骤：1. 简化网络结构，例如减少到 2 或 3 层，滤波器大小设为 16；2. 对数据进行归一化处理，例如使用 `data -= np.amin(data)` 和 `data \u002F= np.amax(data)` 将数据缩放到合理范围；3. 检查训练数据质量，确保各类别像素数量平衡且无异常值；4. 尝试增加动量优化器的 momentum 参数（如设为 0.9）以更好地探索参数空间。",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},27500,"如何使用 U-Net 进行多类别分割（Multi-Class Segmentation）？","需要修改 `image_util.py` 文件。首先将类别数（classes）设置为你需要的数量（例如 3 类），然后修改 `_process_labels` 部分的代码，使其能够处理多类别的 One-hot 编码标签，而不仅仅是二分类。","https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fissues\u002F81",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},27501,"运行代码时报错 \"AssertionError: No training files\" 找不到训练文件怎么办？","该错误通常是因为提供的文件路径模式下没有匹配到任何文件。请检查传递给 `ImageDataProvider` 的路径字符串（例如 \"fishes\\train\\*.tif\"）是否正确指向了包含 .tif 文件的目录。注意在 Windows 系统中路径分隔符的使用，并确保该目录下确实存在符合命名规则的图像文件。示例代码中使用的鱼类数据集文件并未直接包含在库中，需用户自行准备或从相关论文\u002F项目页面下载对应数据。","https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fissues\u002F108",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},27502,"创建数据集时出现形状不匹配错误，常见原因是什么？","这类错误通常是由于训练数据和测试数据的结构不一致，或者在创建数据集时标签（labels）的形状定义错误导致的。例如，如果网络期望标签形状为 [N, H, W, C]，但实际提供的标签缺少通道维或维度大小不匹配，就会报错。请仔细检查 `SimpleDataProvider` 初始化时的 `channels` 和 `n_class` 参数是否与加载的 numpy 数组形状完全对应。","https:\u002F\u002Fgithub.com\u002Fjakeret\u002Ftf_unet\u002Fissues\u002F65",[138,143,148],{"id":139,"version":140,"summary_zh":141,"released_at":142},180635,"0.1.2","* 名称作用域，用于优化 TensorBoard 布局\n* 将偏置加法移至 Dropout 之前\n* 数值稳定的交叉熵计算\n* 可参数化的验证批次大小\n* 修复所有像素值均为 0 时的 bug\n* 清理示例代码","2019-01-08T20:58:30",{"id":144,"version":145,"summary_zh":146,"released_at":147},180636,"0.1.1","* 支持 TensorFlow > 1.0.0\n* 简洁的包结构\n* 集成到 MyBinder","2017-12-29T08:41:46",{"id":149,"version":150,"summary_zh":151,"released_at":152},180637,"0.1.0","通用 U-Net 图像分割神经网络的 TensorFlow 实现。首次正式发布！","2017-03-27T20:31:44"]