[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-machrisaa--tensorflow-vgg":3,"tool-machrisaa--tensorflow-vgg":61},[4,18,28,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":24,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[27,13,15,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[60,15,13,14],"语言模型",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":75,"difficulty_score":10,"env_os":85,"env_gpu":86,"env_ram":87,"env_deps":88,"category_tags":93,"github_topics":75,"view_count":24,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":94,"updated_at":95,"faqs":96,"releases":137},9890,"machrisaa\u002Ftensorflow-vgg","tensorflow-vgg","VGG19 and VGG16 on Tensorflow","tensorflow-vgg 是一个基于 TensorFlow 框架实现的经典深度学习模型库，提供了 VGG16 和 VGG19 两种广泛使用的卷积神经网络架构。它主要解决了开发者在复现这些经典模型时面临的配置繁琐、初始化速度慢以及内存占用高等痛点。\n\n该工具特别适合人工智能研究人员、算法工程师以及计算机视觉领域的开发者使用。无论是需要快速搭建图像分类基线，还是进行风格迁移、目标检测等下游任务的二次开发，都能从中获益。其核心技术亮点在于优化了模型加载机制：摒弃了默认的 TensorFlow 模型加载方式，转而采用 NumPy 文件加载预训练权重。这一改进显著加快了模型的初始化速度，并有效降低了整体内存消耗。此外，代码结构清晰灵活，支持用户轻松移除全连接层或调整批量大小（Batch Size），甚至提供了可训练版本（trainable），方便用户从现有变量微调或从头训练网络。对于希望在不依赖复杂环境的情况下高效利用 VGG 系列模型进行实验和落地的技术团队而言，这是一个实用且高效的开源选择。","# Tensorflow VGG16 and VGG19\n\nThis is a Tensorflow implemention of VGG 16 and VGG 19 based on [tensorflow-vgg16](https:\u002F\u002Fgithub.com\u002Fry\u002Ftensorflow-vgg16) and [Caffe to Tensorflow](https:\u002F\u002Fgithub.com\u002Fethereon\u002Fcaffe-tensorflow). Original Caffe implementation can be found in [here](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F211839e770f7b538e2d8) and [here](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F3785162f95cd2d5fee77).\n\nWe have modified the implementation of \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fry\u002Ftensorflow-vgg16\">tensorflow-vgg16\u003C\u002Fa> to use numpy loading instead of default tensorflow model loading in order to speed up the initialisation and reduce the overall memory usage. This implementation enable further modify the network, e.g. remove the FC layers, or increase the batch size.\n\n>To use the VGG networks, the npy files for [VGG16 NPY](https:\u002F\u002Fmega.nz\u002F#!YU1FWJrA!O1ywiCS2IiOlUCtCpI6HTJOMrneN-Qdv3ywQP5poecM) or [VGG19 NPY](https:\u002F\u002Fmega.nz\u002F#!xZ8glS6J!MAnE91ND_WyfZ_8mvkuSa2YcA7q-1ehfSm-Q1fxOvvs) has to be downloaded.\n\n## Usage\nUse this to build the VGG object\n```\nvgg = vgg19.Vgg19()\nvgg.build(images)\n```\nor\n```\nvgg = vgg16.Vgg16()\nvgg.build(images)\n```\nThe `images` is a tensor with shape `[None, 224, 224, 3]`. \n>Trick: the tensor can be a placeholder, a variable or even a constant.\n\nAll the VGG layers (tensors) can then be accessed using the vgg object. For example, `vgg.conv1_1`, `vgg.conv1_2`, `vgg.pool5`, `vgg.prob`, ...\n\n`test_vgg16.py` and `test_vgg19.py` contain the sample usage.\n\n## Extra\nThis library has been used in my another Tensorflow image style synethesis project: [stylenet](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Fstylenet)\n\n\n## Update 1: Trainable VGG:\nAdded a trainable version of the VGG19 `vgg19_trainable`. It support train from existing vaiables or from scratch. (But the trainer is not included)\n\nA very simple testing is added `test_vgg19_trainable`, switch has demo about how to train, switch off train mode for verification, and how to save.\n\nA seperated file is added (instead of changing existing one) because I want to keep the simplicity of the original VGG networks.\n\n\n## Update 2: Tensorflow v1.0.0:\nAll the source code has been upgraded to [v1.0.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fblob\u002Fv1.0.0-rc1\u002FRELEASE.md).\n\nThe conversion is done by my another project [tf0to1](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftf0to1)\n\n","# TensorFlow VGG16 和 VGG19\n\n这是一个基于 [tensorflow-vgg16](https:\u002F\u002Fgithub.com\u002Fry\u002Ftensorflow-vgg16) 和 [Caffe to Tensorflow](https:\u002F\u002Fgithub.com\u002Fethereon\u002Fcaffe-tensorflow) 的 TensorFlow 实现的 VGG16 和 VGG19。原始的 Caffe 实现可以在这里找到：[VGG16](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F211839e770f7b538e2d8) 和 [VGG19](https:\u002F\u002Fgist.github.com\u002Fksimonyan\u002F3785162f95cd2d5fee77)。\n\n我们对 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fry\u002Ftensorflow-vgg16\">tensorflow-vgg16\u003C\u002Fa> 的实现进行了修改，使用 NumPy 加载方式替代默认的 TensorFlow 模型加载方式，以加快初始化速度并减少整体内存占用。这种实现还允许进一步修改网络结构，例如移除全连接层或增加批处理大小。\n\n> 要使用这些 VGG 网络，需要先下载 [VGG16 NPY](https:\u002F\u002Fmega.nz\u002F#!YU1FWJrA!O1ywiCS2IiOlUCtCpI6HTJOMrneN-Qdv3ywQP5poecM) 或 [VGG19 NPY](https:\u002F\u002Fmega.nz\u002F#!xZ8glS6J!MAnE91ND_WyfZ_8mvkuSa2YcA7q-1ehfSm-Q1fxOvvs) 文件。\n\n## 使用方法\n使用以下代码构建 VGG 对象：\n```\nvgg = vgg19.Vgg19()\nvgg.build(images)\n```\n或者\n```\nvgg = vgg16.Vgg16()\nvgg.build(images)\n```\n其中 `images` 是一个形状为 `[None, 224, 224, 3]` 的张量。\n> 小技巧：该张量可以是占位符、变量，甚至常量。\n\n之后可以通过 `vgg` 对象访问所有的 VGG 层（张量），例如 `vgg.conv1_1`、`vgg.conv1_2`、`vgg.pool5`、`vgg.prob` 等。\n\n`test_vgg16.py` 和 `test_vgg19.py` 包含了示例用法。\n\n## 补充\n这个库也被用于我的另一个 TensorFlow 图像风格迁移项目：[stylenet](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Fstylenet)。\n\n## 更新 1：可训练的 VGG：\n新增了一个可训练版本的 VGG19 `vgg19_trainable`。它支持从现有变量中继续训练，也支持从头开始训练。（但不包含训练器）\n\n添加了一个非常简单的测试脚本 `test_vgg19_trainable`，演示了如何进行训练、如何关闭训练模式进行验证，以及如何保存模型。\n\n为了保持原始 VGG 网络的简洁性，我们将新功能单独放在了一个文件中，而不是修改原有的文件。\n\n## 更新 2：TensorFlow v1.0.0：\n所有源代码已升级到 [v1.0.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow\u002Fblob\u002Fv1.0.0-rc1\u002FRELEASE.md)。\n\n转换工作由我的另一个项目 [tf0to1](https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftf0to1) 完成。","# tensorflow-vgg 快速上手指南\n\n## 环境准备\n\n*   **系统要求**：Linux, macOS 或 Windows。\n*   **Python 版本**：建议 Python 3.6+（兼容 TensorFlow 1.x 环境）。\n*   **核心依赖**：\n    *   TensorFlow 1.0.0 或更高版本（本项目基于 TF 1.x 架构）。\n    *   NumPy。\n*   **前置模型文件**：\n    在使用前，必须下载预训练的权重文件（`.npy` 格式）。由于官方链接位于 Mega.nz，国内访问可能较慢，建议寻找国内网盘镜像或通过代理下载。\n    *   [VGG16 NPY](https:\u002F\u002Fmega.nz\u002F#!YU1FWJrA!O1ywiCS2IiOlUCtCpI6HTJOMrneN-Qdv3ywQP5poecM)\n    *   [VGG19 NPY](https:\u002F\u002Fmega.nz\u002F#!xZ8glS6J!MAnE91ND_WyfZ_8mvkuSa2YcA7q-1ehfSm-Q1fxOvvs)\n    \n    下载后，请将 `.npy` 文件放置在项目根目录或代码指定的路径下。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg.git\n    cd tensorflow-vgg\n    ```\n\n2.  **安装 Python 依赖**\n    如果尚未安装 TensorFlow 和 NumPy，请执行以下命令（推荐使用国内镜像源加速）：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *注：若仓库中无 `requirements.txt`，请直接安装核心库：*\n    ```bash\n    pip install tensorflow==1.15.0 numpy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *(注：TensorFlow 2.x 需使用兼容模式或降级至 1.x 以确保最佳兼容性)*\n\n3.  **配置模型权重**\n    确保已将上述“环境准备”中下载的 `vgg16.npy` 或 `vgg19.npy` 文件放入当前目录。\n\n## 基本使用\n\n本库支持快速构建 VGG16 或 VGG19 网络对象。以下是最简使用示例：\n\n### 1. 导入并构建网络\n\n```python\nimport tensorflow as tf\nimport numpy as np\nfrom vgg19 import Vgg19  # 或者 from vgg16 import Vgg16\n\n# 初始化 VGG 对象\nvgg = Vgg19()\n\n# 定义输入图像张量\n# 形状必须为 [None, 224, 224, 3]，可以是 placeholder, variable 或 constant\nimages = tf.placeholder(tf.float32, [None, 224, 224, 3])\n\n# 构建网络\nvgg.build(images)\n```\n\n### 2. 访问网络层\n\n构建完成后，可通过 `vgg` 对象直接访问所有中间层张量：\n\n```python\n# 示例：访问卷积层和池化层\nconv1_1 = vgg.conv1_1\npool5 = vgg.pool5\nprob = vgg.prob  # 输出概率层\n```\n\n### 3. 运行测试\n\n仓库自带了测试脚本，可用于验证环境配置和模型加载是否正常：\n\n```bash\n# 测试 VGG16\npython test_vgg16.py\n\n# 测试 VGG19\npython test_vgg19.py\n```\n\n### 进阶：可训练版本 (Trainable VGG)\n\n如果需要微调网络或从头训练，可使用 `vgg19_trainable` 模块：\n\n```python\nfrom vgg19_trainable import Vgg19Trainable\n\nvgg_train = Vgg19Trainable()\nvgg_train.build(images)\n\n# 此时网络变量支持梯度更新，可用于风格迁移等任务\n```","某计算机视觉团队正在开发一款艺术风格迁移应用，需要快速集成高质量的预训练特征提取器以生成风格化图像。\n\n### 没有 tensorflow-vgg 时\n- **环境配置繁琐**：开发者需手动从 Caffe 转换模型权重或自行编写复杂的网络层代码，极易因版本不兼容导致报错。\n- **初始化速度缓慢**：默认加载方式占用大量内存且启动耗时久，严重拖慢本地调试和原型验证的效率。\n- **网络修改困难**：若要移除全连接层（FC layers）以适应风格迁移任务，必须深入底层重构计算图，容错率低。\n- **中间层访问受限**：难以灵活提取如 `conv1_1` 或 `pool5` 等特定层的特征张量，限制了算法优化的空间。\n\n### 使用 tensorflow-vgg 后\n- **开箱即用**：直接调用 `vgg19.Vgg19()` 并加载预下载的 NPY 文件，几分钟内即可构建完完整的 VGG19 网络。\n- **高效启动**：基于 NumPy 的加载机制显著降低了内存占用，模型初始化速度大幅提升，加速了迭代循环。\n- **灵活定制**：支持轻松移除全连接层或调整批次大小（batch size），完美契合风格合成项目对网络结构的特殊需求。\n- **透明可控**：通过对象属性（如 `vgg.prob`）即可直接访问任意层级张量，方便开发者精细调控特征提取过程。\n\ntensorflow-vgg 通过将复杂的模型移植工作简化为几行代码，让开发者能专注于上层算法创新而非底层架构搭建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmachrisaa_tensorflow-vgg_e1c70a39.png","machrisaa","Chris","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmachrisaa_02d9c18f.jpg",null,"https:\u002F\u002Fgithub.com\u002Fmachrisaa",[78],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,2240,1062,"2026-04-17T16:09:43","","未说明","未说明（文中提及修改旨在减少内存占用，但未给出具体数值）",{"notes":89,"python":86,"dependencies":90},"该工具基于 TensorFlow 1.0.0 版本。使用前必须手动下载 VGG16 或 VGG19 的预训练权重文件（.npy 格式，托管于 Mega.nz）。代码支持通过 numpy 加载模型以加速初始化并降低内存消耗。包含可训练版本的 VGG19，但需用户自行编写训练逻辑。",[91,92],"tensorflow>=1.0.0","numpy",[15],"2026-03-27T02:49:30.150509","2026-04-20T10:24:22.350127",[97,102,107,112,117,122,127,132],{"id":98,"question_zh":99,"answer_zh":100,"source_url":101},44428,"运行代码时出现 KeyError: 0 错误，应该使用哪个版本的 TensorFlow？","该错误通常与 TensorFlow 版本不兼容或数据字典加载失败有关。虽然维护者未直接指定版本，但建议参考官方教程 [Deep MNIST for Experts](https:\u002F\u002Fwww.tensorflow.org\u002Fversions\u002Fmaster\u002Ftutorials\u002Fmnist\u002Fpros\u002Findex.html) 中的标准写法来检查环境配置。确保 `data_dict` 正确加载了预训练权重文件（.npy），并且键名匹配。如果问题依旧，请尝试更新 TensorFlow 到与项目兼容的版本。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F11",{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},44429,"如何在训练过程中打印当前的准确率（accuracy）和误差（error）？","用户反馈在修改优化器学习率后遇到了准确率异常（如最高为 1 或出现 8.0 的奇怪数值）。要监控训练过程，需要在构建计算图时定义准确率和损失的操作（ops），并在会话（session）运行时通过 `sess.run()` 获取它们的值。建议检查代码中是否正确定义了 `tf.nn.softmax_cross_entropy_with_logits` 作为损失函数，以及是否使用了 `tf.equal` 和 `tf.cast` 来计算预测正确的数量从而得出准确率。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F14",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},44430,"如何利用预训练模型增加新的分类类别（例如从 1000 类增加到 1001 类）？","可以直接修改网络结构以适应新类别。具体做法是加载预训练权重，然后更改最后一层全连接层（fc8）的输出维度。例如，将 `self.fc8 = self.fc_layer(self.relu7, 4096, 1000, \"fc8\")` 修改为 `self.fc8 = self.fc_layer(self.relu7, 4096, 25, \"my_fc8\")`（假设你需要 25 个输出）。修改后，最后一层的权重会被随机初始化，而其他层保留预训练权重。之后使用新数据集重新训练网络即可。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F20",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},44431,"如果需要重新训练 VGG 模型，应该如何修改代码或是否有可用的独立训练版本？","维护者已上传了一个完整的独立可训练版本（standalone trainable version），特别是针对 VGG19 的 `vgg_trainable.py` 文件，比之前的代码更完善。如果使用自定义类进行保存，需注意 `CustomVgg19.save_npy` 依赖 `get_all_var()` 方法。如果该方法缺失，可以手动添加如下实现：\n```python\ndef get_all_var(self):\n    D = self.var_dict\n    var_list = [(var, name, D[name].index(var)) for name in D for var in D[name]]\n    return zip(*var_list)\n```\n这将帮助正确提取变量以便保存。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F7",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},44432,"为什么代码中要将图像除以 255.0 后又乘以 255.0，这是做什么用的？","这是数据标准化（Normalization）处理的一部分。虽然表面上看除以 255.0 再乘以 255.0 似乎抵消了，但在深度学习流程中，通常先将像素值从 [0, 255] 归一化到 [0, 1] 区间输入神经网络进行处理，以加速收敛和稳定训练。后续乘以 255.0 通常是为了将网络输出的结果还原回图像显示的像素范围，以便可视化或保存图像。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F47",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},44433,"预训练的 .npy 模型文件无法下载或链接失效怎么办？","由于模型文件较大（约 500MB），直接通过邮件发送不可行。如果遇到下载链接失效，可以尝试联系维护者询问是否有云盘（cloud drive）备份可供分享。此外，也可以查看项目页面是否有更新的下载指引，或者尝试从其他镜像源下载 `vgg16.npy` 和 `vgg19.npy` 文件。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F34",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},44434,"如何验证下载的 .npy 预训练权重文件是否损坏？","可以通过运行项目提供的测试脚本（如 `test_vgg19.py`）来验证。使用该脚本对样本图像（如老虎和拼图图片）进行分类测试。还可以检查特定层（如 `conv5_4`）的输出数值范围。维护者指出，对于正常的老虎图像，`conv5_4` 的最大输出值通常在 300 左右。如果你的输出值高达 1e5 或差异巨大，则可能文件已损坏，需要重新下载。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F30",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},44435,"这些 .npy 预训练权重文件最初是如何生成的？","这些文件通常是从原始的 Caffe 或其他框架的 VGG 模型转换而来的。虽然 Issue 中没有详细列出转换脚本的具体步骤，但用户可以直接从相关网页下载现成的 `vgg16.npy` 文件。如果需要自己生成，通常需要加载原始模型的权重参数，并将其序列化为 NumPy 的 .npy 格式以供 TensorFlow 加载。","https:\u002F\u002Fgithub.com\u002Fmachrisaa\u002Ftensorflow-vgg\u002Fissues\u002F58",[]]