[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xy-guo--MVSNet_pytorch":3,"tool-xy-guo--MVSNet_pytorch":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":76,"difficulty_score":10,"env_os":96,"env_gpu":97,"env_ram":98,"env_deps":99,"category_tags":105,"github_topics":76,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":150},3765,"xy-guo\u002FMVSNet_pytorch","MVSNet_pytorch","PyTorch Implementation of MVSNet","MVSNet_pytorch 是经典多视图立体视觉算法 MVSNet 的非官方 PyTorch 复现版本。它致力于解决从非结构化多视角图像中高精度推断深度图的核心难题，通过深度学习架构自动重建场景的三维几何信息，广泛应用于三维重建、虚拟现实及机器人导航等领域。\n\n这款工具特别适合计算机视觉领域的研究人员、算法工程师及高校开发者使用。对于希望深入理解多视图立体匹配原理，或需要在 PyTorch 生态中进行二次开发与实验的用户而言，它提供了一个轻量且易上手的起点。相较于原始 TensorFlow 实现，MVSNet_pytorch 的最大亮点在于利用 PyTorch 动态图特性简化了模型调试与修改流程。尽管受限于显存，该版本在训练时采用了稍小的深度采样数（D=192），但在 DTU 基准测试中依然展现了优秀的综合性能，其整体误差指标甚至优于部分原始配置。此外，项目还内置了基础的深度图融合代码，帮助用户快速完成从单张深度图到完整点云模型的生成，是探索前沿三维视觉技术的实用开源资源。","# An Unofficial Pytorch Implementation of MVSNet\n\n[MVSNet: Depth Inference for Unstructured Multi-view Stereo](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02505). Yao Yao, Zixin Luo, Shiwei Li, Tian Fang, Long Quan. ECCV 2018. MVSNet is a deep learning architecture for depth map inference from unstructured multi-view images.\n\nThis is an unofficial Pytorch implementation of MVSNet\n\n## How to Use\n\n### Environment\n* python 3.6 (Anaconda)\n* pytorch 1.0.1\n\n### Training\n\n* Download the preprocessed [DTU training data](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1eDjh-_bxKKnEuz5h-HXS7EDJn59clx6V\u002Fview) (Fixed training cameras, from [Original MVSNet](https:\u002F\u002Fgithub.com\u002FYoYo000\u002FMVSNet)), and upzip it as the ``MVS_TRANING`` folder\n* in ``train.sh``, set ``MVS_TRAINING`` as your training data path\n* create a logdir called ``checkpoints``\n* Train MVSNet: ``.\u002Ftrain.sh``\n\n### Testing\n\n* Download the preprocessed test data [DTU testing data](https:\u002F\u002Fdrive.google.com\u002Fopen?id=135oKPefcPTsdtLRzoDAQtPpHuoIrpRI_) (from [Original MVSNet](https:\u002F\u002Fgithub.com\u002FYoYo000\u002FMVSNet)) and unzip it as the ``DTU_TESTING`` folder, which should contain one ``cams`` folder, one ``images`` folder and one ``pair.txt`` file.\n* in ``test.sh``, set ``DTU_TESTING`` as your testing data path and ``CKPT_FILE`` as your checkpoint file. You can also download my [pretrained model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1j2I_LNKb9JeCl6wdA7hh8z1WgVQZfLU9\u002Fview?usp=sharing).\n* Test MVSNet: ``.\u002Ftest.sh``\n\n### Fusion\n\nin ``eval.py``, I implemented a simple version of depth map fusion. Welcome contributions to improve the code.\n\n\n## Results on DTU\n\n|                       | Acc.   | Comp.  | Overall. |\n|-----------------------|--------|--------|----------|\n| MVSNet(D=256)         | 0.396  | 0.527  | 0.462    |\n| PyTorch-MVSNet(D=192) | 0.4492 | 0.3796 | 0.4144   |\n\nDue to the memory limit, we only train the model with ``D=192``, the fusion code is also different from the original repo.\n","# MVSNet 的非官方 PyTorch 实现\n\n[MVSNet：面向非结构化多视角立体视觉的深度推断](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.02505)。Yao Yao、Zixin Luo、Shiwei Li、Tian Fang、Long Quan。ECCV 2018。MVSNet 是一种用于从非结构化多视角图像中推断深度图的深度学习架构。\n\n这是 MVSNet 的一个非官方 PyTorch 实现。\n\n## 使用方法\n\n### 环境\n* Python 3.6（Anaconda）\n* PyTorch 1.0.1\n\n### 训练\n\n* 下载预处理好的 [DTU 训练数据](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1eDjh-_bxKKnEuz5h-HXS7EDJn59clx6V\u002Fview)（固定训练相机，来自 [原始 MVSNet](https:\u002F\u002Fgithub.com\u002FYoYo000\u002FMVSNet)），并解压为 ``MVS_TRAINING`` 文件夹。\n* 在 ``train.sh`` 中，将 ``MVS_TRAINING`` 设置为你训练数据的路径。\n* 创建一个名为 ``checkpoints`` 的日志目录。\n* 训练 MVSNet：``.\u002Ftrain.sh``\n\n### 测试\n\n* 下载预处理好的测试数据 [DTU 测试数据](https:\u002F\u002Fdrive.google.com\u002Fopen?id=135oKPefcPTsdtLRzoDAQtPpHuoIrpRI_)（来自 [原始 MVSNet](https:\u002F\u002Fgithub.com\u002FYoYo000\u002FMVSNet)），并解压为 ``DTU_TESTING`` 文件夹，该文件夹应包含一个 ``cams`` 文件夹、一个 ``images`` 文件夹和一个 ``pair.txt`` 文件。\n* 在 ``test.sh`` 中，将 ``DTU_TESTING`` 设置为你的测试数据路径，并将 ``CKPT_FILE`` 设置为你使用的检查点文件。你也可以下载我的 [预训练模型](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1j2I_LNKb9JeCl6wdA7hh8z1WgVQZfLU9\u002Fview?usp=sharing)。\n* 测试 MVSNet：``.\u002Ftest.sh``\n\n### 融合\n\n在 ``eval.py`` 中，我实现了一个简单的深度图融合版本。欢迎贡献代码以进一步改进。\n\n## DTU 数据集上的结果\n\n|                       | 准确率   | 完整性  | 整体指标  |\n|-----------------------|--------|--------|----------|\n| MVSNet(D=256)         | 0.396  | 0.527  | 0.462    |\n| PyTorch-MVSNet(D=192) | 0.4492 | 0.3796 | 0.4144   |\n\n由于显存限制，我们仅使用 ``D=192`` 训练模型，且融合代码也与原仓库有所不同。","# MVSNet_pytorch 快速上手指南\n\nMVSNet_pytorch 是经典多视图立体视觉算法 MVSNet 的非官方 PyTorch 实现，用于从非结构化多视角图像中推断深度图。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐)\n*   **Python**: 3.6 (建议使用 Anaconda 管理环境)\n*   **深度学习框架**: PyTorch 1.0.1\n*   **硬件**: 支持 CUDA 的 NVIDIA GPU (训练需要较大显存)\n\n**依赖安装建议**：\n国内用户可使用清华或中科大镜像源加速 Conda 和 Pip 包的下载：\n```bash\n# 配置 conda 镜像 (可选)\nconda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Fmain\u002F\nconda config --add channels https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fanaconda\u002Fpkgs\u002Ffree\u002F\n\n# 创建环境并安装 pytorch 1.0.1 (示例命令，具体版本需根据 cuda 版本调整)\nconda create -n mvsnet python=3.6\nconda activate mvsnet\npip install torch==1.0.1 torchvision==0.2.2 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 安装与数据准备\n\n本项目无需复杂的 `setup.py` 安装过程，克隆代码后主要需准备数据集。\n\n### 1. 获取代码\n```bash\ngit clone \u003C项目仓库地址>\ncd MVSNet_pytorch\n```\n\n### 2. 准备训练数据 (DTU Dataset)\n下载预处理好的 DTU 训练数据（源自官方 MVSNet），并解压为 `MVS_TRAINING` 文件夹。\n*   **下载地址**: [DTU Training Data](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1eDjh-_bxKKnEuz5h-HXS7EDJn59clx6V\u002Fview)\n*   *注：国内网络访问 Google Drive 可能较慢，请自行寻找国内网盘搬运资源或使用代理。*\n\n### 3. 准备测试数据 (可选)\n如需进行测试，下载预处理好的 DTU 测试数据，解压为 `DTU_TESTING` 文件夹（包含 `cams`, `images` 文件夹及 `pair.txt`）。\n*   **下载地址**: [DTU Testing Data](https:\u002F\u002Fdrive.google.com\u002Fopen?id=135oKPefcPTsdtLRzoDAQtPpHuoIrpRI_)\n\n## 基本使用\n\n### 训练模型 (Training)\n\n1.  编辑 `train.sh` 脚本，将 `MVS_TRAINING` 变量修改为你本地的数据路径。\n2.  创建日志目录：\n    ```bash\n    mkdir checkpoints\n    ```\n3.  执行训练脚本：\n    ```bash\n    .\u002Ftrain.sh\n    ```\n    *注意：受限于显存，本实现默认训练深度层级 `D=192`。*\n\n### 测试模型 (Testing)\n\n1.  编辑 `test.sh` 脚本：\n    *   设置 `DTU_TESTING` 为你的测试数据路径。\n    *   设置 `CKPT_FILE` 为你的模型权重文件路径。\n    *   *可选*: 下载作者提供的预训练模型: [Pretrained Model](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1j2I_LNKb9JeCl6wdA7hh8z1WgVQZfLU9\u002Fview?usp=sharing)\n2.  执行测试脚本：\n    ```bash\n    .\u002Ftest.sh\n    ```\n\n### 深度图融合 (Fusion)\n\n测试完成后，可运行 `eval.py` 进行简单的深度图融合操作：\n```bash\npython eval.py\n```\n*(该部分代码为基础实现，欢迎开发者贡献优化代码)*","某自动驾驶初创公司的感知算法团队，正利用车载多摄像头采集的非结构化街景数据，构建高精度的城市道路三维重建模型。\n\n### 没有 MVSNet_pytorch 时\n- 传统多视图立体几何（MVS）算法严重依赖严格的相机标定和有序图像输入，难以直接处理路采视频中角度随意、重叠度不均的非结构化图像。\n- 手工设计的特征匹配算子在纹理缺失区域（如白墙、路面）极易失效，导致生成的深度图充满噪点和空洞，后续建模需耗费大量人工进行修补。\n- 缺乏端到端的深度学习框架，团队需分别开发特征提取、代价体构建和正则化模块，代码耦合度高且难以针对特定场景进行联合优化。\n- 在有限显存下无法平衡深度假设数量与分辨率，强行运行高分辨率推理常导致显存溢出，被迫降低输出精度从而影响重建细节。\n\n### 使用 MVSNet_pytorch 后\n- 借助 MVSNet_pytorch 对非结构化多视图的原生支持，团队可直接输入任意角度的街景照片，无需繁琐的图像排序或严格约束相机轨迹。\n- 基于深度学习的代价体正则化显著提升了弱纹理区域的推断能力，生成的深度图边缘清晰、连续性好，大幅减少了后期人工修复成本。\n- 利用其完整的 PyTorch 训练与测试流程，研究人员可快速加载 DTU 预训练权重并在自有数据集上微调，灵活调整网络深度以适应不同显存限制。\n- 内置的深度图融合脚本（eval.py）提供了从单张深度图到稠密点云的快捷通道，加速了从算法验证到三维模型生成的整体迭代周期。\n\nMVSNet_pytorch 将复杂的非结构化三维重建任务转化为可端到端优化的深度学习流程，显著降低了高精度场景建模的技术门槛与时间成本。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxy-guo_MVSNet_pytorch_427b3e8f.png","xy-guo","Xiaoyang Guo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxy-guo_8f5cec4c.png",null,"CUHK MMLAB","xy-guo.github.io","https:\u002F\u002Fgithub.com\u002Fxy-guo",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",68.5,{"name":86,"color":87,"percentage":88},"MATLAB","#e16737",30.8,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.6,676,92,"2026-04-01T06:02:44","未说明","需要 NVIDIA GPU（PyTorch 后端隐含需求），显存需求较高（原文提到因内存限制将深度维度从 256 降至 192 进行训练），CUDA 版本未说明","未说明（但提及受限于显存\u002F内存，需降低模型深度维度）",{"notes":100,"python":101,"dependencies":102},"这是一个非官方的 MVSNet PyTorch 实现。训练和测试需要使用预处理过的 DTU 数据集。由于显存限制，该实现仅使用深度维度 D=192 进行训练（原论文为 256），且融合代码与原仓库不同。建议按照脚本要求配置数据路径和检查点文件。","3.6",[103,104],"pytorch==1.0.1","Anaconda",[15,106],"其他","2026-03-27T02:49:30.150509","2026-04-11T18:33:05.961863",[110,115,120,125,130,135,140,145],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},17247,"为什么训练损失（Training Loss）不收敛或波动很大？","即使使用 8 张 GPU 且 batch size 设为 4，训练损失仍可能出现波动。维护者指出这通常是无法完全避免的现象（insolvable），但重要的是，这种损失波动通常不会恶化模型的最终性能。建议关注验证集指标而非仅看训练损失曲线。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F11",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},17248,"评估指标（Accuracy, Completeness, Overall）与原文或其他实现不一致的原因是什么？","结果差异主要源于输入图像的分辨率（resolution）和深度平面数量（D）的不同。例如，1152x864 分辨率的结果通常比 1600x1184 的要差。此外，不同论文间可能存在互相引用错误数据的情况。建议确认自己的测试分辨率，并检查 Overall 指标是否等于 (Acc + Comp) \u002F 2，若不相等则可能是数据抄录错误。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F12",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},17249,"为什么复现模型的深度图误差（Depth Map Error）比原始 MVSNet 高（8~9 vs 4~5）？","这通常是由于验证代码（validation code）与原始版本存在差异造成的。主要区别可能在于深度范围约束（depth range constraint）的处理方式，或者数据集编号\u002F划分不同。建议仔细对比当前的验证代码与原始 MVSNet 的验证代码以定位差异。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F6",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},17250,"代码中 `depth_values.shape` 作为函数参数解包（unpacking）是什么意思？如何替换该写法？","这是 Python 中将元组解包为函数参数的语法。在 `module.py` 中，它等价于显式地指定维度：`depth_values = depth_values.view(depth_values.shape[0], depth_values.shape[1], 1, 1)`（前提是 `depth_values.shape` 的长度为 2）。如果需要手动替换，可以使用上述 `.view()` 方法重写，确保形状变为 [B, D, 1, 1] 以便进行广播计算。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F1",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},17251,"为什么阈值误差指标（Thres_metrics）中，小阈值（如 2mm）的误差值反而比大阈值（如 8mm）的大？这符合直觉吗？","这是符合逻辑的。代码中 `Thres_metrics` 统计的是绝对误差大于阈值（errors > thres）的像素比例。阈值越小（如 2mm），满足“误差大于 2mm”条件的像素点就越多，因此计算出的误差率（loss）就越大；反之，阈值越大（如 8mm），被判定为错误的点越少，误差率越小。如果你发现反常，请检查代码中是否误将判断符号从 `>` 改成了 `\u003C`。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F55",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},17252,"如何使用在 DTU 数据集上训练的模型来测试自己的相机图像？","可以运行自己的数据，但最终效果无法保证。处理流程通常需要基于 Colmap 进行稀疏重建，然后使用 `colmap2mvsnet` 工具将 Colmap 的输出转换为 MVSNet 所需的输入格式。转换后的数据可能需要根据具体需求进行进一步处理才能输入模型。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F34",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},17253,"如何获取评估指标中的 Accuracy、Completeness 和 Overall 数值？","这些指标不能直接通过融合点云得到，需要使用专门的评估代码。建议参考 DTU 数据集官方提供的 Sample Set 中的评估代码（http:\u002F\u002Froboimagedata.compute.dtu.dk\u002F?page_id=36），该代码可用于计算深度图与真值之间的上述三个指标。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F26",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},17254,"项目中找不到 `test.sh` 脚本，在哪里可以找到？","`test.sh` 的功能已经被合并到 `eval.sh` 脚本中了。用户可以直接运行 `eval.sh` 来执行测试和评估流程，无需单独寻找 `test.sh`。","https:\u002F\u002Fgithub.com\u002Fxy-guo\u002FMVSNet_pytorch\u002Fissues\u002F9",[]]