[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Nightmare-n--DepthAnyVideo":3,"tool-Nightmare-n--DepthAnyVideo":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":78,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":101,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":102,"updated_at":103,"faqs":104,"releases":145},3781,"Nightmare-n\u002FDepthAnyVideo","DepthAnyVideo","Depth Any Video with Scalable Synthetic Data (ICLR 2025)","DepthAnyVideo 是一款专为视频深度估计设计的开源 AI 模型，能够精准地将普通视频转化为包含丰富空间深度信息的 3D 数据。它主要解决了现有技术在处理不同长度、帧率视频时稳定性不足，以及高分辨率下细节丢失的难题。无论是游戏录屏、电影片段还是日常拍摄，DepthAnyVideo 都能生成空间精度更高、时间连贯性更强的深度图。\n\n该工具特别适合计算机视觉研究人员、开发者以及需要高质量 3D 素材的内容创作者使用。其核心亮点在于构建了一套可扩展的合成数据流水线，利用从多样游戏中采集的 4 万段视频剪辑进行训练，并巧妙结合了视频扩散模型的强大先验知识。技术上，它引入了旋转位置编码、流匹配机制及混合时长训练策略，使其能灵活适应各种视频规格。此外，创新的深度插值方法让模型在进行高分辨率推理时，依然能保持卓越的画质表现。目前，项目已提供便捷的在线演示和 API 接口，方便用户快速体验或集成到自己的工作流中。","# Depth Any Video with Scalable Synthetic Data\n\n**Depth Any Video** introduces a **scalable synthetic data** pipeline, capturing **40,000** video clips from diverse games, and leverages powerful priors of generative **video diffusion models** to advance video depth estimation. By incorporating rotary position encoding, flow matching, and a mixed-duration training strategy, it robustly handles **varying video lengths and frame rates**. Additionally, a novel depth interpolation method enables **high-resolution depth inference**, achieving superior spatial accuracy and temporal consistency over previous models.\n\nThis repository is the official implementation of the paper:\n\u003Cdiv align='center'>\n\n[**Depth Any Video with Scalable Synthetic Data**](http:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815)\n\n[*Honghui Yang**](https:\u002F\u002Fhhyangcs.github.io\u002F),\n[*Di Huang**](https:\u002F\u002Fdihuang.me\u002F),\n[*Wei Yin*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=ZIf_rtcAAAAJ),\n[*Chunhua Shen*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Ljk2BvIAAAAJ),\n[*Haifeng Liu*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oW108fUAAAAJ),\n[*Xiaofei He*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=QLLFowsAAAAJ),\n[*Binbin Lin+*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Zmvq4KYAAAAJ),\n[*Wanli Ouyang*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=pw_0Z_UAAAAJ),\n[*Tong He+*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=kWADCMUAAAAJ)\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2410.10815-b31b1b.svg'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fdepthanyvideo.github.io'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhhyangcs\u002Fdepth-any-video'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Freplicate.com\u002Fchenxwh\u002Fdepth-any-video'>\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNightmare-n_DepthAnyVideo_readme_7dacf1cc5d87.png'>\u003C\u002Fa> &nbsp;\n \n\u003C\u002Fdiv>\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNightmare-n_DepthAnyVideo_readme_d08cc84eeb7e.png)\n\n## News\n\n[2024-10-20] The Replicate Demo and API is added [here](https:\u002F\u002Freplicate.com\u002Fchenxwh\u002Fdepth-any-video).\n\n[2024-10-20] The Hugging Face online demo is live [here](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhhyangcs\u002Fdepth-any-video).\n\n[2024-10-15] The arXiv submission is available [here](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815).\n\n## Installation\n\nSetting up the environment with conda. With support for the app.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\ncd DepthAnyVideo\n\n# create env using conda\nconda create -n dav python==3.10\nconda activate dav\npip install -r requirements.txt\npip install gradio\n```\n\n## Inference\n- To run inference on an image, use the following command:\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Farch_2.jpg --output_dir .\u002Foutputs\u002F --max_resolution 2048\n```\n\n- To run inference on a video, use the following command:\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Fwooly_mammoth.mp4 --output_dir .\u002Foutputs\u002F --max_resolution 960\n```\n\n## Citation\n\nIf you find our work useful, please cite:\n\n```bibtex\n@article{yang2024depthanyvideo,\n  author    = {Honghui Yang and Di Huang and Wei Yin and Chunhua Shen and Haifeng Liu and Xiaofei He and Binbin Lin and Wanli Ouyang and Tong He},\n  title     = {Depth Any Video with Scalable Synthetic Data},\n  journal   = {arXiv preprint arXiv:2410.10815},\n  year      = {2024}\n}\n```\n","# 使用可扩展合成数据为任意视频生成深度图\n\n**Depth Any Video** 引入了一条 **可扩展的合成数据流水线**，从多样化的游戏中捕获了 **40,000** 个视频片段，并利用生成式 **视频扩散模型** 的强大先验知识来推进视频深度估计任务。通过结合旋转位置编码、流匹配以及混合时长训练策略，该方法能够稳健地处理 **不同长度和帧率的视频**。此外，一种新颖的深度插值方法实现了 **高分辨率深度推理**，在空间精度和时间一致性方面均优于现有模型。\n\n本仓库是论文的官方实现：\n\n\u003Cdiv align='center'>\n\n[**使用可扩展合成数据为任意视频生成深度图**](http:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815)\n\n[*Yang Honghui**](https:\u002F\u002Fhhyangcs.github.io\u002F)，\n[*Huang Di**](https:\u002F\u002Fdihuang.me\u002F)，\n[*Yin Wei*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=ZIf_rtcAAAAJ)，\n[*Shen Chunhua*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Ljk2BvIAAAAJ)，\n[*Liu Haifeng*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=oW108fUAAAAJ)，\n[*He Xiaofei*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=QLLFowsAAAAJ)，\n[*Lin Binbin+*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=Zmvq4KYAAAAJ)，\n[*Ouyang Wanli*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=pw_0Z_UAAAAJ)，\n[*He Tong+*](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=kWADCMUAAAAJ)\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2410.10815-b31b1b.svg'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fdepthanyvideo.github.io'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhhyangcs\u002Fdepth-any-video'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Demo-blue'>\u003C\u002Fa> &nbsp;\n\u003Ca href='https:\u002F\u002Freplicate.com\u002Fchenxwh\u002Fdepth-any-video'>\u003Cimg src='https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNightmare-n_DepthAnyVideo_readme_7dacf1cc5d87.png'>\u003C\u002Fa> &nbsp;\n \n\u003C\u002Fdiv>\n\n![teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNightmare-n_DepthAnyVideo_readme_d08cc84eeb7e.png)\n\n## 最新消息\n\n[2024-10-20] Replicate 演示及 API 已添加至 [这里](https:\u002F\u002Freplicate.com\u002Fchenxwh\u002Fdepth-any-video)。\n\n[2024-10-20] Hugging Face 在线演示现已上线 [这里](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fhhyangcs\u002Fdepth-any-video)。\n\n[2024-10-15] arXiv 论文已发布 [这里](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.10815)。\n\n## 安装\n\n使用 conda 设置环境，并支持应用程序运行：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\ncd DepthAnyVideo\n\n# 使用 conda 创建环境\nconda create -n dav python==3.10\nconda activate dav\npip install -r requirements.txt\npip install gradio\n```\n\n## 推理\n- 对图像进行推理时，使用以下命令：\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Farch_2.jpg --output_dir .\u002Foutputs\u002F --max_resolution 2048\n```\n\n- 对视频进行推理时，使用以下命令：\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Fwooly_mammoth.mp4 --output_dir .\u002Foutputs\u002F --max_resolution 960\n```\n\n## 引用\n如果您觉得我们的工作有所帮助，请引用：\n\n```bibtex\n@article{yang2024depthanyvideo,\n  author    = {Honghui Yang and Di Huang and Wei Yin and Chunhua Shen and Haifeng Liu and Xiaofei He and Binbin Lin and Wanli Ouyang and Tong He},\n  title     = {Depth Any Video with Scalable Synthetic Data},\n  journal   = {arXiv preprint arXiv:2410.10815},\n  year      = {2024}\n}\n```","# DepthAnyVideo 快速上手指南\n\nDepth Any Video 是一个先进的视频深度估计工具，利用可扩展的合成数据管道和视频扩散模型的强大先验，能够鲁棒地处理不同长度和帧率的视频，并支持高分辨率深度推理。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows (推荐 Linux)\n- **Python 版本**：3.10\n- **依赖管理**：Conda (推荐)\n- **硬件要求**：建议使用配备 CUDA 的 NVIDIA GPU 以获得最佳推理速度\n\n## 安装步骤\n\n1. **克隆项目代码**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\n   cd DepthAnyVideo\n   ```\n\n2. **创建并激活 Conda 环境**\n   ```bash\n   conda create -n dav python==3.10\n   conda activate dav\n   ```\n\n3. **安装依赖库**\n   > 提示：国内用户可使用清华或阿里镜像源加速 pip 安装。\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   pip install gradio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n## 基本使用\n\n安装完成后，即可通过命令行对图片或视频进行深度估计推理。结果将保存至指定的输出目录。\n\n### 1. 图片深度估计\n运行以下命令处理单张图片：\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Farch_2.jpg --output_dir .\u002Foutputs\u002F --max_resolution 2048\n```\n\n### 2. 视频深度估计\n运行以下命令处理视频文件：\n```bash\npython run_infer.py --data_path .\u002Fdemos\u002Fwooly_mammoth.mp4 --output_dir .\u002Foutputs\u002F --max_resolution 960\n```\n\n> **参数说明**：\n> - `--data_path`: 输入图片或视频的路径。\n> - `--output_dir`: 深度图结果的保存目录。\n> - `--max_resolution`: 推理时的最大分辨率限制（根据显存大小调整，视频建议设为 960 或更低以防显存溢出）。","某影视后期团队正在处理一段由游戏引擎渲染的长镜头特效素材，需要为其中的动态角色和复杂场景生成精确的深度图，以便进行电影级的景深模糊合成与 3D 重投影。\n\n### 没有 DepthAnyVideo 时\n- **帧率适配困难**：传统模型难以应对非标准帧率或超长视频，强制分段处理导致时间轴上的深度信息断裂，画面出现闪烁。\n- **分辨率受限**：现有工具在处理高分辨率素材时显存爆炸，被迫降低分辨率推理，导致生成的深度图边缘模糊，无法保留建筑纹理等细微结构。\n- **数据泛化差**：面对游戏渲染这种缺乏真实世界光照特征的“合成视频”，旧模型经常误判物体前后关系，产生大量噪点。\n- **人工修复成本高**：后期师需逐帧手动修补深度遮罩，耗时数天且难以保证全片的一致性。\n\n### 使用 DepthAnyVideo 后\n- **流畅时序一致**：凭借流匹配（Flow Matching）与旋转位置编码技术，DepthAnyVideo 直接原生支持可变时长与帧率，输出的深度视频在时间维度上平滑稳定，无闪烁伪影。\n- **高清细节还原**：利用新颖的深度插值方法，DepthAnyVideo 能在低显存占用下实现高分辨率推理，精准勾勒出游戏场景中复杂的几何轮廓。\n- **合成数据精通**：基于 4 万条多样化游戏视频训练的强大先验，DepthAnyVideo 对合成渲染画面理解深刻，即使在复杂光影下也能准确判断深度层次。\n- **流程自动化**：一键即可完成从原始素材到高质量深度图的转换，将原本数天的手工修图工作缩短至分钟级。\n\nDepthAnyVideo 通过可扩展的合成数据管线与先进的扩散模型先验，彻底解决了长视频、高分辨率及合成内容在深度估计中的时空一致性难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FNightmare-n_DepthAnyVideo_d08cc84e.png","Nightmare-n","Honghui Yang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FNightmare-n_10475ef2.png",null,"Zhejiang University","Shanghai","hhyangcs","hhyangcs.github.io","https:\u002F\u002Fgithub.com\u002FNightmare-n",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,511,29,"2026-04-01T14:16:27","NOASSERTION","未说明","未说明（基于视频扩散模型和高分辨率推理特性，推测需要支持 CUDA 的 NVIDIA GPU）",{"notes":96,"python":97,"dependencies":98},"建议使用 conda 创建名为'dav'的虚拟环境。该工具利用生成式视频扩散模型先验，支持不同长度和帧率的视频处理及高分辨率深度推断。具体依赖库版本需查看项目根目录下的 requirements.txt 文件，README 中未直接列出详细列表。","3.10",[99,100],"requirements.txt 中定义的依赖库","gradio",[35,14,37],"2026-03-27T02:49:30.150509","2026-04-06T05:35:57.928548",[105,110,115,120,125,130,135,140],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},17317,"运行模型时遇到 CUDA 显存不足（OutOfMemoryError）怎么办？","该模型基于 Stable Video Diffusion (SVD)，对显存要求极高。如果遇到显存溢出错误，建议采取以下措施降低显存占用：\n1. 减少 `num_frames`（帧数）。\n2. 减少 `num_interp_frames`（插值帧数）。\n3. 降低 `max_resolution`（最大分辨率）。\n4. 减小 `decode_chunk_size`（解码块大小）。\n5. 尝试使用完整的 fp16 精度模式。\n官方开发环境使用的是 A100 80G 显卡，普通消费级显卡（如 RTX 4090 24GB）可能需要大幅调整上述参数才能运行。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F9",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},17318,"模型输出的是视差图（disparity）还是深度图（depth）？如何转换？","在当前的实现中，模型实际输出的是视差图（disparity），尽管论文中提到了深度归一化。如果您需要将视差图转换为深度图，可以利用公式 Z = f * B \u002F d（其中 Z 为深度，f 为焦距，B 为基线距离，d 为视差）进行计算。具体的转换代码参考可查阅相关工具库（如 monoprior 的 depth_utils.py）。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F7",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},17319,"项目使用的数据集深度数据是绝对深度还是相对深度？","项目中从游戏引擎获取的深度数据是绝对深度（absolute depth），不需要额外的远平面和近平面参数进行转换。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F28",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},17320,"是否有微调（Fine-tuning）模型的代码或教程？","目前仓库未直接提供针对本项目数据的微调脚本。作者建议参考 Hugging Face Diffusers 库中的官方示例代码进行微调操作，地址为：https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers\u002Ftree\u002Fmain\u002Fexamples。如果您的私有数据场景分布与训练数据差异较大，可能需要根据具体情况进行适配。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F18",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},17321,"Hugging Face 上的在线演示（Demo）无法访问或报错怎么办？","如果 Demo 暂时无法使用，通常是因为空间成员资格过期导致的。维护者会定期续费以恢复服务。如果遇到此情况，请稍后再试或关注项目的更新通知。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F27",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},17322,"推理和训练所需的最低 GPU 配置是什么？","官方进行推理使用的是 A100 80G 显卡。由于模型基于 SVD，显存需求很大，即使在多张 24GB (RTX 4090) 或 48GB (L40s) 显卡上也可能无法直接运行。对于显存较小的用户，必须通过降低分辨率、帧数以及使用 fp16 精度等技巧（参见显存优化相关问题）来尝试运行。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F21",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},17323,"模型是否支持相机内参估计或动态相机的位姿估计？","不支持。该模型主要专注于视频深度估计，目前不具备输出相机内参（camera intrinsics）或处理动态相机位姿估计的功能。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F25",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},17324,"在哪里可以找到运行代码的具体指令和要求？","运行模型的详细指令和环境要求已提供在代码仓库的文档中。请查看仓库根目录下的 README 或相关文档文件。如果在按照说明操作时遇到具体问题，可以进一步反馈。","https:\u002F\u002Fgithub.com\u002FNightmare-n\u002FDepthAnyVideo\u002Fissues\u002F1",[]]