[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-anhttran--3dmm_cnn":3,"tool-anhttran--3dmm_cnn":64},[4,17,26,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,2,"2026-04-03T11:11:01",[13,14,15],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":23,"last_commit_at":32,"category_tags":33,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,34,35,36,15,37,38,13,39],"数据工具","视频","插件","其他","语言模型","音频",{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":10,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,38,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[38,14,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},2471,"tesseract","tesseract-ocr\u002Ftesseract","Tesseract 是一款历史悠久且备受推崇的开源光学字符识别（OCR）引擎，最初由惠普实验室开发，后由 Google 维护，目前由全球社区共同贡献。它的核心功能是将图片中的文字转化为可编辑、可搜索的文本数据，有效解决了从扫描件、照片或 PDF 文档中提取文字信息的难题，是数字化归档和信息自动化的重要基础工具。\n\n在技术层面，Tesseract 展现了强大的适应能力。从版本 4 开始，它引入了基于长短期记忆网络（LSTM）的神经网络 OCR 引擎，显著提升了行识别的准确率；同时，为了兼顾旧有需求，它依然支持传统的字符模式识别引擎。Tesseract 原生支持 UTF-8 编码，开箱即用即可识别超过 100 种语言，并兼容 PNG、JPEG、TIFF 等多种常见图像格式。输出方面，它灵活支持纯文本、hOCR、PDF、TSV 等多种格式，方便后续数据处理。\n\nTesseract 主要面向开发者、研究人员以及需要构建文档处理流程的企业用户。由于它本身是一个命令行工具和库（libtesseract），不包含图形用户界面（GUI），因此最适合具备一定编程能力的技术人员集成到自动化脚本或应用程序中",73286,"2026-04-03T01:56:45",[13,14],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":78,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":120,"github_topics":78,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":121,"updated_at":122,"faqs":123,"releases":163},3645,"anhttran\u002F3dmm_cnn","3dmm_cnn","Regressing Robust and Discriminative 3D Morphable Models with a very Deep Neural Network","3dmm_cnn 是一款基于深度神经网络的开源工具，旨在从单张二维人脸图像中直接重建高精度的三维人脸模型（包含形状与纹理）。它主要解决了传统三维人脸建模依赖昂贵迭代优化、计算速度慢且在复杂光照或姿态下鲁棒性不足的问题。\n\n该工具的核心亮点在于采用端到端的深度学习架构，无需繁琐的内层循环优化即可快速回归三维参数，显著提升了处理效率。其在无约束条件下（如 LFW、YTF 等权威基准测试）表现优异，生成的三维模型参数不仅稳健，还具备出色的判别力，能直接助力人脸识别任务达到接近最先进的性能水平。此外，项目还附带了基于关键点检测进行头部姿态与表情拟合的功能代码。\n\n3dmm_cnn 特别适合计算机视觉领域的研究人员、算法开发者以及对三维人脸重建有深度需求的技术团队使用。由于涉及 Caffe、Dlib、OpenCV 等底层库的配置与编译，且主要在 Linux 环境下运行，它要求使用者具备一定的编程基础和深度学习框架操作经验，不太适合零技术背景的普通用户直接上手。","Python code for 3D face modeling from single image using **[our very deep neural network](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)**\n===========\n**_New_: Please see our follow up project for [deep pose and 3D expression fitting](https:\u002F\u002Fgithub.com\u002Ffengju514\u002FExpression-Net).**\n\nThis page contains end-to-end demo code that estimates the 3D facial shape and texture directly from an unconstrained 2D face image. For a given input image, it produces a standard ply file of the face shape and texture. It accompanies the deep network described in our paper [1]. We also include demo code of pose and expression fitting from landmarks in this release. \n\nThis release is part of an on-going face recognition and modeling project. Please, see **[this page](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)** for updates and more data.\n\n![Teaser](http:\u002F\u002Fwww-bcf.usc.edu\u002F~iacopoma\u002Fimg\u002F3dmm_code_teaser.png)\n\n\n## Features\n* **End-to-End code** to be used for **3D shape and texture estimation** directly from image intensities\n* Designed and tested on **face images in unconstrained conditions**, including the challenging LFW, YTF and IJB-A benchmarks\n* The 3D face shape and texture parameters extracted using our network were **shown for the first time to be descriminative and robust**, providing near state of the art face recognition performance with 3DMM representations on these benchmarks\n* **No expensive, iterative optimization, inner loops** to regress the shape. 3DMM fitting is therefore extremely fast\n* Extra code for **head pose and expression estimation from detected facial landmarks**, with the use of the regressed 3D face model\n\n## Dependencies\n\n## Library requirements\n\n* [Dlib Python and C++ library](http:\u002F\u002Fdlib.net\u002F)\n* [OpenCV Python and C++ library](http:\u002F\u002Fopencv.org\u002F)\n* [Caffe](caffe.berkeleyvision.org) (**version 1.0.0-rc3 or above required**)\n* [Numpy](http:\u002F\u002Fwww.numpy.org\u002F)\n* [Python2.7](https:\u002F\u002Fwww.python.org\u002Fdownload\u002Freleases\u002F2.7\u002F)\n\nThe code has been tested on Linux only. On Linux you can rely on the default version of python, installing all the packages needed from the package manager or on Anaconda Python and install required packages through `conda`. A bit more effort is required to install caffé, dlib, and libhdf5.\n\n## Automatic Install of the Dependencies \nCheck this [useful script on the wiki](https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fwiki\u002FInstallation-Script) by [seva100](https:\u002F\u002Fgithub.com\u002Fseva100)\n\n## Data requirements\n\nBefore running the code, please, make sure to have all the required data in the following specific folder:\n- **[Download our CNN](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)** and move the CNN model (3 files: `3dmm_cnn_resnet_101.caffemodel`,`deploy_network.prototxt`,`mean.binaryproto`) into the `CNN` folder\n- **[Download the Basel Face Model](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002Findex.php?nav=1-2&id=downloads)** and move `01_MorphableModel.mat` into the `3DMM_model` folder\n- **[Acquire 3DDFA Expression Model](http:\u002F\u002Fwww.cbsr.ia.ac.cn\u002Fusers\u002Fxiangyuzhu\u002Fprojects\u002F3DDFA\u002FCode\u002F3DDFA.zip)**, run its code to generate `Model_Expression.mat` and move this file the `3DMM_model` folder\n- Go into `3DMM_model` folder. Run the script `python trimBaselFace.py`. This should output 2 files `BaselFaceModel_mod.mat` and `BaselFaceModel_mod.h5`.\n- **[Download dlib face prediction model](http:\u002F\u002Fdlib.net\u002Ffiles\u002Fshape_predictor_68_face_landmarks.dat.bz2)** and move the `.dat` file into the `dlib_model` folder.\n\n## Installation (pose & expression fitting code)\n\n- Install **cmake**: \n```\n\tapt-get install cmake\n```\n- Install **opencv** (2.4.6 or higher is recommended):\n```\n\t(http:\u002F\u002Fdocs.opencv.org\u002Fdoc\u002Ftutorials\u002Fintroduction\u002Flinux_install\u002Flinux_install.html)\n```\n- Install **libboost** (1.5 or higher is recommended):\n```\n\tapt-get install libboost-all-dev\n```\n- Install **OpenGL, freeglut, and glew**\n```\n\tsudo apt-get install freeglut3-dev\n\tsudo apt-get install libglew-dev\n```\n- Install **libhdf5-dev** library\n```\n\tsudo apt-get install libhdf5-dev\n```\n- Install **Dlib C++ library**. Dlib should be compiled to shared objects. Check the comments in its CMakeList.txt.\n```\n\t(http:\u002F\u002Fdlib.net\u002F)\n```\n- Update Dlib directory paths (`DLIB_INCLUDE_DIR` and `DLIB_LIB_DIR`) in `CMakeLists.txt`\n- Make build directory (temporary). Make & install to bin folder\n```\n\tmkdir build\n\tcd build\n\tcmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=..\u002Fbin ..\n\tmake\n\tmake install\n```\n  This code should generate `TestVisualization` in `bin` folder\n\n## Usage\n\n### 3DMM fitting on a set of input images\n\n* Go into `demoCode` folder. The demo script can be used from the command line with the following syntax:\n\n```bash\n$ Usage: python testBatchModel.py \u003CinputList> \u003CoutputDir> \u003CneedCrop> \u003CuseLM>\n```\n\nwhere the parameters are the following:\n- `\u003CinputList>` is a text file containing the paths to each of the input images, one in each line.\n- `\u003CoutputDir>` is the path to the output directory, where ply files are stored.\n- `\u003CneedCrop>` tells the demo if the images need cropping (1) or not (0). Default 1. If your input image size is equal (square) and has a CASIA-like [2] bounding box, you can set `\u003CneedCrop>` as 0. Otherwise, you have to set it as 1.\n- `\u003CuseLM>` is an option to refine the bounding box using detected landmarks (1) or not (0). Default 1.\n\nExample for `\u003CinputList>`:\n\u003Cpre>\ndata\u002F1.jpg\ndata\u002F2.jpg\n....\n\u003C\u002Fpre>\n\n* The demo code should produce an output similar to this:\n\n```bash\nuser@system:~\u002FDesktop\u002F3dmm_release$ python testBatchModel.py input.txt out\u002F\n> Prepare image data\u002F1.jpg:\n>     Number of faces detected: 1\n> Prepare image data\u002F2.jpg:\n>     Number of faces detected: 1\n> CNN Model loaded to regress 3D Shape and Texture!\n> Loaded the Basel Face Model to write the 3D output!\n> Processing image:  tmp_ims\u002F2.png   2.png   1\u002F2\n> Writing 3D file in:  out\u002F\u002F2.ply\n> Processing image:  tmp_ims\u002F1.png   1.png   2\u002F2\n> Writing 3D file in:  out\u002F\u002F1.ply\n\n```\n\nThe final 3D shape and texture can be displayed using standard off-the-shelf 3D (ply file) visualization software such as [MeshLab](http:\u002F\u002Fmeshlab.sourceforge.net). Using MeshLab, the output may be displayed as follows:\n\n`user@system:~\u002FDesktop\u002F3dmm_release$ meshlab out\u002F1.ply`\n\n`user@system:~\u002FDesktop\u002F3dmm_release$ meshlab out\u002F2.ply`\n\nwhich should produce something similar to:\n\n![Teaser](http:\u002F\u002Fwww-bcf.usc.edu\u002F~iacopoma\u002Fimg\u002Fmeshlab_disp.png)\n\n\n### 3D Face modeling + pose & expression estimation on a single input image\n\n* Go into `demoCode` folder. The demo script can be used from the command line with the following syntax:\n\n```bash\n$ Usage: python testModel_PoseExpr.py \u003CoutputDir> \u003Csave3D>\n```\n\nwhere the parameters are the following:\n- `\u003CoutputDir>` is the path to the output directory, where 3DMM (and ply) files are stored.\n- `\u003Csave3D>` is an option to save the ply file (1) or not (0). Default 1.\n\n* The program will pop up a dialog to select an input image. Then it will estimate 3DMM paramters (with the CNN model), estimate pose+expression and visualize the result (with C++ program)\n\nExample:\n```bash\nuser@system:~\u002FDesktop\u002F3dmm_release$ python testModel_PoseExpr.py out\u002F\n(Select `Anders_Fogh_Rasmussen_0004.jpg`)\n> Prepare image \u002Fhome\u002Fanh\u002FDownloads\u002FPoseExprFromLM-master\u002FdemoCode\u002Fdata\u002FAnders_Fogh_Rasmussen_0004.jpg:\n    Number of faces detected: 1\n> CNN Model loaded to regress 3D Shape and Texture!\n> Loaded the Basel Face Model to write the 3D output!\n*****************************************\n** Caffe loading    : 1.007 s\n** Image cropping   : 0.069 s\n** 3D Modeling      : 1.145 s\n*****************************************\n> Writing 3D file in:  out\u002FAnders_Fogh_Rasmussen_0004.ply\n> Pose & expression estimation\nload ..\u002F3DMM_model\u002FBaselFaceModel_mod.h5\n** Pose+expr fitting: 0.153 s\n** Visualization    : 0.052 s\n*****************************************\n```\n\nThe pop up window should look similar to:\n![Teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanhttran_3dmm_cnn_readme_292342e73437.png)\n\n\n\n## Citation\n\nIf you find this work useful, please cite our paper [1] with the following bibtex:\n\n```latex\n@inproceedings{tran2017regressing,\n  title={Regressing Robust and Discriminative 3D Morphable Models with a very Deep Neural Network},\n  author={Tran, Anh Tuan and Hassner, Tal and Masi, Iacopo and Medioni, Gerard},\n  booktitle={Computer Vision and Pattern Recognition (CVPR)},\n  year={2017}\n}\n```\n\n## Troubleshooting\n\n### Problem: Old Caffe Engine ###\n\n```C++\n\"F0210 10:49:17.604714 24046 net.cpp:797] Check failed:\ntarget_blobs.size() == source_layer.blobs_size() (5 vs. 3) Incompatible\nnumber of blobs for layer bn_conv1\"\n```\n\n### Solution: install caffe 1.0.0-rc3 or above. ###\nFor more info on caffe  verson please see https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe\u002Freleases\n\nTo check your caffe version from python:\n\n```python\nIn [3]: import caffe\nIn [4]: caffe.__version__\nOut[4]: '1.0.0-rc3'\n```\n\n## References\n\n[1] A. Tran, T. Hassner, I. Masi, G. Medioni, \"[Regressing Robust and Discriminative 3D Morphable Models with a very Deep Neural Network](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.04904)\", arxiv pre-print 2016 \n\n[2] Dong Yi, Zhen Lei, Shengcai Liao and Stan Z. Li, \"Learning Face Representation from Scratch\". arXiv preprint arXiv:1411.7923. 2014.\n\n## Changelog\n- Jan 2017, First Release \n\n## License and Disclaimer\nPlease, see [the LICENSE here](LICENSE.txt)\n\n## Contacts\n\nIf you have any questions, drop an email to _anhttran@usc.edu_ , _hassner@isi.edu_ and _iacopoma@usc.edu_  or leave a message below with GitHub (log-in is needed).\n","使用 **[我们的超深度神经网络](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)** 从单张图像进行 3D 面部建模的 Python 代码\n===========\n**_新_: 请参阅我们的后续项目，关于 [深度姿态与 3D 表情拟合](https:\u002F\u002Fgithub.com\u002Ffengju514\u002FExpression-Net)。**\n\n本页面包含端到端演示代码，可直接从无约束的 2D 面部图像中估计 3D 面部形状和纹理。对于给定的输入图像，它会生成一个标准的 PLY 格式文件，包含面部的形状和纹理信息。该代码配合我们论文 [1] 中描述的深度网络使用。在本次发布中，我们还包含了基于关键点的姿态和表情拟合的示例代码。\n\n此版本是持续进行的人脸识别与建模项目的一部分。有关更新和更多数据，请参阅 **[此页面](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)**。\n\n![预告图](http:\u002F\u002Fwww-bcf.usc.edu\u002F~iacopoma\u002Fimg\u002F3dmm_code_teaser.png)\n\n\n## 特性\n* **端到端代码**，可直接从图像像素值中用于 **3D 形状和纹理估计**\n* 专为 **无约束条件下的人脸图像** 设计并测试，包括具有挑战性的 LFW、YTF 和 IJB-A 基准数据集\n* 使用我们的网络提取的 3D 面部形状和纹理参数被 **首次证明具有判别性和鲁棒性**，在这些基准上采用 3DMM 表示法实现了接近最先进水平的人脸识别性能\n* **无需昂贵的迭代优化内循环** 来回归形状。因此，3DMM 拟合速度极快\n* 额外的代码可用于 **从检测到的面部关键点估计头部姿态和表情**，并利用回归得到的 3D 面部模型\n\n## 依赖项\n\n## 库要求\n\n* [Dlib Python 和 C++ 库](http:\u002F\u002Fdlib.net\u002F)\n* [OpenCV Python 和 C++ 库](http:\u002F\u002Fopencv.org\u002F)\n* [Caffe](caffe.berkeleyvision.org)（**需版本 1.0.0-rc3 或以上**）\n* [Numpy](http:\u002F\u002Fwww.numpy.org\u002F)\n* [Python 2.7](https:\u002F\u002Fwww.python.org\u002Fdownload\u002Freleases\u002F2.7\u002F)\n\n该代码仅在 Linux 系统上进行了测试。在 Linux 上，您可以使用默认的 Python 版本，并通过包管理器或 Anaconda Python 安装所有所需的软件包。而安装 Caffe、Dlib 和 libhdf5 则需要更多的工作量。\n\n## 自动安装依赖项\n请参考 [seva100](https:\u002F\u002Fgithub.com\u002Fseva100) 在 wiki 上提供的这个[实用脚本](https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fwiki\u002FInstallation-Script)。\n\n## 数据要求\n\n在运行代码之前，请确保所需的所有数据都位于以下指定文件夹中：\n- **[下载我们的 CNN](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM)**，并将 CNN 模型（3 个文件：`3dmm_cnn_resnet_101.caffemodel`、`deploy_network.prototxt`、`mean.binaryproto`）移动到 `CNN` 文件夹。\n- **[下载 Basel 面部模型](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002Findex.php?nav=1-2&id=downloads)**，将 `01_MorphableModel.mat` 移动到 `3DMM_model` 文件夹。\n- **[获取 3DDFA 表情模型](http:\u002F\u002Fwww.cbsr.ia.ac.cn\u002Fusers\u002Fxiangyuzhu\u002Fprojects\u002F3DDFA\u002FCode\u002F3DDFA.zip)**，运行其代码生成 `Model_Expression.mat`，并将其移动到 `3DMM_model` 文件夹。\n- 进入 `3DMM_model` 文件夹，运行脚本 `python trimBaselFace.py`。这将输出两个文件 `BaselFaceModel_mod.mat` 和 `BaselFaceModel_mod.h5`。\n- **[下载 Dlib 面部预测模型](http:\u002F\u002Fdlib.net\u002Ffiles\u002Fshape_predictor_68_face_landmarks.dat.bz2)**，将 `.dat` 文件移动到 `dlib_model` 文件夹。\n\n## 安装（姿态与表情拟合代码）\n\n- 安装 **cmake**：\n```\n\tapt-get install cmake\n```\n- 安装 **OpenCV**（建议 2.4.6 或更高版本）：\n```\n\t(http:\u002F\u002Fdocs.opencv.org\u002Fdoc\u002Ftutorials\u002Fintroduction\u002Flinux_install\u002Flinux_install.html)\n```\n- 安装 **libboost**（建议 1.5 或更高版本）：\n```\n\tapt-get install libboost-all-dev\n```\n- 安装 **OpenGL、freeglut 和 glew**：\n```\n\tsudo apt-get install freeglut3-dev\n\tsudo apt-get install libglew-dev\n```\n- 安装 **libhdf5-dev** 库：\n```\n\tsudo apt-get install libhdf5-dev\n```\n- 安装 **Dlib C++ 库**。Dlib 应编译为共享对象。请检查其 CMakeList.txt 中的注释。\n```\n\t(http:\u002F\u002Fdlib.net\u002F)\n```\n- 更新 `CMakeLists.txt` 中的 Dlib 目录路径（`DLIB_INCLUDE_DIR` 和 `DLIB_LIB_DIR`）。\n- 创建构建目录（临时）。编译并安装到 bin 文件夹：\n```\n\tmkdir build\n\tcd build\n\tcmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=..\u002Fbin ..\n\tmake\n\tmake install\n```\n这段代码应在 `bin` 文件夹中生成 `TestVisualization`。\n\n## 使用方法\n\n### 对一组输入图像进行 3DMM 拟合\n\n* 进入 `demoCode` 文件夹。演示脚本可通过命令行使用，语法如下：\n\n```bash\n$ 用法：python testBatchModel.py \u003CinputList> \u003CoutputDir> \u003CneedCrop> \u003CuseLM>\n```\n\n其中参数说明如下：\n- `\u003CinputList>` 是一个文本文件，每行包含一张输入图像的路径。\n- `\u003CoutputDir>` 是输出目录的路径，PLY 文件将存储于此。\n- `\u003CneedCrop>` 指示是否需要对图像进行裁剪（1）或不裁剪（0）。默认为 1。如果您的输入图像尺寸相等（正方形），且带有类似 CASIA 的 [2] 边界框，则可以将 `\u003CneedCrop>` 设置为 0。否则，必须设置为 1。\n- `\u003CuseLM>` 是一个选项，用于决定是否使用检测到的关键点来细化边界框（1）或不细化（0）。默认为 1。\n\n`\u003CinputList>` 示例：\n\u003Cpre>\ndata\u002F1.jpg\ndata\u002F2.jpg\n....\n\u003C\u002Fpre>\n\n* 演示代码应产生类似如下的输出：\n\n```bash\nuser@system:~\u002FDesktop\u002F3dmm_release$ python testBatchModel.py input.txt out\u002F\n> 准备图像 data\u002F1.jpg:\n>     检测到 1 张人脸\n> 准备图像 data\u002F2.jpg:\n>     检测到 1 张人脸\n> 加载 CNN 模型以回归 3D 形状和纹理！\n> 加载 Basel 面部模型以生成 3D 输出！\n> 处理图像：tmp_ims\u002F2.png   2.png   1\u002F2\n> 写入 3D 文件：out\u002F\u002F2.ply\n> 处理图像：tmp_ims\u002F1.png   1.png   2\u002F2\n> 写入 3D 文件：out\u002F\u002F1.ply\n\n```\n\n最终的 3D 形状和纹理可以使用标准的现成 3D（PLY 文件）可视化软件进行显示，例如 [MeshLab](http:\u002F\u002Fmeshlab.sourceforge.net)。使用 MeshLab，输出可能如下所示：\n\n`user@system:~\u002FDesktop\u002F3dmm_release$ meshlab out\u002F1.ply`\n\n`user@system:~\u002FDesktop\u002F3dmm_release$ meshlab out\u002F2.ply`\n\n这将产生类似以下的效果：\n\n![预告图](http:\u002F\u002Fwww-bcf.usc.edu\u002F~iacopoma\u002Fimg\u002Fmeshlab_disp.png)\n\n### 基于单张输入图像的3D人脸建模 + 姿态与表情估计\n\n* 进入 `demoCode` 文件夹。演示脚本可以通过命令行使用，语法如下：\n\n```bash\n$ 用法：python testModel_PoseExpr.py \u003CoutputDir> \u003Csave3D>\n```\n\n其中参数说明如下：\n- `\u003CoutputDir>` 是输出目录的路径，3DMM（以及 ply）文件将存储在此目录中。\n- `\u003Csave3D>` 是一个选项，用于决定是否保存 ply 文件（1 表示保存，0 表示不保存）。默认值为 1。\n\n* 程序会弹出一个对话框，用于选择输入图像。随后程序将利用 CNN 模型估计 3DMM 参数，并进一步估计姿态和表情，最后通过 C++ 程序可视化结果。\n\n示例：\n```bash\nuser@system:~\u002FDesktop\u002F3dmm_release$ python testModel_PoseExpr.py out\u002F\n(选择 `Anders_Fogh_Rasmussen_0004.jpg`)\n> 准备图像 \u002Fhome\u002Fanh\u002FDownloads\u002FPoseExprFromLM-master\u002FdemoCode\u002Fdata\u002FAnders_Fogh_Rasmussen_0004.jpg:\n    检测到的人脸数量：1\n> CNN 模型已加载，用于回归 3D 形状和纹理！\n> 巴塞尔人脸模型已加载，用于生成 3D 输出！\n*****************************************\n** Caffe 加载    : 1.007 秒\n** 图像裁剪   : 0.069 秒\n** 3D 建模      : 1.145 秒\n*****************************************\n> 正在写入 3D 文件：out\u002FAnders_Fogh_Rasmussen_0004.ply\n> 姿态与表情估计\n加载 ..\u002F3DMM_model\u002FBaselFaceModel_mod.h5\n** 姿态+表情拟合：0.153 秒\n** 可视化    ：0.052 秒\n*****************************************\n```\n\n弹出窗口应类似于以下所示：\n![Teaser](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanhttran_3dmm_cnn_readme_292342e73437.png)\n\n\n\n## 引用\n\n如果您觉得这项工作有用，请使用以下 BibTeX 格式引用我们的论文 [1]：\n\n```latex\n@inproceedings{tran2017regressing,\n  title={Regressing Robust and Discriminative 3D Morphable Models with a very Deep Neural Network},\n  author={Tran, Anh Tuan and Hassner, Tal and Masi, Iacopo and Medioni, Gerard},\n  booktitle={Computer Vision and Pattern Recognition (CVPR)},\n  year={2017}\n}\n```\n\n## 故障排除\n\n### 问题：旧版 Caffe 引擎 ###\n\n```C++\n\"F0210 10:49:17.604714 24046 net.cpp:797] Check failed:\ntarget_blobs.size() == source_layer.blobs_size() (5 vs. 3) 不兼容的 blob 数量，层为 bn_conv1\"\n```\n\n### 解决方案：安装 Caffe 1.0.0-rc3 或更高版本。 ###\n有关 Caffe 版本的更多信息，请参阅 https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe\u002Freleases\n\n从 Python 检查 Caffe 版本的方法如下：\n\n```python\nIn [3]: import caffe\nIn [4]: caffe.__version__\nOut[4]: '1.0.0-rc3'\n```\n\n## 参考文献\n\n[1] A. Tran, T. Hassner, I. Masi, G. Medioni, “[使用非常深的神经网络回归鲁棒且具有判别性的 3D 形变模型](https:\u002F\u002Farxiv.org\u002Fabs\u002F1612.04904)”，arXiv 预印本，2016 年\n\n[2] Dong Yi, Zhen Lei, Shengcai Liao 和 Stan Z. Li，“从零开始学习人脸表示”。arXiv 预印本 arXiv:1411.7923，2014 年。\n\n## 更改记录\n- 2017 年 1 月，首次发布\n\n## 许可与免责声明\n请参阅 [此处的 LICENSE](LICENSE.txt)\n\n## 联系方式\n\n如有任何问题，请发送邮件至 _anhttran@usc.edu_、_hassner@isi.edu_ 和 _iacopoma@usc.edu_，或在下方通过 GitHub 留言（需登录）。","# 3dmm_cnn 快速上手指南\n\n本工具基于深度神经网络，可从单张非受限人脸图像中直接估计 3D 面部形状和纹理，并输出标准的 PLY 文件。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：仅支持 Linux（已在 Ubuntu 等发行版测试通过）\n- **Python 版本**：Python 2.7\n\n### 前置依赖库\n请确保安装以下库：\n- [Dlib](http:\u002F\u002Fdlib.net\u002F) (Python 和 C++ 库)\n- [OpenCV](http:\u002F\u002Fopencv.org\u002F) (Python 和 C++ 库，建议 2.4.6+)\n- [Caffe](http:\u002F\u002Fcaffe.berkeleyvision.org\u002F) (**必须为 1.0.0-rc3 或更高版本**)\n- Numpy\n- CMake\n- Libboost (1.5+)\n- OpenGL, freeglut, glew\n- libhdf5-dev\n\n> **提示**：国内用户可使用清华源或阿里源加速 `apt` 和 `pip` 包的安装。Caffe 和 Dlib 的编译可能需要额外配置国内镜像。\n\n## 安装步骤\n\n### 1. 安装系统级依赖\n```bash\nsudo apt-get update\nsudo apt-get install cmake libboost-all-dev freeglut3-dev libglew-dev libhdf5-dev\n# 安装 OpenCV (若源中版本过低需手动编译)\nsudo apt-get install libopencv-dev python-opencv\n```\n\n### 2. 安装 Python 依赖与 Caffe\n建议使用 Anaconda 管理环境，或直接从源码编译 Caffe 以确保版本符合要求（>= 1.0.0-rc3）。\n```bash\n# 示例：使用 pip 安装基础库\npip install numpy\n# Caffe 需自行编译安装，请参考官方文档或社区提供的预编译包\n```\n\n### 3. 下载模型与数据文件\n在项目根目录下创建相应文件夹，并下载以下文件放入指定位置：\n\n- **CNN 模型** ([下载地址](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002FCNN3DMM))\n  - 将 `3dmm_cnn_resnet_101.caffemodel`, `deploy_network.prototxt`, `mean.binaryproto` 放入 `CNN\u002F` 文件夹。\n  \n- **Basel Face Model** ([下载地址](https:\u002F\u002Ffaces.dmi.unibas.ch\u002Fbfm\u002F))\n  - 将 `01_MorphableModel.mat` 放入 `3DMM_model\u002F` 文件夹。\n  - 进入该目录运行预处理脚本：\n    ```bash\n    cd 3DMM_model\n    python trimBaselFace.py\n    # 生成 BaselFaceModel_mod.mat 和 BaselFaceModel_mod.h5\n    ```\n\n- **3DDFA 表情模型** ([下载地址](http:\u002F\u002Fwww.cbsr.ia.ac.cn\u002Fusers\u002Fxiangyuzhu\u002Fprojects\u002F3DDFA\u002FCode\u002F3DDFA.zip))\n  - 运行其代码生成 `Model_Expression.mat`，并将其移至 `3DMM_model\u002F` 文件夹。\n\n- **Dlib 人脸关键点模型** ([下载地址](http:\u002F\u002Fdlib.net\u002Ffiles\u002Fshape_predictor_68_face_landmarks.dat.bz2))\n  - 解压后将 `.dat` 文件放入 `dlib_model\u002F` 文件夹。\n\n### 4. 编译姿态与表情拟合模块 (可选但推荐)\n若需使用姿态和表情估计功能，需编译 C++ 部分：\n```bash\n# 修改 CMakeLists.txt 中的 DLIB_INCLUDE_DIR 和 DLIB_LIB_DIR 路径\nmkdir build\ncd build\ncmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=..\u002Fbin ..\nmake\nmake install\n# 编译成功后，bin 文件夹下应生成 TestVisualization\n```\n\n## 基本使用\n\n### 场景一：批量处理图像生成 3D 模型\n此模式适合从一组图片中快速提取 3D 形状和纹理。\n\n1. 创建一个文本文件（如 `input.txt`），每行包含一张输入图片的路径：\n   ```text\n   data\u002F1.jpg\n   data\u002F2.jpg\n   ```\n\n2. 进入 `demoCode` 目录并运行脚本：\n   ```bash\n   cd demoCode\n   python testBatchModel.py \u003CinputList> \u003CoutputDir> \u003CneedCrop> \u003CuseLM>\n   ```\n   \n   **参数说明**：\n   - `\u003CinputList>`: 图片路径列表文件 (如 `input.txt`)\n   - `\u003CoutputDir>`: 输出目录 (生成的 .ply 文件将存于此)\n   - `\u003CneedCrop>`: 是否需要裁剪 (1=是, 0=否)。若图片已是正方形且包含类似 CASIA 的边界框，设为 0；否则设为 1。\n   - `\u003CuseLM>`: 是否利用检测到的关键点优化边界框 (1=是, 0=否)。\n\n   **示例命令**：\n   ```bash\n   python testBatchModel.py input.txt out\u002F 1 1\n   ```\n\n3. 查看结果：\n   生成的 `.ply` 文件可使用 [MeshLab](http:\u002F\u002Fmeshlab.sourceforge.net\u002F) 查看：\n   ```bash\n   meshlab out\u002F1.ply\n   ```\n\n### 场景二：单图处理并可视化姿态与表情\n此模式会弹出窗口选择图片，实时估计 3D 参数、姿态和表情，并调用 C++ 程序进行可视化。\n\n1. 进入 `demoCode` 目录运行：\n   ```bash\n   python testModel_PoseExpr.py \u003CoutputDir> \u003Csave3D>\n   ```\n   \n   **参数说明**：\n   - `\u003CoutputDir>`: 输出目录。\n   - `\u003Csave3D>`: 是否保存 ply 文件 (1=保存, 0=不保存)。\n\n   **示例命令**：\n   ```bash\n   python testModel_PoseExpr.py out\u002F 1\n   ```\n   *运行后会弹出文件选择框，选择图片后程序将自动处理并显示结果窗口。*","某安防科技公司的算法团队正在开发一套基于单张监控截图的嫌疑人三维重建系统，旨在为刑侦分析提供可多角度旋转观察的高精度人脸模型。\n\n### 没有 3dmm_cnn 时\n- **重建流程繁琐缓慢**：传统方法依赖昂贵的迭代优化和内层循环来回归面部形状，处理单张图片往往需要数分钟，无法满足实时或批量分析需求。\n- **复杂环境适应性差**：在监控常见的非受控场景（如侧脸、光照不均、低分辨率）下，现有模型极易失效，难以提取鲁棒的三维特征。\n- **识别区分度不足**：生成的三维形态模型（3DMM）参数缺乏判别力，导致不同人员的面部特征混淆，无法直接用于高精度的身份比对。\n- **纹理与形状分离处理**：通常需要分步估算几何形状和表面纹理，流程割裂且容易累积误差，导致最终模型细节丢失严重。\n\n### 使用 3dmm_cnn 后\n- **端到端极速推理**：利用 3dmm_cnn 的超深神经网络架构，直接从图像像素端到端输出三维形状和纹理，无需迭代优化，将单图处理时间缩短至毫秒级。\n- **无约束场景高鲁棒性**：该工具专为 LFW、YTF 等挑战性基准设计，即使在侧姿、遮挡或光照复杂的监控截图中，也能稳定回归出准确的面部参数。\n- **特征判别力显著提升**：提取的 3DMM 参数被证实具有极强的区分度，可直接支撑接近最先进水平的人脸识别性能，大幅降低误识率。\n- **一体化高精度输出**：输入一张二维图片即可直接生成包含完整几何与纹理信息的标准 PLY 文件，并附带头部姿态与表情估计，数据完整性极大提升。\n\n3dmm_cnn 通过深度学习将原本耗时且脆弱的三维人脸重建过程，转化为在非受控环境下依然快速、精准且具备高识别价值的自动化流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fanhttran_3dmm_cnn_5b4a1b30.png","anhttran","Anh Tran","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fanhttran_bf664b99.png",null,"https:\u002F\u002Fgithub.com\u002Fanhttran",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",65.7,{"name":86,"color":87,"percentage":88},"Python","#3572A5",10.7,{"name":90,"color":91,"percentage":92},"Makefile","#427819",10.1,{"name":94,"color":95,"percentage":96},"CMake","#DA3434",8.1,{"name":98,"color":99,"percentage":100},"C","#555555",5.4,869,251,"2026-02-11T03:52:52","NOASSERTION",5,"Linux","未说明 (依赖 Caffe 框架，通常建议 NVIDIA GPU，但 README 未明确指定型号或显存)","未说明",{"notes":110,"python":111,"dependencies":112},"该工具仅在 Linux 上经过测试。需要手动下载多个外部模型文件（包括 CNN 模型、Basel 人脸模型、3DDFA 表情模型和 Dlib 预测模型）并放置到指定目录。姿态和表情拟合功能需要编译 C++ 代码。若遇到 Caffe 版本错误，需确保安装 1.0.0-rc3 或更高版本。","2.7",[113,114,115,116,94,117,118,119],"Caffe>=1.0.0-rc3","Dlib (Python & C++)","OpenCV (Python & C++, >=2.4.6)","Numpy","Libboost (>=1.5)","Libhdf5-dev","OpenGL\u002FFreeGLUT\u002FGLEW",[14,37],"2026-03-27T02:49:30.150509","2026-04-06T06:53:15.525535",[124,129,134,139,144,149,154,158],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},16698,"如何下载预训练模型文件（.caffemodel, .prototxt 等）？","Caffe 模型可以通过以下 Google Drive 链接下载：https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0BzkHndh8dgoATDZ5TnVRQk5qSkU。如果您无法使用 Caffe，作者也提供了 PyTorch 版本的模型，请参考另一个仓库的说明：https:\u002F\u002Fgithub.com\u002Fanhttran\u002Fextreme_3d_faces#data-requirements。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F29",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},16699,"编译时遇到错误 'Rodrigues' is not a member of 'cv' 如何解决？","这是因为 OpenCV 版本差异导致的。解决方法是在报错的源文件（如 BaselFaceEstimator.cpp）顶部添加头文件引用：`#include \u003Copencv2\u002Fcalib3d.hpp>`。该函数在 OpenCV 3.x 中位于 calib3d 模块，而非旧的 cv 命名空间直接包含。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F21",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},16700,"项目依赖的 OpenCV 版本是多少？","该项目主要使用 OpenCV 2。如果使用 OpenCV 3 或更高版本，代码需要进行相应修改（例如头文件路径和命名空间的变化）。维护者建议在使用不同版本时注意兼容性调整。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F43",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},16701,"如何训练自己的模型以及标签（Label）是如何定义的？","标签生成方法如下：对每张 CASIA 图像使用传统方法估计 3DMM 参数（浮点数，范围 [-3, 3]），然后计算同一主体所有图像参数的加权平均值，形成 198 维的真实标签（ground-truth label）。训练时，使用一个 LMDB 存储图像，另一个 LMDB 存储对应的标签。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F13",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16702,"编译时出现找不到 '\u002Fhome\u002Fanh\u002F...' 路径或 dlib 库的错误怎么办？","这通常是因为 CMakeLists.txt 中硬编码了作者本地的绝对路径。您需要修改 CMakeLists.txt 文件，将路径指向您本地实际安装的 dlib 库位置。修改后，务必重新运行 `cmake` 命令生成新的构建文件，然后再执行 `make`。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F23",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},16703,"输入网络的数据格式和数值范围是什么？","虽然具体预处理可能因实现而异，但根据社区讨论，通常需要将输入数据调整为模型期望的格式。如果您使用 Caffe 接口，需确保 Blob 数据类型匹配（如 float）。关于具体的归一化范围（0~1, 0~255 或 -1~1），建议参考模型训练时的预处理逻辑，通常人脸深度学习模型常用 0~1 或均值减法处理。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F7",{"id":155,"question_zh":156,"answer_zh":157,"source_url":138},16704,"是否有适用于 Ubuntu 16.04 的快速安装脚本或环境配置建议？","社区用户分享了在干净 Ubuntu 16.04 + CUDA 9.2 + Conda 环境下的安装流程：1. 创建 Python 2.7 的 conda 环境；2. 安装 CUDA；3. 运行社区编写的 install.sh 脚本安装依赖。注意：由于 OpenCV 版本冲突问题，运行姿态和表情估计脚本时可能需要额外调整 OpenCV 配置。",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},16705,"无法访问模型下载链接（ERR_EMPTY_RESPONSE）怎么办？","这通常是网络连接问题或链接重定向失效导致的。建议检查网络连接，或者尝试通过邮件联系项目维护者获取最新的直接下载链接。部分用户反馈稍后重试或更换网络环境即可解决。","https:\u002F\u002Fgithub.com\u002Fanhttran\u002F3dmm_cnn\u002Fissues\u002F26",[]]