[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-One-2-3-45--One-2-3-45":3,"tool-One-2-3-45--One-2-3-45":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":68,"owner_name":76,"owner_avatar_url":77,"owner_bio":76,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":29,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":106,"github_topics":107,"view_count":10,"oss_zip_url":76,"oss_zip_packed_at":76,"status":22,"created_at":116,"updated_at":117,"faqs":118,"releases":159},2256,"One-2-3-45\u002FOne-2-3-45","One-2-3-45","[NeurIPS 2023] Official code of \"One-2-3-45: Any Single Image to 3D Mesh in 45 Seconds without Per-Shape Optimization\"","One-2-3-45 是一款革命性的开源 AI 工具，专注于将单张二维图片快速转化为高质量的三维网格模型。它主要解决了传统 3D 生成方法依赖耗时的“逐形状优化”过程、导致生成速度慢且难以实用的痛点。借助该工具，用户无需漫长的等待，仅需约 45 秒即可完成从图片到 3D 模型的构建。\n\n这项技术的核心亮点在于其提出的“仅前向推理”（forward-only）新范式。它巧妙地复用现有的 2D 扩散模型能力，摒弃了繁琐的迭代优化步骤，从而在保持生成质量的同时实现了速度的飞跃。作为 NeurIPS 2023 的接收论文成果，One-2-3-45 代表了 3D 内容生成领域的重要进展。\n\n该工具非常适合多类人群使用：游戏开发者与影视设计师可利用它快速原型化资产；研究人员能基于其开源代码探索 3D AIGC 的新方向；而普通创作者也能通过其在线演示版，轻松将创意草图变为立体的数字模型。目前项目已开放完整的训练与推理代码，并提供了便捷的 Docker 部署方案，降低了技术门槛，让高效的 3D 创作触手可及。","\u003Cp align=\"center\" width=\"100%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOne-2-3-45_One-2-3-45_readme_6473335ed54a.png\"  width=\"80%\" height=\"80%\">\n\u003C\u002Fp>\n\n\n\u003Cp align=\"center\">\n  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16928.pdf\">\u003Cstrong>Paper\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"http:\u002F\u002Fone-2-3-45.com\">\u003Cstrong>Project\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\">\u003Cstrong>Demo\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"#citation\">\u003Cstrong>BibTeX\u003C\u002Fstrong>\u003C\u002Fa>]\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\">\n    \u003Cimg alt=\"Hugging Face Spaces\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Space_of_the_Week_%F0%9F%94%A5-blue\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\nOne-2-3-45 rethinks how to leverage 2D diffusion models for 3D AIGC and introduces a novel forward-only paradigm that avoids time-consuming optimization.\n\nhttps:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fassets\u002F16759292\u002Fa81d6e32-8d29-43a5-b044-b5112b9f9664\n\n\n\nhttps:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fassets\u002F16759292\u002F5ecd45ef-8fd3-4643-af4c-fac3050a0428\n\n\n## News\n**[11\u002F14\u002F2023]**\nCheck out our new work [One-2-3-45++](https:\u002F\u002Fsudo-ai-3d.github.io\u002FOne2345plus_page\u002F)!\n\n**[10\u002F25\u002F2023]**\nWe released [rendering scripts](render\u002F) for evaluation and [APIs](https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45#apis) for effortless inference.\n\n**[09\u002F21\u002F2023]**\nOne-2-3-45 is accepted by NeurIPS 2023. See you in New Orleans!\n\n**[09\u002F11\u002F2023]**\nTraining code released.\n\n**[08\u002F18\u002F2023]**\nInference code released.\n\n**[07\u002F24\u002F2023]**\nOur demo reached the HuggingFace top 4 trending and was featured in 🤗 Spaces of the Week 🔥! Special thanks to HuggingFace 🤗 for sponsoring this demo!!\n\n**[07\u002F11\u002F2023]**\n[Online interactive demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45) released! Explore it and create your own 3D models in just 45 seconds! \n\n**[06\u002F29\u002F2023]**\nCheck out our [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16928.pdf). [[X](https:\u002F\u002Ftwitter.com\u002F_akhaliq\u002Fstatus\u002F1674617785119305728)]\n\n## Installation\nHardware requirement: an NVIDIA GPU with memory >=18GB (_e.g._, RTX 3090 or A10). Tested on Ubuntu.\n\nWe offer two ways to set up the environment:\n\n### Traditional Installation\n\u003Cdetails>\n\u003Csummary>Step 1: Install Debian packages. \u003C\u002Fsummary> \n\n```bash\nsudo apt update && sudo apt install git-lfs libsparsehash-dev build-essential\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Step 2: Create and activate a conda environment. \u003C\u002Fsummary>\n\n```bash\nconda create -n One2345 python=3.10\nconda activate One2345\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Step 3: Clone the repository to the local machine. \u003C\u002Fsummary>\n\n```bash\n# Make sure you have git-lfs installed.\ngit lfs install\ngit clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\ncd One-2-3-45\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Step 4: Install project dependencies using pip. \u003C\u002Fsummary>\n\n```bash\n# Ensure that the installed CUDA version matches the torch's CUDA version.\n# Example: CUDA 11.8 installation\nwget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F11.8.0\u002Flocal_installers\u002Fcuda_11.8.0_520.61.05_linux.run\nsudo sh cuda_11.8.0_520.61.05_linux.run\nexport PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Fbin:$PATH\"\nexport LD_LIBRARY_PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Flib64:$LD_LIBRARY_PATH\"\n# Install PyTorch 2.0.1\npip install --no-cache-dir torch==2.0.1 torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n# Install dependencies\npip install -r requirements.txt\n# Install inplace_abn and torchsparse\nexport TORCH_CUDA_ARCH_LIST=\"7.0;7.2;8.0;8.6+PTX\" # CUDA architectures. Modify according to your hardware.\nexport IABN_FORCE_CUDA=1\npip install inplace_abn\nFORCE_CUDA=1 pip install --no-cache-dir git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git@v1.4.0\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Step 5: Download model checkpoints. \u003C\u002Fsummary>\n\n```bash\npython download_ckpt.py\n```\n\u003C\u002Fdetails>\n\n\n### Installation by Docker Images\n\u003Cdetails>\n\u003Csummary>Option 1: Pull and Play (environment and checkpoints). (~22.3G)\u003C\u002Fsummary> \n\n```bash\n# Pull the Docker image that contains the full repository.\ndocker pull chaoxu98\u002Fone2345:demo_1.0\n# An interactive demo will be launched automatically upon running the container.\n# This will provide a public URL like XXXXXXX.gradio.live\ndocker run --name One-2-3-45_demo --gpus all -it chaoxu98\u002Fone2345:demo_1.0\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Option 2: Environment Only. (~7.3G)\u003C\u002Fsummary> \n\n```bash\n# Pull the Docker image that installed all project dependencies.\ndocker pull chaoxu98\u002Fone2345:1.0\n# Start a Docker container named One2345.\ndocker run --name One-2-3-45 --gpus all -it chaoxu98\u002Fone2345:1.0\n# Get a bash shell in the container.\ndocker exec -it One-2-3-45 \u002Fbin\u002Fbash\n# Clone the repository to the local machine.\ngit clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\ncd One-2-3-45\n# Download model checkpoints. \npython download_ckpt.py\n# Refer to getting started for inference.\n```\n\u003C\u002Fdetails>\n\n## Getting Started (Inference)\n\nFirst-time running will take a longer time to compile the models.\n\nExpected time cost per image: 40s on an NVIDIA A6000.\n```bash\n# 1. Script\npython run.py --img_path PATH_TO_INPUT_IMG --half_precision\n\n# 2. Interactive demo (Gradio) with a friendly web interface\n#    A URL will be provided in the output \n#    (Local: 127.0.0.1:7860; Public: XXXXXXX.gradio.live)\ncd demo\u002F\npython app.py\n\n# 3. Jupyter Notebook\nexample.ipynb\n```\n\n\n## APIs\n\nWe provide handy Gradio APIs for our pipeline and its components, making it effortless to accurately preprocess in-the-wild or text-generated images and reconstruct 3D meshes from them.\n\n\u003Cdetails>\n\u003Csummary>To begin, initialize the Gradio Client with the API URL.\u003C\u002Fsummary>\n\n```python\nfrom gradio_client import Client\nclient = Client(\"https:\u002F\u002Fone-2-3-45-one-2-3-45.hf.space\u002F\")\n# example input image\ninput_img_path = \"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\u002Fresolve\u002Fmain\u002Fdemo_examples\u002F01_wild_hydrant.png\"\n```\n\u003C\u002Fdetails>\n\n### Single image to 3D mesh\n```python\ngenerated_mesh_filepath = client.predict(\n\tinput_img_path,\t\n\tTrue,\t\t# image preprocessing\n\tapi_name=\"\u002Fgenerate_mesh\"\n)\n```\n### Elevation estimation \n\nIf the input image's pose (elevation) is unknown, this off-the-shelf algorithm is all you need!\n\n```python\nelevation_angle_deg = client.predict(\n\tinput_img_path,\n\tTrue,\t\t# image preprocessing\n\tapi_name=\"\u002Festimate_elevation\"\n)\n```\n\n### Image preprocessing: segment, rescale, and recenter\n\nWe adapt the Segment Anything model (SAM) for background removal.\n\n```python\nsegmented_img_filepath = client.predict(\n\tinput_img_path,\t\n\tapi_name=\"\u002Fpreprocess\"\n)\n```\n\n\n\n## Training Your Own Model\n\n### Data Preparation\nWe use the Objaverse-LVIS dataset for training and render the selected shapes (with a CC-BY license) into 2D images with Blender. \n#### Download the training images.\nDownload all One2345.zip.part-* files (5 files in total) from \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOne-2-3-45\u002Ftraining_data\u002Ftree\u002Fmain\">here\u003C\u002Fa> and then cat them into a single .zip file using the following command:\n```bash\ncat One2345.zip.part-* > One2345.zip\n```\n\n#### Unzip the training images zip file.\nUnzip the zip file into a folder specified by yourself (`YOUR_BASE_FOLDER`) with the following command:\n\n```bash\nunzip One2345.zip -d YOUR_BASE_FOLDER\n```\n\n#### Download meta files.\n\nDownload `One2345_training_pose.json` and `lvis_split_cc_by.json` from \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOne-2-3-45\u002Ftraining_data\u002Ftree\u002Fmain\">here\u003C\u002Fa> and put them into the same folder as the training images (`YOUR_BASE_FOLDER`).\n\nYour file structure should look like this:\n```\n# One2345 is your base folder used in the previous steps\n\nOne2345\n├── One2345_training_pose.json\n├── lvis_split_cc_by.json\n└── zero12345_narrow\n    ├── 000-000\n    ├── 000-001\n    ├── 000-002\n    ...\n    └── 000-159\n    \n```\n\n### Training\nSpecify the `trainpath`, `valpath`, and `testpath` in the config file `.\u002Freconstruction\u002Fconfs\u002Fone2345_lod_train.conf` to be `YOUR_BASE_FOLDER` used in data preparation steps and run the following command:\n```bash\ncd reconstruction\npython exp_runner_generic_blender_train.py --mode train --conf confs\u002Fone2345_lod_train.conf\n```\nExperiment logs and checkpoints will be saved in `.\u002Freconstruction\u002Fexp\u002F`.\n\n## Related Work\n[\\[One-2-3-45++\\]](https:\u002F\u002Fsudo-ai-3d.github.io\u002FOne2345plus_page\u002F)\n\n[\\[Zero123++\\]](https:\u002F\u002Fgithub.com\u002FSUDO-AI-3D\u002Fzero123plus)\n\n[\\[Zero123\\]](https:\u002F\u002Fgithub.com\u002Fcvlab-columbia\u002Fzero123)\n\n## Citation\n\nIf you find our code helpful, please cite our paper:\n\n```\n@article{liu2023one2345,\n  title={One-2-3-45: Any single image to 3d mesh in 45 seconds without per-shape optimization},\n  author={Liu, Minghua and Xu, Chao and Jin, Haian and Chen, Linghao and Varma T, Mukund and Xu, Zexiang and Su, Hao},\n  journal={Advances in Neural Information Processing Systems},\n  volume={36},\n  year={2024}\n}\n```\n","\u003Cp align=\"center\" width=\"100%\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOne-2-3-45_One-2-3-45_readme_6473335ed54a.png\"  width=\"80%\" height=\"80%\">\n\u003C\u002Fp>\n\n\n\u003Cp align=\"center\">\n  [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16928.pdf\">\u003Cstrong>论文\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"http:\u002F\u002Fone-2-3-45.com\">\u003Cstrong>项目\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\">\u003Cstrong>演示\u003C\u002Fstrong>\u003C\u002Fa>]\n  [\u003Ca href=\"#citation\">\u003Cstrong>BibTeX\u003C\u002Fstrong>\u003C\u002Fa>]\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\">\n    \u003Cimg alt=\"Hugging Face Spaces\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Space_of_the_Week_%F0%9F%94%A5-blue\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\nOne-2-3-45 重新思考了如何利用 2D 扩散模型进行 3D AIGC，并提出了一种新颖的单向范式，避免了耗时的优化过程。\n\nhttps:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fassets\u002F16759292\u002Fa81d6e32-8d29-43a5-b044-b5112b9f9664\n\n\n\nhttps:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fassets\u002F16759292\u002F5ecd45ef-8fd3-4643-af4c-fac3050a0428\n\n\n## 新闻\n**[2023年11月14日]**\n请查看我们的新作 [One-2-3-45++]（https:\u002F\u002Fsudo-ai-3d.github.io\u002FOne2345plus_page\u002F）！\n\n**[2023年10月25日]**\n我们发布了用于评估的 [渲染脚本](render\u002F) 和用于轻松推理的 [API](https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45#apis)。\n\n**[2023年9月21日]**\nOne-2-3-45 被 NeurIPS 2023 接收。新奥尔良见！\n\n**[2023年9月11日]**\n训练代码已发布。\n\n**[2023年8月18日]**\n推理代码已发布。\n\n**[2023年7月24日]**\n我们的演示在 HuggingFace 热门榜上进入前四，并被选为本周 🤗 Spaces 🔥！特别感谢 HuggingFace 🤗 对本次演示的支持！！\n\n**[2023年7月11日]**\n[在线交互式演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45) 已发布！只需 45 秒即可探索并创建属于你的 3D 模型！\n\n**[2023年6月29日]**\n请查看我们的 [论文](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.16928.pdf)。[[X](https:\u002F\u002Ftwitter.com\u002F_akhaliq\u002Fstatus\u002F1674617785119305728)]\n\n## 安装\n硬件要求：配备 ≥18GB 显存的 NVIDIA GPU（例如 RTX 3090 或 A10）。已在 Ubuntu 上测试通过。\n\n我们提供两种环境搭建方式：\n\n### 传统安装\n\u003Cdetails>\n\u003Csummary>步骤 1：安装 Debian 包。\u003C\u002Fsummary> \n\n```bash\nsudo apt update && sudo apt install git-lfs libsparsehash-dev build-essential\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>步骤 2：创建并激活 Conda 环境。\u003C\u002Fsummary>\n\n```bash\nconda create -n One2345 python=3.10\nconda activate One2345\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>步骤 3：将仓库克隆到本地机器。\u003C\u002Fsummary>\n\n```bash\n# 确保已安装 git-lfs。\ngit lfs install\ngit clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\ncd One-2-3-45\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>步骤 4：使用 pip 安装项目依赖项。\u003C\u002Fsummary>\n\n```bash\n# 确保安装的 CUDA 版本与 PyTorch 的 CUDA 版本一致。\n# 示例：安装 CUDA 11.8\nwget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F11.8.0\u002Flocal_installers\u002Fcuda_11.8.0_520.61.05_linux.run\nsudo sh cuda_11.8.0_520.61.05_linux.run\nexport PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Fbin:$PATH\"\nexport LD_LIBRARY_PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Flib64:$LD_LIBRARY_PATH\"\n# 安装 PyTorch 2.0.1\npip install --no-cache-dir torch==2.0.1 torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n# 安装依赖项\npip install -r requirements.txt\n# 安装 inplace_abn 和 torchsparse\nexport TORCH_CUDA_ARCH_LIST=\"7.0;7.2;8.0;8.6+PTX\" # CUDA 架构。根据你的硬件调整。\nexport IABN_FORCE_CUDA=1\npip install inplace_abn\nFORCE_CUDA=1 pip install --no-cache-dir git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git@v1.4.0\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>步骤 5：下载模型检查点。\u003C\u002Fsummary>\n\n```bash\npython download_ckpt.py\n```\n\u003C\u002Fdetails>\n\n\n### 使用 Docker 镜像安装\n\u003Cdetails>\n\u003Csummary>选项 1：拉取即用（环境和检查点）。（约 22.3G）\u003C\u002Fsummary> \n\n```bash\n# 拉取包含完整仓库的 Docker 镜像。\ndocker pull chaoxu98\u002Fone2345:demo_1.0\n# 运行容器后会自动启动交互式演示。\n# 将提供一个类似 XXXXXXX.gradio.live 的公共 URL。\ndocker run --name One-2-3-45_demo --gpus all -it chaoxu98\u002Fone2345:demo_1.0\n```\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>选项 2：仅环境。（约 7.3G）\u003C\u002Fsummary> \n\n```bash\n# 拉取已安装所有项目依赖项的 Docker 镜像。\ndocker pull chaoxu98\u002Fone2345:1.0\n# 启动名为 One2345 的 Docker 容器。\ndocker run --name One-2-3-45 --gpus all -it chaoxu98\u002Fone2345:1.0\n# 进入容器中的 bash shell。\ndocker exec -it One-2-3-45 \u002Fbin\u002Fbash\n# 将仓库克隆到本地。\ngit clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\ncd One-2-3-45\n# 下载模型检查点。\npython download_ckpt.py\n# 参阅入门部分以进行推理。\n```\n\u003C\u002Fdetails>\n\n## 入门（推理）\n\n首次运行时，编译模型需要较长时间。\n\n预计每张图像所需时间：在 NVIDIA A6000 上约为 40 秒。\n```bash\n# 1. 脚本\npython run.py --img_path 输入图像路径 --half_precision\n\n# 2. 交互式演示（Gradio），界面友好\n#    输出中会提供一个 URL\n#    （本地：127.0.0.1:7860；公开：XXXXXXX.gradio.live）\ncd demo\u002F\npython app.py\n\n# 3. Jupyter Notebook\nexample.ipynb\n```\n\n\n## APIs\n\n我们为整个流程及其组件提供了便捷的 Gradio API，使准确预处理野外或文本生成的图像并从中重建 3D 网格变得轻而易举。\n\n\u003Cdetails>\n\u003Csummary>首先，使用 API URL 初始化 Gradio 客户端。\u003C\u002Fsummary>\n\n```python\nfrom gradio_client import Client\nclient = Client(\"https:\u002F\u002Fone-2-3-45-one-2-3-45.hf.space\u002F\")\n# 示例输入图像\ninput_img_path = \"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\u002Fresolve\u002Fmain\u002Fdemo_examples\u002F01_wild_hydrant.png\"\n```\n\u003C\u002Fdetails>\n\n### 单张图像转 3D 网格\n```python\ngenerated_mesh_filepath = client.predict(\n\tinput_img_path,\t\n\tTrue,\t\t# 图像预处理\n\tapi_name=\"\u002Fgenerate_mesh\"\n)\n```\n### 高度估计\n\n如果输入图像的姿态（高度）未知，这个现成的算法就是你需要的一切！\n\n```python\nelevation_angle_deg = client.predict(\n\tinput_img_path,\n\tTrue,\t\t# 图像预处理\n\tapi_name=\"\u002Festimate_elevation\"\n)\n```\n\n### 图像预处理：分割、缩放和居中\n\n我们采用 Segment Anything 模型 (SAM) 来去除背景。\n\n```python\nsegmented_img_filepath = client.predict(\n\tinput_img_path,\t\n\tapi_name=\"\u002Fpreprocess\"\n)\n```\n\n\n\n## 训练你自己的模型\n\n### 数据准备\n我们使用 Objaverse-LVIS 数据集进行训练，并利用 Blender 将选定的形状（具有 CC-BY 许可）渲染成 2D 图像。\n#### 下载训练图像。\n从 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOne-2-3-45\u002Ftraining_data\u002Ftree\u002Fmain\">这里\u003C\u002Fa>下载所有 One2345.zip.part-* 文件（共 5 个），然后使用以下命令将它们合并成一个单独的 .zip 文件：\n```bash\ncat One2345.zip.part-* > One2345.zip\n```\n\n#### 解压训练图像压缩包。\n使用以下命令将压缩包解压到您指定的文件夹中（`YOUR_BASE_FOLDER`）：\n\n```bash\nunzip One2345.zip -d YOUR_BASE_FOLDER\n```\n\n#### 下载元数据文件。\n从 \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOne-2-3-45\u002Ftraining_data\u002Ftree\u002Fmain\">这里\u003C\u002Fa>下载 `One2345_training_pose.json` 和 `lvis_split_cc_by.json`，并将它们放入与训练图像相同的文件夹中（`YOUR_BASE_FOLDER`）。\n\n您的文件结构应如下所示：\n```\n# One2345 是您在先前步骤中使用的根目录\n\nOne2345\n├── One2345_training_pose.json\n├── lvis_split_cc_by.json\n└── zero12345_narrow\n    ├── 000-000\n    ├── 000-001\n    ├── 000-002\n    ...\n    └── 000-159\n    \n```\n\n### 训练\n在配置文件 `.\u002Freconstruction\u002Fconfs\u002Fone2345_lod_train.conf` 中，将 `trainpath`、`valpath` 和 `testpath` 指定为数据准备步骤中使用的 `YOUR_BASE_FOLDER`，然后运行以下命令：\n```bash\ncd reconstruction\npython exp_runner_generic_blender_train.py --mode train --conf confs\u002Fone2345_lod_train.conf\n```\n实验日志和检查点将保存在 `.\u002Freconstruction\u002Fexp\u002F` 目录下。\n\n## 相关工作\n[\\[One-2-3-45++\\]](https:\u002F\u002Fsudo-ai-3d.github.io\u002FOne2345plus_page\u002F)\n\n[\\[Zero123++\\]](https:\u002F\u002Fgithub.com\u002FSUDO-AI-3D\u002Fzero123plus)\n\n[\\[Zero123\\]](https:\u002F\u002Fgithub.com\u002Fcvlab-columbia\u002Fzero123)\n\n## 引用\n如果您觉得我们的代码有所帮助，请引用我们的论文：\n\n```\n@article{liu2023one2345,\n  title={One-2-3-45：无需逐物体优化，仅需 45 秒即可将任意单张图像转换为 3D 网格},\n  author={Liu, Minghua and Xu, Chao and Jin, Haian and Chen, Linghao and Varma T, Mukund and Xu, Zexiang and Su, Hao},\n  journal={神经信息处理系统进展},\n  volume={36},\n  year={2024}\n}\n```","# One-2-3-45 快速上手指南\n\nOne-2-3-45 是一个创新的 AI 工具，能够利用 2D 扩散模型在约 45 秒内将单张图像转换为 3D 网格模型，无需耗时的逐形状优化。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu)\n- **GPU**: NVIDIA 显卡，显存 **≥18GB** (例如 RTX 3090, A10, A6000)\n- **CUDA**: 建议版本 11.8\n- **Python**: 3.10\n\n### 前置依赖\n确保系统已安装以下基础包：\n```bash\nsudo apt update && sudo apt install git-lfs libsparsehash-dev build-essential\n```\n\n## 安装步骤\n\n本项目提供两种安装方式：**传统安装**（适合开发调试）和 **Docker 安装**（适合快速部署）。\n\n### 方式一：传统安装 (Conda)\n\n1. **创建并激活 Conda 环境**\n   ```bash\n   conda create -n One2345 python=3.10\n   conda activate One2345\n   ```\n\n2. **克隆代码仓库**\n   ```bash\n   git lfs install\n   git clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\n   cd One-2-3-45\n   ```\n\n3. **安装 CUDA 与 PyTorch**\n   *注意：请根据实际硬件调整 `TORCH_CUDA_ARCH_LIST`。以下以 CUDA 11.8 为例：*\n   ```bash\n   # 下载并安装 CUDA 11.8 (如已安装可跳过)\n   wget https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F11.8.0\u002Flocal_installers\u002Fcuda_11.8.0_520.61.05_linux.run\n   sudo sh cuda_11.8.0_520.61.05_linux.run\n   \n   # 配置环境变量\n   export PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Fbin:$PATH\"\n   export LD_LIBRARY_PATH=\"\u002Fusr\u002Flocal\u002Fcuda-11.8\u002Flib64:$LD_LIBRARY_PATH\"\n   \n   # 安装 PyTorch 2.0.1\n   pip install --no-cache-dir torch==2.0.1 torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n   ```\n\n4. **安装项目依赖**\n   ```bash\n   # 设置编译参数 (根据你的 GPU 架构修改 7.0;7.2;8.0;8.6)\n   export TORCH_CUDA_ARCH_LIST=\"7.0;7.2;8.0;8.6+PTX\"\n   export IABN_FORCE_CUDA=1\n   \n   # 安装核心依赖\n   pip install -r requirements.txt\n   pip install inplace_abn\n   FORCE_CUDA=1 pip install --no-cache-dir git+https:\u002F\u002Fgithub.com\u002Fmit-han-lab\u002Ftorchsparse.git@v1.4.0\n   ```\n\n5. **下载模型权重**\n   ```bash\n   python download_ckpt.py\n   ```\n\n### 方式二：Docker 安装 (推荐)\n\n如果你希望避免复杂的环境配置，可以直接使用预构建的 Docker 镜像。\n\n**选项 A：一键运行演示版 (包含环境和权重，约 22.3GB)**\n```bash\ndocker pull chaoxu98\u002Fone2345:demo_1.0\ndocker run --name One-2-3-45_demo --gpus all -it chaoxu98\u002Fone2345:demo_1.0\n# 运行后会自动启动 Web 界面并输出访问地址\n```\n\n**选项 B：仅环境镜像 (约 7.3GB，需手动拉取代码)**\n```bash\ndocker pull chaoxu98\u002Fone2345:1.0\ndocker run --name One-2-3-45 --gpus all -it chaoxu98\u002Fone2345:1.0\n# 进入容器后执行：\ndocker exec -it One-2-3-45 \u002Fbin\u002Fbash\ngit clone https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\ncd One-2-3-45\npython download_ckpt.py\n```\n\n## 基本使用\n\n首次运行时模型编译需要较长时间，后续生成单张图片的 3D 模型在 NVIDIA A6000 上约需 40 秒。\n\n### 方法 1：命令行脚本推理\n将 `PATH_TO_INPUT_IMG` 替换为你的图片路径：\n```bash\npython run.py --img_path PATH_TO_INPUT_IMG --half_precision\n```\n\n### 方法 2：交互式 Web 界面 (Gradio)\n启动本地 Web 服务，可通过浏览器上传图像并查看结果：\n```bash\ncd demo\u002F\npython app.py\n```\n启动成功后，终端会显示本地地址 (如 `127.0.0.1:7860`) 或公共访问链接。\n\n### 方法 3：Jupyter Notebook\n直接运行官方提供的示例笔记：\n```bash\njupyter notebook example.ipynb\n```\n\n### 进阶：通过 API 调用\n你可以使用 Python 代码直接调用部署在 Hugging Face Space 上的 API：\n\n```python\nfrom gradio_client import Client\n\n# 初始化客户端\nclient = Client(\"https:\u002F\u002Fone-2-3-45-one-2-3-45.hf.space\u002F\")\ninput_img_path = \"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FOne-2-3-45\u002FOne-2-3-45\u002Fresolve\u002Fmain\u002Fdemo_examples\u002F01_wild_hydrant.png\"\n\n# 生成 3D 网格\nmesh_path = client.predict(\n    input_img_path,\t\n    True,\t\t# 启用图像预处理\n    api_name=\"\u002Fgenerate_mesh\"\n)\nprint(f\"Mesh saved at: {mesh_path}\")\n```","一位独立游戏开发者急需为即将上线的移动端 RPG 项目批量制作风格统一的低多边形（Low-Poly）道具资产，但团队中缺乏专业的 3D 建模师。\n\n### 没有 One-2-3-45 时\n- **耗时漫长**：传统从单图生成 3D 的方法（如 DreamFusion）需要对每个形状进行数小时的逐例优化，无法应对紧急的项目排期。\n- **成本高昂**：若外包给人工建模师，单个简单道具的制作费用高且沟通修改周期长，严重挤压独立开发的预算。\n- **技术门槛高**：手动建模需要熟练掌握 Blender 或 Maya 等复杂软件，程序出身的开发者难以快速上手填补美术缺口。\n- **迭代困难**：一旦概念图调整，重新生成或修改 3D 模型的时间成本极高，导致策划方案不敢轻易变动。\n\n### 使用 One-2-3-45 后\n- **极速生成**：利用其独有的“仅前向”范式，只需上传一张概念草图，45 秒内即可直接获得完整的 3D 网格模型，无需漫长的优化等待。\n- **零成本量产**：开发者可本地部署或调用 API，免费批量将数百张道具设计图转化为可用资产，大幅降低美术制作成本。\n- **流程自动化**：无需任何 3D 建模知识，通过简单的脚本即可将图像生成环节嵌入现有的资源管线，实现“画图即得模型”。\n- **敏捷迭代**：美术风格或设计细节调整后，能在分钟内重新生成新模型，让团队能大胆尝试多种设计方案而不必担心时间损耗。\n\nOne-2-3-45 通过将单图转 3D 的时间从小时级压缩至秒级，彻底打破了 AIGC 在 3D 资产生产中的效率瓶颈，让小型团队也能拥有电影级的内容生产能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOne-2-3-45_One-2-3-45_6473335e.png",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOne-2-3-45_100d4b50.jpg","https:\u002F\u002Fgithub.com\u002FOne-2-3-45",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",55.6,{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",44.4,1716,105,"2026-03-25T08:19:39","Apache-2.0","Linux","必需 NVIDIA GPU，显存 >=18GB (例如 RTX 3090 或 A10)，推荐 CUDA 11.8","未说明",{"notes":96,"python":97,"dependencies":98},"仅在 Ubuntu 上测试过。安装 torchsparse 和 inplace_abn 时需要设置特定的 CUDA 架构列表 (TORCH_CUDA_ARCH_LIST) 并强制使用 CUDA 编译。首次运行推理时模型编译耗时较长，单张图像在 NVIDIA A6000 上约需 40 秒。提供 Docker 镜像以简化环境部署。训练数据需从 HuggingFace 下载并合并多个分卷压缩包。","3.10",[99,100,101,102,103,104,105],"torch==2.0.1","torchvision","torchaudio","inplace_abn","torchsparse==1.4.0","gradio_client","libsparsehash-dev",[18],[108,109,110,111,112,113,114,115],"3d","3d-generation","aigc","generalizable-nerf","mesh-generation","multi-view-reconstruction","nerf","3d-shape-generation","2026-03-27T02:49:30.150509","2026-04-06T05:37:32.799728",[119,124,129,134,139,144,149,154],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},10369,"如何修复安装 torchsparse 时出现的 'ninja: build stopped' 错误？","如果在使用 pip 安装 torchsparse 时遇到 ninja 构建失败或子命令失败的错误，最有效的解决方法是删除当前的 conda 环境并重新创建。具体步骤为：先完全删除现有的 conda 环境，然后重新安装所有依赖包。虽然具体原因尚不明确，但多位用户反馈此方法能解决该问题。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F30",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},10370,"导出的 OBJ 模型文件为什么没有颜色或纹理贴图？","导出的 .obj 文件实际上包含了顶点颜色（vertex colors），而不是独立的纹理贴图文件（如 .png）。如果您在普通查看器中看不到颜色，建议使用 Meshlab 软件打开该文件，Meshlab 能够正确渲染和显示这些顶点颜色。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F47",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},10371,"生成的网格坐标系的方位角（azimuth）是否与输入视图对齐？","生成的网格默认假设输入视图为 0 度方位角，但在 Gradio 演示中为了可视化效果（让模型面向用户），通常会应用一个 30 度的旋转变换。如果您需要将生成网格与真实值（GT）网格进行对齐评估，建议先将生成的网格向后旋转 30 度以抵消演示中的变换，然后再根据需要对齐坐标轴方向（x 轴、y 轴等）。只需对一个对象进行对齐操作，即可将相同的姿态变换复用于其他对象。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F26",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},10372,"项目是否支持使用 Zero123-XL 模型以提升生成效果？","是的，该项目已经集成了 Zero123-XL 检查点（checkpoint）。Zero123-XL 是在 Objaverse-XL 数据集上重新训练的 Zero123 版本。用户只需按照仓库中的说明安装环境并下载相应的检查点文件，即可使用该模型获得更好的多视角预测结果。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F7",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},10373,"训练阶段具体优化了哪个模块？SparseNeus 检查点是做什么的？","在训练过程中，Zero123 模块是冻结的。提供的 SparseNeus 检查点正是训练阶段的成果，它对应于架构中负责 3D 卷积处理的模块（即论文图示中标记为紫色的部分）。该检查点用于从单张图像快速推理出 3D 表示，而非传统的测试时优化（Test-time optimization）。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F45",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},10374,"是否支持输入多张图像来增强最终 3D 模型的效果？","当前仓库的代码并未直接实现基于多张输入图像的优化功能。但是，您可以利用本项目生成的网格作为初始网格，然后使用其他优化方法（如最小化多张给定图像与体积\u002F表面渲染之间渲染损失的方法）对其进行细化。例如，可以参考 TensoRF 或 DMTet 等相关技术进行后续优化。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F36",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},10375,"目前的模型是否支持导出高分辨率的多视角图像？","当前版本的 zero123（多视角预测模块）仅支持 256x256 分辨率的输入图像，因此无法直接导出更高分辨率的多视角图像。虽然理论上更高的分辨率可能有助于提升 SDF 和网格质量，但目前官方尚未提供支持高分辨率预测的版本。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F8",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},10376,"项目是否发布了模型检查点以便复现？","是的，作者已经发布了推理代码和模型检查点。为了优化显存使用和速度，推理过程采用了批量输入（batches）和半精度（half-precision）计算。用户可以按照文档指引下载这些检查点进行复现。","https:\u002F\u002Fgithub.com\u002FOne-2-3-45\u002FOne-2-3-45\u002Fissues\u002F2",[]]