[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zhaorw02--DeepMesh":3,"tool-zhaorw02--DeepMesh":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":102,"env_deps":103,"category_tags":117,"github_topics":118,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":127,"updated_at":128,"faqs":129,"releases":160},881,"zhaorw02\u002FDeepMesh","DeepMesh","[ICCV 2025] Official code of DeepMesh: Auto-Regressive Artist-mesh Creation with Reinforcement Learning","DeepMesh 是一个基于强化学习的自回归三维网格生成工具，能够根据输入的点云数据自动创建高质量的三维网格模型。它解决了传统三维重建方法在复杂几何结构处理上效果有限、生成网格质量不稳定等问题，通过结合自回归变换器与强化学习技术，实现了更精准、更连贯的网格生成。\n\nDeepMesh 主要面向计算机视觉、三维建模领域的研究人员和开发者，也适合需要从点云生成精细网格的工程师或数字内容创作者使用。对于普通用户，若具备一定的编程与三维数据处理基础，也可借助其代码和预训练模型进行实验与应用。\n\n该工具的核心技术亮点在于采用自回归生成方式，逐步预测网格顶点与面片，并结合强化学习优化生成过程的连贯性与几何合理性。这使得 DeepMesh 在保持细节的同时，能生成结构完整、视觉逼真的网格。项目已发布 0.5B 参数的预训练权重，并持续优化推理效率，相比早期版本生成速度提升约 50%。\n\nDeepMesh 代码开源，遵循 MIT 协议，提供完整的安装指南与使用示例，支持通过 Hugging Face 快速获取模型。如果你正在从事三维重建、数字孪生或游戏资产生成等相关工作，这个工具或许能为你提供一种高效、","DeepMesh 是一个基于强化学习的自回归三维网格生成工具，能够根据输入的点云数据自动创建高质量的三维网格模型。它解决了传统三维重建方法在复杂几何结构处理上效果有限、生成网格质量不稳定等问题，通过结合自回归变换器与强化学习技术，实现了更精准、更连贯的网格生成。\n\nDeepMesh 主要面向计算机视觉、三维建模领域的研究人员和开发者，也适合需要从点云生成精细网格的工程师或数字内容创作者使用。对于普通用户，若具备一定的编程与三维数据处理基础，也可借助其代码和预训练模型进行实验与应用。\n\n该工具的核心技术亮点在于采用自回归生成方式，逐步预测网格顶点与面片，并结合强化学习优化生成过程的连贯性与几何合理性。这使得 DeepMesh 在保持细节的同时，能生成结构完整、视觉逼真的网格。项目已发布 0.5B 参数的预训练权重，并持续优化推理效率，相比早期版本生成速度提升约 50%。\n\nDeepMesh 代码开源，遵循 MIT 协议，提供完整的安装指南与使用示例，支持通过 Hugging Face 快速获取模型。如果你正在从事三维重建、数字孪生或游戏资产生成等相关工作，这个工具或许能为你提供一种高效、高质量的网格生成方案。","\u003Cp align=\"center\">\n  \u003Ch3 align=\"center\">\u003Cstrong>DeepMesh: Auto-Regressive Artist-Mesh Creation\u003Cbr>With Reinforcement Learning\u003C\u002Fstrong>\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fzhaorw02.github.io\u002F\">Ruowen Zhao\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fjamesyjl.github.io\u002F\">Junliang Ye\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fthuwzy.github.io\u002F\">Zhengyi Wang\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\u003Cbr>\n    \u003Ca href=\"\">Guangce Liu\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fbuaacyw.github.io\u002F\">Yiwen Chen\u003C\u002Fa>\u003Csup>3\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fyikaiw.github.io\u002F\">Yikai Wang\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002F~jun\u002Findex.shtml\">Jun Zhu\u003C\u002Fa>\u003Csup>1,2†\u003C\u002Fsup>\n    \u003Cbr>\n    \u003Csup>*\u003C\u002Fsup>Equal Contribution.\n    \u003Cbr>\n    \u003Csup>†\u003C\u002Fsup>Corresponding authors.\n    \u003Cbr>\n    \u003Csup>1\u003C\u002Fsup>Tsinghua University,\n    \u003Csup>2\u003C\u002Fsup>ShengShu,\n    \u003Cbr>\n    \u003Csup>3\u003C\u002Fsup>S-Lab, Nanyang Technological University,\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15265'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2503.15265-b31b1b.svg'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fzhaorw02.github.io\u002FDeepMesh\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fzzzrw\u002FDeepMesh\u002Ftree\u002Fmain\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Weights-HF-orange\">\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6grL7bSbQ2w'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-b31b1b.svg'>\n\n\u003C\u002Fdiv>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhaorw02_DeepMesh_readme_8e305d597bad.png\" alt=\"Demo\" width=\"1024px\" \u002F>\n\n\u003C\u002Fdiv>\n\n**All of the meshes above are generated by DeepMesh.** DeepMesh can generate high-quality meshes conditioned on the given point cloud by auto-regressive transformer.\n\n\n## Release\n- [3\u002F20] 🔥🔥We released the pretrained weight of **DeepMesh** (0.5 B).\n- [4\u002F01] 🔥We optimized the inference code, achieving a 50% reduction in generation time.\n\n## Contents\n- [Release](#release)\n- [Installation](#installation)\n- [Usage](#usage)\n- [Important Notes](#important-notes)\n- [Todo](#todo)\n- [Acknowledgement](#acknowledgement)\n- [BibTeX](#bibtex)\n\n## Installation\nOur environment has been tested on Ubuntu 22, CUDA 11.8 with A100, A800 and A6000.\n1. Clone our repo and create conda environment\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh.git && cd DeepMesh\nconda env create -f environment.yaml\nconda activate deepmesh\n```\nor you can create on CUDA 12.1.\n```\nconda create -n deepmesh python=3.12\nconda activate deepmesh\npip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\npip3 install -U xformers --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\ngit clone https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\ncd flash-attention\npip install packaging\npython setup.py install\ncd csrc\u002Frotary && pip install .\ncd ..\u002Flayer_norm && pip install .\ncd ..\u002Fxentropy && pip install .\ncd ..\u002F..\u002F.. && rm -r flash-attention\npip install trimesh beartype lightning safetensors open3d omegaconf sageattention triton scikit-image transformers\n```\n\n2. Install the pretrained model weight\n```\npip install -U \"huggingface_hub[cli]\"\nhuggingface-cli login\nhuggingface-cli download zzzrw\u002FDeepMesh --local-dir .\u002F\n```\n\n## Usage\n### Command line inference\n```\n# Note: if you want to use your own point cloud, please make sure the normal is included.\n\n# Generate all obj\u002Fply in your folder\nCUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=12345 sample.py \\\n    --model_path \"your_model_path\" \\\n    --steps 90000 \\\n    --input_path examples \\\n    --output_path mesh_output \\\n    --repeat_num 4 \\\n    --temperature 0.5 \\\n\n# Generate the specified obj\u002Fply in your folder\nCUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=22345.py \\\n    --model_path \"your_model_path\" \\\n    --steps 90000 \\\n    --input_path examples \\\n    --output_path mesh_output \\\n    --repeat_num 4 \\\n    --uid_list \"wand1.obj,wand2.obj,wand3.ply\" \\\n    --temperature 0.5 \\\n\n# Or\nbash sample.sh\n```\n## Important Notes\n- Please refer to our [project_page](https:\u002F\u002Fzhaorw02.github.io\u002FDeepMesh\u002F) for more examples.\n## Todo\n- [ ] Release of pre-training code  ( truncted sliding training ).\n- [ ] Release of post-training code ( DPO ).\n- [ ] Release of larger model ( 1b version ).\n\n## Acknowledgement\nOur code is based on these wonderful repos:\n* **[BPT](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002Fbpt)**\n* **[SMDM](https:\u002F\u002Fgithub.com\u002FML-GSAI\u002FSMDM)**\n* [LLaMA-Mesh](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FLLaMa-Mesh)\n* [Meshanything V2](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2\u002Ftree\u002Fmain)\n* [Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo)\n\nAlso we invite you to explore our latest work [ShapeLLM-Omni](https:\u002F\u002Fgithub.com\u002FJAMESYJL\u002FShapeLLM-Omni) —— a native multimodal LLM for 3D generation and understanding.\n## BibTeX\n```\n@article{zhao2025deepmesh,\n  title={DeepMesh: Auto-Regressive Artist-mesh Creation with Reinforcement Learning},\n  author={Zhao, Ruowen and Ye, Junliang and Wang, Zhengyi and Liu, Guangce and Chen, Yiwen and Wang, Yikai and Zhu, Jun},\n  journal={arXiv preprint arXiv:2503.15265},\n  year={2025}\n}\n```\n","\u003Cp align=\"center\">\n  \u003Ch3 align=\"center\">\u003Cstrong>DeepMesh: 基于强化学习的自回归艺术家网格生成\u003C\u002Fstrong>\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fzhaorw02.github.io\u002F\">赵若文\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fjamesyjl.github.io\u002F\">叶俊良\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fthuwzy.github.io\u002F\">王正一\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\u003Cbr>\n    \u003Ca href=\"\">刘光策\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fbuaacyw.github.io\u002F\">陈奕文\u003C\u002Fa>\u003Csup>3\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fyikaiw.github.io\u002F\">王逸楷\u003C\u002Fa>\u003Csup>1\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fml.cs.tsinghua.edu.cn\u002F~jun\u002Findex.shtml\">朱军\u003C\u002Fa>\u003Csup>1,2†\u003C\u002Fsup>\n    \u003Cbr>\n    \u003Csup>*\u003C\u002Fsup>同等贡献。\n    \u003Cbr>\n    \u003Csup>†\u003C\u002Fsup>通讯作者。\n    \u003Cbr>\n    \u003Csup>1\u003C\u002Fsup>清华大学,\n    \u003Csup>2\u003C\u002Fsup>生数科技,\n    \u003Cbr>\n    \u003Csup>3\u003C\u002Fsup>南洋理工大学 S-Lab,\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15265'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2503.15265-b31b1b.svg'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fzhaorw02.github.io\u002FDeepMesh\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fzzzrw\u002FDeepMesh\u002Ftree\u002Fmain\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Weights-HF-orange\">\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href='https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=6grL7bSbQ2w'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FYoutube-Video-b31b1b.svg'>\n\n\u003C\u002Fdiv>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhaorw02_DeepMesh_readme_8e305d597bad.png\" alt=\"Demo\" width=\"1024px\" \u002F>\n\n\u003C\u002Fdiv>\n\n**以上所有网格均由 DeepMesh 生成。** DeepMesh 能够通过自回归 Transformer，根据给定的点云生成高质量的网格。\n\n\n## 发布\n- [3月20日] 🔥🔥我们发布了 **DeepMesh** 的预训练权重 (0.5 B)。\n- [4月01日] 🔥我们优化了推理代码，生成时间减少了 50%。\n\n## 目录\n- [发布](#发布)\n- [安装](#安装)\n- [使用](#使用)\n- [重要说明](#重要说明)\n- [待办事项](#待办事项)\n- [致谢](#致谢)\n- [BibTeX](#bibtex)\n\n## 安装\n我们的环境已在 Ubuntu 22、CUDA 11.8 以及 A100、A800 和 A6000 上测试。\n1. 克隆我们的仓库并创建 conda 环境\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh.git && cd DeepMesh\nconda env create -f environment.yaml\nconda activate deepmesh\n```\n或者您可以在 CUDA 12.1 上创建。\n```\nconda create -n deepmesh python=3.12\nconda activate deepmesh\npip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\npip3 install -U xformers --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\ngit clone https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\ncd flash-attention\npip install packaging\npython setup.py install\ncd csrc\u002Frotary && pip install .\ncd ..\u002Flayer_norm && pip install .\ncd ..\u002Fxentropy && pip install .\ncd ..\u002F..\u002F.. && rm -r flash-attention\npip install trimesh beartype lightning safetensors open3d omegaconf sageattention triton scikit-image transformers\n```\n\n2. 安装预训练模型权重\n```\npip install -U \"huggingface_hub[cli]\"\nhuggingface-cli login\nhuggingface-cli download zzzrw\u002FDeepMesh --local-dir .\u002F\n```\n\n## 使用\n### 命令行推理\n```\n# 注意：如果您想使用自己的点云，请确保包含法线信息。\n\n# 生成您文件夹中的所有 obj\u002Fply 文件\nCUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=12345 sample.py \\\n    --model_path \"your_model_path\" \\\n    --steps 90000 \\\n    --input_path examples \\\n    --output_path mesh_output \\\n    --repeat_num 4 \\\n    --temperature 0.5 \\\n\n# 生成您文件夹中指定的 obj\u002Fply 文件\nCUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=22345 sample.py \\\n    --model_path \"your_model_path\" \\\n    --steps 90000 \\\n    --input_path examples \\\n    --output_path mesh_output \\\n    --repeat_num 4 \\\n    --uid_list \"wand1.obj,wand2.obj,wand3.ply\" \\\n    --temperature 0.5 \\\n\n# 或者\nbash sample.sh\n```\n\n## 重要说明\n- 更多示例请参考我们的 [项目页面](https:\u002F\u002Fzhaorw02.github.io\u002FDeepMesh\u002F)。\n\n## 待办事项\n- [ ] 发布预训练代码（截断滑动训练）。\n- [ ] 发布后训练代码（DPO）。\n- [ ] 发布更大模型（1b 版本）。\n\n## 致谢\n我们的代码基于以下优秀的仓库：\n* **[BPT](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002Fbpt)**\n* **[SMDM](https:\u002F\u002Fgithub.com\u002FML-GSAI\u002FSMDM)**\n* [LLaMA-Mesh](https:\u002F\u002Fgithub.com\u002Fnv-tlabs\u002FLLaMa-Mesh)\n* [Meshanything V2](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2\u002Ftree\u002Fmain)\n* [Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo)\n\n同时，我们邀请您探索我们的最新工作 [ShapeLLM-Omni](https:\u002F\u002Fgithub.com\u002FJAMESYJL\u002FShapeLLM-Omni) —— 一个用于 3D 生成和理解的原生多模态 LLM。\n\n## BibTeX\n```\n@article{zhao2025deepmesh,\n  title={DeepMesh: Auto-Regressive Artist-mesh Creation with Reinforcement Learning},\n  author={Zhao, Ruowen and Ye, Junliang and Wang, Zhengyi and Liu, Guangce and Chen, Yiwen and Wang, Yikai and Zhu, Jun},\n  journal={arXiv preprint arXiv:2503.15265},\n  year={2025}\n}\n```","# DeepMesh 快速上手指南\n\nDeepMesh 是一个基于自回归 Transformer 和强化学习，能够根据输入点云生成高质量网格（Mesh）的开源工具。\n\n## 环境准备\n\n- **操作系统**：推荐 Ubuntu 22.04。\n- **硬件**：需要 NVIDIA GPU，已在 A100、A800、A6000 上测试。\n- **CUDA**：支持 CUDA 11.8 或 12.1。\n- **前置依赖**：确保已安装 Git 和 Conda。\n\n## 安装步骤\n\n1.  **克隆仓库并创建 Conda 环境**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh.git && cd DeepMesh\n    conda env create -f environment.yaml\n    conda activate deepmesh\n    ```\n    *如果使用 CUDA 12.1，可手动创建环境：*\n    ```bash\n    conda create -n deepmesh python=3.12\n    conda activate deepmesh\n    pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\n    pip3 install -U xformers --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu121\n    git clone https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\n    cd flash-attention\n    pip install packaging\n    python setup.py install\n    cd csrc\u002Frotary && pip install .\n    cd ..\u002Flayer_norm && pip install .\n    cd ..\u002Fxentropy && pip install .\n    cd ..\u002F..\u002F.. && rm -r flash-attention\n    pip install trimesh beartype lightning safetensors open3d omegaconf sageattention triton scikit-image transformers\n    ```\n\n2.  **下载预训练模型权重**\n    ```bash\n    pip install -U \"huggingface_hub[cli]\"\n    huggingface-cli login # 按提示登录或设置访问令牌\n    huggingface-cli download zzzrw\u002FDeepMesh --local-dir .\u002F\n    ```\n\n## 基本使用\n\n### 命令行推理\n\n确保你的点云文件（`.obj` 或 `.ply`）包含法线信息。\n\n1.  **生成指定文件夹内所有网格**\n    ```bash\n    CUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=12345 sample.py \\\n        --model_path \"your_model_path\" \\\n        --steps 90000 \\\n        --input_path examples \\\n        --output_path mesh_output \\\n        --repeat_num 4 \\\n        --temperature 0.5\n    ```\n\n2.  **生成指定文件列表的网格**\n    ```bash\n    CUDA_VISIBLE_DEVICES=0 torchrun --nproc-per-node=1 --master_port=22345 sample.py \\\n        --model_path \"your_model_path\" \\\n        --steps 90000 \\\n        --input_path examples \\\n        --output_path mesh_output \\\n        --repeat_num 4 \\\n        --uid_list \"wand1.obj,wand2.obj,wand3.ply\" \\\n        --temperature 0.5\n    ```\n\n3.  **或直接运行脚本**\n    ```bash\n    bash sample.sh\n    ```\n\n**参数说明**：\n- `--model_path`: 下载的模型权重所在路径。\n- `--input_path`: 存放输入点云文件的文件夹路径。\n- `--output_path`: 生成网格的输出文件夹路径。\n- `--uid_list`: 可选，指定要处理的文件名列表，用逗号分隔。","一位独立游戏开发者正在为一款低多边形风格的冒险游戏制作角色模型，他需要从扫描得到的角色点云数据中快速生成可用于动画绑定的高质量网格模型。\n\n### 没有 DeepMesh 时\n- **流程繁琐且耗时**：开发者需要将点云导入专业建模软件（如Blender），手动进行表面重建、拓扑优化和网格清理，一个中等复杂度的角色模型通常需要数小时甚至一整天。\n- **结果质量不稳定**：手动操作高度依赖个人经验，容易产生非流形几何、孔洞或不均匀的三角面片，导致后续的UV展开和骨骼绑定困难，甚至引发动画穿模。\n- **缺乏可控性与一致性**：不同角色的网格生成流程难以标准化，导致角色之间的网格质量、面数密度和拓扑结构存在差异，影响游戏资源的统一管理和渲染性能优化。\n- **迭代成本高昂**：当角色设计或扫描数据需要调整时，几乎需要从头开始重建网格，严重拖慢了游戏原型的开发与测试速度。\n\n### 使用 DeepMesh 后\n- **实现自动化高效生成**：开发者只需将带有法线的点云文件放入指定文件夹，运行一条命令，DeepMesh 便能基于自回归Transformer模型，在数分钟内自动生成结构完整、水密的网格。\n- **获得高质量、可直接使用的网格**：生成的网格具有高质量的几何结构、均匀的三角面分布和良好的拓扑，极大减少了后续手动清理的工作量，能够直接导入游戏引擎或进行下一步的UV制作。\n- **保证输出的一致性与可控性**：通过调整温度等参数，可以在生成结果的多样性与稳定性之间取得平衡，确保批量处理不同角色点云时，产出的网格在面数和拓扑结构上保持良好的一致性。\n- **支持快速迭代与原型设计**：点云数据的任何修改都能通过重新运行脚本快速得到新的网格结果，使得角色设计迭代和游戏原型测试的周期大幅缩短，加快了整体开发流程。\n\nDeepMesh 通过强化学习驱动的自回归网格生成，将游戏美术从繁琐、重复的手工建模中解放出来，实现了从原始3D数据到可用游戏资产的高质量、自动化转换。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzhaorw02_DeepMesh_9d6ab70b.png","zhaorw02","Ruowen Zhao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzhaorw02_575abf2f.jpg","Student at TSAIL group @thu-ml ","Tsinghua University","Beijing, China",null,"ZRuowen","https:\u002F\u002Fzhaorw02.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fzhaorw02",[87,91],{"name":88,"color":89,"percentage":90},"Python","#3572A5",99.9,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.1,706,33,"2026-04-01T07:48:15","Apache-2.0",4,"Linux","必需。测试环境为 NVIDIA A100\u002FA800\u002FA6000，CUDA 11.8。安装说明包含 CUDA 12.1 选项。","未说明",{"notes":104,"python":105,"dependencies":106},"1. 环境已在 Ubuntu 22 上测试。2. 需通过 Hugging Face Hub 下载预训练模型权重。3. 推理时需使用 `torchrun` 命令并指定 GPU。4. 输入点云需包含法线信息。5. 项目提供了 `sample.sh` 脚本简化推理流程。","3.12（通过 conda 创建环境时指定）",[107,108,109,110,111,112,113,114,115,116],"torch==2.5.1","torchvision==0.20.1","torchaudio==2.5.1","xformers","flash-attention","trimesh","lightning","safetensors","open3d","transformers",[54,13,26],[119,120,121,122,123,124,125,126],"3d","aigc","dpo","generative-model","llm","mesh","mesh-generation","point-cloud","2026-03-27T02:49:30.150509","2026-04-06T05:27:27.880052",[130,135,140,145,150,155],{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},3810,"运行 sample.py 时，输入包含法向量的 .ply 点云文件，遇到 `ValueError: need at least one array to concatenate` 错误，如何解决？","该错误通常是因为输入的点云数据过于破碎或形状不完整，导致模型无法生成有效的网格。请检查您的点云数据是否完整、具有清晰的形状。如果点云过于碎片化，模型将无法处理。您可以尝试使用更完整、质量更高的点云数据。","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F14",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},3811,"推理一个网格文件需要多长时间？为什么在 A100 上运行似乎永远不会停止？","原始推理代码中存在一个 `while True` 死循环，这会导致程序无限运行。该问题已被修复，请更新到最新的代码版本以解决此问题。","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F3",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},3812,"关于 KV 缓存逻辑和块\u002F窗口大小的疑问？","代码中的 `create_sliding_window_attention_mask` 函数和 `input_pos` 参数已被弃用。`block_size` 参数代表训练数据的最大长度。当前代码实现的是基于沙漏结构的 KV 缓存，与常规实现有所不同。","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F28",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},3813,"测试自己的 .obj 文件时，遇到 `ValueError: need at least one array to concatenate` 错误，如何调整？","此错误是因为模型无法生成第一个面片（patch）。原因可能是输入的点云数据看起来很奇怪或不完整，导致模型无法正确生成。请检查您的输入点云数据质量，确保其形状清晰、完整。","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F18",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},3814,"环境配置文件 environment.yaml 中的库存在版本冲突或无法安装，如何配置环境（例如 Ubuntu 20.04 + CUDA 11.8 + RTX 3090）？","部分库是训练时可能用到的，如果仅用于推理可以忽略。对于特定环境配置，可以参考以下步骤（以 Ubuntu 20.04 + CUDA 11.8 + RTX 3090 为例）：\n```bash\nconda create -n deepmesh python=3.10\nconda activate deepmesh\nconda install pytorch==2.4.0 torchvision==0.19.0 pytorch-cuda=11.8 -c pytorch -c nvidia\npip install xformers==0.0.27.post2 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install flash-attn==2.7.0.post2\ngit clone https:\u002F\u002Fgithub.com\u002FDao-AILab\u002Fflash-attention\ncd flash-attention\ncd csrc\u002Frotary && pip install .\ncd ..\u002Flayer_norm && pip install .\ncd ..\u002Fxentropy && pip install .\npip install trimesh beartype lightning safetensors open3d omegaconf sageattention triton scikit-image transformers\n```","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F15",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},3815,"预训练模型中，坐标被量化成多少个区间（bins）进行标记化？论文提到 512，但解码器的词汇表大小是 1280。","词汇表大小（1280）包含了坐标量化区间（512个）以及其他特殊标记（如面片开始、结束标记等）。因此，解码器的词汇表大小会大于坐标的量化区间数量。","https:\u002F\u002Fgithub.com\u002Fzhaorw02\u002FDeepMesh\u002Fissues\u002F34",[]]