[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-buaacyw--MeshAnything":3,"tool-buaacyw--MeshAnything":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":45,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":150},4050,"buaacyw\u002FMeshAnything","MeshAnything","[ICLR 2025] From anything to mesh like human artists. Official impl. of \"MeshAnything: Artist-Created Mesh Generation with Autoregressive Transformers\"","MeshAnything 是一款能够像人类艺术家一样，将各种输入数据转化为高质量 3D 网格模型的开源 AI 工具。它主要解决了传统自动化建模中网格拓扑结构混乱、细节缺失以及缺乏艺术美感的问题，让计算机生成的模型更接近专业设计师的手作水准。\n\n无论是希望快速获得可用 3D 资产的游戏开发者、需要高效原型设计的工业设计师，还是从事三维生成研究的研究人员，都能从中受益。普通用户也可以通过其提供的在线演示轻松体验从图像或简单形状到精致 3D 模型的转换过程。\n\n该工具的核心亮点在于采用了自回归 Transformer 架构，这是首次将此类在自然语言处理领域表现卓越的模型应用于网格生成任务。通过模仿艺术家创作时的顺序决策过程，MeshAnything 能够生成结构合理、面数可控且细节丰富的网格。最新发布的 V2 版本更是将支持的最大面数提升至 1600，显著增强了模型的复杂度和表现力。项目提供了完整的代码实现、预训练权重以及本地和在线的交互界面，方便不同技术背景的用户直接使用或进行二次开发。","\u003Cp align=\"center\">\n  \u003Ch3 align=\"center\">\u003Cstrong>MeshAnything:\u003Cbr> Artist-Created Mesh Generation\u003Cbr> with Autoregressive Transformers\u003C\u002Fstrong>\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fbuaacyw.github.io\u002F\">Yiwen Chen\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Ftonghe90.github.io\u002F\">Tong He\u003C\u002Fa>\u003Csup>2†\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fdihuang.me\u002F\">Di Huang\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fywcmaike.github.io\u002F\">Weicai Ye\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fch3cook-fdu.github.io\u002F\">Sijin Chen\u003C\u002Fa>\u003Csup>3\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fme.kiui.moe\u002F\">Jiaxiang Tang\u003C\u002Fa>\u003Csup>4\u003C\u002Fsup>\u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fchenxin.tech\u002F\">Xin Chen\u003C\u002Fa>\u003Csup>5\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fcaizhongang.github.io\u002F\">Zhongang Cai\u003C\u002Fa>\u003Csup>6\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?user=jZH2IPYAAAAJ&hl=en\">Lei Yang\u003C\u002Fa>\u003Csup>6\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fwww.skicyyu.org\u002F\">Gang Yu\u003C\u002Fa>\u003Csup>7\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fguosheng.github.io\u002F\">Guosheng Lin\u003C\u002Fa>\u003Csup>1†\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Ficoz69.github.io\u002F\">Chi Zhang\u003C\u002Fa>\u003Csup>8†\u003C\u002Fsup>\n    \u003Cbr>\n    \u003Csup>*\u003C\u002Fsup>Work done during a research internship at Shanghai AI Lab.\n    \u003Cbr>\n    \u003Csup>†\u003C\u002Fsup>Corresponding authors.\n    \u003Cbr>\n    \u003Csup>1\u003C\u002Fsup>S-Lab, Nanyang Technological University,\n    \u003Csup>2\u003C\u002Fsup>Shanghai AI Lab,\n    \u003Cbr>\n    \u003Csup>3\u003C\u002Fsup>Fudan University,\n    \u003Csup>4\u003C\u002Fsup>Peking University,\n    \u003Csup>5\u003C\u002Fsup>University of Chinese Academy of Sciences,\n    \u003Cbr>\n    \u003Csup>6\u003C\u002Fsup>SenseTime Research,\n    \u003Csup>7\u003C\u002Fsup>Stepfun,\n    \u003Csup>8\u003C\u002Fsup>Westlake University\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.10163'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2406.10163-b31b1b.svg'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fbuaacyw.github.io\u002Fmesh-anything\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fblob\u002Fmaster\u002FLICENSE.txt'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-SLab-blue'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FYiwen-ntu\u002FMeshAnything\u002Ftree\u002Fmain\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Weights-HF-orange\">\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYiwen-ntu\u002FMeshAnything\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Gradio%20Demo-HF-orange\">\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbuaacyw_MeshAnything_readme_42b467601bdc.gif\" alt=\"Demo GIF\" width=\"512px\" \u002F>\n\u003C\u002Fp>\n\n\n## Release\n- [6\u002F17] 🔥🔥 Try our newly released **[MeshAnything V2](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2)**. Maximum face number is increased to **1600** in V2 with better performance.\n- [6\u002F17] We released the 350m version of **MeshAnything**.\n\n## Contents\n- [Release](#release)\n- [Contents](#contents)\n- [Installation](#installation)\n- [Usage](#usage)\n- [Important Notes](#important-notes)\n- [Training](#training)\n- [Acknowledgement](#acknowledgement)\n- [Star History](#star-history)\n- [BibTeX](#bibtex)\n\n## Installation\nOur environment has been tested on Ubuntu 22, CUDA 11.8 with A100, A800 and A6000.\n1. Clone our repo and create conda environment\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git && cd MeshAnything\nconda create -n MeshAnything python==3.10.13 -y\nconda activate MeshAnything\npip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install -r requirements.txt\npip install flash-attn --no-build-isolation\n```\nor\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git\n```\nAnd directly use in your code as\n```\nimport MeshAnything\n```\n\n## Usage\n### Local Gradio Demo \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fgradio-app\u002Fgradio'>\u003C\u002Fa>\n```\npython app.py\n```\n\n### Mesh Command line inference\n```\n# folder input\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh\n\n# single file input\npython main.py --input_path examples\u002Fwand.obj --out_dir mesh_output --input_type mesh\n\n# Preprocess with Marching Cubes first\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh --mc\n```\n### Point Cloud Command line inference\n```\n# Note: if you want to use your own point cloud, please make sure the normal is included.\n# The file format should be a .npy file with shape (N, 6), where N is the number of points. The first 3 columns are the coordinates, and the last 3 columns are the normal.\n\n# inference for folder\npython main.py --input_dir pc_examples --out_dir pc_output --input_type pc_normal\n\n# inference for single file\npython main.py --input_path pc_examples\u002Fmouse.npy --out_dir pc_output --input_type pc_normal\n```\n\n## Important Notes\n- It takes about 7GB and 30s to generate a mesh on an A6000 GPU.\n- The input mesh will be normalized to a unit bounding box. The up vector of the input mesh should be +Y for better results.\n- Limited by computational resources, MeshAnything is trained on meshes with fewer than 800 faces and cannot generate meshes with more than 800 faces. The shape of the input mesh should be sharp enough; otherwise, it will be challenging to represent it with only 800 faces. Thus, feed-forward 3D generation methods may often produce bad results due to insufficient shape quality. We suggest using results from 3D reconstruction, scanning and SDS-based method (like [DreamCraft3D](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDreamCraft3D)) as the input of MeshAnything.\n- Please refer to https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYiwen-ntu\u002FMeshAnything\u002Ftree\u002Fmain\u002Fexamples for more examples.\n\n## Training\nPlease refer to the training code of MeshAnythingV2 at https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2.\n\n## Acknowledgement\n\nOur code is based on these wonderful repos:\n\n* [MeshGPT](https:\u002F\u002Fnihalsid.github.io\u002Fmesh-gpt\u002F)\n* [meshgpt-pytorch](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmeshgpt-pytorch)\n* [Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo)\n* [transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n* [vector-quantize-pytorch](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fvector-quantize-pytorch)\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbuaacyw_MeshAnything_readme_61e305ff9962.png)](https:\u002F\u002Fstar-history.com\u002F#buaacyw\u002FMeshAnything&Date)\n\n## BibTeX\n```\n@misc{chen2024meshanything,\n  title={MeshAnything: Artist-Created Mesh Generation with Autoregressive Transformers},\n  author={Yiwen Chen and Tong He and Di Huang and Weicai Ye and Sijin Chen and Jiaxiang Tang and Xin Chen and Zhongang Cai and Lei Yang and Gang Yu and Guosheng Lin and Chi Zhang},\n  year={2024},\n  eprint={2406.10163},\n  archivePrefix={arXiv},\n  primaryClass={cs.CV}\n}\n```\n","\u003Cp align=\"center\">\n  \u003Ch3 align=\"center\">\u003Cstrong>MeshAnything：\u003Cbr>基于自回归Transformer的艺术家创作网格生成\u003C\u002Fstrong>\u003C\u002Fh3>\n\n\u003Cp align=\"center\">\n    \u003Ca href=\"https:\u002F\u002Fbuaacyw.github.io\u002F\">陈怡文\u003C\u002Fa>\u003Csup>1,2*\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Ftonghe90.github.io\u002F\">何通\u003C\u002Fa>\u003Csup>2†\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fdihuang.me\u002F\">黄迪\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fywcmaike.github.io\u002F\">叶伟才\u003C\u002Fa>\u003Csup>2\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fch3cook-fdu.github.io\u002F\">陈思瑾\u003C\u002Fa>\u003Csup>3\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fme.kiui.moe\u002F\">唐家翔\u003C\u002Fa>\u003Csup>4\u003C\u002Fsup>\u003Cbr>\n    \u003Ca href=\"https:\u002F\u002Fchenxin.tech\u002F\">陈欣\u003C\u002Fa>\u003Csup>5\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fcaizhongang.github.io\u002F\">蔡中刚\u003C\u002Fa>\u003Csup>6\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?user=jZH2IPYAAAAJ&hl=en\">杨磊\u003C\u002Fa>\u003Csup>6\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fwww.skicyyu.org\u002F\">于刚\u003C\u002Fa>\u003Csup>7\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Fguosheng.github.io\u002F\">林国生\u003C\u002Fa>\u003Csup>1†\u003C\u002Fsup>,\n    \u003Ca href=\"https:\u002F\u002Ficoz69.github.io\u002F\">张驰\u003C\u002Fa>\u003Csup>8†\u003C\u002Fsup>\n    \u003Cbr>\n    \u003Csup>*\u003C\u002Fsup>工作期间在上海人工智能实验室实习完成。\n    \u003Cbr>\n    \u003Csup>†\u003C\u002Fsup>通讯作者。\n    \u003Cbr>\n    \u003Csup>1\u003C\u002Fsup>南洋理工大学S-Lab，\n    \u003Csup>2\u003C\u002Fsup>上海人工智能实验室，\n    \u003Cbr>\n    \u003Csup>3\u003C\u002Fsup>复旦大学，\n    \u003Csup>4\u003C\u002Fsup>北京大学，\n    \u003Csup>5\u003C\u002Fsup>中国科学院大学，\n    \u003Cbr>\n    \u003Csup>6\u003C\u002Fsup>商汤科技研究院，\n    \u003Csup>7\u003C\u002Fsup>步科智能，\n    \u003Csup>8\u003C\u002Fsup>西湖大学\n\u003C\u002Fp>\n\n\n\u003Cdiv align=\"center\">\n\n\u003Ca href='https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.10163'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2406.10163-b31b1b.svg'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fbuaacyw.github.io\u002Fmesh-anything\u002F'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n \u003Ca href='https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fblob\u002Fmaster\u002FLICENSE.txt'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-SLab-blue'>\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002FYiwen-ntu\u002FMeshAnything\u002Ftree\u002Fmain\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Weights-HF-orange\">\u003C\u002Fa> &nbsp;&nbsp;&nbsp;&nbsp;\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYiwen-ntu\u002FMeshAnything\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Gradio%20Demo-HF-orange\">\u003C\u002Fa>\n\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbuaacyw_MeshAnything_readme_42b467601bdc.gif\" alt=\"演示GIF\" width=\"512px\" \u002F>\n\u003C\u002Fp>\n\n\n## 发布\n- [6\u002F17] 🔥🔥 试用我们新发布的**[MeshAnything V2](https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2)**。V2版本的最大面数提升至**1600**，性能更优。\n- [6\u002F17] 我们发布了3.5亿参数量的**MeshAnything**。\n\n## 目录\n- [发布](#release)\n- [目录](#contents)\n- [安装](#installation)\n- [使用](#usage)\n- [重要提示](#important-notes)\n- [训练](#training)\n- [致谢](#acknowledgement)\n- [星标历史](#star-history)\n- [BibTeX](#bibtex)\n\n## 安装\n我们的环境已在Ubuntu 22、CUDA 11.8以及A100、A800和A6000显卡上测试通过。\n1. 克隆我们的仓库并创建Conda环境\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git && cd MeshAnything\nconda create -n MeshAnything python==3.10.13 -y\nconda activate MeshAnything\npip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install -r requirements.txt\npip install flash-attn --no-build-isolation\n```\n或者\n```shell\npip install git+https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git\n```\n然后可以直接在代码中使用：\n```\nimport MeshAnything\n```\n\n## 使用\n### 本地Gradio演示 \u003Ca href='https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio'>\u003Cimg src='https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fgradio-app\u002Fgradio'>\u003C\u002Fa>\n```\npython app.py\n```\n\n### 网格命令行推理\n```\n# 文件夹输入\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh\n\n# 单个文件输入\npython main.py --input_path examples\u002Fwand.obj --out_dir mesh_output --input_type mesh\n\n# 先使用Marching Cubes预处理\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh --mc\n```\n### 点云命令行推理\n```\n# 注意：如果您想使用自己的点云，请确保包含法线信息。\n# 文件格式应为.npy文件，形状为(N, 6)，其中N是点的数量。前3列是坐标，后3列是法线。\n\n# 文件夹推理\npython main.py --input_dir pc_examples --out_dir pc_output --input_type pc_normal\n\n# 单个文件推理\npython main.py --input_path pc_examples\u002Fmouse.npy --out_dir pc_output --input_type pc_normal\n```\n\n## 重要提示\n- 在A6000显卡上生成一个网格大约需要7GB显存和30秒时间。\n- 输入网格将被归一化到单位包围盒。为了获得更好的效果，输入网格的向上方向应为+Y轴。\n- 受限于计算资源，MeshAnything仅在少于800个面的网格上进行训练，无法生成超过800个面的网格。输入网格的形状应足够清晰；否则，仅用800个面难以准确表示。因此，基于前馈的3D生成方法可能因形状质量不足而产生较差的结果。我们建议使用3D重建、扫描以及基于SDS的方法（如[DreamCraft3D](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDreamCraft3D)）的输出作为MeshAnything的输入。\n- 更多示例请参阅https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYiwen-ntu\u002FMeshAnything\u002Ftree\u002Fmain\u002Fexamples。\n\n## 训练\n请参考MeshAnythingV2的训练代码，地址为https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnythingV2。\n\n## 致谢\n\n我们的代码基于以下优秀项目：\n\n* [MeshGPT](https:\u002F\u002Fnihalsid.github.io\u002Fmesh-gpt\u002F)\n* [meshgpt-pytorch](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fmeshgpt-pytorch)\n* [Michelangelo](https:\u002F\u002Fgithub.com\u002FNeuralCarver\u002FMichelangelo)\n* [transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n* [vector-quantize-pytorch](https:\u002F\u002Fgithub.com\u002Flucidrains\u002Fvector-quantize-pytorch)\n\n## 星标历史\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbuaacyw_MeshAnything_readme_61e305ff9962.png)](https:\u002F\u002Fstar-history.com\u002F#buaacyw\u002FMeshAnything&Date)\n\n## BibTeX\n```\n@misc{chen2024meshanything,\n  title={MeshAnything: Artist-Created Mesh Generation with Autoregressive Transformers},\n  author={Yiwen Chen and Tong He and Di Huang and Weicai Ye and Sijin Chen and Jiaxiang Tang and Xin Chen and Zhongang Cai and Lei Yang and Gang Yu and Guosheng Lin and Chi Zhang},\n  year={2024},\n  eprint={2406.10163},\n  archivePrefix={arXiv},\n  primaryClass={cs.CV}\n}\n```","# MeshAnything 快速上手指南\n\nMeshAnything 是一个基于自回归 Transformer 的 AI 工具，能够将艺术家创作的网格（Mesh）或点云转换为高质量的网格模型。它特别擅长处理由 3D 重建、扫描或 SDS 方法生成的输入，将其优化为拓扑结构良好的网格。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 22.04)\n*   **GPU**: NVIDIA 显卡 (测试环境包括 A100, A800, A6000)，需支持 CUDA 11.8\n*   **Python**: 3.10.13\n*   **依赖管理**: Conda\n\n> **注意**：生成一个网格模型在 A6000 GPU 上大约需要 7GB 显存和 30 秒时间。\n\n## 安装步骤\n\n### 1. 克隆仓库并创建虚拟环境\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git && cd MeshAnything\nconda create -n MeshAnything python==3.10.13 -y\nconda activate MeshAnything\n```\n\n### 2. 安装 PyTorch 及核心依赖\n\n请根据您的 CUDA 版本安装对应的 PyTorch。以下为官方推荐的 CUDA 11.8 版本安装命令：\n\n```bash\npip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install -r requirements.txt\npip install flash-attn --no-build-isolation\n```\n\n> **国内加速建议**：如果下载速度较慢，可将 `--index-url` 替换为清华源或阿里源，例如：\n> `--index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` (注意 PyTorch 官方二进制包通常仍需从官方源下载，建议仅对 `requirements.txt` 中的包使用国内镜像)。\n\n### 3. 可选：直接作为 Python 库安装\n\n如果您希望在其他项目中直接调用，可以使用以下方式安装：\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything.git\n```\n\n安装后即可在代码中通过 `import MeshAnything` 使用。\n\n## 基本使用\n\n### 方式一：启动本地 Web 界面 (Gradio)\n\n这是最直观的试用方式，启动后会在浏览器中打开交互界面。\n\n```bash\npython app.py\n```\n\n### 方式二：命令行推理 (Mesh 输入)\n\n将现有的网格文件（如 `.obj`）作为输入进行优化生成。\n\n**处理单个文件：**\n```bash\npython main.py --input_path examples\u002Fwand.obj --out_dir mesh_output --input_type mesh\n```\n\n**处理文件夹内的所有文件：**\n```bash\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh\n```\n\n**预处理模式（先执行 Marching Cubes）：**\n```bash\npython main.py --input_dir examples --out_dir mesh_output --input_type mesh --mc\n```\n\n### 方式三：命令行推理 (点云输入)\n\n支持带法线的点云输入。\n*   **格式要求**：`.npy` 文件，形状为 `(N, 6)`。前 3 列为坐标，后 3 列为法线。\n\n```bash\npython main.py --input_path pc_examples\u002Fmouse.npy --out_dir pc_output --input_type pc_normal\n```\n\n## 重要提示\n\n1.  **输入方向**：为了获得最佳效果，输入网格的向上向量（Up Vector）应为 **+Y** 轴。输入网格会被自动归一化到单位边界框内。\n2.  **面数限制**：受训练数据限制，当前版本生成的网格面数不超过 **800**。如果输入形状过于复杂或不够锐利，可能难以用少量面数完美表达。\n3.  **推荐输入源**：建议使用 3D 重建结果、扫描数据或基于 SDS 的方法（如 DreamCraft3D）生成的模型作为输入，以获得更好的优化效果。\n4.  **新版本**：如果需要生成更多面数（最高 1600 面）的模型，请关注该项目发布的 **MeshAnything V2** 版本。","某独立游戏开发者需要将概念艺术图快速转化为可在 Unity 引擎中直接使用的低多边形 3D 资产，以加速原型开发迭代。\n\n### 没有 MeshAnything 时\n- **人工建模耗时极长**：美术人员需手动在 Blender 中根据参考图一点点拓扑布线，单个简单道具往往需要数小时甚至数天。\n- **面数难以控制**：自动生成的模型通常面数过高（数百万面），无法直接用于实时渲染，必须经过繁琐的重拓扑流程。\n- **拓扑结构混乱**：传统算法生成的网格布线杂乱无章，导致后续进行骨骼绑定或动画变形时出现严重的模型撕裂。\n- **风格一致性差**：不同工具产出的模型风格割裂，难以维持游戏整体“手绘风”或“低模风”的艺术统一性。\n\n### 使用 MeshAnything 后\n- **生成效率飞跃**：输入一张概念图或粗糙草图，MeshAnything 利用自回归 Transformer 架构，几分钟内即可生成完整的 3D 网格，将制作周期从“天”缩短至“分钟”。\n- **原生低模输出**：直接生成符合实时渲染要求的低面数模型（如 V2 版本支持优化至 1600 面以内），无需额外的减面或重拓扑步骤。\n- **艺术家级拓扑**：生成的网格布线逻辑模仿人类艺术家的创作习惯，结构清晰规整，完美支持后续的动画绑定与形变操作。\n- **风格高度可控**：能够精准捕捉输入图像的艺术风格，确保生成的资产与游戏整体美术基调无缝融合，减少后期调整成本。\n\nMeshAnything 通过将复杂的 3D 建模过程自动化并赋予其“艺术家般”的拓扑审美，彻底打破了从 2D 创意到 3D 资产的高效转化瓶颈。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbuaacyw_MeshAnything_38499f15.png","buaacyw","Yiwen Chen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbuaacyw_f9e173df.jpg","S-Lab, NTU SCSE PhD","Nanyang Technological University","Singapore","YIWEN002@e.ntu.edu.sg",null,"https:\u002F\u002Fbuaacyw.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fbuaacyw",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,2273,104,"2026-04-04T14:01:34","NOASSERTION","Linux","必需 NVIDIA GPU，测试型号包括 A100, A800, A6000；生成过程约需 7GB 显存；需 CUDA 11.8","未说明",{"notes":99,"python":100,"dependencies":101},"1. 仅在 Ubuntu 22 环境下测试通过。2. 模型受限于训练数据，生成的网格面数不超过 800 个，输入形状需足够清晰。3. 建议输入网格的上方向向量为 +Y 以获得更好效果。4. 支持点云输入，但要求 .npy 格式且必须包含法线信息 (N, 6)。5. 推荐使用 3D 重建、扫描或基于 SDS 的方法（如 DreamCraft3D）的结果作为输入，避免使用前馈 3D 生成方法的低质量结果。","3.10.13",[102,103,104,105],"torch==2.1.1","torchvision==0.16.1","torchaudio==2.1.1","flash-attn",[37,15],[108,109,110,111,112,113,114,115,116,117],"3d","generative-ai","generative-model","mesh","mesh-generation","auto-regressive-model","large-language-models","transformers","point-cloud","iclr2025","2026-03-27T02:49:30.150509","2026-04-06T09:06:54.781470",[121,126,131,136,140,145],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},18435,"如何在 Windows 上解决 mesh2sdf 构建失败的问题？","在 Windows 上安装 mesh2sdf 经常遇到编译错误。有效的解决方案包括：1. 将 Python 版本降级到 3.9，该版本下 mesh2sdf 通常能正确安装；2. 如果上述方法无效，建议在 Linux 环境（如 Debian）中运行该项目，以避免 Windows 下的编译兼容性问题。","https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fissues\u002F15",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},18436,"模型推理时支持直接输入网格（Mesh）文件吗？还是需要转换为点云？","Transformer 的输入始终是点云。如果你直接输入网格文件，程序会自动从网格中提取点云作为输入，无需手动转换。","https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fissues\u002F31",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},18437,"点云编码器（Point Cloud Encoder）是使用什么数据训练的？权重来源是什么？","项目使用了与 Michelangelo 仓库完全相同的权重。虽然 Michelangelo 的论文中可能只提到了 ShapeNet，但其官方仓库发布的编码器 - 解码器实际上是在 Objaverse + ShapeNet 数据集上训练的。","https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fissues\u002F12",{"id":137,"question_zh":138,"answer_zh":139,"source_url":130},18438,"训练过程和推理过程中，解码器的输入为什么不同？","在训练过程中，解码器接收网格特征和点特征；而在推理过程中，输入仅包含点特征。这是因为在推理时，网格特征是由 Transformer 生成的，不需要外部输入。",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},18439,"软件支持哪些点云文件格式？如何从其他格式转换？","该软件目前主要支持 .npy 格式的点云文件。如果你拥有 .ply, .las, .pts 等其他格式（例如来自 Polycam 或 Metashape 的扫描），需要先使用其他工具将其转换为 .npy 格式才能作为输入。目前软件尚未内置对其他格式的直接支持。","https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fissues\u002F7",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},18440,"为什么输入真实世界的扫描网格（如摄影测量数据）时效果很差？","目前的模型主要针对低多边形（low-poly）网格进行了优化，尚未准备好处理真实的复杂世界扫描数据（如带有孔洞或非密封的高多边形摄影测量网格）。如果输入高多边形网格且不限定三角形数量，输出可能接近输入；如果限制三角形数量（如 250），对于复杂真实物体可能会产生严重失真的结果。建议仅尝试简单的低多边形模型。","https:\u002F\u002Fgithub.com\u002Fbuaacyw\u002FMeshAnything\u002Fissues\u002F8",[]]