[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Roblox--cube":3,"tool-Roblox--cube":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":76,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":29,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":104,"github_topics":105,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":111,"updated_at":112,"faqs":113,"releases":139},3082,"Roblox\u002Fcube","cube","Roblox Foundation Model for 3D Intelligence","Cube 是 Roblox 推出的面向 3D 智能的基础模型，旨在成为构建虚拟世界的核心引擎。它不仅能根据文字描述自动生成高质量的 3D 物体和场景，还能辅助完成角色骨骼绑定及行为脚本编写，全方位支持开发者打造丰富的 Roblox 体验。\n\n针对传统 3D 内容制作门槛高、周期长的痛点，Cube 利用生成式 AI 技术大幅降低了创作难度。用户只需输入如“机械龙虾”或“低多边形维多利亚风格兔子”等复杂指令，即可快速获得结构合理、细节丰富的 3D 资产。2025 年 7 月更新的 v0.5 版本进一步提升了生成保真度，并引入了独特的“边界框条件控制”技术，允许用户在生成时指定物体的整体比例和形态约束，使模型能更精准地平衡创意与空间需求。\n\n这款工具非常适合游戏开发者、3D 设计师以及人工智能研究人员使用。开发者可利用它加速原型设计，设计师能借此激发灵感并快速产出素材，而研究人员则可通过其开源架构探索 3D 生成的前沿技术。目前，Cube 已开放模型权重、交互式演示及 Colab 实验环境，邀请社区共同推动 3D 智能生态的发展。","# Cube: Generative AI System for 3D\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_9d6b697e024c.png\" width=\"800\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=https:\u002F\u002Fcorp.roblox.com\u002Fnewsroom\u002F2025\u002F03\u002Fintroducing-roblox-cube target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRoblox-Blog-000000.svg?logo=Roblox height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15475 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArXiv-Report-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002FRoblox\u002Fcube3d-v0.5 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20HuggingFace-Models-d96902.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FRoblox\u002Fcube3d-interactive target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20HuggingFace-Demo-blue.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ZvTj49pjDCD_crX5WPZNTAoTTzL6-E5t target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-blue.svg?logo=googlecolab height=22px>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\nFoundation models trained on vast amounts of data have demonstrated remarkable reasoning and\ngeneration capabilities in the domains of text, images, audio and video. Our goal is to build\nsuch a foundation model for 3D intelligence, a model that can support developers in producing all aspects\nof a Roblox experience, from generating 3D objects and scenes to rigging characters for animation to\nproducing programmatic scripts describing object behaviors. As we start open-sourcing a family of models \ntowards this vision, we hope to engage others in the research community to address these goals with us.\n\n## July 2025 Update: Cube 3D v0.5 ✨\nWith the v0.5 model, we introduce two upgrades to the auto-regressive base model for 3D geometry generation from text: *higher fidelity 3D compositions* and *bounding box conditioning*.\nThe example gif below shows the model's capacity to generate 3D shapes capturing mixtures of concepts expressed in text, for example *mechanical lobster with mechanical tank treads*. The v0.5 model also shows significantly better text adherence, for example the *lowpoly paper craft victorian rabbit*.  \n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_e24287449ecf.gif\" width=\"100%\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\nWith bounding box conditioning, we observe novel 3D generations where the model balances between the two conditioning inputs -- text prompt and global aspect ratio. In the gif below, notice how the model creatively interprets the *seashell* or *tall pagoda* prompts into distinct 3D shapes. The model sometimes struggles when the bounding box is too extreme for a given prompt, for example the *cat*, where it can produce disconnected components or generates it along a diagonal to fit the bounding box constraints.\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_e1efb9408564.gif\" width=\"100%\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\nFor a technical overview of the methods behind these two improvements, please refer to our latest \u003Ca href=https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15475 target=\"_blank\">v3 report on arXiv\u003C\u002Fa>. The latest model was trained on an additional ~2.8 million synthetic 3D assets. We introduced several refinements to VQ-VAE architecture and training procedures, and increased the VQ-VAE latent length from 512 to 1024 to increase generation fidelity.\n\n### Try it out on \n- [Hugging Face Interactive Demo](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FRoblox\u002Fcube3d-interactive)\n- [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ZvTj49pjDCD_crX5WPZNTAoTTzL6-E5t)\n\n### Updated CLI Inference\nPlease follow the [install instructions](#install-requirements) below (from v0.1) to clone and install the repo. The main changes are new model weights, config (under ```.\u002Fcube3d\u002Fconfig\u002F```) and new args for specifying bounding box. We currently default to the v0.5 config that supports bounding box.\nTo generate 3D models using the downloaded models simply run:\n\n```bash\npython -m cube3d.generate \\\n            --gpt-ckpt-path model_weights\u002Fshape_gpt.safetensors \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --fast-inference \\\n            --prompt \"A tall pagoda\" \\\n            --bounding-box-xyz 1.0 2.0 1.5\n```\n> **Note**: `--fast-inference` is optional and may not be available for all GPU that have limited VRAM. This flag will also not work on MacOS. \n\nThe output will be an `.obj` file saved in the specified `output` directory.\n\n## March 2025 Launch: Cube 3D v0.1\n\nCube 3D is our first step towards 3D intelligence, which involves a shape tokenizer and a text-to-shape generation model. We are unlocking the power of generating 3D assets and enhancing creativity for all artists. Our latest version of Cube 3D is now accessible to individuals, creators, researchers and businesses of all sizes so that they can experiment, innovate and scale their ideas responsibly. This release includes model weights and starting code for using our text-to-shape model to create 3D assets.\n\n### Install Requirements\n\nClone and install this repo in a virtual environment, via:\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube.git\ncd cube\npip install -e .[meshlab]\n```\n\n> **CUDA**: If you are using a Windows machine, you may need to install the [CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads) toolkit as well as `torch` with cuda support via `pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124 --force-reinstall`\n\n> **MacOS**: Systems with Apple Silicon or AMD GPUs can leverage the Metal Performance Shaders (MPS) backend for PyTorch.\n\n> **Note**: `[meshlab]` is an optional dependency and can be removed by simply running `pip install -e .` for better compatibility but mesh simplification will be disabled.\n\n### Download Models from Huggingface 🤗\n\nDownload the model weights from [hugging face](https:\u002F\u002Fhuggingface.co\u002FRoblox\u002Fcube3d-v0.5) or use the\n`huggingface-cli`:\n\n```bash\nhuggingface-cli download Roblox\u002Fcube3d-v0.5 --local-dir .\u002Fmodel_weights\n```\n\n### Inference\n\n#### 1. Shape Generation\n\nTo generate 3D models using the downloaded models simply run:\n\n```bash\npython -m cube3d.generate \\\n            --gpt-ckpt-path model_weights\u002Fshape_gpt.safetensors \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --fast-inference \\\n            --prompt \"Broad-winged flying red dragon, elongated, folded legs.\"\n```\n\n> **Note**: `--fast-inference` is optional and may not be available for all GPU that have limited VRAM. This flag will also not work on MacOS. \n\nThe output will be an `.obj` file saved in the specified `output` directory.\n\nIf you want to render a turntable gif of the mesh, you can use the `--render-gif` flag, which will render a turntable gif of the mesh\nand save it as `turntable.gif` in the specified `output` directory. \n\nWe provide several example output objects and their corresponding text prompts in the `examples` folder.\n\n> **Note**: You must have Blender (version >= 4.3) installed and available in your system's PATH to render the turntable GIF. You can download it from [Blender's official website](https:\u002F\u002Fwww.blender.org\u002F). Ensure that the Blender executable is accessible from the command line.\n\n> **Note**: If shape decoding is slow, you can try to specify a lower resolution using the `--resolution-base` flag. A lower resolution will create a coarser and lower quality output mesh but faster decoding. Values between 4.0 and 9.0 are recommended.\n\n#### 2. Shape Tokenization and De-tokenization\n\nTo tokenize a 3D shape into token indices and reconstruct it back, you can use the following command:\n\n```bash\npython -m cube3d.vq_vae_encode_decode \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --mesh-path .\u002Foutputs\u002Foutput.obj\n```\n\nThis will process the `.obj` file located at `.\u002Foutputs\u002Foutput.obj` and prints the tokenized representation as well as exports the mesh reconstructed from the token indices.\n\n### Hardware Requirements\n\nWe have tested our model on:\n* Nvidia L40S GPU\n* Nvidia H100 GPU\n* Nvidia A100 GPU\n* Apple Silicon M2-4 Chips.\n\nWe recommend using a GPU with at least 24GB of VRAM available when using `--fast-inference` (or `EngineFast`) and 16GB otherwise. \n\n### Code Usage\n\nWe have designed a minimalist API that allows the use this repo as a Python library:\n\n```python\nimport torch\nimport trimesh\nfrom cube3d.inference.engine import Engine, EngineFast\n\n# load ckpt\nconfig_path = \"cube3d\u002Fconfigs\u002Fopen_model.yaml\"\ngpt_ckpt_path = \"model_weights\u002Fshape_gpt.safetensors\"\nshape_ckpt_path = \"model_weights\u002Fshape_tokenizer.safetensors\"\nengine_fast = EngineFast( # only supported on CUDA devices, replace with Engine otherwise\n    config_path, \n    gpt_ckpt_path, \n    shape_ckpt_path, \n    device=torch.device(\"cuda\"), # Replace with \"mps\" on Metal-compatible devices\n)\n\n# inference\ninput_prompt = \"A pair of noise-canceling headphones\"\n# NOTE: Reduce `resolution_base` for faster inference and lower VRAM usage\n# The `top_p` parameter controls randomness between inferences:\n#   Float \u003C 1: Keep smallest set of tokens with cumulative probability ≥ top_p. Default None: deterministic generation.\nmesh_v_f = engine_fast.t2s([input_prompt], use_kv_cache=True, resolution_base=8.0, top_p=0.9)\n\n# save output\nvertices, faces = mesh_v_f[0][0], mesh_v_f[0][1]\n_ = trimesh.Trimesh(vertices=vertices, faces=faces).export(\"output.obj\")\n```\n\n## Upcoming Features\n- Texture generation\n- Scene layout generation\n\n\n## Citation\nIf you find this work helpful, please consider citing our technical report:\n\n```bibtex\n@article{roblox2025cube,\n    title   = {Cube: A Roblox View of 3D Intelligence},\n    author  = {Roblox, Foundation AI Team},\n    journal = {arXiv preprint arXiv:2503.15475},\n    year    = {2025}\n}\n```\n\n## Acknowledgements\n\nWe would like to thank the contributors of [TRELLIS](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS), [CraftsMan3D](https:\u002F\u002Fgithub.com\u002Fwyysf-98\u002FCraftsMan3D), [threestudio](https:\u002F\u002Fgithub.com\u002Fthreestudio-project\u002Fthreestudio), [Hunyuan3D-2](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-2), [minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT), [dinov2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdinov2), [OptVQ](https:\u002F\u002Fgithub.com\u002Fzbr17\u002FOptVQ), [1d-tokenizer](https:\u002F\u002Fgithub.com\u002Fbytedance\u002F1d-tokenizer)\nrepositories, for their open source contributions.\n","# Cube：用于3D的生成式AI系统\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_9d6b697e024c.png\" width=\"800\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=https:\u002F\u002Fcorp.roblox.com\u002Fnewsroom\u002F2025\u002F03\u002Fintroducing-roblox-cube target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FRoblox-Blog-000000.svg?logo=Roblox height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15475 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FArXiv-Report-b5212f.svg?logo=arxiv height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002FRoblox\u002Fcube3d-v0.5 target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20HuggingFace-Models-d96902.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FRoblox\u002Fcube3d-interactive target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20HuggingFace-Demo-blue.svg height=22px>\u003C\u002Fa>\n  \u003Ca href=https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ZvTj49pjDCD_crX5WPZNTAoTTzL6-E5t target=\"_blank\">\u003Cimg src=https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColab-Demo-blue.svg?logo=googlecolab height=22px>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\n基于海量数据训练的基础模型，在文本、图像、音频和视频等领域展现出卓越的推理与生成能力。我们的目标是构建一个面向3D智能的基础模型，该模型能够支持开发者完成Roblox体验的各个方面——从生成3D对象和场景，到为角色绑定骨骼以实现动画，再到编写描述对象行为的程序化脚本。随着我们开始开源一系列朝着这一愿景迈进的模型，我们希望与研究社区的同仁们携手合作，共同实现这些目标。\n\n## 2025年7月更新：Cube 3D v0.5 ✨\n在v0.5版本中，我们对基于自回归的文本到3D几何生成基础模型进行了两项升级：*更高保真的3D组合*和*边界框条件约束*。下方的示例动图展示了该模型能够生成捕捉文本中多种概念混合的3D形状，例如“带有机械履带的机械龙虾”。此外，v0.5模型在文本一致性方面也有了显著提升，比如“低多边形纸质维多利亚风格兔子”。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_e24287449ecf.gif\" width=\"100%\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\n通过边界框条件约束，我们观察到模型能够在两个条件输入——文本提示和全局宽高比——之间取得平衡，从而生成新颖的3D作品。在下面的动图中，可以看到模型如何将“贝壳”或“高塔”等提示创造性地转化为独特的3D形态。不过，当边界框对于特定提示过于极端时，模型有时也会遇到困难，例如在生成“猫”的例子中，可能会产生不相连的部分，或者为了适应边界框限制而沿对角线方向进行生成。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_readme_e1efb9408564.gif\" width=\"100%\" style=\"margin: 5px;\">\n\u003C\u002Fp>\n\n如需了解这两项改进背后的技术细节，请参阅我们在arXiv上发布的最新报告：\u003Ca href=https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15475 target=\"_blank\">v3报告\u003C\u002Fa>。最新模型是在额外约280万个合成3D资产上进行训练的。我们对VQ-VAE架构及训练流程进行了多项优化，并将VQ-VAE潜在空间长度由512增加至1024，以提升生成质量。\n\n### 试用地址：\n- [Hugging Face交互式演示](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FRoblox\u002Fcube3d-interactive)\n- [Google Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1ZvTj49pjDCD_crX5WPZNTAoTTzL6-E5t)\n\n### 更新后的CLI推理\n请按照以下[安装要求]（自v0.1版本起）克隆并安装代码库。主要变化包括新的模型权重、配置文件（位于```.\u002Fcube3d\u002Fconfig\u002F```目录下）以及用于指定边界框的新参数。目前默认使用支持边界框的v0.5配置。\n\n要使用下载的模型生成3D模型，只需运行以下命令：\n\n```bash\npython -m cube3d.generate \\\n            --gpt-ckpt-path model_weights\u002Fshape_gpt.safetensors \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --fast-inference \\\n            --prompt \"一座高塔\" \\\n            --bounding-box-xyz 1.0 2.0 1.5\n```\n> **注意**：`--fast-inference`为可选参数，并非所有显存有限的GPU都支持。此选项在MacOS上也无法使用。\n\n生成的输出将是一个`.obj`文件，保存在指定的`output`目录中。\n\n## 2025年3月发布：Cube 3D v0.1\n\nCube 3D是我们迈向3D智能的第一步，它包含一个形状分词器和一个文本到形状的生成模型。我们正在释放生成3D资源的能力，激发所有创作者的创造力。最新版本的Cube 3D现已向个人、创作者、研究人员以及各种规模的企业开放，以便他们能够负责任地试验、创新并扩展自己的想法。本次发布包含了模型权重以及使用我们的文本到形状模型创建3D资源的初始代码。\n\n### 安装要求\n\n请在虚拟环境中克隆并安装此仓库，方法如下：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube.git\ncd cube\npip install -e .[meshlab]\n```\n\n> **CUDA**：如果您使用的是Windows机器，可能需要安装[CUDA](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)工具包，并通过`pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124 --force-reinstall`来安装支持CUDA的PyTorch。\n\n> **MacOS**：配备Apple Silicon或AMD显卡的系统可以利用PyTorch的Metal Performance Shaders (MPS)后端。\n\n> **注意**：`[meshlab]`为可选依赖项，若为提高兼容性可直接运行`pip install -e .`将其移除，但此时网格简化功能将被禁用。\n\n### 从Hugging Face下载模型 🤗\n\n您可以从[Hugging Face](https:\u002F\u002Fhuggingface.co\u002FRoblox\u002Fcube3d-v0.5)下载模型权重，或使用`huggingface-cli`：\n\n```bash\nhuggingface-cli download Roblox\u002Fcube3d-v0.5 --local-dir .\u002Fmodel_weights\n```\n\n### 推理\n\n#### 1. 形状生成\n\n要使用下载的模型生成 3D 模型，只需运行以下命令：\n\n```bash\npython -m cube3d.generate \\\n            --gpt-ckpt-path model_weights\u002Fshape_gpt.safetensors \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --fast-inference \\\n            --prompt \"宽翼飞翔的红龙，身形修长，双腿收起。\"\n```\n\n> **注意**：`--fast-inference` 是可选参数，并非所有显存有限的 GPU 都支持。此外，该标志在 macOS 上也无法使用。\n\n输出将是一个 `.obj` 文件，保存到指定的 `output` 目录中。\n\n若需渲染网格的转盘 GIF 动画，可以使用 `--render-gif` 标志，它会生成一个转盘 GIF 并将其保存为 `turntable.gif`，同样位于指定的 `output` 目录中。\n\n我们在 `examples` 文件夹中提供了若干示例输出对象及其对应的文本提示。\n\n> **注意**：要渲染转盘 GIF，您的系统必须安装 Blender（版本 ≥ 4.3）且其可执行文件需在系统的 PATH 中。您可从 [Blender 官网](https:\u002F\u002Fwww.blender.org\u002F)下载。请确保命令行能够访问 Blender 可执行文件。\n\n> **注意**：如果形状解码速度较慢，您可以尝试通过 `--resolution-base` 参数降低分辨率。较低的分辨率会生成更粗糙、质量较低但解码更快的网格。建议设置范围为 4.0 到 9.0。\n\n#### 2. 形状分词与反分词\n\n要将 3D 形状分词为标记索引并将其重构回原始形状，可使用以下命令：\n\n```bash\npython -m cube3d.vq_vae_encode_decode \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --mesh-path .\u002Foutputs\u002Foutput.obj\n```\n\n此命令将处理位于 `.\u002Foutputs\u002Foutput.obj` 的 `.obj` 文件，打印出分词后的表示，并导出由标记索引重构的网格。\n\n### 硬件要求\n\n我们已在以下设备上测试过本模型：\n* Nvidia L40S GPU\n* Nvidia H100 GPU\n* Nvidia A100 GPU\n* Apple Silicon M2-4 芯片。\n\n建议在使用 `--fast-inference`（或 `EngineFast`）时，GPU 显存至少为 24GB；否则，至少需要 16GB 显存。\n\n### 代码使用\n\n我们设计了一个极简的 API，允许将此仓库作为 Python 库使用：\n\n```python\nimport torch\nimport trimesh\nfrom cube3d.inference.engine import Engine, EngineFast\n\n# 加载检查点\nconfig_path = \"cube3d\u002Fconfigs\u002Fopen_model.yaml\"\ngpt_ckpt_path = \"model_weights\u002Fshape_gpt.safetensors\"\nshape_ckpt_path = \"model_weights\u002Fshape_tokenizer.safetensors\"\nengine_fast = EngineFast( # 仅支持 CUDA 设备，否则请使用 Engine\n    config_path, \n    gpt_ckpt_path, \n    shape_ckpt_path, \n    device=torch.device(\"cuda\"), # 在 Metal 兼容设备上替换为 \"mps\"\n)\n\n# 推理\ninput_prompt = \"一副降噪耳机\"\n# 注意：降低 `resolution_base` 可加快推理速度并减少显存占用。\n# `top_p` 参数控制每次推理的随机性：\n#   小于 1 的浮点数：保留累积概率大于等于 `top_p` 的最小标记集合。默认为 None：确定性生成。\nmesh_v_f = engine_fast.t2s([input_prompt], use_kv_cache=True, resolution_base=8.0, top_p=0.9)\n\n# 保存输出\nvertices, faces = mesh_v_f[0][0], mesh_v_f[0][1]\n_ = trimesh.Trimesh(vertices=vertices，faces=faces).export(\"output.obj\")\n```\n\n## 即将推出的功能\n- 纹理生成\n- 场景布局生成\n\n## 引用\n如果您觉得本工作有所帮助，请考虑引用我们的技术报告：\n\n```bibtex\n@article{roblox2025cube,\n    title   = {Cube: 3D 智能的 Roblox 视角},\n    author  = {Roblox 基础 AI 团队},\n    journal = {arXiv 预印本 arXiv:2503.15475},\n    year    = {2025}\n}\n```\n\n## 致谢\n\n我们衷心感谢 [TRELLIS](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FTRELLIS)、[CraftsMan3D](https:\u002F\u002Fgithub.com\u002Fwyysf-98\u002FCraftsMan3D)、[threestudio](https:\u002F\u002Fgithub.com\u002Fthreestudio-project\u002Fthreestudio)、[Hunyuan3D-2](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuan3D-2)、[minGPT](https:\u002F\u002Fgithub.com\u002Fkarpathy\u002FminGPT)、[dinov2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fdinov2)、[OptVQ](https:\u002F\u002Fgithub.com\u002Fzbr17\u002FOptVQ)、[1d-tokenizer](https:\u002F\u002Fgithub.com\u002Fbytedance\u002F1d-tokenizer) 等开源项目贡献者，感谢他们对开源社区的宝贵贡献。","# Cube 3D 快速上手指南\n\nCube 是由 Roblox 推出的生成式 3D AI 系统，旨在通过文本提示生成高质量的 3D 几何模型。本指南基于最新的 **v0.5** 版本，帮助开发者快速在本地运行模型。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**: Linux, Windows, macOS (Apple Silicon)\n*   **GPU 推荐**:\n    *   使用 `--fast-inference` (快速推理): 建议显存 **24GB** 及以上 (如 Nvidia A100, H100, L40S)。\n    *   标准推理: 建议显存 **16GB** 及以上。\n    *   Apple Silicon (M2\u002FM3\u002FM4) 可使用 MPS 后端运行。\n*   **软件依赖**:\n    *   Python 3.8+\n    *   Git\n    *   **Blender** (版本 >= 4.3): 仅当需要生成旋转展示 GIF (`--render-gif`) 时必须安装，并需确保 `blender` 命令可在终端直接调用。\n\n### 前置依赖说明\n*   **Windows 用户**: 需预先安装 [CUDA Toolkit](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-downloads)。\n*   **macOS 用户**: 系统自动利用 Metal Performance Shaders (MPS) 加速，无需额外配置 CUDA。\n\n## 安装步骤\n\n### 1. 克隆仓库并安装依赖\n建议在虚拟环境中进行安装。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube.git\ncd cube\npip install -e .[meshlab]\n```\n\n> **注意**:\n> *   `[meshlab]` 是可选依赖，用于网格简化。若遇到兼容性问题，可运行 `pip install -e .` 省略该功能。\n> *   **Windows CUDA 配置**: 如果安装后 torch 未识别 GPU，请强制重装支持 CUDA 的 torch：\n>     ```bash\n>     pip install torch --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu124 --force-reinstall\n>     ```\n\n### 2. 下载模型权重\n从 Hugging Face 下载 v0.5 模型权重到本地 `model_weights` 目录。\n\n```bash\nhuggingface-cli download Roblox\u002Fcube3d-v0.5 --local-dir .\u002Fmodel_weights\n```\n\n> **国内加速提示**: 如果访问 Hugging Face 速度慢，可设置镜像环境变量后再运行上述命令：\n> ```bash\n> export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n> huggingface-cli download Roblox\u002Fcube3d-v0.5 --local-dir .\u002Fmodel_weights\n> ```\n\n## 基本使用\n\n### 命令行推理 (CLI)\n使用以下命令根据文本提示生成 3D 模型（输出为 `.obj` 文件）。此示例展示了 v0.5 的新特性：支持边界框 (`--bounding-box-xyz`) 控制模型比例。\n\n```bash\npython -m cube3d.generate \\\n            --gpt-ckpt-path model_weights\u002Fshape_gpt.safetensors \\\n            --shape-ckpt-path model_weights\u002Fshape_tokenizer.safetensors \\\n            --fast-inference \\\n            --prompt \"A tall pagoda\" \\\n            --bounding-box-xyz 1.0 2.0 1.5\n```\n\n**参数说明**:\n*   `--prompt`: 生成模型的文本描述。\n*   `--fast-inference`: 启用快速推理（仅限显存充足的 CUDA 设备，MacOS 不支持）。若显存不足或报错，请移除此参数。\n*   `--bounding-box-xyz X Y Z`: (可选) 指定生成物体的长宽高比例约束。\n*   `--render-gif`: (可选) 若已安装 Blender，添加此参数可生成旋转展示动画 `turntable.gif`。\n*   `--resolution-base`: (可选) 若解码速度慢，可降低此值（推荐 4.0-9.0），以牺牲少量精度换取速度。\n\n生成的 `.obj` 文件将保存在默认的 `output` 目录中。\n\n### Python 代码调用\n你也可以将 Cube 作为 Python 库集成到自己的项目中：\n\n```python\nimport torch\nimport trimesh\nfrom cube3d.inference.engine import Engine, EngineFast\n\n# 加载配置与权重\nconfig_path = \"cube3d\u002Fconfigs\u002Fopen_model.yaml\"\ngpt_ckpt_path = \"model_weights\u002Fshape_gpt.safetensors\"\nshape_ckpt_path = \"model_weights\u002Fshape_tokenizer.safetensors\"\n\n# 初始化引擎 (CUDA 设备使用 EngineFast，MacOS 使用 Engine 并设置 device=\"mps\")\nengine_fast = EngineFast(\n    config_path, \n    gpt_ckpt_path, \n    shape_ckpt_path, \n    device=torch.device(\"cuda\"), \n)\n\n# 执行推理\ninput_prompt = \"A pair of noise-canceling headphones\"\n# resolution_base: 降低数值可加快推理并减少显存占用\n# top_p: 控制随机性 (默认 None 为确定性生成)\nmesh_v_f = engine_fast.t2s([input_prompt], use_kv_cache=True, resolution_base=8.0, top_p=0.9)\n\n# 保存结果\nvertices, faces = mesh_v_f[0][0], mesh_v_f[0][1]\n_ = trimesh.Trimesh(vertices=vertices, faces=faces).export(\"output.obj\")\n```","一位独立游戏开发者正在为 Roblox 平台快速构建一个包含复杂机械生物和独特建筑风格的冒险地图，急需大量高质量的 3D 资产。\n\n### 没有 cube 时\n- **建模耗时极长**：手工雕刻“带有机械坦克履带的龙虾”等混合概念模型，需数天时间调整拓扑结构和细节。\n- **风格难以统一**：外包或自行制作的低多边形（Lowpoly）纸艺风格兔子，往往比例失调，缺乏维多利亚时代的精致感。\n- **空间适配困难**：手动调整贝壳或高塔模型以适应特定的关卡边界框（Bounding Box），常导致模型变形或构图失衡。\n- **迭代成本高昂**：一旦策划修改需求，如改变物体长宽比，几乎需要重新建模，严重拖慢开发进度。\n\n### 使用 cube 后\n- **瞬间生成复杂组合**：输入文本提示词，cube 即可直接生成高保真的“机械龙虾配坦克履带”，完美融合多种概念特征。\n- **精准还原艺术风格**：通过自然语言描述，cube 能准确产出符合“低多边形纸艺维多利亚兔子”要求的模型，细节与风格高度一致。\n- **智能适应空间约束**：利用边界框条件控制功能，cube 能自动将“贝壳”或“高塔”创意生成到指定长宽比内，保持结构完整且美观。\n- **敏捷响应需求变更**：只需修改提示词或调整边界框参数，cube 秒级重新生成变体，让开发者能实时验证不同设计方案。\n\ncube 将原本需要数天的 3D 资产创作流程缩短至分钟级，让开发者能从繁琐的建模工作中解放出来，专注于游戏玩法的核心创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FRoblox_cube_9d6b697e.png","Roblox","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FRoblox_cdcb0eed.png","Open Source libraries, utilities, and projects from Roblox with ❤",null,"https:\u002F\u002Fcorp.roblox.com\u002F","https:\u002F\u002Fgithub.com\u002FRoblox",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",67.3,{"name":88,"color":89,"percentage":90},"Python","#3572A5",32.7,931,88,"2026-04-02T20:08:39","NOASSERTION","Linux, macOS, Windows","必需。推荐 NVIDIA GPU (L40S, H100, A100)；Apple Silicon (M2-M4) 或 AMD GPU 可通过 MPS 后端运行。使用 --fast-inference 模式需至少 24GB 显存，普通模式需至少 16GB 显存。Windows 用户需安装 CUDA Toolkit (示例命令暗示 cu124\u002FCUDA 12.4)。","未说明",{"notes":99,"python":97,"dependencies":100},"1. Windows 用户需手动安装 CUDA Toolkit 并强制重装支持 CUDA 的 torch 版本。\n2. macOS 用户无法使用 --fast-inference 加速标志，需使用 Engine 类并指定 device='mps'。\n3. 生成旋转动画 GIF 需安装 Blender (版本 >= 4.3) 并配置到系统 PATH。\n4. 若显存有限或解码速度慢，可通过 --resolution-base 参数降低分辨率（推荐值 4.0-9.0）。\n5. 模型权重需从 Hugging Face 下载。",[101,102,103],"torch","trimesh","meshlabserver (可选)",[18],[106,107,108,109,110],"3d","shape-generation","text-to-3d","3d-generation","3d-aigc","2026-03-27T02:49:30.150509","2026-04-06T05:17:01.915444",[114,119,124,129,134],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},14190,"支持纹理生成和映射吗？","目前团队正在考虑该需求，但尚未确定具体的更新计划。您可以关注官方后续的公告。另外，可以参考相关项目 FlashTex (https:\u002F\u002Fgithub.com\u002FRoblox\u002FFlashTex) 了解现有能力。","https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube\u002Fissues\u002F53",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},14191,"运行渲染脚本时出现 'SceneEEVEE' object has no attribute 'use_raytracing' 错误怎么办？","这是因为 Blender 版本不兼容。测试脚本仅在 Blender 4.3 及以上版本中经过验证。如果您使用的是通过 `apt install blender` 安装的旧版本（如 4.0.x），请升级至 Blender 4.3+ 以支持 Eevee 中的光线追踪功能。","https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube\u002Fissues\u002F54",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},14192,"如何在配备 Apple Silicon (M1\u002FM2) 的 Mac 上加速推理过程？","可以通过启用 PyTorch 的 MPS (Metal Performance Shader) 后端来显著加速。将代码中的设备设置为 `torch.device(\"mps\")`。如果遇到 `index_copy_` 操作不支持的问题，请在运行脚本前设置环境变量 `PYTORCH_ENABLE_MPS_FALLBACK=1`，这将允许 torch 对该操作回退到 CPU 执行，从而绕过限制。","https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube\u002Fissues\u002F51",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},14193,"遇到 'RuntimeError: Tried to instantiate dummy base class CUDAGraph' 错误如何解决？","该错误通常是因为系统未检测到 GPU 而回退到了 CPU，但代码仍尝试使用仅适用于 CUDA 的图形功能。如果您使用了 `--fast-inference` 标志，请尝试移除它。该标志仅在拥有 CUDA 支持的 GPU 时有效，移除后推理将不使用 CUDA Graph，从而在 CPU 或其他后端上正常运行。","https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube\u002Fissues\u002F62",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},14194,"如何让模型在相同提示词下生成不同的随机结果？","目前官方尚未内置随机种子采样功能（已在计划中）。暂时的变通方法是轻微修改您的提示词（prompt），通过引入细微的文本变化来触发模型生成不同的输出结果。","https:\u002F\u002Fgithub.com\u002FRoblox\u002Fcube\u002Fissues\u002F38",[]]