[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-baaivision--Uni3D":3,"tool-baaivision--Uni3D":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",155373,2,"2026-04-14T11:34:08",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[46,26,43,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":81,"owner_email":81,"owner_twitter":81,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":110,"github_topics":111,"view_count":10,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":115,"updated_at":116,"faqs":117,"releases":148},7499,"baaivision\u002FUni3D","Uni3D","[ICLR'24 Spotlight] Uni3D: 3D Visual Representation from BAAI","Uni3D 是由北京智源人工智能研究院（BAAI）联合清华大学、北京大学推出的统一 3D 视觉表示学习框架，旨在解决大规模 3D 数据理解与处理的难题。作为 ICLR 2024 的焦点论文成果，它成功将 3D 模型的参数量扩展至十亿级别，并在多项 3D 任务中刷新了性能记录。\n\n传统 3D 模型往往受限于数据稀缺和训练成本，难以达到 2D 视觉模型的水平。Uni3D 巧妙地利用成熟的 2D 预训练模型（如 ViT）作为初始化基础，通过端到端的训练方式，将 3D 点云特征与强大的图像 - 文本对齐特征进行匹配。这种“借力打力”的策略不仅大幅降低了训练门槛，还充分释放了 2D 领域积累的海量知识潜能，实现了从 2D 到 3D 的高效迁移与扩展。\n\n该工具特别适合从事计算机视觉、三维重建及多模态智能研究的研究人员与开发者使用。无论是需要从零开始训练大模型，还是希望在分类、检索等下游任务中获取高性能预训练权重，Uni3D 都提供了从 600 万到 10 亿参数的多种模型选择及完整的评估代码。其开源生态还包括用于提升文生 3D 语义一致性的 Uni3D-score，是探索通用 3D 智能不可或缺","Uni3D 是由北京智源人工智能研究院（BAAI）联合清华大学、北京大学推出的统一 3D 视觉表示学习框架，旨在解决大规模 3D 数据理解与处理的难题。作为 ICLR 2024 的焦点论文成果，它成功将 3D 模型的参数量扩展至十亿级别，并在多项 3D 任务中刷新了性能记录。\n\n传统 3D 模型往往受限于数据稀缺和训练成本，难以达到 2D 视觉模型的水平。Uni3D 巧妙地利用成熟的 2D 预训练模型（如 ViT）作为初始化基础，通过端到端的训练方式，将 3D 点云特征与强大的图像 - 文本对齐特征进行匹配。这种“借力打力”的策略不仅大幅降低了训练门槛，还充分释放了 2D 领域积累的海量知识潜能，实现了从 2D 到 3D 的高效迁移与扩展。\n\n该工具特别适合从事计算机视觉、三维重建及多模态智能研究的研究人员与开发者使用。无论是需要从零开始训练大模型，还是希望在分类、检索等下游任务中获取高性能预训练权重，Uni3D 都提供了从 600 万到 10 亿参数的多种模型选择及完整的评估代码。其开源生态还包括用于提升文生 3D 语义一致性的 Uni3D-score，是探索通用 3D 智能不可或缺的基础设施。","\u003Cdiv align='center'>\n\n\u003Ch2>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06773\">Uni3D: Exploring Unified 3D Representation at Scale\u003C\u002Fa>\u003C\u002Fh2>\n\n[Junsheng Zhou](https:\u002F\u002Fjunshengzhou.github.io\u002F)\u003Csup>1,2*\u003C\u002Fsup>, [Jinsheng Wang](https:\u002F\u002Fgithub.com\u002FWolfwjs\u002F)\u003Csup>1*\u003C\u002Fsup>, [Baorui Ma](https:\u002F\u002Fmabaorui.github.io\u002F)\u003Csup>1*\u003C\u002Fsup>, [Yu-Shen Liu](https:\u002F\u002Fyushen-liu.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [Tiejun Huang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=knvEK4AAAAAJ&hl=en)\u003Csup>1,3\u003C\u002Fsup>, [Xinlong Wang](https:\u002F\u002Fwww.xloong.wang\u002F)\u003Csup>1\u003C\u002Fsup>\n \n\u003Csup>1\u003C\u002Fsup>[BAAI](https:\u002F\u002Fwww.baai.ac.cn\u002Fenglish.html), \u003Csup>2\u003C\u002Fsup>[THU](https:\u002F\u002Fwww.tsinghua.edu.cn\u002Fen\u002F), \u003Csup>3\u003C\u002Fsup>[PKU](https:\u002F\u002Fenglish.pku.edu.cn\u002F) \u003Cbr>\u003Csup>*\u003C\u002Fsup> Equal Contribution\n \nICLR 2024 (Spotlight)\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-3d-classification-on-objaverse-lvis)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-3d-classification-on-objaverse-lvis?p=uni3d-exploring-unified-3d-representation-at)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-transfer-3d-point-cloud)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-transfer-3d-point-cloud?p=uni3d-exploring-unified-3d-representation-at)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-transfer-3d-point-cloud-2)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-transfer-3d-point-cloud-2?p=uni3d-exploring-unified-3d-representation-at)\n\n\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_e8a5b2b35815.jpg\" alt=\"overview\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\nWe present Uni3D, a unified and scalable 3D pretraining framework for large-scale 3D representation learning, and explore its limits at the scale of one billion parameters.\nUni3D uses a 2D initialized ViT end-to-end pretrained to align the 3D point cloud features with the image-text aligned features. Via the simple architecture and pretext task, Uni3D can leverage abundant 2D pretrained models as initialization and image-text aligned models as the target, unlocking the great potential of 2D models and scaling-up strategies to the 3D world. We efficiently scale up Uni3D to one billion parameters, and set new records on a broad range of 3D tasks. \n\n## Schedule\n\nWe are committed to open-sourcing Uni3D related materials, including:\n\n- [x] Extended Uni3D to a 3D metric (Uni3D-score) for enhanced semantic coherence in text-to-3D tasks. For details, see [GeoDream](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FGeoDream).\n- [x] The weights of models range from 6M to **1B** parameters.\n- [x] Evaluation code\n- [x] Evaluation data\n- [x] Pretraining code\n- [ ] Pretraining data\n\n\nWe hope to foster the growth of our community through open-sourcing and promoting collaboration👬. Let's step towards multimodal intelligence together🍻.\n\n\n## Installation\nClone this repository and install the required packages:\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D.git\ncd Uni3D\n\nconda create -n uni3d python=3.8\nconda activate uni3d\nconda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia\n\npip install -r requirements.txt\n\n# install pointnet2 extensions from https:\u002F\u002Fgithub.com\u002Ferikwijmans\u002FPointnet2_PyTorch\npip install \"git+git:\u002F\u002Fgithub.com\u002Ferikwijmans\u002FPointnet2_PyTorch.git#egg=pointnet2_ops&subdirectory=pointnet2_ops_lib\"\n\n```\nCore packages: \n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F) version 2.0.1 \n- [open-clip-torch](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) version 2.20.0\n- [timm](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) version 0.9.7\n- [DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed) version 0.10.3\n- [Open3D](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FOpen3D) version 0.17.0\n\n## Model Zoo\n\n| Model         | Training Data | Objaverse-LVIS Top1 (Top5) | ModelNet40 Top1 (Top5) | ScanObjectNN Top1 (Top5) |\n| :------:  | :------: | :------: |:------: |:------: |\n| [**Uni3d-B**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-b-no-lvis\u002Fmodel.pt) | Ensembled w\u002Fo LVIS | 45.9 (74.8) | 86.1 (98.7) | 61.7 (89.5) | \n| [**Uni3d-B**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-b\u002Fmodel.pt) | Ensembled          | 51.7 (80.8) | 86.3 (97.9) | 63.8 (90.2) | \n| [**Uni3d-L**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-l-no-lvis\u002Fmodel.pt) | Ensembled w\u002Fo LVIS | 46.2 (74.7) | 86.6 (97.8) | 58.4 (90.1) | \n| [**Uni3d-L**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-l\u002Fmodel.pt) | Ensembled          | 53.1 (81.5) | 86.3 (98.3) | 58.2 (89.4) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-g-no-lvis\u002Fmodel.pt) | Ensembled w\u002Fo LVIS | 47.2 (76.1) | 86.8 (98.4) | 66.5 (90.1) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-g\u002Fmodel.pt) | Ensembled          | 53.5 (82.0) | 87.3 (99.2) | 63.9 (91.7) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Ftree\u002Fmain\u002Fmodelzoo\u002Funi3d-g) 🔥 | Ensembled          | 55.3 (82.9) | 88.2 (99.3) | 65.3 (92.7) |\n\n## Evaluation of Zero-shot 3D classification \nWe evaluate the zero-shot 3D classification performance on three datasets: Objaverse-LVIS, ModelNet40 and ScanObjectNN.\n\n1. Please refer to [DATASETS.md](data\u002FDATASETS.md) for evaluation dataset preparation.\n2. [Recommended 🤗] Download the [clip model](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k\u002Fblob\u002Fmain\u002Fopen_clip_pytorch_model.bin) and put it in `\u002Fpath\u002Fto\u002Fclip_model` folder.\n3. Download model zoo weights and put them in `\u002Fpath\u002Fto\u002Fcheckpoints` folder.\n4. Run `bash scripts\u002Finference.sh [scale]` to evaluate the model on the above datasets, e.g., `bash scripts\u002Finference.sh giant`.\n\n## Pre-training\n1. Please refer to [DATASETS.md](data\u002FDATASETS.md) for pre-train dataset preparation.\n2. [Recommended 🤗] Download the [clip model](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k\u002Fblob\u002Fmain\u002Fopen_clip_pytorch_model.bin) and put it in `\u002Fpath\u002Fto\u002Fclip_model` folder.\n3. [Recommended 🤗] Download the [initialization model](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva_giant_patch14_560.m30m_ft_in22k_in1k\u002Fblob\u002Fmain\u002Fmodel.safetensors) and put it in `\u002Fpath\u002Fto\u002Finit_model` folder.\n4. Run `bash scripts\u002Fpretrain.sh` to pre-train the model on ensemble datasets.\n\n\n## Visualization\n\n### Open-world Understanding\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_0ba323d188e4.jpg\" alt=\"scene\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### One-shot Part Segmentation\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_3819ca1a26ec.jpg\" alt=\"partseg\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### Point Cloud Painting\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_08ccf9550c3a.jpg\" alt=\"editing\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### Cross-modal Retrieval\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_3d8c5bc45e2a.jpg\" alt=\"retrival_text\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_41e95307adf9.jpg\" alt=\"retrival\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n\n## Acknowledgement\nUni3D is built using the awesome [EVA](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA), [OpenCLIP](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip), [timm](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-image-models\u002F), [DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed), [ULIP](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FULIP) and [OpenShape](https:\u002F\u002Fgithub.com\u002FColin97\u002FOpenShape_code). \n\nThis work is supported by the National Science and Technology Major Project (No. 2022ZD0116314).\n\n本项目受新一代人工智能国家科技重大专项（No. 2022ZD0116314）支持。\n\n## Citation\n```bib\n@inproceedings{zhou2023uni3d,\n  title={Uni3d: Exploring unified 3d representation at scale},\n  author={Zhou, Junsheng and Wang, Jinsheng and Ma, Baorui and Liu, Yu-Shen and Huang, Tiejun and Wang, Xinlong},\n  booktitle={International Conference on Learning Representations (ICLR)},\n  year={2024}\n}\n```\n","\u003Cdiv align='center'>\n\n\u003Ch2>\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06773\">Uni3D：探索大规模统一的3D表示\u003C\u002Fa>\u003C\u002Fh2>\n\n[周俊生](https:\u002F\u002Fjunshengzhou.github.io\u002F)\u003Csup>1,2*\u003C\u002Fsup>, [王金生](https:\u002F\u002Fgithub.com\u002FWolfwjs\u002F)\u003Csup>1*\u003C\u002Fsup>, [马宝瑞](https:\u002F\u002Fmabaorui.github.io\u002F)\u003Csup>1*\u003C\u002Fsup>, [刘宇申](https:\u002F\u002Fyushen-liu.github.io\u002F)\u003Csup>2\u003C\u002Fsup>, [黄铁军](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=knvEK4AAAAAJ&hl=en)\u003Csup>1,3\u003C\u002Fsup>, [王新龙](https:\u002F\u002Fwww.xloong.wang\u002F)\u003Csup>1\u003C\u002Fsup>\n \n\u003Csup>1\u003C\u002Fsup>[BAAI](https:\u002F\u002Fwww.baai.ac.cn\u002Fenglish.html), \u003Csup>2\u003C\u002Fsup>[THU](https:\u002F\u002Fwww.tsinghua.edu.cn\u002Fen\u002F), \u003Csup>3\u003C\u002Fsup>[PKU](https:\u002F\u002Fenglish.pku.edu.cn\u002F) \u003Cbr>\u003Csup>*\u003C\u002Fsup> 共同第一作者\n \nICLR 2024（亮点论文）\n\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-3d-classification-on-objaverse-lvis)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-3d-classification-on-objaverse-lvis?p=uni3d-exploring-unified-3d-representation-at)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-transfer-3d-point-cloud)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-transfer-3d-point-cloud?p=uni3d-exploring-unified-3d-representation-at)\n[![PWC](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https:\u002F\u002Fpaperswithcode.com\u002Fbadge\u002Funi3d-exploring-unified-3d-representation-at\u002Fzero-shot-transfer-3d-point-cloud-2)](https:\u002F\u002Fpaperswithcode.com\u002Fsota\u002Fzero-shot-transfer-3d-point-cloud-2?p=uni3d-exploring-unified-3d-representation-at)\n\n\n\u003C\u002Fdiv>\n\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_e8a5b2b35815.jpg\" alt=\"overview\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n我们提出了Uni3D，一个用于大规模3D表示学习的统一且可扩展的3D预训练框架，并在十亿参数规模下探索其极限。Uni3D采用基于2D初始化的ViT模型，通过端到端预训练将3D点云特征与图像-文本对齐的特征进行对齐。凭借简洁的架构和预训练任务，Uni3D能够利用丰富的2D预训练模型作为初始化，并以图像-文本对齐的模型为目标，从而将2D模型的巨大潜力及扩展策略引入3D领域。我们成功地将Uni3D扩展至十亿参数规模，并在广泛的3D任务上创造了新的记录。\n\n## 时间安排\n\n我们致力于开源Uni3D相关材料，包括：\n\n- [x] 将Uni3D扩展为一种3D度量指标（Uni3D-score），以提升文本到3D任务中的语义一致性。详情请参阅[GeoDream](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FGeoDream)。\n- [x] 模型权重范围从600万到**10亿**参数。\n- [x] 评估代码\n- [x] 评估数据\n- [x] 预训练代码\n- [ ] 预训练数据\n\n\n我们希望通过开源和促进合作来推动社区的发展👬。让我们携手迈向多模态智能🍻。\n\n\n## 安装\n克隆本仓库并安装所需软件包：\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D.git\ncd Uni3D\n\nconda create -n uni3d python=3.8\nconda activate uni3d\nconda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia\n\npip install -r requirements.txt\n\n# 从https:\u002F\u002Fgithub.com\u002Ferikwijmans\u002FPointnet2_PyTorch安装pointnet2扩展\npip install \"git+git:\u002F\u002Fgithub.com\u002Ferikwijmans\u002FPointnet2_PyTorch.git#egg=pointnet2_ops&subdirectory=pointnet2_ops_lib\"\n\n```\n核心软件包：\n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F) 版本2.0.1\n- [open-clip-torch](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) 版本2.20.0\n- [timm](https:\u002F\u002Fgithub.com\u002Frwightman\u002Fpytorch-image-models) 版本0.9.7\n- [DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed) 版本0.10.3\n- [Open3D](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FOpen3D) 版本0.17.0\n\n## 模型库\n\n| 模型         | 训练数据 | Objaverse-LVIS Top1 (Top5) | ModelNet40 Top1 (Top5) | ScanObjectNN Top1 (Top5) |\n| :------:  | :------: | :------: |:------: |:------: |\n| [**Uni3d-B**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-b-no-lvis\u002Fmodel.pt) | 未使用LVIS数据 | 45.9 (74.8) | 86.1 (98.7) | 61.7 (89.5) | \n| [**Uni3d-B**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-b\u002Fmodel.pt) | 使用全部数据          | 51.7 (80.8) | 86.3 (97.9) | 63.8 (90.2) | \n| [**Uni3d-L**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-l-no-lvis\u002Fmodel.pt) | 未使用LVIS数据 | 46.2 (74.7) | 86.6 (97.8) | 58.4 (90.1) | \n| [**Uni3d-L**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-l\u002Fmodel.pt) | 使用全部数据          | 53.1 (81.5) | 86.3 (98.3) | 58.2 (89.4) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-g-no-lvis\u002Fmodel.pt) | 未使用LVIS数据 | 47.2 (76.1) | 86.8 (98.4) | 66.5 (90.1) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Fblob\u002Fmain\u002Fmodelzoo\u002Funi3d-g\u002Fmodel.pt) | 使用全部数据          | 53.5 (82.0) | 87.3 (99.2) | 63.9 (91.7) | \n| [**Uni3d-g**](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Ftree\u002Fmain\u002Fmodelzoo\u002Funi3d-g) 🔥 | 使用全部数据          | 55.3 (82.9) | 88.2 (99.3) | 65.3 (92.7) |\n\n## 零样本3D分类评估 \n我们在三个数据集上评估了零样本3D分类性能：Objaverse-LVIS、ModelNet40和ScanObjectNN。\n\n1. 请参考[DATASETS.md](data\u002FDATASETS.md)以准备评估数据集。\n2. [推荐 🤗] 下载[clip模型](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k\u002Fblob\u002Fmain\u002Fopen_clip_pytorch_model.bin)并将其放置在`\u002Fpath\u002Fto\u002Fclip_model`文件夹中。\n3. 下载模型库中的权重并将其放置在`\u002Fpath\u002Fto\u002Fcheckpoints`文件夹中。\n4. 运行`bash scripts\u002Finference.sh [scale]`以在上述数据集上评估模型，例如`bash scripts\u002Finference.sh giant`。\n\n## 预训练\n1. 请参考[DATASETS.md](data\u002FDATASETS.md)以准备预训练数据集。\n2. [推荐 🤗] 下载[clip模型](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva_giant_patch14_560.m30m_ft_in22k_in1k\u002Fblob\u002Fmain\u002Fmodel.safetensors)并将其放置在`\u002Fpath\u002Fto\u002Fclip_model`文件夹中。\n3. [推荐 🤗] 下载[初始化模型](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva_giant_patch14_560.m30m_ft_in22k_in1k\u002Fblob\u002Fmain\u002Fmodel.safetensors)并将其放置在`\u002Fpath\u002Fto\u002Finit_model`文件夹中。\n4. 运行`bash scripts\u002Fpretrain.sh`以在集成数据集上预训练模型。\n\n\n## 可视化\n\n### 开放世界理解\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_0ba323d188e4.jpg\" alt=\"scene\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### 一次性零件分割\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_3819ca1a26ec.jpg\" alt=\"partseg\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### 点云着色\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_08ccf9550c3a.jpg\" alt=\"editing\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n### 跨模态检索\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_3d8c5bc45e2a.jpg\" alt=\"retrival_text\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_readme_41e95307adf9.jpg\" alt=\"retrival\" width=\"800\" \u002F>\n\u003C\u002Fp>\n\n## 致谢\nUni3D 是基于强大的 [EVA](https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FEVA)、[OpenCLIP](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip)、[timm](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-image-models\u002F)、[DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed)、[ULIP](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002FULIP) 和 [OpenShape](https:\u002F\u002Fgithub.com\u002FColin97\u002FOpenShape_code) 构建的。\n\n本研究得到国家科技重大专项（编号：2022ZD0116314）的支持。\n\n## 引用\n```bib\n@inproceedings{zhou2023uni3d,\n  title={Uni3d: Exploring unified 3d representation at scale},\n  author={周俊生、王金生、马宝瑞、刘宇申、黄铁军、王新龙},\n  booktitle={国际表征学习大会 (ICLR)},\n  year={2024}\n}\n```","# Uni3D 快速上手指南\n\nUni3D 是一个统一且可扩展的 3D 预训练框架，旨在通过大规模学习实现强大的 3D 表示能力。它利用 2D 初始化 ViT 模型，将 3D 点云特征与图像 - 文本对齐特征进行端到端预训练，支持从 6M 到 1B 参数规模的模型。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **Python**: 3.8\n*   **CUDA**: 11.8 (对应 PyTorch 版本)\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（运行大模型如 1B 参数版本需要显存较大的显卡）\n\n**核心依赖库版本参考：**\n*   Pytorch: 2.0.1\n*   open-clip-torch: 2.20.0\n*   timm: 0.9.7\n*   DeepSpeed: 0.10.3\n*   Open3D: 0.17.0\n\n## 安装步骤\n\n请按照以下步骤克隆仓库并安装依赖：\n\n1.  **克隆项目代码**\n    ```shell\n    git clone https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D.git\n    cd Uni3D\n    ```\n\n2.  **创建并激活 Conda 环境**\n    ```shell\n    conda create -n uni3d python=3.8\n    conda activate uni3d\n    ```\n\n3.  **安装 PyTorch 及相关组件**\n    *注：此处使用官方源安装 CUDA 11.8 版本，国内用户若需加速可配置清华或阿里镜像源。*\n    ```shell\n    conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia\n    ```\n\n4.  **安装 Python 依赖包**\n    ```shell\n    pip install -r requirements.txt\n    ```\n\n5.  **安装 PointNet++ 扩展库**\n    这是处理点云数据的关键组件，需要从 GitHub 源码安装：\n    ```shell\n    pip install \"git+git:\u002F\u002Fgithub.com\u002Ferikwijmans\u002FPointnet2_PyTorch.git#egg=pointnet2_ops&subdirectory=pointnet2_ops_lib\"\n    ```\n\n## 基本使用\n\n以下以最简单的**零样本 3D 分类评估**为例，展示如何使用预训练模型。\n\n### 1. 准备模型文件\n您需要下载预训练的 CLIP 模型和 Uni3D 模型权重。\n\n*   **下载 CLIP 模型** (推荐 EVA02-enormous):\n    下载地址：[HuggingFace](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva02_enormous_patch14_plus_clip_224.laion2b_s9b_b144k\u002Fblob\u002Fmain\u002Fopen_clip_pytorch_model.bin)\n    存放路径示例：`\u002Fpath\u002Fto\u002Fclip_model\u002Fopen_clip_pytorch_model.bin`\n\n*   **下载 Uni3D 模型权重**:\n    从 [Model Zoo](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D) 选择所需规模的模型（如 `uni3d-g`）。\n    存放路径示例：`\u002Fpath\u002Fto\u002Fcheckpoints\u002Fmodel.pt`\n\n### 2. 准备数据集\n请参考项目中的 `data\u002FDATASETS.md` 文档下载并整理评估数据集（Objaverse-LVIS, ModelNet40, ScanObjectNN）。\n\n### 3. 运行评估脚本\n修改脚本中的路径配置后，运行以下命令进行评估。以下示例以评估 **Giant (g)** 规模模型为例：\n\n```shell\nbash scripts\u002Finference.sh giant\n```\n\n> **提示**：如果您需要进行预训练，请确保已准备好预训练数据集和初始化模型（[Initialization Model](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002Feva_giant_patch14_560.m30m_ft_in22k_in1k\u002Fblob\u002Fmain\u002Fmodel.safetensors)），然后运行 `bash scripts\u002Fpretrain.sh`。","某自动驾驶初创公司的感知团队正致力于提升车辆对罕见障碍物（如侧翻货车、散落家具）的识别能力，以增强系统在复杂路况下的安全性。\n\n### 没有 Uni3D 时\n- **数据标注成本高昂**：面对长尾分布的罕见 3D 物体，团队需耗费数周时间人工标注点云数据，且难以覆盖所有极端场景。\n- **零样本识别能力弱**：传统模型一旦遇到训练集中未出现的物体类别（如“路障锥桶”变体），往往直接失效或误判为背景，缺乏泛化性。\n- **2D 知识迁移困难**：虽然拥有海量的 2D 图像预训练模型，但受限于模态差异，难以将其丰富的语义理解能力有效迁移到 3D 点云任务中。\n- **模型扩展瓶颈明显**：尝试扩大模型参数量以提升性能时，常因缺乏统一的 3D 预训练框架而导致训练不稳定或收益递减。\n\n### 使用 Uni3D 后\n- **实现零样本分类**：利用 Uni3D 强大的图文对齐能力，模型无需额外标注即可直接识别从未见过的 3D 物体类别，显著降低数据依赖。\n- **复用 2D 预训练优势**：通过端到端架构，Uni3D 成功将大规模 2D 视觉 - 语言模型的语义知识迁移至 3D 领域，大幅提升了对物体属性的理解深度。\n- **支持十亿级参数扩展**：借助其可扩展的预训练框架，团队顺利将模型扩展至十亿参数级别，在 ScanObjectNN 等基准测试中刷新了记录，提升了检测精度。\n- **快速部署新场景**：面对新增的障碍物类型，只需输入文本描述即可快速适配，将新场景的研发周期从数周缩短至数小时。\n\nUni3D 通过统一的大规模 3D 预训练范式，打破了数据标注与模型泛化的双重壁垒，让 3D 感知系统具备了像人类一样的“举一反三”能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbaaivision_Uni3D_0ba323d1.jpg","baaivision","BAAI-Vision","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbaaivision_24920407.png","Foundation model fanatics from BAAI.",null,"https:\u002F\u002Fgithub.com\u002Fbaaivision",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",98.2,{"name":89,"color":90,"percentage":91},"Shell","#89e051",1.8,664,46,"2026-04-14T06:46:28","MIT",4,"Linux","需要 NVIDIA GPU，安装命令指定 pytorch-cuda=11.8，建议显存较大以支持最大 10 亿参数模型","未说明",{"notes":101,"python":102,"dependencies":103},"需通过 conda 创建环境并安装 PyTorch (CUDA 11.8)；需额外从 GitHub 源码安装 pointnet2_ops 扩展库；预训练和评估需下载特定的 CLIP 模型及初始化模型权重；项目支持高达 10 亿参数的模型，对硬件资源要求较高。","3.8",[104,105,106,107,108,109],"pytorch==2.0.1","open-clip-torch==2.20.0","timm==0.9.7","DeepSpeed==0.10.3","Open3D==0.17.0","pointnet2_ops",[46,15],[112,113,114],"3d-representation-learning","foundation-models","vision-transformers","2026-03-27T02:49:30.150509","2026-04-15T04:35:22.315124",[118,123,128,133,138,143],{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},33617,"除了性能最好的 Uni3D-G，是否发布了其他规模（如 Uni3D-L, Uni3D-B）的模型检查点？","是的，所有规模的模型已发布在 Hugging Face 上。您可以访问 https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FUni3D\u002Ftree\u002Fmain\u002Fmodelzoo 下载，仓库中也更新了推理脚本供参考。不过，由于项目主要关注大规模表示能力的探索，目前暂无计划发布 Tiny (Ti) 和 Small (S) 版本。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F9",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},33618,"Uni3D 模型能否直接应用于开放世界理解任务（如 ScanNet 场景分割），还是需要微调？","Uni3D 在开放世界理解任务上的设定是识别真实扫描 3D 场景中的物体类别（零样本方式），前提是已有实例分割的真值标注，因此该任务本身不涉及场景分割。如果您想利用 Uni3D 进行密集预测（如开放词汇部件分割），则需要使用未见过的部件文本进行微调。直接传入实例点云而不进行定位或微调可能导致效果不佳，特别是当点数远少于预训练时的 10,000 点（例如仅 2K-5K 点）时。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F4",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},33619,"如何进行跨模态检索？是否需要下载完整数据集以及耗时情况如何？","关于跨模态检索的详细方法请参考论文第 4.6 节。执行检索前，您需要准备一个完整的 3D 数据库。检索时间与数据库中 3D 模型的数量成正比。如果数据格式是网格（Mesh），通常需要将其转换为点云格式以适配模型输入。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F1",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},33620,"针对分割和绘制（painting）任务的代码何时发布？","团队计划发布更多下游任务（包括分割和绘制）的代码，但目前没有严格的时间表，预计将在论文被接收后发布。关于分割架构，社区用户推测其可能基于 PointBERT 分割模型（PointTransformer.py），但这尚未得到官方确认作为复现的唯一依据。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F3",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},33621,"下游任务是如何进行的？是否有文本 -3D 检索任务的量化基线？","Uni3D 的训练目标是将对齐 3D 表示与 CLIP 模型的 2D\u002F文本表示，从而产生一个对齐的 3D-2D-文本特征空间，这种对齐后的 3D 嵌入是进行下游任务的关键。目前，文本 -3D 检索任务没有通用的基准测试（benchmark），因此不存在标准的量化基线。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F2",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},33622,"该项目的开源许可证是什么？","该项目已添加 **MIT 许可证**，用户可以遵循该协议自由使用和分发代码。","https:\u002F\u002Fgithub.com\u002Fbaaivision\u002FUni3D\u002Fissues\u002F8",[]]