[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-henry123-boy--SpaTracker":3,"tool-henry123-boy--SpaTracker":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":29,"env_os":103,"env_gpu":104,"env_ram":105,"env_deps":106,"category_tags":119,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":120,"updated_at":121,"faqs":122,"releases":153},1971,"henry123-boy\u002FSpaTracker","SpaTracker","[CVPR 2024 Highlight] Official PyTorch implementation of SpatialTracker: Tracking Any 2D Pixels in 3D Space","SpaTracker是CVPR 2024 Highlight论文成果，能将视频中任意2D像素点精准映射到3D空间。传统方法通常依赖多摄像头或深度传感器，而SpaTracker仅需普通单目视频即可实现高精度3D轨迹重建，大幅降低使用门槛。其V2版本整合深度估计、相机姿态与像素级跟踪，效率较V1提升100%，支持RGB或RGBD输入。适合计算机视觉研究者、AR\u002FVR开发者及3D动画制作人员，通过简单命令即可生成可视化3D轨迹，为动态场景分析、虚拟现实内容创作等场景提供高效支持。","[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-SpaTracker-red)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.04319)\n\n\n# SpatialTracker: Tracking Any 2D Pixels in 3D Space\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenry123-boy_SpaTracker_readme_0abf80551605.gif)\n\n> [**SpatialTracker: Tracking Any 2D Pixels in 3D Space**](https:\u002F\u002Fhenry123-boy.github.io\u002FSpaTracker\u002F),  \n> Yuxi Xiao\\*, Qianqian Wang\\*, Shangzhan Zhang, Nan Xue, Sida Peng, Yujun Shen, Xiaowei Zhou,  \n> CVPR 2024, Highlight\n> *Paper at [arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.04319)*  \n\n## SpatialTrackerV2 is out!!!🎉🎉🎉\nSpatialTrackerv2 is a unified model can simultaneously produce consistent depth, camera poses and pixel-wise 3D tracking at once, which achieves 100% improvements than V1. The webpage is here [SpatialTrackerV2](https:\u002F\u002Fspatialtracker.github.io\u002F) \n\n## News and ToDo\n- [x] `07.08.2025`: SpatialTracker-v2 is out!!! Try it out: 🤗 [Huggingface Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYuxihenry\u002FSpatialTrackerV2).\n- [x] Release SpatialTracker inference code and checkpoints.\n- [x] `05.04.2024`: SpatialTracker is selected as Highlight Paper!\n- [x] `26.02.2024`: SpatialTracker is accepted at CVPR 2024!\n\n## Requirements \n\nThe inference code was tested on\n\n* Ubuntu 20.04\n* Python 3.10\n* [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 2.1.1\n* 1 NVIDIA GPU (RTX A6000) with CUDA version 11.8. (Other GPUs are also suitable, and 22GB GPU memory is sufficient for dense tracking (~10k points) with our code.)\n### Setup an environment\n```shell\nconda create -n SpaTrack python==3.10\nconda activate SpaTrack\n```\n### Install PyTorch\n```shell\npip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n```\n\n### Other Dependencies\n```shell\npip install -r requirements.txt\n```\n\u003Cmark>Note:\u003C\u002Fmark> Please follow the version of the dependencies in `requirements.txt` to avoid potential conflicts. \n\n## Depth Estimator\nIn our default setting, monocular depth estimator is needed to acquire the metric depths from video input. There are several models for options ([ZoeDepth](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FZoeDepth), [Metric3D](https:\u002F\u002Fgithub.com\u002FYvanYin\u002FMetric3D), [UniDepth](https:\u002F\u002Fgithub.com\u002Flpiccinelli-eth\u002FUniDepth) and [DepthAnything](https:\u002F\u002Fgithub.com\u002FLiheYoung\u002FDepth-Anything)). \nWe take ZoeDepth as default model. **Download** `dpt_beit_large_384.pt`, `ZoeD_M12_K.pt`, `ZoeD_M12_NK.pt` into `models\u002FmonoD\u002FzoeDepth\u002Fckpts`. \n\n## Data\nOur method supports **`RGB`** or **`RGBD`** videos input. We provide the `checkpoints` and `example_data` at the  [Goolge Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1UtzUJLPhJdUg2XvemXXz1oe6KUQKVjsZ?usp=sharing). Please download the `spaT_final.pth` and put it into `.\u002Fcheckpoints\u002F`.  \n\n### RGB Videos\nFor `example_data`, we provide the `butterfly.mp4` and `butterfly_mask.png` as an example. Download the `butterfly.mp4` and `butterfly_mask.png` into `.\u002Fassets\u002F`. And run the following command: \n\n```shell\npython demo.py --model spatracker --downsample 1 --vid_name butterfly --len_track 1 --fps_vis 15  --fps 1 --grid_size 40 --gpu ${GPU_id}\n```\n### RGBD Videos\nwe provide the `sintel_bandage.mp4`, `sintel_bandage.png` and `sintel_bandage\u002F` in `example_data`. `sintel_bandage\u002F` includes the depth map of the `sintel_bandage.mp4`. Download the `sintel_bandage.mp4`, `sintel_bandage.png` and `sintel_bandage\u002F` into `.\u002Fassets\u002F`. And run the following command: \n```shell\npython demo.py --model spatracker --downsample 1 --vid_name sintel_bandage --len_track 1 --fps_vis 15  --fps 1 --grid_size 60 --gpu ${GPU_id} --point_size 1 --rgbd # --vis_support (optional to visualize all the points)\n```\n\n## Visualization 3D Trajectories\nFirstly, please make sure that you have installed [blender](https:\u002F\u002Fwww.blender.org\u002F).\nWe provide the visualization code for blender: \n```shell\n\u002FApplications\u002FBlender.app\u002FContents\u002FMacOS\u002FBlender -P create.py -- --input .\u002Fvis_results\u002Fsintel_bandage_3d.npy\n```\nFor example, the `sintel_bandage` looked like \n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenry123-boy_SpaTracker_readme_6644315ab515.gif)\n\n## Citation\nIf you find our work useful in your research, please consider citing:\n\n```bibtex\n@inproceedings{SpatialTracker,\n    title={SpatialTracker: Tracking Any 2D Pixels in 3D Space},\n    author={Xiao, Yuxi and Wang, Qianqian and Zhang, Shangzhan and Xue, Nan and Peng, Sida and Shen, Yujun and Zhou, Xiaowei},\n    booktitle={Proceedings of the IEEE\u002FCVF Conference on Computer Vision and Pattern Recognition (CVPR)},\n    year={2024}\n}\n```\n\n## Acknowledgement\nSpatialtracker is built on top of [Cotracker](co-tracker.github.io) codebase. We appreciate the authors for their greate work and follow the License of Cotracker.\n","[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-SpaTracker-red)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.04319)\n\n\n# SpatialTracker：在三维空间中追踪任意二维像素\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenry123-boy_SpaTracker_readme_0abf80551605.gif)\n\n> [**SpatialTracker：在三维空间中追踪任意二维像素**](https:\u002F\u002Fhenry123-boy.github.io\u002FSpaTracker\u002F)，  \n> 肖宇熙\\*，王倩倩\\*，张尚展，薛楠，彭思达，沈宇军，周晓伟，  \n> CVPR 2024，亮点论文  \n> *论文见[arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.04319)*  \n\n## SpatialTrackerV2重磅发布！！！🎉🎉🎉  \nSpatialTrackerv2 是一款统一模型，可一次性同时生成一致的深度、相机位姿以及像素级的三维追踪结果，相比 V1 实现了 100% 的性能提升。网页地址：[SpatialTrackerV2](https:\u002F\u002Fspatialtracker.github.io\u002F)  \n\n## 最新动态与待办事项\n- [x] `2025年7月8日`：SpatialTracker-v2 正式发布！快来体验吧：🤗 [Huggingface Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FYuxihenry\u002FSpatialTrackerV2)  \n- [x] 发布 SpatialTracker 推理代码与检查点。  \n- [x] `2024年5月4日`：SpatialTracker 被选为亮点论文！  \n- [x] `2024年2月26日`：SpatialTracker 被 CVPR 2024 接收！\n\n## 需求环境  \n\n推理代码已在以下环境中测试通过：\n\n* Ubuntu 20.04  \n* Python 3.10  \n* [PyTorch](https:\u002F\u002Fpytorch.org\u002F) 2.1.1  \n* 1 张 NVIDIA GPU（RTX A6000），CUDA 版本 11.8。（其他 GPU 也可使用，22GB 显存足以支持密集追踪——约 1 万个点——我们的代码运行。）  \n\n### 环境搭建  \n```shell\nconda create -n SpaTrack python==3.10  \nconda activate SpaTrack  \n```  \n\n### 安装 PyTorch  \n```shell\npip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118  \n```  \n\n### 其他依赖项  \n```shell\npip install -r requirements.txt  \n```  \n\u003Cmark>注意：\u003C\u002Fmark>请严格按照 `requirements.txt` 中的版本安装依赖，以避免潜在冲突。  \n\n## 深度估计器  \n在我们的默认设置中，需要使用单目深度估计器从视频输入中获取度量深度。目前有多种模型可供选择（[ZoeDepth](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FZoeDepth)，[Metric3D](https:\u002F\u002Fgithub.com\u002FYvanYin\u002FMetric3D)，[UniDepth](https:\u002F\u002Fgithub.com\u002Flpiccinelli-eth\u002FUniDepth)，以及 [DepthAnything](https:\u002F\u002Fgithub.com\u002FLiheYoung\u002FDepth-Anything)）。  \n我们默认采用 ZoeDepth 模型。请将 `dpt_beit_large_384.pt`、`ZoeD_M12_K.pt`、`ZoeD_M12_NK.pt` 下载至 `models\u002FmonoD\u002FzoeDepth\u002Fckpts`。  \n\n## 数据  \n我们的方法支持 **`RGB`** 或 **`RGBD`** 视频输入。我们已在 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1UtzUJLPhJdUg2XvemXXz1oe6KUQKVjsZ?usp=sharing) 提供了 `checkpoints` 和 `example_data`。请下载 `spaT_final.pth` 并将其放入 `.\u002Fcheckpoints\u002F`。  \n\n### RGB 视频  \n对于 `example_data`，我们提供了 `butterfly.mp4` 和 `butterfly_mask.png` 作为示例。请将 `butterfly.mp4` 和 `butterfly_mask.png` 下载至 `.\u002Fassets\u002F`，然后运行以下命令：  \n\n```shell\npython demo.py --model spatracker --downsample 1 --vid_name butterfly --len_track 1 --fps_vis 15 --fps 1 --grid_size 40 --gpu ${GPU_id}\n```  \n\n### RGBD 视频  \n我们提供了 `sintel_bandage.mp4`、`sintel_bandage.png` 以及 `sintel_bandage\u002F` 在 `example_data` 中。其中 `sintel_bandage\u002F` 包含了 `sintel_bandage.mp4` 的深度图。请将 `sintel_bandage.mp4`、`sintel_bandage.png` 和 `sintel_bandage\u002F` 下载至 `.\u002Fassets\u002F`，然后运行以下命令：  \n```shell\npython demo.py --model spatracker --downsample 1 --vid_name sintel_bandage --len_track 1 --fps_vis 15 --fps 1 --grid_size 60 --gpu ${GPU_id} --point_size 1 --rgbd # --vis_support（可选参数，用于可视化所有点）\n```  \n\n## 可视化三维轨迹  \n首先，请确保已安装 [Blender](https:\u002F\u002Fwww.blender.org\u002F)。  \n我们提供了 Blender 可视化代码：  \n```shell\n\u002FApplications\u002FBlender.app\u002FContents\u002FMacOS\u002FBlender -P create.py -- --input .\u002Fvis_results\u002Fsintel_bandage_3d.npy\n```  \n例如，`sintel_bandage` 的效果如下：  \n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenry123-boy_SpaTracker_readme_6644315ab515.gif)  \n\n## 引用  \n如果您觉得我们的工作对您的研究有所帮助，请考虑引用：  \n\n```bibtex\n@inproceedings{SpatialTracker,\n    title={SpatialTracker：在三维空间中追踪任意二维像素},\n    author={肖宇熙和王倩倩和张尚展和薛楠和彭思达和沈宇军和周晓伟},\n    booktitle={IEEE\u002FCVF 计算机视觉与模式识别会议（CVPR）论文集},\n    year={2024}\n}\n```  \n\n## 致谢  \nSpatialtracker 基于 [Cotracker](co-tracker.github.io) 的代码库构建。我们感谢作者们的卓越贡献，并遵循 Cotracker 的许可协议。","# SpaTracker 快速上手指南\n\n## 环境准备\n- **系统要求**：Ubuntu 20.04，Python 3.10，NVIDIA GPU（22GB显存足够处理约1万点跟踪）\n- **CUDA版本**：11.8\n\n## 安装步骤\n1. 创建并激活 Conda 环境：\n   ```shell\n   conda create -n SpaTrack python=3.10\n   conda activate SpaTrack\n   ```\n\n2. 安装 PyTorch（使用清华镜像加速）：\n   ```shell\n   pip install torch==2.1.1 torchvision==0.16.1 torchaudio==2.1.1 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n3. 安装其他依赖：\n   ```shell\n   pip install -r requirements.txt\n   ```\n\n> 注意：严格遵循 `requirements.txt` 中的依赖版本\n\n## 数据准备\n- 下载检查点和示例数据：\n  - [Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1UtzUJLPhJdUg2XvemXXz1oe6KUQKVjsZ?usp=sharing)\n  - 将 `spaT_final.pth` 放入 `.\u002Fcheckpoints\u002F`\n  - RGB 示例：将 `butterfly.mp4` 和 `butterfly_mask.png` 放入 `.\u002Fassets\u002F`\n  - RGBD 示例：将 `sintel_bandage.mp4`、`sintel_bandage.png` 和 `sintel_bandage\u002F` 文件夹放入 `.\u002Fassets\u002F`\n- （可选）若使用默认深度估计器（ZoeDepth），需下载以下模型到 `models\u002FmonoD\u002FzoeDepth\u002Fckpts\u002F`：\n  - `dpt_beit_large_384.pt`\n  - `ZoeD_M12_K.pt`\n  - `ZoeD_M12_NK.pt`\n  - 模型可从 [ZoeDepth GitHub](https:\u002F\u002Fgithub.com\u002Fisl-org\u002FZoeDepth) 获取，国内建议使用加速下载工具\n\n## 基本使用\n### RGB 视频示例\n```shell\npython demo.py --model spatracker --downsample 1 --vid_name butterfly --len_track 1 --fps_vis 15 --fps 1 --grid_size 40 --gpu 0\n```\n\n### RGBD 视频示例\n```shell\npython demo.py --model spatracker --downsample 1 --vid_name sintel_bandage --len_track 1 --fps_vis 15 --fps 1 --grid_size 60 --gpu 0 --point_size 1 --rgbd\n```\n\n### 可视化 3D 轨迹\n1. 安装 [Blender](https:\u002F\u002Fwww.blender.org\u002F)\n2. 运行可视化命令（路径根据系统调整）：\n   ```shell\n   blender -P create.py -- --input .\u002Fvis_results\u002Fsintel_bandage_3d.npy\n   ```","某影视特效团队正在制作奇幻电影中精灵角色的舞蹈动画，需将真人演员的肢体动作精准转化为3D模型运动轨迹。\n\n### 没有SpaTracker时\n- 依赖光学动捕系统，单套设备租赁费用超5万元\u002F天\n- 演员服装遮挡标记点时，需人工逐帧修复，单镜头平均耗时4小时\n- 多相机标定过程复杂，易因参数误差导致3D轨迹扭曲\n- 无法从普通手机视频中提取可靠3D数据，必须专用设备\n\n### 使用SpaTracker后\n- 仅用普通手机拍摄即可，零设备成本\n- 自动跟踪任意像素点的3D轨迹，遮挡区域智能补全\n- 内置深度估计与相机姿态优化，无需手动标定\n- 生成Blender直接可用的3D轨迹文件，单镜头处理时间降至20分钟\n\nSpaTracker让特效团队用低成本设备高效完成高精度3D动作捕捉，制作周期缩短70%。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenry123-boy_SpaTracker_6644315a.gif","henry123-boy","Yuxi Xiao","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhenry123-boy_e7b0dc27.jpg","Phd Student @ CAD&CG,ZJU \r\nLLM | Robotics | Spatial Intelligence ","Zhejiang university","China","yuxixiao@zju.edu.cn",null,"https:\u002F\u002Fhenry123-boy.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fhenry123-boy",[87,91,95],{"name":88,"color":89,"percentage":90},"Python","#3572A5",97.5,{"name":92,"color":93,"percentage":94},"Jupyter Notebook","#DA5B0B",2.4,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0,1039,41,"2026-03-30T06:43:09","NOASSERTION","Linux","需要 NVIDIA GPU，显存 22GB+，CUDA 11.8","未说明",{"notes":107,"python":108,"dependencies":109},"建议使用 conda 管理环境，首次运行需下载约 5GB 模型文件，并安装 Blender 用于3D轨迹可视化","3.10",[110,111,112,113,114,115,116,117,118],"torch>=2.0","torchvision>=0.16.1","torchaudio>=2.1.1","numpy","opencv-python","pillow","scikit-image","matplotlib","transformers",[18],"2026-03-27T02:49:30.150509","2026-04-06T05:32:13.117960",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},8874,"如何获取dpt_beit_large_384.pt文件？","可以从以下链接下载：dpt_beit_large_384.pt: https:\u002F\u002Fgithub.com\u002Fisl-org\u002FMiDaS\u002Freleases\u002Fdownload\u002Fv3_1\u002Fdpt_beit_large_384.pt；ZoeD_M12_K.pt: https:\u002F\u002Fgithub.com\u002Fisl-org\u002FZoeDepth\u002Freleases\u002Fdownload\u002Fv1.0\u002FZoeD_M12_K.pt；ZoeD_M12_NK.pt: https:\u002F\u002Fgithub.com\u002Fisl-org\u002FZoeDepth\u002Freleases\u002Fdownload\u002Fv1.0\u002FZoeD_M12_NK.pt。如果遇到兼容性问题，可能需要降级timm到0.6.7版本（执行 pip install timm==0.6.7）。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F20",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},8875,"pred_tracks的z值单位和范围是什么？","z值使用米制单位（meters），范围被截断在0-65米之间，由ZoeDepth深度估计器提供。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F32",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},8876,"SpatialTracker的许可证是什么？","许可证遵循CoTracker，为Creative Commons Attribution-NonCommercial (CC BY-NC)。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F4",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},8877,"spatracker检查点何时发布？","检查点文件已发布，用户可从仓库最新代码中获取。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F8",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},8878,"ARAP约束在SpatialTracker中是否禁用？","ARAP embedding仅在训练时用于计算ARAP损失，不在推理时直接使用。代码中相关部分被注释掉，但这是设计如此。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F36",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},8879,"track_mask实现中是否存在错误？","在代码中，`first_positive_inds` 应替换为 `first_positive_sorted_inds`，维护者已确认并会修复。","https:\u002F\u002Fgithub.com\u002Fhenry123-boy\u002FSpaTracker\u002Fissues\u002F24",[]]