[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-research--mint":3,"tool-google-research--mint":65},[4,18,32,41,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,3,"2026-04-06T03:28:53",[13,14,15,16],"开发框架","图像","Agent","视频","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[14,27,16,28,15,29,30,13,31],"数据工具","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":38,"last_commit_at":39,"category_tags":40,"status":17},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[30,27,29],{"id":42,"name":43,"github_repo":44,"description_zh":45,"stars":46,"difficulty_score":38,"last_commit_at":47,"category_tags":48,"status":17},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[29,14,27,13],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":10,"last_commit_at":55,"category_tags":56,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,30,29],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":17},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75895,"2026-04-18T23:09:57",[30,14,13,29],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":95,"env_deps":96,"category_tags":110,"github_topics":80,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":149},9425,"google-research\u002Fmint","mint","Multi-modal Content Creation Model Training Infrastructure including the FACT model (AI Choreographer) implementation. ","mint 是一个专注于多模态内容创作的模型训练基础设施，其核心成果是实现了\"AI 编舞师”（FACT 模型）。该工具旨在解决如何根据音乐节奏自动生成高质量、动作流畅的 3D 舞蹈序列这一难题。通过深度学习技术，mint 能够分析输入的音乐音频，并合成出与之在节拍和情感上高度匹配的三维人体舞蹈动作，极大地降低了传统动画制作中手动关键帧调整的成本与门槛。\n\n该项目主要面向人工智能研究人员、计算机视觉开发者以及从事数字人内容创作的技术团队。对于希望探索音乐与动作生成关联性的学者，或需要构建自动化舞蹈生成管线的工程师而言，mint 提供了从数据预处理、模型训练到效果评估的完整开源方案。\n\n在技术亮点方面，mint 基于著名的 AIST++ 数据集，采用了条件生成架构，能够精准捕捉音乐特征并映射为复杂的 3D 姿态变化。作为 ICCV 2021 获奖论文的官方实现代码，它不仅复现了先进的 FACT 算法，还集成了 TensorFlow 生态下的高效训练模块，支持用户灵活调整配置以适应不同的硬件环境，是研究音乐驱动动作生成领域的重要参考基准。","# AI Choreographer: Music Conditioned 3D Dance Generation with AIST++ [ICCV-2021].\n\n## Overview\n\nThis package contains the model implementation and training infrastructure of\nour AI Choreographer. \n\n## Get started\n\n#### Pull the code\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fliruilong940607\u002Fmint --recursive\n```\nNote here `--recursive` is important as it will automatically clone the submodule ([orbit](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Forbit)) as well.\n\n#### Install dependencies\n```\nconda create -n mint python=3.7\nconda activate mint\nconda install protobuf numpy\npip install tensorflow absl-py tensorflow-datasets librosa\n\nsudo apt-get install libopenexr-dev\npip install --upgrade OpenEXR\npip install tensorflow-graphics tensorflow-graphics-gpu\n\ngit clone https:\u002F\u002Fgithub.com\u002Farogozhnikov\u002Feinops \u002Ftmp\u002Feinops\ncd \u002Ftmp\u002Feinops\u002F && pip install . -U\n\ngit clone https:\u002F\u002Fgithub.com\u002Fgoogle\u002Faistplusplus_api \u002Ftmp\u002Faistplusplus_api\ncd \u002Ftmp\u002Faistplusplus_api && pip install -r requirements.txt && pip install . -U\n```\nNote if you meet environment conflicts about numpy, you can try with `pip install numpy==1.20`. \n\n#### Get the data\nSee the [website](https:\u002F\u002Fgoogle.github.io\u002Faistplusplus_dataset\u002F)\n\n#### Get the checkpoint\nDownload from google drive [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F17GHwKRZbQfyC9-7oEpzCG8pp_rAI0cOm?usp=sharing), and put them to the folder `.\u002Fcheckpoints\u002F`\n\n#### Run the code\n\n1. complie protocols\n```\nprotoc .\u002Fmint\u002Fprotos\u002F*.proto\n```\n\n2. preprocess dataset into tfrecord\n```\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=train\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=testval\n```\n\n3. run training\n```\npython trainer.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n```\nNote you might want to change the `batch_size` in the config file if you meet OUT-OF-MEMORY issue.\n\n4. run testing and evaluation\n```\n# caching the generated motions (seed included) to `.\u002Foutputs`\npython evaluator.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n# calculate FIDs\npython tools\u002Fcalculate_scores.py\n```\n\n\n## Citation\n\n```bibtex\n@inproceedings{li2021dance,\n  title={AI Choreographer: Music Conditioned 3D Dance Generation with AIST++},\n  author={Ruilong Li and Shan Yang and David A. Ross and Angjoo Kanazawa},\n  booktitle = {The IEEE International Conference on Computer Vision (ICCV)},\n  year = {2021}\n}\n```\n","# AI 编舞师：基于 AIST++ 的音乐条件驱动 3D 舞蹈生成 [ICCV-2021]。\n\n## 概述\n\n本包包含我们 AI 编舞师的模型实现与训练基础设施。\n\n## 快速入门\n\n#### 克隆代码\n```\ngit clone https:\u002F\u002Fgithub.com\u002Fliruilong940607\u002Fmint --recursive\n```\n请注意，`--recursive` 参数非常重要，它会自动克隆子模块（[orbit](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Forbit)）。\n\n#### 安装依赖\n```\nconda create -n mint python=3.7\nconda activate mint\nconda install protobuf numpy\npip install tensorflow absl-py tensorflow-datasets librosa\n\nsudo apt-get install libopenexr-dev\npip install --upgrade OpenEXR\npip install tensorflow-graphics tensorflow-graphics-gpu\n\ngit clone https:\u002F\u002Fgithub.com\u002Farogozhnikov\u002Feinops \u002Ftmp\u002Feinops\ncd \u002Ftmp\u002Feinops\u002F && pip install . -U\n\ngit clone https:\u002F\u002Fgithub.com\u002Fgoogle\u002Faistplusplus_api \u002Ftmp\u002Faistplusplus_api\ncd \u002Ftmp\u002Faistplusplus_api && pip install -r requirements.txt && pip install . -U\n```\n注意：如果遇到 numpy 环境冲突问题，可以尝试使用 `pip install numpy==1.20`。\n\n#### 获取数据\n请访问 [网站](https:\u002F\u002Fgoogle.github.io\u002Faistplusplus_dataset\u002F)。\n\n#### 获取检查点\n从 Google Drive 下载 [这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F17GHwKRZbQfyC9-7oEpzCG8pp_rAI0cOm?usp=sharing)，并将文件放入 `.\u002Fcheckpoints\u002F` 文件夹中。\n\n#### 运行代码\n\n1. 编译协议文件\n```\nprotoc .\u002Fmint\u002Fprotos\u002F*.proto\n```\n\n2. 将数据集预处理为 tfrecord 格式\n```\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=train\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=testval\n```\n\n3. 开始训练\n```\npython trainer.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n```\n注意：如果出现内存不足的问题，可以适当调整配置文件中的 `batch_size`。\n\n4. 运行测试与评估\n```\n# 将生成的动作（包括随机种子）缓存到 `.\u002Foutputs`\npython evaluator.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n# 计算 FID 分数\npython tools\u002Fcalculate_scores.py\n```\n\n\n## 引用\n\n```bibtex\n@inproceedings{li2021dance,\n  title={AI 编舞师：基于 AIST++ 的音乐条件驱动 3D 舞蹈生成},\n  author={Ruilong Li 和 Shan Yang 和 David A. Ross 和 Angjoo Kanazawa},\n  booktitle = {IEEE 国际计算机视觉会议 (ICCV)},\n  year = {2021}\n}\n```","# Mint (AI Choreographer) 快速上手指南\n\nMint 是一个基于音乐条件生成 3D 舞蹈动作的 AI 模型（发表于 ICCV-2021），支持使用 AIST++ 数据集进行训练和推理。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu，部分依赖如 `libopenexr-dev` 需 apt 安装)\n*   **Python 版本**: 3.7\n*   **硬件要求**: 需要 NVIDIA GPU 以支持 `tensorflow-graphics-gpu` 及模型训练\n*   **前置工具**: Git, Conda, Protoc\n\n## 安装步骤\n\n### 1. 获取代码\n克隆仓库时务必添加 `--recursive` 参数以自动拉取子模块。\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fliruilong940607\u002Fmint --recursive\ncd mint\n```\n\n### 2. 创建并激活虚拟环境\n```bash\nconda create -n mint python=3.7\nconda activate mint\n```\n\n### 3. 安装系统级依赖\n```bash\nsudo apt-get install libopenexr-dev\n```\n\n### 4. 安装 Python 依赖\n建议先安装基础包，若遇到 numpy 版本冲突，可指定 `numpy==1.20`。\n```bash\nconda install protobuf numpy\npip install tensorflow absl-py tensorflow-datasets librosa\n\npip install --upgrade OpenEXR\npip install tensorflow-graphics tensorflow-graphics-gpu\n\n# 安装 einops\ngit clone https:\u002F\u002Fgithub.com\u002Farogozhnikov\u002Feinops \u002Ftmp\u002Feinops\ncd \u002Ftmp\u002Feinops\u002F && pip install . -U\n\n# 安装 AIST++ API\ngit clone https:\u002F\u002Fgithub.com\u002Fgoogle\u002Faistplusplus_api \u002Ftmp\u002Faistplusplus_api\ncd \u002Ftmp\u002Faistplusplus_api && pip install -r requirements.txt && pip install . -U\ncd -\n```\n\n### 5. 获取数据与预训练模型\n*   **数据集**: 访问 [AIST++ 官网](https:\u002F\u002Fgoogle.github.io\u002Faistplusplus_dataset\u002F) 下载数据集，并记录 `anno_dir` (标注) 和 `audio_dir` (音乐) 的路径。\n*   **检查点**: 从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F17GHwKRZbQfyC9-7oEpzCG8pp_rAI0cOm?usp=sharing) 下载预训练模型，放入项目根目录下的 `.\u002Fcheckpoints\u002F` 文件夹中。\n\n## 基本使用\n\n### 1. 编译协议文件\n在运行任何 Python 脚本前，需先编译 proto 文件。\n```bash\nprotoc .\u002Fmint\u002Fprotos\u002F*.proto\n```\n\n### 2. 数据预处理\n将原始数据转换为 TFRecord 格式。请替换 `--anno_dir` 和 `--audio_dir` 为你本地的实际路径。\n```bash\n# 处理训练集\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=train\n\n# 处理验证\u002F测试集\npython tools\u002Fpreprocessing.py \\\n    --anno_dir=\"\u002Fmnt\u002Fdata\u002Faist_plusplus_final\u002F\" \\\n    --audio_dir=\"\u002Fmnt\u002Fdata\u002FAIST\u002Fmusic\u002F\" \\\n    --split=testval\n```\n\n### 3. 运行训练\n使用默认配置启动训练。若显存不足（OOM），请编辑 `.\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config` 调小 `batch_size`。\n```bash\npython trainer.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n```\n\n### 4. 推理与评估\n生成舞蹈动作并计算 FID 分数。\n```bash\n# 生成动作 (结果缓存至 .\u002Foutputs)\npython evaluator.py --config_path .\u002Fconfigs\u002Ffact_v5_deeper_t10_cm12.config --model_dir .\u002Fcheckpoints\n\n# 计算评估指标\npython tools\u002Fcalculate_scores.py\n```","某独立游戏开发团队正在为一款音乐节奏游戏制作大量与背景音乐完美同步的 3D 角色舞蹈动画。\n\n### 没有 mint 时\n- 动画师必须手动逐帧调整骨骼关键帧以匹配音乐节拍，制作一段 30 秒的舞蹈需耗费数天时间。\n- 难以保证动作与复杂音乐节奏的精准对齐，导致成品出现“踩点不准”的违和感，反复修改成本极高。\n- 缺乏高质量的多模态训练基础设施，团队无法利用现有数据集（如 AIST++）快速训练定制化舞蹈生成模型。\n- 不同风格的音乐需要完全重新手工制作动画，无法实现基于音乐条件的自动化批量生产。\n\n### 使用 mint 后\n- 利用 mint 内置的 FACT 模型，输入音乐文件即可自动生成流畅且符合节拍的 3D 舞蹈序列，将制作周期从数天缩短至几分钟。\n- 模型基于 ICCV 2021 获奖算法训练，生成的动作在时间维度上与音乐节奏高度契合，显著提升了游戏的沉浸感。\n- 直接复用 mint 提供的完整训练架构和数据预处理工具，团队可轻松基于自有数据微调模型，适配特定角色风格。\n- 支持通过配置文件灵活调整生成参数，能够针对不同曲风批量产出多样化舞蹈资产，极大丰富了游戏内容库。\n\nmint 通过将前沿的多模态研究成果转化为易用的训练设施，彻底改变了音乐驱动舞蹈动画的生产范式，实现了从“手工雕琢”到\"AI 自动生成”的质的飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_mint_f8b380c2.png","google-research","Google Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-research_c23b2adf.png","",null,"https:\u002F\u002Fresearch.google","https:\u002F\u002Fgithub.com\u002Fgoogle-research",[84],{"name":85,"color":86,"percentage":87},"Python","#3572A5",100,558,91,"2026-04-05T07:18:53","Apache-2.0",4,"Linux","需要 NVIDIA GPU (通过 tensorflow-graphics-gpu)，具体型号和显存未说明，但需注意配置文件中 batch_size 以防 OOM","未说明",{"notes":97,"python":98,"dependencies":99},"1. 必须使用 `git clone --recursive` 以包含 orbit 子模块。2. 需手动编译 proto 文件 (`protoc .\u002Fmint\u002Fprotos\u002F*.proto`)。3. 若遇到 numpy 环境冲突，建议安装 `numpy==1.20`。4. 需自行下载 AIST++ 数据集和 Google Drive 上的检查点文件。5. 依赖库中包含 `tensorflow-graphics-gpu`，暗示主要支持 Linux 环境下的 NVIDIA GPU。","3.7",[100,101,102,103,104,105,106,107,108,109],"tensorflow","tensorflow-datasets","tensorflow-graphics","librosa","numpy","protobuf","absl-py","OpenEXR","einops","aistplusplus_api",[31,16,29],"2026-03-27T02:49:30.150509","2026-04-19T09:37:50.329831",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},42299,"如何编译 proto 文件时解决 'Missing output directives' 错误？","运行 protoc 命令时需要指定输出目录参数。请使用以下完整命令：\nprotoc --python_out=. .\u002Fmint\u002Fprotos\u002F*.proto\n或者指定具体输出路径：\nprotoc --python_out=.\u002Fmint\u002Fprotos\u002F .\u002Fmint\u002Fprotos\u002F*proto","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F8",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},42300,"如何将模型生成的 .npy 运动数据转换为视频或进行可视化？","可以使用项目提供的工具将 .npy 文件转换为 BVH 格式，然后导入 Blender 进行可视化。具体步骤如下：\n1. 使用转换工具：https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fblob\u002Fmain\u002Ftools\u002Fbvh_writer.py\n2. 将结果转换为 bvh 文件。\n3. 在 Blender 中导入该 bvh 文件即可看到 3D 角色运动。\n注意：如果作者已不再维护该项目，也可以参考其他开源方案如 CharacterDriven-BlenderAddon 来演示 .npy 运动数据。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F19",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},42301,"在哪里可以找到 bvh_writer.py 所需的 skeleton_csv_filename 和 joints_to_ignore_csv_filename 文件？","维护者表示这些 CSV 文件原本应从 SMPL 骨骼数据中导出，但因离职疏忽未发布。用户可以访问 SMPL 官方网站 (https:\u002F\u002Fsmpl.is.tue.mpg.de\u002F) 查阅相关论文和数据，自行从 SMPL  skeletons 中 dump（导出）这些所需的 CSV 配置文件。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F6",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},42302,"BeatAlign 指标中的运动节拍（kinematic beats）是如何计算的？代码在哪里？","节拍度量的计算代码位于：https:\u002F\u002Fgithub.com\u002Fliruilong940607\u002Fmint\u002Fblob\u002Fmain\u002Ftools\u002Fcalculate_beat_scores.py\n维护者说明这部分代码原本在个人分支上，忘记合并到官方仓库，用户可以通过该链接查看具体的计算逻辑。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F17",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},42303,"为什么代码中要将运动平移（translation）的维度从 3 填充到 9？","这是出于历史遗留原因（legacy reason）。维护者表示早期实验可能需要维度能被 9 整除，但在当前发布的版本中，这一限制已不再重要，无需特别处理。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F5",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},42304,"如何使用 AIST++ API 可视化 MINT 输出的 SMPL 网格？","可以参考 AIST++ API 的官方脚本来根据 MINT 的输出可视化 SMPL 网格。具体文档和脚本地址为：https:\u002F\u002Fgithub.com\u002Fgoogle\u002Faistplusplus_api#visualize-the-smpl-mesh","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F10",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},42305,"推理输出的 .npy 文件中某些关节角度（如肩膀）看起来是错误的或翻转了，如何解决？","这通常涉及坐标系的转换。用户需要执行与预处理相反的旋转操作。参考代码逻辑如下：\n1. 截取数据：rotations = mint_data[:seq_len, 9:]\n2. 重塑并转换旋转表示：\n   rotations = rotations.reshape([-1, 3, 3])\n   rotations = R.from_matrix(rotations).as_rotvec().reshape([seq_len, (joint_dim-1)\u002F\u002F9, 3])\n3. 提取身体姿态：body_pose = rotations[:, :NUM_SMPLX_BODYJOINTS]\n之后可使用 Blender 的 SMPLX 插件进行可视化验证。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fmint\u002Fissues\u002F21",[]]