[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MarkFzp--humanplus":3,"tool-MarkFzp--humanplus":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":82,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":112,"github_topics":113,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":22,"created_at":118,"updated_at":119,"faqs":120,"releases":121},3667,"MarkFzp\u002Fhumanplus","humanplus","[CoRL 2024] HumanPlus: Humanoid Shadowing and Imitation from Humans","HumanPlus 是一个面向人形机器人研究的开源项目，旨在让人形机器人能够像影子一样实时跟随人类动作，并模仿人类完成复杂的全身任务。它主要解决了传统机器人在非结构化环境中难以精准理解并复现人类自然行为的问题，特别是如何将人类的全身姿态（包括手部细节）高效迁移到机器人控制中。\n\n该项目适合机器人领域的研究人员、算法工程师以及高校开发者使用。其核心包含两大技术模块：人形跟随变换器（HST）和人形模仿变换器（HIT）。HST 基于强化学习，在仿真环境中训练机器人稳健地跟踪人类运动；HIT 则利用模仿学习，结合真实世界数据，让机器人学会如折叠衣物等精细操作。技术亮点在于采用了 Transformer 架构处理序列决策，并整合了 WHAM 和 HaMeR 等先进算法，实现了对人体及手部的高精度姿态估计。此外，项目还提供了完整的硬件部署代码，支持将训练好的策略直接应用于宇树（Unitree）等真实机器人平台，打通了从仿真训练到真机落地的全流程。","# HumanPlus: Humanoid Shadowing and Imitation from Humans\n\n\n#### Project Website: https:\u002F\u002Fhumanoid-ai.github.io\u002F\n\nThis repository contains the updating implementation for the Humanoid Shadowing Transformer (HST) and the Humanoid Imitation Transformer (HIT), along with instructions for whole-body pose estimation and the associated hardware codebase.\n\n\n## Humanoid Shadowing Transformer (HST)\nReinforcement learning in simulation is based on [legged_gym](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym) and [rsl_rl](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl).\n#### Installation\nInstall IsaacGym v4 first from the [official source](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym). Place the isaacgym fold inside the HST folder.\n\n    cd HST\u002Frsl_rl && pip install -e . \n    cd HST\u002Flegged_gym && pip install -e .\n\n#### Example Usages\nTo train HST:\n\n    python legged_gym\u002Fscripts\u002Ftrain.py --run_name 0001_test --headless --sim_device cuda:0 --rl_device cuda:0\n\nTo play a trained policy:\n\n    python legged_gym\u002Fscripts\u002Fplay.py --run_name 0001_test --checkpoint -1 --headless --sim_device cuda:0 --rl_device cuda:0\n\n\n## Humanoid Imitation Transformer (HIT)\nImitation learning in the real world is based on [ACT repo](https:\u002F\u002Fgithub.com\u002Ftonyzhaozh\u002Fact) and [Mobile ALOHA repo](https:\u002F\u002Fgithub.com\u002FMarkFzp\u002Fact-plus-plus).\n#### Installation\n    conda create -n HIT python=3.8.10\n    conda activate HIT\n    pip install torchvision\n    pip install torch\n    pip install pyquaternion\n    pip install pyyaml\n    pip install rospkg\n    pip install pexpect\n    pip install mujoco==2.3.7\n    pip install dm_control==1.0.14\n    pip install opencv-python\n    pip install matplotlib\n    pip install einops\n    pip install packaging\n    pip install h5py\n    pip install ipython\n    pip install getkey\n    pip install wandb\n    pip install chardet\n    pip install h5py_cache\n    cd HIT\u002Fdetr && pip install -e .\n#### Example Usages\nCollect your own data or download our dataset from [here](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i3eGTd9Nl_tSieoE0grxuKqUAumBr2EV?usp=drive_link) and place it in the HIT folder.\n\nTo set up a new terminal, run:\n\n    conda activate HIT\n    cd HIT\n\nTo train HIT:\n\n    # Fold Clothes task\n    python imitate_episodes_h1_train.py --task_name data_fold_clothes --ckpt_dir fold_clothes\u002F --policy_class HIT --chunk_size 50 --hidden_dim 512 --batch_size 48 --dim_feedforward 512 --lr 1e-5 --seed 0 --num_steps 100000 --eval_every 100000 --validate_every 1000 --save_every 10000 --no_encoder --backbone resnet18 --same_backbones --use_pos_embd_image 1 --use_pos_embd_action 1 --dec_layers 6 --gpu_id 0 --feature_loss_weight 0.005 --use_mask --data_aug --wandb\n\n## Hardware Codebase\nHardware codebase is based on [unitree_ros2](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_ros2).\n\n#### Installation\n\ninstall [unitree_sdk](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2)\n\ninstall [unitree_ros2](https:\u002F\u002Fsupport.unitree.com\u002Fhome\u002Fen\u002Fdeveloper\u002FROS2_service)\n\n    conda create -n lowlevel python=3.8\n    conda activate lowlevel\n\ninstall [nvidia-jetpack](https:\u002F\u002Fdocs.nvidia.com\u002Fjetson\u002Farchives\u002Fjetpack-archived\u002Fjetpack-461\u002Finstall-jetpack\u002Findex.html)\n\ninstall torch==1.11.0 and torchvision==0.12.0:  \nplease refer to the following links:   \nhttps:\u002F\u002Fforums.developer.nvidia.com\u002Ft\u002Fpytorch-for-jetson\u002F72048\nhttps:\u002F\u002Fdocs.nvidia.com\u002Fdeeplearning\u002Fframeworks\u002Finstall-pytorch-jetson-platform\u002Findex.html\n\n#### Example Usages\nPut your trained policy in the `hardware-script\u002Fckpt` folder and rename it to `policy.pt`\n\n    conda activate lowlevel\n    cd hardware-script\n    python hardware_whole_body.py --task_name stand\n\n\n## Pose Estimation\nFor body pose estimation, please refer to [WHAM](https:\u002F\u002Fgithub.com\u002Fyohanshin\u002FWHAM). \nFor hand pose estimation, please refer to [HaMeR](https:\u002F\u002Fgithub.com\u002Fgeopavlakos\u002Fhamer). \n","# HumanPlus：人形机器人的人类跟随与模仿\n\n\n#### 项目官网：https:\u002F\u002Fhumanoid-ai.github.io\u002F\n\n本仓库包含人形机器人跟随Transformer（HST）和人形机器人模仿Transformer（HIT）的更新实现，以及全身姿态估计的说明和相关的硬件代码库。\n\n\n## 人形机器人跟随Transformer（HST）\n仿真环境中的强化学习基于[legged_gym](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Flegged_gym)和[rsl_rl](https:\u002F\u002Fgithub.com\u002Fleggedrobotics\u002Frsl_rl)。\n#### 安装\n首先从[官方源](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym)安装IsaacGym v4，并将isaacgym文件夹放置在HST文件夹内。\n\n    cd HST\u002Frsl_rl && pip install -e . \n    cd HST\u002Flegged_gym && pip install -e .\n\n#### 示例用法\n训练HST：\n\n    python legged_gym\u002Fscripts\u002Ftrain.py --run_name 0001_test --headless --sim_device cuda:0 --rl_device cuda:0\n\n播放已训练好的策略：\n\n    python legged_gym\u002Fscripts\u002Fplay.py --run_name 0001_test --checkpoint -1 --headless --sim_device cuda:0 --rl_device cuda:0\n\n\n## 人形机器人模仿Transformer（HIT）\n现实世界中的模仿学习基于[ACT仓库](https:\u002F\u002Fgithub.com\u002Ftonyzhaozh\u002Fact)和[Mobile ALOHA仓库](https:\u002F\u002Fgithub.com\u002FMarkFzp\u002Fact-plus-plus)。\n#### 安装\n    conda create -n HIT python=3.8.10\n    conda activate HIT\n    pip install torchvision\n    pip install torch\n    pip install pyquaternion\n    pip install pyyaml\n    pip install rospkg\n    pip install pexpect\n    pip install mujoco==2.3.7\n    pip install dm_control==1.0.14\n    pip install opencv-python\n    pip install matplotlib\n    pip install einops\n    pip install packaging\n    pip install h5py\n    pip install ipython\n    pip install getkey\n    pip install wandb\n    pip install chardet\n    pip install h5py_cache\n    cd HIT\u002Fdetr && pip install -e .\n#### 示例用法\n收集您自己的数据，或从[这里](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i3eGTd9Nl_tSieoE0grxuKqUAumBr2EV?usp=drive_link)下载我们的数据集，并将其放置在HIT文件夹中。\n\n要设置一个新的终端，请运行：\n\n    conda activate HIT\n    cd HIT\n\n训练HIT：\n\n    # 折叠衣物任务\n    python imitate_episodes_h1_train.py --task_name data_fold_clothes --ckpt_dir fold_clothes\u002F --policy_class HIT --chunk_size 50 --hidden_dim 512 --batch_size 48 --dim_feedforward 512 --lr 1e-5 --seed 0 --num_steps 100000 --eval_every 100000 --validate_every 1000 --save_every 10000 --no_encoder --backbone resnet18 --same_backbones --use_pos_embd_image 1 --use_pos_embd_action 1 --dec_layers 6 --gpu_id 0 --feature_loss_weight 0.005 --use_mask --data_aug --wandb\n\n## 硬件代码库\n硬件代码库基于[unitree_ros2](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_ros2)。\n\n#### 安装\n\n安装[unitree_sdk](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2)\n\n安装[unitree_ros2](https:\u002F\u002Fsupport.unitree.com\u002Fhome\u002Fen\u002Fdeveloper\u002FROS2_service)\n\n    conda create -n lowlevel python=3.8\n    conda activate lowlevel\n\n安装[nvidia-jetpack](https:\u002F\u002Fdocs.nvidia.com\u002Fjetson\u002Farchives\u002Fjetpack-archived\u002Fjetpack-461\u002Finstall-jetpack\u002Findex.html)\n\n安装torch==1.11.0和torchvision==0.12.0：\n请参考以下链接：\nhttps:\u002F\u002Fforums.developer.nvidia.com\u002Ft\u002Fpytorch-for-jetson\u002F72048\nhttps:\u002F\u002Fdocs.nvidia.com\u002Fdeeplearning\u002Fframeworks\u002Finstall-pytorch-jetson-platform\u002Findex.html\n\n#### 示例用法\n将您训练好的策略放入`hardware-script\u002Fckpt`文件夹，并重命名为`policy.pt`\n\n    conda activate lowlevel\n    cd hardware-script\n    python hardware_whole_body.py --task_name stand\n\n\n## 姿态估计\n对于身体姿态估计，请参考[WHAM](https:\u002F\u002Fgithub.com\u002Fyohanshin\u002FWHAM)。\n对于手部姿态估计，请参考[HaMeR](https:\u002F\u002Fgithub.com\u002Fgeopavlakos\u002Fhamer)。","# HumanPlus 快速上手指南\n\nHumanPlus 是一个用于人形机器人阴影跟随（Shadowing）和模仿学习（Imitation）的开源项目，包含仿真训练（HST）、真机模仿（HIT）及全身姿态估计模块。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04)\n- **GPU**: NVIDIA GPU (支持 CUDA)，仿真部分需安装 Isaac Gym。\n- **Python 版本**:\n  - HST (仿真): 依赖 Isaac Gym 环境\n  - HIT (真机模仿): Python 3.8.10\n  - Hardware (底层控制): Python 3.8 (Jetson 平台需特定版本)\n\n### 前置依赖\n- **Isaac Gym v4**: 必须从 [NVIDIA 官网](https:\u002F\u002Fdeveloper.nvidia.com\u002Fisaac-gym) 下载并安装。\n- **Conda**: 用于管理不同模块的虚拟环境。\n- **硬件驱动**: 若部署真机，需安装 Unitree SDK、ROS2 及 NVIDIA JetPack (针对 Jetson 设备)。\n\n---\n\n## 2. 安装步骤\n\n本项目分为三个主要模块，请根据需求选择安装。\n\n### 模块 A: Humanoid Shadowing Transformer (HST) - 仿真强化学习\n1. 将下载的 `isaacgym` 文件夹放入 `HST` 目录中。\n2. 安装核心库：\n```bash\ncd HST\u002Frsl_rl && pip install -e . \ncd HST\u002Flegged_gym && pip install -e .\n```\n\n### 模块 B: Humanoid Imitation Transformer (HIT) - 真机模仿学习\n1. 创建并激活虚拟环境：\n```bash\nconda create -n HIT python=3.8.10\nconda activate HIT\n```\n2. 安装依赖包（建议配置国内 pip 源以加速下载）：\n```bash\npip install torchvision torch pyquaternion pyyaml rospkg pexpect mujoco==2.3.7 dm_control==1.0.14 opencv-python matplotlib einops packaging h5py ipython getkey wandb chardet h5py_cache\n```\n3. 安装 DETR 模块：\n```bash\ncd HIT\u002Fdetr && pip install -e .\n```\n\n### 模块 C: Hardware Codebase - 底层硬件控制\n*仅适用于真机部署（基于 Unitree 机器人）。*\n\n1. 安装官方 SDK：\n   - 安装 [unitree_sdk2](https:\u002F\u002Fgithub.com\u002Funitreerobotics\u002Funitree_sdk2)\n   - 安装 [unitree_ros2](https:\u002F\u002Fsupport.unitree.com\u002Fhome\u002Fen\u002Fdeveloper\u002FROS2_service)\n2. 创建底层控制环境：\n```bash\nconda create -n lowlevel python=3.8\nconda activate lowlevel\n```\n3. **Jetson 平台特别配置**：\n   - 安装 [NVIDIA JetPack 4.6.1](https:\u002F\u002Fdocs.nvidia.com\u002Fjetson\u002Farchives\u002Fjetpack-archived\u002Fjetpack-461\u002Finstall-jetpack\u002Findex.html)\n   - 安装特定版本的 PyTorch (torch==1.11.0, torchvision==0.12.0)，请参考 [NVIDIA 论坛](https:\u002F\u002Fforums.developer.nvidia.com\u002Ft\u002Fpytorch-for-jetson\u002F72048) 或 [官方文档](https:\u002F\u002Fdocs.nvidia.com\u002Fdeeplearning\u002Fframeworks\u002Finstall-pytorch-jetson-platform\u002Findex.html) 进行安装。\n\n---\n\n## 3. 基本使用\n\n### HST：训练与测试策略\n**训练模型**：\n```bash\npython legged_gym\u002Fscripts\u002Ftrain.py --run_name 0001_test --headless --sim_device cuda:0 --rl_device cuda:0\n```\n\n**加载已训练策略进行演示**：\n```bash\npython legged_gym\u002Fscripts\u002Fplay.py --run_name 0001_test --checkpoint -1 --headless --sim_device cuda:0 --rl_device cuda:0\n```\n\n### HIT：训练模仿策略\n1. **数据准备**：收集自有数据或从 [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i3eGTd9Nl_tSieoE0grxuKqUAumBr2EV?usp=drive_link) 下载数据集，并将其放入 `HIT` 文件夹。\n2. **启动训练**（以叠衣服任务为例）：\n```bash\nconda activate HIT\ncd HIT\n\npython imitate_episodes_h1_train.py --task_name data_fold_clothes --ckpt_dir fold_clothes\u002F --policy_class HIT --chunk_size 50 --hidden_dim 512 --batch_size 48 --dim_feedforward 512 --lr 1e-5 --seed 0 --num_steps 100000 --eval_every 100000 --validate_every 1000 --save_every 10000 --no_encoder --backbone resnet18 --same_backbones --use_pos_embd_image 1 --use_pos_embd_action 1 --dec_layers 6 --gpu_id 0 --feature_loss_weight 0.005 --use_mask --data_aug --wandb\n```\n\n### Hardware：真机部署\n1. 将训练好的策略文件重命名为 `policy.pt` 并放入 `hardware-script\u002Fckpt` 目录。\n2. 运行控制脚本（以站立任务为例）：\n```bash\nconda activate lowlevel\ncd hardware-script\npython hardware_whole_body.py --task_name stand\n```\n\n### 姿态估计参考\n- **全身姿态**: 参考 [WHAM](https:\u002F\u002Fgithub.com\u002Fyohanshin\u002FWHAM) 项目。\n- **手部姿态**: 参考 [HaMeR](https:\u002F\u002Fgithub.com\u002Fgeopavlakos\u002Fhamer) 项目。","某具身智能实验室正致力于让人形机器人快速掌握“折叠衣物”这类复杂的生活技能，以验证其在家庭服务场景中的实用性。\n\n### 没有 humanplus 时\n- **动作生成困难**：传统强化学习难以在仿真中收敛出拟人化的全身协调动作，机器人行走时步态僵硬，手臂摆动不自然。\n- **虚实迁移鸿沟**：在模拟器中训练好的策略直接部署到真机时，因物理参数差异导致机器人频繁摔倒或动作失控。\n- **示教数据浪费**：虽然采集了大量人类演示视频，但缺乏高效算法将人类的视觉姿态直接映射为机器人的关节控制指令。\n- **开发周期漫长**：工程师需花费数周时间手工调整奖励函数和底层控制器，才能勉强让机器人完成简单的站立任务。\n\n### 使用 humanplus 后\n- **影子跟随流畅**：利用 HST（Shadowing Transformer）在仿真中进行强化学习，机器人能像影子一样精准复刻人类的全身动态，步态自然且平衡性强。\n- **无缝真机部署**：通过 HIT（Imitation Transformer）进行模仿学习，直接将人类折叠衣物的视频数据转化为控制策略，实现了从仿真到现实（Sim-to-Real）的零样本迁移。\n- **端到端技能习得**：结合 WHAM 和 HaMeR 的高精度姿态估计，humanplus 能自动解析人类手部和身体姿态，让机器人快速学会复杂的操作任务而无需手工编码规则。\n- **研发效率倍增**：团队仅需少量演示数据即可在数小时内训练出新策略，将原本数周的调试工作缩短至几天，大幅加速了算法迭代。\n\nhumanplus 通过“仿真影子跟随 + 现实模仿学习”的双阶段架构，彻底打通了从人类视频数据到人形机器人灵巧操作的自动化闭环。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMarkFzp_humanplus_65029824.png","MarkFzp","Zipeng Fu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMarkFzp_d100e592.jpg","CS PhD at Stanford AI Lab. Working on Robotics and Machine Learning. ","Stanford University","Palo Alto, CA",null,"zipengfu","https:\u002F\u002Fzipengfu.github.io","https:\u002F\u002Fgithub.com\u002FMarkFzp",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,834,122,"2026-04-03T11:34:18",5,"Linux","必需 NVIDIA GPU。HST 模块需支持 IsaacGym v4 (通常要求 CUDA 11+)；Hardware 模块针对 NVIDIA Jetson 平台 (JetPack 4.6.1)。具体显存大小未说明，但深度学习训练通常建议 8GB+。","未说明",{"notes":99,"python":100,"dependencies":101},"该项目分为三个主要部分：1. HST (仿真强化学习) 需手动安装 NVIDIA IsaacGym v4 并配置 legged_gym 和 rsl_rl；2. HIT (真实世界模仿学习) 基于 ACT 框架，需严格使用 Python 3.8.10 环境；3. Hardware (硬件部署) 专用于 NVIDIA Jetson 嵌入式平台，需安装 JetPack 4.6.1 及特定版本的 PyTorch (1.11.0)。姿态估计功能依赖外部项目 WHAM 和 HaMeR。","3.8.10 (HIT 模块明确要求), 3.8 (Hardware 模块)",[102,103,104,105,106,107,108,109,110,111],"isaacgym==v4","torch==1.11.0 (Jetson)\u002Ftorch (通用)","torchvision","mujoco==2.3.7","dm_control==1.0.14","opencv-python","pyquaternion","rospkg","unitree_sdk2","h5py",[18],[114,115,116,117],"humanoids","imitation-learning","reinforcement-learning","robotics","2026-03-27T02:49:30.150509","2026-04-06T08:09:02.942412",[],[]]