[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-sapientinc--HRM":3,"tool-sapientinc--HRM":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":100,"env_deps":101,"category_tags":114,"github_topics":115,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":148},8202,"sapientinc\u002FHRM","HRM","Hierarchical Reasoning Model Official Release","HRM（分层推理模型）是一款受人类大脑分层处理机制启发的新型 AI 架构，专为解决复杂的目标导向推理任务而设计。当前主流的大语言模型依赖“思维链”技术，往往面临任务分解脆弱、数据需求庞大及响应延迟高等痛点。HRM 通过独特的双层循环模块突破了这些限制：高层模块负责缓慢的抽象规划，低层模块处理快速的细节计算，两者协同工作，仅需单次前向传播即可完成复杂的顺序推理，且无需对中间过程进行显式监督。\n\n该模型的核心亮点在于其极高的效率与泛化能力。仅凭 2700 万参数量和 1000 个训练样本，HRM 就能在无需预训练或思维链数据的情况下，完美攻克高难度数独、大型迷宫寻路等挑战，并在衡量通用人工智能能力的 ARC 基准测试中超越了参数量更大、上下文更长的模型。\n\nHRM 特别适合 AI 研究人员、算法工程师以及对高效推理架构感兴趣的开发者使用。无论是希望探索小样本学习潜力的学术团队，还是寻求在有限算力下部署高性能推理应用的工程人员，都能从中获益。它展示了通往通用计算系统的全新路径，为构建更轻量、更智能的 AI 提供了强有力的技术参考。","# Hierarchical Reasoning Model\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsapientinc_HRM_readme_a192734e60e7.png)\n\nReasoning, the process of devising and executing complex goal-oriented action sequences, remains a critical challenge in AI.\nCurrent large language models (LLMs) primarily employ Chain-of-Thought (CoT) techniques, which suffer from brittle task decomposition, extensive data requirements, and high latency. Inspired by the hierarchical and multi-timescale processing in the human brain, we propose the Hierarchical Reasoning Model (HRM), a novel recurrent architecture that attains significant computational depth while maintaining both training stability and efficiency.\nHRM executes sequential reasoning tasks in a single forward pass without explicit supervision of the intermediate process, through two interdependent recurrent modules: a high-level module responsible for slow, abstract planning, and a low-level module handling rapid, detailed computations. With only 27 million parameters, HRM achieves exceptional performance on complex reasoning tasks using only 1000 training samples. The model operates without pre-training or CoT data, yet achieves nearly perfect performance on challenging tasks including complex Sudoku puzzles and optimal path finding in large mazes.\nFurthermore, HRM outperforms much larger models with significantly longer context windows on the Abstraction and Reasoning Corpus (ARC), a key benchmark for measuring artificial general intelligence capabilities.\nThese results underscore HRM’s potential as a transformative advancement toward universal computation and general-purpose reasoning systems.\n\nRead Our Paper: [https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734)\n\n**Join Our Discord Community: [https:\u002F\u002Fdiscord.gg\u002Fsapient](https:\u002F\u002Fdiscord.gg\u002Fsapient)**\n\n\n## Quick Start Guide 🚀\n\n### Prerequisites ⚙️\n\nEnsure PyTorch and CUDA are installed. The repo needs CUDA extensions to be built. If not present, run the following commands:\n\n```bash\n# Install CUDA 12.6\nCUDA_URL=https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F12.6.3\u002Flocal_installers\u002Fcuda_12.6.3_560.35.05_linux.run\n\nwget -q --show-progress --progress=bar:force:noscroll -O cuda_installer.run $CUDA_URL\nsudo sh cuda_installer.run --silent --toolkit --override\n\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-12.6\n\n# Install PyTorch with CUDA 12.6\nPYTORCH_INDEX_URL=https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu126\n\npip3 install torch torchvision torchaudio --index-url $PYTORCH_INDEX_URL\n\n# Additional packages for building extensions\npip3 install packaging ninja wheel setuptools setuptools-scm\n```\n\nThen install FlashAttention. For Hopper GPUs, install FlashAttention 3\n\n```bash\ngit clone git@github.com:Dao-AILab\u002Fflash-attention.git\ncd flash-attention\u002Fhopper\npython setup.py install\n```\n\nFor Ampere or earlier GPUs, install FlashAttention 2\n\n```bash\npip3 install flash-attn\n```\n\n## Install Python Dependencies 🐍\n\n```bash\npip install -r requirements.txt\n```\n\n## W&B Integration 📈\n\nThis project uses [Weights & Biases](https:\u002F\u002Fwandb.ai\u002F) for experiment tracking and metric visualization. Ensure you're logged in:\n\n```bash\nwandb login\n```\n\n## Run Experiments\n\n### Quick Demo: Sudoku Solver 💻🗲\n\nTrain a master-level Sudoku AI capable of solving extremely difficult puzzles on a modern laptop GPU. 🧩\n\n```bash\n# Download and build Sudoku dataset\npython dataset\u002Fbuild_sudoku_dataset.py --output-dir data\u002Fsudoku-extreme-1k-aug-1000  --subsample-size 1000 --num-aug 1000\n\n# Start training (single GPU, smaller batch size)\nOMP_NUM_THREADS=8 python pretrain.py data_path=data\u002Fsudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5 puzzle_emb_lr=7e-5 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\nRuntime: ~10 hours on a RTX 4070 laptop GPU\n\n## Trained Checkpoints 🚧\n\n - [ARC-AGI-2](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-ARC-2)\n - [Sudoku 9x9 Extreme (1000 examples)](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-sudoku-extreme)\n - [Maze 30x30 Hard (1000 examples)](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-maze-30x30-hard)\n\nTo use the checkpoints, see Evaluation section below.\n\n## Full-scale Experiments 🔵\n\nExperiments below assume an 8-GPU setup.\n\n### Dataset Preparation\n\n```bash\n# Initialize submodules\ngit submodule update --init --recursive\n\n# ARC-1\npython dataset\u002Fbuild_arc_dataset.py  # ARC offical + ConceptARC, 960 examples\n# ARC-2\npython dataset\u002Fbuild_arc_dataset.py --dataset-dirs dataset\u002Fraw-data\u002FARC-AGI-2\u002Fdata --output-dir data\u002Farc-2-aug-1000  # ARC-2 official, 1120 examples\n\n# Sudoku-Extreme\npython dataset\u002Fbuild_sudoku_dataset.py  # Full version\npython dataset\u002Fbuild_sudoku_dataset.py --output-dir data\u002Fsudoku-extreme-1k-aug-1000  --subsample-size 1000 --num-aug 1000  # 1000 examples\n\n# Maze\npython dataset\u002Fbuild_maze_dataset.py  # 1000 examples\n```\n\n### Dataset Visualization\n\nExplore the puzzles visually:\n\n* Open `puzzle_visualizer.html` in your browser.\n* Upload the generated dataset folder located in `data\u002F...`.\n\n## Launch experiments\n\n### Small-sample (1K)\n\nARC-1:\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py \n```\n\n*Runtime:* ~24 hours\n\nARC-2:\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Farc-2-aug-1000\n```\n\n*Runtime:* ~24 hours (checkpoint after 8 hours is often sufficient)\n\nSudoku Extreme (1k):\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fsudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 lr=1e-4 puzzle_emb_lr=1e-4 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n*Runtime:* ~10 minutes\n\nMaze 30x30 Hard (1k):\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fmaze-30x30-hard-1k epochs=20000 eval_interval=2000 lr=1e-4 puzzle_emb_lr=1e-4 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n*Runtime:* ~1 hour\n\n### Full Sudoku-Hard\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fsudoku-hard-full epochs=100 eval_interval=10 lr_min_ratio=0.1 global_batch_size=2304 lr=3e-4 puzzle_emb_lr=3e-4 weight_decay=0.1 puzzle_emb_weight_decay=0.1 arch.loss.loss_type=softmax_cross_entropy arch.L_cycles=8 arch.halt_max_steps=8 arch.pos_encodings=learned\n```\n\n*Runtime:* ~2 hours\n\n## Evaluation\n\nEvaluate your trained models:\n\n* Check `eval\u002Fexact_accuracy` in W&B.\n* For ARC-AGI, follow these additional steps:\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 evaluate.py checkpoint=\u003CCHECKPOINT_PATH>\n```\n\n* Then use the provided `arc_eval.ipynb` notebook to finalize and inspect your results.\n\n## Notes\n\n - Small-sample learning typically exhibits accuracy variance of around ±2 points.\n - For Sudoku-Extreme (1,000-example dataset), late-stage overfitting may cause numerical instability during training and Q-learning. It is advisable to use early stopping once the training accuracy approaches 100%.\n\n## Citation 📜\n\n```bibtex\n@misc{wang2025hierarchicalreasoningmodel,\n      title={Hierarchical Reasoning Model}, \n      author={Guan Wang and Jin Li and Yuhao Sun and Xing Chen and Changling Liu and Yue Wu and Meng Lu and Sen Song and Yasin Abbasi Yadkori},\n      year={2025},\n      eprint={2506.21734},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734}, \n}\n```\n","# 分层推理模型\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsapientinc_HRM_readme_a192734e60e7.png)\n\n推理，即设计并执行复杂的、以目标为导向的动作序列的过程，仍然是人工智能领域的一项关键挑战。\n当前的大规模语言模型（LLMs）主要采用思维链（CoT）技术，但这种方法存在任务分解脆弱、数据需求量大以及延迟高等问题。受人类大脑中分层和多时间尺度处理机制的启发，我们提出了分层推理模型（HRM），这是一种新颖的循环架构，在实现显著计算深度的同时，还能保持训练的稳定性和效率。\nHRM通过两个相互依赖的循环模块，在单次前向传播中完成顺序推理任务，无需对中间过程进行显式监督：一个高层模块负责缓慢而抽象的规划，另一个低层模块则处理快速且细致的计算。仅需2700万参数，HRM便能在仅使用1000个训练样本的情况下，在复杂推理任务上取得卓越表现。该模型无需预训练或思维链数据，却能在包括复杂数独谜题和大型迷宫最优路径寻找在内的高难度任务上达到近乎完美的性能。\n此外，在衡量人工通用智能能力的关键基准测试——抽象与推理语料库（ARC）上，HRM的表现甚至优于参数量更大、上下文窗口更长的模型。\n这些结果凸显了HRM作为迈向通用计算和通用推理系统的一项变革性进展的巨大潜力。\n\n阅读我们的论文：[https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734)\n\n**加入我们的Discord社区：[https:\u002F\u002Fdiscord.gg\u002Fsapient](https:\u002F\u002Fdiscord.gg\u002Fsapient)**\n\n\n## 快速入门指南 🚀\n\n### 前置条件 ⚙️\n\n请确保已安装PyTorch和CUDA。该项目需要构建CUDA扩展。若尚未安装，请运行以下命令：\n\n```bash\n# 安装CUDA 12.6\nCUDA_URL=https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F12.6.3\u002Flocal_installers\u002Fcuda_12.6.3_560.35.05_linux.run\n\nwget -q --show-progress --progress=bar:force:noscroll -O cuda_installer.run $CUDA_URL\nsudo sh cuda_installer.run --silent --toolkit --override\n\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-12.6\n\n# 使用CUDA 12.6安装PyTorch\nPYTORCH_INDEX_URL=https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu126\n\npip3 install torch torchvision torchaudio --index-url $PYTORCH_INDEX_URL\n\n# 构建扩展所需的其他包\npip3 install packaging ninja wheel setuptools setuptools-scm\n```\n\n然后安装FlashAttention。对于Hopper GPU，请安装FlashAttention 3：\n\n```bash\ngit clone git@github.com:Dao-AILab\u002Fflash-attention.git\ncd flash-attention\u002Fhopper\npython setup.py install\n```\n\n对于Ampere或更早的GPU，则安装FlashAttention 2：\n\n```bash\npip3 install flash-attn\n```\n\n## 安装Python依赖项 🐍\n\n```bash\npip install -r requirements.txt\n```\n\n## W&B集成 📈\n\n本项目使用[Weights & Biases](https:\u002F\u002Fwandb.ai\u002F)进行实验跟踪和指标可视化。请确保已登录：\n\n```bash\nwandb login\n```\n\n## 运行实验\n\n### 快速演示：数独求解器 💻🗲\n\n在现代笔记本电脑的GPU上训练一个能够解决极其困难数独谜题的大师级AI。🧩\n\n```bash\n# 下载并构建数独数据集\npython dataset\u002Fbuild_sudoku_dataset.py --output-dir data\u002Fsudoku-extreme-1k-aug-1000  --subsample-size 1000 --num-aug 1000\n\n# 开始训练（单GPU，较小批次）\nOMP_NUM_THREADS=8 python pretrain.py data_path=data\u002Fsudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5 puzzle_emb_lr=7e-5 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n运行时间：约10小时，使用RTX 4070笔记本GPU\n\n## 已训练好的检查点 🚧\n\n - [ARC-AGI-2](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-ARC-2)\n - [9x9极端数独（1000个示例）](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-sudoku-extreme)\n - [30x30困难迷宫（1000个示例）](https:\u002F\u002Fhuggingface.co\u002Fsapientinc\u002FHRM-checkpoint-maze-30x30-hard)\n\n如需使用这些检查点，请参阅下方的评估部分。\n\n## 全规模实验 🔵\n\n以下实验假设使用8张GPU卡。\n\n### 数据集准备\n\n```bash\n# 初始化子模块\ngit submodule update --init --recursive\n\n# ARC-1\npython dataset\u002Fbuild_arc_dataset.py  # ARC官方数据 + ConceptARC，共960个样本\n# ARC-2\npython dataset\u002Fbuild_arc_dataset.py --dataset-dirs dataset\u002Fraw-data\u002FARC-AGI-2\u002Fdata --output-dir data\u002Farc-2-aug-1000  # ARC-2官方数据，共1120个样本\n\n# 数独-极端\npython dataset\u002Fbuild_sudoku_dataset.py  # 完整版本\npython dataset\u002Fbuild_sudoku_dataset.py --output-dir data\u002Fsudoku-extreme-1k-aug-1000  --subsample-size 1000 --num-aug 1000  # 1000个样本\n\n# 迷宫\npython dataset\u002Fbuild_maze_dataset.py  # 1000个样本\n```\n\n### 数据集可视化\n\n以可视化方式探索这些谜题：\n\n* 在浏览器中打开`puzzle_visualizer.html`。\n* 上传位于`data\u002F...`中的生成数据集文件夹。\n\n## 启动实验\n\n### 小样本（1K）\n\nARC-1：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py \n```\n\n*运行时间：* 约24小时\n\nARC-2：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Farc-2-aug-1000\n```\n\n*运行时间：* 约24小时（通常8小时后的检查点已足够）\n\n极端数独（1K）：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fsudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 lr=1e-4 puzzle_emb_lr=1e-4 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n*运行时间：* 约10分钟\n\n30x30困难迷宫（1K）：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fmaze-30x30-hard-1k epochs=20000 eval_interval=2000 lr=1e-4 puzzle_emb_lr=1e-4 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n*运行时间：* 约1小时\n\n### 全量极端数独\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 pretrain.py data_path=data\u002Fsudoku-hard-full epochs=100 eval_interval=10 lr_min_ratio=0.1 global_batch_size=2304 lr=3e-4 puzzle_emb_lr=3e-4 weight_decay=0.1 puzzle_emb_weight_decay=0.1 arch.loss.loss_type=softmax_cross_entropy arch.L_cycles=8 arch.halt_max_steps=8 arch.pos_encodings=learned\n```\n\n*运行时间：* 约2小时\n\n## 评估\n\n评估您训练好的模型：\n\n* 在W&B中查看`eval\u002Fexact_accuracy`。\n* 对于ARC-AGI，还需执行以下步骤：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 evaluate.py checkpoint=\u003CCHECKPOINT_PATH>\n```\n\n* 随后使用提供的`arc_eval.ipynb`笔记本完成最终结果的检查和分析。\n\n## 注意事项\n\n - 小样本学习通常会表现出约±2个百分点的准确率波动。\n - 对于极端数独（1000个样本的数据集），后期过拟合可能导致训练和Q-learning过程中出现数值不稳定。建议当训练准确率接近100%时及时停止训练。\n\n## 引用 📜\n\n```bibtex\n@misc{wang2025hierarchicalreasoningmodel,\n      title={层次化推理模型}, \n      author={Guan Wang 和 Jin Li 和 Yuhao Sun 和 Xing Chen 和 Changling Liu 和 Yue Wu 和 Meng Lu 和 Sen Song 和 Yasin Abbasi Yadkori},\n      year={2025},\n      eprint={2506.21734},\n      archivePrefix={arXiv},\n      primaryClass={cs.AI},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.21734}, \n}\n```","# HRM (Hierarchical Reasoning Model) 快速上手指南\n\nHRM 是一种受人类大脑分层处理机制启发的新型循环架构，仅需少量训练样本即可在数独、迷宫路径规划及 ARC 基准测试等复杂推理任务中实现卓越性能。本指南将帮助开发者快速搭建环境并运行基础实验。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**: Linux (推荐)\n- **GPU**: NVIDIA GPU (支持 CUDA)\n  - Hopper 架构显卡需安装 FlashAttention 3\n  - Ampere 及更早架构显卡需安装 FlashAttention 2\n- **CUDA 版本**: 推荐 12.6 (项目构建需要 CUDA 扩展)\n- **Python**: 3.8+\n\n### 前置依赖\n确保已安装 `git`, `wget`, `sudo` 等基础工具。\n\n## 安装步骤\n\n### 1. 安装 CUDA 与 PyTorch\n若未安装 CUDA 12.6 及对应版本的 PyTorch，请执行以下命令：\n\n```bash\n# Install CUDA 12.6\nCUDA_URL=https:\u002F\u002Fdeveloper.download.nvidia.com\u002Fcompute\u002Fcuda\u002F12.6.3\u002Flocal_installers\u002Fcuda_12.6.3_560.35.05_linux.run\n\nwget -q --show-progress --progress=bar:force:noscroll -O cuda_installer.run $CUDA_URL\nsudo sh cuda_installer.run --silent --toolkit --override\n\nexport CUDA_HOME=\u002Fusr\u002Flocal\u002Fcuda-12.6\n\n# Install PyTorch with CUDA 12.6\nPYTORCH_INDEX_URL=https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu126\n\npip3 install torch torchvision torchaudio --index-url $PYTORCH_INDEX_URL\n\n# Additional packages for building extensions\npip3 install packaging ninja wheel setuptools setuptools-scm\n```\n\n> **国内加速建议**：如下载缓慢，可将 `pip3 install` 的源替换为清华或阿里镜像，例如：`--index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` (注意 PyTorch 官方 wheel 源可能仍需使用官方地址或寻找国内镜像站)。\n\n### 2. 安装 FlashAttention\n根据您的 GPU 架构选择安装版本：\n\n**Hopper 架构 (如 H100):**\n```bash\ngit clone git@github.com:Dao-AILab\u002Fflash-attention.git\ncd flash-attention\u002Fhopper\npython setup.py install\n```\n\n**Ampere 及更早架构 (如 A100, RTX 30\u002F40 系列):**\n```bash\npip3 install flash-attn\n```\n> **国内加速建议**：若 `pip3 install flash-attn` 失败，可尝试从国内镜像源安装预编译包，或手动下载源码包后离线安装。\n\n### 3. 安装 Python 依赖\n克隆本项目仓库后，进入目录安装其余依赖：\n\n```bash\npip install -r requirements.txt\n```\n\n### 4. 配置 W&B (可选但推荐)\n项目使用 Weights & Biases 追踪实验指标，建议登录账号：\n\n```bash\nwandb login\n```\n\n## 基本使用\n\n以下示例展示如何在单张 GPU 上训练一个能够解决高难度数独的 HRM 模型（基于 1000 个样本）。\n\n### 第一步：构建数据集\n生成增强后的数独数据集：\n\n```bash\npython dataset\u002Fbuild_sudoku_dataset.py --output-dir data\u002Fsudoku-extreme-1k-aug-1000  --subsample-size 1000 --num-aug 1000\n```\n\n### 第二步：启动训练\n在单卡环境下运行训练脚本（以 RTX 4070 为例，预计耗时约 10 小时）：\n\n```bash\nOMP_NUM_THREADS=8 python pretrain.py data_path=data\u002Fsudoku-extreme-1k-aug-1000 epochs=20000 eval_interval=2000 global_batch_size=384 lr=7e-5 puzzle_emb_lr=7e-5 weight_decay=1.0 puzzle_emb_weight_decay=1.0\n```\n\n### 第三步：评估模型\n训练完成后，可通过 W&B 界面查看 `eval\u002Fexact_accuracy` 指标。若需加载预训练权重进行评测（例如 ARC 任务），可使用以下命令：\n\n```bash\nOMP_NUM_THREADS=8 torchrun --nproc-per-node 8 evaluate.py checkpoint=\u003CCHECKPOINT_PATH>\n```\n\n随后使用提供的 `arc_eval.ipynb` Notebook 进一步分析结果。\n\n---\n*注：小样本学习（1K 数据）可能存在约 ±2 点的准确率波动。对于数独任务，当训练准确率接近 100% 时建议尽早停止训练，以防过拟合导致数值不稳定。*","一家专注于物流优化的初创公司正在开发一套实时路径规划系统，需要在资源受限的边缘设备上快速计算大型仓库中的最优拣货路线。\n\n### 没有 HRM 时\n- **数据依赖沉重**：传统大模型需要海量标注数据才能学会复杂的路径逻辑，收集并清洗这些轨迹数据耗时数月。\n- **推理延迟过高**：基于思维链（CoT）的方法需要多步串行生成，导致单次路径规划耗时过长，无法满足实时调度需求。\n- **任务分解脆弱**：面对复杂的迷宫式仓库布局，模型容易在长序列决策中迷失方向，导致规划中断或陷入死循环。\n- **硬件门槛昂贵**：为了维持足够的上下文窗口和计算深度，必须部署参数量巨大的模型，边缘设备根本无法承载。\n\n### 使用 HRM 后\n- **小样本高效训练**：HRM 仅需 1000 条训练样本即可掌握复杂的路径寻找逻辑，将数据准备周期从数月缩短至几天。\n- **单前向极速推理**：凭借高低层双模块架构，HRM 在单次前向传播中即可完成抽象规划与细节计算，显著降低响应延迟。\n- **层级推理稳健**：高层模块负责慢速抽象规划，低层模块处理快速细节，即使在 30x30 的复杂迷宫中也能保持近乎完美的成功率。\n- **轻量级边缘部署**：仅 2700 万参数的精简架构，使得该模型能直接运行在普通的笔记本 GPU 甚至更低的算力设备上。\n\nHRM 通过模拟人脑的层级处理机制，以极小的数据量和算力成本，实现了复杂推理任务的实时化与普及化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsapientinc_HRM_5a704d4d.png","sapientinc","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsapientinc_f5327035.png",null,"https:\u002F\u002Fgithub.com\u002Fsapientinc",[77,81,85,89],{"name":78,"color":79,"percentage":80},"Python","#3572A5",72.5,{"name":82,"color":83,"percentage":84},"HTML","#e34c26",13.6,{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",8.9,{"name":90,"color":91,"percentage":92},"JavaScript","#f1e05a",5,12385,1802,"2026-04-16T05:09:46","Apache-2.0",4,"Linux","必需 NVIDIA GPU。支持 Hopper 架构（需安装 FlashAttention 3）或 Ampere 及更早架构（需安装 FlashAttention 2）。示例中提到 RTX 4070（笔记本版），实验部分假设使用 8-GPU 设置。需安装 CUDA 12.6。","未说明",{"notes":102,"python":100,"dependencies":103},"1. 该项目明确需要构建 CUDA 扩展，README 中的安装指令针对 Linux 环境（使用 sudo sh），未提及 Windows 或 macOS 支持。2. 必须安装 CUDA 12.6  toolkit。3. 根据显卡架构不同，需分别安装 FlashAttention 3（Hopper GPU）或 FlashAttention 2（Ampere 及更早 GPU）。4. 小规模样本学习通常存在约 ±2 点的准确率波动。5. 在 Sudoku-Extreme 数据集上训练时，若训练准确率接近 100%，建议尽早停止以防止过拟合导致的数值不稳定。",[104,105,106,107,108,109,110,111,112,113],"torch","torchvision","torchaudio","flash-attn","packaging","ninja","wheel","setuptools","setuptools-scm","wandb",[14,35],[116,117,118,119],"brain-inspired-ai","deep-learning","large-language-models","reasoning","2026-03-27T02:49:30.150509","2026-04-17T09:54:36.303992",[123,128,133,138,143],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},36692,"安装 adam_atan2 后运行报错 'ModuleNotFoundError: No module named adam_atan2_backend' 怎么办？","这是一个已知的安装问题，通常发生在 WSL 或特定环境中。错误表明自定义后端扩展未正确编译或加载。请确保在安装前已正确配置 PyTorch 和 CUDA 环境，因为自定义扩展依赖它们。尝试重新安装该包，并确保在安装过程中没有报错。如果问题依旧，可能需要手动编译后端扩展或检查 Python 版本兼容性（如日志中显示的 Python 3.12 可能存在兼容性问题）。","https:\u002F\u002Fgithub.com\u002Fsapientinc\u002FHRM\u002Fissues\u002F19",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},36693,"项目是否支持 AMD ROCm 设备而不仅仅是 NVIDIA CUDA？","目前官方主要支持 NVIDIA CUDA。由于项目依赖 FlashAttention，而在 AMD 设备上配置较为复杂。虽然 PyTorch 2.2+ 内置了部分 Flash Attention 功能，但直接替换可能需要修改代码。社区用户建议参考相关的 Gist 代码片段尝试适配，但官方尚未正式宣布对 AMD ROCm 的原生支持。","https:\u002F\u002Fgithub.com\u002Fsapientinc\u002FHRM\u002Fissues\u002F69",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},36694,"模型中的 'puzzle_emb'（谜题嵌入）是否会导致数据泄露或死记硬背？","不会。'puzzle_emb' 的设计意图是根据谜题 ID 进行嵌入。对于迷宫（Maze）和数独（Sudoku）任务，配置中的 `num_puzzle_identifiers` 被设置为 1，因为它们只有一种变体；而对于 ARC-AGI 任务，该值约为 1000，对应大量的谜题变体。因此，模型并非简单地记住每个数据结果，而是针对不同谜题类型学习通用的推理能力。","https:\u002F\u002Fgithub.com\u002Fsapientinc\u002FHRM\u002Fissues\u002F49",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},36695,"训练过程中是否存在数据泄露（即模型在验证集或测试集上进行了训练）？","不存在数据泄露。在验证集中，只有标记为 \"train\" 的样本对用于训练和测试时训练（TTT），而标记为 \"test\" 的样本对仅用于评估性能，从未参与训练或 TTT 阶段。虽然代码中将训练和 TTT 合并为一个阶段以方便处理，但这符合常见做法，且不会导致额外的泄露，否则在适当的超参数下准确率会达到 100%，但实际实验中并未观察到这种情况。","https:\u002F\u002Fgithub.com\u002Fsapientinc\u002FHRM\u002Fissues\u002F18",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},36696,"为什么论文中提到使用 SignSGD 训练稀疏嵌入（Sparse Embedding），而不是 Adam？","这是因为谜题 ID（puzzle-id）是随机采样的特殊令牌，其梯度非常稀疏。在梯度极度稀疏的情况下，Adam 优化器的行为近似于 SignSGD。使用 SignSGD 可能是通过超参数调整发现能略微提升性能，或者是为了利用其在稀疏梯度下的特性。论文中提到了 prepend 特殊令牌作为 puzzle-id 嵌入，这种稀疏性使得 SignSGD 成为一个有效的选择。","https:\u002F\u002Fgithub.com\u002Fsapientinc\u002FHRM\u002Fissues\u002F73",[]]