[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Skylark0924--Reinforcement-Learning-in-Robotics":3,"tool-Skylark0924--Reinforcement-Learning-in-Robotics":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75435,"2026-04-12T23:10:18",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":99,"env_os":100,"env_gpu":101,"env_ram":101,"env_deps":102,"category_tags":105,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":106,"updated_at":107,"faqs":108,"releases":109},7098,"Skylark0924\u002FReinforcement-Learning-in-Robotics","Reinforcement-Learning-in-Robotics","This is a private learning repository for reinforcement learning techniques used in robotics. ","Reinforcement-Learning-in-Robotics 是一个专注于机器人领域强化学习技术的开源知识库与学习专栏。它旨在解决机器人智能控制中算法理论深奥、数学基础复杂以及从理论到实战落地困难的问题。通过系统化的内容梳理，该资源将复杂的强化学习、概率推理及表征学习知识拆解为通俗易懂的系列教程。\n\n内容涵盖从神经网络反向传播、马尔可夫决策过程等基础理论，到 DQN、PPO、TD3 等主流算法的原理推导与代码实战；同时深入探讨了基于模型的强化学习（Model-based RL）、高斯过程、贝叶斯优化以及图神经网络在机器人推理中的应用。其独特亮点在于“理论 + 源码”的双重解读模式，不仅讲清楚算法背后的数学逻辑，还提供具体的 Python 实现路径，帮助学习者真正读懂并复现前沿技术。\n\n这套资源非常适合机器人领域的研究人员、人工智能开发者以及希望深入理解智能控制原理的高校学生使用。对于想要跨越数学门槛、掌握机器人自主决策核心技术的从业者来说，Reinforcement-Learning-in-Robotics 提供了一条清晰且扎实的学习路径，是构建机器人“真实智能”的优质参考指南","Reinforcement-Learning-in-Robotics 是一个专注于机器人领域强化学习技术的开源知识库与学习专栏。它旨在解决机器人智能控制中算法理论深奥、数学基础复杂以及从理论到实战落地困难的问题。通过系统化的内容梳理，该资源将复杂的强化学习、概率推理及表征学习知识拆解为通俗易懂的系列教程。\n\n内容涵盖从神经网络反向传播、马尔可夫决策过程等基础理论，到 DQN、PPO、TD3 等主流算法的原理推导与代码实战；同时深入探讨了基于模型的强化学习（Model-based RL）、高斯过程、贝叶斯优化以及图神经网络在机器人推理中的应用。其独特亮点在于“理论 + 源码”的双重解读模式，不仅讲清楚算法背后的数学逻辑，还提供具体的 Python 实现路径，帮助学习者真正读懂并复现前沿技术。\n\n这套资源非常适合机器人领域的研究人员、人工智能开发者以及希望深入理解智能控制原理的高校学生使用。对于想要跨越数学门槛、掌握机器人自主决策核心技术的从业者来说，Reinforcement-Learning-in-Robotics 提供了一条清晰且扎实的学习路径，是构建机器人“真实智能”的优质参考指南。","#! https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143392167\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_ffce87d2017a.jpg)\n\n# **如需转发，烦请邮件告知  [junjialiu@sjtu.edu.cn](junjialiu@sjtu.edu.cn)**\n\n\n# Reinforcement-Learning-in-Robotics Content 专栏目录\n\nThis is a private learning repository about **R**einforcement learning techniques, **R**easoning, and **R**epresentation learning used in **R**obotics, founded for **Real intelligence**.\n\n## Reinforcement Learning Foundation\n\n1. **神经网络基础**：反向传播推导与卷积公式 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114370969)]\n2. **强化学习基础 Ⅰ**：马尔可夫与值函数 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114377860)]\n3. **强化学习基础 Ⅱ**：动态规划，蒙特卡洛，时序差分 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114482584)]\n4. **强化学习基础 Ⅲ**：on-policy, off-policy & Model-based, Model-free & Rollout [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F115629505)]\n5. **强化学习基础 Ⅳ**：State-of-the-art 强化学习经典算法汇总 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F137208923)]\n6. **强化学习基础 Ⅴ**：Q learning 原理与实战 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141267943)]\n7. **强化学习基础 Ⅵ**：DQN 原理与实战 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141268549)]\n8. **强化学习基础 Ⅶ**：Double DQN & Dueling DQN 原理与实战 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141268851)]\n9. **强化学习基础 Ⅷ**：Vanilla Policy Gradient 策略梯度原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269134)]\n10. **强化学习基础 Ⅸ**：一文读懂 TRPO 原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269503)]\n11. **强化学习基础 Ⅹ**：一文读懂两种 PPO 原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269918)]\n12. **强化学习基础 Ⅺ**： Actor-Critic & A2C 原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145168493)]\n13. **强化学习基础 Ⅻ**：DDPG 原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145181679)]\n14. **强化学习基础 XIII**：Twin Delayed DDPG TD3原理与实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145621630)]\n\n## Model-based RL\n\n1. **Model-Based RL Ⅰ**：Dyna, MVE & STEVE [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F102197348)]\n2. **Model-Based RL Ⅱ**：MBPO原理解读 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F105645139)]\n3. **Model-Based RL Ⅲ**：从源码读懂PILCO [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F138337983)]\n\n## Probabilistic in Robotics\n\n1. **PR 序**：机器人学的概率方法学习路径 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150563142)]\n2. **PR Ⅰ**：最大似然估计MLE与最大后验概率估计MAP [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F138608823)]\n3. **PR Ⅱ**：贝叶斯估计\u002F推断及其与MAP的区别 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139480748)]\n4. **PR Ⅲ**：从高斯分布到高斯过程、高斯过程回归、贝叶斯优化 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139478368)]\n5. **PR Ⅳ**：贝叶斯神经网络 Bayesian Neural Network [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139523520)]\n6. **PR Ⅴ**：熵、KL散度、交叉熵、JS散度及python实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143105854)]\n7. **PR Ⅵ**：多元连续高斯分布的KL散度及python实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143124676)]\n8. **PR Sampling Ⅰ**：蒙特卡洛采样、重要性采样及python实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150693309)]\n9. **PR Sampling Ⅱ**：马尔可夫链蒙特卡洛 MCMC及python实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150742395)]\n10. **PR Sampling Ⅲ**：M-H and Gibbs 采样 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150946559)]\n11. **PR Structured Ⅰ**：Graph Neural Network: An Introduction Ⅰ [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F158984343)]\n12. **PR Structured Ⅱ**：Structured Probabilistic Model 结构化概率模型 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F161703636)]\n13. **PR Structured Ⅲ**：马尔可夫、隐马尔可夫 HMM 、条件随机场 CRF 全解析及其python实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259660645)]\n14. **PR Structured Ⅳ**：General \u002F Graph Conditional Random Field (CRF) 及其 python 实现 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259883878)]\n15. **PR Structured Ⅴ**：GraphRNN——将图生成问题转化为序列生成 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F276873641)]\n16. **PR Reasoning 序**：Reasoning Robotics 推理机器人学习路线与资源汇总 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F262568794)]\n17. **PR Reasoning Ⅰ**：Bandit问题与 UCB \u002F UCT \u002F AlphaGo [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F218398647)]\n18. **PR Reasoning Ⅱ**：Relational Inductive bias 关系归纳偏置及其在深度学习中的应用 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F261081574)]\n19. **PR Reasoning Ⅲ**：基于图表征的关系推理框架 —— Graph Network [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F261127145)]\n20. **PR Reasoning Ⅳ**：数理逻辑（命题逻辑、谓词逻辑）知识整理 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F262984951)]\n21. **PR Memory Ⅰ**：Memory systems 2018 – towards a new paradigm **【重磅综述】记忆系统——神经科学的启示** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F166692908)]\n22. **PR Perspective Ⅰ**：Embodied AI 的新浪潮 —— new generation of AI [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F260562672)]\n23. **PR Perspective Ⅱ**：2021\u002F08\u002F03 近期 Robot Learning 领域大事件及思考 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F395562430)]\n24. **PR Efficient Ⅰ**：机器人中的数据高效强化学习 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F358668613)] \n25. **PR Efficient Ⅱ**：Bayesian Transfer RL with prior knowledge [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359620737)] \n26. **PR Efficient Ⅲ**：像训练狗狗一样高效地训练机器人 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359776893)] \n27. **PR Efficient Ⅳ**：五分钟内让四足机器人自主学会行走 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F360314680)] \n28. **PR Efficient Ⅴ**：自预测表征，让RL agent高效地理解世界 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F360526111)] \n\n## Meta-Learning\n\n1. **Meta-Learning:** An Introduction Ⅰ [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F99730942)]\n2. **Meta-Learning:** An Introduction Ⅱ [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F100035717)]\n3. **Meta-Learning:** An Introduction Ⅲ [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F100266389)]\n\n## Imitation Learning\n\n1. **Imitation Learning Ⅰ：模仿学习** (Imitation Learning) 入门指南 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140348314)]\n2. **Imitation Learning Ⅱ**：DAgger透彻理论分析 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140939491)]\n3. **Imitation Learning Ⅲ**：EnsembleDAgger 一种贝叶斯DAgger [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140952343)]\n\n\n## RL from Demonstrations\n\n1. **RLfD Ⅰ**：Deep Q-learning from Demonstrations 解读 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F142779768)] \n2. **RLfD Ⅱ**：Reinforcement Learning from Imperfect Demonstrations under Soft Expert Guidance [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143282816)]\n\n## Multi-agent Reinforcement Learning\n\n1. **MARL Ⅰ**：A Selective Overview of Theories and Algorithms  **【重磅综述】 多智能体强化学习算法理论研究** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F220581474)]\n\n## Paper Reading\n\n**Active Visual Navigation**\n\n1. Reading：**利用物体关系的目标驱动视觉导航** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F153404395)]\n2. Reading：**Learning to learn how to learn-Meta自适应视觉导航** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F154184867)]\n3. Reading：**Bayesian Relational Memory 在视觉导航中的应用** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F154290529)]\n4. Reading：**Attention+3D空间关系图在视觉导航中的应用** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F156787516)]\n5. Reading：**机器人导航的半参数化拓扑记忆结构** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F157227332)]\n6. Reading：**将Transformer应用到机器人视觉导航中** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F157316200)]\n\n**RL robotics in the physical world with micro-data \u002F data-efficiency**\n\n1. **【重磅综述】如何在少量尝试下学习机器人强化学习控制**  [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F144544347)]\n\n**Others**\n\n1. End-to-End Robotic Reinforcement Learning without Reward Engineering: [[Medium](https:\u002F\u002Fmedium.com\u002F@skylark0924\u002Fnotes-of-end-to-end-robotic-reinforcement-learning-without-reward-engineering-a6ffcc5c47f3)] [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96839443)]\n2. Overcoming Exploration in RL with Demonstrations: [[Medium](https:\u002F\u002Fmedium.com\u002F@skylark0924\u002Fnotes-of-overcoming-exploration-in-reinforcement-learning-with-demonstrations-52dac4e84c58)] [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96841783)]\n3. The Predictron: End-To-End Learning and Planning: [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96917057)]\n4. **IROS2019 Paper速读(一)** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F97891687)] \n5. **IROS2019 Paper速读(二)** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98365711)]  \n6. **IROS2019 Paper速读(三)** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98712344)]  \n7. **IROS2019 Paper速读(四)** [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98762958)]  \n\n## Simulator\n1. [MuJoCo自定义机器人建模指南](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143983506)\n2. [Sim2real in Robotics: An Introduction]()\n\n## Tools\n1. **Tools 1**：如何用 PyQt5 和 Qt Designer 在 Pycharm 中愉快地开发软件 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259564109)]  \n2. **Tools 2**：Arxiv 论文提交流程——看这篇就够了 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F109405192)]  \n3. **Tools 3**：Python socket 服务器与客户端双向通信（服务器NAT，文件传输） [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F263630359)]  \n4. **Tools 4**：Python三行转并行——真香！[[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F109405192)]  \n5. **Tools 5**：Python三行转并行后续——多进程全局变量 [[Zhihu](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F273508904)]  \n\n## 专栏关联Github代码库\n[Reinforcement-Learning-in-Robotics](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FReinforcement-Learning-in-Robotics 'card')\\\n[Machine-Learning-is-ALL-You-Need](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FMachine-Learning-is-ALL-You-Need 'card')\n\n---\n\nIf you're interested in reinforcement learning, we encourage you to check out our latest library of reinforcement learning and imitation learning in (humanoid) robotics.\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_59e3c458e468.png)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc)\n\n[![Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FSkylark0924\u002FRofunc)](https:\u002F\u002Fpypi.org\u002Fproject\u002Frofunc\u002F)\n![License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSkylark0924\u002FRofunc?color=blue)\n![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fskylark0924\u002FRofunc\u002Ftotal)\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed-raw\u002FSkylark0924\u002FRofunc?color=brightgreen)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc\u002Fissues?q=is%3Aissue+is%3Aclosed)\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FSkylark0924\u002FRofunc?color=orange)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc\u002Fissues?q=is%3Aopen+is%3Aissue)\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_13d664e1afd7.png)](https:\u002F\u002Frofunc.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n[![Build Status](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https%3A%2F%2Factions-badge.atrox.dev%2FSkylark0924%2FRofunc%2Fbadge%3Fref%3Dmain&style=flat)](https:\u002F\u002Factions-badge.atrox.dev\u002FSkylark0924\u002FRofunc\u002Fgoto?ref=main)\n\n> **Repository address: https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc**","#! https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143392167\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_ffce87d2017a.jpg)\n\n# **如需转发，烦请邮件告知  [junjialiu@sjtu.edu.cn](junjialiu@sjtu.edu.cn)**\n\n\n# 强化学习在机器人中的应用 内容专栏目录\n\n这是一个关于**R**einforcement learning（强化学习）、**R**easoning（推理）和**R**epresentation learning（表征学习）技术在**R**obotics（机器人学）中应用的私人文档库，旨在探索**Real intelligence**（真正智能）。\n\n## 强化学习基础\n\n1. **神经网络基础**：反向传播推导与卷积公式 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114370969)]\n2. **强化学习基础 Ⅰ**：马尔可夫与值函数 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114377860)]\n3. **强化学习基础 Ⅱ**：动态规划，蒙特卡洛，时序差分 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F114482584)]\n4. **强化学习基础 Ⅲ**：on-policy, off-policy & Model-based, Model-free & Rollout [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F115629505)]\n5. **强化学习基础 Ⅳ**：State-of-the-art 强化学习经典算法汇总 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F137208923)]\n6. **强化学习基础 Ⅴ**：Q learning 原理与实战 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141267943)]\n7. **强化学习基础 Ⅵ**：DQN 原理与实战 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141268549)]\n8. **强化学习基础 Ⅶ**：Double DQN & Dueling DQN 原理与实战 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141268851)]\n9. **强化学习基础 Ⅷ**：Vanilla Policy Gradient 策略梯度原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269134)]\n10. **强化学习基础 Ⅸ**：一文读懂 TRPO 原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269503)]\n11. **强化学习基础 Ⅹ**：一文读懂两种 PPO 原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F141269918)]\n12. **强化学习基础 Ⅺ**： Actor-Critic & A2C 原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145168493)]\n13. **强化学习基础 Ⅻ**：DDPG 原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145181679)]\n14. **强化学习基础 XIII**：Twin Delayed DDPG TD3原理与实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F145621630)]\n\n## 基于模型的强化学习\n\n1. **Model-Based RL Ⅰ**：Dyna, MVE & STEVE [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F102197348)]\n2. **Model-Based RL Ⅱ**：MBPO原理解读 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F105645139)]\n3. **Model-Based RL Ⅲ**：从源码读懂PILCO [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F138337983)]\n\n## 机器人学中的概率方法\n\n1. **PR 序**：机器人学的概率方法学习路径 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150563142)]\n2. **PR Ⅰ**：最大似然估计MLE与最大后验概率估计MAP [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F138608823)]\n3. **PR Ⅱ**：贝叶斯估计\u002F推断及其与MAP的区别 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139480748)]\n4. **PR Ⅲ**：从高斯分布到高斯过程、高斯过程回归、贝叶斯优化 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139478368)]\n5. **PR Ⅳ**：贝叶斯神经网络 Bayesian Neural Network [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F139523520)]\n6. **PR Ⅴ**：熵、KL散度、交叉熵、JS散度及python实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143105854)]\n7. **PR Ⅵ**：多元连续高斯分布的KL散度及python实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143124676)]\n8. **PR Sampling Ⅰ**：蒙特卡洛采样、重要性采样及python实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150693309)]\n9. **PR Sampling Ⅱ**：马尔可夫链蒙特卡洛 MCMC及python实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150742395)]\n10. **PR Sampling Ⅲ**：M-H and Gibbs 采样 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F150946559)]\n11. **PR Structured Ⅰ**：Graph Neural Network: An Introduction Ⅰ [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F158984343)]\n12. **PR Structured Ⅱ**：Structured Probabilistic Model 结构化概率模型 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F161703636)]\n13. **PR Structured Ⅲ**：马尔可夫、隐马尔可夫 HMM 、条件随机场 CRF 全解析及其python实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259660645)]\n14. **PR Structured Ⅳ**：General \u002F Graph Conditional Random Field (CRF) 及其 python 实现 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259883878)]\n15. **PR Structured Ⅴ**：GraphRNN——将图生成问题转化为序列生成 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F276873641)]\n16. **PR Reasoning 序**：Reasoning Robotics 推理机器人学习路线与资源汇总 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F262568794)]\n17. **PR Reasoning Ⅰ**：Bandit问题与 UCB \u002F UCT \u002F AlphaGo [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F218398647)]\n18. **PR Reasoning Ⅱ**：Relational Inductive bias 关系归纳偏置及其在深度学习中的应用 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F261081574)]\n19. **PR Reasoning Ⅲ**：基于图表征的关系推理框架 —— Graph Network [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F261127145)]\n20. **PR Reasoning Ⅳ**：数理逻辑（命题逻辑、谓词逻辑）知识整理 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F262984951)]\n21. **PR Memory Ⅰ**：Memory systems 2018 – towards a new paradigm **【重磅综述】记忆系统——神经科学的启示** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F166692908)]\n22. **PR Perspective Ⅰ**：Embodied AI 的新浪潮 —— new generation of AI [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F260562672)]\n23. **PR Perspective Ⅱ**：2021\u002F08\u002F03 近期 Robot Learning 领域大事件及思考 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F395562430)]\n24. **PR Efficient Ⅰ**：机器人中的数据高效强化学习 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F358668613)] \n25. **PR Efficient Ⅱ**：Bayesian Transfer RL with prior knowledge [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359620737)] \n26. **PR Efficient Ⅲ**：像训练狗狗一样高效地训练机器人 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F359776893)] \n27. **PR Efficient Ⅳ**：五分钟内让四足机器人自主学会行走 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F360314680)] \n28. **PR Efficient Ⅴ**：自预测表征，让RL agent高效地理解世界 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F360526111)] \n\n## 元学习\n\n1. **Meta-Learning:** An Introduction Ⅰ [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F99730942)]\n2. **Meta-Learning:** An Introduction Ⅱ [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F100035717)]\n3. **Meta-Learning:** An Introduction Ⅲ [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F100266389)]\n\n## 模仿学习\n\n1. **Imitation Learning Ⅰ：模仿学习** (Imitation Learning) 入门指南 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140348314)]\n2. **Imitation Learning Ⅱ**：DAgger透彻理论分析 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140939491)]\n3. **Imitation Learning Ⅲ**：EnsembleDAgger 一种贝叶斯DAgger [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F140952343)]\n\n\n## 从演示中学习的强化学习\n\n1. **RLfD Ⅰ**：Deep Q-learning from Demonstrations 解读 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F142779768)] \n2. **RLfD Ⅱ**：Reinforcement Learning from Imperfect Demonstrations under Soft Expert Guidance [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143282816)]\n\n## 多智能体强化学习\n\n1. **MARL Ⅰ**：A Selective Overview of Theories and Algorithms  **【重磅综述】 多智能体强化学习算法理论研究** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F220581474)]\n\n## 论文阅读\n\n**主动视觉导航**\n\n1. 阅读：**利用物体关系的目标驱动视觉导航** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F153404395)]\n2. 阅读：**Learning to learn how to learn-Meta自适应视觉导航** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F154184867)]\n3. 阅读：**贝叶斯关系记忆在视觉导航中的应用** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F154290529)]\n4. 阅读：**Attention+3D空间关系图在视觉导航中的应用** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F156787516)]\n5. 阅读：**机器人导航的半参数化拓扑记忆结构** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F157227332)]\n6. 阅读：**将Transformer应用到机器人视觉导航中** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F157316200)]\n\n**物理世界中的小数据\u002F数据高效RL机器人技术**\n\n1. **【重磅综述】如何在少量尝试下学习机器人强化学习控制**  [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F144544347)]\n\n**其他**\n\n1. 无需奖励工程的端到端机器人强化学习：[[Medium](https:\u002F\u002Fmedium.com\u002F@skylark0924\u002Fnotes-of-end-to-end-robotic-reinforcement-learning-without-reward-engineering-a6ffcc5c47f3)] [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96839443)]\n2. 利用示范克服强化学习中的探索问题：[[Medium](https:\u002F\u002Fmedium.com\u002F@skylark0924\u002Fnotes-of-overcoming-exploration-in-reinforcement-learning-with-demonstrations-52dac4e84c58)] [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96841783)]\n3. The Predictron：端到端学习与规划：[[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F96917057)]\n4. **IROS2019论文速读（一）** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F97891687)] \n5. **IROS2019论文速读（二）** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98365711)]  \n6. **IROS2019论文速读（三）** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98712344)]  \n7. **IROS2019论文速读（四）** [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F98762958)]  \n\n## 模拟器\n1. [MuJoCo自定义机器人建模指南](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F143983506)\n2. [机器人领域的Sim2real入门]()\n\n## 工具\n1. **工具1**：如何用PyQt5和Qt Designer在Pycharm中愉快地开发软件 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F259564109)]  \n2. **工具2**：Arxiv论文提交流程——看这篇就够了 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F109405192)]  \n3. **工具3**：Python socket服务器与客户端双向通信（服务器NAT，文件传输） [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F263630359)]  \n4. **工具4**：Python三行转并行——真香！[[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F109405192)]  \n5. **工具5**：Python三行转并行后续——多进程全局变量 [[知乎](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F273508904)]  \n\n## 专栏关联Github代码库\n[Reinforcement-Learning-in-Robotics](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FReinforcement-Learning-in-Robotics 'card')\\\n[Machine-Learning-is-ALL-You-Need](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FMachine-Learning-is-ALL-You-Need 'card')\n\n---\n\n如果你对强化学习感兴趣，我们鼓励你查看我们在（人形）机器人领域最新的强化学习和模仿学习库。\n\n[![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_59e3c458e468.png)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc)\n\n[![发布版本](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FSkylark0924\u002FRofunc)](https:\u002F\u002Fpypi.org\u002Fproject\u002Frofunc\u002F)\n![许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSkylark0924\u002FRofunc?color=blue)\n![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002Fskylark0924\u002FRofunc\u002Ftotal)\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed-raw\u002FSkylark0924\u002FRofunc?color=brightgreen)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc\u002Fissues?q=is%3Aissue+is%3Aclosed)\n[![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-raw\u002FSkylark0924\u002FRofunc?color=orange)](https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc\u002Fissues?q=is%3Aopen+is%3Aissue)\n[![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_readme_13d664e1afd7.png)](https:\u002F\u002Frofunc.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n[![构建状态](https:\u002F\u002Fimg.shields.io\u002Fendpoint.svg?url=https%3A%2F%2Factions-badge.atrox.dev%2FSkylark0924%2FRofunc%2Fbadge%3Fref%3Dmain&style=flat)](https:\u002F\u002Factions-badge.atrox.dev\u002FSkylark0924\u002FRofunc\u002Fgoto?ref=main)\n\n> **仓库地址：https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc**","# Reinforcement-Learning-in-Robotics 快速上手指南\n\n本仓库是一个专注于机器人领域强化学习（RL）、推理及表征学习的私人学习资源库。它主要提供系统的理论教程、论文解读及相关代码实现，旨在帮助开发者从零开始掌握机器人智能控制的核心技术。\n\n## 环境准备\n\n在开始学习或使用相关代码前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Linux (Ubuntu 18.04\u002F20.04) 或 macOS。Windows 用户建议使用 WSL2 以获得更好的兼容性。\n*   **Python 版本**：Python 3.7 - 3.9（大多数 RL 库在此范围内支持最佳）。\n*   **前置依赖**：\n    *   `PyTorch` 或 `TensorFlow`（根据具体算法章节要求选择，目前主流多为 PyTorch）。\n    *   `MuJoCo`：用于物理仿真（部分高级章节需要，需安装 mujoco-py 或 dm_control）。\n    *   `Gym` \u002F `Gymnasium`：强化学习环境接口。\n    *   `NumPy`, `SciPy`, `Matplotlib`：基础科学计算与绘图。\n\n> **提示**：建议创建独立的虚拟环境以避免依赖冲突：\n> ```bash\n> python -m venv rl_robot_env\n> source rl_robot_env\u002Fbin\u002Factivate  # Windows: rl_robot_env\\Scripts\\activate\n> ```\n\n## 安装步骤\n\n本仓库主要包含学习笔记（知乎专栏链接）和关联的代码示例。核心代码库已模块化为 `Rofunc`，可通过以下方式安装：\n\n### 1. 克隆学习仓库（获取笔记索引与部分脚本）\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FReinforcement-Learning-in-Robotics.git\ncd Reinforcement-Learning-in-Robotics\n```\n\n### 2. 安装核心功能库 (Rofunc)\n这是作者封装的用于人形机器人强化学习与模仿学习的工具库，推荐通过 PyPI 安装（国内用户可使用清华源加速）：\n\n```bash\n# 使用 pip 直接安装\npip install rofunc\n\n# 【推荐】国内用户使用清华镜像源加速安装\npip install rofunc -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n若需从源码安装以进行二次开发：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkylark0924\u002FRofunc.git\ncd Rofunc\npip install -e .\n```\n\n## 基本使用\n\n本项目的核心使用方式是**“理论学习 + 代码复现”**。您可以按照仓库目录中的知识路径（如强化学习基础、Model-based RL、概率机器人等）阅读对应的知乎专栏文章，并利用 `Rofunc` 库进行算法实践。\n\n### 最简单的使用示例\n\n以下示例展示如何导入 `rofunc` 库并查看其包含的强化学习算法模块（以 PPO 为例）：\n\n```python\nimport rofunc as rf\n\n# 查看可用的 RL 算法\nprint(rf.rl.algorithms)\n\n# 示例：初始化一个 PPO 配置 (具体参数需参考对应教程章节)\n# 注意：实际运行通常需要配合 Gym 环境和 MuJoCo\nconfig = {\n    'algo': 'ppo',\n    'env': 'HalfCheetah-v3',\n    'hidden_sizes': [256, 256],\n    'lr': 3e-4\n}\n\n# 创建训练器 (伪代码示意，具体 API 请参考 Rofunc 文档)\n# trainer = rf.rl.Trainer(config)\n# trainer.train()\n\nprint(\"Rofunc library loaded successfully. Ready to learn!\")\n```\n\n### 学习路径建议\n\n1.  **基础入门**：从 `Reinforcement Learning Foundation` 章节开始，依次阅读神经网络基础至 PPO、DDPG 等经典算法原理。\n2.  **进阶提升**：进入 `Model-based RL` 和 `Probabilistic in Robotics` 章节，深入理解基于模型的规划和概率推断方法。\n3.  **实战演练**：结合 `Simulator` 章节的 MuJoCo 建模指南，在仿真环境中复现 `Paper Reading` 中提到的前沿算法。\n4.  **工具辅助**：利用 `Tools` 章节提供的 Python 并行加速、数据可视化等技巧优化训练流程。\n\n> **注意**：具体的算法实现细节、数学推导及完整代码片段，请务必结合各章节对应的知乎专栏链接进行深入研读。","某高校机器人实验室的研究团队正致力于开发一款能在非结构化环境中自主抓取不规则物体的机械臂，急需构建高效的强化学习控制策略。\n\n### 没有 Reinforcement-Learning-in-Robotics 时\n- **理论入门门槛极高**：团队成员需在海量的学术论文中盲目摸索，难以系统理解从马尔可夫决策过程到 PPO、TD3 等核心算法的数学推导与内在联系。\n- **复现代码耗时费力**：缺乏标准的参考实现，研究人员需从零编写底层逻辑，常因对 Model-based RL 或概率推理（如高斯过程、MCMC 采样）的细节理解偏差导致实验失败。\n- **知识体系碎片化**：深度学习、概率机器人与逻辑推理等内容割裂，难以将“感知 - 决策 - 控制”串联成完整的智能闭环，导致研发周期严重滞后。\n\n### 使用 Reinforcement-Learning-in-Robotics 后\n- **系统化学习路径清晰**：依托专栏中从神经网络基础到 SOTA 算法的十二讲进阶教程，团队迅速掌握了策略梯度与 Actor-Critic 架构的核心原理，统一了技术语言。\n- **源码级实战参考丰富**：直接参考 PILCO、MBPO 及各类 DQN 变种的详细原理解读与 Python 实现，大幅降低了模型构建难度，将算法验证时间缩短了 60%。\n- **跨领域知识深度融合**：通过概率推理与图神经网络等模块，团队成功将不确定性建模引入控制策略，显著提升了机械臂在复杂场景下的泛化能力与鲁棒性。\n\nReinforcement-Learning-in-Robotics 通过提供从理论推导到代码实战的全栈式知识图谱，将原本分散的科研难点转化为可落地的工程路径，加速了具身智能的研发进程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkylark0924_Reinforcement-Learning-in-Robotics_fdeb88b7.png","Skylark0924","Junjia Liu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSkylark0924_5ea995cd.jpg","Ph.D. student in AI Robotics, CUHK ","The Chinese University of Hong Kong","Hong Kong, China",null,"http:\u002F\u002FSkylark0924.github.io","https:\u002F\u002Fgithub.com\u002FSkylark0924",[87,91],{"name":88,"color":89,"percentage":90},"HTML","#e34c26",90.6,{"name":92,"color":93,"percentage":94},"Python","#3572A5",9.4,513,63,"2026-04-12T10:06:13","MIT",5,"","未说明",{"notes":103,"python":101,"dependencies":104},"该仓库主要是一个学习资料索引（专栏目录），包含强化学习、机器人学概率方法、元学习等主题的文章链接，本身不包含可直接运行的核心算法代码或安装包。文中提及的关联可运行项目为 'Rofunc'（用于人形机器人强化学习与模仿学习），但本 README 未提供 Rofunc 的具体环境配置要求。部分文章涉及 MuJoCo 仿真器及 Python 工具链（如 PyQt5），具体依赖需参考对应文章或子项目。",[],[18],"2026-03-27T02:49:30.150509","2026-04-13T18:55:44.212708",[],[]]