[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-qiwihui--reinforcement-learning-an-introduction-chinese":3,"tool-qiwihui--reinforcement-learning-an-introduction-chinese":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75832,"2026-04-17T21:58:25",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":79,"owner_website":82,"owner_url":83,"languages":84,"stars":101,"forks":102,"last_commit_at":103,"license":79,"difficulty_score":29,"env_os":104,"env_gpu":105,"env_ram":105,"env_deps":106,"category_tags":109,"github_topics":110,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":114,"updated_at":115,"faqs":116,"releases":137},8783,"qiwihui\u002Freinforcement-learning-an-introduction-chinese","reinforcement-learning-an-introduction-chinese","《Reinforcement Learning: An Introduction》（第二版）中文翻译","reinforcement-learning-an-introduction-chinese 是经典教材《强化学习导论》（第二版）的开源中文翻译项目。这本书被公认为强化学习领域的“圣经”，但原版为英文，对许多国内学习者构成了语言门槛。该项目旨在通过高质量的中文译本，帮助广大爱好者跨越语言障碍，更顺畅地掌握强化学习的核心概念与算法原理。\n\n目前，项目已完成大部分章节的初步翻译与校对，并提供了便捷的在线免费阅读地址，让知识获取不再受限于纸质书或昂贵的版权费用。虽然官方中文版已出版，但本项目依然作为社区驱动的学习资源持续维护，特别适合人工智能开发者、高校研究人员、学生以及对深度学习感兴趣的自学者使用。\n\n其独特亮点在于完全开源且社区协作的模式，不仅降低了学习成本，还允许读者直接参与内容的修正与完善。对于希望系统构建强化学习知识体系的用户来说，这是一个不可多得的入门与进阶指南。无论你是想从零开始理解马尔可夫决策过程，还是深入研究策略梯度方法，都能在这里找到清晰易懂的中文解读。","# 说明\n\n因为官方翻译版本已经出版，本项目进入不定期更新维护。\n请前往查看食用官方翻译版本：[强化学习](https:\u002F\u002Fbook.douban.com\u002Fsubject\u002F34809689\u002F)。\n\n# reinforcement-learning-an-introduction-chinese\n\n本项目为《Reinforcement Learning: An Introduction》（第二版）中文翻译，旨在帮助喜欢\n强化学习（Reinforcement Learning）的各位能更好的学习交流。\n\n中文在线阅读地址：《[强化学习导论](https:\u002F\u002Frl.qiwihui.com)》\n英文原版地址：[Reinforcement Learning: An Introduction](http:\u002F\u002Fincompleteideas.net\u002Fbook\u002Fthe-book-2nd.html)\n\n![cover](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fqiwihui_reinforcement-learning-an-introduction-chinese_readme_4ca3fbe6c25e.gif)\n\n翻译进度：\n\n- [ ] 第二版前言\n- [ ] 第一版前言\n- [x] 符号说明\n- [x] 第1章（粗译，粗校）\n- [x] 第2章（粗译）\n- [x] 第3章（粗译）\n- [x] 第4章（粗译）\n- [x] 第5章（粗译）\n- [x] 第6章（粗译）\n- [x] 第7章（粗译）\n- [x] 第8章（粗译）\n- [x] 第9章（粗译）\n- [x] 第10章（粗译）\n- [x] 第11章（粗译）\n- [ ] 第12章\n- [ ] 第13章\n- [ ] 第14章\n- [x] 第15章\n- [ ] 第16章\n- [ ] 第17章\n","# 说明\n\n由于官方翻译版本已经出版，本项目进入不定期更新维护。\n请前往查看食用官方翻译版本：[强化学习](https:\u002F\u002Fbook.douban.com\u002Fsubject\u002F34809689\u002F)。\n\n# 强化学习导论-中文版\n\n本项目为《Reinforcement Learning: An Introduction》（第二版）中文翻译，旨在帮助喜欢\n强化学习（Reinforcement Learning）的各位能更好的学习交流。\n\n中文在线阅读地址：《[强化学习导论](https:\u002F\u002Frl.qiwihui.com)》\n英文原版地址：[Reinforcement Learning: An Introduction](http:\u002F\u002Fincompleteideas.net\u002Fbook\u002Fthe-book-2nd.html)\n\n![cover](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fqiwihui_reinforcement-learning-an-introduction-chinese_readme_4ca3fbe6c25e.gif)\n\n翻译进度：\n\n- [ ] 第二版前言\n- [ ] 第一版前言\n- [x] 符号说明\n- [x] 第1章（粗译，粗校）\n- [x] 第2章（粗译）\n- [x] 第3章（粗译）\n- [x] 第4章（粗译）\n- [x] 第5章（粗译）\n- [x] 第6章（粗译）\n- [x] 第7章（粗译）\n- [x] 第8章（粗译）\n- [x] 第9章（粗译）\n- [x] 第10章（粗译）\n- [x] 第11章（粗译）\n- [ ] 第12章\n- [ ] 第13章\n- [ ] 第14章\n- [x] 第15章\n- [ ] 第16章\n- [ ] 第17章","# reinforcement-learning-an-introduction-chinese 快速上手指南\n\n本项目是经典教材《Reinforcement Learning: An Introduction》（第二版）的中文翻译开源项目，旨在帮助国内开发者更好地学习强化学习理论。由于官方中文版书籍已出版，本项目主要提供在线免费阅读及社区维护的译文参考。\n\n## 环境准备\n\n本项目本质为文档翻译仓库，无复杂的系统依赖，仅需基础开发环境即可浏览或参与贡献。\n\n- **操作系统**：Windows \u002F macOS \u002F Linux\n- **前置依赖**：\n  - Git（用于克隆代码库）\n  - 现代浏览器（推荐 Chrome 或 Edge，用于在线阅读或本地预览）\n  - Node.js（可选，仅当你需要本地构建静态网站时）\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n\n使用 Git 将项目拉取到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fqiwihui\u002Freinforcement-learning-an-introduction-chinese.git\ncd reinforcement-learning-an-introduction-chinese\n```\n\n> **提示**：如果访问 GitHub 速度较慢，可使用国内镜像源（如 Gitee，若有）或通过代理加速。\n\n### 2. 安装依赖（可选）\n\n如果你希望本地运行并预览网站效果，需安装 Node.js 依赖：\n\n```bash\nnpm install\n```\n\n## 基本使用\n\n### 方式一：在线阅读（推荐）\n\n无需安装，直接访问项目部署的在线站点查看最新翻译进度：\n\n- **中文在线阅读**：[https:\u002F\u002Frl.qiwihui.com](https:\u002F\u002Frl.qiwihui.com)\n\n### 方式二：本地预览\n\n若已克隆代码并安装依赖，可通过以下命令启动本地服务进行预览：\n\n```bash\nnpm run dev\n```\n\n启动后，在浏览器中访问 `http:\u002F\u002Flocalhost:3000`（具体端口视配置文件而定）即可查看本地渲染的书籍内容。\n\n### 方式三：直接阅读源码\n\n翻译内容主要以 Markdown 格式存储在 `content` 或类似目录中，你可以直接使用文本编辑器（如 VS Code）打开 `.md` 文件阅读对应章节的译文。\n\n```bash\n# 查看第 1 章译文示例\ncat content\u002Fchapter01.md\n```","某高校人工智能实验室的研究生团队正在攻关基于强化学习的机器人路径规划项目，急需深入理解经典算法原理以优化模型收敛速度。\n\n### 没有 reinforcement-learning-an-introduction-chinese 时\n- 团队成员英语阅读能力参差不齐，直接啃读英文原版《Reinforcement Learning: An Introduction》效率极低，关键公式推导常因语言障碍产生误解。\n- 遇到“贝尔曼方程”或“策略梯度”等抽象概念时，缺乏统一的中文术语参照，导致组内讨论时常出现“鸡同鸭讲”的沟通成本。\n- 网络上的零散博客翻译质量良莠不齐且版本混乱，难以系统性地对照第二版最新内容，学习路径支离破碎。\n- 在复现论文算法时，因对基础理论细节把握不准，反复调试代码却找不到理论根源，严重拖慢实验进度。\n\n### 使用 reinforcement-learning-an-introduction-chinese 后\n- 成员可直接在线阅读高质量的中文译本，快速扫清语言障碍，将原本需要数周消化的章节压缩至几天内掌握核心逻辑。\n- 依托书中规范的中文术语体系，团队建立了统一的技术词典，组会讨论时能精准对齐概念，大幅提升了协作效率。\n- 利用该项目提供的完整章节结构（如已完成的第 1-11 章及第 15 章），研究人员能系统性构建知识框架，避免被碎片化信息误导。\n- 通过将中文理论与代码实现逐条对照，团队迅速定位了算法不收敛的理论盲区，成功优化了机器人的路径搜索策略。\n\nreinforcement-learning-an-introduction-chinese 通过提供权威、系统的中文译本，彻底打破了语言壁垒，让科研人员能将精力从“读懂文字”真正回归到“攻克算法”本身。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fqiwihui_reinforcement-learning-an-introduction-chinese_4ca3fbe6.gif","qiwihui","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fqiwihui_2bbdcd70.jpg","Don't be evil or greedy.\r\nFocus on AI and security.",null,"Nowhere, Neverland, China","qwh005007@gmail.com","https:\u002F\u002Fqiwihui.com","https:\u002F\u002Fgithub.com\u002Fqiwihui",[85,89,93,97],{"name":86,"color":87,"percentage":88},"Python","#3572A5",81.6,{"name":90,"color":91,"percentage":92},"HTML","#e34c26",11,{"name":94,"color":95,"percentage":96},"Makefile","#427819",6.8,{"name":98,"color":99,"percentage":100},"CSS","#663399",0.6,661,112,"2026-04-08T06:44:43","","未说明",{"notes":107,"python":105,"dependencies":108},"本项目为《Reinforcement Learning: An Introduction》（第二版）的中文翻译文档，主要提供在线阅读和文本内容，并非可执行的代码工具或模型，因此 README 中未提及具体的操作系统、硬件配置或依赖库要求。",[],[18],[111,112,113],"reinforcement-learning","reinforcement-learning-algorithms","sphinx-doc","2026-03-27T02:49:30.150509","2026-04-18T09:19:18.697099",[117,122,127,132],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},39391,"提供的 PDF 下载文件有问题（如只有公式没有文字或内容不正确），如何解决？","请前往项目的 Releases 页面下载已修复的正确版本。维护者确认该问题已修复，最新的有效文件可在 Release 中找到。","https:\u002F\u002Fgithub.com\u002Fqiwihui\u002Freinforcement-learning-an-introduction-chinese\u002Fissues\u002F8",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},39392,"如何获取已经翻译完成的版本进行下载？","已翻译并修复输出的版本已在 Releases 中发布，请直接查看项目的 Releases 页面进行下载。","https:\u002F\u002Fgithub.com\u002Fqiwihui\u002Freinforcement-learning-an-introduction-chinese\u002Fissues\u002F16",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},39393,"文中将\"dynamical system theory\"译为\"动态规划\"是否正确？","不正确。此处应译为\"动力系统理论\"，而非\"动态规划 (dynamic programming)\"。维护者已确认这是一个翻译错误。","https:\u002F\u002Fgithub.com\u002Fqiwihui\u002Freinforcement-learning-an-introduction-chinese\u002Fissues\u002F18",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},39394,"项目后续还会继续更新吗？","是的，维护者表示会尽力完成剩余的翻译工作（填坑），请持续关注项目更新。","https:\u002F\u002Fgithub.com\u002Fqiwihui\u002Freinforcement-learning-an-introduction-chinese\u002Fissues\u002F7",[138],{"id":139,"version":140,"summary_zh":79,"released_at":141},315347,"v0.0.1","2021-04-13T06:34:38"]