[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jasmcaus--ai-math-roadmap":3,"tool-jasmcaus--ai-math-roadmap":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":76,"stars":79,"forks":80,"last_commit_at":81,"license":82,"difficulty_score":83,"env_os":84,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":89,"github_topics":91,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":102,"updated_at":103,"faqs":104,"releases":105},4629,"jasmcaus\u002Fai-math-roadmap","ai-math-roadmap","Your no-nonsense guide to the Math used in Artificial Intelligence","ai-math-roadmap 是一份专为人工智能领域打造的“去繁就简”数学学习指南。它直击初学者面对海量数学知识时的痛点，解决了“究竟需要掌握多少数学才能入门 AI\"这一核心困惑。许多人在涉足数据科学或机器学习时，常被大学学期制中冗长的数学课程劝退，而 ai-math-roadmap 通过与行业资深专家的交流及深入研究，将原本分散在多个学期的核心概念提炼为最本质的原理。\n\n这份路线图涵盖了代数基础（如指数、阶乘、求和）以及作为 AI 计算基石的线性代数（包括标量、向量、矩阵、张量、特征值分解等关键内容）。它不仅适合想要转行或刚入门的开发者，帮助他们聚焦于求职和实战中最关键的数学基础，避免在非核心内容上浪费时间；同时也非常适合从业已久的工程师和研究者，作为快速回顾核心概念的速查手册。\n\nai-math-roadmap 的独特之处在于其务实的理念：它明确指出从业者无需精通所有高深理论即可胜任工作，关键在于牢固掌握基本原理。通过提供精选的外部学习资源链接，它为用户构建了一条高效、清晰的学习路径，让数学不再是阻碍探索人工智能的门槛，而是成为坚实的助推器。","\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fai-math-roadmap\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjasmcaus_ai-math-roadmap_readme_7caa89e81134.png\" alt=\"Data Science Math Roadmap\" width=\"200\" height=\"200\">\n  \u003C\u002Fa>\n  \u003Ch1 align=\"center\">AI Math Roadmap\u003C\u002Fh1>\n  \u003Cp align=\"center\">Your no-nonsense guide to the Math used in Artificial Intelligence\u003C\u002Fp>\n  \u003Cp align=\"center\">\n      \u003Ca href=\"http:\u002F\u002Fbit.ly\u002Fai-math-roadmap\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftweet-blue.svg?logo=twitter&logoColor=white\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n      \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjasmcaus\" target=\"_blank\">\u003Cimg alt=\"Jason\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAuthor-jasmcaus-blue.svg\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\u002F\" target=\"_blank\">\u003Cimg alt=\"MIT License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n  \u003C\u002Fp>\n  \u003Cbr>\n\u003C\u002Fp>\n\n\n# Overview \n\u003Cblockquote>\nA person working in the field of AI who doesn’t know math is like a politician who doesn’t know how to persuade. Both have an inescapable area to work upon!\n\u003C\u002Fblockquote>\n\nA while back, in 2021, I wrote an article on venturing into Data Science and since then I've received several emails from people all over the world asking ***just how much*** math is required in this field. \n\nI won't lie: It's **a lot**. \n\nAnd this is one of the reasons that puts off many beginners. After much research and talks with several veterans in the field, I've compiled this no-nonsense guide that covers **all of the fundamentals of the math you'll need to know**. The concepts mentioned below are usually covered over several semesters in college, but I've boiled them down to the core principles that you can focus on. \n\nThis guide is an absolute life-saver for beginners, so you can study the topics that matter most, and an even better resource for practitioners such as myself who require a quick breeze-through on these concepts.\n\n**Note**: You don't need to know all of the concepts (below) in order to get your first job in Data Science. All you need is a *firm grasp* of the fundamentals. Focus on those and consolidate them. \n\n\n# Table of Contents \n\n## 1. Algebra\nKnowledge of algebra is perhaps fundamental to math in general. Besides mathematical operations like addition, subtraction, multiplication and division, you'll need to know the following:\n\n- [Exponents](http:\u002F\u002Fwww.mclph.umn.edu\u002Fmathrefresh\u002Fexponents.html)\n- [Radicals](https:\u002F\u002Ftutorial.math.lamar.edu\u002Fclasses\u002Falg\u002FRadicals.aspx)\n- [Factorials](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=pGg40oiQsUk&feature=youtu.be)\n- [Summations](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LDfaYXXAcHY&feature=youtu.be)\n- [Scientific Notations](https:\u002F\u002Fwww.khanacademy.org\u002Fmath\u002Fpre-algebra\u002Fpre-algebra-exponents-radicals)\n\n\n## 2. Linear Algebra\nLinear Algebra is the primary mathematical computation tool in Artificial Intelligence and many areas of Science and Engineering. In this, 4 primary mathematical objects and their properties need to be understood:\n- [Scalars](http:\u002F\u002Fwww.sciencebits.com\u002Fvector_algebra) - a single number (can be real or natural).\n- [Vectors](http:\u002F\u002Fwww.sciencebits.com\u002Fvector_algebra) - a list of numbers, arranged in order. Consider them as points in space with each element representing the coordinate along an axis.\n- [Matrices](https:\u002F\u002Fwww.mathsisfun.com\u002Falgebra\u002Fmatrix-introduction.html) - a 2-D array of numbers where each number is identified by 2 indices.\n- [Tensors](https:\u002F\u002Fmathworld.wolfram.com\u002FTensor.html) - an N-D array of numbers (N>2), arranged on a regular grid with N-axes. Important in Machine Learning, Deep Learning and [Computer Vision](https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fcaer)\n- [Eigenvectors & Eigenvalues](https:\u002F\u002Fwww.mathsisfun.com\u002Falgebra\u002Feigenvalue.html) - special vectors and their corresponding scalar quantity. Understand the significance and how to find them.\n- [Singular Value Decomposition](https:\u002F\u002Fweb.mit.edu\u002Fbe.400\u002Fwww\u002FSVD\u002FSingular_Value_Decomposition.htm) - factorization of a matrix into 3 matrices. Understand the properties and applications. \n- [Principal Component Analysis (PCA)](https:\u002F\u002Froyalsocietypublishing.org\u002Fdoi\u002F10.1098\u002Frsta.2015.0202) - understand the significance, properties, and applications.\n\nProperties such as the [Dot product](https:\u002F\u002Fbetterexplained.com\u002Farticles\u002Fvector-calculus-understanding-the-dot-product\u002F), [Vector product](http:\u002F\u002Fhyperphysics.phy-astr.gsu.edu\u002Fhbase\u002Fvvec.html) and the [Hadamard product](https:\u002F\u002Fhandwiki.org\u002Fwiki\u002FHadamard_product_(matrices)) are useful to know as well.\n\n\n## 3. Calculus\nCalculus deals with changes in parameters, functions, errors and approximations. Working knowledge of multi-dimensional calculus is imperative in Data Science. The following are the most important concepts (albeit non-exhaustive) in Calculus:\n- [Derivatives](https:\u002F\u002Fwww.mathsisfun.com\u002Fcalculus\u002Fderivatives-introduction.html) - rules (addition, product, chain rule etc), hyperbolic derivatives (tanh, cosh etc) and partial derivatives.\n- [Vector\u002FMatrix Calculus](http:\u002F\u002Fwww.personal.rdg.ac.uk\u002F~sis01xh\u002Fteaching\u002FCY4C9\u002FANN3.pdf) - different derivative operators (Gradient, Jacobian, Hessian and Laplacian)\n- [Gradient Algorithms](https:\u002F\u002Ftowardsdatascience.com\u002Fgradient-descent-algorithm-and-its-variants-10f652806a3) - local\u002Fglobal maxima & minima, saddle points, convex functions, batches & mini-batches, stochastic gradient descent, and performance comparison.\n\n## 4. Statistics & Probability\n- [Basic Statistics](https:\u002F\u002Fwww.dummies.com\u002Feducation\u002Fmath\u002Fstatistics\u002Fstatistics-for-dummies-cheat-sheet\u002F) - Mean, median, mode, variance, covariance etc\n- [Basic rules in probability](http:\u002F\u002Fwww.milefoot.com\u002Fmath\u002Fstat\u002Fprob-rules.htm) - events (dependent & independent), sample spaces, conditional probability.\n- [Random variables](https:\u002F\u002Fwww.khanacademy.org\u002Fmath\u002Fstatistics-probability\u002Frandom-variables-stats-library) - continuous & discrete, expectation, variance, distributions (joint & conditional).\n- [Bayes' Theorem](https:\u002F\u002Fblogs.scientificamerican.com\u002Fcross-check\u002Fbayes-s-theorem-what-s-the-big-deal\u002F) - calculates validity of beliefs. Bayesian software helps machines recognize patterns and make decisions.\n- [Maximum Likelihood Estimation (MLE)](https:\u002F\u002Ftowardsdatascience.com\u002Fprobability-concepts-explained-maximum-likelihood-estimation-c7b4342fdbb1) - parameter estimation. Requires knowledge of fundamental probability concepts (joint probability and independence of events).\n- [Common Distributions](https:\u002F\u002Fwww.stat.tamu.edu\u002F~twehrly\u002F611\u002Fdistab.pdf) - binomial, poisson, bernoulli, gaussian, exponential.\n\n## 5. Information Theory\nAn important field that has made significant contributions to AI and Deep Learning, and is yet unknown to many. It can be thought of as an amalgamation of calculus, statistics and probability. \n- [Entropy](https:\u002F\u002Fmathoverflow.net\u002Fquestions\u002F146463\u002Fwhat-is-entropy-really) - also called Shannon Entropy. Used to measure the uncertainty of in an experiment. \n- [Cross-Entropy](https:\u002F\u002Fmachinelearningmastery.com\u002Fcross-entropy-for-machine-learning) - compares two probability distrubutions & tells us how similar they are.\n- [Kullback Leibler Divergence](https:\u002F\u002Fwww.countbayesie.com\u002Fblog\u002F2017\u002F5\u002F9\u002Fkullback-leibler-divergence-explained) - another measure of how similar two probability distrubutions are.\n- [Viterbi Algorithm](https:\u002F\u002Fwww.cis.upenn.edu\u002F~cis262\u002Fnotes\u002FExample-Viterbi-DNA.pdf) - widely used in Natural Language Processing (NLP) & Speech\n- [Encoder-Decoder](https:\u002F\u002Fhackernoon.com\u002Finformation-theory-of-neural-networks-c96a0f0a8d9) - used in Machine Translation RNNs & other models.\n\n--------------------------------------------------------------------------------\n\nIn Artificial Intelligence, maths is very important. Without it, it's comparable to a human body without a soul. You can treat the mathematical concepts as a pay-as-you-go: whenever a foreign concept pops up, grab it and devour it! The guide above presents a minimal, yet comprehensive, resource to understand any kind of topic or concept in AI.\n\nGood luck!\n\n# Contributing\n\nIf you think this roadmap can be improved, please do open a PR with any updates and submit any issues. We will continue to improve this, so you might want to consider watching\u002Fstarring this repository to revisit it in the future.\n\n> Have a look at the [contribution guide](.\u002FCONTRIBUTING.md) for how to update the roadmap.\n\n* Open a pull request with improvements\n* Discuss ideas in issues\n* Spread the word\n* Reach out with any feedback\n\n# Credits\nThis roadmap is made publically available under the MIT License. ","\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fai-math-roadmap\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjasmcaus_ai-math-roadmap_readme_7caa89e81134.png\" alt=\"人工智能数学路线图\" width=\"200\" height=\"200\">\n  \u003C\u002Fa>\n  \u003Ch1 align=\"center\">人工智能数学路线图\u003C\u002Fh1>\n  \u003Cp align=\"center\">你通往人工智能领域所需数学知识的实用指南\u003C\u002Fp>\n  \u003Cp align=\"center\">\n      \u003Ca href=\"http:\u002F\u002Fbit.ly\u002Fai-math-roadmap\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Ftweet-blue.svg?logo=twitter&logoColor=white\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n      \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fjasmcaus\" target=\"_blank\">\u003Cimg alt=\"Jason\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FAuthor-jasmcaus-blue.svg\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\u002F\" target=\"_blank\">\u003Cimg alt=\"MIT许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue.svg\" style=\"display: inherit;\"\u002F>\u003C\u002Fa>\n  \u003C\u002Fp>\n  \u003Cbr>\n\u003C\u002Fp>\n\n\n# 概述 \n\u003Cblockquote>\n在人工智能领域工作却不懂数学的人，就像不懂得如何说服他人的政治家一样。两者都有必须攻克的关键领域！\n\u003C\u002Fblockquote>\n\n几年前，在2021年，我写了一篇关于进入数据科学领域的文章。从那以后，我收到了来自世界各地许多人的邮件，询问在这个领域到底需要掌握多少数学知识。\n\n坦白说：**真的很多**。\n\n这也是让许多初学者望而却步的原因之一。经过大量的研究以及与业内资深人士的交流，我整理出了这份务实的指南，涵盖了你**需要掌握的所有数学基础知识**。下面提到的概念通常会在大学的多个学期中学习，但我将其精简为你可以重点关注的核心要点。\n\n对于初学者来说，这份指南绝对是一大福音，它能帮助你聚焦于最重要的知识点；而对于像我这样的从业者而言，它更是一个快速回顾这些概念的绝佳资源。\n\n**注意**：你并不需要掌握所有（下文列出的）概念才能获得你的第一份数据科学相关工作。你只需要对基础知识有**扎实的理解**，并在此基础上不断巩固即可。\n\n\n# 目录 \n\n## 1. 代数\n代数知识可以说是整个数学的基础。除了加、减、乘、除等基本运算之外，你还需掌握以下内容：\n\n- [指数](http:\u002F\u002Fwww.mclph.umn.edu\u002Fmathrefresh\u002Fexponents.html)\n- [根式](https:\u002F\u002Ftutorial.math.lamar.edu\u002Fclasses\u002Falg\u002FRadicals.aspx)\n- [阶乘](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=pGg40oiQsUk&feature=youtu.be)\n- [求和](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=LDfaYXXAcHY&feature=youtu.be)\n- [科学记数法](https:\u002F\u002Fwww.khanacademy.org\u002Fmath\u002Fpre-algebra\u002Fpre-algebra-exponents-radicals)\n\n\n## 2. 线性代数\n线性代数是人工智能以及科学和工程领域中的主要数学计算工具。在此过程中，需要理解四种主要的数学对象及其性质：\n- [标量](http:\u002F\u002Fwww.sciencebits.com\u002Fvector_algebra) - 单个数字（可以是实数或自然数）。\n- [向量](http:\u002F\u002Fwww.sciencebits.com\u002Fvector_algebra) - 按顺序排列的一组数字。可以把它们看作空间中的点，每个元素代表一个坐标轴上的位置。\n- [矩阵](https:\u002F\u002Fwww.mathsisfun.com\u002Falgebra\u002Fmatrix-introduction.html) - 由数字组成的二维数组，每个数字由两个索引标识。\n- [张量](https:\u002F\u002Fmathworld.wolfram.com\u002FTensor.html) - N维（N>2）数字数组，按规则网格排列，具有N个轴。在机器学习、深度学习和[计算机视觉](https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fcaer)中非常重要。\n- [特征向量与特征值](https:\u002F\u002Fwww.mathsisfun.com\u002Falgebra\u002Feigenvalue.html) - 特殊的向量及其对应的标量。理解其意义及如何求解。\n- [奇异值分解](https:\u002F\u002Fweb.mit.edu\u002Fbe.400\u002Fwww\u002FSVD\u002FSingular_Value_Decomposition.htm) - 将矩阵分解为三个矩阵的过程。理解其性质和应用。\n- [主成分分析（PCA）](https:\u002F\u002Froyalsocietypublishing.org\u002Fdoi\u002F10.1098\u002Frsta.2015.0202) - 理解其重要性、性质和应用。\n\n此外，还需了解诸如[点积](https:\u002F\u002Fbetterexplained.com\u002Farticles\u002Fvector-calculus-understanding-the-dot-product\u002F)、[向量积](http:\u002F\u002Fhyperphysics.phy-astr.gsu.edu\u002Fhbase\u002Fvvec.html)以及[阿达玛积](https:\u002F\u002Fhandwiki.org\u002Fwiki\u002FHadamard_product_(matrices))等运算的性质。\n\n\n## 3. 微积分\n微积分研究参数、函数、误差和近似值的变化。在数据科学中，多维微积分的知识至关重要。以下是微积分中一些最重要的概念（当然并不全面）：\n- [导数](https:\u002F\u002Fwww.mathsisfun.com\u002Fcalculus\u002Fderivatives-introduction.html) - 导数法则（加法、乘法、链式法则等）、双曲函数的导数（tanh、cosh等）以及偏导数。\n- [向量\u002F矩阵微积分](http:\u002F\u002Fwww.personal.rdg.ac.uk\u002F~sis01xh\u002Fteaching\u002FCY4C9\u002FANN3.pdf) - 不同的导数算子（梯度、雅可比矩阵、海森矩阵和拉普拉斯算子）。\n- [梯度算法](https:\u002F\u002Ftowardsdatascience.com\u002Fgradient-descent-algorithm-and-its-variants-10f652806a3) - 局部\u002F全局最大值与最小值、鞍点、凸函数、批次与小批量、随机梯度下降，以及性能比较。\n\n## 4. 统计学与概率论\n- [基础统计学](https:\u002F\u002Fwww.dummies.com\u002Feducation\u002Fmath\u002Fstatistics\u002Fstatistics-for-dummies-cheat-sheet\u002F) - 均值、中位数、众数、方差、协方差等。\n- [概率的基本规则](http:\u002F\u002Fwww.milefoot.com\u002Fmath\u002Fstat\u002Fprob-rules.htm) - 事件（依赖与独立）、样本空间、条件概率。\n- [随机变量](https:\u002F\u002Fwww.khanacademy.org\u002Fmath\u002Fstatistics-probability\u002Frandom-variables-stats-library) - 连续型与离散型、期望值、方差、分布（联合分布与条件分布）。\n- [贝叶斯定理](https:\u002F\u002Fblogs.scientificamerican.com\u002Fcross-check\u002Fbayes-s-theorem-what-s-the-big-deal\u002F) - 用于计算信念的有效性。基于贝叶斯的软件可以帮助机器识别模式并做出决策。\n- [最大似然估计（MLE）](https:\u002F\u002Ftowardsdatascience.com\u002Fprobability-concepts-explained-maximum-likelihood-estimation-c7b4342fdbb1) - 参数估计。需要掌握概率的基本概念（联合概率和事件的独立性）。\n- [常见分布](https:\u002F\u002Fwww.stat.tamu.edu\u002F~twehrly\u002F611\u002Fdistab.pdf) - 二项分布、泊松分布、伯努利分布、正态分布、指数分布。\n\n## 5. 信息论\n信息论是一个对人工智能和深度学习做出重要贡献，却鲜为人知的重要领域。它可以被视为微积分、统计学和概率论的结合。\n- [熵](https:\u002F\u002Fmathoverflow.net\u002Fquestions\u002F146463\u002Fwhat-is-entropy-really) - 也称为香农熵。用于度量实验中的不确定性。\n- [交叉熵](https:\u002F\u002Fmachinelearningmastery.com\u002Fcross-entropy-for-machine-learning) - 比较两个概率分布，告诉我们它们有多相似。\n- [Kullback-Leibler散度](https:\u002F\u002Fwww.countbayesie.com\u002Fblog\u002F2017\u002F5\u002F9\u002Fkullback-leibler-divergence-explained) - 另一种衡量两个概率分布相似程度的指标。\n- [维特比算法](https:\u002F\u002Fwww.cis.upenn.edu\u002F~cis262\u002Fnotes\u002FExample-Viterbi-DNA.pdf) - 广泛应用于自然语言处理（NLP）和语音处理中。\n- [编码器-解码器](https:\u002F\u002Fhackernoon.com\u002Finformation-theory-of-neural-networks-c96a0f0a8d9) - 用于机器翻译的循环神经网络及其他模型。\n\n--------------------------------------------------------------------------------\n\n在人工智能领域，数学非常重要。没有数学，就如同没有灵魂的人体一样。你可以把数学概念当作按需学习的内容：每当遇到一个陌生的概念时，就立即掌握并深入理解！上述指南提供了一个极简但全面的资源，帮助你理解人工智能中的任何主题或概念。\n\n祝你好运！\n\n# 贡献\n如果你认为这份路线图可以改进，请随时提交拉取请求以更新内容，并提出任何问题。我们将持续优化这份文档，因此建议你关注或星标本仓库，以便日后再次查阅。\n\n> 请参阅[贡献指南](.\u002FCONTRIBUTING.md)，了解如何更新该路线图。\n\n* 打开拉取请求以提出改进建议\n* 在议题中讨论想法\n* 分享给更多人\n* 提供反馈\n\n# 致谢\n本路线图依据MIT许可证公开发布。","# AI Math Roadmap 快速上手指南\n\n`ai-math-roadmap` 并非一个需要安装运行的软件包或库，而是一份**结构化的学习路线图资源库**。它整理了人工智能领域所需的核心数学知识体系及对应的优质学习资料链接。本指南将帮助你快速利用该资源进行系统性学习。\n\n## 1. 环境准备\n\n由于本项目是文档与链接集合，**无需安装任何依赖或配置特定运行环境**。你只需要：\n\n*   **操作系统**：任意支持现代浏览器的系统（Windows, macOS, Linux）。\n*   **前置条件**：\n    *   稳定的网络连接（用于访问外部教学视频和文章）。\n    *   Web 浏览器（推荐 Chrome, Edge 或 Firefox）。\n    *   （可选）Git：如果你希望克隆仓库到本地离线浏览或贡献内容。\n\n## 2. 获取资源\n\n你可以选择直接在线浏览或克隆到本地。鉴于网络环境，推荐国内开发者使用以下方式：\n\n### 方式一：在线直接浏览（推荐）\n直接访问项目托管页面或作者整理的汇总页：\n*   **GitHub 仓库**: [https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fai-math-roadmap](https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fai-math-roadmap)\n*   **作者汇总页**: [http:\u002F\u002Fbit.ly\u002Fai-math-roadmap](http:\u002F\u002Fbit.ly\u002Fai-math-roadmap)\n\n### 方式二：克隆到本地\n如果你希望离线查看 Markdown 源码或参与贡献，请使用终端执行：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjasmcaus\u002Fai-math-roadmap.git\ncd ai-math-roadmap\n```\n\n> **提示**：如果 GitHub 连接缓慢，可尝试使用国内代码托管平台（如 Gitee）搜索是否有镜像仓库，或直接下载 ZIP 包解压。\n\n## 3. 基本使用\n\n本“工具”的使用核心在于**按图索骥**。请按照以下步骤开始你的数学强化之旅：\n\n### 第一步：定位知识模块\n打开 `README.md` 文件，根据你当前的需求或薄弱环节，定位到五大核心板块之一：\n\n1.  **Algebra (代数)**: 指数、根式、阶乘、求和等基础运算。\n2.  **Linear Algebra (线性代数)**: 标量、向量、矩阵、张量、特征值\u002F特征向量、SVD、PCA 等（AI 的核心计算工具）。\n3.  **Calculus (微积分)**: 导数、偏导数、梯度算法、链式法则等（处理变化与优化）。\n4.  **Statistics & Probability (统计与概率)**: 均值方差、贝叶斯定理、最大似然估计、常见分布等。\n5.  **Information Theory (信息论)**: 熵、交叉熵、KL 散度、Viterbi 算法等（深度学习与信息处理基础）。\n\n### 第二步：点击链接学习\n在每个知识点下方，作者都附带了具体的学习资源链接（指向 Khan Academy, YouTube, MIT OpenCourseWare, Towards Data Science 等）。\n*   **操作示例**：若想复习“梯度下降”，请在 **3. Calculus** 章节找到 `Gradient Algorithms`，点击对应的链接跳转学习。\n\n### 第三步：制定学习策略\n遵循作者的建议：**\"Pay-as-you-go\"（按需学习）**。\n*   **初学者**：不要试图一次性掌握所有细节。重点巩固**基础概念**（Fundamentals），确保对核心原理有牢固掌握即可入职或开展项目。\n*   **从业者**：将其作为速查手册。当在代码或论文中遇到不熟悉的数学概念时，回到此路线图快速回顾相关原理。\n\n### 学习路径示例\n假设你正在学习神经网络的反向传播，但对其中的数学推导感到困惑：\n1.  进入 **3. Calculus** 章节。\n2.  点击 **Derivatives** 复习链式法则 (Chain Rule)。\n3.  点击 **Vector\u002FMatrix Calculus** 理解梯度 (Gradient) 和雅可比矩阵 (Jacobian)。\n4.  结合 **2. Linear Algebra** 中的矩阵运算知识，重新推导反向传播公式。\n\n---\n*注：本路线图采用 MIT 许可证开源。如果你发现更好的学习资源或内容有误，欢迎通过 Pull Request 贡献更新。*","刚转行 AI 的工程师李明在复现一篇涉及奇异值分解（SVD）的论文时，因数学基础薄弱而陷入理解瓶颈。\n\n### 没有 ai-math-roadmap 时\n- **学习路径迷茫**：面对海量的大学数学教材，不知道哪些是 AI 真正需要的核心内容，盲目花费数周时间啃读无关章节。\n- **概念断层严重**：在阅读算法推导时，遇到“特征向量”或“张量”等术语无法立即理解其几何意义，只能频繁中断去搜索零散解释。\n- **效率极其低下**：缺乏系统性的知识串联，导致在代数、线性代数等基础模块间反复横跳，迟迟无法进入实际的代码调试阶段。\n- **信心备受打击**：被深奥的数学公式劝退，产生“数学不好就学不了 AI\"的自我怀疑，甚至考虑放弃当前项目。\n\n### 使用 ai-math-roadmap 后\n- **目标清晰聚焦**：直接依据路线图锁定“线性代数”中的标量、矩阵及 SVD 等关键节点，跳过冗余内容，将准备时间从数周压缩至几天。\n- **概念精准突破**：按图索骥找到官方推荐的最佳学习资源，快速掌握了特征值与矩阵分解的核心原理，顺畅读懂了论文公式背后的逻辑。\n- **学习闭环高效**：遵循“只掌握核心原则”的建议，边学边对照代码实现，迅速完成了从理论理解到模型复现的转化。\n- **职业信心重建**：意识到无需精通所有数学细节即可胜任工作，只要夯实基础即可，从而重拾对技术攻关的热情与掌控感。\n\nai-math-roadmap 通过剔除冗余噪音并提炼核心数学原则，帮助开发者以最小成本跨越理论门槛，快速实现从“畏难”到“实战”的转变。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjasmcaus_ai-math-roadmap_7caa89e8.png","jasmcaus","Jason","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjasmcaus_2d0a7688.jpg","Compiler warlock; prev AI research @harvard",null,"https:\u002F\u002Fjasmca.us","https:\u002F\u002Fgithub.com\u002Fjasmcaus",526,77,"2026-04-05T20:25:06","MIT",1,"","未说明",{"notes":87,"python":85,"dependencies":88},"该项目并非可运行的软件工具或代码库，而是一份关于人工智能所需数学基础（代数、线性代数、微积分、统计与概率、信息论）的学习指南和资源列表。因此，它没有操作系统、GPU、内存、Python 版本或依赖库等运行环境需求。用户只需按照文档中的链接学习相关数学概念即可。",[],[14,16,13,15,90],"其他",[92,93,94,95,96,97,98,99,100,101],"data-science","ai","roadmap","ai-roadmap","artificial-intelligence","mathematics","deep-learning","neural-network","machine-learning","caer","2026-03-27T02:49:30.150509","2026-04-07T06:14:04.705751",[],[]]