[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-rougier--ML-Recipes":3,"tool-rougier--ML-Recipes":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":108},9643,"rougier\u002FML-Recipes","ML-Recipes","A collection of stand-alone Python machine learning recipes","ML-Recipes 是一个专为机器学习爱好者打造的独立 Python 代码示例合集。它致力于解决学习者在理解复杂算法理论时面临的“纸上谈兵”困境，将抽象的数学公式转化为可直接运行、观察结果的实战代码。无论是经典的感知机、多层感知机，还是进阶的长短期记忆网络（LSTM）、回声状态网络，乃至强化学习中的多臂老虎机策略（如汤普森采样、UCB 等），这里都提供了精简且独立的实现方案。\n\n该项目特别适合开发者、数据科学初学者以及研究人员使用。对于希望快速验证算法逻辑的工程师，或需要参考标准实现以辅助教学的研究者，ML-Recipes 都能提供极大的便利。其独特的技术亮点在于“独立性”与“溯源性”：每个脚本均可单独运行，无需复杂的环境配置；同时，每个示例都严谨地标注了原始学术文献来源，帮助用户在动手实践的同时深入理解算法背后的理论根基。如果你想在几分钟内通过代码直观感受机器学习的运作机制，ML-Recipes 将是你理想的入门指南。","\n\u003Ca href=\"https:\u002F\u002Fxkcd.com\u002F1838\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frougier_ML-Recipes_readme_aeedecb75a3c.png\" align=\"right\"\u002F>\u003C\u002Fa>\n\n# Machine Learning Recipes\n\nThis is a collection of stand-alone Python examples of machine learning\nalgorithms. Run a specific recipe to see usage and result. Feel free to\ncontribute an example (recipe should be reasonably small, including usage).\n\n### [Multi-armed bandit (MAB)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMulti-armed_bandit)\n\n* **Epsilon greedy** ([recipes\u002FMAB\u002Fgreedy.py](recipes\u002FMAB\u002Fgreedy.py))\n  > Sutton, Richard S., Barto, Andrew G. \"Reinforcement Learning: An\n  > Introduction\", MIT Press, Cambridge, MA (1998).\n\n* **Softmax** ([recipes\u002FMAB\u002Fsoftmax.py](recipes\u002FMAB\u002Fsoftmax.py))\n  > Luce, R. Duncan. (1963). \"Detection and recognition\". In Luce, R. Duncan,\n  > Bush, Robert. R. & Galanter, Eugene (Eds.), \"Handbook of mathematical\n  > psychology\" (Vol. 1), New York: Wiley.\n\n* **Thompson sampling** ([recipes\u002FMAB\u002Fthompson.py](recipes\u002FMAB\u002Fthompson.py))\n  > Thompson, William R. On the likelihood that one unknown probability exceeds\n  > another in view of the evidence of two samples. Biometrika,\n  > 25(3–4):285–294, 1933.  DOI: [10.2307\u002F2332286](http:\u002F\u002Fdoi.org\u002F10.2307\u002F2332286)\n\n* **Upper Confidence Bound** ([recipes\u002FMAB\u002Fucb.py](recipes\u002FMAB\u002Fucb.py))\n  > Lai, T.L and Robbins, Herbert, \"Asymptotically efficient adaptive\n  > allocation rules\", Advances in Applied Mathematics 6:1, (1985) DOI:\n  > [10.1016\u002F0196-8858(85)90002-8](http:\u002F\u002Fdoi.org\u002F10.1016\u002F0196-8858(85)90002-8)\n\n\n### [Artificial Neural Network (ANN)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FArtificial_neural_network)\n\n* **Adaptive Resonance Theory** ([recipes\u002FANN\u002Fart.py](recipes\u002FANN\u002Fart.py))\n\n  > Grossberg, Stephen (1987). Competitive learning: From interactive\n  > activation to adaptive resonance, Cognitive Science, 11, 23-63.\n\n* **Echo State Network** ([recipes\u002FANN\u002Fesn.py](recipes\u002FANN\u002Fesn.py))\n\n  > Jaeger, Herbert (2001) The \"echo state\" approach to analysing and training\n  > recurrent neural networks. GMD Report 148, GMD - German National Research\n  > Institute for Computer Science.\n\n* **Simple Recurrent Network** ([recipes\u002FANN\u002Fsrn.py](recipes\u002FANN\u002Fsrn.py))\n\n  > Elman, Jeffrey L. (1990). Finding structure in time. Cognitive Science,\n  > 14:179–211.\n\n* **Long Short Term Memory** ([nicodjimenez\u002Flstm](https:\u002F\u002Fgithub.com\u002Fnicodjimenez\u002Flstm))\n\n  > Hochreiter, Sepp and Schmidhuber, Jürgen (1997) Long Short-Term Memory,\n  > Neural Computation Vol. 9, 1735-1780\n\n* **Multi-Layer Perceptron** ([recipes\u002FANN\u002Fmlp.py](recipes\u002FANN\u002Fmlp.py))\n\n  > Rumelhart, David E., Hinton, Geoffrey E. and Williams, Ronald J. \"Learning\n  > Internal Representations by Error Propagation\". Rumelhart, David E.,\n  > McClelland, James L., and the PDP research group. (editors), Parallel\n  > distributed processing: Explorations in the microstructure of cognition,\n  > Volume 1: Foundation. MIT Press, 1986.\n\n* **Perceptron** ([recipes\u002FANN\u002Fperceptron.py](recipes\u002FANN\u002Fperceptron.py))\n\n  > Rosenblatt, Frank (1958), \"The Perceptron: A Probabilistic Model for\n  > Information Storage and Organization in the Brain\", Cornell Aeronautical\n  > Laboratory, Psychological Review, v65, No. 6,\n  > pp. 386–408. DOI:[10.1037\u002Fh0042519](http:\u002F\u002Fdoi.org\u002F10.1037\u002Fh0042519)\n\n* **Kernel perceptron** ([recipes\u002FANN\u002Fkernel-perceptron.py](recipes\u002FANN\u002Fkernel-perceptron.py))\n\n  > Aizerman, M. A., Braverman, E. A. and Rozonoer, L.. \" Theoretical\n  > foundations of the potential function method in pattern \n  > recognition learning..\" Paper presented at the meeting of the\n  > Automation and Remote Control,, 1964.\n\n* **Voted Perceptron** ([recipes\u002FANN\u002Fvoted-perceptron.py](recipes\u002FANN\u002Fvoted-perceptron.py))\n\n  > Y. Freund, R. E. Schapire. \"Large margin classification using\n  > the perceptron algorithm\". In: 11th Annual Conference on\n  > Computational Learning Theory, New York, NY, 209-217, 1998.\n  > DOI:[10.1023\u002FA:1007662407062](http:\u002F\u002Fdoi.org\u002F10.1023\u002FA:1007662407062)\n\n* **Self Organizing Map** ([recipes\u002FANN\u002Fsom.py](recipes\u002FANN\u002Fsom.py))\n\n  > Kohonen, Teuvo. Self-Organization and Associative Memory. Springer, Berlin,\n  > 1984.\n\n\n### [Markov Decision Process (MDP)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMarkov_decision_process)\n\n* **Value Iteration**  ([recipes\u002FMDP\u002Fvalue-iteration.py](recipes\u002FMDP\u002Fvalue-iteration.py))\n\n  > Bellman, Richard (1957). \"A Markovian Decision Process\". Journal of\n  > Mathematics and Mechanics. 6.\n\n### [Dimensionality Reduction (DR)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FDimensionality_reduction)\n\n* **Principal Component Analysis** ([recipes\u002FDR\u002Fpca.py](recipes\u002FDR\u002Fpca.py))\n\n  > Pearson, K. (1901). \"On Lines and Planes of Closest Fit to Systems\n  > of Points in Space\". Philosophical Magazine. 2 (11): 559–572.\n  > DOI:[10.1080\u002F14786440109462720](http:\u002F\u002Fdoi.org\u002F10.1080\u002F14786440109462720)\n\n* **Eigenface** ([recipes\u002FDR\u002Feigenface.py](recipes\u002FDR\u002Feigenface.py))\n\n  > M. Turk & A. Pentland (1991) Eigenfaces for Recognition.\n  > Journal of cognitive neuroscience, 3(1): 71-86.\n  > DOI:[10.1162\u002Fjocn.1991.3.1.71](https:\u002F\u002Fdoi.org\u002F10.1162\u002Fjocn.1991.3.1.71)\n\n* **Classical Multidimensional scaling** ([recipes\u002FDR\u002Fclassical_mds.py](recipes\u002FDR\u002Fclassical_mds.py))\n\n  > W.S. Torgerson (1952) Multidimensional scaling: I. Theory and method\n  > Psychometrika, 17: 401-419\n  > DOI:[10.1007\u002FBF02288916](https:\u002F\u002Fdoi.org\u002F10.1007\u002FBF02288916)\n\n","\u003Ca href=\"https:\u002F\u002Fxkcd.com\u002F1838\u002F\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frougier_ML-Recipes_readme_aeedecb75a3c.png\" align=\"right\"\u002F>\u003C\u002Fa>\n\n# 机器学习教程\n\n这是一个包含独立 Python 示例的机器学习算法集合。运行特定的示例以查看其用法和结果。欢迎贡献新的示例（建议示例代码量适中，并包含使用说明）。\n\n### [多臂老虎机问题 (MAB)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMulti-armed_bandit)\n\n* **ε-贪婪算法** ([recipes\u002FMAB\u002Fgreedy.py](recipes\u002FMAB\u002Fgreedy.py))\n  > 萨顿, 理查德·S., 巴托, 安德鲁·G.《强化学习：导论》，麻省理工学院出版社，剑桥，马萨诸塞州（1998年）。\n\n* **Softmax 策略** ([recipes\u002FMAB\u002Fsoftmax.py](recipes\u002FMAB\u002Fsoftmax.py))\n  > 卢斯, R. 邓肯.（1963）.“检测与识别”。载于卢斯, R. 邓坎、布什, 罗伯特·R. 和 加兰特, 尤金（编）, “数学心理学手册”（第1卷），纽约：威利出版社。\n\n* **汤普森采样** ([recipes\u002FMAB\u002Fthompson.py](recipes\u002FMAB\u002Fthompson.py))\n  > 汤普森, 威廉·R. 根据两个样本的证据，一个未知概率超过另一个的概率。生物计量学，25(3–4):285–294，1933年。DOI: [10.2307\u002F2332286](http:\u002F\u002Fdoi.org\u002F10.2307\u002F2332286)\n\n* **上置信界算法** ([recipes\u002FMAB\u002Fucb.py](recipes\u002FMAB\u002Fucb.py))\n  > 赖, T.L. 和 罗宾斯, 赫伯特，《渐近有效的自适应分配规则》，应用数学进展6:1，（1985年）DOI: [10.1016\u002F0196-8858(85)90002-8](http:\u002F\u002Fdoi.org\u002F10.1016\u002F0196-8858(85)90002-8)\n\n\n### [人工神经网络 (ANN)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FArtificial_neural_network)\n\n* **自适应共振理论** ([recipes\u002FANN\u002Fart.py](recipes\u002FANN\u002Fart.py))\n\n  > 格罗斯伯格, 斯蒂芬（1987）。“竞争性学习：从交互激活到适应性共振”，认知科学，11，23-63页。\n\n* **回声状态网络** ([recipes\u002FANN\u002Fesn.py](recipes\u002FANN\u002Fesn.py))\n\n  > 雅格尔, 赫伯特（2001）“回声状态”方法用于分析和训练递归神经网络。GMD 报告 148，德国国家计算机科学研究机构。\n\n* **简单递归网络** ([recipes\u002FANN\u002Fsrn.py](recipes\u002FANN\u002Fsrn.py))\n\n  > 埃尔曼, 杰弗里 L.（1990）.“在时间中寻找结构”。认知科学，14:179–211页。\n\n* **长短期记忆网络** ([nicodjimenez\u002Flstm](https:\u002F\u002Fgithub.com\u002Fnicodjimenez\u002Flstm))\n\n  > 霍克赖特, 塞普 和 施密德胡伯, 尤尔根（1997）“长短期记忆”，神经计算第9卷，1735-1780页。\n\n* **多层感知器** ([recipes\u002FANN\u002Fmlp.py](recipes\u002FANN\u002Fmlp.py))\n\n  > 鲁梅尔哈特, 大卫 E., 辛顿, 吉福德 E. 和 威廉姆斯, 罗纳德 J. “通过误差反向传播学习内部表示”。鲁梅尔哈特, 大卫 E., 麦克莱伦德, 詹姆斯 L. 以及 PDP 研究小组（编辑）。并行分布式处理：认知微观结构探索，第1卷：基础。麻省理工学院出版社，1986年。\n\n* **感知器** ([recipes\u002FANN\u002Fperceptron.py](recipes\u002FANN\u002Fperceptron.py))\n\n  > 罗森布拉特, 弗兰克（1958），“感知器：大脑中信息存储与组织的概率模型”，康奈尔航空实验室，心理评论，第65卷，第6期，pp. 386–408。DOI:[10.1037\u002Fh0042519](http:\u002F\u002Fdoi.org\u002F10.1037\u002Fh0042519)\n\n* **核感知器** ([recipes\u002FANN\u002Fkernel-perceptron.py](recipes\u002FANN\u002Fkernel-perceptron.py))\n\n  > 艾泽曼, M. A., 布拉韦尔曼, E. A. 和 罗佐诺尔, L.. “模式识别学习中势函数方法的理论基础”。论文发表于自动化与远程控制会议，1964年。\n\n* **投票感知器** ([recipes\u002FANN\u002Fvoted-perceptron.py](recipes\u002FANN\u002Fvoted-perceptron.py))\n\n  > Y. 弗伦德, R. E. 施皮雷。“基于感知器算法的大间隔分类”。载于第11届计算学习理论年会，纽约，纽约，209-217页，1998年。DOI:[10.1023\u002FA:1007662407062](http:\u002F\u002Fdoi.org\u002F10.1023\u002FA:1007662407062)\n\n* **自组织映射** ([recipes\u002FANN\u002Fsom.py](recipes\u002FANN\u002Fsom.py))\n\n  > 科霍宁, 特乌沃。自组织与联想记忆。施普林格出版社，柏林，1984年。\n\n\n### [马尔可夫决策过程 (MDP)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FMarkov_decision_process)\n\n* **值迭代** ([recipes\u002FMDP\u002Fvalue-iteration.py](recipes\u002FMDP\u002Fvalue-iteration.py))\n\n  > 贝尔曼, 理查德（1957）.“马尔可夫决策过程”。数学与力学杂志，第6期。\n\n### [降维 (DR)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FDimensionality_reduction)\n\n* **主成分分析** ([recipes\u002FDR\u002Fpca.py](recipes\u002FDR\u002Fpca.py))\n\n  > 皮尔逊, K.（1901）.“关于空间点系的最佳拟合直线与平面”。哲学杂志，2(11):559–572页。DOI:[10.1080\u002F14786440109462720](http:\u002F\u002Fdoi.org\u002F10.1080\u002F14786440109462720)\n\n* **特征脸** ([recipes\u002FDR\u002Feigenface.py](recipes\u002FDR\u002Feigenface.py))\n\n  > M. 特克 & A. 彭特兰（1991）“用于识别的特征脸”。认知神经科学杂志，3(1):71-86页。DOI:[10.1162\u002Fjocn.1991.3.1.71](https:\u002F\u002Fdoi.org\u002F10.1162\u002Fjocn.1991.3.1.71)\n\n* **经典多维尺度分析** ([recipes\u002FDR\u002Fclassical_mds.py](recipes\u002FDR\u002Fclassical_mds.py))\n\n  > W.S. 托格森（1952）“多维尺度分析：I. 理论与方法”。心理测量学，17:401-419页。DOI:[10.1007\u002FBF02288916](https:\u002F\u002Fdoi.org\u002F10.1007\u002FBF02288916)","# ML-Recipes 快速上手指南\n\nML-Recipes 是一个独立的机器学习算法 Python 示例集合。每个“食谱”都是一个可单独运行的脚本，旨在展示特定算法的核心用法与结果，适合学习与参考。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.6+\n*   **前置依赖**：\n    *   `numpy` (数值计算)\n    *   `matplotlib` (部分示例用于绘图，可选)\n    *   `scikit-learn` (部分示例可能依赖其数据集工具，可选)\n\n## 安装步骤\n\n本项目无需复杂的安装过程，只需克隆仓库并安装基础依赖即可。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fzygmuntz\u002Fml-recipes.git\n    cd ml-recipes\n    ```\n\n2.  **安装依赖**\n    建议使用国内镜像源加速安装（如清华源）：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *注：如果项目中没有 `requirements.txt` 文件，请直接安装核心库：*\n    ```bash\n    pip install numpy matplotlib scikit-learn -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n## 基本使用\n\n每个算法对应一个独立的 Python 脚本。直接进入对应的子目录运行脚本即可查看演示结果。\n\n### 示例 1：运行多臂老虎机 (Multi-armed Bandit)\n尝试 **Epsilon Greedy** 策略：\n```bash\ncd recipes\u002FMAB\npython greedy.py\n```\n\n### 示例 2：运行人工神经网络 (ANN)\n尝试 **感知机 (Perceptron)** 算法：\n```bash\ncd recipes\u002FANN\npython perceptron.py\n```\n\n### 示例 3：运行降维算法 (Dimensionality Reduction)\n尝试 **主成分分析 (PCA)**：\n```bash\ncd recipes\u002FDR\npython pca.py\n```\n\n**提示**：运行脚本后，终端通常会输出算法的训练过程、最终权重或准确率，部分脚本会弹出窗口展示可视化图表。你可以直接阅读源码中的注释来理解具体实现逻辑。","某初创公司的算法工程师正在为一款新上线的新闻推荐 App 设计冷启动策略，需要在用户历史数据匮乏的情况下快速验证哪种探索与利用（Exploration vs. Exploitation）算法能最大化点击率。\n\n### 没有 ML-Recipes 时\n- **复现成本高昂**：工程师需从零编写 epsilon-greedy、Thompson Sampling 等经典多臂老虎机算法，极易在数学公式转代码时引入隐蔽错误。\n- **文献查阅耗时**：为了确认算法细节，不得不反复翻阅《Reinforcement Learning: An Introduction》等厚重教材或原始论文，严重拖慢原型开发进度。\n- **缺乏基准对比**：手头只有单一算法实现，难以快速构建对照组来评估不同策略（如 Softmax 与 UCB）在同一数据集上的表现差异。\n- **环境配置繁琐**：自行搭建测试环境时，常因依赖库版本冲突或缺少标准测试用例，导致调试时间远超编码时间。\n\n### 使用 ML-Recipes 后\n- **即插即用验证**：直接调用 `recipes\u002FMAB\u002Fthompson.py` 等独立脚本，几分钟内即可运行并查看标准输出结果，大幅缩短验证周期。\n- **权威实现参考**：每个食谱都附带清晰的学术引用和简洁代码，工程师可迅速理解核心逻辑，确保算法实现的理论正确性。\n- **便捷策略横向测评**：轻松并行运行 greedy、softmax、ucb 等多种方案，快速产出对比数据，精准锁定最适合当前业务场景的算法。\n- **轻量级集成体验**：无需安装庞大的深度学习框架，这些独立的 Python 文件可直接嵌入现有实验流程，零负担完成概念验证（PoC）。\n\nML-Recipes 将原本需要数天的算法复现与调研工作压缩至小时级，让团队能专注于业务逻辑创新而非重复造轮子。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frougier_ML-Recipes_f6699391.png","rougier","Nicolas P. Rougier","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frougier_bbff5d13.png","Researcher in computational and cognitive neuroscience supporting open source, open access and open science.\r\n","@INRIA ","Bordeaux, France","Nicolas.Rougier@inria.fr",null,"http:\u002F\u002Fwww.labri.fr\u002Fperso\u002Fnrougier","https:\u002F\u002Fgithub.com\u002Frougier",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,685,66,"2026-04-16T11:05:43","BSD-2-Clause",1,"未说明",{"notes":94,"python":92,"dependencies":95},"该项目为独立的机器学习算法示例集合，README 中未明确列出具体的操作系统、硬件配置或依赖库版本要求。根据内容推断，运行环境需支持 Python 及基础科学计算库（如 NumPy），部分高级算法（如 LSTM）引用了外部仓库，可能需要额外安装对应依赖。",[92],[14],[98,99,100,101,102,103,104],"python","machine-learning","recipes","awesome","neural-network","reinforcement-learning","algorithm","2026-03-27T02:49:30.150509","2026-04-20T04:06:00.448124",[],[]]