[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mossr--BeautifulAlgorithms.jl":3,"tool-mossr--BeautifulAlgorithms.jl":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":78,"difficulty_score":32,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":95,"github_topics":96,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":135},6845,"mossr\u002FBeautifulAlgorithms.jl","BeautifulAlgorithms.jl","Concise and beautiful algorithms written in Julia","BeautifulAlgorithms.jl 是一个基于 Julia 语言编写的开源算法集合，旨在以极其简洁、优雅的代码形式呈现各类经典算法。它涵盖了机器学习（如梯度下降、神经网络、K-means 聚类）、优化方法（如模拟退火、牛顿法）、强化学习、不确定性决策以及基础排序等广泛领域。\n\n该项目主要解决了算法学习与教学中的“可读性”痛点。不同于追求工业级性能或复杂工程封装的常规库，BeautifulAlgorithms.jl 刻意将核心逻辑浓缩为短小精悍的代码片段，甚至包含精彩的“单行实现”，并配合精美的代码截图，让使用者能直观地理解算法背后的数学原理与逻辑流，而非迷失在繁琐的工程细节中。\n\n因此，它非常适合高校师生、科研人员以及编程爱好者使用。对于希望深入探究算法本质、进行快速原型验证或寻找教学演示素材的用户来说，这是一个极佳的参考资源。其独特的技术亮点在于对代码美学的极致追求，通过高度抽象和函数式编程技巧，证明了复杂的智能算法也可以用清晰、优美的代码来表达。需要注意的是，作者明确建议将其用于学术研究与教育目的，实际生产环境中请选用更成熟的工业级包。","# BeautifulAlgorithms.jl\n[![Build Status](https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fcoverage.svg?branch=master)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmossr\u002FBeautifulAlgorithms.jl)\n\nConcise algorithms written in Julia and formatted with [Carbon](https:\u002F\u002Fcarbon.now.sh\u002F).\n\nAlgorithms for machine learning, optimization, reinforcement learning, online planning, decision making under uncertainty, and sorting. All implementations are working and self-contained; refer to the [test cases](.\u002Ftest\u002F).\n\n> _Note, these are primarily for academic purposes and are not designed for real-world usage. There are many other Julia packages that implement more sound versions of these algorithms._\n\n```julia\n] add http:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\n```\n\n- [Gradient descent](#gradient-descent)\n- [Stochastic gradient descent](#stochastic-gradient-descent)\n- [Two-layer neural network](#two-layer-neural-network)\n    - [Two-layer neural network (one-liner)](#two-layer-neural-network-one-liner)\n- [Multi-layer neural network](#multi-layer-neural-network)\n- [Loss functions](#loss-functions)\n- [Distance functions](#distance-functions)\n- [Nearest neighbor](#nearest-neighbor)\n- [K-nearest neighbors](#k-nearest-neighbors)\n- [K-means clustering](#k-means-clustering)\n- [The EM algorithm](#the-em-algorithm)\n- [Linear regression](#linear-regression)\n    - [Linear regression (one-liner)](#linear-regression-one-liner)\n- [Ridge regression](#ridge-regression)\n- [Basis regression](#basis-regression)\n- [Radial basis regression](#radial-basis-regression)\n- [Logistic regression](#logistic-regression)\n- [Cross-entropy method](#cross-entropy-method)\n- [Finite difference methods](#finite-difference-methods)\n- [Simulated annealing](#simulated-annealing)\n- [Twiddle](#twiddle)\n- [Newton's method](#newtons-method)\n- [Gaussian process](#gaussian-process)\n    - [Gaussian process kernels](#gaussian-process-kernels)\n- [Thompson sampling](#thompson-sampling)\n- [Particle filter](#particle-filter)\n- [Value iteration](#value-iteration)\n- [Branch and bound](#branch-and-bound)\n- [Monte Carlo tree search](#monte-carlo-tree-search)\n- [Huffman coding](#huffman-coding)\n- [Hailstone sequence (Collatz conjecture)](#hailstone-sequence-collatz-conjecture)\n- [Bubble sort](#bubble-sort)\n- [Merge sort](#merge-sort)\n- [Insertion sort](#insertion-sort)\n- [Bogo sort](#bogo-sort)\n    - [Bogo sort (one-liner)](#bogo-sort-one-liner)\n- [Quine](#quine)\n\n*Note: Algorithms are modified from their original sources.*\n\n## Gradient descent\nPercy Liang and Dorsa Sadigh, *Artificial Intelligence: Principles and Techniques*, Stanford University, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgradient_descent.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_900086ccda9f.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Stochastic gradient descent\nPercy Liang and Dorsa Sadigh, *Artificial Intelligence: Principles and Techniques*, Stanford University, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fstochastic_gradient_descent.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_58d35afc2c69.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Two-layer neural network\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fneural_network.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_9bbff619b17c.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n##### Two-layer neural network (one-liner)\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fneural_network_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_38141de8bab4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Multi-layer neural network\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmulti_layer_neural_network.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_59cbd603249d.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Loss functions\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Floss_functions.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a9fb826a0dd9.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Distance functions\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fdistance_functions.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_125bf0582f76.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Nearest neighbor\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fnearest_neighbor.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c5d0cc387905.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## K-nearest neighbors\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fk_nearest_neighbors.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_1e196f71dbf4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## K-means clustering\nPercy Liang and Dorsa Sadigh, *Artificial Intelligence: Principles and Techniques*, Stanford University, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fk_means_clustering.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_47f557ea5072.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## The EM algorithm\nAndrew Ng, *Mixtures of Gaussians and the EM algorithm*, Stanford University, 2020.\u003Csup>\u003Ca href=\"http:\u002F\u002Fcs229.stanford.edu\u002Fnotes2020spring\u002Fcs229-notes7b.pdf\">1\u003C\u002Fa>\u003C\u002Fsup>\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fem_algorithm.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_e5fb4cdbecc9.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Linear regression\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019. (Credit [@HenriDeh](https:\u002F\u002Fgithub.com\u002FHenriDeh) for use of `ones`)\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flinear_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_590ec2c5b2d7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n##### Linear regression (one-liner)\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flinear_regression_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c8e7b67ca201.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Ridge regression\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fridge_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_128547d6b579.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Basis regression\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbasis_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_805b72a3a665.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Radial basis regression\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fradial_basis_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_9f251230dfe4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Logistic regression\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flogistic_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_d47c7b443f50.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Cross-entropy method\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fcross_entropy_method.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_673447285460.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Finite difference methods\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Ffinite_difference_methods.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_3a4977db8391.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Simulated annealing\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fsimulated_annealing.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_6833bfe17171.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Twiddle\nSebatian Thrun, *Artificial Intelligence for Robotics*, Udacity, 2012.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Ftwiddle.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c72b1c083122.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Newton's method\nJohn Wallis, *A Treatise of Algebra both Historical and Practical*, 1685.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fnewtons_method.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_30f155494973.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Gaussian process\nMykel J. Kochenderfer and Tim A. Wheeler, *Algorithms for Optimization*, MIT Press, 2019.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgaussian_process.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_1d8d8b4b8ea7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Gaussian process kernels\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgaussian_process_kernels.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_5dd73bae7187.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Thompson sampling\nDaniel J. Russo, Benjamin Van Roy, Abbas Kazerouni, Ian Osband, and Zheng Wen, *A Tutorial on Thompson Sampling*, arXiv:1707.02038, 2020.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fthompson_sampling.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_3c576b2e68c1.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Particle filter\nMykel J. Kochenderfer, Tim A. Wheeler, and Kyle H. Wray, *Algorithms for Decision Making*, Preprint.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fparticle_filter.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_60ed3901757f.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Value iteration\nMykel J. Kochenderfer, Tim A. Wheeler, and Kyle H. Wray, *Algorithms for Decision Making*, Preprint.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fvalue_iteration.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_f569e30ea164.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Branch and bound\nMykel J. Kochenderfer, Tim A. Wheeler, and Kyle H. Wray, *Algorithms for Decision Making*, Preprint.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbranch_and_bound.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_0ec9583eff86.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Monte Carlo tree search\nMykel J. Kochenderfer, Tim A. Wheeler, and Kyle H. Wray, *Algorithms for Decision Making*, Preprint.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmonte_carlo_tree_search.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a47fe6838ec7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Huffman coding\nDavid A. Huffman, *A Method for the Construction of Minimum-Redundancy Codes*, IEEE, 1952.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fhuffman_coding.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_b7f60ed3af4e.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Hailstone sequence (Collatz conjecture)\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fhailstone.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a9bcad686c4b.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Bubble sort\nKarey Shi, *Design and Analysis of Algorithms*, Stanford University, 2020.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbubble_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_491144103404.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Merge sort\nKarey Shi, *Design and Analysis of Algorithms*, Stanford University, 2020.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmerge_sort.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_936a54244ea1.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Insertion sort\nKarey Shi, *Design and Analysis of Algorithms*, Stanford University, 2020.\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Finsertion_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_bd58e381d8ea.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Bogo sort\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbogo_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_63391dc63072.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n##### Bogo sort (one-liner)\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbogo_sort!_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_00b337672b30.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Quine\nNathan Daly, *Julia Discord*, 2019.\u003Csup>\u003Ca href=\"https:\u002F\u002Fdiscourse.julialang.org\u002Ft\u002Fquines-and-loons-self-replicating-programs\u002F12607\u002F7\" target=\"_blank\">2\u003C\u002Fa>\u003C\u002Fsup>\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fquine.jl\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_def3f0d73b80.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n---\n\nWritten by [Robert Moss](https:\u002F\u002Fgithub.com\u002Fmossr).\n","# BeautifulAlgorithms.jl\n[![构建状态](https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Factions)\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgithub\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fcoverage.svg?branch=master)](https:\u002F\u002Fcodecov.io\u002Fgh\u002Fmossr\u002FBeautifulAlgorithms.jl)\n\n用 Julia 编写的简洁算法，并使用 [Carbon](https:\u002F\u002Fcarbon.now.sh\u002F) 进行格式化。\n\n适用于机器学习、优化、强化学习、在线规划、不确定性下的决策以及排序的算法。所有实现均可运行且自包含；请参阅 [测试用例](.\u002Ftest\u002F)。\n\n> _请注意，这些算法主要用于学术目的，并非为实际应用而设计。有许多其他 Julia 包实现了更为稳健的版本。_\n\n```julia\n] add http:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\n```\n\n- [梯度下降](#gradient-descent)\n- [随机梯度下降](#stochastic-gradient-descent)\n- [两层神经网络](#two-layer-neural-network)\n    - [两层神经网络（一行代码）](#two-layer-neural-network-one-liner)\n- [多层神经网络](#multi-layer-neural-network)\n- [损失函数](#loss-functions)\n- [距离函数](#distance-functions)\n- [最近邻](#nearest-neighbor)\n- [K近邻](#k-nearest-neighbors)\n- [K均值聚类](#k-means-clustering)\n- [EM 算法](#the-em-algorithm)\n- [线性回归](#linear-regression)\n    - [线性回归（一行代码）](#linear-regression-one-liner)\n- [岭回归](#ridge-regression)\n- [基函数回归](#basis-regression)\n- [径向基函数回归](#radial-basis-regression)\n- [逻辑回归](#logistic-regression)\n- [交叉熵方法](#cross-entropy-method)\n- [有限差分方法](#finite-difference-methods)\n- [模拟退火](#simulated-annealing)\n- [Twiddle](#twiddle)\n- [牛顿法](#newtons-method)\n- [高斯过程](#gaussian-process)\n    - [高斯过程核函数](#gaussian-process-kernels)\n- [汤普森采样](#thompson-sampling)\n- [粒子滤波](#particle-filter)\n- [值迭代](#value-iteration)\n- [分支定界法](#branch-and-bound)\n- [蒙特卡洛树搜索](#monte-carlo-tree-search)\n- [霍夫曼编码](#huffman-coding)\n- [冰雹序列（角谷猜想）](#hailstone-sequence-collatz-conjecture)\n- [冒泡排序](#bubble-sort)\n- [归并排序](#merge-sort)\n- [插入排序](#insertion-sort)\n- [博戈排序](#bogo-sort)\n    - [博戈排序（一行代码）](#bogo-sort-one-liner)\n- [Quine](#quine)\n\n*注：算法均基于原始来源进行了修改。*\n\n## 梯度下降\nPercy Liang 和 Dorsa Sadigh，《人工智能：原理与技术》，斯坦福大学，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgradient_descent.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_900086ccda9f.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 随机梯度下降\nPercy Liang 和 Dorsa Sadigh，《人工智能：原理与技术》，斯坦福大学，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fstochastic_gradient_descent.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_58d35afc2c69.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 两层神经网络\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fneural_network.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_9bbff619b17c.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n##### 两层神经网络（一行代码）\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fneural_network_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_38141de8bab4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 多层神经网络\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmulti_layer_neural_network.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_59cbd603249d.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 损失函数\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Floss_functions.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a9fb826a0dd9.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 距离函数\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fdistance_functions.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_125bf0582f76.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 最近邻\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fnearest_neighbor.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c5d0cc387905.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## K近邻\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fk_nearest_neighbors.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_1e196f71dbf4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## K均值聚类\nPercy Liang 和 Dorsa Sadigh，《人工智能：原理与技术》，斯坦福大学，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fk_means_clustering.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_47f557ea5072.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## EM 算法\nAndrew Ng，《高斯混合模型与 EM 算法》，斯坦福大学，2020 年。\u003Csup>\u003Ca href=\"http:\u002F\u002Fcs229.stanford.edu\u002Fnotes2020spring\u002Fcs229-notes7b.pdf\">1\u003C\u002Fa>\u003C\u002Fsup>\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fem_algorithm.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_e5fb4cdbecc9.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 线性回归\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。（感谢 [@HenriDeh](https:\u002F\u002Fgithub.com\u002FHenriDeh) 提供 `ones` 的使用权）\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flinear_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_590ec2c5b2d7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n##### 线性回归（一行代码）\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flinear_regression_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c8e7b67ca201.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 岭回归\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fridge_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_128547d6b579.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 基函数回归\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbasis_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_805b72a3a665.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 径向基函数回归\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fradial_basis_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_9f251230dfe4.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 逻辑回归\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Flogistic_regression.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_d47c7b443f50.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 跨熵方法\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fcross_entropy_method.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_673447285460.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 有限差分方法\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Ffinite_difference_methods.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_3a4977db8391.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 模拟退火\nMykel J. Kochenderfer 和 Tim A. Wheeler，《优化算法》，麻省理工学院出版社，2019 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fsimulated_annealing.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_6833bfe17171.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## Twiddle\nSebatian Thrun，《机器人人工智能》，Udacity，2012 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Ftwiddle.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_c72b1c083122.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 牛顿法\nJohn Wallis，《代数论：历史与实践》，1685 年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fnewtons_method.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_30f155494973.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n## 高斯过程\n迈克尔·J·科亨德费尔和蒂姆·A·惠勒，《优化算法》，麻省理工学院出版社，2019年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgaussian_process.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_1d8d8b4b8ea7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 高斯过程核函数\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fgaussian_process_kernels.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_5dd73bae7187.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 汤普森采样\n丹尼尔·J·鲁索、本杰明·范·罗伊、阿巴斯·卡泽鲁尼、伊恩·奥斯班德和郑文，《汤普森采样的教程》，arXiv:1707.02038，2020年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fthompson_sampling.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_3c576b2e68c1.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 粒子滤波器\n迈克尔·J·科亨德费尔、蒂姆·A·惠勒和凯尔·H·雷，《决策算法》，预印本。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fparticle_filter.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_60ed3901757f.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 值迭代\n迈克尔·J·科亨德费尔、蒂姆·A·惠勒和凯尔·H·雷，《决策算法》，预印本。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fvalue_iteration.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_f569e30ea164.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 分支定界法\n迈克尔·J·科亨德费尔、蒂姆·A·惠勒和凯尔·H·雷，《决策算法》，预印本。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbranch_and_bound.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_0ec9583eff86.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 蒙特卡洛树搜索\n迈克尔·J·科亨德费尔、蒂姆·A·惠勒和凯尔·H·雷，《决策算法》，预印本。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmonte_carlo_tree_search.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a47fe6838ec7.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 霍夫曼编码\n大卫·A·霍夫曼，《构造最小冗余码的方法》，IEEE，1952年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fhuffman_coding.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_b7f60ed3af4e.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 冰雹序列（考拉茨猜想）\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fhailstone.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_a9bcad686c4b.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 冒泡排序\n卡蕾·希，《算法设计与分析》，斯坦福大学，2020年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbubble_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_491144103404.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 归并排序\n卡蕾·希，《算法设计与分析》，斯坦福大学，2020年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fmerge_sort.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_936a54244ea1.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 插入排序\n卡蕾·希，《算法设计与分析》，斯坦福大学，2020年。\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Finsertion_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_bd58e381d8ea.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 蛮力排序\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbogo_sort!.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_63391dc63072.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n##### 蛮力排序（一行代码实现）\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fbogo_sort!_one_liner.jl\"> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_00b337672b30.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n\n## 昆氏程序\n内森·戴利，《Julia Discord》，2019年。\u003Csup>\u003Ca href=\"https:\u002F\u002Fdiscourse.julialang.org\u002Ft\u002Fquines-and-loons-self-replicating-programs\u002F12607\u002F7\" target=\"_blank\">2\u003C\u002Fa>\u003C\u002Fsup>\n\u003Cp align=\"center\">\u003Ca href=\".\u002Fsrc\u002Fquine.jl\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_readme_def3f0d73b80.png\">\u003C\u002Fa>\u003C\u002Fp>\n\n---\n\n由[罗伯特·莫斯](https:\u002F\u002Fgithub.com\u002Fmossr)撰写。","# BeautifulAlgorithms.jl 快速上手指南\n\nBeautifulAlgorithms.jl 是一个用 Julia 编写的算法集合，涵盖了机器学习、优化、强化学习、决策规划及排序等领域。该库代码简洁优美，主要用于**学术研究和教学演示**，旨在展示算法的核心逻辑，而非用于生产环境的高性能计算。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **前置依赖**：已安装 **Julia** (推荐版本 1.6 及以上)\n    *   下载地址：[https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F](https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F)\n    *   国内用户可参考清华源镜像加速下载：[https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fjulia-releases\u002F](https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fjulia-releases\u002F)\n\n## 安装步骤\n\n1.  打开终端（Terminal）或命令行工具，输入 `julia` 启动 Julia REPL 交互界面。\n2.  进入包管理模式（提示符由 `julia>` 变为 `pkg>`），输入右方括号 `]`。\n3.  执行以下命令直接从 GitHub 仓库添加该包：\n\n```julia\n] add http:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\n```\n\n4.  安装完成后，按 `Backspace` 键退出包管理模式，返回 `julia>` 提示符。\n\n## 基本使用\n\n该库中的每个算法都是独立且自包含的。您可以直接在 REPL 中导入并使用，或者查看源码文件进行学习和修改。\n\n### 示例：使用梯度下降 (Gradient Descent)\n\n以下是最简单的使用流程，演示如何加载包并查看梯度下降算法的实现逻辑：\n\n```julia\n# 1. 引入包\nusing BeautifulAlgorithms\n\n# 2. 查看特定算法的源码 (以梯度下降为例)\n# 这将直接在 REPL 中打印出该算法的简洁实现代码\nprintln(BeautifulAlgorithms.gradient_descent)\n\n# 3. 运行算法 (具体调用方式需参考对应源码文件的函数签名)\n# 注意：由于这是教学用库，建议先阅读 .\u002Fsrc\u002Fgradient_descent.jl 了解输入参数格式\n```\n\n### 探索其他算法\n\n库中包含了大量经典算法，您可以通过浏览源码目录或直接调用名称来探索：\n\n*   **机器学习**: `two_layer_neural_network`, `k_means_clustering`, `linear_regression`\n*   **优化算法**: `simulated_annealing`, `newtons_method`, `cross_entropy_method`\n*   **决策与规划**: `monte_carlo_tree_search`, `value_iteration`, `particle_filter`\n*   **基础排序**: `bubble_sort!`, `merge_sort`, `huffman_coding`\n\n> **提示**：所有算法的具体实现代码均位于 `src\u002F` 目录下，且配有精美的代码截图。由于本库侧重于代码的“美观”与“简洁”，部分函数可能以单行形式（one-liner）呈现，非常适合用于理解算法本质。","一位高校人工智能课程的讲师正在准备关于“梯度下降与神经网络原理”的教学演示，希望向学生直观展示算法核心逻辑而非工程细节。\n\n### 没有 BeautifulAlgorithms.jl 时\n- 教师不得不从工业级深度学习框架（如 Flux.jl 或 PyTorch）中剥离代码，但厚重的封装层掩盖了数学公式，学生难以理解底层推导。\n- 为了演示清晰的算法流程，需要手动重写简化版代码，不仅耗时费力，还容易因手写错误导致教学演示失败。\n- 缺乏统一、美观的代码展示格式，课件中的代码截图风格杂乱，降低了教材的专业度和可读性。\n- 现有的学术示例往往分散在不同仓库中，格式不一且依赖复杂环境，课堂现场调试风险极高。\n\n### 使用 BeautifulAlgorithms.jl 后\n- 直接调用库中预置的“两行式神经网络”或“梯度下降”实现，代码极度精简且完全自包含，完美对应教科书上的数学公式。\n- 无需任何配置即可运行所有算法，内置的测试用例保证了代码的正确性，让教师能专注于讲解逻辑而非排查环境报错。\n- 项目天然支持通过 Carbon 生成高颜值代码图片，一键获得风格统一的精美插图，显著提升课件视觉质量。\n- 涵盖从基础排序到强化学习规划等广泛主题，为不同章节提供了一站式的标准参考实现，极大丰富了教学内容。\n\nBeautifulAlgorithms.jl 将复杂的算法实现转化为简洁优雅的教學利器，让回归算法本质变得触手可及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmossr_BeautifulAlgorithms.jl_900086cc.png","mossr","Robert Moss","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmossr_0815fdfe.jpg","Co-founder and CEO at Valgo — Stanford CS PhD","Valgo","Stanford University",null,"https:\u002F\u002Frobert-moss.com","https:\u002F\u002Fgithub.com\u002Fmossr",[82],{"name":83,"color":84,"percentage":85},"Julia","#a270ba",100,1425,95,"2026-03-28T07:22:41","","未说明",{"notes":92,"python":93,"dependencies":94},"该工具是基于 Julia 语言编写的算法集合，主要用于学术目的，非生产环境设计。安装需使用 Julia 包管理器执行命令：`] add http:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl`。README 中未明确指定具体的操作系统、GPU、内存或 Julia 版本要求，通常意味着只要安装了标准 Julia 环境即可运行。","不适用 (基于 Julia 语言)",[83],[14],[97,98,99,100,101,102,103,104,105,106],"algorithms","machine-learning","optimization","sorting","quine","julia","reinforcement-learning","decision-making-under-uncertainty","regression","neural-network","2026-03-27T02:49:30.150509","2026-04-12T16:31:07.975300",[110,115,120,125,130],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},30882,"为什么代码生成的图片在某些设备（如 Android 手机）上显示损坏或字符无法渲染？","这是因为原始实现使用了 SVG 格式，而 SVG 在某些移动设备（特别是 Android）上对特定字符的渲染支持不佳。解决方案是将图像格式从 SVG 更改为 PNG。维护者已通过提交 2d2862486aa65098e1d1989571fe912caa3af9fe 修复了此问题，现在使用预生成的 PNG 图像代替 SVG。","https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fissues\u002F2",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},30883,"运行随机梯度下降（Stochastic Gradient Descent）测试时遇到 'UndefVarError: Decay not defined' 错误怎么办？","这通常是因为代码复制粘贴不完整导致的。`Decay` 结构体的定义位于相关操作符重载函数的前一行。确保你的代码中包含以下完整的定义：\n```julia\nmutable struct Decay i end\nBase.:*(δη::Decay, x) = x\u002Fsqrt(δη.i+=1)\n```\n缺少第一行 `mutable struct Decay i end` 会导致该错误。","https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fissues\u002F6",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},30884,"在 Julia 中进行线性代数求解时，应该使用 `pinv` 还是反斜杠运算符 `\\`？","建议优先使用反斜杠运算符 `\\` 代替 `pinv`。`\\` 运算符不仅代码更清晰，而且计算速度更快，数值稳定性也更高。维护者已根据社区建议将项目中所有的 `pinv` 实例替换为了 `\\`。","https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fissues\u002F4",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},30885,"高斯混合模型（GMM）的 EM 算法实现中，为什么要使用显式的 for 循环而不是向量化操作？","该仓库的主要目的是教学，旨在平衡代码的简洁性、教育意义和正确性。虽然向量化写法（如下所示）更高效，但显式的 for 循环有助于初学者理解算法步骤：\n```julia\nfor j in 1:k\n    w[:,j] = pdf.(Ref(MvNormal(μ[j], Σ[j])), x) * ϕ[j]\nend\nw = w .\u002F sum(w[:,j] for j in 1:k)\n```\n这种“丑陋”的实现细节被保留是为了让算法逻辑的“美感”更易于理解。","https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fissues\u002F8",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},30886,"除了价值迭代（Value Iteration），该项目是否计划包含其他动态规划求解算法？","目前维护者没有计划亲自实现更多动态规划算法，但欢迎社区通过 Pull Request (PR) 贡献代码。对于需要更多算法（如策略迭代、线性规划等）的用户，推荐参考《Algorithms for Decision Making》教科书的第 7 章（精确求解方法），特别是算法 7.2、7.7 和 7.8，这是该项目价值迭代算法的来源。","https:\u002F\u002Fgithub.com\u002Fmossr\u002FBeautifulAlgorithms.jl\u002Fissues\u002F1",[]]