[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-dair-ai--ml-visuals":3,"tool-dair-ai--ml-visuals":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":76,"stars":80,"forks":81,"last_commit_at":82,"license":83,"difficulty_score":84,"env_os":85,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":91,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":130},4610,"dair-ai\u002Fml-visuals","ml-visuals","🎨 ML Visuals contains figures and templates which you can reuse and customize to improve your scientific writing.","ml-visuals 是一个专为机器学习社区打造的开源可视化素材库，旨在帮助研究者和开发者轻松制作专业、美观的科研图表。在学术写作和技术分享中，绘制清晰且规范的模型结构图往往耗时费力，而 ml-visuals 提供了超过 100 种由社区贡献的高质量图形模板，涵盖线性回归、神经网络、CNN、RNN、Transformer 等经典架构及核心概念，有效解决了科研人员绘图难、风格不统一的问题。\n\n该项目基于 Google Slides 构建，用户无需安装复杂软件，即可在线浏览、复制和自定义所需图示。所有素材完全免费开放，允许用于论文、博客、演讲等多种场景，只需在引用时注明作者信息即可。其独特的协作模式鼓励全球用户共同贡献新图形，持续丰富内容生态，确保紧跟前沿技术趋势。无论是正在撰写论文的硕博研究生、需要制作技术报告的算法工程师，还是希望提升展示效果的技术讲师，都能从中获益。通过降低科学传播的视觉门槛，ml-visuals 让每个人都能更高效地表达复杂的机器学习思想。","# ML Visuals\n\n📣 Stay tuned for significant updates to both the slides and repository.!!!\n\n📣 In the meantime, [Join our Discord](https:\u002F\u002Fdiscord.gg\u002FSKgkVT8BGJ)\n\n[ML Visuals](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11mR1nkIR9fbHegFkcFq8z9oDQ5sjv8E3JJp1LfLGKuk\u002Fedit?usp=sharing) is a new collaborative effort to help the machine learning community in improving science communication by providing free professional, compelling and adequate visuals and figures. Currently, we have over 100 figures (all open community contributions). You are free to use the visuals in your machine learning presentations or blog posts. You don’t need to ask permission to use any of the visuals but it will be nice if you can provide credit to the designer\u002Fauthor (author information found in the slide notes). Check out the versions of the visuals below. \n\nThis is a project made by the [dair.ai](https:\u002F\u002Fdair.ai\u002F) community. The latest version of the Google slides can be found in this GitHub repository. Our community members will continue to add more common figures and basic elements in upcoming versions. Think of this as free and open artifacts and templates which you can freely and easily download, copy, distribute, reuse and customize to your own needs.\n\nML Visuals is now being used to power 100s of figures used by master\u002FPhD students, papers (like this [one](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.05113)), among other use cases. \n\n## How to Use?\n\nEssentially, we are using Google Slides to maintain all visuals and figures (check the versions below). To add your own custom figures, simply add a new slide and reuse any of the basic visual components (remember to request edit permissions). You can also create your own copy of the slides and customize whatever you like. We encourage authors\u002Fdesigners to add their visuals here and allow others to reuse them. Make sure to include your author information (in the notes section of the slide) so that others can provide credit if they use the visuals elsewhere (e.g. blog\u002Fpresentations). Also, provide a short description of your visual to help the user understand what it is about and how they can use it. If you need \"Edit\" permission, just click on the \"request edit access\" option under the \"view only\" toolbar (in Google Slides) or send me an email at ellfae@gmail.com.\n\nDownloading a figure from any of the slides is easy. Just click on File→Download→(choose your format).\n\nIf you need help with customizing a figure or have an idea of something that could be valuable to others, we can help. Just open an issue [here](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002Fnew) and we will do our best to come up with the visual. Thanks.\n\nFeel free to reach out to me on [Twitter](https:\u002F\u002Ftwitter.com\u002Fomarsar0) for an invite to our Slack group.\n\n## Versions:\n- [Version 1.0](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11mR1nkIR9fbHegFkcFq8z9oDQ5sjv8E3JJp1LfLGKuk\u002Fedit?usp=sharing)\n\n\n## How to Contribute?\n- You can check out our [Project page](https:\u002F\u002Fgithub.com\u002Forgs\u002Fdair-ai\u002Fprojects\u002F8) to see all the ongoing tasks or issues related to this research project. Lookout for the main `ml_visuals` tag. Issues with the `good first issue` tag are good tasks to get started with.\n- You can also just check the [issues tab](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues).\n- You can ask anything related to this project in our Slack group\n- Slack channel: #ml_visuals\n\n**Some ideas for figures to add to the Slides** ([issue](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F14))\n\n- [ ] Linear regression, single-layer neural network\n- [ ] Multilayer Perceptron with hidden layer\n- [ ] Backpropagation\n- [ ] Batch Normalization and alternatives\n- [ ] Computational Graphs\n- [ ] Dropout\n- [ ] CNN - padding, stride, pooling,... \n- [ ] LeNet\n- [ ] AlexNet\n- [ ] VGG\n- [ ] GoogleNet\n- [ ] ResNet\n- [ ] DenseNet\n- [ ] Memory Networks\n- [ ] RNN\n- [ ] Deep RNN\n- [ ] Bidirectional RNN\n- [ ] GRU\n- [ ] LSTM\n- [ ] Language RNN models\n- [ ] Backpropagation through time\n- [ ] Encoder-Decoder Architecture\n- [ ] Seq2seq with RNN encoder-decoder\n- [ ] Bearm search and other decoding strategies\n- [ ] Attention\n- [ ] Multi-head attention\n- [ ] Self-attention\n- [ ] Transformer\n- [ ] Word2vec\u002FGloVe\u002FSkip-gram\u002FCBOW\u002FBERT\u002FGPT....\n- [ ] Common\u002FPopular CV\u002FNLP Tasks\n\nList adopted from multiple resources including [nlpoverview](https:\u002F\u002Fnlpoverview.com\u002Findex.html) and [d2l.ai](https:\u002F\u002Fd2l.ai\u002F) which both contain a very solid syllabus.  \n\n## Examples of Visuals\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_afe846653e9a.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_688ec191d8f0.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_e235cf4df7f1.png)\n","# 机器学习可视化\n\n📣 敬请期待幻灯片和仓库的重大更新！！！\n\n📣 同时，请加入我们的 Discord：[Join our Discord](https:\u002F\u002Fdiscord.gg\u002FSKgkVT8BGJ)\n\n[ML Visuals](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11mR1nkIR9fbHegFkcFq8z9oDQ5sjv8E3JJp1LfLGKuk\u002Fedit?usp=sharing) 是一项新的协作项目，旨在通过提供免费、专业、引人入胜且合适的视觉素材和图表，帮助机器学习社区提升科学传播能力。目前，我们已有超过100张图表（全部由社区成员开源贡献）。您可以自由地在机器学习相关的演示文稿或博客文章中使用这些视觉素材。无需事先获得许可即可使用任何素材，但如果您能在适当的地方注明设计者或作者信息（可在幻灯片备注中找到），我们将不胜感激。请查看下方的各个版本。\n\n该项目由 [dair.ai](https:\u002F\u002Fdair.ai\u002F) 社区发起。最新版的 Google Slides 可以在此 GitHub 仓库中找到。我们的社区成员将在后续版本中继续添加更多常见的图表和基础元素。您可以将此项目视为免费且开放的资源与模板，可随意下载、复制、分发、复用并根据自身需求进行定制。\n\nML Visuals 现已广泛应用于硕士\u002F博士生的报告、论文（例如这篇 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.05113)）以及其他场景中，支持了数百个图表的制作。\n\n## 如何使用？\n\n我们主要使用 Google Slides 来维护所有的视觉素材和图表（请参阅下方版本）。如需添加自定义图表，只需新建一张幻灯片，并重复利用现有的基础视觉组件（记得申请编辑权限）。您也可以创建一份自己的幻灯片副本，按需进行个性化调整。我们鼓励作者和设计师将自己的作品上传至此处，以便他人复用。请务必在幻灯片的备注部分注明您的作者信息，这样其他人在使用这些素材时可以给予适当的署名（例如在博客或演讲中）。此外，还请为您的视觉素材撰写简短说明，帮助用户理解其内容及用途。如果您需要“编辑”权限，只需在 Google Slides 的“仅查看”工具栏中点击“请求编辑权限”，或者发送邮件至 ellfae@gmail.com。\n\n从任意幻灯片中下载图表非常简单：只需点击“文件”→“下载”→选择所需格式即可。\n\n如果您在自定义图表方面需要帮助，或有对他人有价值的创意想法，我们随时乐意协助。请在此处 [提交问题](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002Fnew)，我们将尽力为您设计所需的视觉素材。感谢您的支持！\n\n如需邀请加入我们的 Slack 群组，欢迎随时联系我在 [Twitter](https:\u002F\u002Ftwitter.com\u002Fomarsar0) 上的账号。\n\n## 版本：\n- [版本 1.0](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11mR1nkIR9fbHegFkcFq8z9oDQ5sjv8E3JJp1LfLGKuk\u002Fedit?usp=sharing)\n\n## 如何贡献？\n- 您可以访问我们的 [项目页面](https:\u002F\u002Fgithub.com\u002Forgs\u002Fdair-ai\u002Fprojects\u002F8)，查看与本研究项目相关的所有正在进行的任务或问题。请注意标记为 `ml_visuals` 的议题。带有 `good first issue` 标签的议题非常适合新手入门。\n- 您也可以直接浏览 [issues 标签页](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues)。\n- 如有任何关于本项目的问题，欢迎在我们的 Slack 群组中提问。\n- Slack 频道：#ml_visuals\n\n**待添加到幻灯片中的图表建议** ([issue](https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F14))\n\n- [ ] 线性回归、单层神经网络\n- [ ] 具有隐藏层的多层感知机\n- [ ] 反向传播\n- [ ] 批量归一化及其替代方案\n- [ ] 计算图\n- [ ] Dropout\n- [ ] 卷积神经网络——填充、步幅、池化等\n- [ ] LeNet\n- [ ] AlexNet\n- [ ] VGG\n- [ ] GoogleNet\n- [ ] ResNet\n- [ ] DenseNet\n- [ ] 记忆网络\n- [ ] 循环神经网络\n- [ ] 深度循环神经网络\n- [ ] 双向循环神经网络\n- [ ] GRU\n- [ ] LSTM\n- [ ] 语言模型中的循环神经网络\n- [ ] 时间上的反向传播\n- [ ] 编码器-解码器架构\n- [ ] 基于循环神经网络的编码器-解码器序列到序列模型\n- [ ] 贝叶斯搜索及其他解码策略\n- [ ] 注意力机制\n- [ ] 多头注意力\n- [ ] 自注意力\n- [ ] Transformer\n- [ ] Word2vec\u002FGloVe\u002FSkip-gram\u002FCBOW\u002FBERT\u002FGPT……\n- [ ] 常见\u002F流行的计算机视觉与自然语言处理任务\n\n该列表参考了多个资源，包括 [nlpoverview](https:\u002F\u002Fnlpoverview.com\u002Findex.html) 和 [d2l.ai](https:\u002F\u002Fd2l.ai\u002F)，两者都提供了非常扎实的知识体系。\n\n## 示例视觉素材\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_afe846653e9a.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_688ec191d8f0.png)\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_readme_e235cf4df7f1.png)","# ML Visuals 快速上手指南\n\nML Visuals 是一个由 dair.ai 社区驱动的开源项目，旨在为机器学习研究者提供高质量、可自由使用的演示文稿图表和素材。本项目基于 **Google Slides** 构建，无需安装任何软件环境或依赖库，直接通过浏览器即可使用。\n\n## 环境准备\n\n本项目无传统意义上的系统要求或代码依赖，仅需满足以下条件：\n- **设备**：电脑、平板或手机（推荐电脑端操作以便编辑）。\n- **浏览器**：现代主流浏览器（Chrome, Edge, Firefox, Safari 等）。\n- **账号**：拥有 Google 账号（用于访问和复制幻灯片）。\n- **网络**：能够访问 Google Docs\u002FSlides 服务。\n\n> **注意**：由于 Google 服务在中国大陆地区的访问限制，建议开发者配置科学上网环境或使用合法的跨境加速工具以确保流畅访问。\n\n## 安装步骤\n\n本项目无需执行命令行安装。获取素材的步骤如下：\n\n1. **访问主页**：\n   打开浏览器，访问 ML Visuals 最新版 Google Slides 链接：\n   ```text\n   https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F11mR1nkIR9fbHegFkcFq8z9oDQ5sjv8E3JJp1LfLGKuk\u002Fedit?usp=sharing\n   ```\n\n2. **创建个人副本**（推荐）：\n   - 点击菜单栏的 `File` (文件)。\n   - 选择 `Make a copy` (制作副本)。\n   - 将副本保存到你自己的 Google Drive 中。\n   - *此时你拥有该副本的完全编辑权限，可随意修改。*\n\n3. **申请编辑权限**（可选）：\n   如果你希望直接向官方仓库贡献新图表，可在原链接点击右上角的 `Request edit access` (请求编辑权限)，或发送邮件至 `ellfae@gmail.com` 申请。\n\n## 基本使用\n\n### 1. 下载单个图表\n如果你只需要在论文或博客中使用某一张图：\n- 在幻灯片中选中目标图表元素。\n- 点击菜单栏 `File` → `Download`。\n- 选择所需格式（推荐 `PNG image` 或 `SVG image` 以获得高清矢量图）。\n- 图片将自动下载到本地。\n\n### 2. 自定义与组合\n如果你需要制作新的架构图或流程图：\n- 打开你之前创建的 **副本** (`Make a copy`)。\n- 新建一张空白幻灯片 (`Slide` → `New slide`)。\n- 从现有的幻灯片中复制基础的视觉组件（如神经网络层、数据流箭头、图标等）。\n- 粘贴到新幻灯片中，利用 Google Slides 的工具进行排列、变色、添加文字。\n- 完成后，按照“下载单个图表”的步骤导出最终成果。\n\n### 3. 引用规范\n虽然免费使用且无需事先许可，但作者建议在博客、论文或演示文稿中注明素材来源及原始设计者信息（设计者姓名通常位于幻灯片备注栏 `Slide notes` 中），以示尊重。\n\n### 4. 参与贡献\n如果你有新的图表创意或想提交作品：\n- 访问 GitHub Issues 页面查看待办任务：\n  ```text\n  https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\n  ```\n- 寻找标记为 `good first issue` 的任务开始贡献。\n- 加入社区 Discord 或 Slack (`#ml_visuals` 频道) 进行交流。","一位机器学习博士生正在撰写关于新型 Transformer 变体的论文，急需绘制清晰、专业的模型架构图以投稿顶级会议。\n\n### 没有 ml-visuals 时\n- **绘图耗时极长**：需要使用 PowerPoint 或 Illustrator 从零绘制每一个神经网络层级、注意力机制箭头和数学符号，往往花费数天时间反复调整对齐与样式。\n- **视觉风格不统一**：不同章节的插图由不同工具拼凑而成，线条粗细、配色方案和字体风格杂乱，严重降低论文的专业度。\n- **复用性差且易出错**：修改模型结构（如增加一层隐藏层）时，需手动重画整个流程图，极易出现连接错误或比例失调。\n- **缺乏社区标准参考**：难以找到符合学术界主流审美的高质量模板，导致图表表达力不足，审稿人可能因图示不清而误解核心创新点。\n\n### 使用 ml-visuals 后\n- **极速构建图表**：直接从 Google Slides 模板库中复制现成的 Transformer、LSTM 或 CNN 组件，几分钟内即可组装出复杂的模型架构全景图。\n- **风格专业统一**：所有素材均遵循一致的学术设计规范，配色科学、线条流畅，确保全文插图呈现出出版级的高水准视觉效果。\n- **灵活定制与迭代**：基于模块化组件自由调整网络深度或数据流向，修改结构如同搭积木般简单，大幅降低维护成本。\n- **获得社区背书**：采用已被多篇顶会论文引用的通用视觉语言，不仅提升可读性，更让审稿人迅速理解模型细节，减少沟通成本。\n\nml-visuals 将研究人员从繁琐的绘图中解放出来，让他们能专注于算法创新本身，用世界级的视觉表达讲好科学故事。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdair-ai_ml-visuals_afe84665.png","dair-ai","DAIR.AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdair-ai_38e7eafe.png","Democratizing Artificial Intelligence Research, Education, and Technologies",null,"dair_ai","https:\u002F\u002Fwww.dair.ai\u002F","https:\u002F\u002Fgithub.com\u002Fdair-ai",17053,1557,"2026-04-06T15:22:40","MIT",1,"","未说明",{"notes":88,"python":86,"dependencies":89},"该工具并非传统软件库，无需安装运行环境。它是一套基于 Google Slides 的机器学习可视化模板集合。用户只需拥有 Google 账号即可在浏览器中访问、复制、编辑和下载图表（支持多种图片格式）。主要用途是为论文、博客或演示文稿提供素材，不涉及本地代码执行、GPU 加速或 Python 依赖安装。",[],[14,35],[92,93,94,95,96],"machine-learning","deep-learning","natural-language-processing","artificial-intelligence","design","2026-03-27T02:49:30.150509","2026-04-07T06:15:01.523988",[100,105,110,115,120,125],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},20961,"如何在论文或文章中引用此项目的可视化内容？","如果您直接使用了未修改的图表，建议查找原始作者（幻灯片中的信息）并注明转载自原论文\u002F作者。如果您自定义了图表或仅使用了形状模块，由于本项目采用 MIT 许可证完全开放免费，您无需担心引用问题，可以直接使用而无需特别注明。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F2",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},20962,"下载的 PPTX 文件无法用 Microsoft PowerPoint 打开，提示文件损坏怎么办？","这通常是由于网络传输导致文件下载不完整。在中国大陆（PRC）地区的用户尝试使用 VPN 进行下载，通常可以解决文件损坏问题并成功打开最新版本的文件。维护者确认导出功能正常，问题多源于下载过程。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F23",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},20963,"项目仓库中看起来是空的，找不到任何工程文件怎么办？","该项目主要提供机器学习可视化的素材（如 Google Slides\u002FPPT 文件），而非传统的代码工程。如果看不到内容，请检查是否查看了正确的分支或发布版本（Releases），通常资源以幻灯片文件或图片形式提供，而非源代码目录结构。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F8",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},20964,"如何绘制项目中特定的图表（例如第 31 页的折线图）？使用了什么工具？","项目中的图表通常是在 Google Slides 或 PowerPoint 中直接绘制的。如果遇到特定图表不知如何绘制，建议截图并在社区提问以获取具体指导。大部分图形是利用演示软件自带的形状和绘图工具组合而成，并非通过代码生成。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F6",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},20965,"为什么下载的文件打开后显示内容为空或无法登录？","这种情况通常与网络连接或权限有关。请确保您已正确访问项目的 Releases 页面下载最新资源，而不是直接克隆代码仓库（因为资源文件可能较大未存入主分支）。如果是在线链接无法打开，可能需要检查网络环境或谷歌服务的可用性。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F10",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},20966,"项目是否包含多层感知机（MLP）或单层神经网络的可视化素材？","是的，社区用户已确认项目包含多层感知机（Multilayer Perceptron）和单层神经网络（single-layer neural network）的相关可视化模块。您可以在提供的幻灯片文件中搜索相关关键词找到对应的图形表示和向量形状。","https:\u002F\u002Fgithub.com\u002Fdair-ai\u002Fml-visuals\u002Fissues\u002F68",[]]