[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-FluxML--model-zoo":3,"tool-FluxML--model-zoo":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":72,"owner_website":76,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":10,"env_os":87,"env_gpu":88,"env_ram":87,"env_deps":89,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":135},4705,"FluxML\u002Fmodel-zoo","model-zoo","Please do not feed the models","Flux Model Zoo 是 Flux 机器学习库的官方开源模型库，汇集了涵盖计算机视觉、自然语言处理及强化学习等多个领域的实战示例。它主要解决了开发者在入门深度学习或尝试新架构时，缺乏高质量、可运行参考代码的痛点，让用户能直接复用这些经过验证的模型作为自己项目的起点。\n\n该资源特别适合 Julia 语言的初学者、AI 研究人员以及希望快速原型验证的开发者使用。其核心亮点在于每个模型都配置了独立的 Julia 项目环境，通过简单的命令即可自动安装精确匹配的历史依赖包，有效避免了常见的版本冲突问题。此外，大多数示例默认支持 NVIDIA GPU 加速，并提供了基于 Gitpod 的云端开发入口，用户无需本地配置复杂环境即可直接在浏览器中运行和实验代码。社区鼓励用户贡献新模型或完善文档，共同维护一个简洁、清晰且易于理解的学习生态。","\u003Cimg align=\"right\" width=\"200px\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFluxML_model-zoo_readme_caad77bcf0ed.png\">\n\n# Flux Model Zoo\n\nThis repository contains various demonstrations of the [Flux](http:\u002F\u002Ffluxml.github.io\u002F) machine learning library. Any of these may freely be used as a starting point for your own models.\n\nThe models are broadly categorised into the folders [vision](\u002Fvision) (e.g. large convolutional neural networks (CNNs)), [text](\u002Ftext) (e.g. various recurrent neural networks (RNNs) and natural language processing (NLP) models), [games](\u002Fcontrib\u002Fgames) (Reinforcement Learning \u002F RL). See the READMEs of respective models for more information.\n\n## Usage\n\nEach model comes with its own [Julia project](https:\u002F\u002Fpkgdocs.julialang.org\u002Fv1\u002Fenvironments\u002F#Using-someone-else's-project). To use this, open Julia in the project folder, and enter\n\n```julia\nusing Pkg; Pkg.activate(\".\"); Pkg.instantiate()\n```\n\nThis will install all needed packages, at the exact versions when the model was last updated. Then you can run the model code with `include(\"\u003Cmodel-to-run>.jl\")`, or by running the model script line-by-line.\n\nModels may also be run with NVIDIA GPU support, if you have a CUDA installed. Most models will have this capability by default, pointed at by calls to `gpu` in the model code.\n\n### Gitpod Online IDE\n\nEach model can be used in [Gitpod](https:\u002F\u002Fwww.gitpod.io\u002F), just [open the repository by gitpod](https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo)\n\n* Based on [Gitpod's policies](https:\u002F\u002Fwww.gitpod.io\u002Fpricing\u002F), free access is limited.\n* All of your work will place in the Gitpod's cloud.\n* It isn't an officially maintained feature.\n\n## Contributing\n\nWe welcome contributions of new models and documentation. \n\n### Share a new model\n\nIf you want to share a new model, we suggest you follow these guidelines:\n\n* Models should be in a folder with a project and manifest file to pin all relevant packages.\n* Models should include a README(.md) to explain what the model is about, how to run it, and what results it achieves (if applicable).\n* Models should ideally be CPU\u002FGPU agnostic and not depend directly on GPU functionality.\n* Please keep the code short, clean, and self-explanatory, with as little boilerplate as possible.\n\n### Create or improve documentation\n\nYou can contribute in one of the following ways \n\n* Add or improve documentation to existing models: Write the following information:\n  * Give a brief introduction to the model’s architecture and the goal it archives.\n  * Describe the Flux API that the model demonstrates (high-level API, AD, custom operations, custom layers, etc.).\n  * Add literature background for the model. More specifically, add articles, blog posts, videos, and any other resource that is helpful to better understand the model.\n  * Mention the technique that is being demonstrated. Briefly describe the learning technique being demonstrated (Computer vision, regression, NLP, time series, etc.).\n* Write in-depth tutorials for a model: You can further extend the documentation of a model and create a tutorial to explain in more detail the architecture, the training routine, use your own data, and so forth. After you write a tutorial, create a PR with it for the [Tutorials](https:\u002F\u002Ffluxml.ai\u002Ftutorials\u002F) section on the [FluxML](https:\u002F\u002Ffluxml.ai\u002F) website.\n\n### Update a model\n\nEach example lists the version of Flux for which it was most recently updated.\nBringing them up to the latest is a great way to learn!\nFlux has a [NEWS page](https:\u002F\u002Fgithub.com\u002FFluxML\u002FFlux.jl\u002Fblob\u002Fmaster\u002FNEWS.md) listing important changes.\n(For other packages, see their releses page: [MLUtils](https:\u002F\u002Fgithub.com\u002FJuliaML\u002FMLUtils.jl\u002Freleases), [MLDatasets](https:\u002F\u002Fgithub.com\u002FJuliaML\u002FMLDatasets.jl\u002Freleases), etc.)\n\nTo run the old examples, Flux v0.11 can be installed and run on [Julia 1.6, the LTS version](https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F#long_term_support_release).\nFlux v0.12 works on Julia 1.8.\nFlux v0.14 is the latest right now, this and v0.13 are marked with ☀️; models upgraded to use  \nexplicit gradients (v0.13.9+ or v0.14) have a `+`.\n\n## Examples in the Model Zoo\n\n**Vision**\n* MNIST\n  * [Simple multi-layer perceptron](vision\u002Fmlp_mnist) ☀️ v0.13 +\n  * [Simple ConvNet (LeNet)](vision\u002Fconv_mnist) ☀️ v0.14\n  * [Variational Auto-Encoder](vision\u002Fvae_mnist) ☀️ v0.13 +\n  * [Deep Convolutional Generative Adversarial Networks](vision\u002Fdcgan_mnist) ☀️ v0.13 +\n  * [Conditional Deep Convolutional Generative Adversarial Networks](vision\u002Fcdcgan_mnist) ☀️ v0.13\n  * [Score-Based Generative Modeling (Diffusion Model)](vision\u002Fdiffusion_mnist) ☀️ v0.13\n  * [Spatial Transformer](vision\u002Fspatial_transformer) ☀️ v0.13 +\n* CIFAR10\n  * [VGG 16\u002F19](vision\u002Fvgg_cifar10) ☀️ v0.13 +\n  * [ConvMixer \"Patches are all you need?\"](vision\u002Fconvmixer_cifar10\u002F) ☀️ v0.13\n\n**Text**\n* [CharRNN](text\u002Fchar-rnn) ☀️ v0.13 +\n* [NanoGPT](text\u002Fnanogpt) ☀️ v0.14\n* [Character-level language detection](text\u002Flang-detection) ☀️ v0.13 +\n* [Seq2Seq phoneme detection on CMUDict](text\u002Fphonemes) ⛅️ v0.11\n* [Recursive net on IMDB sentiment treebank](text\u002Ftreebank) ⛅️ v0.11\n\n**Other** & contributed models\n* [Logistic Regression Iris](other\u002Firis\u002Firis.jl) ☀️ v0.13 +\n* [Autoregressive Model](other\u002Fautoregressive-process\u002F) ☀️ v0.13 +\n* [BitString Parity Challenge](other\u002Fbitstring-parity) ⛅️ v0.11\n* [MLP on housing data](other\u002Fhousing\u002F) (low level API) ⛅️ v0.11\n* [FizzBuzz](other\u002Ffizzbuzz\u002Ffizzbuzz.jl) ☀️ v0.13 +\n* [Meta-Learning](contrib\u002Fmeta-learning\u002FMetaLearning.jl) ❄️ v0.7\n* [Speech recognition](contrib\u002Faudio\u002Fspeech-blstm) ❄️ v0.6\n\n**Tutorials**\n* [A 60 Minute Blitz](tutorials\u002F60-minute-blitz\u002F60-minute-blitz.jl) ⛅️ v0.11\n* [DataLoader example with image data](tutorials\u002Fdataloader) ⛅️ v0.11\n* [Transfer Learning](tutorials\u002Ftransfer_learning\u002Ftransfer_learning.jl) ☀️ v0.13 +\n\n## Examples Elsewhere\n\n**MLJFlux** is a bridge to [MLJ.jl](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl), a package for mostly non-neural-network machine learning. They have some examples of interest, which like the model zoo's examples, each include a local Project & Manifest file:\n\n* [Iris](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Firis) ⛅️ v0.11\n* [Boston](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Fboston) ⛅️ v0.11\n* [MNIST](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Fmnist) ⛅️ v0.11\n","\u003Cimg align=\"right\" width=\"200px\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFluxML_model-zoo_readme_caad77bcf0ed.png\">\n\n# Flux 模型 zoo\n\n本仓库包含了 [Flux](http:\u002F\u002Ffluxml.github.io\u002F) 机器学习库的各种示例。这些示例均可自由用作您构建模型的起点。\n\n模型大致被分类到以下文件夹中：[vision](\u002Fvision)（例如大型卷积神经网络 CNN）、[text](\u002Ftext)（例如各种循环神经网络 RNN 和自然语言处理 NLP 模型）、[games](\u002Fcontrib\u002Fgames)（强化学习 RL）。更多详细信息请参阅各模型的 README 文件。\n\n## 使用方法\n\n每个模型都自带一个 [Julia 项目](https:\u002F\u002Fpkgdocs.julialang.org\u002Fv1\u002Fenvironments\u002F#Using-someone-else's-project)。要使用它，请在项目文件夹中打开 Julia，并输入以下命令：\n\n```julia\nusing Pkg; Pkg.activate(\".\"); Pkg.instantiate()\n```\n\n这将安装所有必要的包，并且版本与模型上次更新时完全一致。之后，您可以使用 `include(\"\u003Cmodel-to-run>.jl\")` 运行模型代码，或者逐行执行模型脚本。\n\n如果已安装 CUDA，模型也可以在 NVIDIA GPU 上运行。大多数模型默认具备此功能，通过模型代码中的 `gpu` 调用来启用。\n\n### Gitpod 在线 IDE\n\n每个模型都可以在 [Gitpod](https:\u002F\u002Fwww.gitpod.io\u002F) 中使用，只需 [通过 Gitpod 打开仓库](https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo) 即可。\n\n* 根据 [Gitpod 的政策](https:\u002F\u002Fwww.gitpod.io\u002Fpricing\u002F)，免费访问是有限制的。\n* 您的所有工作都将保存在 Gitpod 的云端。\n* 这并非官方维护的功能。\n\n## 贡献\n\n我们欢迎新模型和文档的贡献。\n\n### 分享新模型\n\n如果您想分享一个新模型，建议遵循以下指南：\n\n* 模型应放置在一个包含项目文件和 manifest 文件的文件夹中，以固定所有相关依赖包的版本。\n* 模型应包含一个 README(.md) 文件，说明模型的作用、如何运行以及可能取得的结果（如适用）。\n* 模型最好能够同时支持 CPU 和 GPU，不应直接依赖 GPU 功能。\n* 请保持代码简洁、清晰且易于理解，尽量减少冗余代码。\n\n### 创建或改进文档\n\n您可以通过以下方式参与贡献：\n\n* 为现有模型添加或改进文档：撰写以下内容：\n  * 简要介绍模型的架构及其目标。\n  * 描述模型所演示的 Flux API（高级 API、自动微分、自定义操作、自定义层等）。\n  * 添加该模型的相关文献背景，例如论文、博客文章、视频等有助于更好地理解模型的资源。\n  * 提及所演示的技术类型，简要说明其所属的学习领域（计算机视觉、回归、NLP、时间序列等）。\n* 为某个模型编写深入教程：您可以进一步扩展模型的文档，创建一个教程来更详细地解释模型的架构、训练流程、使用自定义数据等内容。完成教程后，将其作为 PR 提交至 [FluxML](https:\u002F\u002Ffluxml.ai\u002F) 官网的 [Tutorials](https:\u002F\u002Ffluxml.ai\u002Ftutorials\u002F) 版块。\n\n### 更新模型\n\n每个示例都会列出其最近一次更新所使用的 Flux 版本。将其更新到最新版本是很好的学习方式！Flux 有一个 [NEWS 页面](https:\u002F\u002Fgithub.com\u002FFluxML\u002FFlux.jl\u002Fblob\u002Fmaster\u002FNEWS.md)，列出了重要的变更记录。\n\n（对于其他包，请查看其发布页面：[MLUtils](https:\u002F\u002Fgithub.com\u002FJuliaML\u002FMLUtils.jl\u002Freleases)、[MLDatasets](https:\u002F\u002Fgithub.com\u002FJuliaML\u002FMLDatasets.jl\u002Freleases) 等。）\n\n要运行旧版本的示例，可以安装 Flux v0.11 并在 [Julia 1.6 LTS 版本](https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F#long_term_support_release) 上运行。Flux v0.12 则适用于 Julia 1.8。目前最新的版本是 Flux v0.14，v0.13 和 v0.14 都标有 ☀️；升级到使用显式梯度的模型（v0.13.9+ 或 v0.14）会带有 `+` 标记。\n\n## 模型 zoo 中的示例\n\n**视觉**\n* MNIST\n  * [简单多层感知器](vision\u002Fmlp_mnist) ☀️ v0.13 +\n  * [简单 ConvNet (LeNet)](vision\u002Fconv_mnist) ☀️ v0.14\n  * [变分自编码器](vision\u002Fvae_mnist) ☀️ v0.13 +\n  * [深度卷积生成对抗网络](vision\u002Fdcgan_mnist) ☀️ v0.13 +\n  * [条件深度卷积生成对抗网络](vision\u002Fcdcgan_mnist) ☀️ v0.13\n  * [基于分数的生成模型（扩散模型）](vision\u002Fdiffusion_mnist) ☀️ v0.13\n  * [空间变换网络](vision\u002Fspatial_transformer) ☀️ v0.13 +\n* CIFAR10\n  * [VGG 16\u002F19](vision\u002Fvgg_cifar10) ☀️ v0.13 +\n  * [ConvMixer “只有 Patch 就够了吗？”](vision\u002Fconvmixer_cifar10\u002F) ☀️ v0.13\n\n**文本**\n* [CharRNN](text\u002Fchar-rnn) ☀️ v0.13 +\n* [NanoGPT](text\u002Fnanogpt) ☀️ v0.14\n* [字符级语言检测](text\u002Flang-detection) ☀️ v0.13 +\n* [基于 CMUDict 的 Seq2Seq 音素检测](text\u002Fphonemes) ⛅️ v0.11\n* [IMDB 情感树库上的递归网络](text\u002Ftreebank) ⛅️ v0.11\n\n**其他**及贡献模型\n* [逻辑回归 Iris](other\u002Firis\u002Firis.jl) ☀️ v0.13 +\n* [自回归模型](other\u002Fautoregressive-process\u002F) ☀️ v0.13 +\n* [BitString 奇偶校验挑战](other\u002Fbitstring-parity) ⛅️ v0.11\n* [住房数据 MLP](other\u002Fhousing\u002F)（低级 API）⛅️ v0.11\n* [FizzBuzz](other\u002Ffizzbuzz\u002Ffizzbuzz.jl) ☀️ v0.13 +\n* [元学习](contrib\u002Fmeta-learning\u002FMetaLearning.jl) ❄️ v0.7\n* [语音识别](contrib\u002Faudio\u002Fspeech-blstm) ❄️ v0.6\n\n**教程**\n* [60 分钟速成教程](tutorials\u002F60-minute-blitz\u002F60-minute-blitz.jl) ⛅️ v0.11\n* [图像数据 DataLoader 示例](tutorials\u002Fdataloader) ⛅️ v0.11\n* [迁移学习](tutorials\u002Ftransfer_learning\u002Ftransfer_learning.jl) ☀️ v0.13 +\n\n## 其他地方的示例\n\n**MLJFlux** 是连接 [MLJ.jl](https:\u002F\u002Fgithub.com\u002Falan-turing-institute\u002FMLJ.jl) 的桥梁，后者是一个主要用于非神经网络机器学习的包。他们也有一些有趣的示例，这些示例与模型 zoo 中的示例一样，都包含本地的 Project 和 Manifest 文件：\n\n* [Iris](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Firis) ⛅️ v0.11\n* [Boston](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Fboston) ⛅️ v0.11\n* [MNIST](https:\u002F\u002Fgithub.com\u002FFluxML\u002FMLJFlux.jl\u002Ftree\u002Fdev\u002Fexamples\u002Fmnist) ⛅️ v0.11","# Flux Model Zoo 快速上手指南\n\nFlux Model Zoo 是 [Flux](http:\u002F\u002Ffluxml.github.io\u002F) 机器学习库的官方示例仓库，涵盖了计算机视觉、自然语言处理、强化学习等多个领域的模型实现。本指南将帮助你快速在本地运行这些示例。\n\n## 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows。\n*   **Julia 版本**：\n    *   推荐安装 **Julia 1.8** 或更高版本（适用于标记为 ☀️ v0.12\u002Fv0.13\u002Fv0.14 的最新模型）。\n    *   部分旧模型可能需要 **Julia 1.6** (LTS)。\n    *   下载地址：[Julia 官网](https:\u002F\u002Fjulialang.org\u002Fdownloads\u002F)\n*   **GPU 支持（可选）**：\n    *   若需使用 NVIDIA GPU 加速，请预先安装适配你显卡驱动的 **CUDA Toolkit**。\n    *   大多数模型代码中包含 `gpu` 调用，检测到 CUDA 后会自动启用 GPU 加速。\n\n## 安装步骤\n\nFlux Model Zoo 中的每个模型都是一个独立的 Julia 项目。你无需全局安装所有依赖，只需进入具体模型目录激活其专属环境即可。\n\n1.  **克隆仓库**\n    打开终端，克隆 model-zoo 仓库到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo.git\n    cd model-zoo\n    ```\n\n2.  **选择并进入模型目录**\n    根据你想运行的模型，进入对应的文件夹。例如，运行一个简单的 MNIST 多层感知机：\n    ```bash\n    cd vision\u002Fmlp_mnist\n    ```\n\n3.  **激活环境并安装依赖**\n    在该目录下启动 Julia，并执行以下命令来激活当前项目并安装精确版本的依赖包：\n    ```julia\n    using Pkg; Pkg.activate(\".\"); Pkg.instantiate()\n    ```\n    *注：首次运行时会下载并编译相关包，请耐心等待。国内用户若遇到下载慢的问题，可配置 Julia 的镜像源（如替换 `DEPOT_PATH` 或使用国内镜像站）。*\n\n## 基本使用\n\n环境配置完成后，你可以直接运行模型脚本。\n\n### 运行示例\n\n在已激活环境的 Julia REPL 中，使用 `include` 命令运行主脚本：\n\n```julia\ninclude(\"train.jl\")\n```\n*(注意：不同模型的入口文件名可能不同，如 `main.jl`, `model.jl` 等，请查看该目录下的 README 或文件列表确认具体文件名)*\n\n或者，你也可以逐行复制脚本内容到 REPL 中执行，以便观察每一步的输出和变量状态。\n\n### 在线体验 (Gitpod)\n\n如果你不想在本地配置环境，可以使用 Gitpod 直接在浏览器中运行：\n\n1.  访问 [Gitpod Model Zoo](https:\u002F\u002Fgitpod.io\u002F#https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo)。\n2.  等待环境加载完成。\n3.  在终端中按照上述“安装步骤”和“基本使用”的方法操作。\n\n*提示：Gitpod 免费额度有限，且数据存储在云端，适合快速测试而非长期开发。*\n\n### 模型分类参考\n\n*   **视觉 (Vision)**: `cd vision\u002F\u003Cmodel-name>` (如 CNN, GAN, Diffusion)\n*   **文本 (Text)**: `cd text\u002F\u003Cmodel-name>` (如 RNN, Transformer\u002FNanoGPT)\n*   **其他 (Other)**: `cd other\u002F\u003Cmodel-name>` (如回归，元学习)","一位计算机视觉研究员正试图在 Julia 生态中快速复现一篇关于卷积神经网络（CNN）的最新论文，以验证其在特定医疗影像数据集上的效果。\n\n### 没有 model-zoo 时\n- **环境配置噩梦**：手动排查 Flux 库及其依赖包（如 MLUtils）的版本兼容性，常因版本冲突导致代码无法运行，耗费数小时调试环境。\n- **从零搭建架构**：缺乏标准的 CNN 参考实现，需手写大量样板代码构建基础网络层，容易引入难以察觉的逻辑错误。\n- **硬件加速门槛高**：不清楚如何正确调用 GPU 加速功能，需反复查阅文档修改底层代码以支持 CUDA，增加了开发复杂度。\n- **缺乏最佳实践**：不确定数据预处理和训练循环的标准写法，只能凭经验摸索，导致模型收敛慢或结果不可复现。\n\n### 使用 model-zoo 后\n- **一键还原环境**：直接利用项目文件夹中的 Manifest 文件，通过 `Pkg.instantiate()` 自动安装精确匹配的历史依赖包，分钟级完成环境搭建。\n- **复用成熟架构**：直接从 vision 目录获取经过验证的 CNN 示例代码作为起点，仅需微调输入层即可适配新的医疗影像数据。\n- **原生支持加速**：示例代码默认包含 `gpu` 调用逻辑，只要本地装有 CUDA，即可无缝切换至 GPU 训练，无需额外修改代码。\n- **遵循标准规范**：参考官方整理的清晰结构和注释，快速掌握数据加载与训练的最佳实践，确保实验结果的可复现性与专业性。\n\nmodel-zoo 将研究人员从繁琐的环境配置和基础代码构建中解放出来，使其能专注于核心算法的创新与验证。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFluxML_model-zoo_4112ebc4.png","FluxML","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FFluxML_f11cb376.png","The Elegant Machine Learning Stack",null,"https:\u002F\u002Ffluxml.ai","https:\u002F\u002Fgithub.com\u002FFluxML",[79],{"name":80,"color":81,"percentage":82},"Julia","#a270ba",100,934,330,"2026-03-13T23:48:56","NOASSERTION","未说明","可选。需要 NVIDIA GPU 及已安装的 CUDA 环境以启用 GPU 支持，具体型号和显存大小未说明。",{"notes":90,"python":91,"dependencies":92},"1. 该工具是基于 Julia 语言的 Flux 机器学习库的模型集合，非 Python 项目。\n2. 每个模型都有独立的 Julia 项目环境，需使用 `Pkg.activate(\".\")` 和 `Pkg.instantiate()` 安装对应版本的依赖。\n3. 不同模型依赖不同版本的 Flux (从 v0.6 到 v0.14)，运行前请确认模型对应的版本要求。\n4. 支持通过 Gitpod 在线运行，但免费额度有限且数据存储在云端。","不适用 (该项目基于 Julia 语言)",[93,94,95,96],"Julia (推荐 1.6 LTS, 1.8, 或更新版本)","Flux.jl (v0.7 至 v0.14，视具体模型而定)","MLUtils.jl","MLDatasets.jl",[14],[99,100,101,64,102],"machine-learning","deep-learning","julia","flux","2026-03-27T02:49:30.150509","2026-04-07T08:26:22.765207",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},21395,"在 GPU 上运行 Flux 模型时遇到 'Scalar indexing is disallowed' 错误，如何解决？","该错误通常发生在显卡支持部分 CUDA 功能但不支持 cuDNN 时（例如较旧的 NVIDIA GeForce GT 710）。Flux 的卷积层（Conv layers）依赖 cuDNN 进行加速，如果缺失，代码会尝试回退到 CPU 标量索引，从而触发此错误。\n解决方案：\n1. 确认你的 GPU 是否支持 cuDNN。如果不支持，请移除代码中的 `|> gpu` 调用，仅在 CPU 上运行模型。\n2. 或者使用不包含卷积层的简单模型（如快速入门指南中的模型）来避免此问题。\n3. 如果遇到 'no method matching gemm!' 错误，原因相同，也是由于缺乏完整的 CUDA\u002FcuDNN 支持导致的回退失败。","https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo\u002Fissues\u002F400",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},21396,"如何在训练后加载保存的模型并进行预测？","加载模型并预测的正确步骤如下：\n1. 使用 `@load \"路径\u002F文件名.bson\" 变量名` 加载模型。\n2. 确保输入图像数据的预处理流程与训练时完全一致（包括归一化、reshape 维度、转置等）。\n3. 特别注意维度匹配错误（如 'DimensionMismatch: Rank of x and w must match'），这通常是因为输入图像的维度顺序（例如是否需要 transpose）或批次维度（batch dimension）与模型期望不符。\n示例代码逻辑：\n```julia\nimg = test_data[...] |> Array\nimg = img .\u002F 255  # 归一化\nimg = reshape(img, 28, 28) # 调整形状\nimg = transpose(img)       # 根据模型要求转置\n@load \"runs\u002Fmnist.bson\" model\ny_pred = model(img)        # 注意：可能需要添加批次维度，如 reshape(img, 28, 28, 1, 1)\n```\n如果报错维度不匹配，请检查 `img` 的秩（rank）是否与模型输入层要求的秩一致。","https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo\u002Fissues\u002F313",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},21397,"实现 AlexNet 或其他经典网络时遇到 'DimensionMismatch: Kernel * dilation cannot be larger than input + padding' 错误怎么办？","这个错误意味着卷积核尺寸加上膨胀率超过了输入图像尺寸加上填充。\n调试和解决步骤：\n1. 检查输入图像的尺寸是否正确调整（例如 AlexNet 通常需要较大的输入，如 224x224 或至少满足最小尺寸要求）。\n2. 验证每一层 Conv 和 Pool 的参数（stride, pad, kernel size）是否与输入尺寸兼容。\n3. 使用 `Flux.outputsize` 工具函数来自动计算和验证每一层的输出尺寸，确保数据流通畅。\n示例调试方法：\n```julia\nusing Flux\n# 定义模型结构\nmodel = Chain(...)\n# 测试输入尺寸 (H, W, C, Batch)\ninput_size = (64, 64, 3, 1)\ntry\n    Flux.outputsize(model, input_size)\ncatch e\n    println(\"错误位置：\", e)\nend\n```\n通过逐步检查每一层的输出尺寸，可以定位是哪一层导致了维度不匹配，并相应调整 `pad` 或输入图像大小。","https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo\u002Fissues\u002F334",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21398,"想要贡献强化学习（RL）相关的模型（如 DQN, Actor-Critic），应该放在哪里？","Flux 生态系统中，强化学习算法已被移至独立的仓库维护，不再直接包含在 model-zoo 中。\n如果您想贡献或查找 RL 相关模型（如 AlphaGo, Dueling DQN, Actor-Critic 等），请访问专门的仓库：https:\u002F\u002Fgithub.com\u002Ftejank10\u002FFlux-baselines。\n在提交 PR 之前，建议先在该仓库或相关讨论区确认您的需求是否已被实现或规划。","https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo\u002Fissues\u002F28",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21399,"如何为 GSoC（Google Summer of Code）向 Flux model-zoo 提交项目提案？","提交 GSoC 提案的建议流程：\n1. 在 Issue 中列出您计划实现的具体模型或功能（如 CycleGAN, YOLO-v3, Faster-RCNN 等）。\n2. 标记项目维护者（如 @MikeInnes, @ViralBShah）以确认可行性。\n3. 维护者通常建议专注于一个具体的 PR，将其打磨完善后再合并，而不是同时开启多个大型任务。\n4. 一旦提案获得初步认可，应优先处理反馈，逐个完成并合并 PR。\n注意：过期的 GSoC 相关 Issue 可能会被清理关闭，请关注最新的项目公告。","https:\u002F\u002Fgithub.com\u002FFluxML\u002Fmodel-zoo\u002Fissues\u002F99",{"id":132,"question_zh":133,"answer_zh":134,"source_url":110},21400,"代码示例中发现明显的语法错误（如缺少括号），应该如何修复？","如果您在官方示例代码中发现简单的语法错误（例如末尾缺少右括号 `)`）：\n1. 您可以直接在 GitHub 网页界面上点击文件右上角的“编辑”按钮（铅笔图标）进行修改，无需在本地 fork 整个项目即可提交修复。\n2. 对于不熟悉 Git 流程的用户，这是一个快速贡献的方式。\n3. 修改后提交 Pull Request (PR)，并在描述中说明修复了哪个文件的哪一行。\n维护者非常欢迎此类修正，因为它们能改善文档和示例的质量。参考指南：https:\u002F\u002Fkshyatt.github.io\u002Fpost\u002Ffirstjuliapr\u002F",[]]