[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DFin--Neural-Network-Visualisation":3,"tool-DFin--Neural-Network-Visualisation":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":78,"owner_twitter":79,"owner_website":78,"owner_url":80,"languages":81,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":32,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":115,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":129},6252,"DFin\u002FNeural-Network-Visualisation","Neural-Network-Visualisation","Interactive web visualisation for handwritting detection using a simple neural network","Neural-Network-Visualisation 是一款基于网页的交互式可视化工具，旨在直观展示简单神经网络如何识别手写数字。它解决了深度学习模型内部运作“黑盒化”的难题，让用户能亲眼看到输入数据如何在网络层级间传递、激活并转化为预测结果。\n\n这款工具特别适合教育工作者、学生以及对 AI 原理感兴趣的开发者使用。用户只需在界面上绘制数字，即可实时观察信号在三维多层感知机（MLP）中的传播过程，并查看各类数字的预测概率。其独特的技术亮点在于支持“训练时间轴”回溯：不仅展示最终模型，还记录了从随机初始化到成熟状态的多个训练快照。用户可以像拖动视频进度条一样，动态观察网络随着训练数据量增加而逐步“学会”识别的过程。此外，可视化采用颜色编码区分激活强度，并智能高亮关键连接，确保复杂网络结构依然清晰易读。虽然项目仍在积极开发中，但已具备作为教学演示或博物馆互动的潜力，帮助人们轻松理解神经网络的基础逻辑。","# MNIST MLP Visualizer\n\n![MNIST MLP Visualizer screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDFin_Neural-Network-Visualisation_readme_341de489df66.jpg)\n\nInteractive web visualisation for a compact multi-layer perceptron trained on the MNIST handwritten digit dataset. Draw a digit, watch activations propagate through the network in 3D, and inspect real-time prediction probabilities.\n\n## WIP\n\nThis is still in a rough state and under active development. If you want something useable for a museum etc check back later. I have a couple of features in mind (like being able to connect a tablet to draw a number) to make this a good educational visualisation. \n\n\n## Repository Layout\n\n- `index.html` \u002F `assets\u002F` – Static Three.js visualiser and UI assets.\n- `exports\u002Fmlp_weights.json` – Default weights with timeline snapshots (generated from the latest training run).\n- `training\u002Fmlp_train.py` – PyTorch helper to train the MLP (with Apple Metal acceleration when available) and export weights for the front-end.\n\n## Quick Start\n\n1. (Only for training) **Install Python dependencies** (PyTorch + torchvision):\n\n   ```bash\n   python3 -m pip install torch torchvision\n   ```\n\n2. **Launch a static file server** from the repository root (any server works; this example uses Python):\n\n   ```bash\n   python3 -m http.server 8000\n   ```\n\n3. Open `http:\u002F\u002Flocalhost:8000` in your browser. Draw on the 28×28 grid (left-click to draw, right-click to erase) and explore the 3D network with the mouse or trackpad.\n\n## Training & Exporting New Weights\n\n`training\u002Fmlp_train.py` trains a small MLP on MNIST and writes a JSON export the front-end consumes. Metal (MPS) is used automatically when available on Apple Silicon; otherwise the script falls back to CUDA or CPU.\n\nTypical usage:\n\n```bash\npython3 training\u002Fmlp_train.py \\\n  --epochs 5 \\\n  --hidden-dims 128 64 \\\n  --batch-size 256 \\\n  --export-path exports\u002Fmlp_weights.json\n```\n\nKey options:\n\n- `--hidden-dims`: Hidden layer sizes (default `128 64`). Keep the network modest so the visualisation stays responsive.\n- `--epochs`: Minimum training epochs (default `5`). The script will automatically extend the run so the timeline hits the 50× dataset milestone.\n- `--batch-size`: Mini-batch size (default `128`).\n- `--device`: Force `mps`, `cuda`, or `cpu`. By default the script picks the best available backend.\n- `--skip-train`: Export the randomly initialised weights without running training (useful for debugging the pipeline).\n\nAfter training, update `VISUALIZER_CONFIG.weightUrl` in `assets\u002Fmain.js` if you export to a different location\u002Fname. Refresh the browser to load the new weights.\n\n### Training timeline export\n\nEvery exported JSON now includes a `timeline` array spanning 35 checkpoints: densely spaced early snapshots (≈50, 120, 250, 500, 1k, 2k, 3.5k, 5.8k, 8.7k, 13k, 19.5k, 28.5k, 40k images), followed by dataset-multiple milestones from 1× through 50×. The JSON manifest stays small; each snapshot’s weights are stored separately as float16-encoded files under `exports\u002F\u003Cstem>\u002FNNN_\u003Cid>.json`, and the front-end streams them on demand so you can scrub the timeline without downloading the entire 50× run up front. Re-export the weights with the updated script to generate fresh timeline data for your own runs.\n\n## Notes & Tips\n\n- The visualiser highlights the top-N (configurable) strongest incoming connections per neuron to keep the scene legible.\n- Colors encode activation sign and magnitude (cool tones for negative\u002Flow, warm tones for strong positive contributions).\n- The default export (`exports\u002Fmlp_weights.json`) already includes timeline milestones from a multi-epoch training run. Retrain (and re-export) if you want to showcase a different progression.\n- If you adjust the architecture, ensure the JSON export reflects the new layer sizes; the front-end builds the scene dynamically from that metadata.\n\n## Deployment\n\nKeep production files under the repo-local `releases\u002F` tree (ideal for `\u002Fsrv\u002Fserver\u002Fnn-vis` on the new host):\n\n- `releases\u002Fcurrent\u002F` – files served by nginx.\n- `releases\u002Fbackups\u002F\u003Ctimestamp>\u002F` – immutable snapshots for quick rollback (each stamped with the commit hash in `.commit`).\n- `releases\u002F.deploy_tmp\u002F` – staging area used during deployment.\n\nFrom the repo root run:\n\n```bash\n.\u002Fdeploy.sh [commit-ish]\n```\n\nWhen no commit is supplied it deploys `HEAD`. The script exports the requested commit, stages it under `.deploy_tmp\u002F`, then rsyncs into `releases\u002Fcurrent\u002F` and a timestamped backup. Point nginx at the `current` directory, e.g.:\n\n```\nserver {\n    server_name nn-vis.noelith.dev;\n    root \u002Fsrv\u002Fserver\u002Fnn-vis\u002Freleases\u002Fcurrent;\n    index index.html;\n    location \u002F {\n        try_files $uri $uri\u002F \u002Findex.html;\n    }\n}\n```\n\nIssue TLS certs via `certbot --nginx -d nn-vis.noelith.dev` once the site block is enabled.\n","# MNIST 多层感知机可视化工具\n\n![MNIST MLP 可视化工具截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDFin_Neural-Network-Visualisation_readme_341de489df66.jpg)\n\n这是一个交互式的网页可视化工具，用于展示在 MNIST 手写数字数据集上训练的一个紧凑型多层感知机模型。您可以绘制一个数字，观察激活值在三维网络中的传播，并实时查看预测概率。\n\n## 开发中\n\n目前该项目仍处于初步阶段，正在积极开发中。如果您希望将其用于博物馆等场所，请稍后再来查看。我计划添加一些功能（例如连接平板电脑直接书写数字），以使其成为一款优秀的教育类可视化工具。\n\n\n## 仓库结构\n\n- `index.html` \u002F `assets\u002F` – 静态的 Three.js 可视化工具及 UI 资源。\n- `exports\u002Fmlp_weights.json` – 默认权重文件，包含时间线快照（由最近一次训练生成）。\n- `training\u002Fmlp_train.py` – PyTorch 脚本，用于训练 MLP 模型（在可用时利用 Apple Metal 加速），并导出前端所需的权重文件。\n\n## 快速开始\n\n1. （仅限训练）**安装 Python 依赖**（PyTorch + torchvision）：\n\n   ```bash\n   python3 -m pip install torch torchvision\n   ```\n\n2. **从仓库根目录启动静态文件服务器**（任何服务器均可；此处以 Python 为例）：\n\n   ```bash\n   python3 -m http.server 8000\n   ```\n\n3. 在浏览器中打开 `http:\u002F\u002Flocalhost:8000`。您可以在 28×28 的网格上绘图（左键画笔，右键橡皮擦），并使用鼠标或触控板探索三维网络。\n\n## 训练与导出新权重\n\n`training\u002Fmlp_train.py` 脚本会训练一个小型 MLP 模型于 MNIST 数据集，并将权重导出为前端可消费的 JSON 文件。在 Apple Silicon 设备上，脚本会自动使用 Metal (MPS) 加速；否则则回退到 CUDA 或 CPU。\n\n典型用法如下：\n\n```bash\npython3 training\u002Fmlp_train.py \\\n  --epochs 5 \\\n  --hidden-dims 128 64 \\\n  --batch-size 256 \\\n  --export-path exports\u002Fmlp_weights.json\n```\n\n主要选项说明：\n\n- `--hidden-dims`: 隐藏层大小（默认为 `128 64`）。请保持网络规模适中，以确保可视化流畅。\n- `--epochs`: 最小训练轮数（默认为 `5`）。脚本会自动延长训练，直到达到处理 50 倍数据量的里程碑。\n- `--batch-size`: 小批量大小（默认为 `128`）。\n- `--device`: 强制指定使用 `mps`、`cuda` 或 `cpu`。默认情况下，脚本会选择最佳可用后端。\n- `--skip-train`: 直接导出随机初始化的权重，而不进行训练（适用于调试流程）。\n\n训练完成后，如果导出路径或文件名发生变化，请更新 `assets\u002Fmain.js` 中的 `VISUALIZER_CONFIG.weightUrl`。刷新浏览器即可加载新权重。\n\n### 训练时间线导出\n\n每个导出的 JSON 文件现在都包含一个 `timeline` 数组，涵盖 35 个检查点：早期密集采样的快照（约 50、120、250、500、1k、2k、3.5k、5.8k、8.7k、13k、19.5k、28.5k、40k 张图像），随后是数据集倍数的里程碑，从 1 倍逐步到 50 倍。JSON 清单文件本身很小；每个快照的权重会单独存储为 float16 编码的文件，位于 `exports\u002F\u003Cstem>\u002FNNN_\u003Cid>.json` 下，前端会按需流式加载这些权重，因此您可以自由浏览时间线，而无需预先下载整个 50 倍运行的数据。使用更新后的脚本重新导出权重，即可为您的训练生成新的时间线数据。\n\n## 注意事项与提示\n\n- 可视化工具会突出显示每个神经元最强的前 N 条输入连接（可配置），以保持场景清晰易读。\n- 颜色编码了激活值的符号和幅度：冷色调表示负值或低激活，暖色调表示强正值贡献。\n- 默认导出的权重文件（`exports\u002Fmlp_weights.json`）已包含多次训练的时间线里程碑。如果您想展示不同的训练过程，请重新训练并导出权重。\n- 如果您调整了网络架构，请确保导出的 JSON 文件反映新的层大小；前端会根据这些元数据动态构建场景。\n\n## 部署\n\n生产环境文件应放置在仓库本地的 `releases\u002F` 目录下（适合部署到新主机上的 `\u002Fsrv\u002Fserver\u002Fnn-vis`）：\n\n- `releases\u002Fcurrent\u002F` – 由 nginx 提供服务的文件。\n- `releases\u002Fbackups\u002F\u003Ctimestamp>\u002F` – 不可变的备份快照，用于快速回滚（每个快照都会在 `.commit` 文件中记录提交哈希）。\n- `releases\u002F.deploy_tmp\u002F` – 部署过程中使用的暂存区域。\n\n从仓库根目录运行以下命令：\n\n```bash\n.\u002Fdeploy.sh [commit-ish]\n```\n\n如果不指定提交，则部署 `HEAD` 分支。该脚本会导出指定的提交，暂存至 `.deploy_tmp\u002F`，然后通过 rsync 同步到 `releases\u002Fcurrent\u002F` 和一个带时间戳的备份目录。最后，将 nginx 配置指向 `current` 目录，例如：\n\n```\nserver {\n    server_name nn-vis.noelith.dev;\n    root \u002Fsrv\u002Fserver\u002Fnn-vis\u002Freleases\u002Fcurrent;\n    index index.html;\n    location \u002F {\n        try_files $uri $uri\u002F \u002Findex.html;\n    }\n}\n```\n\n站点启用后，可通过 `certbot --nginx -d nn-vis.noelith.dev` 申请 TLS 证书。","# Neural-Network-Visualisation 快速上手指南\n\n## 环境准备\n\n本工具包含前端可视化与后端训练两部分，请根据需求准备环境。\n\n*   **操作系统**：macOS (推荐 Apple Silicon)、Linux 或 Windows。\n*   **运行时依赖**：\n    *   **浏览器**：现代浏览器（Chrome, Firefox, Edge 等），需支持 WebGL。\n    *   **Python**：版本 3.8+（仅当需要重新训练模型或导出新权重时需要）。\n*   **Python 库**（仅训练用）：\n    *   `torch` (PyTorch)\n    *   `torchvision`\n    *   *注：Apple Silicon 用户将自动使用 MPS 加速，NVIDIA 显卡用户自动使用 CUDA，其余使用 CPU。*\n\n## 安装步骤\n\n### 1. 获取源码\n克隆仓库到本地：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FDFin\u002FNeural-Network-Visualisation.git\ncd Neural-Network-Visualisation\n```\n\n### 2. 安装 Python 依赖（可选）\n如果您只想体验默认的可视化效果，可跳过此步。若需重新训练模型或导出自定义权重，请执行：\n\n```bash\npython3 -m pip install torch torchvision\n```\n*(国内用户如遇下载缓慢，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 使用清华镜像源)*\n\n## 基本使用\n\n### 启动可视化服务\n无需编译，直接通过静态文件服务器启动即可。在项目根目录执行：\n\n```bash\npython3 -m http.server 8000\n```\n\n### 交互操作\n1.  打开浏览器访问：`http:\u002F\u002Flocalhost:8000`\n2.  **绘制数字**：在左侧 28×28 网格中，**左键**绘制手写数字，**右键**擦除。\n3.  **观察网络**：\n    *   查看激活值如何在 3D 多层感知机（MLP）中传播。\n    *   使用鼠标或触控板旋转、缩放 3D 视图。\n    *   实时查看预测概率分布。\n4.  **时间轴回溯**：如果加载了包含时间线的权重文件，可拖动进度条观察模型从随机初始化到训练完成的学习过程。\n\n### （进阶）训练并导出自定义权重\n若要使用自定义架构或展示不同的训练阶段，运行训练脚本：\n\n```bash\npython3 training\u002Fmlp_train.py \\\n  --epochs 5 \\\n  --hidden-dims 128 64 \\\n  --batch-size 256 \\\n  --export-path exports\u002Fmlp_weights.json\n```\n\n训练完成后，刷新浏览器即可加载新生成的权重数据。如需修改权重文件路径，请更新 `assets\u002Fmain.js` 中的 `VISUALIZER_CONFIG.weightUrl` 配置。","某高校人工智能讲师正在准备一堂关于“神经网络内部运作机制”的公开课，急需向学生直观展示手写数字识别模型中数据流动的全过程。\n\n### 没有 Neural-Network-Visualisation 时\n- 学生只能面对静态的拓扑图或抽象的数学公式，难以想象激活值如何在多层感知机中逐层传递。\n- 教师无法实时演示“绘制数字”到“输出概率”的动态反馈，课堂互动仅停留在理论讲解，缺乏直观体验。\n- 调试网络结构时，开发者需依赖日志中的数值打印来推测哪一层神经元失效，排查过程枯燥且效率低下。\n- 解释“训练时间线”对权重的影响时，缺乏可视化的演变过程，初学者很难理解模型是如何从随机猜测逐渐学会识别的。\n\n### 使用 Neural-Network-Visualisation 后\n- 学生可在浏览器直接手绘数字，亲眼看到信号以 3D 动画形式在网络节点间流动，颜色冷暖直观反映激活强度。\n- 课堂变身互动实验室，听众随意涂鸦即可实时查看预测概率变化，将抽象的“黑盒”推理转化为透明的视觉体验。\n- 开发者能高亮显示每个神经元最强的输入连接，快速定位无效路径或异常权重，大幅降低模型调优门槛。\n- 通过拖动时间轴，观众可回溯模型从第 50 张到第 50,000 张图片的训练历程，清晰见证智能诞生的每一个关键里程碑。\n\nNeural-Network-Visualisation 将晦涩的矩阵运算转化为可交互的 3D 视觉语言，让神经网络的“思考过程”真正变得看得见、摸得着。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDFin_Neural-Network-Visualisation_341de489.jpg","DFin","David Finsterwalder","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDFin_05045054.jpg","Philosopher & Geek. Founder of noelith.ai, Previously: Founder & CTO of http:\u002F\u002Frealities.io.","@noelith-ai",null,"DFinsterwalder","https:\u002F\u002Fgithub.com\u002FDFin",[82,86,90,94,98],{"name":83,"color":84,"percentage":85},"JavaScript","#f1e05a",63.9,{"name":87,"color":88,"percentage":89},"Python","#3572A5",15.3,{"name":91,"color":92,"percentage":93},"CSS","#663399",11.9,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",8.1,{"name":99,"color":100,"percentage":101},"Shell","#89e051",0.7,629,73,"2026-04-09T23:43:49","Apache-2.0","Linux, macOS, Windows","非必需。支持 NVIDIA GPU (CUDA)、Apple Silicon (MPS\u002FMetal) 或 CPU。未指定具体型号或显存要求，因模型为小型 MLP。","未说明",{"notes":110,"python":111,"dependencies":112},"该工具主要用于可视化，核心功能（前端展示）仅需浏览器和静态文件服务器（如 Python http.server）。仅在进行模型训练或导出新权重时需要安装 PyTorch 和 torchvision。训练脚本会自动检测并使用可用的加速后端（Apple Metal、CUDA 或 CPU）。由于是小型多层感知机（MLP），对硬件资源要求极低。","3+",[113,114],"torch","torchvision",[15,116],"其他","2026-03-27T02:49:30.150509","2026-04-10T20:32:24.789576",[120,125],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},28290,"为什么模型无法识别手写的数字'9'或某些特定数字？","这是一个已知且有意为之的现象，因为该项目旨在作为一个简单的多层感知机（MLP）教育起点，而非生产级解决方案。要解决此类识别失败问题，建议在训练过程中使用数据增强（如旋转和缩放数字），或采用卷积神经网络（CNN）来处理平移问题（数字位置偏移）。此外，增加模型参数也能提升效果。如需更优解决方案，可参考基于 CNN 的项目：https:\u002F\u002Fadamharley.com\u002Fnn_vis\u002F","https:\u002F\u002Fgithub.com\u002FDFin\u002FNeural-Network-Visualisation\u002Fissues\u002F3",{"id":126,"question_zh":127,"answer_zh":128,"source_url":124},28291,"手写数字不在画布中心时识别率极低，如何解决？","如果手写文本未位于画布中心，准确率会显著下降。建议在进行识别前对画布进行裁剪：写完数字后，去除周围的空白边缘，确保数字居中显示。",[]]