[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MarioSieg--magnetron":3,"tool-MarioSieg--magnetron":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":110,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":118,"github_topics":120,"view_count":32,"oss_zip_url":132,"oss_zip_packed_at":132,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":136},5820,"MarioSieg\u002Fmagnetron","magnetron","A zero-dependency ML framework in C with a modern Python API for full control over execution and memory.","Magnetron 是一款从零构建的轻量级机器学习运行时框架，其核心由纯 C 语言编写，并提供现代化的 Python 接口。它旨在解决主流框架（如 PyTorch）因架构庞大、依赖复杂而导致的“黑盒”问题，让开发者能够完全掌控模型的执行流程与内存管理。\n\n这款工具特别适合希望深入理解底层原理的研究人员、系统工程师以及需要定制内核或移植到特殊硬件的开发者。如果你需要一个干净、可修改的基础来进行实验创新，或者追求极致的执行控制力，Magnetron 是理想选择。\n\n其技术亮点在于“零依赖”与高度透明：内置独立的张量系统、自动微分引擎及算子集，无需庞大外部库支持。CPU 后端采用编译时优化策略，能根据硬件特性（如 Intel AVX-512 或 ARM NEON）自动调度最优内核，兼顾性能与便携性。此外，它专有的.mag 序列化格式支持零拷贝内存映射加载，显著提升了大模型的启动效率。虽然生态规模不及工业级框架，但 Magnetron 以小巧精悍的架构，为探索机器学习底层机制提供了一条更短、更清晰的路径。","[![Stargazers][stars-shield]][stars-url]\n[![Forks][forks-shield]][forks-url]\n[![Issues][issues-shield]][issues-url]\n![GitHub Actions Workflow Status][ci-shield]\n\n\u003Cbr \u002F>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMarioSieg_magnetron_readme_b01d148359ab.png\" alt=\"Magnetron Logo\" width=\"200\" height=\"200\">\n  \u003C\u002Fa>\n\n\u003Ch3 align=\"center\">magnetron\u003C\u002Fh3>\n  \u003Cp align=\"center\">\n    A compact machine learning runtime for developers who want to understand, control, and optimize the full stack.\n    \u003Cbr \u002F>\n    Native C core, modern Python API, no runtime dependencies, no bloat.\n    \u003Cbr \u002F>\u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fdocs\u002FMagnetron-Cheatsheet.md\">\u003Cstrong>Documentation »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fqwen3\">Qwen3 Inference Example\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fae\">Autoencoder Training Example\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fgpt2\">GPT-2 Inference Example\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n---\n\n## About\n\n**Magnetron** is a machine learning runtime built from scratch in C, with a small modern Python interface for usability.  \nIt implements its own tensor system, operator set, autograd engine, and execution model - without relying on large external frameworks.\n\nThe goal is simple:\n\n> Keep the stack small enough to understand and be hackable, but powerful enough to run real models.\n\nThis makes Magnetron useful in two situations:\n- when you want **full control over execution and memory**\n- when you want a **clean base for experimentation or new ideas**\n\n---\n\n## Why Magnetron?\n\nMagnetron is not trying to compete with PyTorch on ecosystem or feature count.\n\nInstead, it optimizes for a different axis:\n\n| Magnetron | PyTorch |\n|--------|------|\n| Small, inspectable core | Large, layered system |\n| Explicit execution | Implicit \u002F abstracted |\n| Minimal dependencies | Heavy runtime |\n| Easy to modify kernels | Harder to reason about backend |\n| Good for research & systems work | Good for production & scale |\n\nIf you want to:\n- understand how your model actually runs\n- experiment with kernels, memory layouts, or execution\n- port ML workloads to unusual hardware\n\nMagnetron gives you a much shorter path.\n\n---\n\n## Architecture Overview\n\nMagnetron is built as a **single, cohesive runtime**, not a collection of loosely coupled libraries.\n\n- **Tensor system**  \n  Owns dtype, shape, strides, and memory – supports a full **view system with a view solver**, enabling complex slicing, reshaping, and broadcasting semantics similar to PyTorch while remaining explicit and predictable.\n\n- **Execution model**  \n  Eager execution with a dynamic autograd graph (reverse-mode), constructed per forward pass and traversed during backward.\n\n- **Operator backend**  \n  Central dispatch layer mapping high-level operations to architecture-specific kernel implementations.\n\n- **CPU backend**  \n  Multi-dispatch design with **compile-time optimized kernels** for a wide range of microarchitectures (Intel, AMD Zen1–Zen5, ARM).  \n  At runtime, **CPUID-based detection** selects the most optimal kernel path automatically.  \n  Supports multiple SIMD ISAs and extensions, including SSE (1–4), AVX, AVX2, FMA, AVX-512, AVX-512-BF16, AVX-512-FP16, F16C and ARM NEON, combined with multithreaded execution.\n\n- **CUDA backend (in progress)**  \n  Kernel layer is implemented - Memory management, execution pipeline, and integration are actively being completed.\n\n- **Serialization**  \n  Native `.mag` format designed for **zero-copy, memory-mapped loading**, enabling fast startup and efficient large model handling.  \n  Conversion tools are provided to import weights from external formats.\n\n- **Backend extensibility**  \n  The architecture is intentionally **clean and modular**, making it straightforward to introduce new backends or target additional hardware platforms.\n\nThe system is intentionally kept **tight and explicit**, so each layer is understandable, controllable, and replaceable without hidden complexity.\n\n---\n\n## Highlights\n\n- **Practical, not just educational**  \n  Capable of running modern LLM inference (e.g. Qwen3 in BF16), not just toy models.\n\n- **Small, controllable ML runtime**  \n  Designed to stay inspectable end-to-end — no hidden execution layers or opaque backends.\n\n- **True ownership of execution**  \n  You can reason about memory layout, kernel dispatch, and graph behavior without abstraction barriers.\n\n- **Hardware-aware by design**  \n  Not a generic backend wrapper — kernels and execution are written with specific ISAs and microarchitectures in mind.\n\n- **Zero-copy model loading**  \n  Memory-mapped `.mag` format enables fast startup and efficient handling of large models.\n\n- **Built for experimentation**  \n  Easy to modify operators, add kernels, or prototype new execution strategies.\n\n- **Minimal runtime surface**  \n  Native extension with no required Python dependencies — easy to deploy and embed.\n\n---\n\n## Example Models\n\nEnd-to-end demos live under `examples\u002F`.\n\n| Path | Description |\n|-----|----------|\n| [examples\u002Fqwen3\u002F](examples\u002Fqwen3\u002F) | Qwen3 transformer inference in bfloat16 with tokenizer integration, `.mag` weights, CLI chat, and HTTP\u002Fstreaming API. |\n| [examples\u002Fgpt2\u002F](examples\u002Fgpt2\u002F) | GPT-2 causal language model inference with KV cache, token streaming, and configurable generation. |\n| [examples\u002Fae\u002F](examples\u002Fae\u002F) | Convolutional autoencoder with training loop and reconstruction visualization. |\n| [examples\u002Flinear_regression\u002F](examples\u002Flinear_regression\u002F) | Simple 1D regression with SGD and loss tracking. |\n| [examples\u002Fxor\u002F](examples\u002Fxor\u002F) | Minimal MLP demonstrating autograd and optimization. |\n\n---\n\n## Operator Cheat Sheet\n\nMagnetron provides a compact but expressive operator set covering:\n\n- elementwise operations (add, mul, div, ...)  \n- reductions (sum, mean, ...)  \n- tensor transformations (view, reshape, permute, ...)  \n- neural building blocks (matmul, softmax, layernorm, ...)  \n- type casting and memory views  \n\nA full reference of operators, data types, and semantics is available here:\n\n→ [Magnetron Cheat Sheet](docs\u002FMagnetron-Cheatsheet.md)\n\n---\n\n## Installation\nMagnetron is available on PyPI.\n\nMake sure you are inside a Python virtual environment.\n\n```bash\npip install magnetron\n```\nor with uv:\n```bash\nuv pip install magnetron\n```\n\n---\n\n## Local Development\n\nClone the repository and install locally:\n\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\ncd magnetron\nuv pip install . -v\n```\n\nFor C\u002FC++ development, open the project root (containing `CMakeLists.txt`) in an IDE such as CLion.\n\n---\n\n## Quick start\n\n```python\nfrom magnetron import Tensor, nn, optim\n\nx = Tensor([[0.0, 0.0], [0.0, 1.0], [1.0, 0.0], [1.0, 1.0]])\ny = Tensor([[0.0], [1.0], [1.0], [0.0]])\n\nmodel = nn.Sequential(\n    nn.Linear(2, 2),\n    nn.Tanh(),\n    nn.Linear(2, 1),\n    nn.Tanh(),\n)\n\noptimizer = optim.SGD(model.parameters(), lr=1e-1)\ncriterion = nn.MSELoss()\n\nfor epoch in range(2000):\n    y_hat = model(x)\n    loss = criterion(y_hat, y)\n    loss.backward()\n    optimizer.step()\n    optimizer.zero_grad()\n\n    if epoch % 100 == 0:\n        print(f\"Epoch {epoch:4d} | Loss {loss.item():.6f}\")\n\ny_hat = model(x)\nfor i in range(x.shape[0]):\n    print(f\"Expected: {y[i].item():.1f}, Predicted: {y_hat[i].item():.4f}\")\n```\n\n---\n\n## Roadmap\n\n- 🚧 **CUDA backend**  \n  Finish memory model, execution pipeline, and stabilize for production use.\n\n- 🚧 **Multi-GPU execution**  \n  Introduce scalable execution across multiple devices.\n\n- 🚧 **New CPU architectures**  \n  Support for LoongArch and RISC-V.\n\n- 🧪 **JIT compilation**  \n  Custom SSA-based IR with register allocation and target-specific instruction emission.\n\n---\n\n## History\n\nMagnetron started in 2024 as a personal project to understand how machine learning frameworks work internally: tensor storage, operator dispatch, autograd, and inference execution.\nWhat began as a learning project gradually evolved into a full runtime with its own tensor engine, native snapshot format, SIMD-specialized CPU backend, and support for running modern models such as Qwen3 in BF16.\nToday, Magnetron is developed both as a practical inference\u002Fruntime system and as a research platform for experimenting with new backends, execution strategies, and low-level ML systems ideas.\n\n---\n\n## License\n\n(c) 2026 Mario Sieg - mario.sieg.64@gmail.com \u003Cbr>\nDistributed under the Apache 2 License. \u003Cbr>\nDeveloped in Berlin, Germany. \u003Cbr>\n\n---\n\n## Similar Projects\n- [PyTorch](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch)\n- [GGML](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fggml)\n- [tinygrad](https:\u002F\u002Fgithub.com\u002Ftinygrad\u002Ftinygrad)\n- [MLX](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx)\n\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[contributors-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[forks-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[stars-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[issues-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fissues\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[license-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002FLICENSE.txt\n[ci-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002FMarioSieg\u002Fmagnetron\u002Fcmake-python-multi-platform.yml?style=for-the-badge\n","[![星辰守护者][stars-shield]][stars-url]\n[![复刻数][forks-shield]][forks-url]\n[![问题数][issues-shield]][issues-url]\n![GitHub Actions 工作流状态][ci-shield]\n\n\u003Cbr \u002F>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMarioSieg_magnetron_readme_b01d148359ab.png\" alt=\"Magnetron Logo\" width=\"200\" height=\"200\">\n  \u003C\u002Fa>\n\n\u003Ch3 align=\"center\">magnetron\u003C\u002Fh3>\n  \u003Cp align=\"center\">\n    一个专为希望理解、控制并优化整个技术栈的开发者打造的紧凑型机器学习运行时。\n    \u003Cbr \u002F>\n    原生 C 核心，现代化 Python API，无运行时依赖，无臃肿。\n    \u003Cbr \u002F>\u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fdocs\u002FMagnetron-Cheatsheet.md\">\u003Cstrong>文档 »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fqwen3\">Qwen3 推理示例\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fae\">自编码器训练示例\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002Fexamples\u002Fgpt2\">GPT-2 推理示例\u003C\u002Fa>\n  \u003C\u002Fp>\n\u003C\u002Fdiv>\n\n---\n\n## 关于\n\n**Magnetron** 是用 C 从头构建的机器学习运行时，配备小巧现代的 Python 接口以提升易用性。  \n它实现了自己的张量系统、算子集合、自动微分引擎和执行模型——完全不依赖大型外部框架。\n\n目标很简单：\n\n> 保持栈足够小，便于理解且可被深入探索，同时又足够强大，能够运行真实的模型。\n\n这使得 Magnetron 在两种情况下非常有用：\n- 当你想要 **对执行和内存拥有完全控制权** 时\n- 当你希望有一个 **干净的实验或新想法的基础** 时\n\n---\n\n## 为什么选择 Magnetron？\n\nMagnetron 并不试图在生态系统或功能数量上与 PyTorch 竞争。\n\n相反，它专注于不同的方向：\n\n| Magnetron | PyTorch |\n|--------|------|\n| 小巧、可检查的核心 | 庞大、分层的系统 |\n| 显式执行 | 隐式\u002F抽象化 |\n| 极少的依赖 | 重度运行时依赖 |\n| 易于修改内核 | 后端逻辑更难理解 |\n| 适合研究与系统工作 | 适合生产与规模化 |\n\n如果你希望：\n- 了解你的模型究竟是如何运行的\n- 实验内核、内存布局或执行方式\n- 将机器学习工作负载移植到特殊硬件上\n\nMagnetron 能为你提供一条更为直接的路径。\n\n---\n\n## 架构概览\n\nMagnetron 被构建为一个 **单一、 cohesive 的运行时**，而非一组松散耦合的库。\n\n- **张量系统**  \n  自主管理数据类型、形状、步长和内存——支持完整的 **视图系统及视图求解器**，实现复杂的切片、重塑和广播语义，类似于 PyTorch，同时保持显式和可预测性。\n\n- **执行模型**  \n  情景式执行，配备动态自动微分图（反向模式），该图在每次前向传播时构建，并在反向传播过程中遍历。\n\n- **算子后端**  \n  中央调度层，将高层操作映射到特定于架构的内核实现。\n\n- **CPU 后端**  \n  多重分派设计，包含针对多种微架构（Intel、AMD Zen1–Zen5、ARM）的 **编译时优化内核**。  \n  运行时通过 **CPUID 检测** 自动选择最优的内核路径。  \n  支持多种 SIMD ISA 和扩展，包括 SSE (1–4)、AVX、AVX2、FMA、AVX-512、AVX-512-BF16、AVX-512-FP16、F16C 以及 ARM NEON，并结合多线程执行。\n\n- **CUDA 后端（开发中）**  \n  内核层已实现——内存管理、执行流水线和集成正在积极完善中。\n\n- **序列化**  \n  原生 `.mag` 格式专为 **零拷贝、内存映射加载** 设计，可实现快速启动和高效的大模型处理。  \n  提供转换工具，用于从外部格式导入权重。\n\n- **后端可扩展性**  \n  架构经过精心设计，**干净且模块化**，因此引入新的后端或适配其他硬件平台都十分简便。\n\n该系统刻意保持 **紧凑且显式**，使每一层都易于理解、控制和替换，而不会隐藏复杂性。\n\n---\n\n## 亮点\n\n- **实用而非仅用于教学**  \n  能够运行现代 LLM 推理（例如 Qwen3 的 BF16 版本），而不仅仅是玩具模型。\n\n- **小型、可控的 ML 运行时**  \n  设计宗旨是端到端可检查——不存在隐藏的执行层或不透明的后端。\n\n- **真正掌控执行过程**  \n  你可以无需任何抽象屏障，清晰地分析内存布局、内核调度和计算图行为。\n\n- **天生具备硬件感知能力**  \n  不是通用的后端封装——内核和执行流程均针对特定的 ISA 和微架构编写。\n\n- **零拷贝模型加载**  \n  内存映射的 `.mag` 格式可实现快速启动和高效的大模型处理。\n\n- **专为实验设计**  \n  易于修改算子、添加内核或尝试新的执行策略。\n\n- **最小化的运行时表面**  \n  原生扩展，无需任何 Python 依赖——易于部署和嵌入。\n\n---\n\n## 示例模型\n\n端到端演示位于 `examples\u002F` 目录下。\n\n| 路径 | 描述 |\n|-----|----------|\n| [examples\u002Fqwen3\u002F](examples\u002Fqwen3\u002F) | Qwen3 变换器推理，采用 bfloat16 数据类型，集成分词器、`.mag` 权重、CLI 对话以及 HTTP\u002F流式 API。 |\n| [examples\u002Fgpt2\u002F](examples\u002Fgpt2\u002F) | GPT-2 因果语言模型推理，支持 KV 缓存、令牌流式输出和可配置的生成设置。 |\n| [examples\u002Fae\u002F](examples\u002Fae\u002F) | 卷积自编码器，包含训练循环和重建可视化。 |\n| [examples\u002Flinear_regression\u002F](examples\u002Flinear_regression\u002F) | 简单的一维回归，使用 SGD 并跟踪损失。 |\n| [examples\u002Fxor\u002F](examples\u002Fxor\u002F) | 最小化 MLP，展示自动微分和优化过程。 |\n\n---\n\n## 算子速查表\n\nMagnetron 提供了一套紧凑但富有表现力的算子集，涵盖：\n\n- 元素级操作（加、乘、除等）\n- 归约操作（求和、平均等）\n- 张量变换（视图、重塑、转置等）\n- 神经网络基础组件（矩阵乘法、softmax、层归一化等）\n- 类型转换和内存视图\n\n完整的算子、数据类型和语义参考请见：\n\n→ [Magnetron 速查表](docs\u002FMagnetron-Cheatsheet.md)\n\n---\n\n## 安装\nMagnetron 已发布至 PyPI。\n\n请确保你在 Python 虚拟环境中。\n\n```bash\npip install magnetron\n```\n或使用 uv：\n```bash\nuv pip install magnetron\n```\n\n---\n\n## 本地开发\n克隆仓库并在本地安装：\n\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\ncd magnetron\nuv pip install . -v\n```\n\n对于 C\u002FC++ 开发，可在 IDE（如 CLion）中打开项目根目录（包含 `CMakeLists.txt` 文件）。\n\n## 快速入门\n\n```python\nfrom magnetron import Tensor, nn, optim\n\nx = Tensor([[0.0, 0.0], [0.0, 1.0], [1.0, 0.0], [1.0, 1.0]])\ny = Tensor([[0.0], [1.0], [1.0], [0.0]])\n\nmodel = nn.Sequential(\n    nn.Linear(2, 2),\n    nn.Tanh(),\n    nn.Linear(2, 1),\n    nn.Tanh(),\n)\n\noptimizer = optim.SGD(model.parameters(), lr=1e-1)\ncriterion = nn.MSELoss()\n\nfor epoch in range(2000):\n    y_hat = model(x)\n    loss = criterion(y_hat, y)\n    loss.backward()\n    optimizer.step()\n    optimizer.zero_grad()\n\n    if epoch % 100 == 0:\n        print(f\"Epoch {epoch:4d} | Loss {loss.item():.6f}\")\n\ny_hat = model(x)\nfor i in range(x.shape[0]):\n    print(f\"Expected: {y[i].item():.1f}, Predicted: {y_hat[i].item():.4f}\")\n```\n\n---\n\n## 路线图\n\n- 🚧 **CUDA 后端**  \n  完成内存模型、执行流水线，并使其稳定以供生产使用。\n\n- 🚧 **多 GPU 执行**  \n  引入跨多个设备的可扩展执行能力。\n\n- 🚧 **新的 CPU 架构**  \n  支持 LoongArch 和 RISC-V。\n\n- 🧪 **JIT 编译**  \n  自定义基于 SSA 的中间表示，包含寄存器分配和目标特定的指令生成。\n\n---\n\n## 历史\n\nMagnetron 项目始于 2024 年，最初是一个个人学习项目，旨在深入理解机器学习框架的内部工作原理：张量存储、算子调度、自动微分以及推理执行等。这个原本用于学习的项目逐渐演变为一个完整的运行时系统，具备独立的张量引擎、原生快照格式、面向 SIMD 的 CPU 后端，并支持以 BF16 精度运行 Qwen3 等现代模型。如今，Magnetron 既被用作实用的推理\u002F运行时系统，也作为研究平台，用于探索新的后端、执行策略以及低层机器学习系统设计思路。\n\n---\n\n## 许可证\n\n(c) 2026 马里奥·西格 - mario.sieg.64@gmail.com \u003Cbr>\n根据 Apache 2 许可证发布。\u003Cbr>\n开发于德国柏林。\u003Cbr>\n\n---\n\n## 类似项目\n- [PyTorch](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fpytorch)\n- [GGML](https:\u002F\u002Fgithub.com\u002Fggerganov\u002Fggml)\n- [tinygrad](https:\u002F\u002Fgithub.com\u002Ftinygrad\u002Ftinygrad)\n- [MLX](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx)\n\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[contributors-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[forks-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[stars-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[issues-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fissues\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FMarioSieg\u002Fmagnetron.svg?style=for-the-badge\n[license-url]: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fblob\u002Fmaster\u002FLICENSE.txt\n[ci-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Factions\u002Fworkflow\u002Fstatus\u002FMarioSieg\u002Fmagnetron\u002Fcmake-python-multi-platform.yml?style=for-the-badge","# Magnetron 快速上手指南\n\nMagnetron 是一个从零开始用 C 语言编写的紧凑机器学习运行时，专为希望完全掌控执行流程、内存布局及底层优化的开发者设计。它拥有独立的张量系统、算子集和自动微分引擎，无重型运行时依赖。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS, Windows (需支持 CMake 构建环境)\n*   **Python 版本**：推荐 Python 3.8+\n*   **前置依赖**：\n    *   建议在使用前创建独立的 Python 虚拟环境。\n    *   若进行本地开发（C\u002FC++ 修改），需安装 `CMake` 及 C\u002FC++ 编译器（如 GCC, Clang 或 MSVC）。\n*   **硬件支持**：\n    *   CPU：支持 Intel\u002FAMD (SSE, AVX, AVX2, AVX-512 等) 及 ARM (NEON) 架构，运行时自动检测最优指令集。\n    *   GPU：CUDA 后端正在开发中，目前主要专注于 CPU 推理与训练。\n\n## 安装步骤\n\n### 方式一：通过 PyPI 安装（推荐）\n\n确保已激活虚拟环境，使用以下命令安装：\n\n```bash\npip install magnetron\n```\n\n如果你使用 `uv` 作为包管理器：\n\n```bash\nuv pip install magnetron\n```\n\n> **提示**：国内用户若遇到下载缓慢，可添加国内镜像源，例如：\n> ```bash\n> pip install magnetron -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 方式二：本地源码安装（用于开发或最新特性）\n\n克隆仓库并递归获取子模块，然后进行本地安装：\n\n```bash\ngit clone --recursive https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\ncd magnetron\nuv pip install . -v\n```\n\n对于 C\u002FC++ 开发，可使用 CLion 等 IDE 打开项目根目录（包含 `CMakeLists.txt` 的文件）进行调试。\n\n## 基本使用\n\nMagnetron 提供了类似 PyTorch 的现代 Python API，但底层更加透明可控。以下是一个完整的 XOR 问题训练示例，展示了张量创建、模型构建、损失计算及反向传播流程：\n\n```python\nfrom magnetron import Tensor, nn, optim\n\n# 1. 准备数据 (XOR 问题)\nx = Tensor([[0.0, 0.0], [0.0, 1.0], [1.0, 0.0], [1.0, 1.0]])\ny = Tensor([[0.0], [1.0], [1.0], [0.0]])\n\n# 2. 构建模型 (简单的多层感知机)\nmodel = nn.Sequential(\n    nn.Linear(2, 2),\n    nn.Tanh(),\n    nn.Linear(2, 1),\n    nn.Tanh(),\n)\n\n# 3. 配置优化器与损失函数\noptimizer = optim.SGD(model.parameters(), lr=1e-1)\ncriterion = nn.MSELoss()\n\n# 4. 训练循环\nfor epoch in range(2000):\n    y_hat = model(x)\n    loss = criterion(y_hat, y)\n    \n    # 反向传播\n    loss.backward()\n    \n    # 更新参数\n    optimizer.step()\n    optimizer.zero_grad()\n\n    if epoch % 100 == 0:\n        print(f\"Epoch {epoch:4d} | Loss {loss.item():.6f}\")\n\n# 5. 验证结果\ny_hat = model(x)\nfor i in range(x.shape[0]):\n    print(f\"Expected: {y[i].item():.1f}, Predicted: {y_hat[i].item():.4f}\")\n```\n\n### 核心特性速览\n*   **零拷贝加载**：支持 `.mag` 格式模型文件，通过内存映射实现快速启动。\n*   **显式执行**：没有隐藏的抽象层，你可以直接控制内存布局和内核调度。\n*   **硬件感知**：自动利用 SIMD 指令集（如 AVX-512, NEON）加速计算。\n\n更多高级示例（如 Qwen3 推理、GPT-2 生成、自编码器训练）请参考项目 `examples\u002F` 目录。","某嵌入式系统团队需要在资源受限的 ARM 开发板上部署自定义轻量级神经网络，同时要求深入优化底层算子以适应特殊硬件指令集。\n\n### 没有 magnetron 时\n- 依赖庞大的 PyTorch 或 TensorFlow 运行时，导致内存占用过高，难以在边缘设备上流畅运行。\n- 框架黑盒化严重，开发者无法直接查看或修改底层 C++ 内核代码，难以针对特定 ARM 指令进行微调。\n- 引入大量外部依赖库，增加了交叉编译的复杂度，且启动速度慢，无法满足实时性要求。\n- 内存管理由框架自动接管，缺乏细粒度控制，容易在长时间推理中出现内存碎片或泄漏。\n- 尝试移植到新架构时，因抽象层过厚，定位性能瓶颈如同“大海捞针”，调试周期极长。\n\n### 使用 magnetron 后\n- 利用其零依赖的 C 核心和紧凑设计，显著降低内存 footprint，使模型在嵌入式设备上运行流畅。\n- 直接通过现代 Python API 调用并修改底层 C 内核，轻松集成定制的 ARM NEON 指令优化逻辑。\n- 无需安装复杂的环境依赖，编译部署极其简便，且支持内存映射加载，实现了毫秒级快速启动。\n- 提供显式的内存与执行控制权，开发者可精确管理张量生命周期，彻底消除不可控的内存开销。\n- 架构透明且可黑客式修改，团队能迅速定位并优化特定算子在目标硬件上的执行路径，大幅缩短研发周期。\n\nmagnetron 让开发者从繁重的框架束缚中解脱，真正拥有了对机器学习全栈执行的掌控权与优化自由。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMarioSieg_magnetron_972efd00.png","MarioSieg","Neo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMarioSieg_7f9cee7a.jpg","What i cannot create i do not understand ~ Richard Feynman","Prime Intellect AI, TU Berlin","Berlin, Germany","mario.sieg.64@gmail.com","_mario_neo_","mariosieg.com","https:\u002F\u002Fgithub.com\u002FMarioSieg",[83,87,91,95,98,102],{"name":84,"color":85,"percentage":86},"C++","#f34b7d",46.8,{"name":88,"color":89,"percentage":90},"C","#555555",38.1,{"name":92,"color":93,"percentage":94},"Python","#3572A5",6.4,{"name":96,"color":97,"percentage":94},"Cuda","#3A4E3A",{"name":99,"color":100,"percentage":101},"CMake","#DA3434",2.3,{"name":103,"color":104,"percentage":105},"Shell","#89e051",0.1,682,33,"2026-04-09T02:52:50","NOASSERTION",1,"Linux, macOS, Windows","非必需。CPU 后端支持广泛架构（Intel\u002FAMD\u002FARM）；CUDA 后端正在开发中，尚未稳定用于生产，具体显卡型号和 CUDA 版本要求未说明。","未说明（取决于运行模型的大小，支持零拷贝内存映射加载大模型）",{"notes":115,"python":116,"dependencies":117},"该工具核心为原生 C 编写，Python API 无运行时依赖（no runtime dependencies）。安装可通过 pip 或 uv 直接进行。若需开发 C\u002FC++ 部分，需具备 CMake 环境。目前 CUDA 支持仍在进行中，主要优化集中在 CPU SIMD 指令集（如 AVX-512, NEON 等）的自动检测与调度。","未说明（需使用 Python 虚拟环境）",[],[14,119],"其他",[121,122,123,124,125,126,127,128,129,130,131],"cpp","cuda","high-performance-computing","machine-learning","python","pytorch","research-project","tensorflow","artificial-intelligence","neuronal-network","tiny",null,"2026-03-27T02:49:30.150509","2026-04-11T18:32:05.003600",[],[137,142,147,152,157],{"id":138,"version":139,"summary_zh":140,"released_at":141},171611,"v0.1.6","## 变更内容\n* GPT2 令牌流式处理，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F34 中提升了 amd64 和 arm64 架构下的矩阵乘法性能。\n* 版本号升级，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F35 中完成。\n* 添加 CUDA 后端 V.1、动态后端插件系统，并进行全面重构，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F37 中完成。\n* 将开发分支与 CUDA 功能及新算子合并，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F39 中完成。\n* Magnetron v.0.1.3，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F40 中发布。\n* 版本号再次升级，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F41 中完成。\n* 版本 0.1.4，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F42 中发布。\n* QWen3 模型以 bfloat16 精度进行推理，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F43 中实现。\n* 零拷贝文件格式、测试以及层扩展，以降低内存分配压力，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F44 中完成。\n* V.0.1.5：新增绑定和 Python API 重构，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F45 中完成。\n* 优化矩阵乘法性能、新增算子及更新 README，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F46 中完成。\n* 版本号升级至 0.1.6，@MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F47 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fcompare\u002Fv0.1.5...v0.1.6","2026-03-19T12:43:02",{"id":143,"version":144,"summary_zh":145,"released_at":146},171612,"v0.1.4","## 变更内容\n* 版本 0.1.4，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F42 中提交\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fcompare\u002Fv0.1.3...v0.1.4","2025-12-13T18:27:59",{"id":148,"version":149,"summary_zh":150,"released_at":151},171613,"v0.1.3","## 变更内容\n* 新的随机数生成算法：由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F36 中引入 Philox4x32，取代之前的 MT 和 PCG 算法。\n* 添加 CUDA 后端 V.1、动态后端插件系统，并进行全面重构，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F37 中完成。\n* 将包含 CUDA 功能和新算子的 develop 分支合并，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F39 中完成。\n* Magnetron v.0.1.3，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F40 中发布。\n* 版本号升级，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F41 中完成。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fcompare\u002Fv0.1.2...v0.1.3","2025-12-04T14:22:03",{"id":153,"version":154,"summary_zh":155,"released_at":156},171614,"v0.1.2","## 变更内容\n* 由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F33 中更新版权信息\n* GPT2 令牌流式处理，以及在 amd64 和 arm64 架构上改进的矩阵乘法性能，由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F34 中实现\n* 由 @MarioSieg 在 https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fpull\u002F35 中升级版本号\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FMarioSieg\u002Fmagnetron\u002Fcompare\u002Fv0.1.1...v0.1.2","2025-09-01T14:23:12",{"id":158,"version":159,"summary_zh":160,"released_at":161},171615,"v0.1.1","发布 v0.1.1","2025-08-22T23:59:57"]