[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-llvm--torch-mlir":3,"tool-llvm--torch-mlir":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":10,"env_os":123,"env_gpu":124,"env_ram":123,"env_deps":125,"category_tags":131,"github_topics":132,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":136,"updated_at":137,"faqs":138,"releases":168},9628,"llvm\u002Ftorch-mlir","torch-mlir","The Torch-MLIR project aims to provide first class support from the PyTorch ecosystem to the MLIR ecosystem.","torch-mlir 是连接 PyTorch 生态系统与 MLIR（多级中间表示）编译器架构的关键桥梁。它的核心目标是为 PyTorch 提供原生的编译器支持，让开发者能够顺畅地将 PyTorch 模型转换为 MLIR 格式，进而部署到各种异构硬件上。\n\n在 torch-mlir 出现之前，每家硬件厂商若想支持 PyTorch，往往需要重复开发各自的前端转换器，导致了严重的软件碎片化和资源浪费。torch-mlir 通过提供统一的标准接入层，解决了这一痛点。它允许厂商像为 LLVM 添加新后端一样，专注于自身硬件的优化，而无需再重新实现一套 PyTorch 解析逻辑。目前，该项目支持通过 ONNX 或 PyTorch FX 等多种路径将模型降级为 Torch MLIR 方言。\n\n这款工具主要面向编译器开发者、AI 基础设施工程师以及希望将模型高效部署到特定硬件的研究人员。对于正在构建自定义 AI 编译栈的团队（如 IREE 或 BladeDISC 的用户），torch-mlir 是不可或缺的基础组件。作为 LLVM 孵化项目，它虽未正式并入 LLVM 发行版，但已展现出极高的稳定性和社","torch-mlir 是连接 PyTorch 生态系统与 MLIR（多级中间表示）编译器架构的关键桥梁。它的核心目标是为 PyTorch 提供原生的编译器支持，让开发者能够顺畅地将 PyTorch 模型转换为 MLIR 格式，进而部署到各种异构硬件上。\n\n在 torch-mlir 出现之前，每家硬件厂商若想支持 PyTorch，往往需要重复开发各自的前端转换器，导致了严重的软件碎片化和资源浪费。torch-mlir 通过提供统一的标准接入层，解决了这一痛点。它允许厂商像为 LLVM 添加新后端一样，专注于自身硬件的优化，而无需再重新实现一套 PyTorch 解析逻辑。目前，该项目支持通过 ONNX 或 PyTorch FX 等多种路径将模型降级为 Torch MLIR 方言。\n\n这款工具主要面向编译器开发者、AI 基础设施工程师以及希望将模型高效部署到特定硬件的研究人员。对于正在构建自定义 AI 编译栈的团队（如 IREE 或 BladeDISC 的用户），torch-mlir 是不可或缺的基础组件。作为 LLVM 孵化项目，它虽未正式并入 LLVM 发行版，但已展现出极高的稳定性和社区活跃度，是推动 AI 编译技术标准化和降低开发成本的重要开源力量。","# The Torch-MLIR Project\n\nThe Torch-MLIR project aims to provide first class compiler support from the [PyTorch](https:\u002F\u002Fpytorch.org) ecosystem to the MLIR ecosystem.\n\n> This project is participating in the LLVM Incubator process: as such, it is\nnot part of any official LLVM release.  While incubation status is not\nnecessarily a reflection of the completeness or stability of the code, it\ndoes indicate that the project is not yet endorsed as a component of LLVM.\n\n[PyTorch](https:\u002F\u002Fpytorch.org)\nPyTorch is an open source machine learning framework that facilitates the seamless transition from research and prototyping to production-level deployment.\n\n[MLIR](https:\u002F\u002Fmlir.llvm.org)\nThe MLIR project offers a novel approach for building extensible and reusable compiler architectures, which address the issue of software fragmentation, reduce the cost of developing domain-specific compilers, improve compilation for heterogeneous hardware, and promote compatibility between existing compilers.\n\n[Torch-MLIR](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir)\nSeveral vendors have adopted MLIR as the middle layer in their systems, enabling them to map frameworks such as PyTorch, JAX, and TensorFlow into MLIR and subsequently lower them to their target hardware. We have observed half a dozen custom lowerings from PyTorch to MLIR, making it easier for hardware vendors to focus on their unique value, rather than needing to implement yet another PyTorch frontend for MLIR. The ultimate aim is to be similar to the current hardware vendors adding LLVM target support, rather than each one implementing Clang or a C++ frontend.\n\n[![pre-commit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--commit-enabled-brightgreen?logo=pre-commit)](https:\u002F\u002Fgithub.com\u002Fpre-commit\u002Fpre-commit)\n\n## All the roads from PyTorch to Torch MLIR Dialect\n\nWe have few paths to lower down to the Torch MLIR Dialect.\n - ONNX as the entry points.\n - Fx as the entry points\n\n## Project Communication\n\n- `#torch-mlir` channel on the LLVM [Discord](https:\u002F\u002Fdiscord.gg\u002FxS7Z362) - this is the most active communication channel\n- Github issues [here](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues)\n- [`torch-mlir` section](https:\u002F\u002Fllvm.discourse.group\u002Fc\u002Fprojects-that-want-to-become-official-llvm-projects\u002Ftorch-mlir\u002F41) of LLVM Discourse\n\n## Install torch-mlir snapshot\n\nAt the time of writing, we release [pre-built snapshots of torch-mlir](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release) for Python 3.11 and Python 3.10.\n\nIf you have supported Python version, the following commands initialize a virtual environment.\n```shell\npython3.11 -m venv mlir_venv\nsource mlir_venv\u002Fbin\u002Factivate\n```\n\nOr, if you want to switch over multiple versions of Python using conda, you can create a conda environment with Python 3.11.\n```shell\nconda create -n torch-mlir python=3.11\nconda activate torch-mlir\npython -m pip install --upgrade pip\n```\n\nThen, we can install torch-mlir with the corresponding torch and torchvision nightlies.\n```\npip install --pre torch-mlir torchvision \\\n  --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu \\\n  -f https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release\u002Freleases\u002Fexpanded_assets\u002Fdev-wheels\n```\n\n## Using torch-mlir\n\nTorch-MLIR is primarily a project that is integrated into compilers to bridge them to PyTorch and ONNX. If contemplating a new integration, it may be helpful to refer to existing downstreams:\n\n* [IREE](https:\u002F\u002Fgithub.com\u002Firee-org\u002Firee.git)\n* [Blade](https:\u002F\u002Fgithub.com\u002Falibaba\u002FBladeDISC)\n\nWhile most of the project is exercised via testing paths, there are some ways that an end user can directly use the APIs without further integration:\n\n### FxImporter ResNet18\n```shell\n# Get the latest example if you haven't checked out the code\nwget https:\u002F\u002Fraw.githubusercontent.com\u002Fllvm\u002Ftorch-mlir\u002Fmain\u002Fprojects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py\n\n# Run ResNet18 as a standalone script.\npython projects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py\n\n# Output\nload image from https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002F2\u002F26\u002FYellowLabradorLooking_new.jpg\n...\nPyTorch prediction\n[('Labrador retriever', 70.65674591064453), ('golden retriever', 4.988346099853516), ('Saluki, gazelle hound', 4.477451324462891)]\ntorch-mlir prediction\n[('Labrador retriever', 70.6567153930664), ('golden retriever', 4.988325119018555), ('Saluki, gazelle hound', 4.477458477020264)]\n```\n\n## Repository Layout\n\nThe project follows the conventions of typical MLIR-based projects:\n\n* `include\u002Ftorch-mlir`, `lib` structure for C++ MLIR compiler dialects\u002Fpasses.\n* `test` for holding test code.\n* `tools` for `torch-mlir-opt` and such.\n* `python` top level directory for Python code\n\n## Developers\nIf you would like to develop and build torch-mlir from source please look at [Development Notes](docs\u002Fdevelopment.md)\n","# Torch-MLIR 项目\n\nTorch-MLIR 项目旨在为 MLIR 生态系统提供来自 PyTorch 生态的第一流编译器支持。\n\n> 本项目正在参与 LLVM 孵化器流程：因此，它不属于任何官方的 LLVM 发布版本。虽然孵化状态并不一定反映代码的完整性和稳定性，但它确实表明该项目尚未被认可为 LLVM 的一部分。\n\n[PyTorch](https:\u002F\u002Fpytorch.org)\nPyTorch 是一个开源机器学习框架，能够无缝地从研究和原型设计过渡到生产环境中的部署。\n\n[MLIR](https:\u002F\u002Fmlir.llvm.org)\nMLIR 项目提供了一种构建可扩展且可重用编译器架构的新方法，解决了软件碎片化问题，降低了开发领域特定编译器的成本，提升了针对异构硬件的编译效率，并促进了现有编译器之间的兼容性。\n\n[Torch-MLIR](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir)\n多家厂商已将 MLIR 作为其系统中的中间层，从而能够将 PyTorch、JAX 和 TensorFlow 等框架映射到 MLIR，再进一步下放到目标硬件上。我们已经观察到大约六个从 PyTorch 到 MLIR 的自定义下放实现，这使得硬件厂商可以更加专注于自身的核心价值，而无需为 MLIR 再次实现一个新的 PyTorch 前端。最终目标是类似于当前硬件厂商为 LLVM 添加目标支持的方式，而不是每个厂商都去实现 Clang 或 C++ 前端。\n\n[![pre-commit](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpre--commit-enabled-brightgreen?logo=pre-commit)](https:\u002F\u002Fgithub.com\u002Fpre-commit\u002Fpre-commit)\n\n## 从 PyTorch 到 Torch MLIR Dialect 的所有路径\n\n我们将 PyTorch 下降到 Torch MLIR Dialect 的路径主要有两条：\n- 以 ONNX 作为入口点。\n- 以 Fx 作为入口点。\n\n## 项目沟通\n\n- LLVM [Discord](https:\u002F\u002Fdiscord.gg\u002FxS7Z362) 上的 `#torch-mlir` 频道——这是最活跃的沟通渠道。\n- GitHub 问题 [这里](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues)。\n- LLVM Discourse 中的 [`torch-mlir` 版块](https:\u002F\u002Fllvm.discourse.group\u002Fc\u002Fprojects-that-want-to-become-official-llvm-projects\u002Ftorch-mlir\u002F41)。\n\n## 安装 torch-mlir 快照\n\n截至撰写本文时，我们发布了适用于 Python 3.11 和 Python 3.10 的 [预构建 torch-mlir 快照](https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release)。\n\n如果您使用的是受支持的 Python 版本，可以通过以下命令初始化一个虚拟环境：\n```shell\npython3.11 -m venv mlir_venv\nsource mlir_venv\u002Fbin\u002Factivate\n```\n\n或者，如果您希望使用 conda 在多个 Python 版本之间切换，可以创建一个包含 Python 3.11 的 conda 环境：\n```shell\nconda create -n torch-mlir python=3.11\nconda activate torch-mlir\npython -m pip install --upgrade pip\n```\n\n然后，我们可以安装对应版本的 torch 和 torchvision 夜间构建版的 torch-mlir：\n```\npip install --pre torch-mlir torchvision \\\n  --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu \\\n  -f https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release\u002Freleases\u002Fexpanded_assets\u002Fdev-wheels\n```\n\n## 使用 torch-mlir\n\nTorch-MLIR 主要是一个集成到编译器中，用于连接 PyTorch 和 ONNX 的项目。如果您正在考虑进行新的集成，可以参考现有的下游项目：\n\n* [IREE](https:\u002F\u002Fgithub.com\u002Firee-org\u002Firee.git)\n* [Blade](https:\u002F\u002Fgithub.com\u002Falibaba\u002FBladeDISC)\n\n尽管该项目的大部分功能都是通过测试路径来验证的，但终端用户也可以在不进行进一步集成的情况下直接使用一些 API：\n\n### FxImporter ResNet18\n```shell\n# 如果您尚未克隆代码，请获取最新示例\nwget https:\u002F\u002Fraw.githubusercontent.com\u002Fllvm\u002Ftorch-mlir\u002Fmain\u002Fprojects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py\n\n# 以独立脚本形式运行 ResNet18。\npython projects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py\n\n# 输出\n从 https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002F2\u002F26\u002FYellowLabradorLooking_new.jpg 加载图像\n...\nPyTorch 预测\n[('拉布拉多寻回犬', 70.65674591064453), ('金毛寻回犬', 4.988346099853516), ('萨路基犬, 瞪羚猎犬', 4.477451324462891)]\ntorch-mlir 预测\n[('拉布拉多寻回犬', 70.6567153930664), ('金毛寻回犬', 4.988325119018555), ('萨路基犬, 瞪羚猎犬', 4.477458477020264)]\n```\n\n## 仓库布局\n\n该项目遵循典型的基于 MLIR 的项目的惯例：\n\n* `include\u002Ftorch-mlir` 和 `lib` 目录用于存放 C++ MLIR 编译器方言和优化 pass。\n* `test` 目录用于存放测试代码。\n* `tools` 目录用于存放 `torch-mlir-opt` 等工具。\n* `python` 顶级目录用于存放 Python 代码。\n\n## 开发者\n如果您希望从源码开发并构建 torch-mlir，请参阅 [开发说明](docs\u002Fdevelopment.md)。","# torch-mlir 快速上手指南\n\ntorch-mlir 旨在为 PyTorch 生态系统提供一流的编译器支持，将其无缝对接到 MLIR 生态系统中。它允许将 PyTorch 模型转换为 MLIR 方言，以便下游编译器（如 IREE、BladeDISC）进一步优化并部署到各种硬件后端。\n\n## 环境准备\n\n*   **操作系统**：Linux (推荐), macOS, Windows (支持程度视具体版本而定)\n*   **Python 版本**：推荐使用 **Python 3.10** 或 **Python 3.11**\n*   **前置依赖**：\n    *   `pip` (包管理工具)\n    *   `venv` 或 `conda` (用于创建隔离的虚拟环境)\n    *   网络连接 (需访问 GitHub 和 PyTorch 官方源)\n\n> **注意**：目前项目处于 LLVM 孵化阶段，建议使用预构建的快照版本进行体验，无需从源码编译。\n\n## 安装步骤\n\n以下提供两种常见的环境配置方式，任选其一即可。\n\n### 方式一：使用 venv (推荐)\n\n1.  创建并激活虚拟环境：\n    ```shell\n    python3.11 -m venv mlir_venv\n    source mlir_venv\u002Fbin\u002Factivate\n    ```\n\n2.  安装 torch-mlir 及对应的 PyTorch 夜间构建版：\n    ```shell\n    pip install --pre torch-mlir torchvision \\\n      --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu \\\n      -f https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release\u002Freleases\u002Fexpanded_assets\u002Fdev-wheels\n    ```\n\n### 方式二：使用 Conda\n\n1.  创建并激活 Conda 环境：\n    ```shell\n    conda create -n torch-mlir python=3.11\n    conda activate torch-mlir\n    python -m pip install --upgrade pip\n    ```\n\n2.  执行相同的安装命令：\n    ```shell\n    pip install --pre torch-mlir torchvision \\\n      --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu \\\n      -f https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir-release\u002Freleases\u002Fexpanded_assets\u002Fdev-wheels\n    ```\n\n> **国内加速提示**：若下载速度较慢，可尝试将 `https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fnightly\u002Fcpu` 替换为国内镜像源（如清华源或阿里源中对应的 PyTorch 夜间版地址），但需确保索引 URL 与 `-f` 指定的 wheel 资产地址兼容性。若不确定，建议先使用官方源测试连通性。\n\n## 基本使用\n\ntorch-mlir 最直接的用法是通过 `FxImporter` 将 PyTorch 模型导入为 MLIR 格式。以下以 ResNet18 为例演示完整流程。\n\n1.  **获取示例脚本**：\n    ```shell\n    wget https:\u002F\u002Fraw.githubusercontent.com\u002Fllvm\u002Ftorch-mlir\u002Fmain\u002Fprojects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py\n    ```\n\n2.  **运行示例**：\n    确保在当前目录下执行，该脚本会自动下载图片、加载模型、通过 PyTorch 推理，并将其转换为 torch-mlir 后进行推理对比。\n    ```shell\n    python fximporter_resnet18.py\n    ```\n    *(注：如果未克隆仓库，文件位于当前目录；若已克隆仓库，路径应为 `python projects\u002Fpt1\u002Fexamples\u002Ffximporter_resnet18.py`)*\n\n3.  **预期输出**：\n    脚本将输出 PyTorch 原生预测结果与 torch-mlir 转换后的预测结果，两者应高度一致。\n    ```text\n    load image from https:\u002F\u002Fupload.wikimedia.org\u002Fwikipedia\u002Fcommons\u002F2\u002F26\u002FYellowLabradorLooking_new.jpg\n    ...\n    PyTorch prediction\n    [('Labrador retriever', 70.65674591064453), ('golden retriever', 4.988346099853516), ('Saluki, gazelle hound', 4.477451324462891)]\n    torch-mlir prediction\n    [('Labrador retriever', 70.6567153930664), ('golden retriever', 4.988325119018555), ('Saluki, gazelle hound', 4.477458477020264)]\n    ```\n\n此示例展示了从 PyTorch FX 图到 Torch MLIR Dialect 的基本转换流程。对于更复杂的集成（如对接 IREE 或 BladeDISC），请参考相应下游项目的文档。","一家边缘计算初创公司正试图将基于 PyTorch 研发的缺陷检测模型部署到多种异构 AI 加速芯片上，以满足工厂产线的实时质检需求。\n\n### 没有 torch-mlir 时\n- **重复造轮子成本高**：每适配一款新硬件，团队都必须为该芯片单独编写一套从 PyTorch 算子到私有中间表示的转换前端，开发周期长达数周。\n- **算子覆盖不全**：自研转换器难以紧跟 PyTorch 版本更新，遇到新算子或复杂动态形状时经常报错，导致模型需大幅修改才能运行。\n- **优化效果受限**：缺乏统一的编译器基础设施，无法利用成熟的图优化技术，模型在不同芯片上的推理性能差异巨大且难以调优。\n- **维护噩梦**：随着支持的硬件种类增加，多套独立的前端代码库变得极难维护，任何 PyTorch 升级都可能导致所有后端适配崩溃。\n\n### 使用 torch-mlir 后\n- **统一接入标准**：团队只需通过 torch-mlir 将 PyTorch 模型一次性转换为标准的 MLIR  dialect，各硬件厂商仅需关注底层代码生成，适配时间缩短至几天。\n- **生态无缝兼容**：直接复用 PyTorch 原生生态，支持 FX 和 ONNX 等多种导入路径，复杂模型和新算子无需修改即可顺利编译通过。\n- **性能自动提升**：依托 MLIR 强大的分层优化架构，自动执行算子融合与内存优化，使模型在各类边缘芯片上均能发挥接近手写的极致性能。\n- **长期可维护性**：解耦了框架与硬件的强依赖，PyTorch 升级由社区统一跟进，团队可专注于业务逻辑而非底层编译器细节。\n\ntorch-mlir 成功构建了连接 PyTorch 生态与异构硬件的桥梁，让算法团队不再受困于碎片化的部署难题，真正实现了“一次编写，处处高效运行”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fllvm_torch-mlir_1015949c.png","llvm","LLVM","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fllvm_8459689f.png","This is the LLVM organization on GitHub for the LLVM Project: a collection of modular and reusable compiler and toolchain technologies.",null,"https:\u002F\u002Fllvm.org","https:\u002F\u002Fgithub.com\u002Fllvm",[81,85,89,93,97,101,105,109,112,116],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",48.6,{"name":86,"color":87,"percentage":88},"MLIR","#5EC8DB",22.8,{"name":90,"color":91,"percentage":92},"Python","#3572A5",20.9,{"name":94,"color":95,"percentage":96},"Jupyter Notebook","#DA5B0B",6,{"name":98,"color":99,"percentage":100},"CMake","#DA3434",0.6,{"name":102,"color":103,"percentage":104},"Shell","#89e051",0.5,{"name":106,"color":107,"percentage":108},"Starlark","#76d275",0.3,{"name":110,"color":111,"percentage":108},"C","#555555",{"name":113,"color":114,"percentage":115},"Dockerfile","#384d54",0,{"name":117,"color":118,"percentage":115},"PowerShell","#012456",1792,673,"2026-04-19T03:18:37","NOASSERTION","未说明","未说明 (安装示例中使用了 CPU 版本的 PyTorch)",{"notes":126,"python":127,"dependencies":128},"该项目目前处于 LLVM 孵化阶段，非官方 LLVM 发布版的一部分。官方提供预构建的快照包，仅支持 Python 3.10 和 3.11。安装时需配合 PyTorch 和 TorchVision 的 nightly 版本，并指定额外的索引源地址。若需从源码构建，请参考项目文档中的开发指南。","3.10, 3.11",[129,130],"torch (nightly)","torchvision (nightly)",[14],[133,134,135],"pytorch","compiler","mlir","2026-03-27T02:49:30.150509","2026-04-20T04:06:06.547256",[139,144,149,154,159,164],{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},43225,"为什么使用 `pip install -f` 从 GitHub Releases 页面安装 torch-mlir 会失败？","这通常是因为 GitHub 更改了 Releases 页面的 HTML 结构，导致链接通过 JavaScript 动态加载，而 pip 无法解析。此外，请检查您的 Python 版本：该项目目前仅支持 Python 3.10（以及未来的 3.11），如果您使用的是 Python 3.8 等旧版本，将找不到对应的二进制包从而导致安装失败。","https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues\u002F1374",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},43226,"遇到 'unsupported by backend lowering: torch.operator op' 错误该如何解决？","此错误通常表示某个操作（如 `aten.maximum`）缺少后端降低（lowering）实现。这往往是因为该操作尚未在 `torch_ods_gen.py` 中生成，或者需要特定的转换模式（conversion pattern）。例如，`SliceTensor` 不是逐元素操作，需要其自己的转换模式；而 `SelectInt` 虽然是归约操作，但不受通用的 `ConvertReductionOp` 支持，需要单独实现。解决方法通常是等待社区贡献相应的 lowering 代码或手动添加缺失的操作支持。","https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues\u002F380",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},43227,"在 Apple M1 (ARM64) 上进行交叉编译时遇到 'Bad CPU type in executable' 错误怎么办？","这是一个已知的交叉编译问题，通常与 `mlir-tblgen` 工具的执行架构有关。该问题在项目的 GitHub Actions (GHA) macOS-12 运行器上已通过特定配置修复。如果您在本地 iMac Pro 上遇到此问题，建议参考项目最新的 CI 配置或 PR（如 #1204）来调整交叉编译设置，或者暂时依赖 GHA 进行构建。","https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues\u002F1094",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},43228,"集成上游 LLVM 变更时遇到 'Record does not have a field named...' 编译错误如何解决？","当上游 LLVM 更改了内部 API（例如将 `OpTrait` 改为 `Trait` 或改变了 `NativeTrait` 的含义）时，会导致此类编译错误。您需要更新 `TorchBase.td` 文件中的定义以匹配新的 LLVM 接口。具体的修复方案通常涉及修改 trait 类的继承关系和字段定义，请参考项目已合并的 PR（如 #590）获取具体的代码修改示例。","https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues\u002F589",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},43229,"如何在本地复现 CI 环境以调试构建问题？","项目已将 CI 容器化（Dockerize），以便在本地进行稳健的复现。您可以使用 Docker 来运行与 CI 相同的构建环境。如果在构建过程中发现缺少 `torch-mlir` 的构建步骤，这通常是一个配置 bug，需要确保构建脚本中明确包含了 `torch-mlir` 的编译目标。","https:\u002F\u002Fgithub.com\u002Fllvm\u002Ftorch-mlir\u002Fissues\u002F1162",{"id":165,"question_zh":166,"answer_zh":167,"source_url":158},43230,"在处理 MLIR 转换时遇到 `builtin.func` 或 `cf.assert` 相关的合法化（legalization）失败怎么办？","这类问题通常是因为某些操作未被正确添加到转换目标（conversion target）中。对于 `cf.assert`，尝试将其显式添加到转换目标中即可解决。对于 `builtin.func`，虽然文档说明该方言是隐式加载的，但在特定转换上下文中可能需要检查是否意外触发了对其中内容的非法化操作。",[169,174,178,182,186,190,194,198,202,206,210,215,219,223,227,231,235,239,243,247],{"id":170,"version":171,"summary_zh":172,"released_at":173},342911,"snapshot-20240127.1096","Torch-MLIR 的自动快照发布。","2024-01-27T11:16:17",{"id":175,"version":176,"summary_zh":172,"released_at":177},342912,"snapshot-20240126.1095","2024-01-26T11:16:18",{"id":179,"version":180,"summary_zh":172,"released_at":181},342913,"snapshot-20240125.1094","2024-01-25T11:16:46",{"id":183,"version":184,"summary_zh":172,"released_at":185},342914,"snapshot-20240124.1093","2024-01-24T11:16:27",{"id":187,"version":188,"summary_zh":172,"released_at":189},342915,"snapshot-20240123.1092","2024-01-23T11:16:29",{"id":191,"version":192,"summary_zh":172,"released_at":193},342916,"snapshot-20240122.1091","2024-01-22T11:16:42",{"id":195,"version":196,"summary_zh":172,"released_at":197},342917,"snapshot-20240121.1090","2024-01-21T11:16:19",{"id":199,"version":200,"summary_zh":172,"released_at":201},342918,"snapshot-20240120.1089","2024-01-20T11:16:28",{"id":203,"version":204,"summary_zh":172,"released_at":205},342919,"snapshot-20240119.1088","2024-01-19T11:16:21",{"id":207,"version":208,"summary_zh":172,"released_at":209},342920,"snapshot-20240118.1087","2024-01-18T11:16:41",{"id":211,"version":212,"summary_zh":213,"released_at":214},342921,"snapshot-20240117.1086","Automatic snapshot release of torch-mlir.","2024-01-17T12:36:53",{"id":216,"version":217,"summary_zh":213,"released_at":218},342922,"snapshot-20240116.1085","2024-01-16T12:36:29",{"id":220,"version":221,"summary_zh":213,"released_at":222},342923,"snapshot-20240115.1084","2024-01-15T11:16:28",{"id":224,"version":225,"summary_zh":213,"released_at":226},342924,"snapshot-20240114.1083","2024-01-14T11:16:14",{"id":228,"version":229,"summary_zh":213,"released_at":230},342925,"snapshot-20240113.1082","2024-01-13T11:16:06",{"id":232,"version":233,"summary_zh":213,"released_at":234},342926,"snapshot-20240112.1081","2024-01-12T11:16:28",{"id":236,"version":237,"summary_zh":213,"released_at":238},342927,"snapshot-20240111.1080","2024-01-11T11:16:13",{"id":240,"version":241,"summary_zh":213,"released_at":242},342928,"snapshot-20240110.1079","2024-01-10T11:16:13",{"id":244,"version":245,"summary_zh":213,"released_at":246},342929,"snapshot-20240109.1078","2024-01-09T11:18:53",{"id":248,"version":249,"summary_zh":213,"released_at":250},342930,"snapshot-20240108.1077","2024-01-08T11:16:25"]