[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Xilinx--Vitis-AI":3,"tool-Xilinx--Vitis-AI":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":123,"env_deps":125,"category_tags":128,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":129,"updated_at":130,"faqs":131,"releases":132},4722,"Xilinx\u002FVitis-AI","Vitis-AI","Vitis AI is Xilinx’s development stack for AI inference on Xilinx hardware platforms, including both edge devices and Alveo cards.","Vitis AI 是 AMD（原 Xilinx）专为人工智能推理打造的开发平台，旨在让开发者能轻松在边缘设备和 Alveo 数据中心加速卡上部署高效的 AI 应用。它主要解决了将复杂的深度学习模型转化为硬件可执行代码的难题，通过自动化的编译和优化流程，大幅降低了在 FPGA 等自适应硬件上运行 AI 模型的门槛。\n\n这套工具非常适合嵌入式工程师、AI 算法开发者以及系统架构师使用。无论是需要在资源受限的边缘端实现实时检测，还是在云端追求高吞吐量推理，Vitis AI 都能提供从模型量化、编译到部署的一站式支持。其核心亮点在于内置了丰富的优化算子库和预训练模型，支持主流深度学习框架，能够自动挖掘硬件潜力，实现“自适应”与“实时”的加速效果。此外，项目提供了详尽的教程和设计示例，并基于 Apache 2.0 协议开源，帮助团队快速验证想法并缩短产品上市周期。如果你希望在保持高能效比的同时释放硬件的全部算力，Vitis AI 是一个值得深入探索的专业选择。","\u003Ctable class=\"sphinxhide\">\n \u003Ctr>\n   \u003Ctd align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXilinx_Vitis-AI_readme_957f712e31f6.png\" width=\"30%\"\u002F>\u003Ch1>Vitis AI\u003C\u002Fh1>\u003Ch0>Adaptable & Real-Time AI Inference Acceleration\u003C\u002Fh0>\n   \u003C\u002Ftd>\n \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n![Release Version](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FXilinx\u002FVitis-AI)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n![GitHub Pull Requests](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr-raw\u002FXilinx\u002FVitis-AI)\n[![Documentation](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-github.IO-blue.svg)](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)\n![Repo Size](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002FXilinx\u002FVitis-AI)\n\n\n\u003Cbr \u002F>\nAMD Vitis&trade; AI is an Integrated Development Environment that can be leveraged to accelerate AI inference on AMD adaptable platforms. Vitis AI provides optimized IP, tools, libraries, models, as well as resources, such as example designs and tutorials that aid the user throughout the development process.  It is designed with high efficiency and ease-of-use in mind, unleashing the full potential of AI acceleration on AMD adaptable SoCs and Alveo Data Center accelerator cards.  \n\u003Cbr \u002F> \u003Cbr \u002F>\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg width=\"100%\" height=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXilinx_Vitis-AI_readme_fef2d9aeab6b.png\">\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\n## Getting Started\n\nIf your visit here is accidental, but you are enthusiastic to learn more about Vitis AI, please visit the Vitis AI [homepage](https:\u002F\u002Fwww.xilinx.com\u002Fproducts\u002Fdesign-tools\u002Fvitis\u002Fvitis-ai.html) on Xilinx.com.\n\nOtherwise, if your visit is deliberate and you are ready to begin, why not **[VIEW THE VITIS-AI DOCUMENTATION ON GITHUB.IO](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)**?\n\n## How to Download the Repository\n\nTo get a local copy of Vitis AI, clone this repository to the local system with the following command:\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FXilinx\u002FVitis-AI\n```\n\nThis command needs to be executed only once to retrieve the latest version of Vitis AI.\n\nOptionally, configure git-lfs in order to reduce the local storage requirements. \n\n## Repository Branching and Tagging Strategy\n\nTo understand the branching and tagging strategy leveraged by this repository, please refer to [this page](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F3.5\u002Fhtml\u002Fdocs\u002Finstall\u002Fbranching_tagging_strategy.html)\n\n## Licenses\n\nVitis AI License: [Apache 2.0](LICENSE)\u003C\u002Fbr>\nThird party: [Components](docsrc\u002Fsource\u002Fdocs\u002Freference\u002FThirdpartysource.md)\n","\u003Ctable class=\"sphinxhide\">\n \u003Ctr>\n   \u003Ctd align=\"center\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXilinx_Vitis-AI_readme_957f712e31f6.png\" width=\"30%\"\u002F>\u003Ch1>Vitis AI\u003C\u002Fh1>\u003Ch0>可适应且实时的AI推理加速\u003C\u002Fh0>\n   \u003C\u002Ftd>\n \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n![发布版本](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002FXilinx\u002FVitis-AI)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n![GitHub 拉取请求](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-pr-raw\u002FXilinx\u002FVitis-AI)\n[![文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocumentation-github.IO-blue.svg)](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)\n![仓库大小](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frepo-size\u002FXilinx\u002FVitis-AI)\n\n\n\u003Cbr \u002F>\nAMD Vitis&trade; AI 是一个集成开发环境，可用于加速 AMD 可适配平台上的 AI 推理。Vitis AI 提供优化的 IP、工具、库、模型，以及示例设计和教程等资源，以帮助用户完成整个开发流程。它在设计时充分考虑了高效性和易用性，从而充分发挥 AMD 可适配 SoC 和 Alveo 数据中心加速卡上的 AI 加速潜力。\n\u003Cbr \u002F> \u003Cbr \u002F>\n\n\n\u003Cdiv align=\"center\">\n  \u003Cimg width=\"100%\" height=\"100%\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXilinx_Vitis-AI_readme_fef2d9aeab6b.png\">\n\u003C\u002Fdiv>\n\u003Cbr \u002F>\n\n## 入门指南\n\n如果您是偶然访问此页面，但对 Vitis AI 感兴趣，欢迎前往 Xilinx 官网的 Vitis AI [主页](https:\u002F\u002Fwww.xilinx.com\u002Fproducts\u002Fdesign-tools\u002Fvitis\u002Fvitis-ai.html)。\n\n如果您是有意访问并准备开始使用，不妨 **[查看 Vitis AI 在 GitHub.IO 上的文档](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)**？\n\n## 如何下载仓库\n\n要获取 Vitis AI 的本地副本，请使用以下命令将此仓库克隆到本地系统：\n\n```\ngit clone https:\u002F\u002Fgithub.com\u002FXilinx\u002FVitis-AI\n```\n\n只需执行一次该命令即可获取最新版本的 Vitis AI。\n\n可选地，配置 git-lfs 以减少本地存储需求。\n\n## 仓库分支与标签策略\n\n如需了解本仓库采用的分支与标签策略，请参阅 [此页面](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F3.5\u002Fhtml\u002Fdocs\u002Finstall\u002Fbranching_tagging_strategy.html)。\n\n## 许可证\n\nVitis AI 许可证：[Apache 2.0](LICENSE)\u003C\u002Fbr>\n第三方：[组件](docsrc\u002Fsource\u002Fdocs\u002Freference\u002FThirdpartysource.md)","# Vitis AI 快速上手指南\n\nVitis AI 是 AMD（原 Xilinx）推出的集成开发环境，旨在加速 AI 推理在 AMD 自适应平台（如 Zynq SoC 和 Alveo 数据中心加速卡）上的运行。它提供了优化的 IP、工具链、模型库及示例设计，帮助开发者高效部署深度学习应用。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Ubuntu 18.04 或 Ubuntu 20.04 (64-bit)。\n*   **硬件平台**：\n    *   开发主机：用于运行量化、编译等工具链（建议 16GB+ 内存）。\n    *   目标硬件：AMD Zynq UltraScale+ MPSoC, Zynq-7000, 或 Alveo 加速卡。\n*   **前置依赖**：\n    *   Git 及 Git LFS（大文件存储支持，强烈建议安装以减小本地存储占用）。\n    *   Docker（推荐使用官方提供的 Docker 容器进行开发，以避免复杂的环境配置）。\n    *   NVIDIA GPU 及驱动（若需在主机上进行模型训练或使用 GPU 加速编译）。\n\n> **提示**：对于国内开发者，若遇到 GitHub 克隆速度慢的问题，可配置 Git 代理或使用国内代码托管平台的镜像仓库。\n\n## 2. 安装步骤\n\n获取 Vitis AI 源码最直接的方式是通过 Git 克隆官方仓库。\n\n### 步骤一：配置 Git LFS（可选但推荐）\n为了优化本地存储空间，建议在克隆前启用 Git LFS：\n\n```bash\ngit lfs install\n```\n\n### 步骤二：克隆仓库\n执行以下命令将最新版本的 Vitis AI 下载到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FXilinx\u002FVitis-AI\n```\n\n### 步骤三：选择开发模式\nVitis AI 强烈推荐通过 **Docker 容器** 进行开发，以确保工具链环境的一致性。\n\n1.  进入项目目录：\n    ```bash\n    cd Vitis-AI\n    ```\n2.  拉取对应的 Docker 镜像（以 CPU 版本为例，GPU 版本请参考文档）：\n    ```bash\n    docker pull xilinx\u002Fvitis-ai-cpu:latest\n    ```\n3.  启动容器并挂载当前代码目录：\n    ```bash\n    docker run -it --rm \\\n      -v \u002Fpath\u002Fto\u002Fyour\u002Fhost\u002Fworkdir:\u002Fworkspace \\\n      -w \u002Fworkspace \\\n      xilinx\u002Fvitis-ai-cpu:latest\n    ```\n    *注：请将 `\u002Fpath\u002Fto\u002Fyour\u002Fhost\u002Fworkdir` 替换为您实际的宿主机工作目录路径。*\n\n> **分支策略说明**：仓库采用特定的分支和标签策略管理版本。生产环境请务必切换到稳定的 Release 标签（如 `v3.5`），而非直接使用 `master` 分支。具体策略可参考官方文档中的 [Branching and Tagging Strategy](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F3.5\u002Fhtml\u002Fdocs\u002Finstall\u002Fbranching_tagging_strategy.html)。\n\n## 3. 基本使用\n\n在 Docker 容器环境中，您可以直接使用 Vitis AI 工具链进行模型量化与编译。以下是一个最简单的流程示例：\n\n### 场景：量化并编译一个预训练的 TensorFlow 模型\n\n假设您已经在挂载目录中准备好了模型文件 (`model.pb`) 和校准数据集。\n\n1.  **进入量化工具目录**：\n    在容器内，导航至包含 `vai_q_tensorflow` 工具的路径。\n\n2.  **执行模型量化**：\n    使用以下命令对浮点模型进行整数量化（生成部署所需的量化模型）：\n\n    ```bash\n    vai_q_tensorflow \\\n      --frozen_graph=model.pb \\\n      --input_nodes=input_node \\\n      --output_nodes=output_node \\\n      --input_shapes=1,224,224,3 \\\n      --calib_dataset=calib_data \\\n      --calib_iter=100 \\\n      --output_dir=quantized_model\n    ```\n\n3.  **编译模型为目标架构**：\n    使用 `vai_c` 编译器将量化后的模型编译为特定 FPGA 架构（如 DPUCZDX8G）可执行的指令流（`.xmodel`）：\n\n    ```bash\n    vai_c_tensorflow \\\n      -f quantized_model\u002Fquantize_eval_model.pb \\\n      -a arch.json \\\n      -o compiled_output \\\n      -n resnet50\n    ```\n    *   `-f`: 输入的量化模型文件。\n    *   `-a`: 目标硬件的架构描述文件（JSON）。\n    *   `-o`: 输出目录。\n    *   `-n`: 网络名称。\n\n4.  **部署运行**：\n    生成的 `.xmodel` 文件可复制到目标板卡上，结合 Vitis AI Runtime (VART) C++ 或 Python API 进行推理加速。\n\n---\n*更多详细教程、API 参考及示例设计，请访问 [Vitis AI 官方文档](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)。*","某智能交通公司正在为城市路口部署实时行人检测系统，需在低功耗边缘设备上运行高精度深度学习模型。\n\n### 没有 Vitis-AI 时\n- 算法团队训练的 PyTorch 模型无法直接在 FPGA 硬件上运行，需手动重写底层算子，开发周期长达数周。\n- 推理延迟高达 200 毫秒以上，无法满足红绿灯实时调控对“毫秒级”响应的严苛要求。\n- 缺乏统一的量化工具，模型从浮点转为定点精度损失严重，导致漏检率飙升。\n- 资源调度困难，难以在有限的边缘芯片算力上同时运行多路视频流分析。\n- 调试过程黑盒化，缺乏可视化工具定位性能瓶颈，工程师只能靠猜测试错。\n\n### 使用 Vitis-AI 后\n- 利用 Vitis-AI 的自动化编译器，一键将 PyTorch 模型量化并部署到 Zynq 边缘设备，上线时间缩短至 3 天。\n- 借助专用 DPU 加速内核，单帧推理延迟降至 15 毫秒以内，实现真正的实时交通指挥。\n- 内置的校准工具自动优化量化参数，在精度几乎无损的前提下大幅降低计算负载。\n- 通过高效的资源管理库，单块开发板可稳定并发处理 8 路高清摄像头数据。\n- 提供完整的性能分析 Profiler，直观展示各层耗时，帮助团队快速迭代优化网络结构。\n\nVitis-AI 成功打通了从云端训练到边缘推理的最后一公里，让复杂的 AI 算法在低成本硬件上实现了高性能落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FXilinx_Vitis-AI_63414ad1.png","Xilinx","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FXilinx_f160a5e5.png","GitHub.Com\u002FXilinx\u002F",null,"www.amd.com","https:\u002F\u002Fgithub.com\u002FXilinx",[79,83,87,91,95,99,103,107,111,115],{"name":80,"color":81,"percentage":82},"Python","#3572A5",43.6,{"name":84,"color":85,"percentage":86},"C++","#f34b7d",20.1,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",19.7,{"name":92,"color":93,"percentage":94},"HTML","#e34c26",7,{"name":96,"color":97,"percentage":98},"SystemVerilog","#DAE1C2",6.1,{"name":100,"color":101,"percentage":102},"CSS","#663399",0.9,{"name":104,"color":105,"percentage":106},"Shell","#89e051",0.6,{"name":108,"color":109,"percentage":110},"CMake","#DA3434",0.5,{"name":112,"color":113,"percentage":114},"Cuda","#3A4E3A",0.4,{"name":116,"color":117,"percentage":114},"C","#555555",1757,668,"2026-04-05T16:34:16","Apache-2.0",5,"未说明","未说明 (注：该工具用于加速 AMD 自适应平台及 Alveo 数据中心加速卡上的 AI 推理，非传统 NVIDIA GPU 环境)",{"notes":126,"python":123,"dependencies":127},"README 主要介绍了工具的功能定位（AMD Vitis AI 集成开发环境）和代码获取方式。具体的运行环境需求（如操作系统版本、Docker 镜像要求、主机内存、Python 版本等）未在本文档中列出，需参考文中提供的 GitHub.io 官方文档链接。该工具主要针对 Xilinx\u002FAMD 的 FPGA 和 ACAP 硬件进行加速，而非通用的 GPU 服务器。",[],[14],"2026-03-27T02:49:30.150509","2026-04-07T09:48:01.311925",[],[133,138,143,148,153,158,163,168,173,178,183,188,193,198,203],{"id":134,"version":135,"summary_zh":136,"released_at":137},127470,"v5.0","发布说明 5.0\r\n=================\r\n\r\n版本兼容性\r\n---------------------\r\n\r\n随本仓库 v5.0 分支发布的 Vitis |trade| AI 和 DPU IP 经验证与 Vitis、Vivado |trade| 以及 PetaLinux 2025.1 版本兼容。如果您使用的是 Vitis AI 的早期版本，请查阅该版本的 :ref:`版本兼容性矩阵 \u003Cversion-compatibility>`。\n\n已弃用的 Docker 容器，以停止对 Ubuntu 18.04 的支持（该支持在 Vitis AI 中可用，但未获得官方支持）。此举旨在解决 `CVE-2021-3493 \u003Chttps:\u002F\u002Fnvd.nist.gov\u002Fvuln\u002Fdetail\u002FCVE-2021-3493>`__ 漏洞。                                    \r\n\r\n模型库\r\n---------\r\n- 模型库无更新\r\n\r\n编译器\r\n--------\r\n- 编译器无更新\r\n\r\nPyTorch 优化器\r\n-----------------\r\n- PyTorch 优化器无更新\r\n\r\nTensorFlow 2 优化器\r\n----------------------\r\n- TF2 优化器无更新\r\n\r\n运行时\r\n-------\r\n- 基于 XRT 2025.1 进行了更新\r\n- Vitis AI 库在 Vitis AI 5.0 中不可用。\r\n\r\nVitis ONNX Runtime 执行提供者 (VOE)\r\n-------------------------------------------\r\n- 支持 ONNX Opset 18 版、ONNX Runtime 1.16.0 及 ONNX 1.13 版\r\n- 同时支持 C++ 和 Python API（Python 3 版）\r\n- 支持 Vitis AI EP 与其他 EP 协同工作以部署模型\r\n- 提供基于 C++ 和 Python API 的 ONNX 示例\r\n- Vitis AI EP 已开源，并已合并至 GitHub 上的 ONNX 公共仓库\r\n\r\n库\r\n-------\r\n- 基于 XRT 2025.1 进行了更新\r\n\r\n模型检查器\r\n---------------\r\n- 无更新\r\n\r\n性能分析器\r\n--------\r\n- 无更新 \r\n\r\n\r\nDPU IP - Zynq Ultrascale+ DPUCZDX8G\r\n-----------------------------------\r\n- 5.0 版本中 DPU IP 无更新\r\n- 5.0 版本中 DPU 参考设计无更新\r\n- 5.0 版本中预构建板级镜像无更新\r\n\r\nDPU IP - Versal AIE 目标 DPUCVDX8G\r\n-------------------------------------\r\n- 5.0 版本中 DPU IP 有更新。\r\n- 5.0 版本中 DPU 参考设计无更新\r\n- 5.0 版本中预构建板级镜像有更新","2026-02-02T06:02:25",{"id":139,"version":140,"summary_zh":141,"released_at":142},127471,"v4.0","发布说明 4.0\r\n=================\r\n\r\n版本兼容性\r\n---------------------\r\n\r\nVitis |trade| AI v3.5 以及随本仓库 4.0 分支发布的 DPU IP，已验证与 Vitis、Vivado |trade| 和 PetaLinux 2024.1 版本兼容。如果您使用的是 Vitis AI 的早期版本，请查阅该版本的 :ref:`版本兼容性矩阵 \u003Cversion-compatibility>`。\n\n为禁用 Ubuntu 18.04 支持（该支持在 Vitis AI 中可用但未获官方支持），对 Docker 容器进行了更新。此举旨在解决 `CVE-2021-3493 \u003Chttps:\u002F\u002Fnvd.nist.gov\u002Fvuln\u002Fdetail\u002FCVE-2021-3493>`__ 漏洞。                                    \r\n\r\n模型库\r\n---------\r\n- 模型库无更新\r\n\r\n编译器\r\n--------\r\n- 编译器无更新\r\n\r\nPyTorch 优化器\r\n-----------------\r\n- PyTorch 优化器无更新\r\n\r\nTensorFlow 2 优化器\r\n----------------------\r\n- TF2 优化器无更新\r\n\r\n运行时\r\n-------\r\n- 基于 XRT 2024.1 进行了更新\r\n\r\nVitis ONNX Runtime 执行提供者 (VOE)\r\n-------------------------------------------\r\n- 支持 ONNX Opset 18 版本、ONNX Runtime 1.16.0 和 ONNX 1.13 版本\r\n- 同时支持 C++ 和 Python API（Python 3 版本）\r\n- 支持 Vitis AI EP 与其他 EP 协同工作以部署模型\r\n- 提供基于 C++ 和 Python API 的 ONNX 示例\r\n- Vitis AI EP 已开源，并已合并至 GitHub 上的 ONNX 公共仓库\r\n\r\n库\r\n-------\r\n- 基于 XRT 2024.1 进行了更新\r\n\r\n模型检查器\r\n---------------\r\n- 新增对 DPUCV2DX8G 的支持\r\n\r\n性能分析器\r\n--------\r\n- 新增对 DPUCV2DX8G 的性能分析支持\r\n\r\n\r\nDPU IP - Zynq Ultrascale+ DPUCZDX8G\r\n-----------------------------------\r\n- 4.0 版本中 DPU IP 无更新\r\n- 4.0 版本中 DPU 参考设计无更新\r\n- 4.0 版本中预构建板级镜像无更新\r\n\r\nDPU IP - Versal AIE 目标 DPUCVDX8G\r\n-------------------------------------\r\n- 4.0 版本中 DPU IP 有更新\r\n- 4.0 版本中 DPU 参考设计无更新\r\n- 4.0 版本中预构建板级镜像有更新","2025-12-24T02:57:23",{"id":144,"version":145,"summary_zh":146,"released_at":147},127472,"v3.5","发布说明 3.5\r\n=================\r\n\r\n版本兼容性\r\n---------------------\r\n\r\nVitis™ AI v3.5 以及随本仓库 v3.5 分支发布的 DPU IP，已验证与 Vitis、Vivado™ 和 PetaLinux 2023.1 版本兼容。如果您使用的是 Vitis AI 的早期版本，请查阅该版本的 [版本兼容性矩阵](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F3.5\u002Fhtml\u002Fdocs\u002Freference\u002Fversion_compatibility.html#version-compatibility)。\r\n\r\n\r\n文档与 GitHub 仓库\r\n-----------------------------------\r\n- 将 UG1313 合并至 UG1414\r\n- 精简 UG1414，去除冗余内容\r\n- 精简 UG1414，使其仅聚焦于核心工具的使用。诸如 Optimizer、Quantizer 和 Compiler 等核心工具现已应用于多个目标平台（例如 Ryzen™ AI、EPYC™），此次调整旨在使 UG1414 更加适用于这些平台\r\n- 将 Adaptable SoC 和 Alveo 特定内容从 UG1414 迁移至 Github.IO\r\n- 新的 Github.IO Toctree 结构\r\n- 以 Doxygen 格式集成 VART 运行时 API\r\n\r\nDocker 容器与 GPU 支持\r\n----------------------------------\r\n- 为满足 Anaconda 商业许可要求，移除了 TensorFlow 2 和 PyTorch 容器中的 Anaconda 依赖\r\n- 更新 Docker 容器，关闭对 Ubuntu 18.04 的支持（该版本在 Vitis AI 中可用，但未获官方支持）。此举旨在修复 [CVE-2021-3493](https:\u002F\u002Fnvd.nist.gov\u002Fvuln\u002Fdetail\u002FCVE-2021-3493) 漏洞。\r\n\r\n模型库\r\n---------\r\n- 增加更多未经修改的经典模型，如 YOLO 系列和 2D Unet\r\n- 为每个模型提供模型信息卡片，并为新模型配备 Jupyter Notebook 教程\r\n- 新建采用 Copyleft 许可证的 GPL 模型仓库\r\n\r\nONNX CNN 量化器\r\n------------------\r\n- 初始发布\r\n- 这是一款全新的量化器，支持直接对 ONNX 模型进行 DPU 专用的 PTQ 量化。它作为 ONNXRuntime 原生量化器的插件实现\r\n- 支持以 QDQ 和 QOP 格式进行二的幂次方量化\r\n- 支持非溢出和最小均方误差（Min-MSE）量化方法\r\n- 在 QDQ 和 QOP 格式下，支持多种二的幂次方量化配置\r\n- 支持有符号和无符号配置\r\n- 支持对称与非对称配置\r\n- 支持张量级和通道级量化配置\r\n- 可处理超过 2GB 的 ONNX 模型\r\n- 支持在量化校准过程中使用 CUDAExecutionProvider\r\n\r\nPyTorch CNN 量化器\r\n---------------------\r\n- 支持 PyTorch 1.13 和 2.0\r\n- 支持混合精度量化，可实现 float32\u002Ffloat16\u002Fbfloat16\u002Fintx 的混合量化\r\n- 支持量化器与 ONNX-runtime 之间的位级精度交叉检查\r\n- 自动将 Split 和 Chunk 操作转换为切片操作\r\n- 支持模型前向传播函数的字典输入输出\r\n- 支持模型前向传播函数的关键字参数\r\n- 支持 Matmul 子程序\r\n- 新增对 BFP 数据类型的量化支持\r\n- QAT 支持 ","2023-06-29T14:15:53",{"id":149,"version":150,"summary_zh":151,"released_at":152},127473,"v3.0","# 发布说明 3.0[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#release-notes-3-0)\n# 文档与 GitHub 仓库[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#documentation-and-github-repository)\n\n- 核心文档已迁移到 [Github.IO](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002F)。\n\n- 针对无网络环境的用户，新增了离线 HTML 文档。\n\n- 重新组织了用户文档结构。\n\n- 为提高清晰度和易用性，重构了仓库目录结构。\n\n# Docker 容器与 GPU 支持[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#docker-containers-and-gpu-support)\n\n- 从多框架统一镜像迁移至按框架划分的 Docker 容器。\n\n- 启用了 Docker ROCm GPU 支持，用于量化和剪枝操作。\n\n# 模型库[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#model-zoo)\n\n- 更新了模型库，并增加了关于数据集许可限制的说明。\n\n- 新增 14 个模型，弃用 28 个模型，目前总计 130 个模型。\n\n- 增加了 4 倍超分辨率模型，以及面向医疗应用的 2D 和 3D 语义分割模型。\n\n- ## 针对基准测试优化的模型：\n\n  - MLPerf：3D-Unet\n\n  - FAMBench：MaskRCNN\n\n- 提供支持 YoloX、v4、v5、v6 和 EfficientNet-Lite 的优化骨干网络。\n\n- 优化了易用性，包括将 Markdown 格式的性能表格替换为可下载的模型库电子表格。\n\n- 针对 AMD EPYC™ CPU，新增 72 个 PyTorch 和 TensorFlow 模型，旨在与 ZenDNN 部署兼容。\n\n- 增加了支持基于 ROCm 和 MLGraphX 的 AMD GPU 架构的模型。\n\n# TensorFlow 2 CNN 量化工具[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#tensorflow-2-cnn-quantizer)\n- 基于 TensorFlow 2.10。\n\n- 更新了模型检查器，以提高 DPU 编译器预期分区结果的准确性。\n\n- 增加了对浮点模型的数据类型转换支持，包括 FP16、BFloat16、FP32 和双精度。\n\n- 增加了导出量化后的 ONNX 格式模型的功能（以支持 ONNX Runtime）。\n\n- 增加了对新层类型的支持，包括 SeparableConv2D 和 PReLU。\n\n- 增加了对无符号整数量化支持。\n\n- 增加了对具有可变输入形状模型的输入形状自动调整功能。\n\n- 增加了对 Concat 和 Pooling 层输入输出量化位置对齐的支持。\n\n- 增加了错误代码，并提升了错误和警告信息的可读性。\n\n- 修复了多项 bug。\n\n# TensorFlow 1 CNN 量化工具[¶](https:\u002F\u002Fxilinx.github.io\u002FVitis-AI\u002Fdocs\u002Freference\u002Frelease_notes_3.0.html#tensorflow-1-cnn-quantizer)\n- 将量化工具代码从 TensorFlow 代码中分离出来，使其成为官方 TensorFlow 代码库的一个插件模块。\n\n- 增加了导出量化后的 ONNX 格式模型的功能（以支持 ONNX Runtime）。\n\n- 增加了对浮点模型的数据类型转换支持，包括 FP16，","2023-01-13T10:04:12",{"id":154,"version":155,"summary_zh":156,"released_at":157},127474,"v2.5","# 新特性\u002F亮点\n\n    AI模型库新增14个模型，包括基于BERT的自然语言处理、视觉Transformer（ViT）、光学字符识别（OCR）、同时定位与地图构建（SLAM）等，以及更多Once-for-All（OFA）模型\n    为AMD EPYC服务器处理器新增38个基础及优化模型\n    AI量化工具新增模型检查器，现已支持TensorFlow 2.8和PyTorch 1.10\n    全图优化器（WeGO）支持PyTorch 1.x和TensorFlow 2.x\n    面向Versal® ACAP的深度学习处理单元（DPU）支持多个计算单元（CU），新增算术逻辑单元（ALU）引擎、深度可分离卷积等操作，并扩展了VCK5000和Alveo™数据中心加速卡上DPU所支持的算子种类\n    推理服务器在AMD EPYC™服务器处理器上支持ZenDNN作为后端\n    为VCK5000 Versal开发板和Zynq® UltraScale+™评估套件的全应用加速（WAA）新增示例\n\n# 发布说明\n## AI模型库\n\n    新增14个模型，累计达134个\n    扩展模型类别以覆盖多样化的AI工作负载：\n        增加面向数据中心应用需求的模型，包括文本检测和端到端OCR\n        在VCK5000平台上新增基于BERT的NLP和Vision Transformer（ViT）模型\n        更多OFA优化模型，包括用于超分辨率的OFA-RCAN和用于目标检测的OFA-YOLO\n        增加工业视觉和SLAM相关模型，如兴趣点检测与描述模型、层次化定位模型等\n    为AMD EPYC CPU新增38个基础及优化模型\n    EoU增强：\n        按应用类别优化模型索引\n\n## AI量化工具-CNN\n\n    新增模型检查器，可检查浮点模型并展示划分结果\n    支持TensorFlow 2.8和PyTorch 1.10\n    支持浮点尺度量化和按通道量化\n    支持不同量化策略的配置\n\n## AI优化工具\n\n    OFA增强：\n        支持偶数尺寸的卷积核\n        支持ConvTranspose2d\n        更新示例\n    一步式与迭代式剪枝增强：\n        异常发生后可恢复模型分析或搜索\n\n## AI编译器\n\n    支持DPUCZDX8G的ALU\n    支持新模型\n\n## AI库 \u002F VART\n\n    新增6个模型库，支持17个新模型\n    自定义OP增强：\n        新增CPU算子\n        Xdputil工具优化\n        在VCK190 Versal开发板上新增两个演示\n\n## AI性能分析工具\n\n    完全支持自定义OP和Graph Runner\n    稳定性优化\n\n## 边缘DPU-DPUCZDX8G\n\n    MISC中新增ALU引擎，取代池化引擎和DepthWiseConv引擎：\n        ALU：支持新特性，例如大卷积核尺寸的最大池化、平均池化，矩形卷积核尺寸的平均池化，以及16位常量权重\n        ALU：支持HardSigmoid和HardSwish\n        ALU：支持深度可分离卷积结合LeakyReLU\n        ALU：支持并行度配置\n    DPU IP和TRD在ZCU102上具有的","2022-06-16T01:34:03",{"id":159,"version":160,"summary_zh":161,"released_at":162},127475,"v2.0","\r\n## 发布版本 2.0\r\n### 新特性\u002F亮点\r\n1. VCK190（量产芯片）、VCK5000（量产芯片）和 U55C 正式商用（GA）\r\n2. 增加对最新 PyTorch 和 TensorFlow 版本的支持：PyTorch 1.8–1.9，TensorFlow 2.4–2.6\r\n3. 新增 22 个模型，包括 Solo、Yolo-X、UltraFast、CLOCs、PSMNet、FairMOT、SESR、DRUNet、SSR，以及 3 个 NLP 模型和 2 个 OFA（Once-for-all）模型\r\n4. 引入新的自定义 OP 流程，支持在 DPU 不支持的 OP 上运行模型，并在量化器、编译器和运行时层面进行优化\r\n5. 为 VCK190 和 VCK5000 的 DPU 增加更多层和配置选项\r\n6. 为 AI 优化器新增 OFA 剪枝功能及 TF2 Keras 支持\r\n7. 支持直接从 TensorFlow 进行推理（演示），适用于云端 DPU\r\n\r\n\r\n### 发布说明\r\n### 模型库\r\n- 新增 22 个模型，总数达到 130 个\r\n  - 19 个新的 PyTorch 模型，其中包括 3 个 NLP 模型和 2 个 OFA 模型\r\n  - 3 个新的 TensorFlow 模型\r\n- 新增多类应用模型\r\n  - AD\u002FADAS：Solo 用于实例分割，Yolo-X 用于交通标志检测，UltraFast 用于车道检测，CLOCs 用于传感器融合\r\n  - 医疗：SESR 用于超分辨率重建，DRUNet 用于图像去噪，SSR 用于光谱去除\r\n  - 智慧城市与工业视觉：PSMNet 用于双目深度估计，FairMOT 用于目标检测与 Re-ID 联合跟踪\r\n- EoU 功能增强\r\n  - 更新了自动脚本，可搜索并下载所需模型\r\n\r\n### 量化器\r\n- TF2 量化器\r\n  - 增加对 TensorFlow 2.4–2.6 的支持\r\n  - 支持自定义 OP 流程，包括形状推断、量化和转储\r\n  - 增加对 CUDA 11 的支持\r\n  - 在部署 QAT 模型时支持 input_shape 的指定\r\n  - 改进对 TFOpLambda 层的支持\r\n  - 更新硬件仿真支持，涵盖 sigmoid 层、leaky_relu 层、全局与非全局平均池化层\r\n  - 修复序列模型相关问题及量化位置调整问题\r\n- TF1 量化器\r\n  - 新增对硬 sigmoid、hard-swish 以及逐元素乘法等新算子的量化支持\r\n  - 支持用硬 sigmoid 替代普通 sigmoid\r\n  - 更新黄金结果转储时浮点权重导出的功能\r\n  - 修复 Python API 和 CLI API 之间的一致性问题\r\n- PyTorch 量化器\r\n  - 增加对 PyTorch 1.8 和 1.9 的支持\r\n  - 支持 CUDA 11\r\n  - 支持自定义 OP 流程\r\n  - 提升快速微调性能，在内存消耗和精度方面均有优化\r\n  - 降低量化过程中特征图的内存占用\r\n  - 改进 QAT 功能，包括更优的量化尺度初始化以及获取量化器参数的新接口\r\n  - 扩展更多操作的量化支持：部分 1D 和 3D 算子、DepthwiseConvTranspose2D、pixel-shuffle、pixel-unshuffle 以及常量操作\r\n  - 支持 CONV+CONCAT+BN 模式的 CONV\u002FBN 合并\r\n  - 增加提示信息，帮助用户定位问题\r\n  - 修复与硬件实现一致性相关的问题\r\n\r\n### 优化器\r\n- TensorFlow 1.15\r\n  - 支持 tf.keras.Optimizer 用于模型训练\r\n- TensorFlow 2.x\r\n  - 支持 TensorFlow 2.3–2.6\r\n  - 新增迭代式剪枝功能\r\n- Py","2022-01-20T07:21:02",{"id":164,"version":165,"summary_zh":166,"released_at":167},127476,"v1.4.1","## 版本 1.4.1\n### 新特性\u002F亮点\n\n- Vitis AI RNN Docker 公开发布，包含 RNN 量化器和编译器\n- 基于 VART Runner 接口和 XIR xmodels 的全新统一 xRNN 运行时，适用于 U25 和 U50LV\n- 发布基于 2021.1 版本的 Versal DPU TRD\n- 更新 Versal WAA 应用程序，利用新的 XRT C++ API 和零拷贝技术提升吞吐量\n- TVM 易用性改进\n- 支持 VCK190 和 VCK5000 生产级开发板\n- 修复了一些 bug，例如更新了影响 WAA 的 xCompiler 数据对齐问题，并修复了量化器中的 bug","2021-10-27T14:06:53",{"id":169,"version":170,"summary_zh":171,"released_at":172},127477,"v1.4","新特性\u002F亮点\n\n- 支持全新平台，包括 Versal ACAP 平台 VCK190、VCK5000 以及 Kria SoM\n- 更完善的 PyTorch 和 TensorFlow 模型支持：PyTorch 1.5–1.7.1，针对 TensorFlow 2.x 模型的量化优化\n- 新增模型，涵盖 4D 雷达目标检测、图像与激光雷达传感器融合、3D 目标检测与分割、多任务学习、深度估计、超分辨率等，适用于汽车、智慧医疗和工业视觉应用\n- 新增 Graph Runner API，用于部署包含多个子图的模型\n- DPUCADX8G（DPUv1）已弃用，由 DPUCADF8H（DPUv3Int8）替代\n- DPUCAHX8H（DPUv3E）和 DPUCAHX8L（DPUv3ME）随 xocl 发布\n- 适用于 Versal（VCK190）的分类与检测 WAA 示例","2021-07-27T06:05:50",{"id":174,"version":175,"summary_zh":176,"released_at":177},127478,"v1.3.2","* 在 MPSoC 上启用 Ubuntu 20.04（Vitis AI 运行时和 Vitis AI 库）\n* 添加了 Vitis AI 库的模型搜索路径环境变量\n* 修复了 PyTorch\u002FLSTM 相关的 bug，并优化了日志输出\n\n\n","2021-04-21T09:39:07",{"id":179,"version":180,"summary_zh":181,"released_at":182},127479,"v1.3.1","* 更新编译器，使大多数模型的性能平均提升5%\n* 增加零拷贝支持（VART\u002FVitis AI库中的新API）\n* 在TensorFlow 1.15中新增跨层均衡支持\n* 新增WAA U50 TRD\n* 使用多预处理JPEG解码核更新U280预处理流程\n* 针对v1.3版本的错误修复和改进\n\n","2021-03-23T07:48:07",{"id":184,"version":185,"summary_zh":186,"released_at":187},127480,"v1.3","- Added support for Pytorch and Tensorflow 2.3 frameworks\r\n- Added more ready-to-use AI models for a wider range of applications, including 3D point cloud detection and segmentation, COVID-19 chest image segmentation and other reference models\r\n- Unified XIR-based compilation flow from edge to cloud\r\n- Vitis AI Runtime (VART) fully open source\r\n- New RNN overlay for NLP applications\r\n- New CNN DPUs for the low-latency and higher throughput applications on Alveo cards\r\n- EoU enhancement with Beta version model partitioning and custom layer\u002Foperators plug-in","2020-12-17T22:08:58",{"id":189,"version":190,"summary_zh":191,"released_at":192},127481,"v1.2.1","v1.2.1\r\n- Added Zynq Ultrascale Plus Whole App examples\r\n- Updated U50 XRT and shell to Xilinx-u50-gen3x4-xdma-2-202010.1-2902115\r\n- Updated docker launch instructions\r\n- Updated TRD makefile instructions","2020-07-30T03:29:03",{"id":194,"version":195,"summary_zh":196,"released_at":197},127482,"v1.2","[Release Notes](doc\u002Frelease-notes\u002F1.x.md)\r\n- Vitis AI Quantizer and DNNDK runtime all open source\r\n- 14 new Reference Models  AI Model Zoo (Pytorch, Caffe, Tensorflow)\r\n- VAI Quantizer supports optimized models (pruned)\r\n- DPU naming scheme has been updated to be consistent across all configurations\r\n- Introducing Vitis AI profiler for edge and cloud\r\n- VAI DPUs supported in ONNXRuntime and TVM\r\n- Added Alveo U50\u002FU50LV support\r\n- Added Alveo U280 support\r\n- Alveo U50\u002FU50LV DPU DPUCAHX8H micro-architecture improvement\r\n- DPU TRD upgraded to support Vitis 2020.1 and Vivado 2020.1\r\n- Vitis AI for Pytorch CNN general access (Beta version)","2020-07-10T06:58:46",{"id":199,"version":200,"summary_zh":201,"released_at":202},127483,"v1.1","Add support for Alveo U50, Tensorflow 1.15 and VART (Vitis-AI Runtime) ","2020-03-26T19:50:43",{"id":204,"version":205,"summary_zh":206,"released_at":207},127484,"v1.0","Flagship release for Vitis-AI, software application code for running Machine Learning workloads on FPGAs.","2020-01-06T23:13:31"]