[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-qualcomm--ai-hub-models":3,"tool-qualcomm--ai-hub-models":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":23,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":117,"github_topics":118,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":130,"updated_at":131,"faqs":132,"releases":162},2424,"qualcomm\u002Fai-hub-models","ai-hub-models","Qualcomm® AI Hub Models is our collection of state-of-the-art machine learning models optimized for performance (latency, memory etc.) and ready to deploy on Qualcomm® devices.","ai-hub-models 是高通官方提供的一个开源模型库，汇集了各类前沿机器学习模型。这些模型经过专门优化，在延迟、内存占用等性能指标上表现卓越，旨在帮助开发者轻松将 AI 应用部署到高通芯片设备（如骁龙系列）上。\n\n对于希望在移动端或边缘设备运行高性能 AI 的开发者而言，该工具解决了模型适配难、优化复杂以及跨平台部署门槛高的问题。用户无需从零开始调整模型结构，即可直接获取针对特定硬件优化的现成方案。\n\n它特别适合嵌入式工程师、移动应用开发者以及 AI 研究人员使用。其核心亮点在于与\"Qualcomm AI Hub Workbench\"的深度集成：用户不仅能下载模型，还能通过云端服务直接在真实的高通设备上完成模型编译、量化、性能剖析及推理验证。这种“云 - 端”协同的工作流，让开发者在无需物理连接设备的情况下，也能高效完成从模型导出到端到端演示的全过程，极大提升了开发效率。","# [Qualcomm® AI Hub Models](https:\u002F\u002Faihub.qualcomm.com\u002F)\n\n[![Release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fquic\u002Fai-hub-models)](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Freleases\u002Flatest)\n[![Tag](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Ftag\u002Fquic\u002Fai-hub-models)](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Freleases\u002Flatest)\n[![PyPi](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fqai-hub-models)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fqai-hub-models\u002F)\n![Python 3.10, 3.11, 3.12, 3.13](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10%20(Recommended)%2C%203.11%2C%203.12%2C%203.13-yellow)\n\nThe Qualcomm® AI Hub Models are a collection of\nstate-of-the-art machine learning models optimized for deployment on Qualcomm® devices.\n\n* [List of Models by Category](#model-directory)\n* [On-Device Performance Data](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels)\n* [Device-Native Sample Apps](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-apps)\n\nSee supported: [On-Device Runtimes](#on-device-runtimes), [Hardware Targets & Precision](#device-hardware--precision), [Chipsets](#chipsets), [Devices](#devices)\n\n&nbsp;\n\n## Setup\n\n### 1. Install Python Package\n\nThe package is available via pip:\n\n```shell\n# NOTE for Snapdragon X Elite and Snapdragon X2 Elite users:\n# Only AMDx64 (64-bit) Python is supported on Windows.\n# Installation will fail when using Windows ARM64 Python.\n\npip install qai_hub_models\n```\n\nSome models (e.g. [YOLOv7](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Ftree\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7)) require\nadditional dependencies. View the model README (at [qai_hub_models\u002Fmodels\u002Fmodel_id](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Ftree\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7)) for installation instructions.\n\n&nbsp;\n\n### 2. Configure AI Hub Workbench Access\n\nMany features of AI Hub Models _(such as model compilation, on-device profiling, etc.)_ require access to Qualcomm® AI Hub Workbench:\n\n-  [Create a Qualcomm® ID](https:\u002F\u002Fmyaccount.qualcomm.com\u002Fsignup), and use it to [login to Qualcomm® AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002F).\n-  Configure your [API token](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Faccount\u002F): `qai-hub configure --api_token API_TOKEN`\n\n&nbsp;\n\n## Getting Started\n\n### Export and Run A Model on a Physical Device\n\nAll [models in our directory](#model-directory) can be compiled and profiled on a hosted\nQualcomm® device:\n\n```shell\npip install \"qai_hub_models[yolov7]\"\n\npython -m qai_hub_models.models.yolov7.export [--target-runtime ...] [--device ...] [--help]\n```\n\n_Using Qualcomm® AI Hub Workbench_, the export script will:\n\n1. **Compile** the model for the chosen device and target runtime (see: [Compiling Models on AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fcompile_examples.html)).\n2. If applicable, **Quantize** the model (see: [Quantization on AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fquantize_examples.html))\n3. **Profile** the compiled model on a real device in the cloud (see: [Profiling Models on AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fprofile_examples.html)).\n4. **Run inference** with a sample input data on a real device in the cloud, and compare on-device model output with PyTorch output (see: [Running Inference on AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Finference_examples.html))\n5. **Download** the compiled model to disk.\n\n&nbsp;\n\n### End-To-End Model Demos\n\nMost [models in our directory](#model-directory) contain CLI demos that run the model _end-to-end_:\n\n```shell\npip install \"qai_hub_models[yolov7]\"\n# Predict and draw bounding boxes on the provided image\npython -m qai_hub_models.models.yolov7.demo [--image ...] [--eval-mode {fp,on-device}] [--help]\n```\n\n_End-to-end_ demos:\n1. **Preprocess** human-readable input into model input\n2. Run **model inference**\n3. **Postprocess** model output to a human-readable format\n\n**Many end-to-end demos use AI Hub Workbench to run inference on a real cloud-hosted device** _(with `--eval-mode on-device`)_. All end-to-end demos can also run locally via PyTorch (with `--eval-mode fp`).\n\n&nbsp;\n\n### Sample Applications\n\n**Native** applications that can run our models (with pre- and post-processing) on physical devices are published in the [AI Hub Apps repository](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-apps\u002F).\n\n**Python** applications are defined for all models [(from qai_hub_models.models.\\\u003Cmodel_name> import App)](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fblob\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7\u002Fapp.py). These apps wrap model inference with pre- and post-processing steps written using torch & numpy. **These apps are optimized to be an easy-to-follow example, rather than to minimize prediction time.**\n\n&nbsp;\n\n## Model Support Data\n\n### On-Device Runtimes\n\n| Runtime | Supported OS |\n| -- | -- |\n| [Qualcomm AI Engine Direct](https:\u002F\u002Fwww.qualcomm.com\u002Fdeveloper\u002Fartificial-intelligence#overview) | Android, Linux, Windows\n| [LiteRT (TensorFlow Lite)](https:\u002F\u002Fwww.tensorflow.org\u002Flite) | Android, Linux\n| [ONNX](https:\u002F\u002Fonnxruntime.ai\u002Fdocs\u002Fexecution-providers\u002FQNN-ExecutionProvider.html) | Android, Linux, Windows\n\n### Device Hardware & Precision\n\n| Device Compute Unit | Supported Precision |\n| -- | -- |\n| CPU | FP32, INT16, INT8\n| GPU | FP32, FP16\n| NPU (includes [Hexagon DSP](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fhexagon-dsp-sdk\u002Fdsp-processor), [HTP](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fhardware\u002Fqualcomm-innovators-development-kit\u002Fai-resources-overview\u002Fai-hardware-cores-accelerators)) | FP16*, INT16, INT8\n\n*Some older chipsets do not support fp16 inference on their NPU.\n\n### Chipsets\n* Snapdragon [8 Elite Gen 5](https:\u002F\u002Fwww.qualcomm.com\u002Fsmartphones\u002Fproducts\u002F8-series\u002Fsnapdragon-8-elite-gen-5), [8 Elite](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-elite-mobile-platform), [8 Gen 3](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-3-mobile-platform), [8 Gen 2](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-2-mobile-platform), and [8 Gen 1](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-1-mobile-platform) Mobile Platforms\n* [Snapdragon X2 Elite](https:\u002F\u002Fwww.qualcomm.com\u002Flaptops\u002Fproducts\u002Fsnapdragon-x2-elite), [Snapdragon X Elite](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fpcs-and-tablets\u002Fsnapdragon-x-elite) Compute Platforms\n* SA7255P, SA8295P, and SA8775P Automotive Platforms\n* [QCS 6490](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Finternet-of-things\u002Findustrial\u002Fbuilding-enterprise\u002Fqcs6490), [QCS 8250](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Finternet-of-things\u002Fconsumer\u002Fcameras\u002Fqcs8250), [QCS 9075](https:\u002F\u002Fwww.qualcomm.com\u002Finternet-of-things\u002Fproducts\u002Fiq9-series\u002Fiq-9075), and [QCS 8550](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Ftechnology\u002Fprocessors\u002Fqcs8550) IoT Platforms\n* QCS8450 XR Platform\n\nand many more.\n\n### Devices\n* Samsung Galaxy S21, S22, S23, S24, and S25 Series\n* Xiaomi 12, 13, 15, and 17\n* Snapdragon X Elite CRD and Snapdragon X2 Elite CRD (Compute Reference Device)\n* Qualcomm RB3 Gen 2, RB5 Gen 2, IQ-8, IQ-9\n\nand many more.\n\n&nbsp;\n\n## Model Directory\n\n### Computer Vision\n\n| Model | README |\n| -- | -- |\n| | |\n| **Image Classification**\n| [Beit](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbeit) | [qai_hub_models.models.beit](qai_hub_models\u002Fmodels\u002Fbeit\u002FREADME.md) |\n| [ConvNext-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconvnext_base) | [qai_hub_models.models.convnext_base](qai_hub_models\u002Fmodels\u002Fconvnext_base\u002FREADME.md) |\n| [ConvNext-Tiny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconvnext_tiny) | [qai_hub_models.models.convnext_tiny](qai_hub_models\u002Fmodels\u002Fconvnext_tiny\u002FREADME.md) |\n| [DLA-102-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdla102x) | [qai_hub_models.models.dla102x](qai_hub_models\u002Fmodels\u002Fdla102x\u002FREADME.md) |\n| [DenseNet-121](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdensenet121) | [qai_hub_models.models.densenet121](qai_hub_models\u002Fmodels\u002Fdensenet121\u002FREADME.md) |\n| [EfficientFormer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientformer) | [qai_hub_models.models.efficientformer](qai_hub_models\u002Fmodels\u002Fefficientformer\u002FREADME.md) |\n| [EfficientNet-B0](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_b0) | [qai_hub_models.models.efficientnet_b0](qai_hub_models\u002Fmodels\u002Fefficientnet_b0\u002FREADME.md) |\n| [EfficientNet-B4](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_b4) | [qai_hub_models.models.efficientnet_b4](qai_hub_models\u002Fmodels\u002Fefficientnet_b4\u002FREADME.md) |\n| [EfficientNet-V2-s](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_v2_s) | [qai_hub_models.models.efficientnet_v2_s](qai_hub_models\u002Fmodels\u002Fefficientnet_v2_s\u002FREADME.md) |\n| [EfficientViT-b2-cls](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientvit_b2_cls) | [qai_hub_models.models.efficientvit_b2_cls](qai_hub_models\u002Fmodels\u002Fefficientvit_b2_cls\u002FREADME.md) |\n| [EfficientViT-l2-cls](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientvit_l2_cls) | [qai_hub_models.models.efficientvit_l2_cls](qai_hub_models\u002Fmodels\u002Fefficientvit_l2_cls\u002FREADME.md) |\n| [GPUNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgpunet) | [qai_hub_models.models.gpunet](qai_hub_models\u002Fmodels\u002Fgpunet\u002FREADME.md) |\n| [GoogLeNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgooglenet) | [qai_hub_models.models.googlenet](qai_hub_models\u002Fmodels\u002Fgooglenet\u002FREADME.md) |\n| [Inception-v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Finception_v3) | [qai_hub_models.models.inception_v3](qai_hub_models\u002Fmodels\u002Finception_v3\u002FREADME.md) |\n| [InternImage](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Finternimage) | [qai_hub_models.models.internimage](qai_hub_models\u002Fmodels\u002Finternimage\u002FREADME.md) |\n| [LeViT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flevit) | [qai_hub_models.models.levit](qai_hub_models\u002Fmodels\u002Flevit\u002FREADME.md) |\n| [MNASNet05](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmnasnet05) | [qai_hub_models.models.mnasnet05](qai_hub_models\u002Fmodels\u002Fmnasnet05\u002FREADME.md) |\n| [Mobile-VIT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobile_vit) | [qai_hub_models.models.mobile_vit](qai_hub_models\u002Fmodels\u002Fmobile_vit\u002FREADME.md) |\n| [MobileNet-v2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v2) | [qai_hub_models.models.mobilenet_v2](qai_hub_models\u002Fmodels\u002Fmobilenet_v2\u002FREADME.md) |\n| [MobileNet-v3-Large](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v3_large) | [qai_hub_models.models.mobilenet_v3_large](qai_hub_models\u002Fmodels\u002Fmobilenet_v3_large\u002FREADME.md) |\n| [MobileNet-v3-Small](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v3_small) | [qai_hub_models.models.mobilenet_v3_small](qai_hub_models\u002Fmodels\u002Fmobilenet_v3_small\u002FREADME.md) |\n| [NASNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fnasnet) | [qai_hub_models.models.nasnet](qai_hub_models\u002Fmodels\u002Fnasnet\u002FREADME.md) |\n| [RegNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fregnet) | [qai_hub_models.models.regnet](qai_hub_models\u002Fmodels\u002Fregnet\u002FREADME.md) |\n| [RegNet-Y-800MF](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fregnet_y_800mf) | [qai_hub_models.models.regnet_y_800mf](qai_hub_models\u002Fmodels\u002Fregnet_y_800mf\u002FREADME.md) |\n| [ResNeXt101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnext101) | [qai_hub_models.models.resnext101](qai_hub_models\u002Fmodels\u002Fresnext101\u002FREADME.md) |\n| [ResNeXt50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnext50) | [qai_hub_models.models.resnext50](qai_hub_models\u002Fmodels\u002Fresnext50\u002FREADME.md) |\n| [ResNet101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet101) | [qai_hub_models.models.resnet101](qai_hub_models\u002Fmodels\u002Fresnet101\u002FREADME.md) |\n| [ResNet18](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet18) | [qai_hub_models.models.resnet18](qai_hub_models\u002Fmodels\u002Fresnet18\u002FREADME.md) |\n| [ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet50) | [qai_hub_models.models.resnet50](qai_hub_models\u002Fmodels\u002Fresnet50\u002FREADME.md) |\n| [Sequencer2D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsequencer2d) | [qai_hub_models.models.sequencer2d](qai_hub_models\u002Fmodels\u002Fsequencer2d\u002FREADME.md) |\n| [Shufflenet-v2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fshufflenet_v2) | [qai_hub_models.models.shufflenet_v2](qai_hub_models\u002Fmodels\u002Fshufflenet_v2\u002FREADME.md) |\n| [SqueezeNet-1.1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsqueezenet1_1) | [qai_hub_models.models.squeezenet1_1](qai_hub_models\u002Fmodels\u002Fsqueezenet1_1\u002FREADME.md) |\n| [VIT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fvit) | [qai_hub_models.models.vit](qai_hub_models\u002Fmodels\u002Fvit\u002FREADME.md) |\n| [WideResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwideresnet50) | [qai_hub_models.models.wideresnet50](qai_hub_models\u002Fmodels\u002Fwideresnet50\u002FREADME.md) |\n| | |\n| **Image Editing**\n| [AOT-GAN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Faotgan) | [qai_hub_models.models.aotgan](qai_hub_models\u002Fmodels\u002Faotgan\u002FREADME.md) |\n| [DDColor](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fddcolor) | [qai_hub_models.models.ddcolor](qai_hub_models\u002Fmodels\u002Fddcolor\u002FREADME.md) |\n| [LaMa-Dilated](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flama_dilated) | [qai_hub_models.models.lama_dilated](qai_hub_models\u002Fmodels\u002Flama_dilated\u002FREADME.md) |\n| | |\n| **Super Resolution**\n| [ESRGAN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fesrgan) | [qai_hub_models.models.esrgan](qai_hub_models\u002Fmodels\u002Fesrgan\u002FREADME.md) |\n| [QuickSRNetLarge](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetlarge) | [qai_hub_models.models.quicksrnetlarge](qai_hub_models\u002Fmodels\u002Fquicksrnetlarge\u002FREADME.md) |\n| [QuickSRNetMedium](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetmedium) | [qai_hub_models.models.quicksrnetmedium](qai_hub_models\u002Fmodels\u002Fquicksrnetmedium\u002FREADME.md) |\n| [QuickSRNetSmall](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetsmall) | [qai_hub_models.models.quicksrnetsmall](qai_hub_models\u002Fmodels\u002Fquicksrnetsmall\u002FREADME.md) |\n| [Real-ESRGAN-General-x4v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Freal_esrgan_general_x4v3) | [qai_hub_models.models.real_esrgan_general_x4v3](qai_hub_models\u002Fmodels\u002Freal_esrgan_general_x4v3\u002FREADME.md) |\n| [Real-ESRGAN-x4plus](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Freal_esrgan_x4plus) | [qai_hub_models.models.real_esrgan_x4plus](qai_hub_models\u002Fmodels\u002Freal_esrgan_x4plus\u002FREADME.md) |\n| [SESR-M5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsesr_m5) | [qai_hub_models.models.sesr_m5](qai_hub_models\u002Fmodels\u002Fsesr_m5\u002FREADME.md) |\n| [XLSR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fxlsr) | [qai_hub_models.models.xlsr](qai_hub_models\u002Fmodels\u002Fxlsr\u002FREADME.md) |\n| | |\n| **Semantic Segmentation**\n| [DDRNet23-Slim](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fddrnet23_slim) | [qai_hub_models.models.ddrnet23_slim](qai_hub_models\u002Fmodels\u002Fddrnet23_slim\u002FREADME.md) |\n| [DeepLabV3-Plus-MobileNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeeplabv3_plus_mobilenet) | [qai_hub_models.models.deeplabv3_plus_mobilenet](qai_hub_models\u002Fmodels\u002Fdeeplabv3_plus_mobilenet\u002FREADME.md) |\n| [DeepLabXception](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeeplab_xception) | [qai_hub_models.models.deeplab_xception](qai_hub_models\u002Fmodels\u002Fdeeplab_xception\u002FREADME.md) |\n| [EdgeTAM](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fedgetam) | [qai_hub_models.models.edgetam](qai_hub_models\u002Fmodels\u002Fedgetam\u002FREADME.md) |\n| [FCN-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffcn_resnet50) | [qai_hub_models.models.fcn_resnet50](qai_hub_models\u002Fmodels\u002Ffcn_resnet50\u002FREADME.md) |\n| [FFNet-122NS-LowRes](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_122ns_lowres) | [qai_hub_models.models.ffnet_122ns_lowres](qai_hub_models\u002Fmodels\u002Fffnet_122ns_lowres\u002FREADME.md) |\n| [FFNet-40S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_40s) | [qai_hub_models.models.ffnet_40s](qai_hub_models\u002Fmodels\u002Fffnet_40s\u002FREADME.md) |\n| [FFNet-54S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_54s) | [qai_hub_models.models.ffnet_54s](qai_hub_models\u002Fmodels\u002Fffnet_54s\u002FREADME.md) |\n| [FFNet-78S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_78s) | [qai_hub_models.models.ffnet_78s](qai_hub_models\u002Fmodels\u002Fffnet_78s\u002FREADME.md) |\n| [FFNet-78S-LowRes](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_78s_lowres) | [qai_hub_models.models.ffnet_78s_lowres](qai_hub_models\u002Fmodels\u002Fffnet_78s_lowres\u002FREADME.md) |\n| [FastSam-S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffastsam_s) | [qai_hub_models.models.fastsam_s](qai_hub_models\u002Fmodels\u002Ffastsam_s\u002FREADME.md) |\n| [FastSam-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffastsam_x) | [qai_hub_models.models.fastsam_x](qai_hub_models\u002Fmodels\u002Ffastsam_x\u002FREADME.md) |\n| [HRNet-W48-OCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_w48_ocr) | [qai_hub_models.models.hrnet_w48_ocr](qai_hub_models\u002Fmodels\u002Fhrnet_w48_ocr\u002FREADME.md) |\n| [MaskRCNN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmaskrcnn) | [qai_hub_models.models.maskrcnn](qai_hub_models\u002Fmodels\u002Fmaskrcnn\u002FREADME.md) |\n| [MediaPipe-Selfie-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_selfie) | [qai_hub_models.models.mediapipe_selfie](qai_hub_models\u002Fmodels\u002Fmediapipe_selfie\u002FREADME.md) |\n| [MobileSam](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilesam) | [qai_hub_models.models.mobilesam](qai_hub_models\u002Fmodels\u002Fmobilesam\u002FREADME.md) |\n| [PSPNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpspnet) | [qai_hub_models.models.pspnet](qai_hub_models\u002Fmodels\u002Fpspnet\u002FREADME.md) |\n| [PidNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpidnet) | [qai_hub_models.models.pidnet](qai_hub_models\u002Fmodels\u002Fpidnet\u002FREADME.md) |\n| [PointNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpointnet) | [qai_hub_models.models.pointnet](qai_hub_models\u002Fmodels\u002Fpointnet\u002FREADME.md) |\n| [SINet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsinet) | [qai_hub_models.models.sinet](qai_hub_models\u002Fmodels\u002Fsinet\u002FREADME.md) |\n| [SalsaNext](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsalsanext) | [qai_hub_models.models.salsanext](qai_hub_models\u002Fmodels\u002Fsalsanext\u002FREADME.md) |\n| [Segformer-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsegformer_base) | [qai_hub_models.models.segformer_base](qai_hub_models\u002Fmodels\u002Fsegformer_base\u002FREADME.md) |\n| [Segment-Anything-Model-2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsam2) | [qai_hub_models.models.sam2](qai_hub_models\u002Fmodels\u002Fsam2\u002FREADME.md) |\n| [Unet-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Funet_segmentation) | [qai_hub_models.models.unet_segmentation](qai_hub_models\u002Fmodels\u002Funet_segmentation\u002FREADME.md) |\n| [YOLOv11-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov11_seg) | [qai_hub_models.models.yolov11_seg](qai_hub_models\u002Fmodels\u002Fyolov11_seg\u002FREADME.md) |\n| [YOLOv8-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov8_seg) | [qai_hub_models.models.yolov8_seg](qai_hub_models\u002Fmodels\u002Fyolov8_seg\u002FREADME.md) |\n| | |\n| **Video Classification**\n| [ResNet-2Plus1D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_2plus1d) | [qai_hub_models.models.resnet_2plus1d](qai_hub_models\u002Fmodels\u002Fresnet_2plus1d\u002FREADME.md) |\n| [ResNet-3D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_3d) | [qai_hub_models.models.resnet_3d](qai_hub_models\u002Fmodels\u002Fresnet_3d\u002FREADME.md) |\n| [ResNet-Mixed-Convolution](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_mixed) | [qai_hub_models.models.resnet_mixed](qai_hub_models\u002Fmodels\u002Fresnet_mixed\u002FREADME.md) |\n| [Video-MAE](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fvideo_mae) | [qai_hub_models.models.video_mae](qai_hub_models\u002Fmodels\u002Fvideo_mae\u002FREADME.md) |\n| | |\n| **Video Generation**\n| [First-Order-Motion-Model](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffomm) | [qai_hub_models.models.fomm](qai_hub_models\u002Fmodels\u002Ffomm\u002FREADME.md) |\n| | |\n| **Video Object Tracking**\n| [Track-Anything](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ftrack_anything) | [qai_hub_models.models.track_anything](qai_hub_models\u002Fmodels\u002Ftrack_anything\u002FREADME.md) |\n| | |\n| **Object Detection**\n| [3D-Deep-BOX](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeepbox) | [qai_hub_models.models.deepbox](qai_hub_models\u002Fmodels\u002Fdeepbox\u002FREADME.md) |\n| [CavaFace](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcavaface) | [qai_hub_models.models.cavaface](qai_hub_models\u002Fmodels\u002Fcavaface\u002FREADME.md) |\n| [CenterNet-2D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_2d) | [qai_hub_models.models.centernet_2d](qai_hub_models\u002Fmodels\u002Fcenternet_2d\u002FREADME.md) |\n| [Conditional-DETR-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconditional_detr_resnet50) | [qai_hub_models.models.conditional_detr_resnet50](qai_hub_models\u002Fmodels\u002Fconditional_detr_resnet50\u002FREADME.md) |\n| [DETR-ResNet101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet101) | [qai_hub_models.models.detr_resnet101](qai_hub_models\u002Fmodels\u002Fdetr_resnet101\u002FREADME.md) |\n| [DETR-ResNet101-DC5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet101_dc5) | [qai_hub_models.models.detr_resnet101_dc5](qai_hub_models\u002Fmodels\u002Fdetr_resnet101_dc5\u002FREADME.md) |\n| [DETR-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet50) | [qai_hub_models.models.detr_resnet50](qai_hub_models\u002Fmodels\u002Fdetr_resnet50\u002FREADME.md) |\n| [DETR-ResNet50-DC5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet50_dc5) | [qai_hub_models.models.detr_resnet50_dc5](qai_hub_models\u002Fmodels\u002Fdetr_resnet50_dc5\u002FREADME.md) |\n| [Detectron2-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetectron2_detection) | [qai_hub_models.models.detectron2_detection](qai_hub_models\u002Fmodels\u002Fdetectron2_detection\u002FREADME.md) |\n| [Facial-Attribute-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fface_attrib_net) | [qai_hub_models.models.face_attrib_net](qai_hub_models\u002Fmodels\u002Fface_attrib_net\u002FREADME.md) |\n| [HRNetFace](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_face) | [qai_hub_models.models.hrnet_face](qai_hub_models\u002Fmodels\u002Fhrnet_face\u002FREADME.md) |\n| [Lightweight-Face-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fface_det_lite) | [qai_hub_models.models.face_det_lite](qai_hub_models\u002Fmodels\u002Fface_det_lite\u002FREADME.md) |\n| [MediaPipe-Face-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_face) | [qai_hub_models.models.mediapipe_face](qai_hub_models\u002Fmodels\u002Fmediapipe_face\u002FREADME.md) |\n| [MediaPipe-Hand-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_hand) | [qai_hub_models.models.mediapipe_hand](qai_hub_models\u002Fmodels\u002Fmediapipe_hand\u002FREADME.md) |\n| [MediaPipe-Hand-Gesture-Recognition](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_hand_gesture) | [qai_hub_models.models.mediapipe_hand_gesture](qai_hub_models\u002Fmodels\u002Fmediapipe_hand_gesture\u002FREADME.md) |\n| [PPE-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgear_guard_net) | [qai_hub_models.models.gear_guard_net](qai_hub_models\u002Fmodels\u002Fgear_guard_net\u002FREADME.md) |\n| [Person-Foot-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffoot_track_net) | [qai_hub_models.models.foot_track_net](qai_hub_models\u002Fmodels\u002Ffoot_track_net\u002FREADME.md) |\n| [RTMDet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Frtmdet) | [qai_hub_models.models.rtmdet](qai_hub_models\u002Fmodels\u002Frtmdet\u002FREADME.md) |\n| [YOLOv10-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov10_det) | [qai_hub_models.models.yolov10_det](qai_hub_models\u002Fmodels\u002Fyolov10_det\u002FREADME.md) |\n| [YOLOv11-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov11_det) | [qai_hub_models.models.yolov11_det](qai_hub_models\u002Fmodels\u002Fyolov11_det\u002FREADME.md) |\n| [YOLOv8-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov8_det) | [qai_hub_models.models.yolov8_det](qai_hub_models\u002Fmodels\u002Fyolov8_det\u002FREADME.md) |\n| [Yolo-R](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolor) | [qai_hub_models.models.yolor](qai_hub_models\u002Fmodels\u002Fyolor\u002FREADME.md) |\n| [Yolo-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolox) | [qai_hub_models.models.yolox](qai_hub_models\u002Fmodels\u002Fyolox\u002FREADME.md) |\n| [Yolo-v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov3) | [qai_hub_models.models.yolov3](qai_hub_models\u002Fmodels\u002Fyolov3\u002FREADME.md) |\n| [Yolo-v5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov5) | [qai_hub_models.models.yolov5](qai_hub_models\u002Fmodels\u002Fyolov5\u002FREADME.md) |\n| [Yolo-v6](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov6) | [qai_hub_models.models.yolov6](qai_hub_models\u002Fmodels\u002Fyolov6\u002FREADME.md) |\n| [Yolo-v7](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov7) | [qai_hub_models.models.yolov7](qai_hub_models\u002Fmodels\u002Fyolov7\u002FREADME.md) |\n| | |\n| **Pose Estimation**\n| [CenterNet-Pose](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_pose) | [qai_hub_models.models.centernet_pose](qai_hub_models\u002Fmodels\u002Fcenternet_pose\u002FREADME.md) |\n| [Facial-Landmark-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffacemap_3dmm) | [qai_hub_models.models.facemap_3dmm](qai_hub_models\u002Fmodels\u002Ffacemap_3dmm\u002FREADME.md) |\n| [HRNetPose](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_pose) | [qai_hub_models.models.hrnet_pose](qai_hub_models\u002Fmodels\u002Fhrnet_pose\u002FREADME.md) |\n| [LiteHRNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flitehrnet) | [qai_hub_models.models.litehrnet](qai_hub_models\u002Fmodels\u002Flitehrnet\u002FREADME.md) |\n| [MediaPipe-Pose-Estimation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_pose) | [qai_hub_models.models.mediapipe_pose](qai_hub_models\u002Fmodels\u002Fmediapipe_pose\u002FREADME.md) |\n| [Posenet-Mobilenet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fposenet_mobilenet) | [qai_hub_models.models.posenet_mobilenet](qai_hub_models\u002Fmodels\u002Fposenet_mobilenet\u002FREADME.md) |\n| [RTMPose-Body2d](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Frtmpose_body2d) | [qai_hub_models.models.rtmpose_body2d](qai_hub_models\u002Fmodels\u002Frtmpose_body2d\u002FREADME.md) |\n| | |\n| **Gaze Estimation**\n| [EyeGaze](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Feyegaze) | [qai_hub_models.models.eyegaze](qai_hub_models\u002Fmodels\u002Feyegaze\u002FREADME.md) |\n| | |\n| **Depth Estimation**\n| [Depth-Anything](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything) | [qai_hub_models.models.depth_anything](qai_hub_models\u002Fmodels\u002Fdepth_anything\u002FREADME.md) |\n| [Depth-Anything-V2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything_v2) | [qai_hub_models.models.depth_anything_v2](qai_hub_models\u002Fmodels\u002Fdepth_anything_v2\u002FREADME.md) |\n| [Depth-Anything-V3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything_v3) | [qai_hub_models.models.depth_anything_v3](qai_hub_models\u002Fmodels\u002Fdepth_anything_v3\u002FREADME.md) |\n| [Midas-V2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmidas) | [qai_hub_models.models.midas](qai_hub_models\u002Fmodels\u002Fmidas\u002FREADME.md) |\n| [StereoNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstereonet) | [qai_hub_models.models.stereonet](qai_hub_models\u002Fmodels\u002Fstereonet\u002FREADME.md) |\n| | |\n| **Driver Assistance**\n| [BEVDet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbevdet) | [qai_hub_models.models.bevdet](qai_hub_models\u002Fmodels\u002Fbevdet\u002FREADME.md) |\n| [BEVFusion](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbevfusion_det) | [qai_hub_models.models.bevfusion_det](qai_hub_models\u002Fmodels\u002Fbevfusion_det\u002FREADME.md) |\n| [CVT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcvt) | [qai_hub_models.models.cvt](qai_hub_models\u002Fmodels\u002Fcvt\u002FREADME.md) |\n| [CenterNet-3D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_3d) | [qai_hub_models.models.centernet_3d](qai_hub_models\u002Fmodels\u002Fcenternet_3d\u002FREADME.md) |\n| [CenterPoint](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenterpoint) | [qai_hub_models.models.centerpoint](qai_hub_models\u002Fmodels\u002Fcenterpoint\u002FREADME.md) |\n| [GKT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgkt) | [qai_hub_models.models.gkt](qai_hub_models\u002Fmodels\u002Fgkt\u002FREADME.md) |\n| [StateTransformer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstatetransformer) | [qai_hub_models.models.statetransformer](qai_hub_models\u002Fmodels\u002Fstatetransformer\u002FREADME.md) |\n| | |\n| **Robotics**\n| [ACT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fact) | [qai_hub_models.models.act](qai_hub_models\u002Fmodels\u002Fact\u002FREADME.md) |\n\n### Multimodal\n\n| Model | README |\n| -- | -- |\n| | |\n| [EasyOCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Feasyocr) | [qai_hub_models.models.easyocr](qai_hub_models\u002Fmodels\u002Feasyocr\u002FREADME.md) |\n| [Nomic-Embed-Text](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fnomic_embed_text) | [qai_hub_models.models.nomic_embed_text](qai_hub_models\u002Fmodels\u002Fnomic_embed_text\u002FREADME.md) |\n| [OpenAI-Clip](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopenai_clip) | [qai_hub_models.models.openai_clip](qai_hub_models\u002Fmodels\u002Fopenai_clip\u002FREADME.md) |\n| [OpusMT-En-Es](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_en_es) | [qai_hub_models.models.opus_mt_en_es](qai_hub_models\u002Fmodels\u002Fopus_mt_en_es\u002FREADME.md) |\n| [OpusMT-En-Zh](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_en_zh) | [qai_hub_models.models.opus_mt_en_zh](qai_hub_models\u002Fmodels\u002Fopus_mt_en_zh\u002FREADME.md) |\n| [OpusMT-Es-En](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_es_en) | [qai_hub_models.models.opus_mt_es_en](qai_hub_models\u002Fmodels\u002Fopus_mt_es_en\u002FREADME.md) |\n| [OpusMT-Zh-En](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_zh_en) | [qai_hub_models.models.opus_mt_zh_en](qai_hub_models\u002Fmodels\u002Fopus_mt_zh_en\u002FREADME.md) |\n| [TrOCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ftrocr) | [qai_hub_models.models.trocr](qai_hub_models\u002Fmodels\u002Ftrocr\u002FREADME.md) |\n\n### Audio\n\n| Model | README |\n| -- | -- |\n| | |\n| **Speech Recognition**\n| [HuggingFace-WavLM-Base-Plus](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhuggingface_wavlm_base_plus) | [qai_hub_models.models.huggingface_wavlm_base_plus](qai_hub_models\u002Fmodels\u002Fhuggingface_wavlm_base_plus\u002FREADME.md) |\n| [Whisper-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_base) | [qai_hub_models.models.whisper_base](qai_hub_models\u002Fmodels\u002Fwhisper_base\u002FREADME.md) |\n| [Whisper-Large-V3-Turbo](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_large_v3_turbo) | [qai_hub_models.models.whisper_large_v3_turbo](qai_hub_models\u002Fmodels\u002Fwhisper_large_v3_turbo\u002FREADME.md) |\n| [Whisper-Small](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_small) | [qai_hub_models.models.whisper_small](qai_hub_models\u002Fmodels\u002Fwhisper_small\u002FREADME.md) |\n| [Whisper-Small-Quantized](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_small_quantized) | [qai_hub_models.models.whisper_small_quantized](qai_hub_models\u002Fmodels\u002Fwhisper_small_quantized\u002FREADME.md) |\n| [Whisper-Tiny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_tiny) | [qai_hub_models.models.whisper_tiny](qai_hub_models\u002Fmodels\u002Fwhisper_tiny\u002FREADME.md) |\n| [Zipformer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fzipformer) | [qai_hub_models.models.zipformer](qai_hub_models\u002Fmodels\u002Fzipformer\u002FREADME.md) |\n| | |\n| **Audio Classification**\n| [YamNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyamnet) | [qai_hub_models.models.yamnet](qai_hub_models\u002Fmodels\u002Fyamnet\u002FREADME.md) |\n| | |\n| **Audio Generation**\n| [MeloTTS-EN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_en) | [qai_hub_models.models.melotts_en](qai_hub_models\u002Fmodels\u002Fmelotts_en\u002FREADME.md) |\n| [MeloTTS-ES](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_es) | [qai_hub_models.models.melotts_es](qai_hub_models\u002Fmodels\u002Fmelotts_es\u002FREADME.md) |\n| [MeloTTS-ZH](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_zh) | [qai_hub_models.models.melotts_zh](qai_hub_models\u002Fmodels\u002Fmelotts_zh\u002FREADME.md) |\n\n### Generative AI\n\n| Model | README |\n| -- | -- |\n| | |\n| **Image Generation**\n| [ControlNet-Canny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcontrolnet_canny) | [qai_hub_models.models.controlnet_canny](qai_hub_models\u002Fmodels\u002Fcontrolnet_canny\u002FREADME.md) |\n| [Stable-Diffusion-v1.5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstable_diffusion_v1_5) | [qai_hub_models.models.stable_diffusion_v1_5](qai_hub_models\u002Fmodels\u002Fstable_diffusion_v1_5\u002FREADME.md) |\n| [Stable-Diffusion-v2.1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstable_diffusion_v2_1) | [qai_hub_models.models.stable_diffusion_v2_1](qai_hub_models\u002Fmodels\u002Fstable_diffusion_v2_1\u002FREADME.md) |\n| | |\n| **Text Generation**\n| [Albert-Base-V2-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Falbert_base_v2_hf) | [qai_hub_models.models.albert_base_v2_hf](qai_hub_models\u002Fmodels\u002Falbert_base_v2_hf\u002FREADME.md) |\n| [Baichuan2-7B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbaichuan2_7b) | [qai_hub_models.models.baichuan2_7b](qai_hub_models\u002Fmodels\u002Fbaichuan2_7b\u002FREADME.md) |\n| [Bert-Base-Uncased-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbert_base_uncased_hf) | [qai_hub_models.models.bert_base_uncased_hf](qai_hub_models\u002Fmodels\u002Fbert_base_uncased_hf\u002FREADME.md) |\n| [Distil-Bert-Base-Uncased-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdistil_bert_base_uncased_hf) | [qai_hub_models.models.distil_bert_base_uncased_hf](qai_hub_models\u002Fmodels\u002Fdistil_bert_base_uncased_hf\u002FREADME.md) |\n| [Electra-Bert-Base-Discrim-Google](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Felectra_bert_base_discrim_google) | [qai_hub_models.models.electra_bert_base_discrim_google](qai_hub_models\u002Fmodels\u002Felectra_bert_base_discrim_google\u002FREADME.md) |\n| [Falcon3-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffalcon_v3_7b_instruct) | [qai_hub_models.models.falcon_v3_7b_instruct](qai_hub_models\u002Fmodels\u002Ffalcon_v3_7b_instruct\u002FREADME.md) |\n| [IBM-Granite-v3.1-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fibm_granite_v3_1_8b_instruct) | [qai_hub_models.models.ibm_granite_v3_1_8b_instruct](qai_hub_models\u002Fmodels\u002Fibm_granite_v3_1_8b_instruct\u002FREADME.md) |\n| [IndusQ-1.1B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Findus_1b) | [qai_hub_models.models.indus_1b](qai_hub_models\u002Fmodels\u002Findus_1b\u002FREADME.md) |\n| [JAIS-6p7b-Chat](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fjais_6p7b_chat) | [qai_hub_models.models.jais_6p7b_chat](qai_hub_models\u002Fmodels\u002Fjais_6p7b_chat\u002FREADME.md) |\n| [Llama-SEA-LION-v3.5-8B-R](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_1_sea_lion_3_5_8b_r) | [qai_hub_models.models.llama_v3_1_sea_lion_3_5_8b_r](qai_hub_models\u002Fmodels\u002Fllama_v3_1_sea_lion_3_5_8b_r\u002FREADME.md) |\n| [Llama-v2-7B-Chat](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v2_7b_chat) | [qai_hub_models.models.llama_v2_7b_chat](qai_hub_models\u002Fmodels\u002Fllama_v2_7b_chat\u002FREADME.md) |\n| [Llama-v3-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_8b_instruct) | [qai_hub_models.models.llama_v3_8b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_8b_instruct\u002FREADME.md) |\n| [Llama-v3-ELYZA-JP-8B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_elyza_jp_8b) | [qai_hub_models.models.llama_v3_elyza_jp_8b](qai_hub_models\u002Fmodels\u002Fllama_v3_elyza_jp_8b\u002FREADME.md) |\n| [Llama-v3.1-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_1_8b_instruct) | [qai_hub_models.models.llama_v3_1_8b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_1_8b_instruct\u002FREADME.md) |\n| [Llama-v3.2-1B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_1b_instruct) | [qai_hub_models.models.llama_v3_2_1b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_2_1b_instruct\u002FREADME.md) |\n| [Llama-v3.2-3B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_3b_instruct) | [qai_hub_models.models.llama_v3_2_3b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_2_3b_instruct\u002FREADME.md) |\n| [Llama-v3.2-3B-Instruct-SSD](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_3b_instruct_ssd) | [qai_hub_models.models.llama_v3_2_3b_instruct_ssd](qai_hub_models\u002Fmodels\u002Fllama_v3_2_3b_instruct_ssd\u002FREADME.md) |\n| [Llama3-TAIDE-LX-8B-Chat-Alpha1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_taide_8b_chat) | [qai_hub_models.models.llama_v3_taide_8b_chat](qai_hub_models\u002Fmodels\u002Fllama_v3_taide_8b_chat\u002FREADME.md) |\n| [Mistral-7B-Instruct-v0.3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmistral_7b_instruct_v0_3) | [qai_hub_models.models.mistral_7b_instruct_v0_3](qai_hub_models\u002Fmodels\u002Fmistral_7b_instruct_v0_3\u002FREADME.md) |\n| [Mobile-Bert-Uncased-Google](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobile_bert_uncased_google) | [qai_hub_models.models.mobile_bert_uncased_google](qai_hub_models\u002Fmodels\u002Fmobile_bert_uncased_google\u002FREADME.md) |\n| [PLaMo-1B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fplamo_1b) | [qai_hub_models.models.plamo_1b](qai_hub_models\u002Fmodels\u002Fplamo_1b\u002FREADME.md) |\n| [Phi-3.5-Mini-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fphi_3_5_mini_instruct) | [qai_hub_models.models.phi_3_5_mini_instruct](qai_hub_models\u002Fmodels\u002Fphi_3_5_mini_instruct\u002FREADME.md) |\n| [Qwen2-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen2_7b_instruct) | [qai_hub_models.models.qwen2_7b_instruct](qai_hub_models\u002Fmodels\u002Fqwen2_7b_instruct\u002FREADME.md) |\n| [Qwen2.5-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen2_5_7b_instruct) | [qai_hub_models.models.qwen2_5_7b_instruct](qai_hub_models\u002Fmodels\u002Fqwen2_5_7b_instruct\u002FREADME.md) |\n| [Qwen3-4B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen3_4b) | [qai_hub_models.models.qwen3_4b](qai_hub_models\u002Fmodels\u002Fqwen3_4b\u002FREADME.md) |\n\n## Need help?\nSlack: https:\u002F\u002Faihub.qualcomm.com\u002Fcommunity\u002Fslack\n\nGitHub Issues: https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\n\nEmail: ai-hub-support@qti.qualcomm.com.\n\n## LICENSE\n\nQualcomm® AI Hub Models is licensed under BSD-3. See the [LICENSE file](LICENSE).\n","# [Qualcomm® AI Hub 模型](https:\u002F\u002Faihub.qualcomm.com\u002F)\n\n[![发布版本](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fquic\u002Fai-hub-models)](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Freleases\u002Flatest)\n[![标签](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Ftag\u002Fquic\u002Fai-hub-models)](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Freleases\u002Flatest)\n[![PyPi](https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fqai-hub-models)](https:\u002F\u002Fpypi.org\u002Fproject\u002Fqai-hub-models\u002F)\n![Python 3.10, 3.11, 3.12, 3.13](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.10%20(Recommended)%2C%203.11%2C%203.12%2C%203.13-yellow)\n\nQualcomm® AI Hub 模型是一系列针对 Qualcomm® 设备优化的最先进机器学习模型。\n\n* [按类别划分的模型列表](#model-directory)\n* [设备端性能数据](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels)\n* [设备原生示例应用](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-apps)\n\n支持的内容请参见：[设备端运行时](#on-device-runtimes)、[硬件目标与精度](#device-hardware--precision)、[芯片组](#chipsets)、[设备](#devices)\n\n&nbsp;\n\n## 设置\n\n### 1. 安装 Python 包\n\n该包可通过 pip 安装：\n\n```shell\n# 注意：对于 Snapdragon X Elite 和 Snapdragon X2 Elite 用户：\n# Windows 上仅支持 AMDx64（64位）Python。\n# 使用 Windows ARM64 Python 时安装将失败。\n\npip install qai_hub_models\n```\n\n部分模型（例如 [YOLOv7](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Ftree\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7)）需要额外的依赖项。请查看模型的 README 文件（位于 [qai_hub_models\u002Fmodels\u002Fmodel_id](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Ftree\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7)），以获取安装说明。\n\n&nbsp;\n\n### 2. 配置 AI Hub Workbench 访问权限\n\nAI Hub 模型的许多功能（如模型编译、设备端性能分析等）都需要访问 Qualcomm® AI Hub Workbench：\n\n-  [创建 Qualcomm® ID](https:\u002F\u002Fmyaccount.qualcomm.com\u002Fsignup)，并使用它登录 [Qualcomm® AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002F)。\n-  配置您的 [API 令牌](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Faccount\u002F)：`qai-hub configure --api_token API_TOKEN`\n\n&nbsp;\n\n## 入门\n\n### 导出并在物理设备上运行模型\n\n我们目录中的所有模型（见 #model-directory）都可以在托管的 Qualcomm® 设备上进行编译和性能分析：\n\n```shell\npip install \"qai_hub_models[yolov7]\"\n\npython -m qai_hub_models.models.yolov7.export [--target-runtime ...] [--device ...] [--help]\n```\n\n通过 Qualcomm® AI Hub Workbench，导出脚本将执行以下操作：\n\n1. **编译**模型，以适配所选设备和目标运行时（详情请参阅：[在 AI Hub Workbench 上编译模型](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fcompile_examples.html)）。\n2. 如适用，**量化**模型（详情请参阅：[在 AI Hub Workbench 上量化模型](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fquantize_examples.html)）。\n3. **在云端的真实设备上对编译后的模型进行性能分析**（详情请参阅：[在 AI Hub Workbench 上分析模型性能](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Fprofile_examples.html)）。\n4. **使用示例输入数据在云端的真实设备上运行推理**，并将设备端模型输出与 PyTorch 输出进行比较（详情请参阅：[在 AI Hub Workbench 上运行推理](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Fdocs\u002Fhub\u002Finference_examples.html)）。\n5. **将编译后的模型下载到本地磁盘**。\n\n&nbsp;\n\n### 端到端模型演示\n\n我们目录中的大多数模型都包含 CLI 演示，可完整运行模型：\n\n```shell\npip install \"qai_hub_models[yolov7]\"\n# 对提供的图像进行预测并绘制边界框\npython -m qai_hub_models.models.yolov7.demo [--image ...] [--eval-mode {fp,on-device}] [--help]\n```\n\n端到端演示包括：\n\n1. 将人类可读的输入 **预处理** 为模型输入。\n2. 运行 **模型推理**。\n3. 将模型输出 **后处理** 为人类可读的格式。\n\n**许多端到端演示会使用 AI Hub Workbench 在真实的云端设备上运行推理**（通过 `--eval-mode on-device`）。所有端到端演示也可以通过 PyTorch 在本地运行（通过 `--eval-mode fp`）。\n\n&nbsp;\n\n### 示例应用\n\n可在物理设备上运行我们模型（并进行预处理和后处理）的 **原生** 应用程序已发布在 [AI Hub Apps 仓库](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-apps\u002F) 中。\n\n针对所有模型定义了 **Python** 应用程序（从 `qai_hub_models.models.\u003Cmodel_name>` 导入 `App`）（参见：[qai_hub_models\u002Fmodels\u002Fyolov7\u002Fapp.py](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fblob\u002Fmain\u002Fqai_hub_models\u002Fmodels\u002Fyolov7\u002Fapp.py)）。这些应用程序将模型推理封装在使用 torch 和 numpy 编写的预处理和后处理步骤中。**这些应用程序旨在作为易于理解的示例，而非追求最小化推理时间。**\n\n&nbsp;\n\n## 模型支持数据\n\n### 设备端运行时\n\n| 运行时 | 支持的操作系统 |\n| -- | -- |\n| [Qualcomm AI Engine Direct](https:\u002F\u002Fwww.qualcomm.com\u002Fdeveloper\u002Fartificial-intelligence#overview) | Android、Linux、Windows\n| [LiteRT (TensorFlow Lite)](https:\u002F\u002Fwww.tensorflow.org\u002Flite) | Android、Linux\n| [ONNX](https:\u002F\u002Fonnxruntime.ai\u002Fdocs\u002Fexecution-providers\u002FQNN-ExecutionProvider.html) | Android、Linux、Windows\n\n### 设备硬件与精度\n\n| 设备计算单元 | 支持的精度 |\n| -- | -- |\n| CPU | FP32、INT16、INT8\n| GPU | FP32、FP16\n| NPU（包括 [Hexagon DSP](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fsoftware\u002Fhexagon-dsp-sdk\u002Fdsp-processor)、[HTP](https:\u002F\u002Fdeveloper.qualcomm.com\u002Fhardware\u002Fqualcomm-innovators-development-kit\u002Fai-resources-overview\u002Fai-hardware-cores-accelerators)） | FP16*、INT16、INT8\n\n*部分较旧的芯片组不支持在其 NPU 上进行 fp16 推理。\n\n### 芯片组\n* Snapdragon [8 Elite Gen 5](https:\u002F\u002Fwww.qualcomm.com\u002Fsmartphones\u002Fproducts\u002F8-series\u002Fsnapdragon-8-elite-gen-5)、[8 Elite](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-elite-mobile-platform)、[8 Gen 3](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-3-mobile-platform)、[8 Gen 2](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-2-mobile-platform) 以及 [8 Gen 1](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fsmartphones\u002Fsnapdragon-8-series-mobile-platforms\u002Fsnapdragon-8-gen-1-mobile-platform) 移动平台\n* [Snapdragon X2 Elite](https:\u002F\u002Fwww.qualcomm.com\u002Flaptops\u002Fproducts\u002Fsnapdragon-x2-elite)、[Snapdragon X Elite](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Fmobile\u002Fsnapdragon\u002Fpcs-and-tablets\u002Fsnapdragon-x-elite) 计算平台\n* SA7255P、SA8295P 和 SA8775P 汽车平台\n* [QCS 6490](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Finternet-of-things\u002Findustrial\u002Fbuilding-enterprise\u002Fqcs6490)、[QCS 8250](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Finternet-of-things\u002Fconsumer\u002Fcameras\u002Fqcs8250)、[QCS 9075](https:\u002F\u002Fwww.qualcomm.com\u002Finternet-of-things\u002Fproducts\u002Fiq9-series\u002Fiq-9075) 以及 [QCS 8550](https:\u002F\u002Fwww.qualcomm.com\u002Fproducts\u002Ftechnology\u002Fprocessors\u002Fqcs8550) 物联网平台\n* QCS8450 XR 平台\n\n以及其他更多型号。\n\n### 设备\n* 三星 Galaxy S21、S22、S23、S24 和 S25 系列\n* 小米 12、13、15 和 17\n* 骁龙 X Elite CRD 和 骁龙 X2 Elite CRD（计算参考设备）\n* 高通 RB3 第二代、RB5 第二代、IQ-8、IQ-9\n\n以及更多。\n\n&nbsp;\n\n## 模型目录\n\n### 计算机视觉\n\n| 模型 | 说明文档 |\n| -- | -- |\n| | |\n| **图像分类**\n| [Beit](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbeit) | [qai_hub_models.models.beit](qai_hub_models\u002Fmodels\u002Fbeit\u002FREADME.md) |\n| [ConvNext-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconvnext_base) | [qai_hub_models.models.convnext_base](qai_hub_models\u002Fmodels\u002Fconvnext_base\u002FREADME.md) |\n| [ConvNext-Tiny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconvnext_tiny) | [qai_hub_models.models.convnext_tiny](qai_hub_models\u002Fmodels\u002Fconvnext_tiny\u002FREADME.md) |\n| [DLA-102-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdla102x) | [qai_hub_models.models.dla102x](qai_hub_models\u002Fmodels\u002Fdla102x\u002FREADME.md) |\n| [DenseNet-121](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdensenet121) | [qai_hub_models.models.densenet121](qai_hub_models\u002Fmodels\u002Fdensenet121\u002FREADME.md) |\n| [EfficientFormer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientformer) | [qai_hub_models.models.efficientformer](qai_hub_models\u002Fmodels\u002Fefficientformer\u002FREADME.md) |\n| [EfficientNet-B0](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_b0) | [qai_hub_models.models.efficientnet_b0](qai_hub_models\u002Fmodels\u002Fefficientnet_b0\u002FREADME.md) |\n| [EfficientNet-B4](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_b4) | [qai_hub_models.models.efficientnet_b4](qai_hub_models\u002Fmodels\u002Fefficientnet_b4\u002FREADME.md) |\n| [EfficientNet-V2-s](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientnet_v2_s) | [qai_hub_models.models.efficientnet_v2_s](qai_hub_models\u002Fmodels\u002Fefficientnet_v2_s\u002FREADME.md) |\n| [EfficientViT-b2-cls](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientvit_b2_cls) | [qai_hub_models.models.efficientvit_b2_cls](qai_hub_models\u002Fmodels\u002Fefficientvit_b2_cls\u002FREADME.md) |\n| [EfficientViT-l2-cls](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fefficientvit_l2_cls) | [qai_hub_models.models.efficientvit_l2_cls](qai_hub_models\u002Fmodels\u002Fefficientvit_l2_cls\u002FREADME.md) |\n| [GPUNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgpunet) | [qai_hub_models.models.gpunet](qai_hub_models\u002Fmodels\u002Fgpunet\u002FREADME.md) |\n| [GoogLeNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgooglenet) | [qai_hub_models.models.googlenet](qai_hub_models\u002Fmodels\u002Fgooglenet\u002FREADME.md) |\n| [Inception-v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Finception_v3) | [qai_hub_models.models.inception_v3](qai_hub_models\u002Fmodels\u002Finception_v3\u002FREADME.md) |\n| [InternImage](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Finternimage) | [qai_hub_models.models.internimage](qai_hub_models\u002Fmodels\u002Finternimage\u002FREADME.md) |\n| [LeViT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flevit) | [qai_hub_models.models.levit](qai_hub_models\u002Fmodels\u002Flevit\u002FREADME.md) |\n| [MNASNet05](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmnasnet05) | [qai_hub_models.models.mnasnet05](qai_hub_models\u002Fmodels\u002Fmnasnet05\u002FREADME.md) |\n| [Mobile-VIT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobile_vit) | [qai_hub_models.models.mobile_vit](qai_hub_models\u002Fmodels\u002Fmobile_vit\u002FREADME.md) |\n| [MobileNet-v2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v2) | [qai_hub_models.models.mobilenet_v2](qai_hub_models\u002Fmodels\u002Fmobilenet_v2\u002FREADME.md) |\n| [MobileNet-v3-Large](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v3_large) | [qai_hub_models.models.mobilenet_v3_large](qai_hub_models\u002Fmodels\u002Fmobilenet_v3_large\u002FREADME.md) |\n| [MobileNet-v3-Small](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilenet_v3_small) | [qai_hub_models.models.mobilenet_v3_small](qai_hub_models\u002Fmodels\u002Fmobilenet_v3_small\u002FREADME.md) |\n| [NASNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fnasnet) | [qai_hub_models.models.nasnet](qai_hub_models\u002Fmodels\u002Fnasnet\u002FREADME.md) |\n| [RegNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fregnet) | [qai_hub_models.models.regnet](qai_hub_models\u002Fmodels\u002Fregnet\u002FREADME.md) |\n| [RegNet-Y-800MF](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fregnet_y_800mf) | [qai_hub_models.models.regnet_y_800mf](qai_hub_models\u002Fmodels\u002Fregnet_y_800mf\u002FREADME.md) |\n| [ResNeXt101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnext101) | [qai_hub_models.models.resnext101](qai_hub_models\u002Fmodels\u002Fresnext101\u002FREADME.md) |\n| [ResNeXt50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnext50) | [qai_hub_models.models.resnext50](qai_hub_models\u002Fmodels\u002Fresnext50\u002FREADME.md) |\n| [ResNet101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet101) | [qai_hub_models.models.resnet101](qai_hub_models\u002Fmodels\u002Fresnet101\u002FREADME.md) |\n| [ResNet18](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet18) | [qai_hub_models.models.resnet18](qai_hub_models\u002Fmodels\u002Fresnet18\u002FREADME.md) |\n| [ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet50) | [qai_hub_models.models.resnet50](qai_hub_models\u002Fmodels\u002Fresnet50\u002FREADME.md) |\n| [Sequencer2D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsequencer2d) | [qai_hub_models.models.sequencer2d](qai_hub_models\u002Fmodels\u002Fsequencer2d\u002FREADME.md) |\n| [Shufflenet-v2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fshufflenet_v2) | [qai_hub_models.models.shufflenet_v2](qai_hub_models\u002Fmodels\u002Fshufflenet_v2\u002FREADME.md) |\n| [SqueezeNet-1.1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsqueezenet1_1) | [qai_hub_models.models.squeezenet1_1](qai_hub_models\u002Fmodels\u002Fsqueezenet1_1\u002FREADME.md) |\n| [VIT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fvit) | [qai_hub_models.models.vit](qai_hub_models\u002Fmodels\u002Fvit\u002FREADME.md) |\n| [WideResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwideresnet50) | [qai_hub_models.models.wideresnet50](qai_hub_models\u002Fmodels\u002Fwideresnet50\u002FREADME.md) |\n| | |\n| **图像编辑**\n| [AOT-GAN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Faotgan) | [qai_hub_models.models.aotgan](qai_hub_models\u002Fmodels\u002Faotgan\u002FREADME.md) |\n| [DDColor](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fddcolor) | [qai_hub_models.models.ddcolor](qai_hub_models\u002Fmodels\u002Fddcolor\u002FREADME.md) |\n| [LaMa-Dilated](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flama_dilated) | [qai_hub_models.models.lama_dilated](qai_hub_models\u002Fmodels\u002Flama_dilated\u002FREADME.md) |\n| | |\n| **超分辨率**\n| [ESRGAN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fesrgan) | [qai_hub_models.models.esrgan](qai_hub_models\u002Fmodels\u002Fesrgan\u002FREADME.md) |\n| [QuickSRNetLarge](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetlarge) | [qai_hub_models.models.quicksrnetlarge](qai_hub_models\u002Fmodels\u002Fquicksrnetlarge\u002FREADME.md) |\n| [QuickSRNetMedium](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetmedium) | [qai_hub_models.models.quicksrnetmedium](qai_hub_models\u002Fmodels\u002Fquicksrnetmedium\u002FREADME.md) |\n| [QuickSRNetSmall](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fquicksrnetsmall) | [qai_hub_models.models.quicksrnetsmall](qai_hub_models\u002Fmodels\u002Fquicksrnetsmall\u002FREADME.md) |\n| [Real-ESRGAN-General-x4v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Freal_esrgan_general_x4v3) | [qai_hub_models.models.real_esrgan_general_x4v3](qai_hub_models\u002Fmodels\u002Freal_esrgan_general_x4v3\u002FREADME.md) |\n| [Real-ESRGAN-x4plus](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Freal_esrgan_x4plus) | [qai_hub_models.models.real_esrgan_x4plus](qai_hub_models\u002Fmodels\u002Freal_esrgan_x4plus\u002FREADME.md) |\n| [SESR-M5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsesr_m5) | [qai_hub_models.models.sesr_m5](qai_hub_models\u002Fmodels\u002Fsesr_m5\u002FREADME.md) |\n| [XLSR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fxlsr) | [qai_hub_models.models.xlsr](qai_hub_models\u002Fmodels\u002Fxlsr\u002FREADME.md) |\n| | |\n| **语义分割**\n| [DDRNet23-Slim](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fddrnet23_slim) | [qai_hub_models.models.ddrnet23_slim](qai_hub_models\u002Fmodels\u002Fddrnet23_slim\u002FREADME.md) |\n| [DeepLabV3-Plus-MobileNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeeplabv3_plus_mobilenet) | [qai_hub_models.models.deeplabv3_plus_mobilenet](qai_hub_models\u002Fmodels\u002Fdeeplabv3_plus_mobilenet\u002FREADME.md) |\n| [DeepLabXception](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeeplab_xception) | [qai_hub_models.models.deeplab_xception](qai_hub_models\u002Fmodels\u002Fdeeplab_xception\u002FREADME.md) |\n| [EdgeTAM](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fedgetam) | [qai_hub_models.models.edgetam](qai_hub_models\u002Fmodels\u002Fedgetam\u002FREADME.md) |\n| [FCN-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffcn_resnet50) | [qai_hub_models.models.fcn_resnet50](qai_hub_models\u002Fmodels\u002Ffcn_resnet50\u002FREADME.md) |\n| [FFNet-122NS-LowRes](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_122ns_lowres) | [qai_hub_models.models.ffnet_122ns_lowres](qai_hub_models\u002Fmodels\u002Fffnet_122ns_lowres\u002FREADME.md) |\n| [FFNet-40S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_40s) | [qai_hub_models.models.ffnet_40s](qai_hub_models\u002Fmodels\u002Fffnet_40s\u002FREADME.md) |\n| [FFNet-54S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_54s) | [qai_hub_models.models.ffnet_54s](qai_hub_models\u002Fmodels\u002Fffnet_54s\u002FREADME.md) |\n| [FFNet-78S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_78s) | [qai_hub_models.models.ffnet_78s](qai_hub_models\u002Fmodels\u002Fffnet_78s\u002FREADME.md) |\n| [FFNet-78S-LowRes](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fffnet_78s_lowres) | [qai_hub_models.models.ffnet_78s_lowres](qai_hub_models\u002Fmodels\u002Fffnet_78s_lowres\u002FREADME.md) |\n| [FastSam-S](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffastsam_s) | [qai_hub_models.models.fastsam_s](qai_hub_models\u002Fmodels\u002Ffastsam_s\u002FREADME.md) |\n| [FastSam-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffastsam_x) | [qai_hub_models.models.fastsam_x](qai_hub_models\u002Fmodels\u002Ffastsam_x\u002FREADME.md) |\n| [HRNet-W48-OCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_w48_ocr) | [qai_hub_models.models.hrnet_w48_ocr](qai_hub_models\u002Fmodels\u002Fhrnet_w48_ocr\u002FREADME.md) |\n| [MaskRCNN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmaskrcnn) | [qai_hub_models.models.maskrcnn](qai_hub_models\u002Fmodels\u002Fmaskrcnn\u002FREADME.md) |\n| [MediaPipe-Selfie-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_selfie) | [qai_hub_models.models.mediapipe_selfie](qai_hub_models\u002Fmodels\u002Fmediapipe_selfie\u002FREADME.md) |\n| [MobileSam](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobilesam) | [qai_hub_models.models.mobilesam](qai_hub_models\u002Fmodels\u002Fmobilesam\u002FREADME.md) |\n| [PSPNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpspnet) | [qai_hub_models.models.pspnet](qai_hub_models\u002Fmodels\u002Fpspnet\u002FREADME.md) |\n| [PidNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpidnet) | [qai_hub_models.models.pidnet](qai_hub_models\u002Fmodels\u002Fpidnet\u002FREADME.md) |\n| [PointNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fpointnet) | [qai_hub_models.models.pointnet](qai_hub_models\u002Fmodels\u002Fpointnet\u002FREADME.md) |\n| [SINet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsinet) | [qai_hub_models.models.sinet](qai_hub_models\u002Fmodels\u002Fsinet\u002FREADME.md) |\n| [SalsaNext](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsalsanext) | [qai_hub_models.models.salsanext](qai_hub_models\u002Fmodels\u002Fsalsanext\u002FREADME.md) |\n| [Segformer-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsegformer_base) | [qai_hub_models.models.segformer_base](qai_hub_models\u002Fmodels\u002Fsegformer_base\u002FREADME.md) |\n| [Segment-Anything-Model-2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fsam2) | [qai_hub_models.models.sam2](qai_hub_models\u002Fmodels\u002Fsam2\u002FREADME.md) |\n| [Unet-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Funet_segmentation) | [qai_hub_models.models.unet_segmentation](qai_hub_models\u002Fmodels\u002Funet_segmentation\u002FREADME.md) |\n| [YOLOv11-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov11_seg) | [qai_hub_models.models.yolov11_seg](qai_hub_models\u002Fmodels\u002Fyolov11_seg\u002FREADME.md) |\n| [YOLOv8-Segmentation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov8_seg) | [qai_hub_models.models.yolov8_seg](qai_hub_models\u002Fmodels\u002Fyolov8_seg\u002FREADME.md) |\n| | |\n| **视频分类**\n| [ResNet-2Plus1D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_2plus1d) | [qai_hub_models.models.resnet_2plus1d](qai_hub_models\u002Fmodels\u002Fresnet_2plus1d\u002FREADME.md) |\n| [ResNet-3D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_3d) | [qai_hub_models.models.resnet_3d](qai_hub_models\u002Fmodels\u002Fresnet_3d\u002FREADME.md) |\n| [ResNet-Mixed-Convolution](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fresnet_mixed) | [qai_hub_models.models.resnet_mixed](qai_hub_models\u002Fmodels\u002Fresnet_mixed\u002FREADME.md) |\n| [Video-MAE](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fvideo_mae) | [qai_hub_models.models.video_mae](qai_hub_models\u002Fmodels\u002Fvideo_mae\u002FREADME.md) |\n| | |\n| **视频生成**\n| [First-Order-Motion-Model](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffomm) | [qai_hub_models.models.fomm](qai_hub_models\u002Fmodels\u002Ffomm\u002FREADME.md) |\n| | |\n| **视频目标跟踪**\n| [Track-Anything](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ftrack_anything) | [qai_hub_models.models.track_anything](qai_hub_models\u002Fmodels\u002Ftrack_anything\u002FREADME.md) |\n| | |\n| **目标检测**\n| [3D-Deep-BOX](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdeepbox) | [qai_hub_models.models.deepbox](qai_hub_models\u002Fmodels\u002Fdeepbox\u002FREADME.md) |\n| [CavaFace](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcavaface) | [qai_hub_models.models.cavaface](qai_hub_models\u002Fmodels\u002Fcavaface\u002FREADME.md) |\n| [CenterNet-2D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_2d) | [qai_hub_models.models.centernet_2d](qai_hub_models\u002Fmodels\u002Fcenternet_2d\u002FREADME.md) |\n| [Conditional-DETR-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fconditional_detr_resnet50) | [qai_hub_models.models.conditional_detr_resnet50](qai_hub_models\u002Fmodels\u002Fconditional_detr_resnet50\u002FREADME.md) |\n| [DETR-ResNet101](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet101) | [qai_hub_models.models.detr_resnet101](qai_hub_models\u002Fmodels\u002Fdetr_resnet101\u002FREADME.md) |\n| [DETR-ResNet101-DC5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet101_dc5) | [qai_hub_models.models.detr_resnet101_dc5](qai_hub_models\u002Fmodels\u002Fdetr_resnet101_dc5\u002FREADME.md) |\n| [DETR-ResNet50](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet50) | [qai_hub_models.models.detr_resnet50](qai_hub_models\u002Fmodels\u002Fdetr_resnet50\u002FREADME.md) |\n| [DETR-ResNet50-DC5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetr_resnet50_dc5) | [qai_hub_models.models.detr_resnet50_dc5](qai_hub_models\u002Fmodels\u002Fdetr_resnet50_dc5\u002FREADME.md) |\n| [Detectron2-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdetectron2_detection) | [qai_hub_models.models.detectron2_detection](qai_hub_models\u002Fmodels\u002Fdetectron2_detection\u002FREADME.md) |\n| [Facial-Attribute-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fface_attrib_net) | [qai_hub_models.models.face_attrib_net](qai_hub_models\u002Fmodels\u002Fface_attrib_net\u002FREADME.md) |\n| [HRNetFace](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_face) | [qai_hub_models.models.hrnet_face](qai_hub_models\u002Fmodels\u002Fhrnet_face\u002FREADME.md) |\n| [Lightweight-Face-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fface_det_lite) | [qai_hub_models.models.face_det_lite](qai_hub_models\u002Fmodels\u002Fface_det_lite\u002FREADME.md) |\n| [MediaPipe-Face-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_face) | [qai_hub_models.models.mediapipe_face](qai_hub_models\u002Fmodels\u002Fmediapipe_face\u002FREADME.md) |\n| [MediaPipe-Hand-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_hand) | [qai_hub_models.models.mediapipe_hand](qai_hub_models\u002Fmodels\u002Fmediapipe_hand\u002FREADME.md) |\n| [MediaPipe-Hand-Gesture-Recognition](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_hand_gesture) | [qai_hub_models.models.mediapipe_hand_gesture](qai_hub_models\u002Fmodels\u002Fmediapipe_hand_gesture\u002FREADME.md) |\n| [PPE-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgear_guard_net) | [qai_hub_models.models.gear_guard_net](qai_hub_models\u002Fmodels\u002Fgear_guard_net\u002FREADME.md) |\n| [Person-Foot-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffoot_track_net) | [qai_hub_models.models.foot_track_net](qai_hub_models\u002Fmodels\u002Ffoot_track_net\u002FREADME.md) |\n| [RTMDet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Frtmdet) | [qai_hub_models.models.rtmdet](qai_hub_models\u002Fmodels\u002Frtmdet\u002FREADME.md) |\n| [YOLOv10-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov10_det) | [qai_hub_models.models.yolov10_det](qai_hub_models\u002Fmodels\u002Fyolov10_det\u002FREADME.md) |\n| [YOLOv11-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov11_det) | [qai_hub_models.models.yolov11_det](qai_hub_models\u002Fmodels\u002Fyolov11_det\u002FREADME.md) |\n| [YOLOv8-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov8_det) | [qai_hub_models.models.yolov8_det](qai_hub_models\u002Fmodels\u002Fyolov8_det\u002FREADME.md) |\n| [Yolo-R](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolor) | [qai_hub_models.models.yolor](qai_hub_models\u002Fmodels\u002Fyolor\u002FREADME.md) |\n| [Yolo-X](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolox) | [qai_hub_models.models.yolox](qai_hub_models\u002Fmodels\u002Fyolox\u002FREADME.md) |\n| [Yolo-v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov3) | [qai_hub_models.models.yolov3](qai_hub_models\u002Fmodels\u002Fyolov3\u002FREADME.md) |\n| [Yolo-v5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov5) | [qai_hub_models.models.yolov5](qai_hub_models\u002Fmodels\u002Fyolov5\u002FREADME.md) |\n| [Yolo-v6](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov6) | [qai_hub_models.models.yolov6](qai_hub_models\u002Fmodels\u002Fyolov6\u002FREADME.md) |\n| [Yolo-v7](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyolov7) | [qai_hub_models.models.yolov7](qai_hub_models\u002Fmodels\u002Fyolov7\u002FREADME.md) |\n| | |\n| **姿态估计**\n| [CenterNet-Pose](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_pose) | [qai_hub_models.models.centernet_pose](qai_hub_models\u002Fmodels\u002Fcenternet_pose\u002FREADME.md) |\n| [Facial-Landmark-Detection](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffacemap_3dmm) | [qai_hub_models.models.facemap_3dmm](qai_hub_models\u002Fmodels\u002Ffacemap_3dmm\u002FREADME.md) |\n| [HRNetPose](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhrnet_pose) | [qai_hub_models.models.hrnet_pose](qai_hub_models\u002Fmodels\u002Fhrnet_pose\u002FREADME.md) |\n| [LiteHRNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Flitehrnet) | [qai_hub_models.models.litehrnet](qai_hub_models\u002Fmodels\u002Flitehrnet\u002FREADME.md) |\n| [MediaPipe-Pose-Estimation](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_pose) | [qai_hub_models.models.mediapipe_pose](qai_hub_models\u002Fmodels\u002Fmediapipe_pose\u002FREADME.md) |\n| [Posenet-Mobilenet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fposenet_mobilenet) | [qai_hub_models.models.posenet_mobilenet](qai_hub_models\u002Fmodels\u002Fposenet_mobilenet\u002FREADME.md) |\n| [RTMPose-Body2d](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Frtmpose_body2d) | [qai_hub_models.models.rtmpose_body2d](qai_hub_models\u002Fmodels\u002Frtmpose_body2d\u002FREADME.md) |\n| | |\n| **视线估计**\n| [EyeGaze](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Feyegaze) | [qai_hub_models.models.eyegaze](qai_hub_models\u002Fmodels\u002Feyegaze\u002FREADME.md) |\n| | |\n| **深度估计**\n| [Depth-Anything](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything) | [qai_hub_models.models.depth_anything](qai_hub_models\u002Fmodels\u002Fdepth_anything\u002FREADME.md) |\n| [Depth-Anything-V2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything_v2) | [qai_hub_models.models.depth_anything_v2](qai_hub_models\u002Fmodels\u002Fdepth_anything_v2\u002FREADME.md) |\n| [Depth-Anything-V3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdepth_anything_v3) | [qai_hub_models.models.depth_anything_v3](qai_hub_models\u002Fmodels\u002Fdepth_anything_v3\u002FREADME.md) |\n| [Midas-V2](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmidas) | [qai_hub_models.models.midas](qai_hub_models\u002Fmodels\u002Fmidas\u002FREADME.md) |\n| [StereoNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstereonet) | [qai_hub_models.models.stereonet](qai_hub_models\u002Fmodels\u002Fstereonet\u002FREADME.md) |\n| | |\n| **驾驶辅助**\n| [BEVDet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbevdet) | [qai_hub_models.models.bevdet](qai_hub_models\u002Fmodels\u002Fbevdet\u002FREADME.md) |\n| [BEVFusion](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbevfusion_det) | [qai_hub_models.models.bevfusion_det](qai_hub_models\u002Fmodels\u002Fbevfusion_det\u002FREADME.md) |\n| [CVT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcvt) | [qai_hub_models.models.cvt](qai_hub_models\u002Fmodels\u002Fcvt\u002FREADME.md) |\n| [CenterNet-3D](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenternet_3d) | [qai_hub_models.models.centernet_3d](qai_hub_models\u002Fmodels\u002Fcenternet_3d\u002FREADME.md) |\n| [CenterPoint](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcenterpoint) | [qai_hub_models.models.centerpoint](qai_hub_models\u002Fmodels\u002Fcenterpoint\u002FREADME.md) |\n| [GKT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fgkt) | [qai_hub_models.models.gkt](qai_hub_models\u002Fmodels\u002Fgkt\u002FREADME.md) |\n| [StateTransformer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstatetransformer) | [qai_hub_models.models.statetransformer](qai_hub_models\u002Fmodels\u002Fstatetransformer\u002FREADME.md) |\n| | |\n| **机器人技术**\n| [ACT](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fact) | [qai_hub_models.models.act](qai_hub_models\u002Fmodels\u002Fact\u002FREADME.md) |\n\n### 多模态\n\n| 模型 | 说明文档 |\n| -- | -- |\n| | |\n| [EasyOCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Feasyocr) | [qai_hub_models.models.easyocr](qai_hub_models\u002Fmodels\u002Feasyocr\u002FREADME.md) |\n| [Nomic-Embed-Text](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fnomic_embed_text) | [qai_hub_models.models.nomic_embed_text](qai_hub_models\u002Fmodels\u002Fnomic_embed_text\u002FREADME.md) |\n| [OpenAI-Clip](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopenai_clip) | [qai_hub_models.models.openai_clip](qai_hub_models\u002Fmodels\u002Fopenai_clip\u002FREADME.md) |\n| [OpusMT-En-Es](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_en_es) | [qai_hub_models.models.opus_mt_en_es](qai_hub_models\u002Fmodels\u002Fopus_mt_en_es\u002FREADME.md) |\n| [OpusMT-En-Zh](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_en_zh) | [qai_hub_models.models.opus_mt_en_zh](qai_hub_models\u002Fmodels\u002Fopus_mt_en_zh\u002FREADME.md) |\n| [OpusMT-Es-En](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_es_en) | [qai_hub_models.models.opus_mt_es_en](qai_hub_models\u002Fmodels\u002Fopus_mt_es_en\u002FREADME.md) |\n| [OpusMT-Zh-En](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fopus_mt_zh_en) | [qai_hub_models.models.opus_mt_zh_en](qai_hub_models\u002Fmodels\u002Fopus_mt_zh_en\u002FREADME.md) |\n| [TrOCR](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ftrocr) | [qai_hub_models.models.trocr](qai_hub_models\u002Fmodels\u002Ftrocr\u002FREADME.md) |\n\n### 音频\n\n| 模型 | 说明文档 |\n| -- | -- |\n| | |\n| **语音识别**\n| [HuggingFace-WavLM-Base-Plus](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fhuggingface_wavlm_base_plus) | [qai_hub_models.models.huggingface_wavlm_base_plus](qai_hub_models\u002Fmodels\u002Fhuggingface_wavlm_base_plus\u002FREADME.md) |\n| [Whisper-Base](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_base) | [qai_hub_models.models.whisper_base](qai_hub_models\u002Fmodels\u002Fwhisper_base\u002FREADME.md) |\n| [Whisper-Large-V3-Turbo](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_large_v3_turbo) | [qai_hub_models.models.whisper_large_v3_turbo](qai_hub_models\u002Fmodels\u002Fwhisper_large_v3_turbo\u002FREADME.md) |\n| [Whisper-Small](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_small) | [qai_hub_models.models.whisper_small](qai_hub_models\u002Fmodels\u002Fwhisper_small\u002FREADME.md) |\n| [Whisper-Small-Quantized](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_small_quantized) | [qai_hub_models.models.whisper_small_quantized](qai_hub_models\u002Fmodels\u002Fwhisper_small_quantized\u002FREADME.md) |\n| [Whisper-Tiny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fwhisper_tiny) | [qai_hub_models.models.whisper_tiny](qai_hub_models\u002Fmodels\u002Fwhisper_tiny\u002FREADME.md) |\n| [Zipformer](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fzipformer) | [qai_hub_models.models.zipformer](qai_hub_models\u002Fmodels\u002Fzipformer\u002FREADME.md) |\n| | |\n| **音频分类**\n| [YamNet](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fyamnet) | [qai_hub_models.models.yamnet](qai_hub_models\u002Fmodels\u002Fyamnet\u002FREADME.md) |\n| | |\n| **音频生成**\n| [MeloTTS-EN](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_en) | [qai_hub_models.models.melotts_en](qai_hub_models\u002Fmodels\u002Fmelotts_en\u002FREADME.md) |\n| [MeloTTS-ES](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_es) | [qai_hub_models.models.melotts_es](qai_hub_models\u002Fmodels\u002Fmelotts_es\u002FREADME.md) |\n| [MeloTTS-ZH](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmelotts_zh) | [qai_hub_models.models.melotts_zh](qai_hub_models\u002Fmodels\u002Fmelotts_zh\u002FREADME.md) |\n\n### 生成式人工智能\n\n| 模型 | 说明文档 |\n| -- | -- |\n| | |\n| **图像生成**\n| [ControlNet-Canny](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fcontrolnet_canny) | [qai_hub_models.models.controlnet_canny](qai_hub_models\u002Fmodels\u002Fcontrolnet_canny\u002FREADME.md) |\n| [Stable-Diffusion-v1.5](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstable_diffusion_v1_5) | [qai_hub_models.models.stable_diffusion_v1_5](qai_hub_models\u002Fmodels\u002Fstable_diffusion_v1_5\u002FREADME.md) |\n| [Stable-Diffusion-v2.1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fstable_diffusion_v2_1) | [qai_hub_models.models.stable_diffusion_v2_1](qai_hub_models\u002Fmodels\u002Fstable_diffusion_v2_1\u002FREADME.md) |\n| | |\n| **文本生成**\n| [Albert-Base-V2-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Falbert_base_v2_hf) | [qai_hub_models.models.albert_base_v2_hf](qai_hub_models\u002Fmodels\u002Falbert_base_v2_hf\u002FREADME.md) |\n| [Baichuan2-7B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbaichuan2_7b) | [qai_hub_models.models.baichuan2_7b](qai_hub_models\u002Fmodels\u002Fbaichuan2_7b\u002FREADME.md) |\n| [Bert-Base-Uncased-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fbert_base_uncased_hf) | [qai_hub_models.models.bert_base_uncased_hf](qai_hub_models\u002Fmodels\u002Fbert_base_uncased_hf\u002FREADME.md) |\n| [Distil-Bert-Base-Uncased-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fdistil_bert_base_uncased_hf) | [qai_hub_models.models.distil_bert_base_uncased_hf](qai_hub_models\u002Fmodels\u002Fdistil_bert_base_uncased_hf\u002FREADME.md) |\n| [Electra-Bert-Base-Discrim-Google](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Felectra_bert_base_discrim_google) | [qai_hub_models.models.electra_bert_base_discrim_google](qai_hub_models\u002Fmodels\u002Felectra_bert_base_discrim_google\u002FREADME.md) |\n| [Falcon3-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Ffalcon_v3_7b_instruct) | [qai_hub_models.models.falcon_v3_7b_instruct](qai_hub_models\u002Fmodels\u002Ffalcon_v3_7b_instruct\u002FREADME.md) |\n| [IBM-Granite-v3.1-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fibm_granite_v3_1_8b_instruct) | [qai_hub_models.models.ibm_granite_v3_1_8b_instruct](qai_hub_models\u002Fmodels\u002Fibm_granite_v3_1_8b_instruct\u002FREADME.md) |\n| [IndusQ-1.1B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Findus_1b) | [qai_hub_models.models.indus_1b](qai_hub_models\u002Fmodels\u002Findus_1b\u002FREADME.md) |\n| [JAIS-6p7b-Chat](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fjais_6p7b_chat) | [qai_hub_models.models.jais_6p7b_chat](qai_hub_models\u002Fmodels\u002Fjais_6p7b_chat\u002FREADME.md) |\n| [Llama-SEA-LION-v3.5-8B-R](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_1_sea_lion_3_5_8b_r) | [qai_hub_models.models.llama_v3_1_sea_lion_3_5_8b_r](qai_hub_models\u002Fmodels\u002Fllama_v3_1_sea_lion_3_5_8b_r\u002FREADME.md) |\n| [Llama-v2-7B-Chat](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v2_7b_chat) | [qai_hub_models.models.llama_v2_7b_chat](qai_hub_models\u002Fmodels\u002Fllama_v2_7b_chat\u002FREADME.md) |\n| [Llama-v3-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_8b_instruct) | [qai_hub_models.models.llama_v3_8b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_8b_instruct\u002FREADME.md) |\n| [Llama-v3-ELYZA-JP-8B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_elyza_jp_8b) | [qai_hub_models.models.llama_v3_elyza_jp_8b](qai_hub_models\u002Fmodels\u002Fllama_v3_elyza_jp_8b\u002FREADME.md) |\n| [Llama-v3.1-8B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_1_8b_instruct) | [qai_hub_models.models.llama_v3_1_8b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_1_8b_instruct\u002FREADME.md) |\n| [Llama-v3.2-1B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_1b_instruct) | [qai_hub_models.models.llama_v3_2_1b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_2_1b_instruct\u002FREADME.md) |\n| [Llama-v3.2-3B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_3b_instruct) | [qai_hub_models.models.llama_v3_2_3b_instruct](qai_hub_models\u002Fmodels\u002Fllama_v3_2_3b_instruct\u002FREADME.md) |\n| [Llama-v3.2-3B-Instruct-SSD](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_3b_instruct_ssd) | [qai_hub_models.models.llama_v3_2_3b_instruct_ssd](qai_hub_models\u002Fmodels\u002Fllama_v3_2_3b_instruct_ssd\u002FREADME.md) |\n| [Llama3-TAIDE-LX-8B-Chat-Alpha1](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_taide_8b_chat) | [qai_hub_models.models.llama_v3_taide_8b_chat](qai_hub_models\u002Fmodels\u002Fllama_v3_taide_8b_chat\u002FREADME.md) |\n| [Mistral-7B-Instruct-v0.3](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmistral_7b_instruct_v0_3) | [qai_hub_models.models.mistral_7b_instruct_v0_3](qai_hub_models\u002Fmodels\u002Fmistral_7b_instruct_v0_3\u002FREADME.md) |\n| [Mobile-Bert-Uncased-Google](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmobile_bert_uncased_google) | [qai_hub_models.models.mobile_bert_uncased_google](qai_hub_models\u002Fmodels\u002Fmobile_bert_uncased_google\u002FREADME.md) |\n| [PLaMo-1B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fplamo_1b) | [qai_hub_models.models.plamo_1b](qai_hub_models\u002Fmodels\u002Fplamo_1b\u002FREADME.md) |\n| [Phi-3.5-Mini-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fphi_3_5_mini_instruct) | [qai_hub_models.models.phi_3_5_mini_instruct](qai_hub_models\u002Fmodels\u002Fphi_3_5_mini_instruct\u002FREADME.md) |\n| [Qwen2-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen2_7b_instruct) | [qai_hub_models.models.qwen2_7b_instruct](qai_hub_models\u002Fmodels\u002Fqwen2_7b_instruct\u002FREADME.md) |\n| [Qwen2.5-7B-Instruct](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen2_5_7b_instruct) | [qai_hub_models.models.qwen2_5_7b_instruct](qai_hub_models\u002Fmodels\u002Fqwen2_5_7b_instruct\u002FREADME.md) |\n| [Qwen3-4B](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fqwen3_4b) | [qai_hub_models.models.qwen3_4b](qai_hub_models\u002Fmodels\u002Fqwen3_4b\u002FREADME.md) |\n\n## 需要帮助吗？\nSlack：https:\u002F\u002Faihub.qualcomm.com\u002Fcommunity\u002Fslack\n\nGitHub Issues：https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\n\n电子邮件：ai-hub-support@qti.qualcomm.com。\n\n## 许可证\n\nQualcomm® AI Hub Models 根据 BSD-3 许可证授权。请参阅 [LICENSE 文件](LICENSE)。","# Qualcomm AI Hub Models 快速上手指南\n\nQualcomm® AI Hub Models 是一套专为高通设备优化的最先进机器学习模型集合。本指南将帮助开发者快速完成环境配置、安装及模型部署。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows (AMD64), Linux, 或 macOS。\n    *   ⚠️ **注意**：Snapdragon X Elite\u002FX2 Elite 用户在 Windows 上**仅支持 AMD64 (64 位) Python**。使用 Windows ARM64 Python 会导致安装失败。\n*   **Python 版本**：推荐 **Python 3.10**，同时也支持 3.11, 3.12, 3.13。\n*   **高通账号**：部分高级功能（如模型编译、真机性能分析）需要访问 Qualcomm® AI Hub Workbench。\n    *   需注册 [Qualcomm® ID](https:\u002F\u002Fmyaccount.qualcomm.com\u002Fsignup)。\n    *   需登录 [AI Hub Workbench](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002F) 获取 API Token。\n\n## 2. 安装步骤\n\n### 安装核心包\n使用 pip 安装基础库：\n\n```shell\npip install qai_hub_models\n```\n\n> 💡 **国内加速建议**：如果遇到下载速度慢的问题，建议使用国内镜像源：\n> ```shell\n> pip install qai_hub_models -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 安装特定模型依赖\n部分模型（如 YOLOv7）需要额外的依赖项。请使用以下格式安装：\n\n```shell\npip install \"qai_hub_models[yolov7]\"\n```\n*(将 `yolov7` 替换为您所需的具体模型名称)*\n\n### 配置 AI Hub 访问权限\n若需使用云端编译或真机分析功能，请配置 API Token：\n\n1. 登录 [AI Hub Workbench Account 页面](https:\u002F\u002Fworkbench.aihub.qualcomm.com\u002Faccount\u002F) 复制您的 Token。\n2. 在终端执行：\n\n```shell\nqai-hub configure --api_token YOUR_API_TOKEN_HERE\n```\n\n## 3. 基本使用\n\n### 场景一：导出并分析模型（云端真机）\n此命令会将模型编译、量化（如适用），并在云端的高通设备上运行性能分析和推理测试。\n\n以 YOLOv7 为例：\n\n```shell\npython -m qai_hub_models.models.yolov7.export [--target-runtime ...] [--device ...] [--help]\n```\n\n**执行流程：**\n1. **编译**：针对指定设备和运行时进行编译。\n2. **量化**：自动应用量化策略（如适用）。\n3. **分析 (Profile)**：在云端真实设备上测量性能数据。\n4. **推理验证**：使用样本数据运行推理，并对比 PyTorch 输出与端侧输出。\n5. **下载**：将编译好的模型文件保存到本地磁盘。\n\n### 场景二：端到端演示 (Demo)\n运行完整的演示脚本，包含预处理、推理和后处理。支持本地 PyTorch 运行或云端真机运行。\n\n```shell\n# 预测并在图片上绘制边界框\npython -m qai_hub_models.models.yolov7.demo [--image path\u002Fto\u002Fimage.jpg] [--eval-mode {fp,on-device}] [--help]\n```\n\n**参数说明：**\n*   `--eval-mode fp`：在本地使用 PyTorch 浮点运算运行（无需云端连接）。\n*   `--eval-mode on-device`：通过 AI Hub Workbench 在云端真实高通设备上运行推理。\n\n### 场景三：在代码中调用\n您可以直接在 Python 代码中导入模型应用逻辑（包含预处理和后处理）：\n\n```python\nfrom qai_hub_models.models.yolov7.app import App\n\n# 初始化应用\napp = App()\n\n# 运行推理 (具体方法请参考各模型对应的 app.py 实现)\n# 注意：示例应用旨在展示流程，而非极致优化推理速度\n```\n\n---\n*更多模型列表及详细文档请访问 [Qualcomm AI Hub Models 仓库](https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models) 或 [AI Hub 官网](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels)。*","某智能安防团队正致力于将最新的 YOLOv7 目标检测算法部署到基于高通芯片的无人机边缘设备上，以实现实时入侵检测。\n\n### 没有 ai-hub-models 时\n- **模型适配困难**：开发者需手动修改开源 PyTorch 模型结构以兼容高通 NPU 架构，耗时数周且极易引入错误。\n- **性能优化黑盒**：缺乏针对特定芯片组（如 Snapdragon）的预调优参数，导致推理延迟高、内存占用大，难以满足实时性要求。\n- **量化流程繁琐**：自行实施模型量化（Quantization）需要深厚的专业知识，稍有不慎就会导致检测精度大幅下降。\n- **真机验证门槛高**：团队必须购买昂贵的开发板并进行复杂的本地环境配置，才能进行初步的性能剖析和测试。\n- **端到端落地慢**：从算法训练到最终在设备上画出检测框，需要自行编写大量前后处理代码，开发周期漫长。\n\n### 使用 ai-hub-models 后\n- **开箱即用**：直接通过 pip 安装预优化的 YOLOv7 模型，自动适配高通硬件架构，无需手动修改网络结构。\n- **极致性能释放**：直接获取针对延迟和内存深度优化的模型版本，在无人机端实现流畅的高帧率推理。\n- **自动化量化**：利用内置工具一键完成模型量化，在显著减小模型体积的同时，自动平衡精度损失。\n- **云端真机调试**：借助 Qualcomm AI Hub Workbench，直接在云端连接真实高通设备进行编译、剖析和推理验证，零成本启动。\n- **全流程演示闭环**：调用自带的 CLI 演示脚本，自动完成图像预处理、推理及后处理绘图，几分钟内即可验证端到端效果。\n\nai-hub-models 通过将复杂的底层硬件适配与优化工作封装为简单的 API 调用，让开发者能专注于业务逻辑，将边缘 AI 应用的落地周期从数周缩短至数小时。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fqualcomm_ai-hub-models_d7f20a13.png","qualcomm","Qualcomm Technologies, Inc.","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fqualcomm_4336260f.jpg","At Qualcomm Technologies, Inc., we transform how the world connects, computes and communicates.",null,"https:\u002F\u002Fqualcomm.com\u002Fdeveloper","https:\u002F\u002Fgithub.com\u002Fqualcomm",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"Python","#3572A5",99.1,{"name":88,"color":89,"percentage":90},"Jinja","#a52a22",0.8,{"name":92,"color":93,"percentage":94},"Shell","#89e051",0.1,{"name":96,"color":97,"percentage":98},"Dockerfile","#384d54",0,{"name":100,"color":101,"percentage":98},"PowerShell","#012456",969,166,"2026-04-02T21:34:43","BSD-3-Clause","Linux, Windows, Android","非必需。支持在 CPU、GPU (FP32, FP16) 或 NPU\u002FDSP 上运行。若使用本地 GPU 推理，需依赖 PyTorch 环境；若使用 Qualcomm AI Hub Workbench，则在云端设备运行，无需本地 GPU。","未说明",{"notes":110,"python":111,"dependencies":112},"1. Windows 用户注意：Snapdragon X Elite\u002FX2 Elite 平台仅支持 AMDx64 (64-bit) Python，使用 Windows ARM64 Python 会导致安装失败。\n2. 核心功能（如模型编译、真机性能分析）需要配置 Qualcomm AI Hub Workbench API Token。\n3. 部分模型（如 YOLOv7）需要额外安装特定依赖。\n4. 该工具主要针对高通芯片（Snapdragon 系列、QCS 系列等）优化，支持通过云端连接真实高通设备进行测试。","3.10 (推荐), 3.11, 3.12, 3.13",[113,114,115,116],"qai-hub-models","torch","numpy","qai-hub",[53,13],[119,120,121,122,123,124,125,126,127,128,129],"deeplearning","demos","inference","inference-api","inference-engine","machine-learning","machinelearning","onnx","pytorch","qnn","tensorflow-lite","2026-03-27T02:49:30.150509","2026-04-06T07:13:09.234909",[133,138,143,148,153,158],{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},11143,"如何在 Android 或 Windows 设备上运行导出的 Llama 模型文件（如 .onnx, .bin）？","您可以参考官方提供的示例应用程序来运行这些文件：\n1. Android 示例聊天应用：https:\u002F\u002Fgithub.com\u002Fquic\u002Fai-hub-apps\u002Ftree\u002Fmain\u002Fapps\u002Fandroid\u002FChatApp\n2. Windows C++ 聊天应用：https:\u002F\u002Fgithub.com\u002Fquic\u002Fai-hub-apps\u002Ftree\u002Fmain\u002Fapps\u002Fwindows\u002Fcpp\u002FChatApp\n这些仓库包含了构建和运行量化 LLM 模型的具体代码和指南。","https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\u002F62",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},11144,"在 Ubuntu 上运行时遇到 'ModuleNotFoundError: No module named libPyIrGraph' 错误怎么办？","该错误通常与环境配置有关。建议采取以下步骤：\n1. 确保操作系统版本为 Ubuntu 22.04（虽然 Ubuntu 20.04 在某些情况下可行，但官方建议使用 22.04）。\n2. 严格按照官方文档重新设置 Linux 环境。\n3. 确认所有依赖项已正确安装，特别是与 QNN SDK 相关的库。","https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\u002F97",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},11145,"在 Windows 上运行 Llama 3 模型时命令执行无输出或无响应，如何解决？","请检查以下关键点：\n1. 确认使用的 QNN SDK 版本是否为 2.37.1（注意：libGenie 1.12.0 对应的是 2.38 版本，可能存在兼容性问题，建议尝试回退到 2.37.1）。\n2. 确保在配置文件或命令中包含了必要的换行符修复（newline fix）。\n3. 验证是否已将 Linux 命令正确转换为 Windows 等价命令，并检查路径分隔符。","https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\u002F164",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},11146,"如何将 YOLO 模型转换用于 Rubik Pi 3 时遇到的报错？","如果您在转换 YOLO 模型时遇到错误，请尝试将 `qai_hub_models` 包升级到最新版本（例如 0.38 版）：\n命令：`pip install --upgrade qai_hub_models`\n升级后重新运行转换脚本。如果转换成功但检测结果不准确，这可能是一个独立的精度问题，建议单独提交新的 Issue 进行反馈。","https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\u002F237",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},11147,"如何在 Galaxy S24 等 Android 手机上运行 Llama 模型的 QNN Context Binary？","运行 Llama 模型的 QNN Context Binary 需要正确的输入列表配置。虽然具体的 `--input_list` 内容取决于您的预处理数据，但通常步骤如下：\n1. 使用 `qnn-context-binary-generator` 生成二进制文件。\n2. 在手机上使用 `qnn-net-run` 工具时，需准备包含输入张量数据的 `target_raw_list.txt` 文件。\n3. 对于 Llama 这类生成式模型，输入列表通常包含 prompt processor 的输入数据（如 input_ids, attention_mask 等）。\n建议参考 Android ChatApp 示例中的数据处理逻辑来生成正确的输入列表文件。","https:\u002F\u002Fgithub.com\u002Fqualcomm\u002Fai-hub-models\u002Fissues\u002F67",{"id":159,"question_zh":160,"answer_zh":161,"source_url":137},11148,"在哪里可以找到更多资源或社区支持以构建基于 Genie API 的 Android LLM 应用？","您可以加入 Qualcomm AI Hub 社区获取更多资源和邀请链接。访问 https:\u002F\u002Faihub.qualcomm.com\u002Fresources 获取相关文档、示例代码以及与其他开发者交流的机会。那里提供了关于使用 C++ APIs (Genie) 构建 Android LLM 应用的详细指南。",[163,168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258],{"id":164,"version":165,"summary_zh":166,"released_at":167},61583,"v0.49.1","**常规更新**\n* 新增 DETR-ResNet50、DETR-ResNet50-DC5、DETR-ResNet101 和 DETR-ResNet101-DC5 的量化版本\n* 因许可问题移除了 BiseNet 和 BGNet\n* [Llama 3.2 3B Instruct SSD](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fllama_v3_2_3b_instruct_ssd) 变体采用自推测解码（SSD）技术，这是一种推理加速方案，在保证输出精度与基础模型完全一致的前提下，可实现预期的加速效果。在支持的设备上，若需更快的令牌生成速度，请选择此变体而非 llama_v3_2_3b_instruct。\n* 更新了 AI Hub Workbench 最新版本中的性能与精度数据\n\n\n**错误修复**\n* 修复了 MediaPipe 手势识别模型中的 BatchNorm 展开问题，使得该模型在使用 TFLite 量化后能够完全驻留在 NPU 上。\n* 修复了加载 BSD300 数据集时的非确定性问题。此前这一问题导致我们为多款超分辨率模型报告了不准确的精度数据。\n* MeloTTS 已更新，以规避 HTP 中与求和相关的问题，该问题会导致运行时产生错误的张量形状。此更新仅可通过导出脚本获得，目前尚未提供预生成的资产。","2026-03-24T02:55:48",{"id":169,"version":170,"summary_zh":171,"released_at":172},61584,"v0.48.0","### 新增内容\n\n**新模型：**\n• Qwen3-4B\n• MeloTTS-ES\n• MeloTTS-ZH\n\n**恢复的模型**（在性能指标采集受 bug 影响后重新添加）：\n• ESRGAN\n• SESR-M5\n• Real-ESRGAN-General-x4v3\n• QuickSRNetLarge\n• QuickSRNetMedium\n• QuickSRNetSmall\n\n**Qwen3-4B** 的可下载资产适用于：Snapdragon 8 Elite、Snapdragon 8 Elite Gen 5、Snapdragon X Elite、Snapdragon X2 Elite、IQ-8 和 IQ-9。下载链接请参见 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fqualcomm\u002FQwen3-4B%7Cqualcomm\u002FQwen3-4B)。\n\n**通用更新与性能：**\n• LLM 现已在 IQ-9 上提供性能指标\n• 使用 QAIRT 2.43.1 更新了 Phi-3.5-Mini-Instruct 的性能指标，并新增多上下文长度支持\n• 重新量化 Falcon 模型，提升了 MMLU 准确率\n• 在 IQ-8 上为 OpusMT 提供了新的 QNN 上下文二进制文件\n• Zipformer 现在采用混合精度：编码器从 w16a16 量化为 w8a16，以减小模型尺寸；而解码器和连接层仍保持 w16a16，以确保准确性\n• AOT 链接作业现已支持导出、性能分析、推理和编译全流程\n• LLM 已支持多上下文长度（首批支持的模型为 Phi-3.5 和 Qwen3-4B，未来版本将进一步扩展至其他 LLM）\n• 确保所有模型均正确设置通道最后的输入格式\n• 将 ONNX Runtime 升级至 1.24.3，从而支持更多模型通过 ORT 运行\n\n**错误修复：**\n• 修复了 OpenAI CLIP 的提交固定问题，解决了安装失败的问题\n• 修复了 DDColor 和 GKT 中低量化精度的问题\n• 修复了 LLM_test_compile 和 LLM_Generator 的 bug\n• 将 aimet-onnx 升级至 2.26.0，以解决已知的内存问题\n• 从代码库中移除了 fiftyone 依赖\n• 修复了 wikitext 分隔符问题","2026-03-12T07:01:42",{"id":174,"version":175,"summary_zh":176,"released_at":177},61585,"v0.47.0","新内容\n模型：\n\n- EdgeTAM\n- Act\n- MeloTTS - EN\n- MaskRCNN\n\n通用更新：\n\n- 更新了 QAIRT 2.43 的性能指标（ONNX 模型仍使用 QAIRT 2.42）\n- 为所有适用模型新增了 Snapdragon X2 Elite 的性能指标\n\n已移除的模型\n以下模型在本次发布中被暂时移除。\n\n运行时版本不兼容：\n\n- ESRGAN\n- MoveNet\n- QuickSRNetLarge\n- QuickSRNetMedium\n- QuickSRNetSmall\n- Real-ESRGAN-General-x4v3\n- SESR-M5\n\n正在调查中：\n\n- Qwen2.5-1.5B-Instruct（使用扩展提示进行准确率验证）\n\n错误修复\n\n- sinet 和 mediapipe_selfie 进行了新的架构修复，显著提升了准确率\n- precompiled_qnn_onnx 压缩包现在包含了此前缺失的上下文二进制文件\n- 之前因包含多个组件（模型文件）而无法正常运行的设备端演示现已修复","2026-02-25T20:57:12",{"id":179,"version":180,"summary_zh":181,"released_at":182},61586,"v0.46.1","**新内容**\n模型：\n* [MediaPipe 手势识别](https:\u002F\u002Faihub.qualcomm.com\u002Fmodels\u002Fmediapipe_hand_gesture)\n\n通用更新与性能指标：\n* 新的 QAIRT 版本 2.42\n* 更新了 2.42 版本的性能指标（除 ONNX 模型和 LLM 外，其他仍显示 2.37）\n* 新的设备性能数据：Dragonwing IQ-9075 EVK\n\n**变化内容**\n* 所有模型现在都以 Hugging Face 上的 ZIP 文件形式分发，而非单独的模型文件。导出脚本将生成一个包含与 ZIP 文件相同内容的文件夹。ZIP 文件中包含：\n  * 模型文件\n  * 一个新的元数据文件，用于说明哪些 SDK 与该模型兼容，以及模型的输入输出形状、数据类型和量化参数\n  * 其他支持文件，如模型标签或模型的 tokenizer.json。部分模型目前缺少这些文件；我们正在努力为更多模型添加支持文件。\n* 所有 ZIP 文件均提供永久下载链接，您可以通过 wget 命令下载。请参阅每个模型在 [Hugging Face](https:\u002F\u002Fhuggingface.co\u002Fqualcomm\u002Fmodels) 页面上的链接。\n* 所有 LLM 将使用 QAIRT 2.42 编译为 QNN 上下文二进制文件，并以 .dlc 作为中间格式。\n\n已移除的模型：\n- Swin-Tiny\n- Swin-Base\n- SwinV2-Base\n- Swin-Small\n- DeformableDETR\n\n错误修复：\n- 修复了由 setuptools v82.0.0 引起的问题\n- Stable Diffusion v1.5 和 v2.1 的导出脚本已修复。此前的问题包括 QAIRT 运行时错误，以及原 SD 2.1 模型从 Hugging Face 上被移除。","2026-02-13T00:57:22",{"id":184,"version":185,"summary_zh":186,"released_at":187},61587,"v0.45.0","**新模型：**\n\n- [Depth Anything v3](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fdepth_anything_v3) \n- [Zipformer](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fzipformer)\n- [InternImage](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Finternimage) \n- [CenterPoint ](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fcenterpoint)\n- [Opus MT 英语→西班牙语](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fopus_mt_en_es?searchTerm=opus)\n- [Opus MT 英语→中文](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fopus_mt_en_zh?searchTerm=opus)[Opus MT 西班牙语→英语](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fopus_mt_es_en?searchTerm=opus)\n- [Opus MT 中文→英语](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fopus_mt_zh_en?searchTerm=opus)\n- [Mobile-Bert-不区分大小写-谷歌](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fmobile_bert_uncased_google)\n- [Distil-Bert-Base-不区分大小写-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fbert_base_uncased_hf?searchTerm=bert)\n- [Bert-Base-不区分大小写-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Fbert_base_uncased_hf?searchTerm=bert)\n- [Albert-Base-V2-Hf](https:\u002F\u002Faihub.qualcomm.com\u002Fmobile\u002Fmodels\u002Falbert_base_v2_hf)\n\n**改进：**\n\n- 从 AIHM 网站上移除了代理设备（这些设备最近已从 AI Hub Workbench 中移除）\n- 移除了 LLM 模型卡片中不必要的细节\n- 修复了 BGNet 的评估和量化问题","2026-01-28T03:09:28",{"id":189,"version":190,"summary_zh":191,"released_at":192},61588,"v0.44.0","新模型：\n    - GKT\n    - detectron2\n    - cvt\n新精度：\n    - depth_anything 模型的量化版本\n    - mobilenet_v2 的 w8a8 量化\n移除的模型：\n    - 移除了部分 Mistral 模型（Mistral-3b 和 Ministral-3b，这两款模型仅供商务洽谈）。Mistral-7B-Instruct-v0.3 仍可下载。\n其他变更：\n    - 使用 QAIRT v2.41 更新了性能数据\n    - 新增了 QCS6690 IoT 芯片组的性能数据\n    - 现在支持通过导出脚本自定义量化任务选项\n    - 修复了一个严重问题，该问题曾导致许多 LLM 在设备端的性能显著下降。遗憾的是，这一修复也意味着我们必须放弃对 v68 Hexagon 的支持。我们将在未来推出新的 QAIRT 版本并具备相应支持时，重新恢复对该版本的支持。\n\n现推出一个新的 Hugging Face 组织：[Qualcomm AI Hub Community](https:\u002F\u002Fhuggingface.co\u002Fqualcomm-ai-hub-community)。我们诚挚邀请您加入 Qualcomm AI Hub 社区，并通过分享使用 AI Hub Workbench 编译的模型来贡献力量。更多详情请参阅我们的[贡献指南](https:\u002F\u002Fhuggingface.co\u002Fqualcomm-ai-hub-community)！请注意：这是一个由社区驱动的仓库，运作方式类似于开源社区。它旨在承载来自社区开发者的贡献，在模型结构方面提供指导，但这些模型并未经过 Qualcomm 的验证。\n目前我们拥有两个 Hugging Face 组织：(1) [Qualcomm](https:\u002F\u002Fhuggingface.co\u002Fqualcomm) 组织，其中的 AI Hub 模型会随每次发布而更新，其性能指标与我们官网展示的一致；(2) [Qualcomm AI Hub Community](https:\u002F\u002Fhuggingface.co\u002Fqualcomm-ai-hub-community)，供各位编译、导出和分享未收录于 AI Hub 模型合集中的模型。这有助于他人探索更多模型，并通过开发者之间的协作共同推动模型在设备端的部署，从而壮大我们的社区。（编辑）","2026-01-13T17:36:11",{"id":194,"version":195,"summary_zh":196,"released_at":197},61589,"v0.43.0","**新模型：**\n\n- Yolo-R (`yolor`)\n- Electra-Bert-Base-Discrim-Google (`electra_bert_base_discrim_google`)\n- PSPNet (`pspnet`)\n- StateTransformer (`statetransformer`)\n- Stable Diffusion 1.5 (`stable_diffusion_v1_5`)：在短暂下架后重新上线。\n\n**新精度：**\n\n- EasyOCR w8a8（EasyOCRRecognizer 尚未支持 NPU）\n\n**已移除模型：**\n\n- DeepLabV3-ResNet50 (`deeplabv3_resnet50`)：在所有运行时上均未取得成功。\n- EfficientViT-l2-seg (`efficientvit_l2_seg`)：在所有运行时上均未取得成功。\n\n**其他变更**\n\n- Whisper 浮点模型现采用 float16 输入输出。\n- QCS6490 性能数据现已基于真实的 Dragonwing RB3 第二代视觉套件设备得出。\n- 部分准确率极低的模型、精度或运行时变体已被移除。","2025-12-16T20:42:00",{"id":199,"version":200,"summary_zh":201,"released_at":202},61590,"v0.42.0","新模型\n* MobileBert\n\n错误修复与改进\n* TF Lite 和 QNN 运行时现已针对 QAIRT 2.40 进行优化。大型语言模型（Genie）和 ONNX 仍使用 QAIRT 2.37.1。\n* 评估脚本在未指定设备时也能成功运行，会尊重自定义输入形状，并且允许直接进行 PyTorch 评估，无需事先编译模型。\n* 为若干目标检测模型添加了缺失的评估依赖项。","2025-12-02T16:29:53",{"id":204,"version":205,"summary_zh":206,"released_at":207},61591,"v0.41.2","**错误修复**\n\n* 修复了导出至 Llama 2 和 Qwen 2.5 7B 的问题","2025-11-22T02:17:50",{"id":209,"version":210,"summary_zh":211,"released_at":212},61592,"v0.41.1","* **设备端演示** | 修复了一个错误：当在云端设备上运行模型时，所有 `demo.py` 脚本都会失败。\n\n* **Stable Diffusion v2.1** | 该模型已从 Hugging Face 上移除，不再支持导出。演示功能已被禁用，导出流程现在将仅获取预先编译好的资源文件。\n\n* **Qwen 2.5 1.5B** | 修复了一个导致所有命令执行失败的 bug。\n\n* **Git** | 移除了使用任何模型都必须安装 Git 的要求；现在只有需要克隆仓库的模型才需要 Git。同时，当 Git 不可用但使用某些模型又需要它时，错误提示信息得到了优化。","2025-11-17T19:16:05",{"id":214,"version":215,"summary_zh":216,"released_at":217},61593,"v0.41.0","⚠️ IMPORTANT\r\nWe now support python 3.13 and numpy 2.X. Python 3.9 is no longer supported.\r\n\r\nNEW MODELS\r\n\r\n- bevdet\r\n- centernet_3d\r\n- centernet_pose\r\n- eyegaze\r\n- centernet_2d\r\n- hrnet_face\r\n\r\n\r\nBUG FIXES & IMPROVEMENTS\r\n\r\n- Fixed Qwen 2.5 1.5 export bug\r\n- Resolved LLM demo out-of-memory issues\r\n- Fixed overflow bug in Whisper demo when using quantized Whisper models","2025-11-12T00:02:38",{"id":219,"version":220,"summary_zh":221,"released_at":222},61594,"v0.40.1",":warning: IMPORTANT: This is the last release to support Python 3.9. Future releases will require Python 3.10 or higher.\r\n\r\nNEW MODELS\r\n- Albert Base v2 HF Model\r\n- Qwen 2.5 1.5B Model (now available with w4 precision and quantization recipe)\r\n\r\nBUG FIXES & IMPROVEMENTS\r\n- Added SAM2 quantization support\r\n- Updated performance metrics for models to QAIRT SDK2.39, ONNX Runtime 1.23\r\n- Various small bug fixes and code quality improvements","2025-10-30T16:13:35",{"id":224,"version":225,"summary_zh":226,"released_at":227},61595,"v0.39.1","**v0.39.1 Release Notes**\r\n**New additions:**\r\n\r\n- Added performance numbers for new chipset \"Snapdragon 8 Elite Gen 5\"\r\n\r\n**Bug fixes and improvements:**\r\n\r\n- Fixed bug in yolox, which enables it to now run in tflite, w8a8 on 6490 chipset\r\n- LLM README's were updated to add some clarity\r\n- Fixed Llama 2 export script\r\n- Fixed small issues in genie config produced via LLM export","2025-10-15T08:47:30",{"id":229,"version":230,"summary_zh":231,"released_at":232},61596,"v0.38.0","**New Models:**\r\n\r\n- GPUNet\r\n- DDColor (offers advanced colorization tasks)\r\n\r\n**Improvements & Updates:**\r\n\r\n- Resolved issues in both Stable Diffusion and Whisper pipelines.\r\n- FastSAM now integrated with Ultralytics v8.3.\r\n- Unique names to avoid overwriting when running export.py using custom weights.\r\n- Performance results have been updated to use our current default runtime versions: QAIRT 2.38, TFLite with QAIRT 2.38.\r\n- Upgraded AIMET ONNX to v2.14.0 for better quantization support.\r\n- LLM Export scripts now generate a complete folder structure including: QNN context binaries, genie_config, htp_config, tokenizer.\r\n- LLM Export scripts also print commands for correctly bundling for deploying to on-device environments.\r\n\r\n**Website updates:**\r\n\r\n- You can now filter by runtime support on AI Hub Models! Take a look on the left hand side and see which models are available for ONNX Runtime, TFLite and Qualcomm AI Runtime (QAIRT), respectively.\r\n- LLMs: Added context_length as an additional metric in our UI. This corresponds to the context length that that has been tested on the selected device, to produce the associated TTFT and TPS performance metrics.\r\n","2025-10-01T20:33:55",{"id":234,"version":235,"summary_zh":236,"released_at":237},61597,"v0.37.1","**Bug fixes:**\r\n\r\n* Fix critical issue in export script for all LLMs\r\n* Fix for Stable Diffusion export on Windows\r\n* Fix issue with `--fetch-static-assets` on Windows and for older releases","2025-09-17T23:06:01",{"id":239,"version":240,"summary_zh":241,"released_at":242},61598,"v0.37.0","**New models:**\r\n\r\n  - Falcon3-7B-Instruct\r\n  - Sequencer2D\r\n\r\n**New precisions:**\r\n \r\n  - `w8a8_mixed_int16`: Largely `w8a8` with select layers with higher precision\r\n\r\n    - Denset-121 \r\n    - VIT\r\n    - YoloNAS\r\n    - YOLOv10-Detection\r\n    - YOLOv11-Detection\r\n    - Yolo-X\r\n\r\n  - `w8a16_mixed_int16`: Largely `w8a16` with select layers with higher precision weights\r\n\r\n    - LeViT\r\n    - MobileNet-v2\r\n\r\n  - `w8a16` \r\n\r\n    - HRNet-Pose\r\n    - SINet\r\n\r\n**Updates:**\r\n\r\n  - LLMs: Export now constructs most of the Genie bundle assets (with printed instructions of how to add QAIRT files and thus completing it).\r\n  - LLMs: Export's `--target-runtime` now refers to the LLM orchestration runtime (e.g., `--target-runtime genie`).\r\n  - All models: Export's `--fetch-static-assets` now accepts an optional argument to specify the AI Hub Models version (e.g. `--fetch-static-assets v0.37.0`).\r\n\r\n**Bug fixes:**\r\n\r\n  - Facial-Landmark-Detection (`facemap_3dmm`) demo fixes:\r\n\r\n    - Now support Grayscale\u002FRGBA.\r\n    - No longer hard-codes the face box: Specify manually via `--face-box` option.\r\n\r\n  - Lightweight-Face-Detection (`face_det_lite`) demo fixes:\r\n\r\n    - If RGB input, properly converts to grayscale (previous only took blue channel).\r\n    - Fail explicitly on images of size not divisible by 32.\r\n","2025-09-16T16:10:20",{"id":244,"version":245,"summary_zh":246,"released_at":247},61599,"v0.36.0","AI Hub Models v0.36.0 Release Notes\r\n\r\n- Fixed a bug when using onnx 1.19\r\n- Unified all whisper models to use ahead-of-time (AOT) compilation\r\n- Renamed all whisper models to remove the `_en` suffix\r\n- Updated yolov8_seg float variant to have floating point type for all outputs","2025-08-28T23:42:24",{"id":249,"version":250,"summary_zh":251,"released_at":252},61600,"v0.35.0","v0.35.0:\r\n\r\n**Major Changes**\r\n\r\n- export.py and evaluate.py now target QAIRT 2.37 by default (they targeted 2.34 in the previous release) for tflite, qnn_context_binary, and qnn_dlc runtimes.\r\n- export.py and evaluate.py now target QAIRT 2.33 by default for onnx and precompiled_qnn_onnx runtimes, to align with the QAIRT SDK bundled with the current version of ONNX Runtime.\r\n- The original Whisper model has been replaced with the model previously called Whisper-V2. This is the same whisper model, with slightly different I\u002FO. It is much more performant than the original whisper. Older whisper releases are still available on Hugging Face.\r\n\r\n**New Models**\r\n\r\n- deeplab_xception\r\n- efficientformer\r\n\r\n**Newly added Evaluation Support**\r\n\r\n- nomic_embed_text\r\n- yamnet\r\n\r\n**Bug Fixes \u002F Other Improvements**\r\n\r\n- Fix Large Language Model export failing when generating performance summary.\r\n- Fix extra transpose op generated in the output of unet for TF Lite.\r\n- Fix ONNX files not being downloadable with export.py --fetch-static-assets\r\n- Fix chipset  being ignored when using export.py --fetch-static-assets --chipset chipset\r\n- Fix low accuracy for facemap_3dmm's quantized variants\r\n- Fix models that use OpenMMLab being un-installable via pipe due to certificate expiration of the OpenMMLab website.\r\n- Fix compile options to correctly quantize LLMs using w4 precision.\r\n- Added on-device demo for mediapipe_face\r\n\r\n**Performance Numbers**\r\n\r\n- Added Performance Numbers for QAIRT 2.37","2025-08-26T18:55:22",{"id":254,"version":255,"summary_zh":256,"released_at":257},61601,"v0.34.1","Major Features & Improvements\r\n\r\n- Accuracy Tracking: Implemented first draft of model accuracy tracking. Added metadata system for evaluators and datasets.\r\n- MoveNet Evaluator: Added evaluator for MoveNet models\r\n- Llama 3.2 1B is available with two quantization precisions: w4 (only weights are quantized to int4) and w4a16 (weights are quantized to int4 and activations are quantized to int16).\r\n\r\nImportant Bug Fixes\r\n\r\n- Updated grab and go encodings for all Llama variants to be compatible with demo, evaluate and export again.\r\n- Fixed the export script for LLMs.\r\n- Windows Support: Fixed ImageNette download on Windows devices and added Scipy as global dependency.\r\n- Demo Applications: Fixed file not found errors in two demo applications (customer-reported issue).\r\n- Model Availability: Fixed issue preventing new models from being uploaded to Hugging Face.","2025-08-15T17:50:41",{"id":259,"version":260,"summary_zh":261,"released_at":262},61602,"v0.33.0","**Release Notes:**\r\n\r\nBug fixes and Improvements:\r\n    - All onnx assets are now in zip format with .onnx and .data external weights. This is more robust for large models.\r\n    - Standardized all image models to take RGB input in range [0, 1]\r\n    - Updated Llama recipes to use AIMET 2.10 and ORT 1.22. The ORT update fixes the issue of consuming too much GPU memory when running demo\r\n    - Updated performance numbers for all models\r\n\r\nNew additions:\r\n    - Most models have context binaries for X Elite and 6490 on HuggingFace. Provided for this release only, for backwards compatibility in dropping DLC from the website.\r\n    - Context binaries now uploaded on HuggingFace for ahead-of-time-compiled (AOT) models like stable diffusion going forward.\r\n    - perf.yaml files contain toolchain versions used to compile and run assets\r\n\r\nNew models:\r\n    - Re-instated deeplabv3_plus_mobilenet in w8a8 precision\r\n    - Llama 3.2 1B\r\n        - Works out of the box on SA8295 Auto device\r\n\r\n\r\n\r\n\r\n\r\n\r\n","2025-08-01T06:38:46"]