[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kendryte--nncase":3,"tool-kendryte--nncase":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",156804,2,"2026-04-15T11:34:33",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":115,"forks":116,"last_commit_at":117,"license":118,"difficulty_score":32,"env_os":119,"env_gpu":120,"env_ram":121,"env_deps":122,"category_tags":127,"github_topics":128,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":137,"updated_at":138,"faqs":139,"releases":168},7758,"kendryte\u002Fnncase","nncase","Open deep learning compiler stack for Kendryte AI accelerators ✨","nncase 是一款专为 Kendryte 系列 AI 加速器（如 K230）打造的开源深度学习编译器。它的核心作用是将用户在主流框架（如 TensorFlow Lite、Caffe、ONNX）中训练好的神经网络模型，高效地编译并优化为能在特定硬件上流畅运行的格式，从而打通从算法模型到嵌入式设备部署的“最后一公里”。\n\n对于希望在资源受限的边缘设备上落地 AI 应用的开发者而言，nncase 解决了模型兼容性差、推理速度慢以及精度损失大等痛点。它内置了强大的量化技术和算子融合策略，在显著提升了模型推理帧率（FPS）的同时，能够最大程度保持模型的原始识别准确率，确保在图像分类、目标检测和语义分割等任务中表现优异。\n\n这款工具主要面向嵌入式 AI 工程师、算法研究人员以及物联网设备开发者。如果你正在使用嘉楠科技的芯片进行项目开发，或者需要将轻量级模型部署到边缘端，nncase 提供了完善的命令行工具和 Python 接口，支持 Linux 和 Windows 环境，并附带详细的文档与社区支持，能帮助你快速完成模型的转换、仿真测试与实际部署。","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_3fe4277026f5.png\" width=\"400\" alt=\"nncase\" \u002F>\n\u003C\u002Fdiv>\n\n[![GitHub repository](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgithub-repository-blue?logo=github&style=plastic)](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase) [![Gitee repository](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgitee-repository-blue?logo=gitee&style=plastic)](https:\u002F\u002Fgitee.com\u002Fkendryte\u002Fnncase) [![GitHub release](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fkendryte\u002Fnncase?color=brightgreen&display_name=tag&logo=github&style=plastic)](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases)\n\n[切换中文](docs\u002Freadme_ZH.md)\n\n`nncase` is a neural network compiler for AI accelerators.\n\nTelegram: [nncase community](https:\u002F\u002Ft.me\u002Fjoinchat\u002FPPcEPZMLaTViNDI1)\nTechnical Discussion QQ Group: 790699378 .   Answer: 人工智能\n\n---\n\n## K230\n\n- [Usage](.\u002Fdocs\u002FUSAGE_v2_EN.md)\n- [FAQ](.\u002Fdocs\u002FFAQ_EN.md)\n- [Example](.\u002Fexamples\u002Fuser_guide\u002Fk230_simulate-EN.ipynb)\n- [Colab run](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1m8TTree096m5VHmq-Uc60gXyltVCgnRb?usp=sharing)\n- [ *Version relationship between `nncase` and `K230_SDK`* ](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fk230\u002Fdev\u002Fzh\u002F03_other\u002FK230_SDK_nncase%E7%89%88%E6%9C%AC%E5%AF%B9%E5%BA%94%E5%85%B3%E7%B3%BB.html#k230sdknncase)\n- [update nncase runtime library in SDK](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fk230\u002Fdev\u002Fzh\u002F03_other\u002FK230_SDK%E6%9B%B4%E6%96%B0nncase%E8%BF%90%E8%A1%8C%E6%97%B6%E5%BA%93%E6%8C%87%E5%8D%97.html)\n\n### Install\n\n- Linux：\n\n    ```shell\n    pip install nncase nncase-kpu\n    ```\n\n- Windows:\n\n    ```shell\n    1. pip install nncase\n    2. Download `nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl` in below link.\n    3. pip install nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl\n    ```\n\nAll version of `nncase` and `nncase-kpu` in [Release](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases).\n\n\n### Supported operators\n\n- [TFLite ops](.\u002Fdocs\u002Ftflite_ops.md)\n- [Caffe ops](.\u002Fdocs\u002Fcaffe_ops.md)\n- [ONNX ops](.\u002Fdocs\u002Fonnx_ops.md)\n\n\n### benchmark test\n\n\u003Ctable>\n\u003Ctr> \u003Cth>kind\u003C\u002Fth> \u003Cth> model             \u003C\u002Fth>\u003Cth> shape         \u003C\u002Fth>\u003Cth> quant_type(If\u002FW) \u003C\u002Fth>\u003Cth> nncase_fps    \u003C\u002Fth>\u003Cth> tflite_onnx_result    \u003C\u002Fth>\u003Cth> accuracy \u003C\u002Fth>\u003Cth> info  \u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='3'>Image Classification\u003C\u002Ftd>\n\u003Ctd>mobilenetv2        \u003C\u002Ftd>\u003Ctd> [1,224,224,3] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 600.24        \u003C\u002Ftd>\u003Ctd>  top-1 = 71.3%\u003Cbr\u002F>top-5 = 90.1%  \u003C\u002Ftd>\u003Ctd> top-1 = 71.1%\u003Cbr\u002F>top-5 = 90.0% \u003C\u002Ftd>\u003Ctd> dataset(ImageNet 2012, 50000 images)\u003Cbr\u002F> tflite \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>resnet50V2         \u003C\u002Ftd>\u003Ctd> [1,3,224,224] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 86.17         \u003C\u002Ftd>\u003Ctd>  top-1 = 75.44%\u003Cbr\u002F>top-5 = 92.56%  \u003C\u002Ftd>\u003Ctd> top-1 = 75.11% \u003Cbr\u002F> top-5 = 92.36% \u003C\u002Ftd>\u003Ctd> dataset(ImageNet 2012, 50000 images)\u003Cbr\u002F> onnx\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8s_cls        \u003C\u002Ftd>\u003Ctd> [1,3,224,224] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 130.497       \u003C\u002Ftd>\u003Ctd>  top-1 = 72.2%\u003Cbr\u002F>top-5 = 90.9% \u003C\u002Ftd>\u003Ctd> top-1 = 72.2%\u003Cbr\u002F>top-5 = 90.8% \u003C\u002Ftd>\u003Ctd> dataset(ImageNet 2012, 50000 images)\u003Cbr\u002F> yolov8s_cls(v8.0.207)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='2'>Object Detection\u003C\u002Ftd>\n\u003Ctd>yolov5s_det        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 23.645        \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.374\u003Cbr\u002F>mAP50 = 0.567  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.369\u003Cbr\u002F>mAP50 = 0.566\u003C\u002Ftd>\u003Ctd>dataset(coco val2017, 5000 images)\u003Cbr\u002F>yolov5s_det(v7.0 tag, rect=False, conf=0.001, iou=0.65)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8s_det        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 9.373         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.446\u003Cbr\u002F>mAP50 = 0.612\u003Cbr\u002F>mAP75 = 0.484  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.404\u003Cbr\u002F>mAP50 = 0.593\u003Cbr\u002F>mAP75 = 0.45\u003C\u002Ftd>\u003Ctd>dataset(coco val2017, 5000 images)\u003Cbr\u002F>yolov8s_det(v8.0.207, rect = False)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='1'>Image Segmentation\u003C\u002Ftd>\n\u003Ctd>yolov8s_seg        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 7.845         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.444\u003Cbr\u002F>mAP50 = 0.606\u003Cbr\u002F>mAP75 = 0.484\u003Cbr\u002F>segm\u003Cbr\u002F>mAP50-90 = 0.371\u003Cbr\u002F>mAP50 = 0.578\u003Cbr\u002F>mAP75 = 0.396       \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.444\u003Cbr\u002F>mAP50 = 0.606\u003Cbr\u002F>mAP75 = 0.484\u003Cbr\u002F>segm\u003Cbr\u002F>mAP50-90 = 0.371\u003Cbr\u002F>mAP50 = 0.579\u003Cbr\u002F>mAP75 = 0.397\u003C\u002Ftd>\u003Ctd> dataset(coco val2017, 5000 images)\u003Cbr\u002F>yolov8s_seg(v8.0.207, rect = False, conf_thres = 0.0008)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='3'>Pose Estimation\u003C\u002Ftd>\n\u003Ctd>yolov8n_pose_320   \u003C\u002Ftd>\u003Ctd> [1,3,320,320] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 36.066        \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.6\u003Cbr\u002F>mAP50 = 0.843\u003Cbr\u002F>mAP75 = 0.654\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.358\u003Cbr\u002F>mAP50 = 0.646\u003Cbr\u002F>mAP75 = 0.353    \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.6\u003Cbr\u002F>mAP50 = 0.841\u003Cbr\u002F>mAP75 = 0.656\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.359\u003Cbr\u002F>mAP50 = 0.648\u003Cbr\u002F>mAP75 = 0.357 \u003C\u002Ftd>\u003Ctd> dataset(coco val2017, 2346 images)\u003Cbr\u002F>yolov8n_pose(v8.0.207, rect = False)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8n_pose_640   \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 10.88         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.694\u003Cbr\u002F>mAP50 = 0.909\u003Cbr\u002F>mAP75 = 0.776\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.509\u003Cbr\u002F>mAP50 = 0.798\u003Cbr\u002F>mAP75 = 0.544  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.694\u003Cbr\u002F>mAP50 = 0.909\u003Cbr\u002F>mAP75 = 0.777\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.508\u003Cbr\u002F>mAP50 = 0.798\u003Cbr\u002F>mAP75 = 0.54 \u003C\u002Ftd>\u003Ctd> dataset(coco val2017, 2346 images)\u003Cbr\u002F>yolov8n_pose(v8.0.207, rect = False)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8s_pose       \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 5.568         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.733\u003Cbr\u002F>mAP50 = 0.925\u003Cbr\u002F>mAP75 = 0.818\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.605\u003Cbr\u002F>mAP50 = 0.857\u003Cbr\u002F>mAP75 = 0.666  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.734\u003Cbr\u002F>mAP50 = 0.925\u003Cbr\u002F>mAP75 = 0.819\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.604\u003Cbr\u002F>mAP50 = 0.859\u003Cbr\u002F>mAP75 = 0.669\u003C\u002Ftd>\u003Ctd> dataset(coco val2017, 2346 images)\u003Cbr\u002F>yolov8s_pose(v8.0.207, rect = False)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\n### Demo\n\n|[eye gaze](https:\u002F\u002Fdeveloper.canaan-creative.com\u002FmodelDetail?id=142)  | [space_resize](https:\u002F\u002Fdeveloper.canaan-creative.com\u002FmodelDetail?id=141) | [face pose](https:\u002F\u002Fdeveloper.canaan-creative.com\u002FmodelDetail?id=125)|\n| --- | --- | --- |\n| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_2732d9018403.gif\"  alt=\"gif\"> | \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_a51863dc9ca5.gif\" alt=\"gif\">| \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_c3c1eef6ff1d.gif\"> |\n\n---\n\n## K210\u002FK510\n\n- [Usage](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fdocs\u002FUSAGE_EN.md)\n- [FAQ](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fdocs\u002FFAQ_EN.md)\n- [Example](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fexamples\u002Fuser_guide\u002F)\n\n### Supported operators\n\n- [TFLite ops](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fdocs\u002Ftflite_ops.md)\n- [Caffe ops](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fdocs\u002Fcaffe_ops.md)\n- [ONNX ops](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fblob\u002Frelease\u002F1.0\u002Fdocs\u002Fonnx_ops.md)\n\n---\n\n## Features\n\n- Supports multiple inputs and outputs and multi-branch structure\n- Static memory allocation, no heap memory acquired\n- Operators fusion and optimizations\n- Support float and quantized uint8 inference\n- Support post quantization from float model with calibration dataset\n- Flat model with zero copy loading\n\n---\n\n## Architecture\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_39076a3e7d1d.jpeg\" alt=\"nncase arch\" \u002F>\n\u003C\u002Fdiv>\n\n---\n\n## Build from source\n\n**It is recommended to install nncase directly through `pip`. At present, the source code related to k510 and K230 chips is not open source, so it is not possible to use `nncase-K510` and `nncase-kpu` (K230) directly by compiling source code.**\n\n\nIf there are operators in your model that `nncase` does not yet support, you can request them in the issue or implement them yourself and submit the PR. Later versions will be integrated, or contact us to provide a temporary version.\nHere are the steps to compile `nncase`.\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase.git\ncd nncase\nmkdir build && cd build\n\n# Use Ninja\ncmake .. -G Ninja -DCMAKE_BUILD_TYPE=Release -DCMAKE_INSTALL_PREFIX=.\u002Finstall\nninja && ninja install\n\n# Use make\ncmake .. -DCMAKE_BUILD_TYPE=Release -DCMAKE_INSTALL_PREFIX=.\u002Finstall\nmake && make install\n```\n\n---\n\n## Resources\n\n### Canaan developer community\n\n[Canaan developer community](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fresource) contains all resources related to K210, K510, and K230.\n\n- 资料下载 --> Pre-compiled images available for the development boards corresponding to the three chips.\n- 文档 --> Documents corresponding to the three chips.\n- 模型库 --> Examples and code for industrial, security, educational and other scenarios that can be run on the K210 and K230.\n- 模型训练 --> The model training platform for K210 and K230 supports the training of various scenarios.\n\n### Bilibili\n\n- [Canaan AI tutorial and application demonstration](https:\u002F\u002Fspace.bilibili.com\u002F677429436)\n\n\n### K210 related repo\n\n- [K210_Yolo_framework](https:\u002F\u002Fgithub.com\u002Fzhen8838\u002FK210_Yolo_framework)\n- [Shts!&#39;s Blog (Japanese)](https:\u002F\u002Fwww.shtsno24.tokyo\u002F2020\u002F03\u002Fnncase-v020.html)\n- [Examples](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fcanmv_examples\u002Ftree\u002Fmain\u002F01-K210)\n\n### K230 related repo\n\n- C: [K230_SDK](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_sdk)\n    - [Documents](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_docs)\n    - [K230 end-to-end tutorial](https:\u002F\u002Fgithub.com\u002Fkendryte\u002FK230_training_scripts)\n- MicroPython: [Canmv_k230](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_canmv)\n    - [Documents](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_canmv_docs)\n    - [Examples](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fcanmv_examples\u002Ftree\u002Fmain\u002F02-K230)\n---\n","\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_3fe4277026f5.png\" width=\"400\" alt=\"nncase\" \u002F>\n\u003C\u002Fdiv>\n\n[![GitHub 仓库](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgithub-repository-blue?logo=github&style=plastic)](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase) [![Gitee 仓库](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fgitee-repository-blue?logo=gitee&style=plastic)](https:\u002F\u002Fgitee.com\u002Fkendryte\u002Fnncase) [![GitHub 发布](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fkendryte\u002Fnncase?color=brightgreen&display_name=tag&logo=github&style=plastic)](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases)\n\n[切换中文](docs\u002Freadme_ZH.md)\n\n`nncase` 是一款面向 AI 加速器的神经网络编译器。\n\nTelegram：[nncase 社区](https:\u002F\u002Ft.me\u002Fjoinchat\u002FPPcEPZMLaTViNDI1) 技术讨论 QQ 群：790699378 。答案：人工智能\n\n---\n\n## K230\n\n- [使用指南](.\u002Fdocs\u002FUSAGE_v2_EN.md)\n- [常见问题解答](.\u002Fdocs\u002FFAQ_EN.md)\n- [示例](.\u002Fexamples\u002Fuser_guide\u002Fk230_simulate-EN.ipynb)\n- [Colab 运行](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1m8TTree096m5VHmq-Uc60gXyltVCgnRb?usp=sharing)\n- [ *`nncase` 与 `K230_SDK` 的版本对应关系* ](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fk230\u002Fdev\u002Fzh\u002F03_other\u002FK230_SDK_nncase%E7%89%88%E6%9C%AC%E5%AF%B9%E5%BA%94%E5%85%B3%E7%B3%BB.html#k230sdknncase)\n- [更新 SDK 中的 nncase 运行时库](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fk230\u002Fdev\u002Fzh\u002F03_other\u002FK230_SDK%E6%9B%B4%E6%96%B0nncase%E8%BF%90%E8%A1%8C%E6%97%B6%E5%BA%93%E6%8C%87%E5%8D%97.html)\n\n### 安装\n\n- Linux：\n\n    ```shell\n    pip install nncase nncase-kpu\n    ```\n\n- Windows：\n\n    ```shell\n    1. pip install nncase\n    2. 在下方链接中下载 `nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl`。\n    3. pip install nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl\n    ```\n\n`nncase` 和 `nncase-kpu` 的所有版本均可在 [Release](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases) 中找到。\n\n### 支持的算子\n\n- [TFLite 算子](.\u002Fdocs\u002Ftflite_ops.md)\n- [Caffe 算子](.\u002Fdocs\u002Fcaffe_ops.md)\n- [ONNX 算子](.\u002Fdocs\u002Fonnx_ops.md)\n\n\n### 基准测试\n\n\u003Ctable>\n\u003Ctr> \u003Cth>类别\u003C\u002Fth> \u003Cth> 模型             \u003C\u002Fth>\u003Cth> 形状         \u003C\u002Fth>\u003Cth> 量化类型（If\u002FW） \u003C\u002Fth>\u003Cth> nncase FPS    \u003C\u002Fth>\u003Cth> tflite\u002Fonnx 结果    \u003C\u002Fth>\u003Cth> 准确率 \u003C\u002Fth>\u003Cth> 信息  \u003C\u002Fth>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='3'>图像分类\u003C\u002Ftd>\n\u003Ctd>mobilenetv2        \u003C\u002Ftd>\u003Ctd> [1,224,224,3] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 600.24        \u003C\u002Ftd>\u003Ctd>  top-1 = 71.3%\u003Cbr\u002F>top-5 = 90.1%  \u003C\u002Ftd>\u003Ctd> top-1 = 71.1%\u003Cbr\u002F>top-5 = 90.0% \u003C\u002Ftd>\u003Ctd> 数据集（ImageNet 2012，50000 张图片）\u003Cbr\u002F> tflite \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>resnet50V2         \u003C\u002Ftd>\u003Ctd> [1,3,224,224] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 86.17         \u003C\u002Ftd>\u003Ctd>  top-1 = 75.44%\u003Cbr\u002F>top-5 = 92.56%  \u003C\u002Ftd>\u003Ctd> top-1 = 75.11% \u003Cbr\u002F> top-5 = 92.36% \u003C\u002Ftd>\u003Ctd> 数据集（ImageNet 2012，50000 张图片）\u003Cbr\u002F> onnx\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8s_cls        \u003C\u002Ftd>\u003Ctd> [1,3,224,224] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 130.497       \u003C\u002Ftd>\u003Ctd>  top-1 = 72.2%\u003Cbr\u002F>top-5 = 90.9% \u003C\u002Ftd>\u003Ctd> top-1 = 72.2%\u003Cbr\u002F>top-5 = 90.8% \u003C\u002Ftd>\u003Ctd> 数据集（ImageNet 2012，50000 张图片）\u003Cbr\u002F> yolov8s_cls(v8.0.207)\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='2'>目标检测\u003C\u002Ftd>\n\u003Ctd>yolov5s_det        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 23.645        \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.374\u003Cbr\u002F>mAP50 = 0.567  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.369\u003Cbr\u002F>mAP50 = 0.566\u003C\u002Ftd>\u003Ctd>数据集（coco val2017，5000 张图片）\u003Cbr\u002F>yolov5s_det(v7.0 标签，rect=False，conf=0.001，iou=0.65）\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8s_det        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 9.373         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.446\u003Cbr\u002F>mAP50 = 0.612\u003Cbr\u002F>mAP75 = 0.484  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.404\u003Cbr\u002F>mAP50 = 0.593\u003Cbr\u002F>mAP75 = 0.45\u003C\u002Ftd>\u003Ctd>数据集（coco val2017，5000 张图片）\u003Cbr\u002F>yolov8s_det(v8.0.207，rect = False）\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='1'>图像分割\u003C\u002Ftd>\n\u003Ctd>yolov8s_seg        \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 7.845         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.444\u003Cbr\u002F>mAP50 = 0.606\u003Cbr\u002F>mAP75 = 0.484\u003Cbr\u002F>segm\u003Cbr\u002F>mAP50-90 = 0.371\u003Cbr\u002F>mAP50 = 0.578\u003Cbr\u002F>mAP75 = 0.396       \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.444\u003Cbr\u002F>mAP50 = 0.606\u003Cbr\u002F>mAP75 = 0.484\u003Cbr\u002F>segm\u003Cbr\u002F>mAP50-90 = 0.371\u003Cbr\u002F>mAP50 = 0.579\u003Cbr\u002F>mAP75 = 0.397\u003C\u002Ftd>\u003Ctd> 数据集（coco val2017，5000 张图片）\u003Cbr\u002F>yolov8s_seg(v8.0.207，rect = False，conf_thres = 0.0008）\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\n\u003Ctd rowspan='3'>姿态估计\u003C\u002Ftd>\n\u003Ctd>yolov8n_pose_320   \u003C\u002Ftd>\u003Ctd> [1,3,320,320] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 36.066        \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.6\u003Cbr\u002F>mAP50 = 0.843\u003Cbr\u002F>mAP75 = 0.654\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.358\u003Cbr\u002F>mAP50 = 0.646\u003Cbr\u002F>mAP75 = 0.353    \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.6\u003Cbr\u002F>mAP50 = 0.841\u003Cbr\u002F>mAP75 = 0.656\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.359\u003Cbr\u002F>mAP50 = 0.648\u003Cbr\u002F>mAP75 = 0.357 \u003C\u002Ftd>\u003Ctd> 数据集（coco val2017，2346 张图片）\u003Cbr\u002F>yolov8n_pose(v8.0.207，rect = False）\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>yolov8n_pose_640   \u003C\u002Ftd>\u003Ctd> [1,3,640,640] \u003C\u002Ftd>\u003Ctd> u8\u002Fu8            \u003C\u002Ftd>\u003Ctd> 10.88         \u003C\u002Ftd>\u003Ctd>  bbox\u003Cbr\u002F>mAP50-90 = 0.694\u003Cbr\u002F>mAP50 = 0.909\u003Cbr\u002F>mAP75 = 0.776\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.509\u003Cbr\u002F>mAP50 = 0.798\u003Cbr\u002F>mAP75 = 0.54  \u003C\u002Ftd>\u003Ctd> bbox\u003Cbr\u002F>mAP50-90 = 0.694\u003Cbr\u002F>mAP50 = 0.909\u003Cbr\u002F>mAP75 = 0.777\u003Cbr\u002F>keypoints\u003Cbr\u002F>mAP50-90 = 0.508\u003Cbr\u002F>mAP50 = 0.798\u003Cbr\u002F>mAP75 = 0.5…\n\n## 特性\n\n- 支持多输入、多输出及多分支结构\n- 静态内存分配，不使用堆内存\n- 算子融合与优化\n- 支持浮点和量化 uint8 推理\n- 支持基于校准数据集的浮点模型后量化\n- 扁平化模型，零拷贝加载\n\n---\n\n## 架构\n\n\u003Cdiv align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_readme_39076a3e7d1d.jpeg\" alt=\"nncase 架构\" \u002F>\n\u003C\u002Fdiv>\n\n---\n\n## 从源码构建\n\n**建议直接通过 `pip` 安装 nncase。目前，与 k510 和 K230 芯片相关的源代码尚未开源，因此无法通过编译源代码直接使用 `nncase-K510` 和 `nncase-kpu`（K230）。**\n\n\n如果您的模型中包含 nncase 尚未支持的算子，您可以在 issue 中提出需求，或自行实现并提交 PR。这些功能将在后续版本中集成，或者您也可以联系我们获取临时版本。\n以下是编译 `nncase` 的步骤。\n\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase.git\ncd nncase\nmkdir build && cd build\n\n# 使用 Ninja\ncmake .. -G Ninja -DCMAKE_BUILD_TYPE=Release -DCMAKE_INSTALL_PREFIX=.\u002Finstall\nninja && ninja install\n\n# 使用 make\ncmake .. -DCMAKE_BUILD_TYPE=Release -DCMAKE_INSTALL_PREFIX=.\u002Finstall\nmake && make install\n```\n\n---\n\n## 资源\n\n### Canaan 开发者社区\n\n[Canaan 开发者社区](https:\u002F\u002Fdeveloper.canaan-creative.com\u002Fresource) 包含与 K210、K510 和 K230 相关的所有资源。\n\n- 资料下载 --> 提供三种芯片对应开发板的预编译镜像。\n- 文档 --> 三种芯片对应的文档。\n- 模型库 --> 可在 K210 和 K230 上运行的工业、安防、教育等场景示例及代码。\n- 模型训练 --> K210 和 K230 的模型训练平台支持多种场景的模型训练。\n\n### Bilibili\n\n- [Canaan AI 教程及应用演示](https:\u002F\u002Fspace.bilibili.com\u002F677429436)\n\n\n### K210 相关仓库\n\n- [K210_Yolo_framework](https:\u002F\u002Fgithub.com\u002Fzhen8838\u002FK210_Yolo_framework)\n- [Shts!&#39;s Blog（日文）](https:\u002F\u002Fwww.shtsno24.tokyo\u002F2020\u002F03\u002Fnncase-v020.html)\n- [示例](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fcanmv_examples\u002Ftree\u002Fmain\u002F01-K210)\n\n### K230 相关仓库\n\n- C：[K230_SDK](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_sdk)\n    - [文档](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_docs)\n    - [K230 端到端教程](https:\u002F\u002Fgithub.com\u002Fkendryte\u002FK230_training_scripts)\n- MicroPython：[Canmv_k230](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_canmv)\n    - [文档](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fk230_canmv_docs)\n    - [示例](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fcanmv_examples\u002Ftree\u002Fmain\u002F02-K230)\n---","# nncase 快速上手指南\n\nnncase 是一款专为 AI 加速器（如嘉楠勘智 K210、K510、K230 系列芯片）设计的神经网络编译器。它支持将 TensorFlow Lite、Caffe、ONNX 等格式的模型编译优化，以便在嵌入式设备上高效运行。\n\n## 1. 环境准备\n\n*   **操作系统**：\n    *   **Linux**：推荐 Ubuntu 18.04\u002F20.04\u002F22.04 或兼容发行版。\n    *   **Windows**：Windows 10\u002F11 (64-bit)。\n*   **前置依赖**：\n    *   Python 3.6 及以上版本。\n    *   pip 包管理工具。\n    *   （可选）若需从源码编译，需安装 CMake、Ninja 或 Make 以及 C++ 编译器。\n\n> **注意**：目前针对 K510 和 K230 芯片的核心运行时库（`nncase-kpu`）未完全开源，**强烈建议直接使用 pip 安装预编译包**，而非从源码编译，以确保功能完整。\n\n## 2. 安装步骤\n\n请根据您的操作系统选择对应的安装方式。所有版本均可在 [GitHub Releases](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases) 查看，以下命令将自动拉取最新稳定版。\n\n### Linux 系统\n\n直接通过 pip 安装核心库及 KPU 运行时库：\n\n```shell\npip install nncase nncase-kpu\n```\n\n> **国内加速建议**：如果下载速度慢，建议使用清华源或阿里源：\n> ```shell\n> pip install nncase nncase-kpu -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### Windows 系统\n\nWindows 下需要分两步安装，先安装主程序，再手动安装 KPU 轮子包：\n\n1.  安装主程序：\n    ```shell\n    pip install nncase\n    ```\n\n2.  前往 [nncase Releases](https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Freleases) 页面，下载对应版本的 `nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl` 文件。\n\n3.  在终端中进入下载目录，执行安装：\n    ```shell\n    pip install nncase_kpu-2.x.x-py2.py3-none-win_amd64.whl\n    ```\n    *(请将文件名替换为您实际下载的版本号)*\n\n## 3. 基本使用\n\nnncase 的核心工作流是将原始模型（如 `.tflite`, `.onnx`）转换为优化的 `.kmodel` 格式。以下是一个基于 Python 的最简转换示例（以 TFLite 模型为例）：\n\n### 简单模型转换示例\n\n```python\nimport nncase\nfrom nncase import Target, RuntimeCompiler\n\n# 1. 初始化编译器，指定目标芯片 (例如 'k230' 或 'k510')\ntarget = Target('k230')\ncompiler = RuntimeCompiler(target)\n\n# 2. 导入模型\n# 假设你有一个名为 'mobilenet_v2.tflite' 的模型文件\nmodel_content = open('mobilenet_v2.tflite', 'rb').read()\ncompiler.import_tflite(model_content)\n\n# 3. 配置编译选项 (可选，如量化设置)\n# 这里使用默认的浮点编译，若需量化需传入校准数据集\ncompile_options = compiler.compile_options\ncompile_options.entry_func = 'main'\ncompile_options.dump_dir = 'output_dump' # 用于调试输出\n\n# 4. 执行编译\ncompiler.compile()\n\n# 5. 导出 kmodel\nkmodel = compiler.gencode()\nwith open('mobilenet_v2.kmodel', 'wb') as f:\n    f.write(kmodel)\n\nprint(\"编译完成，已生成 mobilenet_v2.kmodel\")\n```\n\n### 后续步骤\n生成的 `.kmodel` 文件可部署到嘉楠开发板上，通过 C SDK 或 MicroPython (CanMV) 进行加载和推理。详细的使用案例和仿真脚本可参考官方提供的 Jupyter Notebook 示例。","某嵌入式开发团队正致力于将基于 YOLOv5 的目标检测算法部署到嘉楠科技 K230 AI 加速芯片上，用于智能安防摄像头的实时人流统计。\n\n### 没有 nncase 时\n- **模型兼容性差**：直接从 PyTorch 导出的 ONNX 模型无法直接在 K230 硬件上运行，团队需手动重写底层算子或寻找不稳定的第三方转换脚本。\n- **推理性能低下**：未经针对硬件优化的浮点模型在边缘端运行帧率仅为 3-4 FPS，完全无法满足实时监控所需的流畅度。\n- **精度损失不可控**：自行尝试量化（Quantization）时缺乏校准工具，导致模型压缩后精度大幅下跌，误报率飙升。\n- **调试周期漫长**：缺乏统一的编译栈和仿真环境，每次修改参数都需烧录固件到开发板验证，严重拖慢迭代速度。\n\n### 使用 nncase 后\n- **一键模型编译**：利用 nncase 直接导入 ONNX 模型，自动完成算子融合与硬件指令映射，无需手动修改网络结构即可生成可执行文件。\n- **性能显著提升**：通过 nncase 的量化感知训练与优化，模型在保持 u8\u002Fint8 精度的同时，推理速度提升至 23+ FPS，实现流畅实时检测。\n- **精度高度对齐**：内置的校准工具确保量化后的模型 mAP 指标与原始浮点模型误差控制在 1% 以内，保障了业务准确性。\n- **高效仿真验证**：借助 nncase 提供的模拟器，开发者可在 PC 端快速验证模型效果与性能，将“修改 - 验证”循环从小时级缩短至分钟级。\n\nnncase 通过提供从模型导入、量化优化到硬件编译的一站式解决方案，彻底打通了通用深度学习模型到 Kendryte 专用加速器的高效落地路径。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkendryte_nncase_3fe42770.png","kendryte","Kendryte","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkendryte_6034e3af.png","Kendryte is a series of AI chips which focuses on IoT, and the 1st-gen is named K210; Presented by Canaan Inc.",null,"https:\u002F\u002Fwww.kendryte.com","https:\u002F\u002Fgithub.com\u002Fkendryte",[80,84,88,92,96,100,104,108,112],{"name":81,"color":82,"percentage":83},"C#","#178600",56.2,{"name":85,"color":86,"percentage":87},"C++","#f34b7d",31.7,{"name":89,"color":90,"percentage":91},"Python","#3572A5",9,{"name":93,"color":94,"percentage":95},"CMake","#DA3434",1.4,{"name":97,"color":98,"percentage":99},"C","#555555",1.3,{"name":101,"color":102,"percentage":103},"HTML","#e34c26",0.2,{"name":105,"color":106,"percentage":107},"Shell","#89e051",0.1,{"name":109,"color":110,"percentage":111},"Jinja","#a52a22",0,{"name":113,"color":114,"percentage":111},"HLSL","#aace60",872,207,"2026-04-14T13:50:31","Apache-2.0","Linux, Windows","未说明 (该工具为 AI 加速器编译器，主要运行在 CPU 上进行模型编译，目标硬件为 K210\u002FK510\u002FK230 等 NPU)","未说明",{"notes":123,"python":124,"dependencies":125},"1. 目前 K510 和 K230 芯片相关的源代码未开源，无法通过源码直接编译使用 nncase-K510 和 nncase-kpu (K230)，建议直接通过 pip 安装预编译包。\n2. Windows 用户安装 K230 支持库时，需手动下载特定版本的 .whl 文件进行安装。\n3. 该工具主要用于将 TFLite、Caffe、ONNX 模型编译为嘉楠科技 (Canaan) AI 加速器可用的格式。","支持 Python 2 和 Python 3 (根据安装包名称 py2.py3 推断)",[64,126],"nncase-kpu (K230 专用，Windows 需单独安装 whl 包)",[35,14],[129,130,72,131,132,133,134,135,136],"neural-network","deep-learning","k210","k510","k230","ai-compiler","llm","compiler","2026-03-27T02:49:30.150509","2026-04-16T05:42:53.977277",[140,145,150,155,160,164],{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},34878,"将 TFLite 模型转换为 kmodel 时遇到 'Layer Pad is not supported' 错误怎么办？","该错误是因为当前版本的 nncase 对 Padding 操作的支持有限，仅支持特定的填充格式（如 [[0,0],[1,1],[1,1],[0,0]]）。维护者表示这是由于当前容量不足无法处理此类编译问题，建议等待 nncase-1.3 版本发布以解决此问题。","https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fissues\u002F469",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},34879,"为什么编译生成的 kmodel 文件过大导致开发板崩溃？","这通常是因为在进行量化校准（calibration）时未指定 '--dataset' 参数。如果没有提供数据集，框架将无法执行量化操作，从而生成浮点型（float）kmodel。浮点模型体积较大且可能超出开发板的 CPU 或 RAM 承受能力导致崩溃。解决方法是在编译命令中添加 '--dataset' 参数并提供校准图片路径。","https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fissues\u002F410",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},34880,"在使用空白图片进行推理时程序因“除以零”错误崩溃，如何解决？","这是由于量化过程中，空白图片导致网络输出极小，权重被截断为零，进而引发除法异常。维护者确认这是一个有效的问题，并提供了修复后的构建版本。用户可以尝试使用最新的 master 分支代码或指定的修复构建版本来解决此问题。此外，建议在量化过程中提供具有代表性的数据集以避免此类极端情况。","https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fissues\u002F60",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},34881,"如何避免 nncase 在卷积操作中自动添加额外的 Padding 层导致性能开销？","这是由 KPU 硬件特性决定的。KPU 硬件始终会执行 pad(1,1) 操作且不可配置。当用户代码中使用 valid padding 且步长（stride）为 2 时，为了对齐硬件行为，nncase 必须在前端添加填充并在后端裁剪结果。因此，这些额外的 Padding 和 Crop 操作是必要的，无法完全避免。如果输入尺寸调整为特定值（如 224x224），有时可以避免触发此逻辑，但根本原因是硬件限制。","https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fissues\u002F99",{"id":161,"question_zh":162,"answer_zh":163,"source_url":149},34882,"在 xubuntu 等 Linux 系统上安装 nncase wheel 文件提示 'not supported wheel on this platform' 怎么办？","这通常是因为下载的 wheel 文件与当前的 Python 版本或操作系统架构不匹配。例如，nncase-1.0.0-rc1 的 wheel 包可能不支持特定的 Linux 发行版或 Python 3.8+ 环境。建议检查官方 Release 页面是否有匹配当前系统（如 manylinux_2_24_x86_64）和 Python 版本（如 cp38）的 wheel 文件，或者尝试从源码编译安装。",{"id":165,"question_zh":166,"answer_zh":167,"source_url":149},34883,"使用 --input-shape 参数修改输入形状时报 'unrecognized token' 错误是什么原因？","在较旧版本的 ncc 命令行工具中，直接传递带空格的形状参数可能会导致解析错误。确保参数格式正确，例如使用引号包裹：--input-shape \"1 1 240 320\"。如果问题依旧，可能是版本过旧导致的解析器 bug，建议升级到最新版本或查看是否需要在 prototxt 文件中直接定义输入形状而非通过命令行参数。",[169,174,179,184,189,194,199,204,209,214,219,224,229,234,239,244,249,254,259,264],{"id":170,"version":171,"summary_zh":172,"released_at":173},272204,"v2.11.0","## 新特性\n* 重构 op_profile，使其可在运行时启用：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1479\n\n## Bug 修复与性能优化\n* 在 runtime-build.yml 中添加 CI 定时触发器：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1454\n* 移除 Linux 下的 execstack 标志：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1476\n* 将校准方法从 NoClip 更新为 Kld：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1475\n* 优化 RTOS 中 op profile 的内存使用：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1483\n* 优化 YOLO 系列模型：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1481\n* 修复 Softmax 优化带来的副作用：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1484","2026-02-28T08:00:53",{"id":175,"version":176,"summary_zh":177,"released_at":178},272205,"v2.10.0","## 新特性\n* 添加 k230 Linux 运行时 Python API 和 wheel 包\n* Linux 运行时支持 RISC-V GCC 14.1：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1355\n\n## Bug 修复与性能优化\n* 更新文档：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1224、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1240\n* 添加额外的编译选项，以兼容 k230 Linux SDK：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1227\n* 修复 NumPy 非连续内存问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1232\n* 升级 Conan 2：#1242、#1244、#1267\n* 修复 SAT 提取器：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1243\n* 修复测试问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1341\n* 优化 YOLOv10：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1260\n* 优化 Depth Anything：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1343\n* 修复 RTOS 构建中的 ISA 扩展问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1346\n* 修复运行时数据类型问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1352\n* 修复 k230_benchmark_test 和 k230_ai_demo 任务：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1359\n* 修复 nncase-k230 Python wheel 的问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1388","2025-08-08T06:12:01",{"id":180,"version":181,"summary_zh":182,"released_at":183},272206,"v2.9.0","## 新特性\n* k230 支持 Linux 运行时：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1222\n\n## Bug 修复与性能优化\n* 更新 .NET 环境配置：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1209\n* 更新文档链接：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1213\n* 修复常规的 reduce sum 操作：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1214\n* 修复外部数据问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1215","2024-07-31T09:09:31",{"id":185,"version":186,"summary_zh":187,"released_at":188},272207,"v2.8.3","## 新特性\n* QEMU 系统模式：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1201\n* 支持通道优先的 LayerNorm（C#）：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1204\n\n\n## Bug 修复与性能优化\n* 添加针对字符数组缓冲区的 xsgetn 功能：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1198\n* 修复 ReduceSum 操作集条件：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1203\n* 移除不可用的 NuGet 源（nuget.cnblogs.com）：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1207\n","2024-05-22T08:28:55",{"id":190,"version":191,"summary_zh":192,"released_at":193},272208,"v2.8.2","## 新特性\n* 特性\u002F文档更新：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1174\n* 特性\u002F从 egraph 中提取约束：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1175\n* 特性\u002F文档更新：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1176\n\n## Bug 修复与性能优化\n* 修复二元折叠问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1182\n* 修复 macOS-latest 不支持 Python 3.7 的问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1194","2024-04-28T08:09:40",{"id":195,"version":196,"summary_zh":197,"released_at":198},272209,"v2.8.1","## 新特性\n* 支持在 accuracy_test 中使用多个 kmodel：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1162\n* 支持在 pytest 中使用 npy 文件：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1164\n\n## Bug 修复与性能优化\n* 修复\u002Fdump_manager：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1163\n* 修复 Melgan 相关问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1168\n* 修复动态形状缺失换行符的问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1170\n* 修复 in_ci 环境判断中布尔类型的错误：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1171","2024-02-28T01:45:47",{"id":200,"version":201,"summary_zh":202,"released_at":203},272210,"v2.8.0","## 新特性\n* 功能\u002Fgem5：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1157\n\n## Bug修复与性能优化\n* GNNE-1714：修复搜索时间 egraph：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1155\n* 修复不等于操作：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1156\n* GNNE-1714：修复部分优化：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1158\n* 修复Bucket：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1159","2024-01-25T01:42:14",{"id":205,"version":206,"summary_zh":207,"released_at":208},272211,"v2.7.0","## 新特性\n* 添加精度测试：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1140\n* 重构量化模块：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1144\n* 功能\u002Fk800 qemu：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1145\n* GNNE-1980 XPU SRAM 代码生成：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1148\n* GNNE-1714：调整处理器计数器相关逻辑：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1150\n\n\n## Bug 修复与性能优化\n* 修复 RetinaFace 相似度相关 bug：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1141\n* 修复内存泄漏：避免在终结器线程中释放 Python 流：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1142\n* 修复 PytestCalibrationDatasetProvider 的顺序问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1143\n* 修复 Reshape 操作：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1147\n* 修复 Studio 相关问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1151、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1152\n* 添加清除设备内存池的工具函数：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1153","2023-12-28T02:20:34",{"id":210,"version":211,"summary_zh":212,"released_at":213},272212,"v2.6.0","## 新特性\n* 功能\u002Fcpu：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1019\n* 添加 onnx-op-support-md 文件：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1081\n* 功能\u002Fegraph 假通过：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1111\n* 功能\u002F音频：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1118\n* 功能\u002F移除 apply：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1124\n* GNNE-1974：功能\u002F非均匀：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1128\n* 为 DistributedType 添加 CheckedShape：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1133\n* 添加 rvv_memcpy && 优化配置文件：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1135\n* Nncase Studio：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1125、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1136、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1137\n\n## Bug 修复与性能优化\n* 修复运行时问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1115\n* 重构 k230_benchmark_test 的推断报告：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1119\n* 修复 melgan 相关问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1126\n* 修复 LN 求值器：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1131\n* 修复元数据问题：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1132\n* GNNE-1714：修复回归性 bug：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1116、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1117、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1121、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1123、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1127、https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1130","2023-11-30T01:47:10",{"id":215,"version":216,"summary_zh":217,"released_at":218},272213,"v2.5.1","## 新功能\n\n## Bug 修复和性能优化\n* 修复 GetItem：https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1114\n","2023-10-31T03:10:41",{"id":220,"version":221,"summary_zh":222,"released_at":223},272214,"v2.5.0","## New features\r\n* add mse: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1110\r\n\r\n\r\n## Bug fixes and performance improve\r\n* fix op's datatype: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1068\r\n* fix timeout issue of read_until in pyserial: in https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1101\r\n* Fix\u002Fquant by json: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1106\r\n* Fix\u002Fcos nan: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1090\r\n* fix new linked section: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1108\r\n* fix onnximport's dt: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1103\r\n* Upgrade vulkan version from 1.2.182.0 to 1.3.268.0: in https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1112","2023-10-30T03:05:24",{"id":225,"version":226,"summary_zh":227,"released_at":228},272215,"v2.4.0","## New features\r\n* GNNE-1904 Support coordinate_mode and nearest_mode selection for nearest resize_image: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1065\r\n* Feature\u002Fjson: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1074\r\n* Feature\u002Fadd colab link: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1075\r\n* TestRunner support dynamic shape: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1076, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1089, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1095, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1096\r\n* github CI cancle:  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1078,  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1093\r\n* Support large kmodel: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1079\r\n* ncnn importer: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F332\r\n\r\n## Bug fixes and performance improve\r\n* fix kernel test: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1069, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1072,  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1073, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1077, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1082,  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1084, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1085\r\n* GNNE-1891 ShapeBucket Optimize: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1088\r\n* Fix Enable Nop: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1097\r\n* fix euclidean calc: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1094\r\n* Fix BucketPad: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1098\r\n* fix nncase version suffix: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1099, https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1100","2023-09-25T02:11:24",{"id":230,"version":231,"summary_zh":232,"released_at":233},272216,"v2.3.0","## New features\r\n* Broadcast marker: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1033\r\n* Feature\u002Fadd squeeze binary shape: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1059\r\n* fix python interface: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1040  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1057 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1063 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1066 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1067 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1071 \r\n* remove date in version: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1038\r\n* Support one-dim input in matmul op: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1051\r\n* Add inference report for both simulator and evb: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1061\r\n\r\n## Bug fixes and performance improve\r\n* runtime kernel test fix: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1024 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1028   https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1029 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1030  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1031 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1032 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1034 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1035 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1036 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1043 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1044 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1046\r\n* Improve test runner:  https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1037 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1041 https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1047\r\n* Fix Dynamic TTS: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1039\r\n* fix SpaceToBatchTest: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1053\r\n* Fix 3D BatchToSpace: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1058\r\n* Fix Tuple Compare: https:\u002F\u002Fgithub.com\u002Fkendryte\u002Fnncase\u002Fpull\u002F1050","2023-08-28T06:33:09",{"id":235,"version":236,"summary_zh":237,"released_at":238},272217,"v2.2.0","## New features\r\n- Refactor test runner #1010 \r\n- add ReshapeMatMul #1015\r\n- add FoldNopIf\u002F FoldNopReduce #1016\r\n- add trilu #1020 \r\n- runtime kernel tests #996 \r\n\r\n## Bug fixes and performance improve\r\n- fix test runner #1021 ","2023-07-31T01:38:55",{"id":240,"version":241,"summary_zh":242,"released_at":243},272218,"v2.1.1","## New features\r\n- Load kmodel from stream #982\r\n- space to batch to pad #990\r\n- GNNE-1882 support einsum #994\r\n- Support Onnx Model ExternalData #995\r\n- GNNE-1875 Feature\u002Fop profile with cpu ops #1011\r\n\r\n## Bug fixes and performance improve\r\n- fit single channel norm #964\r\n- fix isa gen #973\r\n- Fix bug layernorm get wrong result in some cases #991\r\n- Fix stackvm memory leak at MX3SDK-636. #1014","2023-07-21T03:29:10",{"id":245,"version":246,"summary_zh":247,"released_at":248},272219,"v2.1.0","## New features\r\n- ShapeBucket (#937)\r\n- Feature\u002Fegraph sat extract (#963)\r\n- add new hardswish pattern (#969)\r\n- Feature\u002Fsupport output layout (#972)\r\n\r\n## Bug fixes and performance improve\r\n- Fix bug binary rvv result error (#962) \r\n- Optimize stackvm (#966)\r\n- Fix bug binary result error and support some commonly used shapes (#980) \r\n- Fix bug log softmax get nan or inf result (#985)","2023-07-03T15:09:21",{"id":250,"version":251,"summary_zh":252,"released_at":253},272220,"v2.0.0","## New features\r\n- Completely rewritten in C#\r\n- Support dynamic shape\r\n- Support K230\r\n\r\n## Notes\r\n- Depends on [dotnet runtime 7.0](https:\u002F\u002Fdotnet.microsoft.com\u002Fdownload\u002Fdotnet\u002F7.0)\r\n- Drop K210 support","2023-06-02T04:46:07",{"id":255,"version":256,"summary_zh":257,"released_at":258},272221,"v1.9.0","## New features\r\n- support LBR (#796) \r\n- Feature\u002Fimport 1d deconv (#802)\r\n\r\n## Bug fixes\r\n- K510 bug fixes\r\n- K510 performance improvement","2023-03-23T08:13:19",{"id":260,"version":261,"summary_zh":262,"released_at":263},272222,"v1.8.0","## New features\r\n- Add Compress (#625)\r\n- Support NMS\u002FTTS (#623)\r\n- Add ReduceSum (#635)\r\n- Add LayerNorm (#626)\r\n- Add GatherElements (#642)\r\n\r\n## Bug fixes\r\n- fix argmax min value (#619) \r\n- fix bitcast buffer allocation (#632)\r\n- fix build for archlinux\u002Fmanjaro (#633)\r\n- fix preprocess deq when model has focus (#628)","2022-09-30T08:52:47",{"id":265,"version":266,"summary_zh":267,"released_at":268},272223,"v1.7.1","## New features\r\n- add gru op(onnx, forward) (#599)\r\n- Feature\u002Fdetection postprocess (#615)\r\n\r\n## Bug fixes\r\n- fix import quant node (#600)\r\n- fix k510 rsqrt","2022-07-01T09:21:48"]