[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ai-techsystems--deepC":3,"tool-ai-techsystems--deepC":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":122,"env_os":123,"env_gpu":124,"env_ram":125,"env_deps":126,"category_tags":137,"github_topics":138,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":158,"updated_at":159,"faqs":160,"releases":190},8492,"ai-techsystems\u002FdeepC","deepC","vendor independent TinyML deep learning library, compiler and inference framework microcomputers and micro-controllers","deepC 是一个专为微型控制器、物联网设备及边缘计算终端打造的深度学习库、编译器与推理框架。它致力于解决在资源受限的小型设备上部署复杂神经网络模型的难题，让开发者无需依赖特定硬件厂商的工具链，即可轻松实现模型落地。\n\n无论是嵌入式工程师、算法研究人员，还是希望在树莓派、Arduino 或 RISC-V 开发板上运行 AI 应用的爱好者，都能通过 deepC 获得高效支持。其核心亮点在于采用“预编译”（Ahead-of-Time）策略：基于 LLVM 编译器工具链，将标准的 ONNX 模型直接转化为高度优化的本地可执行文件。这一过程不仅自动优化了内存占用和数据布局，还通过融合计算模式显著提升了推理速度，确保模型在低功耗设备上也能流畅运行。借助 deepC，用户可以将云端训练好的模型便捷地迁移至各类边缘设备，真正推动人工智能从云端走向终端。","# deepC\n\u003C!-- comment [![Build Status](https:\u002F\u002Fapi.travis-ci.org\u002Fai-techsystems\u002FdeepC.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fgithub\u002Fai-techsystems\u002FdeepC) -->\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FdeepC.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FdeepC)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-techsystems_deepC_readme_827c83e0e76a.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepc)\n[![Apache2.0 License](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fai-techsystems\u002FdnnCompiler)](LICENSE)\n[![Contributors](https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Fall\u002Fbadge.svg?label=financial+contributors)](https:\u002F\u002Fopencollective.com\u002Fdnnc)\n[![Chat](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-Gitter-green.svg)](https:\u002F\u002Fgitter.im\u002Fai-techsystems\u002Fcommunity)\n\nThe deepC is a **vendor independent deep learning library, compiler and inference framework** designed for small form-factor devices including **μControllers, IoT and Edge devices**\n\n## 🏃‍♂️ Using deepC\n\nHere are few of many ways.\n\n1. Try deepC with [Colab Noteboook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1EKgQcMCHr-0OsG9qJ4wXv7J4JFlPY7CK)\n1. Install it on Ubuntu, raspbian (or any other debian derivatives) using ```pip install deepC```\n1. Compile onnx model- [read this article](test\u002Fcompiler\u002Fmnist\u002FREADME.md) or [watch this video](https:\u002F\u002Fyoutu.be\u002FBpFs83MU3HM)\n1. Use deepC with a [Docker File](Dockerfile)\n\nSee more examples in [tutorial](tutorials\u002FREADME.md) dir.\n\n## 📛 what is deepC?\n\ndeepC library, compiler and inference framework is designed to **enable and perform** deep learning neural networks by focussing on features of small form-factor devices like micro-controllers, eFPGAs, cpus and other embedded devices like [raspberry-pi](https:\u002F\u002Fwww.raspberrypi.org\u002F), [odroid](https:\u002F\u002Fwww.hardkernel.com\u002F), [arduino](https:\u002F\u002Fwww.arduino.cc\u002F), [SparkFun Edge](https:\u002F\u002Fwww.sparkfun.com\u002Fproducts\u002F15170), [risc-V](https:\u002F\u002Fwww.amazon.com\u002FSeeed-Studio-Sipeed-Maixduino-RISC-V\u002Fdp\u002FB07SW9ZWQQ), mobile phones, x86 and arm laptops among others.\n\n![edge Devices](misc\u002FedgeDevices.png \"supported edge devices\")\n\ndeepC also offers ahead of time compiler producing optimized executable based on [LLVM compiler tool chain](https:\u002F\u002Fllvm.org\u002F) specialized for deep neural networks with [ONNX](https:\u002F\u002Fonnx.ai\u002F) as front end.\n\n## 📝 Design\n\nMain components of **deepC** have been designed to represent and optimize the common deep learning networks in high level graph IR and to transform the computation graph to minimize memory utilization, optimize data layout and fuse computation patterns for different hardware backends.\n\n\u003Cimg width=\"600\" alt=\"Architecture\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-techsystems_deepC_readme_8ccf9e966607.jpg\">\n\nRead more at [high level design document](docs\u002FhighLevelDesign.md)\n\n## 💧 PreRequisites\n\n* [ONNX 1.5](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Ftree\u002Frel-1.5.0#installation)\n* [LLVM 8.0](http:\u002F\u002Freleases.llvm.org\u002F8.0.0\u002Fdocs\u002FGettingStarted.html#getting-started-quickly-a-summary)\n* [Python 3.6](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-360\u002F)\n* [SWIG 3.0](https:\u002F\u002Fsourceforge.net\u002Fprojects\u002Fswig\u002Ffiles\u002Fswig\u002Fswig-3.0.12\u002F)\n\n## 💻 Development\n\nBuild and start modifying deepC locally from source code with following steps\n\n### ⭕ Ubuntu 18.04\n\nFollow the steps to install pre-requisites\n```bash\nsudo apt-get update\nsudo apt-get install build-essential python3.6-dev python3-pip swig doxygen clang-format clang clang-8 llvm-8 llvm-8-dev protobuf-compiler libprotoc-dev\nsudo pip3 install numpy==1.15.0 onnx==1.5.0\n```\n\nOnce you are done, build deepC\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\ncd deepC\nmake\n```\n### ⭕ Mac OS \u002F Windows 10\n\nMake sure you have the below pre-requisites\n#### Mac OS:\n- [Python for Mac](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fmac-osx\u002F)\n- [Docker for Mac](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-mac\u002Finstall\u002F#download-docker-for-mac)\n\n#### Windows 10:\n- [Python for Windows](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fwindows\u002F)\n- [Docker for Windows](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-windows\u002Finstall\u002F#download-docker-for-windows)\n\nOnce you are done, build deepC inside docker container\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\ncd deepC\npython buildDocker.py\n```\n\n#### 📜 Output\n```bash\nfind include src swig -name \\*.h -print0 -o -name \\*.cpp -print0 | xargs -0 -P8 -n1 clang-format -i\nmake -C src\nmake[1]: Entering directory 'deepC\u002Fsrc'\nmake -C core\nmake[2]: Entering directory 'deepC\u002Fsrc\u002Fcore'\ncompiling broadcast.cpp\n\u002Fusr\u002Fbin\u002Fg++ -O3 -Wall -std=c++14 -fPIC -march=native -msse2 \\\n    -isystem .\u002Fpackages\u002Feigen-eigen-323c052e1731 -I.\u002Finclude \\\n    -c broadcast.cpp -o obj\u002Fbroadcast.o\ncompiling tensor.cpp\n...\n...\n\u002Fusr\u002Fbin\u002Fg++ -shared  .\u002Fobj\u002Fdnnc_swig.o .\u002Fobj\u002Fdnnc_pyutils.o .\u002Fobj\u002Fdnnc_api.o -o lib\u002Flibdnnc.so\nln -s -f lib\u002Flibdnnc.so _dnnc.so\n\u002Fusr\u002Fbin\u002Fpython3 ..\u002Ftest\u002Fswig\u002Fbasic.py\n```\n\n##    Current Support\n\n| Supported Architectures \t|  Status  |\n|-------------------------\t|----------|\n| Arm                     \t|    ✔️   |\n| Armv7                   \t|    ✔️   |\n| Arm64                   \t|    ✔️   |\n| AMD64                   \t|    ✔️   |\n| ppc64le                 \t|    ✔️   |\n\n| Supported OS \t| Distributions  \t|   Status  |\n|--------------\t|----------------\t|-----------|\n| Linux        \t| Ubuntu 18.04   \t|    ✔️    |\n| Linux        \t| CentOS 6   \t\t|    ✔️    |\n| Linux        \t| Arch Linux     \t|    ✔️    |\n| Linux        \t| Manjaro        \t|    ✔️    |\n| Windows      \t| 1803 and above \t|    ✔️    |\n| Mac OS       \t| Sierra and above\t|    ✔️    |\n\n## ➕ Contribute\n\ndnn Compiler adopts apache committer model, we aim to create an open source project that is maintained and owned by the community. Checkout the Contributor Guide.\n\n## 🙏 Acknowledgement\nWe acknowledge the efforts predecessor projects like [LLVM](https:\u002F\u002Fllvm.org\u002F), [ONNX](https:\u002F\u002Fonnx.ai\u002F) etc. to make this project a reality.\n\n---\n\n## 🕵️‍♂️ Why compiler❔\ndeepC is targeted towards devices with small formfactor like microcontrollers, which are part of all sorts of household devices: think appliances, cars, and toys. In fact, there are around 30 billion microcontroller-powered devices produced each year. They're cheap, require very little energy, and are very reliable.\n\nBy bringing deep learning models to tiny microcontrollers, we can boost the intelligence of billions of devices that we use in our lives, without relying on expensive hardware or reliable internet connections. Imagine smart appliances that can adapt to your daily routine, intelligent industrial sensors that understand the difference between problems and normal operation, and magical toys that can help kids learn in fun and delightful ways.\n\n\u003Ca href=\"https:\u002F\u002Fopencollective.com\u002Fdnnc\">\u003Cimg src=\"https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Findividuals.svg?width=890\">\u003C\u002Fa>\n\n#### Organizations\n\nSupport this project with your organization. Your logo will show up here with a link to your website. [[Contribute](https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Fcontribute)]\n\n---\n\n## Built on\u002Fwith deepC\n\n### Products\n1. **[No code TinyML platform](http:\u002F\u002Fcainvas.ai-tech.systems\u002F)**, built with deepC technology.\n2. **[No code TinyML Book](http:\u002F\u002Fthetinymlbook.com\u002F)**, with a chapter on deepC.\n\n### Papers\n- Paper: [Deep Neural Network Operators](docs\u002Fpubs\u002FDNNC-operators-paper.pdf), appeared in [Proceedings of AITS Summit, 2019](https:\u002F\u002Fwww.amazon.com\u002FProceedings-AITS-Summit-2019-www-ai-techsystems-com-ebook\u002Fdp\u002FB083ZJWFGT)\n- Letter: [Gesture Recognition with deepC](docs\u002Fpubs\u002FIJCRT%20-%20Gesture%20Recognition%20with%20deepC.pdf), appeared in [INTERNATIONAL JOURNAL OF CREATIVE RESEARCH THOUGHTS](https:\u002F\u002Fijcrt.org\u002Fpapers\u002FIJCRT2111106.pdf)\n- Poster: [Deep Neural Network Compiler and Inference Framework for microcontrollers and microcomputers](docs\u002Fpubs\u002FAITS%20poster.pdf), appeared in [IRISS 2020\n14th Inter-Research-Institute Student Seminar in Computer Science](https:\u002F\u002Fevents.iitgn.ac.in\u002F2020\u002FIRISS\u002F)\n\n### Paper Citations\n- Standord Report Title: [Model Compression for Chinese-English Neural Machine Translation](https:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Farchive\u002Fcs\u002Fcs224n\u002Fcs224n.1214\u002Freports\u002Ffinal_reports\u002Freport013.pdf)\n- Title: [Artificial Intelligence in the IoT Era: A Review of Edge AI Hardware and Software](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9770931\u002F) \n  - [Download pdf](https:\u002F\u002Ffruct.org\u002Fpublications\u002Ffruct31\u002Ffiles\u002FSip.pdf)\n- Title: [Tiny transformers for environmental sound classification at the edge](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.12157) \n  - [Download pdf](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.12157)\n- Title: [Efficient Edge Analytics: Addressing Cyber-Physical MASINT with Machine Learning on Audio at the Edge](https:\u002F\u002Frepository.lib.fit.edu\u002Fhandle\u002F11141\u002F3223)\n  - [Download pdf](https:\u002F\u002Frepository.lib.fit.edu\u002Fbitstream\u002Fhandle\u002F11141\u002F3223\u002FELLIOTT-DISSERTATION-2020.pdf?sequence=1&isAllowed=y)\n- Title: [Efficient Low-Memory Implementation of Sparse CNNs Using Encoded Partitioned Hybrid Sparse Format](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3687239)\n- Title: [Smart Energy Meters for Smart Grids, an Internet of Things Perspective](https:\u002F\u002Fouci.dntb.gov.ua\u002Fen\u002Fworks\u002F7Pr1ponl\u002F)\n  - [Download pdf](https:\u002F\u002Frepository.kaust.edu.sa\u002Fserver\u002Fapi\u002Fcore\u002Fbitstreams\u002F6c9d6c1f-f7d3-4d42-b454-476a8835a8cd\u002Fcontent)\n\n### Book Chapter\n1. deepC Chapter in book [Introduction to TinyML](http:\u002F\u002Fthetinymlbook.com\u002F), available on [Amazon](https:\u002F\u002Fwww.amazon.com\u002Fdp\u002FB0B662D7ZW\u002F) and other retailers\n","# deepC\n\u003C!-- comment [![构建状态](https:\u002F\u002Fapi.travis-ci.org\u002Fai-techsystems\u002FdeepC.svg?branch=master)](https:\u002F\u002Ftravis-ci.org\u002Fgithub\u002Fai-techsystems\u002FdeepC) -->\n[![PyPI版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FdeepC.svg)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002FdeepC)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-techsystems_deepC_readme_827c83e0e76a.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepc)\n[![Apache2.0 许可证](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fai-techsystems\u002FdnnCompiler)](LICENSE)\n[![贡献者](https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Fall\u002Fbadge.svg?label=financial+contributors)](https:\u002F\u002Fopencollective.com\u002Fdnnc)\n[![聊天](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-Gitter-green.svg)](https:\u002F\u002Fgitter.im\u002Fai-techsystems\u002Fcommunity)\n\ndeepC 是一个**与供应商无关的深度学习库、编译器和推理框架**，专为小型设备设计，包括 **微控制器、物联网设备和边缘设备**。\n\n## 🏃‍♂️ 使用 deepC\n\n以下是几种使用方式：\n\n1. 通过 [Colab Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1EKgQcMCHr-0OsG9qJ4wXv7J4JFlPY7CK) 尝试 deepC。\n1. 在 Ubuntu、Raspbian（或其他 Debian 衍生系统）上使用 `pip install deepC` 进行安装。\n1. 编译 ONNX 模型——[阅读这篇文章](test\u002Fcompiler\u002Fmnist\u002FREADME.md) 或观看 [这个视频](https:\u002F\u002Fyoutu.be\u002FBpFs83MU3HM)。\n1. 使用 [Docker 文件](Dockerfile) 配合 deepC。\n\n更多示例请参阅 [教程](tutorials\u002FREADME.md) 目录。\n\n## 📛 deepC 是什么？\n\ndeepC 库、编译器和推理框架旨在**支持并运行**深度学习神经网络，专注于微控制器、eFPGA、CPU 等小型设备以及树莓派 ([raspberry-pi](https:\u002F\u002Fwww.raspberrypi.org\u002F))、ODROID ([odroid](https:\u002F\u002Fwww.hardkernel.com\u002F))、Arduino ([arduino](https:\u002F\u002Fwww.arduino.cc\u002F))、SparkFun Edge ([sparkfun edge](https:\u002F\u002Fwww.sparkfun.com\u002Fproducts\u002F15170))、RISC-V ([risc-V](https:\u002F\u002Fwww.amazon.com\u002FSeeed-Studio-Sipeed-Maixduino-RISC-V\u002Fdp\u002FB07SW9ZWQQ))、手机、x86 和 ARM 笔记本电脑等嵌入式设备的特点。\n\n![边缘设备](misc\u002FedgeDevices.png \"支持的边缘设备\")\n\ndeepC 还提供提前编译器，基于针对深度神经网络优化的 [LLVM 编译工具链](https:\u002F\u002Fllvm.org\u002F) 生成优化后的可执行文件，并以 [ONNX](https:\u002F\u002Fonnx.ai\u002F) 作为前端。\n\n## 📝 设计\n\n**deepC** 的主要组件旨在用高级图 IR 表示和优化常见的深度学习网络，并转换计算图以最小化内存占用、优化数据布局以及针对不同硬件后端融合计算模式。\n\n\u003Cimg width=\"600\" alt=\"架构\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-techsystems_deepC_readme_8ccf9e966607.jpg\">\n\n更多信息请参阅 [高层设计文档](docs\u002FhighLevelDesign.md)。\n\n## 💧 前置条件\n\n* [ONNX 1.5](https:\u002F\u002Fgithub.com\u002Fonnx\u002Fonnx\u002Ftree\u002Frel-1.5.0#installation)\n* [LLVM 8.0](http:\u002F\u002Freleases.llvm.org\u002F8.0.0\u002Fdocs\u002FGettingStarted.html#getting-started-quickly-a-summary)\n* [Python 3.6](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Frelease\u002Fpython-360\u002F)\n* [SWIG 3.0](https:\u002F\u002Fsourceforge.net\u002Fprojects\u002Fswig\u002Ffiles\u002Fswig\u002Fswig-3.0.12\u002F)\n\n## 💻 开发\n\n按照以下步骤从源代码本地构建并开始修改 deepC：\n\n### ⭕ Ubuntu 18.04\n\n按步骤安装前置条件：\n```bash\nsudo apt-get update\nsudo apt-get install build-essential python3.6-dev python3-pip swig doxygen clang-format clang clang-8 llvm-8 llvm-8-dev protobuf-compiler libprotoc-dev\nsudo pip3 install numpy==1.15.0 onnx==1.5.0\n```\n\n完成后，构建 deepC：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\ncd deepC\nmake\n```\n\n### ⭕ Mac OS \u002F Windows 10\n\n确保您已安装以下前置条件：\n#### Mac OS：\n- [适用于 Mac 的 Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fmac-osx\u002F)\n- [适用于 Mac 的 Docker](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-mac\u002Finstall\u002F#download-docker-for-mac)\n\n#### Windows 10：\n- [适用于 Windows 的 Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002Fwindows\u002F)\n- [适用于 Windows 的 Docker](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-windows\u002Finstall\u002F#download-docker-for-windows)\n\n完成后，在 Docker 容器中构建 deepC：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\ncd deepC\npython buildDocker.py\n```\n\n#### 📜 输出\n```bash\nfind include src swig -name \\*.h -print0 -o -name \\*.cpp -print0 | xargs -0 -P8 -n1 clang-format -i\nmake -C src\nmake[1]: Entering directory 'deepC\u002Fsrc'\nmake -C core\nmake[2]: Entering directory 'deepC\u002Fsrc\u002Fcore'\ncompiling broadcast.cpp\n\u002Fusr\u002Fbin\u002Fg++ -O3 -Wall -std=c++14 -fPIC -march=native -msse2 \\\n    -isystem .\u002Fpackages\u002Feigen-eigen-323c052e1731 -I.\u002Finclude \\\n    -c broadcast.cpp -o obj\u002Fbroadcast.o\ncompiling tensor.cpp\n...\n...\n\u002Fusr\u002Fbin\u002Fg++ -shared  .\u002Fobj\u002Fdnnc_swig.o .\u002Fobj\u002Fdnnc_pyutils.o .\u002Fobj\u002Fdnnc_api.o -o lib\u002Flibdnnc.so\nln -s -f lib\u002Flibdnnc.so _dnnc.so\n\u002Fusr\u002Fbin\u002Fpython3 ..\u002Ftest\u002Fswig\u002Fbasic.py\n```\n\n## 当前支持\n\n| 支持的架构 \t| 状态  |\n|-------------------------\t|----------|\n| Arm                     \t|    ✔️   |\n| Armv7                   \t|    ✔️   |\n| Arm64                   \t|    ✔️   |\n| AMD64                   \t|    ✔️   |\n| ppc64le                 \t|    ✔️   |\n\n| 支持的操作系统 \t| 发行版  \t|   状态  |\n|--------------\t|----------------\t|-----------|\n| Linux        \t| Ubuntu 18.04   \t|    ✔️    |\n| Linux        \t| CentOS 6   \t\t|    ✔️    |\n| Linux        \t| Arch Linux     \t|    ✔️    |\n| Linux        \t| Manjaro        \t|    ✔️    |\n| Windows      \t| 1803 及以上 \t|    ✔️    |\n| Mac OS       \t| Sierra 及以上\t|    ✔️    |\n\n## ➕ 贡献\n\ndnn Compiler 采用 Apache 提交者模式，我们的目标是创建一个由社区维护和拥有的开源项目。请查看贡献指南。\n\n## 🙏 致谢\n我们感谢先前项目如 [LLVM](https:\u002F\u002Fllvm.org\u002F)、[ONNX](https:\u002F\u002Fonnx.ai\u002F) 等的努力，使本项目得以实现。\n\n---\n\n## 🕵️‍♂️ 为什么需要编译器❔\ndeepC 针对的是微控制器等小型设备，这些设备广泛应用于各种家用电器、汽车和玩具中。事实上，每年大约有 300 亿台由微控制器驱动的设备被生产出来。它们价格低廉、能耗极低且非常可靠。\n\n通过将深度学习模型部署到微型微控制器上，我们可以提升数十亿日常生活中使用的设备的智能化水平，而无需依赖昂贵的硬件或稳定的互联网连接。想象一下能够适应您日常作息的智能家电、能区分故障与正常运行的工业传感器，以及以有趣且愉快的方式帮助孩子学习的神奇玩具。\n\n\u003Ca href=\"https:\u002F\u002Fopencollective.com\u002Fdnnc\">\u003Cimg src=\"https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Findividuals.svg?width=890\">\u003C\u002Fa>\n\n#### 组织\n\n请贵组织支持本项目。您的 logo 将在此处显示，并附带指向您网站的链接。[[贡献](https:\u002F\u002Fopencollective.com\u002Fdnnc\u002Fcontribute)]\n\n---\n\n## 基于\u002F使用 deepC\n\n### 产品\n1. **[无代码 TinyML 平台](http:\u002F\u002Fcainvas.ai-tech.systems\u002F)**，基于 deepC 技术构建。\n2. **[无代码 TinyML 书籍](http:\u002F\u002Fthetinymlbook.com\u002F)**，其中包含关于 deepC 的一章。\n\n### 论文\n- 论文：[深度神经网络算子](docs\u002Fpubs\u002FDNNC-operators-paper.pdf)，发表于 [2019 年 AITS 峰会论文集](https:\u002F\u002Fwww.amazon.com\u002FProceedings-AITS-Summit-2019-www-ai-techsystems-com-ebook\u002Fdp\u002FB083ZJWFGT)\n- 短文：[使用 deepC 进行手势识别](docs\u002Fpubs\u002FIJCRT%20-%20Gesture%20Recognition%20with%20deepC.pdf)，发表于 [国际创意研究思想期刊](https:\u002F\u002Fijcrt.org\u002Fpapers\u002FIJCRT2111106.pdf)\n- 海报：[面向微控制器和微型计算机的深度神经网络编译器与推理框架](docs\u002Fpubs\u002FAITS%20poster.pdf)，发表于 [IRISS 2020 第十四届跨研究所计算机科学学生研讨会](https:\u002F\u002Fevents.iitgn.ac.in\u002F2020\u002FIRISS\u002F)\n\n### 论文引用\n- 斯坦福大学报告标题：[中英神经机器翻译中的模型压缩](https:\u002F\u002Fweb.stanford.edu\u002Fclass\u002Farchive\u002Fcs\u002Fcs224n\u002Fcs224n.1214\u002Freports\u002Ffinal_reports\u002Freport013.pdf)\n- 标题：[物联网时代的人工智能：边缘 AI 硬件与软件综述](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F9770931\u002F) \n  - [下载 PDF](https:\u002F\u002Ffruct.org\u002Fpublications\u002Ffruct31\u002Ffiles\u002FSip.pdf)\n- 标题：[用于边缘环境声音分类的微型 Transformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.12157) \n  - [下载 PDF](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.12157)\n- 标题：[高效边缘分析：利用音频端侧机器学习应对网络物理 MASINT](https:\u002F\u002Frepository.lib.fit.edu\u002Fhandle\u002F11141\u002F3223)\n  - [下载 PDF](https:\u002F\u002Frepository.lib.fit.edu\u002Fbitstream\u002Fhandle\u002F11141\u002F3223\u002FELLIOTT-DISSERTATION-2020.pdf?sequence=1&isAllowed=y)\n- 标题：[采用编码分区混合稀疏格式实现稀疏 CNN 的高效低内存部署](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3687239)\n- 标题：[面向智能电网的智能电表：物联网视角](https:\u002F\u002Fouci.dntb.gov.ua\u002Fen\u002Fworks\u002F7Pr1ponl\u002F)\n  - [下载 PDF](https:\u002F\u002Frepository.kaust.edu.sa\u002Fserver\u002Fapi\u002Fcore\u002Fbitstreams\u002F6c9d6c1f-f7d3-4d42-b454-476a8835a8cd\u002Fcontent)\n\n### 书籍章节\n1. 书籍 [TinyML 入门](http:\u002F\u002Fthetinymlbook.com\u002F) 中的 deepC 章节，可在 [亚马逊](https:\u002F\u002Fwww.amazon.com\u002Fdp\u002FB0B662D7ZW\u002F) 及其他零售商处购买。","# deepC 快速上手指南\n\ndeepC 是一个独立于厂商的深度学习库、编译器和推理框架，专为微控制器（μControllers）、IoT 设备和边缘设备等小尺寸硬件设计。它支持将 ONNX 模型编译为针对特定硬件优化的可执行文件。\n\n## 1. 环境准备\n\n### 系统要求\ndeepC 支持以下操作系统和架构：\n*   **操作系统**: Ubuntu 18.04+, CentOS 6, Arch Linux, Manjaro, Windows 10 (1803+), macOS (Sierra+)\n*   **支持架构**: Arm, Armv7, Arm64, AMD64, ppc64le\n\n### 前置依赖\n在开始之前，请确保安装以下核心依赖：\n*   **ONNX**: 版本 1.5\n*   **LLVM**: 版本 8.0\n*   **Python**: 版本 3.6\n*   **SWIG**: 版本 3.0\n\n> **提示**：国内开发者在安装 Python 包时，建议使用清华或阿里镜像源加速（例如在 pip 命令后添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`）。\n\n## 2. 安装步骤\n\n根据您的开发环境选择以下一种方式：\n\n### 方式一：直接安装（推荐 Ubuntu\u002FDebian 用户）\n\n1.  **安装系统依赖**\n    ```bash\n    sudo apt-get update\n    sudo apt-get install build-essential python3.6-dev python3-pip swig doxygen clang-format clang clang-8 llvm-8 llvm-8-dev protobuf-compiler libprotoc-dev\n    ```\n\n2.  **安装 Python 依赖**\n    ```bash\n    sudo pip3 install numpy==1.15.0 onnx==1.5.0\n    # 国内加速示例：\n    # sudo pip3 install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy==1.15.0 onnx==1.5.0\n    ```\n\n3.  **克隆源码并编译**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\n    cd deepC\n    make\n    ```\n\n### 方式二：使用 Docker（推荐 macOS \u002F Windows 用户）\n\n如果您使用的是 macOS 或 Windows，建议通过 Docker 容器进行构建，以避免环境配置复杂性。\n\n1.  **确保已安装**\n    *   macOS: [Docker for Mac](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-mac\u002Finstall\u002F)\n    *   Windows: [Docker for Windows](https:\u002F\u002Fdocs.docker.com\u002Fv17.09\u002Fdocker-for-windows\u002Finstall\u002F)\n    *   同时需安装对应系统的 Python 3.6+。\n\n2.  **构建容器**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC.git\n    cd deepC\n    python buildDocker.py\n    ```\n\n### 方式三：快速体验 (Google Colab)\n无需本地环境，可直接在浏览器中尝试：\n*   [deepC Colab Notebook](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1EKgQcMCHr-0OsG9qJ4wXv7J4JFlPY7CK)\n\n## 3. 基本使用\n\ndeepC 的核心工作流是将 **ONNX 模型** 编译为可在边缘设备运行的优化代码。\n\n### 最简单的使用流程\n\n1.  **准备模型**：确保你有一个导出好的 `.onnx` 模型文件（例如 `model.onnx`）。\n2.  **编译模型**：使用 deepC 编译器处理该模型。\n    *(注：具体编译命令通常涉及调用生成的接口或脚本，参考官方 MNIST 示例)*\n    \n    您可以参考官方提供的 MNIST 编译教程来了解完整流程：\n    *   [图文教程](test\u002Fcompiler\u002Fmnist\u002FREADME.md)\n    *   [视频教程](https:\u002F\u002Fyoutu.be\u002FBpFs83MU3HM)\n\n3.  **运行推理**：编译完成后，将在目标设备上生成可执行文件或库，用于进行深度学习推理。\n\n### 更多示例\n更多详细的使用案例和教程代码位于项目根目录的 `tutorials` 文件夹中：\n*   [查看教程目录](tutorials\u002FREADME.md)\n\n---\n*deepC 旨在让数十亿个微型设备具备智能，无需依赖昂贵的硬件或稳定的网络连接。立即开始您的边缘 AI 之旅！*","一家工业物联网团队试图将训练好的缺陷检测模型部署到工厂产线上资源受限的 Arduino 或 RISC-V 微控制器中，以实现实时边缘推理。\n\n### 没有 deepC 时\n- **硬件兼容性差**：主流深度学习框架生成的模型体积过大且依赖复杂运行时，无法直接在微控制器（MCU）上运行，被迫更换昂贵的网关设备。\n- **开发流程割裂**：工程师需手动重写模型算子为 C\u002FC++ 代码，不仅耗时数周，还极易引入人为错误导致精度下降。\n- **性能优化困难**：缺乏针对特定嵌入式芯片指令集的编译优化，导致推理延迟高、内存占用超标，无法满足产线毫秒级响应需求。\n- **厂商锁定风险**：解决方案往往绑定特定芯片厂商的私有工具链，一旦更换硬件平台，整个算法链路需推倒重来。\n\n### 使用 deepC 后\n- **无缝跨平台部署**：deepC 作为独立于厂商的编译器，直接将 ONNX 模型编译为优化的可执行文件，轻松运行在 Arduino、SparkFun Edge 等各类微控制器上。\n- **自动化编译流程**：利用 deepC 的前端解析与 LLVM 后端，一键完成从模型到机器码的转换，将数周的移植工作缩短至几小时，且保持模型精度无损。\n- **极致资源优化**：deepC 自动进行图融合、数据布局优化及内存最小化处理，使模型在极小内存下也能高效推理，满足实时性要求。\n- **灵活架构自由**：基于标准的 ONNX 格式和 LLVM 工具链，团队可自由切换不同品牌的嵌入式芯片，无需修改上层算法逻辑。\n\ndeepC 通过打通从云端训练到微型终端的“最后一公里”，让高性能深度学习真正落地于低成本、低功耗的边缘设备。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fai-techsystems_deepC_27e33681.png","ai-techsystems","AI Tech Systems","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fai-techsystems_1d77dcd6.jpg","open source solutions, from AITS with 💝",null,"ai-techsystems.com","https:\u002F\u002Fgithub.com\u002Fai-techsystems",[80,84,88,92,96,100,104,108,111,115],{"name":81,"color":82,"percentage":83},"C++","#f34b7d",71.3,{"name":85,"color":86,"percentage":87},"Fortran","#4d41b1",9.5,{"name":89,"color":90,"percentage":91},"Jupyter Notebook","#DA5B0B",7.3,{"name":93,"color":94,"percentage":95},"Python","#3572A5",6.1,{"name":97,"color":98,"percentage":99},"CMake","#DA3434",2.3,{"name":101,"color":102,"percentage":103},"C","#555555",1.8,{"name":105,"color":106,"percentage":107},"Cuda","#3A4E3A",0.9,{"name":109,"color":76,"percentage":110},"SWIG",0.3,{"name":112,"color":113,"percentage":114},"Shell","#89e051",0.1,{"name":116,"color":117,"percentage":114},"Makefile","#427819",604,92,"2026-04-06T09:36:22","Apache-2.0",4,"Linux (Ubuntu 18.04, CentOS 6, Arch Linux, Manjaro), macOS (Sierra 及以上), Windows (10 版本 1803 及以上)","未说明 (该工具主要面向微控制器、IoT 和边缘设备 CPU 推理，基于 LLVM 编译链，未提及 GPU 加速需求)","未说明",{"notes":127,"python":128,"dependencies":129},"该工具是一个针对微控制器和边缘设备的深度学习编译器与推理框架。在 macOS 和 Windows 上开发时，官方建议使用 Docker 容器进行构建。核心依赖包括 ONNX 作为前端，LLVM 8.0 作为后端编译工具链。","3.6",[130,131,132,133,134,135,136],"ONNX 1.5","LLVM 8.0","SWIG 3.0","numpy==1.15.0","build-essential","clang-8","protobuf-compiler",[14],[139,140,141,142,143,144,145,146,147,148,149,150,151,152,153,154,155,156,157],"onnx","microcontrollers","odroid","arduino","sparkfun-products","raspberrypi","machine-learning","deep-learning","arm64","edge-devices","inference-framework","stm32","esp32","stm32f4","nxp-cortex","esp8266","arduino-nano-33-ble-sense","raspberry-pi","tinyml","2026-03-27T02:49:30.150509","2026-04-18T00:45:32.451562",[161,166,171,175,180,185],{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},38005,"deepC 是否直接支持 PyTorch 模型部署到 Arduino？如果不支持，正确的流程是什么？","deepC 不直接处理 PyTorch 模型，而是通过 ONNX 格式工作。流程是：先将 PyTorch 模型导出为 ONNX 格式，再使用 deepC 转换为 C++ 代码。需要注意的是，ONNX 对量化 PyTorch 模型的支持有限，直接使用 ONNX 量化可能会导致模型精度大幅下降（例如损失 37%），而 PyTorch 原生量化可能仅损失 4%。如果资源受限（如 Arduino Nano 33 BLE），需权衡量化带来的精度损失与内存占用。","https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC\u002Fissues\u002F132",{"id":167,"question_zh":168,"answer_zh":169,"source_url":170},38006,"为什么从 PyTorch 导出的 ONNX 模型在使用 onnx-cpp 转换时会报错“节点输出未连接”？","这通常是因为导出的 ONNX 计算图存在结构问题，导致某些节点（如 MatMul 或 Add）的输出没有被后续节点使用。一旦图中出现此类错误，后续生成的代码都会是错误的。建议检查 PyTorch 导出过程，确保模型前向传播逻辑完整，或者尝试在 deepC 平台上直接转换模型以规避导出格式问题。如果图本身有错，生成的 C++ 代码无法编译或使用。","https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC\u002Fissues\u002F131",{"id":172,"question_zh":173,"answer_zh":174,"source_url":170},38007,"生成的 C++ 代码中出现变量名以数字开头（如 float 12[]）导致编译失败，如何解决？","这是由 ONNX 模型中的参数名称（如 '12', '13'）直接映射为 C++ 变量名引起的，而 C++ 标准不允许变量名以数字开头。解决方法是在导出 ONNX 模型前，在 PyTorch 中重命名模型参数，确保所有参数名符合 C++ 命名规范（以字母或下划线开头）。或者修改 deepC 的代码生成逻辑，自动为非法变量名添加前缀。",{"id":176,"question_zh":177,"answer_zh":178,"source_url":179},38008,"为什么某些已实现的算子（如 Relu）在生成的代码中仍显示“不支持”？","这可能是由于使用的 deepC 版本过旧，相关算子的支持代码尚未合并到主分支，或者模型中算子的属性配置触发了未覆盖的代码路径。维护者通常会修复此类问题并推送更新。如果遇到此情况，请拉取最新的 deepC 代码库（git pull），重新运行转换流程。如果问题依旧，可能需要检查模型结构或提交增强请求。","https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC\u002Fissues\u002F121",{"id":181,"question_zh":182,"answer_zh":183,"source_url":184},38009,"在使用 swig -builtin 编译时，为什么 Python 的反向运算符（如 1 + tensor）会失效？","这是因为 SWIG 的 Python builtin 模式存在已知限制，不支持反向二元运算符（如 __radd__, __rmul__ 等）。当使用 `swig -builtin` 或设置 `FAST_SWIG=n` 进行高性能编译时，反向运算符功能会被禁用。解决方法是避免使用 builtin 模式，改用默认的 SWIG 包装方式（即不使用 -builtin 标志），虽然性能稍低但能保留完整的 Python 运算符重载功能。","https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC\u002Fissues\u002F34",{"id":186,"question_zh":187,"answer_zh":188,"source_url":189},38010,"deepC 与 TensorFlow Lite 相比有什么优缺点？是否有性能基准测试？","deepC 专为将 ONNX 模型转换为优化的 C++ 代码而设计，适合嵌入式和微控制器环境，生成的代码无需运行时依赖。相比之下，TensorFlow Lite Micro 需要特定的运行时环境。关于具体的性能基准对比，官方尚未公开详细的对比博客或数据。用户建议在目标硬件上自行测试两种框架的推理速度和内存占用，以做出最佳选择。","https:\u002F\u002Fgithub.com\u002Fai-techsystems\u002FdeepC\u002Fissues\u002F138",[191],{"id":192,"version":193,"summary_zh":194,"released_at":195},306214,"v0.12","## deepC 0.12 现已发布！\n\n我们感谢所有为本次发布做出贡献的人员。您可以通过 bit.ly\u002FdnnCompiler 了解更多关于该项目的信息，包括参与人员及可用工具。\n\n## 功能特性\n\n## Python 3.5+\ndeepC 作为 Python 扩展模块，现已支持 Python 3.5、3.7、3.8 版本，并全面兼容所有 Python 运算符。deepC 扩展在后台运行，通过隐式类型转换引擎和广播机制理解用户意图，从而实现符合 Python 风格的操作。\n\n## 编译器\n编译器现已支持 x86、x86_64 和 ARM 平台。\n\n### C++17\n提供的 C++ 运算符与 C++ 2017 标准兼容。\n\n### ONNX 1.5.0\nONNX 解析器支持 ONNX IR4 和 ONNX IR5 格式。\n\n### 运算符列表\n1. Abs  \n2. Acos  \n3. Acosh  \n4. Add  \n5. And  \n6. ArgMax  \n7. ArgMin  \n8. Asin  \n9. Asinh  \n10. Atan  \n11. Atanh  \n12. baseOperator  \n13. BitShift  \n14. BitwiseAnd  \n15. BitwiseOr  \n16. BitwiseXor  \n17. Ceil  \n18. Clip  \n19. Constant  \n20. Conv  \n21. Cos  \n22. Cosh  \n23. DequantizeLinear  \n24. Div  \n25. Dropout  \n26. Elu  \n27. Equal  \n28. Erf  \n29. Expand  \n30. Exp  \n31. EyeLike  \n32. Flatten  \n33. FloorDiv  \n34. Floor  \n35. Gather  \n36. Gemm  \n37. GlobalAveragePool  \n38. GlobalLpPool  \n39. GlobalMaxPool  \n40. GreaterEqual  \n41. Greater  \n42. Hardmax  \n43. HardSigmoid  \n44. Identity  \n45. InstanceNormalization  \n46. IsInf  \n47. IsNaN  \n48. LeakyRelu  \n49. LessEqual  \n50. Less  \n51. Log  \n52. LogSoftmax  \n53. LpNormalization  \n54. LRN  \n55. LSTM  \n56. MatMul  \n57. MatMulInteger  \n58. Max  \n59. Mean  \n60. Min  \n61. Mod  \n62. Mul  \n63. Neg  \n64. NotEqual  \n65. Not  \n66. OneHot  \n67. Or  \n68. Pad  \n69. Pow  \n70. PRelu  \n71. Reciprocal  \n72. Relu  \n73. Remainder  \n74. Reshape  \n75. SetSlice  \n76. Sigmoid  \n77. Sign  \n78. Sin  \n79. Sinh  \n80. Slice  \n81. Softmax  \n82. Softplus  \n83. Softsign  \n84. Sqrt  \n85. Sub  \n86. Tan  \n87. Tanh  \n88. ThresholdedRelu  \n89. Transpose  \n90. TrueDiv  \n91. Where  \n92. Xor  \n\n## 支持平台\n这是首次在包括树莓派、Android 等在内的大多数 Linux 平台上进行测试的版本。已在四种不同的平台和架构上完成验证。\n1. 操作系统：Linux  \n   - 发行版：Bionic  \n   - 架构：amd64  \n2. 操作系统：Linux  \n   - 发行版：Bionic  \n   - 架构：ppc64le  \n3. 操作系统：Linux  \n   - 发行版：Bionic  \n   - 架构：armv7  \n4. 操作系统：Linux  \n   - 发行版：Bionic  \n   - 架构：arm  \n\n## 变更日志\n\n## Bug 修复","2019-11-19T05:29:32"]