[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-johnolafenwa--DeepStack":3,"tool-johnolafenwa--DeepStack":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":120,"forks":121,"last_commit_at":122,"license":123,"difficulty_score":10,"env_os":124,"env_gpu":125,"env_ram":126,"env_deps":127,"category_tags":137,"github_topics":138,"view_count":32,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":146,"updated_at":147,"faqs":148,"releases":183},6313,"johnolafenwa\u002FDeepStack","DeepStack","The World's Leading Cross Platform AI Engine for Edge Devices","DeepStack 是一款专为边缘设备打造的跨平台 AI 引擎，旨在让开发者轻松在本地或私有云上部署高性能人工智能服务。它解决了传统 AI 模型依赖云端、延迟高、隐私风险大以及跨设备部署困难等痛点，支持完全离线运行，确保数据不出内网。\n\n无论是 Linux、Mac、Windows 用户，还是使用 NVIDIA Jetson、树莓派等 ARM 设备的开发者，都能通过 Docker 或原生应用快速集成 DeepStack。它内置了人脸识别、80 类常见物体检测、场景识别及 4 倍图像超分辨率增强等成熟 API，同时支持训练和部署自定义模型，满足特定业务需求。此外，DeepStack 还提供 SSL 加密与 API 密钥管理，保障服务安全。\n\n凭借超过一千万次的 Docker 下载量，DeepStack 已成为连接算法研究与实际落地的桥梁。它特别适合需要低延迟响应、注重数据隐私的物联网开发者、边缘计算工程师及企业技术团队，帮助他们在资源受限的设备上构建实时、可靠的智能应用。","# DeepStack\r\nThe World's Leading Cross Platform AI Engine for Edge Devices, with over `10 million` installs on [**Docker Hub**](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fdeepquestai\u002Fdeepstack).\r\n\r\n[![black](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcode%20style-black-000000.svg)](https:\u002F\u002Fgithub.com\u002Fpsf\u002Fblack)\r\n\r\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](hhttps:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fblob\u002Fdev\u002FLICENSE)\r\n\r\n![DevTest](https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fworkflows\u002FDevTest\u002Fbadge.svg)\r\n\r\n**Website**: [https:\u002F\u002Fdeepstack.cc](https:\u002F\u002Fdeepstack.cc)\r\n\r\n**Documentation**: [https:\u002F\u002Fdocs.deepstack.cc](https:\u002F\u002Fdocs.deepstack.cc)\r\n\r\n**Forum**: [https:\u002F\u002Fforum.deepstack.cc](https:\u002F\u002Fforum.deepstack.cc)\r\n\r\n**Dev Center**: [https:\u002F\u002Fdev.deepstack.cc](https:\u002F\u002Fdev.deepstack.cc\u002F)\r\n\r\n**DeepStack** is owned and maintained by [DeepQuest AI](https:\u002F\u002Fwww.deepquestai.com\u002F).\r\n\r\n\r\n# Introduction\r\nDeepStack is an AI API engine that serves pre-built models and custom models on multiple edge devices locally or on your private cloud. Supported platforms are:\r\n\r\n- **Linux OS** via Docker ( CPU and NVIDIA GPU support )\r\n- **Mac OS** via Docker\r\n- **Windows 10** ( native application, CPU and GPU )\r\n- **NVIDIA Jetson** via Docker.\r\n- **Rasperry Pi & ARM64 Devices** via Docker.\r\n\r\nDeepStack runs completely offline and independent of the cloud. You can also install and run DeepStack on any cloud VM with docker installed to serve as your private, state-of-the-art and real-time AI server.\r\n\r\n# Features\r\n\r\n- **Face APIs**: Face detection, recognition and matching.\r\n\r\n    ![Face API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_8cd11ff5ca02.jpg)\r\n\r\n- **Common Objects APIs**: Object detection for [80 common objects](https:\u002F\u002Fdocs.deepstack.cc\u002Fobject-detection\u002Findex.html#classes)\r\n\r\n    ![Detection API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_40dcef92073b.jpg)\r\n\r\n- **Custom Models**: Train and deploy new models to detect any custom object(s)\r\n\r\n    ![Custom Models API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_ceeed19d9d11.jpg)\r\n\r\n- **Image Enhance**: 4X image superresolution\r\n\r\n    `Input`\r\n\r\n    ![Image Enhance API Iput](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_b31c5b6992ca.jpg)\r\n\r\n     `Output`\r\n    ![Image Enhance API Iput](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_87ec8d454611.jpg)\r\n\r\n- **Scene Recognition**: Image scene recognition\r\n- **SSL Support**\r\n- **API Key support**: Security options to protect your DeepStack endpoints\r\n\r\n# Installation and Usage\r\nVisit [https:\u002F\u002Fdocs.deepstack.cc\u002Fgetting-started](https:\u002F\u002Fdocs.deepstack.cc\u002Fgetting-started\u002F) for installation instructions. The documentation provides example codes for the following programming languages with more to be added soon.\r\n\r\n- **Python**\r\n- **C#**\r\n- **NodeJS**\r\n\r\n# Build from Source (For Docker Version)\r\n\r\n- **Install Prerequisites**\r\n\r\n    - [Install Golang](https:\u002F\u002Fgolang.org)\r\n    - [Install Docker](https:\u002F\u002Fdocker.com)\r\n    - [Install GIT](https:\u002F\u002Fgit-scm.com)\r\n    - [Install GIT LFS](https:\u002F\u002Fgithub.com\u002Fgit-lfs\u002Fgit-lfs\u002Fwiki\u002FInstallation)\r\n    - [Install Redis Server](https:\u002F\u002Fredis.io\u002F)\r\n    - [Install Python3.7](https:\u002F\u002Fpython.org)\r\n    - [Install Powershell 7+](https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fpowershell\u002Fscripting\u002Fwindows-powershell\u002Finstall\u002Finstalling-windows-powershell?view=powershell-7.1)\r\n\r\n- **Clone DeepStack Repo** \r\n\r\n    ```git clone https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack.git```\r\n\r\n- **CD to DeepStack Repo Dir**\r\n\r\n    ```cd DeepStack```\r\n\r\n- **Fetch Repo Files**\r\n\r\n    ``git lfs pull``\r\n- **Download Binary Dependencies With Powershell**\r\n    ```.\\download_dependencies.ps1```\r\n\r\n- **Build DeepStack CPU Version**\r\n\r\n    ```cd .. && sudo docker build -t deepquestai\u002Fdeepstack:cpu . -f Dockerfile.cpu```\r\n\r\n- **Build DeepStack GPU Version**\r\n\r\n    ```sudo docker build -t deepquestai\u002Fdeepstack:gpu . -f Dockerfile.gpu```\r\n\r\n- **Build DeepStack Jetson Version**\r\n\r\n    ```sudo docker build -t deepquestai\u002Fdeepstack:jetpack . -f Dockerfile.gpu-jetpack```\r\n\r\n- **Running and Testing Locally Without Building**\r\n    - Unless you wish to install requirements system wide, create a virtual environment with ```python3.7 -m venv venv``` and activate with ```source venv\u002Fbin\u002Factivate```\r\n\r\n    - Install Requirements with ```pip3 install -r requirements.txt```\r\n\r\n    - For CPU Version, Install PyTorch with ```pip3 install torch==1.6.0+cpu torchvision==0.7.0+cpu -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html```\r\n\r\n    - For GPU Version, Install Pytorch with ```pip3 install torch==1.6.0+cu101 torchvision==0.7.0+cu101 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html```\r\n\r\n    - Start Powershell\r\n        ```pwsh```\r\n\r\n    - For CPU Version, Run ```.\\setup_docker_cpu.ps1```\r\n\r\n    - For GPU Version, Run ```.\\setup_docker_gpu.ps1```\r\n\r\n    - CD To Server Dir\r\n        ```cd server```\r\n\r\n    - Build DeepStack Server\r\n        ```go build```\r\n\r\n    - Set Any of the APIS to enable;\r\n        ```$env:VISION_DETECTION = \"True\"```, ```$env:VISION_FACE = \"True\"```, ```$env:VISION_SCENE = \"True\"```\r\n\r\n    - Run DeepStack\r\n        ```.\\server```\r\n\r\n    You can find all logs in the ```directory``` in the repo root.\r\n    Note that DeepStack will be running on the default port ```5000```.\r\n\r\n# Integrations and Community\r\nThe DeepStack ecosystem includes a number of popular integrations and libraries built to expand the functionalities of the AI engine to serve IoT, industrial, monitoring and research applications. A number of them are listed below\r\n\r\n- **[HASS-DeepStack-Object](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-object)**: An [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) addon by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for detecting common and custom objects\r\n- **[HASS-DeepStack-Face](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-face)**: An [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) addon by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for face detection, registration and recognition\r\n- **[HASS-DeepStack-Scene](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-scene)**: An [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) addon by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for scene recognition\r\n- **[DeepStack with Blue Iris - YouTube video](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fwoonl5JKgo)**: A DeepStack + BluIris setup tutorial by [TheHookUp](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FTheHookUp) YouTube channel\r\n- **[Blue Iris + Deepstack BUILT IN! Full Walk Through](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nLH9GEcdb9Y)**: Another and very recent DeepStack + BluIris setup tutorial by [TheHookUp](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FTheHookUp) YouTube channel\r\n- **[DeepStack with Blue Iris - Forum Discussion](https:\u002F\u002Fipcamtalk.com\u002Fthreads\u002Ftool-tutorial-free-ai-person-detection-for-blue-iris.37330\u002F)**: A comprehensive DeepStack discussion thread on the IPCamTalk website.\r\n- **[DeepStack on Home Assistant](https:\u002F\u002Fcommunity.home-assistant.io\u002Ft\u002Fface-and-person-detection-with-deepstack-local-and-free\u002F92041)**: A comprehensive DeepStack discussion thread on the Home Assistant forum website.\r\n- **[DeepStack-UI](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-ui)**:  A Streamlit by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for exploring DeepStack's features\r\n- **[DeepStack-Python Helper](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-python)**: A Python client library by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for DeepStack APIs\r\n- **[DeepStack-Analytics](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-analytics)**: A analytics tool by [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) for exploring DeepStack's APIs\r\n- **[DeepStackAI Trigger](https:\u002F\u002Fgithub.com\u002Fdanecreekphotography\u002Fnode-deepstackai-trigger)**: A DeepStack automation system integration with MQTT and Telegram support by [Neil Enns](https:\u002F\u002Fgithub.com\u002Fneilenns)\r\n- **[node-red-contrib-deepstack](https:\u002F\u002Fgithub.com\u002Ficeglow\u002Fnode-red-contrib-deepstack)**: A [NodeRED](https:\u002F\u002Fgithub.com\u002Fnode-red\u002Fnode-red) integration for all DeepStack APIs by [Joakim Lundin](https:\u002F\u002Fgithub.com\u002Ficeglow)\r\n- **[DeepStack_USPS](https:\u002F\u002Fgithub.com\u002Fsstratoti\u002FDeepStack_USPS)**: A custom DeepStack model for detecting USPS logo by [Stephen Stratoti](https:\u002F\u002Fgithub.com\u002Fsstratoti)\r\n- **[AgenDVR](https:\u002F\u002Fwww.ispyconnect.com\u002Fuserguide-agent-deepstack-ai.aspx)**: A DVR platform with DeepStack integrations built by [Sean Tearney](https:\u002F\u002Fgithub.com\u002Fispysoftware)\r\n- **[On-Guard](https:\u002F\u002Fgithub.com\u002FKen98045\u002FOn-Guard)**: A security camera application for HTTP, ONVIF and FTP with DeepStack integrations by [Ken](https:\u002F\u002Fgithub.com\u002FKen98045)\r\n\r\n# Contributors Guide\r\n(coming soon)","# DeepStack  \n全球领先的跨平台边缘设备 AI 引擎，在 [**Docker Hub**](https:\u002F\u002Fhub.docker.com\u002Fr\u002Fdeepquestai\u002Fdeepstack) 上拥有超过 `1000 万` 次安装。\n\n[![black](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcode%20style-black-000000.svg)](https:\u002F\u002Fgithub.com\u002Fpsf\u002Fblack)\n\n[![license](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-blue.svg)](hhttps:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fblob\u002Fdev\u002FLICENSE)\n\n![DevTest](https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fworkflows\u002FDevTest\u002Fbadge.svg)\n\n**官网**: [https:\u002F\u002Fdeepstack.cc](https:\u002F\u002Fdeepstack.cc)\n\n**文档**: [https:\u002F\u002Fdocs.deepstack.cc](https:\u002F\u002Fdocs.deepstack.cc)\n\n**论坛**: [https:\u002F\u002Fforum.deepstack.cc](https:\u002F\u002Fforum.deepstack.cc)\n\n**开发者中心**: [https:\u002F\u002Fdev.deepstack.cc](https:\u002F\u002Fdev.deepstack.cc\u002F)\n\n**DeepStack** 由 [DeepQuest AI](https:\u002F\u002Fwww.deepquestai.com\u002F) 拥有并维护。\n\n\n# 简介  \nDeepStack 是一款 AI API 引擎，可在本地或多台边缘设备上或您的私有云中提供预构建模型和自定义模型服务。支持的平台包括：\n\n- **Linux OS**：通过 Docker（支持 CPU 和 NVIDIA GPU）\n- **Mac OS**：通过 Docker\n- **Windows 10**：原生应用，支持 CPU 和 GPU\n- **NVIDIA Jetson**：通过 Docker\n- **Raspberry Pi & ARM64 设备**：通过 Docker\n\nDeepStack 完全离线运行，不依赖云端。您也可以在任何已安装 Docker 的云虚拟机上部署和运行 DeepStack，将其用作您自己的先进、实时的私有 AI 服务器。\n\n\n# 功能  \n\n- **人脸 API**：人脸检测、识别与匹配。\n\n    ![Face API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_8cd11ff5ca02.jpg)\n\n- **常见物体 API**：针对 [80 种常见物体](https:\u002F\u002Fdocs.deepstack.cc\u002Fobject-detection\u002Findex.html#classes) 的物体检测。\n\n    ![Detection API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_40dcef92073b.jpg)\n\n- **自定义模型**：训练并部署新模型以检测任何自定义物体。\n\n    ![Custom Models API](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_ceeed19d9d11.jpg)\n\n- **图像增强**：4 倍图像超分辨率\n\n    `输入`\n\n    ![Image Enhance API Iput](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_b31c5b6992ca.jpg)\n\n     `输出`\n    ![Image Enhance API Iput](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_readme_87ec8d454611.jpg)\n\n- **场景识别**：图像场景识别\n- **SSL 支持**\n- **API Key 支持**：用于保护您的 DeepStack 端点的安全选项\n\n\n# 安装与使用  \n请访问 [https:\u002F\u002Fdocs.deepstack.cc\u002Fgetting-started](https:\u002F\u002Fdocs.deepstack.cc\u002Fgetting-started\u002F) 获取安装说明。文档提供了以下编程语言的示例代码，并将很快增加更多语言的支持：\n\n- **Python**\n- **C#**\n- **NodeJS**\n\n\n# 从源码构建（适用于 Docker 版本）\n\n- **安装先决条件**\n\n    - [安装 Golang](https:\u002F\u002Fgolang.org)\n    - [安装 Docker](https:\u002F\u002Fdocker.com)\n    - [安装 GIT](https:\u002F\u002Fgit-scm.com)\n    - [安装 GIT LFS](https:\u002F\u002Fgithub.com\u002Fgit-lfs\u002Fgit-lfs\u002Fwiki\u002FInstallation)\n    - [安装 Redis Server](https:\u002F\u002Fredis.io\u002F)\n    - [安装 Python3.7](https:\u002F\u002Fpython.org)\n    - [安装 Powershell 7+](https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fpowershell\u002Fscripting\u002Fwindows-powershell\u002Finstall\u002Finstalling-windows-powershell?view=powershell-7.1)\n\n- **克隆 DeepStack 仓库**\n\n    ```git clone https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack.git```\n\n- **进入 DeepStack 仓库目录**\n\n    ```cd DeepStack```\n\n- **获取仓库文件**\n\n    ``git lfs pull``\n\n- **使用 Powershell 下载二进制依赖项**\n\n    ```.\\download_dependencies.ps1```\n\n- **构建 DeepStack CPU 版本**\n\n    ```cd .. && sudo docker build -t deepquestai\u002Fdeepstack:cpu . -f Dockerfile.cpu```\n\n- **构建 DeepStack GPU 版本**\n\n    ```sudo docker build -t deepquestai\u002Fdeepstack:gpu . -f Dockerfile.gpu```\n\n- **构建 DeepStack Jetson 版本**\n\n    ```sudo docker build -t deepquestai\u002Fdeepstack:jetpack . -f Dockerfile.gpu-jetpack```\n\n- **无需构建即可本地运行和测试**\n    - 如果您不想将依赖项全局安装到系统中，请使用 ```python3.7 -m venv venv``` 创建一个虚拟环境，并通过 ```source venv\u002Fbin\u002Factivate``` 激活它。\n\n    - 使用 ```pip3 install -r requirements.txt``` 安装依赖项。\n\n    - 对于 CPU 版本，使用 ```pip3 install torch==1.6.0+cpu torchvision==0.7.0+cpu -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html``` 安装 PyTorch。\n\n    - 对于 GPU 版本，使用 ```pip3 install torch==1.6.0+cu101 torchvision==0.7.0+cu101 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html``` 安装 PyTorch。\n\n    - 启动 Powershell：\n        ```pwsh```\n\n    - 对于 CPU 版本，运行 ```.\\setup_docker_cpu.ps1```。\n\n    - 对于 GPU 版本，运行 ```.\\setup_docker_gpu.ps1```。\n\n    - 进入服务器目录：\n        ```cd server```\n\n    - 构建 DeepStack 服务器：\n        ```go build```\n\n    - 设置要启用的 API；\n        ```$env:VISION_DETECTION = \"True\"```, ```$env:VISION_FACE = \"True\"```, ```$env:VISION_SCENE = \"True\"```\n\n    - 运行 DeepStack：\n        ```.\\server```\n\n    所有日志都可以在仓库根目录下的 ```directory``` 文件夹中找到。\n    请注意，DeepStack 将在默认端口 ```5000``` 上运行。\n\n# 集成与社区\nDeepStack 生态系统包含许多流行的集成和库，旨在扩展 AI 引擎的功能，以服务于物联网、工业、监控和研究等应用场景。以下列出其中一些：\n\n- **[HASS-DeepStack-Object](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-object)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的 [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) 插件，用于检测常见对象及自定义对象。\n- **[HASS-DeepStack-Face](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-face)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的 [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) 插件，用于人脸检测、注册和识别。\n- **[HASS-DeepStack-Scene](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002FHASS-Deepstack-scene)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的 [Home Assistant](https:\u002F\u002Fwww.home-assistant.io\u002F) 插件，用于场景识别。\n- **[DeepStack 与 Blue Iris - YouTube 视频](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=fwoonl5JKgo)**：由 [TheHookUp](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FTheHookUp) 频道提供的 DeepStack + BluIris 搭建教程。\n- **[Blue Iris + Deepstack 内置！全程演示](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=nLH9GEcdb9Y)**：同样是 [TheHookUp](https:\u002F\u002Fwww.youtube.com\u002Fc\u002FTheHookUp) 频道发布的最新 DeepStack + BluIris 搭建教程。\n- **[DeepStack 与 Blue Iris - 论坛讨论](https:\u002F\u002Fipcamtalk.com\u002Fthreads\u002Ftool-tutorial-free-ai-person-detection-for-blue-iris.37330\u002F)**：IPCamTalk 网站上关于 DeepStack 的全面讨论帖。\n- **[DeepStack 在 Home Assistant 上](https:\u002F\u002Fcommunity.home-assistant.io\u002Ft\u002Fface-and-person-detection-with-deepstack-local-and-free\u002F92041)**：Home Assistant 论坛网站上关于 DeepStack 的全面讨论帖。\n- **[DeepStack-UI](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-ui)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的 Streamlit 应用，用于探索 DeepStack 的各项功能。\n- **[DeepStack-Python Helper](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-python)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的 DeepStack API Python 客户端库。\n- **[DeepStack-Analytics](https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-analytics)**：由 [Robin Cole](https:\u002F\u002Fgithub.com\u002Frobmarkcole) 开发的分析工具，用于探索 DeepStack 的 API。\n- **[DeepStackAI Trigger](https:\u002F\u002Fgithub.com\u002Fdanecreekphotography\u002Fnode-deepstackai-trigger)**：由 [Neil Enns](https:\u002F\u002Fgithub.com\u002Fneilenns) 开发的 DeepStack 自动化系统集成，支持 MQTT 和 Telegram。\n- **[node-red-contrib-deepstack](https:\u002F\u002Fgithub.com\u002Ficeglow\u002Fnode-red-contrib-deepstack)**：由 [Joakim Lundin](https:\u002F\u002Fgithub.com\u002Ficeglow) 开发的适用于所有 DeepStack API 的 [NodeRED](https:\u002F\u002Fgithub.com\u002Fnode-red\u002Fnode-red) 集成。\n- **[DeepStack_USPS](https:\u002F\u002Fgithub.com\u002Fsstratoti\u002FDeepStack_USPS)**：由 [Stephen Stratoti](https:\u002F\u002Fgithub.com\u002Fsstratoti) 构建的用于检测 USPS 标志的自定义 DeepStack 模型。\n- **[AgenDVR](https:\u002F\u002Fwww.ispyconnect.com\u002Fuserguide-agent-deepstack-ai.aspx)**：由 [Sean Tearney](https:\u002F\u002Fgithub.com\u002Fispysoftware) 构建的集成了 DeepStack 的 DVR 平台。\n- **[On-Guard](https:\u002F\u002Fgithub.com\u002FKen98045\u002FOn-Guard)**：由 [Ken](https:\u002F\u002Fgithub.com\u002FKen98045) 开发的基于 HTTP、ONVIF 和 FTP 的安防摄像头应用，并集成了 DeepStack。\n\n# 贡献者指南\n（即将推出）","# DeepStack 快速上手指南\n\nDeepStack 是一款领先的跨平台边缘计算 AI 引擎，支持在本地或私有云上运行预构建模型及自定义模型。它完全离线运行，不依赖云端服务，适用于 Linux、Mac、Windows、NVIDIA Jetson 及树莓派等设备。\n\n## 环境准备\n\n### 系统要求\nDeepStack 支持以下平台：\n- **Linux**: 通过 Docker 运行（支持 CPU 和 NVIDIA GPU）\n- **Mac OS**: 通过 Docker 运行\n- **Windows 10**: 原生应用（支持 CPU 和 GPU）\n- **NVIDIA Jetson**: 通过 Docker 运行\n- **Raspberry Pi & ARM64 设备**: 通过 Docker 运行\n\n### 前置依赖（源码编译版）\n若需从源码构建 Docker 镜像，请确保安装以下工具：\n- [Golang](https:\u002F\u002Fgolang.org)\n- [Docker](https:\u002F\u002Fdocker.com)\n- [GIT](https:\u002F\u002Fgit-scm.com) 及 [GIT LFS](https:\u002F\u002Fgithub.com\u002Fgit-lfs\u002Fgit-lfs\u002Fwiki\u002FInstallation)\n- [Redis Server](https:\u002F\u002Fredis.io\u002F)\n- [Python 3.7](https:\u002F\u002Fpython.org)\n- [Powershell 7+](https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fpowershell\u002Fscripting\u002Fwindows-powershell\u002Finstall\u002Finstalling-windows-powershell?view=powershell-7.1)\n\n> **提示**：对于大多数用户，直接拉取官方 Docker 镜像是最快捷的方式，无需安装上述全部开发依赖。\n\n## 安装步骤\n\n### 方式一：使用 Docker（推荐）\n\n这是最简单且通用的安装方式。根据你的硬件环境选择对应的镜像。\n\n**1. 拉取 CPU 版本镜像：**\n```bash\ndocker pull deepquestai\u002Fdeepstack:cpu\n```\n\n**2. 拉取 GPU 版本镜像（需 NVIDIA 显卡及驱动）：**\n```bash\ndocker pull deepquestai\u002Fdeepstack:gpu\n```\n\n**3. 启动容器：**\n以下命令以 GPU 版本为例，将本地 5000 端口映射到容器，并启用目标检测功能。\n```bash\ndocker run -d -v \u002Fpath\u002Fto\u002Fcustom\u002Fmodels:\u002Fcustom-models -p 5000:5000 --gpus all -e VISION_DETECTION=True deepquestai\u002Fdeepstack:gpu\n```\n*注：将 `\u002Fpath\u002Fto\u002Fcustom\u002Fmodels` 替换为你本地的模型存储路径。若使用 CPU 版本，请移除 `--gpus all` 参数并使用 `deepquestai\u002Fdeepstack:cpu` 镜像。*\n\n### 方式二：从源码构建（进阶）\n\n仅当你需要修改源码或构建特定架构镜像时使用此方法。\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack.git\ncd DeepStack\n\n# 获取大文件\ngit lfs pull\n\n# 下载二进制依赖 (Windows\u002FPowershell 环境)\n.\\download_dependencies.ps1\n\n# 构建 CPU 版本\nsudo docker build -t deepquestai\u002Fdeepstack:cpu . -f Dockerfile.cpu\n\n# 构建 GPU 版本\nsudo docker build -t deepquestai\u002Fdeepstack:gpu . -f Dockerfile.gpu\n```\n\n## 基本使用\n\nDeepStack 启动后默认监听 **5000** 端口。你可以通过 HTTP API 调用其功能。以下是一个使用 Python 进行物体检测的最简示例。\n\n### 1. 安装 Python 客户端库\n```bash\npip install requests\n```\n\n### 2. 调用检测 API\n创建一个名为 `detect.py` 的文件，填入以下代码：\n\n```python\nimport requests\n\n# DeepStack 地址\nurl = \"http:\u002F\u002Flocalhost:5000\u002Fvision\u002Fdetection\"\n\n# 准备图片文件\nfiles = {\"image\": open(\"sample.jpg\", \"rb\")}\n\n# 发送请求\nresponse = requests.post(url, files=files)\n\n# 打印结果\nif response.status_code == 200:\n    print(response.json())\nelse:\n    print(f\"Error: {response.status_code}, {response.text}\")\n```\n\n### 3. 运行测试\n确保当前目录下有一张名为 `sample.jpg` 的图片，然后运行：\n```bash\npython detect.py\n```\n\n如果配置正确，你将收到包含检测到的物体名称、置信度及坐标位置的 JSON 数据。\n\n### 可用功能开关\n在启动 Docker 时，可通过环境变量 `-e` 开启特定功能：\n- 物体检测：`-e VISION_DETECTION=True`\n- 人脸识别：`-e VISION_FACE=True`\n- 场景识别：`-e VISION_SCENE=True`\n\n更多语言示例（C#, NodeJS）及详细 API 文档请访问 [DeepStack 官方文档](https:\u002F\u002Fdocs.deepstack.cc)。","某智慧社区物业团队需要在本地部署一套实时监控系统，用于识别小区内的陌生人闯入及危险物品遗留，同时严格保障居民隐私数据不出园区。\n\n### 没有 DeepStack 时\n- **依赖云端导致延迟高**：视频流需上传至公有云处理，网络波动导致报警延迟高达数秒，无法及时阻止可疑行为。\n- **隐私合规风险大**：人脸和场景数据必须传输到第三方服务器，违反本地数据不出域的隐私保护规定。\n- **硬件适配成本极高**：团队需为不同的边缘设备（如 NVIDIA Jetson、树莓派）单独编译模型并编写底层驱动代码，开发周期长达数月。\n- **功能扩展困难**：若要增加“未戴安全帽检测”等自定义需求，需重新训练复杂模型并重构整个推理后端。\n\n### 使用 DeepStack 后\n- **本地实时响应**：DeepStack 直接运行在园区边缘服务器上，离线处理视频流，将识别延迟降低至毫秒级，实现即时预警。\n- **数据完全私有化**：所有人脸识别与场景分析均在本地完成，无需联网，完美满足数据主权与隐私合规要求。\n- **跨平台一键部署**：利用 DeepStack 的 Docker 镜像，团队仅在一天内就完成了从 Windows 开发机到 Linux 边缘网关的统一部署，无需关心底层差异。\n- **灵活定制模型**：通过简单的 API 调用即可加载训练好的自定义模型，快速新增特定物体检测功能，无需改动核心架构。\n\nDeepStack 让开发者能够以最低的成本，在任意边缘设备上快速构建安全、实时且完全私有的 AI 视觉应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjohnolafenwa_DeepStack_8cd11ff5.jpg","johnolafenwa","John Olafenwa","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjohnolafenwa_f611b676.jpg","Research Scientist at Microsoft\r\n| Specializes in Deep Learning, Computer Vision  and Generative Adversarial Networks","Microsoft","United Kingdom","johnolafenwa@gmail.com",null,"https:\u002F\u002Fjohnolafenwa.me","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa",[84,88,92,96,100,104,108,112,116],{"name":85,"color":86,"percentage":87},"Python","#3572A5",44.9,{"name":89,"color":90,"percentage":91},"CSS","#663399",22.7,{"name":93,"color":94,"percentage":95},"Go","#00ADD8",20.3,{"name":97,"color":98,"percentage":99},"SCSS","#c6538c",4.5,{"name":101,"color":102,"percentage":103},"PowerShell","#012456",3.3,{"name":105,"color":106,"percentage":107},"HTML","#e34c26",2.1,{"name":109,"color":110,"percentage":111},"JavaScript","#f1e05a",1.3,{"name":113,"color":114,"percentage":115},"Inno Setup","#264b99",0.6,{"name":117,"color":118,"percentage":119},"Shell","#89e051",0.3,810,122,"2026-04-02T03:13:25","Apache-2.0","Linux, macOS, Windows 10","可选。支持 NVIDIA GPU（需 Docker 或原生 Windows 应用）；具体型号、显存大小及 CUDA 版本未在文档中明确说明，但源码构建示例中提及使用 cu101 (CUDA 10.1) 版本的 PyTorch。NVIDIA Jetson 设备也受支持。","未说明",{"notes":128,"python":129,"dependencies":130},"该工具主要通过 Docker 部署（支持 CPU 和 GPU 版本），也可在 Windows 10 上作为原生应用运行。完全离线运行，不依赖云端。若从源码构建，需安装 Redis 服务器、Golang、Git LFS 及 PowerShell 7+。默认运行端口为 5000。支持人脸识别、通用物体检测、自定义模型、图像超分辨率及场景识别等功能。","3.7",[131,132,133,134,135,136],"torch==1.6.0","torchvision==0.7.0","Redis Server","Golang","Git LFS","PowerShell 7+",[15],[139,140,141,142,143,144,145],"deepstack","ai-engine","object-detection","computer-vision","face-recognition","face-detection","scene-recognition","2026-03-27T02:49:30.150509","2026-04-11T00:40:32.400779",[149,154,159,164,169,174,179],{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},28575,"如何分享或获取社区贡献的自定义模型（如车牌识别模型）？","DeepStack 已建立专门的文档页面用于索引社区贡献的模型。该页面包含模型简介、训练数据概述以及代码\u002F仓库链接。您可以访问 https:\u002F\u002Fdocs.deepstack.cc\u002Fcustom-models-samples\u002F 查看现有模型或提交您的模型。维护者也曾提到可以将模型托管在 LFS 仓库中。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F59",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},28576,"Windows CPU 版本的安装包下载链接失效或显示 ServiceUnavailable 错误怎么办？","如果官方下载链接（如 deepquest bucket）暂时不可用，建议首先检查 GitHub Releases 页面（https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Freleases）是否提供了直接的文件下载。如果所有云端存储都暂停服务，用户可能需要联系社区看是否有人保留有旧版本的安装包并愿意分享。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F109",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},28577,"如何在 NVIDIA Jetson 设备（如 Jetson Xavier）上部署 DeepStack？","DeepStack 支持在 Jetson 平台上运行。您可以参考以下资源进行部署：\n1. Fast.ai 论坛关于在 NVIDIA Jetson Xavier NX 上安装的指南：https:\u002F\u002Fforums.fast.ai\u002Ft\u002Fplatform-nvidia-jetson-xavier-nx\u002F72119\n2. 有关在 Jetson 上部署 YOLOv5 的相关文章也可作为参考：https:\u002F\u002Fblog.roboflow.com\u002Fdeploy-yolov5-to-jetson-nx\u002F\n此外，项目曾提及可以使用 Balena 工具创建可刷写到 SD 卡的磁盘镜像以简化设置。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F19",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},28578,"Windows GPU 版本中人脸注册接口 (\u002Fv1\u002Fvision\u002Fface\u002Fregister) 无响应或挂起如何解决？","该问题在早期的 Windows GPU 版本中是一个已知 Bug，表现为调用接口后程序挂起。维护者确认该问题已在 2021 年 2 月的发布版本中修复（详见论坛帖子：https:\u002F\u002Fforum.deepstack.cc\u002Ft\u002Fdeepstack-february-2021-release-fixes-for-jetson-windows-native-and-docker-versions\u002F724）。如果您仍遇到此问题，请确保升级到最新版本。旧版本日志中曾出现 'UnboundLocalError' 和 'UnidentifiedImageError' 未定义的错误，升级即可解决。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F53",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},28579,"如何在没有 AVX 指令集的旧电脑上运行 DeepStack？","对于不支持 AVX 指令集的机器，请使用标记为 beta 的特定 Docker 镜像，它们兼容无 AVX 环境：\n- GPU 版本：deepquestai\u002Fdeepstack:gpu-x3-beta\n- CPU 版本：deepquestai\u002Fdeepstack:cpu-x3-beta\n注意：在无 AVX 设备上运行时，处理速度可能会比标准版本慢（例如测试显示处理时间从 60 秒增加到 137 秒），但能确保正常运行。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F24",{"id":175,"question_zh":176,"answer_zh":177,"source_url":178},28580,"有没有脚本可以测试 DeepStack 在不同平台上的检测速度？","社区成员已经创建了基准测试脚本和 Notebook 来评估不同平台的速度。您可以参考 deepstack-analytics 仓库中的 speedtest.ipynb 文件（https:\u002F\u002Fgithub.com\u002Frobmarkcole\u002Fdeepstack-analytics\u002Fblob\u002Fmaster\u002Fspeedtest.ipynb）。该测试对比了 Mac Pro 上的 DeepStack 和 RPi4 上的 tflite-server 的性能，展示了处理图像数量和耗时的详细数据。您也可以基于此创建自己的批量检测脚本来评估运行时。","https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fissues\u002F14",{"id":180,"question_zh":181,"answer_zh":182,"source_url":153},28581,"人脸注册时使用了多张不同光线和角度的图片，但识别置信度仍然较低（0.5-0.72）甚至识别为未知，这是正常的吗？","虽然使用多样化的图片（不同光线、视角）有助于提高鲁棒性，但如果注册图片差异过大，可能会导致特征提取不稳定，从而降低置信度。目前社区用户反馈在使用 30-75 张图片注册时，仍可能出现将本人识别为“未知”或置信度偏低的情况。建议尝试增加同一人在相似条件下的图片数量，或调整注册图片的质量一致性，以获得更高的置信度。",[184,189,194,199,204,209],{"id":185,"version":186,"summary_zh":187,"released_at":188},194579,"2022.01.1","本次发布修复了多个 bug，并引入了新功能和性能优化。\n亮点包括：\n- 新增图像超分辨率端点\n- 多线程推理，显著提升性能\n- 面向高端 ARM64 设备的推理专用 Arm64 服务器镜像\n- 支持 SSL 证书的 HTTPS\n\n请安装 DeepStack 的最新版本，以享受此次更新带来的优势。\n\nDocker CPU 版本：\ndeepquestai\u002Fdeepstack:cpu-2022.01.1\n\nDocker GPU 版本：\ndeepquestai\u002Fdeepstack:gpu-2022.01.1\n\nDocker Jetson 版本：\ndeepquestai\u002Fdeepstack:jetpack-2021.01.1\n\nDocker Arm64（包括 Raspberry Pi）版本：\ndeepquestai\u002Fdeepstack:arm64-2022.01.1\n\nDocker Arm64 服务器版（适用于高端 ARM64 设备）：\ndeepquestai\u002Fdeepstack:arm64-server-2022.01.1\n\nWindows CPU 和 GPU 版本的安装程序可在下方资源中找到。\n\n## 变更内容\n* 添加对小写 API_KEY 的支持，由 @OlafenwaMoses 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F128 中实现\n* 增加 TLS 支持，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F132 中实现\n* 增强对较新 GPU 的支持，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F136 中实现\n* 在多核系统上提升性能，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F139 中实现\n* 代码清理，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F140 中完成\n* 优化端点功能，由 @OlafenwaMoses 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F138 中实现\n* 允许覆盖日志记录配置，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F143 中实现\n* 为超分辨率功能添加多线程支持，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F145 中实现\n* 修复 GPU Docker 镜像中缺少 wget 的问题，由 @OlafenwaMoses 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F146 中完成\n* 修复 Windows 构建问题，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F147 中完成\n* 更新 README 文件，由 @OlafenwaMoses 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F148 中完成\n* 修复 Windows 版本中的错误，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F149 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fcompare\u002F2021.09.1...2022.01.1","2022-01-22T20:00:48",{"id":190,"version":191,"summary_zh":192,"released_at":193},194580,"2021.09.1","# DeepStack 2021.09.1 版本发布\n\n本次发布修复了多个 bug，并对 Windows 系统的 CPU 和 GPU 版本进行了更新。\n\n请安装最新版本的 DeepStack，以享受此次更新带来的改进。\n\n**Docker CPU**\n```deepquestai\u002Fdeepstack:cpu-2021.09.1```\n\n**Docker GPU**\n```deepquestai\u002Fdeepstack:gpu-2021.09.1```\n\n**Docker Jetson**\n```deepquestai\u002Fdeepstack:jetpack-2021.09.1```\n\n**Docker Arm64（包括 Raspberry Pi）**\n```deepquestai\u002Fdeepstack:arm64-2021.09.1```\n\nWindows 系统的 CPU 和 GPU 安装程序可在下方的资源中找到。\n\n## 变更内容\n* Johnolafenwa\u002Fdetection 修复，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F90 中完成\n* 版本更新，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F102 中完成\n* 版本变更，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F103 中完成\n* 功能：端口设置，由 @AbimbolaOO 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F107 中完成\n* 修复（intelligencelayer\u002Fshared\u002Fface.py）：修正了排版错误……，由 @AbimbolaOO 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F116 中完成\n* 版本更新：2021.09.1，由 @OlafenwaMoses 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F117 中完成\n* 将 github.com\u002Fgin-gonic\u002Fgin 从 1.4.0 升级至 1.7.0，位于 \u002Fserver 目录下，由 @dependabot 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F111 中完成\n* Joolafen\u002Fwindows 修复，由 @johnolafenwa 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F118 中完成\n\n## 新贡献者\n* @AbimbolaOO 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F107 中完成了首次贡献\n* @dependabot 在 https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fpull\u002F111 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Fcompare\u002F0.3-beta...2021.09.1","2021-10-05T18:39:27",{"id":195,"version":196,"summary_zh":197,"released_at":198},194581,"0.3-beta","# DeepStack 2021.02.1 版本发布\n\n此版本修复了 DeepStack 所有版本中的以下问题：\n\n- Jetson 在 Jetpack 4.5 上的错误\n- Windows 原生版本中场景识别 onnxruntime 的 bug\n- 人脸注册功能无法正常使用\n- 请求耗时过长。由于内部错误导致的失败请求现将在 1 分钟后超时，并返回 500 错误代码\n- 修复了最小置信度为零导致 DeepStack 挂起的问题，所有最小置信度现强制设置为 0.1\n\n请安装最新版本的 DeepStack 以享受本次更新带来的改进。\n\nJetson 版本：\n```deepquestai\u002Fdeepstack:jetpack-2021.02.1``` 和 ```deepquestai\u002Fdeepstack:jetpack```\n\n下载 [Windows CPU 版](https:\u002F\u002Fdeepquest.sfo2.digitaloceanspaces.com\u002Fdeepstack\u002FDeepStack-Installer-CPU-2021.02.1.exe)\n下载 [Windows GPU 版](https:\u002F\u002Fdeepquest.sfo2.digitaloceanspaces.com\u002Fdeepstack\u002FDeepStack-Installer-GPU-2021.02.1.exe)\n\nDocker CPU 版本：\n```deepquestai\u002Fdeepstack:cpu-2021.02.1``` 和 ```deepquestai\u002Fdeepstack```\n\nDocker GPU 版本：\n```deepquestai\u002Fdeepstack:gpu-2021.02.1``` 和 ```deepquestai\u002Fdeepstack:gpu```","2021-02-07T04:38:01",{"id":200,"version":201,"summary_zh":202,"released_at":203},194582,"0.2-beta","这是一个 bug 修复版本\n\n- 现已支持 ***MODE***，可通过 ```--MODE High``` 参数以高模式运行\n- 解决了 DeepStack 运行数小时后出现的 500 内部服务器错误问题。","2021-01-06T22:35:03",{"id":205,"version":206,"summary_zh":207,"released_at":208},194583,"0.1-beta","DeepStack 本地 Windows 版本\n\n# CPU 安装\n\n下载并运行 [DeepStack CPU Beta](https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Freleases\u002Fdownload\u002F0.1-beta\u002FDeepStack-Installer-CPU.2020.12.beta.exe)\n\n# GPU 安装\n- 从这里下载并安装 CUDA 10.1：https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-10.1-download-archive-base\n- 从这里下载并安装 cuDNN：https:\u002F\u002Fdeveloper.nvidia.com\u002Fcudnn\n\n下载并运行 [DeepStack GPU Beta](https:\u002F\u002Fgithub.com\u002Fjohnolafenwa\u002FDeepStack\u002Freleases\u002Fdownload\u002F0.1-beta\u002FDeepStack-Installer-GPU.2020.12.beta.exe)\n\n安装完成后，打开 PowerShell 并根据需要运行以下命令：\n\n### 对于目标检测\n```deepstack --VISION-DETECTION True --PORT 80```\n\n### 对于人脸检测\n```deepstack --VISION-FACE True --PORT 80```\n\n### 对于场景识别\n```deepstack --VISION-SCENE True --PORT 80```\n\n### 对于自定义目标检测模型\n```deepstack --MODELSTORE-DETECTION \"C:\u002Fpath-to-detection-models\" --PORT 80```\n\n### 设置密钥\n```deepstack --VISION-DETECTION True --PORT 80 --API-KEY MyPassword --ADMIN-KEY MyAdminPassword```\n\n更多关于 DeepStack 的信息，请访问：https:\u002F\u002Fdocs.deepstack.cc\n\n","2020-12-19T13:21:59",{"id":210,"version":211,"summary_zh":212,"released_at":213},194584,"1.0","图像标注工具。\n\n基于 https:\u002F\u002Fgithub.com\u002Ftzutalin\u002FlabelImg 的二进制文件修改而来。","2020-12-12T16:59:21"]