[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SharpAI--DeepCamera":3,"tool-SharpAI--DeepCamera":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":118,"forks":119,"last_commit_at":120,"license":121,"difficulty_score":32,"env_os":122,"env_gpu":123,"env_ram":124,"env_deps":125,"category_tags":136,"github_topics":138,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":159,"updated_at":160,"faqs":161,"releases":162},4907,"SharpAI\u002FDeepCamera","DeepCamera","Open-Source AI Camera Skills Platform, AI NVR & CCTV Surveillance. Local VLM video analysis with Qwen, DeepSeek, SmolVLM, LLaVA, YOLO26. LLM-powered agentic security camera agent — watches, understands, remembers & guards your home via Telegram, Discord or Slack. Pluggable AI skills. OpenAI, Google, Anthropic or local AI. Runs on Mac Mini & AI PC.","DeepCamera 是一款开源的 AI 摄像头技能平台，旨在将传统的监控设备升级为具备“看、懂、记、护”能力的智能安防助手。它解决了传统监控系统只能被动录像、无法理解画面内容以及依赖云端服务导致隐私泄露的痛点。通过集成 Qwen、DeepSeek、LLaVA 等先进的视觉语言模型（VLM）和 YOLO 目标检测技术，DeepCamera 能在本地实时分析视频流，识别人物重识别、跌倒检测等复杂场景，并通过 Telegram、Discord 或 Slack 主动发送智能警报。\n\n该项目特别适合关注家庭隐私安全的极客用户、希望在本地部署 AI 安防方案的开发者，以及需要灵活定制监控技能的科研人员。其核心亮点在于“完全本地化运行”，所有推理过程均在 Mac Mini 或 AI PC 上完成，无需上传视频至云端，最大程度保障数据隐私。此外，DeepCamera 采用了插件化的技能架构，支持自动识别 GPU、NPU 等硬件并优化模型，配合 SharpAI Aegis 桌面应用，用户无需编写代码即可通过自然对话配置复杂的监控任务，让高端 AI 安防变得触手可及。","\u003Cdiv align=\"center\">\n\u003Ch1>DeepCamera — Open-Source AI Camera Skills Platform\u003C\u002Fh1>\n\n\u003Cp>DeepCamera's open-source skills give your cameras AI — VLM scene analysis, object detection, person re-identification, all running locally with models like Qwen, DeepSeek, SmolVLM, and LLaVA. Built on proven facial recognition, RE-ID, fall detection, and CCTV\u002FNVR surveillance monitoring, the skill catalog extends these machine learning capabilities with modern AI. All inference runs locally for maximum privacy.\u003C\u002Fp>\n\n\u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fslack-purple?style=for-the-badge&logo=slack\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Fissues\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fsupport%20forums-navy?style=for-the-badge&logo=github\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\">\n        \u003Cimg alt=\"GitHub release\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002FSharpAI\u002FDeepCamera.svg?style=for-the-badge\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fsharpai-hub\">\n        \u003Cimg alt=\"Pypi release\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsharpai-hub.svg?style=for-the-badge\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fsharpai-hub\">\n        \u003Cimg alt=\"download\" src=https:\u002F\u002Fstatic.pepy.tech\u002Fpersonalized-badge\u002Fsharpai-hub?period=total&units=international_system&left_color=grey&right_color=orange&left_text=Downloads height=25>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n---\n\n\u003Cdiv align=\"center\">\n\n### 🛡️ Introducing [SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org) — Desktop App for DeepCamera\n\n**Use DeepCamera's AI skills through a desktop app with LLM-powered setup, agent chat, and smart alerts — connected to your mobile via Discord \u002F Telegram \u002F Slack.**\n\n[SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org) is the desktop companion for DeepCamera. It uses LLM to automatically set up your environment, configure camera skills, and manage the full AI pipeline — no manual Docker or CLI required. It also adds an intelligent agent layer: persistent memory, agentic chat with your cameras, AI video generation, voice (TTS), and conversational messaging via Discord \u002F Telegram \u002F Slack.\n\n[**📦 Download SharpAI Aegis →**](https:\u002F\u002Fwww.sharpai.org)\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FBtHpenIO5WU\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_6caad2ea8dbf.gif\" alt=\"Aegis AI Benchmark Demo — Local LLM home security on Apple Silicon (click for full video)\" width=\"60%\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🗺️ Roadmap\n\n- [x] **Skill architecture** — pluggable `SKILL.md` interface for all capabilities\n- [x] **Skill Store UI** — browse, install, and configure skills from Aegis\n- [x] **AI\u002FLLM-assisted skill installation** — community-contributed skills installed and configured via AI agent\n- [x] **GPU \u002F NPU \u002F CPU (AIPC) aware installation** — auto-detect hardware, install matching frameworks, convert models to optimal format\n- [x] **Hardware environment layer** — shared [`env_config.py`](skills\u002Flib\u002Fenv_config.py) for auto-detection + model optimization across NVIDIA, AMD, Apple Silicon, Intel, and CPU\n- [ ] **Skill development** — 19 skills across 10 categories, actively expanding with community contributions\n\n## 🧩 Skill Catalog\n\nEach skill is a self-contained module with its own model, parameters, and [communication protocol](docs\u002Fskill-development.md). See the [Skill Development Guide](docs\u002Fskill-development.md) and [Platform Parameters](docs\u002Fskill-params.md) to build your own.\n\n| Category | Skill | What It Does | Status |\n|----------|-------|--------------|:------:|\n| **Detection** | [`yolo-detection-2026`](skills\u002Fdetection\u002Fyolo-detection-2026\u002F) | Real-time 80+ class detection — auto-accelerated via TensorRT \u002F CoreML \u002F OpenVINO \u002F ONNX | ✅|\n| | [`yolo-detection-2026-coral-tpu`](skills\u002Fdetection\u002Fyolo-detection-2026-coral-tpu\u002F) | Google Coral Edge TPU — ~4ms inference via USB accelerator ([LiteRT](#detection--segmentation-skills)) | ✅ |\n| | [`yolo-detection-2026-openvino`](skills\u002Fdetection\u002Fyolo-detection-2026-openvino\u002F) | Intel NCS2 USB \u002F Intel GPU \u002F CPU — multi-device via OpenVINO ([architecture](#detection--segmentation-skills)) | 🧪 |\n| | `face-detection-recognition` | Face detection & recognition — identify known faces from camera feeds | 📐 |\n| | `license-plate-recognition` | License plate detection & recognition — read plate numbers from camera feeds | 📐 |\n| **Analysis** | [`home-security-benchmark`](skills\u002Fanalysis\u002Fhome-security-benchmark\u002F) | [143-test evaluation suite](#-homesec-bench--how-secure-is-your-local-ai) for LLM & VLM security performance | ✅ |\n| **Privacy** | [`depth-estimation`](skills\u002Ftransformation\u002Fdepth-estimation\u002F) | [Real-time depth-map privacy transform](#-privacy--depth-map-anonymization) — anonymize camera feeds while preserving activity | ✅ |\n| **Segmentation** | [`sam2-segmentation`](skills\u002Fsegmentation\u002Fsam2-segmentation\u002F) | Interactive click-to-segment with Segment Anything 2 — pixel-perfect masks, point\u002Fbox prompts, video tracking | ✅ |\n| **Annotation** | [`dataset-annotation`](skills\u002Fannotation\u002Fdataset-annotation\u002F) | AI-assisted dataset labeling — auto-detect, human review, COCO\u002FYOLO\u002FVOC export for custom model training | ✅ |\n| **Training** | [`model-training`](skills\u002Ftraining\u002Fmodel-training\u002F) | Agent-driven YOLO fine-tuning — annotate, train, export, deploy | 📐 |\n| **Automation** | [`mqtt`](skills\u002Fautomation\u002Fmqtt\u002F) · [`webhook`](skills\u002Fautomation\u002Fwebhook\u002F) · [`ha-trigger`](skills\u002Fautomation\u002Fha-trigger\u002F) | Event-driven automation triggers | 📐 |\n| **Integrations** | [`homeassistant-bridge`](skills\u002Fintegrations\u002Fhomeassistant-bridge\u002F) | HA cameras in ↔ detection results out | 📐 |\n\n> ✅ Ready · 🧪 Testing · 📐 Planned\n\n> **Registry:** All skills are indexed in [`skills.json`](skills.json) for programmatic discovery.\n\n### Detection & Segmentation Skills\n\nDetection and segmentation skills process visual data from camera feeds — detecting objects, segmenting regions, or analyzing scenes. All skills use the same **JSONL stdin\u002Fstdout protocol**: Aegis writes a frame to a shared volume, sends a `frame` event on stdin, and reads `detections` from stdout. Every detection skill is interchangeable from Aegis's perspective.\n\n```mermaid\ngraph TB\n    CAM[\"📷 Camera Feed\"] --> GOV[\"Frame Governor (5 FPS)\"]\n    GOV --> |\"frame.jpg → shared volume\"| PROTO[\"JSONL stdin\u002Fstdout Protocol\"]\n\n    PROTO --> YOLO[\"yolo-detection-2026\"]\n    PROTO --> CORAL[\"yolo-detection-2026-coral-tpu\"]\n    PROTO --> OV[\"yolo-detection-2026-openvino\"]\n\n    subgraph Backends[\"Skill Backends\"]\n        YOLO --> ENV[\"env_config.py auto-detect\"]\n        ENV --> TRT[\"NVIDIA → TensorRT\"]\n        ENV --> CML[\"Apple Silicon → CoreML\"]\n        ENV --> OVIR[\"Intel → OpenVINO IR\"]\n        ENV --> ONNX[\"AMD \u002F CPU → ONNX\"]\n\n        CORAL --> LITERT[\"ai-edge-litert + libedgetpu\"]\n        LITERT --> TPU[\"Coral USB → Edge TPU delegate\"]\n        LITERT --> CPU1[\"No TPU → CPU fallback\"]\n\n        OV --> OVSDK[\"OpenVINO SDK\"]\n        OVSDK --> NCS2[\"Intel NCS2 USB\"]\n        OVSDK --> IGPU[\"Intel iGPU \u002F Arc\"]\n        OVSDK --> CPU2[\"CPU fallback\"]\n    end\n\n    YOLO --> |\"stdout: detections\"| AEGIS[\"Aegis IPC → Live Overlay + Alerts\"]\n    CORAL --> |\"stdout: detections\"| AEGIS\n    OV --> |\"stdout: detections\"| AEGIS\n```\n\n- **Unified protocol** — each skill creates its own Python venv or Docker container, but Aegis sees the same JSONL interface regardless of backend\n- **Coral TPU** uses [ai-edge-litert](https:\u002F\u002Fpypi.org\u002Fproject\u002Fai-edge-litert\u002F) (LiteRT) with the `libedgetpu` delegate — supports Python 3.9–3.13 on Linux, macOS, and Windows\n- **Same output** — Aegis sees identical JSONL from all skills, so detection overlays, alerts, and forensic analysis work with any backend\n\n#### LLM-Assisted Skill Installation\n\nSkills are installed by an **autonomous LLM deployment agent** — not by brittle shell scripts. When you click \"Install\" in Aegis, a focused mini-agent session reads the skill's `SKILL.md` manifest and figures out what to do:\n\n1. **Probe** — reads `SKILL.md`, `requirements.txt`, and `package.json` to understand what the skill needs\n2. **Detect hardware** — checks for NVIDIA (CUDA), AMD (ROCm), Apple Silicon (MPS), Intel (OpenVINO), or CPU-only\n3. **Install** — runs the right commands (`pip install`, `npm install`, system packages) with the correct backend-specific dependencies\n4. **Verify** — runs a smoke test to confirm the skill loads before marking it complete\n5. **Determine launch command** — figures out the exact `run_command` to start the skill and saves it to the registry\n\nThis means community-contributed skills don't need a bespoke installer — the LLM reads the manifest and adapts to whatever hardware you have. If something fails, it reads the error output and tries to fix it autonomously.\n\n\n## 🚀 Getting Started with [SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org)\n\nThe easiest way to run DeepCamera's AI skills. Aegis connects everything — cameras, models, skills, and you.\n\n- 📷 **Connect cameras in seconds** — add RTSP\u002FONVIF cameras, webcams, or iPhone cameras for a quick test\n- 🤖 **Built-in local LLM & VLM** — llama-server included, no separate setup needed\n- 📦 **One-click skill deployment** — install skills from the catalog with AI-assisted troubleshooting\n- 🔽 **One-click HuggingFace downloads** — browse and run Qwen, DeepSeek, SmolVLM, LLaVA, MiniCPM-V\n- 📊 **Find the best VLM for your machine** — benchmark models on your own hardware with HomeSec-Bench\n- 💬 **Talk to your guard** — via Telegram, Discord, or Slack. Ask what happened, tell it what to watch for, get AI-reasoned answers with footage.\n\n\n## 🎯 YOLO 2026 — Real-Time Object Detection\n\nState-of-the-art detection running locally on **any hardware**, fully integrated as a [DeepCamera skill](skills\u002Fdetection\u002Fyolo-detection-2026\u002F).\n\n### YOLO26 Models\n\nYOLO26 (Jan 2026) eliminates NMS and DFL for cleaner exports and lower latency. Pick the size that fits your hardware:\n\n| Model | Params | Latency (optimized) | Use Case |\n|-------|--------|:-------------------:|----------|\n| **yolo26n** (nano) | 2.6M | ~2ms | Edge devices, real-time on CPU |\n| **yolo26s** (small) | 11.2M | ~5ms | Balanced speed & accuracy |\n| **yolo26m** (medium) | 25.4M | ~12ms | Accuracy-focused |\n| **yolo26l** (large) | 52.3M | ~25ms | Maximum detection quality |\n\nAll models detect **80+ COCO classes**: people, vehicles, animals, everyday objects.\n\n### Hardware Acceleration\n\nThe shared [`env_config.py`](skills\u002Flib\u002Fenv_config.py) **auto-detects your GPU** and converts the model to the fastest native format — zero manual setup:\n\n| Your Hardware | Optimized Format | Runtime | Speedup vs PyTorch |\n|---------------|-----------------|---------|:------------------:|\n| **NVIDIA GPU** (RTX, Jetson) | TensorRT `.engine` | CUDA | **3-5x** |\n| **Apple Silicon** (M1–M4) | CoreML `.mlpackage` | ANE + GPU | **~2x** |\n| **Intel** (CPU, iGPU, NPU) | OpenVINO IR `.xml` | OpenVINO | **2-3x** |\n| **AMD GPU** (RX, MI) | ONNX Runtime | ROCm | **1.5-2x** |\n| **Any CPU** | ONNX Runtime | CPU | **~1.5x** |\n\n### Aegis Skill Integration\n\nDetection runs as a **parallel pipeline** alongside VLM analysis — never blocks your AI agent:\n\n```\nCamera → Frame Governor → detect.py (JSONL) → Aegis IPC → Live Overlay\n                5 FPS           ↓\n                          perf_stats (p50\u002Fp95\u002Fp99 latency)\n```\n\n- 🖱️ **Click to setup** — one button in Aegis installs everything, no terminal needed\n- 🤖 **AI-driven environment config** — autonomous agent detects your GPU, installs the right framework (CUDA\u002FROCm\u002FCoreML\u002FOpenVINO), converts models, and verifies the setup\n- 📺 **Live bounding boxes** — detection results rendered as overlays on RTSP camera streams\n- 📊 **Built-in performance profiling** — aggregate latency stats (p50\u002Fp95\u002Fp99) emitted every 50 frames\n- ⚡ **Auto start** — set `auto_start: true` to begin detecting when Aegis launches\n\n📖 [Full Skill Documentation →](skills\u002Fdetection\u002Fyolo-detection-2026\u002FSKILL.md)\n\n## 🔒 Privacy — Depth Map Anonymization\n\nWatch your cameras **without seeing faces, clothing, or identities**. The [depth-estimation skill](skills\u002Ftransformation\u002Fdepth-estimation\u002F) transforms live feeds into colorized depth maps using [Depth Anything v2](https:\u002F\u002Fgithub.com\u002FDepthAnything\u002FDepth-Anything-V2) — warm colors for nearby objects, cool colors for distant ones.\n\n```\nCamera Frame ──→ Depth Anything v2 ──→ Colorized Depth Map ──→ Aegis Overlay\n   (live)          (0.5 FPS)           warm=near, cool=far      (privacy on)\n```\n\n- 🛡️ **Full anonymization** — `depth_only` mode hides all visual identity while preserving spatial activity\n- 🎨 **Overlay mode** — blend depth on top of original feed with adjustable opacity\n- ⚡ **Rate-limited** — 0.5 FPS frontend capture + backend scheduler keeps GPU load minimal\n- 🧩 **Extensible** — new privacy skills (blur, pixelation, silhouette) can subclass [`TransformSkillBase`](skills\u002Ftransformation\u002Fdepth-estimation\u002Fscripts\u002Ftransform_base.py)\n\nRuns on the same [hardware acceleration stack](#hardware-acceleration) as YOLO detection — CUDA, MPS, ROCm, OpenVINO, or CPU.\n\n📖 [Full Skill Documentation →](skills\u002Ftransformation\u002Fdepth-estimation\u002FSKILL.md) · 📖 [README →](skills\u002Ftransformation\u002Fdepth-estimation\u002FREADME.md)\n\n## 📊 HomeSec-Bench — How Secure Is Your Local AI?\n\n**HomeSec-Bench** is a 143-test security benchmark that measures how well your local AI performs as a security guard. It tests what matters: Can it detect a person in fog? Classify a break-in vs. a delivery? Resist prompt injection? Route alerts correctly at 3 AM?\n\nRun it on your own hardware to know exactly where your setup stands.\n\n| Area | Tests | What's at Stake |\n|------|-------|-----------------|\n| Scene Understanding | 35 | Person detection in fog, rain, night IR, sun glare |\n| Security Classification | 12 | Telling a break-in from a raccoon |\n| Tool Use & Reasoning | 16 | Correct tool calls with accurate parameters |\n| Prompt Injection Resistance | 4 | Adversarial attacks that try to disable your guard |\n| Privacy Compliance | 3 | PII leak prevention, illegal surveillance refusal |\n| Alert Routing | 5 | Right message, right channel, right time |\n\n### Results: Local vs. Cloud vs. Hybrid\n\n\u003Ca href=\"docs\u002Fpaper\u002Fhome-security-benchmark.pdf\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_914601e09a41.png\" alt=\"HomeSec-Bench benchmark results — local Qwen 4B vs cloud GPT-5.2 vs hybrid\" width=\"100%\">\u003C\u002Fa>\n\nRunning on a **Mac M1 Mini 8GB**: local Qwen3.5-4B scores **39\u002F54** (72%), cloud GPT-5.2 scores **46\u002F48** (96%), and the hybrid config reaches **53\u002F54** (98%). All 35 VLM test images are **AI-generated** — no real footage, fully privacy-compliant.\n\n📄 [Read the Paper](docs\u002Fpaper\u002Fhome-security-benchmark.pdf) · 🔬 [Run It Yourself](skills\u002Fanalysis\u002Fhome-security-benchmark\u002F) · 📋 [Test Scenarios](skills\u002Fanalysis\u002Fhome-security-benchmark\u002Ffixtures\u002F)\n\n---\n\n## 📦 More Applications\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Legacy Applications (SharpAI-Hub CLI)\u003C\u002Fb>\u003C\u002Fsummary>\n\nThese applications use the `sharpai-cli` Docker-based workflow.\nFor the modern experience, use [SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org).\n\n| Application | CLI Command | Platforms |\n|-------------|-------------|-----------|\n| Person Recognition (ReID) | `sharpai-cli yolov7_reid start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| Person Detector | `sharpai-cli yolov7_person_detector start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| Facial Recognition | `sharpai-cli deepcamera start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| Local Facial Recognition | `sharpai-cli local_deepcamera start` | Windows\u002FLinux\u002FmacOS |\n| Screen Monitor | `sharpai-cli screen_monitor start` | Windows\u002FLinux\u002FmacOS |\n| Parking Monitor | `sharpai-cli yoloparking start` | Jetson AGX |\n| Fall Detection | `sharpai-cli falldetection start` | Jetson AGX |\n\n📖 [Detailed setup guides →](docs\u002Flegacy-applications.md)\n\n#### Tested Devices\n- **Edge**: Jetson Nano, Xavier AGX, Raspberry Pi 4\u002F8GB\n- **Desktop**: macOS, Windows 11, Ubuntu 20.04\n- **MCU**: ESP32 CAM, ESP32-S3-Eye\n\n#### Tested Cameras\n- RTSP: DaHua, Lorex, Amcrest\n- Cloud: Blink, Nest (via Home Assistant)\n- Mobile: IP Camera Lite (iOS)\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2>🏗️ Architecture\u003C\u002Fh2>\u003C\u002Fsummary>\n\n![architecture](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_ae1fa01f0cb9.png)\n\n[Complete Feature List →](docs\u002FDeepCamera_Features.md)\n\n\u003C\u002Fdetails>\n\n## 🤝 Support & Community\n\n- 💬 [Slack Community](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg) — help, discussions, and camera setup assistance\n- 🐛 [GitHub Issues](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Fissues) — technical support and bug reports\n- 🏢 [Commercial Support](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg) — pipeline optimization, custom models, edge deployment\n\n\n## [Contributions](Contributions.md)\n","\u003Cdiv align=\"center\">\n\u003Ch1>DeepCamera — 开源AI相机技能平台\u003C\u002Fh1>\n\n\u003Cp>DeepCamera的开源技能为您的相机赋予AI能力——VLM场景分析、目标检测、行人再识别等，所有这些都在本地运行，使用如Qwen、DeepSeek、SmolVLM和LLaVA等模型。基于成熟的面部识别、行人重识别、跌倒检测以及CCTV\u002FNVR监控技术，该技能库通过现代AI进一步扩展了这些机器学习功能。所有推理均在本地完成，以确保最高级别的隐私。\u003C\u002Fp>\n\n\u003Cp>\n    \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fslack-purple?style=for-the-badge&logo=slack\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Fissues\">\n        \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fsupport%20forums-navy?style=for-the-badge&logo=github\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\">\n        \u003Cimg alt=\"GitHub release\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002FSharpAI\u002FDeepCamera.svg?style=for-the-badge\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fsharpai-hub\">\n        \u003Cimg alt=\"Pypi release\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsharpai-hub.svg?style=for-the-badge\" height=25>\n    \u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fpepy.tech\u002Fproject\u002Fsharpai-hub\">\n        \u003Cimg alt=\"download\" src=https:\u002F\u002Fstatic.pepy.tech\u002Fpersonalized-badge\u002Fsharpai-hub?period=total&units=international_system&left_color=grey&right_color=orange&left_text=Downloads height=25>\n    \u003C\u002Fa>\n\u003C\u002Fp>\n\u003C\u002Fdiv>\n\n---\n\n\u003Cdiv align=\"center\">\n\n### 🛡️ 推出[SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org) — DeepCamera桌面应用\n\n**通过桌面应用使用DeepCamera的AI技能，享受LLM驱动的设置、智能代理聊天和智能告警功能——并通过Discord \u002F Telegram \u002F Slack与您的手机连接。**\n\n[SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org)是DeepCamera的桌面伴侣。它利用LLM自动设置您的环境、配置相机技能并管理完整的AI流程——无需手动操作Docker或命令行界面。此外，它还增加了智能代理层：持久化记忆、与相机进行代理式聊天、AI视频生成、语音合成（TTS），以及通过Discord \u002F Telegram \u002F Slack实现的对话式消息传递。\n\n[**📦 下载SharpAI Aegis →**](https:\u002F\u002Fwww.sharpai.org)\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fyoutu.be\u002FBtHpenIO5WU\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_6caad2ea8dbf.gif\" alt=\"Aegis AI基准演示——Apple Silicon上的本地LLM家庭安防（点击观看完整视频）\" width=\"60%\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 🗺️ 路线图\n\n- [x] **技能架构** — 适用于所有功能的可插拔`SKILL.md`接口\n- [x] **技能商店UI** — 从Aegis浏览、安装和配置技能\n- [x] **AI\u002FLLM辅助技能安装** — 社区贡献的技能可通过AI代理安装和配置\n- [x] **GPU \u002F NPU \u002F CPU (AIPC)感知安装** — 自动检测硬件、安装匹配的框架、将模型转换为最优格式\n- [x] **硬件环境层** — 共享[`env_config.py`](skills\u002Flib\u002Fenv_config.py)，用于在NVIDIA、AMD、Apple Silicon、Intel及CPU上自动检测硬件并优化模型\n- [ ] **技能开发** — 涵盖10个类别的19项技能，正积极通过社区贡献不断扩展\n\n## 🧩 技能目录\n\n每项技能都是一个自包含的模块，拥有自己的模型、参数和[通信协议](docs\u002Fskill-development.md)。请参阅[技能开发指南](docs\u002Fskill-development.md)和[平台参数](docs\u002Fskill-params.md)，以构建您自己的技能。\n\n| 类别 | 技能 | 功能 | 状态 |\n|----------|-------|--------------|:------:|\n| **检测** | [`yolo-detection-2026`](skills\u002Fdetection\u002Fyolo-detection-2026\u002F) | 实时80多种类别检测——通过TensorRT \u002F CoreML \u002F OpenVINO \u002F ONNX自动加速 | ✅|\n| | [`yolo-detection-2026-coral-tpu`](skills\u002Fdetection\u002Fyolo-detection-2026-coral-tpu\u002F) | Google Coral Edge TPU——通过USB加速器实现约4ms推理（[LiteRT](#detection--segmentation-skills)) | ✅ |\n| | [`yolo-detection-2026-openvino`](skills\u002Fdetection\u002Fyolo-detection-2026-openvino\u002F) | Intel NCS2 USB \u002F Intel GPU \u002F CPU——通过OpenVINO实现多设备支持（[架构](#detection--segmentation-skills)) | 🧪 |\n| | `face-detection-recognition` | 面部检测与识别——从相机画面中识别已知面孔 | 📐 |\n| | `license-plate-recognition` | 车牌检测与识别——从相机画面中读取车牌号码 | 📐 |\n| **分析** | [`home-security-benchmark`](skills\u002Fanalysis\u002Fhome-security-benchmark\u002F) | 针对LLM与VLM安全性能的[143项测试评估套件](#-homesec-bench--how-secure-is-your-local-ai) | ✅ |\n| **隐私** | [`depth-estimation`](skills\u002Ftransformation\u002Fdepth-estimation\u002F) | [实时深度图隐私变换](#-privacy--depth-map-anonymization)——在保留活动信息的同时匿名化相机画面 | ✅ |\n| **分割** | [`sam2-segmentation`](skills\u002Fsegmentation\u002Fsam2-segmentation\u002F) | 使用Segment Anything 2进行交互式点击分割——像素级精确掩膜、点\u002F框提示、视频跟踪 | ✅ |\n| **标注** | [`dataset-annotation`](skills\u002Fannotation\u002Fdataset-annotation\u002F) | AI辅助数据集标注——自动检测、人工审核，并导出为COCO\u002FYOLO\u002FVOC格式，用于自定义模型训练 | ✅ |\n| **训练** | [`model-training`](skills\u002Ftraining\u002Fmodel-training\u002F) | 代理驱动的YOLO微调——标注、训练、导出、部署 | 📐 |\n| **自动化** | [`mqtt`](skills\u002Fautomation\u002Fmqtt\u002F) · [`webhook`](skills\u002Fautomation\u002Fwebhook\u002F) · [`ha-trigger`](skills\u002Fautomation\u002Fha-trigger\u002F) | 基于事件的自动化触发器 | 📐 |\n| **集成** | [`homeassistant-bridge`](skills\u002Fintegrations\u002Fhomeassistant-bridge\u002F) | 将Home Assistant摄像头输入与检测结果输出相连接 | 📐 |\n\n> ✅ 已就绪 · 🧪 测试中 · 📐 计划中\n\n> **注册表：** 所有技能均编入[`skills.json`](skills.json)，便于程序化发现。\n\n### 检测与分割技能\n\n检测与分割技能处理来自摄像头 feed 的视觉数据——检测物体、分割区域或分析场景。所有技能都使用相同的 **JSONL 标准输入\u002F输出协议**：Aegis 将一帧写入共享卷，通过标准输入发送 `frame` 事件，并从标准输出读取 `detections`。从 Aegis 的角度来看，每种检测技能都是可互换的。\n\n```mermaid\ngraph TB\n    CAM[\"📷 摄像头 Feed\"] --> GOV[\"帧控制器（5 FPS）\"]\n    GOV --> |\"frame.jpg → 共享卷\"| PROTO[\"JSONL 标准输入\u002F输出协议\"]\n\n    PROTO --> YOLO[\"yolo-detection-2026\"]\n    PROTO --> CORAL[\"yolo-detection-2026-coral-tpu\"]\n    PROTO --> OV[\"yolo-detection-2026-openvino\"]\n\n    subgraph Backends[\"技能后端\"]\n        YOLO --> ENV[\"env_config.py 自动检测\"]\n        ENV --> TRT[\"NVIDIA → TensorRT\"]\n        ENV --> CML[\"Apple Silicon → CoreML\"]\n        ENV --> OVIR[\"Intel → OpenVINO IR\"]\n        ENV --> ONNX[\"AMD \u002F CPU → ONNX\"]\n\n        CORAL --> LITERT[\"ai-edge-litert + libedgetpu\"]\n        LITERT --> TPU[\"Coral USB → Edge TPU delegate\"]\n        LITERT --> CPU1[\"无 TPU → CPU 备用\"]\n\n        OV --> OVSDK[\"OpenVINO SDK\"]\n        OVSDK --> NCS2[\"Intel NCS2 USB\"]\n        OVSDK --> IGPU[\"Intel iGPU \u002F Arc\"]\n        OVSDK --> CPU2[\"CPU 备用\"]\n    end\n\n    YOLO --> |\"stdout: detections\"| AEGIS[\"Aegis IPC → 实时叠加 + 警报\"]\n    CORAL --> |\"stdout: detections\"| AEGIS\n    OV --> |\"stdout: detections\"| AEGIS\n```\n\n- **统一协议** — 每个技能都会创建自己的 Python venv 或 Docker 容器，但无论后端如何，Aegis 都会看到相同的 JSONL 接口。\n- **Coral TPU** 使用 [ai-edge-litert](https:\u002F\u002Fpypi.org\u002Fproject\u002Fai-edge-litert\u002F)（LiteRT）和 `libedgetpu` 委托 — 支持 Linux、macOS 和 Windows 上的 Python 3.9–3.13。\n- **相同输出** — Aegis 从所有技能中看到的 JSONL 都是相同的，因此检测叠加、警报和取证分析可以与任何后端配合使用。\n\n#### LLM 辅助技能安装\n\n技能由一个 **自主的 LLM 部署代理** 安装——而不是由脆弱的 shell 脚本完成。当您在 Aegis 中点击“安装”时，一个专注的迷你代理会读取技能的 `SKILL.md` 清单，并确定需要做什么：\n\n1. **探测** — 读取 `SKILL.md`、`requirements.txt` 和 `package.json`，以了解技能所需的内容。\n2. **检测硬件** — 检查是否有 NVIDIA（CUDA）、AMD（ROCm）、Apple Silicon（MPS）、Intel（OpenVINO）或仅限 CPU 的环境。\n3. **安装** — 运行正确的命令（`pip install`、`npm install`、系统包），并确保包含特定于后端的依赖项。\n4. **验证** — 运行烟雾测试以确认技能已加载，然后标记为完成。\n5. **确定启动命令** — 找出启动技能的确切 `run_command`，并将其保存到注册表中。\n\n这意味着社区贡献的技能不需要专门的安装程序——LLM 会读取清单，并根据您拥有的硬件进行调整。如果出现问题，它会读取错误输出并尝试自主修复。\n\n\n## 🚀 开始使用 [SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org)\n\n运行 DeepCamera AI 技能的最简单方式。Aegis 将一切连接起来——摄像头、模型、技能以及您本人。\n\n- 📷 **几秒钟内连接摄像头** — 添加 RTSP\u002FONVIF 摄像头、网络摄像头或 iPhone 摄像头进行快速测试。\n- 🤖 **内置本地 LLM & VLM** — 包含 llama-server，无需单独设置。\n- 📦 **一键部署技能** — 使用 AI 辅助故障排除从目录中安装技能。\n- 🔽 **一键下载 HuggingFace 模型** — 浏览并运行 Qwen、DeepSeek、SmolVLM、LLaVA、MiniCPM-V。\n- 📊 **找到适合您设备的最佳 VLM** — 使用 HomeSec-Bench 在您自己的硬件上对模型进行基准测试。\n- 💬 **与您的守护者对话** — 通过 Telegram、Discord 或 Slack。询问发生了什么，告诉它要关注什么，获取带有录像的 AI 理性回答。\n\n\n## 🎯 YOLO 2026 — 实时目标检测\n\n最先进的本地检测技术，可在 **任何硬件上运行**，完全集成为 [DeepCamera 技能](skills\u002Fdetection\u002Fyolo-detection-2026\u002F)。\n\n### YOLO26 模型\n\nYOLO26（2026 年 1 月）消除了 NMS 和 DFL，从而实现更干净的导出和更低的延迟。选择适合您硬件大小的模型：\n\n| 模型 | 参数 | 优化后的延迟 | 使用场景 |\n|-------|--------|:-------------------:|----------|\n| **yolo26n**（nano） | 2.6M | ~2ms | 边缘设备，CPU 上的实时应用 |\n| **yolo26s**（small） | 11.2M | ~5ms | 平衡速度与精度 |\n| **yolo26m**（medium） | 25.4M | ~12ms | 注重精度 |\n| **yolo26l**（large） | 52.3M | ~25ms | 最大化检测质量 |\n\n所有模型都能检测 **80 多种 COCO 类别**：人、车辆、动物、日常物品。\n\n### 硬件加速\n\n共享的 [`env_config.py`](skills\u002Flib\u002Fenv_config.py) **自动检测您的 GPU**，并将模型转换为最快的原生格式——无需手动设置：\n\n| 您的硬件 | 优化后的格式 | 运行时 | 相比 PyTorch 的加速 |\n|---------------|-----------------|---------|:------------------:|\n| **NVIDIA GPU**（RTX、Jetson） | TensorRT `.engine` | CUDA | **3-5倍** |\n| **Apple Silicon**（M1–M4） | CoreML `.mlpackage` | ANE + GPU | **~2倍** |\n| **Intel**（CPU、iGPU、NPU） | OpenVINO IR `.xml` | OpenVINO | **2-3倍** |\n| **AMD GPU**（RX、MI） | ONNX Runtime | ROCm | **1.5-2倍** |\n| **任何 CPU** | ONNX Runtime | CPU | **~1.5倍** |\n\n### Aegis 技能集成\n\n检测作为一条 **并行管道** 与 VLM 分析同时运行——绝不会阻塞您的 AI 代理：\n\n```\n摄像头 → 帧控制器 → detect.py (JSONL) → Aegis IPC → 实时叠加\n                5 FPS           ↓\n                          性能统计（p50\u002Fp95\u002Fp99 延迟）\n```\n\n- 🖱️ **点击即可设置** — Aegis 中的一个按钮即可完成所有安装，无需终端操作。\n- 🤖 **AI 驱动的环境配置** — 自主代理会检测您的 GPU，安装合适的框架（CUDA\u002FROCm\u002FCoreML\u002FOpenVINO），转换模型，并验证设置。\n- 📺 **实时边界框** — 检测结果以叠加层的形式显示在 RTSP 摄像头流上。\n- 📊 **内置性能剖析** — 每 50 帧会汇总一次延迟统计（p50\u002Fp95\u002Fp99）。\n- ⚡ **自动启动** — 设置 `auto_start: true`，使 Aegis 启动时即开始检测。\n\n📖 [完整技能文档 →](skills\u002Fdetection\u002Fyolo-detection-2026\u002FSKILL.md)\n\n## 🔒 隐私 — 深度图匿名化\n\n观看您的摄像头时，**无需看到人脸、衣物或身份信息**。[深度估计技能](skills\u002Ftransformation\u002Fdepth-estimation\u002F) 使用 [Depth Anything v2](https:\u002F\u002Fgithub.com\u002FDepthAnything\u002FDepth-Anything-V2) 将实时视频流转换为彩色深度图——近处物体用暖色表示，远处物体用冷色表示。\n\n```\n摄像头画面 ──→ Depth Anything v2 ──→ 彩色深度图 ──→ Aegis 隐私叠加\n   (实时)          (0.5 FPS)           暖色=近，冷色=远      (隐私开启)\n```\n\n- 🛡️ **完全匿名化** — `depth_only` 模式隐藏所有视觉身份信息，同时保留空间活动信息\n- 🎨 **叠加模式** — 可调节透明度，将深度图与原始画面混合显示\n- ⚡ **速率限制** — 前端以 0.5 FPS 采集，后端调度器确保 GPU 负载保持在较低水平\n- 🧩 **可扩展性** — 新的隐私技能（模糊、像素化、剪影）可以继承自 [`TransformSkillBase`](skills\u002Ftransformation\u002Fdepth-estimation\u002Fscripts\u002Ftransform_base.py)\n\n该功能运行于与 YOLO 目标检测相同的 [硬件加速栈](#hardware-acceleration) 上——CUDA、MPS、ROCm、OpenVINO 或 CPU。\n\n📖 [完整技能文档 →](skills\u002Ftransformation\u002Fdepth-estimation\u002FSKILL.md) · 📖 [README →](skills\u002Ftransformation\u002Fdepth-estimation\u002FREADME.md)\n\n## 📊 HomeSec-Bench — 您的本地 AI 安全吗？\n\n**HomeSec-Bench** 是一项包含 143 个测试的安全基准测试，用于评估您的本地 AI 作为安全卫士的表现。它测试的是真正重要的内容：它能否在雾中检测到人？能否区分入室盗窃和快递送达？能否抵御提示注入攻击？凌晨 3 点是否能正确路由警报？\n\n在您自己的硬件上运行此测试，即可准确了解您的系统现状。\n\n| 领域 | 测试数量 | 关键点 |\n|------|-------|-----------------|\n| 场景理解 | 35 | 在雾、雨、夜间红外、阳光眩光等条件下的人体检测 |\n| 安全分类 | 12 | 区分入室盗窃与浣熊入侵 |\n| 工具使用与推理 | 16 | 正确调用工具并设置准确参数 |\n| 抵抗提示注入 | 4 | 防御试图禁用安防系统的对抗性攻击 |\n| 隐私合规 | 3 | 防止 PII 泄露，拒绝非法监控 |\n| 警报路由 | 5 | 在正确的时间通过正确的渠道发送正确的消息 |\n\n### 结果：本地 vs. 云端 vs. 混合\n\n\u003Ca href=\"docs\u002Fpaper\u002Fhome-security-benchmark.pdf\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_914601e09a41.png\" alt=\"HomeSec-Bench 基准测试结果 — 本地 Qwen 4B 对比云端 GPT-5.2 对比混合配置\" width=\"100%\">\u003C\u002Fa>\n\n在 **Mac M1 Mini 8GB** 上运行时，本地 Qwen3.5-4B 得分为 **39\u002F54**（72%），云端 GPT-5.2 得分为 **46\u002F48**（96%），而混合配置则达到 **53\u002F54**（98%）。所有 35 张 VLM 测试图像均为 **AI 生成**，未使用真实录像，完全符合隐私合规要求。\n\n📄 [阅读论文](docs\u002Fpaper\u002Fhome-security-benchmark.pdf) · 🔬 [自行运行](skills\u002Fanalysis\u002Fhome-security-benchmark\u002F) · 📋 [测试场景](skills\u002Fanalysis\u002Fhome-security-benchmark\u002Ffixtures\u002F)\n\n---\n\n## 📦 更多应用\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>旧版应用（SharpAI-Hub CLI）\u003C\u002Fb>\u003C\u002Fsummary>\n\n这些应用使用基于 Docker 的 `sharpai-cli` 工作流程。\n如需更现代化的体验，请使用 [SharpAI Aegis](https:\u002F\u002Fwww.sharpai.org)。\n\n| 应用名称 | CLI 命令 | 支持平台 |\n|-------------|-------------|-----------|\n| 人员再识别 (ReID) | `sharpai-cli yolov7_reid start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| 人员检测器 | `sharpai-cli yolov7_person_detector start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| 人脸识别 | `sharpai-cli deepcamera start` | Jetson\u002FWindows\u002FLinux\u002FmacOS |\n| 本地人脸识别 | `sharpai-cli local_deepcamera start` | Windows\u002FLinux\u002FmacOS |\n| 屏幕监控 | `sharpai-cli screen_monitor start` | Windows\u002FLinux\u002FmacOS |\n| 停车场监控 | `sharpai-cli yoloparking start` | Jetson AGX |\n| 跌倒检测 | `sharpai-cli falldetection start` | Jetson AGX |\n\n📖 [详细安装指南 →](docs\u002Flegacy-applications.md)\n\n#### 测试设备\n- **边缘设备**: Jetson Nano、Xavier AGX、Raspberry Pi 4\u002F8GB\n- **桌面设备**: macOS、Windows 11、Ubuntu 20.04\n- **MCU**: ESP32 CAM、ESP32-S3-Eye\n\n#### 测试摄像头\n- RTSP: 大华、Lorex、Amcrest\n- 云摄像头: Blink、Nest（通过 Home Assistant）\n- 手机摄像头: IP Camera Lite（iOS）\n\n\u003C\u002Fdetails>\n\n---\n\n\u003Cdetails>\n\u003Csummary>\u003Ch2>🏗️ 架构\u003C\u002Fh2>\u003C\u002Fsummary>\n\n![架构图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_readme_ae1fa01f0cb9.png)\n\n[完整功能列表 →](docs\u002FDeepCamera_Features.md)\n\n\u003C\u002Fdetails>\n\n## 🤝 支持与社区\n\n- 💬 [Slack 社区](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg) — 提供帮助、讨论及摄像头设置支持\n- 🐛 [GitHub Issues](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Fissues) — 技术支持与问题报告\n- 🏢 [商业支持](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fsharpai\u002Fshared_invite\u002Fzt-1nt1g0dkg-navTKx6REgeq5L3eoC1Pqg) — 流水线优化、定制模型、边缘部署\n\n\n## [贡献](Contributions.md)","# DeepCamera 快速上手指南\n\nDeepCamera 是一个开源的 AI 摄像头技能平台，支持在本地运行 VLM 场景分析、物体检测、人员重识别等 AI 功能。所有推理均在本地完成，确保最大程度的隐私安全。推荐搭配桌面端应用 **SharpAI Aegis** 使用，以实现一键安装和智能管理。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux, macOS (Apple Silicon M1-M4), Windows\n- **硬件加速支持**（可选但推荐）：\n  - NVIDIA GPU (CUDA)\n  - Apple Silicon (MPS\u002FCoreML)\n  - Intel CPU\u002FiGPU\u002FNPU (OpenVINO)\n  - AMD GPU (ROCm)\n  - Google Coral Edge TPU\n- **内存**：建议 8GB 以上（运行大模型需更多）\n- **存储**：预留足够空间下载模型（单个模型约 100MB - 2GB）\n\n### 前置依赖\n虽然 SharpAI Aegis 会自动处理大部分依赖，但手动运行或开发技能时需确保以下环境就绪：\n- Python 3.9 - 3.13\n- Git\n- Docker (可选，用于隔离技能运行环境)\n\n> **国内加速提示**：如遇网络问题，建议配置国内镜像源：\n> - Pip: `pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> - HuggingFace: 设置环境变量 `HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com`\n\n## 安装步骤\n\n最推荐的安装方式是通过 **SharpAI Aegis** 桌面应用，它集成了 LLM 代理，可自动检测硬件并配置环境。\n\n### 方法一：使用 SharpAI Aegis（推荐）\n\n1. **下载应用**\n   访问官网下载适用于你操作系统的安装包：\n   [https:\u002F\u002Fwww.sharpai.org](https:\u002F\u002Fwww.sharpai.org)\n\n2. **安装并启动**\n   运行安装程序，启动 Aegis 应用。无需手动配置 Docker 或 CLI。\n\n3. **连接摄像头**\n   在应用界面中添加 RTSP\u002FONVIF 摄像头、Webcam 或 iPhone 摄像头。\n\n4. **安装技能**\n   - 进入 \"Skill Store\" (技能商店)。\n   - 浏览所需技能（如 `yolo-detection-2026`）。\n   - 点击 **Install**。内置的 AI 代理将自动：\n     - 读取 `SKILL.md` 清单。\n     - 检测你的硬件 (NVIDIA\u002FApple\u002FIntel 等)。\n     - 安装对应的后端框架 (TensorRT\u002FCoreML\u002FOpenVINO)。\n     - 转换模型格式并验证运行。\n\n### 方法二：手动部署技能（开发者模式）\n\n若需手动运行特定技能（以 YOLO 检测为例）：\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera.git\n   cd DeepCamera\n   ```\n\n2. **创建虚拟环境**\n   ```bash\n   python -m venv venv\n   source venv\u002Fbin\u002Factivate  # Windows: venv\\Scripts\\activate\n   ```\n\n3. **安装核心依赖**\n   ```bash\n   pip install sharpai-hub\n   # 如需国内加速：\n   # pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple sharpai-hub\n   ```\n\n4. **安装具体技能依赖**\n   以 YOLO 2026 为例：\n   ```bash\n   cd skills\u002Fdetection\u002Fyolo-detection-2026\n   pip install -r requirements.txt\n   ```\n\n5. **模型自动优化**\n   首次运行时，脚本会通过 `env_config.py` 自动检测硬件并将模型转换为最优格式（如 `.engine`, `.mlpackage`, `.xml`）。\n\n## 基本使用\n\n### 通过 Aegis 运行检测技能\n\n1. **启动技能**\n   在 Aegis 界面中，找到已安装的 `yolo-detection-2026` 技能，开启开关或设置 `auto_start: true`。\n\n2. **查看实时结果**\n   - 应用会在摄像头画面上实时渲染检测框（Bounding Boxes）。\n   - 支持 80+ 类 COCO 对象检测（人、车、动物等）。\n   - 延迟极低（根据硬件不同，优化后可达 2ms - 25ms）。\n\n3. **交互与通知**\n   - 配置 Discord \u002F Telegram \u002F Slack 机器人，接收智能警报。\n   - 使用内置聊天功能询问摄像头：“刚才发生了什么？”或“盯着门口”。\n\n### 命令行测试技能协议\n\n技能通过标准的 **JSONL stdin\u002Fstdout** 协议通信。你可以手动发送帧进行测试：\n\n```bash\n# 示例：向技能发送帧事件并读取检测结果\necho '{\"event\": \"frame\", \"path\": \"\u002Fpath\u002Fto\u002Fframe.jpg\"}' | python detect.py\n```\n\n输出示例：\n```json\n{\"detections\": [{\"class\": \"person\", \"confidence\": 0.95, \"bbox\": [100, 200, 300, 400]}]}\n```\n\n### 性能基准测试\n\n使用内置的 `home-security-benchmark` 技能评估你机器上的 VLM\u002FLLM 性能：\n1. 在 Aegis 技能商店安装 `home-security-benchmark`。\n2. 运行该技能，它将执行 143 项测试并生成报告，帮助你选择最适合当前硬件的模型（如 Qwen, LLaVA, SmolVLM 等）。","独居的张工程师希望利用家中的旧摄像头和 Mac Mini 搭建一套隐私安全的智能安防系统，以实时监测老人跌倒或陌生人入侵。\n\n### 没有 DeepCamera 时\n- **隐私泄露风险高**：传统云监控方案需将视频流上传至第三方服务器，敏感的家庭生活画面存在数据泄露隐患。\n- **功能僵化且昂贵**：商用智能摄像头仅支持预设的简单移动侦测，无法识别“老人跌倒”或“特定人员徘徊”等复杂场景，定制开发成本极高。\n- **部署门槛高**：自行搭建本地 AI 分析需手动配置 Docker、转换模型格式并编写复杂的推理代码，非算法专家难以落地。\n- **警报无效噪音多**：基于像素变化的传统报警频繁误报（如光影变化、宠物经过），导致用户逐渐忽略真实危险信号。\n\n### 使用 DeepCamera 后\n- **数据完全本地化**：DeepCamera 调用本地的 Qwen 或 LLaVA 大模型直接在 Mac Mini 上分析视频流，所有画面不出家门，彻底保障隐私。\n- **自然语言定义技能**：通过 SharpAI Aegis 桌面端，张工程师只需用对话方式指令“当检测到有人跌倒时通知”，DeepCamera 即自动配置好对应的 VLM 分析技能。\n- **硬件自适应优化**：DeepCamera 自动识别 Apple Silicon 芯片，将模型转换为 CoreML 格式加速推理，无需人工干预即可流畅运行。\n- **精准语义级报警**：系统能理解视频内容，仅在确认发生“跌倒”或“陌生人入侵”时，才通过 Telegram 发送带具体描述的智能警报，误报率几乎为零。\n\nDeepCamera 将昂贵的企业级本地视觉分析能力转化为个人可轻松部署的隐私守护神，让普通电脑瞬间变身懂人性的智能安保专家。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSharpAI_DeepCamera_9f161786.png","SharpAI","SharpAI Dev Team","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSharpAI_bc6c74eb.png","SharpAI empowers your traditional CCTV\u002FNVR and surveillance cameras with machine learning technologies.",null,"https:\u002F\u002Fgithub.com\u002FSharpAI",[79,83,87,91,95,99,103,107,111,114],{"name":80,"color":81,"percentage":82},"JavaScript","#f1e05a",38.8,{"name":84,"color":85,"percentage":86},"Python","#3572A5",32.5,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",14.7,{"name":92,"color":93,"percentage":94},"EJS","#a91e50",3.8,{"name":96,"color":97,"percentage":98},"Shell","#89e051",2.4,{"name":100,"color":101,"percentage":102},"CSS","#663399",2.1,{"name":104,"color":105,"percentage":106},"SCSS","#c6538c",1.6,{"name":108,"color":109,"percentage":110},"Less","#1d365d",1.3,{"name":112,"color":113,"percentage":110},"CMake","#DA3434",{"name":115,"color":116,"percentage":117},"Batchfile","#C1F12E",0.6,2645,423,"2026-04-06T16:30:21","MIT","Linux, macOS, Windows","非必需（支持 CPU 运行）。支持 NVIDIA (TensorRT\u002FCUDA), Apple Silicon (CoreML\u002FANE), Intel (OpenVINO\u002FiGPU\u002FNPU), AMD (ROCm\u002FONNX), Google Coral TPU。具体显存未说明，取决于所选模型大小（如 YOLO26n 仅需极少资源，大模型需更多显存）。","未说明",{"notes":126,"python":127,"dependencies":128},"该工具通过 SharpAI Aegis 桌面应用或独立技能模块运行，具备硬件自动检测功能（env_config.py），可自动将模型转换为最优格式（如 TensorRT, CoreML, OpenVINO）。支持多种加速后端，包括 NVIDIA GPU、Apple Silicon、Intel NPU\u002FGPU、AMD GPU 及 Google Coral Edge TPU。若无专用加速器，可回退至 CPU 运行（ONNX Runtime）。技能安装由 LLM 代理自动完成，无需手动配置 Docker 或 CLI。","3.9-3.13",[129,130,131,132,133,134,135],"ai-edge-litert","libedgetpu","torch","transformers","onnxruntime","openvino","tensorrt",[137,15,35,14,13],"视频",[139,140,141,142,143,144,145,146,147,148,149,150,151,152,153,154,155,156,157,158],"ai","deep-learning","face-recognition","object-detection","video-surveillance","machine-learning","python","home-assistant","camera","computer-vision","raspberry-pi","ai-camera","cctv","home-security","llama-cpp","llm","local-ai","security-camera","vlm","ai-nvr","2026-03-27T02:49:30.150509","2026-04-07T14:36:11.999225",[],[163,168,172,177,182,187,192],{"id":164,"version":165,"summary_zh":166,"released_at":167},136017,"v2026.3","自上次发布以来，共有 **136 次提交**，将 DeepCamera 从一个单体式 AI 摄像头后端转型为 Aegis-AI 的 **去中心化技能平台**。\n\n---\n\n## 🏗️ 技能平台架构\n\n- 覆盖 10 个类别、共 **18 项技能**：检测、分析、标注、自动化、流媒体、通道、转换、集成、摄像头提供商以及基准测试。\n- 标准化的 [SKILL.md](file:\u002F\u002F\u002FUsers\u002Fsimba\u002F.aegis-ai\u002Fskills\u002Fhome-security-benchmark\u002FSKILL.md) 清单 + `requirements.txt` 依赖模型。\n- 通过标准输入\u002F输出的 JSON-Lines 通信协议。\n- 启动过程中发出进度事件，以便 Aegis UI 提供反馈。\n- 优雅地处理 SIGTERM 关闭信号。\n\n## 📊 HomeSec-Bench：包含 131 个测试的基准测试套件\n\n**家庭安防 AI 基准测试**是核心技能，用于评估 LLM 和 VLM 在住宅安防场景中的性能：\n\n- 共有 **16 个测试套件**，包含 **131 个测试**（96 个 LLM 测试和 35 个 VLM 测试）。\n- 上下文预处理、知识蒸馏、事件去重、安全分类。\n- 针对真实的 Aegis [agent-bridge.cjs](file:\u002F\u002F\u002FUsers\u002FShared\u002Fworkspace\u002FAegis-AI\u002Felectron\u002Fservices\u002Fagent-bridge.cjs) 定义进行工具使用验证。\n- 包含 35 张由 AI 生成的安防摄像头场景帧。\n- 自动生成 HTML 报告，并附带历史对比表格。\n- **Qwen3.5 兼容性**：支持 `\\\u003Cthink\\>\\\u003C\u002Fthink\\>` 注入以禁用推理；采用平衡括号的 JSON 解析器；缓冲令牌流并添加 `[C]\u002F[R]` 字段标记；智能提前终止机制（推理令牌数不超过 100、不超过 maxTokens 的两倍，全局上限为 2000）。\n\n## 🖥️ 跨平台部署\n\n### Windows\n- 所有技能均提供与 `deploy.bat` 等效的 `deploy.sh` 脚本。\n- 基于 WMI 的 GPU 检测后备方案。\n- 修复了 GPU 检测中的引号问题。\n\n### AMD ROCm\n- 支持 ROCm 7.2 及以上版本的 GPU 检测。\n- 使用 PyTorch+HIP 进行推理（替代 ONNX）。\n- 自动检测已安装的 ROCm 版本，以选择正确的 PyTorch 轮子。\n- 当 ROCm PyTorch 不可用时，可优雅地回退到 CPU。\n\n### Apple Silicon\n- YOLO 通过 CoreML 路由至神经引擎（NPU）。\n- 为兼容 CoreML 导出，将 numpy 锁定在 \u003C2.0.0 版本。\n\n## 🔧 基础设施\n\n- CameraClaw 注册表已迁移到 DeepCamera，并新增 `url` 字段。\n- 第三方基准测试已从技能注册表中移除。\n- 更新 README 文件，加入技能目录和平台标识。\n- 在 `src\u002F` 目录中添加模块映射和架构文档索引。\n\n## 📦 技能目录（10 个类别）\n\n| 类别       | 技能                     |\n|------------|--------------------------|\n| 检测       | YOLO 2026                |\n| 分析       | 家庭安防基准测试、VLM 场景分析 |\n| 标注       | 边界框叠加               |\n| 自动化     | 计划引擎                 |\n| 流媒体     | go2rtc、RTSP 中继         |\n| 通道       | Discord、Telegram        |\n| 转换       | 帧大小调整、视频合成     |\n| 摄像头提供商 | Blink、ONVIF            |\n| 集成       | CameraClaw (OpenClaw)    |\n\n---\n\n**完整变更日志**：[Aegis...v2026.3](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Fcompare\u002FAegis...v2026.3)","2026-03-14T00:43:09",{"id":169,"version":170,"summary_zh":76,"released_at":171},136018,"Aegis","2026-02-18T06:38:28",{"id":173,"version":174,"summary_zh":175,"released_at":176},136019,"v3.4.3","本次发布标志着 DeepCamera 实现了重大飞跃。SharpAI 团队开发了一款基于 Python 的命令行安装工具，可帮助用户轻松地将 AI 摄像头应用部署到本地系统。","2022-08-18T18:39:42",{"id":178,"version":179,"summary_zh":180,"released_at":181},136020,"1.4","## 在 Android 上安装 DeepCamera AI 监控应用 https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\u002Fdownload\u002F1.4\u002FDeepCamera_1.4.4.apk\n基于 [DeepCamera_Android 1.4.4 版本](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera_Android\u002Freleases\u002Ftag\u002F1.4.4) 构建。\n## 安装手机应用以接收通知","2019-05-03T01:28:31",{"id":183,"version":184,"summary_zh":185,"released_at":186},136021,"1.3","为加快 DeepCamera 平台的评估速度，SharpAI 开发团队开发了一款应用，可使用 Android 设备的摄像头替代监控摄像头。去除对硬件的依赖将显著提升开发者的评估效率。\n\n由于设备摄像头的质量差异，可能会出现一些问题。通常情况下，使用专业的监控摄像头效果会更好。不过，我们的 Android AI 摄像头采用面向边缘设备的 AutoML 技术，仍属业界领先水平。\n\n以下是您需要执行的操作：\n\n1. 在 Android 设备上安装 DeepCamera AI 监控应用，该应用基于 [DeepCamera_Android 1.3 版本](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera_Android\u002Freleases\u002Ftag\u002F1.3) 构建。下载链接：https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\u002Fdownload\u002F1.3\u002FDeepCamera_1.3.apk\n\n2. 安装移动端通知应用，用于接收提醒及人员标注功能（Beta 测试）：\n   - Android：https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\u002Fdownload\u002Fv1.2.1\u002Fsharpai-2.2.67-20190122181044.apk\n   - iOS：https:\u002F\u002Ftestflight.apple.com\u002Fjoin\u002F8LXGgu3q\n\n## 发布说明\n\n- 在设备端显示识别状态。\n- 将软件包名称由 com.termux 更改为 org.sharpai。\n- 更新 [DeepCamera 源码包](https:\u002F\u002Fgithub.com\u002FSharpAI\u002FDeepCamera\u002Freleases\u002Fdownload\u002F1.3\u002FDeepCamera_Dev_All_In_One_04182019.bz2)，版本标签为 1.3。\n\n## 已知问题\n\n- 系统设置完成后，若摄像头预览未显示，请尝试重启应用。\n- 若系统设置失败，请清除应用数据后重新运行。","2019-04-19T01:55:43",{"id":188,"version":189,"summary_zh":190,"released_at":191},136022,"test","这只是用于测试。","2019-03-25T09:26:48",{"id":193,"version":194,"summary_zh":76,"released_at":195},136023,"1.1","2019-03-13T21:37:26"]