DeepCamera
DeepCamera 是一款开源的 AI 摄像头技能平台,旨在将传统的监控设备升级为具备“看、懂、记、护”能力的智能安防助手。它解决了传统监控系统只能被动录像、无法理解画面内容以及依赖云端服务导致隐私泄露的痛点。通过集成 Qwen、DeepSeek、LLaVA 等先进的视觉语言模型(VLM)和 YOLO 目标检测技术,DeepCamera 能在本地实时分析视频流,识别人物重识别、跌倒检测等复杂场景,并通过 Telegram、Discord 或 Slack 主动发送智能警报。
该项目特别适合关注家庭隐私安全的极客用户、希望在本地部署 AI 安防方案的开发者,以及需要灵活定制监控技能的科研人员。其核心亮点在于“完全本地化运行”,所有推理过程均在 Mac Mini 或 AI PC 上完成,无需上传视频至云端,最大程度保障数据隐私。此外,DeepCamera 采用了插件化的技能架构,支持自动识别 GPU、NPU 等硬件并优化模型,配合 SharpAI Aegis 桌面应用,用户无需编写代码即可通过自然对话配置复杂的监控任务,让高端 AI 安防变得触手可及。
使用场景
独居的张工程师希望利用家中的旧摄像头和 Mac Mini 搭建一套隐私安全的智能安防系统,以实时监测老人跌倒或陌生人入侵。
没有 DeepCamera 时
- 隐私泄露风险高:传统云监控方案需将视频流上传至第三方服务器,敏感的家庭生活画面存在数据泄露隐患。
- 功能僵化且昂贵:商用智能摄像头仅支持预设的简单移动侦测,无法识别“老人跌倒”或“特定人员徘徊”等复杂场景,定制开发成本极高。
- 部署门槛高:自行搭建本地 AI 分析需手动配置 Docker、转换模型格式并编写复杂的推理代码,非算法专家难以落地。
- 警报无效噪音多:基于像素变化的传统报警频繁误报(如光影变化、宠物经过),导致用户逐渐忽略真实危险信号。
使用 DeepCamera 后
- 数据完全本地化:DeepCamera 调用本地的 Qwen 或 LLaVA 大模型直接在 Mac Mini 上分析视频流,所有画面不出家门,彻底保障隐私。
- 自然语言定义技能:通过 SharpAI Aegis 桌面端,张工程师只需用对话方式指令“当检测到有人跌倒时通知”,DeepCamera 即自动配置好对应的 VLM 分析技能。
- 硬件自适应优化:DeepCamera 自动识别 Apple Silicon 芯片,将模型转换为 CoreML 格式加速推理,无需人工干预即可流畅运行。
- 精准语义级报警:系统能理解视频内容,仅在确认发生“跌倒”或“陌生人入侵”时,才通过 Telegram 发送带具体描述的智能警报,误报率几乎为零。
DeepCamera 将昂贵的企业级本地视觉分析能力转化为个人可轻松部署的隐私守护神,让普通电脑瞬间变身懂人性的智能安保专家。
运行环境要求
- Linux
- macOS
- Windows
- 非必需(支持 CPU 运行)
- 支持 NVIDIA (TensorRT/CUDA), Apple Silicon (CoreML/ANE), Intel (OpenVINO/iGPU/NPU), AMD (ROCm/ONNX), Google Coral TPU
- 具体显存未说明,取决于所选模型大小(如 YOLO26n 仅需极少资源,大模型需更多显存)
未说明

快速开始
DeepCamera — 开源AI相机技能平台
DeepCamera的开源技能为您的相机赋予AI能力——VLM场景分析、目标检测、行人再识别等,所有这些都在本地运行,使用如Qwen、DeepSeek、SmolVLM和LLaVA等模型。基于成熟的面部识别、行人重识别、跌倒检测以及CCTV/NVR监控技术,该技能库通过现代AI进一步扩展了这些机器学习功能。所有推理均在本地完成,以确保最高级别的隐私。
🛡️ 推出SharpAI Aegis — DeepCamera桌面应用
通过桌面应用使用DeepCamera的AI技能,享受LLM驱动的设置、智能代理聊天和智能告警功能——并通过Discord / Telegram / Slack与您的手机连接。
SharpAI Aegis是DeepCamera的桌面伴侣。它利用LLM自动设置您的环境、配置相机技能并管理完整的AI流程——无需手动操作Docker或命令行界面。此外,它还增加了智能代理层:持久化记忆、与相机进行代理式聊天、AI视频生成、语音合成(TTS),以及通过Discord / Telegram / Slack实现的对话式消息传递。
🗺️ 路线图
- 技能架构 — 适用于所有功能的可插拔
SKILL.md接口 - 技能商店UI — 从Aegis浏览、安装和配置技能
- AI/LLM辅助技能安装 — 社区贡献的技能可通过AI代理安装和配置
- GPU / NPU / CPU (AIPC)感知安装 — 自动检测硬件、安装匹配的框架、将模型转换为最优格式
- 硬件环境层 — 共享
env_config.py,用于在NVIDIA、AMD、Apple Silicon、Intel及CPU上自动检测硬件并优化模型 - 技能开发 — 涵盖10个类别的19项技能,正积极通过社区贡献不断扩展
🧩 技能目录
每项技能都是一个自包含的模块,拥有自己的模型、参数和通信协议。请参阅技能开发指南和平台参数,以构建您自己的技能。
| 类别 | 技能 | 功能 | 状态 |
|---|---|---|---|
| 检测 | yolo-detection-2026 |
实时80多种类别检测——通过TensorRT / CoreML / OpenVINO / ONNX自动加速 | ✅ |
yolo-detection-2026-coral-tpu |
Google Coral Edge TPU——通过USB加速器实现约4ms推理(LiteRT) | ✅ | |
yolo-detection-2026-openvino |
Intel NCS2 USB / Intel GPU / CPU——通过OpenVINO实现多设备支持(架构) | 🧪 | |
face-detection-recognition |
面部检测与识别——从相机画面中识别已知面孔 | 📐 | |
license-plate-recognition |
车牌检测与识别——从相机画面中读取车牌号码 | 📐 | |
| 分析 | home-security-benchmark |
针对LLM与VLM安全性能的143项测试评估套件 | ✅ |
| 隐私 | depth-estimation |
实时深度图隐私变换——在保留活动信息的同时匿名化相机画面 | ✅ |
| 分割 | sam2-segmentation |
使用Segment Anything 2进行交互式点击分割——像素级精确掩膜、点/框提示、视频跟踪 | ✅ |
| 标注 | dataset-annotation |
AI辅助数据集标注——自动检测、人工审核,并导出为COCO/YOLO/VOC格式,用于自定义模型训练 | ✅ |
| 训练 | model-training |
代理驱动的YOLO微调——标注、训练、导出、部署 | 📐 |
| 自动化 | mqtt · webhook · ha-trigger |
基于事件的自动化触发器 | 📐 |
| 集成 | homeassistant-bridge |
将Home Assistant摄像头输入与检测结果输出相连接 | 📐 |
✅ 已就绪 · 🧪 测试中 · 📐 计划中
注册表: 所有技能均编入
skills.json,便于程序化发现。
检测与分割技能
检测与分割技能处理来自摄像头 feed 的视觉数据——检测物体、分割区域或分析场景。所有技能都使用相同的 JSONL 标准输入/输出协议:Aegis 将一帧写入共享卷,通过标准输入发送 frame 事件,并从标准输出读取 detections。从 Aegis 的角度来看,每种检测技能都是可互换的。
graph TB
CAM["📷 摄像头 Feed"] --> GOV["帧控制器(5 FPS)"]
GOV --> |"frame.jpg → 共享卷"| PROTO["JSONL 标准输入/输出协议"]
PROTO --> YOLO["yolo-detection-2026"]
PROTO --> CORAL["yolo-detection-2026-coral-tpu"]
PROTO --> OV["yolo-detection-2026-openvino"]
subgraph Backends["技能后端"]
YOLO --> ENV["env_config.py 自动检测"]
ENV --> TRT["NVIDIA → TensorRT"]
ENV --> CML["Apple Silicon → CoreML"]
ENV --> OVIR["Intel → OpenVINO IR"]
ENV --> ONNX["AMD / CPU → ONNX"]
CORAL --> LITERT["ai-edge-litert + libedgetpu"]
LITERT --> TPU["Coral USB → Edge TPU delegate"]
LITERT --> CPU1["无 TPU → CPU 备用"]
OV --> OVSDK["OpenVINO SDK"]
OVSDK --> NCS2["Intel NCS2 USB"]
OVSDK --> IGPU["Intel iGPU / Arc"]
OVSDK --> CPU2["CPU 备用"]
end
YOLO --> |"stdout: detections"| AEGIS["Aegis IPC → 实时叠加 + 警报"]
CORAL --> |"stdout: detections"| AEGIS
OV --> |"stdout: detections"| AEGIS
- 统一协议 — 每个技能都会创建自己的 Python venv 或 Docker 容器,但无论后端如何,Aegis 都会看到相同的 JSONL 接口。
- Coral TPU 使用 ai-edge-litert(LiteRT)和
libedgetpu委托 — 支持 Linux、macOS 和 Windows 上的 Python 3.9–3.13。 - 相同输出 — Aegis 从所有技能中看到的 JSONL 都是相同的,因此检测叠加、警报和取证分析可以与任何后端配合使用。
LLM 辅助技能安装
技能由一个 自主的 LLM 部署代理 安装——而不是由脆弱的 shell 脚本完成。当您在 Aegis 中点击“安装”时,一个专注的迷你代理会读取技能的 SKILL.md 清单,并确定需要做什么:
- 探测 — 读取
SKILL.md、requirements.txt和package.json,以了解技能所需的内容。 - 检测硬件 — 检查是否有 NVIDIA(CUDA)、AMD(ROCm)、Apple Silicon(MPS)、Intel(OpenVINO)或仅限 CPU 的环境。
- 安装 — 运行正确的命令(
pip install、npm install、系统包),并确保包含特定于后端的依赖项。 - 验证 — 运行烟雾测试以确认技能已加载,然后标记为完成。
- 确定启动命令 — 找出启动技能的确切
run_command,并将其保存到注册表中。
这意味着社区贡献的技能不需要专门的安装程序——LLM 会读取清单,并根据您拥有的硬件进行调整。如果出现问题,它会读取错误输出并尝试自主修复。
🚀 开始使用 SharpAI Aegis
运行 DeepCamera AI 技能的最简单方式。Aegis 将一切连接起来——摄像头、模型、技能以及您本人。
- 📷 几秒钟内连接摄像头 — 添加 RTSP/ONVIF 摄像头、网络摄像头或 iPhone 摄像头进行快速测试。
- 🤖 内置本地 LLM & VLM — 包含 llama-server,无需单独设置。
- 📦 一键部署技能 — 使用 AI 辅助故障排除从目录中安装技能。
- 🔽 一键下载 HuggingFace 模型 — 浏览并运行 Qwen、DeepSeek、SmolVLM、LLaVA、MiniCPM-V。
- 📊 找到适合您设备的最佳 VLM — 使用 HomeSec-Bench 在您自己的硬件上对模型进行基准测试。
- 💬 与您的守护者对话 — 通过 Telegram、Discord 或 Slack。询问发生了什么,告诉它要关注什么,获取带有录像的 AI 理性回答。
🎯 YOLO 2026 — 实时目标检测
最先进的本地检测技术,可在 任何硬件上运行,完全集成为 DeepCamera 技能。
YOLO26 模型
YOLO26(2026 年 1 月)消除了 NMS 和 DFL,从而实现更干净的导出和更低的延迟。选择适合您硬件大小的模型:
| 模型 | 参数 | 优化后的延迟 | 使用场景 |
|---|---|---|---|
| yolo26n(nano) | 2.6M | ~2ms | 边缘设备,CPU 上的实时应用 |
| yolo26s(small) | 11.2M | ~5ms | 平衡速度与精度 |
| yolo26m(medium) | 25.4M | ~12ms | 注重精度 |
| yolo26l(large) | 52.3M | ~25ms | 最大化检测质量 |
所有模型都能检测 80 多种 COCO 类别:人、车辆、动物、日常物品。
硬件加速
共享的 env_config.py 自动检测您的 GPU,并将模型转换为最快的原生格式——无需手动设置:
| 您的硬件 | 优化后的格式 | 运行时 | 相比 PyTorch 的加速 |
|---|---|---|---|
| NVIDIA GPU(RTX、Jetson) | TensorRT .engine |
CUDA | 3-5倍 |
| Apple Silicon(M1–M4) | CoreML .mlpackage |
ANE + GPU | ~2倍 |
| Intel(CPU、iGPU、NPU) | OpenVINO IR .xml |
OpenVINO | 2-3倍 |
| AMD GPU(RX、MI) | ONNX Runtime | ROCm | 1.5-2倍 |
| 任何 CPU | ONNX Runtime | CPU | ~1.5倍 |
Aegis 技能集成
检测作为一条 并行管道 与 VLM 分析同时运行——绝不会阻塞您的 AI 代理:
摄像头 → 帧控制器 → detect.py (JSONL) → Aegis IPC → 实时叠加
5 FPS ↓
性能统计(p50/p95/p99 延迟)
- 🖱️ 点击即可设置 — Aegis 中的一个按钮即可完成所有安装,无需终端操作。
- 🤖 AI 驱动的环境配置 — 自主代理会检测您的 GPU,安装合适的框架(CUDA/ROCm/CoreML/OpenVINO),转换模型,并验证设置。
- 📺 实时边界框 — 检测结果以叠加层的形式显示在 RTSP 摄像头流上。
- 📊 内置性能剖析 — 每 50 帧会汇总一次延迟统计(p50/p95/p99)。
- ⚡ 自动启动 — 设置
auto_start: true,使 Aegis 启动时即开始检测。
📖 完整技能文档 →
🔒 隐私 — 深度图匿名化
观看您的摄像头时,无需看到人脸、衣物或身份信息。深度估计技能 使用 Depth Anything v2 将实时视频流转换为彩色深度图——近处物体用暖色表示,远处物体用冷色表示。
摄像头画面 ──→ Depth Anything v2 ──→ 彩色深度图 ──→ Aegis 隐私叠加
(实时) (0.5 FPS) 暖色=近,冷色=远 (隐私开启)
- 🛡️ 完全匿名化 —
depth_only模式隐藏所有视觉身份信息,同时保留空间活动信息 - 🎨 叠加模式 — 可调节透明度,将深度图与原始画面混合显示
- ⚡ 速率限制 — 前端以 0.5 FPS 采集,后端调度器确保 GPU 负载保持在较低水平
- 🧩 可扩展性 — 新的隐私技能(模糊、像素化、剪影)可以继承自
TransformSkillBase
该功能运行于与 YOLO 目标检测相同的 硬件加速栈 上——CUDA、MPS、ROCm、OpenVINO 或 CPU。
📊 HomeSec-Bench — 您的本地 AI 安全吗?
HomeSec-Bench 是一项包含 143 个测试的安全基准测试,用于评估您的本地 AI 作为安全卫士的表现。它测试的是真正重要的内容:它能否在雾中检测到人?能否区分入室盗窃和快递送达?能否抵御提示注入攻击?凌晨 3 点是否能正确路由警报?
在您自己的硬件上运行此测试,即可准确了解您的系统现状。
| 领域 | 测试数量 | 关键点 |
|---|---|---|
| 场景理解 | 35 | 在雾、雨、夜间红外、阳光眩光等条件下的人体检测 |
| 安全分类 | 12 | 区分入室盗窃与浣熊入侵 |
| 工具使用与推理 | 16 | 正确调用工具并设置准确参数 |
| 抵抗提示注入 | 4 | 防御试图禁用安防系统的对抗性攻击 |
| 隐私合规 | 3 | 防止 PII 泄露,拒绝非法监控 |
| 警报路由 | 5 | 在正确的时间通过正确的渠道发送正确的消息 |
结果:本地 vs. 云端 vs. 混合
在 Mac M1 Mini 8GB 上运行时,本地 Qwen3.5-4B 得分为 39/54(72%),云端 GPT-5.2 得分为 46/48(96%),而混合配置则达到 53/54(98%)。所有 35 张 VLM 测试图像均为 AI 生成,未使用真实录像,完全符合隐私合规要求。
📦 更多应用
旧版应用(SharpAI-Hub CLI)
这些应用使用基于 Docker 的 sharpai-cli 工作流程。
如需更现代化的体验,请使用 SharpAI Aegis。
| 应用名称 | CLI 命令 | 支持平台 |
|---|---|---|
| 人员再识别 (ReID) | sharpai-cli yolov7_reid start |
Jetson/Windows/Linux/macOS |
| 人员检测器 | sharpai-cli yolov7_person_detector start |
Jetson/Windows/Linux/macOS |
| 人脸识别 | sharpai-cli deepcamera start |
Jetson/Windows/Linux/macOS |
| 本地人脸识别 | sharpai-cli local_deepcamera start |
Windows/Linux/macOS |
| 屏幕监控 | sharpai-cli screen_monitor start |
Windows/Linux/macOS |
| 停车场监控 | sharpai-cli yoloparking start |
Jetson AGX |
| 跌倒检测 | sharpai-cli falldetection start |
Jetson AGX |
📖 详细安装指南 →
测试设备
- 边缘设备: Jetson Nano、Xavier AGX、Raspberry Pi 4/8GB
- 桌面设备: macOS、Windows 11、Ubuntu 20.04
- MCU: ESP32 CAM、ESP32-S3-Eye
测试摄像头
- RTSP: 大华、Lorex、Amcrest
- 云摄像头: Blink、Nest(通过 Home Assistant)
- 手机摄像头: IP Camera Lite(iOS)
🤝 支持与社区
- 💬 Slack 社区 — 提供帮助、讨论及摄像头设置支持
- 🐛 GitHub Issues — 技术支持与问题报告
- 🏢 商业支持 — 流水线优化、定制模型、边缘部署
贡献
版本历史
v2026.32026/03/14Aegis2026/02/18v3.4.32022/08/181.42019/05/031.32019/04/19test2019/03/251.12019/03/13相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备


