sahi
SAHI(Slicing Aided Hyper Inference)是一款轻量级的视觉算法库,专为大规模目标检测与实例分割任务设计。在现实应用中,当处理高分辨率大图(如卫星遥感、医疗影像或工业质检图片)时,传统模型往往难以精准识别其中的微小目标,容易出现漏检或定位不准的情况。SAHI 通过独特的“切片推理”技术巧妙解决了这一难题:它将大图像智能切割成多个重叠的小片段分别进行检测,随后再将结果无缝合并,从而显著提升对小目标的识别精度。
该工具具有极强的兼容性,不绑定特定的深度学习框架,能够轻松集成 YOLO、MMDetection 等主流检测模型。除了核心推理功能,SAHI 还配备了交互式可视化界面和误差分析图表,帮助开发者直观地调试模型表现并优化效果。
SAHI 非常适合计算机视觉开发者、算法研究人员以及需要处理海量高清图像数据的工程师使用。无论是进行学术研究还是落地工业应用,只需几行代码即可调用其简洁的 API,高效完成从数据预处理到结果分析的全流程,是提升大图小目标检测能力的得力助手。
使用场景
某安防团队正在处理城市级监控视频,需要从数亿张高分辨率(如 4K/8K)的航拍或广角截图中自动识别远处的行人和车辆。
没有 sahi 时
- 小目标漏检严重:直接将整张大图输入模型,远处微小的行人因像素占比过低,被模型完全忽略,检出率不足 40%。
- 显存溢出崩溃:试图通过强行缩放图片来适配模型输入,导致图像细节模糊;若保持原图尺寸,则直接触发 GPU 显存溢出(OOM),程序频繁崩溃。
- 调试黑盒难优化:面对大量漏检数据,缺乏可视化的误差分析工具,开发人员只能盲目调整阈值,无法定位是切片策略问题还是模型本身缺陷。
- 推理速度不可控:为了兼顾精度尝试手动编写切片逻辑,代码耦合度高且推理耗时极长,无法满足实时性要求。
使用 sahi 后
- 精准捕获微小目标:利用 sahi 的切片辅助推理技术,将大图自动切割重叠处理,远处行人的检出率提升至 90% 以上,彻底解决小目标丢失问题。
- 资源消耗平稳可控:无需修改原有模型架构,sahi 在内存中高效管理切片队列,既避免了显存溢出,又保持了原生模型的推理流畅度。
- 可视化误差分析:直接调用内置的交互式 UI 和误差分析图表,直观看到哪些区域漏检,快速迭代优化切片参数,排查效率提升数倍。
- 框架无关即插即用:无论是 YOLO 系列还是 Mask R-CNN,只需几行代码即可接入 sahi,自动并行化处理大幅缩短了从开发到部署的周期。
sahi 通过智能切片技术,让现有检测模型在不重新训练的情况下,具备了在大规模高分辨率图像中精准识别微小目标的“超能力”。
运行环境要求
- 未说明
非必需(支持 CPU),若使用 GPU 需根据 PyTorch 版本匹配 CUDA(示例中提及 cu126, cu121)
未说明

快速开始
概述
SAHI 通过支持在大图像中检测小物体的 切片推理,帮助开发者克服目标检测中的现实挑战。它支持多种流行的检测模型,并提供易于使用的 API。
| 命令 | 描述 |
|---|---|
| predict | 使用任何 ultralytics / mmdet / huggingface / torchvision 模型执行切片或标准视频/图像预测 — 请参阅 CLI 指南 |
| predict-fiftyone | 使用任何受支持的模型执行切片或标准预测,并在 fiftyone 应用程序 中探索结果 — 了解更多 |
| coco slice | 自动切分 COCO 注释和图像文件 — 请参阅 切片工具 |
| coco fiftyone | 使用 fiftyone UI 按误检数量排序,探索您的 COCO 数据集上的多个预测结果 |
| coco evaluate | 对给定的预测和真实标签评估按类别划分的 COCO AP 和 AR — 请查看 COCO 工具 |
| coco analyse | 计算并导出多种错误分析图表 — 请参阅完整指南 |
| coco yolo | 自动将任何 COCO 数据集转换为 ultralytics 格式 |
社区认可
AI 工具认可
SAHI 的文档已被 indexed in Context7 MCP,为 AI 编码助手提供最新、特定于版本的代码示例和 API 参考。我们还提供一个遵循新兴 AI 可读文档标准的 llms.txt 文件。要将 SAHI 文档集成到您的 AI 开发工作流中,请查看 Context7 MCP 安装指南。
安装
基本安装
pip install sahi
详细安装(点击展开)
- 安装您所需的 PyTorch 和 torchvision 版本:
pip install torch==2.7.0 torchvision==0.22.0 --index-url https://download.pytorch.org/whl/cu126
(mmdet 支持需要 PyTorch 2.1.2):
pip install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu121
- 安装您所需的检测框架(ultralytics):
pip install ultralytics>=8.3.161
- 安装您所需的检测框架(huggingface):
pip install transformers>=4.49.0 timm
- 安装您所需的检测框架(yolov5):
pip install yolov5==7.0.14 sahi==0.11.21
- 安装您所需的检测框架(mmdet):
pip install mim
mim install mmdet==3.3.0
- 安装您所需的检测框架(roboflow):
pip install inference>=0.51.5 rfdetr>=1.6.2
快速入门
学习资源
| 资源 | 类型 |
|---|---|
| SAHI 简介 | 博文 |
| 2025 年视频教程 ⭐ | 视频 |
| 官方论文(ICIP 2022 口头报告) | 论文 |
| 预训练权重及 ICIP 2022 论文相关文件 | 基准测试 |
| 使用 FiftyOne 可视化和评估 SAHI 预测结果 | 博文 |
| 探索 SAHI – learnopencv.com | 文章 |
| Encord 解释的切片辅助超推理 | 文章 |
| 视频教程:SAHI 用于小目标检测 | 视频 |
| 卫星图像中的目标检测 | 博文 |
| COCO 数据集转换 | 博文 |
| Kaggle 笔记本 | 笔记本 |
| 错误分析图表与评估 ⭐ | 讨论 |
| 交互式结果可视化与检查 ⭐ | 讨论 |
| 视频推理支持 | 讨论 |
| 切片操作笔记本 | 笔记本 |
| 完整文档 | 文档 |
笔记本与演示
| 框架 | 笔记本 | 演示 |
|---|---|---|
| YOLO12 | — | |
| YOLO11 | — | |
| YOLO11-OBB | — | |
| Roboflow / RF-DETR | — | |
| RT-DETR v2 | — | |
| RT-DETR | — | |
| HuggingFace | — | |
| YOLOv5 | — | |
| MMDetection | — | |
| TorchVision | — | |
| YOLOX | — |
框架无关的切片/标准预测
有关使用 sahi predict 命令的详细信息,请参阅
CLI 文档,并探索
预测 API 以获取高级用法。
有关视频推理的详细信息,请参阅 视频推理教程。
错误分析图表与评估
详细信息请参阅 错误分析图表与评估。
交互式可视化与检查
探索 FiftyOne 集成,以实现交互式可视化和检查。
其他工具
请查阅全面的 COCO 工具指南,了解 YOLO 转换、数据集切片、子采样、过滤、合并和拆分等操作。更多关于切片工具的信息,可帮助您对图像和数据集的切片参数进行精细控制。
引用
如果您在工作中使用本软件包,请按以下格式引用:
@article{akyon2022sahi,
title={Slicing Aided Hyper Inference and Fine-tuning for Small Object Detection},
author={Akyon, Fatih Cagatay and Altinuc, Sinan Onur and Temizel, Alptekin},
journal={2022 IEEE International Conference on Image Processing (ICIP)},
doi={10.1109/ICIP46576.2022.9897990},
pages={966-970},
year={2022}
}
@software{obss2021sahi,
author = {Akyon, Fatih Cagatay and Cengiz, Cemil and Altinuc, Sinan Onur and Cavusoglu, Devrim and Sahin, Kadir and Eryuksel, Ogulcan},
title = {{SAHI: 用于大规模目标检测和实例分割的轻量级视觉库}},
month = nov,
year = 2021,
publisher = {Zenodo},
doi = {10.5281/zenodo.5718950},
url = {https://doi.org/10.5281/zenodo.5718950}
}
贡献
我们欢迎各类贡献!请参阅我们的贡献指南以开始参与。感谢所有贡献者 🙏!
版本历史
0.11.362025/09/280.11.352025/09/260.11.342025/08/310.11.332025/08/220.11.322025/08/020.11.312025/07/150.11.302025/07/080.11.292025/07/040.11.282025/07/010.11.272025/06/300.11.262025/06/260.11.252025/06/240.11.242025/06/220.11.232025/05/050.11.222025/03/090.11.212025/03/060.11.202024/12/160.11.192024/11/220.11.182024/07/100.11.162024/05/20相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器



