DAMO-YOLO
DAMO-YOLO 是由阿里巴巴达摩院小模型团队研发的一款高性能目标检测算法,旨在在保持极快推理速度的同时,实现超越现有 YOLO 系列的检测精度。它主要解决了传统检测模型难以兼顾实时性与准确率的痛点,特别适用于对延迟敏感且要求高精度的工业落地场景。
这款工具非常适合计算机视觉开发者、算法研究人员以及需要快速部署检测应用的企业工程师使用。无论是进行学术研究,还是开发安防监控、工业质检等实际产品,DAMO-YOLO 都提供了从训练到部署的完整工具链。
其核心技术亮点在于融合了多项创新技术:采用神经架构搜索(NAS)自动设计更高效的骨干网络;引入可重参数化的广义特征金字塔(RepGFPN)以增强特征融合效率;利用轻量级检测头配合对齐的标签分配策略(AlignedOTA)提升训练效果;并结合知识蒸馏技术进一步挖掘模型潜力。此外,DAMO-YOLO 还发布了涵盖人头、安全帽、口罩等多种场景的行业专用模型,并支持 TensorRT 量化加速,帮助用户轻松实现毫秒级的实时检测性能。
使用场景
某智慧工地安全团队需要在边缘设备上实时监测工人是否佩戴安全帽,以预防高空作业事故。
没有 DAMO-YOLO 时
- 检测速度慢:传统模型在低算力边缘盒子上推理延迟高,无法达到实时预警要求,导致危险行为漏检。
- 小目标识别差:远距离或遮挡情况下的安全帽属于小目标,现有模型检出率低,误报和漏报频发。
- 部署成本高:为了维持精度不得不使用昂贵的 GPU 服务器,增加了硬件采购和维护预算。
- 定制训练难:缺乏高效的标签分配策略和蒸馏技术,针对特定工地场景微调模型时收敛慢且效果提升不明显。
使用 DAMO-YOLO 后
- 极致实时响应:利用 DAMO-YOLO-Nano 系列模型,在 Intel CPU 上仅需几毫秒即可完成推理,轻松实现高清视频流的实时分析。
- 精准捕捉细节:得益于 NAS 搜索 backbone 和 AlignedOTA 标签分配技术,对远距离、小尺寸安全帽的识别精度(mAP)显著提升。
- 低成本落地:模型在保持高精度的同时大幅降低计算量(Flops),可直接部署在廉价的边缘设备甚至嵌入式芯片上。
- 高效场景适配:借助内置的知识蒸馏增强和高效训练策略,团队能快速基于少量工地数据完成模型微调,迅速上线专用检测器。
DAMO-YOLO 通过平衡速度与精度,让低成本边缘设备也能具备工业级的高性能目标检测能力。
运行环境要求
- 未说明
- 训练和高效推理建议使用 NVIDIA GPU(表格数据基于 T4 GPU 测试)
- 支持 Intel CPU 实时推理(需 OpenVINO)
- 支持 TensorRT FP16/Int8 加速
未说明

快速开始
英语 | 简体中文
简介

欢迎来到 DAMO-YOLO!这是一种由阿里巴巴达摩院数据分析与智能实验室的TinyML团队开发的快速且精确的目标检测方法。它在性能上超越了当前最先进的YOLO系列模型。DAMO-YOLO基于YOLO进行了扩展,并引入了一些新技术,包括神经架构搜索(NAS)骨干网络、高效的重参数化广义FPN(RepGFPN)、带有AlignedOTA标签分配的轻量级头部以及蒸馏增强等。更多详细信息,请参阅我们的 Arxiv报告。此外,这里不仅提供强大的模型,还包含高效的训练策略以及从训练到部署的完整工具链。

更新
- [2023年4月12日:我们发布了DAMO-YOLO v0.3.1!]

- 新增701类别的DAMO-YOLO-S模型,覆盖更多应用场景,并可作为高质量的预训练模型,以提升下游任务的性能。
- 升级了DAMO-YOLO-Nano系列模型,仅需1.56/3.69/6.04 FLOPs即可达到32.3/38.2/40.5 mAP,并在Intel CPU上以4.08/5.05/6.69毫秒的延迟实时运行。
- 新增DAMO-YOLO-L模型,在T4 GPU上仅需7.95毫秒延迟即可达到51.9 mAP。
- [2023年3月13日:我们发布了DAMO-YOLO v0.3.0!]
- 发布DAMO-YOLO-Nano,仅需3.02 GFLOPs即可达到35.1 mAP。
- 升级了优化器构建器和配置文件,用户现在可以使用PyTorch支持的任何优化器。
- 优化了数据加载流程和训练参数,显著提升了DAMO-YOLO各模型的性能,例如DAMO-YOLO-T/S/M的mAP分别从43.0/46.8/50.0提升至43.6/47.7/50.2。
- [2023年2月15日:第三届反无人机挑战赛基线模型。]
- 欢迎参加CVPR2023上的第三届反无人机挑战赛。该挑战赛提供了由DAMO-YOLO训练的基线模型,可在DamoYolo_Anti-UAV-23_S中找到。
- [2023年1月7日:我们发布了DAMO-YOLO v0.2.1!]
- 增加了TensorRT Int8量化教程,在仅损失0.3%精度的情况下实现了19%的速度提升。
- 增加了通用演示工具,支持基于TensorRT/Onnx/Torch的视频/图像/摄像头推理。
- 增加了更多行业应用模型,包括人体检测、安全帽检测、口罩检测以及香烟检测。
- 增加了第三方资源,包括DAMO-YOLO代码解读、自定义数据集微调实战示例等。
- [2022年12月15日:我们发布了DAMO-YOLO v0.1.1!]
- 增加了详细的自定义数据集微调教程。
- 解决了因无标注数据导致的卡顿问题(如 ISSUE#30)。欢迎随时联系我们,我们24小时在线为您服务。
在线演示
- DAMO-YOLO-T、DAMO-YOLO-S、DAMO-YOLO-M已集成至ModelScope平台。现在可以在ModelScope上进行训练!快来体验DAMO-YOLO吧,ModelScope将为您提供免费的GPU资源。
模型库
通用模型
| 模型 | 尺寸 | mAPval 0.5:0.95 |
T4 上的延迟 TRT-FP16-BS1 |
FLOPs (G) |
参数量 (M) |
阿里云下载 | Google 下载 |
|---|---|---|---|---|---|---|---|
| DAMO-YOLO-T | 640 | 42.0 | 2.78 | 18.1 | 8.5 | torch,onnx | -- |
| DAMO-YOLO-T* | 640 | 43.6 | 2.78 | 18.1 | 8.5 | torch,onnx | -- |
| DAMO-YOLO-S | 640 | 46.0 | 3.83 | 37.8 | 16.3 | torch,onnx | -- |
| DAMO-YOLO-S* | 640 | 47.7 | 3.83 | 37.8 | 16.3 | torch,onnx | -- |
| DAMO-YOLO-M | 640 | 49.2 | 5.62 | 61.8 | 28.2 | torch,onnx | -- |
| DAMO-YOLO-M* | 640 | 50.2 | 5.62 | 61.8 | 28.2 | torch,onnx | -- |
| DAMO-YOLO-L | 640 | 50.8 | 7.95 | 97.3 | 42.1 | torch,onnx | -- |
| DAMO-YOLO-L* | 640 | 51.9 | 7.95 | 97.3 | 42.1 | torch,onnx | -- |
旧版模型
| 模型 | 尺寸 | mAPval 0.5:0.95 |
T4 上的延迟 TRT-FP16-BS1 |
FLOPs (G) |
参数量 (M) |
阿里云下载 | Google 下载 |
|---|---|---|---|---|---|---|---|
| DAMO-YOLO-T | 640 | 41.8 | 2.78 | 18.1 | 8.5 | torch,onnx | torch,onnx |
| DAMO-YOLO-T* | 640 | 43.0 | 2.78 | 18.1 | 8.5 | torch,onnx | torch,onnx |
| DAMO-YOLO-S | 640 | 45.6 | 3.83 | 37.8 | 16.3 | torch,onnx | torch,onnx |
| DAMO-YOLO-S* | 640 | 46.8 | 3.83 | 37.8 | 16.3 | torch,onnx | torch,onnx |
| DAMO-YOLO-M | 640 | 48.7 | 5.62 | 61.8 | 28.2 | torch,onnx | torch,onnx |
| DAMO-YOLO-M* | 640 | 50.0 | 5.62 | 61.8 | 28.2 | torch,onnx | torch,onnx |
- 我们报告了模型在 COCO2017 验证集上的 mAP,使用多类别 NMS。
- 本表中的延迟是在不进行后处理(NMS)的情况下测量的。
- * 表示通过蒸馏训练的模型。
- 我们以 S 为教师模型来蒸馏 T,以 M 为教师模型来蒸馏 S,以 L 为教师模型来蒸馏 M,而 L 则是通过自身蒸馏得到的。
轻量级模型
| 模型 | 尺寸 | mAPval 0.5:0.95 |
CPU延迟(ms) OpenVino-Intel8163 |
FLOPs (G) |
参数量 (M) |
阿里云下载 | Google下载 |
|---|---|---|---|---|---|---|---|
| DAMO-YOLO-Ns | 416 | 32.3 | 4.08 | 1.56 | 1.41 | torch,onnx | -- |
| DAMO-YOLO-Nm | 416 | 38.2 | 5.05 | 3.69 | 2.71 | torch,onnx | -- |
| DAMO-YOLO-Nl | 416 | 40.5 | 6.69 | 6.04 | 5.69 | torch,onnx | -- |
- 我们报告了模型在COCO2017验证集上的mAP,使用多类别NMS。
- 表中的延迟是在不进行后处理的情况下测量的,遵循picodet的标准。
- 延迟评估基于OpenVINO-2022.3.0,使用的命令如下:
# onnx导出,启用--benchmark以忽略后处理 python tools/converter.py -f configs/damoyolo_tinynasL18_Ns.py -c ../damoyolo_tinynasL18_Ns.pth --batch_size 1 --img_size 416 --benchmark # 模型转换 mo --input_model damoyolo_tinynasL18_Ns.onnx --data_type FP16 # 延迟基准测试 ./benchmark_app -m damoyolo_tinynasL18_Ns.xml -i ./assets/dog.jpg -api sync -d CPU -b 1 -hint latency
701类DAMO-YOLO模型
我们提供了具有701个类别的DAMO-YOLO-S模型,用于通用目标检测。该模型已在包含COCO、Objects365和OpenImage在内的大型数据集上进行训练。此模型也可用作下游任务的预训练模型,使您能够轻松获得更好的性能。
| 预训练模型 | 下游任务 | mAPval 0.5:0.95 |
阿里云下载 | Google下载 |
|---|---|---|---|---|
| 80类-DAMO-YOLO-S | VisDrone | 24.6 | torch,onnx | - |
| 701类-DAMO-YOLO-S | VisDrone | 26.6 | torch,onnx | - |
- 注:可下载的模型是基于701类数据集的预训练模型。我们展示了VisDrone的结果,以证明我们的预训练模型可以提升下游任务的性能。

快速入门
安装
步骤1. 安装DAMO-YOLO。
git clone https://github.com/tinyvision/damo-yolo.git
cd DAMO-YOLO/
conda create -n DAMO-YOLO python=3.7 -y
conda activate DAMO-YOLO
conda install pytorch==1.7.0 torchvision==0.8.0 torchaudio==0.7.0 cudatoolkit=10.2 -c pytorch
pip install -r requirements.txt
export PYTHONPATH=$PWD:$PYTHONPATH
步骤2. 安装cocotools。
pip install cython;
pip install git+https://github.com/cocodataset/cocoapi.git#subdirectory=PythonAPI # 对于Linux
pip install git+https://github.com/philferriere/cocoapi.git#subdirectory=PythonAPI # 对于Windows
演示
步骤1. 从基准表中下载预训练的torch、onnx或tensorRT引擎,例如damoyolo_tinynasL25_S.pth、damoyolo_tinynasL25_S.onnx、damoyolo_tinynasL25_S.trt。
步骤2. 使用-f(配置文件名)指定检测器的配置,--path指定输入数据路径,支持图片、视频和摄像头。例如:
# 使用torch引擎处理图片
python tools/demo.py image -f ./configs/damoyolo_tinynasL25_S.py --engine ./damoyolo_tinynasL25_S.pth --conf 0.6 --infer_size 640 640 --device cuda --path ./assets/dog.jpg
# 使用onnx引擎处理视频
python tools/demo.py video -f ./configs/damoyolo_tinynasL25_S.py --engine ./damoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path your_video.mp4
# 使用tensorRT引擎处理摄像头
python tools/demo.py camera -f ./configs/damoyolo_tinynasL25_S.py --engine ./damoyolo_tinynasL25_S.trt --conf 0.6 --infer_size 640 640 --device cuda --camid 0
复现我们在COCO上的结果
步骤1. 准备COCO数据集
cd <DAMO-YOLO Home>
ln -s /path/to/your/coco ./datasets/coco
步骤2. 通过指定-f(配置文件名)复现我们在COCO上的结果
python -m torch.distributed.launch --nproc_per_node=8 tools/train.py -f configs/damoyolo_tinynasL25_S.py
在您的数据上微调
详情请参阅自定义数据集教程。
评估
python -m torch.distributed.launch --nproc_per_node=8 tools/eval.py -f configs/damoyolo_tinynasL25_S.py --ckpt /path/to/your/damoyolo_tinynasL25_S.pth
自定义tinynas骨干网络
步骤1. 如果您想自定义自己的骨干网络,请参考[DAMO-YOLO的MAE-NAS教程](https://github.com/alibaba/lightweight-neural-architecture-search/blob/main/scripts/damo-yolo/Tutorial_NAS_for_DAMO-YOLO_cn.md)。这是一份详细的教程,介绍如何在延迟/浮点运算次数的预算范围内获得最优的骨干网络。步骤2. 搜索过程完成后,您可以将结构文本替换到配置文件中。最后,只需将骨干名称设置为TinyNAS_res或TinyNAS_csp,即可得到您自定义的ResNet-like或CSPNet-like骨干。请注意TinyNAS_res和TinyNAS_csp之间out_indices的区别。
structure = self.read_structure('tinynas_customize.txt')
TinyNAS = { 'name'='TinyNAS_res', # ResNet-like Tinynas骨干
'out_indices': (2,4,5)}
TinyNAS = { 'name'='TinyNAS_csp', # CSPNet-like Tinynas骨干
'out_indices': (2,3,4)}
部署
安装
步骤1. 安装ONNX。
pip install onnx==1.8.1
pip install onnxruntime==1.8.0
pip install onnx-simplifier==0.3.5
步骤2. 安装CUDA、CuDNN、TensorRT和pyCUDA
2.1 CUDA
wget https://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda_10.2.89_440.33.01_linux.run
sudo sh cuda_10.2.89_440.33.01_linux.run
export PATH=$PATH:/usr/local/cuda-10.2/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-10.2/lib64
source ~/.bashrc
2.2 CuDNN
sudo cp cuda/include/* /usr/local/cuda/include/
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64/
sudo chmod a+r /usr/local/cuda/include/cudnn.h
sudo chmod a+r /usr/local/cuda/lib64/libcudnn*
2.3 TensorRT
cd TensorRT-7.2.1.6/python
pip install tensorrt-7.2.1.6-cp37-none-linux_x86_64.whl
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:TensorRT-7.2.1.6/lib
2.4 pycuda
pip install pycuda==2022.1
模型转换
目前我们支持trt_int8量化,您可以将trt_type指定为int8来导出int8的TensorRT引擎。您也可以尝试部分量化,在精度和延迟之间取得良好的平衡。更多详情请参阅partial_quantization。
步骤1:将PyTorch模型转换为ONNX或TensorRT引擎,输出文件将生成在./deploy目录下。end2end表示导出带有NMS的TensorRT;trt_eval表示在导出完成后,使用导出的TensorRT引擎在COCO_val数据集上进行评估。
# ONNX导出
python tools/converter.py -f configs/damoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640
# TensorRT导出
python tools/converter.py -f configs/damoyolo_tinynasL25_S.py -c damoyolo_tinynasL25_S.pth --batch_size 1 --img_size 640 --trt --end2end --trt_eval
步骤2:在COCO_val数据集上评估TensorRT引擎。end2end表示使用带NMS的TensorRT进行评估。
python tools/trt_eval.py -f configs/damoyolo_tinynasL25_S.py -trt deploy/damoyolo_tinynasL25_S_end2end_fp16_bs1.trt --batch_size 1 --img_size 640 --end2end
步骤3:ONNX或TensorRT引擎推理演示,并通过--path指定测试图像/视频。end2end表示使用带NMS的TensorRT进行推理。
# ONNX推理
python tools/demo.py image -f ./configs/damoyolo_tinynasL25_S.py --engine ./damoyolo_tinynasL25_S.onnx --conf 0.6 --infer_size 640 640 --device cuda --path ./assets/dog.jpg
# TensorRT推理
python tools/demo.py image -f ./configs/damoyolo_tinynasL25_S.py --engine ./deploy/damoyolo_tinynasL25_S_end2end_fp16_bs1.trt --conf 0.6 --infer_size 640 640 --device cuda --path ./assets/dog.jpg --end2end
行业应用模型:
我们提供了适用于实际场景的DAMO-YOLO模型,如下所示。更强大的模型即将推出,敬请期待。
| 人体检测 | 安全帽检测 | 头部检测 | 智能手机检测 |
|---|---|---|---|
![]() |
![]() |
![]() |
![]() |
| 口罩检测 | 香烟检测 | 交通标志检测 | NFL头盔检测 |
![]() |
![]() |
![]() |
![]() |
第三方资源
为了促进DAMO-YOLO用户之间的交流,我们在本节收集了一些第三方资源。如果您有关于DAMO-YOLO的原创内容,请随时联系xianzhe.xxz@alibaba-inc.com。
- DAMO-YOLO概述:幻灯片(中文 | 英文),视频(中文 | 英文)。
- DAMO-YOLO代码解读
- 自定义数据集微调实战示例
引用DAMO-YOLO
如果您在研究中使用了DAMO-YOLO,请使用以下BibTeX条目引用我们的工作:
@article{damoyolo,
title={DAMO-YOLO: A Report on Real-Time Object Detection Design},
author={Xianzhe Xu, Yiqi Jiang, Weihua Chen, Yilun Huang, Yuan Zhang and Xiuyu Sun},
journal={arXiv preprint arXiv:2211.15444v2},
year={2022},
}
@inproceedings{sun2022mae,
title={Mae-det: Revisiting maximum entropy principle in zero-shot nas for efficient object detection},
author={Sun, Zhenhong and Lin, Ming and Sun, Xiuyu and Tan, Zhiyu and Li, Hao and Jin, Rong},
booktitle={International Conference on Machine Learning},
pages={20810--20826},
year={2022},
organization={PMLR}
}
@inproceedings{jiang2022giraffedet,
title={GiraffeDet: A Heavy-Neck Paradigm for Object Detection},
author={yiqi jiang and Zhiyu Tan and Junyan Wang and Xiuyu Sun and Ming Lin and Hao Li},
booktitle={International Conference on Learning Representations},
year={2022},
}
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器







