TinyLLaVA_Factory

GitHub
976 99 中等 1 次阅读 昨天Apache-2.0语言模型开发框架其他
AI 解读 由 AI 自动生成,仅供参考

TinyLLaVA_Factory 是一个专为构建小规模大型多模态模型(LMM)设计的开源框架。它旨在解决当前多模态模型开发中代码复杂、复现困难以及定制门槛高的问题,让开发者能够以更少的代码量和更低的出错风险,快速搭建并训练属于自己的多模态 AI 模型。

该工具非常适合人工智能研究人员、算法工程师以及对多模态技术感兴趣的开发者使用。其核心优势在于高度模块化的架构设计,用户像搭积木一样灵活组合不同的组件:支持 OpenELM、Phi、Qwen 等多种轻量级大语言模型,兼容 CLIP、SigLIP 等视觉编码器,并提供 MLP、Qformer 等多种连接器选项。此外,它还集成了 LoRA、QLoRA 等前沿微调策略,显著降低了训练资源需求。

值得一提的是,TinyLLaVA_Factory 在性能表现上颇具竞争力,其最佳模型仅在 3.1B 参数量级下,整体效果便超越了部分 7B 规模的同类模型。无论是用于学术研究验证新想法,还是进行高效的项目原型开发,TinyLLaVA_Factory 都提供了一个简洁、可扩展且易于复现的理想平台。

使用场景

一家初创教育科技公司希望为视障学生开发一款能实时描述课本插图并回答相关问题的移动端辅助应用,但受限于服务器成本和延迟要求,必须使用轻量级模型。

没有 TinyLLaVA_Factory 时

  • 选型试错成本极高:团队需手动拼接不同规模的视觉编码器(如 CLIP)与语言模型(如 TinyLlama),编写大量胶水代码,稍有不慎就会导致维度不匹配或训练崩溃。
  • 性能与体积难以平衡:直接套用现有的 7B 参数模型会导致移动端推理延迟过高,而自行裁剪小模型又往往造成图像理解能力断崖式下跌,无法准确识别复杂图表。
  • 微调策略实施困难:想要针对教育场景数据进行高效微调(如 LoRA),需要从头搭建复杂的训练流水线,复现前沿论文中的冻结层或部分参数更新策略耗时数周。
  • 可解释性缺失:当模型错误描述图片时,开发人员缺乏内置工具来可视化注意力机制,难以定位是视觉特征提取出错还是语言生成逻辑偏差。

使用 TinyLLaVA_Factory 后

  • 模块化快速组装:利用其预置的模块化代码库,开发者像搭积木一样迅速组合 Phi-2 语言模型与 SigLIP 视觉塔,几行配置即可构建出专有的 3.1B 多模态模型,大幅减少编码错误。
  • 小模型大智慧:直接调用经过验证的架构,在仅 3.1B 参数量下实现了超越传统 7B 模型(如 LLaVA-1.5)的图像理解精度,完美适配移动端低延迟需求。
  • 灵活高效的训练:内置支持 QLoRA 及部分参数微调策略,团队仅需少量显卡资源即可在短时间内完成针对教材插图的定制化训练,快速迭代模型效果。
  • 直观的错误诊断:借助集成的可视化工具,开发人员能清晰看到模型关注图片的哪些区域,迅速修正了模型对几何图形识别不准的问题,提升了产品可靠性。

TinyLLaVA_Factory 通过高度模块化的设计,让开发者能以极低的代码成本构建出兼具高性能与轻量级的多模态模型,真正实现了“小身材,大能量”。

运行环境要求

操作系统
  • Linux
GPU

需要 NVIDIA GPU(依赖 flash-attn),具体显存需求未说明,但需支持 Flash Attention 2.5.7

内存

未说明

依赖
notes官方强烈建议从头创建 conda 环境;必须安装特定版本的 flash-attn (2.5.7) 且需禁用构建隔离 (--no-build-isolation);该工具专注于小规模多模态大模型,支持多种 LLM(如 Phi, Qwen, Gemma)和视觉编码器(如 SigLIP, CLIP)的组合;训练时需注意全局批大小和学习率的超参数设置。
python3.10
torch
flash-attn==2.5.7
transformers
accelerate
peft
TinyLLaVA_Factory hero image

快速开始

TinyLLaVA工厂

hf_space arXiv arXivLicense Doc Demo

architecture

🎉 新闻

🔥 要点

  • 我们最好的模型,TinyLLaVA-Phi-2-SigLIP-3.1B,在整体性能上优于现有的7B模型,如 LLaVA-1.5 和 Qwen-VL。

  • TinyLLaVA工厂是一个开源的模块化代码库,专为小型多模态模型(LMMs)设计,基于 PyTorch 和 HuggingFace 实现,注重代码实现的简洁性、新功能的可扩展性以及训练结果的可重复性。

  • 使用 TinyLLaVA工厂,您可以以更少的编码工作和更少的错误来定制您自己的大型多模态模型。

  • TinyLLaVA工厂集成了多种前沿模型和方法。

    • LLM 目前支持 OpenELMTinyLlamaStableLMQwenGemmaPhi

    • 视觉塔目前支持 CLIPSigLIPDino 以及 CLIP 和 Dino 的组合

    • 连接器目前支持 MLPQformerResampler

    • 训练配方目前支持 冻结/完全/部分微调 以及 LoRA/QLoRA 微调

目录

安装与要求

请注意,我们的环境要求与 LLaVA 的环境要求不同。我们强烈建议您按照以下步骤从头创建环境。

  1. 克隆此仓库并进入文件夹
git clone https://github.com/TinyLLaVA/TinyLLaVA_Factory.git
cd TinyLLaVA_Factory
  1. 创建一个 conda 环境,激活它并安装包
conda create -n tinyllava_factory python=3.10 -y
conda activate tinyllava_factory
pip install --upgrade pip  # 启用 PEP 660 支持
pip install -e .
  1. 安装额外的包
pip install flash-attn==2.5.7 --no-build-isolation

升级到最新代码库

git pull
pip install -e .

开始使用

1. 数据准备

请参阅我们 文档 中的 数据准备 部分。

2. 训练

这里有一个使用 Phi-2 训练 LMM 的示例。

  • scripts/train/train_phi.sh 中将数据路径替换为您自己的路径
  • scripts/train/pretrain.sh 中将 output_dir 替换为您自己的路径
  • scripts/train/finetune.sh 中将 pretrained_model_pathoutput_dir 替换为您自己的路径
  • scripts/train/pretrain.shscripts/train/finetune.sh 中调整您的 GPU ID(localhost)以及 per_device_train_batch_size
bash scripts/train/train_phi.sh

以下是预训练和微调中使用的重要超参数。

训练阶段 全局批量大小 学习率 conv_version
预训练 256 1e-3 pretrain
微调 128 2e-5 phi

提示:

全局批量大小 = GPU 数量 * per_device_train_batch_size * gradient_accumulation_steps,我们建议您在对模型进行 LoRA 微调之外,始终将全局批量大小和学习率保持在上述水平。

conv_version 是一个用于为不同 LLM 选择不同聊天模板的超参数。在预训练阶段,所有 LLM 的 conv_version 都相同,使用 pretrain。而在微调阶段,我们使用:

phi 用于 Phi-2、StableLM、Qwen-1.5

llama 用于 TinyLlama、OpenELM

gemma 用于 Gemma

3. 评估

请参阅我们 文档 中的 评估 部分。

模型库

训练好的模型

这些模型使用 TinyLLaVA Factory 进行训练。

模型性能

VT(HF 路径) LLM(HF 路径) 配方 VQA-v2 GQA SQA-image TextVQA MM-Vet POPE MME MMMU-val
openai/clip-vit-large-patch14-336 apple/OpenELM-450M-Instruct 基础 69.5 52.1 50.6 40.4 20.0 83.6 1052.9 23.9
google/siglip-so400m-patch14-384 apple/OpenELM-450M-Instruct 基础 71.7 53.9 54.1 44.0 20.0 85.4 1118.8 24.0
google/siglip-so400m-patch14-384 Qwen/Qwen2-0.5B 基础 72.3 55.8 60.1 45.2 19.5 86.6 1153.0 29.7
google/siglip-so400m-patch14-384 Qwen/Qwen2.5-0.5B 基础 75.3 59.5 60.3 48.3 23.9 86.1 1253.0 33.3
google/siglip-so400m-patch14-384 Qwen/Qwen2.5-3B 基础 79.4 62.5 74.1 58.3 34.8 87.4 1438.7 39.9
openai/clip-vit-large-patch14-336 TinyLlama/TinyLlama-1.1B-Chat-v1.0 基础 73.7 58.0 59.9 46.3 23.2 85.5 1284.6 27.9
google/siglip-so400m-patch14-384 TinyLlama/TinyLlama-1.1B-Chat-v1.0 基础 75.5 58.6 64.0 49.6 23.5 86.3 1256.5 28.3
openai/clip-vit-large-patch14-336 stabilityai/stablelm-2-zephyr-1_6b 基础 75.9 59.5 64.6 50.5 27.3 86.1 1368.1 31.8
google/siglip-so400m-patch14-384 stabilityai/stablelm-2-zephyr-1_6b 基础 78.2 60.7 66.7 56.0 29.4 86.3 1319.3 32.6
google/siglip-so400m-patch14-384 google/gemma-2b-it 基础 78.4 61.6 64.4 53.6 26.9 86.4 1339.0 31.7
openai/clip-vit-large-patch14-336 microsoft/phi-2 基础 76.8 59.4 71.2 53.4 31.7 86.8 1448.6 36.3
google/siglip-so400m-patch14-384 microsoft/phi-2 基础 79.2 61.6 71.9 57.4 35.0 87.2 1462.4 38.2
google/siglip-so400m-patch14-384 microsoft/phi-2 基础&lora 77.6 59.7 71.6 53.8 33.3 87.9 1413.2 35.6
google/siglip-so400m-patch14-384 microsoft/phi-2 共享 80.1 62.1 73.0 60.3 37.5 87.2 1466.4 38.4

旧版模型

这些模型使用旧代码库 TinyLLaVABench 进行训练。

如果您有使用我们旧代码库 TinyLLaVABench 训练的模型,并且仍然希望使用它们,我们提供了一个 TinyLLaVA-3.1B 的示例,说明如何使用旧版模型。

旧版模型使用示例
from tinyllava.eval.run_tiny_llava import eval_model
from tinyllava.model.convert_legecy_weights_to_tinyllavafactory import *

model = convert_legecy_weights_to_tinyllavafactory('bczhou/TinyLLaVA-3.1B')

prompt = "What are the things I should be cautious about when I visit here?"
image_file = "https://llava-vl.github.io/static/images/view.jpg"

args = type('Args', (), {
    "model_path": None,
    "model": model,
    "query": prompt,
    "conv_mode": "phi", # 与训练阶段的 conv_version 相同。不同的 LLM 有不同的 conv_mode/conv_version,请根据实际情况替换。
    "image_file": image_file,
    "sep": ",",
    "temperature": 0,
    "top_p": None,
    "num_beams": 1,
    "max_new_tokens": 512
})()

eval_model(args)

"""
输出: 
When visiting this serene lakeside location with a wooden dock, there are a few things to be cautious about. First, ensure that the dock is stable and secure before stepping onto it, as it might be slippery or wet, especially if it's a wooden structure. Second, be mindful of the surrounding water, as it can be deep or have hidden obstacles, such as rocks or debris, that could pose a risk. Additionally, be aware of the weather conditions, as sudden changes in weather can make the area more dangerous. Lastly, respect the natural environment and wildlife, and avoid littering or disturbing the ecosystem.
"""

在本地启动演示

Gradio Web 演示

通过运行以下命令启动本地 Web 演示:

python tinyllava/serve/app.py --model-path tinyllava/TinyLLaVA-Phi-2-SigLIP-3.1B

CLI 推理

我们还支持使用 CLI 进行推理。要使用我们的模型,请运行:

python -m tinyllava.serve.cli \
   --model-path tinyllava/TinyLLaVA-Phi-2-SigLIP-3.1B \
   --image-file "./tinyllava/serve/examples/extreme_ironing.jpg" 

快速推理脚本

如果您想在本地运行自己训练或我们提供的模型,这里有一个示例。

使用您自己训练的模型或从 HuggingFace 下载的模型进行推理
from tinyllava.eval.run_tiny_llava import eval_model

model_path = "/绝对路径/到/您的/模型/"
prompt = "当我访问这里时,有哪些事情需要特别注意?"
image_file = "https://llava-vl.github.io/static/images/view.jpg"
conv_mode = "phi" # 或 llama、gemma 等

args = type('Args', (), {
    "model_path": model_path,
    "model": None,
    "query": prompt,
    "conv_mode": conv_mode,
    "image_file": image_file,
    "sep": ",",
    "temperature": 0,
    "top_p": None,
    "num_beams": 1,
    "max_new_tokens": 512
})()

eval_model(args)
使用我们用 huggingface transformers 训练的模型进行推理
from transformers import AutoTokenizer, AutoModelForCausalLM

hf_path = 'tinyllava/TinyLLaVA-Phi-2-SigLIP-3.1B'
model = AutoModelForCausalLM.from_pretrained(hf_path, trust_remote_code=True)
model.cuda()
config = model.config
tokenizer = AutoTokenizer.from_pretrained(hf_path, use_fast=False, model_max_length = config.tokenizer_model_max_length,padding_side = config.tokenizer_padding_side)
prompt="这是什么?"
image_url="http://images.cocodataset.org/val2017/000000039769.jpg"
output_text, genertaion_time = model.chat(prompt=prompt, image=image_url, tokenizer=tokenizer)

print('模型输出:', output_text)
print('运行时间:', genertaion_time)

自定义微调

如果您想使用自己的数据集对 TinyLLaVA 进行微调,请参阅这里

定制您自己的大型多模态模型

LLM

如果您想自行添加一个新的 LLM,您需要在 tinyllava/data/template/tinyllava/model/llm/ 文件夹下创建两个文件:一个用于聊天模板,另一个用于语言模型。

以下是以添加 Gemma 模型为例。

首先,创建 tinyllava/data/template/gemma_template.py,该文件将在微调阶段使用。

from dataclasses import dataclass
from typing import TYPE_CHECKING, Dict, List, Optional, Sequence, Tuple, Union
from packaging import version

from .formatter import EmptyFormatter, StringFormatter
from .base import Template
from .formatter import Formatter
from . import register_template
from ...utils.constants import *

from transformers import PreTrainedTokenizer
import torch
import tokenizers

    
system = "一位好奇的用户与人工智能助手之间的对话。助手会针对用户的问题给出有帮助、详细且礼貌的回答。"

@register_template('gemma') # 使 TemplateFactory 能够通过字符串 ('gemma') 获取所添加的模板。
@dataclass
class GemmaTemplate(Template):
    format_image_token: "Formatter" = StringFormatter(slot="<image>\n{{content}}")
    format_user: "Formatter" = StringFormatter(slot="USER" + ": " + "{{content}}" + " ")
    format_assistant: "Formatter" = StringFormatter(slot="ASSISTANT" + ": " + "{{content}}" + "<eos>") # 根据您选择的分词器进行修改
    system: "Formatter" = EmptyFormatter(slot=system+" ")
    separator: "Formatter" = EmptyFormatter(slot=[' ASSISTANT: ', '<eos>']) # 根据您选择的分词器进行修改

    def _make_masks(self, labels, tokenizer, sep, eos_token_length, rounds):
        # 您的代码在这里
        return labels, cur_len

提示:

请确保 _make_masks 函数返回的 labels 遵循以下格式:答案和 EOS 标记 ID 不被掩码,其他标记则用 -100 掩码。

其次,创建 tinyllava/model/llm/gemma.py

from transformers import GemmaForCausalLM, AutoTokenizer
# 您想要添加的 LLM 及其对应的分词器。

from . import register_llm

# 添加 GemmaForCausalLM 及其对应的分词器,并处理特殊标记。
@register_llm('gemma') # 使 LLMFactory 能够通过字符串 ('gemma') 获取所添加的 LLM。
def return_gemmaclass(): 
    def tokenizer_and_post_load(tokenizer):
        tokenizer.pad_token = tokenizer.unk_token
        return tokenizer
    return (GemmaForCausalLM, (AutoTokenizer, tokenizer_and_post_load))

最后,创建 scripts/train/train_gemma.sh,并指定相应的 LLM_VERSIONCONV_VERSION

视觉塔

如果您想添加一个新的视觉塔,您需要实现一个新的视觉塔类,该类应继承自基类 VisionTower。以下是 MoF 视觉塔的示例。

首先,创建 tinyllava/model/vision_tower/mof.py

@register_vision_tower('mof')      
class MoFVisionTower(VisionTower):
    def __init__(self, cfg):
        super().__init__(cfg)

        self._vision_tower = MoF(cfg)
        self._image_processor = # 您的图像处理器
  
    def _load_model(self, vision_tower_name, **kwargs):
        # 您的代码在这里,确保您的模型能够通过 Hugging Face 或 PyTorch 加载方式正确地从预训练参数中加载

    def forward(self, x, **kwargs):
        # 您的代码在这里

然后,根据相应的 VT_VERSION 修改您的训练脚本。

连接器

如果您想添加一个新的连接器,您需要实现一个新的连接器类,该类应继承自基类 Connector。以下是线性连接器的示例。

首先,创建 tinyllava/model/connector/linear.py

import torch.nn as nn

from . import register_connector
from .base import Connector
    
@register_connector('linear') # 使 ConnectorMFactory 能够通过字符串 ('linear') 获取所添加的连接器。     
class LinearConnector(Connector):
    def __init__(self, config):
        super().__init__()
        self._connector =  nn.Linear(config.vision_hidden_size, config.hidden_size) # 定义您的连接器模型

然后,根据相应的 CN_VERSION 修改您的训练脚本。

致谢

我们特别感谢 Lei Zhao、Luche Wang、Kaijun Luo 和 Junchen Wang 构建了演示

联系方式

如果您有任何问题,欢迎随时发起 Issue 或通过微信(微信号:TinyLLaVA)联系我们。

✏ 引用

如果您在研究中发现我们的论文和代码很有用,请考虑给项目点个赞 :star: 并引用我们 :pencil:。

@misc{zhou2024tinyllava,
      title={TinyLLaVA:小型多模态大模型框架}, 
      author={周百川、胡颖、翁曦、贾俊龙、罗杰、刘希恩、吴继、黄磊},
      year={2024},
      eprint={2402.14289},
      archivePrefix={arXiv},
      primaryClass={cs.LG}
}
@article{jia2024tinyllava,
  title={TinyLLaVA 工厂:面向小型多模态大模型的模块化代码库},
  author={贾俊龙、胡颖、翁曦、史一鸣、李淼、张兴建、周百川、刘子宇、罗杰、黄磊、吴继},
  journal={arXiv 预印本 arXiv:2405.11788},
  year={2024}
}

❤️ 社区贡献

  • 我们的代码库基于 LLaVA 项目构建。非常出色的工作!
  • 我们项目使用了来自 ShareGPT4V 项目的数据。非常出色的工作!

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

153.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|3天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|3天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架