TencentPretrain

GitHub
1.1k 147 中等 1 次阅读 昨天NOASSERTION图像语言模型视频开发框架音频Agent
AI 解读 由 AI 自动生成,仅供参考

TencentPretrain 是腾讯开源的一款基于 PyTorch 的预训练框架,旨在简化从预训练到微调的全流程。它主要解决了人工智能领域中多模态数据(如文本、视觉、音频)处理复杂、模型复现困难以及大规模训练门槛高等痛点。

这款工具非常适合 AI 研究人员和开发者使用。无论是希望快速验证新算法的学术研究者,还是需要构建高性能应用的企业工程师,都能从中受益。TencentPretrain 继承了 UER toolkit 的优势并进行了多模态扩展,其核心亮点在于高度模块化的设计。它将模型拆解为嵌入层、编码器、解码器等独立组件,用户可以像搭积木一样自由组合,灵活构建定制化的预训练模型。

此外,TencentPretrain 具备出色的可扩展性,不仅支持 CPU、单卡及分布式训练,还集成了 DeepSpeed 以应对超大规模模型的训练需求。框架内置了丰富的“模型动物园”,提供多种已预训练好的模型供直接调用或二次开发,并在多项下游任务中取得了业界领先的效果。通过提供清晰的接口和详尽的文档,TencentPretrain 让复杂的预训练技术变得更加触手可及,帮助用户高效地探索人工智能的前沿应用。

使用场景

某电商公司的算法团队需要快速构建一个能理解商品图文描述的多模态情感分析系统,以精准挖掘用户评论中的潜在需求。

没有 TencentPretrain 时

  • 重复造轮子成本高:团队需从零编写 BERT、CLIP 等模型的预训练代码,难以保证复现官方论文的性能指标,调试耗时数周。
  • 多模态融合困难:文本与图像数据分别由不同框架处理,缺乏统一的模块化接口,导致跨模态特征对齐和联合训练极其复杂。
  • 资源适配灵活性差:面对海量商品数据,手动配置分布式训练或显存优化(如 DeepSpeed)门槛高,容易因显存溢出导致训练中断。
  • 模型选型盲目:缺乏内置的模型库(Model Zoo),团队无法直接调用针对不同任务优化过的预训练权重,只能盲目尝试基础模型。

使用 TencentPretrain 后

  • 开箱即用的复现能力:直接调用内置的 BERT 和 CLIP 模块,几行命令即可复现 SOTA 效果,将模型验证周期从数周缩短至几天。
  • 模块化构建多模态模型:利用其清晰的嵌入、编码器和目标模块接口,像搭积木一样快速组合文本与视觉组件,轻松实现图文联合预训练。
  • 弹性训练架构:原生支持单卡、分布式及 DeepSpeed 超大模型训练模式,自动适配现有算力资源,稳定处理亿级商品图文数据。
  • 精准模型匹配:直接从 Model Zoo 加载针对分类任务优化的预训练权重进行微调,显著提升了情感分析的准确率并赢得内部算法竞赛。

TencentPretrain 通过高度模块化和多模态支持,将复杂的预训练流程标准化,让团队能专注于业务逻辑而非底层架构搭建。

运行环境要求

操作系统
  • 未说明
GPU
  • 非必需(支持 CPU 模式)
  • 支持单卡及分布式多卡训练
  • 超大模型训练需 DeepSpeed
  • 视觉任务需 torchvision,音频任务需 torchaudio
内存

未说明

依赖
notes该工具支持文本、视觉和音频多模态预训练。基础运行仅需 PyTorch,但特定功能需额外依赖:如全词掩码需 jieba,序列标注 CRF 需 pytorch-crf,堆叠模型需 LightGBM 和 BayesianOptimization。预处理阶段建议使用多进程加速。
python>=3.6
torch>=1.1
six>=1.12.0
argparse
packaging
regex
TensorFlow (可选,用于模型转换)
SentencePiece (可选,用于分词)
DeepSpeed (可选,用于超大模型训练)
torchvision (可选,用于视觉模型)
torchaudio (可选,用于音频模型)
TencentPretrain hero image

快速开始

English | 中文

TencentPretrain: 腾讯预训练框架

预训练已成为人工智能技术的重要组成部分。TencentPretrain 是一个用于对不同模态数据(例如文本和视觉)进行预训练和微调的工具包。TencentPretrain 的特点是模块化设计,既便于使用现有的预训练模型,又为用户提供了进一步扩展的接口。借助 TencentPretrain,我们构建了一个包含多种性质预训练模型的模型库。TencentPretrain 继承了开源工具包 UER (https://github.com/dbiir/UER-py/),并将其扩展为一个多模态预训练框架。

完整文档:https://github.com/Tencent/TencentPretrain/wiki


目录


特性

TencentPretrain 具有以下特点:

  • 可复现性 TencentPretrain 已在多个数据集上进行了测试,其性能应与原始预训练模型实现(如 BERT、GPT-2、ELMo、T5、CLIP)一致。
  • 模型模块化 TencentPretrain 分为嵌入层、编码器、目标嵌入层(可选)、解码器(可选)和目标等部分。每个部分都实现了丰富的模块,清晰且稳健的接口使用户能够自由组合这些模块,以尽可能少的限制构建预训练模型。
  • 多模态 TencentPretrain 支持文本、视觉和音频等多种模态。
  • 模型训练 TencentPretrain 支持 CPU 模式、单 GPU 模式、分布式训练模式以及使用 DeepSpeed 进行超大规模模型训练。
  • 模型库 在 TencentPretrain 的帮助下,我们预训练并发布了多种性质的模型。合理选择预训练模型对于下游任务的性能至关重要。
  • SOTA 结果 TencentPretrain 支持全面的下游任务(如分类和机器阅读理解),并提供了多项竞赛的优胜方案。
  • 丰富功能 TencentPretrain 提供了与预训练相关的丰富功能,例如特征提取器和文本生成等。

需求

  • Python >= 3.6
  • torch >= 1.1
  • six >= 1.12.0
  • argparse
  • packaging
  • regex
  • 对于预训练模型的转换(与 TensorFlow 相关),您需要 TensorFlow
  • 对于使用 SentencePiece 模型进行分词,您需要 SentencePiece
  • 对于开发堆叠模型,您需要 LightGBM 和 BayesianOptimization
  • 对于使用全词掩码进行预训练,您需要像 jieba 这样的分词工具
  • 对于在序列标注下游任务中使用 CRF,您需要 pytorch-crf
  • 对于超大规模模型训练,您需要 DeepSpeed
  • 对于视觉模型训练,您需要 torchvision
  • 对于音频模型训练,您需要 torchaudio,并且在某些 specaugment 的特殊设置中需要 opencv-python,在微调 speech2text 模型时则需要 editdistance

快速入门

本节通过几个常用示例展示如何使用 TencentPretrain。更多详细信息请参阅“使用说明”部分。我们首先在书评情感分类数据集上使用 BERT(一种文本预训练模型)。我们先在书评语料库上对模型进行预训练,然后再在书评情感分类数据集上进行微调。输入文件共有三个:书评语料库、书评情感分类数据集和词汇表。所有文件均采用 UTF-8 编码,并包含在本项目中。

BERT 语料库的格式如下(每行一个句子,文档之间用空行分隔):

doc1-sent1
doc1-sent2
doc1-sent3

doc2-sent1

doc3-sent1
doc3-sent2

书评语料库是从书评情感分类数据集中获取的。我们移除标签,并从中间将每篇书评分成两部分,以构建一个包含两个句子的文档(详见 corpora 文件夹中的 book_review_bert.txt)。

分类数据集的格式如下:

label    text_a
1        instance1
0        instance2
1        instance3

标签和实例之间用制表符 \t 分隔。第一行为列名列表。对于 n 类分类问题,标签 ID 应为 0 到 n-1 之间的整数(包括 0 和 n-1)。

我们使用 Google 的中文词汇表文件 models/google_zh_vocab.txt,其中包含 21128 个汉字。

我们首先对书评语料库进行预处理。在预处理阶段,需要将语料库处理成指定预训练模型所需的格式(--data_processor):

python3 preprocess.py --corpus_path corpora/book_review_bert.txt --vocab_path models/google_zh_vocab.txt \
                      --dataset_path dataset.pt --processes_num 8 --data_processor bert

请注意,需要安装 six>=1.12.0

预处理过程较为耗时。使用多进程可以显著加快预处理速度(--processes_num)。默认使用 BERT 分词器(--tokenizer bert)。预处理完成后,原始文本会被转换为 dataset.pt,这是 pretrain.py 的输入。然后我们下载 Google 预训练的中文 BERT 模型 google_zh_model.bin(TencentPretrain 格式,原始模型来自 这里),并将其放入 models 文件夹中。我们加载该预训练的中文 BERT 模型,并在其基础上继续在书评语料库上进行预训练。预训练模型通常由嵌入层、编码器和目标层组成。为了构建预训练模型,我们需要提供相关信息。配置文件(--config_path)指定了预训练模型使用的模块和超参数。更多细节请参阅 models/bert/base_config.json。假设我们有一台配备 8 块 GPU 的机器:

python3 pretrain.py --dataset_path dataset.pt --vocab_path models/google_zh_vocab.txt \
                    --pretrained_model_path models/google_zh_model.bin \
                    --config_path models/bert/base_config.json \
                    --output_model_path models/book_review_model.bin \
                    --world_size 8 --gpu_ranks 0 1 2 3 4 5 6 7 \
                    --total_steps 5000 --save_checkpoint_steps 1000 --batch_size 32

mv models/book_review_model.bin-5000 models/book_review_model.bin

请注意,由 pretrain.py 训练的模型会附加一个记录训练步数的后缀(--total_steps)。我们可以移除该后缀以便于使用。

接下来,我们在下游分类数据集上对预训练模型进行微调。我们使用 pretrain.py 输出的 book_review_model.bin 中的嵌入层和编码器:

python3 finetune/run_classifier.py --pretrained_model_path models/book_review_model.bin \
                                   --vocab_path models/google_zh_vocab.txt \
                                   --config_path models/bert/base_config.json \
                                   --train_path datasets/book_review/train.tsv \
                                   --dev_path datasets/book_review/dev.tsv \
                                   --test_path datasets/book_review/test.tsv \
                                   --epochs_num 3 --batch_size 32

微调后的分类模型默认保存路径为 models/finetuned_model.bin。需要注意的是,预训练任务的实际批量大小为 --batch_size 乘以 --world_size;而下游任务(如分类)的实际批量大小则为 --batch_size

随后,我们使用微调后的模型进行推理:

python3 inference/run_classifier_infer.py --load_model_path models/finetuned_model.bin \
                                          --vocab_path models/google_zh_vocab.txt \
                                          --config_path models/bert/base_config.json \
                                          --test_path datasets/book_review/test_nolabel.tsv \
                                          --prediction_path datasets/book_review/prediction.tsv \
                                          --labels_num 2

--test_path 指定待预测文件的路径,该文件应包含 text_a 列。--prediction_path 指定包含预测结果的文件路径。我们需要通过 --labels_num 显式指定标签数量。上述数据集为二分类数据集。


以上内容提供了使用 TencentPretrain 进行预处理、预训练、微调和推理的基本方法。更多用法案例请参阅完整的 :arrow_right: 快速入门 :arrow_left: 。完整版快速入门包含了丰富的用例,覆盖了大多数与预训练相关的应用场景。建议用户阅读完整版快速入门,以便合理使用该项目。


预训练数据

本节提供了一系列 :arrow_right: 预训练数据 :arrow_left: 的链接。TencentPretrain 可以直接加载这些预训练数据。


下游数据集

本节提供了一系列 :arrow_right: 下游数据集 :arrow_left: 的链接。TencentPretrain 可以直接加载这些数据集。


模型库

借助 TencentPretrain,我们预训练了多种不同性质的模型(例如基于不同模态、编码器和目标的模型)。预训练模型的详细介绍及其下载链接请参阅 :arrow_right: 模型库 :arrow_left: 。所有预训练模型均可由 TencentPretrain 直接加载。


使用说明

TencentPretrain 的目录结构如下:

TencentPretrain/
    |--tencentpretrain/
    |    |--embeddings/ # 包含嵌入组件的模块
    |    |--encoders/ # 包含编码器组件的模块,如 RNN、CNN、Transformer
    |    |--decoders/ # 包含解码器组件的模块
    |    |--targets/ # 包含目标组件的模块,如语言模型、掩码语言模型
    |    |--layers/ # 包含常用的神经网络层
    |    |--models/ # 包含 model.py,用于组合不同组件的模块
    |    |--utils/ # 包含常用工具函数
    |    |--model_builder.py
    |    |--model_loader.py
    |    |--model_saver.py
    |    |--opts.py
    |    |--trainer.py
    |
    |--corpora/ # 包含预训练数据
    |--datasets/ # 包含下游任务数据集
    |--models/ # 包含预训练模型、词汇表和配置文件
    |--scripts/ # 包含用于预训练模型的实用脚本
    |--finetune/ # 包含下游任务微调脚本
    |--inference/ # 包含下游任务推理脚本
    |
    |--preprocess.py
    |--pretrain.py
    |--README.md
    |--README_ZH.md
    |--requirements.txt
    |--LICENSE

代码按照组件划分(如嵌入、编码器等),用户可以轻松使用并在此基础上进行扩展。

关于 TencentPretrain 的全面使用示例,请参阅 :arrow_right: 使用说明 :arrow_left: ,这些示例可以帮助用户快速实现 BERT、GPT-2、ELMo、T5、CLIP 等预训练模型,并在多种下游任务上对预训练模型进行微调。


竞赛解决方案

TencentPretrain 已被用于多项竞赛的获奖方案中。在本节中,我们提供了一些使用 TencentPretrain 在 CLUE 等竞赛中取得 SOTA 成绩的示例。更多详细信息请参阅 :arrow_right: 竞赛解决方案 :arrow_left: 。


引用

如果您在学术研究中使用了 TencentPretrain 中的工作(例如预训练模型),请引用发表于 ACL 2023 的 系统论文

@article{zhao2023tencentpretrain,
  title={TencentPretrain: A Scalable and Flexible Toolkit for Pre-training Models of Different Modalities},
  author={Zhao, Zhe and Li, Yudong and Hou, Cheng and Zhao, Jing and others},
  journal={ACL 2023},
  pages={217},
  year={2023}
}

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

156.8k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|5天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|6天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架