fast-bert

GitHub
1.9k 340 较难 1 次阅读 5天前Apache-2.0语言模型
AI 解读 由 AI 自动生成,仅供参考

fast-bert 是一个专为自然语言处理(NLP)任务设计的深度学习库,旨在让基于 BERT、RoBERTa、XLNet 等先进模型的文本分类工作变得极其简单。它主要解决了传统大模型训练门槛高、代码复杂且难以快速部署的痛点,帮助开发者将精力集中在数据与业务逻辑上,而非繁琐的工程实现。

这款工具非常适合希望快速上手前沿 NLP 技术的开发人员、数据科学家以及算法研究人员。无论是需要处理多类别还是多标签的文本分类任务,fast-bert 都能提供流畅的支持。其核心亮点在于借鉴了 fast.ai 的设计理念,提供了高度封装的 API,用户只需几行代码即可完成从数据加载、模型微调到超参数调整的全过程。此外,fast-bert 还集成了学习率查找器(Learning Rate Finder)以辅助优化训练效果,并支持 LAMB 优化器来显著加速大规模模型的训练进程。

除了本地训练,fast-bert 还具备完善的模型保存与部署功能,甚至支持直接部署到 AWS Sagemaker 云端环境。依托于 Hugging Face 强大的底层库,fast-bert 在保持技术先进性的同时,极大地降低了工程复杂度,是让社区更便捷地应用尖端深度学习技术的得力助手。

使用场景

某电商公司的数据科学团队需要快速构建一个能自动识别用户评论情感(正面/负面)及具体投诉类别的多标签分类系统,以实时监控产品口碑。

没有 fast-bert 时

  • 代码门槛高:工程师需手动编写大量底层 PyTorch 代码来处理 BERT 的分词、DataLoader 构建及注意力掩码,开发周期长达数周。
  • 调优难度大:缺乏内置的学习率查找器和先进的优化器支持,模型收敛慢且容易陷入局部最优,难以发挥预训练模型的全部潜力。
  • 部署流程繁琐:从训练完成到导出模型并部署至 AWS SageMaker 等生产环境,需要额外编写复杂的转换脚本和接口代码。
  • 多模型适配难:若想在 BERT、RoBERTa 和 XLNet 之间切换对比效果,需重构大量数据预处理逻辑,试错成本极高。

使用 fast-bert 后

  • 开箱即用:仅需几行代码即可通过 BertDataBunch 对象自动完成数据加载、分词及批次处理,将原型开发时间缩短至几天。
  • 智能调优:直接调用内置的学习率查找器和 LAMB 优化器,显著加速训练过程并提升模型准确率,无需手动摸索超参数。
  • 一键部署:训练好的模型可直接保存并无缝部署到 AWS SageMaker,大幅简化了从实验到生产的落地路径。
  • 灵活切换:统一接口支持随时在 BERT、DistilBERT 或 XLNet 等不同架构间切换,轻松进行多模型性能比对与迭代。

fast-bert 通过封装复杂的底层细节,让团队能以极简的代码高效完成从数据准备到模型部署的全流程,真正实现了前沿 NLP 技术的平民化应用。

运行环境要求

操作系统
  • 未说明
GPU

需要 NVIDIA GPU(需安装 NVIDIA Apex 以支持 CUDA 扩展),具体显存大小和 CUDA 版本未说明

内存

未说明

依赖
notes该工具基于 PyTorch,必须安装 NVIDIA Apex 库以支持混合精度训练(FP16)和更快的训练速度(需从源码编译安装并启用 cpp_ext 和 cuda_ext 选项)。支持 BERT、RoBERTa、XLNet 和 DistilBERT 模型。虽然代码中展示了 multi_gpu 参数,但 README 未明确列出多卡的具体配置要求。
python3.6, 3.7
pytorch-transformers (Hugging Face)
NVIDIA Apex
torch
cuda
fast-bert hero image

快速开始

Fast-Bert

Apache 2.0 许可证 PyPI 版本 Python 3.6, 3.7

新增 - 用于文本分类训练的学习率查找工具(感谢借用了 https://github.com/davidtvs/pytorch-lr-finder 的实现)

支持 LAMB 优化器,以加快训练速度。 有关 LAMB 优化器的论文,请参阅 https://arxiv.org/abs/1904.00962。

同时支持 BERT 和 XLNet,适用于多分类和多标签文本分类任务。

Fast-Bert 是一个深度学习库,使开发者和数据科学家能够训练和部署基于 BERT 和 XLNet 的模型,用于从文本分类开始的自然语言处理任务。

FastBert 的开发建立在优秀的 Hugging Face BERT PyTorch 库 所提供的坚实基础上,并受到 fast.ai 的启发,致力于让前沿的深度学习技术能够被更广泛的机器学习从业者所使用。

通过 Fast-Bert,您将能够:

  1. 在您的自定义数据集上训练(更准确地说是微调)BERT、RoBERTa 和 XLNet 文本分类模型。

  2. 调整模型超参数,例如训练轮数、学习率、批量大小、优化器调度等。

  3. 保存并部署训练好的模型以进行推理(包括在 AWS Sagemaker 上部署)。

Fast-Bert 将同时支持多分类和多标签文本分类任务;未来还将支持其他自然语言处理任务,如命名实体识别、问答系统以及自定义语料库的微调。

  1. BERT(由 Google 发布),其论文为 Jacob Devlin、Ming-Wei Chang、Kenton Lee 和 Kristina Toutanova 撰写的《BERT:面向语言理解的深度双向 Transformer 预训练》(https://arxiv.org/abs/1810.04805)。
  1. XLNet(由 Google 和 CMU 共同发布),其论文为 Zhilin Yang*、Zihang Dai*、Yiming Yang、Jaime Carbonell、Ruslan Salakhutdinov 和 Quoc V. Le 撰写的《XLNet:通用自回归语言理解预训练》(https://arxiv.org/abs/1906.08237)。

  2. RoBERTa(由 Facebook 发布),这是一种由 Yinhan Liu、Myle Ott、Naman Goyal、Jingfei Du 等人提出的鲁棒优化的 BERT 预训练方法。

  3. DistilBERT(由 HuggingFace 发布),其发布伴随着 Victor Sanh、Lysandre Debut 和 Thomas Wolf 撰写的博客文章《更小、更快、更便宜、更轻:推出 DistilBERT,即 BERT 的蒸馏版本》(https://medium.com/huggingface/distilbert-8cf3380435b5)。

安装

此仓库已在 Python 3.6 及以上版本上测试通过。

使用 pip

可以通过以下命令使用 pip 安装 PyTorch-Transformers:

pip install fast-bert

从源代码安装

克隆仓库并运行:

pip install [--editable] .

或者

pip install git+https://github.com/kaushaltrivedi/fast-bert.git

此外,您还需要安装 NVIDIA Apex。

git clone https://github.com/NVIDIA/apex
cd apex
pip install -v --no-cache-dir --global-option="--cpp_ext" --global-option="--cuda_ext" ./

使用方法

文本分类

1. 创建 DataBunch 对象

DataBunch 对象接收训练集、验证集和测试集的 CSV 文件,并将数据转换为 BERT、RoBERTa、DistilBERT 或 XLNet 所需的内部表示形式。该对象还会根据设备配置、批大小和最大序列长度实例化相应 的数据加载器。

from fast_bert.data_cls import BertDataBunch

databunch = BertDataBunch(DATA_PATH, LABEL_PATH,
                          tokenizer='bert-base-uncased',
                          train_file='train.csv',
                          val_file='val.csv',
                          label_file='labels.csv',
                          text_col='text',
                          label_col='label',
                          batch_size_per_gpu=16,
                          max_seq_length=512,
                          multi_gpu=True,
                          multi_label=False,
                          model_type='bert')

train.csv 和 val.csv 的文件格式

索引 文本 标签
0 看了其他评论,我惊讶于竟然没有任何警告提醒潜在观众,在租借这部烂片时他们会遇到什么。首先,我租这部电影时以为它只是个制作尚可的《夺宝奇兵》模仿作品。 neg
1 我已经看了前 17 集,这部剧真是太棒了!自从《新世纪福音战士》以来,我还没有对哪部动画如此着迷过。这部剧其实改编自一款成人游戏,我不确定之前是否有人这样做过。虽然我没玩过那款游戏,但据我所知,它与原作非常契合。 pos
2 这部电影绝对称得上是一部黑暗而 gritty 的杰作。也许我有些偏颇,因为种族隔离时代一直是我非常关注的领域。 pos

如果列名不是通常的 “text” 和 “labels”,则需要在 DataBunch 的 text_col 和 label_col 参数中指定这些列名。

labels.csv 将包含所有唯一标签的列表。在本例中,该文件内容如下:

pos
neg

对于多标签分类,labels.csv 将包含所有可能的标签:

toxic
severe_toxic
obscene
threat
insult
identity_hate

随后,train.csv 文件将为每个标签设置一列,每列的值为 0 或 1。进行多标签分类时,请别忘了将 BertDataBunch 中的 multi_label 参数设置为 True

id 文本 toxic severe_toxic obscene threat insult identity_hate
0 为什么以我的用户名“硬核金属乐迷”所做的编辑被回退了? 0 0 0 0 0 0
0 我会让你吃不了兜着走 1 0 0 1 0 0

label_col 将是一个标签列名的列表。在本例中,它将是:

['toxic','severe_toxic','obscene','threat','insult','identity_hate']

分词器

您可以创建一个分词器对象并将其传递给 DataBunch,也可以直接将模型名称作为分词器传入,DataBunch 会自动下载并实例化相应的分词器对象。

例如,若要使用 XLNet base cased 模型,只需将 tokenizer 参数设置为 'xlnet-base-cased'。DataBunch 会自动下载并实例化适用于 xlnet-base-cased 模型词汇表的 XLNetTokenizer。

模型类型

Fast-Bert 支持基于 XLNet、RoBERTa 和 BERT 的分类模型。请将 model_type 参数的值设置为 'bert'roberta'xlnet',以初始化相应的 DataBunch 对象。

2. 创建 Learner 对象

BertLearner 是负责整合所有组件的“学习器”对象。它封装了模型生命周期中的关键逻辑,例如训练、验证和推理。

该学习器对象会将先前创建的数据批次(databunch)作为输入,并接受其他参数,如预训练模型的路径、是否使用 FP16 精度训练、多 GPU 支持以及多标签分类选项等。

Learner 类包含了训练循环、验证循环、优化器策略以及关键指标计算的逻辑。这使得开发者可以专注于自定义用例,而无需担心这些重复性的操作。

同时,Learner 对象也足够灵活,既可以通过调整参数进行定制,也可以通过继承 BertLearner 并重写相关方法来实现更高级的自定义功能。

from fast_bert.learner_cls import BertLearner
from fast_bert.metrics import accuracy
import logging

logger = logging.getLogger()
device_cuda = torch.device("cuda")
metrics = [{'name': 'accuracy', 'function': accuracy}]

learner = BertLearner.from_pretrained_model(
    databunch,
    pretrained_path='bert-base-uncased',
    metrics=metrics,
    device=device_cuda,
    logger=logger,
    output_dir=OUTPUT_DIR,
    finetuned_wgts_path=None,
    warmup_steps=500,
    multi_gpu=True,
    is_fp16=True,
    multi_label=False,
    logging_steps=50)
参数 描述
databunch 先前创建的数据批次对象
pretrained_path 预训练模型文件的存储目录,或预训练模型的名称,例如 bert-base-uncased、xlnet-large-cased 等
metrics 您希望模型在验证集上计算的指标函数列表,例如准确率、F1 分数等
device torch.device 类型,可为 _cuda__cpu_
logger 日志记录对象
output_dir 用于保存训练好的模型权重、分词器词汇表以及 TensorBoard 文件的目录
finetuned_wgts_path 提供微调后的语言模型权重路径(实验性功能)
warmup_steps 用于调度器的预热步数
multi_gpu 是否使用多 GPU 进行训练,例如在 AWS p3.8xlarge 实例上运行时
is_fp16 是否使用 FP16 精度训练
multi_label 是否进行多标签分类
logging_steps 每次计算 TensorBoard 指标之间的步数。将其设置为 0 可禁用 TensorBoard 日志记录。如果该值设置得太小,每次记录指标时都会对模型进行评估,从而降低训练速度

3. 寻找最优学习率

学习率是模型训练中最重要的超参数之一。我们引入了由 Leslie Smith 提出并集成到 fastai 库中的学习率查找工具。

learner.lr_find(start_lr=1e-5, optimizer_type='lamb')

这段代码大量借鉴了 David Silva 的 pytorch-lr-finder 库

学习率范围测试

4. 训练模型

learner.fit(epochs=6,
            lr=6e-5,
            validate=True,  # 每个 epoch 结束后评估模型
            schedule_type="warmup_cosine",
            optimizer_type="lamb")

Fast-Bert 现在支持 LAMB 优化器。由于其训练速度较快,我们已将 LAMB 设置为默认优化器。您可以通过将 optimizer_type 设置为 'adamw' 来切换回 AdamW 优化器。

5. 保存训练好的模型文件

learner.save_model()

模型文件将被持久化到传入学习器对象的 output_dir/'model_out' 路径下。具体包含以下文件:

文件名 描述
pytorch_model.bin 训练好的模型权重
spiece.model 句子分词器词汇表(适用于 XLNet 模型)
vocab.txt 工作分词器词汇表(适用于 BERT 模型)
special_tokens_map.json 特殊标记映射
config.json 模型配置
added_tokens.json 新增标记列表

由于所有模型文件都存储在同一目录下,您可以直接将 pretrained_path 指向该目录,即可实例化学习器对象进行推理。

6. 模型推理

如果你已经有一个实例化的、训练好的 Learner 对象,只需在该对象上调用 predict_batch 方法,并传入文本数据列表即可:

texts = ['我真的很喜欢 Netflix 的原创电影',
		 '这部电影不值得看']
predictions = learner.predict_batch(texts)

如果你有一个持久化的已训练模型,并且只想对该模型运行推理逻辑,则可以使用第二种方法,即通过 Predictor 对象。

from fast_bert.prediction import BertClassificationPredictor

MODEL_PATH = OUTPUT_DIR/'model_out'

predictor = BertClassificationPredictor(
				model_path=MODEL_PATH,
				label_path=LABEL_PATH, # labels.csv 文件的路径
				multi_label=False,
				model_type='xlnet',
				do_lower_case=False,
				device=None) # 可自定义 torch.device,若可用则默认为 cuda

# 单条预测
single_prediction = predictor.predict("请给我这条文本的结果")

# 批量预测
texts = [
	"这是第一条文本",
	"这是第二条文本"
	]

multiple_predictions = predictor.predict_batch(texts)

语言模型微调

将基于 BERT 的模型应用于自定义数据集的一种有效方法是先针对该数据集对语言模型任务进行微调,这正是 fast.ai 的 ULMFit 所采用的方法。其核心思想是从预训练模型开始,然后在自定义数据集的原始文本上进一步训练模型。我们将使用掩码语言模型任务来微调语言模型。

本节将介绍如何使用 FastBert 对语言模型进行微调。

1. 导入必要的库

所需的对象存储在带有 _lm 后缀的文件中。

# 语言模型数据批次
from fast_bert.data_lm import BertLMDataBunch
# 语言模型学习器
from fast_bert.learner_lm import BertLMLearner

from pathlib import Path
from box import Box

2. 定义参数并设置数据路径

# Box 是一个方便的工具,可从 JSON 字典创建对象
args = Box({
    "seed": 42,
    "task_name": 'imdb_reviews_lm',
    "model_name": 'roberta-base',
    "model_type": 'roberta',
    "train_batch_size": 16,
    "learning_rate": 4e-5,
    "num_train_epochs": 20,
    "fp16": True,
    "fp16_opt_level": "O2",
    "warmup_steps": 1000,
    "logging_steps": 0,
    "max_seq_length": 512,
    "multi_gpu": True if torch.cuda.device_count() > 1 else False
})

DATA_PATH = Path('../lm_data/')
LOG_PATH = Path('../logs')
MODEL_PATH = Path('../lm_model_{}/'.format(args.model_type))

DATA_PATH.mkdir(exist_ok=True)
MODEL_PATH.mkdir(exist_ok=True)
LOG_PATH.mkdir(exist_ok=True)

3. 创建 DataBunch 对象

BertLMDataBunch 类包含一个静态方法 from_raw_corpus,该方法会接收原始文本列表,并为语言模型学习器创建 DataBunch。此方法首先会对文本列表进行预处理,去除 HTML 标签、多余空格等,然后生成 lm_train.txtlm_val.txt 文件。这些文件将用于训练和评估语言模型微调任务。

下一步是对文本进行特征提取:文本将被分词、转换为数字表示,并按 512 个标记(包括特殊标记)划分为多个块。

databunch_lm = BertLMDataBunch.from_raw_corpus(
					data_dir=DATA_PATH,
					text_list=texts,
					tokenizer=args.model_name,
					batch_size_per_gpu=args.train_batch_size,
					max_seq_length=args.max_seq_length,
                    multi_gpu=args.multi_gpu,
                    model_type=args.model_type,
                    logger=logger)

由于此步骤耗时可能较长,具体取决于自定义数据集文本的大小,因此特征化后的数据会被缓存到 data_dir/lm_cache 文件夹中的 pickle 文件中。

下次可以直接实例化 DataBunch 对象,而无需再次调用 from_raw_corpus 方法,如下所示:

databunch_lm = BertLMDataBunch(
						data_dir=DATA_PATH,
						tokenizer=args.model_name,
                        batch_size_per_gpu=args.train_batch_size,
                        max_seq_length=args.max_seq_length,
                        multi_gpu=args.multi_gpu,
                        model_type=args.model_type,
                        logger=logger)

4. 创建 LM Learner 对象

BertLearner 是一个“学习器”对象,它将所有内容整合在一起。它封装了模型生命周期中的关键逻辑,例如训练、验证和推理。Learner 对象会以先前创建的 DataBunch 作为输入,并接受其他参数,如预训练模型的位置、FP16 训练、多 GPU 支持以及多标签选项等。

Learner 类包含了训练循环、验证循环和优化策略的逻辑,这有助于开发者专注于自己的用例,而无需担心这些重复性的工作。同时,Learner 对象也足够灵活,可以通过调整参数或通过创建 BertLearner 的子类并重新定义相关方法来进行定制。

learner = BertLMLearner.from_pretrained_model(
							dataBunch=databunch_lm,
							pretrained_path=args.model_name,
							output_dir=MODEL_PATH,
							metrics=[],
							device=device,
							logger=logger,
							multi_gpu=args.multi_gpu,
							logging_steps=args.logging_steps,
							fp16_opt_level=args.fp16_opt_level)

5. 训练模型

learner.fit(epochs=6,
			lr=6e-5,
			validate=True, 	# 每个 epoch 结束后评估模型
			schedule_type="warmup_cosine",
			optimizer_type="lamb")

Fast-Bert 现在支持 LAMB 优化器。由于其训练速度较快,我们已将其设为默认优化器。你可以通过将 optimizer_type 设置为 'adamw' 来切换回 AdamW 优化器。

6. 保存训练好的模型文件

learner.save_model()

模型文件将被保存到 Learner 对象提供的 output_dir/'model_out' 路径下。保存的文件包括:

文件名 描述
pytorch_model.bin 训练好的模型权重
spiece.model 句子分词器词汇表(适用于 xlnet 模型)
vocab.txt 工作片段分词器词汇表(适用于 bert 模型)
special_tokens_map.json 特殊标记映射
config.json 模型配置
added_tokens.json 新增标记列表

其中,pytorch_model.bin 包含微调后的权重,你可以在分类任务的 Learner 对象中通过 finetuned_wgts_path 参数指向该文件。

Amazon SageMaker 支持

本库旨在帮助您训练和部署生产级别的模型。由于 Transformer 模型的训练需要昂贵的 GPU,因此我添加了在 AWS SageMaker 上训练和部署模型的支持。

该仓库包含用于在 Amazon SageMaker 中构建基于 BERT 的分类模型的 Docker 镜像和代码。

请参阅我的博客 使用 FastBert 和 Amazon SageMaker 训练并部署强大的 BERT 基础 NLP 模型,其中详细介绍了如何将 SageMaker 与 FastBert 结合使用。

引用

如果您在已发表或开源项目中使用本工作,请务必提及 此库 和 Hugging Face 的 pytorch-transformers 库,并附上本仓库的链接。

同时,请引用我关于该主题的两篇博客:

版本历史

v1.8.02020/07/09
v1.7.02020/04/14
v1.6.02019/12/22
v1.5.12019/12/14
v1.5.02019/11/28

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|2天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架