Aria
Aria 是一款开源的多模态原生混合专家(MoE)模型,旨在为用户提供卓越的视频理解、文档分析及多轮对话能力。它有效解决了传统模型在处理长上下文多模态任务时效率低下或显存占用过高的问题,让复杂的视觉与文本联合分析变得更加流畅高效。
这款工具特别适合开发者、研究人员以及需要处理大量图文视频数据的企业用户。无论是构建智能客服、开发文档自动化工具,还是进行前沿的 AI 研究,Aria 都能提供强大的底层支持。普通用户也可通过其网页演示体验先进的多模态交互。
Aria 的技术亮点十分突出:它拥有高达 64K 的超长多模态上下文窗口,能够轻松处理长篇文档或长视频;同时采用稀疏激活机制,每令牌仅激活 39 亿参数,在保持 253 亿总参数规模带来的高性能同时,显著提升了推理速度并降低了微调成本。此外,Aria 已适配 Hugging Face Transformers 和 vLLM 等主流框架,并提供了详细的代码示例与微调指南,方便用户快速上手集成到现有项目中。
使用场景
某金融分析团队需要每日处理数百份包含复杂图表、长篇幅文字及市场视频简报的混合格式研报,以提取关键投资信号。
没有 Aria 时
- 多模态割裂:必须分别使用 OCR 工具提取文字、独立模型分析图表、另起一套流程处理视频,数据流转繁琐且容易丢失上下文关联。
- 长文档失忆:面对超过几十页的 PDF 研报或长视频,传统模型受限于短上下文窗口,往往遗漏后半部分的关键风险披露或趋势总结。
- 推理成本高昂:为了维持高精度,不得不部署参数量巨大的稠密模型,导致单张显卡无法承载,推理延迟高且微调训练费用惊人。
- 细粒度理解不足:对于研报中复杂的动态走势图和嵌套表格,通用模型常出现“看图说话”式的表面描述,无法深入解读数据背后的逻辑。
使用 Aria 后
- 原生多模态融合:Aria 直接原生支持图像、文本和视频输入,团队只需一次调用即可让模型同时“阅读”研报全文、“看懂”K 线图并“观看”分析师视频解说。
- 64K 超长上下文掌控:凭借 64K token 的上下文窗口,Aria 能完整消化整份百页研报或长达数十分钟的视频会议记录,精准定位首尾呼应的关键信息。
- 高效低耗推理:得益于 MoE 架构,Aria 每令牌仅激活 39 亿参数,在单张 A100 显卡上即可实现快速推理,大幅降低了日常批量处理的算力成本和微调门槛。
- 深度逻辑洞察:在图表理解任务中,Aria 不仅能识别数据点,还能结合文中语境分析波动原因,输出具备专业深度的投资摘要而非简单的画面描述。
Aria 通过原生多模态与超长上下文的结合,将原本碎片化、高成本的复杂文档分析流程转化为单一、高效且深度的智能决策辅助系统。
运行环境要求
- 未说明
- 必需 NVIDIA GPU
- 推理:单卡 A100 (80GB) 可运行 bfloat16 精度模型
- LoRA 微调:单卡 A100 (80GB) 或 H100 (80GB)
- 全参数微调:需多卡(测试环境为 8x A100 80GB)
- 需安装 flash-attn 和 grouped_gemm,暗示需要支持 CUDA 的 NVIDIA 显卡
未说明

快速开始
Aria
😊 Hugging Face | 📄 论文 | 📚 博客 | 🌐 WebDemo | 🟣 Discord
简介
Aria 是一款多模态原生 MoE 模型。其特点包括:
- 在多种多模态和语言任务上表现处于行业领先水平,尤其在视频和文档理解方面表现出色;
- 具有长达 64K 个 token 的多模态上下文窗口;
- 每个 token 的激活参数量为 3.9B,从而实现快速推理速度和较低的微调成本。
最新消息
[2025年1月20日] 🚀🚀🚀 Paddle 团队已在 PaddleMIX 中支持 Aria。
[2024年12月15日] 我们发布了 Aria-Chat! 它针对开放式和多轮对话进行了优化,具有更高的可靠性及多语言支持。
[2024年12月1日] 我们发布了 Aria 的基础模型(Aria-Base-8K 和 Aria-Base-64K)! 它们与本推理和微调代码库完全兼容。
[2024年10月10日] 我们正式发布了 Aria!
快速入门
安装
pip install -e .
# 或者如果你打算参与项目贡献,可以安装包含开发依赖的版本
pip install -e .[dev]
pip install grouped_gemm
pip install flash-attn --no-build-isolation
推理
Aria 总共有 25.3B 个参数,在单张 A100(80GB)GPU 上以 bfloat16 精度即可加载运行。
以下是一个使用 Hugging Face Transformers 调用 Aria 的代码示例。
import requests
import torch
from PIL import Image
from transformers import AutoModelForCausalLM, AutoProcessor
model_id_or_path = "rhymes-ai/Aria"
model = AutoModelForCausalLM.from_pretrained(model_id_or_path, device_map="auto", torch_dtype=torch.bfloat16, trust_remote_code=True)
processor = AutoProcessor.from_pretrained(model_id_or_path, trust_remote_code=True)
image_path = "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/diffusers/cat.png"
image = Image.open(requests.get(image_path, stream=True).raw)
messages = [
{
"role": "user",
"content": [
{"text": None, "type": "image"},
{"text": "这是一张什么图片?", "type": "text"},
],
}
]
text = processor.apply_chat_template(messages, add_generation_prompt=True)
inputs = processor(text=text, images=image, return_tensors="pt")
inputs["pixel_values"] = inputs["pixel_values"].to(model.dtype)
inputs = {k: v.to(model.device) for k, v in inputs.items()}
with torch.inference_mode(), torch.cuda.amp.autocast(dtype=torch.bfloat16):
output = model.generate(
**inputs,
max_new_tokens=500,
stop_strings=["<|im_end|>"],
tokenizer=processor.tokenizer,
do_sample=True,
temperature=0.9,
)
output_ids = output[0][inputs["input_ids"].shape[1]:]
result = processor.decode(output_ids, skip_special_tokens=True)
print(result)
我们还提供了其他推理方法,例如利用 vLLM 来提升性能。更多详细信息请参阅 docs/inference.md。
食谱
请查看这些 推理示例,它们展示了如何在不同应用场景中使用 Aria,比如图表理解、PDF 阅读、视频理解等,同时支持 Hugging Face Transformers 和 vLLM 后端。
微调
⚠️ 关于微调的重要提示:由于 Aria 集成到 transformers 后权重映射发生了变化,训练代码需要特定版本才能正常工作:
- 请使用 transformers 版本 4.45.0
- 使用模型修订版 "4844f0b5ff678e768236889df5accbe4967ec845"
注意:为了获得最佳的微调效果,建议安装可选的
grouped_gemm依赖:pip install grouped_gemm
我们提供 LoRA 微调和全参数微调两种方式,并支持多种数据集类型:
- 单张图像数据集
- 多张图像数据集
- 视频数据集
- 代码数据集
若想快速尝试,请访问 examples 文件夹,选择其中一个微调示例。如果希望从基础模型开始微调(推荐用于大型数据集),请在配置文件中将以下模型路径(全参数 或 LoRA)
model_name_or_path: rhymes-ai/Aria
tokenizer_path: rhymes-ai/Aria
修改为对应的基础模型路径:
model_name_or_path: rhymes-ai/Aria-Base-64K # rhymes-ai/Aria-Base-8K
tokenizer_path: rhymes-ai/Aria-Base-64K # rhymes-ai/Aria-Base-8K
准备数据集
请参考 custom_dataset.md,了解如何准备您的数据集。
使用 LoRA 进行微调
准备好数据集后,按照以下步骤使用 LoRA 对 Aria 进行微调:
- 打开配置文件
recipes/config_lora.yaml。找到dataset_mixer部分,并更新为您的数据集路径:
dataset_mixer:
"path/to/dataset1": 1
"path/to/dataset2": 0.5
"path/to/dataset3": 2
关于数据集混合的说明:Aria 支持以不同的采样率组合多个数据集。在上面的例子中:
dataset1将被完全使用(权重 1)dataset2将使用其数据的 50%(权重 0.5)dataset3将被使用两次(权重 2)
- 在一台 A100(80GB)或 H100(80GB)GPU 上运行以下命令开始微调过程:
python aria/train.py --config recipes/config_lora.yaml
- 如果进行多 GPU 训练,请使用
accelerate库:
accelerate launch --config_file recipes/accelerate_configs/zero2.yaml aria/train.py --config recipes/config_lora.yaml --num_processes [number_of_gpus]
- 可以从
recipes/accelerate_configs/中选择预配置的 accelerate 设置 - 根据您可用的 GPU 数量调整
--num_processes参数 - 如需自定义配置,请参考 accelerate 文档
使用微调后的模型进行推理:
请参阅 支持 LoRA 的推理 了解如何使用微调后的模型进行推理。
全参数微调
除配置文件 recipes/config_full.yaml 外,其余步骤与 LoRA 微调流程相同。
全参数微调会占用更多显存,因此需要使用多张 GPU。以下命令已在 8 张 A100(80GB)GPU 上测试通过:
accelerate launch --config_file recipes/accelerate_configs/zero2.yaml aria/train.py --config recipes/config_full.yaml
如果遇到显存不足的错误,请尝试在配置文件中降低 per_device_train_batch_size,并相应调整 gradient_accumulation_steps 以保持有效的训练批次大小。
per_device_train_batch_size: 8
gradient_accumulation_steps: 2
不同数据集的显存消耗差异较大。通常,多图像和视频数据集需要更多的显存。可以通过调整 deepspeed_config 参数来优化显存使用,例如使用 zero_stage 3,并将参数和优化器卸载到 CPU 上。
deepspeed_config:
gradient_accumulation_steps: auto
gradient_clipping: auto
offload_optimizer_device: cpu
offload_param_device: cpu
zero3_init_flag: true
zero_stage: 3
使用您训练好的模型进行推理
首先,您需要从 ZeRO 1、2 或 3 的 DeepSpeed 检查点中提取 FP32 整合权重:
cd /path/to/your/output/dir
python zero_to_fp32.py . pytorch_model.bin
有关如何使用微调后的模型进行推理的说明,请参阅 inference.md。
引用
如果您觉得我们的工作对您有所帮助,请考虑引用:
@article{aria,
title={Aria: 一个开放的多模态原生专家混合模型},
author={李东旭、刘宇东、吴浩宁、王岳、沈志奇、曲博文、牛鑫尧、王国银、陈贝、李俊楠},
year={2024},
journal={arXiv 预印本 arXiv:2410.05993},
}
常见问题
相似工具推荐
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
awesome-machine-learning
awesome-machine-learning 是一份精心整理的机器学习资源清单,汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点,这份清单按编程语言(如 Python、C++、Go 等)和应用场景(如计算机视觉、自然语言处理、深度学习等)进行了系统化分类,帮助使用者快速定位高质量项目。 它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库,还是资深工程师对比不同语言的技术选型,都能从中获得极具价值的参考。此外,清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源,构建了从学习到实践的全链路支持体系。 其独特亮点在于严格的维护标准:明确标记已停止维护或长期未更新的项目,确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”,awesome-machine-learning 以开源协作的方式持续更新,旨在降低技术探索门槛,让每一位从业者都能高效地站在巨人的肩膀上创新。
scikit-learn
scikit-learn 是一个基于 Python 构建的开源机器学习库,依托于 SciPy、NumPy 等科学计算生态,旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口,涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具,内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。 对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言,scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点,让用户无需重复造轮子,只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。 其核心技术亮点在于高度一致的 API 设计风格,所有估算器(Estimator)均遵循相同的调用逻辑,极大地降低了学习成本并提升了代码的可读性与可维护性。此外,它还提供了强大的模型选择与评估工具,如交叉验证和网格搜索,帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目,scikit-learn 以其稳定性、详尽的文档和活跃的社区支持,成为连接理论学习与工业级应用的最
keras
Keras 是一个专为人类设计的深度学习框架,旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。 无论是刚入门的学生、专注算法的研究人员,还是需要快速落地产品的工程师,都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。 Keras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码,即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性,还允许开发者根据需求自由选择:利用 JAX 或 PyTorch 的即时执行模式进行高效调试,或切换至速度最快的后端以获得最高 350% 的性能提升。此外,Keras 具备强大的扩展能力,能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群,是连接原型开发与生产部署的理想桥梁。