LLaMA2-Accessory
LLaMA2-Accessory 是一套开源“百宝箱”,帮你轻松完成大语言模型(LLM)和多模态大模型的预训练、微调与部署。它把复杂的分布式训练、量化压缩、推理加速等流程封装成简洁脚本,省去重复造轮子的时间,让你专注模型创新。
无论你是算法研究员、AI 开发者,还是想把视觉-语言模型快速落地的工程师,都能在这里找到趁手组件。特色亮点包括:
• 内置 SPHINX 系列多模态模型,图文对话、视觉问答一键即用;
• 支持 Mixtral-8×7B MoE、Falcon 180B 等主流架构,单机多卡、多机多卡都能跑;
• 提供 OmniQuant 量化、OpenCompass 自动评测等配套工具,训练-压缩-评估一条龙。
一句话:想玩转大模型,LLaMA2-Accessory 让门槛更低、效率更高。
使用场景
一家 12 人的初创公司正在做“AI 导游”App,需要让大模型看懂用户拍的景点照片,并用中文语音讲解历史故事,同时能在 7 天内完成 Demo 上线。
没有 LLaMA2-Accessory 时
- 视觉-语言底座得自己训:从 CLIP 到 Vicuna 再到 LoRA,光配环境就花了 2 天,显存 80 GB 直接爆掉
- 中文知识匮乏:通用开源模型把“拙政园”讲成“动物园”,连夜爬 20 万条点评数据做继续预训练,GPU 排队 3 天
- 语音链路割裂:TTS 用一家、ASR 用另一家,接口调来调去,延迟 2.8 s,用户体验像对讲机
- 部署踩坑:量化脚本不兼容,A100 上跑得好好的,一到 T4 就 OOM,Demo 上线前夜还在修 bug
使用 LLaMA2-Accessory 后
- 一条命令拉起 SPHINX-MoE:现成的多模态权重直接读图+中文,显存降到 48 GB,2 小时完成环境验证
- 自带中文继续预训练脚本:把 20 万条点评按 JSONL 格式扔进去,8 张 A100 一晚搞定,BLEU 提升 11 个点
- 统一 pipeline:内置语音 tokenizer,TTS/ASR 与 LLM 同进程,端到端延迟压到 600 ms,讲解自然连贯
- 一键 4-bit OmniQuant:模型从 26 GB 压到 7 GB,T4 也能 20 token/s 流畅跑,Demo 准时上线,投资人现场体验点赞
LLaMA2-Accessory 把原本需要 3 周的多模态中文落地流程压缩到 7 天,让 12 人小团队也能做出 GPT-4V 级体验。
运行环境要求
- Linux
需要 NVIDIA GPU,显存 ≥8 GB(推荐 24 GB),CUDA 11.7+,支持 Flash-Attention 2
最低 32 GB,推荐 64 GB+

快速开始
LLaMA2-Accessory:面向大语言模型开发的开源工具包 🚀
📖 文档
🚀LLaMA2-Accessory 是一个用于 大型语言模型(LLMs) 和 多模态大型语言模型 的预训练、微调及部署的开源工具包。该仓库主要继承自 LLaMA-Adapter,并在此基础上增加了更多高级功能。🧠
✨在该工具包中,我们推出了 SPHINX,这是一个多功能的多模态大型语言模型(MLLM),它融合了多样化的训练任务、数据领域以及视觉嵌入。
新闻
- [2024-3-7] 我们发布了 Large-DiT-T2I 的演示和代码库 🎉。
- [2024-2-17] 我们发布了在 ImageNet 上训练的 30 亿和 70 亿参数的 Large-DiT 模型。预训练检查点和完整的训练代码库均已发布 🎉。
- [2024-1-27] SPHINX-MoE 在 CMMMU-test 和 CMMMU-val 上分别取得了 29.57% 和 29.33% 的准确率。
- [2024-1-24] SPHINX-MoE 在 MMVP 上达到了新的 SOTA 性能(49.33%),高于 GPT-4V!🔥🔥🔥
- [2024-1-20] SPHINX-MoE 在 AesBench 上也取得了 SOTA 性能!🔥🔥🔥
- [2024-1-18] LLaMA-Adapter 被 ICLR 2024 接收!🎉
- [2024-1-12] 我们发布了基于紧凑的 11 亿参数版 TinyLlama 构建的 SPHINX-Tiny,人人都可以玩!🔥🔥🔥
- [2024-1-5] OpenCompass 现已支持对所有 LLaMA2-Accessory 模型的无缝评估。🔥🔥🔗文档
- [2024-1-2] 我们发布了 SPHINX-MoE,一款基于 Mixtral-8x7B-MoE 的 MLLM。🔥🔥🔥
- [2023-12-12] SPHINX-V2 在 InfiMM-Eval 中取得了卓越成绩,排名仅次于 GPT4-V!🔥🔥🔥
- [2023-12-11] 我们现在支持 mixtral-8x7b 的推理与微调!🔥🔥🔥
- [2023-12-08] 我们发布了 OneLLM,它使用统一框架将 八种 模态对齐到语言!🔥🔥🔥
- [2023-11-17] 我们发布了 SPHINX-V2,同样是同一架构但能力更强!🔥🔥🔥
- [2023.10.17] 我们发布了 SPHINX 的演示、代码和模型!🔥🔥
- [2023.09.15] 我们现在支持 Falcon 180B!🔥🔥
- [2023.09.14] WeMix-LLaMA2-70B 在 OpenCompass 基准测试中表现出色!🔥🔥
- [2023.09.02] 我们现在支持 InternLM🔥
- [2023.08.28] 我们发布了带有 OmniQuant 的量化 LLM,这是一种高效、精准且适用于各种场景(甚至极低比特)的量化算法。多模态版本即将推出。
- [2023.08.27] 我们现在支持 CodeLLaMA,并在 evol-code-alpaca 上进行指令微调。
- [2023.08.27] 我们以网络书籍的形式发布了文档 🔗点击此处查看
- [2023.08.21] 我们发布了量化代码和评估结果。
- [2023.08.05] 我们发布了多模型微调代码和检查点。
- [2023.07.23] 初次发布 📌
特性
💡支持更多数据集和任务
⚡高效的优化与部署
- 🚝 使用 Zero-init Attenion 和 Bias-norm Tuning 实现参数高效的微调。
- 💻 完全分片的数据并行(FSDP)、Flash Attention 2 和 QLoRA。
🏋️♀️支持更多视觉编码器和 LLM
设置
:gear: 关于环境安装,请参阅 环境设置。
模型使用
:robot: 关于模型的预训练、微调、推理及其他相关主题的说明,均已在文档中提供。
常见问题解答 (FAQ)
:question: 遇到问题或有更多疑问?请在此处查找常见问题的答案这里。我们随时为您提供帮助!
示例演示
- 指令微调版 LLaMA2:alpaca & gorilla。
- 聊天机器人版 LLaMA2:dialog_sharegpt & dialog_lima & llama2-chat。
- 多模态版 LLaMA2:in-context & alpacaLlava_llamaQformerv2_13b
- SPHINX:演示
💡 现在,我们的 SPHINX 模型支持根据输入提示生成高质量的边界框,并为图像中的所有对象呈现由 SAM 创建的掩码。快来试试吧这里! 🚀
核心贡献者
Chris Liu、Ziyi Lin、Guian Fang、Jiaming Han、Yijiang Liu、Renrui Zhang、Longtian Qiu、Yichi Zhang、Siyuan Huang
项目负责人
Peng Gao、Wenqi Shao、Shanghang Zhang
招聘公告
🔥 我们正在招聘实习生、博士后及全职研究员,加入上海人工智能实验室通用视觉组,专注于多模态与视觉基础模型研究。如有兴趣,请联系 gaopengcuhk@gmail.com。
引用
如果您觉得我们的代码和论文有用,请引用:
@article{zhang2023llamaadapter,
title = {LLaMA-Adapter:零初始化注意力机制下语言模型的高效微调},
author={Zhang, Renrui and Han, Jiaming and Liu, Chris and Gao, Peng and Zhou, Aojun and Hu, Xiangfei and Yan, Shilin and Lu, Pan and Li, Hongsheng and Qiao, Yu},
journal={arXiv预印本 arXiv:2303.16199},
year={2023}
}
@article{gao2023llamaadapterv2,
title = {LLaMA-Adapter V2:参数高效的视觉指令模型},
author={Gao, Peng and Han, Jiaming and Zhang, Renrui and Lin, Ziyi and Geng, Shijie and Zhou, Aojun and Zhang, Wei and Lu, Pan and He, Conghui and Yue, Xiangyu and Li, Hongsheng and Qiao, Yu},
journal={arXiv预印本 arXiv:2304.15010},
year={2023}
}
致谢
- 感谢 @facebookresearch 提供的 llama
- 感谢 @OpenGVLab 提供的 LLaMA-Adapter
显示更多
- 感谢 @facebookresearch 提供的 ImageBind、LIMA 以及 CodeLlama
- 感谢 @Instruction-Tuning-with-GPT-4 提供的 GPT-4-LLM
- 感谢 @tatsu-lab 提供的 stanford_alpaca
- 感谢 @tloen 提供的 alpaca-lora
- 感谢 @lm-sys 提供的 FastChat
- 感谢 @domeccleston 提供的 sharegpt
- 感谢 @karpathy 提供的 nanoGPT
- 感谢 @Dao-AILab 提供的 flash-attention
- 感谢 @NVIDIA 提供的 apex 以及 Megatron-LM
- 感谢 @Vision-CAIR 提供的 MiniGPT-4
- 感谢 @haotian-liu 提供的 LLaVA
- 感谢 @huggingface 提供的 peft 以及 OBELISC
- 感谢 @Lightning-AI 提供的 lit-gpt 以及 lit-llama
- 感谢 @allenai 提供的 mmc4
- 感谢 @StevenGrove 提供的 GPT4Tools
- 感谢 @ShishirPatil 提供的 gorilla
- 感谢 @OpenLMLab 提供的 MOSS
- 感谢 @thunlp 提供的 UltraChat
- 感谢 @LAION-AI 提供的 LAION-5B
- 感谢 @shikras 提供的 shikra
- 感谢 @kakaobrain 提供的 coyo-dataset
- 感谢 @salesforce 提供的 LAVIS
- 感谢 @openai 提供的 CLIP
- 感谢 @bigcode-project 提供的 starcoder
- 感谢 @tiiuae 提供的 falcon-refinedweb
- 感谢 @microsoft 提供的 DeepSpeed
- 感谢 @declare-lab 提供的 flacuna
- 感谢 @nlpxucan 提供的 WizardLM
- 感谢 @arielnlee 提供的 Platypus
- 感谢 @InternLM 提供的 InternLM
- 感谢 @Google 提供的 Bard
许可协议
Llama 2 根据 LLAMA 2 社区许可证 授权,版权归 Meta Platforms, Inc. 所有。一切权利均保留。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。