YuLan-Chat

GitHub
637 60 中等 1 次阅读 昨天MIT语言模型
AI 解读 由 AI 自动生成,仅供参考

YuLan-Chat 是由中国人民大学高瓴人工智能学院研发的一系列开源大语言模型,取名自该校校花“玉兰”。它专注于提供高质量的中英文对话能力,旨在解决通用大模型在中文语境理解、长文本处理以及人类价值观对齐方面的不足。

该模型特别适合 AI 研究人员、开发者以及需要部署私有化智能助手的企业用户。对于希望深入探索大模型训练机制或进行二次开发的团队,YuLan-Chat 提供了从基础版到对话版的完整权重与技术细节。

其核心技术亮点在于采用了“从头预训练”与“课程学习”策略。模型基于超过 1.6TB 的多语言数据进行训练,显著提升了双语表达能力;同时,通过引入人类偏好数据的课程学习微调,有效增强了回答的有用性、诚实性与安全性。此外,YuLan-Chat 专门扩充了中文词表并支持 4k 上下文长度,使其在处理长篇中文输入与输出时表现更加流畅自然。无论是作为学术研究的基线模型,还是构建实际应用场景中的聊天机器人,YuLan-Chat 都是一个值得关注的强力选择。

使用场景

某跨境电商运营团队需要每日处理大量中英双语用户评论,并生成符合品牌调性的中文回复草稿。

没有 YuLan-Chat 时

  • 语言理解割裂:通用模型在处理夹杂英文专有名词或俚语的中文评论时,常出现语义误读,导致回复答非所问。
  • 文化适配性差:生成的回复语气生硬,缺乏“人情味”,甚至因对齐训练不足而输出机械或略带冒犯的语句。
  • 长文本支持弱:面对用户长篇大论的投诉或建议,模型受限于上下文窗口,经常遗漏关键细节,无法进行连贯总结。
  • 人工复核成本高:运营人员需花费大量时间逐条修改机器生成的草稿,效率提升有限,难以实现规模化自动化。

使用 YuLan-Chat 后

  • 双语无缝切换:得益于大规模中英双语预训练,YuLan-Chat 能精准识别混合语言场景下的细微语义,准确捕捉用户意图。
  • 拟人化交互增强:通过课程学习策略进行的人类对齐训练,使 YuLan-Chat 输出的回复更加诚实、有用且语气自然,符合客服规范。
  • 长上下文掌控力:依托扩充的词表和 4k 上下文支持,YuLan-Chat 能完整阅读长篇评论并提炼核心诉求,生成逻辑严密的针对性回复。
  • 工作流显著提速:高质量的初始草稿将人工修改率降低至 10% 以下,团队可将精力集中于处理复杂客诉,整体响应速度提升三倍。

YuLan-Chat 凭借卓越的双语能力与人类对齐优势,成功将跨语言客服场景从“辅助工具”升级为“可靠搭档”。

运行环境要求

操作系统
  • 未说明
GPU

需要 NVIDIA GPU(依赖 bitsandbytes 进行量化),具体显存需求取决于模型版本(12B/13B/65B)及是否使用量化,CUDA 版本需与 PyTorch 版本匹配

内存

未说明

依赖
notes建议根据官方指南安装 PyTorch 和 bitsandbytes 以适应具体环境;基于 LLaMA 的模型仅提供权重差值,需结合原始 LLaMA 权重使用;基于 LLaMA-2 的模型可直接使用;模型支持 4k 或 8k 上下文长度(视具体版本而定)。
python3.10
torch==1.13
bitsandbytes==0.39.0
YuLan-Chat hero image

快速开始

玉兰:一个开源大型语言模型

license Static Badge

YuLan-Chat模型是中国人民大学高瓴人工智能学院的研究人员开发的基于对话的大语言模型(“玉兰”取自中国人民大学校花)。最新版本从头开始进行预训练,并通过课程学习策略,结合高质量的中英文指令和人类偏好数据进行有监督微调。该模型具有以下技术特点:

  • 由于在大规模高质量的中英文及多语言数据上进行了预训练,模型的语言能力得到了显著提升。
  • 采用课程学习策略进行人类对齐训练,进一步增强了模型的有用性、诚实性和无害性。
  • 为更好地支持中文长文本输入输出,我们扩展了词表并增加了最大输入长度,目前可支持4k上下文。

YuLan-Chat系列模型是中国人民大学高瓴人工智能学院师生共同开发的支持聊天的大语言模型(名字"玉兰"取自中国人民大学校花)。最新版本从头完成了整个预训练过程,并采用课程学习技术基于中英文双语数据进行有监督微调,包括高质量指令和人类偏好数据。该版模型具有如下技术特点:

  • 由于在大规模中英双语数据上进行了继续预训练,模型的语言能力得到提高;
  • 由于采用了课程学习方法进行人类对齐训练,模型在真实场景下的有用性、诚实性与无害性得到了增强;
  • 为了更好的支持中文和更长的输入输出,模型的词表及长度得到了扩充,目前可支持4k上下文。

新闻

  • [2024年12月25日] 我们发布了YuLan-Mini,这是一款仅使用1T预训练数据的高性能轻量级2.4B语言模型。更多详情请参见此处
  • [2024年7月1日] 我们发布了YuLan-Base-12B,这是一个从零开始训练的基础模型,以及其对话版YuLan-Chat-3-12B。我们在超过1.6TB的中英文及多语言数据上进行了大规模预训练,随后通过课程学习方法,结合高质量的中英文指令和人类偏好数据进行有监督微调,最终得到了对话版模型。
  • [2023年8月18日] 我们的YuLan-Chat-2-13BOpenCompass基准测试中取得了第5名!
  • [2023年8月2日] 我们发布了YuLan-LLaMA-2-13BYuLan-Chat-2-13B。这两款模型均基于LLaMA-2,在中英文语料上进行了持续预训练;其中,YuLan-Chat-2-13B是在YuLan-LLaMA-2-13B的基础上,使用高质量的中英文对话指令进行微调后的对话型模型。
  • [2023年8月2日] 我们发布了YuLan-Chat-1-65B-v2,该模型在LLaMA-65B的基础上进行了中英文语料的持续预训练,随后使用高质量的中英文指令进行了微调。
  • [2023年6月8日] 我们发布了YuLan-Chat-1-13B-v1YuLan-Chat-1-65B-v1,以及相应的INT-8量化脚本。
  • [2024年7月1日] 我们发布了YuLan-Base-12B,一个完全从头训练的Base模型,以及其Chat化版本YuLan-Chat-3-12B。我们在超过1.6TB词元的中、英文和多语数据上进行了大规模预训练,得到了Base模型,然后基于高质量双语指令和人类偏好数据,使用课程学习方法进行有监督微调,最终得到了Chat化的版本。
  • [2023年8月2日] 我们发布了YuLan-LLaMA-2-13BYuLan-Chat-2-13B两个模型,其都在LLaMA-2的基础上进行了双语继续预训练,YuLan-Chat-2-13B在YuLan-LLaMA-2-13B基础上进行了双语高质量对话指令微调。
  • [2023年8月2日] 我们发布了YuLan-Chat-1-65B-v2模型,其在LLaMA-65B的基础上进行了双语继续预训练,然后用高质量双语指令进行了微调。
  • [2023年6月8日] 我们发布了YuLan-Chat-1-13B-v1YuLan-Chat-1-65B-v1两个模型,以及对应的int8量化脚本。

模型库

由于许可证限制,对于基于LLaMA的模型,我们仅提供与原始检查点的权重差异;而基于LLaMA-2的模型则可以直接使用。更多详细信息请参阅使用说明部分。

局限性:尽管我们尝试减少模型在使用中可能出现的安全性问题,并鼓励模型生成符合道德和法律要求的文本,但由于语言模型基于概率生成的范式,模型仍然可能会产生意外的输出。 例如,生成的响应可能包含偏见、歧视或其他有害内容。 请不要传播此类内容。 我们对因传播有害信息而造成的任何后果不承担任何责任。

由于许可证的限制,基于LLaMA的模型我们仅提供与官方模型的差值,基于LLaMA-2的模型可直接使用,具体请参见使用方法章节。

局限性:尽管我们尝试减少模型在使用中可能出现的安全性问题,并鼓励模型生成符合道德和法律要求的文本,但由于语言模型基于概率生成的范式,模型仍然可能会产生意外的输出。 例如,生成的响应可能包含偏见、歧视或其他有害内容。 请不要传播此类内容。 我们对因传播有害信息而造成的任何后果不承担任何责任。

模型 骨干架构 扩展词表 扩展长度 持续预训练 有监督微调 发布日期
YuLan-Base-12B YuLan-Base-12B ✅ 51,190 ✅ 4,096 2024.7.1
YuLan-Chat-3-12B YuLan-Base-12B ✅ 51,190 ✅ 4,096 2024.7.1
YuLan-Chat-2-13B LLaMA2-13B ✅ 51,190 ✅ 8,192 2023.8.2
YuLan-LLaMA-2-13B LLaMA2-13B ✅ 51,190 ✅ 8,192 2023.8.2
YuLan-Chat-1-65B-v2 LLaMA-65B ✅ 51,190 ❌ 2,048 2023.8.2
YuLan-Chat-1-13B-v1 LLaMA-13B ❌ 32,000 ❌ 2,048 2023.6.8
YuLan-Chat-1-65B-v1 LLaMA-65B ❌ 32,000 ❌ 2,048 2023.6.8

评估

我们在多个中英文基准测试上对YuLan-Chat模型进行了评估,结果如下所示。

我们在中英文的一些基准测试上对YuLan-Chat进行了评价,其结果如下。

MMLU

MMLU(大规模多任务语言理解)是一个基准测试集,旨在通过仅在零样本和少样本设置下评估模型来衡量其在预训练过程中所获得的知识。

MMLU是一个评估模型知识量的常用的英文基准测试集。

模型 STEM 社会科学 人文科学 其他 平均
YuLan-Chat-1-13B-v1 39.6 57.8 42.6 57.6 49.4
YuLan-Chat-1-65B-v1 49.2 71.7 57.7 66.7 61.3
YuLan-Chat-1-65B-v2 46.3 67.9 56.9 63.9 58.7
LLaMA-2-13B 44.6 64.2 53.9 62.2 56.2
FlagAlpha/Llama2-Chinese-13b-Chat 44.4 63.2 51.6 60.6 55.0
Linly-AI/Chinese-LLaMA-2-13B-hf 43.6 62.7 49.8 61.6 54.4
YuLan-LLaMA-2-13B 42.9 61.5 50.4 58.6 53.4
YuLan-Chat-2-13B 45.3 66.7 53.8 62.8 57.2
YuLan-Base-12B 42.3 60.2 46.4 56.1 51.3
YuLan-Chat-3-12B 45.5 64.3 51.8 61.3 55.7

C-Eval

C-Eval 是一个针对基础模型的综合性中文评估套件。

C-Eval是一个针对基石模型综合能力的中文基准测试集。

模型 STEM 社会科学 人文科学 其他 平均 平均(难)
YuLan-Chat-1-13B-v1 30.2 37.4 31.9 30.7 32.0 25.7
YuLan-Chat-1-65B-v1 37.7 46.1 36.8 38.0 39.2 31.1
YuLan-Chat-1-65B-v2 39.9 55.9 47.7 43.7 45.4 31.4
LLaMA-2-13B 36.9 43.2 37.6 36.6 38.2 32.0
FlagAlpha/Llama2-Chinese-13b-Chat 36.8 44.5 36.3 36.5 38.1 30.9
Linly-AI/Chinese-LLaMA-2-13B-hf 33.7 44.8 36.6 36.5 37.0 27.7
YuLan-LLaMA-2-13B 35.3 46.4 41.9 37.6 39.3 28.6
YuLan-Chat-2-13B 38.9 49.7 45.0 40.8 42.6 32.2
YuLan-Base-12B 42.0 57.6 47.2 41.5 46.0 32.6
YuLan-Chat-3-12B 47.0 61.8 52.9 44.3 50.5 37.7

AGI-Eval-Gaokao

AGI-Eval 是一个以人为中心的基准,专门设计用于评估基础模型在与人类认知和解决问题相关的任务中的一般能力。我们使用其中的"高考"分支进行评测。

AGI-Eval 是一个以人为中心的基准,专门设计用于评估基础模型在与人类认知和解决问题相关的任务中的一般能力。我们使用其中的"高考"分支进行评测。

模型 平均 中文 英语 地理 历史 生物 化学 物理 数学-问答 数学-填空
YuLan-Chat-1-13B-v1 29.2 32.1 63.1 34.7 25.1 26.2 29.0 25.5 26.5 0.9
YuLan-Chat-1-65B-v1 34.6 24.8 82.0 44.2 44.3 31.4 30.9 26.0 27.1 0.9
YuLan-Chat-1-65B-v2 37.9 31.4 80.4 50.8 56.6 33.3 29.0 32.0 24.4 0.8
LLaMA-2-13B 32.7 27.2 72.2 36.2 43.0 26.2 32.4 30.0 26.2 0.9
FlagAlpha/Llama2-Chinese-13b-Chat 31.6 26.4 70.6 35.2 38.7 28.1 28.0 29.5 25.6 2.5
Linly-AI/Chinese-LLaMA-2-13B-hf 31.1 22.8 74.8 42.2 37.9 24.3 28.0 23.0 26.5 0.0
YuLan-LLaMA-2-13B 34.2 25.2 70.3 43.2 48.5 30.0 29.5 31.0 28.5 1.7
YuLan-Chat-2-13B 39.5 37.0 85.3 46.7 51.9 43.8 38.2 29.0 23.1 0.9
YuLan-Chat-3-12B 43.5 31.3 68.3 53.3 60.9 43.8 34.8 27.5 28.2 0.9
YuLan-Chat-3-12B 49.5 43.9 80.4 57.3 69.4 53.8 37.7 27.0 26.2 0.9

使用方法

环境配置

conda create -n yulan python=3.10 -y
conda activate yulan

我们建议根据官方手册安装pytorch和bitsandbytes,此处提供我们使用的版本作为参考。

我们建议根据官方手册安装pytorch和bitsandbytes,此处提供我们使用的版本作为参考。

torch==1.13
bitsandbytes==0.39.0

然后,安装其他所需的包。

pip install -r requirements.txt

模型权重恢复

  1. 对于YuLan-Chat-1-13B-v1、YuLan-Chat-1-65B-v1和YuLan-Chat-1-65B-v2,由于它们基于LLaMA,您需要先下载LLaMA的原始权重,然后将我们发布的参数差值合并到原始模型参数中以获得最终的参数。

对于基于LLaMA的模型,请先下载LLaMA官方模型,然后将我们发布的参数差值合并到原始模型参数中以获得最终的参数。

python3 apply_delta.py \
    --base-model-path ./llama-13b/ \
    --tuned-model-path ./yulan-13b/ \
    --delta-path ./yulan-13b-delta
  1. 对于YuLan-LLaMA-2-13B和YuLan-Chat-2-13B,您可以直接下载我们发布的检查点,并使用Huggingface Transformers加载其参数。

对于基于LLaMA-2的模型,可以直接下载我们发布的模型权重,并使用Huggingface Transformers进行使用。

从 Hugging Face Transformers 导入

由于我们的模型基于 LLaMA 训练,因此可以使用与原始 LLaMA 相同的方式加载。

由于我们的模型与LLaMA具有相似的结构,可以使用与LLaMA相同的方法加载。

>>> from transformers import AutoTokenizer, AutoModelForCausalLM
>>> tokenizer = AutoTokenizer.from_pretrained("yulan-team/YuLan-Chat-3-12b")
>>> model = AutoModelForCausalLM.from_pretrained("yulan-team/YuLan-Chat-3-12b").cuda()
>>> model = model.eval()
>>> input_text = "hello"
>>> prompt = "The following is a conversation between a human and an AI assistant namely YuLan, developed by GSAI, Renmin University of China. The AI assistant gives helpful, detailed, and polite answers to the user's questions.\n[|Human|]:{}\n[|AI|]:".format(input_text)
>>> inputs = tokenizer(prompt, return_tensors='pt', padding="longest", max_length=4096, truncation=True, return_attention_mask=True, add_special_tokens=True)
>>> kwargs = {'temperature': 0.8, 'top_p': 0.95, "top_k": 50, "repetition_penalty": 1.1, "no_repeat_ngram_size": 64, "max_length": 4096, "pad_token_id": tokenizer.bos_token_id, "eos_token_id": tokenizer.eos_token_id}
>>> outputs = model.generate(inputs['input_ids'].to(model.device), attention_mask=inputs['attention_mask'].to(model.device), do_sample=True, **kwargs)
>>> print(tokenizer.batch_decode(outputs, skip_special_tokens=True)[len(prompt):])

命令行推理

我们提供了 YuLan-Chat 的命令行推理代码。

我们提供命令行预测脚本。

python inference.py --model_path ~/pretrain-checkpoint/yulan-13b/

我们还提供了一种量化方法,以便更高效地部署 YuLan-Chat。经过量化后,模型可以被加载进单张 GPU 中。

我们也提供了一种量化的方法以便于更轻量化地部署YuLan-Chat。经过量化后,模型可以被加载进单张GPU中。

YuLan-Chat (INT-8) GPU 消耗
13B RTX3090-24G
65B A100-80G
python inference.py --model_path ~/pretrain-checkpoint/yulan-13b/ --load_in_8bit

许可证

YuLan-Chat 使用 MIT 许可证。本项目中的所有数据和代码仅可用于学术研究目的。

本项目使用MIT许可,所有的数据和代码仅供学术研究使用。

贡献者

预训练 微调
Yutao Zhu (负责人), Kelong Mao, Wentong Chen, Yiding Sun, Yihan Wu, Qian Cao, Lei Zhang, Feng Wang, Qiangqiang Ren Kun Zhou (负责人), Yushuo Chen, Zhipeng Chen, Lei Wang, Yupeng Hou, Xincheng Pang, Xinyu Tang, Junyi Li, Yuhan Chen, Shufang Xie

参考文献

如果您觉得我们的工作对您有所帮助,请引用我们的论文。

如果我们的项目对您有帮助,请引用我们,谢谢!

@article{yulan,
  author       = {Yutao Zhu and 
                  Kun Zhou and 
                  Kelong Mao and 
                  Wentong Chen and 
                  Yiding Sun and 
                  Zhipeng Chen and 
                  Qian Cao and 
                  Yihan Wu and 
                  Yushuo Chen and 
                  Feng Wang and 
                  Lei Zhang and 
                  Junyi Li and 
                  Xiaolei Wang and 
                  Lei Wang and 
                  Beichen Zhang and 
                  Zican Dong and 
                  Xiaoxue Cheng and 
                  Yuhan Chen and 
                  Xinyu Tang and 
                  Yupeng Hou and 
                  Qiangqiang Ren and 
                  Xincheng Pang and 
                  Shufang Xie and 
                  Wayne Xin Zhao and 
                  Zhicheng Dou and 
                  Jiaxin Mao and 
                  Yankai Lin and 
                  Ruihua Song and 
                  Jun Xu and 
                  Xu Chen and 
                  Rui Yan and 
                  Zhewei Wei and 
                  Di Hu and 
                  Wenbing Huang and 
                  Ze-Feng Gao and 
                  Yueguo Chen and 
                  Weizheng Lu and 
                  Ji-Rong Wen},
  title        = {YuLan: An Open-source Large Language Model},
  journal      = {CoRR},
  volume       = {abs/2406.19853},
  year         = {2024},
  url          = {https://doi.org/10.48550/arXiv.2406.19853},
  doi          = {10.48550/ARXIV.2406.19853},
  eprinttype    = {arXiv},
  eprint       = {2406.19853}
}

YuLan-1

您可以参考我们的 原始分支 以获取关于 YuLan-Chat-1 和指令集的更多详细信息。

更多关于指令构造的细节,可以参考我们之前的分支。

点赞历史

点赞历史图表

常见问题

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|3天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|2天前
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|4天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.1k|★★★☆☆|今天
语言模型图像开发框架