open-genmoji
open-genmoji 是一个旨在让所有人都能体验生成式表情符号(Genmoji)的开源项目。它成功复现了苹果设备专属的 Genmoji 功能,但打破了硬件限制,让非苹果用户也能自由创建个性化表情。无论是长着翅膀的飞猪、穿西装的骏马,还是太空泰迪熊,只需输入简单的文字描述,open-genmoji 就能生成风格统一、创意丰富的表情图像。
该项目主要解决了生成式表情符号技术被封闭生态垄断的问题,通过开放的技术方案,让创意表达不再受限于特定品牌或设备。其核心由一系列在 HuggingFace 上公开的 LoRA 模型文件组成,基于强大的 flux-dev 架构,并配合 Qwen 2.5 大模型进行提示词优化,确保生成效果既精准又生动。
open-genmoji 非常适合开发者、AI 研究人员以及希望探索自定义表情设计的设计师使用。对于普通用户而言,只要具备基础的 AI 绘图操作知识,也能轻松上手,将自己的奇思妙想转化为独特的数字表情。作为一个完全开源的项目,它不仅提供了高质量的表情生成能力,更为社区理解和研究苹果 Genmoji 背后的技术原理提供了宝贵的参考实例,推动了生成式 AI 在大众层面的普及与应用。
使用场景
某跨平台社交应用的产品团队正计划上线“用户自定义表情”功能,希望让用户能通过文字描述生成独一无二的个性化 Emoji,以增强社区互动趣味性。
没有 open-genmoji 时
- 设备生态受限:团队只能依赖苹果设备的 Genmoji 功能,导致安卓和 Web 端用户无法体验该特性,造成严重的用户体验割裂。
- 开发成本高昂:若自行训练生成模型,需要昂贵的算力资源和漫长的数据清洗周期,初创团队难以承担。
- 创意实现僵化:现有静态贴图库无法覆盖用户千奇百怪的脑洞(如“穿西装的飞马”或“太空泰迪熊”),只能提供有限的预设选项。
- 迭代响应缓慢:每当需要新增特定风格的表情时,都必须等待设计师手动绘制,无法实时响应用户的即时创作需求。
使用 open-genmoji 后
- 全平台无缝覆盖:利用 open-genmoji 的开源 LoRA 模型,团队成功在安卓、iOS 及网页端统一部署了生成能力,所有用户均可平等使用。
- 快速低成本落地:直接复用 HuggingFace 上成熟的
flux-devLoRA 文件,无需从零训练,几天内即可完成功能集成与上线。 - 无限创意支持:用户输入任意自然语言提示词(如“拿着钱袋的劫匪”),open-genmoji 即可实时生成高质量、风格统一的动态表情,完美还原用户想象。
- 实时交互体验:结合后端部署,实现了“输入即生成”的流畅交互,用户不再需要等待人工审核或制作,极大提升了创作热情。
open-genmoji 打破了专有硬件的壁垒,让每个开发者都能以极低的成本为用户赋予“所想即所得”的创意表达权。
运行环境要求
- macOS
- Linux
- Windows
未说明(教程主要针对 macOS,但指出项目可适配其他系统,需自行准备能运行 Flux.1 Dev + LoRA 的工具)
未说明

快速开始
HuggingFace | 快速入门 | 教程 | 制作 Open Genmoji(视频)
什么是 Open Genmoji?
请观看 YouTube,了解 Open Genmoji 的创作过程,并深入探究 Apple Genmoji 的底层工作原理。
Open Genmoji 致力于使用开源技术重现 Apple 的 Genmoji 功能!它不仅能在 Apple 设备上运行,还能在任何平台上使用。
以下是 Open Genmoji 的一些示例:
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
|---|
提示词、与 Apple Genmoji 的对比及更多信息
所有展示的表情符号均由 flux-dev Open Genmoji LoRA 和 Prompt Assist 生成。我们对 Open Genmoji 和 Apple 使用了完全相同的提示词,Prompt Assist 则基于 Qwen 2.5 32B Instruct 模型运行。
表情符号的背景通过 Figma AI 工具去除。
这 7 个样本分别展示了 Open Genmoji 在动物、物品和人物表情符号方面的表现。
| 提示词 | Open Genmoji | Apple |
|---|---|---|
flying pig white wings(动物表情符号) |
![]() |
![]() |
handsome horse in black suit and tie with flowing mane(动物表情符号) |
![]() |
![]() |
teddy bear in space suit(动物表情符号) |
![]() |
![]() |
rainbow popsicle(物品表情符号) |
![]() |
![]() |
fireplace(物品表情符号) |
![]() |
![]() |
robber with money bag(人物表情符号) |
![]() |
![]() |
hiker(人物表情符号) |
![]() |
![]() |
本质上,Open Genmoji 只是一组 LoRA 文件(可在 HuggingFace 上获取),每一份都基于数千个 Apple 表情符号进行微调,从而教会图像生成模型如何创建表情符号。只要能够在图像生成模型中加载 LoRA,就可以使用 Open Genmoji。
此外,Open Genmoji 还配备了特殊的元提示词工具——Open Genmoji Prompt Assist,帮助你构建完美的提示词,以生成任意想要的表情符号。部分 Open Genmoji LoRA 也可能自带专属的元提示词。
最棒的是,你甚至可以将自己生成的内容在 iOS 18 及更高版本中作为真正的表情符号使用——即使你的手机不支持 Apple Intelligence!
如果你熟悉图像生成模型,请直接跳转至 快速入门。否则,建议先阅读 教程,以获得更全面的说明。
目录
重要须知
请在继续操作本仓库之前仔细阅读!
简而言之:请使用 Python 3.11,并通过 HuggingFace 下载权重。
- 本项目 最适合使用 Python 3.11。如果你有 Python 版本管理工具,只需安装 Python 3.11,并将所有命令中的
python3替换为python3.11,同时确保使用python3.11创建虚拟环境。 - 本项目的各类 LoRA 权重均托管在 HuggingFace 上,地址为 EvanZhouDev/open-genmoji。更多详情请参阅下方的 下载微调模型。
下载微调模型
Open Genmoji 的多种 LoRA 文件已在 HuggingFace 的 EvanZhouDev/open-genmoji 页面上发布。不过,本仓库内附带了一个脚本,可简化这些 LoRA 文件的下载流程。
首先,克隆本仓库:
git clone https://github.com/EvanZhouDev/open-genmoji.git
接下来,我们需要安装 huggingface_hub 库。建议先创建一个虚拟环境。
# 创建虚拟环境(可选)
python3 -m venv .venv
source .venv/bin/activate
# 安装 huggingface_hub
pip install -U huggingface_hub
现在,你只需运行根目录下的 download.py 脚本即可:
python3 download.py
接下来,你可以选择要安装的 LoRA。每个 LoRA 都附有简短描述以及它所适用的模型。例如,我们选择 flux-dev LoRA。
等待几秒钟后,请确认 lora/flux-dev.safetensors 已成功安装。该文件大小应为 209MB。一切就绪!根据你的需求选择合适的 LoRA 即可。
快速入门
如果你想了解详细的运行步骤,请参阅【教程】部分。
如果你已经熟悉相关操作,以下是快速入门指南:
- 使用 Python 3.11 以确保一切正常运行。
- 从 HuggingFace 的 EvanZhouDev/open-genmoji 获取 LoRA。更多信息请参阅上方的【下载微调模型】部分。目前有多种 LoRA 可供选择。
- Open Genmoji 的元提示位于
metaprompt文件夹中,可以帮助你构建完美的提示词。点击此处了解更多。 强烈推荐使用! - 使用你下载的 LoRA(例如 Flux.1 Dev)运行相应的图像模型。请参阅【后处理】部分,了解如何将生成的作品用作 iOS 18 中的真实表情符号。
提示词编写技巧
LoRA 的触发词(即图像模型需要“听到”才能开始生成表情符号的关键字)是“emoji”。如果你的提示词中未包含此关键词,则很可能无法生成真正的表情符号。
此外,为了编写出优质的提示词,我强烈建议使用 Prompt Assist。
Prompt Assist
Open Genmoji Prompt Assist 是一种结合元提示与 Open Genmoji 使用的方式,旨在帮助你为 Open Genmoji 微调模型生成最理想的提示词。请注意,每种微调模型可能对应不同的元提示。你可以在 lora/info.json 文件中查看各模型使用的元提示,然后在 metaprompt 文件夹中找到对应的元提示。
不过,如果你要生成 Apple 表情符号,直接使用
metaprompt/open-genmoji.md即可。
以下是 Prompt Assist 的示例:
| 输入 | 输出 |
|---|---|
flying pig |
一只飞翔的粉色猪的表情符号。卡通风格,头部放大。可爱。白色翅膀。头部朝向观看者。3D 光照效果。无投影阴影。 |
此结果由
metaprompt/open-genmoji.md生成。
现在,你可以专注于构思完美的表情符号,而 Prompt Assist 则会帮你将其转化为图像模型能够理解的提示语。
这些元提示也可以用于任何大型语言模型(如 ChatGPT),以生成适用于 Open Genmoji 的提示词。
请参阅【LM Studio Prompt Assist 和 mflux 工作流】部分,了解我在 Mac 上同时使用 LM Studio 和 mflux 运行 Open Genmoji 的完整流程。该工作流会自动为正确的 LLM 选择元提示,因此你无需再检查 info.json 文件。
教程
本教程专为 macOS 设计。不过,Open Genmoji 完全可以适配其他操作系统。你只需要另外的工具来运行带有 LoRA 的 Flux.1 Dev 模型即可。
如果你是图像生成或本地运行模型的新手,那么本指南非常适合你。我们将一步步引导你完成 Open Genmoji 的运行,并教你如何使用 Open Genmoji Prompt Assist 元提示。
在开始之前,请确保使用 Python 3.11。最简单的方法是通过你喜欢的方式安装 Python 3.11,然后将命令行中的 python3 或 python 替换为 python3.11。同时,请务必使用 Python 3.11 创建虚拟环境。
首先,让我们从运行模型开始。
前置条件
在开始之前,我们需要先设置 HuggingFace。如果你已经拥有 HuggingFace 令牌、登录了 CLI,并同意了 Flux.1 Dev 的使用条款,请直接跳转至【使用 mflux 运行 Open Genmoji】部分。
设置 HuggingFace:
- 访问 HuggingFace,注册并验证邮箱。
- 进入 HuggingFace 令牌设置,创建一个令牌。确保令牌类型为 读取,或者在细粒度令牌类型中勾选 对所有可访问的公共 gated 仓库内容的读取权限。
- 使用你喜欢的方式(Homebrew、pip 等)安装 HuggingFace CLI。
- 运行
huggingface-cli login,并使用你的令牌登录。 - 最后,前往 Flux.1 Dev 的 HuggingFace 页面。阅读并同意页面顶部的条款,以使用该 gated 模型。
大功告成!当你首次运行下方的 mflux 时,它会自动下载 Flux.1 Dev 模型。
使用 mflux 运行 Open Genmoji
本指南中我们将使用的图像模型是 Flux.1 Dev。Open Genmoji 以 LoRA 的形式存在,它只是一个文件,能够教会图像模型执行特定任务——在本例中就是生成表情符号!
首先,克隆本仓库:
git clone https://github.com/EvanZhouDev/open-genmoji.git
接下来,我们需要安装一些依赖项。建议创建一个虚拟环境:
# 创建虚拟环境(可选)
python3 -m venv .venv
source .venv/bin/activate
# 安装 huggingface_hub 和 mflux
pip install -U huggingface_hub mflux
这些依赖项的作用如下:
huggingface_hub:用于下载运行 Open Genmoji 所需的权重。mflux:这是 Flux 的移植版本,专门用于 Mac 平台的图像生成。
现在,我们来安装 LoRA。HuggingFace 上的 EvanZhouDev/open-genmoji 提供了多种 LoRA,适用于不同场景。你可以在当前目录下运行一个快捷安装脚本:
python3 ./download.py
现在,你可以选择想要安装的 LoRA。在本教程中,我们安装名为 flux-dev 的 LoRA。使用方向键导航到它,然后按 Enter 键进行选择。
安装完成后,请确认 lora/flux-dev.safetensors 已下载。这正是你将要使用的 LoRA。
至此,准备工作已完成。运行以下命令即可生成你的第一个表情符号。尝试调整提示词,看看能创造出什么有趣的内容。(如果始终得不到理想效果,不妨参考【Prompt Assist】部分)
mflux-generate \
--model dev \
--prompt "你的提示词" \
--steps 20 \
--seed 2 \
--quantize 8 \
--guidance 5.0 \
--width 160 \
--height 160 \
--lora-paths "./lora/flux-dev.safetensors"
使用提示助手运行 Open Genmoji
要编写一个能生成类似 Apple 风格表情符号的良好提示,通常相当困难。因此,我们将使用元提示——即用于大语言模型的提示——来为 Open Genmoji 生成提示。以下是一个示例:
| 输入 | 输出 |
|---|---|
flying pig |
一只飞翔的粉色小猪的表情符号。卡通风格,头部放大。可爱。白色翅膀。头部朝向观看者。3D 光照效果。无投影阴影。 |
现在生成的提示要好得多,由此生成的表情符号质量也会更高。
你可以将元提示输入到任何可用的大语言模型中,包括 ChatGPT!每个 LoRA 都有自己的元提示。但在我们的例子中,我们将直接使用 flux-dev LoRA 对应的 metaprompt/open-genmoji.md 文件。接下来,将该元提示提供给大语言模型,然后在其后加上你的用户提示,格式如下:
{METAPROMPT HERE}
USER PROMPT: {your input}
随后,将大语言模型的输出传递给 mflux。你会发现,最终生成的结果要好得多!
现在你已经得到了一张图像输出,可以前往 后处理 部分,开始将你的作品用作 iPhone 上的真实表情符号;或者在下方了解更多关于如何将提示助手与 mflux 链接起来的信息。
LM Studio 提示助手与 mflux 工作流
如果你尚未完成,请先前往 下载微调模型 下载 LoRA 模型。
手动将自定义提示输入大语言模型,再将模型的输出传递给 mflux,这个过程略显繁琐。为此,我编写了一个简单的 Python 工作流来自动串联这些步骤。
虽然这套设置较为特定且个人化,但我还是决定将其公开,以供有兴趣的人使用。
首先,你需要安装 LM Studio。下载你喜欢的本地模型,并启动开发模式。默认情况下,它会运行在端口 1234 上。
接着,除了 mflux 之外,还需安装以下两个依赖库:
pip install mflux pillow requests
确保 LM Studio 设置正确后,你就可以直接运行以下命令:
python3 genmoji.py "[your prompt]"
注意,此脚本会自动使用
flux-devLoRA(如果未安装该 LoRA,则会报错)。如需使用其他 LoRA,请参阅下方的 高级用法。
运行后,脚本会先通过 LM Studio 生成提示,再将该提示输入 mflux 进行处理。最终生成的图像默认保存为 output/genmoji-001.png(文件名中的数字会自动递增)。
注意:在保存之前,脚本还会执行后处理步骤,将图像按 5 倍比例放大并进行抗锯齿处理(160×160 → 800×800)。更多详情请参阅 后处理 部分。
接下来,让我们查看 后处理 部分,了解如何将你的作品作为 iOS 系统中的真实表情符号使用;或者参阅 高级用法 部分,学习如何在此工作流中使用不同的 LoRA。
高级用法
使用不同 LoRA
该工作流还支持在使用不同 LoRA 时自动选择对应的元提示。
你只需在命令中添加额外的 --lora 或 -l 参数即可,例如:
python3 genmoji.py "[your prompt]" --lora [lora name]
以 @caspersimon 的 diverse-emoji LoRA 为例。首先,你需要确保已通过下载脚本将其下载到位(详见 下载微调模型)。然后运行以下命令:
python3 genmoji.py "[your prompt]" -l diverse-emoji
这样,脚本会自动获取正确的元提示,应用该提示,并使用 diverse-emoji LoRA 生成表情符号。
跳过提示助手
若希望直接生成而无需先使用提示助手,可在命令中添加 --direct 或 -d 标志。
python3 genmoji.py "一只松鼠的表情符号" -d
自定义分辨率生成
默认分辨率为 160×160。如需更改,可使用 --height 或 -ih 参数调整图像高度,以及 --width 或 -iw 参数调整图像宽度。
例如,要生成一只戴着太阳镜的狗的表情符号,分辨率为 320×320 像素,可运行:
python3 genmoji.py "戴太阳镜的狗" -ih 320 -iw 320
更改放大倍数
默认情况下,图像会被放大至原始分辨率的 5 倍。如需更改,可使用 --upscale 或 -u 参数。
例如,若希望将图像放大至原尺寸的 2 倍,可运行:
python3 genmoji.py "一只松鼠的表情符号" -u 2
后处理
现在你已经获得了一张输出图像,第一步是将其调整为 800×800 像素,并进行抗锯齿处理,以便 iOS 的贴纸/表情符号系统能够识别它。如果你使用的是 LM Studio 和 mflux 的一体化工作流,这一步已经自动完成。
若尚未安装相关工具,首先需要安装 pillow 库来执行后续操作:
pip install pillow
之后,只需运行 python3 resize.py path/to/your/image.png 即可。该脚本会生成一张新图像,文件名中会包含“resized”字样。
接下来,只需将这张图像发送到你的手机上。按照以下简单步骤,即可将其用作贴纸(iOS 17 及以上版本)或表情符号(iOS 18 及以上版本):
- 在手机相册中打开该图像。
- 长按图片中的表情符号(不要移动手指),持续约 2 秒后松开。
- 点击 添加贴纸 按钮。
如果你使用的是 iOS 17 或更高版本,可以直接将该贴纸拖拽到消息中应用。 如果你使用的是 iOS 18 或更高版本,在表情符号菜单中,只需轻点你的贴纸,即可像普通表情符号一样直接插入文本中。 若想删除该贴纸,同样长按贴纸(不要移动手指),持续约 2 秒后松开,然后点击 删除 即可。
贡献
Open Genmoji 欢迎更多 LoRA 的加入,用于:
- 新模型
- 新的或不同的表情符号集
- 对现有表情符号集的进一步训练
有关微调的更多信息,请参阅 finetuning/README.md;有关当前可用的 LoRA 以及如何贡献的详细信息,请参阅 lora/README.md。
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。













