MiniOneRec

GitHub
1.5k 205 较难 1 次阅读 今天Apache-2.0语言模型开发框架
AI 解读 由 AI 自动生成,仅供参考

MiniOneRec 是全球首个完全开源的生成式推荐框架,旨在为大规模推荐系统提供从数据构建到模型训练的一站式解决方案。它主要解决了传统推荐方法难以有效融合大语言模型语义知识、以及生成式推荐流程复杂且缺乏统一复现标准的痛点。

该工具特别适合推荐算法工程师、AI 研究人员以及希望探索下一代推荐技术的开发者使用。其核心工作流包含三个关键阶段:首先通过独特的 SID 构建技术,将商品标题和描述转化为紧凑的语义令牌;接着利用监督微调(SFT),让模型在学习用户行为序列的同时,通过对齐目标继承大模型的通用世界知识;最后引入面向推荐的强化学习(RL)进一步优化策略。

MiniOneRec 的技术亮点在于其创新的“残量量化变分自编码器(RQ-VAE)”用于生成离散物品代码,以及支持多 GPU 并行的高效文本向量化能力。此外,项目持续更新,不仅修复了数据泄露等潜在问题,还提供了灵活的训练选项(如冻结大模型参数仅训练嵌入层),并兼容多种主流数据集。无论是用于学术研究复现,还是构建工业级原型,MiniOneRec 都提供了一个透明、高效且易于扩展的基础设施。

使用场景

某大型电商平台的算法团队正致力于升级其推荐系统,试图利用大语言模型的语义理解能力来提升长尾商品的点击率。

没有 MiniOneRec 时

  • 语义鸿沟难跨越:传统推荐模型仅依赖物品 ID 进行协同过滤,无法理解商品标题和描述中的深层语义,导致新上架或冷门商品难以被准确推荐。
  • 生成式推荐落地难:团队想尝试前沿的“生成式推荐”技术,但缺乏从物品编码(SID 构建)到强化学习(RL)的全流程开源框架,自研成本极高且周期漫长。
  • 训练效率低下:在处理海量商品库时,缺乏高效的文本向量化与量化编码方案,多 GPU 并行处理能力不足,数据预处理耗时数天。
  • 模型幻觉严重:直接微调大模型进行推荐时,常生成不存在的物品 ID,缺乏有效的约束解码机制来保证输出结果的合法性。

使用 MiniOneRec 后

  • 语义化物品编码:利用 MiniOneRec 的 RQ-VAE 技术,将商品标题和描述转化为紧凑的语义 token(SID),让模型能像理解自然语言一样理解商品特征。
  • 端到端全流程支持:直接复用其提供的 SID 构建、监督微调(SFT)及推荐导向强化学习(RL)的一站式工作流,将原本数月的研发周期缩短至数周。
  • 高效并行处理:借助基于 Accelerate 的多 GPU 并行文本嵌入脚本,大幅提升了大规模数据集(如 Amazon23)的处理效率,数据准备时间减少 80%。
  • 精准约束生成:通过内置的约束解码机制和语言对齐目标,彻底解决了模型生成无效物品 ID 的问题,确保推荐结果真实可点击。

MiniOneRec 通过打通语义理解与离散物品编码的壁垒,让企业能以最低成本快速部署具备世界知识的高精度生成式推荐系统。

运行环境要求

操作系统
  • Linux
GPU

必需,推荐 4-8 张 NVIDIA A100 或 H100 (80GB 显存),用于复现完整流程

内存

未说明

依赖
notes1. 官方推荐使用 Python 3.11 创建隔离环境。2. 复现完整训练流程建议配置 4-8 张 A100/H100 GPU。3. 存在依赖版本兼容性问题:若使用 Instruct 模型评估时出现大量无效生成(CC 指标非零),可能是 transformer 等库版本导致,建议暂时切换至 Base 模型(如 Qwen2.5-base)规避。4. 支持 Amazon18 和 Amazon23 数据集,需自行下载原始数据并运行预处理脚本。5. 提供预训练的 SID 和模型检查点以供快速启动。
python3.10+
torch
transformers
accelerate
faiss
datasets
MiniOneRec hero image

快速开始

一个用于扩展生成式推荐的开源框架

Python License

📄 技术报告 | 🤗 Huggingface | 🤖 Modelscope

MiniOneRec 是首个完全开源的 生成式推荐 框架,提供涵盖 SID 构建监督微调 (SFT) 和面向推荐的 强化学习 (RL) 的端到端工作流。


📢 公告

  • 2026-01-04 — 关于基于 Instruct 模型复现的结果与我们报告的指标之间可能存在差异的问题,请检查评估日志中的 CC 指标是否为非零值(参考 calc.py)。若该指标非零,则表明模型仍在生成大量无效商品,约束解码并未成功。我们怀疑此问题可能与 transformer 库等依赖项的版本有关,目前仍在调查原因并寻求通用解决方案。在此期间,您可以将 Instruct 模型切换为基础模型,例如 Qwen2.5-base,以避免该问题。

  • 2025-12-04 — 我们更新了新脚本,以支持处理 Amazon23 数据集。

  • 2025-12-01 — 我们修复了 data.py 中的一个 bug,该 bug 可能导致 SID–商品对齐任务提前看到答案。这是因为我们之前曾尝试使用部分轨迹来指导完整的 SID–商品生成,但这并不影响模型性能。

  • 2025-11-20 — RQ-Kmeans+ 中的 SID 构建方法已更新(首次提出于 GPR,这也是首次开源复现)。

  • 2025-11-19 — 我们基于 Accelerate 实现了一种多 GPU 并行的文本转嵌入方法,其效率显著高于原始版本:rq/text2emb/amazon_text2emb.py。

  • 2025-11-19 — 约束 RQ-Kmeans 中的 SID 构建方法已更新。

  • 2025-11-07 — 感谢您提交的问题!根据您的反馈,我们发布了新的实现。如果您在运行代码时遇到任何问题,请先更新至并参考 最新版本

  • 2025-11-07 — 现在您可以在 SFT 阶段选择冻结 LLM 参数,仅训练新增 SID 词汇表的嵌入。

  • 2025-10-31 — 您现在可以直接下载我们 MiniOnRec 模型的 检查点 实现。

  • 2025-10-31 — RQ-Kmeans 中的 SID 构建方法已更新。


🛠️ 核心技术

  • SID 构建:MiniOneRec 首先将每件商品转化为一个紧凑且语义上意义明确的标记。 它将商品的标题和描述拼接在一起,将该句子输入到一个冻结的文本编码器中,然后使用三级 RQ-VAE 对生成的嵌入进行量化。

  • SFT:当所有商品都被重写为 SID 后,模型首先以监督方式训练。 它将按时间顺序排列的用户历史视为一个标记序列,并通过预测下一个标记的方式,学习生成用户接下来可能消费的商品的 SID。至关重要的是,这一阶段与一组语言对齐目标共同训练,这些目标在自然语言和 SID 空间之间来回映射,使推荐系统能够在离散的商品编码基础上继承大型语言模型中蕴含的世界知识。

  • 面向推荐的 RL:在 SFT 之后,MiniOneRec 还会通过基于 GRPO 的面向推荐的 RL 阶段进一步优化。 对每个提示生成多个候选推荐,其奖励在组内进行归一化以稳定梯度,并通过 KL 正则项使更新后的策略保持接近参考策略。由于动作空间是封闭的商品 SID 列表,系统会切换到约束束搜索,这保证了每个束都是唯一且有效的,从而大大提高了采样效率和多样性。奖励信号本身结合了二元正确性项和排名感知组件,后者会对高概率但错误的商品施加更重的惩罚,并可辅以协同过滤得分。这些机制共同使 MiniOneRec 能够融合密集的语言学知识,构建出高性能、轻量级的生成式推荐系统。


📊 评估


🗂️ 仓库概览

文件/目录 描述
sft.sh 用于启动监督微调(SFT)阶段的 Shell 脚本
sft.py SFT 训练循环的 Python 实现
sft_gpr.py 基于 GPR 思想的价值感知微调(VAFT)的 SFT:实现基于模拟物品价值的加权损失
rl.sh 用于启动强化学习(RL)阶段的 Shell 脚本
rl.py RL 训练循环的 Python 实现
rl_gpr.py 基于 GPR 思想的层次增强策略优化(HEPO)的强化学习
minionerec_trainer.py MiniOneRec 训练器——基于 GRPO 的生成式推荐专用训练器
configs/ YAML 配置文件
evaluate.sh 一键离线 Top-K 评估脚本
evaluate.py 用于计算 HR@K 和 NDCG@K 的评估工具。
LogitProcessor.py 用于约束解码的 Logit 处理器(Python 实现)
data.py SFT 和 RL 训练的数据流水线
convert_dataset.py 将 RQ 训练的数据集转换为先 SFT 后 RL 的格式
convert_dataset_gpr.py 基于 GPR 思想的数据集转换器:注入模拟的异构标记(U/E/I/O),以模拟统一的输入表示
data/amazon18_data_process.sh 用于将 Amazon18 数据筛选并预处理为 RQ 可用格式的 Shell 脚本
data/amazon18_data_process.py Amazon18 数据预处理流水线的 Python 实现
data/amazon18_data_process_gpr.py 基于 GPR 思想的 Amazon18 预处理:提取异构特征以实现统一的输入表示
data/amazon23_data_process.sh 用于将 Amazon23 数据筛选并预处理为 RQ 可用格式的 Shell 脚本
data/amazon23_data_process.py Amazon23 数据预处理流水线的 Python 实现
rq/text2emb/amazon_text2emb.sh 用于通过嵌入模型为 Amazon 数据集生成商品嵌入向量(标题 + 描述)的 Shell 脚本
rq/text2emb/amazon_text2emb.py 上述嵌入生成的 Python 实现
rq/text2emb/amazon_text2emb_gpr.py 基于 GPR 思想的文本到嵌入向量转换
rq/generate_indices.py 在训练完 RQ-VAE 模型后生成 SID 文件
rq/rqvae.sh 用于在 Amazon 商品嵌入上训练 RQ-VAE 的 Shell 脚本
rq/rqvae.py RQ-VAE 训练的 Python 实现
rq/rqkmeans_faiss.py 基于 faiss 的 RQ-Kmeans 训练的 Python 实现
rq/rqkmeans_constrained.py 约束型 RQ-Kmeans 的 Python 实现
rq/rqkmeans_constrained.sh 用于在 Amazon 商品嵌入上训练约束型 RQ-Kmeans 的 Shell 脚本
rq/rqkmeans_plus.py RQ-Kmeans+ 的 Python 实现
rq/rqkmeans_plus.sh 用于在 Amazon 商品嵌入上训练 RQ-Kmeans+ 的 Shell 脚本
rq/generate_indices_plus.py 在训练完 RQ-Kmeans+ 模型后生成 SID 文件
rq/generate_indices_plus.sh 用于在训练完 RQ-Kmeans+ 模型后生成 SID 文件的 Shell 脚本
requirements.txt Python 依赖包列表

🚀 快速入门

使用我们提供的工业/办公领域预训练 SID,即可快速上手!仅需 4–8 张 A100/H100 显卡即可完成复现。

1. 创建隔离的 Python 环境

conda create -n MiniOneRec python=3.11 -y
conda activate MiniOneRec

2. 安装所需包

pip install -r requirements.txt

3. SFT

bash sft.sh

4. 推荐导向的强化学习

bash rl.sh

5. 运行评估脚本

bash evaluate.sh

📜 全流程详解

0. 前置条件

  • 显卡:例如 4–8 张 A100/H100 80 GB 或同等性能显卡
  • Python 版本:3.11

1. 环境搭建

  • 1.1 克隆仓库
git clone https://github.com/AkaliKong/MiniOneRec.git
cd MiniOneRec
  • 1.2 创建并激活 Conda 环境
conda create -n MiniOneRec python=3.11 -y
conda activate MiniOneRec
  • 1.3 安装依赖
pip install -r requirements.txt

2. 数据准备

  • 2.1 下载原始数据集(可选)
    可从官方页面获取: Amazon Reviews 2023Amazon Reviews 2018Amazon Reviews 2014。 注意:工业与办公类数据集包含在 Amazon 2018 中;而 Amazon 2014 和 2023 版本需要对我们提供的 data/amazon18_data_process.py 脚本进行少量修改。
  • 2.2 过滤与预处理
bash data/amazon18_data_process.sh \
     --dataset  your_dataset_type \ # 例如 Industrial
     --user_k 5 \
     --item_k 5 \
     --st_year 2017 \
     --st_month 10 \
     --ed_year 2018 \
     --ed_month 11 \
     --output_path ./data/Amazon18
  • 2.3 将商品文本编码为嵌入向量
bash rq/amazon_text2emb.sh \
     --dataset your_dataset_type \ # 例如 Industrial 
     --root your_processed_dataset_path \
     --plm_name qwen \
     --plm_checkpoint your_emb_model_path

3. SID 构建

请从 3.1.1、3.1.2、3.1.3 或 3.1.4 中选择一种方法。

  • 3.1.1 在嵌入上训练 RQ-VAE
bash rq/rqvae.sh \
      --data_path xxx/data/Industrial_and_Scientific/Industrial_and_Scientific.emb-qwen-td.npy \
      --ckpt_dir ./output/Industrial_and_Scientific \
      --lr 1e-3 \
      --epochs 10000 \
      --batch_size 20480
  • 3.1.2 在嵌入上训练 RQ-Kmeans
conda install faiss-gpu
python rqkmeans_faiss.py --dataset Industrial_and_Scientific # 基于语义嵌入的 RQ-Kmeans 方法存在较高的冲突率。
  • 3.1.3 在嵌入上训练约束型 RQ-Kmeans 对于存在冲突的商品,我们增加一层去重处理;同时采用平衡约束以确保 SID 分布均匀。
pip install k_means_constrained
pip install polars
bash rqkmeans_constrained.sh
  • 3.1.4 在嵌入上训练 RQ-Kmeans+
pip install k_means_constrained
pip install polars
bash rqkmeans_constrained.sh
bash rqkmeans_plus.sh
  • 3.2 生成索引(仅 RQ-VAE 和 RQ-Kmeans+ 需要)
python rq/generate_indices.py
# 或
bash rq/generate_indices_plus.sh
  • 3.3 转换数据集格式
python convert_dataset.py \
     --dataset_name Industrial_and_Scientific \
     --data_dir /path/to/Industrial_and_Scientific \
     --output_dir /path/to/ourput_dir \

4. SFT

bash sft.sh \
     --base_model your_model_path \
     --output_dir your_ourput_dir \
     --sid_index_path your_.index.json_path \
     --item_meta_path your_.item.json_path

5. 推荐导向的强化学习

(可选)对于生产规模的数据集,考虑到强化学习的成本以及边际收益递减,可以仅使用数万条样本的较小子集来执行强化学习阶段。

bash rl.sh \
     --model_path your_model_path \
     --output_dir output_dir \

6. 离线评估

bash evaluate.sh \
     --exp_name your_model_path 

🤖 支持的 LLM 提供商

MiniOneRec 支持多种 LLM 提供商用于文本增强任务(例如用户偏好和商品特征提取)。请在您的 api_info 字典中配置提供商:

提供商 provider 默认基础 URL 示例模型
OpenAI "openai" text-davinci-003
DeepSeek "deepseek" https://api.deepseek.com deepseek-chat
MiniMax "minimax" https://api.minimax.io/v1 MiniMax-M2.7, MiniMax-M2.5

示例 — 使用 MiniMax:

api_info = {
    "provider": "minimax",
    "api_key_list": ["your-minimax-api-key"],
    "base_url": "https://api.minimax.io/v1",  # 可选,默认值
}
get_res_batch("MiniMax-M2.7", prompt_list, max_tokens=512, api_info=api_info)

📝 即将推出的功能

我们正在积极扩展 MiniOneRec 的功能。以下改进已列入我们的路线图:

  • ⏱️ 更多 SID 构建算法:即将支持 R-VQ、RQ-Kmeans、RQ-OPQ 和 RQ-VAE-v2 (PLUM)。
  • ⚙️ MiniOneRec-Think:一个无缝集成对话、推理和个性化推荐的模块,为复杂的交互场景提供一体化解决方案。
  • 🔍 更广泛的数据集支持:还将加入 Yelp 等热门公开数据集,进一步验证我们算法的通用性。

🏫 合作机构

本项目由以下机构共同开发:


🧩 贡献说明

我们欢迎并感谢所有贡献!如果您有任何改进 MiniOneRec 的想法,请随时提交拉取请求(PR)。


🙏 致谢

本仓库复用或改编了以下开源项目的部分代码。我们衷心感谢这些项目的作者和贡献者:


🔖 引用

如果您觉得我们的代码/论文/模型有所帮助,请考虑引用我们的论文 📝 并为我们点亮 ⭐️!

@misc{MiniOneRec,
      title={MiniOneRec: 一个用于扩展生成式推荐的开源框架}, 
      author={Xiaoyu Kong 和 Leheng Sheng 和 Junfei Tan 和 Yuxin Chen 和 Jiancan Wu 和 An Zhang 和 Xiang Wang 和 Xiangnan He},
      year={2025},
      eprint={2510.24431},
      archivePrefix={arXiv},
      primaryClass={cs.IR},
}

@article{ReRe,
      title={用于推荐的强化偏好优化}, 
      author={Junfei Tan 和 Yuxin Chen 和 An Zhang 和 Junguang Jiang 和 Bin Liu 和 Ziru Xu 和 Han Zhu 和 Jian Xu 和 Bo Zheng 和 Xiang Wang},
      journal={arXiv 预印本 arXiv:2510.12211},
      year={2025},
}

@inproceedings{RecZero,
      title={先思考再推荐:自主推理增强型推荐系统}, 
      author={Xiaoyu Kong 和 Junguang Jiang 和 Bin Liu 和 Ziru Xu 和 Han Zhu 和 Jian Xu 和 Bo Zheng 和 Jiancan Wu 和 Xiang Wang},
      year={2025},
      booktitle={NeurIPS},
}

我们欢迎社区的贡献!🤝

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

160.4k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|今天
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|1周前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架