LLM4Rec-Awesome-Papers

GitHub
2.3k 162 困难 1 次阅读 昨天语言模型数据工具
AI 解读 由 AI 自动生成,仅供参考

LLM4Rec-Awesome-Papers 是一个专注于大语言模型(LLM)与推荐系统交叉领域的开源资源库。它系统地收集并整理了该方向的前沿学术论文、相关项目代码、综述文章、教程以及常用数据集,旨在为研究者提供一站式的知识导航。

当前,将大语言模型强大的语义理解能力应用于传统推荐系统是一个新兴且快速发展的研究方向,但相关文献分散、技术路线多样(如无需微调、监督微调等),导致入门和追踪前沿较为困难。LLM4Rec-Awesome-Papers 通过分类梳理不同技术范式下的代表性工作,有效解决了信息碎片化问题,帮助用户快速把握领域动态。

该资源库特别适合人工智能研究人员、算法工程师以及对“大模型 + 推荐”感兴趣的学生使用。无论是希望了解零样本对话推荐、多模态推荐,还是寻找可复现的代码实现,都能在此找到有价值的参考。其独特亮点在于不仅涵盖了从 No Tuning 到 Supervised Fine-Tuning 的多种技术路径,还发布了权威的领域综述论文,并持续更新包括中文语料支持在内的实用调试模型信息,是探索下一代智能推荐系统不可或缺的学术助手。

使用场景

某电商初创公司的算法团队正试图利用大语言模型(LLM)重构其推荐系统,以解决传统模型在冷启动和可解释性上的瓶颈。

没有 LLM4Rec-Awesome-Papers 时

  • 文献检索如大海捞针:团队成员需在 arXiv、Google Scholar 等多个平台分散搜索,难以系统性掌握"LLM+ 推荐”这一交叉领域的最新进展。
  • 技术选型盲目试错:面对“是否需要微调”、“选用何种基座模型”等关键决策缺乏依据,容易误选不适合单卡调试或中文语境的模型,浪费算力资源。
  • 复现成本极高:找不到配套的开源代码或数据集,导致论文中的创新点(如图增强、多模态融合)停留在理论层面,无法快速验证落地。
  • 忽视前沿范式:可能错过如“零样本对话推荐”或“生成式智能体”等新兴方向,导致产品架构在起步阶段就落后于行业趋势。

使用 LLM4Rec-Awesome-Papers 后

  • 一站式知识导航:直接通过分类清晰的列表(如无微调、监督微调、多模态等),迅速锁定与业务场景最匹配的顶会论文和综述。
  • 精准技术匹配:参考列表中明确标注的模型类型(如支持中文的单卡可调试模型)和代码链接,快速选定适合初创团队资源的基座模型。
  • 加速工程落地:利用提供的 GitHub 代码库和常用数据集链接,将原本数周的复现周期缩短至几天,快速验证图增强或序列推荐效果。
  • 把握演进脉络:通过最新的调研论文和教程,团队明确了从“判别式”向“生成式”推荐演进的技术路线,避免了架构设计的短视。

LLM4Rec-Awesome-Papers 将碎片化的学术成果转化为结构化的工程指南,帮助团队在激烈的技术竞争中实现了从“盲目探索”到“精准落地”的跨越。

运行环境要求

GPU

未说明(README 仅在目录标题中提到 'Single card (RTX 3090)' 可用于调试支持中文语料的生成式语言模型,但未作为整个项目的强制运行需求列出)

内存

未说明

依赖
notes该项目主要是一个关于大语言模型推荐系统(LLM4Rec)的论文和资源列表(Awesome List),而非一个单一的、可直接运行的软件工具。列表中包含了数十个不同的研究项目和论文,每个项目都有独立的代码仓库和特定的环境依赖(如 GPT, LLaMA, T5, ChatGLM 等不同模型)。用户需根据具体想复现的某篇论文或子项目,前往其对应的 GitHub 链接查看具体的运行环境要求。
python未说明
LLM4Rec-Awesome-Papers hero image

快速开始

大型语言模型在推荐系统中的应用

一份关于大型语言模型(LLM)在推荐系统领域中优秀的论文和资源列表。

🎉 新闻:我们的LLM4Rec综述已发布。 大型语言模型在推荐系统中的应用综述

相关工作和项目将很快并持续更新。

Editor

如果我们的工作对您有所帮助,请随时引用我们的综述。谢谢。

@article{llm4recsurvey,
  author       = {Likang Wu and Zhi Zheng and Zhaopeng Qiu and Hao Wang and Hongchao Gu and Tingjia Shen and Chuan Qin and Chen Zhu and Hengshu Zhu and Qi Liu and Hui Xiong and Enhong Chen},
  title        = {大型语言模型在推荐系统中的应用综述},
  journal      = {CoRR},
  volume       = {abs/2305.19860},
  year         = {2023}
}

目录

论文及相关项目

无需调优

注:这里的“调优”仅指是否对大型语言模型进行了调优。

名称 论文 会议/期刊 年份 代码链接 大模型
大型语言模型作为冷启动物品推荐的数据增强工具 arXiv 2024 PaLM
LLM4REC LLM增强的用户-物品交互:利用边缘信息优化推荐 arXiv 2024 Python GPT2
Lite-LLM4Rec 重新思考用于序列化推荐的大语言模型架构 arXiv 2024 T5
Rec-GPT4V Rec-GPT4V:基于大型视觉-语言模型的多模态推荐 arXiv 2024 GPT4-V, LLaVA2
LLM4Vis LLM4Vis:使用ChatGPT进行可解释的可视化推荐 EMNLP 2023 Python GPT
LLMRec LLMRec:结合图增强的大语言模型推荐系统 WSDM 2024 Python GPT
RLMRec 基于大语言模型的推荐表示学习 WWW 2024 Python GPT-3.5
KP4SR 面向序列化推荐的知识提示微调 ACM 2023 GPT-3.5
RecInterpreter 大型语言模型可以解释序列化推荐器的潜在空间 arXiv 2023 Python LLaMA-7b
大型语言模型作为零样本对话式推荐系统 CIKM 2023 Python GPT-3.5-turbo ,GPT-4,BAIZE,Vicuna
Agent4Rec 关于推荐中的生成式智能体 arXiv 2023 Python GPT4
基于预训练大型语言模型的零样本多模态引导推荐 arXiv 2023 BLIP-2+GPT4
InteRecAgent 推荐AI智能体:整合大语言模型实现交互式推荐 arXiv 2023 GPT4
GPT4SM GPT嵌入对广告和推荐有用吗? KSEM 2023 Python GPT
LLMRG 利用大语言模型推理图增强推荐系统 arXiv 2023 GPT-3.5/GPT4
RAH RAH!推荐系统助手-人类:以人类为中心的大语言模型推荐框架 arXiv 2023 GPT4
LLM-Rec LLM-Rec:通过提示大型语言模型实现个性化推荐 arXiv 2023 GPT-3
超越标签:利用深度学习和LLM进行内容元数据处理 RecSys 2023 GPT4
检索增强型推荐系统:用大语言模型提升推荐效果 RecSys 2023 ChatGPT
基于LLM生成推荐系统的物品描述 RecSys 2023 Alpaca
大型语言模型在基于语言和物品偏好的冷启动推荐中具有竞争力 RecSys 2023 PaLM
MINT 大型语言模型增强的叙事驱动推荐 Recsys 2023 175B InstructGPT
KAR 迈向开放世界推荐:利用大语言模型进行知识增强 arXiv 2023 Python ChatGLM
RecAgent RecAgent:一种新型的推荐系统仿真范式 arXiv 2023 Python ChatGPT
AnyPredict AnyPredict:表格预测的基础模型 arXiv 2023 ChatGPT,BioBERT
iEvaLM 在大语言模型时代重新思考对话式推荐的评估 arXiv 2023 Python ChatGPT
大型语言模型是推荐系统的零样本排序器 arXiv 2023 Python ChatGPT
FaiRLLM ChatGPT对推荐公平吗?评估大语言模型推荐中的公平性 Recsys 2023 Python ChatGPT
GENRE 首次探索LLM驱动的生成式新闻推荐 arXiv 2023 Python ChatGPT
通用人工智能推荐系统(AGR)的火花:早期使用ChatGPT的实验 arXiv 2023 ChatGPT
揭示ChatGPT在推荐系统中的能力 arXiv 2023 Python ChatGPT
ChatGPT是一个好的推荐者吗?一项初步研究 arXiv 2023 ChatGPT
VQ-Rec 学习向量量化物品表示,用于可迁移的序列化推荐 ACM 2023 Python BERT
RankGPT ChatGPT擅长搜索吗?探究大语言模型作为重排代理 arXiv 2023 Python ChatGPT/4
GeneRec 生成式推荐:迈向下一代推荐范式 arXiv 2023 Python
NIR 零样本下一件物品推荐:使用大型预训练语言模型 arXiv 2023 Python GPT-3.5
Chat-REC Chat-REC:迈向交互式且可解释的LLM增强型推荐系统 arXiv 2023 ChatGPT
零样本推荐即语言建模 ECIR 2022 Python GPT-2
UniCRS 通过知识增强的提示学习迈向统一的对话式推荐系统 KDD 2022 Python GPT-2/ DialoGPT /BART
LLMRec LLMRec:结合图增强的大语言模型推荐系统 WSDM 2024 Python ChatGPT
K-LaMP K-LaMP:面向序列化推荐的知识引导语言模型预训练 arXiv 2023 GPT-4

监督微调

名称 论文 会议/期刊 年份 代码链接 LLM
CoLLM CoLLM: 将协作嵌入整合到大语言模型中用于推荐 TKDE 2025 Python llama-7B & Qwen2-1.5
BinLLM 在大语言模型中对协作信息进行类文本编码以用于推荐 ACL 2024 Python llama-7B
面向可控推荐的大语言模型对齐 arXiv 2024 llama2
SLIM 小型语言模型能否成为序列化推荐的良好推理者? arXiv 2024 ChatGPT,llama2
GPT-FedRec 基于混合检索增强生成的联邦推荐 arXiv 2024 E5
NoteLLM NoteLLM: 一种可检索的大语言模型用于笔记推荐 WWW 2024 llama2
利用大语言模型重排提升推荐多样性 arXiv 2024 ChatGPT, LLaMA2
LLama4Rec 通过互增强和自适应聚合将大语言模型整合到推荐系统中 arXiv 2024 LLaMA
用于推荐的大语言模型与图卷积 arXiv 2024 GPT4,LLaMA2,ChatGLM
LLM-InS 用于冷启动物品推荐的大语言模型交互模拟器 arXiv 2024 LLaMA2
LLM4REC LLM增强的用户-物品交互:利用边信息优化推荐 arXiv 2024 Python GPT2
Fed4Rec 基于LLM的联邦推荐 arXiv 2024 LLaMA
SPAR SPAR: 基于长期互动注意力的个性化内容推荐 arXiv 2024 BERT
LLaRA LLaRA: 将大语言模型与序列化推荐系统对齐 arXiv 2023 Python Llama-2
E4SRec E4SRec: 一种优雅、高效、可扩展的大语言模型序列化推荐解决方案 arXiv 2023 Python Llama-2
LlamaRec LlamaRec: 使用大语言模型进行排序的两阶段推荐 arXiv 2023 Python Llama-2
CLLM4Rec 用于推荐系统的协作式大语言模型 arXiv 2023 Python GPT2
TransRec 连接大语言模型与推荐系统的多面范式 arXiv 2023 BART-large 和 LLaMA-7B
RecMind RecMind: 大语言模型驱动的推荐智能体 arXiv 2023 ChatGPT,P5
RecSysLLM 利用大语言模型预训练推荐系统 arXiv 2023 GLM-10B
异构知识融合:一种基于LLM的个性化推荐新方法 RecSys 2023 ChatGLM-6B,P5
用于高效LLM推荐的提示蒸馏 RecSys 2023 T5,P5
BIGRec 大语言模型在推荐系统中的两步接地范式 arXiv 2023 Python LLaMA
LLMCRS 大型语言模型增强的对话式推荐系统 arXiv 2023 Flan-T5/LLaMA
GLRec 探索大语言模型在在线求职推荐中理解图数据的能力 arXiv 2023 Python BELLE
GIRL 使用大语言模型生成式求职推荐 arXiv 2023 BELLE
Amazon-M2 Amazon-M2: 一个多语言、多地区的购物会话数据集,用于推荐和文本生成 arXiv 2023 项目 mT5
GenRec GenRec: 用于生成式推荐的大语言模型 arXiv 2023 Python LLaMA
RecLLM 在对话式推荐系统中利用大语言模型 arXiv 2023 LaMDA(视频)
ONCE ONCE: 利用开源和闭源大语言模型提升基于内容的推荐 arXiv 2023 Python ChatGPT,Llama
DPLLM 使用差分隐私大语言模型生成合成查询的隐私保护推荐系统 arXiv 2023 T5
PBNR PBNR: 基于提示的新闻推荐系统 arXiv 2023 T5
GPTRec 使用GPTRec进行生成式序列化推荐 Gen-IR@SIGIR 2023 GPT-2
CTRL CTRL: 连接表格数据与语言模型进行CTR预测 arXiv 2023 RoBERTa/GLM
UniTRec UniTRec: 一个统一的文本到文本转换器及联合对比学习框架,用于基于文本的推荐 ACL 2023 Python BART
ICPC 大语言模型用于用户兴趣旅程 arXiv 2023 LaMDA
TransRec 探索基于适配器的迁移学习在推荐系统中的应用:实证研究与实践启示 arXiv 2023 RoBERTa
利用大语言模型探索基于文本的协同过滤上限:发现与见解 arXiv 2023 OPT
PALR PALR: 面向推荐的个性化感知LLMs arXiv 2023 LLaMa
InstructRec 推荐即指令遵循:一种大语言模型赋能的推荐方法 arXiv 2023 FLAN-T5-3B
LLMs是否理解用户偏好?评估LLMs在用户评分预测上的表现 arXiv 2023 FLAN/ChatGPT
LSH 利用BERT和查询感知LSH改进非正式文档上的代码示例推荐:一项比较研究 arXiv 2023 BERT
TALLRec TALLRec: 一个有效且高效的调优框架,用于将大语言模型与推荐对齐 arXiv 2023 Python Llama-7B
GPT4Rec GPT4Rec: 一个用于个性化推荐和用户兴趣解读的生成式框架 arXiv 2023 GPT-2
IDvs.MoRec 推荐系统下一步该走向何方?重新审视基于ID与模态的推荐模型 SIGIR 2023 Python BERT
GReaT 语言模型是现实的表格数据生成器 ICLR 2023 Python GPT-2
M6-Rec M6-Rec: 生成式预训练语言模型是开放式的推荐系统 arXiv 2022 M6
迈向理解和缓解语言模型驱动的对话式推荐中的意外偏见 Inf Process Manag 2023 Python BERT
P5 推荐即语言处理(rlp):一个统一的预训练、个性化提示与预测范式(p5) RecSys 2022 Python T5
PEPLER 个性化提示学习用于可解释的推荐 TOIS 2023 Python GPT-2
语言模型作为推荐系统:评估与局限性 NeurIPS workshop 2021 BERT/GPT-2

相关调研

论文 会议/平台 年份
探索大型语言模型对推荐系统的影响:全面综述 arXiv 2024
用于生成式推荐的大型语言模型:综述与前瞻性探讨 arXiv 2023
鲁棒推荐系统:综述与未来方向 arXiv 2023
多行为序列推荐研究综述 arXiv 2023
当大型语言模型遇上个性化:挑战与机遇的视角 arXiv 2023
大型语言模型时代的推荐系统 (LLMs) arXiv 2023
ChatGPT在新闻推荐中的初步研究:个性化、提供者公平性、假新闻 arXiv 2023
推荐系统如何从大型语言模型中受益:综述 arXiv 2023
预训练、提示与推荐:推荐系统中语言建模范式的适应性综合综述 arXiv 2023

相关教程

名称 会议/平台 年份
用于推荐的大型语言模型:进展与未来方向 SIGIR-AP 2023
关于推荐领域大型语言模型的教程 RecSys 2023

常用数据集

名称 场景 任务 信息 链接
Amazon Review 商业 序列推荐/协同过滤推荐 这是亚马逊上大规模爬取的商品评论数据。评分:8283万条,用户:2098万,商品:935万,时间跨度:1996年5月至2014年7月 链接
Amazon-M2 商业 序列推荐/协同过滤推荐 亚马逊多个语言站点收集的大量匿名用户会话及交互商品数据集。包含3,606,249个训练会话、361,659个测试会话和1,410,675种商品。 链接
Steam 游戏 序列推荐/协同过滤推荐 评论为分析游戏满意度和不满意度因素提供了绝佳机会。评论:7,793,069条,用户:2,567,538人,商品:15,474件,捆绑包:615个 链接
MovieLens 电影 通用 该数据集由4个子数据集组成,描述了MovieLens电影推荐服务中用户对电影的评分及自由文本标注活动。 链接
Yelp 商业 通用 包含6,990,280条评论,150,346家商户,200,100张图片,11个都会区,908,915条用户建议,涉及1,987,897位用户。此外还有超过120万条关于营业时间、停车、可用性等商家属性的信息。 链接
Douban 电影、音乐、书籍 序列推荐/协同过滤推荐 该数据集涵盖电影、音乐和书籍三个领域,包含评分、评论、物品详情、用户资料、标签以及日期等多种原始信息。 链接
MIND 新闻 通用 MIND包含约16万篇英文新闻文章,以及由100万名用户产生的超过1500万条曝光日志。每篇新闻都包含标题、摘要、正文、类别和实体等文本内容。 链接
U-NEED 商业 对话推荐 U-NEED包含7,698段精细标注的售前对话、333,879条用户行为记录和332,148组商品知识元组。 链接
PixelRec 短视频 序列推荐/协同过滤推荐 PixelRec是一个从短视频推荐系统中收集的大规模封面图片数据集,包含约2亿次用户图片互动、3000万用户和40万张视频封面图片。同时收录了视频的文本及其他聚合属性。 链接
KuaiSAR 视频 搜索与推荐 KuaiSAR包含25,877名用户的真实搜索和推荐行为,共6,890,707个物品、453,667条查询以及在快手App上19天内发生的19,664,885次操作。 链接
Tenrec 视频、文章 通用 Tenrec是推荐系统的大型基准数据集,包含约500万用户和1.4亿次交互。 链接
NineRec 视频、文章 通用 NineRec是一套TransRec数据集,包括一个大规模源域推荐数据集和九个多样化的目标域推荐数据集。NineRec中的每个项目都以文字描述和高分辨率封面图表示。 链接
MicroLens 视频 通用 MicroLens是一个超大规模的微视频推荐数据集,包含10亿次用户-物品交互、3400万用户和100万条微视频。数据集涵盖了视频的各种模态信息,是内容驱动型微视频推荐研究的基准。 链接

可在单张显卡(RTX 3090)上调试、支持中文语料的生成式语言模型

一些开源且效果良好的项目可以适配基于中文文本数据的推荐系统,尤其适合个人研究者!

项目 年份
Qwen-7B 2023
百川-7B 2023
YuLan-chat 2023
Chinese-LLaMA-Alpaca 2023
THUDM/ChatGLM-6B 2023
FreedomIntelligence/LLMZoo Phoenix 2023
bloomz-7b1 2023
链家科技/BELLE 2023

希望我们的总结能对您的工作有所帮助。


相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|昨天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.7k|★★☆☆☆|今天
开发框架Agent语言模型

llama.cpp

llama.cpp 是一个用纯 C/C++ 编写的大语言模型(LLM)推理引擎,旨在让任何人都能在本地轻松运行强大的 AI 模型。它主要解决了大模型对硬件要求高、部署复杂的问题,让用户无需依赖庞大的 Python 环境或昂贵的云端服务器,即可在个人电脑甚至树莓派上高效运行模型。 无论是希望保护数据隐私的开发者、需要离线测试算法的研究人员,还是想在自己设备上体验 AI 的普通用户,都能从中受益。llama.cpp 对苹果 Silicon 芯片进行了深度优化,同时广泛支持 x86、RISC-V 架构以及 NVIDIA、AMD 等主流显卡。其核心亮点在于先进的量化技术,能将模型压缩至 2-bit 到 8-bit 等多种精度,在大幅降低内存占用的同时保持出色的推理速度。此外,它还提供了兼容 OpenAI 格式的 API 服务和简洁的 Web 界面,方便集成与调用。如果你想在本地以最低的资源消耗获得顶级的模型运行体验,llama.cpp 是极佳的选择。

105.2k|★★☆☆☆|今天
语言模型开发框架

DeepSeek-V3

DeepSeek-V3 是一款由深度求索推出的开源混合专家(MoE)大语言模型,旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数,但在处理每个 token 时仅激活 370 亿参数,这种设计巧妙解决了大规模模型推理成本高、速度慢的难题,让高性能 AI 更易于部署和应用。 这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发,DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标,前者在提升计算效率的同时避免了性能损耗,后者则显著增强了模型表现并加速了推理过程。此外,模型在 14.8 万亿高质量令牌上完成预训练,且整个训练过程异常稳定,未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性,DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。

102.7k|★★★★★|今天
语言模型