RAG_Techniques
RAG_Techniques 是一个专注于检索增强生成(RAG)系统的开源知识库,旨在汇集并展示各种先进的 RAG 优化技巧。它通过将信息检索技术与生成式模型相结合,帮助开发者构建能够提供更准确、上下文更丰富回答的 AI 应用。
在实际应用中,基础版的 RAG 系统常面临检索内容不相关、关键信息丢失或回答缺乏深度等挑战。RAG_Techniques 正是为了解决这些痛点而生,它提供了一套动态更新的技术教程集合,涵盖了从数据分块策略、高级检索算法到上下文优化等多维度的解决方案,从而显著提升系统的准确性与运行效率。
该项目非常适合 AI 开发者、研究人员以及希望深入理解大模型落地技术的工程师使用。无论是想要优化现有生产环境中的问答机器人,还是致力于探索前沿学术研究的团队,都能从中获得极具价值的实践指南。其核心亮点在于内容的全面性与前瞻性,不仅整理了当前业界领先的实施方法,还持续跟进最新技术动态,堪称提升 RAG 系统性能的实战宝典。通过参考这里的方案,用户可以轻松跨越从理论到高效落地的鸿沟。
使用场景
某大型金融科技公司的技术团队正在构建内部智能合规助手,旨在帮助员工快速从数千页不断更新的法律文档和内部审计报告中检索准确条款并生成解读。
没有 RAG_Techniques 时
- 检索精度低:传统的向量检索仅依赖语义相似度,常返回看似相关但实际过期的旧版法规,导致模型基于错误信息生成建议。
- 上下文丢失:面对长篇复杂的法律条文,简单的切片策略切断了关键的前后文逻辑,模型无法理解特定条款的适用前提。
- 多跳推理失败:当问题需要跨文档关联(如“结合 A 报告的风险点与 B 法规的处罚标准”)时,系统只能抓取单一片段,无法串联线索。
- 幻觉频发:由于缺乏有效的引用验证机制,模型在信息缺失时倾向于编造看似合理的虚假条款,带来严重的合规风险。
使用 RAG_Techniques 后
- 混合检索增强:利用仓库中的高级混合检索策略,结合关键词匹配与向量搜索,精准锁定最新生效的法规版本,过滤过时干扰项。
- 智能分块优化:应用父子索引(Parent-Child Indexing)等技术,在保留细粒度检索的同时自动还原完整段落上下文,确保模型理解条款全貌。
- 多步推理链支持:通过部署图谱增强或迭代检索技巧,系统能自动拆解复杂问题,跨多个文档提取关联信息并综合推导结论。
- 可信引用溯源:引入重排序(Re-ranking)与严格的答案生成约束,强制模型仅依据检索到的高置信度片段作答,并附带精确出处,大幅降低幻觉。
RAG_Techniques 通过集成前沿的检索与生成优化策略,将原本不可靠的内部问答系统转化为精准、可追溯且具备深度推理能力的企业级合规专家。
运行环境要求
- 未说明
未说明
未说明

快速开始
🌟 支持本项目: 您的赞助将为RAG技术的创新提供动力。成为赞助者,帮助维护并扩展这一宝贵资源!
赞助商 ❤️
我们衷心感谢那些为本项目做出重大贡献的组织和个人。
公司赞助商
个人赞助商
高级RAG技术:提升你的检索增强生成系统 🚀
欢迎来到当今最全面、最具活力的检索增强生成(RAG)教程集合之一。本仓库是用于提升RAG系统准确性、效率和上下文丰富性的尖端技术中心。
📫 保持更新!
简介
检索增强生成(RAG)正在革新我们结合信息检索与生成式AI的方式。本仓库展示了一系列精心挑选的高级技术,旨在大幅提升您的RAG系统性能,使其能够提供更准确、更具上下文相关性且更全面的回答。
我们的目标是为希望突破RAG技术边界的研究人员和从业者提供宝贵的资源。通过营造协作环境,我们致力于加速这一激动人心领域的创新步伐。
相关项目
🚀 使用我的**Agents Towards Production**仓库进一步提升技能。它提供了以代码为中心的横向教程,涵盖了构建生产级GenAI代理生命周期中的每一个工具和步骤,从萌芽到规模化,采用经过验证的模式和可重用蓝图实现真实世界的部署,是您认真考虑将代理投入生产的最佳起点。
🤖 探索我的**GenAI Agents Repository**,发现各种AI代理实现和教程,展示如何结合不同的AI技术创建功能强大、交互式的系统。
🖋️ 查看我的**Prompt Engineering Techniques guide**,这是一份从基础概念到高级技巧的全面提示策略汇编,可提升您与AI语言模型有效互动的能力。
社区驱动的知识中心
本仓库因您的贡献而日益壮大! 加入我们的活跃社区——共同塑造和推进该项目的核心枢纽 🤝
RAG Techniques Discord Community
无论您是专家还是初学者,您的见解都能影响RAG技术的未来。加入我们,提出想法、获取反馈,并合作开发创新技术。有关贡献指南,请参阅我们的**CONTRIBUTING.md**文件。让我们携手推动RAG技术的进步!
🔗 如需讨论GenAI、RAG或自定义代理,或探索知识共享机会,欢迎随时**在LinkedIn上联系**。
核心特性
- 🧠 最先进的RAG增强技术
- 📚 每项技术的全面文档
- 🛠️ 实用的实施指南
- 🌟 定期更新最新进展
高级技术
探索我们丰富的前沿 RAG 技术列表:
🌱 基础 RAG 技术
简单 RAG 🌱
- LangChain:
- LlamaIndex:
- 可运行脚本
概述 🔎
介绍适合初学者的基础 RAG 技术。
实现 🛠️
从基础的检索查询开始,并集成增量学习机制。
- LangChain:
使用 CSV 文件的简单 RAG 🧩
概述 🔎
介绍使用 CSV 文件的基础 RAG。
实现 🛠️
利用 CSV 文件创建基础检索功能,并与 OpenAI 集成以构建问答系统。
-
概述 🔎
在简单 RAG 的基础上增加验证和精炼步骤,以确保检索信息的准确性和相关性。
实现 🛠️
检查检索文档的相关性,并高亮显示用于回答问题的文档片段。
选择分块大小 📏
- LangChain:
- 可运行脚本
概述 🔎
选择合适的固定文本分块大小,以在保持上下文完整性和检索效率之间取得平衡。
实现 🛠️
尝试不同的分块大小,找到最适合您特定应用场景的、能够在保留上下文的同时维持检索速度的最佳平衡点。
- LangChain:
-
概述 🔎
将文本分解为简洁、完整、有意义的句子,从而更好地控制和处理特定查询(尤其是知识提取)。
实现 🛠️
- 💪 命题生成: 结合自定义提示词,利用大模型从文档分块中生成事实性陈述。
- ✅ 质量检查: 将生成的命题送入评分系统,评估其准确性、清晰度、完整性和简洁性。
其他资源 📚
- 命题方法:提升 AI 系统的信息检索能力 - 一篇全面的博客文章,探讨命题分块在 RAG 系统中的优势及实现方法。
🔍 查询增强
查询变换 🔄
- LangChain:
- 可运行脚本
概述 🔎
通过修改和扩展查询来提升检索效果。
实现 🛠️
- ✍️ 查询重写: 重新表述查询以提高检索质量。
- 🔙 退一步提示: 生成更宽泛的查询,以便更好地检索上下文。
- 🧩 子查询分解: 将复杂查询拆分为更简单的子查询。
- LangChain:
假设性问题(HyDE 方法) ❓
- LangChain:
- 可运行脚本
概述 🔎
通过生成假设性问题来改善查询与数据之间的匹配度。
实现 🛠️
创建指向数据中相关位置的假设性问题,从而增强查询与数据的匹配效果。
补充资源 📚
- HyDE:探索用于 AI 检索的假设性文档嵌入 - 一篇简明易懂的博客文章,详细解释了该方法。
- LangChain:
📚 上下文与内容增强
假设性提示嵌入(HyPE) ❓🚀
- LangChain:
- 可运行脚本
概述 🔎
HyPE(假设性提示嵌入)是对传统 RAG 检索的一种改进,它在索引阶段预先计算假设性提示,并将这些提示插入到相应的位置。这样,检索就转变为一个问题与问题匹配的任务。这种方法避免了在运行时合成答案的需求,从而减少了推理时的计算开销,同时提升了检索的匹配精度。
实现 🛠️
- 📖 预计算问题: 与直接嵌入文档片段不同,HyPE 在索引时会为每个片段生成多个假设性查询。
- 🔍 问题与问题匹配: 用户查询将与存储的假设性问题进行匹配,从而实现更好的检索匹配。
- ⚡ 无运行时开销: 与 HyDE 不同,HyPE无需在查询时调用 LLM,因此检索过程更快、更经济。
- 📈 更高的精确率与召回率: 可以将检索的上下文精确率提高多达 42 个百分点,并将证据召回率提高多达 45 个百分点。
补充资源 📚
- 预印本:假设性提示嵌入(HyPE) - 详细介绍了该方法、评估结果及基准测试的研究论文。
- LangChain:
-
概述 🔎
上下文片段头(CCH)是一种创建文档级和章节级上下文的方法,并在嵌入片段之前将其添加到片段的开头。
实现 🛠️
创建包含文档和/或章节上下文信息的片段头,并将其添加到每个片段的开头,以提高检索准确性。
补充资源 📚
dsRAG:一个实现了该技术(以及一些其他高级 RAG 技术)的开源检索引擎。
-
概述 🔎
相关段落提取(RSE)是一种动态构建与给定查询相关的多片段文本段落的方法。
实现 🛠️
在检索后处理步骤中,分析最相关的片段并识别出较长的多片段段落,以便为 LLM 提供更完整的上下文。
上下文增强技术 📝
- LangChain:
- LlamaIndex:
- 可运行脚本
概述 🔎
通过嵌入单个句子并将上下文扩展到相邻句子,从而提高检索准确性。
实现 🛠️
检索最相关的句子,同时访问原文中该句子前后相邻的句子。
- 语义分块 🧠
- LangChain:
- 可运行脚本
概述 🔎
根据语义连贯性而非固定大小来划分文档。
实现 🛠️
使用自然语言处理技术识别文档中的主题边界或连贯段落,以获得更有意义的检索单元。
补充资源 📚
- 语义分块:提升AI信息检索 - 一篇全面的博客文章,探讨语义分块在RAG系统中的优势及实现方法。
- 上下文压缩 🗜️
- LangChain:
- 可运行脚本
概述 🔎
在保留与查询相关的内容的同时,对检索到的信息进行压缩。
实现 🛠️
使用大语言模型对检索到的文本块进行压缩或摘要,以保留与查询相关的关键信息。
- 通过问题生成进行文档增强以提升检索效果
- LangChain:
- 可运行脚本
概述 🔎
该实现展示了一种文本增强技术,通过额外的问题生成来改善向量数据库中的文档检索。通过对每个文本片段生成并纳入各种相关问题,系统能够优化标准检索流程,从而提高找到可用于生成式问答背景的相关文档的可能性。
实现 🛠️
使用大语言模型为文本数据集生成与每份文档相关的所有可能问题,以进行扩充。
🚀 高级检索方法
融合检索 🔗
- LangChain:
- LlamaIndex:
- 可运行脚本
概述 🔎
通过结合不同的检索方法来优化搜索结果。
实现 🛠️
将基于关键词的搜索与基于向量的搜索相结合,以实现更全面、更准确的检索。
- LangChain:
智能重排序 📈
- LangChain:
- LlamaIndex:
- 可运行脚本
概述 🔎
应用先进的打分机制,以提升检索结果的相关性排序。
实现方式 🛠️
- 🧠 基于LLM的打分: 使用语言模型对每个检索到的片段进行相关性评分。
- 🔀 交叉编码器模型: 将查询和检索到的文档联合重新编码,用于相似度打分。
- 🏆 元数据增强排序: 在打分过程中引入元数据,以实现更精细的排序。
补充资源 📚
- 相关性革命:重排序如何改变RAG系统 - 一篇全面的博客文章,探讨重排序在提升RAG系统性能方面的强大作用。
- LangChain:
多维度过滤 🔍
概述 🔎
应用多种过滤技术,以精炼并提升检索结果的质量。
实现方式 🛠️
- 🏷️ 元数据过滤: 根据日期、来源、作者或文档类型等属性应用过滤条件。
- 📊 相似度阈值: 设置相关性得分阈值,仅保留最相关的结果。
- 📄 内容过滤: 移除不符合特定内容标准或关键关键词的结果。
- 🌈 多样性过滤: 通过过滤掉近似重复条目,确保结果的多样性。
层次化索引 🗂️
- LangChain:
- 可运行脚本
概述 🔎
构建多层级系统,以实现高效的信息导航与检索。
实现方式 🛠️
实现一个由文档摘要和详细片段组成的双层系统,两者均包含指向数据中同一位置的元数据。
补充资源 📚
- 层次化索引:增强RAG系统 - 一篇全面的博客文章,探讨层次化索引在提升RAG系统性能方面的强大作用。
- LangChain:
集成检索 🎭
概述 🔎
结合多种检索模型或技术,以获得更稳健、更准确的结果。
实现方式 🛠️
应用不同的嵌入模型或检索算法,并使用投票或加权机制来确定最终的检索文档集合。
飞镖盘检索 🎯
概述 🔎
优化检索中的相关信息增益
实现方式 🛠️
- 将相关性和多样性结合为单一的打分函数,并直接对其进行优化。
- POC显示,在数据库较为密集的情况下,简单的RAG表现不佳,而飞镖盘检索则表现出色。
多模态检索 📽️
概述 🔎
扩展RAG的能力,以处理多样化的数据类型,从而生成更丰富的响应。
实现方式 🛠️
🔁 迭代与自适应技术
带反馈循环的检索 🔁
- LangChain:
- 可运行脚本
概述 🔎
实现从用户交互中学习并改进未来检索的机制。
实现 🛠️
收集并利用用户对检索文档和生成回复的相关性和质量的反馈,以微调检索和排序模型。
- LangChain:
自适应检索 🎯
- LangChain:
- 可运行脚本
概述 🔎
根据查询类型和用户上下文动态调整检索策略。
实现 🛠️
将查询分类为不同类别,并针对每类查询使用量身定制的检索策略,同时考虑用户上下文和偏好。
- LangChain:
迭代式检索 🔄
概述 🔎
通过多轮检索来优化和提升结果质量。
实现 🛠️
使用LLM分析初始结果,并生成后续查询以填补空白或澄清信息。
📊 评估
-
概述 🔎
对检索增强生成系统进行评估,涵盖多项指标并创建测试用例。
实现 🛠️
使用
deepeval库对RAG系统的正确性、忠实性和上下文相关性进行测试。 -
概述 🔎
使用GroUSE框架的指标评估检索增强生成的最终阶段,并在GroUSE单元测试上对自定义的LLM评判器进行元评估。
实现 🛠️
使用
grouse包,借助GPT-4评估基于上下文的LLM生成结果,涵盖GroUSE框架的6项指标;同时利用单元测试评估自定义的Llama 3.1 405B评判器。
🔬 可解释性与透明度
可解释的检索 🔍
- LangChain:
- 可运行脚本
概述 🔎
提供检索过程的透明度,以增强用户信任并优化系统。
实现 🛠️
解释为何检索到某些信息以及这些信息如何与查询相关联。
- LangChain:
🏗️ 高级架构
基于情境AI的代理式RAG 🤖
概述 🔎
利用Contextual AI的托管平台构建用于金融文档分析的生产级代理式RAG流水线。本综合教程展示了如何通过智能查询改写、文档解析、重排序和基于上下文的语言模型,利用代理式RAG解决复杂查询。
实现 🛠️
- 文档解析器: 采用视觉模型的企业级解析能力,适用于复杂表格、图表及多页文档
- 指令遵循型重排序器: 具备指令遵循能力的SOTA重排序器,可处理冲突信息
- 基于上下文的语言模型 (GLM): 专为减少RAG场景中的幻觉而设计的世界最可靠的LLM
- LMUnit: 用于评估和优化RAG系统性能的自然语言单元测试框架
基于Milvus向量数据库的图RAG 🔍
概述 🔎
一种简单而强大的方法,使用 Milvus 向量数据库实现图 RAG。该技术通过将基于关系的检索与向量搜索和重排序相结合,显著提升了对复杂多跳问题的性能。
#### 实现 🛠️
- 将文本段落和关系三元组(主语-谓语-宾语)分别存储在不同的 Milvus 集合中
- 通过查询两个集合进行多路检索
- 使用 LLM 根据检索到的关系与查询的相关性对其进行重排序
- 根据最相关的关系检索最终的文本段落
知识图谱集成(Graph RAG) 🕸️
- LangChain:
- 可运行脚本
概述 🔎
将知识图谱中的结构化数据融入其中,以丰富上下文并改进检索效果。
实现 🛠️
从知识图谱中检索与查询相关的实体及其关系,将这些结构化数据与非结构化文本结合,从而生成更具信息量的响应。
- LangChain:
GraphRag(微软) 🎯
概述 🔎
微软 GraphRAG(开源)是一种先进的 RAG 系统,通过集成知识图谱来提升 LLM 的性能。
实现 🛠️
• 分析输入语料,从文本单元中提取实体和关系;自下而上地为每个社区及其组成部分生成摘要。
RAPTOR:面向树形组织检索的递归抽象处理 🌳
- LangChain:
- 可运行脚本
概述 🔎
实现一种递归方法,将检索到的信息以树形结构进行处理和组织。
实现 🛠️
使用抽象摘要技术递归地处理和总结检索到的文档,将信息组织成树形结构,以提供分层的上下文。
- LangChain:
自我 RAG 🔁
- LangChain:
- 可运行脚本
概述 🔎
一种动态方法,结合基于检索和基于生成的方法,自适应地决定是否使用检索到的信息以及如何最佳利用这些信息来生成响应。
实现 🛠️
• 实施一个多步骤流程,包括检索决策、文档检索、相关性评估、响应生成、支持度评估和效用评估,以产生准确、相关且有用的结果。
- LangChain:
纠正型 RAG 🔧
- LangChain:
- 可运行脚本
概述 🔎
一种复杂的 RAG 方法,能够动态评估和纠正检索过程,结合向量数据库、网络搜索和语言模型,以生成高度准确且具有上下文感知能力的响应。
实现 🛠️
• 集成检索评估器、知识精炼模块、网络搜索查询改写器和响应生成器组件,构建一个系统,该系统会根据相关性得分调整其信息获取策略,并在必要时整合多个来源。
- LangChain:
🌟 特别高级技术 🌟
-
概述 🔎
一种先进的 RAG 解决方案,旨在应对简单的语义相似度检索无法解决的复杂问题。该方法使用一个精密的确定性图作为高度可控自主智能体的“大脑” 🧠,能够根据您自己的数据回答非平凡的问题。
实现 🛠️
• 实施一个多步骤流程,包括问题匿名化、高层次规划、任务分解、自适应信息检索与问答、持续重新规划以及严格的答案验证,以确保生成有依据且准确的回应。
开始使用
要在您的项目中开始实施这些高级 RAG 技术:
- 克隆此仓库:
git clone https://github.com/NirDiamant/RAG_Techniques.git - 导航到您感兴趣的技术目录:
cd all_rag_techniques/technique-name - 按照各技术目录中的详细实施指南操作。
贡献
我们欢迎社区的贡献!如果您有新的技术或改进建议:
- 分支此仓库
- 创建您的功能分支:
git checkout -b feature/AmazingFeature - 提交您的更改:
git commit -m 'Add some AmazingFeature' - 推送到分支:
git push origin feature/AmazingFeature - 打开拉取请求
贡献者
许可证
本项目采用自定义的非商业许可协议授权——详情请参阅 LICENSE 文件。
⭐️ 如果您觉得这个仓库很有帮助,请考虑给它点个赞!
关键词:RAG,检索增强生成,NLP,AI,机器学习,信息检索,自然语言处理,LLM,嵌入,语义搜索
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备


