[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-wdndev--llm_interview_note":3,"tool-wdndev--llm_interview_note":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":79,"difficulty_score":89,"env_os":90,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":95,"view_count":100,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":133},716,"wdndev\u002Fllm_interview_note","llm_interview_note","主要记录大语言大模型（LLMs） 算法（应用）工程师相关的知识及面试题","`llm_interview_note` 是一个专为大语言模型（LLMs）算法及应用工程师打造的知识库与面试指南。它系统梳理了从语言模型基础、Transformer 架构到分布式训练的全链路知识，并整合了大量真实面试题，帮助学习者快速构建完整的技术知识体系。\n\n面对大模型领域资料分散、入门门槛高的问题，该项目通过结构化的目录和清晰的图解，降低了理解难度。除了理论内容，它还特别推荐了多个动手实践仓库，例如从零复现中文小模型、搭建 RAG 系统及 Llama3 本地调试方案，让开发者能在低资源环境下进行实战演练。\n\n无论是准备求职的算法工程师、深度学习研究者，还是希望深入理解大模型原理的开发者，都能从中受益。项目提供在线阅读链接，内容持续更新，是备考 LLM 岗位及提升工程能力的优质资源。","# LLMs 相关知识及面试题\n\n\n## 简介\n\n本仓库为大模型面试相关概念，由本人参考网络资源整理，欢迎阅读，如果对你有用，麻烦点一下 `🌟 star`，谢谢！\n\n为了在低资源情况下，学习大模型，进行动手实践，创建 [tiny-llm-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-llm-zh)仓库，旨在构建一个小参数量的中文大语言模型，该项目已部署，可以在如下网站上体验：[ModeScope Tiny LLM](https:\u002F\u002Fwww.modelscope.cn\u002Fstudios\u002Fwdndev\u002Ftiny_llm_92m_demo\u002Fsummary)。\n\n动手实践项目：\n- [tiny-llm-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-llm-zh) : 从零实现一个小参数量的中文大语言模型，快速掌握大模型预训练、微调、RL等相关技术；\n- [tiny-rag](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-rag) : 实现一个简单的RAG系统，支持多路召回、重排等功能，快速了解搜索相关内容；\n- [tiny-mcp](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-mcp) : 使用 Prompt 和 Function Calling 实现 MCP （模型上下文协议）服务端和客户端，快速使用MCP搭建Agent项目。\n- [llama3-from-scratch-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllama3-from-scratch-zh) : 从零实现 llama3, 可加载 meta 官方权重，可在本地笔记本（16G内存）调试运行\n\n\n其他学习资源推荐：\n\n- [AI 工程师八股](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fai_interview_note) : 包含深度学习、机器学习、推荐系统、搜索系统等通用知识\n\n\n\n## 在线阅读\n\n在线阅读链接：[LLMs Interview Note](http:\u002F\u002Fwdndev.github.io\u002Fllm_interview_note)\n\n\n## 注意：\n\n相关答案为自己撰写，若有不合理地方，请指出修正，谢谢！\n\n欢迎关注微信公众号，会不定期更新LLM内容，以及一些面试经验：\n\n \u003Cimg src=https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fpersonal\u002Fblob\u002Fmain\u002Fimage\u002Fllmers_weixin.jpg width = \"427\" height = \"156\" alt=\"weixin\" \u002F>\n\n\n## 目录\n\n* [首页](\u002F)\n* [真实面试题](\u002Fch1)\n* [01.大语言模型基础](\u002F01.大语言模型基础\u002F)\n  * [1.1 大模型发展历程](\u002F01.大语言模型基础\u002F)\n    * [1.语言模型](\u002F01.大语言模型基础\u002F1.语言模型\u002F1.语言模型.md \"1.语言模型\")\n  * [1.2 分词与词向量](\u002F01.大语言模型基础)\n    * [1.分词](\u002F01.大语言模型基础\u002F1.分词\u002F1.分词.md)\n    * [2.jieba分词用法及原理](\u002F01.大语言模型基础\u002F2.jieba分词用法及原理\u002F2.jieba分词用法及原理.md)\n    * [3.词性标注](\u002F01.大语言模型基础\u002F3.词性标注\u002F3.词性标注.md)\n    * [4.句法分析](\u002F01.大语言模型基础\u002F4.句法分析\u002F4.句法分析.md \"4.句法分析\")\n    * [5.词向量](\u002F01.大语言模型基础\u002F5.词向量\u002F5.词向量.md \"5.词向量\")\n  * [1.3 语言模型基础知识](\u002F01.大语言模型基础\u002F)\n    * [Word2Vec](\u002F01.大语言模型基础\u002FWord2Vec\u002FWord2Vec.md \"Word2Vec\")\n    * [NLP三大特征抽取器（CNN\u002FRNN\u002FTF）](\u002F01.大语言模型基础\u002FNLP三大特征抽取器（CNN-RNN-TF）\u002FNLP三大特征抽取器（CNN-RNN-TF）.md)\n    * [NLP面试题](\u002F01.大语言模型基础\u002FNLP面试题\u002FNLP面试题.md \"NLP面试题\")\n    * [LLM为什么Decoder only架构](\u003C\u002F01.大语言模型基础\u002FLLM为什么Decoder only架构\u002FLLM为什么Decoder only架构.md> \"LLM为什么Decoder only架构\")\n  * [1.4 深度学习](\u002F01.大语言模型基础\u002F)\n    * [1.激活函数](\u002F01.大语言模型基础\u002F1.激活函数\u002F1.激活函数.md)\n  * [1.5 一些题目](\u002F01.大语言模型基础\u002F)\n    * [1.llm概念](\u002F01.大语言模型基础\u002F1.llm概念\u002F1.llm概念.md)\n* [02.大语言模型架构](\u002F02.大语言模型架构\u002F)\n  * [2.1 Transformer模型](\u002F02.大语言模型架构\u002F)\n    * [1.attention](\u002F02.大语言模型架构\u002F1.attention\u002F1.attention.md \"1.attention\")\n    * [2.layer\\_normalization](\u002F02.大语言模型架构\u002F2.layer_normalization\u002F2.layer_normalization.md \"2.layer_normalization\")\n    * [3.位置编码](\u002F02.大语言模型架构\u002F3.位置编码\u002F3.位置编码.md \"3.位置编码\")\n    * [4.tokenize分词](\u002F02.大语言模型架构\u002F4.tokenize分词\u002F4.tokenize分词.md \"4.tokenize分词\")\n    * [5.token及模型参数](\u002F02.大语言模型架构\u002F5.token及模型参数\u002F5.token及模型参数.md \"5.token及模型参数\")\n    * [6.激活函数](\u002F02.大语言模型架构\u002F6.激活函数\u002F6.激活函数.md \"6.激活函数\")\n  * [2.2 注意力](\u002F02.大语言模型架构\u002F)\n    * [MHA\\_MQA\\_GQA](\u002F02.大语言模型架构\u002FMHA_MQA_GQA\u002FMHA_MQA_GQA.md \"MHA_MQA_GQA\")\n  * [2.3 解码部分](\u002F02.大语言模型架构\u002F)\n    * [解码策略（Top-k & Top-p & Temperature）](\u003C\u002F02.大语言模型架构\u002F解码策略（Top-k & Top-p & Temperatu\u002F解码策略（Top-k & Top-p & Temperature）.md> \"解码策略（Top-k & Top-p & Temperature）\")\n  * [2.4 BERT](\u002F02.大语言模型架构\u002F)\n    * [bert细节](\u002F02.大语言模型架构\u002Fbert细节\u002Fbert细节.md \"bert细节\")\n    * [Transformer架构细节](\u002F02.大语言模型架构\u002FTransformer架构细节\u002FTransformer架构细节.md \"Transformer架构细节\")\n    * [bert变种](\u002F02.大语言模型架构\u002Fbert变种\u002Fbert变种.md \"bert变种\")\n  * [2.5 常见大模型](\u002F02.大语言模型架构\u002F)\n    * [llama系列模型](\u002F02.大语言模型架构\u002Fllama系列模型\u002Fllama系列模型.md \"llama系列模型\")\n    * [chatglm系列模型](\u002F02.大语言模型架构\u002Fchatglm系列模型\u002Fchatglm系列模型.md \"chatglm系列模型\")\n    * [llama 2代码详解](\u003C\u002F02.大语言模型架构\u002Fllama 2代码详解\u002Fllama 2代码详解.md> \"llama 2代码详解\")\n    * [llama 3](\u003C\u002F02.大语言模型架构\u002Fllama 3\u002Fllama 3.md> \"llama 3\")\n  * [2.6 MoE](\u002F02.大语言模型架构\u002F)\n    * [1.MoE论文](\u002F02.大语言模型架构\u002F1.MoE论文\u002F1.MoE论文.md \"1.MoE论文\")\n    * [2.MoE经典论文简牍](\u002F02.大语言模型架构\u002F2.MoE经典论文简牍\u002F2.MoE经典论文简牍.md \"2.MoE经典论文简牍\")\n    * [3.LLM MoE ：Switch Transformers](\u003C\u002F02.大语言模型架构\u002F3.LLM MoE ：Switch Transformers\u002F3.LLM MoE ：Switch Transformers.md> \"3.LLM MoE ：Switch Transformers\")\n* [03.训练数据集](\u002F03.训练数据集\u002F)\n  * [3.1 数据集](\u002F03.训练数据集\u002F)\n    * [数据格式](\u002F03.训练数据集\u002F数据格式\u002F数据格式.md \"数据格式\")\n  * [3.2 模型参数](\u002F03.训练数据集\u002F)\n* [04.分布式训练](\u002F04.分布式训练\u002F)\n  * [4.1 基础知识](\u002F04.分布式训练\u002F)\n    * [1.概述](\u002F04.分布式训练\u002F1.概述\u002F1.概述.md \"1.概述\")\n    * [2.数据并行](\u002F04.分布式训练\u002F2.数据并行\u002F2.数据并行.md \"2.数据并行\")\n    * [3.流水线并行](\u002F04.分布式训练\u002F3.流水线并行\u002F3.流水线并行.md \"3.流水线并行\")\n    * [4.张量并行](\u002F04.分布式训练\u002F4.张量并行\u002F4.张量并行.md \"4.张量并行\")\n    * [5.序列并行](\u002F04.分布式训练\u002F5.序列并行\u002F5.序列并行.md \"5.序列并行\")\n    * [6.多维度混合并行](\u002F04.分布式训练\u002F6.多维度混合并行\u002F6.多维度混合并行.md \"6.多维度混合并行\")\n    * [7.自动并行](\u002F04.分布式训练\u002F7.自动并行\u002F7.自动并行.md \"7.自动并行\")\n    * [8.moe并行](\u002F04.分布式训练\u002F8.moe并行\u002F8.moe并行.md \"8.moe并行\")\n    * [9.总结](\u002F04.分布式训练\u002F9.总结\u002F9.总结.md \"9.总结\")\n  * [4.2 DeepSpeed](\u002F04.分布式训练\u002F)\n    * [deepspeed介绍](\u002F04.分布式训练\u002Fdeepspeed介绍\u002Fdeepspeed介绍.md \"deepspeed介绍\")\n  * [4.3 Megatron](\u002F04.分布式训练\u002F)\n  * [4.4 训练加速](\u002F04.分布式训练\u002F)\n  * [4.5 一些有用的文章](\u002F04.分布式训练\u002F)\n  * [4.6 一些题目](\u002F04.分布式训练\u002F)\n    * [1.分布式训练题目](\u002F04.分布式训练\u002F分布式训练题目\u002F分布式训练题目.md \"分布式训练题目\")\n    * [2.显存问题](\u002F04.分布式训练\u002F1.显存问题\u002F1.显存问题.md \"1.显存问题\")\n* [05.有监督微调](\u002F05.有监督微调\u002F)\n  * [5.1 理论](\u002F05.有监督微调\u002F)\n    * [1.基本概念](\u002F05.有监督微调\u002F1.基本概念\u002F1.基本概念.md \"1.基本概念\")\n    * [2.prompting](\u002F05.有监督微调\u002F2.prompting\u002F2.prompting.md \"2.prompting\")\n    * [3.adapter-tuning](\u002F05.有监督微调\u002F3.adapter-tuning\u002F3.adapter-tuning.md \"3.adapter-tuning\")\n    * [4.lora](\u002F05.有监督微调\u002F4.lora\u002F4.lora.md \"4.lora\")\n    * [5.总结](\u002F05.有监督微调\u002F5.总结\u002F5.总结.md \"5.总结\")\n  * [5.2 微调实战](\u002F05.有监督微调\u002F)\n    * [llama2微调](\u002F05.有监督微调\u002Fllama2微调\u002Fllama2微调.md \"llama2微调\")\n    * [ChatGLM3微调](\u002F05.有监督微调\u002FChatGLM3微调\u002FChatGLM3微调.md \"ChatGLM3微调\")\n  * [5.3 一些题目](\u002F05.有监督微调\u002F)\n    * [1.微调](\u002F05.有监督微调\u002F1.微调\u002F1.微调.md \"1.微调\")\n    * [2.预训练](\u002F05.有监督微调\u002F2.预训练\u002F2.预训练.md \"2.预训练\")\n* [06.推理](\u002F06.推理\u002F)\n  * [6.1 推理框架](\u002F06.推理\u002F)\n    * [0.llm推理框架简单总结](\u002F06.推理\u002F0.llm推理框架简单总结\u002F0.llm推理框架简单总结.md \"0.llm推理框架简单总结\")\n    * [1.vllm](\u002F06.推理\u002F1.vllm\u002F1.vllm.md \"1.vllm\")\n    * [2.text_generation\\_inference](\u002F06.推理\u002F2.text_generation_inference\u002F2.text_generation_inference.md \"2.text_generation_inference\")\n    * [3.faster_transformer](\u002F06.推理\u002F3.faster_transformer\u002F3.faster_transformer.md \"3.faster_transformer\")\n    * [4.trt_llm](\u002F06.推理\u002F4.trt_llm\u002F4.trt_llm.md \"4.trt_llm\")\n  * [6.2 推理优化技术](\u002F06.推理\u002F)\n    * [llm推理优化技术](\u002F06.推理\u002Fllm推理优化技术\u002Fllm推理优化技术.md \"llm推理优化技术\")\n  * [6.3 量化](\u002F06.推理\u002F)\n  * [6.4 vLLM](\u002F06.推理\u002F)\n  * [6.5 一些题目](\u002F06.推理\u002F)\n    * [1.推理](\u002F06.推理\u002F1.推理\u002F1.推理.md \"1.推理\")\n* [07.强化学习](\u002F07.强化学习)\n  * [7.1 强化学习原理](\u002F07.强化学习)\n    * [策略梯度（pg）](\u002F07.强化学习\u002F策略梯度（pg）\u002F策略梯度（pg）.md \"策略梯度（pg）\")\n    * [近端策略优化(ppo)](\u002F07.强化学习\u002F近端策略优化(ppo)\u002F近端策略优化(ppo).md \"近端策略优化(ppo)\")\n  * [7.2 RLHF](\u002F07.强化学习)\n    * [大模型RLHF：PPO原理与源码解读](\u002F07.强化学习\u002F大模型RLHF：PPO原理与源码解读\u002F大模型RLHF：PPO原理与源码解读.md \"大模型RLHF：PPO原理与源码解读\")\n    * [DPO](\u002F07.强化学习\u002FDPO\u002FDPO.md \"DPO\")\n  * [7.3 一些题目](\u002F07.强化学习)\n    * [1.rlhf相关](\u002F07.强化学习\u002F1.rlhf相关\u002F1.rlhf相关.md \"1.rlhf相关\")\n    * [2.强化学习](\u002F07.强化学习\u002F2.强化学习\u002F2.强化学习.md \"2.强化学习\")\n* [08.检索增强RAG](\u002F08.检索增强rag\u002F)\n  * [8.1 RAG](\u002F08.检索增强rag\u002F)\n    * [检索增强llm](\u002F08.检索增强rag\u002F检索增强llm\u002F检索增强llm.md \"检索增强llm\")\n    * [rag（检索增强生成）技术](\u002F08.检索增强rag\u002Frag（检索增强生成）技术\u002Frag（检索增强生成）技术.md \"rag（检索增强生成）技术\")\n  * [8.2 Agent](\u002F08.检索增强rag\u002F)\n    * [大模型agent技术](\u002F08.检索增强rag\u002F大模型agent技术\u002F大模型agent技术.md \"大模型agent技术\")\n* [09.大语言模型评估](\u002F09.大语言模型评估\u002F)\n  * [9.1 模型评估](\u002F09.大语言模型评估\u002F)\n    * [1.评测](\u002F09.大语言模型评估\u002F1.评测\u002F1.评测.md \"1.评测\")\n  * [9.2 LLM幻觉](\u002F09.大语言模型评估\u002F)\n    * [1.大模型幻觉](\u002F09.大语言模型评估\u002F1.大模型幻觉\u002F1.大模型幻觉.md \"1.大模型幻觉\")\n    * [2.幻觉来源与缓解](\u002F09.大语言模型评估\u002F2.幻觉来源与缓解\u002F2.幻觉来源与缓解.md \"2.幻觉来源与缓解\")\n* [10.大语言模型应用](\u002F10.大语言模型应用\u002F)\n  * [10.1 思维链提示](\u002F10.大语言模型应用\u002F)\n    * [1.思维链（cot）](\u002F10.大语言模型应用\u002F1.思维链（cot）\u002F1.思维链（cot）.md \"1.思维链（cot）\")\n  * [10.2 LangChain框架](\u002F10.大语言模型应用\u002F)\n    * [1.langchain](\u002F10.大语言模型应用\u002F1.langchain\u002F1.langchain.md \"1.langchain\")\n* [98.相关课程](\u002F98.相关课程\u002F)\n* [99.参考资料](\u002F99.参考资料\u002F)\n\n\n\n\n\n\n\n","# 大型语言模型（LLMs）相关知识及面试题\n\n\n## 简介\n\n本仓库为大模型面试相关概念，由本人参考网络资源整理，欢迎阅读，如果对你有用，麻烦点一下 `🌟 star`，谢谢！\n\n为了在低资源情况下，学习大模型，进行动手实践，创建 [tiny-llm-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-llm-zh) 仓库，旨在构建一个小参数量的中文大语言模型，该项目已部署，可以在如下网站上体验：[ModeScope Tiny LLM](https:\u002F\u002Fwww.modelscope.cn\u002Fstudios\u002Fwdndev\u002Ftiny_llm_92m_demo\u002Fsummary)。\n\n动手实践项目：\n- [tiny-llm-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-llm-zh) : 从零实现一个小参数量的中文大语言模型，快速掌握大模型预训练、微调、强化学习（RL）等相关技术；\n- [tiny-rag](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-rag) : 实现一个简单的检索增强生成（RAG）系统，支持多路召回、重排等功能，快速了解搜索相关内容；\n- [tiny-mcp](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-mcp) : 使用提示词（Prompt）和函数调用（Function Calling）实现 MCP（模型上下文协议）服务端和客户端，快速使用 MCP 搭建智能体（Agent）项目。\n- [llama3-from-scratch-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllama3-from-scratch-zh) : 从零实现 llama3，可加载 meta 官方权重，可在本地笔记本（16G 内存）调试运行\n\n\n其他学习资源推荐：\n\n- [AI 工程师八股](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fai_interview_note) : 包含深度学习、机器学习、推荐系统、搜索系统等通用知识\n\n\n\n## 在线阅读\n\n在线阅读链接：[LLMs Interview Note](http:\u002F\u002Fwdndev.github.io\u002Fllm_interview_note)\n\n\n## 注意：\n\n相关答案为自己撰写，若有不合理地方，请指出修正，谢谢！\n\n欢迎关注微信公众号，会不定期更新 LLM 内容，以及一些面试经验：\n\n \u003Cimg src=https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fpersonal\u002Fblob\u002Fmain\u002Fimage\u002Fllmers_weixin.jpg width = \"427\" height = \"156\" alt=\"weixin\" \u002F>\n\n## 目录\n\n* [首页](\u002F)\n* [真实面试题](\u002Fch1)\n* [01.大语言模型基础](\u002F01.大语言模型基础\u002F)\n  * [1.1 大模型发展历程](\u002F01.大语言模型基础\u002F)\n    * [1.语言模型](\u002F01.大语言模型基础\u002F1.语言模型\u002F1.语言模型.md \"1.语言模型\")\n  * [1.2 分词与词向量](\u002F01.大语言模型基础)\n    * [1.分词](\u002F01.大语言模型基础\u002F1.分词\u002F1.分词.md)\n    * [2.jieba 分词用法及原理](\u002F01.大语言模型基础\u002F2.jieba 分词用法及原理\u002F2.jieba 分词用法及原理.md)\n    * [3.词性标注](\u002F01.大语言模型基础\u002F3.词性标注\u002F3.词性标注.md)\n    * [4.句法分析](\u002F01.大语言模型基础\u002F4.句法分析\u002F4.句法分析.md \"4.句法分析\")\n    * [5.词向量](\u002F01.大语言模型基础\u002F5.词向量\u002F5.词向量.md \"5.词向量\")\n  * [1.3 语言模型基础知识](\u002F01.大语言模型基础\u002F)\n    * [Word2Vec](\u002F01.大语言模型基础\u002FWord2Vec\u002FWord2Vec.md \"Word2Vec\")\n    * [NLP 三大特征抽取器（CNN\u002FRNN\u002FTF）](\u002F01.大语言模型基础\u002FNLP 三大特征抽取器（CNN-RNN-TF）\u002FNLP 三大特征抽取器（CNN-RNN-TF）.md)\n    * [NLP 面试题](\u002F01.大语言模型基础\u002FNLP 面试题\u002FNLP 面试题.md \"NLP 面试题\")\n    * [LLM 为什么 Decoder only 架构](\u003C\u002F01.大语言模型基础\u002FLLM 为什么 Decoder only 架构\u002FLLM 为什么 Decoder only 架构.md> \"LLM 为什么 Decoder only 架构\")\n  * [1.4 深度学习](\u002F01.大语言模型基础\u002F)\n    * [1.激活函数](\u002F01.大语言模型基础\u002F1.激活函数\u002F1.激活函数.md)\n  * [1.5 一些题目](\u002F01.大语言模型基础\u002F)\n    * [1.llm 概念](\u002F01.大语言模型基础\u002F1.llm 概念\u002F1.llm 概念.md)\n* [02.大语言模型架构](\u002F02.大语言模型架构\u002F)\n  * [2.1 Transformer 模型](\u002F02.大语言模型架构\u002F)\n    * [1.attention](\u002F02.大语言模型架构\u002F1.attention\u002F1.attention.md \"1.attention\")\n    * [2.layer\\_normalization](\u002F02.大语言模型架构\u002F2.layer_normalization\u002F2.layer_normalization.md \"2.layer_normalization\")\n    * [3.位置编码](\u002F02.大语言模型架构\u002F3.位置编码\u002F3.位置编码.md \"3.位置编码\")\n    * [4.tokenize 分词](\u002F02.大语言模型架构\u002F4.tokenize 分词\u002F4.tokenize 分词.md \"4.tokenize 分词\")\n    * [5.token 及模型参数](\u002F02.大语言模型架构\u002F5.token 及模型参数\u002F5.token 及模型参数.md \"5.token 及模型参数\")\n    * [6.激活函数](\u002F02.大语言模型架构\u002F6.激活函数\u002F6.激活函数.md \"6.激活函数\")\n  * [2.2 注意力](\u002F02.大语言模型架构\u002F)\n    * [MHA\\_MQA\\_GQA](\u002F02.大语言模型架构\u002FMHA_MQA_GQA\u002FMHA_MQA_GQA.md \"MHA_MQA_GQA\")\n  * [2.3 解码部分](\u002F02.大语言模型架构\u002F)\n    * [解码策略（Top-k & Top-p & Temperature）](\u003C\u002F02.大语言模型架构\u002F解码策略（Top-k & Top-p & Temperatu\u002F解码策略（Top-k & Top-p & Temperature）.md> \"解码策略（Top-k & Top-p & Temperature）\")\n  * [2.4 BERT](\u002F02.大语言模型架构\u002F)\n    * [bert 细节](\u002F02.大语言模型架构\u002Fbert 细节\u002Fbert 细节.md \"bert 细节\")\n    * [Transformer 架构细节](\u002F02.大语言模型架构\u002FTransformer 架构细节\u002FTransformer 架构细节.md \"Transformer 架构细节\")\n    * [bert 变种](\u002F02.大语言模型架构\u002Fbert 变种\u002Fbert 变种.md \"bert 变种\")\n  * [2.5 常见大模型](\u002F02.大语言模型架构\u002F)\n    * [llama 系列模型](\u002F02.大语言模型架构\u002Fllama 系列模型\u002Fllama 系列模型.md \"llama 系列模型\")\n    * [chatglm 系列模型](\u002F02.大语言模型架构\u002Fchatglm 系列模型\u002Fchatglm 系列模型.md \"chatglm 系列模型\")\n    * [llama 2 代码详解](\u003C\u002F02.大语言模型架构\u002Fllama 2 代码详解\u002Fllama 2 代码详解.md> \"llama 2 代码详解\")\n    * [llama 3](\u003C\u002F02.大语言模型架构\u002Fllama 3\u002Fllama 3.md> \"llama 3\")\n  * [2.6 MoE](\u002F02.大语言模型架构\u002F)\n    * [1.MoE 论文](\u002F02.大语言模型架构\u002F1.MoE 论文\u002F1.MoE 论文.md \"1.MoE 论文\")\n    * [2.MoE 经典论文简牍](\u002F02.大语言模型架构\u002F2.MoE 经典论文简牍\u002F2.MoE 经典论文简牍.md \"2.MoE 经典论文简牍\")\n    * [3.LLM MoE：Switch Transformers](\u003C\u002F02.大语言模型架构\u002F3.LLM MoE：Switch Transformers\u002F3.LLM MoE：Switch Transformers.md> \"3.LLM MoE：Switch Transformers\")\n* [03.训练数据集](\u002F03.训练数据集\u002F)\n  * [3.1 数据集](\u002F03.训练数据集\u002F)\n    * [数据格式](\u002F03.训练数据集\u002F数据格式\u002F数据格式.md \"数据格式\")\n  * [3.2 模型参数](\u002F03.训练数据集\u002F)\n* [04.分布式训练](\u002F04.分布式训练\u002F)\n  * [4.1 基础知识](\u002F04.分布式训练\u002F)\n    * [1.概述](\u002F04.分布式训练\u002F1.概述\u002F1.概述.md \"1.概述\")\n    * [2.数据并行](\u002F04.分布式训练\u002F2.数据并行\u002F2.数据并行.md \"2.数据并行\")\n    * [3.流水线并行](\u002F04.分布式训练\u002F3.流水线并行\u002F3.流水线并行.md \"3.流水线并行\")\n    * [4.张量并行](\u002F04.分布式训练\u002F4.张量并行\u002F4.张量并行.md \"4.张量并行\")\n    * [5.序列并行](\u002F04.分布式训练\u002F5.序列并行\u002F5.序列并行.md \"5.序列并行\")\n    * [6.多维度混合并行](\u002F04.分布式训练\u002F6.多维度混合并行\u002F6.多维度混合并行.md \"6.多维度混合并行\")\n    * [7.自动并行](\u002F04.分布式训练\u002F7.自动并行\u002F7.自动并行.md \"7.自动并行\")\n    * [8.moe 并行](\u002F04.分布式训练\u002F8.moe 并行\u002F8.moe 并行.md \"8.moe 并行\")\n    * [9.总结](\u002F04.分布式训练\u002F9.总结\u002F9.总结.md \"9.总结\")\n  * [4.2 DeepSpeed](\u002F04.分布式训练\u002F)\n    * [deepspeed 介绍](\u002F04.分布式训练\u002Fdeepspeed 介绍\u002Fdeepspeed 介绍.md \"deepspeed 介绍\")\n  * [4.3 Megatron](\u002F04.分布式训练\u002F)\n  * [4.4 训练加速](\u002F04.分布式训练\u002F)\n  * [4.5 一些有用的文章](\u002F04.分布式训练\u002F)\n  * [4.6 一些题目](\u002F04.分布式训练\u002F)\n    * [1.分布式训练题目](\u002F04.分布式训练\u002F分布式训练题目\u002F分布式训练题目.md \"分布式训练题目\")\n    * [2.显存问题](\u002F04.分布式训练\u002F1.显存问题\u002F1.显存问题.md \"1.显存问题\")\n* [05.有监督微调](\u002F05.有监督微调\u002F)\n  * [5.1 理论](\u002F05.有监督微调\u002F)\n    * [1.基本概念](\u002F05.有监督微调\u002F1.基本概念\u002F1.基本概念.md \"1.基本概念\")\n    * [2.prompting](\u002F05.有监督微调\u002F2.prompting\u002F2.prompting.md \"2.prompting\")\n    * [3.adapter-tuning](\u002F05.有监督微调\u002F3.adapter-tuning\u002F3.adapter-tuning.md \"3.adapter-tuning\")\n    * [4.lora](\u002F05.有监督微调\u002F4.lora\u002F4.lora.md \"4.lora\")\n    * [5.总结](\u002F05.有监督微调\u002F5.总结\u002F5.总结.md \"5.总结\")\n  * [5.2 微调实战](\u002F05.有监督微调\u002F)\n    * [llama2 微调](\u002F05.有监督微调\u002Fllama2 微调\u002Fllama2 微调.md \"llama2 微调\")\n    * [ChatGLM3 微调](\u002F05.有监督微调\u002FChatGLM3 微调\u002FChatGLM3 微调.md \"ChatGLM3 微调\")\n  * [5.3 一些题目](\u002F05.有监督微调\u002F)\n    * [1.微调](\u002F05.有监督微调\u002F1.微调\u002F1.微调.md \"1.微调\")\n    * [2.预训练](\u002F05.有监督微调\u002F2.预训练\u002F2.预训练.md \"2.预训练\")\n* [06.推理](\u002F06.推理\u002F)\n  * [6.1 推理框架](\u002F06.推理\u002F)\n    * [0.llm 推理框架简单总结](\u002F06.推理\u002F0.llm 推理框架简单总结\u002F0.llm 推理框架简单总结.md \"0.llm 推理框架简单总结\")\n    * [1.vllm](\u002F06.推理\u002F1.vllm\u002F1.vllm.md \"1.vllm\")\n    * [2.text_generation\\_inference](\u002F06.推理\u002F2.text_generation_inference\u002F2.text_generation_inference.md \"2.text_generation_inference\")\n    * [3.faster_transformer](\u002F06.推理\u002F3.faster_transformer\u002F3.faster_transformer.md \"3.faster_transformer\")\n    * [4.trt_llm](\u002F06.推理\u002F4.trt_llm\u002F4.trt_llm.md \"4.trt_llm\")\n  * [6.2 推理优化技术](\u002F06.推理\u002F)\n    * [llm 推理优化技术](\u002F06.推理\u002Fllm 推理优化技术\u002Fllm 推理优化技术.md \"llm 推理优化技术\")\n  * [6.3 量化](\u002F06.推理\u002F)\n  * [6.4 vLLM](\u002F06.推理\u002F)\n  * [6.5 一些题目](\u002F06.推理\u002F)\n    * [1.推理](\u002F06.推理\u002F1.推理\u002F1.推理.md \"1.推理\")\n* [07.强化学习](\u002F07.强化学习)\n  * [7.1 强化学习原理](\u002F07.强化学习)\n    * [策略梯度（pg）](\u002F07.强化学习\u002F策略梯度（pg）\u002F策略梯度（pg）.md \"策略梯度（pg）\")\n    * [近端策略优化 (ppo)](\u002F07.强化学习\u002F近端策略优化 (ppo)\u002F近端策略优化 (ppo).md \"近端策略优化 (ppo)\")\n  * [7.2 RLHF](\u002F07.强化学习)\n    * [大模型 RLHF：PPO 原理与源码解读](\u002F07.强化学习\u002F大模型 RLHF：PPO 原理与源码解读\u002F大模型 RLHF：PPO 原理与源码解读.md \"大模型 RLHF：PPO 原理与源码解读\")\n    * [DPO](\u002F07.强化学习\u002FDPO\u002FDPO.md \"DPO\")\n  * [7.3 一些题目](\u002F07.强化学习)\n    * [1.rlhf 相关](\u002F07.强化学习\u002F1.rlhf 相关\u002F1.rlhf 相关.md \"1.rlhf 相关\")\n    * [2.强化学习](\u002F07.强化学习\u002F2.强化学习\u002F2.强化学习.md \"2.强化学习\")\n* [08.检索增强 RAG](\u002F08.检索增强 rag\u002F)\n  * [8.1 RAG](\u002F08.检索增强 rag\u002F)\n    * [检索增强 llm](\u002F08.检索增强 rag\u002F检索增强 llm\u002F检索增强 llm.md \"检索增强 llm\")\n    * [rag（检索增强生成）技术](\u002F08.检索增强 rag\u002Frag（检索增强生成）技术\u002Frag（检索增强生成）技术.md \"rag（检索增强生成）技术\")\n  * [8.2 Agent](\u002F08.检索增强 rag\u002F)\n    * [大模型 agent 技术](\u002F08.检索增强 rag\u002F大模型 agent 技术\u002F大模型 agent 技术.md \"大模型 agent 技术\")\n* [09.大语言模型评估](\u002F09.大语言模型评估\u002F)\n  * [9.1 模型评估](\u002F09.大语言模型评估\u002F)\n    * [1.评测](\u002F09.大语言模型评估\u002F1.评测\u002F1.评测.md \"1.评测\")\n  * [9.2 LLM 幻觉](\u002F09.大语言模型评估\u002F)\n    * [1.大模型幻觉](\u002F09.大语言模型评估\u002F1.大模型幻觉\u002F1.大模型幻觉.md \"1.大模型幻觉\")\n    * [2.幻觉来源与缓解](\u002F09.大语言模型评估\u002F2.幻觉来源与缓解\u002F2.幻觉来源与缓解.md \"2.幻觉来源与缓解\")\n* [10.大语言模型应用](\u002F10.大语言模型应用\u002F)\n  * [10.1 思维链提示](\u002F10.大语言模型应用\u002F)\n    * [1.思维链（cot）](\u002F10.大语言模型应用\u002F1.思维链（cot）\u002F1.思维链（cot）.md \"1.思维链（cot）\")\n  * [10.2 LangChain 框架](\u002F10.大语言模型应用\u002F)\n    * [1.langchain](\u002F10.大语言模型应用\u002F1.langchain\u002F1.langchain.md \"1.langchain\")\n* [98.相关课程](\u002F98.相关课程\u002F)\n* [99.参考资料](\u002F99.参考资料\u002F)","# llm_interview_note 快速上手指南\n\n## 环境准备\n\n本仓库主要为大模型面试知识整理与笔记，无需复杂的运行环境。\n\n*   **操作系统**: Windows \u002F macOS \u002F Linux 任意主流系统。\n*   **前置依赖**:\n    *   `Git`：用于克隆代码仓库（需已安装并配置环境变量）。\n    *   浏览器或 Markdown 编辑器（如 VS Code）：用于查看文档内容。\n*   **网络要求**: 稳定的网络连接以访问 GitHub 或在线阅读服务。\n\n## 安装步骤\n\n由于本项目为知识文档库，无需编译或安装依赖包，直接通过 Git 克隆即可获取本地资源。\n\n1.  **克隆仓库**\n    在终端执行以下命令：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note.git\n    ```\n\n2.  **进入目录**\n    ```bash\n    cd llm_interview_note\n    ```\n\n> **提示**: 若国内网络访问 GitHub 较慢，建议使用代理工具或寻找国内镜像源进行克隆。\n\n## 基本使用\n\n### 1. 在线阅读（推荐）\n无需下载，直接访问作者部署的静态网站即可浏览完整内容：\n*   **在线地址**: [LLMs Interview Note](http:\u002F\u002Fwdndev.github.io\u002Fllm_interview_note)\n\n### 2. 本地阅读\n克隆完成后，可直接使用 Markdown 阅读器打开根目录下的 `README.md` 或目录中的具体章节文件（`.md`）。\n*   推荐使用 VS Code 等编辑器，开启 Markdown 预览功能体验更佳。\n\n### 3. 动手实践延伸\n本仓库主要侧重理论知识点，如需进行代码实践，可参考 README 中推荐的关联项目：\n*   **小模型训练**: [tiny-llm-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-llm-zh)\n*   **RAG 系统实现**: [tiny-rag](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-rag)\n*   **Agent 开发**: [tiny-mcp](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-mcp)\n*   **Llama3 复现**: [llama3-from-scratch-zh](https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllama3-from-scratch-zh)","某互联网大厂算法工程师小李正在备战大模型方向的高级岗位面试，急需系统梳理知识体系以应对技术深挖。\n\n### 没有 llm_interview_note 时\n- 知识点分散在各路博客和英文论文中，难以形成完整的中文知识框架。\n- 遇到 Transformer 细节或 MoE 架构问题需反复查阅原始文档，复习效率极低。\n- 缺乏动手实践项目参考，对预训练、微调及分布式训练流程理解仅停留在理论层面。\n- 面试真题收集不全，无法针对性模拟高频考点，容易遗漏关键八股文内容。\n\n### 使用 llm_interview_note 后\n- llm_interview_note 提供了从基础分词到分布式训练的清晰目录结构，学习路径一目了然。\n- 直接查看 Transformer 注意力机制等核心概念的精炼解析，快速攻克技术难点。\n- 结合 tiny-llm-zh 等项目快速复现代码，将抽象理论转化为实际动手能力。\n- 利用真实面试题章节进行自测，精准覆盖高频考点，大幅提升面试通过率。\n\n助力开发者高效构建知识体系并掌握实战技能，从容应对大模型岗位挑战。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwdndev_llm_interview_note_82e2f4e6.png","wdndev","Firefly","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwdndev_f68fc2f3.jpg","A firefly flying freely in the AI domain.",null,"https:\u002F\u002Fgithub.com\u002Fwdndev",[82],{"name":83,"color":84,"percentage":85},"HTML","#e34c26",100,13682,1348,"2026-04-05T15:14:44",1,"未说明",{"notes":92,"python":90,"dependencies":93},"本仓库主要为 LLM 面试知识文档整理（Markdown 格式），非代码工程，无特定运行环境要求。文中提及关联项目 llama3-from-scratch-zh 可在 16G 内存笔记本调试，涉及训练\u002F推理内容需参考对应实战仓库。",[90],[13,26],[96,97,98,99],"llm","llms","interview","llm-interview",4,"2026-03-27T02:49:30.150509","2026-04-06T09:43:32.247113",[104,109,113,118,123,128],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},3017,"笔记是否会迁移到语雀平台？","暂不考虑迁移至语雀，请通过现有的在线阅读链接访问。","https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note\u002Fissues\u002F1",{"id":110,"question_zh":111,"answer_zh":112,"source_url":108},3018,"目前可以在哪里在线阅读这份笔记？","在线阅读链接已更新，请访问 https:\u002F\u002Fdongnian.icu\u002Fllm_interview_note",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},3019,"笔记内容中的错误是否由大模型自动生成？","部分答案存在准确性问题（例如 BERT 与 Word2Vec 的描述有误），建议用户在使用时注意核对关键知识点，维护者会根据反馈进行修正。","https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note\u002Fissues\u002F32",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},3020,"何时会在笔记中加入 MCP (Model Context Protocol) 相关内容？","暂未整合进此仓库，建议查看独立仓库 https:\u002F\u002Fgithub.com\u002Fwdndev\u002Ftiny-mcp 获取相关信息。","https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note\u002Fissues\u002F27",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},3021,"T5 模型是否属于 Prefix LM 架构？","不属于，原文描述有误，维护者已确认并修正该知识点。","https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note\u002Fissues\u002F2",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},3022,"1.2 节“分词与词向量”的超链接跳转出错怎么办？","该链接错误已更正，可直接正常访问。","https:\u002F\u002Fgithub.com\u002Fwdndev\u002Fllm_interview_note\u002Fissues\u002F5",[]]