[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jackaduma--awesome_LLMs_interview_notes":3,"tool-jackaduma--awesome_LLMs_interview_notes":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":75,"owner_website":82,"owner_url":83,"languages":78,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":94,"github_topics":95,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":137},3719,"jackaduma\u002Fawesome_LLMs_interview_notes","awesome_LLMs_interview_notes","LLMs interview notes and answers:该仓库主要记录大模型（LLMs）算法工程师相关的面试题和参考答案","awesome_LLMs_interview_notes 是一个专注于大语言模型（LLM）算法工程师求职准备的开源知识库。它系统性地整理了行业面试中高频出现的技术问题，并提供了详尽的参考答案，内容涵盖模型架构、训练策略、推理优化及前沿算法等核心领域。\n\n对于致力于进入大模型领域的开发者、研究人员及在校学生而言，面对庞杂的知识体系和多变的面试题型往往感到无从下手。awesome_LLMs_interview_notes 通过结构化的笔记形式，将分散的技术点串联成完整的知识网络，帮助用户高效查漏补缺，快速掌握面试所需的关键技能，从而从容应对技术考核。\n\n该资源特别适合正在准备大厂算法岗面试的工程师，以及希望系统构建 LLM 知识体系的学习者。其独特价值在于不仅罗列问题，更结合知乎专栏等深度博文进行原理解析，实现了从“背诵答案”到“理解逻辑”的跨越。需要注意的是，由于版权合规性调整，部分详细内容已引导至原作者的付费专栏，但该项目依然作为重要的索引目录，为学习者指明了权威的进阶路径。","# awesome_LLMs_interview_notes\nLLMs interview notes and answers\n\n## **内容说明**\n\n### 刚得知 被人警告侵权。新手 第一次知道 github +  Apache-2.0 license 是侵权行为。再次向原作道歉，并逐渐下架内容。 \n\n### 请有需求的童鞋们 移至原作 付费观看。不好意思，再次道歉。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjackaduma_awesome_LLMs_interview_notes_readme_d59eef37a737.png\">\n\n\n## BLOG \n[llm大模型训练知乎专栏](https:\u002F\u002Fwww.zhihu.com\u002Fcolumn\u002Fc_1252604770952642560)\n------\n## **Star-History**\n\n![star-history](https:\u002F\u002Fapi.star-history.com\u002Fsvg?repos=jackaduma\u002Fawesome_LLMs_interview_notes&type=Date \"star-history\")\n\n------\n\n\n\n","# 令人惊叹的LLMs面试笔记\nLLMs面试笔记与答案\n\n## **内容说明**\n\n### 刚得知 被人警告侵权。新手 第一次知道 github +  Apache-2.0 license 是侵权行为。再次向原作道歉，并逐渐下架内容。 \n\n### 请有需求的童鞋们 移至原作 付费观看。不好意思，再次道歉。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjackaduma_awesome_LLMs_interview_notes_readme_d59eef37a737.png\">\n\n\n## 博客 \n[llm大模型训练知乎专栏](https:\u002F\u002Fwww.zhihu.com\u002Fcolumn\u002Fc_1252604770952642560)\n------\n## **Star-History**\n\n![star-history](https:\u002F\u002Fapi.star-history.com\u002Fsvg?repos=jackaduma\u002Fawesome_LLMs_interview_notes&type=Date \"star-history\")\n\n------","# awesome_LLMs_interview_notes 快速上手指南\n\n> **⚠️ 重要提示**\n>\n> 根据项目原作者声明，本仓库因版权原因已停止更新并逐渐下架内容。原作者指出未经授权的转载可能涉及侵权（尽管使用了 Apache-2.0 协议，但内容来源可能存在争议）。\n>\n> **建议方案**：请直接访问原作者的知乎专栏获取最新、最全且合规的大模型面试笔记与答案解析。\n> *   **官方博客\u002F专栏**：[llm 大模型训练知乎专栏](https:\u002F\u002Fwww.zhihu.com\u002Fcolumn\u002Fc_1252604770952642560)\n\n---\n\n若您仍需查看本仓库历史存档内容，请参考以下基础操作步骤：\n\n## 环境准备\n\n本项目主要为文档和笔记集合，无复杂的系统依赖或运行时环境要求。\n*   **操作系统**：Windows \u002F macOS \u002F Linux 均可\n*   **前置依赖**：\n    *   Git（用于克隆代码）\n    *   Markdown 阅读器（或直接使用 GitHub\u002FGitee 网页浏览）\n\n## 安装步骤\n\n通过 Git 克隆仓库到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes.git\n```\n\n*国内用户若访问 GitHub 较慢，可尝试使用镜像加速（如有可用）或直接在线浏览。*\n\n```bash\n# 进入项目目录\ncd awesome_LLMs_interview_notes\n```\n\n## 基本使用\n\n本项目不包含可执行代码脚本，主要使用方式为阅读整理好的面试笔记文件。\n\n1.  **在线浏览**：\n    直接在 GitHub 或 Gitee 仓库页面点击 `.md` 文件即可查看渲染后的笔记内容。\n\n2.  **本地阅读**：\n    使用任意支持 Markdown 的编辑器（如 VS Code, Typora, Obsidian）打开项目根目录或子文件夹下的 `.md` 文件。\n\n    ```bash\n    # 示例：在终端使用 cat 命令快速查看某个笔记文件内容\n    cat .\u002Fpath\u002Fto\u002Fyour\u002Finterview_note.md\n    ```\n\n3.  **核心内容**：\n    重点关注仓库中关于 LLM（大语言模型）的面试题、原理分析及参考答案，用于面试准备或知识复习。","一位刚转行大模型领域的算法工程师正在备战某头部互联网公司的 LLM 岗位面试，急需系统梳理从预训练到 RLHF 的全链路知识体系。\n\n### 没有 awesome_LLMs_interview_notes 时\n- **资料碎片化严重**：候选人需要在知乎、GitHub 零散仓库和技术博客间反复跳转搜索，难以拼凑出完整的知识图谱，效率极低。\n- **缺乏标准参考答案**：面对\"RoPE 旋转位置编码原理”或\"PPO 算法细节”等高频考题，只能凭记忆模糊作答，无法验证自己理解的准确性与深度。\n- **复习重点偏离**：由于不了解大厂真实的出题倾向，花费大量时间钻研冷门理论，却忽略了实际面试中常考的工程落地与微调策略。\n- **焦虑感倍增**：在海量且质量参差不齐的信息中迷失方向，难以建立自信，对即将到来的技术面感到极度不安。\n\n### 使用 awesome_LLMs_interview_notes 后\n- **知识体系结构化**：直接依托该仓库整理的目录，快速构建起涵盖 Transformer 架构、分布式训练及推理优化的系统化复习框架。\n- **获取高质量参考**：对照仓库中提供的详细面试题解，精准修正了对关键算法（如 FlashAttention 机制）的理解偏差，确保回答专业且深入。\n- **聚焦核心考点**：通过分析仓库收录的高频真题，迅速锁定大厂考察重点，将有限的备考时间集中在最具价值的领域。\n- **心态从容自信**：有了经过验证的“题库”和“解析”作为支撑，模拟面试时能够条理清晰地阐述观点，显著提升了通关信心。\n\nawesome_LLMs_interview_notes 通过将分散的面试经验转化为结构化的实战指南，帮助求职者大幅缩短备考路径并精准提升核心竞争力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjackaduma_awesome_LLMs_interview_notes_ce82e883.png","jackaduma","MK","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjackaduma_46a50f78.jpg",null,"Chocolate Factory","Nanjing, China","jackaduma@gmail.com","https:\u002F\u002Fjackaduma.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fjackaduma",1312,327,"2026-04-01T01:05:16","MIT",1,"","未说明",{"notes":92,"python":90,"dependencies":93},"该项目为 LLM 面试笔记和答案的整理文档，并非可执行的软件工具，因此无具体的运行环境、GPU、内存或依赖库需求。作者因版权警告已下架部分内容，建议读者前往原作者的知乎专栏付费观看相关内容。",[],[26,14,15,13],[96,97,98,99,100,101,102,103],"ai","interview-practice","interview-preparation","interview-questions","interviews","large-language-models","llm","nlp","2026-03-27T02:49:30.150509","2026-04-06T05:17:48.776923",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},17041,"如何估算大模型微调所需的显存占用？","显存占用不能仅凭笼统描述估算，应依据具体公式计算下限。实际部署中需考虑并行策略对显存的影响，主要包括：数据并行（Data Parallelism）、模型并行（Model Parallelism）和流水线并行（Pipeline Parallelism）。忽略这些具体操作的技术细节会导致资源预估不准确。","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F2",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},17038,"如何获取或恢复该仓库的特定历史版本内容？","可以通过 Git 命令克隆仓库并重置到特定的提交哈希值来获取旧版本内容。具体命令如下：\n1. git clone \u003C仓库地址>\n2. git reset 6423aa5347d077abb3c2927270a56e0cfd2ca232\n（请将 \u003C仓库地址> 替换为实际仓库链接）","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F7",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},17039,"LLaMA 模型是专门针对医学领域的模型吗？","不是。这是一个常见的错误认知。LLaMA (Large Language Model Meta AI) 是由 Meta 发布的通用大语言模型，并非专门针对医学领域（Language Model for the Medical Domain）。如果文档中出现此类描述，属于内容错误，需以官方定义为准。","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F1",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},17040,"PEFT 的全称及其正确含义是什么？","PEFT 的正确全称是 Parameter-Efficient Fine-tuning（参数高效微调）。如果在资料中看到其他翻译或解释，通常为错误信息。该技术旨在通过微调少量参数来适应大模型，而非全量微调。","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F9",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},17042,"该仓库中的面试答案质量如何，是否由 AI 生成？","部分用户反馈答案具有明显的 LLM 生成特征（如频繁使用“综合考虑实际情况”等套话），且存在事实性错误（如 LLaMA 定义错误、PEFT 翻译错误）。建议使用者对内容进行二次整理和核实，不要直接作为标准答案，特别是涉及具体技术参数计算的部分。","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F5",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},17043,"整理通用的面试题目是否存在侵权风险？","通常不存在侵权风险。面试题目多为行业通用知识，并非个人独创作品。将网上分散的题目进行汇总整理属于知识分享行为，只要不直接抄袭他人独有的深度解析或付费内容，一般被视为合法的成果整理。","https:\u002F\u002Fgithub.com\u002Fjackaduma\u002Fawesome_LLMs_interview_notes\u002Fissues\u002F6",[]]