[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-InterviewReady--ai-engineering-resources":3,"similar-InterviewReady--ai-engineering-resources":46},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":8,"readme_en":9,"readme_zh":10,"quickstart_zh":11,"use_case_zh":12,"hero_image_url":13,"owner_login":14,"owner_name":14,"owner_avatar_url":15,"owner_bio":16,"owner_company":17,"owner_location":17,"owner_email":18,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":17,"stars":22,"forks":23,"last_commit_at":24,"license":17,"difficulty_score":25,"env_os":26,"env_gpu":27,"env_ram":27,"env_deps":28,"category_tags":31,"github_topics":36,"view_count":40,"oss_zip_url":17,"oss_zip_packed_at":17,"status":41,"created_at":42,"updated_at":43,"faqs":44,"releases":45},7359,"InterviewReady\u002Fai-engineering-resources","ai-engineering-resources","Research papers and blogs to transition to AI Engineering","ai-engineering-resources 是一份专为软件工程师打造的进阶指南，旨在帮助大家平滑过渡到 AI 工程领域。面对人工智能技术迭代快、理论门槛高的挑战，许多开发者在从传统软件开发转向构建大模型应用时，常感到无从下手或难以系统掌握核心原理。这份资源库通过精选高质量的学术论文与技术博客，将复杂的 AI 知识体系化，有效解决了学习路径碎片化的问题。\n\n它特别适合希望深入理解底层机制的开发者、技术负责人以及想要夯实理论基础的研究人员。内容覆盖全面，从基础的分词（Tokenization）与向量化技术，到核心的 Transformer 架构、混合专家模型（MoE），再到人类反馈强化学习（RLHF）、思维链推理及模型蒸馏等前沿方向均有涉猎。其独特亮点在于不仅收录了经典的“注意力机制”论文，还及时纳入了如 Mamba、DeepSeek R1、1-bit LLM 等最新的技术突破与优化方案，并包含了基础设施层面的关键资料。无论是想搞懂模型如何思考，还是希望优化推理性能，ai-engineering-resources 都能提供权威且实用的参考，是连接软件工程与 AI 工程的坚实桥梁。","# AI Engineering Transition Path\nResearch papers for software engineers to transition to AI Engineering\n\n## Tokenization\n\n- [Byte-pair Encoding](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.07909)\n- [Byte Latent Transformer: Patches Scale Better Than Tokens](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.09871)\n\n## Vectorization\n\n- [BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805)\n- [IMAGEBIND: One Embedding Space To Bind Them All](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.05665)\n- [SONAR: Sentence-Level Multimodal and Language-Agnostic Representations](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.11466)\n- [FAISS library](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.08281)\n- [Facebook Large Concept Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.08821v2)\n\n## Infrastructure\n\n- [TensorFlow](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.08695)\n- [Deepseek filesystem](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002F3FS\u002Fblob\u002Fmain\u002Fdocs\u002Fdesign_notes.md)\n- [Milvus DB](https:\u002F\u002Fwww.cs.purdue.edu\u002Fhomes\u002Fcsjgwang\u002Fpubs\u002FSIGMOD21_Milvus.pdf)\n- [Billion Scale Similarity Search : FAISS](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.08734)\n- [Ray](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.05889)\n\n## Core Architecture\n\n- [Attention is All You Need](https:\u002F\u002Fpapers.neurips.cc\u002Fpaper\u002F7181-attention-is-all-you-need.pdf)\n- [FlashAttention](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.14135)\n- [Multi Query Attention](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.02150) \n- [Grouped Query Attention](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13245)\n- [Google Titans outperform Transformers](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.00663)\n- [VideoRoPE: Rotary Position Embedding](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.05173)\n\n## Mixture of Experts\n\n- [Sparsely-Gated Mixture-of-Experts Layer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.06538)\n- [GShard](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.16668)\n- [Switch Transformers](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03961)\n\n## RLHF\n\n- [Deep Reinforcement Learning with Human Feedback](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.03741)\n- [Fine-Tuning Language Models with RHLF](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.08593)\n- [Training language models with RHLF](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.02155)\n\n## Chain of Thought\n\n- [Chain-of-Thought Prompting Elicits Reasoning in Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903)\n- [Chain of thought](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.14405v1)\n- [Demystifying Long Chain-of-Thought Reasoning in LLMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.03373)\n\n## Reasoning\n\n- [Transformer Reasoning Capabilities](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.18512)\n- [Large Language Monkeys: Scaling Inference Compute with Repeated Sampling](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.21787)\n- [Scale model test times is better than scaling parameters](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2408.03314)\n- [Training Large Language Models to Reason in a Continuous Latent Space](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.06769)\n- [DeepSeek R1](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12948v1)\n- [A Probabilistic Inference Approach to Inference-Time Scaling of LLMs using Particle-Based Monte Carlo Methods](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.01618)\n- [Latent Reasoning: A Recurrent Depth Approach](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.05171)\n- [Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.13139)\n\n## Optimizations\n\n- [The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.17764)\n- [FlashAttention-3: Fast and Accurate Attention with Asynchrony and Low-precision](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.08608)\n- [ByteDance 1.58](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.18653v1)\n- [Transformer Square](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.06252)\n- [Inference-Time Scaling for Diffusion Models beyond Scaling Denoising Steps](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09732)\n- [1b outperforms 405b](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.06703)\n- [Speculative Decoding](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.17192)\n\n## Distillation\n\n- [Distilling the Knowledge in a Neural Network](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.02531)\n- [BYOL - Distilled Architecture](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2006.07733)\n- [DINO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.14294)\n\n## SSMs\n\n- [RWKV: Reinventing RNNs for the Transformer Era](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13048)\n- [Mamba](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2312.00752)\n- [Transformers are SSMs: Generalized Models and Efficient Algorithms Through Structured State Space Duality](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.21060)\n- [Distilling Transformers to SSMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2408.10189)\n- [LoLCATs: On Low-Rank Linearizing of Large Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.10254)\n- [Think Slow, Fast](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.20339)\n\n## Competition Models\n\n- [Google Math Olympiad 2](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.03544)\n- [Competitive Programming with Large Reasoning Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.06807)\n- [Google Math Olympiad 1](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06747-5)\n\n## Hype Makers\n\n- [Can AI be made to think critically](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.04682)\n- [Evolving Deeper LLM Thinking](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09891)\n- [LLMs Can Easily Learn to Reason from Demonstrations Structure](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.07374)\n\n## Hype Breakers\n\n- [Separating communication from intelligence](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.06627)\n- [Language is not intelligence](https:\u002F\u002Fgwern.net\u002Fdoc\u002Fpsychology\u002Flinguistics\u002F2024-fedorenko.pdf)\n\n## Image Transformers\n\n- [Image is 16x16 word](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.11929)\n- [CLIP](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.00020)\n- [deepseek image generation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.17811)\n\n## Video Transformers\n\n- [ViViT: A Video Vision Transformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.15691)\n- [Joint Embedding abstractions with self-supervised video masks](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.08471)\n- [Facebook VideoJAM ai gen](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.02492)\n\n## Context Engineering\n- [DSPy](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.03714)\n- [Retrieval-Augmented Generation with Knowledge Graphs for Customer Service Question Answering](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.17723v1)\n- [Model Context Protocol](https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fmodel-context-protocol)\n\n## Case Studies\n\n- [Automated Unit Test Improvement using Large Language Models at Meta](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.09171)\n- [OpenAI o1 System Card](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.16720)\n- [LLM-powered bug catchers](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12862)\n- [Chain-of-Retrieval Augmented Generation](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.14342)\n- [Swiggy Search](https:\u002F\u002Fbytes.swiggy.com\u002Fimproving-search-relevance-in-hyperlocal-food-delivery-using-small-language-models-ecda2acc24e6)\n- [Swarm by OpenAI](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fswarm)\n- [Netflix Foundation Models](https:\u002F\u002Fnetflixtechblog.com\u002Ffoundation-model-for-personalized-recommendation-1a0bd8e02d39)\n- [uber queryGPT](https:\u002F\u002Fwww.uber.com\u002Fen-IN\u002Fblog\u002Fquery-gpt\u002F)\n\n## Video Course\n\nAI Engineering: https:\u002F\u002Finterviewready.io\u002Fcourse-page\u002Fai-engineering\n\n","# AI 工程转型路径\n面向软件工程师的 AI 工程转型研究论文\n\n## 分词\n- [字节对编码](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1508.07909)\n- [字节潜在 Transformer：补丁的表现优于标记](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.09871)\n\n## 向量化\n- [BERT：用于语言理解的深度双向 Transformer 预训练](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1810.04805)\n- [IMAGEBIND：一个嵌入空间，将所有内容绑定在一起](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.05665)\n- [SONAR：句子级别的多模态与语言无关表示](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.11466)\n- [FAISS 库](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.08281)\n- [Facebook 大型概念模型](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.08821v2)\n\n## 基础设施\n- [TensorFlow](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1605.08695)\n- [Deepseek 文件系统](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002F3FS\u002Fblob\u002Fmain\u002Fdocs\u002Fdesign_notes.md)\n- [Milvus 数据库](https:\u002F\u002Fwww.cs.purdue.edu\u002Fhomes\u002Fcsjgwang\u002Fpubs\u002FSIGMOD21_Milvus.pdf)\n- [亿级相似度搜索：FAISS](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1702.08734)\n- [Ray](https:\u002F\u002Farxiv.org\u002Fabs\u002F1712.05889)\n\n## 核心架构\n- [注意力就是一切](https:\u002F\u002Fpapers.neurips.cc\u002Fpaper\u002F7181-attention-is-all-you-need.pdf)\n- [FlashAttention](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.14135)\n- [多查询注意力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.02150)\n- [分组查询注意力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13245)\n- [谷歌 Titans 性能超越 Transformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.00663)\n- [VideoRoPE：旋转位置嵌入](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.05173)\n\n## 混合专家\n- [稀疏门控混合专家层](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.06538)\n- [GShard](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.16668)\n- [Switch Transformers](https:\u002F\u002Farxiv.org\u002Fabs\u002F2101.03961)\n\n## RLHF\n- [带有人类反馈的深度强化学习](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.03741)\n- [使用 RHLF 微调语言模型](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.08593)\n- [使用 RHLF 训练语言模型](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.02155)\n\n## 思考链\n- [思考链提示在大型语言模型中激发推理能力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903)\n- [思考链](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.14405v1)\n- [揭秘 LLM 中的长思考链推理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.03373)\n\n## 推理\n- [Transformer 的推理能力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.18512)\n- [大型语言猴子：通过重复采样扩展推理计算](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.21787)\n- [扩大模型测试次数比增加参数更好](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2408.03314)\n- [训练大型语言模型在连续潜空间中进行推理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.06769)\n- [DeepSeek R1](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12948v1)\n- [基于粒子的蒙特卡洛方法的概率推理方法，用于 LLM 推理时的缩放](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.01618)\n- [潜意识推理：递归深度方法](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.05171)\n- [通过序列蒙特卡洛控制大型语言模型的句法和语义](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2504.13139)\n\n## 优化\n- [1 位 LLM 时代：所有大型语言模型都在 1.58 位内](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.17764)\n- [FlashAttention-3：异步与低精度下的快速准确注意力](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.08608)\n- [字节跳动 1.58](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.18653v1)\n- [Transformer Square](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.06252)\n- [扩散模型的推理时缩放，超越去噪步骤的缩放](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09732)\n- [1b 性能优于 405b](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.06703)\n- [推测性解码](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.17192)\n\n## 知识蒸馏\n- [蒸馏神经网络中的知识](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.02531)\n- [BYOL - 蒸馏架构](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2006.07733)\n- [DINO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.14294)\n\n## SSMs\n- [RWKV：为 Transformer 时代重新发明 RNN](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.13048)\n- [Mamba](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2312.00752)\n- [Transformer 就是 SSM：通过结构化状态空间对偶实现通用模型与高效算法](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.21060)\n- [将 Transformer 蒸馏为 SSM](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2408.10189)\n- [LoLCATs：关于大型语言模型的低秩线性化](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.10254)\n- [慢速思考，快速行动](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.20339)\n\n## 竞赛模型\n- [谷歌数学奥林匹克竞赛 2](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.03544)\n- [使用大型推理模型进行竞争性编程](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.06807)\n- [谷歌数学奥林匹克竞赛 1](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-023-06747-5)\n\n## 夸大宣传者\n- [能否让 AI 具备批判性思维](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.04682)\n- [进化更深层次的 LLM 思维](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09891)\n- [LLMs 可以轻松从演示结构中学会推理](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.07374)\n\n## 打破 hype 者\n- [将沟通与智能区分开来](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2301.06627)\n- [语言不是智能](https:\u002F\u002Fgwern.net\u002Fdoc\u002Fpsychology\u002Flinguistics\u002F2024-fedorenko.pdf)\n\n## 图像 Transformer\n- [图像即 16x16 的单词](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.11929)\n- [CLIP](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.00020)\n- [deepseek 图像生成](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.17811)\n\n## 视频 Transformer\n- [ViViT：视频视觉 Transformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2103.15691)\n- [联合嵌入抽象与自监督视频掩码](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.08471)\n- [Facebook VideoJAM ai gen](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2502.02492)\n\n## 上下文工程\n- [DSPy](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.03714)\n- [结合知识图谱的检索增强生成，用于客户服务问答](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.17723v1)\n- [模型上下文协议](https:\u002F\u002Fwww.anthropic.com\u002Fnews\u002Fmodel-context-protocol)\n\n## 案例研究\n- [Meta 使用大型语言模型自动改进单元测试](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.09171)\n- [OpenAI o1 系统卡片](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.16720)\n- [LLM 驱动的 bug 捕捉器](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12862)\n- [检索增强生成的链条](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.14342)\n- [Swiggy 搜索](https:\u002F\u002Fbytes.swiggy.com\u002Fimproving-search-relevance-in-hyperlocal-food-delivery-using-small-language-models-ecda2acc24e6)\n- [OpenAI 的 Swarm](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fswarm)\n- [Netflix 基础模型](https:\u002F\u002Fnetflixtechblog.com\u002Ffoundation-model-for-personalized-recommendation-1a0bd8e02d39)\n- [Uber queryGPT](https:\u002F\u002Fwww.uber.com\u002Fen-IN\u002Fblog\u002Fquery-gpt\u002F)\n\n## 视频课程\nAI 工程：https:\u002F\u002Finterviewready.io\u002Fcourse-page\u002Fai-engineering","# ai-engineering-resources 快速上手指南\n\n**工具简介**：`ai-engineering-resources` 并非一个可安装的软件库或框架，而是一份专为软件工程师转型 AI 工程师打造的**精选研究论文与资源路线图**。它涵盖了从分词、向量化、核心架构到推理优化等关键领域的学术成果。本指南将指导开发者如何高效利用这份资源清单进行学习与研究。\n\n## 环境准备\n\n由于本资源库主要由论文链接和技术文档组成，无需特定的 AI 运行环境（如 GPU 或 CUDA），但建议准备以下基础环境以便阅读论文和复现代码：\n\n*   **操作系统**：Windows \u002F macOS \u002F Linux 均可。\n*   **浏览器**：推荐 Chrome 或 Edge，用于访问 arXiv 论文链接。\n*   **前置依赖**：\n    *   **Git**：用于克隆资源仓库（如果该列表托管在 GitHub 上）。\n    *   **PDF 阅读器**：用于离线阅读下载的论文。\n    *   **Python 3.8+**（可选）：如果你计划根据论文复现代码，需要安装 Python 及对应的深度学习框架（如 PyTorch 或 TensorFlow）。\n\n> **国内访问提示**：部分 arXiv 链接在国内访问可能较慢，建议使用国内镜像站（如 [arXiv.org.cn](https:\u002F\u002Farxiv.org.cn)）或配置学术加速代理下载 PDF。\n\n## 安装步骤\n\n本资源库不需要执行传统的 `install` 命令。你可以通过以下两种方式获取内容：\n\n### 方式一：在线浏览（推荐）\n直接访问该资源的原始托管页面（通常为 GitHub 仓库），按分类查阅链接。\n\n### 方式二：本地克隆（便于离线整理）\n如果你希望将这份清单保存到本地进行标记或二次整理，可以使用 Git 克隆：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyour-target-repo\u002Fai-engineering-resources.git\ncd ai-engineering-resources\n```\n\n*(注：请将上述 URL 替换为实际的仓库地址，若仅为单页 README，可直接保存 `.md` 文件)*\n\n## 基本使用\n\n本工具的核心用法是**按主题路径学习**。以下是针对中国开发者的推荐学习路径和使用示例：\n\n### 1. 确定学习阶段\n根据你的当前技术背景，选择 README 中对应的章节开始阅读：\n\n*   **入门基础**：从 `Tokenization` (分词) 和 `Vectorization` (向量化) 开始，理解 BERT 和 FAISS 等基础概念。\n*   **架构深入**：阅读 `Core Architecture`，重点研读 *Attention is All You Need* 和 *FlashAttention*。\n*   **进阶优化**：关注 `Optimizations` (如 1-bit LLMs) 和 `Distillation` (知识蒸馏)，适合追求模型部署效率的工程师。\n*   **前沿探索**：查看 `Reasoning` (推理) 和 `SSMs` (状态空间模型，如 Mamba)，了解最新的研究趋势。\n\n### 2. 阅读与复现示例\n假设你想学习 **FlashAttention** 以提升模型训练速度：\n\n1.  **定位资源**：在 `Core Architecture` 或 `Optimizations` 章节找到 `[FlashAttention]` 链接。\n2.  **获取论文**：点击链接下载 PDF (`2205.14135.pdf`)。\n3.  **查找实现**：通常论文摘要或引言部分会提供官方代码库链接（例如 GitHub 上的 `Dao-AILab\u002Fflash-attention`）。\n4.  **快速体验**（以 Python 为例）：\n    ```bash\n    # 安装官方实现的 FlashAttention (需 NVIDIA GPU 环境)\n    pip install flash-attn --no-build-isolation\n    ```\n    ```python\n    # 在代码中替换标准 Attention\n    from flash_attn import flash_attn_func\n    \n    # q, k, v: (batch_size, seqlen, nheads, headdim)\n    output = flash_attn_func(q, k, v, dropout_p=0.0, softmax_scale=None, causal=True)\n    ```\n\n### 3. 结合视频课程\n资源列表末尾提供了配套视频课程，建议在学习完一个章节后，通过以下链接加深理解：\n*   **AI Engineering Course**: [https:\u002F\u002Finterviewready.io\u002Fcourse-page\u002Fai-engineering\u002F](https:\u002F\u002Finterviewready.io\u002Fcourse-page\u002Fai-engineering\u002F)\n\n### 4. 案例研究参考\n在实际工程落地前，推荐阅读 `Case Studies` 章节中的真实案例，例如：\n*   **Meta**: 如何使用 LLM 改进单元测试。\n*   **Netflix**: 个性化推荐的基础模型应用。\n*   **Uber**: QueryGPT 的实践。\n\n通过按图索骥地阅读这些高质量论文并结合官方代码复现，软件工程师可以系统性地构建 AI 工程化知识体系。","某初创团队正试图将传统搜索系统升级为支持多模态语义检索的智能引擎，但在技术选型和架构设计上陷入瓶颈。\n\n### 没有 ai-engineering-resources 时\n- 工程师在海量论文中盲目摸索，难以快速定位如 IMAGEBIND 或 SONAR 等多模态向量化方案，导致技术调研耗时数周。\n- 面对亿级数据检索需求，团队因不了解 FAISS 与 Milvus 的底层差异及 Billion Scale 优化策略，初期架构设计存在严重性能隐患。\n- 缺乏对 FlashAttention、MQA 等核心架构优化的认知，模型推理延迟居高不下，无法达到生产环境的实时性要求。\n- 对于如何从传统软件开发平滑过渡到 AI 工程化，团队缺乏系统性的学习路径，常在 Tokenization 或 RLHF 等关键环节走弯路。\n\n### 使用 ai-engineering-resources 后\n- 团队直接通过分类索引锁定 IMAGEBIND 和 SONAR 论文，三天内完成了多模态嵌入方案的技术验证与选型。\n- 参考 FAISS 和 Milvus 的权威文献及大规模相似度搜索案例，一次性构建了支持亿级向量的高效检索基础设施。\n- 引入 FlashAttention 和 Grouped Query Attention 等前沿架构优化技术，将模型推理延迟降低了 60%，显著提升了用户体验。\n- 依托清晰的“转型路径图”，团队成员系统掌握了从字节对编码到混合专家模型（MoE）的全链路知识，大幅减少了试错成本。\n\nai-engineering-resources 通过精选的学术资源地图，帮助开发者跨越理论与实践的鸿沟，将原本数月的技术探索期压缩至数天。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInterviewReady_ai-engineering-resources_04778e90.png","InterviewReady","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FInterviewReady_f3fe2793.png","We make software interviews easy.",null,"contact@interviewready.io","InterviewReady3","https:\u002F\u002Finterviewready.io","https:\u002F\u002Fgithub.com\u002FInterviewReady",2408,364,"2026-04-13T19:40:56",1,"","未说明",{"notes":29,"python":27,"dependencies":30},"该仓库（ai-engineering-resources）并非可执行的软件工具或代码库，而是一份面向软件工程师的 AI 工程化过渡路径指南。其内容主要由指向学术论文（arXiv）、技术博客、开源项目文档和在线课程的链接组成，涵盖分词、向量化、基础设施、核心架构、混合专家模型、RLHF 等主题。因此，该仓库本身没有操作系统、GPU、内存、Python 版本或依赖库的安装需求。用户只需具备浏览器即可阅读相关内容，若需运行文中提及的具体算法或模型（如 DeepSeek R1, Mamba 等），则需参考对应论文或项目的具体环境要求。",[],[32,33,34,35],"图像","语言模型","Agent","开发框架",[37,38,39],"ai","llm","transformer",2,"ready","2026-03-27T02:49:30.150509","2026-04-14T12:26:56.744959",[],[],[47,57,65,73,81,90],{"id":48,"name":49,"github_repo":50,"description_zh":51,"stars":52,"difficulty_score":53,"last_commit_at":54,"category_tags":55,"status":41},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[34,35,32,56],"数据工具",{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":53,"last_commit_at":63,"category_tags":64,"status":41},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[35,32,34],{"id":66,"name":67,"github_repo":68,"description_zh":69,"stars":70,"difficulty_score":40,"last_commit_at":71,"category_tags":72,"status":41},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",154349,"2026-04-13T23:32:16",[35,34,33],{"id":74,"name":75,"github_repo":76,"description_zh":77,"stars":78,"difficulty_score":40,"last_commit_at":79,"category_tags":80,"status":41},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[35,32,34],{"id":82,"name":83,"github_repo":84,"description_zh":85,"stars":86,"difficulty_score":40,"last_commit_at":87,"category_tags":88,"status":41},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[89,34,32,35],"插件",{"id":91,"name":92,"github_repo":93,"description_zh":94,"stars":95,"difficulty_score":40,"last_commit_at":96,"category_tags":97,"status":41},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[89,35]]