[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-henrythe9th--AI-Crash-Course":3,"tool-henrythe9th--AI-Crash-Course":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":77,"owner_website":75,"owner_url":78,"languages":75,"stars":79,"forks":80,"last_commit_at":81,"license":82,"difficulty_score":83,"env_os":84,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":89,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":91,"updated_at":92,"faqs":93,"releases":94},4253,"henrythe9th\u002FAI-Crash-Course","AI-Crash-Course","AI Crash Course to help busy builders catch up to the public frontier of AI research in 2 weeks","AI-Crash-Course 是一套专为忙碌的技术构建者设计的 AI 研究速成指南，旨在帮助用户在两周内快速掌握当前人工智能领域的前沿动态。面对日新月异的技术迭代，许多传统软件开发者难以抽出大量时间系统学习，往往错失创新机会。这份资源清单通过精选核心论文与教程，提供了一条高效的学习路径，让用户能迅速补齐知识短板，洞察行业趋势与潜在机遇。\n\n该指南特别适合有一定技术背景的开发者、创业者及研究人员使用。其内容编排逻辑清晰：从神经网络基础视频入门，引导用户阅读大语言模型（LLM）、智能体（Agent）及提示工程等关键领域的综述论文；进而深入研读带有星号标记的奠基性文献，涵盖 Transformer 架构、RLHF 对齐技术、思维链（CoT）推理以及 DeepSeek R1 等最新突破。不同于泛泛而谈的科普，AI-Crash-Course 直接指向学术界公认的核心成果，强调通过阅读原始论文来理解技术本质。无论是希望转型 AI 的工程师，还是寻找下一个风口的创作者，都能借此在短时间内建立起对公共研究前沿的系统认知。","# AI-Crash-Course\nAI Crash Course to help busy builders catch up to the public frontier of AI research in 2 weeks\n\n**Intro:** I’m [Henry Shi](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fhenrythe9th\u002F) and I started Super.com in 2016 and grew it to $150MM+ in annual revenues and recently exited. As a traditional software founder, I needed to quickly catch up to the frontier of AI research to figure out where the next opportunities and gaps were. I compiled a list of resources that were essential for me and should get you caught up within 2 weeks.\n\nFor more context, checkout the [original twitter thread](https:\u002F\u002Fx.com\u002Fhenrythe9ths\u002Fstatus\u002F1877056425454719336)\n\n**Start Here:**  \n[Neural Network \\-\\> LLM Series](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aircAruvnKk&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi)\n\n**Then get up to speed via Survey papers:**\n\n- Follow the ideas in the survey paper that interest you and dig deeper\n\n[LLM Survey](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.06196v2) \\- 2024  \n[Agent Survey](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.11432) \\- 2023  \n[Prompt Engineering Survey](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.06608) \\- 2024  \n[Context Engineering Survey](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.13334) \\- 2025\n\n**AI Papers:** (prioritize ones with star \\*)\n\n**Foundational Modelling:**  \n[**Transformers**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.03762) (foundation, self-attention) \\- 2017  \n[Scaling Laws](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.08361)\u002F[**GPT3**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.14165) (conviction to scale up GPT2\u002F3\u002F4) \\- 2020  \n[LoRA](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09685) (Fine tuning) \\- 2021  \n[Training Compute-Optimal LLMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.15556) \\- 2022  \n[**RLHF**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.02155) (InstructGPT-\\>ChatGPT) \\- 2022  \n[DPO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.18290) (No need for RL\u002FReward model) \\- 2023  \n[LLM-as-Judge](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.05685) (On par with human evaluations) \\- 2023  \n[MoE](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.04088) (MIxture of Experts) \\- 2024  \n\n**Planning\u002FReasoning:**  \n[AlphaZero](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1712.01815)\u002F[**MuZero**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08265) (RL without prior knowledge of game or rules) \\- 2017\u002F2019  \n[**CoT**\\* (Chain of Thought)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903)\u002F[ToT (Tree of Thoughts)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.10601)\u002F[GoT (Graph of Thoughts)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.09687)\u002F[Meta CoT](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.04682) \\- 2022\u002F2023\u002F2023\u002F2025  \n[ReACT](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.03629) (Generate reasoning traces and task-specific actions in interleaved manner) \\- 2022  \n[Let’s Verify Step by Step](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.20050) (Process \\> Outcome) \\- 2023  \n[**ARC-Prize**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.04604) (Latest methods for solving ARC-AGI problems) \\- 2024  \n[**DeepSeek R1**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12948v1) (Building OSS o1-level reasoning model with pure RL, no SFT, no RM) \\- 2025  \n[Recursive Language Models](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2512.24601v1) (Simple REPL + basic tools → models emergently learn adaptive strategies without explicit prompting) \\- 2026  \n\n**Applications:**  \n[Toolformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2302.04761) (LLMs to use tools) \\- 2023  \n[GPT4](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.08774) (Overview of GPT4, but fairly high level) \\- 2023  \n[**Llama3**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.21783) (In depth details of how Meta built Llama3 and the various configurations and hyperparameters) \\- 2024  \n[Gemini1.5](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.05530) (Multimodal across 10MM context window) \\- 2024  \n[Deepseekv3](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3\u002Fblob\u002Fmain\u002FDeepSeek_V3.pdf) (Building a frontier OSS model at a fraction of the cost of everyone else) \\- 2024  \n[SWE-Agent](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.15793)\u002F[OpenHands](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.16741) (OpenSource software development agents) \\- 2024\n\n**Benchmarks:**  \n[BIG-Bench](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.04615) (First broad & diverse collaborative OSS benchmark) \\- 2022  \n[SWE-Bench](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.06770) (Real world software development) \\- 2023  \n[Chatbot Arena](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.04132) (Live human preference Elo ratings) \\- 2024\n\n\u003Chr \u002F>\n\n**Videos\u002FLectures:**  \n[3Blue1Brown on Foundational Math\u002FConcepts](https:\u002F\u002Fwww.youtube.com\u002F@3blue1brown)  \n[Build a Large Language Model (from Scratch) \\#1 Bestseller](https:\u002F\u002Fwww.amazon.com\u002FBuild-Large-Language-Model-Scratch\u002Fdp\u002F1633437167)\n[Build a Reasoning Model (From Scratch)](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-reasoning-model-from-scratch)\n[Andrej Kaparthy: Zero to Hero Series](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ)  \n[Yannic Kilcher Paper Explanations](https:\u002F\u002Fwww.youtube.com\u002F@YannicKilcher)  \n[Noam Brown (o1 founder) on Planning in AI](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=eaAonE58sLU)  \n[Stanford: Building LLMs](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9vM4p9NN0Ts)  \n[Foundations of LLMs](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09223)  \n[Why You’re Not Too Old to Pivot Into AI](https:\u002F\u002Fwww.latent.space\u002Fp\u002Fnot-old) (motivation)\n\n**Helpful Websites:**  \n[History of Deep Learning](https:\u002F\u002Fgithub.com\u002Fadam-maj\u002Fdeep-learning?tab=readme-ov-file) \\- summary timeline of deeplearning with major breakthroughs and key concepts  \n[Full Stack Deep Learning](https:\u002F\u002Ffullstackdeeplearning.com\u002F) \\- courses for building AI products  \n[Prompting Guide](https:\u002F\u002Fwww.promptingguide.ai\u002F) \\- extensive list of prompting techniques and examples  \n[a16z AI Cannon](https:\u002F\u002Fa16z.com\u002Fai-canon\u002F) \\- similar list of resources, but longer (slightly dated)  \n[2025 AI Engineer Reading List](https:\u002F\u002Fwww.latent.space\u002Fp\u002F2025-papers) \\- longer reading list, broken out by focus area  \n[State of Generative Models 2024](https:\u002F\u002Fnrehiew.github.io\u002Fblog\u002F2024\u002F) \\- good simple summary of current state\n\n**Others (non LLMs):**  \n[Vision Transformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.11929) (no need for CNNs) \\- 2021  \n[Latent Diffusion](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2112.10752) (Text-to-Image) \\- 2021\n\n**Obvious\u002Feasy papers (to get your feet wet if you're new to papers):**  \n[CoT (Chain of Thought)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903) \\- 2022  \n[SELF-REFINE: Iterative Refinement with Self-Feedback](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.17651) \\- 2023  \n","# AI速成課\n為忙碌的開發者準備的AI速成課程，幫助你在2週內趕上AI研究的前沿。\n\n**導言：** 我是Henry Shi（LinkedIn: [henrythe9th](https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fhenrythe9th\u002F)），2016年創立了Super.com，並使其年收入超過1.5億美元，最近已退出。作為一名傳統軟體創業者，我需要迅速了解AI研究的最新進展，以找到下一個機會與空白點。因此，我整理了一份對我至關重要、並且能在兩週內讓你快速入門的資源清單。\n\n如需更多背景資訊，請參閱[原始推文串](https:\u002F\u002Fx.com\u002Fhenrythe9ths\u002Fstatus\u002F1877056425454719336)。\n\n**從這裡開始：**  \n[神經網絡 → LLM系列](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aircAruvnKk&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi)\n\n**接著通過綜述論文快速掌握：**\n\n- 選擇你感興趣的綜述論文深入研讀\n\n[LLM綜述](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.06196v2) - 2024年  \n[代理綜述](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.11432) - 2023年  \n[提示工程綜述](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.06608) - 2024年  \n[上下文工程綜述](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.13334) - 2025年  \n\n**AI論文：**（優先閱讀標有星號的）\n\n**基礎模型：**  \n[**Transformer**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.03762)（基礎架構，自注意力機制）- 2017年  \n[規模定律](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.08361)\u002F[**GPT3**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2005.14165)（確立擴大GPT2\u002F3\u002F4規模的信念）- 2020年  \n[LoRA](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09685)（微調）- 2021年  \n[訓練計算效率最優的LLM](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.15556) - 2022年  \n[**RLHF**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.02155)（InstructGPT→ChatGPT）- 2022年  \n[DPO](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.18290)（無需強化學習或獎勵模型）- 2023年  \n[LLM作為評判](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2306.05685)（與人類評估不相上下）- 2023年  \n[MoE](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2401.04088)（專家混合模型）- 2024年  \n\n**規劃與推理：**  \n[AlphaZero](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1712.01815)\u002F[**MuZero**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.08265)（無需遊戲或規則先驗知識的強化學習）- 2017\u002F2019年  \n[**CoT**\\*（思維鏈）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903)\u002F[ToT（思維樹）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.10601)\u002F[GoT（思維圖）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.09687)\u002F[Meta CoT](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.04682) - 2022\u002F2023\u002F2023\u002F2025年  \n[ReACT](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.03629)（交替生成推理痕跡與任務特定行動）- 2022年  \n[讓我們逐步驗證](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.20050)（過程 > 結果）- 2023年  \n[**ARC獎項**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.04604)（解決ARC-AGI問題的最新方法）- 2024年  \n[**DeepSeek R1**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.12948v1)（純粹強化學習打造O1級推理模型，無SFT、無RM）- 2025年  \n[遞歸語言模型](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2512.24601v1)（簡單REPL + 基本工具 → 模型在無明確提示的情況下自發學習適應策略）- 2026年  \n\n**應用：**  \n[Toolformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2302.04761)（讓LLM使用工具）- 2023年  \n[GPT4](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.08774)（GPT4概覽，但較為概括）- 2023年  \n[**Llama3**\\*](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.21783)（詳細介紹Meta如何構建Llama3及其各種配置與超參數）- 2024年  \n[Gemini1.5](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.05530)（跨模態，上下文窗口達1000萬詞）- 2024年  \n[Deepseekv3](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3\u002Fblob\u002Fmain\u002FDeepSeek_V3.pdf)（以遠低於其他公司的成本打造前沿開源模型）- 2024年  \n[SWE-Agent](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2405.15793)\u002F[OpenHands](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2407.16741)（開源軟體開發代理）- 2024年  \n\n**基準測試：**  \n[BIG-Bench](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2206.04615)（首個廣泛且多樣化的協作式開源基準測試）- 2022年  \n[SWE-Bench](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.06770)（真實世界軟體開發）- 2023年  \n[Chatbot Arena](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.04132)（實時人類偏好 Elo 排名）- 2024年  \n\n\u003Chr \u002F>\n\n**視頻\u002F講座：**  \n[3Blue1Brown關於基礎數學\u002F概念](https:\u002F\u002Fwww.youtube.com\u002F@3blue1brown)  \n[從零開始構建大型語言模型 #1暢銷書](https:\u002F\u002Fwww.amazon.com\u002FBuild-Large-Language-Model-Scratch\u002Fdp\u002F1633437167)  \n[從零開始構建推理模型](https:\u002F\u002Fwww.manning.com\u002Fbooks\u002Fbuild-a-reasoning-model-from-scratch)  \n[Andrej Karpathy: 從零到英雄系列](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ)  \n[Yannic Kilcher論文解說](https:\u002F\u002Fwww.youtube.com\u002F@YannicKilcher)  \n[Noam Brown（o1創始人）談AI中的規劃](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=eaAonE58sLU)  \n[史丹佛大學：構建LLM](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=9vM4p9NN0Ts)  \n[LLM的基礎理論](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2501.09223)  \n[為什麼你永遠不會太老而轉行進入AI](https:\u002F\u002Fwww.latent.space\u002Fp\u002Fnot-old)（動力來源）\n\n**有用的網站：**  \n[深度學習歷史](https:\u002F\u002Fgithub.com\u002Fadam-maj\u002Fdeep-learning?tab=readme-ov-file) - 深度學習重大突破與關鍵概念的時間線總結  \n[全棧深度學習](https:\u002F\u002Ffullstackdeeplearning.com\u002F) - 用於構建AI產品的課程  \n[Prompting Guide](https:\u002F\u002Fwww.promptingguide.ai\u002F) - 豐富的提示技巧與範例列表  \n[a16z AI典籍](https:\u002F\u002Fa16z.com\u002Fai-canon\u002F) - 相似的資源清單，但更長且略顯過時  \n[2025年AI工程師閱讀清單](https:\u002F\u002Fwww.latent.space\u002Fp\u002F2025-papers) - 更長的閱讀清單，按關注領域劃分  \n[2024年生成模型現狀](https:\u002F\u002Fnrehiew.github.io\u002Fblog\u002F2024\u002F) - 對當前狀況的良好簡要總結  \n\n**其他（非LLM類）：**  \n[Vision Transformer](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2010.11929)（無需CNN）- 2021年  \n[Latent Diffusion](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2112.10752)（文本到圖像）- 2021年  \n\n**簡單易懂的論文（適合剛接觸論文的新手）：**  \n[CoT（思維鏈）](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903) - 2022年  \n[SELF-REFINE：自我反饋的迭代精煉](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.17651) - 2023年","# AI-Crash-Course 快速上手指南\n\n**项目简介**  \nAI-Crash-Course 并非一个可安装的软件包或代码库，而是一份由前 Super.com 创始人 Henry Shi 整理的**精选学习路径与资源清单**。旨在帮助忙碌的开发者在 2 周内快速掌握从神经网络基础到最新大模型（LLM）、智能体（Agent）及推理规划的前沿研究。本指南将指导你如何利用这些资源构建知识体系。\n\n## 1. 环境准备\n\n由于本项目是资源索引，无需特定的系统依赖，但为了高效阅读论文、运行示例代码及复现研究，建议准备以下开发环境：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+), macOS 或 Windows (配合 WSL2)。\n*   **编程语言**: Python 3.9+ (AI 领域标准)。\n*   **核心依赖**:\n    *   **PyTorch** 或 **TensorFlow**: 用于复现论文中的模型架构。\n    *   **Hugging Face Transformers**: 调用预训练模型最便捷的工具库。\n    *   **Jupyter Lab \u002F VS Code**: 用于阅读代码和运行实验。\n*   **硬件建议**:\n    *   入门学习：普通 CPU 即可（阅读论文、运行小型 Demo）。\n    *   模型微调\u002F推理：建议配备 NVIDIA GPU (显存 16GB+ 推荐)，或使用云端 GPU 服务。\n*   **网络环境**:\n    *   访问 `arxiv.org`, `github.com`, `youtube.com` 及 `huggingface.co` 可能需要稳定的网络连接。\n    *   **国内加速方案**:\n        *   论文下载：推荐使用 [ArXiv 国内镜像](https:\u002F\u002Farxiv.cn\u002F) 或 [PaperWithCode](https:\u002F\u002Fpaperwithcode.com\u002F)。\n        *   模型\u002F数据集：配置 Hugging Face 镜像源。\n        *   视频课程：Bilibili (搜索对应课程名称，如 \"3Blue1Brown\", \"Andrej Karpathy\" 通常有官方或高质量搬运字幕版)。\n\n## 2. 安装步骤 (学习环境与依赖库)\n\n虽然无需安装\"AI-Crash-Course\"本身，但你需要搭建一个标准的 AI 开发环境来实践清单中的内容。\n\n### 第一步：创建虚拟环境\n```bash\npython -m venv ai-crash-course-env\nsource ai-crash-course-env\u002Fbin\u002Factivate  # Linux\u002FmacOS\n# ai-crash-course-env\\Scripts\\activate  # Windows\n```\n\n### 第二步：安装核心深度学习库 (推荐使用国内镜像源加速)\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers datasets accelerate -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\npip install jupyterlab matplotlib seaborn -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 第三步：获取资源清单\n你可以克隆该项目的 GitHub 仓库以便随时查阅链接，或直接收藏其原始页面。\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fhenrythe9th\u002FAI-Crash-Course.git\ncd AI-Crash-Course\n```\n*(注：如果原仓库未公开或仅作为概念存在，请直接保存本文下方的资源映射表)*\n\n## 3. 基本使用 (学习路径执行)\n\n本工具的“使用”即按照推荐顺序消费内容。以下是基于 README 内容的**两周速成执行计划**：\n\n### 阶段一：夯实基础 (第 1-3 天)\n**目标**: 理解神经网络到大语言模型 (LLM) 的演变。\n1.  **观看视频**: 访问 [3Blue1Brown 神经网络系列](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=aircAruvnKk&list=PLZHQObOWTQDNU6R1_67000Dx_ZCJB-3pi) (B 站有高清中字)。\n2.  **核心论文**: 精读 **Transformers** 论文 (2017)，理解 Self-Attention 机制。\n    *   链接: `https:\u002F\u002Farxiv.org\u002Fpdf\u002F1706.03762`\n3.  **代码实践**: 参考 Andrej Karpathy 的 [Zero to Hero 系列](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLAqhIrjkxbuWI23v9cThsA9GvCAUhRvKZ)，尝试从零手写一个微型 GPT。\n\n### 阶段二：掌握前沿架构与对齐 (第 4-8 天)\n**目标**: 理解模型如何变大、变强以及如何听从指令。\n1.  **阅读综述**: 快速浏览 [LLM Survey (2024)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.06196v2) 建立全局观。\n2.  **关键论文精读** (带 * 号为优先):\n    *   **Scaling Laws & GPT-3**: 理解规模效应。\n    *   **RLHF**: 理解 ChatGPT 背后的对齐技术 (`https:\u002F\u002Farxiv.org\u002Fpdf\u002F2203.02155`)。\n    *   **LoRA**: 学习高效的微调方法 (`https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.09685`)。\n    *   **Llama 3**: 阅读技术报告了解现代开源模型的构建细节。\n3.  **动手实验**: 使用 Hugging Face `transformers` 库加载 Llama 3 或 Qwen 模型，尝试使用 LoRA 进行简单微调。\n\n### 阶段三：推理、智能体与应用 (第 9-14 天)\n**目标**: 让模型具备规划能力和工具使用能力。\n1.  **推理技术**: 研读 **Chain of Thought (CoT)** 和 **DeepSeek R1** (2025) 相关论文，理解纯强化学习如何激发推理能力。\n    *   CoT: `https:\u002F\u002Farxiv.org\u002Fpdf\u002F2201.11903`\n2.  **智能体 (Agents)**: 阅读 [Agent Survey](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2308.11432) 及 **ReACT**, **SWE-Agent** 论文。\n3.  **综合实践**:\n    *   尝试构建一个简单的 Agent，使其能调用搜索工具或执行代码 (参考 Toolformer 思路)。\n    *   阅读 [Prompting Guide](https:\u002F\u002Fwww.promptingguide.ai\u002F) 优化你的交互策略。\n\n### 辅助资源速查表\n| 类别 | 推荐资源 | 用途 |\n| :--- | :--- | :--- |\n| **数学基础** | 3Blue1Brown | 直观理解线性代数与微积分 |\n| **代码实战** | Build a LLM (from Scratch) | 书籍\u002F课程，从头构建模型 |\n| **论文解读** | Yannic Kilcher (YouTube) | 深度论文视频讲解 |\n| **工程落地** | Full Stack Deep Learning | 构建 AI 产品的全流程课程 |\n| **基准测试** | Chatbot Arena \u002F SWE-Bench | 了解当前模型的能力边界 |\n\n通过遵循上述路径，你将完成从理论基础到前沿应用的快速跨越，达到能够识别技术机会和填补空白的水平。","一位传统软件架构师计划在两周内为公司制定 AI 技术路线图，急需从零基础快速掌握前沿研究以识别商业机会。\n\n### 没有 AI-Crash-Course 时\n- **信息过载迷失方向**：面对 arXiv 上海量的论文，不知从何入手，花费数天阅读过时或无关紧要的内容，效率极低。\n- **知识体系支离破碎**：零散地阅读博客和新闻，缺乏对 Transformer、RLHF 到 MoE 等核心技术演进逻辑的系统性理解。\n- **难以甄别关键突破**：无法区分营销炒作与真正的技术拐点（如 DeepSeek R1 的纯 RL 推理），导致技术选型决策犹豫不决。\n- **时间成本高昂**：作为忙碌的构建者，试图自行整理综述和基准测试（Benchmarks），严重挤占了产品规划的核心时间。\n\n### 使用 AI-Crash-Course 后\n- **路径清晰高效执行**：直接跟随 Henry Shi 精选的\"2 周速成”路径，从神经网络基础视频切入，迅速锁定高价值资源。\n- **系统掌握核心脉络**：通过精读指定的 Survey Papers（如 LLM Survey、Agent Survey），快速建立起从基础建模到规划推理的完整知识框架。\n- **精准聚焦前沿成果**：依据星标优先级直达 Transformers、CoT、Llama3 等奠基性与最新论文，准确捕捉如 DPO 替代 RLHF 等关键技术趋势。\n- **快速输出战略洞察**：利用现成的基准测试（如 SWE-Bench）和应用案例参考，在短时间内完成高质量的技术可行性分析报告。\n\nAI-Crash-Course 将原本需要数月摸索的学习曲线压缩至两周，帮助开发者用最短时间站在公共研究的最前沿。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhenrythe9th_AI-Crash-Course_ac0960b8.png","henrythe9th","Henry Shi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhenrythe9th_3814b093.jpg",null,"San Francisco","henrythe9ths","https:\u002F\u002Fgithub.com\u002Fhenrythe9th",5959,858,"2026-04-04T12:55:09","MIT",1,"","未说明",{"notes":87,"python":85,"dependencies":88},"该工具并非可执行的软件代码库，而是一份 curated（精选）的学习资源清单（包含论文、视频、书籍链接）。它旨在帮助开发者在两周内了解 AI 前沿研究，因此没有任何操作系统、硬件配置、Python 版本或依赖库的安装运行需求。用户只需具备网络访问能力以阅读所列资源即可。",[],[35,13,90],"其他","2026-03-27T02:49:30.150509","2026-04-06T15:01:00.131957",[],[]]