[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ed-donner--llm_engineering":3,"tool-ed-donner--llm_engineering":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":23,"env_os":123,"env_gpu":124,"env_ram":125,"env_deps":126,"category_tags":132,"github_topics":81,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":133,"updated_at":134,"faqs":135,"releases":136},4144,"ed-donner\u002Fllm_engineering","llm_engineering","Repo to accompany my mastering LLM engineering course","llm_engineering 是一个专为配合\"LLM 工程大师”课程而设计的开源项目仓库，旨在引导用户通过为期八周的实战旅程，系统掌握大型语言模型（LLM）的开发与应用。它主要解决了初学者在面对复杂的 AI 技术栈时缺乏结构化学习路径和动手实践机会的痛点，将抽象的理论转化为循序渐进的代码项目。\n\n该项目非常适合希望深入理解 LLM 内部机制、提升工程落地能力的开发者、技术爱好者以及转型中的研究人员。与普通教程不同，llm_engineering 强调“做中学”，每周的项目难度层层递进，从基础环境搭建到构建令人惊叹的复杂应用，帮助用户在实践中积累深度专业知识。\n\n其独特的技术亮点在于提供了高度友好的即时反馈机制：用户在第一天即可通过集成 Ollama 和本地轻量级模型（如 Llama 3.2）快速运行代码，无需依赖昂贵算力或复杂的云端配置便能立即看到成果。此外，项目还紧跟技术前沿，定期更新内容以适配最新的模型版本，并提供了详细的故障排查指南与云端备选方案，确保不同硬件条件的学习者都能顺利开启 AI 探索之旅。","# LLM Engineering - Master AI and LLMs\n\n## Your 8 week journey to proficiency starts today\n\n![Voyage](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fed-donner_llm_engineering_readme_746f555543bc.jpg)\n\n_If you're looking at this in Cursor, please right click on the filename in the Explorer on the left, and select \"Open preview\", to view the formatted version._\n\nI'm so happy you're joining me on this path. We'll be building immensely satisfying projects in the coming weeks. Some will be easy, some will be challenging, many will ASTOUND you! The projects build on each other so you develop deeper and deeper expertise each week. One thing's for sure: you're going to have a lot of fun along the way.\n\n## IMPORTANT ANNOUNCEMENT - DECEMBER 2025 - PLEASE READ\n\nThe course material has been completely refreshed with all new weeks. If you'd prefer to stick with the code for the original videos, simply do this from your Anaconda Prompt or Terminal:  \n`git fetch`  \n`git checkout original`\n\nAny questions, please ask me on Udemy or at ed@edwarddonner.com. More details at the top of the course resources [here](https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F).\n\n### Before you begin\n\nI'm here to help you be most successful with your learning. If you hit any snafus, or if you have any ideas on how I can improve the course, please do reach out in the platform or by emailing me direct (ed@edwarddonner.com). It's always great to connect with people on LinkedIn to build up the community - you'll find me here:  \nhttps:\u002F\u002Fwww.linkedin.com\u002Fin\u002Feddonner\u002F  \nAnd this is new to me, but I'm also trying out X\u002FTwitter at [@edwarddonner](https:\u002F\u002Fx.com\u002Fedwarddonner) - if you're on X, please show me how it's done 😂  \n\nResources to accompany the course, including the slides and useful links, are here:  \nhttps:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\n\nAnd a useful FAQ with common questions is here:  \nhttps:\u002F\u002Fedwarddonner.com\u002Ffaq\u002F\n\n## Instant Gratification instructions for Week 1, Day 1 - with Llama 3.2 **not** Llama 3.3\n\n### Important note: see my warning about Llama3.3 below - it's too large for home computers! Stick with llama3.2 - several students have missed this warning...\n\nWe will start the course by installing Ollama so you can see results immediately!\n1. Download and install Ollama from https:\u002F\u002Follama.com noting that on a PC you might need to have administrator permissions for the install to work properly\n2. On a PC, start a Command prompt \u002F Powershell (Press Win + R, type `cmd`, and press Enter). On a Mac, start a Terminal (Applications > Utilities > Terminal).\n3. Run `ollama run llama3.2` or for smaller machines try `ollama run llama3.2:1b` - **please note** steer clear of Meta's latest model llama3.3 because at 70B parameters that's way too large for most home computers!  \n4. If this doesn't work: you may need to run `ollama serve` in another Powershell (Windows) or Terminal (Mac), and try step 3 again. On a PC, you may need to be running in an Admin instance of Powershell.  \n5. And if that doesn't work on your box, I've set up this on the cloud. This is on Google Colab, which will need you to have a Google account to sign in, but is free:  https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1-_f5XZPsChvfU1sJ0QqCePtIuc55LSdu?usp=sharing\n\nAny problems, please contact me!\n\n## Before the Setup instructions - a special note\n\nEarly on in the course (on Day 2), I give a demo of a very cool, popular product called Claude Code. It's an AI coding tool, similar to Cursor that we use on the course. I'm only showing this as an example of Agentic AI in action; it's not a tool that's covered explicitly on this course, particularly as we're in Cursor. But if you want to use Claude Code yourself, the Quick Start guide from Anthropic is [here](https:\u002F\u002Fdocs.claude.com\u002Fen\u002Fdocs\u002Fclaude-code\u002Fquickstart).\n\n## OK - now on to Setup instructions\n\nAfter we do the Ollama quick project, and after I introduce myself and the course, we get to work with the full environment setup.  \n\nHopefully I've done a decent job of making these guides bulletproof - but please contact me right away if you hit roadblocks:\n\nSetup instructions: [Setup Instructions All Platforms](setup\u002FSETUP-new.md)\n\n### An important point on API costs (which are optional! No need to spend if you don't wish)\n\nDuring the course, I'll suggest you try out the leading models at the forefront of progress, known as the Frontier models. I'll also suggest you run open-source models using Google Colab. These services have some charges, but I'll keep cost minimal - like, a few cents at a time. And I'll provide alternatives if you'd prefer not to use them.\n\nPlease do monitor your API usage to ensure you're comfortable with spend; I've included links below. There's no need to spend anything more than a couple of dollars for the entire course. Some AI providers such as OpenAI require a minimum credit like \\$5 or local equivalent; we should only spend a fraction of it, and you'll have plenty of opportunity to put it to good use in your own projects. During Week 7 you have an option to spend a bit more if you're enjoying the process - I spend about \\$10 myself and the results make me very happy indeed! But it's not necessary in the least; the important part is that you focus on learning.\n\n### Free alternative to Paid APIs\n\nSee [Guide 9](guides\u002F09_ai_apis_and_ollama.ipynb) in the guides directory for the detailed approach with exact code for Ollama, Gemini, OpenRouter and more!\n\n### How this Repo is organized\n\nThere are folders for each of the \"weeks\", representing modules of the class, culminating in a powerful autonomous Agentic AI solution in Week 8 that draws on many of the prior weeks.    \nFollow the setup instructions above, then open the Week 1 folder and prepare for joy.\n\n### The most important part\n\nThe mantra of the course is: the best way to learn is by **DOING**. I don't type all the code during the course; I execute it for you to see the results. You should work along with me or after each lecture, running each cell, inspecting the objects to get a detailed understanding of what's happening. Then tweak the code and make it your own. There are juicy challenges for you throughout the course. I'd love it if you wanted to submit a Pull Request for your code (see the Github guide in the guides folder) and I can make your solutions available to others so we share in your progress; as an added benefit, you'll be recognized in GitHub for your contribution to the repo. While the projects are enjoyable, they are first and foremost designed to be _educational_, teaching you business skills that can be put into practice in your work.\n\n## Starting in Week 3, we'll also be using Google Colab for running with GPUs\n\nYou should be able to use the free tier or minimal spend to complete all the projects in the class. I personally signed up for Colab Pro+ and I'm loving it - but it's not required.\n\nLearn about Google Colab and set up a Google account (if you don't already have one) [here](https:\u002F\u002Fcolab.research.google.com\u002F)\n\nThe colab links are in the folders for Week 3 and Week 7 - if you open up the lab for each day, you'll find a direct link to the colab.\n\n### Monitoring API charges\n\nYou can keep your API spend very low throughout this course; you can monitor spend at the dashboards: [here](https:\u002F\u002Fplatform.openai.com\u002Fusage) for OpenAI, [here](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fcost) for Anthropic.\n\nThe charges for the exercsies in this course should always be quite low, but if you'd prefer to keep them minimal, then be sure to always choose the cheapest versions of models:\n1. For OpenAI: Always use model `gpt-4.1-nano` in the code\n2. For Anthropic: Always use model `claude-3-haiku-20240307` in the code instead of the other Claude models\n3. During week 7, look out for my instructions for using the cheaper dataset\n\nPlease do message me or email me at ed@edwarddonner.com if this doesn't work or if I can help with anything. I can't wait to hear how you get on.\n\n\u003Ctable style=\"margin: 0; text-align: left;\">\n    \u003Ctr>\n        \u003Ctd style=\"width: 150px; height: 150px; vertical-align: middle;\">\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fed-donner_llm_engineering_readme_ae2cc3994118.jpg\" width=\"150\" height=\"150\" style=\"display: block;\" \u002F>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Ch2 style=\"color:#f71;\">Other resources\u003C\u002Fh2>\n            \u003Cspan style=\"color:#f71;\">I've put together this webpage with useful resources for the course. This includes links to all the slides.\u003Cbr\u002F>\n            \u003Ca href=\"https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\">https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\u003C\u002Fa>\u003Cbr\u002F>\n            Please keep this bookmarked, and I'll continue to add more useful links there over time.\n            \u003C\u002Fspan>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n","# 大型語言模型工程——掌握人工智能與LLM\n\n## 您的8週精通之旅，從今天開始\n\n![航程](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fed-donner_llm_engineering_readme_746f555543bc.jpg)\n\n_如果您正在 Cursor 中查看此文件，請在左側的資源管理器中右鍵單擊文件名，然後選擇「開啟預覽」，以查看格式化後的版本。_\n\n很高興您能與我一起踏上這段旅程。接下來的幾週裡，我們將共同打造令人極其滿意的專案。有些簡單易行，有些則充滿挑戰，而更多專案將讓您驚歎不已！這些專案彼此相輔相成，讓您每週都能不斷深化專業知識。可以肯定的是，這一路走來，您一定會樂趣無窮。\n\n## 重要公告——2025年12月——請仔細閱讀\n\n課程內容已全面更新，所有週次均為全新設計。若您希望繼續使用原始影片中的程式碼，只需在 Anaconda Prompt 或終端機中執行以下指令：  \n`git fetch`  \n`git checkout original`\n\n如有任何問題，歡迎在 Udemy 上或透過 ed@edwarddonner.com 與我聯繫。更多詳細資訊請參閱課程資源頁頂部的[連結](https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F)。\n\n### 在開始之前\n\n我致力於協助您取得最佳學習成效。若您遇到任何困難，或對課程有任何改進建議，請隨時透過平台留言或直接發送電子郵件至 ed@edwarddonner.com 與我溝通。我也非常樂意與大家在 LinkedIn 上交流，共同建立社群——您可在此找到我：  \nhttps:\u002F\u002Fwww.linkedin.com\u002Fin\u002Feddonner\u002F  \n此外，我最近也在 X\u002FTwitter 上嘗試與大家互動，帳戶是[@edwarddonner](https:\u002F\u002Fx.com\u002Fedwarddonner)——如果您也在 X 上，歡迎教教我怎麼玩 😂  \n\n課程配套資源，包括投影片及實用連結，請見：  \nhttps:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\n\n常見問題解答也在此處：  \nhttps:\u002F\u002Fedwarddonner.com\u002Ffaq\u002F\n\n## 第1週第1天的快速上手指南——使用 Llama 3.2，而非 Llama 3.3\n\n### 重要提示：請留意下方關於 Llama 3.3 的警告——該模型過大，不適合家用電腦！請堅持使用 Llama 3.2；已有數位學員錯過了這一提醒……\n\n我們將從安裝 Ollama 開始，讓您立即看到成果！\n1. 請從 https:\u002F\u002Follama.com 下載並安裝 Ollama。注意，在 Windows 系統上，您可能需要以管理員身份運行安裝程序才能正常完成。\n2. 在 Windows 系統上，打開命令提示字元或 PowerShell（按下 Win + R，輸入 `cmd`，並按 Enter）。在 Mac 上，則打開終端機（應用程式 > 常用工具 > 終端機）。\n3. 執行 `ollama run llama3.2`，或若您的設備較為輕量，可嘗試 `ollama run llama3.2:1b`——**請務必注意**，避免使用 Meta 最新的 Llama 3.3 模型，因為其參數量高達 700 億，對於大多數家用電腦而言都過於龐大！\n4. 若上述操作無法成功，您可能需要在另一個 PowerShell（Windows）或終端機（Mac）中先執行 `ollama serve`，再重新嘗試第3步。在 Windows 系統上，您可能還需以管理員權限運行 PowerShell。\n5. 如果您的設備仍無法運作，我已在雲端搭建了一個環境。該環境基於 Google Colab，您需要一個 Google 帳戶進行登入，但完全免費：  https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1-_f5XZPsChvfU1sJ0QqCePtIuc55LSdu?usp=sharing\n\n若有任何問題，請隨時與我聯繫！\n\n## 在設定說明之前——特別說明\n\n課程初期（第2天），我會演示一款非常酷炫且廣受歡迎的產品——Claude Code。這是一款類似於我們課程中使用的 Cursor 的 AI 編程工具。我介紹它僅作為代理型 AI 實際應用的一個範例，本課程並未明確涵蓋該工具，尤其是我們主要使用的是 Cursor。不過，若您想自行體驗 Claude Code，Anthropic 提供的快速入門指南可在[這裡](https:\u002F\u002Fdocs.claude.com\u002Fen\u002Fdocs\u002Fclaude-code\u002Fquickstart)找到。\n\n## 好了——現在進入設定說明\n\n在完成 Ollama 快速專案，並在我自我介紹及課程簡介之後，我們將正式開始完整的環境設置工作。\n\n我希望這些指南已經盡可能完善，萬無一失——但若您遇到任何障礙，請立即與我聯繫：\n\n設定說明：[各平台設定說明](setup\u002FSETUP-new.md)\n\n### 關於 API 收費的重要說明（可選！無需支付亦可）\n\n在課程中，我會建議您嘗試當前最前沿的領先模型，即所謂的「前沿模型」。同時，我也會推薦您使用 Google Colab 來運行開源模型。這些服務確實會產生一些費用，但我會盡量將成本控制在最低限度——每次僅需幾美分左右。此外，若您不想使用這些服務，我亦會提供替代方案。\n\n請務必留意您的 API 使用情況，確保支出在您的承受範圍內；相關連結已附於下方。整體課程期間，您無需支付超過幾美元的費用。部分 AI 供應商，例如 OpenAI，可能會要求您先存入至少 5 美元或等值當地貨幣的額度；我們實際使用的金額僅為其中一小部分，且您將有充分機會在自己的專案中加以運用。到了第7週，若您對學習過程感到滿意，也可酌情增加一點支出——我自己通常會花費約 10 美元，而最終的成果讓我十分欣喜！不過，這並非必要；最重要的是專注於學習本身。\n\n### 免費替代付費 API 的方法\n\n詳情請參閱指南目錄中的[指南9](guides\u002F09_ai_apis_and_ollama.ipynb)，其中提供了使用 Ollama、Gemini、OpenRouter 等工具的詳細步驟及完整程式碼！\n\n### 本倉庫的組織結構\n\n倉庫內按「週次」劃分資料夾，代表課程的各個模組。最終在第8週，我們將完成一個強大的自主代理型 AI 解決方案，該方案整合了此前多週所學的內容。  \n請依照上述設定說明進行操作，然後打開第1週的資料夾，準備迎接學習的樂趣吧。\n\n### 最重要的部分\n\n本課程的核心理念是：最好的學習方式就是——**動手實踐**。我在課程中並不會逐行敲入所有程式碼，而是親自執行，讓您觀看結果。請您在每節課後，跟著我的步驟逐一運行代碼單元，仔細檢查變量和物件，深入理解背後的運作原理。接著您可以根據自己的需求調整程式碼，使其成為屬於您的作品。整個課程中，您將面臨許多富有挑戰性的任務。如果您願意，歡迎提交 Pull Request 將您的程式碼貢獻到本倉庫中——這樣不僅能使您的成果與他人共享，促進共同進步，還能在 GitHub 上獲得認可，彰顯您對本倉庫的貢獻。這些專案固然有趣，但它們的首要目標始終是教育意義，旨在幫助您掌握可在工作中實際應用的商業技能。\n\n## 从第3周开始，我们还将使用 Google Colab 来利用 GPU 运行代码\n\n你可以使用免费层级或最低消费额度来完成课程中的所有项目。我个人订阅了 Colab Pro+，用起来非常顺手——不过这并不是必需的。\n\n请在此处了解 Google Colab 并注册一个 Google 账号（如果你还没有的话）：[这里](https:\u002F\u002Fcolab.research.google.com\u002F)\n\n第3周和第7周的文件夹中都提供了 Colab 链接；打开每天的实验课内容，你就能找到对应的 Colab 直接链接。\n\n### 监控 API 费用\n\n在整个课程中，你的 API 使用费用都可以保持很低。你可以在以下仪表板上监控费用：OpenAI 的 [这里](https:\u002F\u002Fplatform.openai.com\u002Fusage)，Anthropic 的 [这里](https:\u002F\u002Fconsole.anthropic.com\u002Fsettings\u002Fcost)。\n\n本课程中的练习所产生的费用通常都很低。但如果你想进一步降低费用，请务必始终选择最经济的模型版本：\n1. 对于 OpenAI：在代码中始终使用 `gpt-4.1-nano` 模型。\n2. 对于 Anthropic：在代码中始终使用 `claude-3-haiku-20240307` 模型，而非其他 Claude 模型。\n3. 在第7周，请留意我的指示，以使用更便宜的数据集。\n\n如果遇到任何问题，或者需要我的帮助，请随时通过消息或发送邮件至 ed@edwarddonner.com 联系我。我非常期待听到你的学习进展！\n\n\u003Ctable style=\"margin: 0; text-align: left;\">\n    \u003Ctr>\n        \u003Ctd style=\"width: 150px; height: 150px; vertical-align: middle;\">\n            \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fed-donner_llm_engineering_readme_ae2cc3994118.jpg\" width=\"150\" height=\"150\" style=\"display: block;\" \u002F>\n        \u003C\u002Ftd>\n        \u003Ctd>\n            \u003Ch2 style=\"color:#f71;\">其他资源\u003C\u002Fh2>\n            \u003Cspan style=\"color:#f71;\">我整理了一个包含课程实用资源的网页，其中包含了所有幻灯片的链接。\u003Cbr\u002F>\n            \u003Ca href=\"https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\">https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\u003C\u002Fa>\u003Cbr\u002F>\n            请将此页面添加书签，我会持续在此页面上更新更多有用的链接。\n            \u003C\u002Fspan>\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>","# LLM Engineering 快速上手指南\n\n本指南旨在帮助开发者快速搭建 `llm_engineering` 课程环境，通过 8 周的实战项目掌握大语言模型（LLM）工程化技能。核心理念是“在做中学”（Learning by Doing）。\n\n## 环境准备\n\n在开始之前，请确保满足以下基础要求：\n\n*   **操作系统**：Windows (需管理员权限)、macOS 或 Linux。\n*   **Python 环境**：建议安装 **Anaconda** 或使用标准的 Python 3.9+ 环境。\n*   **Google 账号**：部分章节（如第 3 周和第 7 周）需要使用 Google Colab 运行 GPU 任务（免费层级即可，可选 Pro+）。\n*   **代码编辑器**：推荐使用 **Cursor** 或 VS Code 以获得最佳体验。\n*   **网络环境**：访问 Hugging Face、Ollama 及各大模型 API 可能需要稳定的网络连接。\n\n> **注意**：本课程涉及少量 API 调用费用（可选）。若希望零成本学习，可完全使用本地开源模型（Ollama）或 Google Colab 免费额度。如需调用商业 API，请务必监控用量（OpenAI 和 Anthropic 均提供用量仪表盘）。\n\n## 安装步骤\n\n### 1. 获取项目代码\n克隆仓库并进入目录：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fed-donner\u002Fllm_engineering.git\ncd llm_engineering\n```\n*注：如果您希望使用原始视频对应的旧版代码，可执行 `git fetch` 后运行 `git checkout original`。当前默认分支为 2025 年更新后的全新内容。*\n\n### 2. 安装核心依赖 (Ollama)\n课程第一天将通过 Ollama 运行本地模型以获得即时反馈。\n\n1.  **下载并安装 Ollama**：\n    *   访问官网：https:\u002F\u002Follama.com\n    *   Windows 用户请以**管理员身份**运行安装程序。\n    *   macOS\u002FLinux 用户按官网提示执行终端命令。\n\n2.  **验证并拉取模型**：\n    打开终端（Windows 使用 CMD 或 PowerShell，Mac 使用 Terminal），执行以下命令。\n    \n    **重要提示**：请使用 `llama3.2` 系列。**切勿**尝试 `llama3.3` (70B 参数)，该模型过大，不适合大多数家用电脑。\n    \n    ```bash\n    # 推荐：运行 Llama 3.2 (标准版)\n    ollama run llama3.2\n\n    # 备选：如果机器配置较低，运行 1B 轻量版\n    ollama run llama3.2:1b\n    ```\n\n    *故障排除*：如果上述命令无响应，请新开一个终端窗口运行 `ollama serve`，然后重试拉取命令。Windows 用户如遇权限问题，请尝试以管理员身份运行 PowerShell。\n\n    *云端备选方案*：若本地无法运行，可使用免费的 Google Colab 环境：[Colab 快速启动链接](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1-_f5XZPsChvfU1sJ0QqCePtIuc55LSdu?usp=sharing)\n\n### 3. 完整环境配置\n完成 Ollama 测试后，请按照项目内的详细文档配置完整的 Python 开发环境（包括 Jupyter、各类 AI SDK 等）：\n\n*   **通用设置指南**：[setup\u002FSETUP-new.md](setup\u002FSETUP-new.md)\n\n## 基本使用\n\n本课程按“周”组织文件夹，每周包含独立的模块和实战项目。\n\n### 第一步：启动第一个项目\n进入 `Week 1` 文件夹，打开对应的 Jupyter Notebook 文件（通常以 `Day 1` 开头）。\n\n### 第二步：运行代码\n课程强调动手实践。请不要仅阅读代码，务必逐个单元格（Cell）执行：\n1.  **执行代码**：运行提供的示例代码，观察输出结果。\n2.  **检查对象**：打印关键变量，深入理解数据结构。\n3.  **修改实验**：尝试调整参数或提示词（Prompt），观察模型反应的变化。\n\n### 第三步：进阶探索 (API 与 Colab)\n*   **使用低成本 API**：在代码中指定轻量级模型以控制成本：\n    *   OpenAI: 使用 `gpt-4.1-nano`\n    *   Anthropic: 使用 `claude-3-haiku-20240307`\n*   **GPU 加速**：从第 3 周开始，打开对应文件夹中的 Notebook，点击顶部的 \"Open in Colab\" 链接，在云端 GPU 环境中运行更复杂的训练或推理任务。\n\n### 第四步：贡献与分享\n鼓励在完成挑战后提交 Pull Request，将您的解决方案分享给社区，并在 GitHub 上获得贡献者认可。\n\n---\n**资源链接**：\n*   课程幻灯片与补充资源：https:\u002F\u002Fedwarddonner.com\u002F2024\u002F11\u002F13\u002Fllm-engineering-resources\u002F\n*   详细 API 替代方案指南：参见项目内 `guides\u002F09_ai_apis_and_ollama.ipynb`","一位初级 AI 工程师试图在本地笔记本上快速构建并测试一个基于 Llama 3.2 的智能客服原型，却因环境配置和模型选型问题陷入停滞。\n\n### 没有 llm_engineering 时\n- 盲目下载参数量过大的 Llama 3.3 模型，导致本地内存溢出，程序直接崩溃，浪费数小时排查硬件瓶颈。\n- 缺乏系统的 Ollama 安装指引，在 Windows 权限配置和终端命令上反复出错，无法在第一天看到任何运行结果。\n- 面对零散的开源代码片段不知所措，不知道如何搭建从“即时运行”到“深度工程化”的渐进式学习路径。\n- 遇到报错时只能独自搜索碎片化信息，缺乏官方提供的 FAQ 和社区支持渠道，问题解决效率极低。\n\n### 使用 llm_engineering 后\n- 遵循明确的版本警告，直接调用轻量级的 Llama 3.2 或 1b 版本，在普通家用电脑上也能秒级启动并流畅运行。\n- 按照清晰的“第一周第一天”指南，几分钟内完成 Ollama 部署并通过一行命令获得即时反馈，迅速建立信心。\n- 依托 8 周系统化课程项目，从简单的对话机器人逐步进阶到复杂的代理应用，技能提升路径清晰可见。\n- 遇到阻碍时可随时查阅官方资源链接、FAQ 或直接联系作者，甚至能一键切换至 Google Colab 云端环境继续实验。\n\nllm_engineering 将原本混乱的试错过程转化为一条结构清晰、即时反馈的精通之路，让开发者能专注于算法创新而非环境调试。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fed-donner_llm_engineering_303de87e.png","ed-donner","Ed Donner","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fed-donner_28afdfb9.jpg","Co-Founder and CTO at AI startup Nebula.io","Nebula.io","New York",null,"edwarddonner.com","https:\u002F\u002Fgithub.com\u002Fed-donner",[85,89,93,97,101,104,107,110,113,116],{"name":86,"color":87,"percentage":88},"Jupyter Notebook","#DA5B0B",90.3,{"name":90,"color":91,"percentage":92},"Python","#3572A5",7.9,{"name":94,"color":95,"percentage":96},"HTML","#e34c26",1.7,{"name":98,"color":99,"percentage":100},"CSS","#663399",0,{"name":102,"color":103,"percentage":100},"JavaScript","#f1e05a",{"name":105,"color":106,"percentage":100},"C","#555555",{"name":108,"color":109,"percentage":100},"Ruby","#701516",{"name":111,"color":112,"percentage":100},"C++","#f34b7d",{"name":114,"color":115,"percentage":100},"Vue","#41b883",{"name":117,"color":118,"percentage":100},"Batchfile","#C1F12E",5522,5340,"2026-04-05T22:29:24","MIT","Windows, macOS, Linux","非必需。本地运行小模型（如 Llama 3.2:1b）无需专用 GPU；第 3 周起使用 Google Colab 运行大模型时可利用云端免费或付费 GPU。未指定具体本地显卡型号、显存大小或 CUDA 版本要求，但明确指出避免在本地运行 70B 参数的大模型（如 Llama 3.3）。","未说明（建议家用电脑运行小模型，避免运行 70B 参数模型）",{"notes":127,"python":128,"dependencies":129},"1. 核心工具为 Ollama，需下载安装并注意 Windows 下可能需要管理员权限。2. 强烈建议在本地仅运行 Llama 3.2 或其 1b 版本，切勿尝试运行 Llama 3.3 (70B)，因为这对大多数家用电脑来说太大。3. 课程涉及少量 API 费用（如 OpenAI, Anthropic），但提供了完全免费的替代方案（使用 Ollama 或 Google Colab 免费层）。4. 第 3 周和第 7 周的项目需要使用 Google Colab（需 Google 账号）。5. 详细的完整环境设置指南请参考项目内的 'setup\u002FSETUP-new.md' 文件，本 README 未列出具体 Python 库列表。","未说明",[130,131],"Ollama","Google Colab (可选)",[26,13],"2026-03-27T02:49:30.150509","2026-04-06T12:04:04.663545",[],[]]