[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-meta-llama--llama-cookbook":3,"tool-meta-llama--llama-cookbook":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":113,"forks":114,"last_commit_at":115,"license":116,"difficulty_score":10,"env_os":75,"env_gpu":117,"env_ram":117,"env_deps":118,"category_tags":121,"github_topics":122,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":133,"updated_at":134,"faqs":135,"releases":163},6442,"meta-llama\u002Fllama-cookbook","llama-cookbook","Welcome to the Llama Cookbook! This is your go to guide for Building with Llama: Getting started with Inference, Fine-Tuning, RAG. We also show you how to solve end to end problems using Llama model family and using them on various provider services  ","llama-cookbook 是 Meta 官方推出的 Llama 模型家族实战指南，旨在帮助开发者快速上手并构建基于 Llama 的应用。它系统地解决了从基础推理、模型微调、检索增强生成（RAG）到复杂端到端场景落地的全流程技术难题。无论是想尝试最新的 Llama 4 系列模型，还是需要将 AI 集成到 WhatsApp 等业务场景中，这里都提供了经过验证的代码示例和最佳实践方案。\n\n该项目特别适合人工智能开发者、研究人员以及希望将大模型应用于实际产品的技术团队使用。其核心亮点在于不仅涵盖了文本与视觉模型的主流用法，还紧跟技术前沿，提供了如利用 Llama 4 Scout 处理 500 万超长上下文、使用 Llama 4 Maverick 分析科研论文或构建书籍角色思维导图等最新食谱。此外，llama-cookbook 整合了多家云服务商的接入方案，并包含了原 llama-recipes 库的核心源码与详细的微调常见问题解答。通过结构清晰的目录设计，用户可以根据需求直接定位到“快速开始”、“端到端用例”或“第三方集成”模块，高效获取所需资源，降低大模型开发门槛。","\u003Ch1 align=\"center\"> Llama Cookbook \u003C\u002Fh1>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fllama.developer.meta.com\u002Fjoin_waitlist?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_API-Join_Waitlist-brightgreen?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fllama.developer.meta.com\u002Fdocs?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_API-Documentation-4BA9FE?logo=meta\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002F?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg alt=\"Llama Model cards\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_OSS-Model_cards-green?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.llama.com\u002Fdocs\u002Foverview\u002F?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg alt=\"Llama Documentation\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_OSS-Documentation-4BA9FE?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmeta-llama\">\u003Cimg alt=\"Hugging Face meta-llama\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHugging_Face-meta--llama-yellow?logo=huggingface\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fsynthetic-data-kit\">\u003Cimg alt=\"Llama Tools Syntethic Data Kit\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_Tools-synthetic--data--kit-orange?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-prompt-ops\">\u003Cimg alt=\"Llama Tools Syntethic Data Kit\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_Tools-llama--prompt--ops-orange?logo=meta\" \u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Ch2> Official Guide to building with Llama \u003C\u002Fh2>\n\n\n\nWelcome to the official repository for helping you get started with [inference](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002Finference\u002F), [fine-tuning](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002Ffinetuning) and [end-to-end use-cases](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fend-to-end-use-cases) of building with the Llama Model family.\n\nThis repository covers the most popular community approaches, use-cases and the latest recipes for Llama Text and Vision models.\n\n## Latest Llama 4 recipes\n\n* [Get started](.\u002Fgetting-started\u002Fbuild_with_llama_api.ipynb) with [Llama API](https:\u002F\u002Fbit.ly\u002Fllama-api-main)\n* Integrate [Llama API](https:\u002F\u002Fbit.ly\u002Fllama-api-main) with [WhatsApp](.\u002Fend-to-end-use-cases\u002Fwhatsapp_llama_4_bot\u002FREADME.md)\n* 5M long context using [Llama 4 Scout](.\u002Fgetting-started\u002Fbuild_with_llama_4.ipynb)\n* Analyze research papers with [Llama 4 Maverick](.\u002Fend-to-end-use-cases\u002Fresearch_paper_analyzer\u002FREADME.md)\n* Create a character mind map from a book using [Llama 4 Maverick](.\u002Fend-to-end-use-cases\u002Fbook-character-mindmap\u002FREADME.md)\n\n## Repository Structure:\n\n- [3P Integrations](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002F3p-integrations): Getting Started Recipes and End to End Use-Cases from various Llama providers\n- [End to End Use Cases](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fend-to-end-use-cases): As the name suggests, spanning various domains and applications\n- [Getting Started](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002F): Reference for inferencing, fine-tuning and RAG examples\n- [src](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fsrc\u002F): Contains the src for the original llama-recipes library along with some FAQs for fine-tuning.\n\n> Note: We recently did a refactor of the repo, [archive-main](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Farchive-main) is a snapshot branch from before the refactor\n\n## FAQ:\n\n- **Q:** What happened to llama-recipes?\n  **A:** We recently renamed llama-recipes to llama-cookbook.\n\n- **Q:** I have some questions for Fine-Tuning, is there a section to address these?\n  **A:** Check out the Fine-Tuning FAQ [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fsrc\u002Fdocs\u002F).\n\n- **Q:** Some links are broken\u002Ffolders are missing:\n  **A:** We recently did a refactor of the repo, [archive-main](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Farchive-main) is a snapshot branch from before the refactor.\n\n- **Q:** Where can we find details about the latest models?\n  **A:** Official [Llama models website](https:\u002F\u002Fwww.llama.com).\n\n## Contributing\n\nPlease read [CONTRIBUTING.md](CONTRIBUTING.md) for details on our code of conduct, and the process for submitting pull requests to us.\n\n## License\n\u003C!-- markdown-link-check-disable -->\nSee the License file for Meta Llama 4 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama4\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama4\u002FUSE_POLICY.md)\n\nSee the License file for Meta Llama 3.3 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_3\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_3\u002FUSE_POLICY.md)\n\nSee the License file for Meta Llama 3.2 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_2\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_2\u002FUSE_POLICY.md)\n\nSee the License file for Meta Llama 3.1 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_1\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_1\u002FUSE_POLICY.md)\n\nSee the License file for Meta Llama 3 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3\u002FUSE_POLICY.md)\n\nSee the License file for Meta Llama 2 [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama2\u002FLICENSE) and Acceptable Use Policy [here](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama2\u002FUSE_POLICY.md)\n\u003C!-- markdown-link-check-enable -->\n","\u003Ch1 align=\"center\"> Llama 烹饪书 \u003C\u002Fh1>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fllama.developer.meta.com\u002Fjoin_waitlist?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_API-Join_Waitlist-brightgreen?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fllama.developer.meta.com\u002Fdocs?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_API-Documentation-4BA9FE?logo=meta\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002F?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg alt=\"Llama 模型卡片\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_OSS-Model_cards-green?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fwww.llama.com\u002Fdocs\u002Foverview\u002F?utm_source=llama-cookbook&utm_medium=readme&utm_campaign=main\">\u003Cimg alt=\"Llama 文档\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_OSS-Documentation-4BA9FE?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmeta-llama\">\u003Cimg alt=\"Hugging Face meta-llama\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FHugging_Face-meta--llama-yellow?logo=huggingface\" \u002F>\u003C\u002Fa>\n\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fsynthetic-data-kit\">\u003Cimg alt=\"Llama 工具 合成数据工具包\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_Tools-synthetic--data--kit-orange?logo=meta\" \u002F>\u003C\u002Fa>\n\t\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-prompt-ops\">\u003Cimg alt=\"Llama 工具 提示词操作工具\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLlama_Tools-llama--prompt--ops-orange?logo=meta\" \u002F>\u003C\u002Fa>\n\u003C\u002Fp>\n\u003Ch2> 使用 Llama 进行构建的官方指南 \u003C\u002Fh2>\n\n\n\n欢迎来到官方仓库，它将帮助您开始使用 Llama 模型系列进行 [推理](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002Finference\u002F)、[微调](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002Ffinetuning) 和 [端到端用例](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fend-to-end-use-cases)。\n\n此仓库涵盖了社区中最流行的方案、用例以及 Llama 文本和视觉模型的最新教程。\n\n## 最新 Llama 4 教程\n\n* [开始使用](.\u002Fgetting-started\u002Fbuild_with_llama_api.ipynb) [Llama API](https:\u002F\u002Fbit.ly\u002Fllama-api-main)\n* 将 [Llama API](https:\u002F\u002Fbit.ly\u002Fllama-api-main) 与 [WhatsApp](.\u002Fend-to-end-use-cases\u002Fwhatsapp_llama_4_bot\u002FREADME.md) 集成\n* 使用 [Llama 4 Scout](.\u002Fgetting-started\u002Fbuild_with_llama_4.ipynb) 处理 500 万字长上下文\n* 使用 [Llama 4 Maverick](.\u002Fend-to-end-use-cases\u002Fresearch_paper_analyzer\u002FREADME.md) 分析研究论文\n* 使用 [Llama 4 Maverick](.\u002Fend-to-end-use-cases\u002Fbook-character-mindmap\u002FREADME.md) 根据书籍创建角色思维导图\n\n## 仓库结构：\n\n- [第三方集成](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002F3p-integrations)：来自不同 Llama 提供者的入门教程和端到端用例\n- [端到端用例](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fend-to-end-use-cases)：顾名思义，涵盖多个领域和应用\n- [入门](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fgetting-started\u002F)：用于推理、微调和 RAG 示例的参考\n- [src](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fsrc\u002F)：包含原始 llama-recipes 库的源代码以及一些关于微调的常见问题解答。\n\n> 注意：我们最近对仓库进行了重构，[archive-main](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Farchive-main) 是重构前的快照分支\n\n## 常见问题解答：\n\n- **问：** llama-recipes 怎么了？\n  **答：** 我们最近将 llama-recipes 重命名为 llama-cookbook。\n\n- **问：** 我有一些关于微调的问题，是否有专门的部分来解答这些问题？\n  **答：** 请查看微调常见问题解答 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Fmain\u002Fsrc\u002Fdocs\u002F)。\n\n- **问：** 有些链接已损坏或文件夹缺失：\n  **答：** 我们最近对仓库进行了重构，[archive-main](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Ftree\u002Farchive-main) 是重构前的快照分支。\n\n- **问：** 我们在哪里可以找到有关最新模型的详细信息？\n  **答：** 官方 [Llama 模型网站](https:\u002F\u002Fwww.llama.com)。\n\n## 贡献\n\n请阅读 [CONTRIBUTING.md](CONTRIBUTING.md)，了解我们的行为准则以及向我们提交拉取请求的流程。\n\n## 许可证\n\u003C!-- markdown-link-check-disable -->\nMeta Llama 4 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama4\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama4\u002FUSE_POLICY.md)\n\nMeta Llama 3.3 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_3\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_3\u002FUSE_POLICY.md)\n\nMeta Llama 3.2 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_2\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_2\u002FUSE_POLICY.md)\n\nMeta Llama 3.1 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_1\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_1\u002FUSE_POLICY.md)\n\nMeta Llama 3 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3\u002FUSE_POLICY.md)\n\nMeta Llama 2 的许可证文件请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama2\u002FLICENSE) 和可接受使用政策请见 [这里](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama2\u002FUSE_POLICY.md)\n\u003C!-- markdown-link-check-enable -->","# Llama Cookbook 快速上手指南\n\nLlama Cookbook 是 Meta 官方提供的开发指南仓库，旨在帮助开发者快速上手 Llama 模型系列的**推理 (Inference)**、**微调 (Fine-tuning)** 以及**端到端应用 (End-to-End Use Cases)**。本指南将带你完成基础环境准备与核心功能体验。\n\n## 1. 环境准备\n\n在开始之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**: Python 3.8 或更高版本 (推荐 3.10+)。\n*   **GPU 支持**: \n    *   若进行本地推理或微调，建议配备 NVIDIA GPU (显存需求视模型大小而定，微调通常需要 A100\u002FH100 或多卡 24GB+ 显存)。\n    *   若仅使用 Llama API 或轻量级推理，CPU 亦可运行部分示例。\n*   **前置依赖**:\n    *   `git`: 用于克隆仓库。\n    *   `pip`: Python 包管理工具。\n    *   `conda` (可选): 推荐用于创建隔离的虚拟环境。\n\n> **提示**: 国内开发者若遇到网络连接问题，建议在配置 `pip` 时使用国内镜像源（如清华源或阿里源）。\n\n## 2. 安装步骤\n\n### 第一步：克隆仓库\n首先，将 `llama-cookbook` 仓库克隆到本地：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook.git\ncd llama-cookbook\n```\n\n### 第二步：创建虚拟环境 (推荐)\n为了避免依赖冲突，建议创建独立的 Conda 或 venv 环境：\n\n```bash\n# 使用 conda\nconda create -n llama-cookbook python=3.10\nconda activate llama-cookbook\n\n# 或者使用 venv\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows: venv\\Scripts\\activate\n```\n\n### 第三步：安装依赖\n进入 `src` 目录并安装核心依赖库。该目录包含了原 `llama-recipes` 的核心代码及微调所需组件：\n\n```bash\ncd src\npip install -e .\n```\n\n> **注意**: 部分端到端用例（如 WhatsApp 机器人、长上下文分析等）可能需要额外安装特定依赖。请根据具体用例文件夹下的 `requirements.txt` 进行补充安装。例如：\n> ```bash\n> pip install -r ..\u002Fend-to-end-use-cases\u002Fwhatsapp_llama_4_bot\u002Frequirements.txt\n> ```\n\n## 3. 基本使用\n\n本仓库提供了多种使用场景，以下介绍两种最基础的入门方式：**调用 Llama API** 和 **本地微调参考**。\n\n### 场景一：快速体验 Llama API (无需本地大显存)\n这是最简单的起步方式，适合快速验证想法。你需要先申请 [Llama API Waitlist](https:\u002F\u002Fllama.developer.meta.com\u002Fjoin_waitlist) 获取 API Key。\n\n1.  设置环境变量：\n    ```bash\n    export LLAMA_API_KEY=\"your_api_key_here\"\n    ```\n\n2.  运行官方提供的快速入门 Notebook 脚本（需安装 `jupyter` 和 `nbconvert` 或直接在线查看）：\n    \n    你可以直接运行以下 Python 代码片段来测试连接：\n\n    ```python\n    from llama_cookbook.inference import LlamaAPI # 伪代码示例，具体导入路径请参考 getting-started\u002Fbuild_with_llama_api.ipynb\n    \n    # 初始化客户端\n    # client = LlamaAPI(api_key=\"your_api_key\")\n    \n    # 发送请求示例\n    # response = client.chat_completion(\n    #     model=\"llama-4-scout\",\n    #     messages=[{\"role\": \"user\", \"content\": \"Hello, how are you?\"}]\n    # )\n    # print(response)\n    ```\n    \n    *详细代码逻辑请参阅仓库中的 [`getting-started\u002Fbuild_with_llama_api.ipynb`](getting-started\u002Fbuild_with_llama_api.ipynb)*。\n\n### 场景二：本地微调 (Fine-tuning) 参考\n如果你拥有足够的 GPU 资源并希望微调开源模型（如 Llama 3.1\u002F3.2\u002F3.3），可以参考 `src` 目录下的微调脚本。\n\n1.  **准备数据**: 确保你的数据集格式符合 JSONL 要求（包含 `instruction`, `input`, `output` 字段）。\n2.  **运行微调命令**:\n    使用 `torchrun` 启动分布式微调任务（以下为单卡示例，多卡请调整 `--nproc_per_node`）：\n\n    ```bash\n    torchrun --nnodes 1 --nproc_per_node 1 \\\n      -m llama_cookbook.finetuning \\\n      --model_name meta-llama\u002FLlama-3.1-8B-Instruct \\\n      --dataset custom_dataset \\\n      --data_path path\u002Fto\u002Fyour\u002Fdata.json \\\n      --output_dir .\u002Foutput_finetuned \\\n      --batch_size_training 4 \\\n      --lr 1e-5 \\\n      --num_epochs 3\n    ```\n\n    *注：具体参数配置和高级技巧（如 LoRA, QLoRA）请参考 [`src\u002Fdocs\u002F`](src\u002Fdocs\u002F) 中的详细文档及 `getting-started\u002Ffinetuning` 目录下的示例。*\n\n### 探索更多用例\n安装完成后，你可以深入探索 `end-to-end-use-cases` 目录，尝试以下热门项目：\n*   **WhatsApp 机器人**: 集成 Llama API 构建即时通讯助手。\n*   **论文分析器**: 利用 Llama 4 Maverick 分析科研论文。\n*   **超长上下文处理**: 使用 Llama 4 Scout 处理 5M token 级别的长文本。\n\n现在，你已经准备好开始构建基于 Llama 的应用了！","某初创教育科技公司希望快速构建一个能深度解析长篇学术论文并生成可视化知识图谱的智能助手，以辅助研究人员高效梳理文献。\n\n### 没有 llama-cookbook 时\n- 团队需从零摸索 Llama 模型的推理环境配置，常因依赖冲突或参数设置错误导致数天的调试延误。\n- 面对百万字级的长上下文论文，缺乏现成的优化方案，模型经常丢失关键信息或显存溢出崩溃。\n- 想要实现“阅读书籍生成人物关系图”等复杂端到端应用时，找不到完整的代码参考，只能碎片化地拼凑开源片段。\n- 微调模型时缺乏系统的 FAQ 和最佳实践指导，反复试错导致算力成本高昂且效果不佳。\n- 集成 WhatsApp 等第三方服务时，需自行研究接口协议，开发周期被大幅拉长。\n\n### 使用 llama-cookbook 后\n- 直接复用官方提供的推理启动脚本，几分钟内即可在本地或云端跑通 Llama 4 模型，环境搭建零障碍。\n- 利用内置的 Llama 4 Scout 长上下文食谱，轻松处理 500 万字以上的研究资料，精准提取核心论点而不丢细节。\n- 参考“书籍人物思维导图”和“论文分析器”等端到端案例代码，一周内便完成了从原型到成品的开发。\n- 查阅专门的微调 FAQ 和 src 源码，快速解决训练中的收敛难题，显著降低了试错成本和资源消耗。\n- 基于集成的 WhatsApp Bot 示例，迅速将 AI 助手部署到即时通讯平台，实现了研究团队的移动端协同办公。\n\nllama-cookbook 通过提供经过验证的全链路实战食谱，将原本需要数月探索的模型落地过程缩短至数天，让开发者能专注于业务逻辑创新而非底层基建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmeta-llama_llama-cookbook_f734b463.png","meta-llama","Meta Llama","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmeta-llama_449342bd.png","",null,"https:\u002F\u002Fllama.meta.com\u002F","https:\u002F\u002Fgithub.com\u002Fmeta-llama",[80,84,88,92,96,100,104,107,110],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",93.6,{"name":85,"color":86,"percentage":87},"Python","#3572A5",5.6,{"name":89,"color":90,"percentage":91},"Java","#b07219",0.4,{"name":93,"color":94,"percentage":95},"JavaScript","#f1e05a",0.2,{"name":97,"color":98,"percentage":99},"Kotlin","#A97BFF",0.1,{"name":101,"color":102,"percentage":103},"HTML","#e34c26",0,{"name":105,"color":106,"percentage":103},"Shell","#89e051",{"name":108,"color":109,"percentage":103},"HCL","#844FBA",{"name":111,"color":112,"percentage":103},"CSS","#663399",18280,2721,"2026-04-10T11:54:48","MIT","未说明",{"notes":119,"python":117,"dependencies":120},"提供的 README 内容主要介绍了项目结构、Llama 4 最新食谱示例、常见问题解答（如仓库重命名）以及许可证信息。文中未包含具体的运行环境需求（如操作系统、GPU 型号、内存大小、Python 版本或依赖库列表）。用户需参考仓库内具体子目录（如 getting-started 或 end-to-end-use-cases）中的独立文档或代码文件以获取详细的环境配置要求。",[],[14,13,35,15],[123,124,125,126,127,128,129,130,131,132],"ai","finetuning","langchain","llama","llama2","llm","machine-learning","python","pytorch","vllm","2026-03-27T02:49:30.150509","2026-04-11T08:13:00.959515",[136,141,146,151,155,159],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},29148,"使用 FSDP 微调后的模型进行推理时没有输出，应该如何解决？","这通常是因为使用了错误的模型名称或路径。请确保在微调和转换检查点时使用正确的 Instruct 模型名称（例如 `meta-llama\u002FMeta-Llama-3.1-8B-Instruct` 而非基础模型）。如果模型有输出但内容不相关，请尝试以下步骤：\n1. 使用正确的模型名称重新运行微调命令。\n2. 运行检查点转换脚本将 FSDP 检查点转换为 Hugging Face 格式：\n`python .\u002Fsrc\u002Fllama_recipes\u002Finference\u002Fcheckpoint_converter_fsdp_hf.py --fsdp_checkpoint_path \u003Cpath> --consolidated_model_path \u003Coutput_path> --HF_model_path_or_name \u003Cbase_model>`\n3. 使用转换后的模型路径运行推理脚本。","https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fissues\u002F634",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},29149,"在使用 LoRA 微调 Llama2-70B 或 Llama3-70B 模型保存检查点时遇到 CUDA OOM（显存溢出）错误，如何解决？","这是一个已知问题，特别是在单节点多卡（如 8x A100\u002FH100）上微调 70B 模型时。主要原因是在保存 PEFT 模块时，模型权重需要在各 rank 间聚集，导致显存不足。\n解决方案：根据经验，微调 70B 模型至少需要 2 个节点（即 16 张或更多 A100\u002FH100 GPU）。如果资源有限，可以尝试减小 batch size 或使用更高效的显存优化策略，但在单节点 8 卡上保存 70B 模型的完整状态往往不可行。","https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fissues\u002F142",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},29150,"在不使用 LoRA 的情况下使用 FSDP 训练模型，训练成功但保存模型时提示尝试分配巨大内存（如 1EB）并导致 OOM，原因是什么？","这种情况通常发生在尝试在单节点（如 8 张 A100）上保存大型模型（如 70B）的完整分片检查点时。系统试图聚集所有权重导致显存爆炸。\n官方建议：对于 70B 模型的完整微调（非 LoRA），单节点 8 卡通常不足以完成保存操作，建议使用至少 2 个节点（16 卡及以上）进行训练和保存。","https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fissues\u002F45",{"id":152,"question_zh":153,"answer_zh":154,"source_url":140},29151,"Meta-Llama-3.1-8B-Instruct 模型在 Hugging Face 上找不到，是否改名了？应该用哪个模型？","是的，模型名称可能已更新。请确认使用的是 `meta-llama\u002FLlama-3.1-8B-Instruct`。如果是用于聊天任务，应确保加载的是 Instruct 版本（带有 `-Instruct` 后缀），而不是基础预训练版本。可以在 Hugging Face 上搜索 `Llama-3.1-8B-Instruct` 获取最新模型卡片。",{"id":156,"question_zh":157,"answer_zh":158,"source_url":140},29152,"在 ROCM 环境下多 GPU 设置中使用 FSDP 进行推理时性能较差，有什么建议？","在 ROCM 环境下，使用 `SDPA` (Scaled Dot Product Attention) 实现可能会导致性能问题，因为 FA (Flash Attention) 后端的支持可能不完善。日志中通常会提示禁用该后端。建议遵循日志警告，系统将自动回退到其他可用的注意力后端以获得更好的稳定性，或者手动配置不使用 SDPA 实现。",{"id":160,"question_zh":161,"answer_zh":162,"source_url":145},29153,"为什么在使用 PEFT (LoRA) 和 FSDP 时保存模型会使用 `model.save_pretrained` 而不是 `save_model_and_optimizer_sharded`？","当同时使用 PEFT 和 FSDP 时，代码逻辑可能会调用 `model.save_pretrained` 来保存适配器权重。这可能导致在保存前需要跨 rank 聚集权重，从而引发 OOM。相比之下，纯 FSDP 模式会使用 `save_model_and_optimizer_sharded` 直接保存分片状态，避免聚集。这是 70B 大模型在单节点保存失败的主要技术原因之一。",[164,169,174,179],{"id":165,"version":166,"summary_zh":167,"released_at":168},197972,"v0.0.5","## Llama-cookbook v0.0.5 发行说明\n本次发布将包名从 `llama_recipes` 更改为 `llama_cookbook`，并废弃了 `llama_recipes` 包名。\n\n## 重点变更\n---\n- 名称：`llama_cookbook` 和 `pip install llama-cookbook`\n- 更新说明：https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F852\n- 更新源代码包：https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F861、https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F848\n\n## 变更内容\n* 由 @subramen 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F684 中改进 3.2 版本教程的可发现性\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F679 中修复 README 文件\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F686 中修复 AutoModel 并将 transformers 版本升级至 4.45\n* 由 @mreso 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F687 中进行 post1 版本号更新\n* 由 @init27 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F696 中更新 multi_modal_infer.py\n* 由 @subramen 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F651 中添加 Llama 分类与报告工具的教程\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F639 中更新以适配 OpenLLM 排行榜 v2 任务，并将 Meta Llama 3.1 更名为 Llama 3.1\n* 由 @lucas-ventura 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F691 中改进模型检查点保存逻辑\n* 由 @init27 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F700 中删除 cookie\n* [修复] RuntimeError: 概率张量包含 inf、nan 或小于 0 的元素，由 @himanshushukla12 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F704 中修复\n* 杂项：由 @eltociear 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F690 中更新 train_utils.py\n* 由 @varunfb 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F664 中更新 requirements.txt\n* 由 @jnfinitym 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F707 中补充缺失的词语并修正拼写错误\n* 由 @24kMengXin 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F717 中修复继续进行 PEFT 时的 bug\n* 由 @vvolhejn 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F719 中修复 LLM 微调概览的链接\n* 由 @jgrivolla 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F720 中修复 quickstart_peft_finetuning.ipynb 中的 Colab 链接\n* 由 @celestinoalan 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F725 中修复微调训练损失累积问题\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F729 中快速修复 README 文件和失效链接\n* 由 @ethxnp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F716 中为 3p_integrations 教程添加 Crusoe 初始示例\n* 由 @patrik-lambert 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F728 中修复 finetuning.py 中的 numpy 种子设置\n* 由 @mreso 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F726 中修复并测试 3.2 版本教程\n* 由 @init27 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-cookbook\u002Fpull\u002F697 中提供工具调用教程及示例\n* 更新 wordlist.tx","2025-01-22T18:56:24",{"id":170,"version":171,"summary_zh":172,"released_at":173},197973,"v0.0.4.post1","本次发布修复了导入相关 bug，并对文档进行了一些调整。\n\n## 变更内容\n* 由 @subramen 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F684 中改进了 3.2 版本教程的可发现性\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F679 中修复了 README 文件\n* 由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F686 中修复了 AutoModel，并将 Transformers 版本升级至 4.45\n* 由 @mreso 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F687 中进行了 post1 版本号的更新\n","2024-09-26T19:32:55",{"id":175,"version":176,"summary_zh":177,"released_at":178},197974,"v0.0.4","本次发布与 [Llama 3.2](https:\u002F\u002Fllama.meta.com\u002F) 的发布同步进行，Llama 3.2 包含了 1B、3B、11B 和 90B 四种规模的新版本模型。要开始使用这些新模型，您可以在[官方文档](https:\u002F\u002Fllama.meta.com\u002Fdocs\u002Foverview)或[HuggingFace 模型库](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-32-66f448ffc8c32f949b04c8cf)中找到相关信息。更多详细信息也可在[模型卡片](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_2\u002FMODEL_CARD.md)和论文[《Llama 3 模型群》](https:\u002F\u002Fai.meta.com\u002Fresearch\u002Fpublications\u002Fthe-llama-3-herd-of-models\u002F)中查阅。在本次发布中，我们更新了文档，并确保所有组件都能与新模型兼容，包括多模态微调功能。\n\n## 变更内容\n\n### 集成 Llama 3.2\n* 上游合并由 @albertodepaola 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F677 中完成\n\n### 新增及更新的配方\n* 添加基于检索增强微调（RAFT）的端到端 Llama 聊天机器人配方，由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F569 中完成\n* [开发中] 添加 chatbot-e2e 配方，由 @HamidShojanazeri 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F462 中完成\n* [Azure] 将 Azure API 使用示例更新至 3.1 版本，由 @WuhanMonkey 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F615 中完成\n* 修正命令顺序错误，由 @BakungaBronson 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F602 中完成\n* 在 Prompt Guard 教程中补充一句话，由 @cynikolai 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F609 中完成\n* 修复 Llamaguard 笔记本 Colab 链接，由 @tryrobbo 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F619 中完成\n* 将 Llama 3 相关引用更新为 3.1 模型，由 @init27 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F632 中完成\n* recipes\u002Fquickstart\u002FGetting_to_know_Llama.ipynb 文件第 127 行将“lama”修正为“llama”，由 @cselip 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F635 中完成\n* 更新 hello_llama_cloud.ipynb 文件，由 @MrDlt 分别在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F584 和 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F638 中完成\n* 为 PromptGuard 插入字符后的评分添加预处理模块，由 @cynikolai 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F636 中完成\n* 使用 lm-evaluation-harness 和我们的 3.1 评估数据集复现评估配方，由 @wukaixingxp 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F627 中完成\n\n### 文档更新\n* 将 README 文本更新为与版本无关的内容，由 @subramen 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F614 中完成\n* 将支持的功能表格移至主 README，由 @subramen 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F616 中完成\n* 记录不太明显的训练配置参数，由 @kjslag 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F522 中完成\n\n### 其他修复\n* 允许用户信任 SamSum 数据集中的远程代码，由 @mreso 在 https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F628 中完成\n* 使用新的 get_model_state_dict API for","2024-09-25T18:55:29",{"id":180,"version":181,"summary_zh":182,"released_at":183},197975,"v0.0.3","## Llama 3.1 集成\n本次发布伴随着 [Llama 3.1](https:\u002F\u002Fllama.meta.com\u002F) 的推出，其中包含了 Llama 8B 和 70B 模型的新版本，以及全新的 405B 版本。要开始使用这些新模型，您可以在 [官方文档](https:\u002F\u002Fllama.meta.com\u002Fdocs\u002Foverview) 或 [HuggingFace 中心](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fmeta-llama\u002Fllama-31-669fc079a0c406a149a5738f) 中找到相关信息。更多详细内容也可参阅 [模型卡片](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-models\u002Fblob\u002Fmain\u002Fmodels\u002Fllama3_1\u002FMODEL_CARD.md) 和 [Llama 3.1 论文](https:\u002F\u002Fai.meta.com\u002Fresearch\u002Fpublications\u002Fthe-llama-3-herd-of-models\u002F)。为此次发布，我们更新了文档，并确保所有组件都能与新模型兼容。\n* 发布更新由 @albertodepaola、@cynikolai、@mreso、@subramen、@tryrobbo 和 @varunfb 在 [#603](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F603) 中完成\n## 新特性\n我们还新增了一些功能，例如 FSDP + QLoRA 微调以及用于长上下文推理的 H2O 算法。\n* 由 [@Kyriection](https:\u002F\u002Fgithub.com\u002FKyriection) 在 [#411](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F411) 中实现 H2O 算法，用于摘要任务中的长上下文推理\n* 由 [@wukaixingxp](https:\u002F\u002Fgithub.com\u002Fwukaixingxp) 在 [#531](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F531) 中实现从之前的 PEFT 检查点文件夹恢复微调过程\n* 由 [@dongwang218](https:\u002F\u002Fgithub.com\u002Fdongwang218) 在 [#551](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F551) 中将 HF 权重转换脚本更新至 Llama 3 版本\n* 由 [@HamidShojanazeri](https:\u002F\u002Fgithub.com\u002FHamidShojanazeri) 在 [#572](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F572) 中添加对 FSDP+Qlora 的支持\n## 其他示例\n此外，我们还增加了新的示例，帮助您快速上手并运行 Llama 模型。\n* 由 [@dloman118](https:\u002F\u002Fgithub.com\u002Fdloman118) 在 [#553](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F553) 中添加 Groq\u002FLlama3 示例（食谱和命令行示例）\n* [进行中] 由 [@mreso](https:\u002F\u002Fgithub.com\u002Fmreso) 在 [#558](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F558) 中提供的 PEFT 微调快速入门笔记本\n* 由 [@jeffxtang](https:\u002F\u002Fgithub.com\u002Fjeffxtang) 在 [#560](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F560) 中移植的 4 个基于 Llama 3 的 DLAI 代理短期课程笔记\n* 由 [@powerjohnnyli](https:\u002F\u002Fgithub.com\u002Fpowerjohnnyli) 在 [#573](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F573) 中添加 lamini text2sql 内存调优教程\n* 由 [@jeffxtang](https:\u002F\u002Fgithub.com\u002Fjeffxtang) 在 [#593](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F593) 中修复 DLAI 代理笔记的 Colab 链接\n* 由 [@jeffxtang](https:\u002F\u002Fgithub.com\u002Fjeffxtang) 在 [#594](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama-recipes\u002Fpull\u002F594) 中将 DLAI LlamaIndex 代理短期课程第 2 至第 4 课移植至使用 Llama 3\n## 代码库重构\n我们还对代码库进行了重构，以提升文档和示例的可发现性。\n* 新的结构及重命名","2024-07-23T17:43:53"]