cookbook
Cookbook 是 Mistral AI 官方推出的开源示例合集,旨在为开发者提供一套全面、实用的模型应用指南。它汇集了来自 Mistral 团队、社区伙伴贡献的高质量代码案例,涵盖了从快速入门到高级架构设计的完整开发路径。
针对开发者在落地大模型时面临的“如何起步”、“如何构建复杂应用”等痛点,Cookbook 提供了可直接运行的 Jupyter Notebook 和 Markdown 文档。内容不仅包含基础的聊天对话、文本嵌入和提示词工程,还深入讲解了检索增强生成(RAG)、函数调用(Function Calling)、多表 Text-to-SQL、模型微调及效果评估等进阶技术。特别值得一提的是,其中展示了如何利用 Prefix 特性优化长上下文处理,以及如何结合函数调用构建智能路由和多源数据搜索引擎,为构建生产级应用提供了清晰的技术参考。
这套资源非常适合人工智能工程师、研究人员以及希望快速掌握 Mistral 模型能力的技术爱好者使用。所有示例均注重可复现性,明确标注了依赖包版本,并尽可能支持在 Google Colab 上直接运行,帮助用户零门槛验证想法。无论你是想探索模型潜力,还是寻求具体的工程实现方案,Cookbook 都能提供结构清晰、价值丰富的实践指引。
使用场景
某电商初创公司的数据团队正急需构建一个能理解自然语言并查询多张业务报表的智能分析助手,以替代繁琐的手工 SQL 编写流程。
没有 cookbook 时
- 开发人员需从零摸索 Mistral API 的函数调用(Function Calling)参数结构,常因格式错误导致模型无法正确生成 SQL。
- 面对多表关联的复杂场景,缺乏现成的路由逻辑参考,难以让模型准确判断该查询哪张数据表。
- 调试过程耗时极长,团队需反复尝试提示词工程,却找不到针对 Text-to-SQL 场景的最佳实践示例。
- 代码复现性差,不同成员编写的脚本版本混乱,缺乏统一的依赖包版本标记,导致协作效率低下。
使用 cookbook 后
- 直接复用
text_to_SQL.ipynb中的成熟代码,快速掌握多表场景下的函数定义规范,显著降低 API 调用报错率。 - 借鉴
rag_via_function_calling.ipynb的路由设计思路,轻松实现根据用户意图自动分发查询至不同数据源的逻辑。 - 基于
prompting_capabilities.ipynb提供的分类与评估提示词模板,迅速优化模型输出质量,将开发周期从数周缩短至数天。 - 遵循提交指南中的版本锁定要求,确保团队成员在 Google Colab 或本地环境中均能一键运行并复现相同结果。
cookbook 通过提供经过验证的端到端示例,将团队从重复的底层试错中解放出来,使其能专注于业务逻辑的创新与落地。
运行环境要求
未说明
未说明

快速开始
Mistral Cookbook
Mistral Cookbook 收录了来自 Mistral 团队、社区以及合作伙伴的示例。如果您有展示 Mistral 模型强大功能的精彩示例,欢迎通过向本仓库提交 PR 的方式分享。
提交指南:
- 文件格式:请以 .md 或 .ipynb 格式提交您的示例。
- 可在 Colab 上运行:如果您分享的是 Notebook 示例,请尽量确保其可以在 Google Colab 上运行。
- 作者信息:请在文件开头注明您的姓名、GitHub 用户名及所属机构。
- 描述:请将您的 Notebook 连同其所属类别和描述一并填写到下表中。
- 文风:请保持中立客观的语气,避免过多营销性质的内容。
- 可复现性:为确保他人能够复现您的工作,请在代码中明确标注所用包的版本。
- 图片大小:如包含图片,请确保每张图片的大小不超过 500KB。
- 版权:请始终尊重版权和知识产权相关法律法规。
免责声明:由社区及合作伙伴贡献的示例并不代表 Mistral 的观点和立场。
内容指南:
- 原创性:您的内容是否具有原创性,并提供了全新的视角?
- 清晰度:内容结构是否清晰,表述是否明确?
- 价值:您的内容对社区是否有实际价值?社区是否需要此类内容?
主要 Notebook 列表
| Notebook | 类别 | 描述 |
|---|---|---|
| quickstart.ipynb | 对话、嵌入 | 使用 Mistral AI API 的基础对话与嵌入快速入门 |
| prompting_capabilities.ipynb | 提示工程 | 编写用于分类、摘要、个性化及评估的提示 |
| basic_RAG.ipynb | RAG | 使用 Mistral AI API 从零构建 RAG |
| embeddings.ipynb | 嵌入 | 使用 Mistral 嵌入 API 进行分类与聚类 |
| function_calling.ipynb | 函数调用 | 使用 Mistral API 进行函数调用 |
| text_to_SQL.ipynb | 函数调用 | 使用 Mistral API 处理多表文本转 SQL 的用例 |
| evaluation.ipynb | 评估 | 使用 Mistral API 评估模型 |
| mistral_finetune_api.ipynb | 微调 | 使用 Mistral 微调 API 对模型进行微调 |
| mistral-search-engine.ipynb | RAG、函数调用 | 使用 Mistral API、函数调用及 RAG 构建搜索引擎 |
| rag_via_function_calling.ipynb | RAG、函数调用 | 使用函数调用作为路由,基于多个数据源构建 RAG |
| prefix_use_cases.ipynb | 前缀、提示工程 | 使用 Mistral 前缀功能的精彩示例 |
| synthetic_data_gen_and_finetune.ipynb | 数据生成、微调 | 简单的数据生成与微调指南 |
| data_generation_refining_news.ipynb | 数据生成 | 通过简单数据生成来优化新闻文章 |
| image_description_extraction_pixtral.ipynb | 图像处理、提示工程 | 使用 Mistral 的 Pixtral 模型提取结构化图像描述,并以 JSON 格式输出 |
| multimodality_meets_function_calling.ipynb | 图像处理、函数调用 | 使用 Mistral 的 Pixtral 模型从图像中提取表格,并用于函数调用 |
| mistral-reference-rag.ipynb | RAG、函数调用、引用 | 使用 Mistral API 构建引用型 RAG |
| moderation-explored.ipynb | 内容审核 | 快速探索安全防护机制及 Mistral 的内容审核 API |
| system-level-guardrails.ipynb | 内容审核 | 如何使用 Mistral API 实现系统级安全防护 |
| document_understanding.ipynb | OCR、函数调用 | 使用 OCR 进行文档理解与工具应用 |
| batch_ocr.ipynb | OCR、批量处理 | 使用 OCR 从数据集中提取文本信息 |
| structured_ocr.ipynb | OCR、结构化输出 | 从文档中提取结构化输出 |
| RAG_evaluation.ipynb | 评估、结构化输出、LLM 作为裁判 | 使用 LLM 作为裁判评估 RAG,并输出结构化结果 |
| product_classification.ipynb | 微调、分类器 | 针对食品分类任务对分类器进行微调 |
| intent_classification.ipynb | 微调、分类器 | 针对意图分类任务对分类器进行微调 |
| moderation_classifier.ipynb | 微调、分类器 | 针对内容审核任务对分类器进行微调 |
| pixtral_finetune_on_satellite_data.ipynb | 微调、图像处理、批量处理 | 对 Pixtral-12B 模型进行卫星图像分类的微调 |
| sts_demo.py | 对话、TTS | STT -> LLM -> TTS 演示 |
第三方工具
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器