edgeai-for-beginners
edgeai-for-beginners 是由微软推出的一套专为初学者设计的边缘人工智能(Edge AI)学习课程。它旨在降低技术门槛,引导用户从零开始探索如何在本地设备(如手机、物联网硬件)上运行智能模型,而无需完全依赖云端算力。
这套资源主要解决了新手在面对边缘计算时“不知从何入手”的痛点。它系统性地涵盖了核心概念、主流模型选择、推理技术、特定设备应用开发、模型优化策略以及如何构建智能边缘代理等关键环节,帮助学习者建立起完整的知识体系。
edgeai-for-beginners 非常适合想要入门边缘 AI 领域的开发者、学生及技术爱好者。无论你是否具备深厚的机器学习背景,只要对让 AI 在终端设备上高效运行感兴趣,都能从中获益。课程的一大亮点是其强大的社区支持与多语言覆盖,通过 GitHub Action 自动维护包括简体中文在内的数十种语言版本,确保全球学习者都能获取最新内容。此外,项目还鼓励协作贡献,并提供 Discord 社区供用户与专家交流互动,营造了一个开放、友好的学习环境。
使用场景
一家初创硬件团队正试图在资源受限的树莓派设备上部署实时缺陷检测系统,但团队成员多为传统后端开发,缺乏边缘计算与模型优化经验。
没有 edgeai-for-beginners 时
- 概念模糊难入门:面对“边缘推理”、“量化剪枝”等专业术语,团队需花费数周在碎片化的博客和文档中摸索基础概念,学习曲线极其陡峭。
- 模型适配困难:直接将云端大模型部署到设备导致内存溢出或推理延迟高达数秒,无法满足生产线实时性要求,却不知如何针对特定硬件进行优化。
- 开发路径混乱:缺乏系统的设备端应用开发指南,团队在环境配置、驱动兼容及代理智能体开发上反复试错,严重拖慢产品原型迭代进度。
- 社区支持缺失:遇到特定架构的报错时,只能独自排查底层代码,缺乏针对性的专家社区或标准化案例参考,问题解决效率极低。
使用 edgeai-for-beginners 后
- 体系化快速上手:通过课程中从基础概念到流行模型的清晰指引,团队在一周内便掌握了边缘 AI 核心逻辑,迅速统一了技术认知。
- 精准模型优化:利用课程提供的模型优化技术与设备专用案例,成功将检测模型体积压缩 70%,推理延迟降低至毫秒级,完美适配产线节奏。
- 标准化开发流程:跟随智能体开发及设备应用章节的步骤,团队快速构建了稳定的端到端演示原型,避免了大量非必要的底层踩坑。
- 专家生态赋能:加入 Azure AI Foundry Discord 社区后,团队直接与微软专家及全球开发者互动,疑难问题在数小时内即获得解决方案。
edgeai-for-beginners 将原本需要数月摸索的边缘 AI 落地过程缩短为数周,让初学者也能高效构建高性能的智能边缘应用。
运行环境要求
- Windows
- macOS
- Linux
- 非必需(支持 CPU 推理)
- 若使用 GPU,需根据具体模型优化框架(如 NVIDIA CUDA、Apple MLX、Intel OpenVINO)配置相应硬件
- 示例模型 Qwen-3-8B 建议显存 8GB+
最低 8GB,推荐 16GB+(运行 7B-8B 参数规模模型时)

快速开始
面向初学者的边缘人工智能

请按照以下步骤开始使用这些资源:
- 复刻仓库:点击
- 克隆仓库:
git clone https://github.com/microsoft/edgeai-for-beginners.git - 加入 Azure AI Foundry Discord,与专家和开发者交流
🌐 多语言支持
通过 GitHub Action 自动化实现并保持最新
阿拉伯语 (Arabic) | 孟加拉语 (Bengali) | 保加利亚语 (Bulgarian) | 缅甸语 (Burmese) | 中文(简体) | 中文(繁体,香港) | 中文(繁体,澳门) | 中文(繁体,台湾) | 克罗地亚语 (Croatian) | 捷克语 (Czech) | 丹麦语 (Danish) | 荷兰语 (Dutch) | 爱沙尼亚语 (Estonian) | 芬兰语 (Finnish) | 法语 (French) | 德语 (German) | 希腊语 (Greek) | 希伯来语 (Hebrew) | 印地语 (Hindi) | 匈牙利语 (Hungarian) | 印度尼西亚语 (Indonesian) | 意大利语 (Italian) | 日语 (Japanese) | 卡纳达语 (Kannada) | 韩语 (Korean) | 立陶宛语 (Lithuanian) | 马来语 (Malay) | 马拉雅拉姆语 (Malayalam) | 马拉地语 (Marathi) | 尼泊尔语 (Nepali) | 尼日利亚皮钦语 (Nigerian Pidgin) | 挪威语 (Norwegian) | 波斯语 (Persian) | 波兰语 (Polish) | 葡萄牙语(巴西) | 葡萄牙语(葡萄牙) | 旁遮普语(古木基文字) | 罗马尼亚语 (Romanian) | 俄语 (Russian) | 塞尔维亚语(西里尔字母) | 斯洛伐克语 (Slovak) | 斯洛文尼亚语 (Slovenian) | 西班牙语 (Spanish) | 斯瓦希里语 (Swahili) | 瑞典语 (Swedish) | 他加禄语(菲律宾语) | 泰米尔语 (Tamil) | 泰卢固语 (Telugu) | 泰语 (Thai) | 土耳其语 (Turkish) | 乌克兰语 (Ukrainian) | 乌尔都语 (Urdu) | 越南语 (Vietnamese)
更倾向于本地克隆吗?
此仓库包含50多种语言的翻译,这会显著增加下载大小。若要不包含翻译而克隆,请使用稀疏检出:
git clone --filter=blob:none --sparse https://github.com/microsoft/edgeai-for-beginners.git cd edgeai-for-beginners git sparse-checkout set --no-cone '/*' '!translations' '!translated_images'这样可以快速下载所需内容,完成课程学习。
如果您希望支持更多翻译语言,可参阅此处。
引言
欢迎来到《面向初学者的边缘人工智能》——这是一段全面探索边缘人工智能变革性世界的旅程。本课程弥合了强大的人工智能能力与在边缘设备上实际部署之间的鸿沟,使您能够在数据生成和决策制定的地方直接发挥人工智能的潜力。
您将掌握的内容
本课程从基础概念逐步深入到生产级实现,涵盖:
- 针对边缘部署优化的小型语言模型 (SLMs)
- 跨不同平台的硬件感知优化
- 具有隐私保护功能的实时推理
- 面向企业应用的生产级部署策略
为什么边缘人工智能至关重要?
边缘人工智能代表了一种范式转变,能够解决现代的关键挑战:
- 隐私与安全:在本地处理敏感数据,无需上传至云端
- 实时性能:消除网络延迟,适用于时间敏感的应用
- 成本效益:降低带宽和云计算支出
- 稳健运行:在网络中断时仍能保持功能
- 合规性:满足数据主权要求
边缘人工智能
边缘人工智能是指在靠近数据源的硬件上本地运行人工智能算法和语言模型,而无需依赖云资源进行推理。它能够减少延迟、增强隐私保护,并实现实时决策。
核心原则:
- 设备端推理:人工智能模型直接在边缘设备上运行(如手机、路由器、微控制器、工业PC)
- 离线能力:无需持续的互联网连接即可工作
- 低延迟:适合实时系统的即时响应
- 数据主权:将敏感数据保留在本地,提升安全性并符合合规要求
小型语言模型(SLMs)
Phi-4、Mistral-7B 和 Gemma 等小型语言模型是大型语言模型的优化版本,经过训练或蒸馏,旨在:
- 减少内存占用:高效利用边缘设备有限的内存
- 降低计算需求:针对 CPU 和边缘 GPU 性能进行优化
- 更快的启动时间:快速初始化以支持响应式应用
它们在满足以下场景限制的同时,释放出强大的自然语言处理能力:
- 嵌入式系统:物联网设备和工业控制器
- 移动设备:具备离线功能的智能手机和平板电脑
- 物联网设备:资源受限的传感器和智能设备
- 边缘服务器:GPU 资源有限的本地处理单元
- 个人电脑:台式机和笔记本电脑部署场景
课程模块与导航
| 模块 | 主题 | 重点领域 | 核心内容 | 难度 | 时长 |
|---|---|---|---|---|---|
| 📖 00 | EdgeAI 导论 | 基础与背景 | EdgeAI 概述 • 行业应用 • SLM 介绍 • 学习目标 | 初级 | 1–2 小时 |
| 📚 01 | EdgeAI 基础 | 云端与边缘 AI 对比 | EdgeAI 基础 • 实际案例研究 • 实施指南 • 边缘部署 | 初级 | 3–4 小时 |
| 🧠 02 | SLM 模型基础 | 模型家族与架构 | Phi 家族 • Qwen 家族 • Gemma 家族 • BitNET • μModel • Phi-Silica | 初级 | 4–5 小时 |
| 🚀 03 | SLM 部署实践 | 本地与云端部署 | 高级学习 • 本地环境 • 云端部署 | 中级 | 4–5 小时 |
| ⚙️ 04 | 模型优化工具集 | 跨平台优化 | 介绍 • Llama.cpp • Microsoft Olive • OpenVINO • Apple MLX • 工作流整合 | 中级 | 5–6 小时 |
| 🔧 05 | SLMOps 生产 | 生产运营 | SLMOps 介绍 • 模型蒸馏 • 微调 • 生产部署 | 高级 | 5–6 小时 |
| 🤖 06 | AI 代理与函数调用 | 代理框架与 MCP | 代理介绍 • 函数调用 • 模型上下文协议 | 高级 | 4–5 小时 |
| 💻 07 | 平台实现 | 跨平台示例 | AI 工具包 • Foundry Local • Windows 开发 | 高级 | 3–4 小时 |
| 🏭 08 | Foundry Local 工具包 | 生产就绪示例 | 示例应用(详情见下文) | 专家级 | 8–10 小时 |
🏭 模块 08:示例应用
- 01: REST 聊天快速入门
- 02: OpenAI SDK 集成
- 03: 模型发现与基准测试
- 04: Chainlit RAG 应用程序
- 05: 多代理编排
- 06: 模型即工具路由器
- 07: 直接 API 客户端
- 08: Windows 11 聊天应用
- 09: 高级多代理系统
- 10: Foundry 工具框架
🎓 研讨会:动手学习路径
全面的动手实践材料,包含生产就绪的实现:
- 研讨会指南 - 完整的学习目标、成果及资源导航
- Python 示例(6 节课) - 更新了最佳实践、错误处理及完整文档
- Jupyter 笔记本(8 个交互式) - 分步教程,附带基准测试和性能监控
- 会话指南 - 每节研讨会的详细 Markdown 指南
- 验证工具 - 用于验证代码质量和运行冒烟测试的脚本
你将构建的内容:
- 支持流式传输的本地 AI 聊天应用
- 具有质量评估功能的 RAG 流程(RAGAS)
- 多模型基准测试与比较工具
- 多代理编排系统
- 基于任务选择的智能模型路由
🎙️ Workshop For Agentic:动手实践——AI 播客工作室
从零开始构建一个由 AI 驱动的播客制作流水线!本次沉浸式研讨会将教你创建一个完整的多代理系统,将创意转化为专业的播客节目。
你的任务:推出“Future Bytes”——一个完全由你亲手构建的 AI 代理驱动的技术播客。无需云端依赖,无 API 成本——一切都在你的本地机器上运行。
独特之处:
- 🤖 真正的多代理编排 - 构建专门的 AI 代理,负责研究、撰写和制作音频
- 🎯 完整的生产流水线 - 从选题到最终播客音频输出
- 💻 100% 本地部署 - 使用 Ollama 和本地模型(Qwen-3-8B),确保完全的隐私和控制
- 🎤 文本转语音集成 - 将脚本转换为自然流畅的多角色对话
- ✋ 人机协作工作流 - 通过审批环节保证质量,同时保持自动化
三幕式学习之旅:
| 幕 | 重点 | 关键技能 | 时长 |
|---|---|---|---|
| 第一幕:认识你的 AI 助手 | 构建第一个 AI 代理 | 工具集成 • 网络搜索 • 问题解决 • 代理式推理 | 2–3 小时 |
| 第二幕:组建你的制作团队 | 编排多个代理 | 团队协调 • 审批工作流 • DevUI 界面 • 人工监督 | 3–4 小时 |
| 第三幕:让你的播客栩栩如生 | 生成播客音频 | 文本转语音 • 多角色合成 • 长篇音频 • 全自动 | 2–3 小时 |
使用的技术:
- Microsoft Agent Framework - 多代理编排与协调
- Ollama - 本地 AI 模型运行时(无需云端)
- Qwen-3-8B - 面向代理任务优化的开源语言模型
- 文本转语音 API - 用于播客生成的自然语音合成
硬件支持:
- ✅ CPU 模式 - 适用于任何现代计算机(建议 8GB+ 内存)
- 🚀 GPU 加速 - 使用 NVIDIA/AMD 显卡可显著提升推理速度
- ⚡ NPU 支持 - 下一代神经网络处理器加速
适合人群:
- 学习多代理 AI 系统的开发者
- 对 AI 自动化和工作流感兴趣的人士
- 探索 AI 辅助创作的内容创作者
- 研究实用 AI 编排模式的学生
立即开始构建:🎙️ AI 播客工作室研讨会 →
📊 学习路径总结
- 总时长: 36–45小时
- 初级路径: 模块01–02(7–9小时)
- 中级路径: 模块03–04(9–11小时)
- 高级路径: 模块05–07(12–15小时)
- 专家路径: 模块08(8–10小时)
你将构建的内容
🎯 核心能力
- 边缘AI架构: 设计本地优先的AI系统,并与云端集成
- 模型优化: 对模型进行量化和压缩,以适应边缘部署(速度提升85%,体积减少75%)
- 多平台部署: 支持Windows、移动端、嵌入式设备以及云边协同系统
- 生产运维: 在生产环境中监控、扩展和维护边缘AI系统
🏗️ 实战项目
- Foundry Local聊天应用: Windows 11原生应用,支持模型切换
- 多智能体系统: 协调器与专业智能体协作,完成复杂工作流
- RAG应用: 本地文档处理与向量检索结合
- 模型路由: 根据任务分析智能选择不同模型
- API框架: 生产就绪的客户端,支持流式传输和健康监测
- 跨平台工具: LangChain/Semantic Kernel集成模式
🏢 行业应用
制造业 • 医疗健康 • 自动驾驶 • 智慧城市 • 移动应用
快速入门
推荐学习路径(共20–30小时):
- 📖 引言(Introduction.md): 边缘AI基础 + 行业背景 + 学习框架
- 📚 基础(模块01–02): 边缘AI概念 + SLM模型家族
- ⚙️ 优化(模块03–04): 部署 + 量化框架
- 🚀 生产(模块05–06): SLMOps + AI智能体 + 函数调用
- 💻 实现(模块07–08): 平台示例 + Foundry Local工具包
每个模块都包含理论讲解、动手练习和可直接用于生产的代码示例。
职业影响
技术岗位: 边缘AI解决方案架构师 • 边缘ML工程师 • 物联网AI开发者 • 移动端AI开发者
行业领域: 工业4.0 • 医疗科技 • 自动驾驶系统 • 金融科技 • 消费电子
作品集项目: 多智能体系统 • 生产级RAG应用 • 跨平台部署 • 性能优化
仓库结构
edgeai-for-beginners/
├── 📖 introduction.md # 基础:边缘AI概述与学习框架
├── 📚 Module01-04/ # 基础知识 → SLM模型 → 部署 → 优化
├── 🔧 Module05-06/ # SLMOps → AI智能体 → 函数调用
├── 💻 Module07/ # 平台示例(VS Code、Windows、Jetson、移动端)
├── 🏭 Module08/ # Foundry Local工具包 + 10个综合示例
│ ├── samples/01-06/ # 基础:REST、SDK、RAG、智能体、路由
│ └── samples/07-10/ # 高级:API客户端、Windows应用、企业级智能体、工具
├── 🌐 translations/ # 多语言支持(8种以上)
└── 📋 STUDY_GUIDE.md # 结构化学习路径与时间分配
课程亮点
✅ 循序渐进的学习: 理论 → 实践 → 生产级部署
✅ 真实案例研究: 微软、日本航空及多家企业的实际落地案例
✅ 实战示例: 50+个示例,10个完整的Foundry Local演示
✅ 性能优化: 速度提升85%,体积缩减75%
✅ 多平台支持: Windows、移动端、嵌入式设备以及云边协同
✅ 生产就绪: 监控、扩展、安全与合规框架
📖 学习指南可用: 结构化的20小时学习路径,提供时间分配指导与自我评估工具。
边缘AI代表了AI部署的未来方向: 本地优先、隐私保护且高效。掌握这些技能,你将能够构建下一代智能应用。
其他课程
我们的团队还推出了其他课程!请查看以下内容:
LangChain
Azure / 边缘 / MCP / 智能体
生成式AI系列
核心学习
Copilot系列
获取帮助
如果您在构建AI应用时遇到困难或有任何疑问,请加入:
如果您在构建过程中遇到产品反馈或错误,请访问:
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。