vscode-ai-toolkit
vscode-ai-toolkit 是一款专为 Visual Studio Code 打造的 AI 智能体开发扩展包,旨在让开发者在熟悉的编码环境中一站式完成从模型探索到应用部署的全流程。它内置了 Microsoft Foundry 资源,有效解决了传统 AI 开发中环境切换频繁、工具链分散以及调试困难等痛点。
无论是希望快速验证想法的开发者,还是需要深入优化模型的研究人员,都能从中受益。该工具支持连接 Anthropic、OpenAI、Google 及本地 Ollama 等多种模型源,提供直观的“模型目录”进行对比评测,并通过“游乐场”实现实时交互测试。其核心亮点在于强大的“智能体构建器”与“智能体检查器”:前者支持无代码提示词工程与 MCP 工具集成,后者则允许用户像调试普通代码一样,对 AI 智能体进行断点调试、流式响应可视化及多智能体工作流追踪。此外,它还涵盖了模型微调、量化转换及自动化评估等功能,帮助用户高效打造生产级 AI 应用,让智能体开发变得既专业又轻松。
使用场景
某初创团队正在开发一款基于本地知识库的法律咨询 AI 助手,需要在有限算力下快速验证模型效果并部署代理。
没有 vscode-ai-toolkit 时
- 模型选型困难:开发者需手动切换多个网页终端(如 Hugging Face、Ollama CLI)来测试不同厂商的模型,无法直观对比响应速度与准确性。
- 调试过程黑盒:编写代码型 Agent 时,缺乏可视化流式输出和多步执行追踪,排查逻辑错误只能依靠打印日志,效率极低。
- 评估标准缺失:难以量化模型在法律条文检索中的表现,缺乏内置的 F1 分数或相关性指标,导致优化方向模糊。
- 部署流程割裂:从本地原型到云端部署需要重写大量配置代码,且无法直接在 IDE 中管理 Azure 资源,上下文频繁切换。
使用 vscode-ai-toolkit 后
- 一站式模型目录:直接在侧边栏调用 Model Catalog,并行对比 Microsoft Foundry、Ollama 及 Anthropic 等模型在相同提示词下的表现,瞬间锁定最佳基座。
- 可视化智能调试:利用 Agent Inspector 按 F5 启动调试,实时查看多智能体协作的思维链流转与工具调用细节,像调试普通代码一样定位 AI 逻辑漏洞。
- 量化性能评估:通过内置的 Model Evaluation 功能,上传法律问答数据集,自动生成相关性、连贯性等评分报表,用数据驱动模型迭代。
- 无缝构建部署:借助 Agent Builder 无代码生成提示工程模板,并直接调用集成的 Microsoft Foundry 扩展将训练好的代理一键部署至云端,全程无需离开 VS Code。
vscode-ai-toolkit 将原本分散、黑盒的 AI 开发流程整合为可视化的闭环工作流,让开发者能专注于业务逻辑而非基础设施搭建。
运行环境要求
- Windows
- macOS
- Linux
- 非必需(支持 CPU 运行)
- 若进行本地微调或模型转换,需支持 GPU 或 NPU 加速
- 具体型号、显存及 CUDA 版本未说明
未说明

快速开始
适用于 Visual Studio Code 的 AI 工具包

🤖 什么是 AI 工具包
AI 工具包是 Visual Studio Code 的一个 扩展包,旨在让 AI 代理开发既快速又愉悦。它内置了 Microsoft Foundry 扩展,使您无需离开 VS Code 即可直接访问 Microsoft Foundry 资源——部署模型、管理代理等。
借助 AI 工具包,您可以:
- 🔍 发现并评估模型:来自众多提供商的模型,包括 Microsoft Foundry、Foundry Local、Anthropic、OpenAI、GitHub、Google、NVIDIA NIM;或者使用 ONNX 和 Ollama 在本地运行模型。
- ⚡ 构建、测试和部署 AI 代理:通过无代码的代理构建器创建提示词代理,或编写基于代码的托管代理,享受完整的调试功能、流式可视化以及与 MCP 工具的集成。
✨ 功能亮点
| 功能 | 描述 | 截图 |
|---|---|---|
| 模型目录 | 发现并访问来自多个来源的 AI 模型,包括 Microsoft Foundry、Foundry Local、GitHub、ONNX、Ollama、OpenAI、Anthropic 和 Google。并排比较模型,找到最适合您用例的模型。 | ![]() |
| 游乐场 | 用于实时模型测试的交互式聊天环境。尝试不同的提示、参数以及包括图像和附件在内的多模态输入。 | ![]() |
| 代理构建器 | 简化提示工程和代理开发流程。创建复杂的提示,集成 MCP 工具,并生成具有结构化输出的生产就绪代码。 | ![]() |
| 代理检查器 | 直接在 VS Code 中调试、可视化并迭代 AI 代理。按下 F5 键即可启动完整调试支持,查看实时流式响应,并通过代码导航可视化多代理工作流执行情况。 | ![]() |
| 模型评估 | 使用数据集和标准指标进行全面的模型评估。利用内置评估器(F1 分数、相关性、相似性、连贯性)衡量性能,或创建自定义评估标准。 | ![]() |
| 微调 | 根据特定领域和需求定制和调整模型。可在本地使用 GPU 支持进行训练,或利用 Azure 容器应用进行云端微调。 | ![]() |
| 模型转换 | 转换、量化和优化机器学习模型,以便在本地部署。将来自 Hugging Face 等来源的模型转换为可在 Windows 上以 CPU、GPU 或 NPU 加速高效运行的格式。 | ![]() |
| 跟踪 | 监控和分析您的 AI 应用程序性能。收集并可视化跟踪数据,以深入了解模型行为和性能。 | ![]() |
| 性能剖析(Windows ML) | 诊断进程的 CPU、GPU、NPU 资源使用情况,不同执行提供者的 ONNX 模型,以及 Windows 机器学习事件。 | ![]() |
🚀 开始使用
只需三步即可开始与模型互动:
- 📦 安装 — 按照安装指南在您的设备上设置 AI 工具包。
- 🗂️ 探索模型 — 打开扩展树视图 → 开发者工具 → 发现 → 模型目录。我们建议从 GitHub 托管的模型开始。
- 💬 试用 — 在任何模型卡片上选择 在游乐场中试用,即可立即开始实验。
🛠️ 构建 AI 代理
AI 工具包为您提供两种构建 AI 代理的方式,请根据您的工作流程选择适合的一种:
🖱️ 无代码:代理构建器(提示词代理)
使用代理构建器,通过可视化界面创建、测试和部署提示词代理——无需编写代码。
- ✨ 使用自然语言生成和改进提示,或让“启发我”为您起草起点
- 🔁 基于集成游乐场中的实时模型响应迭代和完善提示
- 🧩 使用工具目录中的工具或自定义函数调用来扩展您的代理
- 📊 使用内置或自定义指标评估准确性和性能
- 💡 导出生产就绪的代码片段,以便快速集成到应用程序中
🧑💻 基于代码:托管代理(VS Code + GitHub Copilot)
使用 Agent Framework SDK,通过代码构建单代理或多代理工作流,并获得完整的调试和部署支持。
- 🏗️ 代码生成 — 使用 GitHub Copilot 搭建托管代理代码框架或编排多代理工作流
- 🔬 Agent Inspector — 按下 F5 键即可启动,支持断点调试、实时流式输出、工作流可视化以及一键跳转代码
- ☁️ 云端部署 — 将托管代理部署至 Microsoft Foundry
- 📈 可观测性 — 在本地跟踪代理执行过程,或利用内置及自定义指标评估性能
💬 反馈与资源
我们非常期待您的反馈!您的意见将帮助我们规划产品路线图。
- 📖 开发者文档 — 深入了解所有功能
- 🐛 GitHub Issues — 提交 Bug 或提出新功能建议
- 💬 Discord 社区 — 与同行开发者交流互动
AI Toolkit ❤️ 开发者社区。
📊 数据与遥测
适用于 Visual Studio Code 的 AI Toolkit 会收集使用数据并发送至 Microsoft,以帮助改进我们的产品和服务。请阅读我们的 隐私声明 了解更多。此扩展尊重 telemetry.enableTelemetry 设置——更多信息请参阅 禁用遥测报告。
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。








