[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Azure--AI-in-a-Box":3,"tool-Azure--AI-in-a-Box":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":73,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":99,"github_topics":100,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":148},9264,"Azure\u002FAI-in-a-Box","AI-in-a-Box","AI-in-a-Box leverages the expertise of Microsoft across the globe to develop and provide AI and ML solutions to the technical community.  Our intent is to present a curated collection of solution accelerators that can help engineers establish their AI\u002FML environments and solutions rapidly and with minimal friction.","AI-in-a-Box 是微软全球技术专家共同打造的一套开源解决方案加速器集合，旨在帮助技术人员快速搭建高质量的人工智能与机器学习环境。面对 AI 开发中环境配置复杂、重复造轮子耗时以及部署标准不一等痛点，它提供了一系列经过实战验证的“开箱即用”模板，让用户能以最小摩擦成本启动项目。\n\n这套工具特别适合开发者、架构师及数据科学家使用，无论是需要构建端到端 MLOps 流程，还是致力于将模型部署到边缘设备（Edge AI），亦或是希望自动化处理文档智能分析与音视频内容理解，都能在其中找到对应的参考架构。其独特亮点在于不仅涵盖了从基础设施搭建（Outer Loop）到模型开发部署（Inner Loop）的全生命周期指导，还特别融入了负责任的 AI 原则、生成式应用安全规范以及大规模扩展最佳实践。通过复用这些成熟模式，用户不仅能显著节省预算和时间，还能确保解决方案具备企业级的可靠性与安全性，从而更专注于核心业务逻辑的创新。","# AI-in-a-Box\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAzure_AI-in-a-Box_readme_5f2a746042db.png\" alt=\"FTA AI-in-a-Box: Deployment Accelerator\" style=\"width: 15%\" \u002F>\n\u003C\u002Fp>\n\n*AI-in-a-Box* leverages the collective expertise of Microsoft Customer Engineers and Architects across the globe to develop and provide AI and ML solutions to the technical community.\n\nOur intent is to present a curated collection of solution accelerators that can help engineers establish their AI\u002FML environments and solutions rapidly and with minimal friction, while maintaining the highest standards of quality and efficiency.\n\nAs we continue to learn from the market, the contributors will look to equip the community with the tools and resources necessary to succeed in the ever-evolving AI and ML landscape.\n\n## Why AI-in-a-Box?\n\n* Accelerated Deployment: Speed up your solutions with our proven, ready-to-use patterns.\n* Cost Savings: Maximize your budget by reusing existing code and patterns.\n* Enhanced Quality & Reliability: Trust in our solutions, validated through real-world scenarios.\n* Competitive Advantage: Outpace competitors by accelerating solution deployment.\n\n\u003Cp align=\"center\">\n  \n  ![FTA AI-in-a-Box: Deployment Accelerator](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAzure_AI-in-a-Box_readme_32635c29d733.png)\n\n\u003C\u002Fp>\n\n## Available Guidance\n\n|Topic|Description|\n|---|---|\n|[Responsible AI](.\u002Fguidance\u002Fresponsible-ai\u002F) | This provides essential guidance on the responsible use of AI and LLM technologies. |\n|[Security for Generative AI Applications](.\u002Fguidance\u002Fgenai-security\u002F)| This document provides specific security guidance for Generative AI (GenAI) applications. |\n|[Scaling OpenAI Applications](.\u002Fguidance\u002Fscaling\u002F)| This document contains best practices for scaling OpenAI applications within Azure. |\n\n## Available “-in-a-Box” accelerators\n\n|Pattern|Description|Supported Use Cases and Features|\n|---|---|---|\n|[Azure ML Operationalization in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fml-ops-in-a-box)|Boilerplate Data Science project from model development to deployment and monitoring|\u003Cli>End-to-end MLOps project template \u003Cli>Outer Loop (infrastructure setup) \u003Cbr \u002F>\u003Cli>Inner Loop (model creation and deployment lifecycle)|\n|[Edge AI in-a-box](.\u002Fedge-ai\u002F)|Edge AI from model creation to deployment on Edge Device(s) |\u003Cli>Create a model and deploy to Edge Device.\u003Cli>Outer Loop Infrastructure Setup (IoT Hub, IoT Edge, Edge VM, Container Registry, Azure ML) \u003Cbr \u002F>\u003Cli>Inner Loop (model creation and deployment)|\n|[AML Edge in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Faml-edge-in-a-box)|Edge AI from model creation to deployment on Edge Device(s) |Orchestrate the entire Edge AI model lifecycle—from creation to deployment—using Azure ML, IoT Edge, and IoT Hub, while leveraging Azure ML CLI V2 for streamlined management.|\n|[Custom Vision Edge in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fcustomvision-edge-in-a-box)|Edge AI from model creation to deployment on Edge Device(s) |Edge AI mitigates cloud latency by shifting analysis closer to the data source for faster responses. This accelerator demonstrates using [Custom Vision](https:\u002F\u002Fwww.customvision.ai\u002F) to train a model and export it in formats like ONNX or Dockerfile for edge deployment.|\n|[Doc Intelligence in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fdoc-intelligence-in-a-box) | This accelerator enables companies to automate PDF form processing, modernize operations, save time, and cut costs as part of their digital transformation journey.|\u003Cli>Receive PDF Forms\u003Cbr \u002F>\u003Cli>Function App and Logic App for Orchestration\u003Cbr \u002F>\u003Cli>Document Intelligence Model creation for form processing and content extraction \u003Cbr \u002F>\u003Cli> Saves PDF data in Azure Cosmos DB |\n|[Image and Video Analysis in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgpt-video-analysis-in-a-box) | Extracts information from images and videos with Azure AI Vision and sends the results along with the prompt and system message to Azure GPT-4 Turbo with Vision. |\u003Cli>Orchestration through Azure Data Factory\u003Cbr \u002F>\u003Cli>Low code solution, easily extensible for your own use cases through ADF parameters\u003Cbr \u002F>\u003Cli> Reuse same solution and deployed resources for many different scenarios\u003Cbr \u002F>\u003Cli> Saves GPT4-V results to Azure CosmosDB|\n|[Cognitive Services Landing Zone in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fai-landing-zone-in-a-box)|Minimal enterprise-ready networking and AI Services setup to support most Cognitive Services scenarios in a secure environment|\u003Cli>Hub-and-Spoke Vnet setup and peering \u003Cbr \u002F>\u003Cli>Cognitive Service deployment \u003Cbr \u002F>\u003Cli>Private Endpoint setup \u003Cbr \u002F>\u003Cli>Private DNS integration with PaaS DNS resolver|\n|[Semantic Kernel Bot in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgen-ai-bot-in-a-box)|Extendable solution accelerator for advanced Azure OpenAI Bots|\u003Cli>Deploy Azure OpenAI bot to multiple channels (Web, Teams, Slack, etc) \u003Cbr \u002F>\u003Cli>Built-in Retrieval-Augmented Generation (RAG) support \u003Cbr \u002F>\u003Cli>Implement custom AI Plugins|\n[NLP to SQL in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fnlp-sql-in-a-box)|Unleash the power of a cutting-edge speech-enabled SQL query system with Azure OpenAI, Semantic Kernel, and Azure Speech Services. Simply speak your data requests in natural language, and let the magic happen.|\u003Cli>Allows users to verbally express natural language queries \u003Cbr \u002F> \u003Cli>Translate into SQL statements using Azure Speech & AOAI\u003Cbr \u002F>\u003Cli> Execute  on an Azure SQL DB |\n|[Assistants API notebooks](.\u002Fgen-ai\u002FAssistants\u002Fnotebooks)|Harnessing the simplicity of the Assistants API, developers can seamlessly integrate assistants with diverse functionalities, from executing code to retrieving data, empowering users with versatile and dynamic digital assistants tailored to their needs.| \u003Cli>Offers three main capabilities: Code Interpreter (tech tasks), Retrieval (finding info), and Function calling (task execution) \u003Cbr \u002F>\u003Cli>These powers combine to form a versatile super-assistant for handling diverse tasks |\n|[Assistants API Bot in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgen-ai-bot-in-a-box)|This sample provides a step-by-step guide on how to deploy a virtual assistant leveraging the Azure OpenAI Assistants API. It covers the infrastructure deployment, configuration on the AI Studio and Azure Portal, and end-to-end testing examples.| \u003Cli>Deploy the necessary infrastructure to support an Azure OpenAI Assistant \u003Cbr \u002F>\u003Cli>Configure as Assistant with the required tools.\u003Cli>Connect a Bot Framework application to your Assistant to deploy the chat to multiple channels |\n\n## Key Contacts & Contributors\n\nIf you have any questions or would like to contribute please reach out to: `aibox@microsoft.com`\n\n| Contact | GitHub ID | Email |\n|--------------|------|-----------|\n| Alex Morales | @msalemor | `alemor@microsoft.com` |\n| Andre Dewes  | @andredewes | `andredewes@microsoft.com` |\n| Andrés Padilla | @AndresPad | `andres.padilla@microsoft.com` |\n| Chris Ayers | @codebytes | `chrisayers@microsoft.com` |\n| Eduardo Noriega | @EduardoN | `ednorieg@microsoft.com` |\n| Franklin Guimaraes | @franklinlindemberg | `fguimaraes@microsoft.com` |\n| Jean Hayes | @jehayesms | `jean.hayes@microsoft.com` |\n| Marco Aurélio Bigélli Cardoso  | @MarcoABCardoso | `macardoso@microsoft.com` |\n| Maria Vrabie  | @MariaVrabie | `mavrabie@microsoft.com` |\n| Neeraj Jhaveri | @neerajjhaveri | `neeraj.jhaveri@microsoft.com` |\n| Thiago Rotta | @rottathiago | `thiago.rotta@microsoft.com` |\n| Victor Santana | @Welasco | `vsantana@microsoft.com` |\n| Sabyasachi Samaddar | @ssamadda | `ssamadda@microsoft.com` |\n","# AI-in-a-Box\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAzure_AI-in-a-Box_readme_5f2a746042db.png\" alt=\"FTA AI-in-a-Box: 部署加速器\" style=\"width: 15%\" \u002F>\n\u003C\u002Fp>\n\n*AI-in-a-Box* 借助全球微软客户工程师和架构师的集体智慧，为技术社区开发并提供人工智能和机器学习解决方案。\n\n我们的目标是呈现一套精心挑选的解决方案加速器，帮助工程师快速、顺畅地搭建其 AI\u002FML 环境与解决方案，同时保持最高水准的质量与效率。\n\n随着我们不断从市场中汲取经验，贡献者们将继续为社区提供在日新月异的 AI 和 ML 领域取得成功所需的工具与资源。\n\n## 为什么选择 AI-in-a-Box？\n\n* 加速部署：通过我们经过验证、开箱即用的模式，加快您的解决方案落地。\n* 成本节约：通过复用现有代码和模式，最大化预算效益。\n* 更高品质与可靠性：信赖我们经过真实场景验证的解决方案。\n* 竞争优势：通过加速解决方案部署，领先于竞争对手。\n\n\u003Cp align=\"center\">\n  \n  ![FTA AI-in-a-Box: 部署加速器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAzure_AI-in-a-Box_readme_32635c29d733.png)\n\n\u003C\u002Fp>\n\n## 可用指南\n\n|主题|描述|\n|---|---|\n|[负责任的人工智能](.\u002Fguidance\u002Fresponsible-ai\u002F) | 提供关于负责任地使用 AI 和 LLM 技术的重要指导。 |\n|[生成式 AI 应用程序的安全性](.\u002Fguidance\u002Fgenai-security\u002F)| 本文档为生成式 AI (GenAI) 应用程序提供了具体的安全指导。 |\n|[扩展 OpenAI 应用程序](.\u002Fguidance\u002Fscaling\u002F)| 本文档包含在 Azure 中扩展 OpenAI 应用程序的最佳实践。 |\n\n## 可用的“-in-a-Box”加速器\n\n|模式|描述|支持的用例与功能|\n|---|---|---|\n|[Azure ML 运营化 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fml-ops-in-a-box)|从模型开发到部署和监控的样板数据科学项目|\u003Cli>端到端 MLOps 项目模板 \u003Cli>外层循环（基础设施搭建） \u003Cbr \u002F>\u003Cli>内层循环（模型创建和部署生命周期）|\n|[边缘 AI in-a-box](.\u002Fedge-ai\u002F)|从模型创建到在边缘设备上部署的边缘 AI |\u003Cli>创建模型并部署到边缘设备。\u003Cli>外层循环：基础设施搭建（IoT 中心、IoT Edge、边缘虚拟机、容器注册表、Azure ML） \u003Cbr \u002F>\u003Cli>内层循环（模型创建和部署）|\n|[AML 边缘 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Faml-edge-in-a-box)|从模型创建到在边缘设备上部署的边缘 AI |利用 Azure ML、IoT Edge 和 IoT 中心编排整个边缘 AI 模型生命周期——从创建到部署——同时借助 Azure ML CLI V2 实现简化管理。|\n|[Custom Vision 边缘 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fcustomvision-edge-in-a-box)|从模型创建到在边缘设备上部署的边缘 AI |边缘 AI 通过将分析移至数据源附近来降低云端延迟，从而实现更快的响应。该加速器演示如何使用 [Custom Vision](https:\u002F\u002Fwww.customvision.ai\u002F) 训练模型，并将其导出为 ONNX 或 Dockerfile 格式以便在边缘部署。|\n|[文档智能 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fdoc-intelligence-in-a-box) | 此加速器使企业能够自动化 PDF 表单处理，实现运营现代化，节省时间并降低成本，助力数字化转型之旅。|\u003Cli>接收 PDF 表单\u003Cbr \u002F>\u003Cli>用于编排的函数应用和逻辑应用\u003Cbr \u002F>\u003Cli>文档智能模型用于表单处理和内容提取 \u003Cbr \u002F>\u003Cli> 将 PDF 数据保存到 Azure Cosmos DB |\n|[图像与视频分析 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgpt-video-analysis-in-a-box) | 使用 Azure AI Vision 从图像和视频中提取信息，并将结果连同提示和系统消息一起发送给具有视觉功能的 Azure GPT-4 Turbo。 |\u003Cli>通过 Azure 数据工厂进行编排\u003Cbr \u002F>\u003Cli>低代码解决方案，可通过 ADF 参数轻松扩展以适应您自己的用例\u003Cbr \u002F>\u003Cli>可将同一解决方案和已部署资源用于多种不同场景\u003Cbr \u002F>\u003Cli>将 GPT4-V 的结果保存到 Azure CosmosDB|\n|[认知服务着陆区 in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fai-landing-zone-in-a-box)|最小化的企业级网络和 AI 服务设置，可在安全环境中支持大多数认知服务场景|\u003Cli>中心辐射型 Vnet 架构及对等互连 \u003Cbr \u002F>\u003Cli>认知服务部署 \u003Cbr \u002F>\u003Cli>专用终结点设置 \u003Cbr \u002F>\u003Cli>与 PaaS DNS 解析器集成的专用 DNS|\n|[语义核 bot in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgen-ai-bot-in-a-box)|面向高级 Azure OpenAI Bot 的可扩展解决方案加速器|\u003Cli>将 Azure OpenAI bot 部署到多个渠道（Web、Teams、Slack 等） \u003Cbr \u002F>\u003Cli>内置检索增强生成 (RAG) 支持 \u003Cbr \u002F>\u003Cli>实施自定义 AI 插件|\n|[NLP 转 SQL in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fnlp-sql-in-a-box)|借助 Azure OpenAI、语义核和 Azure 语音服务，释放尖端语音驱动的 SQL 查询系统的强大功能。只需用自然语言说出您的数据请求，剩下的就交给它吧。|\u003Cli>允许用户以口头方式表达自然语言查询 \u003Cbr \u002F> \u003Cli>使用 Azure 语音和 AOAI 将其转换为 SQL 语句\u003Cbr \u002F>\u003Cli> 在 Azure SQL 数据库上执行 |\n|[助手 API 笔记本](.\u002Fgen-ai\u002FAssistants\u002Fnotebooks)|借助助手 API 的简洁性，开发者可以无缝地将助手与各种功能集成，从执行代码到检索数据，从而为用户提供灵活且动态的数字助手，满足他们的个性化需求。| \u003Cli>提供三大核心能力：代码解释器（技术任务）、检索（查找信息）和函数调用（执行任务） \u003Cbr \u002F>\u003Cli>这些能力结合在一起，形成一个多功能超级助手，可处理各种任务 |\n|[助手 API bot in-a-box](https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgen-ai-bot-in-a-box)|此示例提供了逐步指南，说明如何部署一个基于 Azure OpenAI 助手 API 的虚拟助手。内容涵盖基础设施部署、在 AI Studio 和 Azure 门户上的配置，以及端到端测试示例。| \u003Cli>部署必要的基础设施以支持 Azure OpenAI 助手 \u003Cbr \u002F>\u003Cli>配置为具备所需工具的助手。\u003Cli>将 Bot Framework 应用程序连接到您的助手，以便将聊天部署到多个渠道 |\n\n## 主要联系人及贡献者\n\n如果您有任何问题或希望参与贡献，请联系：`aibox@microsoft.com`\n\n| 联系人 | GitHub ID | 邮箱 |\n|--------------|------|-----------|\n| Alex Morales | @msalemor | `alemor@microsoft.com` |\n| Andre Dewes  | @andredewes | `andredewes@microsoft.com` |\n| Andrés Padilla | @AndresPad | `andres.padilla@microsoft.com` |\n| Chris Ayers | @codebytes | `chrisayers@microsoft.com` |\n| Eduardo Noriega | @EduardoN | `ednorieg@microsoft.com` |\n| Franklin Guimaraes | @franklinlindemberg | `fguimaraes@microsoft.com` |\n| Jean Hayes | @jehayesms | `jean.hayes@microsoft.com` |\n| Marco Aurélio Bigélli Cardoso  | @MarcoABCardoso | `macardoso@microsoft.com` |\n| Maria Vrabie  | @MariaVrabie | `mavrabie@microsoft.com` |\n| Neeraj Jhaveri | @neerajjhaveri | `neeraj.jhaveri@microsoft.com` |\n| Thiago Rotta | @rottathiago | `thiago.rotta@microsoft.com` |\n| Victor Santana | @Welasco | `vsantana@microsoft.com` |\n| Sabyasachi Samaddar | @ssamadda | `ssamadda@microsoft.com` |","# AI-in-a-Box 快速上手指南\n\n**AI-in-a-Box** 是由微软全球客户工程师和架构师共同打造的解决方案加速器集合。它旨在帮助开发者以最小的摩擦快速建立高质量的 AI\u002FML 环境和解决方案，涵盖从负责任 AI 指南到具体的边缘计算、文档智能及生成式 AI 应用模板。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Windows 10\u002F11, macOS, 或 Linux (Ubuntu 20.04+)\n*   **核心依赖**:\n    *   [Git](https:\u002F\u002Fgit-scm.com\u002F)\n    *   [Python 3.8+](https:\u002F\u002Fwww.python.org\u002F)\n    *   [Azure CLI](https:\u002F\u002Flearn.microsoft.com\u002Fzh-cn\u002Fcli\u002Fazure\u002Finstall-azure-cli) (用于资源部署)\n    *   [Docker](https:\u002F\u002Fwww.docker.com\u002F) (部分边缘计算和容器化方案需要)\n*   **云环境**:\n    *   有效的 **Microsoft Azure 订阅账号**。\n    *   已安装并登录 Azure CLI:\n        ```bash\n        az login\n        az account set --subscription \"\u003C您的订阅 ID>\"\n        ```\n*   **网络建议**:\n    *   由于部分依赖包托管在 GitHub 和 PyPI，国内开发者建议使用镜像源加速：\n        *   **Git 克隆加速**: 可使用 `https:\u002F\u002Fghproxy.com\u002Fhttps:\u002F\u002Fgithub.com\u002F...` 前缀（如需）。\n        *   **Python pip 加速**: 配置国内源 (如阿里云或清华源)：\n            ```bash\n            pip config set global.index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n            ```\n\n## 安装步骤\n\nAI-in-a-Box 不是一个单一的单体软件，而是一系列独立的项目模板（Accelerators）。您需要根据具体需求选择对应的模块进行克隆和部署。\n\n### 1. 克隆仓库\n首先克隆主仓库或直接克隆您感兴趣的具体加速器项目。\n\n```bash\n# 克隆主仓库查看整体结构\ngit clone https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002FAI-in-a-Box.git\ncd AI-in-a-Box\n\n# 或者直接克隆特定加速器（以 Semantic Kernel Bot 为例）\ngit clone https:\u002F\u002Fgithub.com\u002FAzure-Samples\u002Fgen-ai-bot-in-a-box.git\ncd gen-ai-bot-in-a-box\n```\n\n### 2. 创建虚拟环境并安装依赖\n进入具体项目目录后，按照该项目 `README.md` 中的指示操作。通常步骤如下：\n\n```bash\n# 创建 Python 虚拟环境\npython -m venv .venv\n\n# 激活虚拟环境\n# Windows:\n.venv\\Scripts\\activate\n# macOS\u002FLinux:\nsource .venv\u002Fbin\u002Factivate\n\n# 安装项目依赖\npip install -r requirements.txt\n```\n\n### 3. 部署基础设施\n大多数加速器提供 Bicep 或 Terraform 脚本来自动部署 Azure 资源。使用 Azure CLI 进行部署：\n\n```bash\n# 示例：部署资源组和相关服务（具体参数请参考各子项目文档）\naz deployment sub create \\\n  --location \u003Cregion> \\\n  --template-file infra\u002Fmain.bicep \\\n  --parameters projectName=\u003Cyour-project-name>\n```\n\n## 基本使用\n\n以下以 **Semantic Kernel Bot in-a-box** (生成式 AI 机器人) 为例，展示最简使用流程。其他模块（如 Edge AI 或 Doc Intelligence）逻辑类似，均需先部署资源再运行代码。\n\n### 1. 配置环境变量\n在项目根目录下创建 `.env` 文件，填入部署后生成的密钥和端点信息：\n\n```bash\nAZURE_OPENAI_ENDPOINT=\u003Cyour-endpoint>\nAZURE_OPENAI_API_KEY=\u003Cyour-key>\nAZURE_OPENAI_DEPLOYMENT_NAME=\u003Cyour-deployment-name>\nCOSMOS_DB_CONNECTION_STRING=\u003Cyour-connection-string>\n```\n\n### 2. 运行机器人\n启动本地服务以测试机器人功能：\n\n```bash\n# 运行主程序（通常是 bot.py 或 app.py，视具体项目而定）\npython bot.py\n```\n\n### 3. 验证功能\n*   **本地测试**: 终端将显示机器人已启动，您可以直接输入自然语言问题进行对话。\n*   **多通道部署**: 该模板支持一键部署到 Web、Teams 或 Slack。配置好渠道凭证后，运行部署脚本即可将机器人发布到生产环境：\n    ```bash\n    # 示例：部署到 Teams 渠道\n    python deploy_to_teams.py\n    ```\n\n> **提示**: 每个具体的 \"-in-a-box\" 项目在其独立的 GitHub 仓库中都有详细的 `README.md`，包含针对该场景特有的配置项和高级用法，请在克隆后优先阅读对应子项目的文档。","某制造企业的工程团队急需将质检模型部署到生产线边缘设备上，以实现实时缺陷检测并降低云端延迟。\n\n### 没有 AI-in-a-Box 时\n- **环境搭建繁琐**：工程师需手动配置 IoT Hub、IoT Edge 及容器注册表等基础设施，耗时数周且易出错。\n- **开发流程割裂**：从模型训练到边缘端部署缺乏统一模板，内环（代码迭代）与外环（基建）脱节，协作效率低。\n- **部署风险高**：缺少经过验证的最佳实践，模型在边缘设备上的兼容性和稳定性难以保证，调试成本巨大。\n- **重复造轮子**：团队需从零编写基础设施即代码（IaC）脚本，无法复用成熟模式，导致预算浪费。\n\n### 使用 AI-in-a-Box 后\n- **一键式基建交付**：直接调用\"Edge AI in-a-box\"加速器，自动完成 IoT 生态链的全套基础设施编排，部署时间缩短至几天。\n- **全生命周期闭环**：提供标准化的端到端模板，无缝衔接模型创建、导出（如 ONNX 格式）及设备下发，内外环开发流畅协同。\n- **质量可靠可控**：基于微软全球专家验证的真实场景方案，确保模型在边缘侧运行的高可靠性与安全性，大幅减少现场调试。\n- **成本显著优化**：复用现有高质量代码模式，避免重复开发，让团队能专注于核心算法优化而非底层架构搭建。\n\nAI-in-a-Box 通过提供经实战验证的加速模板，帮助企业在边缘智能场景中实现从“漫长试错”到“快速落地”的根本性转变。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FAzure_AI-in-a-Box_5f2a7460.png","Azure","Microsoft Azure","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FAzure_6a5873eb.png","APIs, SDKs and open source projects from Microsoft Azure",null,"https:\u002F\u002Fdocs.microsoft.com\u002Fen-us\u002Fazure\u002F","https:\u002F\u002Fgithub.com\u002FAzure",[81,85],{"name":82,"color":83,"percentage":84},"Jupyter Notebook","#DA5B0B",88.8,{"name":86,"color":87,"percentage":88},"Python","#3572A5",11.2,597,197,"2026-04-09T10:39:13","MIT",4,"","未说明",{"notes":97,"python":95,"dependencies":98},"AI-in-a-Box 并非单一软件工具，而是一系列针对 Azure 云环境的解决方案加速器（Solution Accelerators）集合。其运行环境主要依赖于 Microsoft Azure 云服务（如 Azure ML、Azure OpenAI、IoT Edge、Azure SQL 等），而非本地硬件配置。具体的操作系统、GPU、内存及依赖库要求因所选用的具体子项目（如 Edge AI、Doc Intelligence 等）而异，需参考各子项目的独立仓库文档。",[],[15,14,35,13],[101,102,103,104,105,106,107,108,109,110,111,112,113,114,115],"ai","azd","azd-templates","azure","chat-bot","chatbot","chatgpt","document-intelligence","edge-ai","edge-computing","langchain","machine-learning","semantic-kernel","custom-vision","openai","2026-03-27T02:49:30.150509","2026-04-19T03:05:09.863663",[119,124,129,134,139,144],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},41583,"Assistant Bot 无法上传文件并报错\"Object reference not set to an instance of an object\"怎么办？","该问题已在更新的代码库中修复。请拉取最新的仓库代码进行更新。注意：虽然文件上传功能已恢复，但如果机器人生成的下载链接显示为空（即链接文本存在但 href 为空），这可能是已知限制或需要进一步配置的功能请求，目前机器人主要支持展示图表，生成可下载文件链接的功能仍在完善中。","https:\u002F\u002Fgithub.com\u002FAzure\u002FAI-in-a-Box\u002Fissues\u002F78",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},41584,"部署到 Azure 后，在\"Test in Web Chat\"测试时出现 HTTP 500 内部服务器错误如何解决？","这通常是由于合并错误导致在选择不使用可选服务时引发的问题，或者是缺少单点登录（SSO）的必要配置。解决方案包括：\n1. 确保使用的是修复了合并错误的最新代码版本。\n2. 如果启用了 SSO，必须正确设置以下环境变量：\n   - SSO_ENABLED = true\n   - SSO_CONFIG_NAME = {在 Azure Bot 资源中创建的 SSO 配置名称}\n   缺少 SSO_CONFIG_NAME 变量会导致启动失败。","https:\u002F\u002Fgithub.com\u002FAzure\u002FAI-in-a-Box\u002Fissues\u002F53",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},41585,"运行 API 示例时遇到\"BadRequestError: Invalid value for purpose\"错误是什么原因？","这是一个区域兼容性问题。OpenAI Assistants 功能并非在所有 Azure 区域都可用。请检查您部署的 Azure 区域是否支持 Assistants 预览版。您需要将应用部署或配置更改为支持该功能的区域（例如 eastus 等特定区域）。可以参考微软官方文档确认支持 Assistants 的区域列表。","https:\u002F\u002Fgithub.com\u002FAzure\u002FAI-in-a-Box\u002Fissues\u002F46",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},41586,"本地运行 Semantic Kernel Bot 时报错\"Invalid value for 'content': expected a string, got null\"怎么处理？","该错误表明发送给模型的消息内容中包含空值（null），而模型期望的是字符串。这通常发生在对话历史构建过程中，某一步骤生成的内容为空。请检查您的输入数据源或中间处理逻辑，确保传递给 API 的 messages 数组中每个对象的 content 字段都是有效的非空字符串。如果是使用示例代码，请尝试更新到最新版本以获取对此类边界情况的修复。","https:\u002F\u002Fgithub.com\u002FAzure\u002FAI-in-a-Box\u002Fissues\u002F34",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},41587,"如何决定是将仓库迁移到\"GitHub inside Microsoft\"还是选择退出？","根据微软的政策，非开源或不涉及外部协作的私有\u002F内部仓库必须迁移。如果您希望仓库保持公开（Open Source）或用于与外部客户、合作伙伴协作，应选择退出（opt-out）。操作方法是在 Issue 中评论命令：`@gimsvc optout --reason staging`（表示将作为开源发布）或 `@gimsvc optout --reason collaboration`（表示用于外部协作）。如果不回应，仓库可能会被自动归档。","https:\u002F\u002Fgithub.com\u002FAzure\u002FAI-in-a-Box\u002Fissues\u002F1",{"id":145,"question_zh":146,"answer_zh":147,"source_url":123},41588,"Assistant Bot 更新后能上传文件了，但请求下载链接时返回的链接是空的怎么办？","这是当前的一个已知行为。虽然机器人可以生成包含下载链接文本的回复（例如 `\u003Ca>Download the updated CSV file\u003C\u002Fa>`），但实际的链接地址（href）可能为空。维护者已将其视为功能请求，因为机器人目前能很好地展示图表，但生成持久化文件下载链接的功能尚未完全实现。建议关注后续更新或暂时通过其他方式获取生成的文件内容。",[]]