[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-GoogleCloudPlatform--vertex-ai-samples":3,"tool-GoogleCloudPlatform--vertex-ai-samples":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":23,"env_os":104,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":110,"github_topics":111,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":131,"updated_at":132,"faqs":133,"releases":162},2386,"GoogleCloudPlatform\u002Fvertex-ai-samples","vertex-ai-samples","Notebooks, code samples, sample apps, and other resources that demonstrate how to use, develop and manage machine learning and generative AI workflows using Google Cloud Vertex AI.","vertex-ai-samples 是 Google Cloud 官方提供的开源资源库，旨在帮助开发者快速上手并精通 Vertex AI 平台。它汇集了丰富的 Jupyter Notebook、代码示例、示例应用及技能模块，全面展示了如何在 Google Cloud 上构建、开发和管理机器学习与生成式 AI 工作流。\n\n对于希望利用云端能力进行 AI 创新的团队而言，从零开始配置环境和编写底层代码往往耗时且容易出错。vertex-ai-samples 通过提供即开即用的实战案例，有效解决了学习曲线陡峭和工程落地难的问题。用户可以直接在 Colab、Colab Enterprise 或 Vertex AI Workbench 中运行这些笔记，快速验证想法并部署模型。\n\n该资源库特别适合机器学习工程师、数据科学家以及云开发人员使用。无论你是刚接触 Vertex AI 的新手，还是经验丰富的从业者，都能从中找到有价值的参考。其独特亮点在于结构化的内容组织：不仅涵盖 AutoML 和自定义模型训练等官方核心服务，还设立了\"Model Garden\"专区，集成了 Gemini、Llama 3、C","vertex-ai-samples 是 Google Cloud 官方提供的开源资源库，旨在帮助开发者快速上手并精通 Vertex AI 平台。它汇集了丰富的 Jupyter Notebook、代码示例、示例应用及技能模块，全面展示了如何在 Google Cloud 上构建、开发和管理机器学习与生成式 AI 工作流。\n\n对于希望利用云端能力进行 AI 创新的团队而言，从零开始配置环境和编写底层代码往往耗时且容易出错。vertex-ai-samples 通过提供即开即用的实战案例，有效解决了学习曲线陡峭和工程落地难的问题。用户可以直接在 Colab、Colab Enterprise 或 Vertex AI Workbench 中运行这些笔记，快速验证想法并部署模型。\n\n该资源库特别适合机器学习工程师、数据科学家以及云开发人员使用。无论你是刚接触 Vertex AI 的新手，还是经验丰富的从业者，都能从中找到有价值的参考。其独特亮点在于结构化的内容组织：不仅涵盖 AutoML 和自定义模型训练等官方核心服务，还设立了\"Model Garden\"专区，集成了 Gemini、Llama 3、Claude 3 等主流大模型的调用与微调示例。此外，库中特有的\"Skills\"模块为构建 AI 智能体提供了标准化的路由与任务执行指南，极大地简化了复杂 AI 应用的开发流程。","# ![Google Cloud](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_vertex-ai-samples_readme_5c3c2984d00f.png) Google Cloud Vertex AI Samples\n\nThis repository contains notebooks, code samples, sample apps, skills, and other resources that demonstrate how to use, develop and manage machine learning and generative AI workflows using Google Cloud Vertex AI.\n\n## Overview\n\n[Vertex AI](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai) is a fully-managed, unified AI development platform for building and using generative AI. This repository is designed to help you get started with Vertex AI. Whether you're new to Vertex AI or an experienced ML practitioner, you'll find valuable resources here.\n\n⚠️ For more Vertex AI Generative AI notebook samples, please visit the Vertex AI [Generative AI](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fgenerative-ai) GitHub repository.\n\n## Explore, learn and contribute\n\nYou can explore, learn, and contribute to this repository to unleash the full potential of machine learning on Vertex AI! \n\n### Explore and learn\n\nExplore this repository, follow the links in the header section of each of the notebooks to -\n\n- Open and run the notebook in [Colab](https:\u002F\u002Fcolab.google\u002F)\n- Open and run the notebook in [Colab Enterprise](https:\u002F\u002Fcloud.google.com\u002Fcolab\u002Fdocs\u002Fintroduction)\n- Open and run the notebook in [Vertex AI Workbench](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fworkbench\u002Fintroduction)\n- View the notebook on Github\n  \n### Contribute\n\nSee the [Contributing Guide](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fblob\u002Fmaster\u002FCONTRIBUTING.md).\n\n## Get started\n\nTo get started using Vertex AI, you must have a Google Cloud project. \n\n- If you don't have a Google Cloud project, you can learn and build on GCP for free using [Free Trail](https:\u002F\u002Fcloud.google.com\u002Ffree).\n- Once you have a Google Cloud project, you can learn more about [setting up a project and a development environment](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fstart\u002Fcloud-environment).\n\n\n## Repository structure\n\n```text\n├── notebooks\n│   ├── official - Notebooks demonstrating use of each Vertex AI service\n│   │   ├── automl\n│   │   ├── custom\n│   │   ├── ...\n│   ├── community - Notebooks contributed by the community\n│   │   ├── model_garden\n│   │   ├── ...\n├── community-content - Sample code and tutorials contributed by the community\n├── docs - Deep-dive documentation and advanced setup guides\n└── skills - Suite of AI Agent \"Skills\" for Vertex AI\n    ├── README.md               # Developer guide for Vertex AI skills\n    ├── vertex-ai\u002F              # Primary router for Vertex AI tasks\n    │   └── SKILL.md            # Entry point that routes across capabilities\n    ├── genai-sdk\u002F              # Gemini API usage with Gen AI SDK\n    │   └── SKILL.md            # Guides for Python, JS\u002FTS, Go, Java, C#\n    ├── vertex-deploy\u002F          # Deploying models to Endpoints\n    │   └── SKILL.md            # Commands for open models & custom weights\n    ├── vertex-inference\u002F       # Inferencing with GenAI models\n    │   └── SKILL.md            # Code samples for Gemini and OpenMaaS\n    └── vertex-tuning\u002F          # Secondary router for model fine-tuning\n        ├── SKILL.md            # Router for tuning tasks\n        ├── gemini\u002F             # Fine-tuning first-party Gemini models\n        │   └── SKILL.md\n        └── open-model\u002F         # Fine-tuning third-party open models\n            └── SKILL.md\n```\n## Examples\n\n\u003C!-- markdownlint-disable MD033 -->\n\u003Ctable>\n\n  \u003Ctr>\n    \u003Cth style=\"text-align: center;\">Category\u003C\u002Fth>\n    \u003Cth style=\"text-align: center;\">Product\u003C\u002Fth>\n    \u003Cth style=\"text-align: center;\">Description\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Model\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fcommunity\u002Fmodel_garden\">\u003Ccode>Model Garden\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Curated collection of first-party, open-source, and third-party models available on Vertex AI including Gemini, Gemma, Llama 3, Claude 3 and many more.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Data\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Ffeature_store\">\u003Ccode>Feature Store\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Set up and manage online serving using Vertex AI Feature Store.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fdatasets\">\u003Ccode>datasets\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Use BigQuery and Data Labeling service with Vertex AI.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Model development\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fautoml\">\u003Ccode>automl\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Train and make predictions on AutoML models\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fcustom\">\u003Ccode>custom\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Create, deploy and serve custom  models on Vertex AI\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fray_on_vertex_ai\">\u003Ccode>ray_on_vertex_ai\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Use Colab Enterprise and Vertex AI SDK for Python to connect to the Ray Cluster.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Deploy and use\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fprediction\">\u003Ccode>prediction\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Build, train and deploy models using prebuilt containers for custom training and prediction.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fmodel_registry\">\u003Ccode>model_registry\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Use Model Registry to create and register a model.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fexplainable_ai\">\u003Ccode>Explainable AI\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Use Vertex Explainable AI's feature-based and example-based explanations to explain how or why a model produced a specific prediction.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fml_metadata\">\u003Ccode>ml_metadata\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Record the metadata and artifacts and query that metadata to help analyze, debug, and audit the performance of your ML system.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>Tools\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fpipelines\">\u003Ccode>Pipelines\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      Use `Vertex AI Pipelines` and `Google Cloud Pipeline Components` to build, tune, or deploy a custom model.\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003C!-- markdownlint-enable MD033 -->\n\n\n## Get help\n\nPlease use the [Issues page](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues) to provide feedback or submit a bug report.\n\n## Disclaimer\n\nThis is not an officially supported Google product. The code in this repository is for demonstrative purposes only.\n\n\n## References\n- [Vertex AI Jupyter Notebook tutorials](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Ftutorials\u002Fjupyter-notebooks)\n- Vertex AI [Generative AI](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fgenerative-ai) GitHub repository\n- [Vertex AI documentaton](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs)\n  \n","# ![Google Cloud](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_vertex-ai-samples_readme_5c3c2984d00f.png) Google Cloud Vertex AI 示例\n\n本仓库包含笔记本、代码示例、示例应用、技能以及其他资源，展示了如何使用 Google Cloud Vertex AI 构建、开发和管理机器学习及生成式 AI 工作流。\n\n## 概述\n\n[Vertex AI](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai) 是一个完全托管的统一 AI 开发平台，用于构建和使用生成式 AI。本仓库旨在帮助您快速入门 Vertex AI。无论您是初次接触 Vertex AI 还是有经验的机器学习从业者，都能在这里找到有价值的资源。\n\n⚠️ 如需更多 Vertex AI 生成式 AI 笔记本示例，请访问 Vertex AI 的 [Generative AI](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fgenerative-ai) GitHub 仓库。\n\n## 探索、学习与贡献\n\n您可以探索、学习并为本仓库贡献力量，以充分发挥 Vertex AI 上机器学习的潜力！\n\n### 探索与学习\n\n浏览本仓库，跟随每个笔记本头部链接前往：\n\n- 在 [Colab](https:\u002F\u002Fcolab.google\u002F) 中打开并运行笔记本\n- 在 [Colab Enterprise](https:\u002F\u002Fcloud.google.com\u002Fcolab\u002Fdocs\u002Fintroduction) 中打开并运行笔记本\n- 在 [Vertex AI Workbench](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fworkbench\u002Fintroduction) 中打开并运行笔记本\n- 在 Github 上查看笔记本\n\n### 贡献\n\n请参阅 [贡献指南](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fblob\u002Fmaster\u002FCONTRIBUTING.md)。\n\n## 开始使用\n\n要开始使用 Vertex AI，您需要拥有一个 Google Cloud 项目。\n\n- 如果您还没有 Google Cloud 项目，可以使用 [免费试用](https:\u002F\u002Fcloud.google.com\u002Ffree) 免费学习和构建 GCP 应用。\n- 拥有 Google Cloud 项目后，您可以进一步了解如何 [设置项目和开发环境](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fstart\u002Fcloud-environment)。\n\n## 仓库结构\n\n```text\n├── notebooks\n│   ├── official - 展示各 Vertex AI 服务使用的笔记本\n│   │   ├── automl\n│   │   ├── custom\n│   │   ├── ...\n│   ├── community - 社区贡献的笔记本\n│   │   ├── model_garden\n│   │   ├── ...\n├── community-content - 社区贡献的示例代码和教程\n├── docs - 深入文档和高级设置指南\n└── skills - Vertex AI 的 AI 代理“技能”套件\n    ├── README.md               # Vertex AI 技能开发者指南\n    ├── vertex-ai\u002F              # Vertex AI 任务的主要路由\n    │   └── SKILL.md            # 路由到不同功能的入口点\n    ├── genai-sdk\u002F              # 使用 Gen AI SDK 调用 Gemini API\n    │   └── SKILL.md            # 针对 Python、JS\u002FTS、Go、Java、C# 的指南\n    ├── vertex-deploy\u002F          # 将模型部署到 Endpoints\n    │   └── SKILL.md            # 用于公开模型和自定义权重的命令\n    ├── vertex-inference\u002F       # 使用 GenAI 模型进行推理\n    │   └── SKILL.md            # 包含 Gemini 和 OpenMaaS 的代码示例\n    └── vertex-tuning\u002F          # 模型微调的二级路由\n        ├── SKILL.md            # 微调任务的路由\n        ├── gemini\u002F             # 第一方 Gemini 模型的微调\n        │   └── SKILL.md\n        └── open-model\u002F         # 第三方开源模型的微调\n            └── SKILL.md\n```\n## 示例\n\n\u003C!-- markdownlint-disable MD033 -->\n\u003Ctable>\n\n  \u003Ctr>\n    \u003Cth style=\"text-align: center;\">类别\u003C\u002Fth>\n    \u003Cth style=\"text-align: center;\">产品\u003C\u002Fth>\n    \u003Cth style=\"text-align: center;\">描述\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>模型\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fcommunity\u002Fmodel_garden\">\u003Ccode>Model Garden\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      精选的第一方、开源及第三方模型集合，可在 Vertex AI 上使用，包括 Gemini、Gemma、Llama 3、Claude 3 等众多模型。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>数据\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Ffeature_store\">\u003Ccode>Feature Store\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      使用 Vertex AI Feature Store 设置和管理在线推理服务。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fdatasets\">\u003Ccode>datasets\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      结合 BigQuery 和 Data Labeling 服务使用 Vertex AI。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>模型开发\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fautoml\">\u003Ccode>automl\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      训练 AutoML 模型并进行预测。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fcustom\">\u003Ccode>custom\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      在 Vertex AI 上创建、部署和提供自定义模型服务。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fray_on_vertex_ai\">\u003Ccode>ray_on_vertex_ai\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      使用 Colab Enterprise 和 Vertex AI 的 Python SDK 连接到 Ray 集群。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>部署与使用\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fprediction\">\u003Ccode>prediction\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      使用预构建容器进行自定义训练和预测，从而构建、训练和部署模型。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fmodel_registry\">\u003Ccode>model_registry\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      使用 Model Registry 创建并注册模型。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fexplainable_ai\">\u003Ccode>Explainable AI\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      利用 Vertex Explainable AI 的基于特征和基于示例的解释功能，说明模型为何会产生特定预测。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fml_metadata\">\u003Ccode>ml_metadata\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      记录元数据和工件，并查询这些元数据，以帮助分析、调试和审计您的机器学习系统的性能。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd>工具\u003C\u002Ftd>\n    \u003Ctd>\n      \u003Ca href=\"notebooks\u002Fofficial\u002Fpipelines\">\u003Ccode>Pipelines\u002F\u003C\u002Fcode>\u003C\u002Fa>\n    \u003C\u002Ftd>\n    \u003Ctd>\n      使用 `Vertex AI Pipelines` 和 `Google Cloud Pipeline Components` 构建、调优或部署自定义模型。\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\u003C!-- markdownlint-enable MD033 -->\n\n\n## 获取帮助\n\n如需反馈或提交 bug 报告，请使用 [Issues 页面](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues)。\n\n## 免责声明\n\n本项目并非 Google 官方支持的产品。本仓库中的代码仅用于演示目的。\n\n\n## 参考资料\n- [Vertex AI Jupyter Notebook 教程](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Ftutorials\u002Fjupyter-notebooks)\n- Vertex AI 的 [Generative AI](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fgenerative-ai) GitHub 仓库\n- [Vertex AI 文档](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs)","# Google Cloud Vertex AI Samples 快速上手指南\n\n本指南帮助中国开发者快速了解并使用 `vertex-ai-samples` 仓库，通过示例代码和 Notebook 掌握 Google Cloud Vertex AI 的机器学习与生成式 AI 工作流。\n\n## 环境准备\n\n在开始之前，请确保满足以下前置条件：\n\n1.  **Google Cloud 账号与项目**\n    *   您需要拥有一个 Google Cloud 账号。如果没有，可以注册 [免费试用 (Free Trail)](https:\u002F\u002Fcloud.google.com\u002Ffree)。\n    *   创建一个新的 Google Cloud 项目。\n    *   参考官方文档：[设置项目和开发环境](https:\u002F\u002Fcloud.google.com\u002Fvertex-ai\u002Fdocs\u002Fstart\u002Fcloud-environment)。\n\n2.  **运行环境选择**\n    本仓库的示例主要以 Jupyter Notebook 形式提供，支持以下三种运行方式（推荐任选其一）：\n    *   **Google Colab**：无需配置本地环境，直接在浏览器运行（需网络能访问 Google 服务）。\n    *   **Colab Enterprise**：适用于企业级安全和管理需求。\n    *   **Vertex AI Workbench**：Google Cloud 托管的 JupyterLab 实例。\n    *   **本地环境**：需安装 Python、Jupyter 及 Google Cloud SDK（适合高级用户）。\n\n3.  **权限配置**\n    *   确保您的项目已启用 **Vertex AI API**。\n    *   若使用本地开发或 Workbench，需配置应用默认凭据：\n        ```bash\n        gcloud auth application-default login\n        ```\n\n## 安装步骤\n\n本仓库主要为代码示例集合，通常**无需**像传统软件包那样进行全局安装。您可以根据选择的运行环境执行以下操作：\n\n### 方案 A：使用云端 Notebook（推荐）\n直接点击仓库中任意 Notebook 文件顶部的按钮即可自动配置环境：\n*   点击 **\"Open in Colab\"** 在 Google Colab 中打开。\n*   点击 **\"Open in Vertex AI Workbench\"** 在云端工作台中打开。\n*   *注：首次运行时，Notebook 内部会自动安装所需的 `google-cloud-aiplatform` 等依赖库。*\n\n### 方案 B：本地克隆与依赖安装\n如果您希望在本地运行示例，请执行以下步骤：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples.git\n    cd vertex-ai-samples\n    ```\n\n2.  **安装 Python 依赖**\n    进入具体的示例目录（例如 `notebooks\u002Fofficial\u002Fautoml`），安装核心 SDK：\n    ```bash\n    pip install google-cloud-aiplatform\n    ```\n    *(可选) 如果示例包含 `requirements.txt`，请优先使用：*\n    ```bash\n    pip install -r requirements.txt\n    ```\n\n> **注意**：由于网络原因，国内开发者在安装 `google-cloud-aiplatform` 时可能会遇到下载缓慢的问题。建议配置 pip 使用国内镜像源（如清华源或阿里源）加速安装：\n> ```bash\n> pip install google-cloud-aiplatform -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n以下是一个最简单的示例，演示如何初始化 Vertex AI 并列出可用的模型（以自定义模型训练为例）。\n\n### 1. 初始化环境\n在 Notebook 或 Python 脚本中，首先导入库并初始化项目配置：\n\n```python\nfrom google.cloud import aiplatform\n\n# 替换为您的项目 ID 和区域\nPROJECT_ID = \"your-project-id\"\nLOCATION = \"us-central1\"  # 或 asia-northeast1 等可用区域\n\naiplatform.init(project=PROJECT_ID, location=LOCATION)\n```\n\n### 2. 运行示例任务\n以查看 Model Garden 中的模型或运行一个简单的 AutoML 流程为例，您可以直接运行仓库中对应的 Notebook 单元格。\n\n**示例：列出自定义训练作业（需先有作业记录）**\n```python\n# 列出最近的自定义训练作业\njobs = aiplatform.CustomJob.list()\nfor job in jobs:\n    print(f\"Job Name: {job.display_name}, State: {job.state}\")\n```\n\n### 3. 探索更多示例\n根据您的需求，浏览仓库中的不同目录：\n\n| 类别 | 目录路径 | 说明 |\n| :--- | :--- | :--- |\n| **生成式 AI 模型** | `notebooks\u002Fcommunity\u002Fmodel_garden` | 使用 Gemini, Llama 3, Claude 3 等模型的示例。 |\n| **AutoML** | `notebooks\u002Fofficial\u002Fautoml` | 无需编写模型代码，直接训练和预测。 |\n| **自定义模型** | `notebooks\u002Fofficial\u002Fcustom` | 使用自定义容器训练和部署模型。 |\n| **特征存储** | `notebooks\u002Fofficial\u002Ffeature_store` | 管理在线和离线特征数据。 |\n| **MLOps 流水线** | `notebooks\u002Fofficial\u002Fpipelines` | 构建端到端的 ML 流水线。 |\n\n**提示**：对于生成式 AI (Generative AI) 的更多高级示例，建议同时参考 [Vertex AI Generative AI 专用仓库](https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fgenerative-ai)。","某电商公司的数据科学团队急需构建一个基于大语言模型的智能客服系统，以自动处理用户关于订单状态和退货政策的咨询。\n\n### 没有 vertex-ai-samples 时\n- **环境配置耗时漫长**：开发人员需手动查阅分散的文档来配置 Google Cloud 项目权限、API 接口及依赖库，往往因遗漏步骤导致环境搭建失败。\n- **模型选型与接入困难**：面对 Gemini、Llama 3 等众多模型，缺乏标准化的调用代码，团队需从零编写复杂的推理逻辑，极易出现兼容性问题。\n- **微调流程门槛高**：想要针对公司特有的售后术语优化模型效果时，找不到现成的微调（Fine-tuning）脚本，只能自行摸索数据格式和训练参数。\n- **部署运维风险大**：将模型部署到生产环境时，缺乏经过验证的端点管理示例，导致服务延迟高且难以监控，上线周期被大幅拉长。\n\n### 使用 vertex-ai-samples 后\n- **一键启动开发环境**：直接复用仓库中适配 Colab 或 Vertex AI Workbench 的 Notebook，几分钟内即可跑通包含权限配置和环境初始化的完整流程。\n- **快速集成主流模型**：利用 `Model Garden` 中的现成代码样例，轻松调用 Gemini 或开源模型，无需关心底层 API 细节，立即实现智能问答功能。\n- **标准化模型微调**：参考 `vertex-tuning` 目录下的技能指南，直接使用针对 Gemini 或开放模型的标准微调脚本，高效定制专属客服知识库。\n- **稳健的生产级部署**：套用 `vertex-deploy` 提供的部署模板，快速将模型发布为高可用端点，并内置监控指标，显著降低运维复杂度。\n\nvertex-ai-samples 通过提供经官方验证的全流程代码资产，将原本数周的探索性开发工作压缩至数天，让团队能专注于业务逻辑而非基础设施搭建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FGoogleCloudPlatform_vertex-ai-samples_3041931c.png","GoogleCloudPlatform","Google Cloud Platform","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FGoogleCloudPlatform_85ccccae.png","",null,"https:\u002F\u002Fcloud.google.com","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform",[84,88,92,96],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",97,{"name":89,"color":90,"percentage":91},"Python","#3572A5",2.7,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.3,{"name":97,"color":98,"percentage":99},"Shell","#89e051",0.1,687,271,"2026-04-02T09:17:22","Apache-2.0","未说明",{"notes":106,"python":104,"dependencies":107},"该仓库主要包含演示如何使用 Google Cloud Vertex AI 的 Notebook 代码示例。运行环境主要依赖 Google Cloud 平台（需拥有 GCP 项目），推荐使用 Colab、Colab Enterprise 或 Vertex AI Workbench 直接运行，无需在本地配置复杂的硬件环境。具体计算资源（如 GPU、内存）取决于所选用的云端实例类型。",[108,109],"Google Cloud Vertex AI SDK","Jupyter Notebooks",[53,13,26,51],[112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,129,130],"samples","google-cloud-platform","vertex-ai","notebook","ml","genai","generative-ai","vertexai","model-garden","colab","pipeline","gemini","gemini-api","mlops","model","automl","predictions","colab-enterprise","workbench","2026-03-27T02:49:30.150509","2026-04-06T07:13:10.727732",[134,139,144,149,154,158],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},10979,"在 Vertex AI 微调 Llama2 模型时遇到 \"IndexError: Invalid key: 0 is out of bounds for size 0\" 错误，如何解决？","该错误通常是因为训练数据格式不符合要求导致所有样本被丢弃。请确保您的 JSONL 数据满足以下条件：\n1. 每个样本必须包含至少 2 轮 'Human' 和 'Assistant' 的对话内容。\n2. 每个样本的长度应至少为 512 个单词。\n如果样本不满足上述条件，它们会在预处理阶段被过滤掉，导致数据集为空从而引发索引越界错误。","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues\u002F2813",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},10980,"运行 Pipeline Job 时出现 \"Error when trying to get or create a GCS bucket\" 及 \"ValueError: URI pattern must be gs:\u002F\u002Fbucket\u002Fobject\" 错误怎么办？","这通常是由于 `google-cloud-aiplatform` SDK 版本不兼容导致的。建议将库升级到最新版本（例如 1.73.0 或更高）。\n您可以运行以下命令进行升级：\n`pip install --upgrade google-cloud-aiplatform`\n注意：此问题与免费层或付费层账户无关，即使是企业版账户在旧版本 SDK 下也会遇到此问题。","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues\u002F2581",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},10981,"在 Vertex AI Matching Engine 中使用过滤条件（restricts）查询时返回空结果，但去掉过滤后正常，原因是什么？","这通常是因为索引中的向量数据尚未正确更新以包含过滤标签，或者查询时的命名空间（namespace）与允许列表（allow_list）配置不匹配。\n解决方案：\n1. 确保在插入数据点（datapoints）时，正确设置了 `restricts` 字段，包括 `namespace` 和 `allow_list`。\n2. 如果使用流式更新（stream update），请确认更新操作已成功应用到索引中。\n3. 检查查询代码中 `restrict.name` 和 `restrict.allow_tokens` 的值是否与插入数据时的配置完全一致（区分大小写）。","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues\u002F1230",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},10982,"使用 Reduction Server 进行分布式训练时，服务账号提示没有权限访问 `us-docker.pkg.dev\u002Fvertex-ai-restricted\u002Ftraining\u002Freductionserver:latest` 镜像，即使该账号拥有 Owner 角色？","这是一个已知的权限配置问题，即便服务账号拥有 Project Owner 角色，也可能无法直接访问受限的 Reduction Server 镜像仓库。\n目前官方团队正在处理此问题。作为临时变通方案或排查步骤：\n1. 尝试手动拉取该镜像并推送到您自己有权限控制的 Artifact Registry 中，然后在训练任务中引用新镜像地址。\n2. 联系 Google Cloud 支持团队并提供详细的错误日志，以便产品团队进一步排查具体的 IAM 策略缺失。","https:\u002F\u002Fgithub.com\u002FGoogleCloudPlatform\u002Fvertex-ai-samples\u002Fissues\u002F2176",{"id":155,"question_zh":156,"answer_zh":157,"source_url":138},10983,"在 Vertex AI Pipeline 中微调模型时，如何正确设置训练数据的格式以避免静默失败？","为了避免因数据格式问题导致训练步骤终止或报错，请遵循以下数据规范：\n1. 数据格式应为 JSONL，每行一个 JSON 对象。\n2. 文本内容需包含明确的对话标记，例如 `### Human:` 和 `### Assistant:`。\n3. 关键约束：每个样本必须包含至少两轮完整的对话交互，且总词数建议超过 512 词。如果数据量过小或格式不完整，系统可能会在预处理阶段丢弃所有数据，进而引发后续的尺寸越界错误。",{"id":159,"question_zh":160,"answer_zh":161,"source_url":143},10984,"遇到 Vertex AI Pipeline 相关的 GCS 存储桶创建错误，是否可以通过调整服务账号角色来解决？","通常不需要。虽然添加 'Storage Admin'、'Vertex Admin' 等角色是常规操作，但在遇到 \"URI pattern must be gs:\u002F\u002Fbucket\u002Fobject\" 这类特定错误时，根本原因往往是客户端库（SDK）的版本过旧导致的解析逻辑错误，而非权限不足。\n用户反馈显示，即使添加了所有相关角色，问题依然存在；而升级 `google-cloud-aiplatform` 包后问题即刻解决。因此，优先尝试升级 SDK 而非调整权限。",[]]