[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-aws-samples--amazon-bedrock-workshop":3,"tool-aws-samples--amazon-bedrock-workshop":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":32,"env_os":95,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":104,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":138},5853,"aws-samples\u002Famazon-bedrock-workshop","amazon-bedrock-workshop","This is a workshop designed for Amazon Bedrock a foundational model service.  ","amazon-bedrock-workshop 是一套专为开发者和技术构建者设计的实战教程，旨在帮助用户快速掌握如何利用 Amazon Bedrock 服务调用各类基础模型（Foundation Models）。它主要解决了企业在落地生成式 AI 时面临的“如何起步”难题，通过结构化的实验指导，让用户能够亲手实现文本生成、智能问答、图像创作以及自动化代理等常见应用场景，从而提升业务生产力。\n\n这套工作坊非常适合希望深入理解大模型应用开发的程序员、解决方案架构师以及技术爱好者。其核心亮点在于提供了从入门到进阶的完整路径：不仅涵盖基础的文本与代码生成，还深入讲解了检索增强生成（RAG）、模型微调（如 Llama2、Titan）以及多模态处理等关键技术。此外，它还展示了如何将 Bedrock 与 LangChain、FAISS 等主流开源生态无缝集成，并提供了客服代理、保险理赔等真实场景的 Agents 构建示例。通过一系列基于 Python Notebook 的互动实验，用户可以在约 3 小时内系统性地积累从零构建 AI 应用的宝贵经验。","# Amazon Bedrock Workshop [![contributions welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg?style=flat)](https:\u002F\u002Fgithub.com\u002Fdwyl\u002Festa\u002Fissues)\n\nThis hands-on workshop, aimed at developers and solution builders, introduces how to leverage foundation models (FMs) through [Amazon Bedrock](https:\u002F\u002Faws.amazon.com\u002Fbedrock\u002F). This code goes alongside the self-paced or instructor lead workshop here - https:\u002F\u002Fcatalog.us-east-1.prod.workshops.aws\u002Famazon-bedrock\u002Fen-US\n\n**Please follow the prerequisites listed in the link above or ask your AWS workshop instructor how to get started.**\n\nAmazon Bedrock is a fully managed service that provides access to FMs from third-party providers and Amazon; available via an API. With Bedrock, you can choose from a variety of models to find the one that’s best suited for your use case.\n\nWithin this series of labs, you'll explore some of the most common usage patterns we are seeing with our customers for Generative AI. We will show techniques for generating text and images, creating value for organizations by improving productivity. This is achieved by leveraging foundation models to help in composing emails, summarizing text, answering questions, building chatbots, and creating images. While the focus of this workshop is for you to gain hands-on experience implementing these patterns via Bedrock APIs and SDKs, you will also have the option of exploring integrations with open-source packages like [LangChain](https:\u002F\u002Fpython.langchain.com\u002Fdocs\u002Fget_started\u002Fintroduction) and [FAISS](https:\u002F\u002Ffaiss.ai\u002Findex.html).\n\nLabs include:\n\n- **01 - Text Generation** \\[Estimated time to complete - 25 mins\\] [![Test - pass](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Text, code generation with Bedrock\n- **02 - Knowledge bases and RAG** \\[Estimated time to complete - 35 mins\\] [![Test - pass](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Managed RAG retrieve and generate example\n    - Langchain RAG retrieve and generate example\n- **03 - Model customization** \\[Estimated time to complete - 30 mins\\] [![Test - pass](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Fine tuning Titan lite, Llama2\n    - **Note** - _You must run this on your own AWS account, and this will not work on AWS Workshop Studio!_\n- **04 - Image and Multimodal** \\[Estimated time to complete - 30 mins\\] [![Test - pass](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Bedrock Titan image generator\n    - Bedrock Stable Diffusion XL\n    - Bedrock Titan Multimodal embeddings\n    - Nova Reel and Canvas notebooks\n- **05 - Agents** \\[Estimated time to complete - 30 mins\\] [![Test - pass](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Customer service agent\n    - Insurance claims agent\n- **06 - Open source examples (optional)** \\[Estimated time to complete - 30 mins\\] [![Test - fail](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-fail-red)](https:\u002F\u002F)\n    - Langchain Text Generation examples\n    - Langchain KB RAG examples\n    - Langchain Chatbot examples\n    - NVIDIA NeMo Guardrails examples\n    - NodeJS Bedrock examples\n\n\u003Cdiv align=\"center\">\n\n![imgs\u002F11-overview](imgs\u002F11-overview.png \"Overview of the different labs in the workshop\")\n\n\u003C\u002Fdiv>\n\nYou can also refer to these [Step-by-step guided instructions on the workshop website](https:\u002F\u002Fcatalog.us-east-1.prod.workshops.aws\u002Fworkshops\u002Fa4bdb007-5600-4368-81c5-ff5b4154f518\u002Fen-US).\n\n\n## Getting started\n\n### Choose a notebook environment\n\nThis workshop is presented as a series of **Python notebooks**, which you can run from the environment of your choice:\n\n- For a fully-managed environment with rich AI\u002FML features, we'd recommend using [SageMaker Studio](https:\u002F\u002Faws.amazon.com\u002Fsagemaker\u002Fstudio\u002F). To get started quickly, you can refer to the [instructions for domain quick setup](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fonboard-quick-start.html).\n- For a fully-managed but more basic experience, you could instead [create a SageMaker Notebook Instance](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fhowitworks-create-ws.html).\n- If you prefer to use your existing (local or other) notebook environment, make sure it has [credentials for calling AWS](https:\u002F\u002Fdocs.aws.amazon.com\u002Fcli\u002Flatest\u002Fuserguide\u002Fcli-chap-configure.html).\n\n\n### Enable AWS IAM permissions for Bedrock\n\nThe AWS identity you assume from your notebook environment (which is the [*Studio\u002Fnotebook Execution Role*](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fsagemaker-roles.html) from SageMaker, or could be a role or IAM User for self-managed notebooks), must have sufficient [AWS IAM permissions](https:\u002F\u002Fdocs.aws.amazon.com\u002FIAM\u002Flatest\u002FUserGuide\u002Faccess_policies.html) to call the Amazon Bedrock service.\n\nTo grant Bedrock access to your identity, you can:\n\n- Open the [AWS IAM Console](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiam\u002Fhome?#)\n- Find your [Role](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiamv2\u002Fhome?#\u002Froles) (if using SageMaker or otherwise assuming an IAM Role), or else [User](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiamv2\u002Fhome?#\u002Fusers)\n- Select *Add Permissions > Create Inline Policy* to attach new inline permissions, open the *JSON* editor and paste in the below example policy:\n\n```\n{\n    \"Version\": \"2012-10-17\",\n    \"Statement\": [\n        {\n            \"Sid\": \"BedrockFullAccess\",\n            \"Effect\": \"Allow\",\n            \"Action\": [\"bedrock:*\"],\n            \"Resource\": \"*\"\n        }\n    ]\n}\n```\n\n> ⚠️ **Note:** With Amazon SageMaker, your notebook execution role will typically be *separate* from the user or role that you log in to the AWS Console with. If you'd like to explore the AWS Console for Amazon Bedrock, you'll need to grant permissions to your Console user\u002Frole too. You can run the notebooks anywhere as long as you have access to the AWS Bedrock service and have appropriate credentials\n\nFor more information on the fine-grained action and resource permissions in Bedrock, check out the Bedrock Developer Guide.\n\n\n### Clone and use the notebooks\n\n> ℹ️ **Note:** In SageMaker Studio, you can open a \"System Terminal\" to run these commands by clicking *File > New > Terminal*\n\nOnce your notebook environment is set up, clone this workshop repository into it.\n\n```sh\nsudo yum install -y unzip\ngit clone https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop.git\ncd amazon-bedrock-workshop\n```\n\n[![HitCount](https:\u002F\u002Fhits.dwyl.com\u002Faws-samples\u002Famazon-bedrock-workshop.svg?style=flat-square&show=unique)](http:\u002F\u002Fhits.dwyl.com\u002Faws-samples\u002Famazon-bedrock-workshop)\n\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws-samples_amazon-bedrock-workshop_readme_4710fa9f7aad.png)](https:\u002F\u002Fstar-history.com\u002F#aws-samples\u002Famazon-bedrock-workshop&Date)\n\n# 👥 Contributors\n\nThanks to our awesome contributors! 🚀🚀🚀\n\n[![contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws-samples_amazon-bedrock-workshop_readme_bfa0e66e4355.png)](https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fgraphs\u002Fcontributors)\n","# Amazon Bedrock 研讨会 [![欢迎贡献](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg?style=flat)](https:\u002F\u002Fgithub.com\u002Fdwyl\u002Festa\u002Fissues)\n\n本实践性研讨会面向开发者和解决方案构建者，介绍如何通过 [Amazon Bedrock](https:\u002F\u002Faws.amazon.com\u002Fbedrock\u002F) 利用基础模型（FMs）。此代码与此处的自定进度或讲师指导型研讨会配套使用——https:\u002F\u002Fcatalog.us-east-1.prod.workshops.aws\u002Famazon-bedrock\u002Fen-US\n\n**请遵循上述链接中列出的先决条件，或向您的 AWS 研讨会讲师咨询如何开始。**\n\nAmazon Bedrock 是一项完全托管的服务，可通过 API 访问第三方提供商和亚马逊的基础模型。借助 Bedrock，您可以从多种模型中选择最适合您用例的那一款。\n\n在本系列实验中，您将探索我们在客户处看到的一些最常见的生成式 AI 使用模式。我们将展示用于生成文本和图像的技术，通过提高生产力为组织创造价值。这是通过利用基础模型来帮助撰写电子邮件、总结文本、回答问题、构建聊天机器人以及创建图像来实现的。虽然本研讨会的重点是让您通过 Bedrock 的 API 和 SDK 获得这些模式的实践经验，但您也可以选择探索与开源工具包（如 [LangChain](https:\u002F\u002Fpython.langchain.com\u002Fdocs\u002Fget_started\u002Fintroduction) 和 [FAISS](https:\u002F\u002Ffaiss.ai\u002Findex.html)）的集成。\n\n实验包括：\n\n- **01 - 文本生成** \\[预计完成时间：25 分钟\\] [![测试通过](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - 使用 Bedrock 进行文本和代码生成\n- **02 - 知识库与 RAG** \\[预计完成时间：35 分钟\\] [![测试通过](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - 托管式 RAG 检索与生成示例\n    - Langchain RAG 检索与生成示例\n- **03 - 模型定制** \\[预计完成时间：30 分钟\\] [![测试通过](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - 微调 Titan lite 和 Llama2\n    - **注意** - _您必须在自己的 AWS 账户上运行此实验，且无法在 AWS Workshop Studio 上执行！_\n- **04 - 图像与多模态** \\[预计完成时间：30 分钟\\] [![测试通过](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - Bedrock Titan 图像生成器\n    - Bedrock Stable Diffusion XL\n    - Bedrock Titan 多模态嵌入\n    - Nova Reel 和 Canvas 笔记本\n- **05 - 代理** \\[预计完成时间：30 分钟\\] [![测试通过](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-pass-2ea44f)](https:\u002F\u002F)\n    - 客服代理\n    - 保险理赔代理\n- **06 - 开源示例（可选）** \\[预计完成时间：30 分钟\\] [![测试失败](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTest-fail-red)](https:\u002F\u002F)\n    - Langchain 文本生成示例\n    - Langchain 知识库 RAG 示例\n    - Langchain 聊天机器人示例\n    - NVIDIA NeMo Guardrails 示例\n    - NodeJS Bedrock 示例\n\n\u003Cdiv align=\"center\">\n\n![imgs\u002F11-overview](imgs\u002F11-overview.png \"研讨会中不同实验的概览\")\n\n\u003C\u002Fdiv>\n\n您还可以参考研讨会上网站上的[分步指南](https:\u002F\u002Fcatalog.us-east-1.prod.workshops.aws\u002Fworkshops\u002Fa4bdb007-5600-4368-81c5-ff5b4154f518\u002Fen-US)。\n\n## 开始使用\n\n### 选择笔记本环境\n\n本研讨会以一系列 **Python 笔记本** 的形式呈现，您可以在自己选择的环境中运行：\n\n- 如果需要一个功能丰富的全托管 AI\u002FML 环境，我们建议使用 [SageMaker Studio](https:\u002F\u002Faws.amazon.com\u002Fsagemaker\u002Fstudio\u002F)。要快速入门，您可以参考 [域快速设置说明](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fonboard-quick-start.html)。\n- 如果您希望获得更基础但同样全托管的体验，可以改用 [SageMaker Notebook Instance](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fhowitworks-create-ws.html)。\n- 如果您更倾向于使用现有的（本地或其他）笔记本环境，请确保其具备 [调用 AWS 的凭证](https:\u002F\u002Fdocs.aws.amazon.com\u002Fcli\u002Flatest\u002Fuserguide\u002Fcli-chap-configure.html)。\n\n### 为 Bedrock 启用 AWS IAM 权限\n\n您从笔记本环境中承担的 AWS 身份（即来自 SageMaker 的 [*Studio\u002F笔记本执行角色*](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fsagemaker-roles.html)，或者可能是用于自管理笔记本的角色或 IAM 用户），必须拥有足够的 [AWS IAM 权限](https:\u002F\u002Fdocs.aws.amazon.com\u002FIAM\u002Flatest\u002FUserGuide\u002Faccess_policies.html) 来调用 Amazon Bedrock 服务。\n\n要授予您的身份对 Bedrock 的访问权限，您可以：\n\n- 打开 [AWS IAM 控制台](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiam\u002Fhome?#)\n- 查找您的 [角色](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiamv2\u002Fhome?#\u002Froles)（如果您使用 SageMaker 或以其他方式承担 IAM 角色），或者 [用户](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiamv2\u002Fhome?#\u002Fusers)\n- 选择 *添加权限 > 创建内联策略* 以附加新的内联权限，打开 *JSON* 编辑器并粘贴以下示例策略：\n\n```\n{\n    \"Version\": \"2012-10-17\",\n    \"Statement\": [\n        {\n            \"Sid\": \"BedrockFullAccess\",\n            \"Effect\": \"允许\",\n            \"Action\": [\"bedrock:*\"],\n            \"Resource\": \"*\"\n        }\n    ]\n}\n```\n\n> ⚠️ **注意：** 在 Amazon SageMaker 中，您的笔记本执行角色通常与您登录 AWS 控制台时使用的用户或角色 *分开*。如果您想浏览 Amazon Bedrock 的 AWS 控制台，还需要为您控制台的用户\u002F角色授予权限。只要您有权访问 AWS Bedrock 服务并拥有适当的凭证，就可以在任何地方运行这些笔记本。\n\n有关 Bedrock 中细粒度操作和资源权限的更多信息，请参阅 Bedrock 开发者指南。\n\n### 克隆并使用笔记本\n\n> ℹ️ **注意：** 在 SageMaker Studio 中，您可以通过单击 *文件 > 新建 > 终端* 打开“系统终端”来运行这些命令。\n\n一旦您的笔记本环境设置完毕，就将本研讨会的仓库克隆到其中。\n\n```sh\nsudo yum install -y unzip\ngit clone https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop.git\ncd amazon-bedrock-workshop\n```\n\n[![访问量](https:\u002F\u002Fhits.dwyl.com\u002Faws-samples\u002Famazon-bedrock-workshop.svg?style=flat-square&show=unique)](http:\u002F\u002Fhits.dwyl.com\u002Faws-samples\u002Famazon-bedrock-workshop)\n\n\n## 星级历史\n\n[![星级历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws-samples_amazon-bedrock-workshop_readme_4710fa9f7aad.png)](https:\u002F\u002Fstar-history.com\u002F#aws-samples\u002Famazon-bedrock-workshop&Date)\n\n# 👥 贡献者\n\n感谢我们出色的贡献者！🚀🚀🚀\n\n[![贡献者](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws-samples_amazon-bedrock-workshop_readme_bfa0e66e4355.png)](https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fgraphs\u002Fcontributors)","# Amazon Bedrock Workshop 快速上手指南\n\n本指南旨在帮助开发者快速搭建环境并开始使用 Amazon Bedrock 进行生成式 AI 实验。本工作坊包含一系列 Python Notebook，涵盖文本生成、RAG、模型微调、多模态及 Agent 等核心场景。\n\n## 环境准备\n\n### 1. 系统与环境要求\n本工作坊基于 **Python Notebooks** 运行，推荐以下任一环境：\n*   **首选**：[Amazon SageMaker Studio](https:\u002F\u002Faws.amazon.com\u002Fsagemaker\u002Fstudio\u002F)（全托管环境，内置 AI\u002FML 工具链）。\n    *   参考：[SageMaker Domain 快速设置指南](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fonboard-quick-start.html)\n*   **备选**：Amazon SageMaker Notebook Instance。\n*   **本地环境**：若使用本地 Jupyter 或其他 Notebook 环境，需确保已配置 AWS CLI 凭证。\n\n### 2. 前置依赖与权限\n在运行 Notebook 前，必须确保执行角色拥有调用 Amazon Bedrock 服务的权限。\n\n**配置 IAM 权限：**\n1. 登录 [AWS IAM 控制台](https:\u002F\u002Fus-east-1.console.aws.amazon.com\u002Fiam\u002Fhome)。\n2. 找到您的 **Role**（SageMaker 执行角色）或 **User**。\n3. 选择 **Add Permissions** > **Create Inline Policy**。\n4. 切换到 **JSON** 编辑器，粘贴以下策略并保存：\n\n```json\n{\n    \"Version\": \"2012-10-17\",\n    \"Statement\": [\n        {\n            \"Sid\": \"BedrockFullAccess\",\n            \"Effect\": \"Allow\",\n            \"Action\": [\"bedrock:*\"],\n            \"Resource\": \"*\"\n        }\n    ]\n}\n```\n\n> **注意**：如果您需要在 AWS 控制台网页端查看 Bedrock 服务，请确保您的登录用户\u002F角色也拥有上述权限。Notebook 的执行角色通常与控制台登录角色不同。\n\n## 安装步骤\n\n在准备好的 Notebook 环境中（如 SageMaker Studio 的 Terminal），执行以下命令克隆仓库并安装基础依赖：\n\n```sh\nsudo yum install -y unzip\ngit clone https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop.git\ncd amazon-bedrock-workshop\n```\n\n> **提示**：在 SageMaker Studio 中，可通过菜单栏 **File > New > Terminal** 打开系统终端执行上述命令。\n\n## 基本使用\n\n克隆完成后，您可以在 `amazon-bedrock-workshop` 目录中找到各个实验的 Notebook 文件。\n\n### 启动第一个实验：文本生成\n1. 进入项目目录。\n2. 打开 **`01-text-generation.ipynb`**（或对应版本的 Notebook 文件）。\n3. 按顺序运行单元格。\n\n**最简单的使用示例代码逻辑（源自 Lab 01）：**\n以下代码展示了如何通过 Bedrock SDK 调用基础模型进行文本生成。请确保在 Notebook 中已正确初始化 `boto3` 客户端。\n\n```python\nimport boto3\nimport json\n\n# 初始化 Bedrock Runtime 客户端\nbedrock_runtime = boto3.client(service_name='bedrock-runtime')\n\n# 定义请求体 (以 Anthropic Claude 为例)\nbody = json.dumps({\n    \"anthropic_version\": \"bedrock-2023-05-31\",\n    \"max_tokens\": 200,\n    \"messages\": [\n        {\n            \"role\": \"user\",\n            \"content\": \"用一句话介绍 Amazon Bedrock。\"\n        }\n    ]\n})\n\n# 调用模型\nresponse = bedrock_runtime.invoke_model(\n    modelId='anthropic.claude-3-haiku-20240307-v1:0', # 根据实际可用模型调整\n    body=body\n)\n\n# 解析响应\nresponse_body = json.loads(response.get('body').read())\nprint(response_body['content'][0]['text'])\n```\n\n### 后续实验路径\n完成基础文本生成后，您可以依次探索以下核心模块：\n*   **02 - Knowledge bases and RAG**: 学习检索增强生成（RAG），包含托管版和 LangChain 集成版。\n*   **03 - Model customization**: 对 Titan Lite 或 Llama2 进行微调（**注意**：此实验需在您自己的 AWS 账户运行，AWS Workshop Studio 临时环境不支持）。\n*   **04 - Image and Multimodal**: 体验图像生成（Titan, SDXL）及多模态嵌入。\n*   **05 - Agents**: 构建客户服务或保险理赔智能体。\n\n详细步骤说明可参考官方工作坊网站：[Step-by-step guided instructions](https:\u002F\u002Fcatalog.us-east-1.prod.workshops.aws\u002Fworkshops\u002Fa4bdb007-5600-4368-81c5-ff5b4154f518\u002Fen-US)。","某电商企业的开发团队正急需构建一个能理解内部商品知识库并自动处理售后索赔的智能客服系统。\n\n### 没有 amazon-bedrock-workshop 时\n- 团队在面对多种基础模型（如 Titan、Llama2）时难以抉择，缺乏针对特定业务场景的选型指导，导致前期调研耗时数周。\n- 构建检索增强生成（RAG）系统时需从零摸索向量数据库与模型的集成代码，频繁遭遇数据检索不准或回答幻觉问题。\n- 尝试微调模型以适应保险理赔等专业术语时，因缺乏标准的细调（Fine-tuning）实验流程，导致资源浪费且模型效果不佳。\n- 开发多模态功能（如识别用户上传的商品损坏图片）时，缺乏现成的图像生成与嵌入示例，技术验证周期被大幅拉长。\n\n### 使用 amazon-bedrock-workshop 后\n- 通过 Lab 01 和 Lab 03 的实战指引，团队快速完成了文本生成测试与 Llama2 模型的定制化微调，精准匹配了电商售后话术风格。\n- 直接复用 Lab 02 中基于 LangChain 和 FAISS 的 RAG 标准架构，迅速搭建起连接内部商品库的知识问答引擎，显著减少了回答错误率。\n- 借助 Lab 04 的多模态实验案例，顺利集成了 Titan 图像生成与嵌入能力，实现了用户上传图片即可自动分析受损程度的功能。\n- 利用 Lab 05 提供的“保险索赔代理”参考实现，快速编排了具备自主调用工具能力的智能 Agent，将复杂索赔流程自动化。\n\namazon-bedrock-workshop 通过提供结构化的实验室演练，将企业构建生成式 AI 应用的探索期从数月缩短至数天，大幅降低了技术落地门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws-samples_amazon-bedrock-workshop_fef8b15d.png","aws-samples","AWS Samples","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Faws-samples_84ebd8ed.png","",null,"https:\u002F\u002Famazon.com\u002Faws","https:\u002F\u002Fgithub.com\u002Faws-samples",[80,84,87],{"name":81,"color":82,"percentage":83},"Jupyter Notebook","#DA5B0B",97,{"name":85,"color":86,"percentage":10},"Python","#3572A5",{"name":88,"color":89,"percentage":90},"Shell","#89e051",0,2125,913,"2026-04-08T16:44:10","MIT-0","Linux, macOS, Windows","未说明",{"notes":98,"python":96,"dependencies":99},"该工具主要基于 Amazon Bedrock 云服务运行，本地无需高性能 GPU 或大量显存。核心需求是拥有配置好 AWS 凭证（IAM 权限）的运行环境。推荐使用 Amazon SageMaker Studio 或 SageMaker Notebook Instance，也可在本地或其他环境中运行，但需确保已安装 AWS CLI 并配置了具有 Bedrock 访问权限的 IAM 角色或用户。部分实验（如模型微调）必须在用户自己的 AWS 账户中运行，无法在 AWS Workshop Studio 中执行。",[100,101,102,103],"boto3","langchain","faiss","nvidia-neMo-guardrails",[35,15,14,13,105],"其他","2026-03-27T02:49:30.150509","2026-04-09T20:51:45.064864",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},26542,"运行 `list_foundation_models` 时遇到 'NoCredentialsError: Unable to locate credentials' 错误怎么办？","这通常是因为未正确配置 AWS 凭证或区域。请尝试以下步骤：\n1. 确保已更新到最新的仓库版本和 SDK（Amazon Bedrock 现已正式发布）。\n2. 在 AWS 控制台启用模型访问权限（AWS Console > Bedrock > Providers > Model Access）。\n3. 检查环境变量配置：\n   - `AWS_PROFILE`：设置为您在 CLI 中创建的 profile 名称。\n   - `AWS_DEFAULT_REGION`：设置为启用 Bedrock 的区域（如 `us-west-2` 或 `us-east-1`）。\n   - 确保 `BEDROCK_ASSUME_ROLE` 和 `BEDROCK_ENDPOINT_URL` 环境变量未设置或设为空字符串。\n4. 如果看到 'AccessDenied' 错误，请检查 IAM 策略配置或目标区域是否正确。","https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fissues\u002F20",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},26543,"调用 `invoke_model` 时收到 'The requested operation is not recognized by the service' 错误如何解决？","此错误通常由以下原因引起：\n1. **SDK 版本过旧**：请升级依赖包至最新版本：\n   - `boto3>=1.28.57`\n   - `awscli>=1.29.57`\n   - `botocore>=1.31.57`\n   - `langchain==0.0.305`\n2. **端点 URL 配置错误**：检查代码中传递的 `BEDROCK_ENDPOINT_URL`。正确的端点格式应为 `bedrock-runtime.us-east-1.amazon.aws.com` 或 `invoke-bedrock.us-east-1.amazon.aws.com`，而不是 `bedrock.us-east-1.amazon.aws.com`。确保在笔记本单元格中将端点设置为正确的运行时地址。","https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fissues\u002F58",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},26544,"导入 utils 模块时出现 'Cannot import name bedrock from utils' 错误怎么办？","该错误通常是因为试图从 PyPI 安装通用的 `utils` 包，而项目需要的是仓库本地的自定义工具模块。解决方法如下：\n1. **不要**运行 `pip install utils` 或 `pip install bedrock`。\n2. 确保当前工作目录包含项目中的 `utils` 文件夹（通常在根目录下）。\n3. 在 Notebook 中运行以下代码以将本地路径添加到系统路径：\n   ```python\n   import os\n   import sys\n   module_path = \"..\"\n   sys.path.append(os.path.abspath(module_path))\n   from utils import bedrock, print_ww\n   ```\n4. 如果在 SageMaker 等云环境中运行且无法直接访问文件结构，请克隆整个仓库到实例中，确保 `utils` 目录与 Notebook 在同一层级或正确相对路径下。","https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fissues\u002F31",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},26545,"遇到 'ModuleNotFoundError: No module named anthropic' 错误如何处理？","这是因为缺少 Anthropic Python 包，该包用于对 Anthropic 模型进行分词。解决方法：\n1. 在 Notebook 或终端中运行以下命令安装：\n   ```bash\n   pip install anthropic\n   ```\n2. 如果使用 LangChain，请确保安装兼容版本。最新的 Workshop 设置笔记本（setup notebook）中通常已包含 `anthropic==0.9.0` 作为依赖项。\n3. 安装完成后，可能需要重启 Kernel 以使更改生效。","https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fissues\u002F171",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},26546,"如何在 Amazon Bedrock 中使用 Meta 的 Llama 2 模型？","Meta 的 Llama 2 Chat 13B 模型现已可用。要使用它：\n1. 确保您的 AWS 账户已在 Bedrock 控制台中请求并获得了 Llama 2 模型的访问权限（Model Access）。\n2. 拉取最新的 workshop 代码更新，因为新版本已添加了针对 Llama 2 的实验示例（Labs）。\n3. 参考更新后的 Notebook 教程，其中包含了调用 Llama 2 模型的具体代码示例和参数配置。","https:\u002F\u002Fgithub.com\u002Faws-samples\u002Famazon-bedrock-workshop\u002Fissues\u002F140",{"id":135,"question_zh":136,"answer_zh":137,"source_url":113},26547,"遇到 'Your account is not authorized to invoke this API operation' 错误该如何排查？","此错误表明您的账户没有权限调用该 API，即使配置了 Inline Policy 也可能发生。请按以下步骤排查：\n1. **检查模型访问权限**：登录 AWS 控制台，进入 Bedrock 服务，导航至 'Providers' -> 'Model Access'，确保您已明确请求并启用了所需模型（如 Titan Text Express 或其他 GA 模型）的访问权限。\n2. **验证区域设置**：确认 `AWS_DEFAULT_REGION` 环境变量与您启用 Bedrock 预览或正式版的区域一致（例如 `us-west-2` 或 `us-east-1`）。\n3. **检查 IAM 策略**：虽然您可能已经附加了 Inline Policy，但请确保该策略允许 `bedrock:InvokeModel` 和 `bedrock:ListFoundationModels` 等操作，并且没有显式的 Deny 规则冲突。\n4. 如果是预览版功能，确保您的账户已被列入白名单或已切换到正式发布（GA）版本。",[]]