[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-aws--studio-lab-examples":3,"tool-aws--studio-lab-examples":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":78,"owner_twitter":77,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":32,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":107,"github_topics":108,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":118,"updated_at":119,"faqs":120,"releases":121},5200,"aws\u002Fstudio-lab-examples","studio-lab-examples","Example notebooks for working with SageMaker Studio Lab. Sign up for an account at the link below!","studio-lab-examples 是亚马逊官方提供的一套开源 Jupyter Notebook 示例合集，旨在帮助用户快速上手 SageMaker Studio Lab 这一免费的云端机器学习开发环境。它主要解决了初学者在配置 AI\u002FML 学习环境时面临的门槛高、资源受限等痛点，通过提供开箱即用的代码模板，让用户无需本地部署即可直接开始实践。\n\n这套示例非常适合希望进入人工智能领域的学生、数据科学新手以及独立开发者使用。内容覆盖广泛，不仅包含计算机视觉（如图像分类）、自然语言处理（如机器翻译微调）和地理空间数据分析等经典任务，还紧跟前沿趋势，提供了生成式 AI（如文生图模型）的实战案例。\n\n其独特亮点在于“零成本”与“无缝衔接”：用户只需注册免费账号，点击示例中的\"Open in Studio Lab\"按钮，即可在云端直接运行或克隆项目进行学习；完成实验后，还能轻松将项目部署到专业的 Amazon SageMaker 平台，实现从学习探索到职业级开发的平滑过渡。无论是想系统学习深度学习基础，还是尝试最新的生成式模型，studio-lab-examples 都能为你提供清晰的路径指","studio-lab-examples 是亚马逊官方提供的一套开源 Jupyter Notebook 示例合集，旨在帮助用户快速上手 SageMaker Studio Lab 这一免费的云端机器学习开发环境。它主要解决了初学者在配置 AI\u002FML 学习环境时面临的门槛高、资源受限等痛点，通过提供开箱即用的代码模板，让用户无需本地部署即可直接开始实践。\n\n这套示例非常适合希望进入人工智能领域的学生、数据科学新手以及独立开发者使用。内容覆盖广泛，不仅包含计算机视觉（如图像分类）、自然语言处理（如机器翻译微调）和地理空间数据分析等经典任务，还紧跟前沿趋势，提供了生成式 AI（如文生图模型）的实战案例。\n\n其独特亮点在于“零成本”与“无缝衔接”：用户只需注册免费账号，点击示例中的\"Open in Studio Lab\"按钮，即可在云端直接运行或克隆项目进行学习；完成实验后，还能轻松将项目部署到专业的 Amazon SageMaker 平台，实现从学习探索到职业级开发的平滑过渡。无论是想系统学习深度学习基础，还是尝试最新的生成式模型，studio-lab-examples 都能为你提供清晰的路径指引和丰富的实践素材。","\u003Cp align=\"center\">\n  \u003Cimg src=\"_static\u002Fsagemaker-studio-lab-banner.svg\" width=\"300px\">\n\u003C\u002Fp>\n\n## SageMaker Studio Lab Examples\n\nExample Jupyter notebooks that demonstrate how to build AI\u002FML learning environment using Amazon SageMaker Studio Lab.\n\n## :books: Background\n\nSageMaker Studio Lab is a service for individual data scientist who wants to develop the career toward AI\u002FML practitioner. You can start your ML journey for free.\n\nThis repository introduces you to the way to set up Studio Lab according to your interest area, such as computer vision, natural language processing, etc. And also, we show how to deploy your project to the [Amazon SageMaker](https:\u002F\u002Fgithub.com\u002Faws\u002Famazon-sagemaker-examples) to become the AI\u002FML practitioner.\n\n## :hammer_and_wrench: Setup\n\nPlease follow the [Onboard to Amazon SageMaker Studio Lab](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fstudio-lab-onboard.html).\n\n1. Request a Studio Lab account\n2. Create a Studio Lab account\n3. Sign in to Studio Lab\n\nIf you would like to localize the user interface, please follow [the instruction for user interface localization](custom-environments\u002Flocalization).\n\n## :computer: Usage\n\n1. **Read**: You can read the notebook in Studio Lab without Studio Lab account. Please feel free to click **Open in Studio Lab** button in Examples section.\n2. **Run**: You can run the notebook by copying the notebook or `git clone` the repository to your Studio Lab project.\n3. **Share**: You can share the notebooks through the Git repository such as GitHub. [If you add Open in Studio Lab button](open-in-studio-lab), the readers can copy the notebook or clone the repository by clicking button.\n\n## :notebook: Examples\n\n### [Computer Vision](computer-vision\u002F)\n\n| No | Title | Open in Studio Lab |\n|----|-------|--------------------|\n|   1|Train an image classification model with PyTorch | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcomputer-vision\u002Fkmnist\u002Fcv-kminst.ipynb) |\n|   2| Weather Classification for Disaster Risk Reduction with DenseNet-161 | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcomputer-vision\u002Fweather-data\u002Fweather-image-classification-pytorch.ipynb) |\n\n### [Natural Language Processing](natural-language-processing\u002F)\n\n| No | Title | Open in Studio Lab |\n|----|-------|--------------------|\n|   1|Finetune T5 locally for machine translation on COVID-19 Health Service Announcements with Hugging Face | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fnatural-language-processing\u002FNLP_Disaster_Recovery_Translation.ipynb) |\n\n### [Geospatial Data Science](geospatial-data-science\u002F)\n\n| No | Title | Open in Studio Lab |\n|----|-------|--------------------|\n|   1|Getting Started With Geospatial Data Analysis | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgeospatial-data-science\u002FCA_data\u002Fgeospatial_analysis.ipynb) |\n|   2|Exploratory Analysis for NOAA Weather and Climate Dataset | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgeospatial-data-science\u002FNOAA_Exploratory_Analysis\u002FEDA_weather_climate.ipynb) |\n\n### [Generative Deep Learning](generative-ai\u002F)\n\n| No | Title | Open in Studio Lab |\n|----|-------|--------------------|\n|   1|Introduction to JumpStart - Text to Image | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgenerative-ai\u002Fstable-diffusion-finetune\u002FAmazon_JumpStart_Text_To_Image.ipynb) |\n|   2|Prompting Mistral 7B Instruct | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgenerative-ai\u002Fmistral\u002Fprompting-mistral7B.ipynb) |\n\n### [Connect To AWS](connect-to-aws\u002F)\n\n| No | Title | Open in Studio Lab |\n|----|-------|--------------------|\n|   1|Using SageMaker Studio Lab with AWS Resources | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fconnect-to-aws\u002FAccess_AWS_from_Studio_Lab.ipynb) |\n|   2|Deploy A Hugging Face Pretrained Model to Amazon SageMaker Serverless Endpoint - Boto3 | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fconnect-to-aws\u002FAccess_AWS_from_Studio_Lab_Deployment.ipynb)\n\n### [Custom Environments](custom-environments\u002F)\n\nWe provide `.yml` files to set up various programming language \u002F framework environments. To use the `.yml` file, please proceed with the following instruction.\n\n1. Click this button right here --> [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002Fcustom_environment.ipynb)\n2. Click the `Copy to Project` button\n   * Sign-in and `Start runtime` is needed before it.\n3. When prompted, select `Clone Entire Repo`\n4. Click `Clone` after confirming `Open README files.` is checked.\n   * When `No Conda environment file found` shown, please `Dismiss`.\n5. Once opening `README.md` preview, please move to `Custom Environments` section and click the programming language \u002F specific framework environment link as you need to open `.yml` file.\n6. Right click the opened `.yml` file tab and select `Show in File Browser`.\n7. Right click the `.yml` file in the file browser and select `Build Conda Environment`.\n8. Once command completed, please run notebook in the same folder to check the environment. When prompted `Select Kearnel`, please select the created environment.\n\n#### Programming language environment\n\n* [R environment](custom-environments\u002FR\u002FR.yml)\n* [Julia environment](custom-environments\u002Fjulia\u002F1-install-julia.ipynb)\n\n#### Specific framework environment\n\n* [AutoGluon (CPU) environment](custom-environments\u002FAutoGluon\u002Fautogluon_cpu.yml)\n   * [AutoGluon](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Findex.html) is AutoML library for quick prototype by state-of-the-art method without expert knowledge. \n* [fast.ai environment](custom-environments\u002Ffastai\u002Ffastai.yml)\n   * [fast.ai](https:\u002F\u002Fwww.fast.ai\u002F) is deep learning library which provides state-of-the-art results with high-level API for practitioners and low-level API for expert.\n* [SciPy environment](custom-environments\u002FSciPy\u002Fscipy.yml)\n   * [SciPy](https:\u002F\u002Fscipy.org\u002F) is an open-source software for mathematics, science, and engineering.\n* [Diffusers environment](custom-environments\u002Fdiffusers\u002Fdiffusers.yml)\n   * [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers) provides pretrained diffusion models across multiple modalities, such as vision and audio, and serves as a modular toolbox for inference and training of diffusion models.\n* [RAPIDS environment](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Frapidsai-community\u002Frapids-smsl\u002Fblob\u002Fmain\u002Frapids-smsl.ipynb) (external link)\n   * [RAPIDS](https:\u002F\u002Frapids.ai\u002Findex.html) provides GPU accelerated data science libraries.\n* [Geospatial environment](custom-environments\u002FGeospatial\u002Fgeospatial.yml)\n   * Geospatial environment is built from basic libraries for geospatial analysis such as [geopandas](https:\u002F\u002Fgeopandas.org\u002Fen\u002Fstable\u002F), [shapely](https:\u002F\u002Fgithub.com\u002Fshapely\u002Fshapely), and [folium](https:\u002F\u002Fpython-visualization.github.io\u002Ffolium\u002Fquickstart.html#Getting-Started), etc.\n* [Medical image AI environment](https:\u002F\u002Fgithub.com\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002Fmedical-image-ai\u002Fenvironment.yml)\n   * Medial image AI environment is built from basic libraries for medical image analysis such as [itkwidgets](https:\u002F\u002Fgithub.com\u002FInsightSoftwareConsortium\u002Fitkwidgets), [monai](https:\u002F\u002Fmonai.io\u002F). \n* [Gradio environment](https:\u002F\u002Fgithub.com\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002FGradio\u002Fenvironment.yml)\n   * [Gradio](https:\u002F\u002Fwww.gradio.app\u002F) is an application that is suitable for demonstrating your model through an interactive interface.\n\n\n### Community contents\n\nHere are some more examples from the community.\n\n[Studio Lab Examples in GitHub](https:\u002F\u002Fgithub.com\u002Ftopics\u002Famazon-sagemaker-lab).\n\nPlease add `amazon-sagemaker-lab` tag to your repositories that use Studio Lab! We will pick up the popular repositories in here or our blog.\n\n## :balance_scale: License\n\nThis project is licensed under the [Apache-2.0 License](LICENSE).\n\n## :handshake: Contributing\n\nAlthough we're extremely excited to receive contributions from the community, we're still working on the best mechanism to take in examples from external sources. Please bear with us in the short-term if pull requests take longer than expected or are closed.\n\nPlease read our [contributing guidelines](CONTRIBUTING.md) if you'd like to open an issue or submit a pull request.\n\n## 🔎 References\n\n* [SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002F)\n* [SageMaker Studio Lab document](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fstudio-lab.html)\n* [Stack Overflow](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Famazon-sagemaker)\n* Regional examples\n   * :jp: [SageMaker Studio Lab Community Japan](https:\u002F\u002Fgithub.com\u002Faws-sagemaker-jp\u002Fawesome-studio-lab-jp)\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"_static\u002Fsagemaker-studio-lab-banner.svg\" width=\"300px\">\n\u003C\u002Fp>\n\n## SageMaker Studio Lab 示例\n\n演示如何使用 Amazon SageMaker Studio Lab 构建 AI\u002FML 学习环境的 Jupyter 笔记本示例。\n\n## :books: 背景\n\nSageMaker Studio Lab 是一项面向希望向 AI\u002FML 从业者发展的个人数据科学家的服务。您可以免费开启您的机器学习之旅。\n\n此仓库将向您介绍如何根据您的兴趣领域（如计算机视觉、自然语言处理等）设置 Studio Lab。此外，我们还将展示如何将您的项目部署到 [Amazon SageMaker](https:\u002F\u002Fgithub.com\u002Faws\u002Famazon-sagemaker-examples)，从而成为一名 AI\u002FML 从业者。\n\n## :hammer_and_wrench: 设置\n\n请按照 [开始使用 Amazon SageMaker Studio Lab](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fstudio-lab-onboard.html) 的说明进行操作。\n\n1. 申请 Studio Lab 账户\n2. 创建 Studio Lab 账户\n3. 登录 Studio Lab\n\n如果您希望本地化用户界面，请按照 [用户界面本地化的说明](custom-environments\u002Flocalization) 进行操作。\n\n## :computer: 使用\n\n1. **阅读**：您无需 Studio Lab 账户即可在 Studio Lab 中阅读笔记本。请随时点击“示例”部分中的“在 Studio Lab 中打开”按钮。\n2. **运行**：您可以通过复制笔记本或将仓库 `git clone` 到您的 Studio Lab 项目来运行笔记本。\n3. **分享**：您可以借助 GitHub 等 Git 仓库分享这些笔记本。[如果您添加“在 Studio Lab 中打开”按钮](open-in-studio-lab)，读者只需点击按钮即可复制笔记本或克隆仓库。\n\n## :notebook: 示例\n\n### [计算机视觉](computer-vision\u002F)\n\n| 序号 | 标题 | 在 Studio Lab 中打开 |\n|----|-------|--------------------|\n|   1|使用 PyTorch 训练图像分类模型 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcomputer-vision\u002Fkmnist\u002Fcv-kminst.ipynb) |\n|   2|使用 DenseNet-161 进行天气分类以降低灾害风险 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcomputer-vision\u002Fweather-data\u002Fweather-image-classification-pytorch.ipynb) |\n\n### [自然语言处理](natural-language-processing\u002F)\n\n| 序号 | 标题 | 在 Studio Lab 中打开 |\n|----|-------|--------------------|\n|   1|使用 Hugging Face 在本地微调 T5 模型，用于 COVID-19 健康服务公告的机器翻译 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fnatural-language-processing\u002FNLP_Disaster_Recovery_Translation.ipynb) |\n\n### [地理空间数据科学](geospatial-data-science\u002F)\n\n| 序号 | 标题 | 在 Studio Lab 中打开 |\n|----|-------|--------------------|\n|   1|地理空间数据分析入门 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgeospatial-data-science\u002FCA_data\u002Fgeospatial_analysis.ipynb) |\n|   2|NOAA 天气与气候数据集的探索性分析 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgeospatial-data-science\u002FNOAA_Exploratory_Analysis\u002FEDA_weather_climate.ipynb) |\n\n### [生成式深度学习](generative-ai\u002F)\n\n| 序号 | 标题 | 在 Studio Lab 中打开 |\n|----|-------|--------------------|\n|   1|JumpStart 入门——文本到图像 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgenerative-ai\u002Fstable-diffusion-finetune\u002FAmazon_JumpStart_Text_To_Image.ipynb) |\n|   2|提示 Mistral 7B Instruct | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fgenerative-ai\u002Fmistral\u002Fprompting-mistral7B.ipynb) |\n\n### [连接 AWS](connect-to-aws\u002F)\n\n| 序号 | 标题 | 在 Studio Lab 中打开 |\n|----|-------|--------------------|\n|   1|在 Studio Lab 中使用 AWS 资源 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fconnect-to-aws\u002FAccess_AWS_from_Studio_Lab.ipynb) |\n|   2|将 Hugging Face 预训练模型部署到 Amazon SageMaker 无服务器端点——使用 Boto3 | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fconnect-to-aws\u002FAccess_AWS_from_Studio_Lab_Deployment.ipynb)\n\n### [自定义环境](custom-environments\u002F)\n\n我们提供了 `.yml` 文件来设置各种编程语言和框架的运行环境。要使用这些 `.yml` 文件，请按照以下步骤操作。\n\n1. 点击此处的按钮 --> [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002Fcustom_environment.ipynb)\n2. 点击 `复制到项目` 按钮\n   * 在此之前需要先登录并启动运行时。\n3. 出现提示时，选择 `克隆整个仓库`。\n4. 确认勾选了 `打开 README 文件` 后，点击 `克隆`。\n   * 如果出现 `未找到 Conda 环境文件` 的提示，请点击 `忽略`。\n5. 打开 `README.md` 预览后，请前往 `自定义环境` 部分，根据需要点击相应的编程语言或特定框架环境链接以打开 `.yml` 文件。\n6. 右键单击已打开的 `.yml` 文件选项卡，选择 `在文件浏览器中显示`。\n7. 在文件浏览器中右键单击该 `.yml` 文件，然后选择 `构建 Conda 环境`。\n8. 命令执行完成后，请在同一文件夹中运行笔记本以检查环境。当提示选择内核时，请选择刚刚创建的环境。\n\n#### 编程语言环境\n\n* [R 环境](custom-environments\u002FR\u002FR.yml)\n* [Julia 环境](custom-environments\u002Fjulia\u002F1-install-julia.ipynb)\n\n#### 特定框架环境\n\n* [AutoGluon (CPU) 环境](custom-environments\u002FAutoGluon\u002Fautogluon_cpu.yml)\n   * [AutoGluon](https:\u002F\u002Fauto.gluon.ai\u002Fstable\u002Findex.html) 是一个自动机器学习库，无需专业知识即可通过最先进的方法快速构建原型。\n* [fast.ai 环境](custom-environments\u002Ffastai\u002Ffastai.yml)\n   * [fast.ai](https:\u002F\u002Fwww.fast.ai\u002F) 是一个深度学习库，它为实践者提供高级 API，为专家提供低级 API，同时能够实现最先进的结果。\n* [SciPy 环境](custom-environments\u002FSciPy\u002Fscipy.yml)\n   * [SciPy](https:\u002F\u002Fscipy.org\u002F) 是一款用于数学、科学和工程领域的开源软件。\n* [Diffusers 环境](custom-environments\u002Fdiffusers\u002Fdiffusers.yml)\n   * [diffusers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fdiffusers) 提供跨多种模态（如视觉和音频）的预训练扩散模型，并作为一个模块化的工具箱，用于扩散模型的推理和训练。\n* [RAPIDS 环境](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Frapidsai-community\u002Frapids-smsl\u002Fblob\u002Fmain\u002Frapids-smsl.ipynb)（外部链接）\n   * [RAPIDS](https:\u002F\u002Frapids.ai\u002Findex.html) 提供 GPU 加速的数据科学库。\n* [地理空间环境](custom-environments\u002FGeospatial\u002Fgeospatial.yml)\n   * 地理空间环境基于用于地理空间分析的基础库构建，例如 [geopandas](https:\u002F\u002Fgeopandas.org\u002Fen\u002Fstable\u002F)、[shapely](https:\u002F\u002Fgithub.com\u002Fshapely\u002Fshapely) 和 [folium](https:\u002F\u002Fpython-visualization.github.io\u002Ffolium\u002Fquickstart.html#Getting-Started) 等。\n* [医学影像 AI 环境](https:\u002F\u002Fgithub.com\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002Fmedical-image-ai\u002Fenvironment.yml)\n   * 医学影像 AI 环境基于用于医学影像分析的基础库构建，例如 [itkwidgets](https:\u002F\u002Fgithub.com\u002FInsightSoftwareConsortium\u002Fitkwidgets) 和 [monai](https:\u002F\u002Fmonai.io\u002F)。\n* [Gradio 环境](https:\u002F\u002Fgithub.com\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcustom-environments\u002FGradio\u002Fenvironment.yml)\n   * [Gradio](https:\u002F\u002Fwww.gradio.app\u002F) 是一个适合通过交互式界面展示模型的应用程序。\n\n### 社区内容\n\n以下是来自社区的一些示例。\n\n[GitHub 上的 Studio Lab 示例](https:\u002F\u002Fgithub.com\u002Ftopics\u002Famazon-sagemaker-lab)。\n\n请在您使用 Studio Lab 的仓库上添加 `amazon-sagemaker-lab` 标签！我们将在此处或我们的博客中精选热门仓库。\n\n## :balance_scale: 许可证\n\n本项目采用 [Apache-2.0 许可证](LICENSE)。\n\n## :handshake: 贡献\n\n尽管我们非常期待收到社区的贡献，但我们仍在努力寻找最佳机制来接收来自外部的示例。如果您的拉取请求耗时比预期长或被关闭，请您暂时谅解。\n\n如果您想提交问题或拉取请求，请阅读我们的 [贡献指南](CONTRIBUTING.md)。\n\n## 🔎 参考资料\n\n* [SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002F)\n* [SageMaker Studio Lab 文档](https:\u002F\u002Fdocs.aws.amazon.com\u002Fsagemaker\u002Flatest\u002Fdg\u002Fstudio-lab.html)\n* [Stack Overflow](https:\u002F\u002Fstackoverflow.com\u002Fquestions\u002Ftagged\u002Famazon-sagemaker)\n* 区域性示例\n   * :jp: [SageMaker Studio Lab 日本社区](https:\u002F\u002Fgithub.com\u002Faws-sagemaker-jp\u002Fawesome-studio-lab-jp)","# SageMaker Studio Lab 示例快速上手指南\n\n本指南旨在帮助开发者利用 Amazon SageMaker Studio Lab 免费构建 AI\u002FML 学习环境，并通过官方示例快速上手计算机视觉、自然语言处理及生成式 AI 等任务。\n\n## 环境准备\n\nSageMaker Studio Lab 是一个基于云端的免费服务，无需本地安装重型依赖，仅需满足以下条件：\n\n*   **硬件要求**：任意可运行现代浏览器的设备（PC、Mac 或 Linux）。\n*   **网络要求**：稳定的互联网连接（建议配置科学上网环境以访问 AWS 服务及 GitHub 资源）。\n*   **账号要求**：需要注册一个 Amazon SageMaker Studio Lab 账号（完全免费，无需绑定信用卡）。\n*   **前置知识**：了解基础的 Jupyter Notebook 操作和 Python 编程。\n\n> **注意**：目前该服务主要面向全球用户，暂无专门的中国区镜像加速方案。若加载缓慢，请检查网络连接状态。\n\n## 安装与设置步骤\n\n由于是云端环境，无需在本地安装软件，只需按以下步骤开通账户并克隆仓库：\n\n### 1. 注册与登录\n访问 [SageMaker Studio Lab 官网](https:\u002F\u002Fstudiolab.sagemaker.aws\u002F)，依次完成：\n1.  **Request an account**：提交注册申请（通常需等待审核邮件）。\n2.  **Create account**：收到邮件后设置密码创建账户。\n3.  **Sign in**：登录控制台。\n\n### 2. 获取示例代码\n登录成功后，有两种方式获取 `studio-lab-examples` 项目：\n\n**方式 A：直接打开单个示例（推荐新手）**\n在浏览器中点击下方表格中的 **\"Open in Studio Lab\"** 按钮，系统将自动把对应的 Notebook 复制到你的项目中。\n\n**方式 B：克隆整个仓库（适合进阶探索）**\n在 Studio Lab 终端（Terminal）中执行以下命令：\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Faws\u002Fstudio-lab-examples.git\n```\n\n### 3. 配置自定义环境（可选）\n部分示例（如 AutoGluon, Diffusers, R 语言等）需要特定的 Conda 环境。若遇到缺少依赖包的情况，请按以下步骤构建：\n\n1.  在文件浏览器中找到对应的 `.yml` 文件（例如 `custom-environments\u002FAutoGluon\u002Fautogluon_cpu.yml`）。\n2.  右键点击该文件，选择 **Build Conda Environment**。\n3.  等待构建完成后，在运行 Notebook 时，点击右上角内核选择器，切换到新创建的环境。\n\n## 基本使用示例\n\n以下以“使用 PyTorch 训练图像分类模型”为例，展示最基础的使用流程。\n\n### 步骤 1：打开示例\n点击链接直接在 Studio Lab 中打开示例：\n[![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002Faws\u002Fstudio-lab-examples\u002Fblob\u002Fmain\u002Fcomputer-vision\u002Fkmnist\u002Fcv-kminst.ipynb)\n\n或者，如果你已克隆仓库，在文件浏览器中导航至：\n`computer-vision\u002Fkmnist\u002Fcv-kminst.ipynb`\n\n### 步骤 2：启动运行时\n1.  打开 Notebook 文件。\n2.  点击右上角的 **Start runtime** 按钮。\n3.  首次运行可能需要几分钟来初始化环境。\n\n### 步骤 3：运行代码\n按顺序执行单元格（Cell），典型代码如下（无需修改即可运行）：\n\n```python\n# 导入必要的库\nimport torch\nimport torch.nn as nn\nimport torchvision.transforms as transforms\nfrom torchvision import datasets\n\n# 定义数据转换\ntransform = transforms.Compose([\n    transforms.ToTensor(),\n    transforms.Normalize((0.5,), (0.5,))\n])\n\n# 下载并加载 KMNIST 数据集\ntrain_dataset = datasets.KMNIST(root='.\u002Fdata', train=True, download=True, transform=transform)\ntest_dataset = datasets.KMNIST(root='.\u002Fdata', train=False, download=True, transform=transform)\n\nprint(f\"训练集大小：{len(train_dataset)}\")\nprint(f\"测试集大小：{len(test_dataset)}\")\n```\n\n### 步骤 4：查看结果与部署\n*   **查看结果**：代码执行完毕后，下方将显示训练损失曲线及模型准确率。\n*   **部署模型**：学习完成后，可参考 `connect-to-aws\u002F` 目录下的示例，使用 `boto3` 将训练好的模型部署到 Amazon SageMaker Serverless Endpoint。\n\n---\n**更多领域示例索引：**\n*   **自然语言处理**：微调 T5 模型进行机器翻译 (`natural-language-processing\u002F`)\n*   **地理空间数据**：NOAA 气候数据探索分析 (`geospatial-data-science\u002F`)\n*   **生成式 AI**：Stable Diffusion 文生图、Mistral 7B 提示词工程 (`generative-ai\u002F`)","一名刚接触深度学习的大学生想尝试用 PyTorch 训练图像分类模型，但受限于本地电脑配置低且缺乏云环境搭建经验。\n\n### 没有 studio-lab-examples 时\n- **环境配置劝退**：需要在本地手动安装 CUDA、PyTorch 等复杂依赖，常因版本冲突导致配置失败，还没开始写代码就耗费数天。\n- **高昂硬件门槛**：本地显卡显存不足，无法运行稍大的模型（如 DenseNet），被迫放弃实验或自费购买昂贵的云服务器。\n- **缺乏实战指引**：网上教程碎片化严重，不知道如何从数据加载、模型训练到最终部署形成完整闭环，容易在中间步骤卡壳。\n- **协作分享困难**：代码和环境散落在本地，难以一键分享给导师或同学复现，沟通成本极高。\n\n### 使用 studio-lab-examples 后\n- **开箱即用环境**：直接点击\"Open in Studio Lab\"即可导入预置好的 Jupyter Notebook，云端已配齐所有依赖，秒级启动开发。\n- **免费算力支持**：无偿获得包含 GPU 的云端计算资源，轻松跑通计算机视觉或大语言模型微调示例，零成本验证想法。\n- **全流程最佳实践**：参考官方提供的从数据处理到 SageMaker 部署的完整案例，快速掌握工业级 AI 开发标准流程。\n- **便捷共享复现**：通过 Git 仓库一键分享项目链接，协作者只需点击按钮即可克隆并运行相同环境，极大提升团队协作效率。\n\nstudio-lab-examples 让初学者无需纠结环境搭建与硬件限制，仅需专注于算法逻辑本身，真正实现了 AI 学习的“零门槛”起步。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Faws_studio-lab-examples_ab684c6b.png","aws","Amazon Web Services","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Faws_84ebd8ed.png","",null,"open-source-github@amazon.com","https:\u002F\u002Famazon.com\u002Faws","https:\u002F\u002Fgithub.com\u002Faws",[82],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",100,762,227,"2026-04-02T12:12:18","Apache-2.0","未说明 (基于 Web 的 SageMaker Studio Lab 环境)","非必需。基础环境提供 CPU，部分示例（如 RAPIDS、Stable Diffusion）需要 GPU 加速，具体型号和显存由 SageMaker Studio Lab 平台分配","未说明 (由 SageMaker Studio Lab 平台动态分配)",{"notes":94,"python":95,"dependencies":96},"该工具主要运行在 Amazon SageMaker Studio Lab 云端环境中，无需本地安装操作系统依赖。用户需注册免费账号。项目提供了多个 .yml 文件用于在云端构建特定的 Conda 环境（如 R, Julia, AutoGluon, Medical Image AI 等）。若需连接 AWS 其他资源，需配置相应的凭证。","未说明 (通过 Conda 环境文件 .yml 自定义，支持多种版本)",[97,98,99,100,101,102,103,104,105,106],"PyTorch","Hugging Face Transformers","AutoGluon","fast.ai","SciPy","Diffusers","RAPIDS","Geopandas","MONAI","Gradio",[14,15],[109,110,111,112,113,73,114,115,116,117],"amazon-sagemaker-lab","sagemaker-studio-lab","machine-learning","deep-learning","huggingface","sagemaker","training","inference","deploy","2026-03-27T02:49:30.150509","2026-04-08T01:57:15.418802",[],[]]