[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-LambdaLabsML--examples":3,"tool-LambdaLabsML--examples":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151314,2,"2026-04-11T23:32:58",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":75,"languages":76,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":10,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":98,"github_topics":74,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":137},6844,"LambdaLabsML\u002Fexamples","examples","Deep Learning Examples","examples 是 Lambda Labs 推出的深度学习实战代码库，旨在为开发者提供涵盖主流 AI 任务的高质量示例。它解决了深度学习领域从理论到落地过程中“起步难、配置繁”的痛点，通过提供开箱即用的完整代码，帮助用户快速验证想法并搭建训练环境。\n\n该资源库特别适合人工智能工程师、算法研究人员以及希望深入理解模型训练细节的学生使用。无论是想微调 Stable Diffusion 进行图像生成，利用 YoloV5 实现物体检测，还是挑战 GPT-NeoX 等大语言模型的多节点分布式训练，examples 都提供了清晰的操作指引。其独特的技术亮点在于对复杂分布式训练场景的深度支持，详细展示了如何使用 PyTorch DDP、torchrun 及 mpirun 等工具在多 GPU 环境下高效协作，同时也涵盖了实验追踪和 3D 神经渲染（nerfstudio）等前沿应用。用户只需选择感兴趣的项目，结合本地 GPU 工作站或 Lambda Cloud 云服务，即可参照文档轻松复现结果，是学习现代深度学习工程化实践的理想起点。","# Deep Learning Examples\n\nA repository of deep learning examples.\n\n\u003Cp align=\"center\">\n🦄 Other exciting ML projects at Lambda: \u003Ca href=\"https:\u002F\u002Fnews.lambdalabs.com\u002Fnews\u002Ftoday\">ML Times\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fdistributed-training-guide\u002Ftree\u002Fmain\">Distributed Training Guide\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Flambdalabsml.github.io\u002FOpen-Sora\u002Fintroduction\u002F\">Text2Video\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Flambdalabs.com\u002Fgpu-benchmarks\">GPU Benchmark\u003C\u002Fa>.\n\u003C\u002Fp>\n\n## Getting Started\n\n- Pick an example from the list below\n- Use your [local GPU machine](https:\u002F\u002Flambdalabs.com\u002Fgpu-workstations\u002Fvector), or get the GPUs you need in [Lambda Cloud](https:\u002F\u002Flambdalabs.com\u002Fservice\u002Fgpu-cloud)\n- Follow the instructions in the examples README.md\n\n## Examples\n\n- [Finetune Stable Diffusion text-to-image model](stable-diffusion-finetuning\u002F)\n- [YoloV5 - object detection example using YoloV5](yolov5\u002F)\n- [GPTNeoX - Large Language Model Multi-Node Distributed Training](gpt-neox-training\u002F)\n- [Experiment Tracking](experiment-tracking\u002F)\n- [PyTorch DDP - Multi node training with PyTorch DDP, torch.distributed.launch, torchrun and mpirun](pytorch\u002Fdistributed)\n- [nerfstudio on Lambda Cloud](nerfstudio\u002F)\n","# 深度学习示例\n\n一个深度学习示例仓库。\n\n\u003Cp align=\"center\">\n🦄 Lambda 上还有其他令人兴奋的机器学习项目： \u003Ca href=\"https:\u002F\u002Fnews.lambdalabs.com\u002Fnews\u002Ftoday\">ML Times\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fdistributed-training-guide\u002Ftree\u002Fmain\">分布式训练指南\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Flambdalabsml.github.io\u002FOpen-Sora\u002Fintroduction\u002F\">Text2Video\u003C\u002Fa>、\u003Ca href=\"https:\u002F\u002Flambdalabs.com\u002Fgpu-benchmarks\">GPU 基准测试\u003C\u002Fa>。\n\u003C\u002Fp>\n\n## 快速入门\n\n- 从下方列表中选择一个示例\n- 使用您自己的 [本地 GPU 机器](https:\u002F\u002Flambdalabs.com\u002Fgpu-workstations\u002Fvector)，或在 [Lambda Cloud](https:\u002F\u002Flambdalabs.com\u002Fservice\u002Fgpu-cloud) 上获取所需的 GPU\n- 按照示例 README.md 中的说明操作\n\n## 示例\n\n- [微调 Stable Diffusion 文本到图像模型](stable-diffusion-finetuning\u002F)\n- [YoloV5 - 使用 YoloV5 的目标检测示例](yolov5\u002F)\n- [GPTNeoX - 大型语言模型多节点分布式训练](gpt-neox-training\u002F)\n- [实验跟踪](experiment-tracking\u002F)\n- [PyTorch DDP - 使用 PyTorch DDP、torch.distributed.launch、torchrun 和 mpirun 进行多节点训练](pytorch\u002Fdistributed)\n- [nerfstudio 在 Lambda Cloud 上](nerfstudio\u002F)","# Deep Learning Examples 快速上手指南\n\n本仓库汇集了由 Lambda Labs 提供的高质量深度学习示例，涵盖图像生成、目标检测、大模型分布式训练及实验追踪等场景。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n- **硬件**：配备 NVIDIA GPU 的本地工作站（推荐 [Lambda Vector](https:\u002F\u002Flambdalabs.com\u002Fgpu-workstations\u002Fvector)）或云端实例（[Lambda Cloud](https:\u002F\u002Flambdalabs.com\u002Fservice\u002Fgpu-cloud)）。\n- **系统**：Linux (Ubuntu 20.04\u002F22.04 推荐)。\n- **软件依赖**：\n  - NVIDIA Driver (版本需匹配 CUDA 工具包)\n  - CUDA Toolkit & cuDNN\n  - Python 3.8+\n  - Git\n  - PyTorch 或 TensorFlow (根据具体示例需求)\n\n> **提示**：国内开发者若使用本地环境，建议配置清华源或阿里源以加速 Python 包下载；若使用 Lambda Cloud，环境通常已预装基础驱动。\n\n## 安装步骤\n\n1. **克隆仓库**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples.git\n   cd examples\n   ```\n\n2. **选择并进入特定示例目录**\n   根据需求选择一个示例文件夹，例如 Stable Diffusion 微调：\n   ```bash\n   cd stable-diffusion-finetuning\n   ```\n\n3. **创建虚拟环境并安装依赖**\n   大多数示例包含独立的 `requirements.txt`。\n   ```bash\n   python3 -m venv venv\n   source venv\u002Fbin\u002Factivate\n   pip install -r requirements.txt\n   ```\n   *(注：如遇下载缓慢，可添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple` 参数)*\n\n4. **验证环境**\n   部分示例可能需要下载预训练模型权重，请确保网络连接畅通或手动放置权重文件至指定目录（详见各子目录说明）。\n\n## 基本使用\n\n每个示例的具体运行方式略有不同，以下是两个典型场景的最简启动命令：\n\n### 场景一：Stable Diffusion 微调 (文本生成图像)\n进入对应目录后，运行训练脚本：\n```bash\npython train.py --instance_data_dir .\u002Fdata --output_dir .\u002Foutput --resolution 512 --train_batch_size 1\n```\n\n### 场景二：PyTorch 多节点分布式训练 (DDP)\n使用 `torchrun` 启动分布式任务：\n```bash\ntorchrun --nproc_per_node=4 --nnodes=1 main.py --batch-size 64\n```\n\n### 场景三：YOLOv5 目标检测\n执行推理或训练命令：\n```bash\npython detect.py --weights yolov5s.pt --source 0\n```\n\n> **注意**：以上命令仅为通用示例。请务必进入具体的子目录（如 `yolov5\u002F`, `gpt-neox-training\u002F` 等），阅读该目录下的 `README.md` 以获取针对该模型的详细参数说明和数据集准备指南。","一家初创计算机视觉团队正急需在有限预算下，快速构建并部署一套高精度的工业缺陷检测系统。\n\n### 没有 examples 时\n- **环境配置耗时漫长**：团队成员需手动排查 PyTorch 版本、CUDA 驱动及分布式训练库的兼容性，往往花费数天解决依赖冲突而非核心算法问题。\n- **分布式训练门槛高**：面对多节点 GPU 集群，缺乏标准的启动脚本（如 torchrun 或 mpirun 配置），导致通信报错频发，无法有效利用算力加速模型收敛。\n- **基线模型复现困难**：从零搭建 YOLOv5 等成熟架构容易遗漏关键预处理细节，导致初始准确率远低于预期，难以判断是数据问题还是代码错误。\n- **实验管理混乱**：缺乏统一的追踪模板，多次迭代的超参数和损失曲线散落在本地日志中，团队协作时难以对比和复现最佳结果。\n\n### 使用 examples 后\n- **开箱即用的环境**：直接调用 examples 中经过验证的 Docker 配置或安装脚本，分钟级完成从本地工作站到 Lambda Cloud 的环境搭建，消除兼容性问题。\n- **标准化的分布式方案**：复用内置的 PyTorch DDP 多节点训练示例，一键启动大规模集群训练，将原本需要数周的训练周期缩短至数天。\n- **可靠的行业基线**：基于提供的 YOLOv5 物体检测完整案例进行微调，确保数据加载与增强逻辑无误，迅速达到生产级精度基准。\n- **可视化的迭代流程**：集成现成的实验追踪模块，自动记录每次训练的指标与参数，让团队能清晰量化优化效果并快速决策。\n\nexamples 通过将复杂的深度学习工程实践封装为可执行的标准范例，帮助开发者跳过繁琐的基础设施搭建，直接将精力聚焦于业务逻辑创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FLambdaLabsML_examples_2893f481.png","LambdaLabsML","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FLambdaLabsML_9f7f0bf1.png",null,"https:\u002F\u002Fgithub.com\u002FLambdaLabsML",[77,81,85],{"name":78,"color":79,"percentage":80},"Jupyter Notebook","#DA5B0B",97.1,{"name":82,"color":83,"percentage":84},"Python","#3572A5",2.7,{"name":86,"color":87,"percentage":88},"Shell","#89e051",0.2,828,106,"2026-04-10T06:12:55","MIT","未说明","需要 NVIDIA GPU（具体型号和显存取决于所选示例，如 Stable Diffusion 微调或大模型训练通常需高性能 GPU），支持通过本地 GPU 工作站或 Lambda Cloud 获取",{"notes":96,"python":93,"dependencies":97},"这是一个包含多个深度学习示例的集合仓库（如 Stable Diffusion 微调、YoloV5、GPTNeoX 分布式训练等）。具体的运行环境需求（包括操作系统、GPU 型号、内存、Python 版本及依赖库）未在总览中统一列出，需进入各个子示例目录（如 stable-diffusion-finetuning\u002F 或 gpt-neox-training\u002F）查看其独立的 README 文件以获取详细配置要求。建议使用 Lambda 提供的 GPU 云服务或本地 GPU 机器运行。",[93],[35,15,99,14],"视频","2026-03-27T02:49:30.150509","2026-04-12T17:25:22.606449",[103,108,113,118,123,128,133],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},30875,"如何在显存有限的 GPU（如 Colab V100 或 24GB 显卡）上运行微调以避免 CUDA 内存溢出？","可以通过以下组合策略解决：\n1. 将批次大小（batch_size）设置为 1。\n2. 增加梯度累积步数（accumulate_grad_batches），建议设为 4 以补偿小批次带来的影响，确保模型能有效学习。\n3. 禁用图像日志记录和验证功能以节省显存。具体操作是在配置文件中注释掉 logger 部分。\n4. 如果仍然溢出，可尝试将输入图像尺寸从 512x512 调整为 256x256（但这可能会影响生成质量，需权衡）。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F12",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},30876,"训练该模型所需的最低显卡配置是多少？","根据社区反馈，单块显存小于 24GB 的显卡通常无法运行。即使使用两块 24GB 的显卡也可能不行，建议使用单块显存大于 24GB 的 GPU。如果必须使用 24GB 显卡，需要将批次大小设为 1，并严格禁用图像日志和验证功能，但这只是勉强能运行。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F15",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},30877,"遇到报错 \"TypeError: img should be PIL Image. Got \u003Cclass 'dict'>\" 该如何解决？","该错误通常是因为数据加载器接收到了字典格式而非预期的 PIL 图像对象。这常发生在处理自定义数据集时。请检查您的数据预处理流程，确保传递给模型的确实是图像对象。如果是使用 Hugging Face 数据集，可能需要调整 `hf_dataset()` 函数或数据处理管道，确保正确提取图像列而不是整个样本字典。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F38",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},30878,"为什么复现训练结果时生成的图像是混乱的或全是噪声？","主要原因通常是超参数设置不当，特别是当显存有限而减小了批次大小（batch_size）时：\n1. 学习率未调整：如果将 batch_size 从默认的 4 改为 1，必须相应地降低学习率（base_learning_rate）。例如，将学习率从 1.0e-04 调整为 2.0e-05。\n2. 梯度累积不足：在减小 batch_size 后，需要增大 `accumulate_grad_batches`（建议设为 4），以保证等效的全局批次大小，否则模型难以收敛。\n3. 输入图像尺寸：确认输入图像尺寸配置正确（通常为 512，显存不足时可试 256 但需注意效果）。\n修正这些参数后，通常在 100-170 个 epoch 左右能看到良好结果。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F17",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},30879,"训练过程中生成的图像逐渐变成噪声或全黑图片是什么原因？","这通常是因为在减小批次大小（batch_size）的同时没有按比例缩放学习率导致的训练发散。解决方案是：在配置文件（如 `configs\u002Fstable-diffusion\u002Fpokemon.yaml`）中，将 `base_learning_rate` 调低。例如，如果将 batch_size 从 4 减为 1，尝试将学习率从 1.0e-04 降至 2.0e-05。调整后继续训练，图像质量应会恢复正常。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F33",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},30880,"如何使用本地目录格式的数据集进行微调，正确的格式是什么？","如果使用本地目录代替 Hugging Face 数据集，必须确保数据格式正确。推荐使用 JSONL 格式来存储图像路径和对应的标题（captions）。基本的 JSON 加载器可能无法直接识别某些格式，因此请参照项目中 `lambdalabs\u002Fpokemon-blip-captions` 的结构，确保每个样本包含图像文件路径和文本描述，并在配置文件中正确指向该本地目录路径。","https:\u002F\u002Fgithub.com\u002FLambdaLabsML\u002Fexamples\u002Fissues\u002F16",{"id":134,"question_zh":135,"answer_zh":136,"source_url":112},30881,"如何处理包含 RGBA 通道（4 通道）的图像报错？","模型通常期望 RGB 格式（3 通道）的图像。如果数据集中包含带 Alpha 通道的 PNG 图像（RGBA），会导致错误。可以在加载图像时移除最后一个通道。使用 OpenCV 的代码示例如下：\n```python\nimport cv2\nimg = cv2.imread('image.png', cv2.IMREAD_UNCHANGED)\nif img.shape[2] == 4:\n  img = img[:, :, :3]  # 移除最后的 Alpha 通道\n```",[]]