[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SwanHubX--SwanLab":3,"tool-SwanHubX--SwanLab":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":67,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":96,"forks":97,"last_commit_at":98,"license":99,"difficulty_score":100,"env_os":101,"env_gpu":102,"env_ram":103,"env_deps":104,"category_tags":116,"github_topics":117,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":134,"updated_at":135,"faqs":136,"releases":167},2462,"SwanHubX\u002FSwanLab","SwanLab","⚡️SwanLab - an open-source, modern-design AI training tracking and visualization tool. Supports Cloud \u002F Self-hosted use. Integrated with PyTorch \u002F Transformers \u002F verl \u002F LLaMA Factory \u002F ms-swift \u002F Ultralytics \u002F MMEngine \u002F Keras etc.","SwanLab 是一款专为 AI 训练设计的开源实验跟踪与可视化平台，旨在帮助开发者和研究人员更高效地管理模型训练过程。在深度学习研究中，面对海量的超参数组合和复杂的训练指标，传统记录方式往往导致数据分散、难以对比复现。SwanLab 通过简洁的代码集成，自动捕获并可视化关键训练指标、系统硬件状态及超参数配置，让实验过程透明化、数据结构化，从而加速模型迭代与问题排查。\n\n这款工具特别适合 AI 算法工程师、科研人员以及需要协同工作的机器学习团队使用。无论是个人开发者进行小规模实验，还是大型团队协作处理分布式训练任务，SwanLab 都能提供流畅的体验。它支持云端 SaaS 服务与私有化部署两种模式，兼顾了使用的便捷性与数据的安全性。\n\n在技术亮点方面，SwanLab 展现了极强的兼容性与性能优化能力。它不仅无缝集成 PyTorch、Transformers、Ultralytics、LLaMA Factory 等 50 多个主流 AI 框架，还针对大规模图表渲染推出了“闪电看板（LightningBoard）”，确保在海量数据下依然保持流畅交互。此外，SwanLab 支持 AMD ROC","SwanLab 是一款专为 AI 训练设计的开源实验跟踪与可视化平台，旨在帮助开发者和研究人员更高效地管理模型训练过程。在深度学习研究中，面对海量的超参数组合和复杂的训练指标，传统记录方式往往导致数据分散、难以对比复现。SwanLab 通过简洁的代码集成，自动捕获并可视化关键训练指标、系统硬件状态及超参数配置，让实验过程透明化、数据结构化，从而加速模型迭代与问题排查。\n\n这款工具特别适合 AI 算法工程师、科研人员以及需要协同工作的机器学习团队使用。无论是个人开发者进行小规模实验，还是大型团队协作处理分布式训练任务，SwanLab 都能提供流畅的体验。它支持云端 SaaS 服务与私有化部署两种模式，兼顾了使用的便捷性与数据的安全性。\n\n在技术亮点方面，SwanLab 展现了极强的兼容性与性能优化能力。它不仅无缝集成 PyTorch、Transformers、Ultralytics、LLaMA Factory 等 50 多个主流 AI 框架，还针对大规模图表渲染推出了“闪电看板（LightningBoard）”，确保在海量数据下依然保持流畅交互。此外，SwanLab 支持 AMD ROCm 等多种硬件监控，提供实验置顶、Baseline 对比分析、多进程并行记录等实用功能，并允许将图表嵌入 Notion 或飞书文档，极大地提升了实验分析与团队沟通的效率。凭借现代化的界面设计与低侵入式的接入方式，SwanLab 成为提升 AI 研发效能的得力助手。","\u003Cdiv align=\"center\">\n\n\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"readme_files\u002Fswanlab-logo-type2-dark.svg\">\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"readme_files\u002Fswanlab-logo-type2-light.svg\">\n  \u003Cimg alt=\"SwanLab\" src=\"readme_files\u002Fswanlab-logo-type2-light.svg\" width=\"300\" height=\"130\">\n\u003C\u002Fpicture>\n\n一个专业、现代化设计的AI训练分析平台  \n面向模型训练团队，与50+主流框架集成，与你的实验代码轻松结合\n\n\u003Ca href=\"https:\u002F\u002Fswanlab.cn\">🔥SwanLab 在线版\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\">📃 文档\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues\">报告问题\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgeektechstudio.feishu.cn\u002Fshare\u002Fbase\u002Fform\u002FshrcnyBlK8OMD0eweoFcc2SvWKc\">建议反馈\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fguide_cloud\u002Fgeneral\u002Fchangelog.html\">更新日志\u003C\u002Fa> · \u003Cimg height=\"16\" width=\"16\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fcommunity.svg\" alt=\"swanlab community Logo\" \u002F> \u003Ca href=\"https:\u002F\u002Fswanlab.cn\u002Fbenchmarks\">基线社区\u003C\u002Fa>\n\n[![][release-shield]][release-link]\n[![][dockerhub-shield]][dockerhub-link]\n[![][github-stars-shield]][github-stars-link]\n[![][github-issues-shield]][github-issues-shield-link]\n[![][github-contributors-shield]][github-contributors-link]\n[![][license-shield]][license-shield-link]  \n[![][tracking-swanlab-shield]][tracking-swanlab-shield-link]\n[![][last-commit-shield]][last-commit-shield-link]\n[![][pypi-version-shield]][pypi-version-shield-link]\n[![][wechat-shield]][wechat-shield-link]\n[![][pypi-downloads-shield]][pypi-downloads-shield-link]\n[![][colab-shield]][colab-shield-link]\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_e5bd2cfc572c.png)\n\n中文 \u002F [English](README_EN.md) \u002F [日本語](README_JP.md) \u002F [Русский](README_RU.md)\n\n👋 加入我们的[微信群](https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html)\n\n\u003Ca href=\"https:\u002F\u002Fhellogithub.com\u002Frepository\u002Fb442a9fa270e4ccb8847c9ee3445e41b\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fabroad.hellogithub.com\u002Fv1\u002Fwidgets\u002Frecommend.svg?rid=b442a9fa270e4ccb8847c9ee3445e41b&claim_uid=Oh5UaGjfrblg0yZ\" alt=\"Featured｜HelloGitHub\" style=\"width: 250px; height: 54px;\" width=\"250\" height=\"54\" \u002F>\u003C\u002Fa>\n\n\n\u003C\u002Fdiv>\n\n\u003Cbr\u002F>\n\n\n## 目录\n\n- [🌟 最近更新](#-最近更新)\n- [👋🏻 什么是SwanLab](#-什么是swanlab)\n- [📃 在线演示](#-在线演示)\n- [🏁 快速开始](#-快速开始)\n- [💻 自托管](#-自托管)\n- [🔥 实战案例](#-实战案例)\n- [🎮 硬件记录](#-硬件记录)\n- [🚗 框架集成](#-框架集成)\n- [🔌 插件与API](#-插件与api)\n- [🆚 与熟悉的工具的比较](#-与熟悉的工具的比较)\n- [👥 社区](#-社区)\n- [📃 协议](#-协议)\n\n\u003Cbr\u002F>\n\n\n## 🌟 最近更新\n\n- 2026.03.25：📊 **实验置顶**上线，一键将最好的实验固定在到最好找的位置；**Baseline**对比功能上线，支持将实验们和baseline对比并显示差异百分比，加速找到最佳参数组合；\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F964380e0-feb2-480d-b1ca-eba1be239ebb\n\n- 2026.03.19：📊 新增**实验复制**功能，支持将创建实验副本到不同项目、团队下；**parallel**模式上线，支持在不同进程同时记录指标到同一实验下；实验ID现在可以自定义了；\n\n- 2026.02.06: 🔥 **swanlab.Api**已正式上线，提供更强大的、面向对象式的开放API接口，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-api.html)；ECharts.Table支持CSV下载；现在支持将图表一键置于分组首位了；\n\n- 2026.01.28：⚡️ **LightningBoard V2**上线，进一步提升仪表盘性能；\n\n- 2026.01.16：⚡️ **LightningBoard（闪电看板）V1** 现已上线，专为超大图表数量级场景打造；新增**图表嵌入链接**，现在可以把你的图表嵌入到在线文档当中（如Notion、飞书云文档等）；\n\n- 2026.01.02：🥳 新增对**AMD ROCm**与**天数智芯Iluvatar GPU**的硬件监控支持；SDK增加心跳包特性，实现更稳健的端云连接；\n\n- 2025.12.15：🎉 SwanLab **Kubernetes版** 现已发布！[部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fkubernetes-deploy.html)；[NVIDIA NeMo RL](https:\u002F\u002Fgithub.com\u002FNVIDIA-NeMo\u002FRL) 框架已集成SwanLab，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-nvidia-nemo-rl.html)；\n\n- 2025.12.01：🕰 新增**折线图详细信息展示**，鼠标悬浮在折线图上时，单击Shift将开启详细模式，支持显示当前log点的时间；📊 图表分组支持**MIN\u002FMAX区域范围显示**；\n\n- 2025.11.17：📊 全局图表配置增加**X轴数据源选择**、**悬停模式**功能，增加图表分析体验；增加`SWANLAB_WEBHOOK`功能；[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fexperiment_track\u002Fwebhook-setup.html)\n\n\u003Cdetails>\u003Csummary>完整更新日志\u003C\u002Fsummary>\n\n- 2025.11.06：🔪 **实验分组**上线，支持对大批量实验进行分组管理；工作区页面升级，支持快捷在多个组织下切换；大幅优化了折线图的渲染性能；swanlab.init上线`group`与`job_type`参数；\n\n- 2025.10.15：📊折线图配置支持**X轴数据源选择**；侧边栏支持显示表格视图中Pin的列，增强实验数据对齐能力；\n\n- 2025.09.22：📊全新UI上线；表格视图支持全局排序和筛选；数据层面统一表格视图与图表视图；\n\n- 2025.09.12：🔢支持创建**标量图**，灵活显示实验指标的统计值；组织管理页面大升级，提供更强大的权限控制与项目管理能力；\n\n- 2025.08.19：🤔更强大的图表渲染性能与低侵入式加载动画，让研究者更聚焦于实验分析本身；集成优秀的[MLX-LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm)、[SpecForge](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002FSpecForge)框架，提供更多场景的训练体验；\n\n- 2025.08.06：👥**训练轻协作**上线，支持邀请项目协作者，分享项目链接与二维码；工作区支持列表视图，支持显示项目Tags；\n\n- 2025.07.29：🚀侧边栏支持**实验筛选、排序**；📊表格视图上线**列控制面板**，能够方便地实现列的隐藏与显示；🔐**多API Key**管理上线，让你的数据更安全；swanlab sync提高了对日志文件完整性的兼容，适配训练崩溃等场景；新图表-PR曲线、ROC曲线、混淆矩阵上线，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-pr_curve.html)；\n\n- 2025.07.17：📊更强大的**折线图配置**，支持灵活配置线型、颜色、粗细、网格、图例位置等；📹支持**swanlab.Video**数据类型，支持记录与可视化GIF格式文件；全局图表仪表盘支持配置Y轴与最大显示实验数；\n\n- 2025.07.10：📚更强大的**文本视图**，支持Markdown渲染与方向键切换，可由`swanlab.echarts.table`与`swanlab.Text`创建，[Demo](https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fms-swift-rlhf\u002Fruns\u002Fd661ty9mslogsgk41fp0p\u002Fchart)\n\n- 2025.07.06：🚄支持**resume断点续训**；新插件**文件记录器**；集成[ray](https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray)框架，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ray.html)；集成[ROLL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002FROLL)框架，感谢[@PanAndy](https:\u002F\u002Fgithub.com\u002FPanAndy)，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-roll.html)\n\n- 2025.06.27：📊支持**小折线图局部放大**；支持配置**单个折线图平滑**；大幅改进了图像图表放大后的交互效果；\n\n- 2025.06.20：🤗集成[accelerate](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate)框架，[PR](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate\u002Fpull\u002F3605)，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-accelerate.html)，增强分布式训练中的实验记录体验；\n\n- 2025.06.18：🐜集成[AREAL](https:\u002F\u002Fgithub.com\u002FinclusionAI\u002FAReaL)框架，感谢[@xichengpro](https:\u002F\u002Fgithub.com\u002Fxichengpro)，[PR](https:\u002F\u002Fgithub.com\u002FinclusionAI\u002FAReaL\u002Fpull\u002F98)，[文档](https:\u002F\u002Finclusionai.github.io\u002FAReaL\u002Ftutorial\u002Fquickstart.html#monitoring-the-training-process)；🖱支持鼠标Hover到侧边栏实验时，高亮相应曲线；支持跨组对比折线图；支持设置实验名裁剪规则；\n\n- 2025.06.11：📊支持 **swanlab.echarts.table** 数据类型，支持纯文本图表展示；支持对分组进行**拉伸交互**，以增大同时显示的图表数量；表格视图增加 **指标最大\u002F最小值** 选项；\n\n- 2025.06.08：♻️支持在本地存储完整的实验日志文件，通过 **swanlab sync** 上传本地日志文件到云端\u002F私有化部署端；硬件监控支持**海光DCU**；\n\n- 2025.06.01：🏸支持**图表自由拖拽**；支持**ECharts自定义图表**，增加包括柱状图、饼状图、直方图在内的20+图表类型；硬件监控支持**沐曦GPU**；集成 **[PaddleNLP](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP)** 框架；\n\n- 2025.05.25：日志支持记录**标准错误流**，PyTorch Lightning等框架的打印信息可以被更好地记录；硬件监控支持**摩尔线程**；新增运行命令记录安全防护功能，API Key将被自动隐藏；\n\n- 2025.05.14：支持**实验Tag**；支持折线图**Log Scale**；支持**分组拖拽**；大幅度优化了大量指标上传的体验；增加`swanlab.OpenApi`开放接口；\n\n- 2025.05.09：支持**折线图创建**；配置图表功能增加**数据源选择**功能，支持单张图表显示不同的指标；支持生成**训练项目GitHub徽章**；\n\n- 2025.04.23：支持折线图**编辑**，支持自由配置图表的X、Y轴数据范围和标题样式；图表搜索支持**正则表达式**；支持**昆仑芯XPU**的硬件检测与监控；\n\n- 2025.04.11：支持折线图**局部区域选取**；支持全局选择仪表盘折线图的step范围；支持一键隐藏全部图表；\n\n- 2025.04.08：支持**swanlab.Molecule**数据类型，支持记录与可视化生物化学分子数据；支持保存表格视图中的排序、筛选、列顺序变化状态；\n\n- 2025.04.07：我们与 [EvalScope](https:\u002F\u002Fgithub.com\u002FModelScope\u002FEvalScope) 完成了联合集成，现在你可以在EvalScope中使用SwanLab来**评估大模型性能**；\n\n- 2025.03.30：支持**swanlab.Settings**方法，支持更精细化的实验行为控制；支持**寒武纪MLU**硬件监控；支持 [Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)、[Discord通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-discord.html)；\n\n- 2025.03.21：🎉🤗HuggingFace Transformers已正式集成SwanLab（>=4.50.0版本），[#36433](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers\u002Fpull\u002F36433)；新增 **Object3D图表** ，支持记录与可视化三维点云，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-object3d.html)；硬件监控支持了 GPU显存（MB）、磁盘利用率、网络上下行 的记录；\n\n- 2025.03.12：🎉🎉SwanLab**私有化部署版**现已发布！！[🔗部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fdocker-deploy.html)；SwanLab 已支持插件扩展，如 [邮件通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-email.html)、[飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)\n\n- 2025.03.09：支持**实验侧边栏拉宽**；新增外显 Git代码 按钮；新增 **sync_mlflow** 功能，支持与mlflow框架同步实验跟踪；\n\n- 2025.03.06：我们与 [DiffSynth Studio](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fdiffsynth-studio) 完成了联合集成，现在你可以在DiffSynth Studio中使用SwanLab来**跟踪和可视化Diffusion模型文生图\u002F视频实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-diffsynth-studio.html)；\n\n- 2025.03.04：新增 **MLFlow转换** 功能，支持将MLFlow实验转换为SwanLab实验，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlflow.html)；\n\n- 2025.03.01：新增 **移动实验** 功能，现在可以将实验移动到不同组织的不同项目下了；\n\n- 2025.02.24：我们与 [EasyR1](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FEasyR1) 完成了联合集成，现在你可以在EasyR1中使用SwanLab来**跟踪和可视化多模态大模型强化学习实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-easyr1.html)\n\n- 2025.02.18：我们与 [Swift](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fms-swift) 完成了联合集成，现在你可以在Swift的CLI\u002FWebUI中使用SwanLab来**跟踪和可视化大模型微调实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-swift.html)。\n\n- 2025.02.16：新增 **图表移动分组、创建分组** 功能。\n\n- 2025.02.09：我们与 [veRL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002Fverl) 完成了联合集成，现在你可以在veRL中使用SwanLab来**跟踪和可视化大模型强化学习实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-verl.html)。\n\n- 2025.02.05：`swanlab.log`支持嵌套字典 [#812](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F812)，适配Jax框架特性；支持`name`与`notes`参数；\n\n- 2025.01.22：新增`sync_tensorboardX`与`sync_tensorboard_torch`功能，支持与此两种TensorBoard框架同步实验跟踪；\n\n- 2025.01.17：新增`sync_wandb`功能，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-wandb.html)，支持与Weights & Biases实验跟踪同步；大幅改进了日志渲染性能\n\n- 2025.01.11：云端版大幅优化了项目表格的性能，并支持拖拽、排序、筛选等交互\n\n- 2025.01.01：新增折线图**持久化平滑**、折线图拖拽式改变大小，优化图表浏览体验\n\n- 2024.12.22：我们与 [LLaMA Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory) 完成了联合集成，现在你可以在LLaMA Factory中使用SwanLab来**跟踪和可视化大模型微调实验**，[使用指引](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory?tab=readme-ov-file#use-swanlab-logger)。\n\n- 2024.12.15：**硬件监控（0.4.0）** 功能上线，支持CPU、NPU（Ascend）、GPU（Nvidia）的系统级信息记录与监控。\n\n- 2024.12.06：新增对[LightGBM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-lightgbm.html)、[XGBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xgboost.html)的集成；提高了对日志记录单行长度的限制。\n\n- 2024.11.26：环境选项卡-硬件部分支持识别**华为昇腾NPU**与**鲲鹏CPU**；云厂商部分支持识别青云**基石智算**。\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n## 👋🏻 什么是SwanLab\n\nSwanLab 是一款**AI训练分析与指标观测平台**，面向模型训练团队，提供训练可视化、自动日志记录、超参数记录、实验对比、多人协同等功能，帮助团队快速发现训练问题，加速模型迭代。\n\n在SwanLab上，研究者能基于直观的可视化图表发现训练问题，对比多个实验找到研究灵感，并通过**在线网页**的分享与基于组织的**多人协同训练**，打破团队沟通的壁垒，提高组织训练效率。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7965fec4-c8b0-4956-803d-dbf177b44f54\n\n以下是其核心特性列表：\n\n**1. 📊 实验指标与超参数跟踪**: 极简的代码嵌入您的机器学习 pipeline，跟踪记录训练关键指标\n\n- ☁️ 支持**云端**使用（类似Weights & Biases），随时随地查看训练进展。[手机看实验的方法](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fgeneral\u002Fapp.html)\n\n- 📝 支持**超参数记录**、**指标总结**、**表格分析**\n\n- 🌸 **可视化训练过程**: 通过UI界面对实验跟踪数据进行可视化，可以让训练师直观地看到实验每一步的结果，分析指标走势，判断哪些变化导致了模型效果的提升，从而整体性地提升模型迭代效率。\n\n- **支持的元数据类型**：标量指标、图像、音频、文本、视频、3D点云、生物化学分子、Echarts自定义图表...\n\n![swanlab-table](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_25e79245e736.gif)\n\n- **支持的图表类型**：折线图、媒体图（图像、音频、文本、视频）、3D点云、生物化学分子、柱状图、散点图、箱线图、热力图、饼状图、雷达图、[自定义图表](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fexperiment_track\u002Flog-custom-chart.html)...\n\n[![swanlab-echarts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_15451eee32dc.png)](https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fswanlab-echarts-demo\u002Fcharts)\n\n- **LLM生成内容可视化组件**：为大语言模型训练场景打造的文本内容可视化图表，支持Markdown渲染\n\n![text-chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_55980ec0d9be.gif)\n\n- **后台自动记录**：日志logging、硬件环境、Git 仓库、Python 环境、Python 库列表、项目运行目录\n\n- **断点续训记录**：支持在训练完成\u002F中断后，补充新的指标数据到同个实验中\n\n**2. ⚡️ 全面的框架集成**: PyTorch、🤗HuggingFace Transformers、PyTorch Lightning、🦙LLaMA Factory、MMDetection、Ultralytics、PaddleDetetion、LightGBM、XGBoost、Keras、Tensorboard、Weights&Biases、OpenAI、Swift、XTuner、Stable Baseline3、Hydra 在内的 **30+** 框架\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_1753ecc97ca4.png)\n\n**3. 💻 硬件监控**: 支持实时记录与监控CPU、NPU（**昇腾Ascend**）、GPU（**英伟达Nvidia**）、AMD（**AMD ROCm**）、MLU（**寒武纪Cambricon**）、XLU（**昆仑芯Kunlunxin**）、DCU（**海光DCU**）、MetaX GPU（**沐曦XPU**）、Moore Threads GPU（**摩尔线程**）、Iluvatar GPU（**天数智芯**）、内存的系统级硬件指标\n\n**4. 📦 实验管理**: 通过专为训练场景设计的集中式仪表板，通过整体视图速览全局，快速管理多个项目与实验\n\n**5. 🆚 比较结果**: 通过在线表格与对比图表比较不同实验的超参数和结果，挖掘迭代灵感\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_ca0a83251281.png)\n\n**6. 👥 在线协作**: 您可以与团队进行协作式训练，支持将实验实时同步在一个项目下，您可以在线查看团队的训练记录，基于结果发表看法与建议\n\n**7. ✉️ 分享结果**: 复制和发送持久的 URL 来共享每个实验，方便地发送给伙伴，或嵌入到在线笔记中\n\n**8. 💻 支持自托管**: 支持离线环境使用，自托管的社区版同样可以查看仪表盘与管理实验，[使用攻略](#-自托管)\n\n**9. 🔌 插件拓展**: 支持通过插件拓展SwanLab的使用场景，比如 [飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)、[Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)、[CSV记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-csv.html)等\n\n\n> \\[!IMPORTANT]\n>\n> **收藏项目**，你将从 GitHub 上无延迟地接收所有发布通知～ ⭐️\n\n![star-us](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_4439d0fa168d.png)\n\n\u003Cbr>\n\n## 📃 在线演示\n\n来看看 SwanLab 的在线演示：\n\n| [ResNet50 猫狗分类][demo-cats-dogs] | [Yolov8-COCO128 目标检测][demo-yolo] |\n| :--------: | :--------: |\n| [![][demo-cats-dogs-image]][demo-cats-dogs] | [![][demo-yolo-image]][demo-yolo] |\n| 跟踪一个简单的 ResNet50 模型在猫狗数据集上训练的图像分类任务。 | 使用 Yolov8 在 COCO128 数据集上进行目标检测任务，跟踪训练超参数和指标。 |\n\n| [Qwen2 指令微调][demo-qwen2-sft] | [LSTM Google 股票预测][demo-google-stock] |\n| :--------: | :--------: |\n| [![][demo-qwen2-sft-image]][demo-qwen2-sft] | [![][demo-google-stock-image]][demo-google-stock] |\n| 跟踪 Qwen2 大语言模型的指令微调训练，完成简单的指令遵循。 | 使用简单的 LSTM 模型在 Google 股价数据集上训练，实现对未来股价的预测。 |\n\n| [ResNeXt101 音频分类][demo-audio-classification] | [Qwen2-VL COCO数据集微调][demo-qwen2-vl] |\n| :--------: | :--------: |\n| [![][demo-audio-classification-image]][demo-audio-classification] | [![][demo-qwen2-vl-image]][demo-qwen2-vl] |\n| 从ResNet到ResNeXt在音频分类任务上的渐进式实验过程 | 基于Qwen2-VL多模态大模型，在COCO2014数据集上进行Lora微调。 |\n\n| [EasyR1 多模态LLM RL训练][demo-easyr1-rl] | [Qwen2.5-0.5B GRPO训练][demo-qwen2-grpo] |\n| :--------: | :--------: |\n| [![][demo-easyr1-rl-image]][demo-easyr1-rl] | [![][demo-qwen2-grpo-image]][demo-qwen2-grpo] |\n| 使用EasyR1框架进行多模态LLM RL训练 | 基于Qwen2.5-0.5B模型在GSM8k数据集上进行GRPO训练 |\n\n[更多案例](https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fexamples\u002Fmnist.html)\n\n\u003Cbr>\n\n## 🏁 快速开始\n\n### 1.安装\n\n```bash\npip install swanlab\n```\n\n\u003Cdetails>\u003Csummary>源码安装\u003C\u002Fsummary>\n\n如果你想体验最新的特性，可以使用源码安装。\n\n```bash\n# 方式一\ngit clone https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab.git\npip install -e .\n\n# 方式二\npip install git+https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab.git\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>离线看板拓展安装\u003C\u002Fsummary>\n\n[离线看板文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Foffline-board.html)\n\n```bash\npip install 'swanlab[dashboard]'\n```\n\n\u003C\u002Fdetails>\n\n\n### 2.登录并获取 API Key\n\n1. 免费[注册账号](https:\u002F\u002Fswanlab.cn)\n\n2. 登录账号，在用户设置 > [API Key](https:\u002F\u002Fswanlab.cn\u002Fsettings) 里复制您的 API Key\n\n3. 打开终端，输入：\n\n```bash\nswanlab login\n```\n\n出现提示时，输入您的 API Key，按下回车，完成登陆。\n\n### 3.将 SwanLab 与你的代码集成\n\n```python\nimport swanlab\n\n# 初始化一个新的swanlab实验\nswanlab.init(\n    project=\"my-first-ml\",\n    config={'learning-rate': 0.003},\n)\n\n# 记录指标\nfor i in range(10):\n    swanlab.log({\"loss\": i, \"acc\": i})\n```\n\n大功告成！前往[SwanLab](https:\u002F\u002Fswanlab.cn)查看你的第一个 SwanLab 实验。\n\n\u003Cbr>\n\n## 💻 自托管\n\n自托管社区版支持离线查看 SwanLab 仪表盘。\n\n![swanlab-kubernetes](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_9fd708249e70.png)\n\n详细部署文档见：\n\n- [🔗 Kubernetes部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fkubernetes-deploy.html)\n- [🔗 Docker部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fdocker-deploy.html)\n- [🔗 从Docker到Kubernetes迁移文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fmigration-docker-kubernetes.html)\n\n\u003Cbr>\n\n## 🔥 实战案例\n\n**使用SwanLab的优秀教程开源项目：**\n- [happy-llm](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fhappy-llm)：从零开始的大语言模型原理与实践教程 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Fhappy-llm)\n- [self-llm](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fself-llm)：《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调（全参数\u002FLora）、部署国内外开源大模型（LLM）\u002F多模态大模型（MLLM）教程 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Fself-llm)\n- [Minimind](https:\u002F\u002Fgithub.com\u002Fjingyaogong\u002Fminimind)：🚀🚀 「大模型」2小时完全从0训练26M的小参数GPT！![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjingyaogong\u002Fminimind)\n- [unlock-deepseek](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Funlock-deepseek)：DeepSeek 系列工作解读、扩展和复现 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Funlock-deepseek)\n- [Qwen3-SmVL](https:\u002F\u002Fgithub.com\u002FShaohonChen\u002FQwen3-SmVL): 将SmolVLM2的视觉头与Qwen3-0.6B模型进行了拼接微调 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FShaohonChen\u002FQwen3-SmVL)\n- [OPPO\u002FAgent_Foundation_Models](https:\u002F\u002Fgithub.com\u002FOPPO-PersonalAI\u002FAgent_Foundation_Models): 通过多Agent蒸馏和Agent RL的端到端Agent基础模型。 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOPPO-PersonalAI\u002FAgent_Foundation_Models)\n- [Tree-GRPO](https:\u002F\u002Fgithub.com\u002FAMAP-ML\u002FTree-GRPO): [ICLR 2026] 树搜索在LLM Agent RL中的应用 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAMAP-ML\u002FTree-GRPO)\n\n\n**使用SwanLab的优秀论文：**\n- [MolAct: An Agentic RL Framework for Molecular Editing and Property Optimization](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.20135)\n- [CQLLM: A Framework for Generating CodeQL Security Vulnerability Detection Code Based on Large Language Model](https:\u002F\u002Fwww.preprints.org\u002Fmanuscript\u002F202510.1458)\n- [Animation Needs Attention: A Holistic Approach to Slides Animation Comprehension with Visual-Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.03916)\n- [Efficient Model Fine-Tuning with LoRA for Biomedical Named Entity Recognition](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11082049\u002F)\n- [SpectrumWorld: Artificial Intelligence Foundation for Spectroscopy](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.01188)\n- [CodeBoost: Boosting Code LLMs by Squeezing Knowledge from Code Snippets with RL](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2508.05242)\n- [A Joint Classification Method for Traditional Chinese Medicine Diseases and Syndromes Based on BertChinese-RCNNATTN](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Ffull\u002F10.1145\u002F3759972.3759979)\n- [A Gradient-Norm-Aware Optimizer for Symmetry-Preserving and Stable Deep Learning](https:\u002F\u002Fwww.mdpi.com\u002F2073-8994\u002F18\u002F2\u002F374)\n- [TrafficBM: A Dual-Modality Pre-Training Framework for Network Traffic Classification](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F11304658)\n- [Using Human Cumulative Prospect Theory to Understand Large Language Models Decision-Making](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F11300712)\n\n**教程文章：**\n- [MNIST手写体识别](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fmnist.html)\n- [FashionMNIST服装分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Ffashionmnist.html)\n- [Cifar10图像分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fcifar10.html)\n- [Resnet猫狗分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fcats_dogs_classification.html)\n- [Yolo目标检测](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fyolo.html)\n- [UNet医学影像分割](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Funet-medical-segmentation.html)\n- [音频分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Faudio_classification.html)\n- [DQN强化学习-推车倒立摆](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fdqn_cartpole.html)\n- [LSTM Google股票预测](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Faudio_classification.html)\n- [BERT文本分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fbert.html)\n- [Stable Diffusion文生图微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fstable_diffusion.html)\n- [LLM预训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fpretrain_llm.html)\n- [GLM4指令微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fglm4-instruct.html)\n- [Qwen下游任务训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_finetune.html)\n- [NER命名实体识别](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fner.html)\n- [Qwen3医学模型微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen3-medical.html)\n- [Qwen2-VL多模态大模型微调实战](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_vl_coco.html)\n- [GRPO大模型强化学习](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_grpo.html)\n- [Qwen3-SmVL-0.6B多模态模型训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen3_smolvlm_muxi.html)\n- [LeRobot 具身智能入门](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Frobot\u002Flerobot-guide.html)\n- [GLM-4.5-Air-LoRA 及 SwanLab 可视化记录](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fself-llm\u002Fblob\u002Fmaster\u002Fmodels\u002FGLM-4.5-Air\u002F03-GLM-4.5-Air-Lora%20%E5%8F%8A%20Swanlab%20%E5%8F%AF%E8%A7%86%E5%8C%96%E5%BE%AE%E8%B0%83.md)\n- [RAG怎么做？SwanLab文档助手方案开源了](https:\u002F\u002Fdocs.swanlab.cn\u002Fcourse\u002Fprompt_engineering_course\u002F11-swanlab_rag\u002F1.swanlab-rag.html)\n\n🌟如果你有想收录的教程，欢迎提交PR！\n\n\u003Cbr>\n\n## 🎮 硬件记录\n\nSwanLab会对AI训练过程中所使用的**硬件信息**和**资源使用情况**进行记录，下面是支持情况表格：\n\n| 硬件 | 信息记录 | 资源监控 | 脚本 |\n| --- | --- | --- | --- |\n| 英伟达GPU | ✅ | ✅ | [nvidia.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fnvidia.py) |\n| AMD ROCm | ✅ | ✅ | [amd.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Famd.py) |\n| 昇腾NPU | ✅ | ✅ | [ascend.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fnpu\u002Fascend.py) |\n| 苹果SOC | ✅ | ✅ | [apple.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fsoc\u002Fapple.py) |\n| 寒武纪MLU | ✅ | ✅ | [cambricon.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fmlu\u002Fcambricon.py) |\n| 昆仑芯XPU | ✅ | ✅ | [kunlunxin.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fxpu\u002Fkunlunxin.py) |\n| 摩尔线程GPU | ✅ | ✅ | [moorethreads.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fmoorethreads.py) |\n| 沐曦GPU | ✅ | ✅ | [metax.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fmetax.py) |\n| 天数智芯GPU | ✅ | ✅ | [iluvatar.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Filuvatar.py) |\n| 海光DCU | ✅ | ✅ | [hygon.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fdcu\u002Fhygon.py) |\n| CPU    | ✅ | ✅ | [cpu.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fcpu.py) |\n| 内存   | ✅ | ✅ | [memory.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fmemory.py) |\n| 硬盘   | ✅ | ✅ | [disk.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fdisk.py) |\n| 网络 | ✅ | ✅ | [network.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fnetwork.py) |\n\n如果你希望记录其他硬件，欢迎提交Issue与PR！\n\n\u003Cbr>\n\n## 🚗 框架集成\n\n将你最喜欢的框架与 SwanLab 结合使用！  \n下面是我们已集成的框架列表，欢迎提交 [Issue](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues) 来反馈你想要集成的框架。\n\n**基础框架**\n- [PyTorch](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch.html)\n- [MindSpore](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ascend.html)\n- [Keras](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-keras.html)\n\n**LLM训练框架**\n- [HuggingFace Transformers](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-transformers.html)\n- [LLaMA Factory](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-llama-factory.html)\n- [MS-Swift](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-swift.html)\n- [Unsloth](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-unsloth.html)\n- [MLX-LM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlx-lm.html)\n- [Torchtune](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch-torchtune.html)\n- [PaddleNLP](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddlenlp.html)\n- [Sentence Transformers](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-sentence-transformers.html)\n- [XTuner](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xtuner.html)\n- [OpenMind](https:\u002F\u002Fmodelers.cn\u002Fdocs\u002Fzh\u002Fopenmind-library\u002F1.0.0\u002Fbasic_tutorial\u002Ffinetune\u002Ffinetune_pt.html#%E8%AE%AD%E7%BB%83%E7%9B%91%E6%8E%A7)\n\n**LLM强化学习框架**\n- [veRL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-verl.html)\n- [HuggingFace trl](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-trl.html)\n- [NVIDIA-NeMo RL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-nvidia-nemo-rl.html)\n- [EasyR1](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-easyr1.html)\n- [AReaL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-areal.html)\n- [ROLL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-roll.html)\n\n**机器人框架**\n- [RLinf](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-rlinf.html)\n\n**文生图\u002F视频训练框架**\n- [DiffSynth Studio](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-diffsynth-studio.html)\n\n**深度学习框架**\n- [PyTorch Lightning](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch-lightning.html)\n- [MMEngine](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmengine.html)\n- [FastAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-fastai.html)\n\n**计算机视觉**\n- [Ultralytics](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ultralytics.html)\n- [MMDetection](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmdetection.html)\n- [MMSegmentation](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmsegmentation.html)\n- [PaddleDetection](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddledetection.html)\n- [PaddleYOLO](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddleyolo.html)\n\n**机器学习框架**\n- [LightGBM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-lightgbm.html)\n- [XGBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xgboost.html)\n- [CatBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-catboost.html)\n\n**评估框架**\n- [EvalScope](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-evalscope.html)\n\n**传统强化学习框架**\n- [Stable Baseline3](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-sb3.html)\n\n**其他框架：**\n- [Tensorboard](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-tensorboard.html)\n- [Weights&Biases](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-wandb.html)\n- [MLFlow](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlflow.html)\n- [HuggingFace Accelerate](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-accelerate.html)\n- [Ray](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ray.html)\n- [Hydra](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-hydra.html)\n- [Omegaconf](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-omegaconf.html)\n- [OpenAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-openai.html)\n- [ZhipuAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-zhipuai.html)\n- [SpecForge](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-specforge.html)\n\n[更多集成](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002F)\n\n\u003Cbr>\n\n\n## 🔌 插件与API\n\n欢迎通过插件来拓展SwanLab的功能，增强你的实验管理体验！\n\n- [自定义你的插件](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fcustom-plugin.html)\n- [邮件通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-email.html)\n- [飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)\n- [钉钉通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-dingtalk.html)\n- [企业微信通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-wxwork.html)\n- [Discord通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-discord.html)\n- [Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)\n- [Bark通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-bark.html)\n- [CSV记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-csv.html)\n- [文件记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-filelogdir.html)\n\n开放接口：\n- [OpenAPI](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-openapi.html)\n\n\u003Cbr>\n\n## 🆚 与熟悉的工具的比较\n\n### Tensorboard vs SwanLab\n\n- **☁️ 支持在线使用**：\n  通过 SwanLab 可以方便地将训练实验在云端在线同步与保存，便于远程查看训练进展、管理历史项目、分享实验链接、发送实时消息通知、多端看实验等。而 Tensorboard 是一个离线的实验跟踪工具。\n\n- **👥 多人协作**：\n  在进行多人、跨团队的机器学习协作时，通过 SwanLab 可以轻松管理多人的训练项目、分享实验链接、跨空间交流讨论。而 Tensorboard 主要为个人设计，难以进行多人协作和分享实验。\n\n- **💻 持久、集中的仪表板**：\n  无论你在何处训练模型，无论是在本地计算机上、在实验室集群还是在公有云的 GPU 实例中，你的结果都会记录到同一个集中式仪表板中。而使用 TensorBoard 需要花费时间从不同的机器复制和管理\n  TFEvent 文件。\n\n- **💪 更强大的表格**：\n  通过 SwanLab 表格可以查看、搜索、过滤来自不同实验的结果，可以轻松查看数千个模型版本并找到适合不同任务的最佳性能模型。\n  TensorBoard 不适用于大型项目。\n\n### Weights and Biases vs SwanLab\n\n- Weights and Biases 是一个必须联网使用的闭源 MLOps 平台\n\n- SwanLab 不仅支持联网使用，也支持开源、免费、自托管的版本\n\n\u003Cbr>\n\n## 👥 社区\n\n### 周边仓库\n\n- [self-hosted](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fself-hosted)：私有化部署脚本仓库\n- [SwanLab-Docs](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab-docs)：官方文档仓库\n- [SwanLab-Dashboard](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab-dashboard)：离线看板仓库，存放了由`swanlab watch`打开的轻量离线看板的web代码\n\n### 社区与支持\n\n- [GitHub Issues](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues)：使用 SwanLab 时遇到的错误和问题\n- [电子邮件支持](zeyi.lin@swanhub.co)：反馈关于使用 SwanLab 的问题\n- \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html\">微信交流群\u003C\u002Fa>：交流使用 SwanLab 的问题、分享最新的 AI 技术\n\n### SwanLab README 徽章\n\n如果你喜欢在工作中使用 SwanLab，请将 SwanLab 徽章添加到你的 README 中：\n\n[![][tracking-swanlab-shield]][tracking-swanlab-shield-link]、[![][visualize-swanlab-shield]][visualize-swanlab-shield-link]\n\n```\n[![](https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge2.svg)](your experiment url)\n[![](https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge1.svg)](your experiment url)\n```\n\n更多设计素材：[assets](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002Fassets)\n\n### 在论文中引用 SwanLab\n\n如果您发现 SwanLab 对您的研究之旅有帮助，请考虑以下列格式引用：\n\n```bibtex\n@software{Zeyilin_SwanLab_2023,\n  author = {Zeyi Lin, Shaohong Chen, Kang Li, Qiushan Jiang, Zirui Cai,  Kaifang Ji and {The SwanLab team}},\n  doi = {10.5281\u002Fzenodo.11100550},\n  license = {Apache-2.0},\n  title = {{SwanLab}},\n  url = {https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab},\n  year = {2023}\n}\n```\n\n### 为 SwanLab 做出贡献\n\n考虑为 SwanLab 做出贡献吗？首先，请花点时间阅读 [贡献指南](CONTRIBUTING.md)。\n\n同时，我们非常欢迎通过社交媒体、活动和会议的分享来支持 SwanLab，衷心感谢！\n\n\u003Cbr>\n\n**Contributors**\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_4104f1bbea81.png\" \u002F>\n\u003C\u002Fa>\n\n\u003Cbr>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_d186cab66e4c.png\" width=\"50%\" \u002F>\n\n\n## 📃 协议\n\n本仓库遵循 [Apache 2.0 License](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002FLICENSE) 开源协议\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_a72c45ea06b8.png)](https:\u002F\u002Fstar-history.com\u002F#swanhubx\u002Fswanlab&Date)\n\n\u003C!-- link -->\n\n[release-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fswanhubx\u002Fswanlab?color=369eff&labelColor=black&logo=github&style=flat-square\n[release-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Freleases\n\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-apache%202.0-white?labelColor=black&style=flat-square\n[license-shield-link]: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002FLICENSE\n\n[last-commit-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fswanhubx\u002Fswanlab?color=c4f042&labelColor=black&style=flat-square\n[last-commit-shield-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fcommits\u002Fmain\n\n[pypi-version-shield]: https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fswanlab?color=orange&labelColor=black&style=flat-square\n[pypi-version-shield-link]: https:\u002F\u002Fpypi.org\u002Fproject\u002Fswanlab\u002F\n\n[pypi-downloads-shield]: https:\u002F\u002Fstatic.pepy.tech\u002Fbadge\u002Fswanlab?labelColor=black&style=flat-square\n[pypi-downloads-shield-link]: https:\u002F\u002Fpepy.tech\u002Fproject\u002Fswanlab\n\n[swanlab-cloud-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProduct-SwanLab云端版-636a3f?labelColor=black&style=flat-square\n[swanlab-cloud-shield-link]: https:\u002F\u002Fswanlab.cn\u002F\n\n[wechat-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-微信-4cb55e?labelColor=black&style=flat-square\n[wechat-shield-link]: https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html\n\n[colab-shield]: https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\n[colab-shield-link]: https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1RWsrY_1bS8ECzaHvYtLb_1eBkkdzekR3?usp=sharing\n\n[github-stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fswanhubx\u002Fswanlab?labelColor&style=flat-square&color=ffcb47\n[github-stars-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\n\n[github-issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fswanhubx\u002Fswanlab?labelColor=black&style=flat-square&color=ff80eb\n[github-issues-shield-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues\n\n[github-contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fswanhubx\u002Fswanlab?color=c4f042&labelColor=black&style=flat-square\n[github-contributors-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fgraphs\u002Fcontributors\n\n[demo-cats-dogs]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FCats_Dogs_Classification\u002Fruns\u002Fjzo93k112f15pmx14vtxf\u002Fchart\n[demo-cats-dogs-image]: readme_files\u002Fexample-catsdogs.png\n\n[demo-yolo]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fultratest\u002Fruns\u002Fyux7vclmsmmsar9ear7u5\u002Fchart\n[demo-yolo-image]: readme_files\u002Fexample-yolo.png\n\n[demo-qwen2-sft]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FQwen2-fintune\u002Fruns\u002Fcfg5f8dzkp6vouxzaxlx6\u002Fchart\n[demo-qwen2-sft-image]: readme_files\u002Fexample-qwen2.png\n\n[demo-google-stock]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FGoogle-Stock-Prediction\u002Fcharts\n[demo-google-stock-image]: readme_files\u002Fexample-lstm.png\n\n[demo-audio-classification]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FPyTorch_Audio_Classification\u002Fcharts\n[demo-audio-classification-image]: readme_files\u002Fexample-audio-classification.png\n\n[demo-qwen2-vl]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FQwen2-VL-finetune\u002Fruns\u002Fpkgest5xhdn3ukpdy6kv5\u002Fchart\n[demo-qwen2-vl-image]: readme_files\u002Fexample-qwen2-vl.jpg\n\n[demo-easyr1-rl]:https:\u002F\u002Fswanlab.cn\u002F@Kedreamix\u002Feasy_r1\u002Fruns\u002Fwzezd8q36bb6dlza6wtpc\u002Fchart\n[demo-easyr1-rl-image]: readme_files\u002Fexample-easyr1-rl.png\n\n[demo-qwen2-grpo]:https:\u002F\u002Fswanlab.cn\u002F@kmno4\u002FQwen-R1\u002Fruns\u002Ft0zr3ak5r7188mjbjgdsc\u002Fchart\n[demo-qwen2-grpo-image]: readme_files\u002Fexample-qwen2-grpo.png\n\n[tracking-swanlab-shield-link]:https:\u002F\u002Fswanlab.cn\n[tracking-swanlab-shield]: https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge2.svg\n\n[visualize-swanlab-shield-link]:https:\u002F\u002Fswanlab.cn\n[visualize-swanlab-shield]: https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge1.svg\n\n[dockerhub-shield]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fv\u002Fswanlab\u002Fswanlab-next?color=369eff&label=docker&labelColor=black&logoColor=white&style=flat-square\n[dockerhub-link]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fswanlab\u002Fswanlab-next\u002Ftags\n","\u003Cdiv align=\"center\">\n\n\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"readme_files\u002Fswanlab-logo-type2-dark.svg\">\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"readme_files\u002Fswanlab-logo-type2-light.svg\">\n  \u003Cimg alt=\"SwanLab\" src=\"readme_files\u002Fswanlab-logo-type2-light.svg\" width=\"300\" height=\"130\">\n\u003C\u002Fpicture>\n\n一个专业、现代化设计的AI训练分析平台  \n面向模型训练团队，与50+主流框架集成，与你的实验代码轻松结合\n\n\u003Ca href=\"https:\u002F\u002Fswanlab.cn\">🔥SwanLab 在线版\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\">📃 文档\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues\">报告问题\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fgeektechstudio.feishu.cn\u002Fshare\u002Fbase\u002Fform\u002FshrcnyBlK8OMD0eweoFcc2SvWKc\">建议反馈\u003C\u002Fa> · \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fguide_cloud\u002Fgeneral\u002Fchangelog.html\">更新日志\u003C\u002Fa> · \u003Cimg height=\"16\" width=\"16\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fcommunity.svg\" alt=\"swanlab community Logo\" \u002F> \u003Ca href=\"https:\u002F\u002Fswanlab.cn\u002Fbenchmarks\">基线社区\u003C\u002Fa>\n\n[![][release-shield]][release-link]\n[![][dockerhub-shield]][dockerhub-link]\n[![][github-stars-shield]][github-stars-link]\n[![][github-issues-shield]][github-issues-shield-link]\n[![][github-contributors-shield]][github-contributors-link]\n[![][license-shield]][license-shield-link]  \n[![][tracking-swanlab-shield]][tracking-swanlab-shield-link]\n[![][last-commit-shield]][last-commit-shield-link]\n[![][pypi-version-shield]][pypi-version-shield-link]\n[![][wechat-shield]][wechat-shield-link]\n[![][pypi-downloads-shield]][pypi-downloads-shield-link]\n[![][colab-shield]][colab-shield-link]\n\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_e5bd2cfc572c.png)\n\n中文 \u002F [English](README_EN.md) \u002F [日本語](README_JP.md) \u002F [Русский](README_RU.md)\n\n👋 加入我们的[微信群](https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html)\n\n\u003Ca href=\"https:\u002F\u002Fhellogithub.com\u002Frepository\u002Fb442a9fa270e4ccb8847c9ee3445e41b\" target=\"_blank\">\u003Cimg src=\"https:\u002F\u002Fabroad.hellogithub.com\u002Fv1\u002Fwidgets\u002Frecommend.svg?rid=b442a9fa270e4ccb8847c9ee3445e41b&claim_uid=Oh5UaGjfrblg0yZ\" alt=\"Featured｜HelloGitHub\" style=\"width: 250px; height: 54px;\" width=\"250\" height=\"54\" \u002F>\u003C\u002Fa>\n\n\n\u003C\u002Fdiv>\n\n\u003Cbr\u002F>\n\n\n## 目录\n\n- [🌟 最近更新](#-最近更新)\n- [👋🏻 什么是SwanLab](#-什么是swanlab)\n- [📃 在线演示](#-在线演示)\n- [🏁 快速开始](#-快速开始)\n- [💻 自托管](#-自托管)\n- [🔥 实战案例](#-实战案例)\n- [🎮 硬件记录](#-硬件记录)\n- [🚗 框架集成](#-框架集成)\n- [🔌 插件与API](#-插件与api)\n- [🆚 与熟悉的工具的比较](#-与熟悉的工具的比较)\n- [👥 社区](#-社区)\n- [📃 协议](#-协议)\n\n\u003Cbr\u002F>\n\n\n## 🌟 最近更新\n\n- 2026.03.25：📊 **实验置顶**上线，一键将最好的实验固定在到最好找的位置；**Baseline**对比功能上线，支持将实验们和baseline对比并显示差异百分比，加速找到最佳参数组合；\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F964380e0-feb2-480d-b1ca-eba1be239ebb\n\n- 2026.03.19：📊 新增**实验复制**功能，支持将创建实验副本到不同项目、团队下；**parallel**模式上线，支持在不同进程同时记录指标到同一实验下；实验ID现在可以自定义了；\n\n- 2026.02.06: 🔥 **swanlab.Api**已正式上线，提供更强大的、面向对象式的开放API接口，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-api.html)；ECharts.Table支持CSV下载；现在支持将图表一键置于分组首位了；\n\n- 2026.01.28：⚡️ **LightningBoard V2**上线，进一步提升仪表盘性能；\n\n- 2026.01.16：⚡️ **LightningBoard（闪电看板）V1** 现已上线，专为超大图表数量级场景打造；新增**图表嵌入链接**，现在可以把你的图表嵌入到在线文档当中（如Notion、飞书云文档等）；\n\n- 2026.01.02：🥳 新增对**AMD ROCm**与**天数智芯Iluvatar GPU**的硬件监控支持；SDK增加心跳包特性，实现更稳健的端云连接；\n\n- 2025.12.15：🎉 SwanLab **Kubernetes版** 现已发布！[部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fkubernetes-deploy.html)；[NVIDIA NeMo RL](https:\u002F\u002Fgithub.com\u002FNVIDIA-NeMo\u002FRL) 框架已集成SwanLab，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-nvidia-nemo-rl.html)；\n\n- 2025.12.01：🕰 新增**折线图详细信息展示**，鼠标悬浮在折线图上时，单击Shift将开启详细模式，支持显示当前log点的时间；📊 图表分组支持**MIN\u002FMAX区域范围显示**；\n\n- 2025.11.17：📊 全局图表配置增加**X轴数据源选择**、**悬停模式**功能，增加图表分析体验；增加`SWANLAB_WEBHOOK`功能；[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fexperiment_track\u002Fwebhook-setup.html)\n\n\u003Cdetails>\u003Csummary>完整更新日志\u003C\u002Fsummary>\n\n- 2025.11.06：🔪 **实验分组**上线，支持对大批量实验进行分组管理；工作区页面升级，支持快捷在多个组织下切换；大幅优化了折线图的渲染性能；swanlab.init上线`group`与`job_type`参数；\n\n- 2025.10.15：📊折线图配置支持**X轴数据源选择**；侧边栏支持显示表格视图中Pin的列，增强实验数据对齐能力；\n\n- 2025.09.22：📊全新UI上线；表格视图支持全局排序和筛选；数据层面统一表格视图与图表视图；\n\n- 2025.09.12：🔢支持创建**标量图**，灵活显示实验指标的统计值；组织管理页面大升级，提供更强大的权限控制与项目管理能力；\n\n- 2025.08.19：🤔更强大的图表渲染性能与低侵入式加载动画，让研究者更聚焦于实验分析本身；集成优秀的[MLX-LM](https:\u002F\u002Fgithub.com\u002Fml-explore\u002Fmlx-lm)、[SpecForge](https:\u002F\u002Fgithub.com\u002Fsgl-project\u002FSpecForge)框架，提供更多场景的训练体验；\n\n- 2025.08.06：👥**训练轻协作**上线，支持邀请项目协作者，分享项目链接与二维码；工作区支持列表视图，支持显示项目Tags；\n\n- 2025.07.29：🚀侧边栏支持**实验筛选、排序**；📊表格视图上线**列控制面板**，能够方便地实现列的隐藏与显示；🔐**多API Key**管理上线，让你的数据更安全；swanlab sync提高了对日志文件完整性的兼容，适配训练崩溃等场景；新图表-PR曲线、ROC曲线、混淆矩阵上线，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-pr_curve.html)；\n\n- 2025.07.17：📊更强大的**折线图配置**，支持灵活配置线型、颜色、粗细、网格、图例位置等；📹支持**swanlab.Video**数据类型，支持记录与可视化GIF格式文件；全局图表仪表盘支持配置Y轴与最大显示实验数；\n\n- 2025.07.10：📚更强大的**文本视图**，支持Markdown渲染与方向键切换，可由`swanlab.echarts.table`与`swanlab.Text`创建，[Demo](https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fms-swift-rlhf\u002Fruns\u002Fd661ty9mslogsgk41fp0p\u002Fchart)\n\n- 2025.07.06：🚄支持**resume断点续训**；新插件**文件记录器**；集成[ray](https:\u002F\u002Fgithub.com\u002Fray-project\u002Fray)框架，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ray.html)；集成[ROLL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002FROLL)框架，感谢[@PanAndy](https:\u002F\u002Fgithub.com\u002FPanAndy)，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-roll.html)\n\n- 2025.06.27：📊支持**小折线图局部放大**；支持配置**单个折线图平滑**；大幅改进了图像图表放大后的交互效果；\n\n- 2025.06.20：🤗集成[accelerate](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate)框架，[PR](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Faccelerate\u002Fpull\u002F3605)，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-accelerate.html)，增强分布式训练中的实验记录体验；\n\n- 2025.06.18：🐜集成[AREAL](https:\u002F\u002Fgithub.com\u002FinclusionAI\u002FAReaL)框架，感谢[@xichengpro](https:\u002F\u002Fgithub.com\u002Fxichengpro)，[PR](https:\u002F\u002Fgithub.com\u002FinclusionAI\u002FAReaL\u002Fpull\u002F98)，[文档](https:\u002F\u002Finclusionai.github.io\u002FAReaL\u002Ftutorial\u002Fquickstart.html#monitoring-the-training-process)；🖱支持鼠标Hover到侧边栏实验时，高亮相应曲线；支持跨组对比折线图；支持设置实验名裁剪规则；\n\n- 2025.06.11：📊支持 **swanlab.echarts.table** 数据类型，支持纯文本图表展示；支持对分组进行**拉伸交互**，以增大同时显示的图表数量；表格视图增加 **指标最大\u002F最小值** 选项；\n\n- 2025.06.08：♻️支持在本地存储完整的实验日志文件，通过 **swanlab sync** 上传本地日志文件到云端\u002F私有化部署端；硬件监控支持**海光DCU**；\n\n- 2025.06.01：🏸支持**图表自由拖拽**；支持**ECharts自定义图表**，增加包括柱状图、饼状图、直方图在内的20+图表类型；硬件监控支持**沐曦GPU**；集成 **[PaddleNLP](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP)** 框架；\n\n- 2025.05.25：日志支持记录**标准错误流**，PyTorch Lightning等框架的打印信息可以被更好地记录；硬件监控支持**摩尔线程**；新增运行命令记录安全防护功能，API Key将被自动隐藏；\n\n- 2025.05.14：支持**实验Tag**；支持折线图**Log Scale**；支持**分组拖拽**；大幅度优化了大量指标上传的体验；增加`swanlab.OpenApi`开放接口；\n\n- 2025.05.09：支持**折线图创建**；配置图表功能增加**数据源选择**功能，支持单张图表显示不同的指标；支持生成**训练项目GitHub徽章**；\n\n- 2025.04.23：支持折线图**编辑**，支持自由配置图表的X、Y轴数据范围和标题样式；图表搜索支持**正则表达式**；支持**昆仑芯XPU**的硬件检测与监控；\n\n- 2025.04.11：支持折线图**局部区域选取**；支持全局选择仪表盘折线图的step范围；支持一键隐藏全部图表；\n\n- 2025.04.08：支持**swanlab.Molecule**数据类型，支持记录与可视化生物化学分子数据；支持保存表格视图中的排序、筛选、列顺序变化状态；\n\n- 2025.04.07：我们与 [EvalScope](https:\u002F\u002Fgithub.com\u002FModelScope\u002FEvalScope) 完成了联合集成，现在你可以在EvalScope中使用SwanLab来**评估大模型性能**；\n\n- 2025.03.30：支持**swanlab.Settings**方法，支持更精细化的实验行为控制；支持**寒武纪MLU**硬件监控；支持 [Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)、[Discord通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-discord.html)；\n\n- 2025.03.21：🎉🤗HuggingFace Transformers已正式集成SwanLab（>=4.50.0版本），[#36433](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers\u002Fpull\u002F36433)；新增 **Object3D图表** ，支持记录与可视化三维点云，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-object3d.html)；硬件监控支持了 GPU显存（MB）、磁盘利用率、网络上下行 的记录；\n\n- 2025年3月12日：🎉🎉SwanLab**私有化部署版**现已发布！！[🔗部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fdocker-deploy.html)；SwanLab已支持插件扩展，如[邮件通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-email.html)、[飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)\n\n- 2025年3月9日：支持**实验侧边栏拉宽**；新增外显Git代码按钮；新增**sync_mlflow**功能，支持与MLflow框架同步实验跟踪；\n\n- 2025年3月6日：我们与[DiffSynth Studio](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fdiffsynth-studio)完成了联合集成，现在你可以在DiffSynth Studio中使用SwanLab来**跟踪和可视化扩散模型文生图\u002F视频实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-diffsynth-studio.html)；\n\n- 2025年3月4日：新增**MLFlow转换**功能，支持将MLFlow实验转换为SwanLab实验，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlflow.html)；\n\n- 2025年3月1日：新增**移动实验**功能，现在可以将实验移动到不同组织的不同项目下了；\n\n- 2025年2月24日：我们与[EasyR1](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FEasyR1)完成了联合集成，现在你可以在EasyR1中使用SwanLab来**跟踪和可视化多模态大模型强化学习实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-easyr1.html)\n\n- 2025年2月18日：我们与[Swift](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fms-swift)完成了联合集成，现在你可以在Swift的CLI\u002FWebUI中使用SwanLab来**跟踪和可视化大模型微调实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-swift.html)。\n\n- 2025年2月16日：新增**图表移动分组、创建分组**功能。\n\n- 2025年2月9日：我们与[veRL](https:\u002F\u002Fgithub.com\u002Fvolcengine\u002Fverl)完成了联合集成，现在你可以在veRL中使用SwanLab来**跟踪和可视化大模型强化学习实验**，[使用指引](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-verl.html)。\n\n- 2025年2月5日：`swanlab.log`支持嵌套字典[#812](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F812)，适配Jax框架特性；支持`name`与`notes`参数；\n\n- 2025年1月22日：新增`sync_tensorboardX`与`sync_tensorboard_torch`功能，支持与此两种TensorBoard框架同步实验跟踪；\n\n- 2025年1月17日：新增`sync_wandb`功能，[文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-wandb.html)，支持与Weights & Biases实验跟踪同步；大幅改进了日志渲染性能\n\n- 2025年1月11日：云端版大幅优化了项目表格的性能，并支持拖拽、排序、筛选等交互\n\n- 2025年1月1日：新增折线图**持久化平滑**、折线图拖拽式改变大小，优化图表浏览体验\n\n- 2024年12月22日：我们与[LLaMA Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory)完成了联合集成，现在你可以在LLaMA Factory中使用SwanLab来**跟踪和可视化大模型微调实验**，[使用指引](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory?tab=readme-ov-file#use-swanlab-logger)。\n\n- 2024年12月15日：**硬件监控（0.4.0）**功能上线，支持CPU、NPU（Ascend）、GPU（Nvidia）的系统级信息记录与监控。\n\n- 2024年12月6日：新增对[LightGBM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-lightgbm.html)、[XGBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xgboost.html)的集成；提高了对日志记录单行长度的限制。\n\n- 2024年11月26日：环境选项卡-硬件部分支持识别**华为昇腾NPU**与**鲲鹏CPU**；云厂商部分支持识别青云**基石智算**。\n\n\u003C\u002Fdetails>\n\n\u003Cbr>\n\n\n\n## 👋🏻什么是SwanLab\n\nSwanLab是一款**AI训练分析与指标观测平台**，面向模型训练团队，提供训练可视化、自动日志记录、超参数记录、实验对比、多人协同等功能，帮助团队快速发现训练问题，加速模型迭代。\n\n在SwanLab上，研究者能基于直观的可视化图表发现训练问题，对比多个实验找到研究灵感，并通过**在线网页**的分享与基于组织的**多人协同训练**，打破团队沟通的壁垒，提高组织训练效率。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7965fec4-c8b0-4956-803d-dbf177b44f54\n\n以下是其核心特性列表：\n\n**1. 📊 实验指标与超参数跟踪**: 极简的代码嵌入您的机器学习pipeline，跟踪记录训练关键指标\n\n- ☁️ 支持**云端**使用（类似Weights & Biases），随时随地查看训练进展。[手机看实验的方法](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fgeneral\u002Fapp.html)\n\n- 📝 支持**超参数记录**、**指标总结**、**表格分析**\n\n- 🌸 **可视化训练过程**: 通过UI界面对实验跟踪数据进行可视化，可以让训练师直观地看到实验每一步的结果，分析指标走势，判断哪些变化导致了模型效果的提升，从而整体性地提升模型迭代效率。\n\n- **支持的元数据类型**：标量指标、图像、音频、文本、视频、3D点云、生物化学分子、Echarts自定义图表...\n\n![swanlab-table](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_25e79245e736.gif)\n\n- **支持的图表类型**：折线图、媒体图（图像、音频、文本、视频）、3D点云、生物化学分子、柱状图、散点图、箱线图、热力图、饼状图、雷达图、[自定义图表](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fexperiment_track\u002Flog-custom-chart.html)...\n\n[![swanlab-echarts](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_15451eee32dc.png)](https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fswanlab-echarts-demo\u002Fcharts)\n\n- **LLM生成内容可视化组件**：为大语言模型训练场景打造的文本内容可视化图表，支持Markdown渲染\n\n![text-chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_55980ec0d9be.gif)\n\n- **后台自动记录**：日志logging、硬件环境、Git仓库、Python环境、Python库列表、项目运行目录\n\n- **断点续训记录**：支持在训练完成\u002F中断后，补充新的指标数据到同个实验中\n\n**2. ⚡️ 全面的框架集成**: PyTorch、🤗HuggingFace Transformers、PyTorch Lightning、🦙LLaMA Factory、MMDetection、Ultralytics、PaddleDetetion、LightGBM、XGBoost、Keras、Tensorboard、Weights&Biases、OpenAI、Swift、XTuner、Stable Baseline3、Hydra在内的**30+**框架\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_1753ecc97ca4.png)\n\n**3. 💻 硬件监控**: 支持实时记录与监控CPU、NPU（**昇腾Ascend**）、GPU（**英伟达Nvidia**）、AMD（**AMD ROCm**）、MLU（**寒武纪Cambricon**）、XLU（**昆仑芯Kunlunxin**）、DCU（**海光DCU**）、MetaX GPU（**沐曦XPU**）、Moore Threads GPU（**摩尔线程**）、Iluvatar GPU（**天数智芯**）、内存的系统级硬件指标\n\n**4. 📦 实验管理**: 通过专为训练场景设计的集中式仪表板，通过整体视图速览全局，快速管理多个项目与实验\n\n**5. 🆚 比较结果**: 通过在线表格与对比图表比较不同实验的超参数和结果，挖掘迭代灵感\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_ca0a83251281.png)\n\n**6. 👥 在线协作**: 您可以与团队进行协作式训练，支持将实验实时同步在一个项目下，您可以在线查看团队的训练记录，基于结果发表看法与建议\n\n**7. ✉️ 分享结果**: 复制和发送持久的URL来共享每个实验，方便地发送给伙伴，或嵌入到在线笔记中\n\n**8. 💻 支持自托管**: 支持离线环境使用，自托管的社区版同样可以查看仪表盘与管理实验，[使用攻略](#-自托管)\n\n**9. 🔌 插件拓展**: 支持通过插件拓展SwanLab的使用场景，比如[飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)、[Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)、[CSV记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-csv.html)等\n\n\n> \\[!IMPORTANT]\n>\n> **收藏项目**，你将从GitHub上无延迟地接收所有发布通知～ ⭐️\n\n![star-us](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_4439d0fa168d.png)\n\n\u003Cbr>\n\n## 📃 在线演示\n\n来看看SwanLab的在线演示：\n\n| [ResNet50猫狗分类][demo-cats-dogs] | [Yolov8-COCO128目标检测][demo-yolo] |\n| :--------: | :--------: |\n| [![][demo-cats-dogs-image]][demo-cats-dogs] | [![][demo-yolo-image]][demo-yolo] |\n| 跟踪一个简单的ResNet50模型在猫狗数据集上训练的图像分类任务。 | 使用Yolov8在COCO128数据集上进行目标检测任务，跟踪训练超参数和指标。 |\n\n| [Qwen2指令微调][demo-qwen2-sft] | [LSTM谷歌股票预测][demo-google-stock] |\n| :--------: | :--------: |\n| [![][demo-qwen2-sft-image]][demo-qwen2-sft] | [![][demo-google-stock-image]][demo-google-stock] |\n| 跟踪Qwen2大语言模型的指令微调训练，完成简单的指令遵循。 | 使用简单的LSTM模型在谷歌股价数据集上训练，实现对未来股价的预测。 |\n\n| [ResNeXt101音频分类][demo-audio-classification] | [Qwen2-VLCOCO数据集微调][demo-qwen2-vl] |\n| :--------: | :--------: |\n| [![][demo-audio-classification-image]][demo-audio-classification] | [![][demo-qwen2-vl-image]][demo-qwen2-vl] |\n| 从ResNet到ResNeXt在音频分类任务上的渐进式实验过程 | 基于Qwen2-VL多模态大模型，在COCO2014数据集上进行Lora微调。 |\n\n| [EasyR1多模态LLM RL训练][demo-easyr1-rl] | [Qwen2.5-0.5BGRPO训练][demo-qwen2-grpo] |\n| :--------: | :--------: |\n| [![][demo-easyr1-rl-image]][demo-easyr1-rl] | [![][demo-qwen2-grpo-image]][demo-qwen2-grpo] |\n| 使用EasyR1框架进行多模态LLM RL训练 | 基于Qwen2.5-0.5B模型在GSM8k数据集上进行GRPO训练 |\n\n[更多案例](https:\u002F\u002Fdocs.swanlab.cn\u002Fzh\u002Fexamples\u002Fmnist.html)\n\n\u003Cbr>\n\n## 🏁 快速开始\n\n### 1.安装\n\n```bash\npip install swanlab\n```\n\n\u003Cdetails>\u003Csummary>源码安装\u003C\u002Fsummary>\n\n如果你想体验最新的特性，可以使用源码安装。\n\n```bash\n# 方式一\ngit clone https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab.git\npip install -e .\n\n# 方式二\npip install git+https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab.git\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\u003Csummary>离线看板拓展安装\u003C\u002Fsummary>\n\n[离线看板文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Foffline-board.html)\n\n```bash\npip install 'swanlab[dashboard]'\n```\n\n\u003C\u002Fdetails>\n\n\n### 2.登录并获取API Key\n\n1. 免费[注册账号](https:\u002F\u002Fswanlab.cn)\n\n2. 登录账号，在用户设置 > [API Key](https:\u002F\u002Fswanlab.cn\u002Fsettings)里复制您的API Key\n\n3. 打开终端，输入：\n\n```bash\nswanlab login\n```\n\n出现提示时，输入您的API Key，按下回车，完成登陆。\n\n### 3.将SwanLab与你的代码集成\n\n```python\nimport swanlab\n\n# 初始化一个新的swanlab实验\nswanlab.init(\n    project=\"my-first-ml\",\n    config={'learning-rate': 0.003},\n)\n\n# 记录指标\nfor i in range(10):\n    swanlab.log({\"loss\": i, \"acc\": i})\n```\n\n大功告成！前往[SwanLab](https:\u002F\u002Fswanlab.cn)查看你的第一个SwanLab实验。\n\n\u003Cbr>\n\n## 💻 自托管\n\n自托管社区版支持离线查看 SwanLab 仪表盘。\n\n![swanlab-kubernetes](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_9fd708249e70.png)\n\n详细部署文档见：\n\n- [🔗 Kubernetes部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fkubernetes-deploy.html)\n- [🔗 Docker部署文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fdocker-deploy.html)\n- [🔗 从Docker到Kubernetes迁移文档](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fself_host\u002Fmigration-docker-kubernetes.html)\n\n\u003Cbr>\n\n## 🔥 实战案例\n\n**使用SwanLab的优秀教程开源项目：**\n- [happy-llm](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fhappy-llm)：从零开始的大语言模型原理与实践教程 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Fhappy-llm)\n- [self-llm](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fself-llm)：《开源大模型食用指南》针对中国宝宝量身打造的基于Linux环境快速微调（全参数\u002FLora）、部署国内外开源大模型（LLM）\u002F多模态大模型（MLLM）教程 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Fself-llm)\n- [Minimind](https:\u002F\u002Fgithub.com\u002Fjingyaogong\u002Fminimind)：🚀🚀 「大模型」2小时完全从0训练26M的小参数GPT！![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjingyaogong\u002Fminimind)\n- [unlock-deepseek](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Funlock-deepseek)：DeepSeek 系列工作解读、扩展和复现 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdatawhalechina\u002Funlock-deepseek)\n- [Qwen3-SmVL](https:\u002F\u002Fgithub.com\u002FShaohonChen\u002FQwen3-SmVL): 将SmolVLM2的视觉头与Qwen3-0.6B模型进行了拼接微调 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FShaohonChen\u002FQwen3-SmVL)\n- [OPPO\u002FAgent_Foundation_Models](https:\u002F\u002Fgithub.com\u002FOPPO-PersonalAI\u002FAgent_Foundation_Models): 通过多Agent蒸馏和Agent RL的端到端Agent基础模型。 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOPPO-PersonalAI\u002FAgent_Foundation_Models)\n- [Tree-GRPO](https:\u002F\u002Fgithub.com\u002FAMAP-ML\u002FTree-GRPO): [ICLR 2026] 树搜索在LLM Agent RL中的应用 ![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAMAP-ML\u002FTree-GRPO)\n\n\n**使用SwanLab的优秀论文：**\n- [MolAct: An Agentic RL Framework for Molecular Editing and Property Optimization](https:\u002F\u002Farxiv.org\u002Fabs\u002F2512.20135)\n- [CQLLM: A Framework for Generating CodeQL Security Vulnerability Detection Code Based on Large Language Model](https:\u002F\u002Fwww.preprints.org\u002Fmanuscript\u002F202510.1458)\n- [Animation Needs Attention: A Holistic Approach to Slides Animation Comprehension with Visual-Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.03916)\n- [Efficient Model Fine-Tuning with LoRA for Biomedical Named Entity Recognition](https:\u002F\u002Fieeexplore.ieee.org\u002Fabstract\u002Fdocument\u002F11082049\u002F)\n- [SpectrumWorld: Artificial Intelligence Foundation for Spectroscopy](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.01188)\n- [CodeBoost: Boosting Code LLMs by Squeezing Knowledge from Code Snippets with RL](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2508.05242)\n- [A Joint Classification Method for Traditional Chinese Medicine Diseases and Syndromes Based on BertChinese-RCNNATTN](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Ffull\u002F10.1145\u002F3759972.3759979)\n- [A Gradient-Norm-Aware Optimizer for Symmetry-Preserving and Stable Deep Learning](https:\u002F\u002Fwww.mdpi.com\u002F2073-8994\u002F18\u002F2\u002F374)\n- [TrafficBM: A Dual-Modality Pre-Training Framework for Network Traffic Classification](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F11304658)\n- [Using Human Cumulative Prospect Theory to Understand Large Language Models Decision-Making](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F11300712)\n\n**教程文章：**\n- [MNIST手写体识别](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fmnist.html)\n- [FashionMNIST服装分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Ffashionmnist.html)\n- [Cifar10图像分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fcifar10.html)\n- [Resnet猫狗分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fcats_dogs_classification.html)\n- [Yolo目标检测](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fyolo.html)\n- [UNet医学影像分割](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Funet-medical-segmentation.html)\n- [音频分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Faudio_classification.html)\n- [DQN强化学习-推车倒立摆](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fdqn_cartpole.html)\n- [LSTM Google股票预测](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Faudio_classification.html)\n- [BERT文本分类](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fbert.html)\n- [Stable Diffusion文生图微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fstable_diffusion.html)\n- [LLM预训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fpretrain_llm.html)\n- [GLM4指令微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fglm4-instruct.html)\n- [Qwen下游任务训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_finetune.html)\n- [NER命名实体识别](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fner.html)\n- [Qwen3医学模型微调](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen3-medical.html)\n- [Qwen2-VL多模态大模型微调实战](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_vl_coco.html)\n- [GRPO大模型强化学习](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen_grpo.html)\n- [Qwen3-SmVL-0.6B多模态模型训练](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Fqwen3_smolvlm_muxi.html)\n- [LeRobot 具身智能入门](https:\u002F\u002Fdocs.swanlab.cn\u002Fexamples\u002Frobot\u002Flerobot-guide.html)\n- [GLM-4.5-Air-LoRA 及 SwanLab 可视化记录](https:\u002F\u002Fgithub.com\u002Fdatawhalechina\u002Fself-llm\u002Fblob\u002Fmaster\u002Fmodels\u002FGLM-4.5-Air\u002F03-GLM-4.5-Air-Lora%20%E5%8F%8A%20Swanlab%20%E5%8F%AF%E8%A7%86%E5%8C%96%E5%BE%AE%E8%B0%83.md)\n- [RAG怎么做？SwanLab文档助手方案开源了](https:\u002F\u002Fdocs.swanlab.cn\u002Fcourse\u002Fprompt_engineering_course\u002F11-swanlab_rag\u002F1.swanlab-rag.html)\n\n🌟如果你有想收录的教程，欢迎提交PR！\n\n\u003Cbr>\n\n## 🎮 硬件记录\n\nSwanLab会对AI训练过程中所使用的**硬件信息**和**资源使用情况**进行记录，下面是支持情况表格：\n\n| 硬件 | 信息记录 | 资源监控 | 脚本 |\n| --- | --- | --- | --- |\n| 英伟达GPU | ✅ | ✅ | [nvidia.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fnvidia.py) |\n| AMD ROCm | ✅ | ✅ | [amd.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Famd.py) |\n| 昇腾NPU | ✅ | ✅ | [ascend.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fnpu\u002Fascend.py) |\n| 苹果SOC | ✅ | ✅ | [apple.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fsoc\u002Fapple.py) |\n| 寒武纪MLU | ✅ | ✅ | [cambricon.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fmlu\u002Fcambricon.py) |\n| 昆仑芯XPU | ✅ | ✅ | [kunlunxin.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fxpu\u002Fkunlunxin.py) |\n| 摩尔线程GPU | ✅ | ✅ | [moorethreads.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fmoorethreads.py) |\n| 沐曦GPU | ✅ | ✅ | [metax.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Fmetax.py) |\n| 天数智芯GPU | ✅ | ✅ | [iluvatar.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fgpu\u002Filuvatar.py) |\n| 海光DCU | ✅ | ✅ | [hygon.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fdcu\u002Fhygon.py) |\n| CPU    | ✅ | ✅ | [cpu.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fcpu.py) |\n| 内存   | ✅ | ✅ | [memory.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fmemory.py) |\n| 硬盘   | ✅ | ✅ | [disk.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fdisk.py) |\n| 网络 | ✅ | ✅ | [network.py](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002Fswanlab\u002Fdata\u002Frun\u002Fmetadata\u002Fhardware\u002Fnetwork.py) |\n\n如果你希望记录其他硬件，欢迎提交Issue与PR！\n\n\u003Cbr>\n\n## 🚗 框架集成\n\n将你最喜欢的框架与 SwanLab 结合使用！  \n下面是我们已集成的框架列表，欢迎提交 [Issue](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues) 来反馈你想要集成的框架。\n\n**基础框架**\n- [PyTorch](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch.html)\n- [MindSpore](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ascend.html)\n- [Keras](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-keras.html)\n\n**LLM训练框架**\n- [HuggingFace Transformers](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-transformers.html)\n- [LLaMA Factory](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-llama-factory.html)\n- [MS-Swift](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-swift.html)\n- [Unsloth](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-unsloth.html)\n- [MLX-LM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlx-lm.html)\n- [Torchtune](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch-torchtune.html)\n- [PaddleNLP](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddlenlp.html)\n- [Sentence Transformers](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-sentence-transformers.html)\n- [XTuner](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xtuner.html)\n- [OpenMind](https:\u002F\u002Fmodelers.cn\u002Fdocs\u002Fzh\u002Fopenmind-library\u002F1.0.0\u002Fbasic_tutorial\u002Ffinetune\u002Ffinetune_pt.html#%E8%AE%AD%E7%BB%83%E7%9B%91%E6%8E%A7)\n\n**LLM强化学习框架**\n- [veRL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-verl.html)\n- [HuggingFace trl](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-trl.html)\n- [NVIDIA-NeMo RL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-nvidia-nemo-rl.html)\n- [EasyR1](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-easyr1.html)\n- [AReaL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-areal.html)\n- [ROLL](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-roll.html)\n\n**机器人框架**\n- [RLinf](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-rlinf.html)\n\n**文生图\u002F视频训练框架**\n- [DiffSynth Studio](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-diffsynth-studio.html)\n\n**深度学习框架**\n- [PyTorch Lightning](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-pytorch-lightning.html)\n- [MMEngine](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmengine.html)\n- [FastAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-fastai.html)\n\n**计算机视觉**\n- [Ultralytics](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ultralytics.html)\n- [MMDetection](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmdetection.html)\n- [MMSegmentation](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mmsegmentation.html)\n- [PaddleDetection](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddledetection.html)\n- [PaddleYOLO](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-paddleyolo.html)\n\n**机器学习框架**\n- [LightGBM](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-lightgbm.html)\n- [XGBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-xgboost.html)\n- [CatBoost](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-catboost.html)\n\n**评估框架**\n- [EvalScope](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-evalscope.html)\n\n**传统强化学习框架**\n- [Stable Baseline3](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-sb3.html)\n\n**其他框架：**\n- [Tensorboard](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-tensorboard.html)\n- [Weights&Biases](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-wandb.html)\n- [MLFlow](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-mlflow.html)\n- [HuggingFace Accelerate](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-huggingface-accelerate.html)\n- [Ray](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-ray.html)\n- [Hydra](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-hydra.html)\n- [Omegaconf](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-omegaconf.html)\n- [OpenAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-openai.html)\n- [ZhipuAI](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-zhipuai.html)\n- [SpecForge](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002Fintegration-specforge.html)\n\n[更多集成](https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fintegration\u002F)\n\n\u003Cbr>\n\n\n## 🔌 插件与API\n\n欢迎通过插件来拓展SwanLab的功能，增强你的实验管理体验！\n\n- [自定义你的插件](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fcustom-plugin.html)\n- [邮件通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-email.html)\n- [飞书通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-lark.html)\n- [钉钉通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-dingtalk.html)\n- [企业微信通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-wxwork.html)\n- [Discord通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-discord.html)\n- [Slack通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-slack.html)\n- [Bark通知](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fnotification-bark.html)\n- [CSV记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-csv.html)\n- [文件记录器](https:\u002F\u002Fdocs.swanlab.cn\u002Fplugin\u002Fwriter-filelogdir.html)\n\n开放接口：\n- [OpenAPI](https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-openapi.html)\n\n\u003Cbr>\n\n## 🆚 与熟悉的工具的比较\n\n### Tensorboard vs SwanLab\n\n- **☁️ 支持在线使用**：\n  通过 SwanLab 可以方便地将训练实验在云端在线同步与保存，便于远程查看训练进展、管理历史项目、分享实验链接、发送实时消息通知、多端看实验等。而 Tensorboard 是一个离线的实验跟踪工具。\n\n- **👥 多人协作**：\n  在进行多人、跨团队的机器学习协作时，通过 SwanLab 可以轻松管理多人的训练项目、分享实验链接、跨空间交流讨论。而 Tensorboard 主要为个人设计，难以进行多人协作和分享实验。\n\n- **💻 持久、集中的仪表板**：\n  无论你在何处训练模型，无论是在本地计算机上、在实验室集群还是在公有云的 GPU 实例中，你的结果都会记录到同一个集中式仪表板中。而使用 TensorBoard 需要花费时间从不同的机器复制和管理\n  TFEvent 文件。\n\n- **💪 更强大的表格**：\n  通过 SwanLab 表格可以查看、搜索、过滤来自不同实验的结果，可以轻松查看数千个模型版本并找到适合不同任务的最佳性能模型。\n  TensorBoard 不适用于大型项目。\n\n### Weights and Biases vs SwanLab\n\n- Weights and Biases 是一个必须联网使用的闭源 MLOps 平台\n\n- SwanLab 不仅支持联网使用，也支持开源、免费、自托管的版本\n\n\u003Cbr>\n\n## 👥 社区\n\n### 周边仓库\n\n- [self-hosted](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fself-hosted)：私有化部署脚本仓库\n- [SwanLab-Docs](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab-docs)：官方文档仓库\n- [SwanLab-Dashboard](https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab-dashboard)：离线看板仓库，存放了由`swanlab watch`打开的轻量离线看板的web代码\n\n### 社区与支持\n\n- [GitHub Issues](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues)：使用 SwanLab 时遇到的错误和问题\n- [电子邮件支持](zeyi.lin@swanhub.co)：反馈关于使用 SwanLab 的问题\n- \u003Ca href=\"https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html\">微信交流群\u003C\u002Fa>：交流使用 SwanLab 的问题、分享最新的 AI 技术\n\n### SwanLab README 徽章\n\n如果你喜欢在工作中使用 SwanLab，请将 SwanLab 徽章添加到你的 README 中：\n\n[![][tracking-swanlab-shield]][tracking-swanlab-shield-link]、[![][visualize-swanlab-shield]][visualize-swanlab-shield-link]\n\n```\n[![](https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge2.svg)](your experiment url)\n[![](https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge1.svg)](your experiment url)\n```\n\n更多设计素材：[assets](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002Fassets)\n\n### 在论文中引用 SwanLab\n\n如果您发现 SwanLab 对您的研究之旅有帮助，请考虑以下列格式引用：\n\n```bibtex\n@software{Zeyilin_SwanLab_2023,\n  author = {Zeyi Lin, Shaohong Chen, Kang Li, Qiushan Jiang, Zirui Cai,  Kaifang Ji and {The SwanLab team}},\n  doi = {10.5281\u002Fzenodo.11100550},\n  license = {Apache-2.0},\n  title = {{SwanLab}},\n  url = {https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab},\n  year = {2023}\n}\n```\n\n### 为 SwanLab 做出贡献\n\n考虑为 SwanLab 做出贡献吗？首先，请花点时间阅读 [贡献指南](CONTRIBUTING.md)。\n\n同时，我们非常欢迎通过社交媒体、活动和会议的分享来支持 SwanLab，衷心感谢！\n\n\u003Cbr>\n\n**Contributors**\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_4104f1bbea81.png\" \u002F>\n\u003C\u002Fa>\n\n\u003Cbr>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_d186cab66e4c.png\" width=\"50%\" \u002F>\n\n\n## 📃 协议\n\n本仓库遵循 [Apache 2.0 License](https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002FLICENSE) 开源协议\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_readme_a72c45ea06b8.png)](https:\u002F\u002Fstar-history.com\u002F#swanhubx\u002Fswanlab&Date)\n\n\u003C!-- link -->\n\n[release-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fswanhubx\u002Fswanlab?color=369eff&labelColor=black&logo=github&style=flat-square\n[release-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Freleases\n\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-apache%202.0-white?labelColor=black&style=flat-square\n[license-shield-link]: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fblob\u002Fmain\u002FLICENSE\n\n[last-commit-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fswanhubx\u002Fswanlab?color=c4f042&labelColor=black&style=flat-square\n[last-commit-shield-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fcommits\u002Fmain\n\n[pypi-version-shield]: https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fswanlab?color=orange&labelColor=black&style=flat-square\n[pypi-version-shield-link]: https:\u002F\u002Fpypi.org\u002Fproject\u002Fswanlab\u002F\n\n[pypi-downloads-shield]: https:\u002F\u002Fstatic.pepy.tech\u002Fbadge\u002Fswanlab?labelColor=black&style=flat-square\n[pypi-downloads-shield-link]: https:\u002F\u002Fpepy.tech\u002Fproject\u002Fswanlab\n\n[swanlab-cloud-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProduct-SwanLab云端版-636a3f?labelColor=black&style=flat-square\n[swanlab-cloud-shield-link]: https:\u002F\u002Fswanlab.cn\u002F\n\n[wechat-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWeChat-微信-4cb55e?labelColor=black&style=flat-square\n[wechat-shield-link]: https:\u002F\u002Fdocs.swanlab.cn\u002Fguide_cloud\u002Fcommunity\u002Fonline-support.html\n\n[colab-shield]: https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\n[colab-shield-link]: https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1RWsrY_1bS8ECzaHvYtLb_1eBkkdzekR3?usp=sharing\n\n[github-stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fswanhubx\u002Fswanlab?labelColor&style=flat-square&color=ffcb47\n[github-stars-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\n\n[github-issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fswanhubx\u002Fswanlab?labelColor=black&style=flat-square&color=ff80eb\n[github-issues-shield-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fissues\n\n[github-contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fswanhubx\u002Fswanlab?color=c4f042&labelColor=black&style=flat-square\n[github-contributors-link]: https:\u002F\u002Fgithub.com\u002Fswanhubx\u002Fswanlab\u002Fgraphs\u002Fcontributors\n\n[demo-cats-dogs]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FCats_Dogs_Classification\u002Fruns\u002Fjzo93k112f15pmx14vtxf\u002Fchart\n[demo-cats-dogs-image]: readme_files\u002Fexample-catsdogs.png\n\n[demo-yolo]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002Fultratest\u002Fruns\u002Fyux7vclmsmmsar9ear7u5\u002Fchart\n[demo-yolo-image]: readme_files\u002Fexample-yolo.png\n\n[demo-qwen2-sft]: https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FQwen2-fintune\u002Fruns\u002Fcfg5f8dzkp6vouxzaxlx6\u002Fchart\n[demo-qwen2-sft-image]: readme_files\u002Fexample-qwen2.png\n\n[demo-google-stock]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FGoogle-Stock-Prediction\u002Fcharts\n[demo-google-stock-image]: readme_files\u002Fexample-lstm.png\n\n[demo-audio-classification]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FPyTorch_Audio_Classification\u002Fcharts\n[demo-audio-classification-image]: readme_files\u002Fexample-audio-classification.png\n\n[demo-qwen2-vl]:https:\u002F\u002Fswanlab.cn\u002F@ZeyiLin\u002FQwen2-VL-finetune\u002Fruns\u002Fpkgest5xhdn3ukpdy6kv5\u002Fchart\n[demo-qwen2-vl-image]: readme_files\u002Fexample-qwen2-vl.jpg\n\n[demo-easyr1-rl]:https:\u002F\u002Fswanlab.cn\u002F@Kedreamix\u002Feasy_r1\u002Fruns\u002Fwzezd8q36bb6dlza6wtpc\u002Fchart\n[demo-easyr1-rl-image]: readme_files\u002Fexample-easyr1-rl.png\n\n[demo-qwen2-grpo]:https:\u002F\u002Fswanlab.cn\u002F@kmno4\u002FQwen-R1\u002Fruns\u002Ft0zr3ak5r7188mjbjgdsc\u002Fchart\n[demo-qwen2-grpo-image]: readme_files\u002Fexample-qwen2-grpo.png\n\n[tracking-swanlab-shield-link]:https:\u002F\u002Fswanlab.cn\n[tracking-swanlab-shield]: https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge2.svg\n\n[visualize-swanlab-shield-link]:https:\u002F\u002Fswanlab.cn\n[visualize-swanlab-shield]: https:\u002F\u002Fraw.githubusercontent.com\u002FSwanHubX\u002Fassets\u002Fmain\u002Fbadge1.svg\n\n[dockerhub-shield]: https:\u002F\u002Fimg.shields.io\u002Fdocker\u002Fv\u002Fswanlab\u002Fswanlab-next?color=369eff&label=docker&labelColor=black&logoColor=white&style=flat-square\n[dockerhub-link]: https:\u002F\u002Fhub.docker.com\u002Fr\u002Fswanlab\u002Fswanlab-next\u002Ftags","# SwanLab 快速上手指南\n\nSwanLab 是一款专业、现代化的 AI 训练分析平台，支持实验可视化、自动日志记录、超参数跟踪及多人协同。本指南将帮助你快速开始使用。\n\n## 1. 环境准备\n\n*   **系统要求**：支持 Windows, macOS, Linux。\n*   **前置依赖**：\n    *   Python >= 3.8\n    *   pip (Python 包管理工具)\n*   **网络建议**：推荐使用国内镜像源加速安装（如清华源）。\n\n## 2. 安装步骤\n\n### 方式一：通过 PyPI 安装（推荐）\n\n在终端中执行以下命令安装最新稳定版：\n\n```bash\npip install swanlab\n```\n\n**国内加速安装**（使用清华镜像源）：\n\n```bash\npip install swanlab -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 方式二：从源码安装\n\n如果你需要体验最新开发特性：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab.git\ncd SwanLab\npip install -e .\n```\n\n## 3. 基本使用\n\nSwanLab 的使用非常轻量，只需几行代码即可集成到你的训练脚本中。\n\n### 第一步：初始化实验\n\n在你的 Python 训练脚本开头导入并初始化 SwanLab：\n\n```python\nimport swanlab\n\n# 初始化实验，设置项目名称和实验名称\nswanlab.init(\n    project=\"my-first-project\",\n    experiment_name=\"exp-001\",\n    config={\n        \"learning_rate\": 0.01,\n        \"epochs\": 10\n    }\n)\n```\n\n> **提示**：首次运行时，终端会提示你登录 SwanLab 云端账号或配置本地模式。按照指引完成授权即可。\n\n### 第二步：记录指标\n\n在训练循环中，使用 `swanlab.log` 记录损失值、准确率等指标：\n\n```python\nfor epoch in range(10):\n    # 模拟训练过程\n    loss = 1 \u002F (epoch + 1)\n    accuracy = epoch \u002F 10\n    \n    # 记录指标\n    swanlab.log({\n        \"loss\": loss,\n        \"accuracy\": accuracy\n    })\n```\n\n### 第三步：查看结果\n\n*   **云端查看**：登录 [SwanLab 官网](https:\u002F\u002Fswanlab.cn)，即可在网页端实时查看可视化的训练曲线、超参数对比及硬件监控数据。\n*   **本地查看**：如果选择本地模式，运行结束后终端会显示本地预览地址，点击即可在浏览器中查看。\n\n### 进阶：硬件监控\n\nSwanLab 默认自动记录系统硬件信息（CPU、GPU、内存等）。如需针对特定硬件（如华为昇腾 NPU、AMD GPU 等）进行优化监控，确保已安装对应的驱动和库，SwanLab 会自动识别并记录。\n\n---\n\n**更多集成**：\nSwanLab 已与 HuggingFace Transformers、PyTorch Lightning、LLaMA Factory 等 50+ 主流框架集成。如果你使用这些框架，通常只需替换 Logger 或添加一行回调代码即可无缝接入，具体请参考[官方文档](https:\u002F\u002Fdocs.swanlab.cn)。","某AI初创团队正在基于LLaMA Factory框架微调垂直领域的大语言模型，需要同时调整学习率、Batch Size和LoRA秩等多个超参数，以寻找最优收敛效果。\n\n### 没有 SwanLab 时\n- **数据记录混乱**：团队成员各自在本地保存TensorBoard日志或CSV文件，实验元数据（如Git commit、硬件环境）依赖手动备注，极易出现记录遗漏或版本混淆。\n- **对比分析低效**：想要比较不同超参数组合的效果，需手动打开多个日志文件或在本地启动多个TensorBoard实例，无法直观地在同一坐标系下对比Loss曲线和评估指标。\n- **资源监控缺失**：训练过程中GPU显存溢出（OOM）或利用率波动时，缺乏实时的硬件监控数据，难以判断是模型架构问题还是资源分配不当，排查故障耗时极长。\n- **协作沟通成本高**：每日站会中，成员需截图发送训练进度，管理者无法实时掌握整体实验进展，难以快速识别并终止表现不佳的实验以节省算力。\n\n### 使用 SwanLab 后\n- **自动化实验追踪**：通过几行代码集成LLaMA Factory，SwanLab自动记录超参数、代码版本及系统环境，所有实验数据统一云端\u002F自托管存储，确保数据可追溯且零手动维护成本。\n- **可视化多维对比**：利用“实验分组”和“Baseline对比”功能，一键将多次实验的Loss、Accuracy曲线叠加显示，并自动计算差异百分比，迅速锁定最佳参数组合。\n- **实时硬件洞察**：内置GPU\u002FCPU监控面板实时展示显存占用与温度变化，结合异常报警，帮助开发者在OOM发生前及时调整Batch Size，显著提升调试效率。\n- **高效团队协作**：通过分享链接，团队成员和管理者可随时查看实时训练看板，支持将图表嵌入飞书\u002FNotion文档，实现实验进度的透明化管理与即时决策。\n\nSwanLab 将原本碎片化、黑盒化的训练过程转化为结构化、可视化的数据资产，显著缩短了从实验迭代到模型落地的周期。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSwanHubX_SwanLab_e5bd2cfc.png","SwanHubX","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSwanHubX_d9f2326c.png","Build a world-leading AI research and development toolchain. | 打造全球领先的AI研发工具链",null,"contact@swanlab.cn","https:\u002F\u002Fswanlab.cn","https:\u002F\u002Fgithub.com\u002FSwanHubX",[84,88,92],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.7,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.2,{"name":93,"color":94,"percentage":95},"Makefile","#427819",0.1,3763,194,"2026-04-02T13:46:40","Apache-2.0",1,"Linux, macOS, Windows","非必需。若启用硬件监控，支持 NVIDIA GPU, AMD ROCm, Huawei Ascend NPU, Cambricon MLU, Kunlunxin XPU, Haiguang DCU, MetaX GPU, Moore Threads GPU, Iluvatar GPU。具体显存和CUDA版本未说明，取决于所运行的AI模型框架。","未说明",{"notes":105,"python":106,"dependencies":107},"SwanLab 是一个轻量级的实验跟踪工具，本身不强制依赖特定的深度学习框架（如 PyTorch 或 TensorFlow），但需配合这些框架使用以记录指标。支持云端 SaaS 服务和私有化部署（Docker\u002FKubernetes）。硬件监控功能需要安装对应的驱动和库（如 pynvml 用于 NVIDIA）。","未说明 (通常兼容 Python 3.8+)",[108,109,110,111,112,113,114,115],"swanlab","pyyaml","psutil","pynvml","requests","cos-python-sdk-v5","oss2","boto3",[13,26,54,51],[118,119,120,121,122,123,124,125,126,127,128,129,130,131,132,133],"data-science","deep-learning","machine-learning","python","pytorch","tensorflow","transformers","mlops","model-versioning","tracking","visualization","tensorboard","logging","llm","training","ai-infra","2026-03-27T02:49:30.150509","2026-04-06T05:16:47.048163",[137,142,147,152,157,162],{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},11333,"Docker 本地部署时访问 localhost:8000 出现 404 Page Not Found 错误怎么办？","这通常是因为新版 Docker Desktop 对容器网络驱动进行了调整，导致 Traefik 在添加服务时若未显式指定端口等信息会出现找不到服务的现象。\n\n解决方案：\n1. 删除当前全部容器。\n2. 删除 self-hosted\u002Fdocker\u002Fswanlab\u002Fdata 目录。\n3. 使用更新后的 docker-compose.yaml 配置（确保 networks 和 ports 配置正确，如 traefik 端口映射为 \"8000:80\"）。\n4. 执行 upgrade.sh 脚本重新启动服务。\n\n维护者表示后续会更新私有化配置以适应新版本 Docker Desktop 的变动。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F1180",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},11334,"使用 SwanLab 时遇到 API 400 Bad Request 错误（特别是 presigned\u002Fput 接口）如何解决？","该错误通常是由于 SDK 版本存在 Bug 导致的。维护者已定位问题并发布了修复版本。\n\n解决方案：\n请升级 SwanLab 到最新版本。如果官方 PyPI 尚未同步，可以尝试安装维护者提供的修复版 whl 包（如 swanlab-0.7.5b1 或更高稳定版）。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F1379",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},11335,"如何通过命令行环境变量实现实验断点续传（Resume）？","可以通过设置以下环境变量来实现：\nexport SWANLAB_RESUME=True\nexport SWANLAB_ID=\u003Cexp_id>\n\n注意：如果设置后仍然创建了新日志而不是在原日志上继续运行，可能是由于使用的 SwanLab 版本存在 Bug。请确保将 SwanLab 升级到最新版本以解决此问题。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F1183",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},11336,"在使用 EvalScope 等框架时，SwanLab 无法完整记录 Percentile results 或长文本被截断怎么办？","这是因为默认的记录长度限制导致长文本或特定格式结果被截断。\n\n解决方案：\n1. 临时方案：在代码中使用 `swanlab.Settings` 动态调整需要的记录长度（参考文档：https:\u002F\u002Fdocs.swanlab.cn\u002Fapi\u002Fpy-settings.html）。\n2. 长期方案：未来版本将支持通过环境变量设置截断长度，以适配命令行启动的训练场景；同时前端已修复表格格式控制符号的处理问题，SDK 也在排期支持 stderr 的标准错误流捕捉。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F937",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},11337,"当 swanlab.log 记录的值类型不正确（如字符串或 NaN）时，Summary 和 GridView 不显示或显示空白怎么办？","这是一个已知的前端显示问题。在旧版本中，类型不匹配可能导致界面完全空白。\n\n解决方案：\n请升级 SwanLab 到 v0.2.0 或更高版本。新版本重写了表格组件，优化了异常值的显示逻辑：\n1. 如果类型不匹配：会显示 \"TypeError\" 并提供文档链接跳转。\n2. 如果值为 NaN：图表中 NaN 部分会断开，Hover 时显示 NaN，Summary 和 GridView 中会显示为 'NaN'，避免界面空白。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F227",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},11338,"放大图表后，修改实验可见性设置不同步更新到图表中怎么办？","这是一个已修复的 Bug。在之前的版本中，当用户放大折线图后，更改实验的可见性设置不会实时同步反映在图表上。\n\n解决方案：\n请升级 SwanLab 到最新版本，该问题已在后续版本中修复。","https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fissues\u002F1234",[168,173,178,183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258,263],{"id":169,"version":170,"summary_zh":171,"released_at":172},61827,"v0.7.14","## 变更内容\n* 修复：支持多次调用 finish 方法，由 @Nexisato 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1533 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.13...v0.7.14","2026-04-03T00:23:39",{"id":174,"version":175,"summary_zh":176,"released_at":177},61828,"v0.7.13","一个补丁版本\n\n## 变更内容\n* 由 @Nexisato 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1514 中修复了 exp 字段的补丁\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.12...v0.7.13","2026-03-19T14:45:42",{"id":179,"version":180,"summary_zh":181,"released_at":182},61829,"v0.7.12","## 变更内容\n* 功能：在 swanlab.init 中添加 color 参数，用于控制实验颜色，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1481 中实现。\n* 功能：添加并行运行支持，并更新 run_id 验证，由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1491 中实现。\n* 修复：使用 api.runs() 获取实验概览时的 bug，由 @Bainianzzz 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1511 中修复。\n* 功能：API 支持更多筛选参数，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1510 中实现。\n* 功能：每秒可处理 1 万条指标数据，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1493 中实现。\n* 功能：支持更优的指标采集策略，由 @Nexisato 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1473 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.11...v0.7.12","2026-03-19T10:52:39",{"id":184,"version":185,"summary_zh":186,"released_at":187},61830,"v0.7.11","##  🎉 新增内容                          \r\n                                                                                                                                                                                                                                                            \r\n### ✨ 新功能\r\n                                                                                                                                                                                                                                                          \r\n**API 增强：删除操作**\n- 在公共 API 中新增了用于以编程方式删除运行和项目的删除方法\n- 通过代码实现更高效的实验生命周期管理\n\n**WandB 转换器：表格支持**\n- WandB 本地转换器现已支持表格数据的转换\n- 可无缝将 WandB 中的表格数据迁移到 SwanLab\n\n### 🔧 改进\n\n**代码质量与稳定性**\n- 提升了整体代码质量和可维护性\n- 修复了关键部分的错误，使实验跟踪更加可靠\n\n## 变更内容\n* docs(readme): 添加2篇论文 - TrafficBM、决策制定，作者为 @Zeyi-Lin，详情见 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1463\n* feat: 为运行和项目在公共 API 中新增删除方法，作者为 @Zeyi-Lin，详情见 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1464\n* feat: WandB 本地转换器支持表格，作者为 @Zeyi-Lin，详情见 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1469\n* feat: 提升代码质量并修复关键部分错误，作者为 @Zeyi-Lin，详情见 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1476\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.10...v0.7.11","2026-03-08T07:26:01",{"id":189,"version":190,"summary_zh":191,"released_at":192},61831,"v0.7.10","微小的补丁\n\n## 变更内容\n* 功能：由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1462 中改进了本地 Weights & Biases 转换速率\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.9...v0.7.10","2026-03-04T16:03:07",{"id":194,"version":195,"summary_zh":196,"released_at":197},61832,"v0.7.9","## 变更内容\n* 修复：将空字符串转换为 None，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1450 中完成\n* 杂项：将 swanboard 升级至 0.1.9b2，由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1451 中完成\n* 文档（README）：添加一篇论文，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1457 中完成\n* 功能：优化 wandb 本地转换器的内存使用，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1456 中完成\n* 功能：添加转换进度条，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1460 中完成\n* 功能：同步进度条，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1461 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.8...v0.7.9","2026-03-03T11:49:34",{"id":199,"version":200,"summary_zh":201,"released_at":202},61833,"v0.7.8","## 变更内容\n* 功能：离线模式自动恢复 —— 由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1445 中实现\n* 功能：API 运行环境 —— 由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1442 中实现\n* 优化：提取 get_metrics 方法并添加单元测试 —— 由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1446 中实现\n* 文档（README）：v0.7.8 版本 —— 由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1443 中更新\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.7...v0.7.8","2026-02-06T10:52:43",{"id":204,"version":205,"summary_zh":206,"released_at":207},61834,"v0.7.7","## 变更内容\n* 文档（README）：v0.7.6，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1404 中完成\n* 修复：README 中的错别字，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1408 中完成\n* 文档（README）：LightningBoard v1 更改日志，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1418 中完成\n* 修复：AMD GPU 显示异常问题，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1419 中完成\n* 修复：支持修改适配器的重试次数，由 @Bainianzzz 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1417 中完成\n* 新特性：支持 TensorBoard 类型筛选，并重构转换器，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1421 中完成\n* 优化日志用户体验，由 @Bainianzzz 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1426 中完成\n* 文档（README）：LightningBoard v2，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1432 中完成\n* 新特性：将空的 run_id 字符串视为与 None 等效，由 @ShaohonChen 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1435 中完成\n* 修复 Brak 自定义通知 URL 结构问题，由 @h27539 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1437 中完成\n* 新特性：开放 API，由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1414 中完成\n\n## 新贡献者\n* @h27539 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1437 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.6...v0.7.7","2026-02-04T04:15:47",{"id":209,"version":210,"summary_zh":211,"released_at":212},61835,"v0.7.6","## 变更内容\n* 功能：新增 Lightning 集成，添加恢复 ID，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1385 中实现。\n* 文档：在 README 文件中添加“MolAct”的 arXiv 链接，由 @little1d 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1387 中完成。\n* 功能：新增对 AMD ROCm GPU 硬件监控的支持，由 @KMnO4-zx 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1389 中实现。\n* 功能：sync_wandb 和 converter 增加更多参数，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1394 中完成。\n* 功能：sync_tensorboard 添加 `types` 参数，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1396 中实现。\n* 文档（README）：增加更多集成内容，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1397 中完成。\n* 支持 iluvatar GPU，由 @ZhiningMa 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1391 中实现。\n* 功能\u002F定时器，由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1400 中实现。\n* 重构客户端工具，并添加实验心跳检测功能，由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1401 中完成。\n\n## 新贡献者\n* @ZhiningMa 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1391 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.5...v0.7.6","2026-01-02T05:36:23",{"id":214,"version":215,"summary_zh":216,"released_at":217},61836,"v0.7.5","## 变更内容\n* 文档（README）：更新了 Kubernetes 相关内容及 0.7.4 版本，由 @Zeyi-Lin 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1378 中完成。\n* 修复\u002F上传：由 @SAKURA-CAT 在 https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1381 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.4...v0.7.5","2025-12-19T07:53:57",{"id":219,"version":220,"summary_zh":221,"released_at":222},61837,"v0.7.4","Support Kubernetest.\r\n\r\n## What's Changed\r\n\r\n* Increase max description length to 1024 characters by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1364\r\n* docs: minimind by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1366\r\n* Remove VSCode config and documentation files by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1371\r\n* Update README:new integration by @simonliu0930-cell in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1373\r\n* Feature\u002Fs3 by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1375\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.3...v0.7.4","2025-12-14T04:18:40",{"id":224,"version":225,"summary_zh":226,"released_at":227},61838,"v0.7.3","## What's Changed\r\n* docs: changelog 0.7.2 by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1342\r\n* hot update 1201 by @simonliu0930-cell in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1352\r\n* docs(readme): add new paper link by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1351\r\n* feat(plugin): add Telegram notification callback by @Talljack in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1355\r\n* fix(core): add default timeout for request session by @swpfY in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1358\r\n* fix(data): preserve more field in media metrics to fix image loading … by @Talljack in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1359\r\n* Feat\u002Flogger by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1353\r\n* Add unit tests for TimeoutHTTPAdapter by @Copilot in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1361\r\n\r\n## New Contributors\r\n* @simonliu0930-cell made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1352\r\n* @Talljack made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1355\r\n* @Copilot made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1361\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.2...v0.7.3","2025-12-05T10:30:36",{"id":229,"version":230,"summary_zh":231,"released_at":232},61839,"v0.7.2","## What's Changed\r\n* fix: handle additional urllib3 network errors in sync_error_handler by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1332\r\n* docs: readme add catboost by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1340\r\n* fix\u002Fadd test by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1333\r\n* feat: add support for custom webhook value in env by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1341\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.1...v0.7.2","2025-11-17T12:55:50",{"id":234,"version":235,"summary_zh":236,"released_at":237},61840,"v0.7.1","## What's Changed\r\n* docs: readme changelog 0.7.0 by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1328\r\n* Fix\u002Fupload by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1330\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.7.0...v0.7.1","2025-11-07T04:55:23",{"id":239,"version":240,"summary_zh":241,"released_at":242},61841,"v0.7.0","## What's Changed\r\n\r\n> 🎉 New Feature: Group\r\n\r\n* docs(readme): add cqllm to paper list by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1317\r\n* docs(readme): add bark notification by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1320\r\n* Handle missing key in media summary for metrics by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1324\r\n* feat: allow job_type and group params by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1325\r\n* Fix\u002Fbranch by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1326\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.13...v0.7.0","2025-11-06T04:06:22",{"id":244,"version":245,"summary_zh":246,"released_at":247},61842,"v0.6.13","## What's Changed\r\n* feat: Improve CUDA version detection logic by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1308\r\n* fix: simplify issue template label emojis by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1309\r\n* feat: add converter WandbLocalConverter by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1310\r\n* feat: catboost integration by @Nexisato in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1311\r\n* docs: update copyright in LICENSE file by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1312\r\n* fix: add log_dir property to SwanLabLogger by @tanganke in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1314\r\n* Expand domain regex to support underscores and subdomains by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1316\r\n* fix: implement \"finalize\" in SwanLabLogger by @ClodLingxi in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1315\r\n\r\n## New Contributors\r\n* @tanganke made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1314\r\n* @ClodLingxi made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1315\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.12...v0.6.13","2025-10-24T11:16:07",{"id":249,"version":250,"summary_zh":251,"released_at":252},61843,"v0.6.12","## What's Changed\r\n* chore: update and add GitHub issue templates by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1293\r\n* chore: update web report issue template wording by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1294\r\n* Feat\u002Ftoolkit by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1297\r\n* fix: rename `__init__.py` by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1299\r\n* fix: use timezone-aware UTC datetimes in client modules by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1298\r\n* feat: add bark notification callback by @DatesYuen in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1301\r\n* fix: localize issue templates to Chinese by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1306\r\n* docs(readme): changelog 251015 by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1303\r\n\r\n## New Contributors\r\n* @DatesYuen made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1301\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.11...v0.6.12","2025-10-17T05:26:58",{"id":254,"version":255,"summary_zh":256,"released_at":257},61844,"v0.6.11","## What's Changed\r\n* docs(readme): scalar chart by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1263\r\n* docs(readme): unified architecture by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1271\r\n* fix: csv download when self-hosted by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1275\r\n* feat: swanlab offline, online, local, disabled command by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1200\r\n* fix: change pydantic version constraint in requirements by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1276\r\n* Add verify command to check login status by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1274\r\n* feat: add interrupt handling for experiment termination by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1277\r\n* feat: deprecated pynvml by @AndPuQing in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1282\r\n* Fix host URL construction in ExperimentAPI by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1286\r\n* Improve dependency checks and imports in metrics module by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1283\r\n* Feat\u002Fissue by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1288\r\n\r\n## New Contributors\r\n* @AndPuQing made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1282\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.10...v0.6.11","2025-10-09T06:38:32",{"id":259,"version":260,"summary_zh":261,"released_at":262},61845,"v0.6.10","A patch version\r\n\r\n## What's Changed\r\n* chore: opt retry params  by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1258\r\n* fix: transformers public exp url by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1259\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.9...v0.6.10","2025-09-12T03:00:54",{"id":264,"version":265,"summary_zh":266,"released_at":267},61846,"v0.6.9","## What's Changed\r\n* Update 新增 GLM-4.5-Air-LoRA 及 SwanLab 可视化实战记录 by @KMnO4-zx in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1217\r\n* fix(sdk): login choice 3 by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1223\r\n* Doc: Add the arXiv link of \"SpectrumWorld\" to the readme file by @little1d in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1228\r\n* docs: readme changelog by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1229\r\n* docs(readme): arxiv codeboost by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1231\r\n* feat: sync tb int by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1235\r\n* docs(readme): changelog by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1240\r\n* fix(api): fix method `get_summary` in class `OpenApi` by @Integer003 in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1245\r\n* docs(readme): integration mlx lm by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1249\r\n* docs(readme): oppo repo by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1256\r\n* chore: restrict pydantic version by @SAKURA-CAT in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1257\r\n* feat: more env var by @Zeyi-Lin in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1199\r\n\r\n## New Contributors\r\n* @KMnO4-zx made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1217\r\n* @Integer003 made their first contribution in https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fpull\u002F1245\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002FSwanHubX\u002FSwanLab\u002Fcompare\u002Fv0.6.8...v0.6.9","2025-09-09T05:02:25"]