[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Clay-foundation--model":3,"tool-Clay-foundation--model":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":79,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":109,"github_topics":110,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":149},4189,"Clay-foundation\u002Fmodel","model","The Clay Foundation Model - An open source AI model and interface for Earth","Clay Foundation Model 是一款面向地球科学的开源人工智能基础模型，旨在为理解和分析我们的星球提供统一的智能接口。它主要解决了传统遥感数据处理中模型碎片化、训练门槛高以及难以跨任务复用的难题，让研究人员能够利用单一模型高效完成地表覆盖分类、变化检测等多种复杂任务。\n\n这款工具特别适合地球科学领域的研究人员、数据科学家以及希望探索 AI 在地理空间应用潜力的开发者使用。通过简单的 Python 代码或预置的 JupyterLab 环境，用户即可快速调用模型进行实验或二次开发。\n\n其技术亮点在于采用了先进的掩码自编码器（MAE）架构，并基于海量多源卫星影像进行了预训练，具备强大的特征提取与泛化能力。项目不仅开放了完整的源代码，还公开了训练好的模型权重，均采用宽松的 Apache 许可证，极大降低了学术研究与行业应用的成本。无论是需要快速验证想法的科研人员，还是致力于构建下一代地球观测系统的工程师，都能从中获得灵活且强大的技术支持。","# Clay Foundation Model\n\n[![Jupyter Book Badge](https:\u002F\u002Fjupyterbook.org\u002Fbadge.svg)](https:\u002F\u002Fclay-foundation.github.io\u002Fmodel)\n[![Deploy Book Status](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Factions\u002Fworkflows\u002Fdeploy-docs.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Factions\u002Fworkflows\u002Fdeploy-docs.yml)\n\nAn open source AI model and interface for Earth.\n\n## License\n\nClay Model is licensed under the [Apache](LICENSE). This applies to the source code as well as the trained model weights.\n\nThe Documentation is licensed under the [CC-BY-4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F) license.\n\n## Quickstart\n\nLaunch into a [JupyterLab](https:\u002F\u002Fjupyterlab.readthedocs.io) environment on\n\n| [Binder](https:\u002F\u002Fmybinder.readthedocs.io\u002Fen\u002Flatest) | [SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws) |\n|:--:|:--:|\n| [![Binder](https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg)](https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FClay-foundation\u002Fmodel\u002Fmain) | [![Open in SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002FClay-foundation\u002Fmodel\u002Fblob\u002Fmain\u002Fdocs\u002Ftutorials\u002Fwall-to-wall.ipynb) |\n\n## Installation\n\n### Pip Installation (Recommended)\n\nThe easiest way to install Clay Foundation Model is via pip:\n\n    pip install git+https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel.git\n\nThis will install the `claymodel` package and all its dependencies. You can then import and use it in your Python code:\n\n```python\nfrom claymodel.datamodule import ClayDataModule\nfrom claymodel.module import ClayMAEModule\n```\n\n### Development Installation\n\nFor development or advanced usage, you can set up the full development environment:\n\nTo help out with development, start by cloning this [repo-url](\u002F..\u002F..\u002F)\n\n    git clone \u003Crepo-url>\n    cd model\n\nThen we recommend [using mamba](https:\u002F\u002Fmamba.readthedocs.io\u002Fen\u002Flatest\u002Finstallation\u002Fmamba-installation.html)\nto install the dependencies. A virtual environment will also be created with Python and\n[JupyterLab](https:\u002F\u002Fgithub.com\u002Fjupyterlab\u002Fjupyterlab) installed.\n\n    mamba env create --file environment.yml\n\n> [!NOTE]\n> The command above has been tested on Linux devices with CUDA GPUs.\n\nActivate the virtual environment first.\n\n    mamba activate claymodel\n\nFinally, double-check that the libraries have been installed.\n\n    mamba list\n\n\n## Usage\n\n### Running jupyter lab\n\n    mamba activate claymodel\n    python -m ipykernel install --user --name claymodel  # to install virtual env properly\n    jupyter kernelspec list --json                       # see if kernel is installed\n    jupyter lab &\n\n\n### Running the model\n\nThe neural network model can be run via\n[LightningCLI v2](https:\u002F\u002Fpytorch-lightning.medium.com\u002Fintroducing-lightningcli-v2supercharge-your-training-c070d43c7dd6).\n\n> [!NOTE]\n> If you installed via pip, you'll need to clone the repository to access the trainer script and config files.\n\nTo check out the different options available, and look at the hyperparameter\nconfigurations, run:\n\n    python trainer.py --help\n\nTo quickly test the model on one batch in the validation set:\n\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml --trainer.fast_dev_run=True\n\nTo train the model:\n\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml\n\nMore options can be found using `python trainer.py fit --help`, or at the\n[LightningCLI docs](https:\u002F\u002Flightning.ai\u002Fdocs\u002Fpytorch\u002F2.1.0\u002Fcli\u002Flightning_cli.html).\n\n## Contributing\n\n### Writing documentation\n\nOur Documentation uses [Jupyter Book](https:\u002F\u002Fjupyterbook.org\u002Fintro.html).\n\nInstall it with:\n```bash\npip install -U jupyter-book\n```\n\nThen build it with:\n```bash\njupyter-book build docs\u002F\n```\n\nYou can preview the site locally with:\n```bash\npython -m http.server --directory _build\u002Fhtml\n```\n\nThere is a GitHub Action on `.github\u002Fworkflows\u002Fdeploy-docs.yml` that builds the site and pushes it to GitHub Pages.\n","# 黏土基金会模型\n\n[![Jupyter Book 徽章](https:\u002F\u002Fjupyterbook.org\u002Fbadge.svg)](https:\u002F\u002Fclay-foundation.github.io\u002Fmodel)\n[![部署文档状态](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Factions\u002Fworkflows\u002Fdeploy-docs.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Factions\u002Fworkflows\u002Fdeploy-docs.yml)\n\n一个用于地球的开源人工智能模型及界面。\n\n## 许可证\n\n黏土模型采用 [Apache](LICENSE) 许可证授权。这适用于源代码以及训练好的模型权重。\n\n文档则采用 [CC-BY-4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002F) 许可证授权。\n\n## 快速入门\n\n在以下平台启动 [JupyterLab](https:\u002F\u002Fjupyterlab.readthedocs.io) 环境：\n\n| [Binder](https:\u002F\u002Fmybinder.readthedocs.io\u002Fen\u002Flatest) | [SageMaker Studio Lab](https:\u002F\u002Fstudiolab.sagemaker.aws) |\n|:--:|:--:|\n| [![Binder](https:\u002F\u002Fmybinder.org\u002Fbadge_logo.svg)](https:\u002F\u002Fmybinder.org\u002Fv2\u002Fgh\u002FClay-foundation\u002Fmodel\u002Fmain) | [![在 SageMaker Studio Lab 中打开](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fstudiolab.svg)](https:\u002F\u002Fstudiolab.sagemaker.aws\u002Fimport\u002Fgithub\u002FClay-foundation\u002Fmodel\u002Fblob\u002Fmain\u002Fdocs\u002Ftutorials\u002Fwall-to-wall.ipynb) |\n\n## 安装\n\n### 使用 pip 安装（推荐）\n\n安装黏土基金会模型最简单的方式是通过 pip：\n\n    pip install git+https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel.git\n\n这将安装 `claymodel` 包及其所有依赖项。随后您可以在 Python 代码中导入并使用它：\n\n```python\nfrom claymodel.datamodule import ClayDataModule\nfrom claymodel.module import ClayMAEModule\n```\n\n### 开发环境安装\n\n若需进行开发或高级使用，您可以搭建完整的开发环境：\n\n为协助开发，请先克隆此 [repo-url](\u002F..\u002F..\u002F)：\n\n    git clone \u003Crepo-url>\n    cd model\n\n然后我们建议使用 [mamba](https:\u002F\u002Fmamba.readthedocs.io\u002Fen\u002Flatest\u002Finstallation\u002Fmamba-installation.html) 来安装依赖项。同时会创建一个包含 Python 和 [JupyterLab](https:\u002F\u002Fgithub.com\u002Fjupyterlab\u002Fjupyterlab) 的虚拟环境。\n\n    mamba env create --file environment.yml\n\n> [!注意]\n> 上述命令已在配备 CUDA 显卡的 Linux 设备上测试通过。\n\n请先激活虚拟环境：\n\n    mamba activate claymodel\n\n最后，请再次确认库是否已正确安装：\n\n    mamba list\n\n\n## 使用\n\n### 运行 Jupyter Lab\n\n    mamba activate claymodel\n    python -m ipykernel install --user --name claymodel  # 正确安装虚拟环境\n    jupyter kernelspec list --json                       # 检查内核是否已安装\n    jupyter lab &\n\n\n### 运行模型\n\n可通过 [LightningCLI v2](https:\u002F\u002Fpytorch-lightning.medium.com\u002Fintroducing-lightningcli-v2supercharge-your-training-c070d43c7dd6) 运行神经网络模型。\n\n> [!注意]\n> 如果您是通过 pip 安装的，则需要克隆仓库才能访问训练脚本和配置文件。\n\n要查看可用选项及超参数配置，请运行：\n\n    python trainer.py --help\n\n要在验证集的一个批次上快速测试模型：\n\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml --trainer.fast_dev_run=True\n\n要训练模型：\n\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml\n\n更多选项可通过 `python trainer.py fit --help` 或访问 [LightningCLI 文档](https:\u002F\u002Flightning.ai\u002Fdocs\u002Fpytorch\u002F2.1.0\u002Fcli\u002Flightning_cli.html) 获取。\n\n## 贡献\n\n### 编写文档\n\n我们的文档使用 [Jupyter Book](https:\u002F\u002Fjupyterbook.org\u002Fintro.html) 构建。\n\n安装方法如下：\n```bash\npip install -U jupyter-book\n```\n\n构建时执行：\n```bash\njupyter-book build docs\u002F\n```\n\n您也可以在本地预览站点：\n```bash\npython -m http.server --directory _build\u002Fhtml\n```\n\nGitHub 上有一个工作流 `.github\u002Fworkflows\u002Fdeploy-docs.yml`，会自动构建站点并推送到 GitHub Pages。","# Clay Foundation Model 快速上手指南\n\nClay Foundation Model 是一个面向地球科学的开源 AI 模型及接口。本指南将帮助中国开发者快速完成环境配置、安装及基础运行。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：推荐 Linux（官方测试环境），Windows 或 macOS 可能需要额外配置。\n*   **硬件加速**：推荐使用配备 CUDA 驱动的 NVIDIA GPU 以获得最佳训练和推理性能。\n*   **包管理器**：推荐安装 [Mamba](https:\u002F\u002Fmamba.readthedocs.io\u002Fen\u002Flatest\u002Finstallation\u002Fmamba-installation.html)（比 Conda 更快），用于管理依赖环境。\n*   **Python 版本**：通过 Mamba 自动安装（包含在 `environment.yml` 中）。\n\n> **提示**：国内用户若下载依赖较慢，可配置清华源或阿里源加速 `pip` 和 `conda\u002Fmamba` 通道。\n\n## 安装步骤\n\n您可以根据需求选择“快速使用”或“开发模式”进行安装。\n\n### 方式一：Pip 快速安装（推荐仅使用者）\n\n这是最简单的安装方式，适用于直接调用模型库进行开发。\n\n```bash\npip install git+https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel.git\n```\n\n安装完成后，即可在 Python 代码中导入：\n\n```python\nfrom claymodel.datamodule import ClayDataModule\nfrom claymodel.module import ClayMAEModule\n```\n\n### 方式二：开发环境安装（推荐贡献者\u002F进阶用户）\n\n如果您需要修改源码、运行训练脚本或使用 JupyterLab 交互环境，请按以下步骤操作：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel.git\n    cd model\n    ```\n\n2.  **创建虚拟环境**\n    使用 Mamba 根据配置文件一键安装所有依赖（含 PyTorch, JupyterLab 等）：\n    ```bash\n    mamba env create --file environment.yml\n    ```\n\n3.  **激活环境**\n    ```bash\n    mamba activate claymodel\n    ```\n\n4.  **验证安装**\n    ```bash\n    mamba list\n    ```\n\n## 基本使用\n\n### 1. 启动 JupyterLab 交互环境\n\n若采用**方式二**安装，建议先注册内核以便在 Jupyter 中使用：\n\n```bash\nmamba activate claymodel\npython -m ipykernel install --user --name claymodel\njupyter kernelspec list --json  # 确认内核已注册\njupyter lab &\n```\n\n### 2. 运行模型训练与测试\n\n模型运行基于 [LightningCLI v2](https:\u002F\u002Fpytorch-lightning.medium.com\u002Fintroducing-lightningcli-v2supercharge-your-training-c070d43c7dd6)。\n\n> **注意**：若通过 **Pip** 安装，需先克隆仓库以获取 `trainer.py` 脚本和 `configs` 配置文件。\n\n*   **查看帮助与超参数配置**\n    ```bash\n    python trainer.py --help\n    ```\n\n*   **快速测试（单批次验证）**\n    用于快速检查环境是否正常，仅在验证集上运行一个 batch：\n    ```bash\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml --trainer.fast_dev_run=True\n    ```\n\n*   **正式训练**\n    使用默认配置开始训练模型：\n    ```bash\n    python trainer.py fit --model ClayMAEModule --data ClayDataModule --config configs\u002Fconfig.yaml\n    ```\n\n更多高级选项可通过 `python trainer.py fit --help` 查看，或参考 LightningCLI 官方文档。","某环境科技公司数据团队正致力于利用卫星影像监测亚马逊雨林的非法砍伐活动，需要快速处理海量多光谱地球观测数据。\n\n### 没有 model 时\n- 团队需手动编写复杂代码来清洗和对齐来自不同卫星源（如 Landsat、Sentinel）的异构数据，耗时数周且易出错。\n- 缺乏统一的预训练地球基础模型，每次分析新区域都需从头训练深度学习模型，消耗大量 GPU 算力和时间。\n- 难以有效提取云层覆盖或阴影下的高价值地表特征，导致早期预警系统的漏报率居高不下。\n- 跨部门协作困难，因缺乏标准化接口，算法工程师与生态学家无法在同一框架下复现和验证分析结果。\n\n### 使用 model 后\n- 借助 Clay Foundation Model 内置的数据模块，团队一键完成了多源卫星数据的自动对齐与标准化，将预处理时间从数周缩短至数小时。\n- 直接调用开源的预训练权重进行迁移学习，仅需少量标注样本即可适配雨林特定场景，模型迭代效率提升十倍以上。\n- 利用其强大的掩码自编码架构，成功还原了被云层遮挡的地表细节，显著提升了非法砍伐点的识别准确率。\n- 通过统一的 Python 接口和 JupyterLab 环境，算法团队与领域专家实现了代码与结果的无缝共享，大幅加速了决策流程。\n\nClay Foundation Model 通过提供标准化的地球数据接口与开箱即用的预训练能力，让环境监测从繁琐的数据工程中解放出来，真正聚焦于解决气候危机。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FClay-foundation_model_e910b684.png","Clay-foundation","Clay Foundation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FClay-foundation_104c0ea0.png","Make with Clay",null,"bruno@clay.foundation","https:\u002F\u002Fgithub.com\u002FClay-foundation",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",76,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",22.4,{"name":92,"color":93,"percentage":94},"Shell","#89e051",1.6,549,96,"2026-04-05T12:47:03","Apache-2.0","Linux","需要 NVIDIA GPU (CUDA)，具体型号和显存未说明，但开发环境测试基于带 CUDA GPU 的 Linux 设备","未说明",{"notes":103,"python":104,"dependencies":105},"推荐使用 mamba 创建开发环境（命令已在带 CUDA GPU 的 Linux 设备上测试）。若仅通过 pip 安装，需克隆仓库以访问训练脚本和配置文件。文档基于 Jupyter Book 构建。","未说明 (通过 mamba\u002Fconda 环境管理)",[106,107,108],"pytorch-lightning","jupyterlab","mamba",[13],[111,112,113,114,115,116],"earth-observation","foundation-model","sentinel-2","sentinel-1","digital-elevation-model","embeddings","2026-03-27T02:49:30.150509","2026-04-06T14:01:41.031563",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},19093,"Clay v1.5 模型在哪里可以下载？","Clay v1.5 模型已上传至 Hugging Face，下载地址为：https:\u002F\u002Fhuggingface.co\u002Fmade-with-clay\u002FClay\u002Fblob\u002Fmain\u002Fclay_v1.5.ckpt。相关文档待发布，但您可以直接使用开发分支（https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Ftree\u002Fdev）中的代码进行尝试。","https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fissues\u002F283",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},19094,"如何在 macOS 上运行 Clay 模型？","目前 Clay 已支持在 macOS 上运行。对于 Intel 芯片用户，需移除 Linux 特有的 CUDA 部分；对于 M1\u002FM2\u002FM3 (ARM64) 用户，CI 已在 macos-14 上运行通过。用户反馈表明，安装后可以直接复现教程（如“使用部分输入嵌入进行烧伤分析”）。如果遇到 torchdata 或 torchvision 安装问题，请确保使用兼容的版本或参考 conda-forge 的相关修复。","https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fissues\u002F161",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},19095,"Clay v1 版本使用了哪些数据源？","Clay v1 使用的数据源及其对应的 Chip 数量如下：\n- NAIP: 20,984,171\n- LINZ (新西兰高分辨率影像): 3,299,006\n- Sentinel-2 L2A: 18,683,945\n- Landsat C2L1: 5,827,333\n- Landsat C2L2-SR: 5,790,651\n- Sentinel-1 RTC: 16,133,394\n未来计划加入 Modis、Sentinel-3 等其他数据源。","https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fissues\u002F128",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},19096,"Clay v1 的数据处理流水线（Pipeline）是如何工作的？","Clay v1 采用基于静态 STAC 索引和动态分块的流式处理方法。具体步骤包括：\n1. 从 earth-search API 下载影像项（例如每个季度云量最少的 Sentinel-2 数据）。\n2. 将资产白名单复制到项目的 S3 存储桶。\n3. 更新 STAC 项中的资源链接（hrefs）并上传。\n4. 使用 stacchip 工具创建 Chip 索引。\n5. 将索引上传至 S3。\n该流程已针对 Sentinel-2 数据完成测试，并可扩展到其他数据源。详细脚本参考：https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fstacchip\u002Fblob\u002Fmain\u002Fscripts\u002Fsentinel-2-processor.py","https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fissues\u002F178",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},19097,"如何获取早期的嵌入向量（Embeddings）样本进行测试？","早期样本嵌入向量已生成并序列化存储到 S3。维护者已提交 Pull Request (https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fvector\u002Fpull\u002F4)，展示了如何将数据摄入到运行在 Docker 中的 pgvector 实例，并通过 Jupyter Notebook 查询向量数据库，实现了端到端的连接演示。此外，还有一个功能分支 (https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fvector\u002Ftree\u002Ffeature\u002Fpgvector) 提供了从 S3 加载数据、训练 PCA 降维矩阵及索引搜索的功能。","https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fissues\u002F35",{"id":146,"question_zh":147,"answer_zh":148,"source_url":124},19098,"Clay v1.5 的训练有哪些改进或已知问题？","Clay v1.5 的训练尝试了使用 SAM 作为教师模型，并加入了 Satellogic 数据以减少高分辨率训练的偏差。但在 QA 过程中发现，当前使用的 MRL（多分辨率学习）实现效果可能不如预期，团队正在解决此问题。如需早期访问检查点，可关注官方发布的链接。",[150,155,160],{"id":151,"version":152,"summary_zh":153,"released_at":154},117132,"v1.0.1","## 变更内容\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F267 中添加了 v1.0 的变更日志\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F268 中修复了重复变换的 bug\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F273 中修复了启动按钮问题\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F270 中实现了分类器下游任务\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F281 中移除了 model_clay.py 文件\n* @fnands 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F286 中将最新版本指向 v1.0\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F285 中提供了 Clay 的回归示例\n* [pre-commit.ci] @pre-commit-ci 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F289 中进行了 pre-commit 自动更新\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F293 中修复了 README 中的链接\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F292 中添加了基于嵌入的简单分类示例\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F295 中修复了相对路径问题\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F298 中为分割脚本和 README 添加了无签名请求标志\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F297 中将嵌入微调注册到目录中\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F301 中整理了微调代码和文档\n* @lillythomas 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F247 中实现了使用 NAIP 的 v1 模型推理\n* @lillythomas 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F306 中将 NAIP 相似度搜索教程条目添加到目录中\n* @jonasViehweger 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F319 中新增了 PlanetScope SR 制图功能\n* @clausmichele 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F316 中修复了格式和拼写错误\n* @wboykinm 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F322 中调整了 s5cmd 调用参数\n* [pre-commit.ci] @pre-commit-ci 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F327 中进行了 pre-commit 自动更新\n* @MaxLenormand 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F330 中更新了失效链接：`mamba` 安装说明\n* @weiji14 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F310 中取消了 timm 和 pyarrow 的版本锁定\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F334 中更新至 v1.5\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F336 中将教程更新至 Clay v1.5\n* @rbavery 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F337 中修正了指向 v1.5 检查点的链接\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F335 中将 MODIS 采样添加到文档中\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F339 中更新文档以反映 v1.5 版本\n* @Brayden-Zhang 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F344 中修复了嵌入教程中的拼写错误\n* @brunosan 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F351 中将文档中的许可信息更新为 Apache 许可\n* 修复已弃用的版本","2025-07-05T10:54:06",{"id":156,"version":157,"summary_zh":158,"released_at":159},117133,"v1.0","## 发布 v1.0（2024年6月6日）\n\n### 💫 亮点\n\n* 🎉 **Clay 基础模型 v1.0 发布** 🎉\n\n### 🚀 模型\n\n* Clay v1 的数据模块和模型，由 @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F253 中实现。\n\n### 🗃️ 数据流水线\n\n* 将数据流水线代码移至 [stacchip](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fstacchip)，这是一套专门用于数据处理的库。\n\n### 📖 文档\n\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F116 中撰写的关于 Clay 在 AOI 上运行的文档。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F122 中将 run-over-aoi 笔记本转换为 Markdown 格式。\n* @brunosan 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F118 中编写的 v0.1 静态文档。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F124 中记录的数据采样策略。\n* @MaxLenormand 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F198 中更新了文档中下载影像的脚本位置。\n* @kbgg 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F214 中将文档中的“Radiant Earth Foundation”改为“Radiant Earth”。\n* @weiji14 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F225 中更新了重新锁定 conda-lock.yml 文件的说明。\n* chore(docs): @kelseyjosund 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F232 中修正了拼写错误并提升了文风一致性。\n* @lillythomas 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F154 中撰写的巴基斯坦洪灾教程——部分输入。\n* @lillythomas 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F172 中获取了补丁级别的元数据（如地理空间范围和云覆盖），并保存下来，同时演示了 DEP 的使用场景（相似性搜索）。\n* @lillythomas 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F184 中获取了补丁级别的云覆盖百分比。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F149 中撰写的利用部分输入嵌入进行烧毁迹线分析的教程。\n* @brunosan 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F230 中对文档进行了更新。\n* @brunosan 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F250 中更新了 specification.md 文件。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F254 中添加了一个展示如何运行 v1 的笔记本。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F249 中记录了 v1 的采样策略。\n* @dbonomo 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F252 中更新了 mamba 安装说明的链接。\n* @srmsoumya 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F256 中移除了 clay-v0-tutorials，并添加了 v1 的嵌入可视化内容。\n* @tylere 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F260 中修正了一个小的拼写错误。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F261 中缩短了注释行的长度。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F262 中重构了文档，将 v0 的文档移至单独的部分。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F263 中继续完善 v1 的文档。\n* @yellowcap 在 https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F266 中记录了用于归一化和波长的元数据文件。\n* [sma","2024-06-06T10:55:03",{"id":161,"version":162,"summary_zh":163,"released_at":164},117134,"v0.0.1","## 发布 v0.0.1 (2024年1月12日)\n\n### 💫 亮点\n\n* 🎉 **Clay 基金会模型首次发布** 🎉\n* 实现 MAE，并支持位置、时间、经纬度及通道嵌入（[#47](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F47)）\n\n### 🚀 模型\n\n* 从使用经纬度\u002F时间编码训练的 CLAYModule 生成嵌入（[#96](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F96)）\n* 添加多 GPU 支持及用于测试嵌入的 UI（[#109](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F109)）\n* 重构模型以支持多设备运行，并更方便地禁用掩码功能（[#95](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F95)）\n* 重命名嵌入文件，加入 MGRS 编码，并存储 GeoTIFF 的源 URL（[#86](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F86)）\n* 添加回调函数，将掩码自编码器的重建结果记录到 WandB（[#88](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F88)）\n* 适配模型以从 S3 存储桶加载 512x512 分辨率的图像（[#85](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F85)）\n* 将包含时空元数据的嵌入保存为 GeoParquet 格式（[#73](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F73)）\n* 通过预测循环生成嵌入（[#56](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F56)）\n* 初步的 Vision Transformer 架构，配备 MAE 解码器（[#37](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F37)）\n\n### 🗃️ 数据流水线\n\n* 优化采样策略（[#81](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F81)）\n* 允许 ClayDataModule 直接从 S3 加载 GeoTIFF 文件（[#92](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F92)）\n* 使 ClayDataModule 返回与 GeoTIFFDataModule 相同的时空字段（[#91](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F91)）\n* 改进数据流水线中的日期处理（[#76](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F76)）\n* 让 LightningDataModule 返回时空元数据（[#66](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F66)）\n* 在 Sentinel-1 vv 和 vh、Sentinel-2 以及 DEM 数据中，按瓦片级别检查是否存在数据缺失问题（[#60](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F60)）\n* 批量处理设置（[#54](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F54)）\n* LightningDataModule 用于加载 GeoTIFF 文件（[#52](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F52)）\n* 为批量处理做好准备（[#44](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F44)）\n* 瓦片化模块（[#41](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F41)）\n* 基于土地覆盖的采样策略（[#29](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F29)）\n* 数据立方体（[#27](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F27)）\n\n### 📖 文档\n\n* 记录基准数据集标签的准备过程（[#100](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F100)）\n* 记录如何在下游任务上微调预训练模型的方法（[#99](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F99)）\n* 记录如何生成矢量嵌入的方法（[#98](https:\u002F\u002Fgithub.com\u002FClay-foundation\u002Fmodel\u002Fpull\u002F98)）\n* 记录如何使用批处理作业运行数据立方体流水线的方法（[#97](htt","2024-01-12T06:21:11"]