[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-jdtoscano94--NABLA-SciML":3,"tool-jdtoscano94--NABLA-SciML":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":94,"forks":95,"last_commit_at":96,"license":78,"difficulty_score":10,"env_os":97,"env_gpu":98,"env_ram":99,"env_deps":100,"category_tags":106,"github_topics":107,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":126},8704,"jdtoscano94\u002FNABLA-SciML","NABLA-SciML","Physics Informed Machine Learning Tutorials (Pytorch and Jax)","NABLA-SciML 是一个专为科学机器学习（SciML）打造的开源教程与代码库，由乔治·卡尼亚达基斯教授团队的研究人员开发。它旨在帮助开发者高效、复现地构建物理信息神经网络（PINNs）、DeepONets 以及 KANs 等前沿架构，用于模拟传统方法难以处理的复杂物理系统，如脑脊液流动或湍流现象。\n\n该工具解决了科研人员在实现先进算法时面临的代码分散、复现困难及优化不稳定等痛点。通过提供基于 PyTorch 和 JAX 的双框架支持，NABLA-SciML 不仅包含从基础入门到高级应用的详细教程（配套视频讲解），还集成了多项独家技术创新。其中包括提升训练精度的残基注意力机制（RBA）、针对微分方程算子网络的 KAN 全面对比方案，以及高精度的自缩放 Broyden（SSBroyden）优化器。\n\nNABLA-SciML 特别适合从事计算物理、流体力学研究的科研人员，以及希望深入探索科学机器学习算法的开发者使用。无论是需要快速上手 PINN 基础的学生，还是致力于改进神经网络架构的研究者，都能从中获得经过验证的代码实现与理论参考，从而加速科研进程。","# $\\nabla$ NABLA-SciML\n**N**eural **A**lgorithms & **B**asis **L**earning **A**pproximations for **S**cientific **M**achine **L**earning\n\nWelcome to **$\\nabla$ NABLA-SciML**!\n\nI am **Juan Diego Toscano**, a PhD Candidate working under the mentorship of **Prof. George Karniadakis** since 2022. My research delves into the realm of Scientific Machine Learning (SciML), with a specific focus on developing reliable and stable machine learning methods to study and understand complex physical systems that cannot be analyzed using traditional techniques (such as cerebrospinal fluid flow or turbulent flows).\n\n**NABLA** is a collection of my ongoing work and serves as a unified framework for efficient and reproducible implementations of Physics-Informed Neural Networks (PINNs), DeepONets, and newer architectures like KANs.\n\n### Repository Structure\nThe codebase includes separate modules for:\n\n1.  **Tutorials**: Basic introductions to PINNs and DeepONets using both PyTorch and JAX. Most of these examples include corresponding video tutorials on my [YouTube channel](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUC6ryWzulr-Xom2Bym7O_CvQ).\n2.  **RBA**: Code for Residual-Based Attention mechanisms [1]. Our official repository is available at: [rba-pinns](https:\u002F\u002Fgithub.com\u002Fsoanagno\u002Frba-pinns).\n3.  **cKANs**: Implementations for the comprehensive comparison between MLP and KAN representations [2].\n4.  **KKANs**: Source code for Kurkova-Kolmogorov-Arnold Networks [3]. Our official repository is available at: [KKANs](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FKurkova_Kolmogorov_Arnold_Networks_KKANs.git).\n5.  **vRBA**: A Variational Framework for Residual-Based Adaptivity [4]. **Note:** This module includes our custom, highly accurate implementation of the **Self-Scaling Broyden (SSBroyden)** optimizer.\n6.  **AIVT**: The code for Turbulent Thermal Convection [5] is hosted in its own dedicated repository: [Instant-AIVT](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FInstant-AIVT).\n7.  **MR-AIV**: Code for Brain-wide Fluid Flow [6] will be released soon.\n## 🛠️ Installation\n\n**Note on Repository Structure:**\n* **RBA and cKANs:** These directories are **self-contained**. They can be run directly as standalone scripts, provided you have a valid JAX installation.\n* **KKANS and vRBA (and SSBroyden):** To use our KKANS, our Variational Residual-Based Adaptivity framework and our highly accurate **SSBroyden** optimizer, you must install the `Crunch` library using the steps below.\n\n### Setup Instructions (Required for vRBA)\n\n1.  **Clone the repository:**\n    ```bash\n    git clone [https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FNABLA-SciML.git](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FNABLA-SciML.git)\n    cd NABLA-SciML\n    ```\n\n2.  **Create and activate a virtual environment (Recommended):**\n    ```bash\n    conda create -n nabla_env python=3.10\n    conda activate nabla_env\n    ```\n\n3.  **Install JAX with GPU support:**\n    *(This is required for all modules. We recommend installing it explicitly first to ensure CUDA support)*\n    ```bash\n    pip install -U \"jax[cuda12]\"\n    ```\n\n4.  **Install the NABLA package:**\n    This installs the library in editable mode, which is necessary to import the vRBA models and the SSBroyden optimizer.\n    ```bash\n    pip install -e .\n    ```\n\n\n## 📚 References\n\nIf you use code from this repository in your research, please consider citing the relevant papers below:\n\n### [1] Residual-Based Attention (RBA)\n```bibtex\n@article{anagnostopoulos2024residual,\n  title={Residual-based attention in physics-informed neural networks},\n  author={Anagnostopoulos, Sokratis J and Toscano, Juan Diego and Stergiopulos, Nikolaos and Karniadakis, George Em},\n  journal={Computer Methods in Applied Mechanics and Engineering},\n  volume={421},\n  pages={116805},\n  year={2024},\n  publisher={Elsevier}\n}\n```\n\n### [2] Comprehensive KANs (cKANs)\n```bibtex\n@article{shukla2024comprehensive,\n  title={A comprehensive and FAIR comparison between MLP and KAN representations for differential equations and operator networks},\n  author={Shukla, Khemraj and Toscano, Juan Diego and Wang, Zhicheng and Zou, Zongren and Karniadakis, George Em},\n  journal={Computer Methods in Applied Mechanics and Engineering},\n  volume={431},\n  pages={117290},\n  year={2024},\n  publisher={Elsevier}\n}\n```\n\n### [3] Kurkova-Kolmogorov-Arnold Networks (KKANs)\n```bibtex\n@article{toscano2025kkans,\n  title={KKANs: Kurkova-Kolmogorov-Arnold networks and their learning dynamics},\n  author={Toscano, Juan Diego and Wang, Li-Lian and Karniadakis, George Em},\n  journal={Neural Networks},\n  volume={191},\n  pages={107831},\n  year={2025},\n  publisher={Elsevier}\n}\n```\n\n### [4] Variational Residual-Based Adaptivity (vRBA)\n```bibtex\n@article{toscano2025variational,\n  title={A Variational Framework for Residual-Based Adaptivity in Neural PDE Solvers and Operator Learning},\n  author={Toscano, Juan Diego and Chen, Daniel T and Oommen, Vivek and Darbon, J{'e}r{\\^o}me and Karniadakis, George Em},\n  journal={arXiv preprint arXiv:2509.14198},\n  year={2025}\n}\n```\n\n### [5] AIVT (Turbulence Inference)\n```bibtex\n@article{toscano2025aivt,\n  title={AIVT: Inference of turbulent thermal convection from measured 3D velocity data by physics-informed Kolmogorov-Arnold networks},\n  author={Toscano, Juan Diego and K{\\\"a}ufer, Theo and Wang, Zhibo and Maxey, Martin and Cierpka, Christian and Karniadakis, George Em},\n  journal={Science advances},\n  volume={11},\n  number={19},\n  pages={eads5236},\n  year={2025},\n  publisher={American Association for the Advancement of Science}\n}\n```\n\n### [6] MR-AIV (Brain Fluid Flow)\n```bibtex\n@article{toscano2025mr,\n  title={MR-AIV reveals in vivo brain-wide fluid flow with physics-informed AI},\n  author={Toscano, Juan Diego and Guo, Yisen and Wang, Zhibo and Vaezi, Mohammad and Mori, Yuki and Karniadakis, George Em and Boster, Kimberly AS and Kelley, Douglas H},\n  journal={bioRxiv},\n  year={2025}\n}\n```","# $\\nabla$ NABLA-SciML\n**N**eural **A**lgorithms & **B**asis **L**earning **A**pproximations for **S**cientific **M**achine **L**earning\n\n欢迎来到 **$\\nabla$ NABLA-SciML**！\n\n我是 **胡安·迭戈·托斯卡诺**，自2022年起在 **乔治·卡尔尼亚达基斯教授** 的指导下攻读博士学位。我的研究致力于科学机器学习（SciML）领域，特别关注开发可靠且稳定的机器学习方法，以研究和理解那些无法用传统技术分析的复杂物理系统（例如脑脊液流动或湍流）。\n\n**NABLA** 是我持续工作的成果集合，旨在为物理信息神经网络（PINNs）、DeepONets 以及 KAN 等新型架构提供高效、可复现的统一框架。\n\n### 仓库结构\n代码库包含以下独立模块：\n\n1.  **教程**：使用 PyTorch 和 JAX 对 PINNs 和 DeepONets 的基础介绍。其中大多数示例都配有我在 [YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUC6ryWzulr-Xom2Bym7O_CvQ) 上发布的相应视频教程。\n2.  **RBA**：基于残差的注意力机制代码 [1]。我们的官方仓库地址为：[rba-pinns](https:\u002F\u002Fgithub.com\u002Fsoanagno\u002Frba-pinns)。\n3.  **cKANs**：用于全面比较 MLP 和 KAN 表征的实现 [2]。\n4.  **KKANs**：库尔科娃-科尔莫戈洛夫-阿诺德网络的源代码 [3]。我们的官方仓库地址为：[KKANs](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FKurkova_Kolmogorov_Arnold_Networks_KKANs.git)。\n5.  **vRBA**：基于残差的自适应变分框架 [4]。**注意**：该模块包含我们自定义的高度精确的 **自缩放布罗伊登（SSBroyden）** 优化器。\n6.  **AIVT**：湍流热对流的代码托管在其专用仓库中：[Instant-AIVT](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FInstant-AIVT)。\n7.  **MR-AIV**：全脑流体流动的代码即将发布。\n## 🛠️ 安装\n\n**关于仓库结构的说明：**\n* **RBA 和 cKANs**：这两个目录是 **自包含的**。只要您已正确安装 JAX，即可直接作为独立脚本运行。\n* **KKANS 和 vRBA（以及 SSBroyden）**：要使用我们的 KKANS、基于残差的变分自适应框架以及高度精确的 **SSBroyden** 优化器，您必须按照以下步骤安装 `Crunch` 库。\n\n### 设置说明（vRBA 所需）\n\n1.  **克隆仓库：**\n    ```bash\n    git clone [https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FNABLA-SciML.git](https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FNABLA-SciML.git)\n    cd NABLA-SciML\n    ```\n\n2.  **创建并激活虚拟环境（推荐）：**\n    ```bash\n    conda create -n nabla_env python=3.10\n    conda activate nabla_env\n    ```\n\n3.  **安装支持 GPU 的 JAX：**\n    *(所有模块都需要此依赖项。我们建议先显式安装，以确保 CUDA 支持）*\n    ```bash\n    pip install -U \"jax[cuda12]\"\n    ```\n\n4.  **安装 NABLA 包：**\n    这将以可编辑模式安装库，这对于导入 vRBA 模型和 SSBroyden 优化器至关重要。\n    ```bash\n    pip install -e .\n    ```\n\n\n## 📚 参考文献\n\n如果您在研究中使用了本仓库中的代码，请考虑引用以下相关论文：\n\n### [1] 基于残差的注意力机制（RBA）\n```bibtex\n@article{anagnostopoulos2024residual,\n  title={Residual-based attention in physics-informed neural networks},\n  author={Anagnostopoulos, Sokratis J and Toscano, Juan Diego and Stergiopulos, Nikolaos and Karniadakis, George Em},\n  journal={Computer Methods in Applied Mechanics and Engineering},\n  volume={421},\n  pages={116805},\n  year={2024},\n  publisher={Elsevier}\n}\n```\n\n### [2] 全面的 KANs（cKANs）\n```bibtex\n@article{shukla2024comprehensive,\n  title={A comprehensive and FAIR comparison between MLP and KAN representations for differential equations and operator networks},\n  author={Shukla, Khemraj and Toscano, Juan Diego and Wang, Zhicheng and Zou, Zongren and Karniadakis, George Em},\n  journal={Computer Methods in Applied Mechanics and Engineering},\n  volume={431},\n  pages={117290},\n  year={2024},\n  publisher={Elsevier}\n}\n```\n\n### [3] 库尔科娃-科尔莫戈洛夫-阿诺德网络（KKANs）\n```bibtex\n@article{toscano2025kkans,\n  title={KKANs: Kurkova-Kolmogorov-Arnold networks and their learning dynamics},\n  author={Toscano, Juan Diego and Wang, Li-Lian and Karniadakis, George Em},\n  journal={Neural Networks},\n  volume={191},\n  pages={107831},\n  year={2025},\n  publisher={Elsevier}\n}\n```\n\n### [4] 基于残差的变分自适应（vRBA）\n```bibtex\n@article{toscano2025variational,\n  title={A Variational Framework for Residual-Based Adaptivity in Neural PDE Solvers and Operator Learning},\n  author={Toscano, Juan Diego and Chen, Daniel T and Oommen, Vivek and Darbon, J{'e}r{\\^o}me and Karniadakis, George Em},\n  journal={arXiv preprint arXiv:2509.14198},\n  year={2025}\n}\n```\n\n### [5] AIVT（湍流推断）\n```bibtex\n@article{toscano2025aivt,\n  title={AIVT: Inference of turbulent thermal convection from measured 3D velocity data by physics-informed Kolmogorov-Arnold networks},\n  author={Toscano, Juan Diego and K{\\\"a}ufer, Theo and Wang, Zhibo and Maxey, Martin and Cierpka, Christian and Karniadakis, George Em},\n  journal={Science advances},\n  volume={11},\n  number={19},\n  pages={eads5236},\n  year={2025},\n  publisher={American Association for the Advancement of Science}\n}\n```\n\n### [6] MR-AIV（脑部流体流动）\n```bibtex\n@article{toscano2025mr,\n  title={MR-AIV reveals in vivo brain-wide fluid flow with physics-informed AI},\n  author={Toscano, Juan Diego and Guo, Yisen and Wang, Zhibo and Vaezi, Mohammad and Mori, Yuki and Karniadakis, George Em and Boster, Kimberly AS and Kelley, Douglas H},\n  journal={bioRxiv},\n  year={2025}\n}\n```","# NABLA-SciML 快速上手指南\n\nNABLA-SciML 是一个用于科学机器学习（SciML）的统一框架，由 Juan Diego Toscano 开发。它提供了物理信息神经网络（PINNs）、DeepONets 以及最新架构（如 KANs、KKANs）的高效且可复现的实现，特别适用于研究复杂物理系统（如脑脊液流动或湍流）。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS。Windows 用户建议使用 WSL2。\n*   **Python 版本**: 3.10 (官方推荐)。\n*   **硬件加速**: 推荐使用 NVIDIA GPU 以获得最佳性能（需安装 CUDA 支持）。\n*   **包管理器**: 推荐使用 `conda` 管理虚拟环境。\n*   **核心依赖**:\n    *   **JAX**: 所有模块的核心后端。\n    *   **Crunch 库**: 若需使用 KKANs、vRBA 框架或 SSBroyden 优化器，必须安装此库（通过本仓库安装）。\n\n> **注意**：部分模块（如 RBA 和 cKANs）是独立的，仅需 JAX 即可运行；但为了完整体验（特别是 vRBA 和自定义优化器），建议按照下方步骤进行完整安装。\n\n## 安装步骤\n\n请依次执行以下命令来完成环境配置和库的安装。\n\n### 1. 克隆仓库\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fjdtoscano94\u002FNABLA-SciML.git\ncd NABLA-SciML\n```\n\n### 2. 创建并激活虚拟环境\n推荐使用 conda 创建隔离环境：\n```bash\nconda create -n nabla_env python=3.10\nconda activate nabla_env\n```\n\n### 3. 安装带 GPU 支持的 JAX\n为了确保 CUDA 加速正常工作，建议显式安装指定版本的 JAX：\n```bash\npip install -U \"jax[cuda12]\"\n```\n*(注：如果您的 CUDA 版本不是 12，请相应调整，例如 `jax[cuda11]`)*\n\n### 4. 安装 NABLA 包\n以可编辑模式安装本库，这将同时部署 vRBA 模型、SSBroyden 优化器及 Crunch 依赖：\n```bash\npip install -e .\n```\n\n## 基本使用\n\nNABLA-SciML 的目录结构模块化清晰，不同功能位于不同子目录中。以下是两种最常见的使用场景：\n\n### 场景一：运行独立脚本 (RBA \u002F cKANs)\n对于 **RBA** (残差注意力机制) 和 **cKANs** (MLP 与 KAN 对比) 模块，它们是自包含的。您可以直接进入对应目录运行示例脚本：\n\n```bash\n# 进入 RBA 目录并运行示例 (假设目录下有 main.py 或类似入口)\ncd RBA\npython your_script_name.py\n\n# 或者进入 cKANs 目录\ncd ..\u002FcKANs\npython your_script_name.py\n```\n*提示：大多数示例在作者的 YouTube 频道配有视频教程，可对照代码学习。*\n\n### 场景二：使用高级框架 (vRBA \u002F KKANs \u002F SSBroyden)\n如果您需要使用变分残差自适应框架 (vRBA) 或自缩放 Broyden (SSBroyden) 优化器，请在 Python 代码中直接导入已安装的库：\n\n```python\nimport jax\nimport jax.numpy as jnp\nfrom nabla import vRBA  # 导入变分框架\nfrom nabla.optimizers import SSBroyden  # 导入自定义优化器\n\n# 示例：定义一个简单的 PDE 求解流程\n# 具体 API 请参考各子模块下的具体示例代码\nmodel = vRBA.Model(...)\noptimizer = SSBroyden(learning_rate=1e-3)\n\n# 开始训练循环\n# ...\n```\n\n### 探索教程\n初学者建议从 `Tutorials` 目录开始，那里包含了基于 PyTorch 和 JAX 的 PINNs 及 DeepONets 基础介绍：\n```bash\ncd Tutorials\n# 查看具体的 notebook 或 python 脚本\nls\n```\n\n---\n*更多高级应用（如湍流热对流 AIVT 或脑部流体 MR-AIV）请参考仓库中指向的独立专用仓库链接。*","某生物医学工程团队正在利用深度学习模拟人体脑脊液在复杂血管网络中的湍流运动，以辅助脑部疾病的研究。\n\n### 没有 NABLA-SciML 时\n- **模型收敛困难**：传统神经网络在处理脑脊液这种高非线性流体方程时，难以平衡数据拟合与物理守恒定律，导致训练经常发散或陷入局部最优。\n- **缺乏专用优化器**：通用优化器（如 Adam）无法有效处理物理信息神经网络（PINNs）中剧烈的梯度变化，需要研究人员花费数周时间手动调整学习率策略。\n- **复现成本高昂**：团队需从零搭建基于 JAX 或 PyTorch 的底层架构，不同成员实现的残差注意力机制（RBA）不一致，导致实验结果无法横向对比。\n- **新架构集成慢**：想要尝试最新的 KAN（柯尔莫哥洛夫 - 阿诺德网络）架构来提升精度，但缺乏现成代码，自行开发耗时且易出错。\n\n### 使用 NABLA-SciML 后\n- **训练稳定高效**：直接调用内置的 DeepONet 和 PINN 模板，结合残差注意力机制，模型能自动聚焦于脑脊液流动的关键区域，显著提升了收敛速度和稳定性。\n- **启用专用优化器**：利用集成的 Self-Scaling Broyden (SSBroyden) 优化器，无需人工干预即可自适应调整步长，完美解决了复杂流体方程中的梯度刚性问题。\n- **实现标准化复现**：基于统一的 JAX\u002FPyTorch 框架和模块化设计，团队成员可快速复用经过验证的 RBA 模块，确保所有实验在相同基准下进行。\n- **前沿架构即插即用**：直接调用库中预置的 cKANs 和 KKANs 模块，迅速完成与传统 MLP 的性能对比，将新算法的验证周期从数周缩短至数天。\n\nNABLA-SciML 通过提供经过验证的物理驱动算法库和专用优化器，将科研人员从繁琐的代码构建中解放出来，使其能专注于解决复杂的流体力学难题。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fjdtoscano94_NABLA-SciML_bff8ee61.png","jdtoscano94","Juan Diego Toscano","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fjdtoscano94_4c92101b.jpg","Ph.D.  Student at Brown University.","Brown University","Providence, RI, USA",null,"https:\u002F\u002Fappliedmath.brown.edu\u002Fpeople\u002Fjuan-toscano","https:\u002F\u002Fgithub.com\u002Fjdtoscano94",[82,86,90],{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",95.7,{"name":87,"color":88,"percentage":89},"Python","#3572A5",4.3,{"name":91,"color":92,"percentage":93},"Shell","#89e051",0,661,198,"2026-04-15T19:32:16","Linux","需要 NVIDIA GPU，安装命令指定了 'jax[cuda12]'，暗示需要支持 CUDA 12 的显卡，显存大小未说明","未说明",{"notes":101,"python":102,"dependencies":103},"RBA 和 cKANs 模块可独立运行，仅需 JAX；但使用 KKANs、vRBA 框架及 SSBroyden 优化器时，必须额外安装 'Crunch' 库。建议使用 conda 创建虚拟环境。部分高级功能（如 AIVT、MR-AIV）托管在独立的仓库中。","3.10",[104,105],"jax[cuda12]","Crunch",[14],[108,109,110,111,112,113,114,115,116,117,118,119,120,121,122],"deep-learning","machine-learning","neural-network","neural-networks","pytorch","tutorial","physicsinformedneuralnetworks","deeponet","inverse-problems","jax","inverse-pinns","pinns","kolmogorov-arnold-networks","cpikans","pikans","2026-03-27T02:49:30.150509","2026-04-18T09:20:54.235334",[],[]]