[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SciML--DiffEqFlux.jl":3,"tool-SciML--DiffEqFlux.jl":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":123,"updated_at":124,"faqs":125,"releases":154},9388,"SciML\u002FDiffEqFlux.jl","DiffEqFlux.jl","Pre-built implicit layer architectures with O(1) backprop, GPUs, and stiff+non-stiff DE solvers, demonstrating scientific machine learning (SciML) and physics-informed machine learning methods","DiffEqFlux.jl 是一款将微分方程求解器与深度学习深度融合的开源工具，旨在推动科学机器学习（SciML）的发展。它允许用户直接将微分方程作为神经网络的“层”嵌入模型中，从而构建出能够理解物理规律的混合架构。\n\n该工具主要解决了传统机器学习难以融入物理机制、以及纯数值模拟缺乏数据适应性的痛点。通过它，研究者可以轻松实现神经常微分方程（Neural ODEs）、神经随机微分方程等多种前沿模型，让神经网络不仅能拟合数据，还能遵循已知的物理定律进行推演。\n\nDiffEqFlux.jl 特别适合科研人员、算法工程师及需要处理复杂动态系统的开发者使用。其核心技术亮点在于提供了预建的隐式层架构，支持常数级内存占用的高效反向传播（O(1) backprop），并兼容 GPU 加速。无论是刚性还是非刚性方程，它都能调用高性能求解器进行快速训练。此外，它基于 Julia 生态构建，完美衔接 DifferentialEquations.jl 与 Lux.jl（同时兼容 Flux.jl），为用户探索从连续时间建模到物理信息神经网络的创新应用提供了强大而灵活的基础设施。","# DiffEqFlux.jl\n\n[![Join the chat at https:\u002F\u002Fjulialang.zulipchat.com #sciml-bridged](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Zulip&message=chat&color=9558b2&labelColor=389826)](https:\u002F\u002Fjulialang.zulipchat.com\u002F#narrow\u002Fstream\u002F279055-sciml-bridged)\n[![Global Docs](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-SciML-blue.svg)](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fstable\u002F)\n\n[![codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FSciML\u002FDiffEqFlux.jl\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FSciML\u002FDiffEqFlux.jl)\n[![Build Status](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Factions?query=workflow%3ACI)\n[![Build status](https:\u002F\u002Fbadge.buildkite.com\u002Fa1fecf87b085b452fe0f3d3968ddacb5c1d5570806834e1d52.svg)](https:\u002F\u002Fbuildkite.com\u002Fjulialang\u002Fdiffeqflux-dot-jl)\n\n[![ColPrac: Contributor's Guide on Collaborative Practices for Community Packages](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColPrac-Contributor%27s%20Guide-blueviolet)](https:\u002F\u002Fgithub.com\u002FSciML\u002FColPrac)\n[![SciML Code Style](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=code%20style&message=SciML&color=9558b2&labelColor=389826)](https:\u002F\u002Fgithub.com\u002FSciML\u002FSciMLStyle)\n\nDiffEq(For)Lux.jl (aka DiffEqFlux.jl) fuses the world of differential equations with machine learning\nby helping users put diffeq solvers into neural networks. This package utilizes\n[DifferentialEquations.jl](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqDocs\u002Fstable\u002F), and [Lux.jl](https:\u002F\u002Flux.csail.mit.edu\u002F)  as its building blocks to support research in\n[Scientific Machine Learning](https:\u002F\u002Fwww.stochasticlifestyle.com\u002Fthe-essential-tools-of-scientific-machine-learning-scientific-ml\u002F), specifically neural differential equations to add physical information into traditional machine learning.\n\n> [!NOTE]\n> We maintain backwards compatibility with [Flux.jl](https:\u002F\u002Ffluxml.ai\u002FFlux.jl\u002Fstable\u002F) via [FromFluxAdaptor()](https:\u002F\u002Flux.csail.mit.edu\u002Fstable\u002Fapi\u002FLux\u002Finterop#Lux.FromFluxAdaptor)\n\n## Tutorials and Documentation\n\nFor information on using the package,\n[see the stable documentation](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fstable\u002F). Use the\n[in-development documentation](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fdev\u002F) for the version of\nthe documentation, which contains the unreleased features.\n\n## Problem Domain\n\nDiffEqFlux.jl is for implicit layer machine learning.\nDiffEqFlux.jl provides architectures which match the interfaces of machine learning libraries such as Flux.jl and Lux.jl to make it easy to build continuous-time machine learning layers into larger machine learning applications.\n\nThe following layer functions exist:\n\n  - Neural Ordinary Differential Equations (Neural ODEs)\n  - Collocation-Based Neural ODEs (Neural ODEs without a solver, by far the fastest way!)\n  - Multiple Shooting Neural Ordinary Differential Equations\n  - Neural Stochastic Differential Equations (Neural SDEs)\n  - Neural Differential-Algebraic Equations (Neural DAEs)\n  - Neural Delay Differential Equations (Neural DDEs)\n  - Augmented Neural ODEs\n  - Hamiltonian Neural Networks (with specialized second order and symplectic integrators)\n  - Continuous Normalizing Flows (CNF) and FFJORD\n\nwith high order, adaptive, implicit, GPU-accelerated, Newton-Krylov, etc.\nmethods. For examples, please refer to\n[the release blog post](https:\u002F\u002Fjulialang.org\u002Fblog\u002F2019\u002F01\u002Ffluxdiffeq).\nAdditional demonstrations, like neural\nPDEs and neural jump SDEs, can be found\n[in this blog post](https:\u002F\u002Fwww.stochasticlifestyle.com\u002Fneural-jump-sdes-jump-diffusions-and-neural-pdes\u002F)\n(among many others!).\n\nDo not limit yourself to the current neuralization. With this package, you can\nexplore various ways to integrate the two methodologies:\n\n  - Neural networks can be defined where the “activations” are nonlinear functions\n    described by differential equations\n  - Neural networks can be defined where some layers are ODE solves\n  - ODEs can be defined where some terms are neural networks\n  - Cost functions on ODEs can define neural networks\n\n![Flux ODE Training Animation](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSciML_DiffEqFlux.jl_readme_5995258262cc.gif)\n\n## Breaking Changes\n\n### v4\n\n  - `TensorLayer` has been removed, use `Boltz.Layers.TensorProductLayer` instead.\n  - Basis functions in DiffEqFlux have been removed in favor of `Boltz.Basis` module.\n  - `SplineLayer` has been removed, use `Boltz.Layers.SplineLayer` instead.\n  - `NeuralHamiltonianDE` has been removed, use `NeuralODE` with `Layers.HamiltonianNN` instead.\n  - `HamiltonianNN` has been removed in favor of `Layers.HamiltonianNN`.\n  - `Lux` and `Boltz` are updated to v1.\n\n### v3\n\n  - Flux dependency is dropped. If a non Lux `AbstractLuxLayer` is passed we try to automatically convert it to a Lux model with `FromFluxAdaptor()(model)`.\n  - `Flux` is no longer re-exported from `DiffEqFlux`. Instead we reexport `Lux`.\n  - `NeuralDAE` now allows an optional `du0` as input.\n  - `TensorLayer` is now a Lux Neural Network.\n  - APIs for quite a few layer constructions have changed. Please refer to the updated documentation for more details.\n","# DiffEqFlux.jl\n\n[![加入 Zulip 聊天室 https:\u002F\u002Fjulialang.zulipchat.com #sciml-bridged](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Zulip&message=chat&color=9558b2&labelColor=389826)](https:\u002F\u002Fjulialang.zulipchat.com\u002F#narrow\u002Fstream\u002F279055-sciml-bridged)\n[![全球文档](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocs-SciML-blue.svg)](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fstable\u002F)\n\n[![Codecov](https:\u002F\u002Fcodecov.io\u002Fgh\u002FSciML\u002FDiffEqFlux.jl\u002Fbranch\u002Fmaster\u002Fgraph\u002Fbadge.svg)](https:\u002F\u002Fcodecov.io\u002Fgh\u002FSciML\u002FDiffEqFlux.jl)\n[![构建状态](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fworkflows\u002FCI\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Factions?query=workflow%3ACI)\n[![构建状态](https:\u002F\u002Fbadge.buildkite.com\u002Fa1fecf87b085b452fe0f3d3968ddacb5c1d5570806834e1d52.svg)](https:\u002F\u002Fbuildkite.com\u002Fjulialang\u002Fdiffeqflux-dot-jl)\n\n[![ColPrac：社区包协作指南](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FColPrac-Contributor%27s%20Guide-blueviolet)](https:\u002F\u002Fgithub.com\u002FSciML\u002FColPrac)\n[![SciML 代码风格](https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=code%20style&message=SciML&color=9558b2&labelColor=389826)](https:\u002F\u002Fgithub.com\u002FSciML\u002FSciMLStyle)\n\nDiffEq(For)Lux.jl（又称 DiffEqFlux.jl）通过帮助用户将微分方程求解器嵌入到神经网络中，实现了微分方程领域与机器学习领域的融合。该包以 [DifferentialEquations.jl](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqDocs\u002Fstable\u002F) 和 [Lux.jl](https:\u002F\u002Flux.csail.mit.edu\u002F) 为基石，支持 [科学机器学习](https:\u002F\u002Fwww.stochasticlifestyle.com\u002Fthe-essential-tools-of-scientific-machine-learning-scientific-ml\u002F) 领域的研究，尤其是神经微分方程，从而将物理信息融入传统机器学习模型中。\n\n> [!注意]\n> 我们通过 [FromFluxAdaptor()](https:\u002F\u002Flux.csail.mit.edu\u002Fstable\u002Fapi\u002FLux\u002Finterop#Lux.FromFluxAdaptor) 保持与 [Flux.jl](https:\u002F\u002Ffluxml.ai\u002FFlux.jl\u002Fstable\u002F) 的向后兼容性。\n\n## 教程与文档\n\n有关如何使用本包的信息，请参阅 [稳定版文档](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fstable\u002F)。如需查看包含未发布功能的版本文档，请使用 [开发中文档](https:\u002F\u002Fdocs.sciml.ai\u002FDiffEqFlux\u002Fdev\u002F)。\n\n## 问题领域\n\nDiffEqFlux.jl 适用于隐式层机器学习。它提供了与 Flux.jl 和 Lux.jl 等机器学习库接口兼容的架构，便于将连续时间机器学习层集成到更大的机器学习应用中。\n\n现有以下层函数：\n\n  - 神经常微分方程（Neural ODEs）\n  - 基于配点法的神经常微分方程（无需求解器，速度最快的方式！）\n  - 多重打靶神经常微分方程\n  - 神经随机微分方程（Neural SDEs）\n  - 神经微分代数方程（Neural DAEs）\n  - 神经时滞微分方程（Neural DDEs）\n  - 扩展型神经常微分方程\n  - 哈密顿神经网络（配备专门的二阶和辛积分器）\n  - 连续归一化流（CNF）和 FFJORD\n\n这些方法支持高阶、自适应、隐式、GPU 加速、牛顿-克雷洛夫等求解技术。更多示例请参考 [发布博客文章](https:\u002F\u002Fjulialang.org\u002Fblog\u002F2019\u002F01\u002Ffluxdiffeq)。此外，关于神经偏微分方程和神经跳跃随机微分方程等更多演示，可参见 [这篇博客文章](https:\u002F\u002Fwww.stochasticlifestyle.com\u002Fneural-jump-sdes-jump-diffusions-and-neural-pdes\u002F)（以及其他许多内容）。\n\n不要局限于当前的神经化方式。借助本包，您可以探索多种整合这两种方法论的方式：\n\n  - 可以定义“激活”由微分方程描述的非线性函数的神经网络。\n  - 可以定义部分层为常微分方程求解的神经网络。\n  - 可以定义部分项为神经网络的常微分方程。\n  - 可以在常微分方程上定义成本函数来生成神经网络。\n\n![Flux ODE 训练动画](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSciML_DiffEqFlux.jl_readme_5995258262cc.gif)\n\n## 破坏性变更\n\n### v4\n\n  - `TensorLayer` 已被移除，改用 `Boltz.Layers.TensorProductLayer`。\n  - DiffEqFlux 中的基础函数已被移除，取而代之的是 `Boltz.Basis` 模块。\n  - `SplineLayer` 已被移除，改用 `Boltz.Layers.SplineLayer`。\n  - `NeuralHamiltonianDE` 已被移除，改用带有 `Layers.HamiltonianNN` 的 `NeuralODE`。\n  - `HamiltonianNN` 已被移除，取而代之的是 `Layers.HamiltonianNN`。\n  - `Lux` 和 `Boltz` 更新至 v1 版本。\n\n### v3\n\n  - 移除了对 Flux 的依赖。如果传入非 Lux 的 `AbstractLuxLayer`，我们会尝试使用 `FromFluxAdaptor()(model)` 自动将其转换为 Lux 模型。\n  - `Flux` 不再从 `DiffEqFlux` 中重新导出，而是改由 `Lux` 重新导出。\n  - `NeuralDAE` 现在允许将可选的 `du0` 作为输入。\n  - `TensorLayer` 现已成为一个 Lux 神经网络。\n  - 多个层构造的 API 发生了变化。详情请参阅更新后的文档。","# DiffEqFlux.jl 快速上手指南\n\nDiffEqFlux.jl 是一个将微分方程求解器与机器学习深度融合的 Julia 库。它允许用户在神经网络中嵌入微分方程求解层，从而实现神经微分方程（Neural ODEs\u002FSDEs\u002FDAEs 等），特别适用于科学机器学习（Scientific ML）领域，能够将物理规律融入传统机器学习模型。\n\n## 环境准备\n\n*   **操作系统**：支持 Linux、macOS 和 Windows。\n*   **Julia 版本**：建议安装最新稳定版 Julia（1.9 或更高版本）。\n*   **前置知识**：熟悉基本的 Julia 语法，了解 `Lux.jl`（现代神经网络库）和 `DifferentialEquations.jl`（微分方程求解库）的基本概念会有所帮助。\n*   **依赖说明**：本工具核心基于 `Lux.jl` 构建。虽然不再直接依赖 `Flux.jl`，但提供了适配器以兼容旧的 Flux 模型。\n\n## 安装步骤\n\n在 Julia REPL 或脚本中，进入包管理模式并安装 `DiffEqFlux`：\n\n```julia\nusing Pkg\nPkg.add(\"DiffEqFlux\")\n```\n\n> **提示**：国内开发者若遇到下载速度慢的问题，可配置国内镜像源加速安装。在运行上述命令前，执行以下设置（以清华源为例）：\n> ```julia\n> ENV[\"JULIA_PKG_SERVER\"] = \"https:\u002F\u002Fmirrors.tuna.tsinghua.edu.cn\u002Fjulia\"\n> ```\n\n安装完成后，加载包即可使用：\n\n```julia\nusing DiffEqFlux\nusing Lux, Random\n```\n\n## 基本使用\n\n以下示例展示如何构建并训练一个最简单的**神经常微分方程（Neural ODE）**模型。该模型将神经网络作为微分方程的动态项进行优化。\n\n### 1. 定义问题与数据\n假设我们要拟合一个简单的正弦波数据 $u' = f(u, p, t)$。\n\n```julia\nusing OrdinaryDiffEq, Plots\n\n# 生成训练数据 (真值: u' = -0.5u + cos(t))\ntspan = (0.0f0, 10.0f0)\ntsteps = 0.0f0:0.1f0:10.0f0\nu0 = [2.0f0]\n\n# 真实动力学函数\nfunction true_dudt(u, p, t)\n    return [-0.5u[1] + cos(t)]\nend\n\nprob_true = ODEProblem(true_dudt, u0, tspan)\nsol_true = solve(prob_true, Tsit5(), saveat=tsteps)\nX_train = sol_true.u\nY_train = sol_true.u # 自监督学习，预测自身轨迹\n```\n\n### 2. 构建神经 ODE 层\n使用 `Lux` 定义神经网络，并将其包裹在 `NeuralODE` 中。\n\n```julia\n# 定义一个简单的全连接神经网络 (输入 1 -> 隐藏层 32 -> 输出 1)\nnn = Lux.Chain(\n    Lux.Dense(1, 32, tanh),\n    Lux.Dense(32, 1)\n)\n\n# 初始化参数\nrng = Random.default_rng()\np_init, st = Lux.setup(rng, nn)\n\n# 构建 NeuralODE 对象\n# 使用 Tsit5() 求解器，自动处理反向传播\nneural_ode = NeuralODE(nn, tspan, Tsit5(), saveat=tsteps)\n\n# 包装成可训练的模型函数\nfunction predict(p)\n    Array(neural_ode(u0, p, st)[1])\nend\n```\n\n### 3. 定义损失函数并训练\n使用 `Optimisers.jl` 或 `SciMLBase` 提供的训练循环进行参数优化。\n\n```julia\nusing Optimisers\n\n# 损失函数：预测轨迹与真实轨迹的均方误差\nfunction loss(p)\n    pred = predict(p)\n    sum(abs2, X_train .- pred)\nend\n\n# 初始损失\nprintln(\"Initial Loss: $(loss(p_init))\")\n\n# 设置优化器 (Adam)\nopt = Optimisers.Adam(0.05)\nopt_state = Optimisers.setup(opt, p_init)\n\n# 简单训练循环 (实际应用中建议使用 SciML 的训练回调)\nfor i in 1:100\n    grad = Flux.gradient(loss, p_init) # 注意：此处需确保梯度追踪正确，推荐使用 Zygote 或 Enzyme\n    # 由于 DiffEqFlux 深度集成，通常直接使用 sciml 训练接口更稳健\n    # 这里仅展示逻辑，具体梯度计算依赖后端配置\n    println(\"Step $i completed\") \nend\n```\n\n> **注意**：在实际生产代码中，推荐使用 `SciMLBase` 生态提供的标准训练接口（如 `sciml_train`）来处理微分方程反向传播的复杂性，以获得最佳的 GPU 加速和稳定性支持。\n\n通过以上步骤，您已成功构建了一个包含微分方程求解层的神经网络。您可以进一步探索神经 SDE、神经 DAE 或哈密顿神经网络等高级架构。详细 API 请参考官方文档。","某生物制药团队正试图利用患者稀疏的临床血液检测数据，重构药物在体内的连续代谢动力学曲线，以预测最佳给药窗口。\n\n### 没有 DiffEqFlux.jl 时\n- **物理规律缺失**：传统神经网络仅做数据拟合，无法遵循质量守恒等生化反应定律，导致外推预测出现违背常识的浓度波动。\n- **离散化误差大**：必须先将连续时间数据强制离散化为固定步长，不仅丢失了采样点间的动态细节，还引入了数值截断误差。\n- **刚性方程求解难**：面对代谢过程中快慢反应并存的“刚性”微分方程组，自定义求解器极易发散或需要极小的时间步长，训练效率极低。\n- **反向传播成本高**：手动推导伴随方程以实现梯度回传极其复杂，且内存消耗随时间序列长度线性增长，难以在 GPU 上扩展。\n\n### 使用 DiffEqFlux.jl 后\n- **内嵌物理约束**：直接构建神经微分方程（Neural ODE）层，将生化反应机理作为先验知识嵌入模型，确保预测曲线严格符合动力学规律。\n- **原生连续时间建模**：利用自适应步长求解器直接处理连续时间流，无需人为离散化，能精准还原任意时刻的药物浓度变化。\n- **高效求解刚性系统**：调用内置的高阶隐式求解器和 Newton-Krylov 算法，轻松稳定地处理多尺度刚性问题，收敛速度提升数倍。\n- **常数内存反向传播**：借助伴随灵敏度方法实现 O(1) 复杂度的反向传播，大幅降低显存占用，使长序列高精度训练在单张 GPU 上成为可能。\n\nDiffEqFlux.jl 通过将微分方程求解器无缝转化为可微分的神经网络层，让数据驱动与物理机理在连续时间域内实现了完美融合。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSciML_DiffEqFlux.jl_59952582.gif","SciML","SciML Open Source Scientific Machine Learning","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSciML_dfb801ca.png","Open source software for scientific machine learning",null,"contact@chrisrackauckas.com","SciML_Org","https:\u002F\u002Fsciml.ai","https:\u002F\u002Fgithub.com\u002FSciML",[82],{"name":83,"color":84,"percentage":85},"Julia","#a270ba",100,915,159,"2026-04-13T12:54:38","MIT",4,"","支持 GPU 加速（具体型号、显存及 CUDA 版本未说明）","未说明",{"notes":95,"python":96,"dependencies":97},"该工具是基于 Julia 语言的库，而非 Python。从 v3 版本起，主要依赖已切换为 Lux.jl，不再直接依赖 Flux.jl（但提供兼容适配器）。v4 版本引入了 Boltz.jl 模块替代部分原有功能。支持多种神经微分方程架构（如 Neural ODE, SDE, DAE 等）及高阶自适应求解器。","不适用 (基于 Julia 语言)",[98,99,100],"DifferentialEquations.jl","Lux.jl","Boltz.jl (v1+)",[15,14],[103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120,121,122],"neural-ode","neural-sde","neural-pde","neural-dde","neural-differential-equations","stiff-ode","ordinary-differential-equations","stochastic-differential-equations","delay-differential-equations","partial-differential-equations","neural-networks","differentialequations","differential-equations","scientific-ml","scientific-ai","neural-jump-diffusions","neural-sdes","scientific-machine-learning","pinn","physics-informed-learning","2026-03-27T02:49:30.150509","2026-04-19T09:15:04.289428",[126,131,136,141,145,150],{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},42122,"如何为 Julia 包注册新版本并添加发布说明（Release Notes）？","在 Issue 中评论 `@JuliaRegistrator register()` 即可创建注册 PR。若需添加发布说明，请在评论中包含以下格式的内容：\n\n```\n@JuliaRegistrator register\n\nRelease notes:\n\n## Breaking changes\n\n- 在此处描述破坏性变更\n```\n\n重新调用 JuliaRegistrator 后，PR 将会更新。合并后建议为仓库创建对应的版本标签（Tag），如果安装了 TagBot，它会自动处理。","https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fissues\u002F62",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},42123,"TagBot 未自动创建版本标签怎么办？","如果注册 PR 已合并但未见版本标签，请检查 `TagBot.yml` 配置是否正确，确保其包含 Issue 评论触发器。同时查看 TagBot 的运行日志以排查错误。可以通过在相关 Issue 下评论 `TagBot fix` 请求维护者协助修复配置。","https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fissues\u002F448",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},42124,"在使用 DiffEqFlux 进行多段射击（Multiple Shooting）训练时，如何更清晰地分割数据集？","可以使用 Flux 的 `DataLoader` 来简化数据分割过程，避免手动计算索引。示例代码如下：\n\n```julia\ntrain_loader = Flux.Data.DataLoader(ode_data, t, batchsize=k, partial=false)\nfor (x, y) in train_loader\n    # x 是大小为 k 的 ode_data 块\n    # y 是对应的时间块\nend\n```\n\n注意：多段射击方法通常要求数据块在端点处重叠以保证连续性，使用 `DataLoader` 时需自行处理重叠逻辑。","https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fissues\u002F481",{"id":142,"question_zh":143,"answer_zh":144,"source_url":140},42125,"运行代码时遇到 'Tried to add a tstop that is behind the current time' 错误如何解决？","该错误通常由于时间步长设置不当导致求解器试图添加一个小于当前时间的停止点。请检查代码中的时间范围（tspan）和保存点（saveat）设置，确保它们是单调递增的。此外，确保绘图后端（如 `gr()`）已正确导入，虽然这通常不直接导致此错误，但可能是环境配置缺失的信号。",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},42126,"在 GPU 上进行稳态微分方程（SteadyStateDiffEq）训练时是否需要手动指定伴随算法（Adjoint Algorithm）？","在最新版本的 DiffEqFlux 中，不再需要手动指定 `sensealg=SteadyStateAdjoint(autodiff=false, autojacvec=ZygoteVJP())`。系统会自动选择合适的伴随算法。直接使用默认配置即可正常运行 GPU 训练。","https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fissues\u002F567",{"id":151,"question_zh":152,"answer_zh":153,"source_url":149},42127,"如何在 DiffEqFlux 中结合 CUDA 进行卷积神经网络与微分方程的联合训练？","确保所有模型组件和数据都移动到 GPU 上，并使用 `CUDA.allowscalar(false)` 禁用标量操作以提高性能。网络定义中使用 `|> f32` 确保数据类型为 Float32。对于稳态问题，直接使用最新的 DiffEqFlux 版本即可自动处理反向传播，无需额外配置伴随算法。参考 LeNet5 结合 SteadyStateDiffEq 的实现案例。",[155,159,163,167,171,175,179,183,188,193,198,203,208,213,218,223,228,233,238,243],{"id":156,"version":157,"summary_zh":76,"released_at":158},334224,"v4.2.0","2025-02-22T18:34:29",{"id":160,"version":161,"summary_zh":76,"released_at":162},334225,"v4.1.0","2024-11-05T10:12:53",{"id":164,"version":165,"summary_zh":76,"released_at":166},334226,"v3.5.0","2024-05-19T19:40:05",{"id":168,"version":169,"summary_zh":76,"released_at":170},334227,"v3.3.0","2023-12-25T12:31:21",{"id":172,"version":173,"summary_zh":76,"released_at":174},334228,"v3.1.0","2023-12-11T03:53:58",{"id":176,"version":177,"summary_zh":76,"released_at":178},334229,"v3.0.0","2023-12-08T15:40:42",{"id":180,"version":181,"summary_zh":76,"released_at":182},334230,"v2.2.0","2023-08-13T02:24:46",{"id":184,"version":185,"summary_zh":186,"released_at":187},334231,"v2.1.0","## DiffEqFlux v2.1.0\n\n[与 v2.0.0 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv2.0.0...v2.1.0)\n\n\n**已关闭的问题：**\n- 使用自定义 Lux 层运行 NeuralODE 时出现 MethodError (#825)\n- 在 GPU 上运行 NODE，同时保持数据类型为 Float64？(#826)\n- 带神经网络的 UODE。初学者问题 (#831)\n- 在 GPU 上运行 UDE 时的标量索引问题 (#832)\n\n**已合并的拉取请求：**\n- 更新 Float32 的测试 (#824) (@ChrisRackauckas)\n- OptimizationFlux (#828) (@anandijain)\n- 对 HNN 的更新 (#829) (@avik-pal)\n- 将 GPU 测试迁移到 Lux，并修复相关问题！！(#830) (@avik-pal)","2023-06-28T13:39:12",{"id":189,"version":190,"summary_zh":191,"released_at":192},334232,"v2.0.0","## DiffEqFlux v2.0.0\n\n[自 v1.53.0 以来的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.53.0...v2.0.0)\n\n\n**已关闭的问题：**\n- DiffEqFlux 层不符合 Lux API (#727)\n- 带有 EnsembleProblems 的 SDE 梯度问题 (#765)\n- DiffEqFlux.jl 和 NeuralPDE.jl 不断进行预编译且无法停止 (#783)\n- 使用可变数组训练神经随机微分方程 (#785)\n- 归一化流示例未能产生准确的估计值 (#786)\n- 配置点顺序错误 (#788)\n- 尝试训练一个扩散项不含神经网络的 NSDE 时出现 StackOverflow 错误 (#811)\n- 在使用 Lux.jl 的 UDE 中包含已知动力学的未知参数值 (#812)\n- 关于 Flux.jl 与 Lux.jl 的文档 (#815)\n\n**已合并的拉取请求：**\n- 兼容 Lux 的层 (#750) (@Abhishek-1Bhatt)\n- 修复 FFJORD 示例 (#787) (@prbzrg)\n- 修复配置点翻转问题 (#789) (@ChrisRackauckas)\n- [跳过 CI] LanguageTool (#792) (@ArnoStrouwen)\n- CompatHelper：为 Functors 添加新的兼容条目，版本为 0.4，同时保留现有兼容性 (#793) (@github-actions[bot])\n- 弃用 FastChain 和 sciml_train，以备 v2.0 版本使用 (#794) (@ChrisRackauckas)\n- 再标记一处使用 Flux 的地方 (#796) (@Abhishek-1Bhatt)\n- Flux.cpu (#797) (@Abhishek-1Bhatt)\n- 在所有层中明确指定使用 Flux (#799) (@Abhishek-1Bhatt)\n- 移除未使用的包和未定义的导出内容 (#803) (@prbzrg)\n- 切换到 LuxCore (#804) (@Abhishek-1Bhatt)\n- 修复 `NeuralCDDE` 错误 (#805) (@vpuri3)\n- 添加神经 ODE 天气预报示例 (#807) (@SebastianCallh)\n- CompatHelper：为 DataDeps 添加新的兼容条目，版本为 0.7，用于包文档，同时保留现有兼容性 (#808) (@github-actions[bot])\n- CompatHelper：为 DataFrames 添加新的兼容条目，版本为 1，用于包文档，同时保留现有兼容性 (#809) (@github-actions[bot])\n- CompatHelper：为 CSV 添加新的兼容条目，版本为 0.10，用于包文档，同时保留现有兼容性 (#810) (@github-actions[bot])\n- 直接使用 CA，而非通过 Lux 使用它 (#813) (@avik-pal)\n- 添加关于 Flux 与 Lux 的说明 (#819) (@ChrisRackauckas)\n- 为 GitHub Actions 启用 Dependabot (#821) (@ranocha)\n- CompatHelper：将 DataInterpolations 的兼容版本提升至 4，同时保留现有兼容性 (#823) (@github-actions[bot])","2023-04-19T08:33:21",{"id":194,"version":195,"summary_zh":196,"released_at":197},334233,"v1.53.0","## DiffEqFlux v1.53.0\n\n[与 v1.52.0 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.52.0...v1.53.0)\n\n\n**已关闭的问题：**\n- 启用 FastDense 中的偏置时性能下降 (#757)\n- 能否指定用于梯度计算的伴随方法？(#766)\n- UndefVarError: FastDense 未定义 (#767)\n- ERROR: MethodError: 没有匹配 length(::Nothing) 的方法 (#768)\n- ERROR: MethodError: 没有匹配 copy 的方法 (#770)\n\n**已合并的拉取请求：**\n- 修复一个拼写错误 (#754) (@prbzrg)\n- 将 Flux 替换为 Lux (#756) (@YichengDWu)\n- 添加 Dependabot (#758) (@prbzrg)\n- 将 codecov\u002Fcodecov-action 版本从 1 升级到 3 (#759) (@dependabot[bot])\n- 将 actions\u002Fcheckout 版本从 2 升级到 3 (#760) (@dependabot[bot])\n- 将 actions\u002Fcache 版本从 1 升级到 3 (#761) (@dependabot[bot])\n- [跳过 CI] 标志 (#763) (@ArnoStrouwen)\n- MassInstallAction：在此仓库上安装 Invalidations 工作流 (#764) (@devmotion)\n- 更新 CompatHelper.yml (#769) (@devmotion)\n- 按照 sciml 模板更新 README 和 make.jl (#774) (@00krishna)\n- 规范化文档 (#775) (@ArnoStrouwen)\n- 在 index.md 和 make.jl 中添加可重复性说明 (#777) (@00krishna)\n- CompatHelper：将 LoggingExtras 的兼容版本提升至 1（保留现有兼容范围）(#778) (@github-actions[bot])\n- 更新链接 (#779) (@prbzrg)\n- 文档兼容性更新 (#782) (@ArnoStrouwen)","2022-12-11T09:13:16",{"id":199,"version":200,"summary_zh":201,"released_at":202},334234,"v1.52.0","## DiffEqFlux v1.52.0\n\n[与 v1.51.2 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.51.2...v1.52.0)\n\n\n**已关闭的问题：**\n- 建议：将 NeuralODE 的维度顺序更改为与机器学习批处理的惯例一致 (#111)\n- 错误：LoadError: MethodError: 没有匹配的方法可用于调用 getindex(::Ptr{typeof(DiffEqBase.ODE_DEFAULT_NORM)}) (#714)\n- 警告：`ignore(f)` 已弃用，请改用 `ChainRulesCore.ignore_derivatives(f)`。(#745)\n- 由参数化函数和神经网络函数定义的问题 (#746)\n- 教程中可复制粘贴代码的错误：LoadError: MethodError: 类型为 Nothing 的对象不可调用 (#748)\n\n**已合并的拉取请求：**\n- 如果不显示绘图，则不创建绘图 (#747) (@chriselrod)\n- 将 Zygote.@ignore 更新为 ChainRulesCore.@ignore_derivatives (#751) (@ChrisRackauckas)\n- CompatHelper：为 ChainRulesCore 添加版本 1 的新兼容性条目（保留现有兼容性）(#752) (@github-actions[bot])\n- 维度移动层 (#753) (@prbzrg)","2022-07-27T03:12:07",{"id":204,"version":205,"summary_zh":206,"released_at":207},334235,"v1.51.2","## DiffEqFlux v1.51.2\n\n[与 v1.51.1 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.51.1...v1.51.2)","2022-06-30T23:01:27",{"id":209,"version":210,"summary_zh":211,"released_at":212},334236,"v1.51.1","## DiffEqFlux v1.51.1\n\n[自 v1.51.0 以来的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.51.0...v1.51.1)","2022-06-30T21:40:09",{"id":214,"version":215,"summary_zh":216,"released_at":217},334237,"v1.51.0","## DiffEqFlux v1.51.0\n\n[与 v1.50.0 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.50.0...v1.51.0)\n\n\n**已关闭的问题：**\n- 神经图微分方程示例无法运行 (#684)\n- `Lux.ActivationFunction` 使用不当 (#737)\n\n**已合并的拉取请求：**\n- 将 CNF 添加到侧边栏 (#734) (@ChrisRackauckas)\n- 神经 SDE 教程 (#735) (@ChrisRackauckas)\n- Flux 中的 neural_sde 示例 (#738) (@Abhishek-1Bhatt)\n- 修复哈密顿神经网络教程中的 LaTeX 拼写错误 (#741) (@Algopaul)\n- 不再需要 `Lux.ActivationFunction` (#742) (@Abhishek-1Bhatt)\n- 更新至 SciMLSensitivity (#743) (@ChrisRackauckas)","2022-06-25T14:32:16",{"id":219,"version":220,"summary_zh":221,"released_at":222},334238,"v1.50.0","## DiffEqFlux v1.50.0\n\n[与 v1.49.1 的差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.49.1...v1.50.0)\n\n\n**已关闭的问题：**\n- 添加文档测试 (#566)\n- 缺少归一化流示例 (#726)\n- `NeuralODE` 不是 `Lux.AbstractExplicitLayer` 的子类型 (#728)\n- 神经 ODE 示例无法正确运行 (#731)\n\n**已合并的拉取请求：**\n- 启用文档测试 (#721) (@ChrisRackauckas)\n- 小修复 (#729) (@Abhishek-1Bhatt)\n- 仅移除 staticdudt 测试 (#730) (@ChrisRackauckas)","2022-06-21T11:29:52",{"id":224,"version":225,"summary_zh":226,"released_at":227},334239,"v1.49.1","## DiffEqFlux v1.49.1\n\n自 v1.49.0 以来的变更差异](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.49.0...v1.49.1)\n\n\n**已关闭的问题：**\n- 神经随机微分方程伴随方法在 GPU 上失败 (#138)\n- 哪些类型可以用作参数容器？(#178)\n- 神经 ODE：对具有（不连续）控制输入的系统动力学建模 (#190)\n- 带有快速层的嵌套反向模式 (#207)\n- BFGS 在 GPU 上出错 (#238)\n- 范围错误：尝试访问 () 的 [0] 索引 (#253)\n- LV-Jump.md 博客文章中的代码不再运行 (#272)\n- sciml_train 中可复现的 TypeError (#278)\n- 为什么需要 Fast* 层？(#328)\n- 重命名 DiffEqFlux 吗？(#354)\n- MNIST 神经 ODE 分类器教程已损坏 (#368)\n- 当 fed Fluxs ::Params 类型时，sciml_train 会崩溃 (#379)\n- 神经图微分方程测试被禁用 (#405)\n- 稳定文档链接已损坏 (#407)\n- 当将 Dense 层替换为 GRU 时，neural_ode_sciml 示例失败 (#432)\n- applychain 引发的索引问题 (#436)\n- 不允许变异数组 (#443)\n- 外生输入页面上的最优控制参考已损坏 (#445)\n- 对稀疏矩阵 ODE 的支持 (#462)\n- 神经 ODE 中的隐式层？(#478)\n- 禁用事件测试 (#483)\n- PresetTimeCallback 在 Zygote 微分时出错 (#502)\n- 关于内存限制的建议 (#527)\n- 不稳定的 `FastDense` `hash` 和比较。(#555)\n- SteadyStateAdjoint + GPUs：不允许标量 getindex (#557)\n- Atom 上运行缓慢的示例代码 (#560)\n- 在较新版本的 Zygote 上生成 ReverseDiff 磁带时发生段错误 (#586)\n- 错误：UndefVarError：未定义 eJ (#588)\n- 神经图教程无法运行 (#609)\n- 关于混合灵敏度分析方法的注释是否需要更新？(#612)\n- 错误：LoadError：MethodError：没有匹配 Float32(::ReverseDiff.TrackedReal{Float64, Float32, Nothing}) 的方法 (#615)\n- 类型 HMCKernel 没有 integrator 字段 (#618)\n- 混合标量+向量 GPU 代码的反向模式 VJP (#632)\n- 神经图常微分方程示例中的错误 (#640)\n- 使用日志工具对 DiffEq.jl 进行反向传播的最佳实践 (#661)\n- 为 FastDense 层添加批处理支持，模仿 Flux (#672)\n- 预分配形式中缺少优化 (#680)\n- 当网络增大时，UODE 训练出现错误 (#689)\n- initial_params() 总是相同 (#690)\n- 使用 TensorLayer 的 PINN 示例失败——可能是 Enzyme 内部错误 (#694)\n- MethodError：没有匹配 Flux.Dense(::Pair{Int64, Int64}, ::typeof(NNlib.elu)) 的方法 (#700)\n- `sciml_train` 输出 API 文档 (#702)\n- sciml_train 出现 LoadError (#713)\n- 使用多点打靶法训练 NODE。(#717)\n\n**已合并的拉取请求：**\n- 神经 ODE 示例中关键字参数的修正 (#720) (@Abhishek-1Bhatt)\n- 移除弃用内容 (#722) (@Abhishek-1Bhatt)\n- 修复部分文档测试 (#723) (@DhairyaLGandhi)\n- 修复神经 DSDE (#724) (@Abhishek-1Bhatt)\n- 更新 neural_de 测试 (#725) (@frankschae)","2022-06-17T02:41:06",{"id":229,"version":230,"summary_zh":231,"released_at":232},334240,"v1.49.0","## DiffEqFlux v1.49.0\n\n[自 v1.48.0 以来的变更](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.48.0...v1.49.0)\n\n\n**已关闭的问题：**\n- 快速的 vjp 形式 (#681)\n\n**已合并的拉取请求：**\n- 将 sciml_train 调用替换为 Optimization.solve() (#711) (@Abhishek-1Bhatt)\n- CompatHelper：为 Lux 添加版本 0.4 的兼容条目（保留现有兼容条目）(#716) (@github-actions[bot])\n- 神经 ODE 教程 (#718) (@Abhishek-1Bhatt)","2022-06-08T21:02:47",{"id":234,"version":235,"summary_zh":236,"released_at":237},334241,"v1.48.0","## DiffEqFlux v1.48.0\n\n[Diff since v1.47.1](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.47.1...v1.48.0)\n\n\n**Closed issues:**\n- Scaling and memory consumption on GPU (#687)\n\n**Merged pull requests:**\n- Generalize `input_params` to use `Flux.destructure` (#697) (@DhairyaLGandhi)\n- Overhaul the documentation to only focus on the DiffEqFlux components (#709) (@ChrisRackauckas)\n- add deprecation warnings to FastChain and sciml_train (#710) (@ChrisRackauckas)\n- Switch from GalacticOptim, Galactic* to Optimization, Optimization* (#712) (@Vaibhavdixit02)","2022-06-04T01:03:53",{"id":239,"version":240,"summary_zh":241,"released_at":242},334242,"v1.47.1","## DiffEqFlux v1.47.1\n\n[Diff since v1.47.0](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.47.0...v1.47.1)\n\n\n\n**Merged pull requests:**\n- Keep support for `cb` to avoid breakage (#705) (@Vaibhavdixit02)","2022-05-03T13:17:51",{"id":244,"version":245,"summary_zh":246,"released_at":247},334243,"v1.47.0","## DiffEqFlux v1.47.0\n\n[Diff since v1.46.1](https:\u002F\u002Fgithub.com\u002FSciML\u002FDiffEqFlux.jl\u002Fcompare\u002Fv1.46.1...v1.47.0)\n\n\n\n**Merged pull requests:**\n- CompatHelper: bump compat for GalacticOptim to 3, (keep existing compat) (#704) (@github-actions[bot])","2022-05-03T11:46:47"]