[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-patrick-kidger--NeuralCDE":3,"tool-patrick-kidger--NeuralCDE":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":32,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":144},8709,"patrick-kidger\u002FNeuralCDE","NeuralCDE","Code for \"Neural Controlled Differential Equations for Irregular Time Series\" (Neurips 2020 Spotlight)","NeuralCDE 是一个专为处理不规则时间序列数据而设计的深度学习框架，源自 NeurIPS 2020 的亮点论文。它基于严谨的“受控微分方程”数学理论，能够直接对采样间隔不均、部分观测缺失的多变量时间序列进行建模与分析。\n\n在传统方法难以应对的时间点不固定或数据残缺场景下，NeuralCDE 展现了卓越的性能。其核心优势在于支持内存高效的伴随反向传播算法，即使在跨越不同观测点时也能保持训练效率，从而在多个基准测试中达到了业界领先的准确率。此外，该框架实现简洁，无缝集成于 PyTorch 生态，并依赖专门的 `torchcde` 库，让用户无需修改模型结构即可轻松处理变长输入或缺失值问题。\n\nNeuralCDE 特别适合人工智能研究人员、数据科学家以及需要处理复杂时序数据的开发者使用。无论是医疗监测、金融预测还是传感器数据分析，只要面临时间戳不规则的挑战，它都能提供强有力的解决方案。通过简单的代码接口，用户即可构建并训练神经受控微分方程模型，将复杂的数学理论转化为实用的预测工具。","\u003Ch1 align='center'> Neural Controlled Differential Equations for Irregular Time Series\u003Cbr>(NeurIPS 2020 Spotlight)\u003Cbr>\n    [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926\">arXiv\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sbcIKugElZ4\">YouTube\u003C\u002Fa>] \u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_0467c0a72bf2.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\nBuilding on the well-understood mathematical theory of _controlled differential equations_, we demonstrate how to construct models that:\n+ Act directly on irregularly-sampled partially-observed multivariate time series.\n+ May be trained with memory-efficient adjoint backpropagation - even across observations.\n+ Demonstrate state-of-the-art performance.\n\nThey are straightforward to implement and evaluate using existing tools, in particular PyTorch and the [`torchcde`](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde) library.\n\n----\n\n### Library\nSee [`torchcde`](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde).\n\n### Example\nWe encourage looking at [example.py](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde\u002Fblob\u002Fmaster\u002Fexample\u002Fexample.py), which demonstrates how to use the library to train a Neural CDE model to predict the chirality of a spiral.\n\nAlso see [irregular_data.py](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde\u002Fblob\u002Fmaster\u002Fexample\u002Firregular_data.py), for demonstrations on how to handle variable-length inputs, irregular sampling, or missing data, all of which can be handled easily, without changing the model.\n\nA self contained short example:\n```python\nimport torch\nimport torchcde\n\n# Create some data\nbatch, length, input_channels = 1, 10, 2\nhidden_channels = 3\nt = torch.linspace(0, 1, length)\nt_ = t.unsqueeze(0).unsqueeze(-1).expand(batch, length, 1)\nx_ = torch.rand(batch, length, input_channels - 1)\nx = torch.cat([t_, x_], dim=2)  # include time as a channel\n\n# Interpolate it\ncoeffs = torchcde.natural_cubic_spline_coeffs(x)\nX = torchcde.NaturalCubicSpline(coeffs)\n\n# Create the Neural CDE system\nclass F(torch.nn.Module):\n    def __init__(self):\n        super(F, self).__init__()\n        self.linear = torch.nn.Linear(hidden_channels, \n                                      hidden_channels * input_channels)\n    def forward(self, t, z):\n        return self.linear(z).view(batch, hidden_channels, input_channels)\n\nfunc = F()\nz0 = torch.rand(batch, hidden_channels)\n\n# Integrate it\ntorchcde.cdeint(X=X, func=func, z0=z0, t=X.interval)\n```\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_1fad463496de.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\n### Reproducing experiments\nEverything to reproduce the experiments of the paper can be found in the [`experiments` folder](.\u002Fexperiments). Check the folder for details.\n\n### Results\nAs an example (taken from the paper - have a look there for similar results on other datasets):\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_837a77d28f67.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\n### Citation\n```bibtex\n@article{kidger2020neuralcde,\n    title={{N}eural {C}ontrolled {D}ifferential {E}quations for {I}rregular {T}ime {S}eries},\n    author={Kidger, Patrick and Morrill, James and Foster, James and Lyons, Terry},\n    journal={Advances in Neural Information Processing Systems},\n    year={2020}\n}\n```\n","\u003Ch1 align='center'> 面向不规则时间序列的神经控制微分方程\u003Cbr>(NeurIPS 2020 Spotlight)\u003Cbr>\n    [\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926\">arXiv\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=sbcIKugElZ4\">YouTube\u003C\u002Fa>] \u003C\u002Fh1>\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_0467c0a72bf2.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\n基于对_控制微分方程_这一成熟数学理论的理解，我们展示了如何构建能够：\n+ 直接作用于不规则采样、部分可观测的多变量时间序列的模型。\n+ 即使跨观测点，也能通过内存高效的伴随反向传播进行训练。\n+ 展现出当前最先进的性能。\n\n这些模型使用现有工具（尤其是 PyTorch 和 [`torchcde`](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde) 库）即可轻松实现和评估。\n\n----\n\n### 库\n请参阅 [`torchcde`](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde)。\n\n### 示例\n我们建议查看 [example.py](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde\u002Fblob\u002Fmaster\u002Fexample\u002Fexample.py)，其中演示了如何使用该库训练一个神经控制微分方程模型来预测螺旋的旋向性。\n\n此外，请参阅 [irregular_data.py](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Ftorchcde\u002Fblob\u002Fmaster\u002Fexample\u002Firregular_data.py)，其中展示了如何处理变长输入、不规则采样或缺失数据，所有这些都可以轻松处理，而无需修改模型。\n\n一个自包含的简短示例：\n```python\nimport torch\nimport torchcde\n\n# 创建一些数据\nbatch, length, input_channels = 1, 10, 2\nhidden_channels = 3\nt = torch.linspace(0, 1, length)\nt_ = t.unsqueeze(0).unsqueeze(-1).expand(batch, length, 1)\nx_ = torch.rand(batch, length, input_channels - 1)\nx = torch.cat([t_, x_], dim=2)  # 将时间作为一通道\n\n# 插值\ncoeffs = torchcde.natural_cubic_spline_coeffs(x)\nX = torchcde.NaturalCubicSpline(coeffs)\n\n# 创建神经控制微分方程系统\nclass F(torch.nn.Module):\n    def __init__(self):\n        super(F, self).__init__()\n        self.linear = torch.nn.Linear(hidden_channels, \n                                      hidden_channels * input_channels)\n    def forward(self, t, z):\n        return self.linear(z).view(batch, hidden_channels, input_channels)\n\nfunc = F()\nz0 = torch.rand(batch, hidden_channels)\n\n# 积分\ntorchcde.cdeint(X=X, func=func, z0=z0, t=X.interval)\n```\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_1fad463496de.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\n### 实验复现\n用于复现论文中实验的所有内容都可在 [`experiments` 文件夹](.\u002Fexperiments) 中找到。请查阅该文件夹以获取详细信息。\n\n### 结果\n以下是一个示例（摘自论文——请参阅原文以获取其他数据集上的类似结果）：\n\n\u003Cp align=\"center\">\n\u003Cimg align=\"middle\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_readme_837a77d28f67.png\" width=\"666\" \u002F>\n\u003C\u002Fp>\n\n### 引用\n```bibtex\n@article{kidger2020neuralcde,\n    title={{N}eural {C}ontrolled {D}ifferential {E}quations for {I}rregular {T}ime {S}eries},\n    author={Kidger, Patrick and Morrill, James and Foster, James and Lyons, Terry},\n    journal={Advances in Neural Information Processing Systems},\n    year={2020}\n}\n```","# NeuralCDE 快速上手指南\n\nNeuralCDE（神经控制微分方程）是一种专为**不规则采样时间序列**设计的深度学习模型。它基于受控微分方程理论，能够直接处理缺失数据、变长输入和非均匀时间点，并支持高效的伴随反向传播训练。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **Python 版本**: 3.7 或更高\n*   **核心依赖**:\n    *   PyTorch (建议 1.6+)\n    *   `torchcde` 库 (NeuralCDE 的核心实现库)\n\n> **提示**：国内用户建议使用清华源或阿里源加速 PyTorch 及相关依赖的安装。\n\n## 安装步骤\n\n推荐使用 `pip` 进行安装。您可以直接安装封装好的 `torchcde` 库，该库包含了构建 NeuralCDE 模型所需的所有功能。\n\n```bash\n# 使用国内镜像源加速安装\npip install torchcde -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果您的环境中尚未安装 PyTorch，请先根据官方指引安装对应版本的 PyTorch，然后再执行上述命令。\n\n## 基本使用\n\n以下是一个最小化的完整示例，演示了如何创建不规则时间序列数据、进行自然三次样条插值，并构建及积分一个 Neural CDE 系统。\n\n```python\nimport torch\nimport torchcde\n\n# 1. 创建模拟数据\nbatch, length, input_channels = 1, 10, 2\nhidden_channels = 3\n\n# 生成时间戳 t 和特征数据 x_\nt = torch.linspace(0, 1, length)\nt_ = t.unsqueeze(0).unsqueeze(-1).expand(batch, length, 1)\nx_ = torch.rand(batch, length, input_channels - 1)\n\n# 将时间作为一个通道拼接到输入数据中 (Neural CDE 的标准做法)\nx = torch.cat([t_, x_], dim=2)\n\n# 2. 数据插值\n# 计算自然三次样条系数\ncoeffs = torchcde.natural_cubic_spline_coeffs(x)\n# 构建插值对象 X\nX = torchcde.NaturalCubicSpline(coeffs)\n\n# 3. 定义 Neural CDE 向量场函数 F\nclass F(torch.nn.Module):\n    def __init__(self):\n        super(F, self).__init__()\n        # 映射隐藏状态到 (隐藏状态维度 * 输入通道维度)\n        self.linear = torch.nn.Linear(hidden_channels, \n                                      hidden_channels * input_channels)\n    \n    def forward(self, t, z):\n        return self.linear(z).view(batch, hidden_channels, input_channels)\n\nfunc = F()\n\n# 初始化隐藏状态 z0\nz0 = torch.rand(batch, hidden_channels)\n\n# 4. 执行积分求解\n# 在时间区间 X.interval 上对系统进行积分\nresult = torchcde.cdeint(X=X, func=func, z0=z0, t=X.interval)\n\nprint(result.shape)  # 输出形状: [batch, time_points, hidden_channels]\n```\n\n### 关键点说明\n*   **时间作为通道**：代码中将时间 `t` 拼接到输入特征 `x` 中，这是处理不规则采样的关键步骤。\n*   **插值处理**：`torchcde.NaturalCubicSpline` 自动处理不规则时间点，将其转化为连续路径，无需手动对齐数据。\n*   **无缝集成**：模型定义 (`class F`) 和使用 (`cdeint`) 与标准 PyTorch 流程完全兼容，可直接嵌入现有的训练循环中。","某医疗 AI 团队正在开发重症监护室（ICU）患者败血症早期预警系统，需要处理来自不同设备、频率不一且经常缺失的生命体征数据。\n\n### 没有 NeuralCDE 时\n- **数据预处理繁琐**：工程师必须花费大量时间将不规则采样的心率、血压数据强制重采样为固定时间间隔，导致原始信息失真或引入人为噪声。\n- **缺失值处理粗糙**：面对传感器故障造成的数据空洞，只能采用简单的线性插值或填充零值，忽略了病情变化的连续性和动态特征。\n- **模型预测不准**：传统 RNN 或 LSTM 模型难以有效捕捉非均匀时间步长下的病理演变规律，导致对突发恶化的预警延迟或误报率高。\n- **训练资源消耗大**：为了拟合长序列的不规则数据，往往需要极深的网络结构，导致显存占用过高，无法在边缘设备上部署。\n\n### 使用 NeuralCDE 后\n- **原生支持不规则数据**：NeuralCDE 直接基于受控微分方程理论，能够原生处理任意时间间隔和部分观测的多变量时间序列，无需强制重采样。\n- **数学级插值还原**：利用自然三次样条系数构建连续路径，从数学层面平滑还原了生命体征的真实变化轨迹，完美解决数据缺失问题。\n- **预测性能显著提升**：模型能精准捕捉病情发展的细微动态特征，在公开医疗数据集上实现了业界领先的预测准确率，大幅提前预警窗口。\n- **内存效率优化**：借助伴随反向传播技术，即使在跨越长时间跨度的观测数据进行训练时，也能保持极低的内存占用，便于实际落地。\n\nNeuralCDE 通过将不规则时间序列建模转化为连续的微分方程问题，从根本上解决了医疗等复杂场景下数据稀疏与非均匀采样的核心痛点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpatrick-kidger_NeuralCDE_0467c0a7.png","patrick-kidger","Patrick Kidger","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpatrick-kidger_a5d56fa4.png","ML+proteins, sciML, numerics, neural ODEs ╱ building 'scipy w\u002F autodiff+GPU' in JAX: Equinox, Diffrax, Lineax, etc ╱ solo traveller, martial artist, scuba diver","Cradle.bio","Zürich",null,"PatrickKidger","https:\u002F\u002Fkidger.site","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,704,75,"2026-04-17T07:29:14","Apache-2.0","","未说明",{"notes":94,"python":92,"dependencies":95},"该工具主要是一个基于 PyTorch 和 torchcde 库的算法实现，用于处理不规则采样的时间序列。README 中未明确列出具体的操作系统、GPU 型号、显存大小、内存需求或 Python 版本要求。用户需自行安装 PyTorch 及 torchcde 库即可运行示例代码。",[96,97],"torch","torchcde",[14],[100,101,102,103,104,105,106,107,108,109,110],"machine-learning","rough-paths","neural-differential-equations","time-series","controlled-differential-equations","deep-learning","deep-neural-networks","pytorch","dynamical-systems","differential-equations","neural-networks","2026-03-27T02:49:30.150509","2026-04-18T09:20:47.769451",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},39009,"如何处理 2D 数据（例如图像）并使用 Conv2D 层？","Conv2D 是可以使用的。具体做法是：在调用 cdeint 之前先将数据展平（flatten），然后在向量场函数内部的第一步操作中将数据还原形状（unflatten），之后即可调用 Conv2D 或其他层进行处理。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F7",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},39010,"能否利用训练数据时间范围之外的时间点进行预测（例如用 0-2 秒的数据预测 2-4 秒）？","不可以直接将积分时间 t 设置为超出观测数据范围的区间（如 [2.0, 4.0]）。你只能在对应有输入数据的区间（如 [0, 2]）上进行积分。如果需要预测未来，通常需要通过序列到序列（seq2seq）的方式，或者将缺失的未来数据点作为输入的一部分进行处理，但不能直接在无输入数据的区间上积分。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F9",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},39011,"训练时遇到 \"underflow in dt 0.0\" 错误该如何解决？","这通常是因为定义的 CDE 难以在自适应求解器要求的极小误差下求解。解决方法包括：\n1. 降低容差设置：在调用 cdeint 时增加 atol 和 rtol 参数，例如 `cdeint(..., atol=0.01, rtol=0.01)`，允许求解器产生更大的误差。\n2. 捕获异常并继续训练：有时更换批次或模型权重调整后问题会自动消失，但不推荐作为首选方案。\n3. 使用固定步长数值方法（如 RK4）并缩小积分区间，以避免步长过小导致的溢出或不稳定。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F2",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},39012,"在 Speech Commands 数据集上运行模型时准确率极低（约 0.57 或更低），可能是什么原因？","性能差通常不是由 GPU 型号决定的。常见原因及解决方法包括：\n1. 音频加载参数错误：确保使用 `torchaudio.load` 时设置 `normalize=False`（默认值为 True，可能导致问题）。\n2. 数据维度不匹配：如果减少类别数量，请确保生成的 X 和 Y 变量与 batch_index 的大小一致。\n3. 模型混淆：确认运行的是 Neural CDE 模型而不是用于基准对比的 RNN 模型（RNN 在该数据集上表现不稳定）。\n4. 依赖库版本变化：某些库的更新可能悄悄破坏了原有逻辑，建议检查环境配置。正常情况下的准确率应在几个 epoch 后达到 85% 左右。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F10",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},39013,"导入时出现 \"no module named 'sktime.utils.load_data'\" 错误怎么办？","这是因为 sktime 版本不兼容。请确保安装的是 sktime 0.3.1 版本，其他版本可能无法正常工作。可以使用命令 `pip install sktime==0.3.1` 进行安装。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F8",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},39014,"如何将示例中的 train_coeffs 移动到 GPU 上进行训练？","train_coeffs 是一个包含 PyTorch Tensor 的元组。可以通过遍历元组并对每个元素调用 `.to('cuda')` 来移动到 GPU。代码如下：\n`train_coeffs = tuple(x.to('cuda') for x in train_coeffs)`\n同时，也不要忘记将 model 和 train_t 也移动到 GPU 上。","https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE\u002Fissues\u002F1",[]]