[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-research--torchsde":3,"tool-google-research--torchsde":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",153609,2,"2026-04-13T11:34:59",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":75,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":110},7236,"google-research\u002Ftorchsde","torchsde","Differentiable SDE solvers with GPU support and efficient sensitivity analysis. ","torchsde 是一个基于 PyTorch 开发的开源库，专为求解随机微分方程（SDE）而设计。它核心解决了在深度学习场景中，对包含随机噪声的动态系统进行建模时，难以高效计算梯度并进行反向传播的痛点。传统方法往往在处理随机性时面临计算瓶颈或无法直接利用 GPU 加速，而 torchsde 通过提供可微分的 SDE 求解器，完美打通了这一环节。\n\n该工具特别适合人工智能研究人员、算法工程师以及需要处理时间序列建模、生成模型或物理仿真系统的开发者使用。其独特的技术亮点在于原生支持 GPU 加速，大幅提升了大规模数据的运算效率；同时实现了高效的灵敏度分析，支持多种噪声类型（如一般噪声、加性噪声等）和伊藤积分模式，让用户能灵活构建复杂的随机模型。无论是构建类似变分自编码器的潜在随机微分方程模型，还是将神经 SDE 作为生成对抗网络（GAN）的生成器，torchsde 都提供了简洁易用的接口和详尽的示例代码，帮助用户轻松将随机过程理论转化为实际的深度学习应用。","# PyTorch Implementation of Differentiable SDE Solvers ![Python package](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Factions\u002Fworkflows\u002Frun_tests.yml\u002Fbadge.svg)\nThis library provides [stochastic differential equation (SDE)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FStochastic_differential_equation) solvers with GPU support and efficient backpropagation.\n\n---\n\u003Cp align=\"center\">\n  \u003Cimg width=\"600\" height=\"450\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_torchsde_readme_e17c3898d750.gif\">\n\u003C\u002Fp>\n\n## Installation\n```shell script\npip install torchsde\n```\n\n**Requirements:** Python >=3.8 and PyTorch >=1.6.0.\n\n## Documentation\nAvailable [here](.\u002FDOCUMENTATION.md).\n\n## Examples\n### Quick example\n```python\nimport torch\nimport torchsde\n\nbatch_size, state_size, brownian_size = 32, 3, 2\nt_size = 20\n\nclass SDE(torch.nn.Module):\n    noise_type = 'general'\n    sde_type = 'ito'\n\n    def __init__(self):\n        super().__init__()\n        self.mu = torch.nn.Linear(state_size, \n                                  state_size)\n        self.sigma = torch.nn.Linear(state_size, \n                                     state_size * brownian_size)\n\n    # Drift\n    def f(self, t, y):\n        return self.mu(y)  # shape (batch_size, state_size)\n\n    # Diffusion\n    def g(self, t, y):\n        return self.sigma(y).view(batch_size, \n                                  state_size, \n                                  brownian_size)\n\nsde = SDE()\ny0 = torch.full((batch_size, state_size), 0.1)\nts = torch.linspace(0, 1, t_size)\n# Initial state y0, the SDE is solved over the interval [ts[0], ts[-1]].\n# ys will have shape (t_size, batch_size, state_size)\nys = torchsde.sdeint(sde, y0, ts)\n```\n\n### Notebook\n\n[`examples\u002Fdemo.ipynb`](examples\u002Fdemo.ipynb) gives a short guide on how to solve SDEs, including subtle points such as fixing the randomness in the solver and the choice of *noise types*.\n\n### Latent SDE\n\n[`examples\u002Flatent_sde.py`](examples\u002Flatent_sde.py) learns a *latent stochastic differential equation*, as in Section 5 of [\\[1\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.01328.pdf).\nThe example fits an SDE to data, whilst regularizing it to be like an [Ornstein-Uhlenbeck](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FOrnstein%E2%80%93Uhlenbeck_process) prior process.\nThe model can be loosely viewed as a [variational autoencoder](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAutoencoder#Variational_autoencoder_(VAE)) with its prior and approximate posterior being SDEs. This example can be run via\n```shell script\npython -m examples.latent_sde --train-dir \u003CTRAIN_DIR>\n```\nThe program outputs figures to the path specified by `\u003CTRAIN_DIR>`.\nTraining should stabilize after 500 iterations with the default hyperparameters.\n\n### Neural SDEs as GANs\n[`examples\u002Fsde_gan.py`](examples\u002Fsde_gan.py) learns an SDE as a GAN, as in [\\[2\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.03657), [\\[3\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.13493). The example trains an SDE as the generator of a GAN, whilst using a [neural CDE](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE) [\\[4\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926) as the discriminator. This example can be run via\n\n```shell script\npython -m examples.sde_gan\n```\n\n## Citation\n\nIf you found this codebase useful in your research, please consider citing either or both of:\n\n```\n@article{li2020scalable,\n  title={Scalable gradients for stochastic differential equations},\n  author={Li, Xuechen and Wong, Ting-Kam Leonard and Chen, Ricky T. Q. and Duvenaud, David},\n  journal={International Conference on Artificial Intelligence and Statistics},\n  year={2020}\n}\n```\n\n```\n@article{kidger2021neuralsde,\n  title={Neural {SDE}s as {I}nfinite-{D}imensional {GAN}s},\n  author={Kidger, Patrick and Foster, James and Li, Xuechen and Oberhauser, Harald and Lyons, Terry},\n  journal={International Conference on Machine Learning},\n  year={2021}\n}\n```\n\n## References\n\n\\[1\\] Xuechen Li, Ting-Kam Leonard Wong, Ricky T. Q. Chen, David Duvenaud. \"Scalable Gradients for Stochastic Differential Equations\". *International Conference on Artificial Intelligence and Statistics.* 2020. [[arXiv]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.01328.pdf)\n\n\\[2\\] Patrick Kidger, James Foster, Xuechen Li, Harald Oberhauser, Terry Lyons. \"Neural SDEs as Infinite-Dimensional GANs\". *International Conference on Machine Learning* 2021. [[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.03657)\n\n\\[3\\] Patrick Kidger, James Foster, Xuechen Li, Terry Lyons. \"Efficient and Accurate Gradients for Neural SDEs\". 2021. [[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.13493)\n\n\\[4\\] Patrick Kidger, James Morrill, James Foster, Terry Lyons, \"Neural Controlled Differential Equations for Irregular Time Series\". *Neural Information Processing Systems* 2020. [[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926)\n\n---\nThis is a research project, not an official Google product. \n","# 可微分随机微分方程求解器的 PyTorch 实现 ![Python 包](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Factions\u002Fworkflows\u002Frun_tests.yml\u002Fbadge.svg)\n本库提供了支持 GPU 且具有高效反向传播功能的[随机微分方程 (SDE)](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FStochastic_differential_equation) 求解器。\n\n---\n\u003Cp align=\"center\">\n  \u003Cimg width=\"600\" height=\"450\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_torchsde_readme_e17c3898d750.gif\">\n\u003C\u002Fp>\n\n## 安装\n```shell script\npip install torchsde\n```\n\n**要求：** Python >=3.8 和 PyTorch >=1.6.0。\n\n## 文档\n可在 [这里](.\u002FDOCUMENTATION.md) 查阅。\n\n## 示例\n### 快速示例\n```python\nimport torch\nimport torchsde\n\nbatch_size, state_size, brownian_size = 32, 3, 2\nt_size = 20\n\nclass SDE(torch.nn.Module):\n    noise_type = 'general'\n    sde_type = 'ito'\n\n    def __init__(self):\n        super().__init__()\n        self.mu = torch.nn.Linear(state_size, \n                                  state_size)\n        self.sigma = torch.nn.Linear(state_size, \n                                     state_size * brownian_size)\n\n    # 驱动项\n    def f(self, t, y):\n        return self.mu(y)  # 形状为 (batch_size, state_size)\n\n    # 扩散项\n    def g(self, t, y):\n        return self.sigma(y).view(batch_size, \n                                  state_size, \n                                  brownian_size)\n\nsde = SDE()\ny0 = torch.full((batch_size, state_size), 0.1)\nts = torch.linspace(0, 1, t_size)\n# 初始状态 y0，SDE 在区间 [ts[0], ts[-1]] 上求解。\n# ys 的形状为 (t_size, batch_size, state_size)\nys = torchsde.sdeint(sde, y0, ts)\n```\n\n### 笔记本\n\n[`examples\u002Fdemo.ipynb`](examples\u002Fdemo.ipynb) 提供了一个关于如何求解 SDE 的简短指南，其中包括一些细微之处，例如固定求解器中的随机性以及 *噪声类型* 的选择。\n\n### 隐式 SDE\n\n[`examples\u002Flatent_sde.py`](examples\u002Flatent_sde.py) 学习一个 *隐式随机微分方程*，如 [\\[1\\]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.01328.pdf) 第 5 节所述。该示例将 SDE 拟合到数据上，同时通过正则化使其类似于 [Ornstein-Uhlenbeck](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FOrnstein%E2%80%93Uhlenbeck_process) 先验过程。该模型可以粗略地看作是一个 [变分自编码器](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAutoencoder#Variational_autoencoder_(VAE))，其先验分布和近似后验分布均为 SDE。可以通过以下命令运行此示例：\n```shell script\npython -m examples.latent_sde --train-dir \u003CTRAIN_DIR>\n```\n程序会将图像输出到 `\u003CTRAIN_DIR>` 指定的路径。在默认超参数下，训练应在 500 次迭代后趋于稳定。\n\n### 作为 GAN 的神经 SDE\n[`examples\u002Fsde_gan.py`](examples\u002Fsde_gan.py) 学习一个作为 GAN 的 SDE，如 [\\[2\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.03657)、[\\[3\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.13493) 所述。该示例训练一个 SDE 作为 GAN 的生成器，同时使用一个 [神经 CDE](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002FNeuralCDE) [\\[4\\]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926) 作为判别器。可以通过以下命令运行此示例：\n```shell script\npython -m examples.sde_gan\n```\n\n## 引用\n\n如果您在研究中发现本代码库很有用，请考虑引用以下一篇或两篇论文：\n\n```\n@article{li2020scalable,\n  title={Scalable gradients for stochastic differential equations},\n  author={Li, Xuechen and Wong, Ting-Kam Leonard and Chen, Ricky T. Q. and Duvenaud, David},\n  journal={International Conference on Artificial Intelligence and Statistics},\n  year={2020}\n}\n```\n\n```\n@article{kidger2021neuralsde,\n  title={Neural {SDE}s as {I}nfinite-{D}imensional {GAN}s},\n  author={Kidger, Patrick and Foster, James and Li, Xuechen and Oberhauser, Harald and Lyons, Terry},\n  journal={International Conference on Machine Learning},\n  year={2021}\n}\n```\n\n## 参考文献\n\n\\[1\\] Xuechen Li, Ting-Kam Leonard Wong, Ricky T. Q. Chen, David Duvenaud. “随机微分方程的可扩展梯度”。 *国际人工智能与统计会议*，2020 年。[[arXiv]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.01328.pdf)\n\n\\[2\\] Patrick Kidger, James Foster, Xuechen Li, Harald Oberhauser, Terry Lyons. “神经 SDE 作为无限维 GAN”。 *国际机器学习会议*，2021 年。[[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.03657)\n\n\\[3\\] Patrick Kidger, James Foster, Xuechen Li, Terry Lyons. “神经 SDE 的高效准确梯度”。2021 年。[[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.13493)\n\n\\[4\\] Patrick Kidger, James Morrill, James Foster, Terry Lyons，“用于不规则时间序列的神经控制微分方程”。 *神经信息处理系统*，2020 年。[[arXiv]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.08926)\n\n---\n这是一个研究项目，而非 Google 的官方产品。","# torchsde 快速上手指南\n\n`torchsde` 是一个基于 PyTorch 的随机微分方程（SDE）求解器库，支持 GPU 加速和高效反向传播，适用于构建潜变量 SDE、神经 SDE-GAN 等前沿模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **Python**: 版本 >= 3.8\n*   **PyTorch**: 版本 >= 1.6.0\n*   **系统**: 支持 Linux, macOS, Windows (需配置好 CUDA 以启用 GPU 加速)\n\n> **国内加速建议**：如果下载 PyTorch 或依赖包速度较慢，推荐使用清华或阿里镜像源。\n> ```bash\n> pip install torch torchvision torchaudio -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n使用 pip 直接安装官方发布版本：\n\n```shell script\npip install torchsde\n```\n\n若需使用国内镜像加速安装：\n\n```shell script\npip install torchsde -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是最小化的使用示例，演示如何定义一个 SDE 模型并求解。\n\n### 代码示例\n\n```python\nimport torch\nimport torchsde\n\n# 设置维度参数\nbatch_size, state_size, brownian_size = 32, 3, 2\nt_size = 20\n\nclass SDE(torch.nn.Module):\n    # 指定噪声类型和 SDE 类型 (Ito 或 Stratonovich)\n    noise_type = 'general'\n    sde_type = 'ito'\n\n    def __init__(self):\n        super().__init__()\n        # 定义漂移项 (Drift) 网络\n        self.mu = torch.nn.Linear(state_size, state_size)\n        # 定义扩散项 (Diffusion) 网络\n        self.sigma = torch.nn.Linear(state_size, state_size * brownian_size)\n\n    # 漂移函数 f(t, y)\n    def f(self, t, y):\n        return self.mu(y)  # 形状: (batch_size, state_size)\n\n    # 扩散函数 g(t, y)\n    def g(self, t, y):\n        return self.sigma(y).view(batch_size, state_size, brownian_size)\n\n# 实例化模型\nsde = SDE()\n\n# 初始状态 y0\ny0 = torch.full((batch_size, state_size), 0.1)\n\n# 时间网格 ts，求解区间为 [ts[0], ts[-1]]\nts = torch.linspace(0, 1, t_size)\n\n# 执行求解\n# ys 的输出形状为 (t_size, batch_size, state_size)\nys = torchsde.sdeint(sde, y0, ts)\n```\n\n### 说明\n1.  **定义模型**：继承 `torch.nn.Module`，必须设置 `noise_type` 和 `sde_type` 类属性，并实现 `f` (漂移) 和 `g` (扩散) 方法。\n2.  **准备数据**：创建初始状态张量 `y0` 和时间点张量 `ts`。\n3.  **求解**：调用 `torchsde.sdeint` 即可得到求解轨迹，该操作完全可微，可直接用于后续的损失计算和反向传播。","某量化金融团队正在开发基于随机微分方程（SDE）的资产价格预测模型，试图通过神经网络学习市场波动的潜在规律以优化高频交易策略。\n\n### 没有 torchsde 时\n- **梯度计算不可行**：传统数值求解器不支持反向传播，导致无法直接对 SDE 中的神经网络参数进行端到端训练，只能采用效率极低的有限差分法近似梯度。\n- **GPU 加速缺失**：现有库多依赖 CPU 串行计算，在处理大规模蒙特卡洛模拟（如数万个路径样本）时耗时数小时，严重拖慢迭代节奏。\n- **灵敏度分析困难**：缺乏高效算法来计算输出对初始状态或噪声参数的敏感度，使得模型难以捕捉市场微小扰动下的风险特征。\n- **代码实现复杂**：开发者需手动推导伊藤积分离散化公式并处理复杂的随机噪声类型，极易引入数学错误且维护成本高昂。\n\n### 使用 torchsde 后\n- **原生自动微分**：torchsde 提供可微分的 SDE 求解器，支持标准的 PyTorch `backward()` 操作，实现了从损失函数到漂移项与扩散项神经网络的无缝梯度回传。\n- **全链路 GPU 并行**：利用 GPU 并行架构同时求解成千上万条随机轨迹，将原本数小时的训练过程压缩至几分钟，大幅提升了实验频率。\n- **高效伴随态方法**：内置高效的伴随态（Adjoint）算法，能以恒定的内存占用快速计算高维状态空间下的灵敏度，精准量化市场风险。\n- **开箱即用的抽象**：只需定义漂移函数 `f` 和扩散函数 `g`，即可调用 `sdeint` 接口处理不同类型的噪声（如广义噪声），让研究员专注于建模而非底层数值细节。\n\ntorchsde 通过将随机微分方程求解深度融入 PyTorch 生态，彻底解决了连续时间随机模型在深度学习中的训练瓶颈，让复杂的金融动力学建模变得像训练普通神经网络一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_torchsde_e17c3898.gif","google-research","Google Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-research_c23b2adf.png","",null,"https:\u002F\u002Fresearch.google","https:\u002F\u002Fgithub.com\u002Fgoogle-research",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1715,222,"2026-04-13T03:23:42","Apache-2.0",1,"支持 GPU 加速（非强制必需，取决于具体任务规模），未指定具体显卡型号、显存大小或 CUDA 版本","未说明",{"notes":92,"python":93,"dependencies":94},"该库提供带有 GPU 支持和高效反向传播的随机微分方程（SDE）求解器。安装仅需执行 pip install torchsde。示例中包含 Latent SDE 和基于 GAN 的 Neural SDE 训练脚本，实际资源需求视具体模型复杂度而定。",">=3.8",[95],"torch>=1.6.0",[14],[98,99,100,101,102,103,104,105,106],"deep-learning","deep-neural-networks","pytorch","dynamical-systems","differential-equations","stochastic-processes","stochastic-differential-equations","stochastic-volatility-models","neural-differential-equations","2026-03-27T02:49:30.150509","2026-04-14T04:34:57.588416",[],[111,116,121,126,131],{"id":112,"version":113,"summary_zh":114,"released_at":115},247287,"v0.2.6","距离上次发布已经两年半了，时间过得真快。这次主要是维护性更新。\n\n## v0.2.4 以来的变更\n* @akx、@vladmandic 和 @jphan32 修复了依赖列表并改进了 CI 配置。这解决了大家一直遇到的 PyPI 错误问题。感谢他们的努力，才使得本次发布成为可能。\n* 添加了一个 [SDE-GAN 示例](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fblob\u002Fmaster\u002Fexamples\u002Fsde_gan.py)，该示例源自论文《神经 SDE 作为无限维 GAN：Kidger 等人，2021》(https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.03657)。\n* 新增了可逆 Heun 方法，该方法同样出自论文《神经 SDE 的高效且准确梯度计算：Kidger 等人，2021》(https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.13493)。\n\n## 相关推荐\n请注意，目前强烈推荐使用 [Diffrax](https:\u002F\u002Fgithub.com\u002Fpatrick-kidger\u002Fdiffrax)。这是一个基于 JAX 的数值 ODE+SDE 求解器工具包。对于大多数应用场景而言，它比 torchsde 更加先进（尤其是速度通常快数倍）。尽管 torchsde 仍将继续维护，但新项目应优先考虑这一替代方案。\n\n## 新贡献者\n* @dhirschfeld 在 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fpull\u002F99 中完成了首次贡献。\n* @jphan32 在 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fpull\u002F133 中完成了首次贡献。\n* @vladmandic 在 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fpull\u002F137 中完成了首次贡献。\n* @akx 在 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fpull\u002F140 中完成了首次贡献。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ftorchsde\u002Fcompare\u002Fv0.2.4...v0.2.6","2023-09-26T22:07:23",{"id":117,"version":118,"summary_zh":119,"released_at":120},247288,"v0.2.4","效率提升：\n- 添加 `f_and_g` 和 `f_and_g_prod` 函数，以便同时计算漂移项和扩散项\n\n错误修复：\n- 内部两次调用 `solver.integrate`\n- 自适应误差估计无法识别标量张量\n","2021-01-05T18:31:38",{"id":122,"version":123,"summary_zh":124,"released_at":125},247289,"v0.2.1","新特性包括：\n- BrownianInterval：一种布朗运动数据结构，具有常数级内存开销，并依赖 LRU 缓存实现精确查询；\n- 斯特拉托诺维奇随机微分方程的基本求解器；\n- 对代码库中声明的所有噪声类型，完整支持伊藤和斯特拉托诺维奇随机微分方程的伴随方法；\n- 多项 Python 性能优化。","2020-10-22T16:12:07",{"id":127,"version":128,"summary_zh":129,"released_at":130},247290,"v0.1.1","- 基于 PyTorch C++ API，新增查询速度更快的布朗运动类。  \r\n  - 新增的布朗运动类与现有类具有相同的 API，可直接替换使用。  \r\n  - 导入这些类非常简单，只需 `from torchsde.brownian_lib import BrownianPath, BrownianTree`。  \r\n  - 目前，纯 Python 编写的旧版布朗运动类尚未废弃，并且在短期内也不会被废弃。  \r\n- 为公共 API 的函数添加类型注解。","2020-07-28T01:50:47",{"id":132,"version":133,"summary_zh":134,"released_at":135},247291,"v0.1.0","该代码库提供了支持 GPU 加速的随机微分方程求解器，并实现了高效的灵敏度分析。","2020-07-08T19:09:47"]