POT

GitHub
2.8k 544 简单 7 次阅读 昨天MIT开发框架
AI 解读 由 AI 自动生成,仅供参考

POT(Python Optimal Transport)是一个开源的 Python 库,专注于求解最优传输(Optimal Transport, OT)相关的优化问题。最优传输理论在信号处理、图像分析和机器学习等领域有广泛应用,例如衡量概率分布之间的差异、实现领域自适应或计算数据分布的“平均”形态(即 Wasserstein 重心)。POT 提供了丰富的算法实现,包括经典的线性规划解法、带熵正则化的 Sinkhorn 算法、Gromov-Wasserstein 距离及其融合变体,并支持不平衡传输、一维快速求解、高斯混合模型间的传输等场景。它还集成了与 PyTorch、TensorFlow、JAX、NumPy 和 CuPy 的兼容接口,便于在不同深度学习框架中使用。POT 特别适合从事机器学习、计算机视觉或运筹优化方向的研究人员与开发者,尤其适用于需要高效、可微分最优传输计算的科研或工程任务。其模块化设计和详尽文档也降低了入门门槛,兼顾灵活性与性能。

使用场景

一家医疗影像AI公司正在开发跨医院的脑部MRI图像配准系统,需要对不同设备采集的图像分布进行对齐,以提升后续病灶检测模型的泛化能力。

没有 POT 时

  • 团队需手动实现最优传输(Optimal Transport)算法,代码复杂且难以验证正确性,耗费大量研发时间。
  • 缺乏对Gromov-Wasserstein等结构感知距离的支持,无法有效处理图像间无明确像素对应关系的非刚性形变。
  • 自研实现仅支持NumPy,难以与PyTorch训练流程无缝集成,导致梯度无法端到端回传。
  • 处理高维图像数据时计算效率低下,缺乏Sinkhorn等正则化加速策略,训练周期长达数天。
  • 无法快速尝试不同OT变体(如Fused-GW、不平衡OT),限制了算法选型和效果调优空间。

使用 POT 后

  • 直接调用POT内置的Fused-Gromov-Wasserstein求解器,几行代码即可完成跨域图像分布对齐,开发效率显著提升。
  • 利用POT对图结构和特征联合建模的能力,精准捕捉不同MRI设备下脑区拓扑结构的相似性。
  • 通过POT的PyTorch后端,OT损失可直接嵌入神经网络训练流程,实现端到端优化。
  • 借助Sinkhorn正则化与GPU加速(CuPy支持),大规模图像配准任务训练时间从数天缩短至数小时。
  • 快速实验多种OT方案(如熵正则化、部分OT等),最终选出最适合医学图像特性的对齐策略。

POT将复杂的最优传输理论转化为即插即用的工程组件,让团队聚焦核心业务而非底层算法实现。

运行环境要求

操作系统
  • Linux
  • macOSX
  • Windows
GPU

未说明

内存

未说明

依赖
notes需要 C++ 编译器用于构建/安装 EMD 求解器;支持多种后端(PyTorch、JAX、TensorFlow、NumPy、CuPy),但这些并非默认安装依赖;可通过 PyPI 或 conda-forge 安装。
python未说明
Numpy (>=1.0)
POT hero image

快速开始

POT: Python 最优传输(Optimal Transport)

PyPI version Anaconda Cloud Build Status Codecov Status Downloads Anaconda downloads License

这个开源 Python 库提供了多种求解器,用于解决与最优传输(Optimal Transport, OT)相关的优化问题,适用于信号处理、图像处理和机器学习等领域。

网站与文档:https://PythonOT.github.io/

源代码(MIT 许可证): https://github.com/PythonOT/POT

POT 具有以下主要功能:

  • 一系列可微分的最优传输问题求解器,包括:
    • 精确线性 OT、熵正则化 OT 和二次正则化 OT,
    • Gromov-Wasserstein(GW)距离、融合 GW(Fused GW)距离以及各类二次 OT 变体,
    • 针对不同散度(divergence)的非平衡(unbalanced)和部分(partial)OT,
  • 固定支撑集和自由支撑集下的 OT 质心(Wasserstein 和 GW),
  • 在一维空间、圆环(circle)上以及高斯混合模型(Gaussian Mixture Models, GMMs)之间的快速 OT 求解器,
  • 多种与机器学习相关的求解器,例如域自适应(domain adaptation)、最优传输映射估计、子空间学习、图神经网络(Graph Neural Networks, GNNs)层等。
  • 支持多种后端,可轻松与 PyTorch、JAX、TensorFlow、NumPy 和 CuPy 数组配合使用。

已实现的功能

POT 提供了以下通用 OT 求解器:

POT 提供以下与机器学习相关的求解器:

更多示例请参见 文档

使用与引用该工具箱

如果您在研究中使用了本工具箱并觉得它有用,请引用 POT,引用以下当前版本的参考文献以及我们的 JMLR 论文

Flamary R., Vincent-Cuaz C., Courty N., Gramfort A., Kachaiev O., Quang Tran H., David L., Bonet C., Cassereau N., Gnassounou T., Tanguy E., Delon J., Collas A., Mazelet S., Chapel L., Kerdoncuff T., Yu X., Feickert M., Krzakala P., Liu T., Fernandes Montesuma E. POT Python Optimal Transport (version 0.9.5). URL: https://github.com/PythonOT/POT

Rémi Flamary, Nicolas Courty, Alexandre Gramfort, Mokhtar Z. Alaya, Aurélie Boisbunon, Stanislas Chambon, Laetitia Chapel, Adrien Corenflos, Kilian Fatras, Nemo Fournier, Léo Gautheron, Nathalie T.H. Gayraud, Hicham Janati, Alain Rakotomamonjy, Ievgen Redko, Antoine Rolet, Antony Schutz, Vivien Seguy, Danica J. Sutherland, Romain Tavenard, Alexander Tong, Titouan Vayer, POT Python Optimal Transport library, Journal of Machine Learning Research, 22(78):1−8, 2021. URL: https://pythonot.github.io/

Bibtex 格式如下:

@misc{flamary2024pot,
  author = {Flamary, R{\'e}mi and Vincent-Cuaz, C{\'e}dric and Courty, Nicolas and Gramfort, Alexandre and Kachaiev, Oleksii and Quang Tran, Huy and David, Laurène and Bonet, Cl{\'e}ment and Cassereau, Nathan and Gnassounou, Th{\'e}o and Tanguy, Eloi and Delon, Julie and Collas, Antoine and Mazelet, Sonia and Chapel, Laetitia and Kerdoncuff, Tanguy and Yu, Xizheng and Feickert, Matthew and Krzakala, Paul and Liu, Tianlin and Fernandes Montesuma, Eduardo},
  title = {POT Python Optimal Transport (version 0.9.5)},
  url = {https://github.com/PythonOT/POT},
  year = {2024}
}

@article{flamary2021pot,
  author  = {R{\'e}mi Flamary and Nicolas Courty and Alexandre Gramfort and Mokhtar Z. Alaya and Aur{\'e}lie Boisbunon and Stanislas Chambon and Laetitia Chapel and Adrien Corenflos and Kilian Fatras and Nemo Fournier and L{\'e}o Gautheron and Nathalie T.H. Gayraud and Hicham Janati and Alain Rakotomamonjy and Ievgen Redko and Antoine Rolet and Antony Schutz and Vivien Seguy and Danica J. Sutherland and Romain Tavenard and Alexander Tong and Titouan Vayer},
  title   = {POT: Python Optimal Transport},
  journal = {Journal of Machine Learning Research},
  year    = {2021},
  volume  = {22},
  number  = {78},
  pages   = {1-8},
  url     = {http://jmlr.org/papers/v22/20-451.html}
}

安装

该库已在 Linux、MacOSX 和 Windows 上测试通过。安装时需要 C++ 编译器以构建/安装 EMD 求解器,并依赖以下 Python 模块:

  • Numpy (>=1.16)
  • Scipy (>=1.0)
  • Cython (>=0.23)(仅构建时需要,通过 pip 或 conda 安装时无需)

Pip 安装

您可以通过 PyPI 安装该工具箱:

pip install POT

或者获取最新开发版:

pip install -U https://github.com/PythonOT/POT/archive/master.zip # 添加 --user 参数可进行用户级安装(无需 root 权限)

可选依赖项可通过以下命令安装:

pip install POT[all]

注意:这会安装 cvxopt,其采用 GPL 3.0 许可证。如果您不能使用 GPL 许可的软件,可以单独或按子模块安装特定的可选依赖项。可用的可选安装选项包括 backend-jax, backend-tf, backend-torch, cvxopt, dr, gnn, all

通过 conda-forge 使用 Anaconda 安装

如果您使用 Anaconda Python 发行版,POT 已在 conda-forge 中提供。安装命令如下:

conda install -c conda-forge pot

安装后检查

正确安装后,应能无错误地导入模块:

import ot

注意:为方便使用,模块名为 ot 而非 pot

依赖项

某些子模块需要额外的依赖项,具体如下:

  • ot.dr(Wasserstein 降维)依赖 autograd 和 pymanopt,可通过以下命令安装:
pip install pymanopt autograd

示例

简短示例

  • 导入工具箱
import ot
  • 计算 Wasserstein 距离
# a,b 是一维直方图(元素非负且和为 1)
# M 是基础代价矩阵(ground cost matrix)

# 使用统一 API:
Wd = ot.solve(M, a, b).value # 精确线性规划
Wd_reg = ot.solve(M, a, b, reg=reg).value # 熵正则化 OT

# 使用旧版 API:
Wd = ot.emd2(a, b, M) # 精确线性规划
Wd_reg = ot.sinkhorn2(a, b, M, reg) # 熵正则化 OT
# 若 b 为矩阵,则计算 a 到所有 b 的距离并返回向量
  • 计算 OT 传输矩阵
# a,b 是一维直方图(元素非负且和为 1)
# M 是基础代价矩阵

# 使用统一 API:
T = ot.solve(M, a, b).plan # 精确线性规划
T_reg = ot.solve(M, a, b, reg=reg).plan # 熵正则化 OT

# 使用旧版 API:
T = ot.emd(a, b, M) # 精确线性规划
T_reg = ot.sinkhorn(a, b, M, reg) # 熵正则化 OT
  • 对经验分布计算 OT
# X 和 Y 是形状为 (n_samples, n_features) 的二维数组

# 使用平方欧氏距离度量
T = ot.solve_sample(X, Y).plan # 精确线性规划
T_reg = ot.solve_sample(X, Y, reg=reg).plan # 熵正则化 OT

Wass_2 = ot.solve_sample(X, Y).value # 平方 Wasserstein_2 距离
Wass_1 = ot.solve_sample(X, Y, metric='euclidean').value # Wasserstein 1 距离
  • 计算 Wasserstein 重心(barycenter)
# A 是一个 n*d 矩阵,包含 d 个一维直方图
# M 是基础代价矩阵
ba = ot.barycenter(A, M, reg) # reg 为正则化参数

示例与 Notebook

examples 文件夹中包含多个该库的示例和使用案例。完整的文档(含示例及输出)请参见 https://PythonOT.github.io/

致谢

本工具箱由 Rémi FlamaryNicolas Courty 创建。

目前由以下人员维护:

POT 库的所有贡献者列表请见 此处

POT 的开发得到了以下合作机构的资金或人力支持:

ANRCNRS3IAHi!PARIS

贡献与行为准则

我们欢迎任何形式的贡献,并请遵守 贡献指南。项目所有成员均应遵循 行为准则

支持

您可以通过以下渠道提问或参与开发讨论:

您也可以在 GitHub Issues 中提交 bug 报告或功能请求。提交前请务必先阅读我们的 贡献指南

参考文献

[1] Bonneel, N., Van De Panne, M., Paris, S., & Heidrich, W. (2011, December). Displacement interpolation using Lagrangian mass transport. In ACM Transactions on Graphics (TOG) (Vol. 30, No. 6, p. 158). ACM.

[2] Cuturi, M. (2013). Sinkhorn distances: Lightspeed computation of optimal transport. In Advances in Neural Information Processing Systems (pp. 2292-2300).

[3] Benamou, J. D., Carlier, G., Cuturi, M., Nenna, L., & Peyré, G. (2015). Iterative Bregman projections for regularized transportation problems. SIAM Journal on Scientific Computing, 37(2), A1111-A1138.

[4] S. Nakhostin, N. Courty, R. Flamary, D. Tuia, T. Corpetti, Supervised planetary unmixing with optimal transport, Workshop on Hyperspectral Image and Signal Processing : Evolution in Remote Sensing (WHISPERS), 2016.

[5] N. Courty; R. Flamary; D. Tuia; A. Rakotomamonjy, Optimal Transport for Domain Adaptation, in IEEE Transactions on Pattern Analysis and Machine Intelligence , vol.PP, no.99, pp.1-1

[6] Ferradans, S., Papadakis, N., Peyré, G., & Aujol, J. F. (2014). Regularized discrete optimal transport. SIAM Journal on Imaging Sciences, 7(3), 1853-1882.

[7] Rakotomamonjy, A., Flamary, R., & Courty, N. (2015). Generalized conditional gradient: analysis of convergence and applications. arXiv preprint arXiv:1510.06567.

[8] M. Perrot, N. Courty, R. Flamary, A. Habrard (2016), Mapping estimation for discrete optimal transport, Neural Information Processing Systems (NIPS).

[9] Schmitzer, B. (2016). Stabilized Sparse Scaling Algorithms for Entropy Regularized Transport Problems. arXiv preprint arXiv:1610.06519.

[10] Chizat, L., Peyré, G., Schmitzer, B., & Vialard, F. X. (2016). Scaling algorithms for unbalanced transport problems. arXiv preprint arXiv:1607.05816.

[11] Flamary, R., Cuturi, M., Courty, N., & Rakotomamonjy, A. (2016). Wasserstein Discriminant Analysis. arXiv preprint arXiv:1608.08063.

[12] Gabriel Peyré, Marco Cuturi, and Justin Solomon (2016), Gromov-Wasserstein averaging of kernel and distance matrices International Conference on Machine Learning (ICML).

[13] Mémoli, Facundo (2011). Gromov–Wasserstein distances and the metric approach to object matching. Foundations of computational mathematics 11.4 : 417-487.

[14] Knott, M. and Smith, C. S. (1984).On the optimal mapping of distributions, Journal of Optimization Theory and Applications Vol 43.

[15] Peyré, G., & Cuturi, M. (2018). Computational Optimal Transport .

[16] Agueh, M., & Carlier, G. (2011). Barycenters in the Wasserstein space. SIAM Journal on Mathematical Analysis, 43(2), 904-924.

[17] Blondel, M., Seguy, V., & Rolet, A. (2018). Smooth and Sparse Optimal Transport. Proceedings of the Twenty-First International Conference on Artificial Intelligence and Statistics (AISTATS).

[18] Genevay, A., Cuturi, M., Peyré, G. & Bach, F. (2016) Stochastic Optimization for Large-scale Optimal Transport. Advances in Neural Information Processing Systems (2016).

[19] Seguy, V., Bhushan Damodaran, B., Flamary, R., Courty, N., Rolet, A.& Blondel, M. Large-scale Optimal Transport and Mapping Estimation. International Conference on Learning Representation (2018)

[20] Cuturi, M. and Doucet, A. (2014) Fast Computation of Wasserstein Barycenters. International Conference in Machine Learning

[21] Solomon, J., De Goes, F., Peyré, G., Cuturi, M., Butscher, A., Nguyen, A. & Guibas, L. (2015). Convolutional wasserstein distances: Efficient optimal transportation on geometric domains. ACM Transactions on Graphics (TOG), 34(4), 66.

[22] J. Altschuler, J.Weed, P. Rigollet, (2017) Near-linear time approximation algorithms for optimal transport via Sinkhorn iteration, Advances in Neural Information Processing Systems (NIPS) 31

[23] Aude, G., Peyré, G., Cuturi, M., 使用 Sinkhorn 散度学习生成模型(Learning Generative Models with Sinkhorn Divergences),第二十一届人工智能与统计国际会议(AISTATS)21,2018

[24] Vayer, T., Chapel, L., Flamary, R., Tavenard, R. 和 Courty, N. (2019). 面向结构化数据的最优传输及其在图上的应用(Optimal Transport for structured data with application on graphs),第三十六届国际机器学习会议(ICML)论文集。

[25] Frogner C., Zhang C., Mobahi H., Araya-Polo M., Poggio T. (2015). 使用 Wasserstein 损失进行学习(Learning with a Wasserstein Loss),神经信息处理系统进展(NIPS)。

[26] Alaya M. Z., Bérar M., Gasso G., Rakotomamonjy A. (2019). 正则化最优传输的筛选 Sinkhorn 算法(Screening Sinkhorn Algorithm for Regularized Optimal Transport),神经信息处理系统进展 33(NeurIPS)。

[27] Redko I., Courty N., Flamary R., Tuia D. (2019). 目标偏移下多源域自适应的最优传输方法(Optimal Transport for Multi-source Domain Adaptation under Target Shift),第二十二届人工智能与统计国际会议(AISTATS)22,2019。

[28] Caffarelli, L. A., McCann, R. J. (2010). 最优传输中的自由边界与 Monge-Ampère 障碍问题(Free boundaries in optimal transport and Monge-Ampere obstacle problems),《数学年刊》(Annals of mathematics),673–730。

[29] Chapel, L., Alaya, M., Gasso, G. (2020). 部分最优传输及其在正样本-未标记学习中的应用(Partial Optimal Transport with Applications on Positive-Unlabeled Learning),神经信息处理系统进展(NeurIPS),2020。

[30] Flamary R., Courty N., Tuia D., Rakotomamonjy A. (2014). 带拉普拉斯正则化的最优传输:在域自适应和形状匹配中的应用(Optimal transport with Laplacian regularization: Applications to domain adaptation and shape matching),NIPS 最优传输与机器学习研讨会(OTML),2014。

[31] Bonneel, Nicolas 等人。测度的切片与 Radon Wasserstein 质心(Sliced and radon wasserstein barycenters of measures),《数学成像与视觉期刊》(Journal of Mathematical Imaging and Vision)51.1 (2015): 22–45。

[32] Huang, M., Ma S., Lai, L. (2021). 计算投影鲁棒 Wasserstein 距离的黎曼块坐标下降法(A Riemannian Block Coordinate Descent Method for Computing the Projection Robust Wasserstein Distance),第三十八届国际机器学习会议(ICML)论文集。

[33] Kerdoncuff T., Emonet R., Marc S. 采样 Gromov-Wasserstein(Sampled Gromov Wasserstein),《机器学习期刊》(Machine Learning Journal, MJL),2021。

[34] Feydy, J., Séjourné, T., Vialard, F. X., Amari, S. I., Trouvé, A., & Peyré, G. (2019 年 4 月). 利用 Sinkhorn 散度在最优传输与 MMD 之间插值(Interpolating between optimal transport and MMD using Sinkhorn divergences)。第二十二届人工智能与统计国际会议(AISTATS)(第 2681–2690 页)。PMLR。

[35] Deshpande, I., Hu, Y. T., Sun, R., Pyrros, A., Siddiqui, N., Koyejo, S., ... & Schwing, A. G. (2019). 最大切片 Wasserstein 距离及其在 GAN 中的应用(Max-sliced wasserstein distance and its use for gans)。IEEE/CVF 计算机视觉与模式识别会议论文集(第 10648–10656 页)。

[36] Liutkus, A., Simsekli, U., Majewski, S., Durmus, A., & Stöter, F. R. (2019 年 5 月). 切片-Wasserstein 流:通过最优传输与扩散实现的非参数生成建模(Sliced-Wasserstein flows: Nonparametric generative modeling via optimal transport and diffusions)。国际机器学习会议(第 4104–4113 页)。PMLR。

[37] Janati, H., Cuturi, M., Gramfort, A. 去偏 Sinkhorn 质心(Debiased sinkhorn barycenters),第三十七届国际机器学习会议论文集,PMLR 119:4692–4701,2020。

[38] C. Vincent-Cuaz, T. Vayer, R. Flamary, M. Corneli, N. Courty, 在线图字典学习(Online Graph Dictionary Learning),国际机器学习会议(ICML),2021。

[39] Gozlan, N., Roberto, C., Samson, P. M., & Tetali, P. (2017). 一般传输代价的 Kantorovich 对偶理论及其应用(Kantorovich duality for general transport costs and applications)。《泛函分析杂志》(Journal of Functional Analysis),273(11),3327–3405。

[40] Forrow, A., Hütter, J. C., Nitzan, M., Rigollet, P., Schiebinger, G., & Weed, J. (2019 年 4 月). 基于分解耦合的统计最优传输(Statistical optimal transport via factored couplings)。第二十二届人工智能与统计国际会议(第 2454–2465 页)。PMLR。

[41] Chapel*, L., Flamary*, R., Wu, H., Févotte, C., Gasso, G. (2021). 通过非负惩罚线性回归实现的不平衡最优传输(Unbalanced Optimal Transport through Non-negative Penalized Linear Regression),神经信息处理系统进展(NeurIPS),2020。(前两位作者并列第一)

[42] Delon, J., Gozlan, N., and Saint-Dizier, A. 定义在不同子空间上的概率测度之间的广义 Wasserstein 质心(Generalized Wasserstein barycenters between probability measures living on different subspaces)。arXiv 预印本 arXiv:2105.09755,2021。

[43] Álvarez-Esteban, Pedro C. 等人。Wasserstein 空间中质心的不动点方法(A fixed-point approach to barycenters in Wasserstein space)。《数学分析与应用杂志》(Journal of Mathematical Analysis and Applications)441.2 (2016): 744–762。

[44] Delon, Julie, Julien Salomon, and Andrei Sobolevski. 圆环上 Monge 代价的快速传输优化(Fast transport optimization for Monge costs on the circle)。《SIAM 应用数学杂志》(SIAM Journal on Applied Mathematics)70.7 (2010): 2239–2258。

[45] Hundrieser, Shayan, Marcel Klatt, and Axel Munk. 圆形最优传输的统计学(The statistics of circular optimal transport)。《方向统计学在创新应用中的应用:纪念弗洛伦斯·南丁格尔诞辰二百周年》。新加坡:Springer Nature Singapore,2022。57–82。

[46] Bonet, C., Berg, P., Courty, N., Septier, F., Drumetz, L., & Pham, M. T. (2023). 球面切片 Wasserstein(Spherical Sliced-Wasserstein)。国际学习表征会议(ICLR)。

[47] Chowdhury, S., & Mémoli, F. (2019). 网络间的 Gromov–Wasserstein 距离与稳定网络不变量(The gromov–wasserstein distance between networks and stable network invariants)。《IMA 信息与推断期刊》(Information and Inference: A Journal of the IMA),8(4),757–787。

[48] Cédric Vincent-Cuaz, Rémi Flamary, Marco Corneli, Titouan Vayer, Nicolas Courty (2022). 半松弛 Gromov-Wasserstein 散度及其在图上的应用(Semi-relaxed Gromov-Wasserstein divergence and applications on graphs)。国际学习表征会议(ICLR),2022。

[49] Redko, I., Vayer, T., Flamary, R., 和 Courty, N. (2020). CO-Optimal Transport(协同最优传输). Advances in Neural Information Processing Systems, 33.

[50] Liu, T., Puigcerver, J., & Blondel, M. (2023). Sparsity-constrained optimal transport(稀疏约束最优传输). Proceedings of the Eleventh International Conference on Learning Representations (ICLR).

[51] Xu, H., Luo, D., Zha, H., & Carin, L. (2019). Gromov-Wasserstein learning for graph matching and node embedding(用于图匹配与节点嵌入的 Gromov-Wasserstein 学习). In International Conference on Machine Learning (ICML), 2019.

[52] Collas, A., Vayer, T., Flamary, F., & Breloy, A. (2023). Entropic Wasserstein Component Analysis(熵正则化 Wasserstein 成分分析). ArXiv.

[53] C. Vincent-Cuaz, R. Flamary, M. Corneli, T. Vayer, N. Courty (2022). Template based graph neural network with optimal transport distances(基于模板并使用最优传输距离的图神经网络). Advances in Neural Information Processing Systems, 35.

[54] Bécigneul, G., Ganea, O. E., Chen, B., Barzilay, R., & Jaakkola, T. S. (2020). Optimal transport graph neural networks(最优传输图神经网络).

[55] Ronak Mehta, Jeffery Kline, Vishnu Suresh Lokhande, Glenn Fung, & Vikas Singh (2023). Efficient Discrete Multi Marginal Optimal Transport Regularization(高效的离散多边缘最优传输正则化). In The Eleventh International Conference on Learning Representations (ICLR).

[56] Jeffery Kline. Properties of the d-dimensional earth mover’s problem(d 维推土机问题的性质). Discrete Applied Mathematics, 265: 128–141, 2019.

[57] Delon, J., Desolneux, A., & Salmona, A. (2022). Gromov–Wasserstein distances between Gaussian distributions(高斯分布间的 Gromov–Wasserstein 距离). Journal of Applied Probability, 59(4), 1178-1198.

[58] Paty F-P., d’Aspremont 1., & Cuturi M. (2020). Regularity as regularization: Smooth and strongly convex Brenier potentials in optimal transport(正则性作为正则化:最优传输中的光滑强凸 Brenier 势). In International Conference on Artificial Intelligence and Statistics, pages 1222–1232. PMLR, 2020.

[59] Taylor A. B. (2017). Convex interpolation and performance estimation of first-order methods for convex optimization(凸插值与凸优化一阶方法的性能估计). PhD thesis, Catholic University of Louvain, Louvain-la-Neuve, Belgium, 2017.

[60] Feydy, J., Roussillon, P., Trouvé, A., & Gori, P. (2019). Fast and scalable optimal transport for brain tractograms(用于脑纤维束图的快速可扩展最优传输). In Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, October 13–17, 2019, Proceedings, Part III 22 (pp. 636-644). Springer International Publishing.

[61] Charlier, B., Feydy, J., Glaunes, J. A., Collin, F. D., & Durif, G. (2021). Kernel operations on the GPU, with autodiff, without memory overflows(在 GPU 上进行核运算,支持自动微分且无内存溢出). The Journal of Machine Learning Research, 22(1), 3457-3462.

[62] H. Van Assel, C. Vincent-Cuaz, T. Vayer, R. Flamary, N. Courty (2023). Interpolating between Clustering and Dimensionality Reduction with Gromov-Wasserstein(利用 Gromov-Wasserstein 在聚类与降维之间插值). NeurIPS 2023 Workshop Optimal Transport and Machine Learning.

[63] Li, J., Tang, J., Kong, L., Liu, H., Li, J., So, A. M. C., & Blanchet, J. (2022). A Convergent Single-Loop Algorithm for Relaxation of Gromov-Wasserstein in Graph Data(图数据中 Gromov-Wasserstein 松弛的收敛单循环算法). In The Eleventh International Conference on Learning Representations.

[64] Ma, X., Chu, X., Wang, Y., Lin, Y., Zhao, J., Ma, L., & Zhu, W. (2023). Fused Gromov-Wasserstein Graph Mixup for Graph-level Classifications(用于图级别分类的融合 Gromov-Wasserstein 图 Mixup). In Thirty-seventh Conference on Neural Information Processing Systems.

[65] Scetbon, M., Cuturi, M., & Peyré, G. (2021). Low-Rank Sinkhorn Factorization(低秩 Sinkhorn 分解).

[66] Pooladian, Aram-Alexandre, and Jonathan Niles-Weed. Entropic estimation of optimal transport maps(最优传输映射的熵估计). arXiv preprint arXiv:2109.12004 (2021).

[67] Scetbon, M., Peyré, G. & Cuturi, M. (2022). Linear-Time Gromov-Wasserstein Distances using Low Rank Couplings and Costs(利用低秩耦合与代价的线性时间 Gromov-Wasserstein 距离). In International Conference on Machine Learning (ICML), 2022.

[68] Chowdhury, S., Miller, D., & Needham, T. (2021). Quantized Gromov-Wasserstein(量化 Gromov-Wasserstein). ECML PKDD 2021. Springer International Publishing.

[69] Delon, J., & Desolneux, A. (2020). A Wasserstein-type distance in the space of Gaussian mixture models(高斯混合模型空间中的 Wasserstein 型距离). SIAM Journal on Imaging Sciences, 13(2), 936-970.

[70] A. Thual, H. Tran, T. Zemskova, N. Courty, R. Flamary, S. Dehaene & B. Thirion (2022). Aligning individual brains with Fused Unbalanced Gromov-Wasserstein(使用融合非平衡 Gromov-Wasserstein 对齐个体大脑). Neural Information Processing Systems (NeurIPS).

[71] H. Tran, H. Janati, N. Courty, R. Flamary, I. Redko, P. Demetci & R. Singh (2023). Unbalanced Co-Optimal Transport(非平衡协同最优传输). AAAI Conference on Artificial Intelligence.

[72] Thibault Séjourné, François-Xavier Vialard, and Gabriel Peyré (2021). The Unbalanced Gromov Wasserstein Distance: Conic Formulation and Relaxation(非平衡 Gromov-Wasserstein 距离:锥形公式与松弛). Neural Information Processing Systems (NeurIPS).

[73] Séjourné, T., Vialard, F. X., & Peyré, G. (2022). Faster Unbalanced Optimal Transport: Translation Invariant Sinkhorn and 1-D Frank-Wolfe(更快的非平衡最优传输:平移不变 Sinkhorn 与一维 Frank-Wolfe). In International Conference on Artificial Intelligence and Statistics (pp. 4995-5021). PMLR.

[74] Chewi, S., Maunu, T., Rigollet, P., & Stromme, A. J. (2020). Gradient descent algorithms for Bures-Wasserstein barycenters(Bures-Wasserstein 质心的梯度下降算法). In Conference on Learning Theory (pp. 1276-1304). PMLR.

[75] Altschuler, J., Chewi, S., Gerber, P. R., & Stromme, A. (2021). Averaging on the Bures-Wasserstein manifold: dimension-free convergence of gradient descent(Bures-Wasserstein 流形上的平均:梯度下降的维度无关收敛性). Advances in Neural Information Processing Systems, 34, 22132-22145.

[76] Chapel, L., Tavenard, R. (2025). One for all and all for one: Efficient computation of partial Wasserstein distances on the line(一即一切,一切即一:直线上偏 Wasserstein 距离的高效计算). In International Conference on Learning Representations.

[77] Tanguy, Eloi 和 Delon, Julie 和 Gozlan, Nathaël (2024). Computing Barycentres of Measures for Generic Transport Costs(通用传输代价下测度的重心计算). arXiv 预印本 2501.04016 (2024)

[78] Martin, R. D., Medri, I., Bai, Y., Liu, X., Yan, K., Rohde, G. K., & Kolouri, S. (2024). LCOT: Linear Circular Optimal Transport(线性圆形最优传输). 国际学习表征会议(International Conference on Learning Representations).

[79] Liu, X., Bai, Y., Martín, R. D., Shi, K., Shahbazi, A., Landman, B. A., Chang, C., & Kolouri, S. (2025). Linear Spherical Sliced Optimal Transport: A Fast Metric for Comparing Spherical Data(线性球面切片最优传输:一种用于比较球面数据的快速度量). 国际学习表征会议(International Conference on Learning Representations).

[80] Altschuler, J., Bach, F., Rudi, A., Niles-Weed, J., Massively scalable Sinkhorn distances via the Nyström method(通过 Nyström 方法实现大规模可扩展的 Sinkhorn 距离), 神经信息处理系统进展(Advances in Neural Information Processing Systems), 2019.

[81] Xu, H., Luo, D., & Carin, L. (2019). Scalable Gromov-Wasserstein learning for graph partitioning and matching(用于图划分与匹配的可扩展 Gromov-Wasserstein 学习). 神经信息处理系统会议(Neural Information Processing Systems, NeurIPS).

[82] Bonet, C., Nadjahi, K., Séjourné, T., Fatras, K., & Courty, N. (2024). Slicing Unbalanced Optimal Transport(切片非平衡最优传输). 机器学习研究汇刊(Transactions on Machine Learning Research).

版本历史

0.9.6.post12025/09/22
0.9.62025/09/19
0.9.52024/11/07
0.9.42024/06/26
0.9.32024/01/12
0.9.22023/12/22
0.9.12023/08/09
0.9.02023/04/07
0.8.22022/04/21
0.8.1.02021/12/31
0.8.12021/12/27
0.8.02021/11/05
0.7.02020/05/05
0.7.0-beta02020/04/23
0.6.02019/09/10
0.5.02018/10/03
0.4.02017/09/20
0.42017/09/15
0.3.12017/07/11
0.32017/07/07

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架