awesome-uncertainty-deeplearning
awesome-uncertainty-deeplearning 是一个专注于深度学习预测不确定性估计的开源资源合集。在人工智能应用中,模型不仅要知道“答案是什么”,更需要清楚“自己有多确定”。该项目正是为了解决这一关键问题而生,它系统性地整理了关于如何量化和评估深度学习模型不确定性的前沿成果,帮助开发者识别模型的置信度,从而有效应对误分类、异常检测及分布外数据等挑战。
这份资源库非常适合 AI 研究人员、算法工程师以及对模型可靠性有高要求的技术团队使用。无论是从事自动驾驶、医疗影像分析,还是自然语言处理领域的专家,都能从中找到针对性的理论支持与代码实现。其独特的技术亮点在于分类极其详尽,涵盖了从贝叶斯方法、集成学习、证据深度学习,到最新的多模态与生成式 AI 不确定性量化等多个维度。此外,项目还收录了相关的综述论文、数据集、基准测试、主流框架(如 PyTorch、TensorFlow)的代码库以及教学教程。通过提供一站式的知识导航,awesome-uncertainty-deeplearning 极大地降低了该领域的研究门槛,是构建更安全、更可信人工智能系统的重要参考指南。
使用场景
某自动驾驶初创团队的算法工程师正在优化感知模型,急需让车辆在面对罕见路况或传感器故障时,能准确判断自身预测的可信度,以避免盲目决策引发事故。
没有 awesome-uncertainty-deeplearning 时
- 文献调研如大海捞针:团队需手动在 arXiv 和谷歌学术中筛选“不确定性估计”相关论文,难以区分贝叶斯方法、集成学习或证据深度学习等不同技术路线的优劣。
- 复现成本极高:找到理论后,往往找不到对应的开源代码或标准数据集,工程师需从零编写复杂的采样或校准逻辑,耗时数周且容易出错。
- 评估指标缺失:缺乏统一的校准误差(ECE)或误分类检测基准,导致无法量化模型在“未知场景”下的表现,只能凭经验瞎猜。
- 技术选型盲目:由于缺乏系统的综述对比,团队可能选用了不适合实时推理的重型方法,导致车载芯片算力不足。
使用 awesome-uncertainty-deeplearning 后
- 技术路线一目了然:直接查阅库中分类清晰的综述(Surveys)和理论(Theory)板块,快速锁定了适合车载环境的“基于 Dropout 的采样方法”。
- 代码与数据即取即用:通过 Libraries 和 Datasets 章节,直接集成了成熟的 PyTorch 实现和专用基准测试,将原型开发周期从数周缩短至两天。
- 评估体系标准化:利用库中推荐的 Calibration/Evaluation-Metrics 工具,建立了科学的不确定性量化指标,精准识别出模型在雨雾天气的低置信度区域。
- 应用案例有章可循:参考 Object detection 和 Domain adaptation 等具体应用场景的论文,成功将不确定性模块迁移到现有的目标检测模型中,提升了系统安全性。
awesome-uncertainty-deeplearning 将分散的前沿研究转化为结构化的工程资产,帮助开发者低成本地为深度学习模型装上“自知之明”的安全阀。
运行环境要求
- 未说明
未说明
未说明

快速开始
深度学习中的不确定性精选
本仓库汇集了关于不确定性与深度学习的优秀论文、代码、书籍和博客。
:star: 欢迎点赞和 fork。 :star:
如果您认为我们遗漏了某篇论文,请提交 pull request 或在对应的 GitHub 讨论区 中留言。请告知文章的发表地点和时间,并提供 GitHub 和 ArXiv 链接(如有)。
我们也欢迎任何改进建议!
目录
- 深度学习中的不确定性精选
- 论文
- 综述
- 理论
- 贝叶斯方法
- 集成方法
- 基于采样/丢弃的方法
- 事后方法/辅助网络
- 数据增强/生成方法
- 输出空间建模/证据深度学习
- 确定性不确定性方法
- 分位数回归/预测区间
- 一致性预测
- 校准/评估指标
- 误分类检测与选择性分类
- 异常检测与分布外检测
- 不确定性来源及随机性和认知性不确定性的解耦
- [多模态模型与生成式 AI 中的不确定性量化](#多模态模型与生成式 AI 中的不确定性量化)
- 应用
- 数据集与基准测试
- 库
- 讲座与教程
- 书籍
- 其他资源
论文
综述
会议
- 不确定性解耦基准测试:针对特定任务的专业化不确定性 [NeurIPS2024 - [PyTorch]
- 自动驾驶应用中深度学习组件中不确定性估计方法的比较 [AISafety Workshop 2020]
期刊
- 深度神经网络中的不确定性综述 [Artificial Intelligence Review 2023] - [GitHub]
- 先验网络与后验网络:证据深度学习方法在不确定性估计中的综述 [TMLR2023]
- 从贝叶斯视角看深度学习分类系统中的不确定性估计综述 [ACM2021]
- 集成深度学习:综述 [Engineering Applications of AI 2021]
- 深度学习中不确定性量化综述:技术、应用与挑战 [Information Fusion 2021]
- 机器学习中的随机性和认知性不确定性:概念与方法导论 [Machine Learning 2021]
- 使用 jackknife+ 进行预测推断 [The Annals of Statistics 2021]
- 大数据分析中的不确定性:综述、机遇与挑战 [Journal of Big Data 2019]
Arxiv
- 机器人技术中分布外数据的系统级视角 [arXiv2022]
- 决策制定中不确定性推理与量化综述:信念理论与深度学习的结合 [arXiv2022]
理论
会议
- 在贝叶斯优化中探索与利用模型不确定性 [NeurIPS2025]
- 深度集成与(变分)贝叶斯方法之间的严格联系 [NeurIPS2023]
- 朝着理解深度学习中的集成、知识蒸馏和自蒸馏迈进 [ICLR2023]
- 揭秘彩票假设:获胜彩票的掩码中编码了什么? [ICLR2023]
- 概率对比学习能够恢复模糊输入的正确随机性不确定性 [ICML2023] - [PyTorch]
- 关于用于认识论不确定性量化的二阶评分规则 [ICML2023]
- 神经变分梯度下降 [AABI2022]
- 顶标签及多分类到二分类的约简 [ICLR2022]
- 贝叶斯模型选择、边际似然与泛化能力 [ICML2022]
- 对任何人都不怀恶意:通过均衡覆盖评估不确定性 [AIES 2021]
- 通过集成实现梯度提升树的不确定性估计 [ICLR2021] - [PyTorch]
- 排斥型深度集成是贝叶斯式的 [NeurIPS2021] - [PyTorch]
- 高维输出的贝叶斯优化 [NeurIPS2021]
- 用于软等变约束的残差路径先验 [NeurIPS2021]
- 特征分布漂移下贝叶斯模型平均的风险 [NeurIPS2021] - [TensorFlow]
- 回归任务主动学习中学习损失的数学分析 [CVPR Workshop2021]
- 为什么自助抽样的深度集成并不更好? [NeurIPS Workshop]
- 深度卷积网络作为浅层高斯过程 [ICLR2019]
- 影响函数在衡量群体效应方面的准确性 [NeurIPS2018]
- 是否信任分类器 [NeurIPS2018] - [Python]
- 理解用于对抗样本检测的不确定性度量 [UAI2018]
期刊
- 鞅后验分布 [Royal Statistical Society Series B]
- 集成学习中多样性的统一理论 [JMLR2023] -深度学习中的多元不确定性 [TNNLS2021]
- 深度学习中不确定性估计的一般框架 [RAL2020]
- 自适应非参数置信集 [Ann. Statist. 2006]
Arxiv
- 用于不确定性估计的集成:先验函数与自助抽样的优势 [arXiv2022]
- 用于回归任务的有效高斯神经过程 [arXiv2021]
- 密集型不确定性估计 [arXiv2021] - [PyTorch]
- 一种高阶瑞士军刀式无穷小刀切法 [arXiv2019]
贝叶斯方法
会议
- 在分布偏移存在下的不确定性量化 [NeurIPS2025]
- 使用稀疏子空间变分推断训练贝叶斯神经网络 [ICLR2024]
- 变分贝叶斯最后一层 [ICLR2024]
- 一种对称性感知的贝叶斯神经网络后验探索 [ICLR2024]
- 不止于单模态:面向多模态不确定性估计的神经过程泛化 [NeurIPS2023]
- 基于不确定性的无监督视频哈希 [AISTATS2023] - [PyTorch]
- 基于梯度的不确定性归因用于可解释的贝叶斯深度学习 [CVPR2023]
- 预训练贝叶斯神经网络中的抗噪声鲁棒性 [ICLR2023]
- 不止于深度集成:分布偏移下贝叶斯深度学习的大规模评估 [NeurIPS2023] - [PyTorch]
- Transformer 可以进行贝叶斯推断 [ICLR2022] - [PyTorch]
- 多视图数据的不确定性估计:看清全局的力量 [NeurIPS2022]
- 关于近似贝叶斯推断中的批归一化 [AABI2021]
- 深度神经网络中的激活级不确定性 [ICLR2021]
- 拉普拉斯重装上阵——轻松实现贝叶斯深度学习 [NeurIPS2021] - [PyTorch]
- 量化对贝叶斯神经网络模型不确定性的影响 [UAI2021]
- 拉普拉斯近似下的可学习不确定性 [UAI2021]
- 具有软证据的贝叶斯神经网络 [ICML Workshop2021] - [PyTorch]
- TRADI:追踪深度神经网络权重分布以进行不确定性估计 [ECCV2020] - [PyTorch]
- 深度神经网络中的贝叶斯后验究竟有多好?[ICML2020]
- 基于秩-1因子的高效可扩展贝叶斯神经网络 [ICML2020] - [TensorFlow]
- 即使只是稍微采用贝叶斯方法,也能解决 ReLU 网络中的过度自信问题 [ICML2020] - [PyTorch]
- 贝叶斯深度学习与泛化的概率视角 [NeurIPS2020]
- 深度学习中贝叶斯不确定性的简单基线 [NeurIPS2019] - [PyTorch] - [TorchUncertainty]
- 批归一化深度网络的贝叶斯不确定性估计 [ICML2018] - [TensorFlow] - [TorchUncertainty]
- 轻量级概率深度网络 [CVPR2018] - [PyTorch]
- 针对神经网络的可扩展拉普拉斯近似 [ICLR2018] - [Theano]
- 贝叶斯深度学习中不确定性的分解以实现高效且风险敏感的学习 [ICML2018]
- 神经网络中的权重不确定性 [ICML2015]
期刊
- 基于采样假设检验的不确定性量化哈希 [TMLR2024] - [PyTorch]
- 贝叶斯神经网络中解析可处理的隐状态推断 [JMLR2024]
- 为不确定性量化编码贝叶斯神经网络的潜在后验 [TPAMI2023] - [PyTorch]
- 低层视觉中不确定性的贝叶斯建模 [IJCV1990]
Arxiv
- 用于可靠不确定性估计的密度不确定性层 [arXiv2023]
集成方法
会议
- 神经网络集成的输入梯度空间粒子推断 [ICLR2024]
- 基于扩散薛定谔桥的快速集成 [ICLR2024]
- 深度集成中预测多样性的病理问题 [ICLR2024]
- 模型拉塔图伊:复用多样化模型以实现分布外泛化 [ICML2023]
- 基于随机集成的贝叶斯后验近似 [CVPR2023]
- 用于丰富偶然性和认知不确定性建模的归一化流集成 [AAAI2023]
- 基于窗口的早期退出级联用于不确定性估计:当深度集成比单个模型更高效时 [ICCV2023] - [PyTorch]
- 加权集成自监督学习 [ICLR2023]
- 同意不同意:通过分歧实现多样性以提升迁移能力 [ICLR2023] - [PyTorch]
- 用于高效不确定性估计的打包集成 [ICLR2023] - [TorchUncertainty]
- 用于神经网络中快速不确定性估计的子集成 [ICCV Workshop2023]
- 剪枝与调优集成:利用稀疏独立子网络进行低成本集成学习 [AAAI2022]
- 深度集成有效,但真的必要吗?[NeurIPS2022]
- FiLM集成:通过逐特征线性调制实现概率深度学习 [NeurIPS2022]
- 深度集成无需额外训练或测试开销:动态稀疏性的全方位优势 [ICLR2022] - [PyTorch]
- 关于深度集成多样性在分布外检测中的有用性 [ECCV Workshop2022]
- 用于不确定性估计的Masksembles [CVPR2021] - [PyTorch/TensorFlow]
- 通过跨域集成提升鲁棒性 [ICCV2021] - [PyTorch]
- 通过集成实现梯度提升树的不确定性 [ICLR2021] - [PyTorch]
- 不确定性量化与深度集成 [NeurIPS2021]
- 最大化整体多样性以改进深度集成中的不确定性估计 [AAAI2020]
- 神经网络中的不确定性:近似贝叶斯集成 [AISTATS2020]
- 深度学习中域内不确定性估计和集成的陷阱 [ICLR2020] - [PyTorch]
- BatchEnsemble:一种高效的集成与终身学习替代方案 [ICLR2020] - [TensorFlow] - [TorchUncertainty]
- 用于鲁棒性和不确定性量化的超参数集成 [NeurIPS2020]
- 基于神经切触核的贝叶斯深度集成 [NeurIPS2020]
- 多样性与合作:用于少样本分类的集成方法 [ICCV2019]
- 集成学习中准确的不确定性估计与分解 [NeurIPS2019]
- 深度学习的高质量预测区间:无分布假设的集成方法 [ICML2018] - [TensorFlow]
- 快照集成:训练一次,免费获得M个模型 [ICLR2017] - [TorchUncertainty]
- 使用深度集成进行简单且可扩展的预测不确定性估计 [NeurIPS2017] - [TorchUncertainty]
期刊
- 一对一与多对一用于深度神经网络不确定性(OVNNI)量化 [IEEE Access2021]
Arxiv
- 分割集成:通过任务和模型分割实现高效的OOD感知集成 [arXiv2023]
- 深度集成作为高斯过程近似后验 [arXiv2022]
- 顺序贝叶斯神经子网络集成 [arXiv2022]
- 带有自助法深度集成的置信神经网络回归 [arXiv2022] - [TensorFlow]
- 基于集成的条件潜在变量模型实现密集不确定性估计 [arXiv2021]
- 深度集成:从损失景观的角度看 [arXiv2019]
- 检查点集成:来自单一训练过程的集成方法 [arXiv2017] - [TorchUncertainty]
基于采样/丢弃的方法
会议
- Rate-In:信息驱动的自适应丢弃率,用于改进推理时的不确定性估计 [CVPR2025] - [PyTorch]
- 在迭代神经网络中实现不确定性估计 [ICML2024] - [Pytorch]
- 让我成为BNN:从预训练模型中估计贝叶斯不确定性的简单策略 [CVPR2024] - [TorchUncertainty]
- 用于密集回归的免训练不确定性估计:以敏感性作为替代指标 [AAAI2022]
- nnU-Net的高效贝叶斯不确定性估计 [MICCAI2022]
- 开放集条件下鲁棒目标检测的丢弃采样 [ICRA2018]
- 深度神经网络中异方差随机不确定性的测试时数据增强估计 [MIDL2018]
- 具体丢弃 [NeurIPS2017]
- 丢弃作为贝叶斯近似:在深度学习中表示模型不确定性 [ICML2016] - [TorchUncertainty]
期刊
- 深度学习中不确定性估计的一般框架 [Robotics and Automation Letters2020]
Arxiv
- SoftDropConnect (SDC) – 有效且高效的深度MR图像分析中网络不确定性的量化 [arXiv2022]
后处理方法/辅助网络
会议
- 关于温度缩放在具有重叠分布上的局限性 [ICLR2024]
- 使用狄利克雷元模型进行后处理不确定性学习 [AAAI2023] - [PyTorch]
- ProbVLM:用于冻结视觉-语言模型的概率适配器 [ICCV2023]
- 单目深度估计中的分布外检测 [ICCV2023]
- 利用高斯过程模型检测神经网络中的误分类错误 [AAAI2022]
- 学习结构化高斯分布以近似深度集成 [CVPR2022]
- 提高置信度估计的可靠性 [ECCV2022]
- 基于梯度的单目深度估计不确定性 [ECCV2022] - [PyTorch]
- BayesCap:用于冻结神经网络校准不确定性的贝叶斯身份帽 [ECCV2022] - [PyTorch]
- 面向自动驾驶的安全语义分割不确定性学习 [ICIP2022]
- SLURP:回归问题的侧向不确定性学习 [BMVC2021] - [PyTorch]
- 触发故障:通过学习语义分割中的局部对抗攻击进行分布外检测 [ICCV2021] - [PyTorch]
- 学习预测MRI重建误差 [MICCAI2021]
- 回归主动学习中学习损失的数学分析 [CVPR Workshop2021]
- 通过不确定性感知的分布蒸馏实现实时计算机视觉不确定性估计 [WACV2021]
- 自监督单目深度估计的不确定性 [CVPR2020] - [PyTorch]
- 通过带有I/O核的残差估计量化神经网络中的点预测不确定性 [ICLR2020] - [TensorFlow]
- 梯度作为神经网络不确定性的一种度量 [ICIP2020]
- 测试时增强的学习损失 [NeurIPS2020]
- 主动学习的学习损失 [CVPR2019] - [PyTorch](非官方代码)
- 通过学习模型置信度来应对故障预测 [NeurIPS2019] - [PyTorch]
- 结构化不确定性预测网络 [CVPR2018] - [TensorFlow]
- 基于梯度信息的深度神经网络分类不确定性 [IAPR Workshop2018]
期刊
- 朝着更可靠的置信度估计方向 [TPAMI2023]
- 通过辅助模型进行置信度估计 [TPAMI2021]
Arxiv
- 针对分布外目标分割的实例感知观察者网络 [arXiv2022]
- DEUP:直接的认识论不确定性预测 [arXiv2020]
- 神经网络中用于分布外检测的置信度学习 [arXiv2018]
数据增强/基于生成的方法
会议
- 使用数据增强的神经网络后验不确定性量化 [AISTATS2024]
- 学习生成用于鲁棒语义分割的训练数据集 [WACV2024]
- OpenMix:探索异常样本以检测误分类 [CVPR2023] - [PyTorch]
- 关于 Mixup 在不确定性估计中的陷阱 [CVPR2023]
- 针对不确定性估计的多样化、全局性和摊销型反事实解释 [AAAI2022]
- 基于隐式异常值变换的分布外检测 [ICLR2023] - [PyTorch]
- PixMix:如梦似幻的图像全面提升安全措施 [CVPR2022]
- 拆解分布外检测:许多基于 OOD 训练数据的方法都在估计相同的核心量的组合 [ICML2022]
- RegMixup:作为正则化的 Mixup 可以惊人地提高准确性和分布外鲁棒性 [NeurIPS2022] - [PyTorch]
- 朝着 MIMO 架构中高效的特征共享方向发展 [CVPR Workshop2022]
- 基于超像素混合的鲁棒语义分割 [BMVC2021] - [PyTorch]
- MixMo:通过深度子网络实现多输入到多输出的混合 [ICCV2021] - [PyTorch]
- 训练独立子网络以实现鲁棒预测 [ICLR2021]
- 以多样性和不确定性意识来正则化变分自编码器 [IJCAI2021] - [PyTorch]
- 具有自适应损失的不确定性感知 GAN,用于鲁棒的 MRI 图像增强 [ICCV Workshop2021]
- 使用生成模型的不确定性感知深度分类器 [AAAI2020]
- 先合成再比较:用于语义分割的故障和异常检测 [ECCV2020] - [PyTorch]
- 通过图像重合成检测意外情况 [ICCV2019] - [PyTorch]
- 混搭:深度学习中用于不确定性的集成与组合方法 [ICML2020]
- 基于异常暴露的深度异常检测 [ICLR2019]
- 关于 Mixup 训练:改进并预测深度神经网络的不确定性 [NeurIPS2019]
Arxiv
- 语义分割中的可靠性:我们能使用合成数据吗?[arXiv2023]
- 使用基于 GAN 的先验来量化不确定性 [arXiv2019] - [TensorFlow]
输出空间建模/证据深度学习
超赞的证据深度学习 [GitHub]
会议
- 用于可靠随机性和认知不确定性估计的邻近标签监督 [NeurIPS2025]
- 基于折扣信念融合的不确定性量化多模态学习 [AISTATS2025]
- 用于分布外检测的超观点证据深度学习 [NeurIPS2024]
- R-EDL:放松证据深度学习的非必要设置 [ICLR2024] - [PyTorch]
- 超证据深度学习用于量化复合分类不确定性 [ICLR2024]
- 可靠的冲突性多视图学习 [AAAI2024] - [Pytorch]
- 深度证据回归中的证据收缩问题:讨论与解决方案 [AAAI2024]
- 针对回归任务的鲁棒不确定性量化之离散化诱导狄利克雷后验 [AAAI2024] - [PyTorch]
- 深度证据回归的不合理有效性 [AAAI2023] - [PyTorch] - [TorchUncertainty]
- 针对不完全多视图分类的不确定性探索与利用 [CVPR2023]
- 人体姿态回归的合理不确定性 [ICCV2023] - [PyTorch]
- 基于费舍尔信息的证据深度学习进行不确定性估计 [ICML2023] - [PyTorch]
- 通过多任务学习改进证据深度学习 [AAAI2022] - [PyTorch]
- 基于随机模糊数的回归用证据神经网络模型 [BELIEF2022]
- 关于使用概率神经网络进行异方差不确定性估计的陷阱 [ICLR2022] - [PyTorch]
- 自然后验网络:针对指数族分布的深度贝叶斯不确定性 [ICLR2022] - [PyTorch]
- 通过损失最小化进行认知不确定性量化之陷阱 [NeurIPS2022]
- 使用贝叶斯深度网络进行分类的快速预测不确定性 [UAI2022] - [PyTorch]
- 评估预测不确定性估计的鲁棒性:基于狄利克雷分布的模型是否可靠? [ICML2021]
- 使用正态逆伽马混合分布进行可信的多模态回归 [NeurIPS2021]
- 深度分类器中的误分类风险与不确定性量化 [WACV2021]
- 集成分布蒸馏 [ICLR2020]
- 通过拟合先验网络实现保守的不确定性估计 [ICLR2020]
- 对类别概率采取贝叶斯态度 [ICML2020] - [PyTorch]
- 后验网络:无需OOD样本,基于密度的伪计数进行不确定性估计 [NeurIPS2020] - [PyTorch]
- 深度证据回归 [NeurIPS2020] - [TensorFlow] - [TorchUncertainty]
- 面向功能不确定性的噪声对比先验 [UAI2020]
- 朝着最大化域内与域外样本之间表示差距的方向努力 [NeurIPS Workshop2020]
- 异步时间事件预测中的不确定性 [NeurIPS2019] - [TensorFlow]
- 先验网络的反向KL散度训练:提升不确定性与对抗鲁棒性 [NeurIPS2019]
- 使用正则化证据神经网络量化分类不确定性 [AAAI FSS2019]
- 光流的不确定性估计与多假设网络 [ECCV2018] - [TensorFlow]
- 证据深度学习用于量化分类不确定性 [NeurIPS2018] - [PyTorch]
- 通过先验网络进行预测不确定性估计 [NeurIPS2018]
- 我们在面向计算机视觉的贝叶斯深度学习中需要哪些不确定性? [NeurIPS2017]
- 估计目标概率分布的均值和方差 [(ICNN1994)]
期刊
- 先验与后验网络:不确定性估计的证据深度学习方法综述 [TMLR2023]
- 基于区域的证据深度学习,用于量化不确定性并提升脑肿瘤分割的鲁棒性 [NCA2022]
- 基于Dempster-Shafer理论和深度学习的证据分类器 [Neurocomputing2021] - [TensorFlow]
- 用于语义分割的证据全卷积网络 [AppliedIntelligence2021] - [TensorFlow]
- 面向预测性不确定度估计的信息感知最大范数狄利克雷网络 [NeuralNetworks2021]
- 基于Dempster-Shafer理论的神经网络分类器 [IEEETransSMC2000]
Arxiv
- 结合不确定性量化与上下文折扣的多模态医学图像分割深度证据融合 [arXiv2023]
- 证据不确定性量化:基于方差的视角 [arXiv2023]
- 开放世界识别中基于证据模型的有效不确定性估计 [arXiv2022]
- 多变量深度证据回归 [arXiv2022]
- 回归先验网络 [arXiv2020]
- 用于分布外检测的变分狄利克雷框架 [arXiv2019]
- 深度学习中的不确定性估计及其在口语评估中的应用 [PhDThesis2019]
- 抑制型softmax用于神经网络中的不确定性估计 [arXiv2018]
- 通过深度狄利克雷混合网络量化分类中的内在不确定性 [arXiv2018]
确定性-不确定性方法
会议
- 不确定性量化的率失真视角 [ICML2024] - [Tensorflow]
- 深度确定性不确定性:一个简单的基线 [CVPR2023] - [PyTorch]
- 基于马氏距离的高斯潜在表示,用于深度分类器中的不确定性估计 [ICCV Workshop2023] - [PyTorch]
- 使用属性原型网络进行不确定性估计的简单且可解释的方法 [ICCV Workshop2023]
- 确定性不确定性方法的训练、架构与先验设置 [ICLR Workshop2023] - [PyTorch]
- 潜在判别式确定性不确定性 [ECCV2022] - [PyTorch]
- 关于确定性认识论不确定性实用性的一些思考 [ICML2022]
- 改进深度学习中用于分类与回归的确定性不确定性估计 [CoRR2021]
- 使用单个深度确定性神经网络进行不确定性估计 [ICML2020] - [PyTorch]
- 利用信息瓶颈对归一化流进行训练,以实现具有竞争力的生成式分类 [NeurIPS2020]
- 通过距离感知实现简单而原则性的确定性深度学习不确定性估计 [NeurIPS2020]
- 重新审视一对多分类器在神经网络中的预测性不确定性及分布外检测中的应用 [ICML Workshop2020]
- 使用近似方差传播进行无采样式的认识论不确定性估计 [ICCV2019] - [PyTorch]
- 深度学习中的单模型不确定性 [NeurIPS2019] - [PyTorch]
期刊
- ZigZag:通过两步推理实现的通用无采样不确定性估计 [TMLR2024] - [Pytorch]
- 表征空间中的密度估计 [EDSMLS2020]
Arxiv
- 神经网络激活中的隐藏不确定性 [arXiv2020]
- 对比学习中不确定性的简单框架 [arXiv2020]
- 基于距离的神经网络分类器置信度分数 [arXiv2017]
分位数回归/预测区间
会议
- 基于无分布假设的不确定性量化及其在图像处理中的应用的图像到图像回归 [ICML2022] - [PyTorch]
- 预测区间:基于质量驱动的深度集成模型的分裂正态混合模型 [UAI2020] - [PyTorch]
- 具有有效且自适应覆盖率的分类任务 [NeurIPS2020]
- 深度学习中的单模型不确定性 [NeurIPS2019] - [PyTorch]
- 高质量的深度学习预测区间:一种无分布假设的集成方法 [ICML2018] - [TensorFlow]
期刊
- 使用随机化先验对深度算子网络进行可扩展的不确定性量化 [CMAME2022]
- 探索回归神经网络中的不确定性以构建预测区间 [Neurocomputing2022]
Arxiv
- 区间神经网络:不确定性评分 [arXiv2020]
- 利用扩展区间最小化法获得紧致的预测区间 [arXiv2018]
合规性预测
超赞的合规性预测 [GitHub]
校准/评估指标
会议
- 置信度应进行多轮校准 [[ACL2026]] (https://arxiv.org/pdf/2604.05397)
- Grace:一种用于大型语言模型中更好置信度获取的生成方法 [[ACL2026]] (https://arxiv.org/pdf/2509.09438)
- 通过理解不确定性校准的作用改进基于扰动的解释 [NeurIPS2025]
- 用于模型校准的不确定性加权梯度 [CVPR2025]
- 平滑ECE:通过核平滑构建原则性的可靠性图 [ICLR2024]
- 通过稀疏高斯过程校准Transformer模型 [ICLR2023] - [PyTorch]
- 不止于校准:估计现代神经网络的分组损失 [ICLR2023] - [Python]
- 双重焦点损失用于校准 [ICML 2023]
- 增强数据的有效标签是什么?利用AutoLabel提升校准与鲁棒性 [SaTML2023]
- 魔鬼藏在边界中:基于边界的标签平滑用于网络校准 [CVPR2022] - [PyTorch]
- AdaFocal:感知校准的自适应焦点损失 [NeurIPS2022]
- 通过成对约束校准深度神经网络 [CVPR2022]
- 最优标签校准与多分类到二分类的约简 [ICLR2022]
- 从标签平滑到标签松弛 [AAAI2021]
- 诊断性不确定性校准:迈向医疗领域可靠的机器预测 [AIStats2021]
- 重新思考深度神经网络的校准:不要害怕过度自信 [NeurIPS2021]
- 不止于Pinball损失:用于校准式不确定性量化的分位数方法 [NeurIPS2021]
- 针对神经网络的软校准目标 [NeurIPS2021] - [TensorFlow]
- 面向深度神经网络的置信度感知学习 [ICML2020] - [PyTorch]
- 混搭:集成与组合方法用于深度学习中的不确定性校准 [ICML2020]
- 通过结构化标签平滑进行正则化 [ICML2020]
- 医学影像中基于深度学习的校准良好的回归不确定性 [MIDL2020] - [PyTorch]
- 使用焦点损失校准深度神经网络 [NeurIPS2020] - [PyTorch]
- 深度学习中用于不确定性校准的平稳激活函数 [NeurIPS2020]
- 重新审视不确定性估计的评估及其在探索模型复杂度-不确定性权衡中的应用 [CVPR Workshop2020]
- 评估可扩展的贝叶斯深度学习方法以实现稳健的计算机视觉 [CVPR Workshop2020] - [PyTorch]
- 针对深度神经网络分类器的偏差减少型不确定性估计 [ICLR2019]
- 不止于温度缩放:使用狄利克雷校准获得校准良好的多分类概率 [NeurIPS2019] - [GitHub]
- 标签平滑何时有效?[NeurIPS2019]
- 经验证的不确定性校准 [NeurIPS2019] - [GitHub]
- 深度学习中的校准测量 [CVPR Workshop2019]
- 利用校准回归为深度学习提供准确的不确定性 [ICML2018]
- 基于深度校准网络的广义零样本学习 [NeurIPS2018]
- 关于现代神经网络的校准 [ICML2017] - [TorchUncertainty]
- 关于公平与校准 [NeurIPS2017]
- 利用贝叶斯分箱获得良好校准的概率 [AAAI2015]
期刊
- 元校准:利用可微期望校准误差学习模型校准 [TMLR2023] - [PyTorch]
- 回归任务中不确定性预测的评估与校准 [Sensors2022]
- 针对神经网络回归器的校准预测区间 [IEEE Access 2018] - [Python]
Arxiv
- 向理解标签平滑迈进 [arXiv2020]
- 标签平滑如何影响泛化能力的探究 [arXiv2020]
错分类检测与选择性分类
会议
- 克服选择性分类系统评估中的常见缺陷 [NeurIPS2024] - [PyTorch]
- 用于错分类检测的数据驱动相对不确定性度量 [ICLR2024]
- 带有分布外检测的选择性分类插件估计器 [ICLR2024]
- SURE:构建可靠且鲁棒深度网络的调查指南 [CVPR2024] - [PyTorch]
- RCL:用于统一故障检测的可靠持续学习 [CVPR2024] - [PyTorch]
- 对图像分类中故障检测评估实践的反思呼吁 [ICLR2023] - [PyTorch]
- 魔鬼藏在错分类样本中:迈向统一的开放集识别 [ICLR2023] - [PyTorch]
- 利用分布外数据增强软最大值信息以实现选择性分类 [ACCV2022] - [PyTorch]
- 基于单类嵌入的反向蒸馏异常检测 [CVPR2022]
- 重新思考用于故障预测的置信度校准 [ECCV2022] - [PyTorch]
- 深度神经网络的选择性分类 [NeurIPS2017]
期刊
- 深度神经网络未知检测能力的统一基准 [Expert Systems with Applications2023]
ArXiv
- 相似性-距离-量级通用验证 [arXiv2025] - [Python]
异常检测与分布外检测
超赞的分布外检测资源 [GitHub]
会议
- 基于双能量的模型结合开放世界不确定性估计用于分布外检测 [CVPR2025]
- 结合统计深度与费马距离进行不确定性量化 [NeurIPS2024] - [PyTorch]
- 学习可迁移的负提示用于分布外检测 [CVPR2024] - [PyTorch]
- 预训练神经网络的认识论不确定性量化 [CVPR2024]
- NECO:基于神经坍缩的分布外检测 [ICLR2024]
- 在什么情况下以及如何利用分布内标签来帮助分布外检测?[ICML2024] - [PyTorch]
- 分布偏移下的异常检测 [ICCV2023] - [PyTorch]
- 用于人体姿态异常检测的归一化流 [ICCV2023] - [PyTorch]
- RbA:分割被所有模型拒绝的未知区域 [ICCV2023] - [PyTorch]
- 基于不确定性的最优传输用于语义一致的分布外检测 [CVPR2023] - [PyTorch]
- 为显著性目标检测模型建模分布不确定性 [CVPR2023] - [PyTorch]
- SQUID:无监督异常检测中的深度特征修复 [CVPR2023] - [PyTorch]
- 如何利用超球面嵌入进行分布外检测?[ICLR2023] - [PyTorch]
- 为了实现分布外泛化,必须对数据生成过程建模 [ICLR2023]
- CNN 是否比 Transformer 更加鲁棒?[ICLR2023]
- 用于评估类别分布外检测的基准框架及其在 ImageNet 上的应用 [ICLR2023]
- 极其简单的激活形状调整用于分布外检测 [ICLR2023] - [PyTorch]
- 使用对抗模型进行不确定性量化 [NeurIPS2023]
- 鲁棒语义分割 UNCV2023 挑战赛结果 [ICCV Workshop2023]
- 连续证据深度学习用于分布外检测 [ICCV Workshop2023]
- 深空中的遥远之地:基于最近邻的密集分布外检测 [ICCV Workshop2023]
- 使用马氏距离在深度分类器中进行不确定性估计的高斯潜在表示 [ICCV Workshop2023]
- 基于通用表示的校准型分布外检测 [ICCV Workshop2023] - [PyTorch]
- 使用高斯过程模型检测神经网络中的误分类错误 [AAAI2022]
- 朝着工业异常检测的完全召回率迈进 [CVPR2022] - [PyTorch]
- POEM:通过后验采样进行分布外检测 [ICML2022] - [PyTorch]
- VOS:通过虚拟异常值合成学习你所不知道的东西 [ICLR2022] - [PyTorch]
- 用于基于图像的缺陷检测的全卷积跨尺度流 [WACV2022] - [PyTorch]
- 使用一维子空间并集进行分布外检测 [CVPR2021] - [PyTorch]
- NAS-OoD:用于分布外泛化的神经架构搜索 [ICCV2021]
- 关于梯度在野外检测分布偏移中的重要性 [NeurIPS2021]
- 探索分布外检测的极限 [NeurIPS2021]
- 在不使用分布外数据的情况下检测分布外图像。[CVPR2020]
- 使用判别互反点学习开放集网络 [ECCV2020]
- 先合成再比较:用于语义分割的故障与异常检测 [ECCV2020] - [PyTorch]
- NADS:面向不确定性感知的神经架构分布搜索 [ICML2020]
- PaDiM:一种用于异常检测与定位的补丁分布建模框架 [ICPR2020] - [PyTorch]
- 基于能量的分布外检测 [NeurIPS2020]
- 朝着最大化域内与分布外样本之间表示差距的方向努力 [NeurIPS Workshop2020]
- 记住正常以检测异常:用于无监督异常检测的记忆增强型深度自编码器 [ICCV2019] - [PyTorch]
- 通过图像重合成来检测意外情况 [ICCV2019] - [PyTorch]
- 提升神经网络中分布外图像检测的可靠性 [ICLR2018]
- 用于检测神经网络中误分类和分布外样本的基线 [ICLR2017] - [TensorFlow]
期刊
- 用于异常检测的基础模型与Transformer:综述 [Information Fusion2025]
- 广义的分布外检测:综述 [IJCV2024]
- 重访置信度估计:迈向可靠的故障预测 [TPAMI2024] - [PyTorch]
- 针对深度神经网络不确定性量化的一对多方法(OVNNI)[IEEE Access2021]
ArXiv
- 神经元激活覆盖率:重新思考分布外检测与泛化能力 [arXiv2023] - [PyTorch]
- 改进近似分布外检测的马氏距离简单修正方案 [arXiv2021]
- 我们真的需要从域内数据中学习表征来进行异常检测吗?[arXiv2021]
- 深度学习中的频率学不确定性估计 [arXiv2018]
不确定性来源及随机性与认知性不确定性的解耦
会议
- 不确定性解耦基准测试:面向特定任务的专业化不确定性 [NeurIPS2024 - [PyTorch]
ArXiv
- 机器学习中的不确定性来源——统计学家视角 [ArXiv2024]
- 你的分类不确定性到底有多解耦?[ArXiv2024]
多模态模型/生成式AI中的不确定性量化
会议
- 向文本到图像生成的不确定性理解与量化迈进 [CVPR2025]
- 面向自动驾驶车辆感知中多模态不确定性融合的超维度不确定性量化 [CVPR2025]
期刊
- 多模态分布外个体不确定性量化提升多药理学结合亲和力预测 [Nature Machine Intelligence 2025]
应用
分类与语义分割
会议
- 使用随机专家混合模型建模分割中的多模态随机性不确定性 [ICLR2023] - [PyTorch]
- 具有置信度自适应的任意时间稠密预测 [ICLR2022] - [PyTorch]
- CRISP——医学图像分割的可靠不确定性估计 [MICCAI2022]
- TBraTS:可信的脑肿瘤分割 [MICCAI2022] - [PyTorch]
- 基于超像素混合的鲁棒语义分割 [BMVC2021] - [PyTorch]
- 语义分割中的深度确定性不确定性 [ICMLW2021]
- DEAL:面向语义分割的难度感知主动学习 [ACCV2020]
- 具有有效且自适应覆盖的分类 [NeurIPS2020]
- 面向语义夜间图像分割的引导式课程模型适配与不确定性感知评估 [ICCV2019]
- 人类不确定性使分类更加 robust [ICCV2019]
- 半监督3D左心房分割的不确定性感知自集成模型 [MICCAI2019] - [PyTorch]
- 轻量级概率深度网络 [CVPR2018] - [PyTorch]
- 用于模糊图像分割的概率U-Net [NeurIPS2018] - [PyTorch]
- 证据深度学习用于量化分类不确定性 [NeurIPS2018] - [PyTorch]
- 相信还是不相信一个分类器 [NeurIPS2018]
- 基于梯度信息的深度神经网络分类不确定性 [IAPR Workshop2018]
- 贝叶斯SegNet:场景理解中深度卷积编码器-解码器架构的模型不确定性 [BMVC2017]
期刊
- 图像分类模型中的可解释机器学习:基于不确定性量化的视角。[KnowledgeBased2022]
- 基于区域的证据深度学习用于量化不确定性并提升脑肿瘤分割的鲁棒性 [NCA2022]
ArXiv
- 利用不确定性估计提升分类器性能 [arXiv2023]
- 评估用于语义分割的贝叶斯深度学习方法 [arXiv2018]
回归
会议
- 用于联合视差与不确定性估计的立体匹配中误差分布学习 [CVPR2023] - [PyTorch]
- 概率MIMO U-Net:面向像素级回归的高效且精确的不确定性估计 [ICCV Workshop2023] - [PyTorch]
- 无训练的密集回归不确定性估计:以敏感性作为替代指标 [AAAI2022]
- 学习结构化高斯分布以近似深度集成模型 [CVPR2022]
- 基于约束序数回归的深度估计不确定性量化 [ECCV2022]
- 使用分类方法进行单目深度估计及不确定性量化 [ICIP2022]
- 具有置信度自适应的任意时刻密集预测 [ICLR2022] - [PyTorch]
- 变分深度网络:基于自监督的单目深度估计及其不确定性感知 [ECCV Workshop2022]
- SLURP:回归问题中的侧向学习不确定性 [BMVC2021] - [PyTorch]
- 通过跨域集成提升鲁棒性 [ICCV2021] - [PyTorch]
- 学习预测MRI重建中的误差 [MICCAI2021]
- 关于自监督单目深度估计的不确定性 [CVPR2020] - [PyTorch]
- 通过带有输入输出核的残差估计来量化神经网络中的点预测不确定性 [ICLR2020] - [TensorFlow]
- 基于深度学习的光流快速不确定性估计 [IROS2020]
- 医学影像中基于深度学习的校准良好的回归不确定性 [MIDL2020] - [PyTorch]
- 深度证据回归 [NeurIPS2020] - [TensorFlow]
- 从单张图像推断深度分布 [IROS2019] - [TensorFlow]
- 基于可分离形式的深度估计及其不确定性多任务学习 [CVPR Workshop2019]
- 轻量级概率深度网络 [CVPR2018] - [PyTorch]
- 结构化不确定性预测网络 [CVPR2018] - [TensorFlow]
- 光流的不确定性估计与多假设网络 [ECCV2018] - [TensorFlow]
- 使用校准回归实现深度学习的准确不确定性 [ICML2018]
期刊
- 在现实世界分布偏移下,你的回归模型的不确定性有多可靠?[TMLR2023] - [PyTorch]
- 回归任务中不确定性预测的评估与校准 [Sensors2022]
- 探索回归神经网络中的不确定性以构建预测区间 [Neurocomputing2022]
- Wasserstein Dropout [Machine Learning 2022] - [PyTorch]
- 深度分布回归 [Computational Statistics & Data Analysis2021]
- 神经网络回归器的校准预测区间 [IEEE Access 2018] - [Python]
- 学习光流的置信度度量 [TPAMI2013]
Arxiv
- 理解深度异方差回归的病理机制 [arxiv2024]
- 单目深度估计的不确定性程度测量与建模 [arXiv2023]
- UncertaINR:面向计算机断层扫描的端到端隐式神经表示的不确定性量化 [arXiv2022]
- 面向回归的高效高斯神经过程 [arXiv2021]
目标检测
会议
- 桥接精度与置信度:一种用于目标检测校准的训练时损失 [CVPR2023] - [PyTorch]
- 面向回归与目标检测的参数化及多元不确定性校准 [ECCV Workshop2022] - [PyTorch]
- 深度目标检测器中回归预测不确定性的估计与评估 [ICLR2021] - [PyTorch]
- 面向目标检测的多元置信度校准 [CVPR Workshop2020] - [PyTorch]
- 高斯YOLOv3:一种利用定位不确定性进行自动驾驶的精准快速目标检测器 [ICCV2019] - [CUDA] - [PyTorch] - [Keras]
领域自适应
会议
- 基于不确定性估计的伪标签引导用于无源无监督领域自适应 [CVPR2023] - [PyTorch]
- 不确定性引导的无源领域自适应 [ECCV2022] - [PyTorch]
半监督学习与主动学习
超赞的半监督学习 [GitHub] 超赞的主动学习 [GitHub]
会议
- 重新思考主动开放集标注中的认识论与随机性不确定性:一种基于能量的方法 [CVPR2025] - [PyTorch]
- 不确定性与多样性相结合:面向室内3D目标检测的综合主动学习框架 [CVPR2025]
- 联合分布外过滤与数据发现的主动学习 [CVPR2025]
- 通往低成本学习之路:半监督与主动学习的协同效应 [CVPR2025]
- 利用未标记数据进行置信度估计 [ICLR2023] - [PyTorch]
自然语言处理
超赞的大模型不确定性、可靠性与鲁棒性 [GitHub]
会议
- R-U-SURE?通过最大化跨随机用户意图的效用来实现不确定性感知的代码建议 [ICML2023] - [GitHub]
- 团结就是力量:通过提示一致性估计大语言模型的置信度 [TrustNLP2023] - [GitHub]
- 解耦机器翻译评估中的不确定性 [EMNLP2022] - [PyTorch]
- 探讨集成方法在提升文本分类器模型鲁棒性中的应用 [EMNLP2022 Findings]
- DATE:通过Transformer的自监督检测文本异常 [NAACL2021]
- 为自然语言处理校准结构化输出预测器 [ACL2020]
- 针对分布内和分布外数据的校准型语言模型微调 [EMNLP2020] - [PyTorch]
期刊
- 我们如何知道语言模型何时真正“知道”?关于问答任务中语言模型的校准问题 [TACL2021] - [PyTorch]
Arxiv
- DRIFT:检测表征不一致以确保事实真实性 [arXiv2026]
- 高斯随机权重平均法用于大语言模型的贝叶斯低秩适配 [arXiv2024]
- 相信还是不相信你的大语言模型?[arXiv2024]
- 通过输入澄清集成分解大语言模型的不确定性 [arXiv2023]
其他
会议
- 生成图像检测中的认识论不确定性 [NeurIPS2025]
- PaSCo:具有不确定性意识的城市3D全景场景补全 [CVPR2024] - [官网]
- 基于稳定分布传播的不确定性量化 [ICLR2024]
- 评估相似度评分中的不确定性:人脸识别中的性能与公平性 [ICLR2024]
Arxiv
- 用奥卡姆剃刀削减权重:利用边际似然对神经网络进行贝叶斯稀疏化 - [arxiv2024]
- 城市3D全景场景补全,具备不确定性意识 [arXiv2023] - [PyTorch]
数据集与基准测试
- SHIFT:用于连续多任务领域自适应的合成驾驶数据集 [CVPR2022]
- MUAD:自动驾驶中的多种不确定性,一个针对多种不确定性和任务的基准测试 [BMVC2022] - [PyTorch]
- ACDC:具有对应关系的恶劣条件数据集,用于语义驾驶场景理解 [ICCV2021]
- MVTec异常检测数据集:一个全面的真实世界数据集,用于无监督异常检测 [IJCV2021]
- SegmentMeIfYouCan:异常分割的基准测试 [NeurIPS2021]
- 不确定性基准:深度学习中不确定性和鲁棒性的基准测试 [arXiv2021] - [TensorFlow]
- 结合合成与真实数据的课程式模型适配,用于语义雾天场景理解 [IJCV2020]
- 语义分割模型鲁棒性的基准测试 [CVPR2020]
- Fishyscapes:自动驾驶中安全语义分割的基准测试 [ICCV Workshop2019]
- 对象检测鲁棒性的基准测试:寒冬将至时的自动驾驶 [NeurIPS Workshop2019] - [GitHub]
- 使用合成数据进行语义雾天场景理解 [IJCV2018]
- 丢失与发现:为自动驾驶车辆检测小型道路隐患 [IROS2016]
库
Python
- 不确定性校准库 [GitHub]
- MAPIE:模型无关的预测区间估计器 [Sklearn]
- 不确定性工具箱 [GitHub]
- OpenOOD:广义分布外检测基准测试 [GitHub]
- Darts:时间序列的预测与异常检测 [GitHub]
- 用于分布和不确定性估计的混合密度网络(MDN) [GitHub]
- UQLM:语言模型的不确定性量化 [GitHub]
PyTorch
JAX
- Fortuna [GitHub - JAX]
TensorFlow
- TensorFlow Probability [官网]
讲座与教程
- 丹·亨德里克斯:机器学习安全入门课程 [官网]
- ICML深度学习中的不确定性与鲁棒性研讨会(2020、2021年) [SlidesLive]
- 亚林·加尔:贝叶斯深度学习入门 [官网]
- MIT 6.S191:证据深度学习与不确定性(2021年) [Youtube]
- 面向深度学习用户的贝叶斯神经网络实践教程 [IEEE计算智能杂志]
书籍
- 凯文·墨菲的“概率机器学习”系列丛书 [图书]
其他资源
深度学习中的不确定性量化 [GitHub] 优秀的分布外检测资源 [GitHub] 异常检测学习资源 [GitHub] 优秀的共形预测资源 [GitHub] 优秀的LLM不确定性、可靠性与鲁棒性资源 [GitHub] UQSay——巴黎萨克雷大学关于不确定性量化(UQ)、计算机实验设计与分析(DACE)及相关主题的研讨会 [官网] ProbAI暑期学校 [官网] 高斯过程暑期学校 [官网]
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器