deep-learning-uncertainty

GitHub
638 78 中等 1 次阅读 1个月前开发框架
AI 解读 由 AI 自动生成,仅供参考

deep-learning-uncertainty 是一个专注于深度学习预测不确定性估计的开源资源库。在人工智能应用中,模型不仅需要提供预测结果,更需要告知用户该结果的可信程度,尤其是在医疗诊断或自动驾驶等高风险场景下。该项目正是为了解决这一关键问题而生,它帮助开发者量化模型“不知道什么”,从而提升决策的安全性与可靠性。

该资源库特别适合人工智能研究人员和算法工程师使用。它不仅仅是一堆代码的集合,更是一份详尽的学术指南,系统梳理了从经典的 Bootstrap、Jackknife 方法到前沿的共形预测(Conformal Prediction)和影响函数(Influence Functions)等大量文献。其核心亮点在于提供了基于 PyTorch 的基准方法实现,将复杂的统计学理论转化为可复现的实验代码。无论是希望深入理解不确定性量化理论的研究者,还是需要在实际项目中快速部署可信 AI 模型的开发者,都能从中获得从理论综述到实验设置的一站式支持,极大地降低了相关领域的研究与开发门槛。

使用场景

某医疗 AI 团队正在开发基于深度学习的肺炎 X 光片辅助诊断系统,急需评估模型在未知数据上的预测可靠性以通过临床审批。

没有 deep-learning-uncertainty 时

  • 模型仅输出单一的“患病”概率,医生无法判断该预测是确信无疑还是模棱两可,导致对高风险病例不敢参考。
  • 缺乏标准的置信区间计算方法,团队需从零复现复杂的统计学论文(如 Bootstrap 或 Conformal Prediction),研发周期被拉长数月。
  • 面对分布外数据(如不同医院拍摄的设备差异图像),模型容易给出高置信度的错误预测,存在严重医疗事故隐患。
  • 难以向监管机构证明模型的鲁棒性,因为缺少权威的基准实现和文献支撑来量化预测不确定性。

使用 deep-learning-uncertainty 后

  • 系统能同时输出诊断结果及其不确定性评分,当不确定性过高时自动标记为“需人工复核”,显著降低误诊风险。
  • 直接调用库中预置的 PyTorch 基准实现(如 Jackknife+ 或深度集成),几天内即可完成不确定性量化模块的部署。
  • 利用共形预测(Conformal Prediction)技术生成具有统计保证的预测区间,有效识别并拦截设备差异导致的异常输入。
  • 依托库中详尽的文献综述和实验设置,快速构建符合学术标准的评估报告,顺利通过与监管机构的合规性审查。

deep-learning-uncertainty 将抽象的统计学理论转化为可落地的代码基线,让深度学习模型从“盲目自信”变得“知所不知”。

运行环境要求

操作系统
  • 未说明
GPU

未说明 (基于 PyTorch 实现,通常建议配备支持 CUDA 的 NVIDIA GPU)

内存

未说明

依赖
notes该仓库主要包含深度学习预测不确定性估计的文献综述和基线实现。README 中未详细列出具体的硬件资源需求或除 PyTorch 以外的其他依赖库。由于涉及深度学习模型训练与不确定性量化(如 Bootstrap、Jackknife 等方法),实际运行时对显存和内存的需求将取决于具体使用的模型大小和数据集规模。
python3.6+
PyTorch>=1.1.0
deep-learning-uncertainty hero image

快速开始

深度学习中的不确定性量化

Python 3.6+ PyTorch 1.1.0

本仓库包含深度学习中预测不确定性估计的文献综述及基线方法的实现。

文献综述

不确定性估计的基础背景

  • B. Efron 和 R. Tibshirani. “自助法在标准误差、置信区间及其他统计精度度量中的应用”。《统计科学》,1986年。[链接]

  • R. Barber、E. J. Candes、A. Ramdas 和 R. J. Tibshirani. “jackknife+ 方法下的预测推断”。arXiv,2019年。[链接]

  • B. Efron. “自助后 jackknife 法的标准误差与影响函数”。《皇家统计学会期刊:B辑(方法论)》,1992年。[链接]

  • J. Robins 和 A. Van Der Vaart. “自适应非参数置信集”。《统计学年鉴》,2006年。[链接]

  • V. Vovk 等人,“交叉一致性预测分布”。JMLR,2018年。[链接]

  • M. H Quenouille. “时间序列中相关性的近似检验”。《皇家统计学会期刊》,1949年。[链接]

  • M. H Quenouille. “关于估计偏差的注记”。《生物计量学》,1956年。[链接]

  • J. Tukey. “在不太大的样本中偏差与置信度”。《数学统计年鉴》,1958年。

  • R. G. Miller. “jackknife 方法评述”。《生物计量学》,1974年。[链接]

  • B. Efron. “自助法:对 jackknife 方法的再审视”。《统计学年鉴》,1979年。[链接]

  • R. A Stine. “回归分析中的自助预测区间”。《美国统计协会期刊》,1985年。[链接]

  • R. F. Barber、E. J. Candes、A. Ramdas 和 R. J. Tibshirani. “协变量偏移下的保序预测”。arXiv 预印本 arXiv:1904.06019,2019年。[链接]

  • R. F. Barber、E. J. Candes、A. Ramdas 和 R. J. Tibshirani. “无分布假设条件下预测推断的局限性”。arXiv 预印本 arXiv:1903.04684,2019b年。[链接]

  • J. Lei、M. G'Sell、A. Rinaldo、R. J. Tibshirani 和 L. Wasserman. “回归分析中的无分布假设预测推断”。《美国统计协会期刊》,2018年。[链接]

  • R. Giordano、M. I. Jordan 和 T. Broderick. “高阶瑞士军刀型无穷小 jackknife”。arXiv,2019年。[链接]

  • P. W. Koh、K. Ang、H. H. K. Teo 和 P. Liang. “关于利用影响函数衡量群体效应的准确性”。arXiv,2019年。[链接]

  • D. H. Wolpert. “堆叠泛化”。《神经网络》,1992年。[链接]

  • R. D. Cook 和 S. Weisberg. “回归中的残差与影响”。纽约:Chapman and Hall,1982年。[链接]

  • R. Giordano、W. Stephenson、R. Liu、M. I. Jordan 和 T. Broderick. “瑞士军刀型无穷小 jackknife”。arXiv 预印本 arXiv:1806.00550,2018年。[链接]

  • P. W. Koh 和 P. Liang. “通过影响函数理解黑箱预测”。ICML,2017年。[链接]

  • S. Wager 和 S. Athey. “使用随机森林估计和推断异质性治疗效应”。《美国统计协会期刊》,2018年。[链接]

  • J. F. Lawless 和 M. Fredette. “频率派预测区间与预测分布”。《生物计量学》,2005年。[链接]

  • F. R. Hampel、E. M. Ronchetti、P. J. Rousseeuw 和 W. A. Stahel. “稳健统计:基于影响函数的方法”。John Wiley and Sons,2011年。[链接]

  • P. J. Huber 和 E. M. Ronchetti. “稳健统计”。John Wiley and Sons,1981年。

  • Y. Romano、R. F. Barber、C. Sabatti 和 E. J. Candès. “不带恶意地评估不确定性:通过均衡覆盖来实现”。arXiv,2019年。[链接]

  • H. R. Kunsch. “一般平稳观测下的 jackknife 和自助法”。《统计学年鉴》,1989年。[链接]

通用机器学习模型的预测不确定性

  • A. Malinin、L. Prokhorenkova、A. Ustimenko. “通过集成方法在梯度提升中量化不确定性”。ICLR,2021年。[链接]

  • S. Feldman、S. Bates 和 Y. Romano. “通过正交分位数回归改善条件覆盖”。arXiv 预印本,2021年。[链接]

  • S. Bates、A. Angelopoulos、L. Lei、J. Malik 和 M. I. Jordan. “无分布假设、风险可控的预测集合”。arXiv 预印本,2021年。[链接]

  • S. Wager、T. Hastie 和 B. Efron. “随机森林的置信区间:jackknife 方法与无穷小 jackknife 方法”。《机器学习研究期刊》,2014年。[链接]

  • L. Mentch 和 G. Hooker. “通过置信区间和假设检验量化随机森林中的不确定性”。《机器学习研究期刊》,2016年。[链接]

  • J. Platt. “支持向量机的概率输出及其与正则化似然方法的比较”。《大间隔分类器进展》,1999年。[链接]

  • A. Abadie、S. Athey 和 G. Imbens. “回归分析中基于抽样与基于设计的不确定性”。arXiv 预印本 (arXiv:1706.01778),2017年。[链接]

  • T. Duan、A. Avati、D. Y. Ding、S. Basu、Andrew Y. Ng 和 A. Schuler。“NGBoost:用于概率预测的自然梯度提升”。arXiv 预印本,2019 年。[链接]

  • V. Franc 和 D. Prusa。“关于预测不确定性判别式学习的研究”。ICML,2019 年。[链接]

  • Y. Romano、M. Sesia 和 E. J. Candès。“具有有效且自适应覆盖率的分类方法”。arXiv 预印本,2020 年。[链接]

深度学习中的预测不确定性

  • I. Osband、Z. Wen、M. Asghari、M. Ibrahimi、X. Lu 和 B. Van Roy。“认识论神经网络”。arXiv,2021 年。[链接]

  • Abdar, Moloud 等。“深度学习中不确定性量化:技术、应用与挑战综述”。Information Fusion,2021 年。[链接]

  • Gawlikowski, Jakob 等。“深度神经网络中不确定性的研究综述”。arXiv 预印本,2021 年。[链接]

  • P. Morales-Alvarez、D. Hernández-Lobato、R. Molina、J. M. Hernández-Lobato。“深度神经网络中的激活级不确定性”。ICLR,2021 年。[链接]

  • A. Angelopoulos、S. Bates、J. Malik 和 M. I. Jordan。“基于共形预测的图像分类器不确定性集合”。ICLR,2021 年。[链接]

  • K. Patel、W. H. Beluch、B. Yang、M. Pfeiffer、D. Zhang。“基于互信息最大化分箱的多分类不确定性校准”。ICLR 2021。[链接]

  • B. Adlam、J. Lee、L. Xiao、J. Pennington、J. Snoek。“在无限宽度极限下探索神经网络隐式先验的不确定性特性”。ICLR 2021。[链接]

  • A. Harakeh、S. L. Waslander。“深度目标检测器中回归预测不确定性的估计与评估”。ICLR 2021。[链接]

  • J. Antoran、U. Bhatt、T. Adel、A. Weller、J. M. Hernández-Lobato。“获得线索:一种解释不确定性估计的方法”。ICLR 2021。[链接]

  • A.-K. Kopetzki、B. Charpentier、D. Zügner、S. Giri、S. Günnemann。“预测不确定性估计的鲁棒性评估:基于狄利克雷分布的模型是否可靠?”ICML 2021。[链接]

  • A. Zhou 和 S. Levine。“摊销条件归一化最大似然:可靠的分布外不确定性估计”。ICML,2021 年。[链接]

  • M. Havasi、R. Jenatton、S. Fort、J. Z. Liu、J. Snoek、B. Lakshminarayanan、A. M. Dai 和 D. Tran。“训练独立子网络以实现稳健预测”。ICLR,2021 年。[链接]

  • B. Adlam、J. Lee、L. Xiao、J. Pennington、J. Snoek。“在无限宽度极限下探索神经网络隐式先验的不确定性特性”。ICLR,2021 年。[链接]

  • A. N. Angelopoulos、S. Bates、T. Zrnic、M. I. Jordan。“隐私预测集”。arXiv,2021 年。[链接]

  • B. Charpentier、D. Zügner、S. Günnemann。“后验网络:通过基于密度的伪计数进行无分布外样本的不确定性估计”。NeurIPS,2020 年。[链接]

  • L. Meronen、C. Irwanto、A. Solin。“用于深度学习中不确定性校准的平稳激活”。NeurIPS,2020 年。[链接]

  • F. Wenzel、J. Snoek、D. Tran、R. Jenatton。“用于鲁棒性和不确定性量化的超参数集成”。NeurIPS,2020 年。[链接]

  • J. Liu、Z. Lin、S. Padhy、D. Tran、T. Bedrax Weiss、B. Lakshminarayanan。“通过距离感知实现确定性深度学习的简单而原则性的不确定性估计”。NeurIPS,2020 年。[链接]

  • J. Lindinger、D. Reeb、C. Lippert、B. Rakitsch。“超越平均场:结构化深度高斯过程可改善预测不确定性”。NeurIPS,2020 年。[链接]

  • J. Antoran、J. Allingham、J. M. Hernández-Lobato。“神经网络中的深度不确定性”。NeurIPS,2020 年。[链接]

  • M. Monteiro、L. Le Folgoc、D. C. de Castro、N. Pawlowski、B. Marques、K. Kamnitsas、M. van der Wilk、B. Glocker。“随机分割网络:建模空间相关的偶然不确定性”。NeurIPS,2020 年。[链接]

  • W. Shi、X. Zhao、F. Chen、Q. Yu。“面向标签高效深度学习的多方面不确定性估计”。NeurIPS,2020 年。[链接]

  • R. Krishnan、O. Tickoo。“通过准确率与不确定性优化来改进模型校准”。NeurIPS,2020 年。[链接]

  • J. A. Leonard、M. A. Kramer 和 L. H. Ungar。“一种能够计算自身可靠性的神经网络架构”。Computers & Chemical Engineering,1992 年。[链接]

  • C. Blundell、J. Cornebise、K. Kavukcuoglu 和 D. Wierstra。“神经网络中的权重不确定性”。ICML,2015 年。[链接]

  • B. Lakshminarayanan、A. Pritzel 和 C. Blundell。“使用深度集成进行简单且可扩展的预测不确定性估计”。NeurIPS,2017 年。[链接]

  • Y. Gal 和 Z. Ghahramani。“Dropout 作为贝叶斯近似:在深度学习中表示模型不确定性”。ICML,2016 年。[链接]

  • V. Kuleshov、N. Fenner 和 S. Ermon。“利用校准回归实现深度学习的精确不确定性”。ICML,2018 年。[链接]

  • J. Hernández-Lobato 和 R. Adams。“用于贝叶斯神经网络可扩展学习的概率反向传播”。ICML,2015 年。[链接]

  • S. Liang、Y. Li 和 R. Srikant:“提升神经网络中分布外图像检测的可靠性”。ICLR,2018年。[链接]

  • K. Lee、H. Lee、K. Lee 和 J. Shin:“训练置信度校准分类器以检测分布外样本”。ICLR,2018年。[链接]

  • P. Schulam 和 S. Saria:“你能信任这个预测吗?学习后的逐点可靠性审计”。AISTATS,2019年。[链接]

  • A. Malinin 和 M. Gales:“通过先验网络进行预测不确定性估计”。NeurIPS,2018年。[链接]

  • D. Hendrycks、M. Mazeika 和 T. G. Dietterich:“基于异常值暴露的深度异常检测”。arXiv 预印本 arXiv:1812.04606,2018年。[链接]

  • A-A. Papadopoulos、M. R. Rajati、N. Shaikh 和 J. Wang:“带有置信度控制的异常值暴露用于分布外检测”。arXiv 预印本 arXiv:1906.03509,2019年。[链接]

  • D. Madras、J. Atwood、A. D'Amour:“利用影响函数检测外推现象”。ICML 深度学习中的不确定性与鲁棒性研讨会,2019年。[链接]

  • M. Sensoy、L. Kaplan 和 M. Kandemir:“证据深度学习用于量化分类不确定性”。NeurIPS,2018年。[链接]

  • W. Maddox、T. Garipov、P. Izmailov、D. Vetrov 和 A. G. Wilson:“深度学习中贝叶斯不确定性的简单基线”。arXiv 预印本 arXiv:1902.02476,2019年。[链接]

  • Y. Ovadia 等人:“你能信任你模型的不确定性吗?在数据集漂移下的预测不确定性评估”。arXiv 预印本 arXiv:1906.02530,2019年。[链接]

  • D. Hendrycks 等人:“使用自监督学习可以提高模型的鲁棒性和不确定性”。arXiv 预印本 arXiv:1906.12340,2019年。[链接]

  • A. Kumar、P. Liang、T. Ma:“经过验证的不确定性校准”。arXiv 预印本,2019年。[链接]

  • I. Osband、C. Blundell、A. Pritzel 和 B. Van Roy:“基于自助法的 DQN 进行深度探索”。NeurIPS,2016年。[链接]

  • I. Osband:“深度学习中的风险与不确定性:贝叶斯、自助法与 Dropout 的危险”。NeurIPS 研讨会,2016年。[链接]

  • J. Postels 等人:“利用近似方差传播进行无采样式认识论不确定性估计”。ICCV,2019年。[链接]

  • A. Kendall 和 Y. Gal:“在计算机视觉的贝叶斯深度学习中,我们需要哪些不确定性?”NeurIPS,2017年。[链接]

  • N. Tagasovska 和 D. Lopez-Paz:“深度学习中的单模型不确定性”。NeurIPS,2019年。[链接]

  • A. Der Kiureghian 和 O. Ditlevsen:“偶然性还是认识论不确定性?这重要吗?”《结构安全》杂志,2009年。[链接]

  • D. Hafner、D. Tran、A. Irpan、T. Lillicrap 和 J. Davidson:“利用噪声对比先验在深度神经网络中获得可靠的不确定性估计”。arXiv,2018年。[链接]

  • S. Depeweg、J. M. Hernández-Lobato、F. Doshi-Velez 和 S. Udluft:“在贝叶斯深度学习中分解不确定性以实现高效且风险敏感的学习”。ICML,2018年。[链接]

  • L. Smith 和 Y. Gal:“理解用于对抗性样本检测的不确定性度量”。UAI,2018年。[链接]

  • L. Zhu 和 N. Laptev:“优步的时间序列深度且自信的预测”。IEEE 国际数据挖掘研讨会,2017年。[链接]

  • M. W. Dusenberry、G. Jerfel、Y. Wen、Yi-an Ma、J. Snoek、K. Heller、B. Lakshminarayanan、D. Tran:“具有秩-1 因子的高效可扩展贝叶斯神经网络”。arXiv,2020年。[链接]

  • J. van Amersfoort、L. Smith、Y. W. Teh 和 Y. Gal:“使用单个深度确定性神经网络进行不确定性估计”。ICML,2020年。[链接]

  • E. Begoli、T. Bhattacharya 和 D. Kusnezov:“机器辅助医疗决策中对不确定性量化的需求”。《自然·机器智能》杂志,2019年。[链接]

  • T. S. Salem、H. Langseth 和 H. Ramampiaro:“预测区间:基于质量驱动的深度集成的分裂正态混合模型”。UAI,2020年。[链接]

  • K. Posch 和 J. Pilz:“相关参数用于准确测量深度神经网络中的不确定性”。IEEE 神经网络与学习系统汇刊,2020年。[链接]

  • B. Kompa、J. Snoek 和 A. Beam:“深度学习不确定性量化方法的经验频率覆盖范围”。arXiv,2020年。[链接]

顺序模型中的预测不确定性

  • A. Malinin、M. Gales:“自回归结构化预测中的不确定性估计”。ICLR,2021年。[链接]

  • C. Wang、C. Lawrence、M. Niepert:“使用有限状态概率 RNN 进行不确定性估计和校准”。ICLR,2021年。[链接]

  • S. Sankaranarayanan、Y. Chou、E. Goubault、S. Putot:“利用多项式形式在离散时间动力系统中推理不确定性”。NeurIPS,2020年。[链接]

  • R. Wen、K. Torkkola、B. Narayanaswamy 和 D. Madeka:“多时距分位数递归预测器”。arXiv,2017年。[链接]

  • D. T. Mirikitani 和 N. Nikolaev:“用于时间序列建模的递归贝叶斯循环神经网络”。IEEE 神经网络汇刊,2009年。[链接]

  • M. Fortunato、C. Blundell 和 O. Vinyals:“贝叶斯循环神经网络”。arXiv,2019年。[链接]

  • P. L. McDermott, C. K. Wikle. “用于时空数据预测及不确定性量化之贝叶斯循环神经网络模型”. 《熵》, 2019年. [链接]

  • Y. Gal, Z. Ghahramani. “循环神经网络中丢弃法的理论基础应用”. NeurIPS, 2016年. [链接]

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|2周前
Agent开发框架图像

n8n

n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。

184.7k|★★☆☆☆|昨天
数据工具开发框架Agent

AutoGPT

AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。

183.6k|★★★☆☆|今天
Agent语言模型插件

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

161.7k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

109.2k|★★☆☆☆|2天前
开发框架图像Agent