the-incredible-pytorch
the-incredible-pytorch 是一份精心策划的 PyTorch 资源导航清单,旨在成为深度学习爱好者的必备指南。它将分散在网上的教程、论文、项目、社区动态及视频书籍整合在一起,解决了学习者面对海量资料时难以筛选和查找的痛点。
这份清单特别适合 AI 开发者、算法研究人员以及对 PyTorch 框架感兴趣的技术人员使用。其内容覆盖面极广,不仅包含基础的卷积神经网络、RNN 和 Transformer 架构,还紧跟技术潮流,囊括了大语言模型、Agent AI、量子机器学习及医疗影像分析等前沿方向。此外,它还提供了关于模型优化、量化、可解释性等专业主题的深入资源。
作为一个开源社区驱动的项目,the-incredible-pytorch 采用 MIT 协议,欢迎全球贡献者通过 Pull Request 持续更新内容。对于希望在 PyTorch 生态中快速成长的用户而言,这相当于拥有一张实时更新的技术地图,能极大提升学习与研究效率。
使用场景
某电商公司算法团队正在开发基于深度学习的商品瑕疵检测系统,工程师小张急需引入注意力机制提升模型精度并解释决策依据。
没有 the-incredible-pytorch 时
- 需要在多个搜索引擎和论文库之间切换,难以辨别哪些 PyTorch 教程适合当前版本。
- 搜索具体的注意力机制实现代码耗时过长,往往下载到过时的示例。
- 缺乏可视化工具推荐,无法直观展示模型关注区域,客户质疑模型可信度。
- 遇到架构设计瓶颈时,找不到相关的几何深度学习或 Transformer 变体资料。
使用 the-incredible-pytorch 后
- 直接在“可视化”和“对象检测”板块找到适配的最新开源项目,节省大量检索时间。
- 获取经过验证的注意力机制实现代码,确保与当前 PyTorch 版本兼容。
- 利用精选的解释性工具包快速生成热力图,有效回应业务方对模型透明度的要求。
- 参考“新神经网络架构思考”章节,成功引入改进型 Transformer 结构提升准确率。
the-incredible-pytorch 通过聚合高质量资源,帮助开发者从资料搜集转向核心代码实现,显著提升研发效率。
运行环境要求
- 未说明
未说明
未说明

快速开始

这是一个精心整理的列表,包含与令人难以置信的 PyTorch(一种强大的开源机器学习框架)相关的教程、项目、库、视频、论文、书籍以及其他所有内容。欢迎随时提交 pull request(拉取请求)来为此列表做出贡献。
Table Of Contents
- Table Of Contents
- Tutorials
- 大型语言模型(LLMs)
- 代理人工智能(Agentic AI)
- 护栏与人工智能安全
- 表格数据
- 可视化
- 可解释性
- 目标检测
- 长尾分布 / 分布外识别
- 激活函数
- 基于能量的学习
- 缺失数据
- 架构搜索
- 持续学习
- 优化
- 量化
- 量子机器学习
- 神经网络压缩
- 面部、动作和姿态识别
- 超分辨率
- 视图合成
- 语音
- 医疗
- 3D 分割、分类与回归
- 视频识别
- 循环神经网络(RNNs)
- 卷积神经网络(CNNs)
- 分割
- 几何深度学习:图与非规则结构
- 排序
- 常微分方程网络
- 多任务学习
- 生成对抗网络(GANs)、变分自编码器(VAEs)与自编码器(AEs)
- 无监督学习
- 对抗攻击
- 风格迁移
- 图像描述
- Transformer 模型
- 相似性网络与函数
- 推理
- 通用自然语言处理
- 问答
- 语音生成与识别
- 文档与文本分类
- 文本生成
- 文生图
- 翻译
- 情感分析
- 深度强化学习
- 深度贝叶斯学习与概率编程
- 脉冲神经网络
- 异常检测
- 回归类型
- 时间序列
- 合成数据集
- 神经网络通用改进
- 深度神经网络在化学与物理中的应用
- 关于通用神经网络架构的新思考
- 线性代数
- API 抽象
- 底层工具
- PyTorch 工具
- PyTorch 视频教程
- 社区
- 待分类
- 指向本仓库的链接
- 贡献
- 面向 AI 代理的全新专用列表 | 令人难以置信的 AI 代理
Tutorials
- 官方 PyTorch 教程
- 官方 PyTorch 示例
- 人工智能背后的数学:AI 基础指南 [全书]
- 使用 PyTorch 深入深度学习
- 如何阅读 PyTorch 源码
- PyTorch 深度学习迷你课程(多语言)
- 使用 PyTorch 进行实用深度学习
- 深度学习模型
- PyTorch 教程的 C++ 实现
- 介绍 PyTorch 的简单示例
- PyTorch 迷你教程
- 用于 NLP 的深度学习
- 研究人员深度学习教程
- 使用 PyTorch 实现的完全卷积网络
- 从零到全能的 PyTorch 简单教程
- DeepNLP 模型 - PyTorch
- MILA PyTorch 欢迎教程
- 高效 PyTorch:使用 TorchScript 优化运行时及数值稳定性优化
- 实用 PyTorch
- PyTorch 项目模板
- 使用 PyTorch 进行语义搜索
大型语言模型 (LLMs)
- LLM 教程
- 通用
- Starcoder 2,代码生成模型系列
- GPT Fast,快速且可修改的 PyTorch 原生 Transformer 推理 (Transformer 架构)
- Mixtral Offloading,在 Colab 或消费级桌面运行 Mixtral-8x7B 模型
- Llama
- Llama Recipes
- TinyLlama
- Mosaic 预训练 Transformer (MPT)
- VLLM,面向 LLM 的高吞吐量、内存高效的推理和服务引擎
- Dolly
- Vicuna
- Mistral 7B
- BigDL LLM,用于在 Intel XPU(从笔记本到 GPU 再到云端)上使用 INT4 以极低延迟运行 LLM(大型语言模型)的库(适用于任何 PyTorch 模型)
- Simple LLM 微调器
- Petals,家庭运行 LLM,采用 BitTorrent 风格,微调与推理速度比卸载快高达 10 倍
- Gemma,Google 的轻量级、最先进开源模型系列
- Qwen,阿里云的大型语言模型
- CodeT5,面向代码理解与生成的代码感知编码器 - 解码器模型
- OpenLLaMA,Meta AI 的 LLaMA 的宽松许可开源复刻版
- RedPajama,领先的开源模型及复现 LLaMA 训练数据集的工具包
- MosaicML LLM Foundry,用于训练、微调和部署 LLM 的代码库
- TECS-L (Golden MoE),面向 PyTorch LLM 的稠密到混合专家 (MoE) 转换框架,具有最优抑制率 I≈1/e
- 日语
- 中文
- 检索增强生成 (RAG)
- 嵌入 (Embeddings)
- 应用
- 微调
- 训练
- 量化 (Quantization)
代理式人工智能 (Agentic AI)
- 多智能体系统
- 自主智能体
- 智能体编排与框架
- 规划与推理
- 记忆与学习
护栏与 AI 安全
- 内容过滤与审核
- 提示注入防御
- 偏见检测与缓解
- 隐私与安全
- 模型可解释性与可解释性
- 安全评估与测试
表格数据
- PyTorch Frame:用于多模态表格学习的模块化框架
- Pytorch Tabular,用于为表格数据建模深度学习模型的标准框架
- Tab Transformer
- PyTorch-TabNet:具有注意力的可解释表格学习
- carefree-learn:基于 PyTorch 的用于表格数据集的最小自动机器学习 (AutoML) 解决方案
可视化
- Loss 可视化
- Grad-CAM:通过基于梯度的定位从深度网络获取视觉解释
- 深入卷积网络内部:可视化图像分类模型和显著性图
- SmoothGrad:通过添加噪声去除噪声
- DeepDream:梦幻般的致幻视觉效果
- FlashTorch:PyTorch 神经网络的可视化工具包
- Lucent:Lucid 适配于 PyTorch
- DreamCreator:使用自定义数据集简单训练 GoogleNet 模型以进行 DeepDream
- CNN 特征图可视化
可解释性
- Neural-Backed Decision Trees
- Efficient Covariance Estimation from Temporal Data
- Hierarchical interpretations for neural network predictions
- Shap,一种解释任何机器学习模型输出的统一方法
- 使用 netron 可视化 PyTorch 保存的 .pth 深度学习模型
- Distilling a Neural Network Into a Soft Decision Tree
- Captum,PyTorch 的统一模型可解释性库
目标检测
- MMDetection 目标检测工具箱
- Mask R-CNN 基准:PyTorch 1.0 中的 Faster R-CNN 和 Mask R-CNN
- YOLO-World
- YOLOS
- YOLOF
- YOLOX
- YOLOv12:以注意力为中心的实时目标检测器
- YOLOv11
- YOLOv10
- YOLOv9
- YOLOv8
- Yolov7
- YOLOv6
- Yolov5
- Yolov4
- YOLOv3
- YOLOv2:实时目标检测
- SSD:单次多框检测器
- Detectron 目标检测模型
- 使用深度卷积神经网络从街景图像中识别多位数字
- 鲸鱼检测器
- Catalyst.Detection
长尾 / 分布外识别
- 用于组偏移的分布鲁棒神经网络:关于最坏情况泛化中正则化的重要性
- 不变风险最小化
- 训练置信度校准分类器以检测分布外样本
- 利用异常值暴露进行深度异常检测
- 开放世界中的大规模长尾识别
- 神经网络中分布外示例的原则性检测
- 学习神经网络中分布外检测的置信度
- PyTorch 不平衡类别采样器
激活函数
基于能量的学习
缺失数据
架构搜索
持续学习
优化
- AccSGD, AdaBound, AdaMod, DiffGrad, Lamb, NovoGrad, RAdam, SGDW, Yogi 等更多优化器
- Lookahead 优化器:前进 k 步,后退 1 步
- RAdam,关于自适应学习率的方差及其他
- Over9000,RAdam、Lookahead、Novograd 及其组合的比较
- AdaBound,像 Adam 一样快,像 SGD 一样好地进行训练
- 黎曼自适应优化方法
- L-BFGS
- OptNet:将可微优化作为神经网络中的一层
- 通过梯度下降学习梯度下降
- 脉冲神经网络中的代理梯度学习
- TorchOpt:一个高效的微分优化库
- ph-training:使用持久同调进行自动训练 - 使用拓扑数据分析(H0 持久性)来预测难度、寻找最佳学习率并实时检测过拟合(r=0.998)。
量化
量子机器学习
神经网络压缩
- 面向深度学习的贝叶斯压缩
- Intel AI Lab 的神经网络蒸馏器:一个用于神经网络压缩研究的 Python 包
- 通过 L0 正则化学习稀疏神经网络
- 基于加权稀疏投影和层输入掩码的深度神经网络能量约束压缩
- EigenDamage:在克罗内克分解特征基中的结构化剪枝
- 为资源高效推理而剪枝卷积神经网络
- 剪枝神经网络:是时候扼杀它于萌芽了吗?(展示缩减后的网络表现更好)
面部、动作与姿态识别
- Facenet:预训练的 PyTorch 人脸检测和识别模型
- DGC-Net:密集几何对应网络
- 基于 PyTorch 的高性能人脸识别库
- FaceBoxes:一款高精度的 CPU 实时人脸检测器
- 我们距离解决 2D 和 3D 人脸对齐问题还有多远?(以及包含 230,000 个 3D 面部标记点的数据集)
- 使用 3D 残差网络学习时空特征以进行动作识别
- PyTorch 实时多人姿态估计
- SphereFace:用于人脸识别的深度超球面嵌入
- GANimation:基于单张图像的解剖学感知面部动画
- Face++ 的 Shufflenet V2,效果优于论文
- 迈向野外 3D 人体姿态估计:一种弱监督方法
- 从视频中无监督学习深度和自运动
- FlowNet 2.0:利用深度网络演进的光流估计
- FlowNet:利用卷积网络学习光流
- 使用空间金字塔网络进行光流估计
- PyTorch 版本的 OpenFace
- PyTorch 中的深度人脸识别
超分辨率
合成视图
语音
医疗
- Medical Zoo,PyTorch 中的 3D 多模态医学图像分割库
- 用于脑部 MRI 中 FLAIR 异常分割的 U-Net
- 通过 ULMFiT 进行基因组分类
- 深度神经网络提高放射科医生在乳腺癌筛查中的表现
- Delira,用于医学成像原型的轻量级框架
- V-Net:用于体积医学图像分割的全卷积神经网络
- Medical Torch,PyTorch 的医学成像框架
- TorchXRayVision - 用于胸部 X 射线数据集和模型的库。包括预训练模型。
3D 分割、分类与回归
视频识别
循环神经网络 (RNNs)
- SRU: training RNNs as fast as CNNs
- Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks
- Averaged Stochastic Gradient Descent with Weight Dropped LSTM
- Training RNNs as Fast as CNNs
- Quasi-Recurrent Neural Network (QRNN)
- ReSeg: A Recurrent Neural Network-based Model for Semantic Segmentation
- A Recurrent Latent Variable Model for Sequential Data (VRNN)
- Improved Semantic Representations From Tree-Structured Long Short-Term Memory Networks
- Attention-Based Recurrent Neural Network Models for Joint Intent Detection and Slot Filling
- Attentive Recurrent Comparators
- Collection of Sequence to Sequence Models with PyTorch
- Vanilla Sequence to Sequence models
- Attention based Sequence to Sequence models
- Faster attention mechanisms using dot products between the final encoder and decoder hidden states
卷积神经网络 (CNNs)
- LegoNet: Efficient Convolutional Neural Networks with Lego Filters
- MeshCNN, a convolutional neural network designed specifically for triangular meshes
- Octave Convolution
- PyTorch Image Models, ResNet/ResNeXT, DPN, MobileNet-V3/V2/V1, MNASNet, Single-Path NAS, FBNet
- Deep Neural Networks with Box Convolutions
- Invertible Residual Networks
- Stochastic Downsampling for Cost-Adjustable Inference and Improved Regularization in Convolutional Networks
- Faster Faster R-CNN Implementation
- Paying More Attention to Attention: Improving the Performance of Convolutional Neural Networks via Attention Transfer
- Wide ResNet model in PyTorch -DiracNets: Training Very Deep Neural Networks Without Skip-Connections
- An End-to-End Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition
- Efficient Densenet
- Video Frame Interpolation via Adaptive Separable Convolution
- Learning local feature descriptors with triplets and shallow convolutional neural networks
- Densely Connected Convolutional Networks
- Very Deep Convolutional Networks for Large-Scale Image Recognition
- SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size
- Deep Residual Learning for Image Recognition
- Training Wide ResNets for CIFAR-10 and CIFAR-100 in PyTorch
- Deformable Convolutional Network
- Convolutional Neural Fabrics
- Deformable Convolutional Networks in PyTorch
- Dilated ResNet combination with Dilated Convolutions
- Striving for Simplicity: The All Convolutional Net
- Convolutional LSTM Network
- Big collection of pretrained classification models
- PyTorch Image Classification with Kaggle Dogs vs Cats Dataset
- CIFAR-10 on Pytorch with VGG, ResNet and DenseNet
- Base pretrained models and datasets in pytorch (MNIST, SVHN, CIFAR10, CIFAR100, STL10, AlexNet, VGG16, VGG19, ResNet, Inception, SqueezeNet)
- NVIDIA/unsupervised-video-interpolation
分割
- Detectron2 by FAIR
- Pixel-wise Segmentation on VOC2012 Dataset using PyTorch
- Pywick - High-level batteries-included neural network training library for Pytorch
- Improving Semantic Segmentation via Video Propagation and Label Relaxation
- Super-BPD: Super Boundary-to-Pixel Direction for Fast Image Segmentation
- Catalyst.Segmentation
- Segmentation models with pretrained backbones
几何深度学习:图与不规则结构
- PyTorch Geometric,深度学习扩展
- PyTorch Geometric Temporal:PyTorch Geometric 的时间序列扩展库
- PyTorch Geometric Signed Directed:PyTorch Geometric 的符号与有向扩展库
- ChemicalX:基于 PyTorch 的药物配对评分深度学习库
- 自注意力图池化
- 位置感知图神经网络
- 符号图卷积神经网络
- 图 U-Nets
- Cluster-GCN:用于训练深度和大型图卷积网络的高效算法
- MixHop:通过稀疏邻域混合实现高阶图卷积架构
- 半监督图分类:层次图视角
- FAIR 的 PyTorch BigGraph:用于从大规模图数据生成嵌入
- 胶囊图神经网络
- Splitter:学习捕捉多种社交上下文的节点表示
- 高阶图卷积层
- 预测然后传播:图神经网络遇见个性化 PageRank
- 洛伦兹嵌入:在双曲空间中学习连续层次
- 图小波神经网络
- 注意你的步骤:通过图注意力学习节点嵌入
- 符号图卷积网络
- 使用结构注意力进行图分类
- SimGNN:一种快速图相似度计算的神经网络方法
- SINE:可扩展的不完整网络嵌入
- HypER:超网络知识图谱嵌入
- TuckER:用于知识图谱补全的张量分解
- PyKEEN:用于学习和评估知识图谱嵌入的 Python 库
- Pathfinder Discovery Networks 用于神经消息传递
- SSSNET:半监督符号网络聚类
- MagNet:用于有向图的神经网络
- PyTorch Geopooling:PyTorch 中神经网络的地理空间池化模块
排序
常微分方程网络
多任务学习
生成对抗网络 (GANs)、变分自编码器 (VAEs) 和自编码器 (AEs)
- BigGAN:用于高保真自然图像合成的大规模 GAN 训练
- PyTorch 中生成模型的高保真性能指标
- Mimicry,用于 GAN 研究复现的 PyTorch 库
- Clean Readable CycleGAN
- StarGAN
- Block Neural Autoregressive Flow
- 使用条件 GAN 进行高分辨率图像合成与语义操作
- 一种基于样式的生成器架构用于生成对抗网络
- GANDissect,用于可视化 GAN 中神经元的 PyTorch 工具
- 通过互信息估计和最大化学习深度表示
- 变分拉普拉斯自编码器
- VeGANS,易于训练 GAN 的库
- 渐进式增长 GAN 以提高质量、稳定性和变化性
- 条件 GAN
- Wasserstein GAN
- 对抗生成 - 编码器网络
- 使用条件对抗网络进行图像到图像转换
- 使用循环一致对抗网络进行非配对图像到图像转换
- 关于批归一化和权重归一化在生成对抗网络中的影响
- 改进的 Wasserstein GAN 训练
- PyTorch 生成模型集合
- 改进的 Wasserstein GAN 训练
- CycleGAN 和半监督 GAN
- 使用 Householder Flow 和改进凸组合线性逆自回归流来改进变分自编码器
- PyTorch GAN 集合
- 生成对抗网络,专注于动漫人脸绘制
- 简单的生成对抗网络
- 对抗自编码器
- torchgan:用于在 PyTorch 中建模生成对抗网络的框架
- 评估深度生成模型的有损压缩率
- Catalyst.GAN
无监督学习
对抗攻击
风格迁移
- Pystiche:神经风格迁移框架
- 通过神经指纹检测对抗样本
- 艺术风格的神经算法
- 用于实时传输的多风格生成网络
- DeOldify,老照片上色
- 神经风格迁移
- 快速神经风格迁移
- 像 Bob Ross 一样绘画
图像描述
Transformer 架构
相似度网络与函数
推理
通用自然语言处理 (NLP)
- nanoGPT,用于训练/微调中等规模 GPT 的最快仓库
- minGPT,重新实现 GPT 使其小巧、简洁、可解释且具教育意义
- Espresso,模块化神经自动语音识别工具包
- 基于混合注意力的标签感知文档表示,用于极端多标签文本分类
- XLNet
- 通过阅读进行对话:按需机器阅读的有内容神经网络对话
- 跨语言语言模型预训练
- 通过 PyTorch(深度学习框架) NMT(神经机器翻译) 的 Libre Office 翻译
- BERT
- VSE++:改进的视觉 - 语义嵌入
- 一种结构化自注意力句子嵌入
- 神经序列标注模型
- Skip-Thought 向量
- PyTorch 中训练 Seq2Seq(序列到序列) 模型的完整套件
- MUSE:多语言无监督和有监督嵌入
- TorchMoji:PyTorch 实现的 DeepMoji,用于理解表达情感的语言
问答
语音生成与识别
- PyTorch-Kaldi 语音识别工具包
- WaveGlow:一种基于流的语音合成生成网络
- OpenNMT
- Deep Speech 2:英语和普通话的端到端语音识别
- WeNet:面向生产且就绪的端到端语音识别工具包
文档与文本分类
文本生成
文生图
翻译
情感分析
深度强化学习 (RL)
- 图像增强是你所需的一切:从像素正则化深度强化学习
- 通过随机网络蒸馏进行探索
- EGG:游戏中语言的涌现,快速实现具有离散通道通信的多智能体游戏
- 时序差分 VAE(变分自编码器)
- 180 行 PyTorch 代码的高性能 Atari A3C(异步优势演员 - 评论家) 代理
- 在大规模多智能体合作与竞争任务中学习何时通信
- 用于多智能体强化学习的 Actor-Attention-Critic
- PyTorch C++ 中的 PPO(近端策略优化)
- 结合模拟人类反馈的 Bandit 神经机器翻译强化学习
- 深度强化学习 (RL) 的异步方法
- 基于模型加速的连续深度 Q-Learning(Q 学习)
- 用于 Atari 2600 的深度强化学习 (RL) 异步方法
- 信任区域策略优化
- 结合强化学习的神经组合优化
- 用于探索的噪声网络
- 分布式近端策略优化
- ViZDoom 环境中的强化学习模型,使用 PyTorch
- 使用 Gym 和 Pytorch 的强化学习模型
- SLM-Lab:PyTorch 中的模块化深度强化学习框架
- Catalyst.RL
深度贝叶斯学习与概率编程
- BatchBALD:高效且多样化的深度贝叶斯主动学习批次采集
- 贝叶斯深度学习的子空间推断
- 带有变分推断包的贝叶斯深度学习
- PyTorch 中的概率编程与统计推断
- PyTorch 中具有变分推理的贝叶斯 CNN(卷积神经网络)
脉冲神经网络 (SNN)
异常检测
回归类型
时间序列
- 用于多变量时间序列预测的双重自注意力网络 (Dual Self-Attention Network)
- DILATE: 带有形状和时间的失真损失 (DIstortion Loss with shApe and tImE)
- 用于时间序列聚类的变分循环自编码器 (Variational Recurrent Autoencoder)
- 用于时空系列建模和关系发现的时空神经网络 (Spatio-Temporal Neural Networks)
- Flow Forecast: 基于 PyTorch 构建的时间序列预测深度学习框架
合成数据集
神经网络通用改进
- PH Training: 基于持久同调 (Persistent Homology) 的训练监控器,利用拓扑数据分析 (Topological Data Analysis) 早期检测过拟合 (Overfitting)
- PyTorch 的人工树突网络库 (The Artificial Dendrite Network Library)
- 用于 DNN 内存优化训练的原地激活批归一化 (In-Place Activated BatchNorm)
- 训练更久,泛化更好:缩小神经网络大批次训练中的泛化差距 (Generalization Gap)
- FreezeOut: 通过逐步冻结层来加速训练
- 二元随机神经元 (Binary Stochastic Neurons)
- 紧凑双线性池化 (Compact Bilinear Pooling)
- PyTorch 中的混合精度训练 (Mixed Precision Training)
深度神经网络 (DNN) 在化学和物理中的应用
- 波物理作为模拟循环神经网络 (Recurrent Neural Network)
- 用于量子化学的神经消息传递 (Neural Message Passing)
- 使用数据驱动的分子连续表示进行自动化学设计
- 物理过程的深度学习:整合先验科学知识 (Deep Learning for Physical Processes)
- 用于学习和控制的微分分子模拟 (Differentiable Molecular Simulation)
关于通用神经网络架构的新思考
- 互补目标训练 (Complement Objective Training)
- 使用合成梯度 (Synthetic Gradients) 的解耦神经接口 (Decoupled Neural Interfaces)
线性代数
API 抽象
- Torch Layers, PyTorch 的形状推断 (Shape inference), 最先进 (SOTA) 层
- Hummingbird, 使用 PyTorch 在 GPU (图形处理器) 上运行训练好的 scikit-learn 模型
底层工具
PyTorch 工具集
- Functorch:用于 PyTorch 的类似 JAX 的可组合函数转换器原型
- Poutyne:简化神经网络训练框架
- PyTorch 度量学习
- Kornia:用于 PyTorch 的开源可微计算机视觉库
- BackPACK:轻松提取方差、高斯 - 牛顿对角线和 KFAC
- PyHessian:用于计算海森矩阵特征值、矩阵迹和 ESD
- Hessian in PyTorch
- 可微凸层
- Albumentations:快速图像增强库
- Higher:获取跨越训练循环损失的高阶梯度
- Neural Pipeline,PyTorch 训练流水线
- 逐层 PyTorch 模型分析器,用于检查模型时间消耗
- 稀疏分布
- Diffdist:添加对可微通信的支持,以实现分布式模型并行
- HessianFlow:基于海森矩阵算法的库
- Texar,用于文本生成的 PyTorch 工具包
- PyTorch FLOPs 计数器
- Windows 下 C++ 上的 PyTorch 推理
- EuclidesDB:多模型机器学习特征数据库
- PyTorch 的数据增强与采样
- PyText,由 FAIR 官方维护的基于深度学习的自然语言处理 (NLP) 建模框架
- Torchstat:用于 PyTorch 模型的统计信息
- 直接将音频文件加载到 PyTorch 张量中
- 权重初始化
- 在 PyTorch 中实现的空间变换器
- PyTorch AWS AMI,在不到 5 分钟内运行支持 GPU 的 PyTorch
- 将 TensorBoard 与 PyTorch 配合使用
- PyTorch 中的简单拟合模块,类似于 Keras
- torchbearer:用于 PyTorch 的模型拟合库
- PyTorch 到 Keras 模型转换器
- 带代码生成的 Gluon 到 PyTorch 模型转换器
- Catalyst:用于 PyTorch 深度学习 (DL) 与强化学习 (RL) 研究的高级工具
- PyTorch Lightning:可扩展且轻量级的深度学习研究框架
- Determined:支持 PyTorch 的可扩展深度学习平台
- PyTorch-Ignite:灵活透明地帮助在 PyTorch 中训练和评估神经网络的高级库
- torchvision:一个包含流行数据集、模型架构和计算机视觉常用图像转换的包。
- Poutyne:一个类似 Keras 的 PyTorch 框架,处理训练神经网络所需的大部分样板代码。
- torchensemble:PyTorch 中类似 Scikit-Learn 的集成方法
- TorchFix - 带有自动修复支持的 PyTorch 代码检查器
- pytorch360convert - 360°等距柱状投影图像、立方图和透视投影之间的可微图像转换
- torchcurves - 用于 PyTorch 的可微参数曲线模块
PyTorch 视频教程
- PyTorch 从零开始讲座
- PyTorch 深度学习完整课程
- PyTorch Lightning 101 (Alfredo Canziani 和 William Falcon)
- PyTorch 实用深度学习
社区
待分类
- 扰动神经网络
- 精确神经网络势函数
- 扩展散射变换:深度混合网络
- CortexNet:用于鲁棒视觉时序表示的通用网络家族
- 定向响应网络
- 关联压缩网络
- Clarinet
- 连续小波变换
- mixup:超越经验风险最小化
- 网络中的网络
- 高速公路网络
- 使用具有动态外部记忆的神经网络进行混合计算
- 价值迭代网络
- 可微神经计算机
- 草图的神经表示
- 通过反转理解深度图像表示
- NIMA:神经图像评估
- NASNet-A-Mobile。移植后的权重
- 使用 Processing 生成图形的代码模型
指向本仓库的链接
贡献
欢迎随时参与贡献!
您可以提出 issue(问题)或提交 pull request(拉取请求),选择对您更方便的方式即可。指南很简单:只需遵循前一个项目符号的格式,如果是新类别则创建新章节。
面向 AI Agents(人工智能代理)的全新专属列表 | The Incredible AI Agents
欢迎访问 The Incredible AI Agents,这是一个关于构建、评估、部署及监控 AI Agents 的资源精选列表。欢迎查看、Star(星标)、分享和/或贡献!
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。