awesome-graph-explainability-papers
awesome-graph-explainability-papers 是一个专注于图神经网络(GNN)可解释性研究的开源资源库。它系统性地整理了该领域的高质量学术论文、综述文章以及实用的评估平台代码,旨在帮助从业者深入理解 GNN 的决策逻辑。
针对图神经网络常被视为“黑盒”、难以追溯预测依据这一痛点,该资源库提供了从理论定义、分类体系到评估指标的全方位指引。它不仅收录了关于可信图学习、反事实解释等前沿主题的权威综述,还汇集了 PyTorch Geometric、GraphXAI、BAGEL 等主流工具库与基准测试平台,甚至包含了由 CogDL 精选的高影响力经典论文,如 GNNExplainer 和 PGExplainer 等。
这份清单特别适合人工智能研究人员、算法工程师以及对图机器学习感兴趣的高校师生使用。无论是希望快速把握领域发展脉络的初学者,还是正在寻找实验基准或对比方法的资深开发者,都能从中高效获取所需信息。通过整合理论与实战资源,awesome-graph-explainability-papers 极大地降低了探索 GNN 可解释性的门槛,是推动构建更透明、可信图智能系统的重要参考指南。
使用场景
某金融风控团队正在开发基于图神经网络(GNN)的反欺诈系统,急需向监管机构和业务方解释模型为何将特定交易判定为高风险。
没有 awesome-graph-explainability-papers 时
- 文献检索如大海捞针:团队成员需手动在 arXiv 和各大会议中筛选论文,耗时数周仍难以厘清 GNNExplainer、PGExplainer 等主流方法的区别与适用场景。
- 缺乏统一评估标准:自行设计的解释性验证指标主观性强,无法证明生成的“子图解释”是否真正反映了模型的决策逻辑,导致内部评审陷入僵局。
- 复现成本极高:找不到经过验证的代码实现或基准测试平台,算法工程师需从零编写解释器代码,极易引入 Bug 且难以对齐最新学术成果。
- 合规报告难以撰写:面对监管询问,只能提供晦涩的数学公式,缺乏权威的综述文章作为理论支撑,难以建立信任。
使用 awesome-graph-explainability-papers 后
- 快速构建知识体系:直接利用列表中的综述论文(如 TPAMI 22 的分类调查),团队在两天内就掌握了可解释性方法的技术图谱,精准锁定了适合金融场景的算法。
- 引入权威评估框架:借助收录的 GraphXAI 和 BAGEL 等基准平台,团队建立了客观的量化评估流程,用数据证明了模型解释的可靠性与稳定性。
- 高效落地开源方案:通过链接直接获取 PyTorch Geometric 教程及 GNNExplainer 官方代码,将原本需要一个月的开发周期缩短至三天,迅速完成原型验证。
- 提升报告说服力:引用列表中 ACM Computing Survey 等顶级期刊观点,为合规报告提供了坚实的理论背书,顺利通过了外部审计。
awesome-graph-explainability-papers 将分散的学术资源转化为结构化的工程指南,极大地降低了图神经网络在关键领域落地的信任门槛与研发成本。
运行环境要求
未说明
未说明

快速开始
令人惊叹的图可解释性论文
关于图神经网络可解释性的论文
综述类
- [ACM计算综述25] 解释图神经网络中的解释器:一项比较研究 论文
- [IEEE会议论文集24] 可信图神经网络:方面、方法与趋势 论文
- [预印本24] 基于图的可解释AI:全面综述 论文
- [Arxiv 23] 图神经网络可解释性综述 论文
- [ACM计算综述] 图反事实解释综述:定义、方法、评估与研究挑战 论文
- [TPAMI 22]图神经网络中的可解释性:分类学综述。袁浩、于海洋、桂树睿、季水旺。论文
- [Arxiv 22]可解释图神经网络综述:分类与评估指标 论文
- [Arxiv 22] 可信图学习综述:可靠性、可解释性与隐私保护 论文
- [大数据2022]用于网络恶意软件分析的可解释图神经网络综述 论文
- [机器智能研究24] 可信图神经网络综合综述:隐私、鲁棒性、公平性与可解释性论文
- [书籍23] 图神经网络的生成式解释:方法与评估 论文
平台类
- PyTorch Geometric [文档] [博客]
- DIG:深入图深度学习研究的一站式库 论文 代码
- GraphXAI:评估图神经网络的可解释性 论文 代码
- GraphFramEx:迈向图神经网络可解释性方法的系统化评估 论文 代码
- GNNExplainer和PGExplainer 论文 代码
- BAGEL:评估图神经网络解释的基准测试 [论文]代码
由Cogdl选出的最具影响力论文
- 图神经网络中的可解释性:分类学综述。袁浩、于海洋、桂树睿、季水旺。ARXIV 2020年。论文
- Gnnexplainer:为图神经网络生成解释。Ying Rex、Bourgeois Dylan、You Jiaxuan、Zitnik Marinka、Leskovec Jure。NeurIPS 2019年。论文 代码
- 图卷积神经网络的可解释性方法。Pope Phillip E、Kolouri Soheil、Rostami Mohammad、Martin Charles E、Hoffmann Heiko。CVPR 2019年。论文
- 图神经网络的参数化解释器。Luo Dongsheng、Cheng Wei、Xu Dongkuan、Yu Wenchao、Zong Bo、Chen Haifeng、Zhang Xiang。NeurIPS 2020年。论文 代码
- Xgnn:迈向图神经网络的模型级解释。袁浩、Tang Jiliang、Hu Xia、季水旺。KDD 2020年。论文。
- 评估图神经网络的归因。Sanchez-Lengeling Benjamin、Wei Jennifer、Lee Brian、Reif Emily、Wang Peter、Qian Wesley、McCloskey Kevin、Colwell Lucy、Wiltschko Alexander。NeurIPS 2020年。论文
- PGM-Explainer:图神经网络的概率图模型解释。Vu Minh、Thai My T.。NeurIPS 2020年。论文
- 基于解释的弱监督视觉关系学习与图网络。Federico Baldassarre、Kevin Smith、Josephine Sullivan、Hossein Azizpour。ECCV 2020年。论文
- GCAN:面向社交媒体上可解释假新闻检测的图感知协同注意力网络。Lu、Yi-Ju和Li、Cheng-Te。ACL 2020年。论文
- 通过子图探索实现图神经网络可解释性。袁浩、于海洋、Wang Jie、Li Kang、季水旺。ICML 2021年。论文
2026年
- [ICLR 26] 无法真正解释的GNN解释及其发现方法[论文]
2025年
- [NIPS 25] 基于图曲率的图神经网络鲁棒解释[论文]
- [NIPS 25] GnnXemplar:示例即解释——用于全局图神经网络可解释性的自然语言规则[论文]
- [NIPS 25] 基于逻辑的自解释图神经网络研究[论文]
- [ICLR 25] 图神经网络任意阶Shapley交互作用的精确计算[论文]
- [ICLR 25] 从图神经网络到树结构:图神经网络的多粒度可解释性[论文]
- [ICLR 25] 针对图扰动攻击的可证明鲁棒可解释图神经网络[论文]
- [ICLR 25] 迈向解释常深度图神经网络在线性规划中的能力[论文]
- [ICLR 25] 基于公理化层边的演化图上GNN解释[论文]
- [ICLR 25] MAGE:基于基元图生成的模型级图神经网络解释[论文]
- [AAAI 25] 用于图解释的高阶结构[论文]
- [AAAI 25] 用于链接符号预测的自解释图Transformer[论文]
- [AAAI 25] 基于计算树视角的忠实且准确的自注意力归因,应用于消息传递神经网络[论文]
- [AAAI 25] 图分割与对比增强型图神经网络解释器[论文]
- [TKDD 25] DyExplainer:可解释的动态图神经网络[论文]
- [Arxiv 25.05] 基于子图匹配的双重解释方法用于恶意软件检测[论文]
- [Arxiv 25.04] 关于图神经网络在恶意软件检测中解释的一致性问题[论文]
- [Arxiv 25.01] 通过解释技术对图神经网络进行水印标记以保护所有权[论文]
- [Arxiv 25.01] 混合专家图Transformer用于可解释的粒子碰撞检测[论文]
- [ACM Computing Surveys] 图神经网络能否被充分解释?一项综述[论文]
- [IEEE TNSRE] 利用可解释图神经网络寻找运动学习与康复的神经生物标志物[论文]
- [Springer FCS] 借鉴捷径:一种基于捷径引导的可解释图学习方法[论文]
- [NN] 具有多头图通道注意力网络的局部可解释垃圾信息检测模型[论文]
- [Applied Intelligence] KnowGNN:一种知识感知、结构敏感的模型级图神经网络解释器[论文]
- [ICML 25] TopInG:基于持久性理由过滤的拓扑可解释图学习[论文] [项目]
Year 2024
- [NeurIPS 24] RegExplainer: Generating Explanations for Graph Neural Networks in Regression Task [paper]
- [NeurIPS 24] GraphTrail: Translating GNN Predictions into Human-Interpretable Logical Rules[paper]
- [ICML 24] Generating In-Distribution Proxy Graphs for Explaining Graph Neural Networks[paper]
- [ICML 24] Predicting and Interpreting Energy Barriers of Metallic Glasses with Graph Neural Networks [paper]
- [ICML 24] Graph Neural Network Explanations are Fragile [paper]
- [ICML 24] How Interpretable Are Interpretable Graph Neural Networks? [paper]
- [ICML 24] Feature Attribution with Necessity and Sufficiency via Dual-stage Perturbation Test for Causal Explanation[paper]
- [ICML 24] Explaining Graph Neural Networks via Structure-aware Interaction Index [paper]
- [ICML 24] EiG-Search: Generating Edge-Induced Subgraphs for GNN Explanation in Linear Time [paper]
- [ICLR 24] GraphChef: Decision-Tree Recipes to Explain Graph Neural Networks [paper]
- [ICLR 24] GOAt: Explaining Graph Neural Networks via Graph Output Attribution [paper]
- [ICLR 24] Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [paper]
- [ICLR 24] GNNX-BENCH: Unravelling the Utility of Perturbation-based GNN Explainers through In-depth Benchmarking [paper]
- [ICLR 24] UNR-Explainer: Counterfactual Explanations for Unsupervised Node Representation Learning Models [paper]
- [TPAMI 24] Towards Inductive and Efficient Explanations for Graph Neural Networks[paper]
- [Openreview 24] Robust Graph Attention for Graph Adversarial Attacks: An Information Bottleneck Inspired Approach[paper]
- [Openreview 24] AIMing for Explainability in GNNs[paper]
- [Openreview 24] Graph Distributional Analytics: Enhancing GNN Explainability through Scalable Embedding and Distribution Analysis[paper]
- [Openreview 24] Watermarking Graph Neural Networks Via Explanations For Ownership Protection[paper]
- [Openreview 24] Explainable Graph Representation Learning via Graph Pattern Analysis [paper]
- [Openreview 24] Robust Heterogeneous Graph Neural Network Explainer with Graph Information Bottleneck [paper]
- [Openreview 24] A Hierarchical Language Model Design For Interpretable Graph Reasoning [paper]
- [Openreview 24] The GECo algorithm for Graph Neural Networks Explanation [paper]
- [Openreview 24] On Explaining Equivariant Graph Networks via Improved Relevance Propagation [paper]
- [Openreview 24] SIG: Self-Interpretable Graph Neural Network for Continuous-time Dynamic Graphs [paper]
- [Openreview 24] Interpretable and Adaptive Graph Contrastive Learning with Information Sharing for Biomedical Link Prediction [paper]
- [Openreview 24] TAGExplainer: Narrating Graph Explanations for Text-Attributed Graph Learning Models [paper]
- [Openreview 24] TreeX: Generating Global Graphical GNN Explanations via Critical Subtree Extraction [paper]
- [TMLR 24] InduCE: Inductive Counterfactual Explanations for Graph Neural Networks [paper]
- [PLDI 24] PL4XGL: A Programming Language Approach to Explainable Graph Learning[paper]
- [Usenix Security 24] INSIGHT: Attacking Industry-Adopted Learning Resilient Logic Locking Techniques Using Explainable Graph Neural Network[paper]
- [SIGMOD 24]View-based Explanations for Graph Neural Networks [paper]
- [ACM SIGMOD Record] The Road to Explainable Graph Neural Networks [paper]
- [Thesis UCLA] Explainable Artificial Intelligence for Graph Data[paper]
- [Thesis UVA] Algorithmic Fairness in Graph Machine Learning: Explanation, Optimization, and Certification[paper]
- [KDD 24] SEFraud: Graph-based Self-Explainable Fraud Detection via Interpretative Mask Learning[paper]
- [KDD 24] Self-Explainable Temporal Graph Networks based on Graph Information Bottleneck[paper]
- [KDD 24] Unveiling Global Interactive Patterns across Graphs: Towards Interpretable Graph Neural Networks[paper]
- [ICDE 24] Generating Robust Counterfactual Witnesses for Graph Neural Networks [paper]
- [ICDE 24] SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks[paper]
- [ICSE 24] Coca: Improving and Explaining Graph Neural Network-Based Vulnerability Detection Systems[paper]
- [AAAI 24] Generating Diagnostic and Actionable Explanations for Fair Graph Neural Networks [paper]
- [AAAI 24] Stratifed GNN Explanations through Sufficient Expansion[paper]
- [AAAI 24] Factorized Explainer for Graph Neural Networks[paper]
- [AAAI 24] Self-Interpretable Graph Learning with Sufficient and Necessary Explanations
- [AAAI 24] Explainable Origin-Destination Crowd Flow Interpolation via Variational Multi-Modal Recurrent Graph Auto-Encoder [paper]
- [AISTATS 24] Two Birds with One Stone: Enhancing Uncertainty Quantification and Interpretability with Graph Functional Neural Process [paper]
- [WWW 24] Game-theoretic Counterfactual Explanation for Graph Neural Networks [paper]
- [WWW 24] EXGC: Bridging Efficiency and Explainability in Graph Condensation[paper]
- [WWW 24] Adversarial Mask Explainer for Graph Neural Networks [paper]
- [WWW 24] Globally Interpretable Graph Learning via Distribution Matching[paper]
- [WWW 24] GNNShap: Scalable and Accurate GNN Explanation using Shapley Values [paper]
- [LOG 24] xAI-Drop: Don't Use What You Cannot Explain[paper]
- [LOG 24] MOSE-GNN: A Motif-Based Self-Explaining Graph Neural Network for Molecular Property Prediction [paper]
- [TNNLS 24] BrainIB: Interpretable Brain Network-based Psychiatric Diagnosis with Graph Information Bottleneck [paper]
- [TKDE 24] On Regularization for Explaining Graph Neural Networks: An Information Theory Perspective [paper]
- [TKDD 24] Towards Prototype-Based Self-Explainable Graph Neural Network [paper]
- [TKDD 24] Efficient GNN Explanation via Learning Removal-based Attribution [paper]
- [TAI 24] Learning Counterfactual Explanation of Graph Neural Networks via Generative Flow Network[paper]
- [TAI 24] Traffexplainer: A Framework towards GNN-based Interpretable Traffic Prediction [paper]
- [TMC 24] HGExplainer: Heterogeneous Graph Explainer for IoT Device Identification[paper]
- [IEEE TMI 24] Multi-Modal Diagnosis of Alzheimer’s Disease using Interpretable Graph Convolutional Networks[paper]
- [IEEE IoT 24] EXVul: Toward Effective and Explainable Vulnerability Detection for IoT Devices[paper]
- [IEEE Transactions on Fuzzy Systems] Towards Embedding Ambiguity-Sensitive Graph Neural Network Explainability [paper]
- [IEEE JBHI] Interpretable Dynamic Directed Graph Convolutional Network for Multi-Relational Prediction of Missense Mutation and Drug Response[paper]
- [IDEAL 2024] Causal Explanation of Graph Neural Networks[paper]
- [BIBM 24] Seizure Onset Zone Localization Method based on GNN Explanation [paper]
- [BIBM 24] DDTExplainer: Mining Drug-Disease Therapeutic Mechanisms based on GNN Explainability [paper]
- [CIKM 24] EDGE: Evaluation Framework for Logical vs. Subgraph Explanations for Node Classifiers on Knowledge Graphs[paper]
- [ECML/PKDD 24] Towards Few-shot Self-explaining Graph Neural Networks[paper]
- [SDM 24] XGExplainer: Robust Evaluation-based Explanation for Graph Neural Networks[paper]
- [DASFAA 24] Multi-objective Graph Neural Network Explanatory Model with Local and Global Information Preservation[paper]
- [ISSTA 2024] Graph Neural Networks for Vulnerability Detection: A Counterfactual Explanation [paper]
- [KBS 24] Shapley-based graph explanation in embedding space[paper]
- [KBS 24] GEAR: Learning graph neural network explainer via adjusting gradients[paper]
- [IEEE TNSM 24] Ensemble Graph Attention Networks for Cellular Network Analytics: From Model Creation to Explainability[paper]
- [IEEE TNSE 24] GAXG: A Global and Self-adaptive Optimal Graph Topology Generation Framework for Explaining Graph Neural Networks[paper]
- [IEEE TETCI 24] GF-LRP: A Method for Explaining Predictions Made by Variational Graph Auto-Encoders[paper]
- [AAAI workshop] Semi-Supervised Graph Representation Learning with Human-centric Explanation for Predicting Fatty Liver Disease[paper]
- [xAI 24] Global Concept Explanations for Graphs by Contrastive Learning [paper]
- [Arxiv 24.12] BetaExplainer: A Probabilistic Method to Explain Graph Neural Networks[paper]
- [Arxiv 24.12] GISExplainer: On Explainability of Graph Neural Networks via Game-theoretic Interaction Subgraphs [paper]
- [Arxiv 24.12] Interpreting GNN-based IDS Detections Using Provenance Graph Structural Features [paper]
- [Arxiv 24.12] eXpath: Explaining Knowledge Graph Link Prediction with Ontological Closed Path Rules[paper]
- [Arxiv 24.12] On the Probability of Necessity and Sufficiency of Explaining Graph Neural Networks: A Lower Bound Optimization Approach [paper]
- [Arxiv 24.11] Rethinking Node Representation Interpretation through Relation Coherence[paper]
- [Arxiv 24.11] MBExplainer: Multilevel bandit-based explanations for downstream models with augmented graph embeddings [paper]
- [Arxiv 24.11] Securing GNNs: Explanation-Based Identification of Backdoored Training Graphs[paper]
- [Preprint 24.11] Chiseling the Graph: An Edge-Sculpting Method for Explaining Graph Neural Networks [paper]
- [Preprint 24.10] Reliable and Faithful Generative Explainers for Graph Neural Networks[paper]
- [Arxiv 24.10] Explaining Hypergraph Neural Networks: From Local Explanations to Global Concepts[paper]
- [Arxiv 24.10] Explainable Graph Neural Networks Under Fire [paper]
- [Arxiv 24.09] GINTRIP: Interpretable Temporal Graph Regression using Information bottleneck and Prototype-based method [paper]
- [Arxiv 24.09] PAGE: Parametric Generative Explainer for Graph Neural Network [paper]
- [Preprint 24.08] CIDER: Counterfactual-Invariant Diffusion-based GNN Explainer for Causal Subgraph Inference[paper]
- [Arxiv 24.07] LLMExplainer: Large Language Model based Bayesian Inference for Graph Explanation Generation[paper]
- [Arxiv 24.07] Explaining Graph Neural Networks for Node Similarity on Graphs[paper]
- [Arxiv 24.07] SLInterpreter: An Exploratory and Iterative Human-AI Collaborative System for GNN-based Synthetic Lethal Prediction[paper]
- [Arxiv 24.07] Graph Neural Network Causal Explanation via Neural Causal Models[paper]
- [Arxiv 24.06] GNNAnatomy: Systematic Generation and Evaluation of Multi-Level Explanations for Graph Neural Networks[paper]
- [Arxiv 24.06] On GNN explanability with activation rules[paper]
- [Arxiv 24.05] SIG: Efficient Self-Interpretable Graph Neural Network for Continuous-time Dynamic Graphs[paper]
- [Arxiv 24.06] L2XGNN: Learning to Explain Graph Neural Networks [paper]
- [Arxiv 24.06] Towards Understanding Sensitive and Decisive Patterns in Explainable AI: A Case Study of Model Interpretation in Geometric Deep Learning[paper]
- [Arxiv 24.06] Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [paper]
- [Arxiv 24.06] Robust Ante-hoc Graph Explainer using Bilevel Optimization [paper]
- [Arxiv 24.06] Perks and Pitfalls of Faithfulness in Regular, Self-Explainable and Domain Invariant GNNs [paper]
- [Arxiv 24.05] Utilizing Description Logics for Global Explanations of Heterogeneous Graph Neural Networks [paper]
- [Arxiv 24.05] Detecting Complex Multi-step Attacks with Explainable Graph Neural Network [paper]
- [Arxiv 24.05] SynHING: Synthetic Heterogeneous Information Network Generation for Graph Learning and Explanation[paper]
- [Arxiv 24.05] PAGE: Prototype-Based Model-Level Explanations for Graph Neural Networks [paper]
- [Arxiv 24.05] Evaluating Neighbor Explainability for Graph Neural Networks [paper]
- [Preprint 24.05] Explainable Graph Neural Networks: An Application to Open Statistics Knowledge Graphs for Estimating House Prices [paper]
- [Arxiv 24.04] Superior Polymeric Gas Separation Membrane Designed by Explainable Graph Machine Learning [paper]
- [Arxiv 24.04] Improving the interpretability of GNN predictions through conformal-based graph sparsification [paper]
- [Arxiv 24.03] GreeDy and CoDy: Counterfactual Explainers for Dynamic Graph[paper]
- [Arxiv 24.03] Explainable Graph Neural Networks for Observation Impact Analysis in Atmospheric State Estimation[paper]
- [Arixv 24.03] Iterative Graph Neural Network Enhancement via Frequent Subgraph Mining of Explanations[paper]
- [Arxiv 24.02] PAC Learnability under Explanation-Preserving Graph Perturbations[paper]
- [Arxiv 24.02] Explainable Global Wildfire Prediction Models using Graph Neural Networks[paper]
- [Arxiv 24.02] Incorporating Retrieval-based Causal Learning with Information Bottlenecks for Interpretable Graph Neural Networks[paper]
- [Arxiv 24.01] On Discprecncies between Perturbation Evaluations of Graph Neural Network Attributions[paper]
- [ASP=DAC 24] LIPSTICK: Corruptibility-Aware and Explainable Graph Neural Network-based Oracle-Less Attack on Logic Locking[paper]
- [Biorxiv 24] Community-aware explanations in knowledge graphs with XP-GNN[paper]
- [ISCV 24] Adaptive Subgraph Feature Extraction for Explainable Multi-Modal Learning[paper]
- [IJCNN 24] Explanations for Graph Neural Networks using A Game-theoretic Value[paper]
- [AIxIA 2024] Relating Explanations with the Inductive Biases of Deep Graph Networks [paper]
- [Neurocomputing] GeoExplainer: Interpreting Graph Convolutional Networks with geometric masking[paper]
- [Technologies] Explainable Graph Neural Networks: An Application to Open Statistics Knowledge Graphs for Estimating House Prices[paper]
- [Reliab. Eng. Syst. Saf.] Causal intervention graph neural network for fault diagnosis of complex industrial processes[paper]
- [Frontiers in big data] Global explanation supervision for Graph Neural Networks[paper]
- [Information and Software Technology] Graph-based explainable vulnerability prediction[paper]
- [Information Systems] Heterogeneous graph neural networks for fraud detection and explanation in supply chain finance[paper]
- [Information Procs. & Mana.] Towards explaining graph neural networks via preserving prediction ranking and structural dependency[paper]
- [Applied Energy] Explainable Spatio-Temporal Graph Neural Networks for multi-site photovoltaic energy production [paper]
- [PAKDD 24] Random Mask Perturbation Based Explainable Method of Graph Neural Networks [paper]
- [Computational Materials Science] Graph isomorphism network for materials property prediction along with explainability analysis[paper]
- [NN 24] Explanatory subgraph attacks against Graph Neural Networks[paper]
- [NN 24] GRAM: An interpretable approach for graph anomaly detection using gradient attention maps[paper]
- [Neural Networks 24] CI-GNN: A Granger Causality-Inspired Graph Neural Network for Interpretable Brain Network-Based Psychiatric Diagnosis [paper]
- [NeuroImage 24] BPI-GNN: Interpretable brain network-based psychiatric diagnosis and subtyping[paper]
- [PAKDD 24] Toward Interpretable Graph Classification via Concept-Focused Structural Correspondence [paper]
- [ICPR 24] Interpretable Deep Graph-Level Clustering: A Prototype-Based Approach [paper]
- [MedRxiv 24] An Interpretable Population Graph Network to Identify Rapid Progression of Alzheimer’s Disease Using UK Biobank[paper]
- [IEEE TDSC 24] TrustGuard: GNN-based Robust and Explainable Trust Evaluation with Dynamicity Support [paper]
- [IEEE Transactions] IEEE Transactions on Computational Social Systems[paper]
- [Journal of Physics] Explainer on GNN-based segmentation networks[paper]
- [Energy and AI] Electricity demand forecasting at distribution and household levels using explainable causal graph neural network [paper]
- [HI-AI@KDD 24] Interpretable Graph Model with Prototype-Based Graph Information Bottleneck [paper]
- [Neurosymbolic Artificial Intelligence] Towards Semantic Understanding of GNN Layers embedding with Functional-Semantic Activation Mapping [paper]
- [NeSy 2024] Towards Understanding Graph Neural Networks: Functional-Semantic Activation Mapping[paper]
- [Thesis 24] Explainable and physics-guided graph deep learning for air pollution modelling [paper]
- [Thesis 24] Influence of molecular structures on graph neural network explainers’ performance[paper]
2023年
- [NeurIPS 23] 可解释图网络提出通用代数猜想[论文]
- [NeurIPS 23] SAME:基于结构感知Shapley值的分段式解释方法揭示GNN黑箱[论文]
- [NeurIPS 23] 一次训练,处处解释:预训练可解释图神经网络[论文]
- [NeurIPS 23] D4Explainer:通过离散去噪扩散模型实现图神经网络的分布内解释[论文]
- [NeurIPS 23] TempME:基于模体发现提升时序图神经网络的可解释性[论文]
- [NeurIPS 23] V-InFoR:针对结构受损图的鲁棒图神经网络解释器[论文]
- [NeurIPS 23] 迈向自解释的图级别异常检测[论文]
- [NeurIPS 23] 基于鲁棒性分析评估图神经网络的事后解释方法[论文]
- [NeurIPS 23] 基于原型的可解释图信息瓶颈[论文]
- [ICML 23] 重新思考:通过非参数子图匹配解释图神经网络[论文]
- [ICML 23] 相关游走搜索:用于解释图神经网络的方法[论文]
- [ICML 23] 迈向理解图神经网络的泛化能力[论文]
- [ICLR 23] GNNInterpreter:面向图神经网络的概率生成模型级解释[论文]
- [ICLR 23] 通过学习概念的逻辑组合实现GNN的全局可解释性[论文]
- [ICLR 23] 基于探索-导航框架解释时序图模型[论文]
- [ICLR 23] DAG很重要!增强版GFlowNets用于图神经网络的解释[论文]
- [ICLR 23] 通过可学习的随机性注入实现可解释的几何深度学习[论文]
- [ICLR 23] 从微分几何视角看演化图上的GNN及其可解释性[论文]
- [KDD 23] MixupExplainer:利用数据增强推广图神经网络的解释方法[论文]
- [KDD 23] 基于贪婪扰动的异质图反事实学习[论文]
- [KDD 23] 借助信息瓶颈赋能事后图解释:预训练与微调视角[论文]
- [KDD 23] 少即是多:SlimG用于精准、鲁棒且可解释的图挖掘[论文]
- [KDD 23] 基于因果子结构的分子关系学习具有迁移鲁棒性[论文]
- [AAAI 23] 基于神经元分析实现图神经网络的全局概念级可解释性[论文]
- [AAAI 23] 关于解释黑盒时序图神经网络的极限[论文]
- [AAAI 23] 迈向异质图神经网络的细粒度可解释性[论文]
- [AAAI 23] 可解释的手性感知图神经网络用于药物发现中的定量构效关系建模[论文]
- [VLDB 23] HENCE-X:面向异质性的多层级深度图网络解释框架[论文]
- [VLDB 23] 关于图神经网络的数据感知型全局可解释性[论文]
- [AISTATS 23] 蒸馏并解释:使用简单代理模型解释图神经网络[论文]
- [AISTATS 23] 探究图表示[论文]
- [ICDE 23] INGREX:图神经网络的交互式解释框架[论文]
- [ICDE 23] 联合攻击图神经网络及其解释方法[论文]
- [WWW 23] PaGE-Link:基于路径的异质链接预测图神经网络解释[论文]
- [ICDM 23] 基于扰动的解释方法在时序图神经网络中的局限性
- [ICDM 23] 面向超链接预测的可解释子图特征提取[论文]
- [WSDM 23] 利用时序异质图检测研究兴趣变化的可解释方法[论文]
- [WSDM 23] 图神经网络的合作式解释[论文]
- [WSDM 23] 迈向忠实且一致的图神经网络解释[论文]
- [WSDM 23] 图神经网络的全局反事实解释器[论文]
- [CIKM 23] 可解释的时空图神经网络[论文]
- [CIKM 23] DuoGAT:双时间导向的图注意力网络,用于准确、高效且可解释的时序异常检测[论文]
- [CIKM 23] 异质时序图神经网络解释器[论文]
- [CIKM 23] ACGAN-GNNExplainer:辅助条件生成式图神经网络解释器[论文]
- [CIKM 23] KG4Ex:基于可解释知识图谱的运动推荐方法[论文]
- [ECML-PKDD 23] ENGAGE:基于解释引导的数据增强用于图表示学习[论文]
- [TPAMI 23] FlowX:通过消息流实现可解释的图神经网络[论文]
- [TAI] 基于原型的可解释图神经网络[论文]
- [TKDE 23] 基于反事实图学习的属性图异常检测[论文]
- [Scientific Data 23] 评估图神经网络的可解释性[论文]
- [Nature Communications 23] 结合子结构掩码的化学直观解释用于分子性质预测的图神经网络[论文]
- [ACM Computing Surveys 23] 图反事实解释综述:定义、方法与评估[论文]
- [TIST 23] 基于理由对齐的忠实且一致的图神经网络解释[论文]
- [Openreview 23] STExplainer:通过频繁子树挖掘实现GNN的全局可解释性[论文]
- [GLFrontiers 23] 人人都需要一点帮助:基于层次化概念解释图[论文]
- [Openreview 23] 利用解释迭代增强图神经网络[论文]
- [Openreview 23] 大规模可解释且收敛的图神经网络层[论文]
- [NeurIPS 2023 Workshop XAIA] GInX-Eval:迈向图神经网络解释的分布内评估[论文]
- [NeurIPS 2023 Workshop XAIA] 关于GNN解释方法的一致性[论文]
- [Arxiv 23] 基于可解释性的图对抗攻击:通过边扰动生成对抗样本[论文]
- [AICS 23] 基于单关系转换的知识图链接预测的子图解释生成模型[论文]
- [GUT 23] 利用可解释图学习筛查正常内镜下结直肠活检:一项回顾性研究[论文]
- [PR 2023] 迈向频率自适应Inception模块的自解释卷积图神经网络[论文]
- [MLG 2023] 理解图神经网络中解释器的工作机制[论文]
- [MLG 2023] 图模型解释工具[论文]
- [Information Science 23] 带有神经元解释组件的图神经网络鲁棒解释[论文]
- [Recsys 23] 可解释的图神经网络推荐系统:挑战与机遇[论文]
- [xAI 23] 通过密度视角解释图分类的反事实解释[论文]
- [XAI 23] 评估图神经网络的链接预测解释[论文]
- [XAI 23] XInsight:基于流式解释揭示GNN的模型洞察[论文]
- [XAI 23] 通过人工可模拟性研究量化图神经网络归因式解释的内在效用[论文]
- [XAI 23] MEGAN:多解释图注意力网络[论文]
- [XKDD 23] 图神经网络的博弈论解释[论文]
- [XKDD 23] 从黑箱到玻璃箱:评估GCNN过程预测的忠实性[论文]
- [IJCNN 23] MEGA:利用网络模体解释图神经网络[论文]
- [LOG Poster 23] 事后GNN解释器对标签噪声的鲁棒性[论文]
- [LOG Poster 23] 自解释GNN有多忠实?[论文]
- [LOG Poster 23] 用有影响力示例解释知识图嵌入模型中的链接预测[论文]
- [Bioriv 23] 通过稀疏学习构建可解释的图神经网络用于药物-蛋白质结合预测[论文]
- [ICAID 2023] 通过层分析解释图神经网络[论文]
- [ECAI 23] XGBD:基于解释引导的图后门检测[论文]
- [IEEE Transactions on Consumer Electronics 23] 利用可解释卷积图神经网络进行智能家居人体姿态预测[论文]
- [KBS 23] KE-X:基于知识信息增益的知识图嵌入子图解释[论文]
- [ICML workshop 23] 在领域约束下为分子生成全局事实与反事实解释器[论文]
- [毕业论文 23] 开发高维特征空间下的可解释图神经网络[论文]
- [毕业论文 23] 评估图神经网络在单细胞分类任务中的可解释性方法[论文]
- [Arxiv 23] 关于子集选择与知情图神经网络的相互作用[论文]
- [ISSTA23] 基于GNN的漏洞检测解释器:我们到了吗?[论文]
- [ICECAI23] 基于交叉熵改进GNN解释的GraphSVX[论文]
- [ICRA Workshop 23] 迈向语义解释与验证基于图注意力的解释[论文]
- [Arxiv 23] 基于图神经网络的日志异常检测与解释[论文]
- [毕业论文 23] 图形模型的可解释性[论文]
- [生物工程 2023] 利用可解释图神经网络和人群图进行阿尔茨海默病早期诊断的个性化解释[论文]
- [BDSC 2023] MDC:一种基于节点模体度和图扩散卷积的可解释GNN方法[论文]
- [信息科学 2023] 将可解释技术应用于基于图神经网络模型的道路交通预测[论文]
- [Arxiv 23.05] EiX-GNN:图神经网络的概念级特征中心性解释器[论文]
- [Arxiv 23.04] 基于医学概念的图神经网络认知解释器[论文]
- [ICLR Tiny 23] 消息传递选择:迈向可解释的图分类GNN[论文]
- [ICLR Tiny 23] 重温CounteRGAN用于图的反事实可解释性[论文]
- [MICCAI Workshop 23] IA-GCN:用于疾病预测的可解释注意力导向图卷积网络[论文]
- [GRADES & NDA'23] 图神经网络可解释性方法演示[论文]
- [Arxiv 23] 用于链接预测的自解释图神经网络[论文]
- [Arxiv 23.02] MotifExplainer:基于模体的图神经网络解释器[论文]
- [ChemRxiv 23] 利用梅尔森值解释化学信息学领域的图神经网络[论文]
- [Neural Networks 23] 通过识别桥接节点的重要节点为Skip-gram基点嵌入生成事后解释[论文]
- [ICASSP 23] 迈向更稳定和通用的子图信息瓶颈[论文]
- [ESANN 23] 将随机解释器与子图神经网络结合可以提高表达能力和可解释性[论文]
- [IEEE Access] 通过多专业学习者和在线知识蒸馏实时生成GNN解释[论文]
- [IEEE Access] 通过归纳一致性预测为节点表示学习模型提供事后解释[论文]
- [Journal of Software 23] 基于图神经网络的切片级漏洞检测与解释方法[论文]
- [Automation in Construction 23] 从可解释的数据驱动隧道图中学习:用于堵塞检测的时空图卷积网络[论文]
- [Briefings in Bioinformatics] 基于可解释图神经网络和多步聚焦机制预测分子性质[论文]
- [Briefings in Bioinformatics] 通过图神经网络可视化识别关键化学信息[论文]
- [Bioinformatics 23] 可解释的多层图神经网络用于癌症基因预测[论文]
- [ICLR Workshop 23] GCI:图概念解释框架[论文]
- [Arxiv 23] 利用HSIC为图神经网络提供结构化解释[论文]
- [Internet of Things 23] XG-BoT:用于僵尸网络检测与取证的可解释深度图神经网络[论文]
- [JOS23] 基于图神经网络的恶意软件检测通用解释与定位方法[论文]
- [IJCNN 23] GRAPHSHAP:通过模体语言解释身份感知图分类器[论文]
- [Arxiv 23.01] 子图增强型图神经网络中的可解释性[论文]
2022年
- [NeurIPS 22] GStarX:基于通信结构感知的合作博弈的图级预测解释 [论文]
- [NeurIPS 22] 通过学习解耦的因果子结构来去偏置图神经网络 [论文]
- [NeurIPS 22] 任务无关的图神经网络解释 [论文]
- [NeurIPS 22] CLEAR:图上的生成式反事实解释[论文]
- [ICML 22] 基于随机注意力机制的可解释且可泛化的图学习 [论文]
- [ICLR 22] DEGREE:面向图神经网络的分解式解释 [论文]
- [ICLR 22] 知识图谱上可解释的图神经网络模型 [论文]
- [ICLR 22] 发现图神经网络的不变性推理依据 [论文]
- [KDD 22] 关于图神经网络中偏差的结构性解释 [论文]
- [KDD 22] 用于可解释和可泛化图分类的因果注意力机制 [论文]
- [CVPR 22] OrphicX:一种受因果启发的潜在变量模型,用于解释图神经网络 [论文]
- [CVPR 22] 利用变分图信息瓶颈改进子图识别 [论文]
- [AISTATS 22] 探查GNN解释器:对GNN解释方法的严格理论与实验分析 [论文]
- [AISTATS 22] CF-GNNExplainer:图神经网络的反事实解释 [论文]
- [TPAMI 22] 面向全图分类的差分隐私图神经网络 [论文]
- [TPAMI 22] 面向图神经网络的强化因果解释器 [论文]
- [VLDB 22] xFraud:异构图上的可解释欺诈交易检测 [论文]
- [LOG 22]GraphFramEx:迈向图神经网络解释方法的系统性评估 [论文]
- [LOG 22] 基于解释引导的消息传递训练图神经网络 [论文]
- [The Webconf 22] 基于反事实与事实推理学习和评估图神经网络解释 [论文]
- [AAAI 22] 基于原型的图神经网络解释 [论文]
- [AAAI 22] KerGNNs:基于图核的可解释图神经网络[论文]
- [AAAI 22] ProtGNN:迈向自解释的图神经网络 [论文]
- [IEEE Big Data 22] 以公平性和权衡解释为代价降低图神经网络的准确性 [论文]
- [CIKM 22] GRETEL:统一的图反事实解释评估框架 [论文]
- [CIKM 22] GRETEL:图反事实解释评估框架[论文]
- [CIKM 22] 面向图神经网络节点分类的模型中心型解释器 [论文]
- [IJCAI 22] 我的GNN到底捕捉了什么?关于探索GNN内部表示的研究 [论文]
- [ECML PKDD 22] 提升基于规则的GNN解释质量 [论文]
- [MICCAI 22] 用于基于连接组学的大脑疾病分析的可解释图神经网络 [论文]
- [MICCAI 22] 面向阿尔茨海默病多模态诊断的图卷积网络稀疏解释 [论文]
- [EuroS&P 22] Illuminati:迈向用于网络安全分析的图神经网络解释 [论文]
- [INFOCOM 22] 基于图神经网络的僵尸网络检测模型的可解释性评估 [论文]
- [GLOBECOM 22] Shapley解释器——一种用于SDN中的GNN解释方法 [论文]
- [GLOBECOM 22] 面向时序图神经网络的解释器 [论文]
- [TKDE 22] Zorro:图神经网络中有效、稀疏且稳定的解释 [论文]
- [TNNLS 22] 带有时间模式注意力的可解释图储备计算 [论文]
- [TNNLS22] 用于训练可解释图神经网络的元学习方法 [论文]
- [TNNLS 22] 通过输入扰动解释深度图网络 [论文]
- [TNNLS 22] 用于训练可解释图神经网络的元学习方法 [论文]
- [DMKD 22] 关于基于激活模式的GNN可解释性 [论文]
- [KBS 22] EGNN:通过知识蒸馏构建可解释的图神经网络 [论文]
- [XKDD 22] GREASE:为基于GNN的推荐系统生成事实与反事实解释 [论文]
- [AI 22] 图神经网络解释器对图噪声是否鲁棒? [论文]
- [BRACIS 22] 面向图神经网络的ConveXplainer [论文]
- [GLB 22] 用于基准测试图解释器的可解释AI库 [论文]
- [DASFAA 22] 关于图神经网络的全局可解释性 [论文]
- [ISBI 22] 用于阿尔茨海默病诊断的多模态脑成像可解释图卷积网络 [论文]
- [生物信息学] GNN-SubNet:利用可解释图神经网络检测疾病亚网络 [论文]
- [医学影像2022] 表型指导的可解释图卷积网络分析fMRI数据揭示青少年时期大脑连接的变化 [论文]
- [NeuroComputing 22] 多扰动、多捕获:理解图神经网络的行为 [论文]
- [DSN 22] CFGExplainer:从控制流图解释基于图神经网络的恶意软件分类 [论文]
- [IEEE Access 22] 通过强化学习为node2vec提供节点级局部解释 [论文]
- [Patterns 22] 面向分子性质预测的可解释图神经网络的定量评估 [论文]
- [IEEE Access 22] 通过归纳一致性预测为节点表示学习模型提供事后解释 [论文]
- [IEEE 22] 利用拓扑感知的节点选择解释图神经网络:应用于空气质量推断 [论文]
- [BioRxiv 22] GNN-SubNet:利用可解释图神经网络检测疾病亚网络 [论文]
- [IEEE Robotics and Automation Letters 22] 高效且可解释的机器人操作:基于图神经网络 [论文]
- [Arxiv 22] 图神经网络中去混杂到解释评估 [论文]
- [ICCPR 22] GANExplainer:基于GAN的图神经网络解释器 [论文]
- [Arxiv 22] 探索图神经网络的解释方法 [论文]
- [Arxiv 22] 通过在线知识蒸馏培养多领域学习者以解释GNN [论文]
- [Openreview 23] TGP:面向个性化推荐的可解释时序图神经网络 [论文]
- [Arxiv 22] PGX:基于独立知识蒸馏过程的多层级GNN解释框架 [论文]
- [Arxiv 22] 通过可解释性防御图神经网络后门攻击 [论文]
- [Arxiv 22] 通过相关性反向传播解释动态图神经网络 [论文]
- [Arxiv 22] 面向深度图模型的忠实解释 [论文]
- [Arxiv 22] 迈向无监督图级别表示学习的解释 [论文]
- [Arxiv 22] BAGEL:评估图神经网络解释的基准 [论文]
- [Arxiv 22] 图神经网络中的可解释性:一项实验性调查 [论文]
- [IEEE TSIPN 22] 社交互动中的可解释性与图学习 [论文]
2021年
- [NeurIPS 21] SALKG:基于知识图谱解释的常识推理学习 [论文]
- [NeurIPS 2021] 用于图神经网络的强化学习增强型解释器 [论文]
- [NeurIPS 2021] 迈向图神经网络的多粒度可解释性 [论文]
- [NeurIPS 2021] 图神经网络上的鲁棒反事实解释 [论文]
- [ICML 2021] 通过子图探索实现图神经网络可解释性研究[论文]
- [ICML 2021] 图神经网络的生成式因果解释[论文]
- [ICML 2021] 利用正交化与诱导稀疏性提升分子图神经网络可解释性[论文]
- [ICML 2021] 带有超参数重要性解释的自动化图表示学习[论文]
- [ICLR 21] 面向时序知识图谱预测的可解释子图推理 [论文]
- [ICLR 2021] 使用可微边掩码解释自然语言处理中的图神经网络[论文]
- [ICLR 2021] 用于子图识别的图信息瓶颈 [论文]
- [KDD 2021] 当与真实标签比较不正确时:关于评估图神经网络解释方法的探讨[论文]
- [KDD 2021] 用于脑网络可解释分类的反事实图 [论文]
- [CVPR 2021] 计算病理学中图神经网络解释器的量化评估.[论文]
- [NAACL 2021] 基于图网络的可解释病历诊断中反事实支持事实提取。[论文]
- [AAAI 2021] 基于模体驱动的图表示对比学习 [论文]
- [TPAMI 21] 通过相关游走实现图神经网络高阶解释 [论文]
- [WWW 2021] 利用优化框架解释并统一图神经网络 [论文]
- [Genome medicine 21] 解释图卷积神经网络的决策:乳腺癌转移预测中患者特异性分子子网络的作用 [论文]
- [IJCKG 21] 知识图嵌入在电商应用中的作用:注意力机制推理、解释及可迁移规则 [论文]
- [RuleML+RR 21] 结合亚符号与符号方法实现可解释性 [论文]
- [PAKDD 21] SCARLET:基于可解释注意力的图神经网络,用于假新闻传播者预测 [论文]
- [J. Chem. Inf. Model] 用可解释人工智能为分子着色,以评估其临床前相关性 [论文]
- [BioRxiv 21] APRILE:利用可解释图神经网络探索药物副作用的分子机制 [论文]
- [ISM 21] 通过扩展卷积神经网络的可解释性方法,实现图神经网络的边级解释 [论文]
- [Arxiv 21] 借助信息流实现数字病理学中图神经网络的解释 [论文]
- [Arxiv 21] SEEN:利用邻域解释来细化图神经网络的解释 [论文]
- [Arxiv 21] 保留、促进还是攻击?通过拓扑扰动进行图神经网络解释 [论文]
- [Arxiv 21] 面向可解释图神经网络的学习稀疏化 [论文]
- [ICML workshop 21] GCExplainer:人机协同的概念驱动型图神经网络解释器 [论文]
- [ICML workshop 21] 通过对抗训练实现可靠的图神经网络解释 [论文]
- [ICML workshop 21] 借鉴表格数据思想重新构想图神经网络解释 [论文]
- [ICML workshop 21] 迈向图神经网络解释的自动化评估 [论文]
- [ICDM 2021] GNES:学习如何解释图神经网络 [论文]
- [ICDM 2021] GCN-SE:将注意力机制作为动态图节点分类的可解释性工具 [论文]
- [ICDM 2021] 图神经网络预测的多目标解释 [论文]
- [CIKM 2021] 迈向自解释图神经网络 [论文]
- [ECML PKDD 2021] GraphSVX:图神经网络的Shapley值解释 [论文]
- [WiseML 2021] 基于可解释性的后门攻击对抗图神经网络 [论文]
- [IJCNN 21] MEG:为深度图网络生成分子反事实解释 [论文]
- [ICCSA 2021] 利用加权图神经网络解释器理解药物滥用社交网络 [论文]
- [NeSy 21] 一种新的图神经网络解释概念 [论文]
- [Information Fusion 21] 借助图神经网络实现多模态因果推断,推动可解释人工智能的信息融合 [论文]
- [Patterns 21] hcga:用于网络表型分析的高度比较性图分析 [论文]
2020年及之前
- [NeurIPS 2020] 面向图神经网络的参数化解释器。[论文]
- [NeurIPS 2020] PGM-Explainer:用于图神经网络的概率图模型解释 [论文]
- [KDD 2020] XGNN:迈向图神经网络的模型级解释 [论文]
- [ACL 2020] GCAN:面向社交媒体上可解释假新闻检测的图感知协同注意力网络。论文
- [Arxiv 2020] 包含稀疏可解释性的图神经网络 [论文]
- [NeurIPS Workshop 20] 迈向可解释的消息传递网络:用于预测金属有机框架中二氧化碳吸附的模型 [论文]
- [ICML工作坊2020] 对比图神经网络解释 [论文]
- [ICML工作坊2020] 迈向数字病理学中的可解释图表示 [论文]
- [NeurIPS研讨会2020] 利用分子反事实解释深度图网络 [论文]
- [DataMod 2020] 探索基于图的神经网络用于自动脑肿瘤分割 [论文]
- [OpenReview 20] 一种用于可微分发现图算法的框架 [论文]
- [OpenReview 20] 因果筛选法用于解释图神经网络 [论文]
- [Arxiv 20] 从图信号去噪视角理解图神经网络 [论文]
- [Arxiv 20] 通过幂迭代理解图神经网络中的消息传递 [论文]
- [IJCNN 20] GCN-LRP解释:探索图卷积网络的潜在注意力机制 [论文]
- [CD-MAKE 20] 解释图神经网络以理解节点分类中的加权图特征 [论文]
- [ICDM 19] 大规模图推理的可扩展解释[论文]
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器