[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-d-ailin--GDN":3,"tool-d-ailin--GDN":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75569,"2026-04-14T10:38:48",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":96,"env_deps":98,"category_tags":104,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":105,"updated_at":106,"faqs":107,"releases":138},7521,"d-ailin\u002FGDN","GDN","Implementation code for the paper \"Graph Neural Network-Based Anomaly Detection in Multivariate Time Series\" (AAAI 2021)","GDN 是论文《基于图神经网络的多变量时间序列异常检测》（AAAI 2021）的官方开源代码实现。它专注于解决工业监控、网络安全等场景中，如何从复杂的多变量时间序列数据里精准识别异常行为的问题。传统方法往往忽略变量间的关联，而 GDN 的独特之处在于利用图神经网络（GNN）技术，自动学习并构建传感器或指标之间的依赖关系图，从而更敏锐地捕捉由变量互动引发的隐蔽异常。\n\n这款工具非常适合人工智能研究人员、算法工程师以及需要处理时序数据的企业开发者使用。如果你正在研究异常检测前沿算法，或者需要在服务器监控、物联网设备维护中部署高精度的预警系统，GDN 提供了坚实的基线参考和可复用的代码框架。项目基于 PyTorch 和 PyG 构建，环境配置清晰，支持 CPU 与 GPU 运行，并内置了 MSL 数据集的演示流程，方便用户快速上手验证。对于拥有自定义数据的团队，只需按照指定格式整理训练集与测试集，即可轻松迁移应用。作为学术界与工业界接轨的优秀成果，GDN 不仅复现了顶会论文的核心逻辑，更为多变量时序分析领域提供了实用的技术抓手。","# GDN\n\nCode implementation for : [Graph Neural Network-Based Anomaly Detection in Multivariate Time Series(AAAI'21)](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.06947.pdf)\n\n\n# Installation\n### Requirements\n* Python >= 3.6\n* cuda == 10.2\n* [Pytorch==1.5.1](https:\u002F\u002Fpytorch.org\u002F)\n* [PyG: torch-geometric==1.5.0](https:\u002F\u002Fpytorch-geometric.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Finstallation.html)\n\n### Install packages\n```\n    # run after installing correct Pytorch package\n    bash install.sh\n```\n\n### Quick Start\nRun to check if the environment is ready\n```\n    bash run.sh cpu msl\n    # or with gpu\n    bash run.sh \u003Cgpu_id> msl    # e.g. bash run.sh 1 msl\n```\n\n\n# Usage\nWe use part of msl dataset(refer to [telemanom](https:\u002F\u002Fgithub.com\u002Fkhundman\u002Ftelemanom)) as demo example. \n\n## Data Preparation\n```\n# put your dataset under data\u002F directory with the same structure shown in the data\u002Fmsl\u002F\n\ndata\n |-msl\n | |-list.txt    # the feature names, one feature per line\n | |-train.csv   # training data\n | |-test.csv    # test data\n |-your_dataset\n | |-list.txt\n | |-train.csv\n | |-test.csv\n | ...\n\n```\n\n### Notices:\n* The first column in .csv will be regarded as index column. \n* The column sequence in .csv don't need to match the sequence in list.txt, we will rearrange the data columns according to the sequence in list.txt.\n* test.csv should have a column named \"attack\" which contains ground truth label(0\u002F1) of being attacked or not(0: normal, 1: attacked)\n\n## Run\n```\n    # using gpu\n    bash run.sh \u003Cgpu_id> \u003Cdataset>\n\n    # or using cpu\n    bash run.sh cpu \u003Cdataset>\n```\nYou can change running parameters in the run.sh.\n\n# Others\nSWaT and WADI datasets can be requested from [iTrust](https:\u002F\u002Fitrust.sutd.edu.sg\u002F)\n\n\n# Citation\nIf you find this repo or our work useful for your research, please consider citing the paper\n```\n@inproceedings{deng2021graph,\n  title={Graph neural network-based anomaly detection in multivariate time series},\n  author={Deng, Ailin and Hooi, Bryan},\n  booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},\n  volume={35},\n  number={5},\n  pages={4027--4035},\n  year={2021}\n}\n```\n","# GDN\n\n基于图神经网络的多变量时间序列异常检测（AAAI'21）的代码实现：[论文链接](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.06947.pdf)\n\n\n# 安装\n### 需求\n* Python >= 3.6\n* cuda == 10.2\n* [Pytorch==1.5.1](https:\u002F\u002Fpytorch.org\u002F)\n* [PyG: torch-geometric==1.5.0](https:\u002F\u002Fpytorch-geometric.readthedocs.io\u002Fen\u002Flatest\u002Fnotes\u002Finstallation.html)\n\n### 安装依赖包\n```\n    # 在安装好正确的 PyTorch 包后运行\n    bash install.sh\n```\n\n### 快速入门\n运行以下命令以检查环境是否准备就绪：\n```\n    bash run.sh cpu msl\n    # 或者使用 GPU\n    bash run.sh \u003Cgpu_id> msl    # 例如：bash run.sh 1 msl\n```\n\n\n# 使用说明\n我们使用部分 msl 数据集（参考 [telemanom](https:\u002F\u002Fgithub.com\u002Fkhundman\u002Ftelemanom)）作为示例。\n\n## 数据准备\n```\n# 将您的数据集放置在 data\u002F 目录下，并保持与 data\u002Fmsl\u002F 相同的结构\n\ndata\n |-msl\n | |-list.txt    # 特征名称，每行一个特征\n | |-train.csv   # 训练数据\n | |-test.csv    # 测试数据\n |-your_dataset\n | |-list.txt\n | |-train.csv\n | |-test.csv\n | ...\n\n```\n\n### 注意事项：\n* .csv 文件的第一列将被视为索引列。\n* .csv 文件中的列顺序无需与 list.txt 中的顺序一致，我们将根据 list.txt 中的顺序重新排列数据列。\n* test.csv 文件应包含名为 “attack” 的列，该列包含真实标签（0\u002F1），表示是否受到攻击（0：正常，1：攻击）。\n\n## 运行\n```\n    # 使用 GPU\n    bash run.sh \u003Cgpu_id> \u003Cdataset>\n\n    # 或者使用 CPU\n    bash run.sh cpu \u003Cdataset>\n```\n您可以在 run.sh 脚本中修改运行参数。\n\n# 其他\nSWaT 和 WADI 数据集可从 [iTrust](https:\u002F\u002Fitrust.sutd.edu.sg\u002F) 申请。\n\n\n# 引用\n如果您认为本仓库或我们的工作对您的研究有所帮助，请考虑引用以下论文：\n```\n@inproceedings{deng2021graph,\n  title={基于图神经网络的多变量时间序列异常检测},\n  author={Deng, Ailin 和 Hooi, Bryan},\n  booktitle={AAAI 人工智能会议论文集},\n  volume={35},\n  number={5},\n  pages={4027--4035},\n  year={2021}\n}\n```","# GDN 快速上手指南\n\nGDN 是基于图神经网络（Graph Neural Network）进行多变量时间序列异常检测的开源实现，源自 AAAI'21 论文。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python**: >= 3.6\n*   **CUDA**: 10.2 (如需使用 GPU)\n*   **核心依赖**:\n    *   PyTorch == 1.5.1\n    *   PyG (torch-geometric) == 1.5.0\n\n> **提示**：由于版本较老，建议先手动安装指定版本的 PyTorch，再运行安装脚本。国内用户可使用清华源加速安装：\n> ```bash\n> pip install torch==1.5.1+cu102 -f https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Ftorch_stable.html\n> ```\n\n## 安装步骤\n\n1.  克隆仓库并进入目录。\n2.  确保已安装正确的 PyTorch 版本后，运行官方提供的安装脚本以配置 `torch-geometric` 及其他依赖：\n\n```bash\nbash install.sh\n```\n\n## 基本使用\n\n本项目内置了部分 MSL 数据集作为演示。您可以直接运行以下命令来验证环境并启动训练\u002F测试。\n\n### 1. CPU 模式运行\n如果您没有 GPU 或想快速测试：\n\n```bash\nbash run.sh cpu msl\n```\n\n### 2. GPU 模式运行\n指定可用的 GPU ID（例如使用 1 号显卡）：\n\n```bash\nbash run.sh 1 msl\n```\n\n### 3. 使用自定义数据集\n若需使用自己的数据，请在 `data\u002F` 目录下新建文件夹（结构参考 `data\u002Fmsl\u002F`），包含以下文件：\n*   `list.txt`: 特征名称列表（每行一个特征）。\n*   `train.csv`: 训练数据（第一列视为索引列）。\n*   `test.csv`: 测试数据（必须包含名为 `attack` 的列，0 表示正常，1 表示异常）。\n\n**注意**：CSV 中的列顺序无需与 `list.txt` 一致，程序会自动重排。\n\n配置好数据后，替换命令中的数据集名称即可运行：\n\n```bash\nbash run.sh \u003Cgpu_id> \u003Cyour_dataset_name>\n# 例如：bash run.sh 0 my_data\n```\n\n您可以根据需要修改 `run.sh` 脚本来调整运行参数。","某大型数据中心运维团队正利用服务器集群的多维传感器数据（如 CPU 温度、内存占用、网络流量等）进行实时故障监控。\n\n### 没有 GDN 时\n- **忽略变量关联**：传统方法独立分析每个指标，无法捕捉“磁盘读写激增导致 CPU 过热”这类跨变量的复杂依赖关系，漏报率高。\n- **误报频繁**：面对正常的周期性业务波动（如早晚高峰），基于固定阈值的规则常将正常峰值误判为异常，消耗大量人力复核。\n- **响应滞后**：往往等到单一指标彻底爆表才触发警报，此时系统可能已发生级联故障，错过了最佳干预窗口。\n- **适配成本高**：每当新增服务器或业务变更，都需要人工重新调整数百个监控阈值，维护极其繁琐。\n\n### 使用 GDN 后\n- **精准捕捉关联**：GDN 自动构建传感器间的图结构，能敏锐识别出单个指标正常但变量间关系破裂的隐蔽异常，显著提升检出率。\n- **动态适应波动**：模型基于历史数据学习正常模式，有效区分业务高峰与真实攻击，大幅降低误报噪音。\n- **早期预警能力**：在故障萌芽阶段，即通过多维数据的微小偏离发出预警，让团队能在服务中断前完成止损。\n- **自动化部署**：只需导入新的 CSV 数据并运行脚本，GDN 即可自适应新环境，无需人工反复调参。\n\nGDN 通过将多维时间序列转化为图神经网络问题，实现了从“单点被动报警”到“全局主动感知”的运维质变。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fd-ailin_GDN_4438db23.png","d-ailin","Ailin Deng","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fd-ailin_009af4c1.png",null,"d-ailin.github.io","https:\u002F\u002Fgithub.com\u002Fd-ailin",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",96.5,{"name":88,"color":89,"percentage":90},"Shell","#89e051",3.5,598,160,"2026-04-14T02:17:17","MIT",4,"未说明","需要 NVIDIA GPU，CUDA 版本必须为 10.2（也可使用 CPU 模式运行）",{"notes":99,"python":100,"dependencies":101},"安装前需先手动安装指定版本的 PyTorch，然后运行 install.sh 脚本。测试数据集中 test.csv 必须包含名为'attack'的列作为真实标签（0 表示正常，1 表示异常）。SWaT 和 WADI 数据集需向 iTrust 申请获取。",">=3.6",[102,103],"torch==1.5.1","torch-geometric==1.5.0",[18],"2026-03-27T02:49:30.150509","2026-04-15T06:06:31.506171",[108,113,118,123,128,133],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},33715,"如何在 WADI 数据集上复现论文中的结果？推荐的超参数配置是什么？","WADI 数据集的复现较为困难，建议尝试以下超参数配置：\nseed=2\nBATCH_SIZE=32\nSLIDE_WIN=5\ndim=128\nout_layer_num=2\nSLIDE_STRIDE=1\ntopk=30\nout_layer_inter_dim=256\nval_ratio=0.03\ndecay=0\n\n此外，请确保使用正确的攻击标签起始日期（原始 PDF 中第 9 次攻击的日期可能有误），并确认异常比例约为 5.82% - 5.99%。如果结果仍不理想，可能需要联系作者获取预处理后的数据集或预训练模型。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F52",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},33716,"运行代码时遇到 'softmax() Expected a value of type Optional[Tensor] for argument ptr' 错误如何解决？","这是一个版本兼容性问题。请在 `graph_layer.py` 文件中进行以下修改：\n1. 添加 `self.node_dim=0`\n2. 将 softmax 调用修改为：`alpha = softmax(alpha, edge_index_i, num_nodes=size_i)`\n\n注意：`self.node_dim=0` 这一行至关重要，如果省略会导致后续维度计算错误（如在 `return x_j * alpha.view(...)` 处报错）。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F2",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},33717,"为什么在 WADI 数据集上的实验结果不稳定，有时无法达到论文报告的性能？","结果不稳定是正常现象，主要受随机种子和数据划分影响。建议：\n1. 多次运行实验（main.py），选取最佳结果。\n2. 固定随机种子（如 seed=2 或 seed=5）。\n3. 检查数据预处理步骤，确保归一化正确（例如：若某列数值全相等导致归一化出现 NaN，应将其替换为 0）。\n4. 确认使用的训练\u002F测试集划分（如 OCT 数据用于训练通常比 NOV 数据效果好）。\n如果问题持续，可能是原始数据与作者使用的预处理数据存在差异，可尝试联系作者获取处理好的数据。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F45",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},33718,"如何正确对数据进行归一化预处理？遇到全零或常数列导致 NaN 怎么办？","推荐对每一列进行 Min-Max 归一化。如果在归一化过程中，某列所有值都相等（导致分母为 0 从而产生 NaN），正确的处理方法是将该列归一化后的 NaN 值直接替换为 0。这是经过验证的有效处理方式，不会影响模型训练。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F4",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},33719,"运行 bash run.sh 时遇到环境依赖或执行错误怎么办？","首先确保严格按照以下步骤操作：\n1. git clone 克隆仓库\n2. 运行 bash install.sh 安装依赖\n3. 运行 bash run.sh cpu msl (或其他数据集)\n\n如果仍然报错，请检查 Python 环境和 PyTorch Geometric 版本是否匹配。建议在纯净环境中重新安装依赖。如果问题涉及具体堆栈跟踪错误，请查看是否为上述提到的 softmax 参数类型错误，并按对应方案修复代码。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F26",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},33720,"MSL 数据集运行正常但 WADI 数据集效果很差，可能是什么原因？","WADI 数据集比 MSL 更复杂且对超参数敏感。常见原因包括：\n1. 超参数未针对 WADI 调整（请参考 issue #52 中的推荐配置，特别是 topk=30, dim=128 等）。\n2. 标签文件中的攻击时间戳有误（需修正第 9 次攻击的开始时间）。\n3. 数据预处理不一致（作者使用了特定的特征列表和处理脚本）。\n4. 随机种子影响较大，建议多试几个种子。\n如果自行调整无效，极有可能是因为使用的原始 CSV 与作者内部使用的预处理版本存在细微差别，此时联系作者获取处理好的数据是最快的解决途径。","https:\u002F\u002Fgithub.com\u002Fd-ailin\u002FGDN\u002Fissues\u002F17",[]]