[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-xuhongzuo--DeepOD":3,"tool-xuhongzuo--DeepOD":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":85,"difficulty_score":86,"env_os":87,"env_gpu":87,"env_ram":87,"env_deps":88,"category_tags":91,"github_topics":93,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":129},9191,"xuhongzuo\u002FDeepOD","DeepOD","Deep learning-based outlier\u002Fanomaly detection","DeepOD 是一个基于深度学习的开源 Python 库，专注于解决表格数据和时间序列数据中的异常检测难题。在金融风控、工业监控等场景中，传统方法往往难以捕捉复杂的非线性模式，而 DeepOD 通过引入先进的深度学习技术，能够更精准地识别出数据中的离群点和潜在风险。\n\n这款工具特别适合数据科学家、算法研究人员以及需要构建高可靠性监测系统的开发者使用。它最大的亮点在于集成了 27 种前沿的无监督及弱监督异常检测算法，涵盖了基于重构、表示学习和自监督学习等多种主流技术路线。DeepOD 提供了统一且简洁的 API 接口，风格与 Scikit-learn 和 PyOD 高度一致，让用户仅需几行代码即可调用如 TimesNet、DeepSVDD 等状态-of-the-art（SOTA）模型。此外，它还内置了全面的评测基准，支持 LSTM、Transformer 等多种网络结构灵活插拔，极大地方便了学术研究与模型对比实验。无论是快速验证想法还是部署生产级应用，DeepOD 都能提供高效、灵活的支持。","Python Deep Outlier\u002FAnomaly Detection (DeepOD)\n==================================================\n\n.. image:: https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Factions\u002Fworkflows\u002Ftesting.yml\u002Fbadge.svg\n   :target: https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Factions\u002Fworkflows\u002Ftesting.yml\n   :alt: testing2\n\n.. image:: https:\u002F\u002Freadthedocs.org\u002Fprojects\u002Fdeepod\u002Fbadge\u002F?version=latest\n    :target: https:\u002F\u002Fdeepod.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest\n    :alt: Documentation Status\n\n.. image:: https:\u002F\u002Fapp.codacy.com\u002Fproject\u002Fbadge\u002FGrade\u002F2c587126aac2441abb917c032189fbe8\n    :target: https:\u002F\u002Fapp.codacy.com\u002Fgh\u002Fxuhongzuo\u002FDeepOD\u002Fdashboard?utm_source=gh&utm_medium=referral&utm_content=&utm_campaign=Badge_grade\n    :alt: codacy\n\n.. image:: https:\u002F\u002Fcoveralls.io\u002Frepos\u002Fgithub\u002Fxuhongzuo\u002FDeepOD\u002Fbadge.svg?branch=main\n    :target: https:\u002F\u002Fcoveralls.io\u002Fgithub\u002Fxuhongzuo\u002FDeepOD?branch=main\n    :alt: coveralls\n\n.. image:: https:\u002F\u002Fstatic.pepy.tech\u002Fpersonalized-badge\u002Fdeepod?period=total&units=international_system&left_color=black&right_color=orange&left_text=Downloads\n   :target: https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepod\n   :alt: downloads\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-BSD2-blue\n   :alt: license\n\n\n   \n\n``DeepOD`` is an open-source python library for Deep Learning-based `Outlier Detection \u003Chttps:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAnomaly_detection>`_\nand `Anomaly Detection \u003Chttps:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAnomaly_detection>`_. ``DeepOD`` supports tabular anomaly detection and time-series anomaly detection.\n\n\nDeepOD includes **27** deep outlier detection \u002F anomaly detection algorithms (in unsupervised\u002Fweakly-supervised paradigm).\nMore baseline algorithms will be included later.\n\n\n\n**DeepOD is featured for**:\n\n* **Unified APIs** across various algorithms.\n* **SOTA models** includes reconstruction-, representation-learning-, and self-superivsed-based latest deep learning methods.\n* **Comprehensive Testbed** that can be used to directly test different models on benchmark datasets (highly recommend for academic research).\n* **Versatile** in different data types including tabular and time-series data (DeepOD will support other data types like images, graph, log, trace, etc. in the future, welcome PR :telescope:).\n* **Diverse Network Structures** can be plugged into detection models, we now support LSTM, GRU, TCN, Conv, and Transformer for time-series data.  (welcome PR as well :sparkles:)\n\n\nIf you are interested in our project, we are pleased to have your stars and forks :thumbsup: :beers: .\n\n\nInstallation\n~~~~~~~~~~~~~~\nThe DeepOD framework can be installed via:\n\n\n.. code-block:: bash\n\n\n    pip install deepod\n\n\ninstall a developing version (strongly recommend)\n\n\n.. code-block:: bash\n\n\n    git clone https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD.git\n    cd DeepOD\n    pip install .\n\n\nUsages\n~~~~~~~~~~~~~~~~~\n\n\nDirectly use detection models in DeepOD:\n::::::::::::::::::::::::::::::::::::::::::\n\nDeepOD can be used in a few lines of code. This API style is the same with `Sklean \u003Chttps:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn>`_ and `PyOD \u003Chttps:\u002F\u002Fgithub.com\u002Fyzhao062\u002Fpyod>`_.\n\n\n**for tabular anomaly detection:**\n\n.. code-block:: python\n\n\n    # unsupervised methods\n    from deepod.models.tabular import DeepSVDD\n    clf = DeepSVDD()\n    clf.fit(X_train, y=None)\n    scores = clf.decision_function(X_test)\n\n    # weakly-supervised methods\n    from deepod.models.tabular import DevNet\n    clf = DevNet()\n    clf.fit(X_train, y=semi_y) # semi_y uses 1 for known anomalies, and 0 for unlabeled data\n    scores = clf.decision_function(X_test)\n\n    # evaluation of tabular anomaly detection\n    from deepod.metrics import tabular_metrics\n    auc, ap, f1 = tabular_metrics(y_test, scores)\n\n\n**for time series anomaly detection:**\n\n\n.. code-block:: python\n\n\n    # time series anomaly detection methods\n    from deepod.models.time_series import TimesNet\n    clf = TimesNet()\n    clf.fit(X_train)\n    scores = clf.decision_function(X_test)\n\n    # evaluation of time series anomaly detection\n    from deepod.metrics import ts_metrics\n    from deepod.metrics import point_adjustment # execute point adjustment for time series ad\n    eval_metrics = ts_metrics(labels, scores)\n    adj_eval_metrics = ts_metrics(labels, point_adjustment(labels, scores))\n    \n\n\n\n\nTestbed usage:\n::::::::::::::::::::::::::::::::::::::::::\n\n\nTestbed contains the whole process of testing an anomaly detection model, including data loading, preprocessing, anomaly detection, and evaluation. \n\nPlease refer to ``testbed\u002F``\n\n* ``testbed\u002Ftestbed_unsupervised_ad.py`` is for testing unsupervised tabular anomaly detection models.\n \n* ``testbed\u002Ftestbed_unsupervised_tsad.py`` is for testing unsupervised time-series anomaly detection models.\n\n\nKey arguments:\n\n* ``--input_dir``: name of the folder that contains datasets (.csv, .npy)\n\n* ``--dataset``: \"FULL\" represents testing all the files within the folder, or a list of dataset names using commas to split them (e.g., \"10_cover*,20_letter*\")\n\n* ``--model``: anomaly detection model name\n\n* ``--runs``: how many times running the detection model, finally report an average performance with standard deviation values\n\n\nExample: \n\n1. Download `ADBench \u003Chttps:\u002F\u002Fgithub.com\u002FMinqi824\u002FADBench\u002Ftree\u002Fmain\u002Fadbench\u002Fdatasets\u002F>`_ datasets.\n2. modify the ``dataset_root`` variable as the directory of the dataset.\n3. ``input_dir`` is the sub-folder name of the ``dataset_root``, e.g., ``Classical`` or ``NLP_by_BERT``.  \n4. use the following command in the bash\n\n\n.. code-block:: bash\n\n    \n    cd DeepOD\n    pip install .\n    cd testbed\n    python testbed_unsupervised_ad.py --model DeepIsolationForest --runs 5 --input_dir ADBench\n   \n\n\n\nImplemented Models\n~~~~~~~~~~~~~~~~~~~\n\n**Tabular Anomaly Detection models:**\n\n.. csv-table:: \n :header: \"Model\", \"Venue\", \"Year\", \"Type\", \"Title\"\n :widths: 4, 4, 4, 8, 20 \n\n Deep SVDD, ICML, 2018, unsupervised, Deep One-Class Classification  [#Ruff2018Deep]_\n REPEN, KDD, 2018, unsupervised, Learning Representations of Ultrahigh-dimensional Data for Random Distance-based Outlier Detection [#Pang2019Repen]_\n RDP, IJCAI, 2020, unsupervised, Unsupervised Representation Learning by Predicting Random Distances [#Wang2020RDP]_\n RCA, IJCAI, 2021, unsupervised, RCA: A Deep Collaborative Autoencoder Approach for Anomaly Detection [#Liu2021RCA]_\n GOAD, ICLR, 2020, unsupervised, Classification-Based Anomaly Detection for General Data [#Bergman2020GOAD]_\n NeuTraL, ICML, 2021, unsupervised, Neural Transformation Learning for Deep Anomaly Detection Beyond Images [#Qiu2021Neutral]_\n ICL, ICLR, 2022, unsupervised, Anomaly Detection for Tabular Data with Internal Contrastive Learning [#Shenkar2022ICL]_\n DIF, TKDE, 2023, unsupervised, Deep Isolation Forest for Anomaly Detection [#Xu2023DIF]_\n SLAD, ICML, 2023, unsupervised, Fascinating Supervisory Signals and Where to Find Them: Deep Anomaly Detection with Scale Learning [#Xu2023SLAD]_\n DevNet, KDD, 2019, weakly-supervised, Deep Anomaly Detection with Deviation Networks [#Pang2019DevNet]_\n PReNet, KDD, 2023, weakly-supervised, Deep Weakly-supervised Anomaly Detection [#Pang2023PreNet]_\n Deep SAD, ICLR, 2020, weakly-supervised, Deep Semi-Supervised Anomaly Detection [#Ruff2020DSAD]_\n FeaWAD, TNNLS, 2021, weakly-supervised, Feature Encoding with AutoEncoders for Weakly-supervised Anomaly Detection [#Zhou2021FeaWAD]_\n RoSAS, IP&M, 2023, weakly-supervised, RoSAS: Deep semi-supervised anomaly detection with contamination-resilient continuous supervision [#Xu2023RoSAS]_\n\n**Time-series Anomaly Detection models:**\n\n.. csv-table:: \n :header: \"Model\", \"Venue\", \"Year\", \"Type\", \"Title\"\n :widths: 4, 4, 4, 8, 20 \n\n DCdetector, KDD, 2023, unsupervised, DCdetector: Dual Attention Contrastive Representation Learning for Time Series Anomaly Detection [#Yang2023dcdetector]_\n TimesNet, ICLR, 2023, unsupervised, TIMESNET: Temporal 2D-Variation Modeling for General Time Series Analysis [#Wu2023timesnet]_\n AnomalyTransformer, ICLR, 2022, unsupervised, Anomaly Transformer: Time Series Anomaly Detection with Association Discrepancy [#Xu2022transformer]_\n NCAD, IJCAI, 2022, unsupervised, Neural Contextual Anomaly Detection for Time Series [#Carmona2022NCAD]_\n TranAD, VLDB, 2022, unsupervised, TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data [#Tuli2022TranAD]_\n COUTA, TKDE, 2024, unsupervised, Calibrated One-class Classification for Unsupervised Time Series Anomaly Detection [#Xu2024COUTA]_\n USAD, KDD, 2020, unsupervised, USAD: UnSupervised Anomaly Detection on Multivariate Time Series  \n DIF, TKDE, 2023, unsupervised, Deep Isolation Forest for Anomaly Detection [#Xu2023DIF]_\n TcnED, TNNLS, 2021, unsupervised, An Evaluation of Anomaly Detection and Diagnosis in Multivariate Time Series [#Garg2021Evaluation]_\n Deep SVDD (TS), ICML, 2018, unsupervised, Deep One-Class Classification [#Ruff2018Deep]_\n DevNet (TS), KDD, 2019, weakly-supervised, Deep Anomaly Detection with Deviation Networks [#Pang2019DevNet]_\n PReNet (TS), KDD, 2023, weakly-supervised, Deep Weakly-supervised Anomaly Detection [#Pang2023PreNet]_\n Deep SAD (TS), ICLR, 2020, weakly-supervised, Deep Semi-Supervised Anomaly Detection [#Ruff2020DSAD]_\n\nNOTE:\n\n- For Deep SVDD, DevNet, PReNet, and DeepSAD, we employ network structures that can handle time-series data. These models' classes have a parameter named  ``network`` in these models, by changing it, you can use different networks.   \n\n- We currently support 'TCN', 'GRU', 'LSTM', 'Transformer', 'ConvSeq', and 'DilatedConv'.   \n\n\nCitation\n~~~~~~~~~~~~~~~~~\nIf you use this library in your work, please cite these papers:\n\nXu, H., Pang, G., Wang, Y., & Wang, Y. (2023). Deep isolation forest for anomaly detection. IEEE Transactions on Knowledge and Data Engineering, 35(12), 12591-12604.\n\nXu, H., Wang, Y., Jian, S., Liao, Q., Wang, Y., & Pang, G. (2024). Calibrated one-class classification for unsupervised time series anomaly detection. IEEE Transactions on Knowledge and Data Engineering.\n\n\nYou can also use the BibTex entry below for citation.\n\n.. code-block:: bibtex\n\n   @ARTICLE{xu2023deep,\n      author={Xu, Hongzuo and Pang, Guansong and Wang, Yijie and Wang, Yongjun},\n      journal={IEEE Transactions on Knowledge and Data Engineering}, \n      title={Deep Isolation Forest for Anomaly Detection}, \n      year={2023},\n      volume={35},\n      number={12},\n      pages={12591--12604},\n      doi={10.1109\u002FTKDE.2023.3270293}\n   }\n\n.. code-block:: bibtex\n\n   @ARTICLE{xu2024calibrated,\n      title={Calibrated one-class classification for unsupervised time series anomaly detection},\n      author={Xu, Hongzuo and Wang, Yijie and Jian, Songlei and Liao, Qing and Wang, Yongjun and Pang, Guansong},\n      journal={IEEE Transactions on Knowledge and Data Engineering},\n      year={2024},\n      publisher={IEEE}\n}\n\n\nStar History\n~~~~~~~~~~~~~~~~~\n\nCurrent stars:\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxuhongzuo\u002Fdeepod?labelColor=black&color=red\n   :alt: GitHub Repo stars\n\n\n.. image:: https:\u002F\u002Fapi.star-history.com\u002Fsvg?repos=xuhongzuo\u002FDeepOD&type=Date\n   :target: https:\u002F\u002Fstar-history.com\u002F#xuhongzuo\u002FDeepOD&Date\n   :align: center\n\n\n\n\n\nReference\n~~~~~~~~~~~~~~~~~\n\n.. [#Ruff2018Deep] Ruff, Lukas, et al. \"Deep one-class classification.\" ICML. 2018.\n\n.. [#Pang2019Repen] Pang, Guansong, et al. \"Learning representations of ultrahigh-dimensional data for random distance-based outlier detection\". KDD (pp. 2041-2050). 2018.\n\n.. [#Wang2020RDP] Wang, Hu, et al. \"Unsupervised Representation Learning by Predicting Random Distances\". IJCAI (pp. 2950-2956). 2020.\n\n.. [#Liu2021RCA] Liu, Boyang, et al. \"RCA: A Deep Collaborative Autoencoder Approach for Anomaly Detection\". IJCAI (pp. 1505-1511). 2021.\n\n.. [#Bergman2020GOAD] Bergman, Liron, and Yedid Hoshen. \"Classification-Based Anomaly Detection for General Data\". ICLR. 2020.\n\n.. [#Qiu2021Neutral] Qiu, Chen, et al. \"Neural Transformation Learning for Deep Anomaly Detection Beyond Images\". ICML. 2021.\n\n.. [#Shenkar2022ICL] Shenkar, Tom, et al. \"Anomaly Detection for Tabular Data with Internal Contrastive Learning\". ICLR. 2022.\n\n.. [#Pang2019DevNet] Pang, Guansong, et al. \"Deep Anomaly Detection with Deviation Networks\". KDD. 2019.\n\n.. [#Pang2023PreNet] Pang, Guansong, et al. \"Deep Weakly-supervised Anomaly Detection\". KDD. 2023. \n\n.. [#Ruff2020DSAD] Ruff, Lukas, et al. \"Deep Semi-Supervised Anomaly Detection\". ICLR. 2020. \n\n.. [#Zhou2021FeaWAD] Zhou, Yingjie, et al. \"Feature Encoding with AutoEncoders for Weakly-supervised Anomaly Detection\". TNNLS. 2021. \n\n.. [#Xu2022transformer] Xu, Jiehui, et al. \"Anomaly Transformer: Time Series Anomaly Detection with Association Discrepancy\". ICLR, 2022.\n\n.. [#Wu2023timesnet] Wu, Haixu, et al. \"TimesNet: Temporal 2D-Variation Modeling for General Time Series Analysis\". ICLR. 2023.\n\n.. [#Yang2023dcdetector] Yang, Yiyuan, et al. \"DCdetector: Dual Attention Contrastive Representation Learning for Time Series Anomaly Detection\". KDD. 2023\n\n.. [#Tuli2022TranAD] Tuli, Shreshth, et al. \"TranAD: Deep Transformer Networks for Anomaly Detection in Multivariate Time Series Data\". VLDB. 2022.\n\n.. [#Carmona2022NCAD] Carmona, Chris U., et al. \"Neural Contextual Anomaly Detection for Time Series\". IJCAI. 2022. \n\n.. [#Garg2021Evaluation] Garg, Astha, et al. \"An Evaluation of Anomaly Detection and Diagnosis in Multivariate Time Series\". TNNLS. 2021. \n\n.. [#Xu2024COUTA] Xu, Hongzuo et al. \"Calibrated One-class Classification for Unsupervised Time Series Anomaly Detection\". TKDE. 2024.\n\n.. [#Xu2023DIF] Xu, Hongzuo et al. \"Deep Isolation Forest for Anomaly Detection\". TKDE. 2023.\n\n.. [#Xu2023SLAD] Xu, Hongzuo et al. \"Fascinating supervisory signals and where to find them: deep anomaly detection with scale learning\". ICML. 2023. \n\n.. [#Xu2023RoSAS] Xu, Hongzuo et al. \"RoSAS: Deep semi-supervised anomaly detection with contamination-resilient continuous supervision\". IP&M. 2023. \n\n\n","Python 深度异常检测\u002F离群点检测（DeepOD）\n==================================================\n\n.. image:: https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Factions\u002Fworkflows\u002Ftesting.yml\u002Fbadge.svg\n   :target: https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Factions\u002Fworkflows\u002Ftesting.yml\n   :alt: 测试2\n\n.. image:: https:\u002F\u002Freadthedocs.org\u002Fprojects\u002Fdeepod\u002Fbadge\u002F?version=latest\n    :target: https:\u002F\u002Fdeepod.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest\n    :alt: 文档状态\n\n.. image:: https:\u002F\u002Fapp.codacy.com\u002Fproject\u002Fbadge\u002FGrade\u002F2c587126aac2441abb917c032189fbe8\n    :target: https:\u002F\u002Fapp.codacy.com\u002Fgh\u002Fxuhongzuo\u002FDeepOD\u002Fdashboard?utm_source=gh&utm_medium=referral&utm_content=&utm_campaign=Badge_grade\n    :alt: Codacy\n\n.. image:: https:\u002F\u002Fcoveralls.io\u002Frepos\u002Fgithub\u002Fxuhongzuo\u002FDeepOD\u002Fbadge.svg?branch=main\n    :target: https:\u002F\u002Fcoveralls.io\u002Fgithub\u002Fxuhongzuo\u002FDeepOD?branch=main\n    :alt: Coveralls\n\n.. image:: https:\u002F\u002Fstatic.pepy.tech\u002Fpersonalized-badge\u002Fdeepod?period=total&units=international_system&left_color=black&right_color=orange&left_text=下载量\n   :target: https:\u002F\u002Fpepy.tech\u002Fproject\u002Fdeepod\n   :alt: 下载量\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-BSD2-blue\n   :alt: 许可证\n\n\n   \n\n``DeepOD`` 是一个基于深度学习的开源 Python 库，用于 `离群点检测 \u003Chttps:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAnomaly_detection>`_ 和 `异常检测 \u003Chttps:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FAnomaly_detection>`_。``DeepOD`` 支持表格数据和时间序列数据的异常检测。\n\n\nDeepOD 包含 **27** 种基于深度学习的离群点检测\u002F异常检测算法（采用无监督或弱监督范式）。未来还将加入更多基准算法。\n\n\n\n**DeepOD 的特点包括：**\n\n* 各种算法之间的 **统一 API**。\n* **最先进的模型**，涵盖基于重建、表示学习和自监督学习的最新深度学习方法。\n* **全面的测试平台**，可用于在基准数据集上直接测试不同的模型（非常推荐用于学术研究）。\n* **多功能性**，适用于多种数据类型，包括表格数据和时间序列数据（未来 DeepOD 还将支持图像、图、日志、轨迹等其他数据类型，欢迎提交 PR :telescope:）。\n* 可以将 **多样化的网络结构** 插入到检测模型中，目前我们支持 LSTM、GRU、TCN、卷积神经网络和 Transformer 等用于时间序列数据的网络。（也欢迎提交 PR :sparkles:）\n\n\n如果您对我们的项目感兴趣，我们非常高兴收到您的点赞和叉子 :thumbsup: :beers: .\n\n\n安装\n~~~~~~~~~~~~~~\n可以通过以下方式安装 DeepOD 框架：\n\n\n.. code-block:: bash\n\n\n    pip install deepod\n\n\n安装开发版本（强烈推荐）\n\n\n.. code-block:: bash\n\n\n    git clone https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD.git\n    cd DeepOD\n    pip install .\n\n\n用法\n~~~~~~~~~~~~~~~~~\n\n\n直接使用 DeepOD 中的检测模型：\n::::::::::::::::::::::::::::::::::::::::::\n\n使用 DeepOD 只需几行代码即可。这种 API 风格与 `Sklean \u003Chttps:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn>`_ 和 `PyOD \u003Chttps:\u002F\u002Fgithub.com\u002Fyzhao062\u002Fpyod>`_ 相同。\n\n\n**对于表格数据异常检测：**\n\n.. code-block:: python\n\n\n    # 无监督方法\n    from deepod.models.tabular import DeepSVDD\n    clf = DeepSVDD()\n    clf.fit(X_train, y=None)\n    scores = clf.decision_function(X_test)\n\n    # 弱监督方法\n    from deepod.models.tabular import DevNet\n    clf = DevNet()\n    clf.fit(X_train, y=semi_y) # semi_y 使用 1 表示已知异常，0 表示未标记数据\n    scores = clf.decision_function(X_test)\n\n    # 表格数据异常检测评估\n    from deepod.metrics import tabular_metrics\n    auc, ap, f1 = tabular_metrics(y_test, scores)\n\n\n**对于时间序列异常检测：**\n\n\n.. code-block:: python\n\n\n    # 时间序列异常检测方法\n    from deepod.models.time_series import TimesNet\n    clf = TimesNet()\n    clf.fit(X_train)\n    scores = clf.decision_function(X_test)\n\n    # 时间序列异常检测评估\n    from deepod.metrics import ts_metrics\n    from deepod.metrics import point_adjustment # 对时间序列异常进行点级调整\n    eval_metrics = ts_metrics(labels, scores)\n    adj_eval_metrics = ts_metrics(labels, point_adjustment(labels, scores))\n    \n\n\n\n\n测试平台用法：\n::::::::::::::::::::::::::::::::::::::::::\n\n\n测试平台包含了测试异常检测模型的完整流程，包括数据加载、预处理、异常检测和评估。 \n\n请参考 ``testbed\u002F``\n\n* ``testbed\u002Ftestbed_unsupervised_ad.py`` 用于测试无监督的表格数据异常检测模型。\n \n* ``testbed\u002Ftestbed_unsupervised_tsad.py`` 用于测试无监督的时间序列异常检测模型。\n\n\n关键参数：\n\n* ``--input_dir``：包含数据集（.csv、.npy）的文件夹名称\n* ``--dataset``：`FULL` 表示测试文件夹中的所有文件，或者用逗号分隔的数据集名称列表（例如，“10_cover*,20_letter*”）\n* ``--model``：异常检测模型名称\n* ``--runs``：运行检测模型的次数，最终报告平均性能及标准差值\n\n\n示例：\n\n1. 下载 `ADBench \u003Chttps:\u002F\u002Fgithub.com\u002FMinqi824\u002FADBench\u002Ftree\u002Fmain\u002Fadbench\u002Fdatasets\u002F>`_ 数据集。\n2. 将 ``dataset_root`` 变量修改为数据集所在的目录。\n3. ``input_dir`` 是 ``dataset_root`` 下的子文件夹名称，例如“Classical”或“NLP_by_BERT”。\n4. 在终端中使用以下命令\n\n\n.. code-block:: bash\n\n    \n    cd DeepOD\n    pip install .\n    cd testbed\n    python testbed_unsupervised_ad.py --model DeepIsolationForest --runs 5 --input_dir ADBench\n   \n\n\n\n已实现的模型\n~~~~~~~~~~~~~~~~~~~\n\n**表格数据异常检测模型：**\n\n.. csv-table:: \n :header: \"模型\", \"会议\u002F期刊\", \"年份\", \"类型\", \"标题\"\n :widths: 4, 4, 4, 8, 20\n\nDeep SVDD，ICML，2018年，无监督，深度单类分类  [#Ruff2018Deep]_\n REPEN，KDD，2018年，无监督，基于随机距离的异常检测中超高维数据表示学习 [#Pang2019Repen]_\n RDP，IJCAI，2020年，无监督，通过预测随机距离进行无监督表示学习 [#Wang2020RDP]_\n RCA，IJCAI，2021年，无监督，RCA：一种用于异常检测的深度协作自编码器方法 [#Liu2021RCA]_\n GOAD，ICLR，2020年，无监督，面向通用数据的基于分类的异常检测 [#Bergman2020GOAD]_\n NeuTraL，ICML，2021年，无监督，用于超越图像的深度异常检测的神经变换学习 [#Qiu2021Neutral]_\n ICL，ICLR，2022年，无监督，基于内部对比学习的表格数据异常检测 [#Shenkar2022ICL]_\n DIF，TKDE，2023年，无监督，用于异常检测的深度孤立森林 [#Xu2023DIF]_\n SLAD，ICML，2023年，无监督，引人入胜的监督信号及其来源：基于尺度学习的深度异常检测 [#Xu2023SLAD]_\n DevNet，KDD，2019年，弱监督，基于偏差网络的深度异常检测 [#Pang2019DevNet]_\n PReNet，KDD，2023年，弱监督，深度弱监督异常检测 [#Pang2023PreNet]_\n Deep SAD，ICLR，2020年，弱监督，深度半监督异常检测 [#Ruff2020DSAD]_\n FeaWAD，TNNLS，2021年，弱监督，用于弱监督异常检测的自编码器特征编码 [#Zhou2021FeaWAD]_\n RoSAS，IP&M，2023年，弱监督，RoSAS：具有抗污染连续监督的深度半监督异常检测 [#Xu2023RoSAS]_\n\n**时间序列异常检测模型：**\n\n.. csv-table:: \n :header: \"模型\", \"会议\u002F期刊\", \"年份\", \"类型\", \"标题\"\n :widths: 4, 4, 4, 8, 20 \n\n DCdetector，KDD，2023年，无监督，DCdetector：用于时间序列异常检测的双注意力对比表示学习 [#Yang2023dcdetector]_\n TimesNet，ICLR，2023年，无监督，TIMESNET：用于通用时间序列分析的时序二维变化建模 [#Wu2023timesnet]_\n AnomalyTransformer，ICLR，2022年，无监督，Anomaly Transformer：基于关联差异的时间序列异常检测 [#Xu2022transformer]_\n NCAD，IJCAI，2022年，无监督，用于时间序列的神经上下文异常检测 [#Carmona2022NCAD]_\n TranAD，VLDB，2022年，无监督，TranAD：用于多变量时间序列数据异常检测的深度Transformer网络 [#Tuli2022TranAD]_\n COUTA，TKDE，2024年，无监督，用于无监督时间序列异常检测的校准单类分类 [#Xu2024COUTA]_\n USAD，KDD，2020年，无监督，USAD：多变量时间序列上的无监督异常检测\n DIF，TKDE，2023年，无监督，用于异常检测的深度孤立森林 [#Xu2023DIF]_\n TcnED，TNNLS，2021年，无监督，多变量时间序列中的异常检测与诊断评估 [#Garg2021Evaluation]_\n Deep SVDD（TS），ICML，2018年，无监督，深度单类分类 [#Ruff2018Deep]_\n DevNet（TS），KDD，2019年，弱监督，基于偏差网络的深度异常检测 [#Pang2019DevNet]_\n PReNet（TS），KDD，2023年，弱监督，深度弱监督异常检测 [#Pang2023PreNet]_\n Deep SAD（TS），ICLR，2020年，弱监督，深度半监督异常检测 [#Ruff2020DSAD]_\n\n注意：\n\n- 对于Deep SVDD、DevNet、PReNet和DeepSAD，我们采用了能够处理时间序列数据的网络结构。这些模型的类中包含一个名为 ``network`` 的参数，通过更改该参数，可以使用不同的网络。\n\n- 目前我们支持‘TCN’、‘GRU’、‘LSTM’、‘Transformer’、‘ConvSeq’和‘DilatedConv’。\n\n\n引用\n~~~~~~~~~~~~~~~~~\n如果您在工作中使用了本库，请引用以下论文：\n\nXu, H., Pang, G., Wang, Y., & Wang, Y. (2023). 深度孤立森林用于异常检测。IEEE知识与数据工程汇刊，35(12)，12591-12604。\n\nXu, H., Wang, Y., Jian, S., Liao, Q., Wang, Y., & Pang, G. (2024). 用于无监督时间序列异常检测的校准单类分类。IEEE知识与数据工程汇刊。\n\n\n您也可以使用下面的BibTex条目进行引用。\n\n.. code-block:: bibtex\n\n   @ARTICLE{xu2023deep,\n      author={徐洪祚、庞冠松、王义杰、王永军},\n      journal={IEEE知识与数据工程汇刊}, \n      title={用于异常检测的深度孤立森林}, \n      year={2023},\n      volume={35},\n      number={12},\n      pages={12591--12604},\n      doi={10.1109\u002FTKDE.2023.3270293}\n   }\n\n.. code-block:: bibtex\n\n   @ARTICLE{xu2024calibrated,\n      title={用于无监督时间序列异常检测的校准单类分类},\n      author={徐洪祚、王义杰、简松雷、廖青、王永军、庞冠松},\n      journal={IEEE知识与数据工程汇刊},\n      year={2024},\n      publisher={IEEE}\n}\n\n\n星标历史\n~~~~~~~~~~~~~~~~~\n\n当前星标数：\n\n.. image:: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxuhongzuo\u002Fdeepod?labelColor=black&color=red\n   :alt: GitHub仓库星标数\n\n\n.. image:: https:\u002F\u002Fapi.star-history.com\u002Fsvg?repos=xuhongzuo\u002FDeepOD&type=Date\n   :target: https:\u002F\u002Fstar-history.com\u002F#xuhongzuo\u002FDeepOD&Date\n   :align: center\n\n\n\n\n\n参考文献\n~~~~~~~~~~~~~~~~~\n\n.. [#Ruff2018Deep] Ruff, Lukas, et al. “深度单类分类”。ICML。2018年。\n\n.. [#Pang2019Repen] Pang, Guansong, et al. “基于随机距离的异常检测中超高维数据表示学习”。KDD（第2041–2050页）。2018年。\n\n.. [#Wang2020RDP] Wang, Hu, et al. “通过预测随机距离进行无监督表示学习”。IJCAI（第2950–2956页）。2020年。\n\n.. [#Liu2021RCA] Liu, Boyang, et al. “RCA：一种用于异常检测的深度协作自编码器方法”。IJCAI（第1505–1511页）。2021年。\n\n.. [#Bergman2020GOAD] Bergman, Liron, 和 Yedid Hoshen. “面向通用数据的基于分类的异常检测”。ICLR。2020年。\n\n.. [#Qiu2021Neutral] Qiu, Chen, et al. “用于超越图像的深度异常检测的神经变换学习”。ICML。2021年。\n\n.. [#Shenkar2022ICL] Shenkar, Tom, et al. “基于内部对比学习的表格数据异常检测”。ICLR。2022年。\n\n.. [#Pang2019DevNet] Pang, Guansong, et al. “基于偏差网络的深度异常检测”。KDD。2019年。\n\n.. [#Pang2023PreNet] Pang, Guansong, et al. “深度弱监督异常检测”。KDD。2023年。\n\n.. [#Ruff2020DSAD] Ruff, Lukas, et al. “深度半监督异常检测”。ICLR。2020年。\n\n.. [#Zhou2021FeaWAD] Zhou, Yingjie, et al. “用于弱监督异常检测的自编码器特征编码”。TNNLS。2021年。\n\n.. [#Xu2022transformer] Xu, Jiehui, et al. “Anomaly Transformer：基于关联差异的时间序列异常检测”。ICLR。2022年。\n\n.. [#Wu2023timesnet] Wu, Haixu, et al. “TimesNet：用于通用时间序列分析的时序二维变化建模”。ICLR。2023年。\n\n.. [#Yang2023dcdetector] 杨一元等.“DCdetector：用于时间序列异常检测的双注意力对比表征学习”。KDD，2023年。\n\n.. [#Tuli2022TranAD] 图利·什雷什特等.“TranAD：用于多变量时间序列数据异常检测的深度Transformer网络”。VLDB，2022年。\n\n.. [#Carmona2022NCAD] 卡尔莫纳·克里斯·U. 等.“面向时间序列的神经上下文异常检测”。IJCAI，2022年。\n\n.. [#Garg2021Evaluation] 加格·阿斯塔等.“多变量时间序列中异常检测与诊断的评估”。TNNLS，2021年。\n\n.. [#Xu2024COUTA] 徐洪佐等.“用于无监督时间序列异常检测的校准型一类分类方法”。TKDE，2024年。\n\n.. [#Xu2023DIF] 徐洪佐等.“用于异常检测的深度孤立森林”。TKDE，2023年。\n\n.. [#Xu2023SLAD] 徐洪佐等.“迷人的监督信号及其来源：基于尺度学习的深度异常检测”。ICML，2023年。\n\n.. [#Xu2023RoSAS] 徐洪佐等.“RoSAS：具有抗污染连续监督的深度半监督异常检测方法”。IP&M，2023年。","# DeepOD 快速上手指南\n\nDeepOD 是一个基于深度学习的开源 Python 库，专注于**表格数据**和**时间序列数据**的异常检测（Outlier\u002FAnomaly Detection）。它提供了统一的 API 接口，集成了 27 种先进的无监督及弱监督算法。\n\n## 环境准备\n\n*   **操作系统**：Linux, macOS, Windows\n*   **Python 版本**：建议 Python 3.8 及以上\n*   **核心依赖**：\n    *   `torch` (PyTorch)\n    *   `scikit-learn`\n    *   `numpy`\n    *   `pandas`\n\n> **提示**：安装 DeepOD 时会自动处理大部分依赖。若需使用 GPU 加速，请确保已预先安装对应 CUDA 版本的 PyTorch。\n\n## 安装步骤\n\n### 方式一：通过 pip 安装（推荐稳定版）\n\n```bash\npip install deepod\n```\n\n### 方式二：从源码安装（推荐开发版，获取最新功能）\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD.git\ncd DeepOD\npip install .\n```\n\n> **国内加速建议**：若下载速度较慢，可使用清华或阿里镜像源安装：\n> ```bash\n> pip install deepod -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\nDeepOD 的 API 设计风格与 `Scikit-learn` 和 `PyOD` 保持一致，仅需几行代码即可调用模型。\n\n### 1. 表格数据异常检测 (Tabular Data)\n\n支持无监督（Unsupervised）和弱监督（Weakly-supervised）模式。\n\n```python\n# --- 无监督方法示例 (DeepSVDD) ---\nfrom deepod.models.tabular import DeepSVDD\n\n# 初始化模型\nclf = DeepSVDD()\n# 训练模型 (y=None 表示无标签)\nclf.fit(X_train, y=None)\n# 获取异常分数\nscores = clf.decision_function(X_test)\n\n# --- 弱监督方法示例 (DevNet) ---\nfrom deepod.models.tabular import DevNet\n\nclf = DevNet()\n# semi_y: 已知异常点标记为 1，未标记数据标记为 0\nclf.fit(X_train, y=semi_y)\nscores = clf.decision_function(X_test)\n\n# --- 结果评估 ---\nfrom deepod.metrics import tabular_metrics\n\nauc, ap, f1 = tabular_metrics(y_test, scores)\n```\n\n### 2. 时间序列异常检测 (Time-Series Data)\n\nDeepOD 内置了多种网络结构（如 LSTM, GRU, TCN, Transformer 等）以适应时间序列特性。\n\n```python\nfrom deepod.models.time_series import TimesNet\n\n# 初始化模型\nclf = TimesNet()\n# 训练模型\nclf.fit(X_train)\n# 获取异常分数\nscores = clf.decision_function(X_test)\n\n# --- 结果评估 (含点位调整) ---\nfrom deepod.metrics import ts_metrics\nfrom deepod.metrics import point_adjustment\n\n# 标准评估\neval_metrics = ts_metrics(labels, scores)\n# 执行点位调整后的评估 (时间序列检测常用)\nadj_eval_metrics = ts_metrics(labels, point_adjustment(labels, scores))\n```\n\n### 3. 进阶：使用测试床 (Testbed)\n\nDeepOD 提供了一个完整的测试床工具，用于在基准数据集上批量测试不同模型的性能（适合学术研究）。\n\n**使用示例：**\n假设已下载 [ADBench](https:\u002F\u002Fgithub.com\u002FMinqi824\u002FADBench\u002Ftree\u002Fmain\u002Fadbench\u002Fdatasets\u002F) 数据集，并放置在 `ADBench` 文件夹中。\n\n```bash\ncd DeepOD\npip install .\ncd testbed\n\n# 运行 DeepIsolationForest 模型，重复实验 5 次，测试 ADBench 文件夹下的所有数据\npython testbed_unsupervised_ad.py --model DeepIsolationForest --runs 5 --input_dir ADBench\n```\n\n**关键参数说明：**\n*   `--input_dir`: 包含数据集 (.csv, .npy) 的文件夹名称。\n*   `--dataset`: 指定数据集名称，\"FULL\" 表示测试文件夹下所有文件。\n*   `--model`: 要测试的异常检测模型名称。\n*   `--runs`: 运行次数，最终报告平均性能及标准差。","某金融科技公司风控团队正在构建实时交易反欺诈系统，需从海量流水中精准识别未知的异常转账行为。\n\n### 没有 DeepOD 时\n- **算法选型困难**：面对复杂的非线性欺诈模式，传统统计方法失效，团队需手动复现多篇论文代码，耗时数周却难以复现 SOTA 效果。\n- **数据适配繁琐**：处理时间序列交易数据时，需分别编写 LSTM、Transformer 等不同网络的预处理与训练逻辑，代码冗余且维护成本极高。\n- **评估标准不一**：缺乏统一的无监督\u002F弱监督评估框架，不同模型间的 AUC、F1 分数对比困难，导致模型迭代方向模糊。\n\n### 使用 DeepOD 后\n- **一键调用前沿模型**：直接通过统一 API 调用 DevNet（弱监督）或 TimesNet（时序）等 27 种内置算法，将模型验证周期从数周缩短至几小时。\n- **灵活架构无缝切换**：利用 DeepOD 对时序数据的原生支持，轻松插拔 TCN、GRU 等网络结构，无需重写底层代码即可适配交易流特征。\n- **标准化评测体系**：借助内置的 `tabular_metrics` 和 `ts_metrics`，团队能在同一基准下快速量化各模型表现，迅速锁定最优欺诈检测方案。\n\nDeepOD 通过统一的高层接口与丰富的深度学习基座，让风控团队能专注于业务逻辑而非算法实现，显著提升了异常检测的落地效率与准确率。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fxuhongzuo_DeepOD_d25f8757.png","xuhongzuo","Hongzuo Xu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fxuhongzuo_73d1c80a.jpg",null,"https:\u002F\u002Fgithub.com\u002Fxuhongzuo",[78],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,570,69,"2026-03-29T09:27:25","BSD-2-Clause",1,"未说明",{"notes":89,"python":87,"dependencies":90},"README 中未明确列出具体的操作系统、GPU、内存、Python 版本及依赖库版本要求。仅提到可通过 pip 安装，且支持表格数据和时间序列数据的异常检测。时间序列模型支持多种网络结构（如 LSTM, GRU, TCN, Transformer 等）。建议参考官方文档或源码中的 setup.py\u002Frequirements.txt 获取详细环境配置。",[87],[14,92],"其他",[94,95,96],"anomaly-detection","deep-anomaly-detection","outlier-detection","2026-03-27T02:49:30.150509","2026-04-19T03:05:56.058132",[100,105,110,115,120,125],{"id":101,"question_zh":102,"answer_zh":103,"source_url":104},41264,"运行脚本时遇到 'ModuleNotFoundError: No module named deepod.metrics.affiliation' 错误怎么办？","这通常是因为安装的 DeepOD 版本过旧，缺少必要的子模块。请尝试从源码安装最新版本来解决：\n1. 克隆最新的 DeepOD 仓库。\n2. 进入项目目录，运行命令 `pip install .` 进行安装。\n这样可以确保 site-packages 中包含 'affiliation' 和 'vus' 等最新子模块。","https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Fissues\u002F48",{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},41265,"如何保存训练好的模型以便后续部署或重新加载？","由于不同算法可能包含特定的类内参数（如 Deep SVDD 中的超球中心 `c`），直接保存权重可能会出错。维护者推荐最简单可靠的方法是使用 Python 的 `pickle` 模块保存整个模型对象。示例代码如下：\n```python\nimport pickle\n\n# 训练模型\nmodel = DeepSVDD()\nmodel.fit(x_train)\n\n# 保存模型\nwith open('save_file.pkl', 'wb') as f:\n    pickle.dump(model, f)\n\n# 加载模型\nwith open('save_file.pkl', 'rb') as f:\n    model_load = pickle.load(f)\n\n# 使用加载的模型进行预测\nscores = model_load.decision_function(x_test)\n```","https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Fissues\u002F24",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},41266,"使用时间序列异常检测模型（如 DeepSADTS）时，为什么单行数据测试会报错？对测试数据量有限制吗？","这不是对数据总量的限制，而是对输入格式的要求。时间序列异常检测器使用滑动窗口将数据分割为子序列进行训练和推理。因此，输入的每个样本必须是一个序列（即多行数据点），而不能是单行标量数据。\n解决方法：确保输入数据符合序列格式，可以通过设置 `seq_len` 参数来定义序列长度，保证输入到 `decision_function` 的数据维度正确。","https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Fissues\u002F58",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},41267,"使用弱监督方法（如 DevNet）训练时出现 'Float division by zero' 错误的原因是什么？","DevNet 是一种弱监督模型，其设计原理依赖于部分已标记的异常数据。如果输入的训练数据中只包含正常数据（即标签全为 0，没有标记为 1 的已知异常点），模型在计算过程中会出现除以零的错误。\n解决方法：确保训练数据中包含一定数量的已知异常样本（标签为 1），不能仅使用纯正常数据进行训练。","https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Fissues\u002F25",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},41268,"在评估结果时，如果发现测试集中的异常点聚集在一起导致结果偏差，应该如何处理？","测试集中异常点聚集确实可能导致评估结果过于乐观或不具代表性。建议在调用 `clf.decision_function(x_test)` 进行推理之前，对测试数据 `x_test` 和标签 `y_test` 进行同步打乱（Shuffle）。\n代码示例：\n```python\nimport numpy as np\n\n# 生成随机索引\nnew_idx = np.random.permutation(len(x_test))\n\n# 同步打乱数据和标签\nx_test_new = x_test[new_idx]\ny_test_new = y_test[new_idx]\n\n# 使用打乱后的数据进行评估\nscores = clf.decision_function(x_test_new)\n```","https:\u002F\u002Fgithub.com\u002Fxuhongzuo\u002FDeepOD\u002Fissues\u002F38",{"id":126,"question_zh":127,"answer_zh":128,"source_url":119},41269,"DevNet 模型对输入数据有什么特殊要求？如果检查输入后仍报错怎么办？","除了必须包含已知异常点外，还需检查输入特征 `X_train` 中是否存在全零的特征列，DeepOD 目前未对此进行严格的输入检查，全零特征可能导致计算错误。此外，请确认标签格式是否正确（1 代表已知异常，0 代表未标记数据）。如果问题依旧，建议参考官方测试脚本（deepod\u002Ftest\u002Ftest_devnet.py）对比数据格式。",[130,135,139,143],{"id":131,"version":132,"summary_zh":133,"released_at":134},333232,"0.4.1","- 分别实现时间序列和表格数据的异常检测功能\n- 新增多款最新的异常检测模型，DeepOD 现已支持 25 种 SOTA 模型！\n- 添加测试平台\n- 重构整个项目\n","2023-09-07T01:07:01",{"id":136,"version":137,"summary_zh":75,"released_at":138},333233,"0.3.0","2023-07-18T03:12:59",{"id":140,"version":141,"summary_zh":75,"released_at":142},333234,"0.2.0","2022-12-01T08:30:55",{"id":144,"version":145,"summary_zh":146,"released_at":147},333235,"0.1.1","初始发布","2022-11-02T03:14:34"]