[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-salesforce--logai":3,"tool-salesforce--logai":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":83,"stars":100,"forks":101,"last_commit_at":102,"license":103,"difficulty_score":23,"env_os":104,"env_gpu":104,"env_ram":104,"env_deps":105,"category_tags":112,"github_topics":113,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":122,"updated_at":123,"faqs":124,"releases":154},4139,"salesforce\u002Flogai","logai","LogAI - An open-source library for log analytics and intelligence","LogAI 是一款由 Salesforce 开源的一站式日志分析与智能库，旨在帮助开发者高效处理海量系统日志。面对日益复杂的分布式系统，人工排查日志不仅耗时且难以发现隐蔽异常，LogAI 通过集成先进的机器学习与深度学习算法，自动化完成日志摘要、聚类及异常检测等关键任务，显著降低运维门槛。\n\n这款工具特别适合运维工程师、数据科学家及学术研究人员使用。无论是需要快速构建原型的企业开发者，还是希望基准测试最新异常检测算法的研究者，都能从中获益。LogAI 的独特亮点在于其全面兼容 OpenTelemetry 数据模型，能够无缝对接各类主流日志管理平台；同时提供统一的模型接口，灵活支持从传统统计学习到前沿深度学习模型的调用。此外，它还配备了开箱即用的图形化界面（GUI），让用户无需编写代码即可进行交互式日志探索。借助 LogAI，用户可避免重复的数据预处理工作，专注于核心逻辑验证，是连接学术研究与工业落地的理想桥梁。","\u003C!--\nCopyright (c) 2023 Salesforce.com, inc.\nAll rights reserved.\nSPDX-License-Identifier: BSD-3-Clause\nFor full license text, see the LICENSE file in the repo root or https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause\n\n-->\n\n\u003Cp align=\"center\">\n    \u003Cbr>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_3b67d2816a64.jpg\" width=\"400\"\u002F>\n    \u003C\u002Fbr>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Ftests.yml\">\n    \u003Cimg alt=\"Latest Release\" src=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg?branch=main\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\">\n    \u003Cimg alt=\"pages-build-deployment\" src=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\u002Fbadge.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Freleases\">\n    \u003Cimg alt=\"Latest Release\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fsalesforce\u002Flogai.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Flogai\">\n    \u003Cimg src=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Flogai.svg\" alt=\"PyPI version\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause\">\n    \u003Cimg alt=\"license\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-BSD_3--Clause-blue.svg\"\u002F>\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n# LogAI: A Library for Log Analytics and Intelligence\n\n## Table of Contents\n* [Introduction](#introduction)\n* [Installation](#installation)\n* [Getting Started](#getting-started)\n  * [Explore LogAI GUI Portal](#explore-logai-gui-portal)\n  * [Run Simple Time-series Anomaly Detection Application](#run-simple-time-series-anomaly-detection-application)\n  * [Build Customized LogAI Applications](#build-customized-logai-applications)\n  * [Deep-learning Anomaly Detection Benchmarking](#deep-learning-anomaly-detection-benchmarking)\n* [Documentation](#documentation)\n* [Technical Report and Citing LogAI](#technical-report-and-citing-logai)\n* [Contact](#contact)\n* [License](#license)\n\n## Introduction\nLogAI is a one-stop open source library for log analytics and intelligence. LogAI supports various log analytics and log intelligence tasks such as log summarization, log clustering, log anomaly detection and more. It adopts the OpenTelemetry data model, to enable compatibility with different log management platforms. LogAI provides a unified model interface and integrates popular time-series, statistical learning and deep \nlearning models. Alongside this, LogAI also provides an out-of-the-box GUI toolkit for users to conduct interactive log \nanalysis. With LogAI, we can also easily benchmark popular ML and deep-learning algorithms for log anomaly detection \nwithout putting in redundant effort to process the logs. We have opensourced LogAI to facilitate a wide range of \napplications benefiting both academic research and industrial prototyping. \n \nThe following table compares LogAI with several existing log analysis Tools, include both commercial log management platforms\nlike NewRelic and DataDog, or popular log analysis open source tools on Github. \n\n| Coverage  | LogAI | NewRelic Log Monitoring | DataDog Log Explorer | logparser | loglizer | deep-loglizer | log3C | \n| ------------- | ------------- | ------------- |  ------------- | ------------- | ------------- | ------------- | ------------- |\n| OpenTelemetry log data model  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | | | | | | \n| Unified data loader and preprocessing | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark: | |\n| Auto log parsing  | :white_check_mark:  | :white_check_mark: | :white_check_mark: | | | \n| Log clustering | :white_check_mark: | :white_check_mark:  | :white_check_mark:  | | | | :white_check_mark: | \n| Log anomaly detection - time-series | :white_check_mark: | :white_check_mark:  | :white_check_mark:  | | | | | | \n| Log anomaly detection - traditional ML | :white_check_mark: |  |  | | :white_check_mark: |  |  |  \n| Log anomaly detection - deep Learning | :white_check_mark: |  | | | :white_check_mark: | :white_check_mark: |  |  \n| Huggingface integration | :white_check_mark: | | | | | |  |\n| GUI for result visualization | :white_check_mark: | :white_check_mark: | :white_check_mark: | | | | |\n\n## Installation\n\n### Quick Install\nYou can install LogAI core library using `pip install`:\n\n```shell\n\n# Check out LogAI code repo from Github\ngit clone https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git\ncd logai\n\n# [Optional] Create virtual environment\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# Install LogAI\npip install logai\n\n```\n\n### Install Optional Dependencies\nLogAI core library is light-weight with limited dependent packages installed. Users can install optional dependencies\nto enable extended functionalities of LogAI.\n\n**Deep Learning Log Analysis**. To conduct deep learning model related tasks and run benchmarking,\nplease install extra requirements by `pip install \"logai[deep-learning]\"`.\n\n**Enable LogAI GUI Portal***. To use LogAI GUI portal, \nplease install extra requirements by `pip install \"logai[gui]\"`.\n\n**LogAI Development**. To contribute to LogAI development, build and test code changes, \nplease install extra requirements by `pip install \"logai[dev]\"`.\n\n**Complete Installation**. you can install the full list of dependencies by `pip install \"logai[all]\"`.\n\n### Known Issues\n\n> :warning: You may see `Resource punkt not found` while using LogAI. You can download `punkt`\n> package from NLTK to solve the problem.\n> ```shell\n> python -m nltk.downloader punkt\n> ```\n\n## Getting Started\n\nBelow we briefly introduce several ways to explore and use LogAI, including exploring LogAI GUI\nportal, benchmarking deep-learning based log anomaly detection using LogAI, and building your \nown log analysis application with LogAI.\n\n### Explore LogAI GUI Portal \n\nYou can also start a local LogAI service and use the GUI portal to explore LogAI.\n\n```shell\n\n# Check out LogAI code repo from Github\ngit clone https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git\ncd logai\n\n# [Optional] Create virtual environment\npython3 -m venv venv # create virtual environment\nsource venv\u002Fbin\u002Factivate # activate virtual env\n\n# install LogAI and GUI dependencies\npip install \".[dev]\"\npip install \".[gui]\"\n\n# Start LogAI service\nexport PYTHONPATH='.'  # make sure to add current root to PYTHONPATH\npython3 gui\u002Fapplication.py # Run local plotly dash server.\n```\n\nThen open the LogAI portal via http:\u002F\u002Flocalhost:8050\u002F or http:\u002F\u002F127.0.0.1:8050\u002F in your browser:\n\n![portal](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_8fd61e86bc26.png)\n\nThe control panel is on the left side of the page. There are three applications you can choose from:\nLog Summarization, Log Clustering and Anomaly Detection.\n\n#### Control Panel\n\n**File Setting**. You can select the log type and log files to be processed. Now LogAI supports three \npublic datasets: HDFS, BGL and HealthApp. For each log type we included several sample log data. After\nlog file selected, you can choose the attributes you want to be involved in log processing. The selected \nattributes will be treated as structured log attributes.\n\n**Algorithm Setting**. For different applications, the algorithms options may be different.\nFor example, auto-log parsing algorithms are utilized for log summarization, but log clustering uses auto-parsing algorithms,\n vectorization algorithms, categorical encoding and clustering algorithms. You can select an\n algorithm and change the parameters in each algorithm section. After algorithm configuration, simply click \"run\" to\nrun the application.\n\n#### Log Summarization\n\nLog summarization App summarize and group the raw logs by log patterns and attributes. You can click on \neach log pattern and see what the pattern looks like and the dynamic values in each position. You can also \nsee the chart of occurrance trend of this pattern on the right side.\n\n![log summarization](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_56920517ad5e.png)\n\n#### Log Clustering\n\nLog clustering App groups raw logs into clusters by calculating the semantic representation of each logline. \nThen using clustering algorithms to generate log clusters. In this example, we choose k-mean where `k==8` to\ngenerate 8 clusters. The result is shown as a pie chart and you can click each portion of the pie chart to check\nthe raw logs in this cluster.\n\n![log clustering](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_d19ce7055243.png)\n\n#### Anomaly Detection\n\nLog anomaly detection App conduct log anomaly detection tasks. Similar to log clustering, log anomaly detection\nalso needs to extract information from raw logs and generate representation of loglines. Depend on the type of anomaly detection,\nThe representation can be different. \n**Time-series anomaly detection**. If we use time-series algorithm like ETS, the raw logs will be converted\ninto log counter vectors by given time interval. Then ETS is performed on the generated log counter vectors and detect\nanomalous timestamps on the counter vector time-series. \n\n**Semantic anomaly detection**. If we use unsupervised outlier detection algorithms such as One-class SVM, the raw logs will \nbe converted into semantic vectors and feed the One-class SVM model. Then the model will detect anomalous loglines.\n\n![log anomaly detection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_5131e7fe5c49.png)\n\nLogAI GUI portal is just an example to demo LogAI capabilities. We know this may not be the best way to visualize the \nresults and there might be bugs in how the results are displayed. We will keep working with the open source community\nto improve usability of the portal. Any feedbacks and contributions are welcome :blush:. \n\n### Run Simple Time-series Anomaly Detection Application\n\nYou can also use LogAI in more programtic ways. LogAI supports configuration files in `.json` or `.yaml`. \nBelow is a sample `log_anomaly_detection_config.json` configuration for anomaly detection application. \nMake sure to set `filepath` to the target log dataset file path.\n\n```json\n{\n      \"open_set_data_loader_config\": {\n        \"dataset_name\": \"HDFS\",\n        \"filepath\": \"\"\n      },\n      \"preprocessor_config\": {\n          \"custom_delimiters_regex\":[]\n      },\n      \"log_parser_config\": {\n        \"parsing_algorithm\": \"drain\",\n        \"parsing_algo_params\": {\n          \"sim_th\": 0.5,\n          \"depth\": 5\n        }\n      },\n      \"feature_extractor_config\": {\n          \"group_by_category\": [\"Level\"],\n          \"group_by_time\": \"1s\"\n      },\n      \"log_vectorizer_config\": {\n          \"algo_name\": \"word2vec\"\n      },\n      \"categorical_encoder_config\": {\n          \"name\": \"label_encoder\"\n      },\n      \"anomaly_detection_config\": {\n          \"algo_name\": \"one_class_svm\"\n      }\n    }\n```\n\nThen to run log anomaly detection. You can simply create below python script:\n\n```python\nimport json\n\nfrom logai.applications.application_interfaces import WorkFlowConfig\nfrom logai.applications.log_anomaly_detection import LogAnomalyDetection\n\n# path to json configuration file\njson_config = \".\u002Flog_anomaly_detection_config.json\"\n\n# Create log anomaly detection application workflow configuration\nconfig = json.loads(json_config)\nworkflow_config = WorkFlowConfig.from_dict(config) \n\n# Create LogAnomalyDetection Application for given workflow_config\napp = LogAnomalyDetection(workflow_config)\n\n# Execute App\napp.execute()\n\n```\n\nThen you can check anomaly detection results by calling `app.anomaly_results`. \n\nFor full context of this example please check\n[Tutorial: Use Log Anomaly Detection Application](.\u002Fexamples\u002Fjupyter_notebook\u002Flog_anomaly_detection_example.ipynb).\n\n### Build Customized LogAI Applications\nYou can build your own customized log analysis applications using LogAI. Here we show two examples:\n\n* [Tutorial: Log Clustering Using LogAI](.\u002Fexamples\u002Fjupyter_notebook\u002Ftutorial_log_clustering.ipynb)\n* [Tutorial: Log Anomaly Detection Using LogAI](.\u002Fexamples\u002Fjupyter_notebook\u002Ftutorial_log_anomaly_detection.ipynb)\n\n### Deep-learning Anomaly Detection Benchmarking\n\nLogAI can be used to benchmark deep-learning anomaly detection results. \nA [tutorial](examples\u002Fjupyter_notebook\u002Ftutorial_deep_ad.md) is provided for \nAnomaly Detection Benchmarking using LSTM anomaly detector for HDFS Dataset. More examples of deep-learning anomaly \ndetection benchmarking on different datasets and algorithms can be found in \n[Deep Anomaly Detection Benchmarking Examples](examples\u002Fjupyter_notebook\u002Fnn_ad_benchmarking).\n\n## Documentation\n\nFor more detail about LogAI library and advanced use cases, please visit \n[LogAI Documentation](https:\u002F\u002Fopensource.salesforce.com\u002Flogai).\n\n## Technical Report and Citing LogAI\n\nYou can find more details about LogAI in the [technical report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13415). \nIf you're using LogAI in your research or applications, please cite using this BibTeX:\n\n```\n@misc{https:\u002F\u002Fdoi.org\u002F10.48550\u002Farxiv.2301.13415,\n    title = {LogAI: A Library for Log Analytics and Intelligence},\n    author = {Cheng, Qian and Saha, Amrita and Yang, Wenzhuo and Liu, Chenghao and Sahoo, Doyen and Hoi, Steven},\n    publisher = {arXiv},\n    year = {2023},\n    doi = {10.48550\u002FARXIV.2301.13415},\n    url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13415},\n    copyright = {arXiv.org perpetual, non-exclusive license}\n}\n\n```\n\n## Contact\nIf you have any questions, comments or suggestions, \nplease do not hesitate to contact us at [logai@salesforce.com](logai@salesforce.com). \n\n## License\n[BSD 3-Clause License](LICENSE.txt)\n\n","\u003C!--\n版权所有 © 2023 Salesforce.com, inc.\n保留所有权利。\nSPDX许可证标识符：BSD-3-Clause\n完整许可文本请参见仓库根目录下的 LICENSE 文件或访问 https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause\n\n-->\n\n\u003Cp align=\"center\">\n    \u003Cbr>\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_3b67d2816a64.jpg\" width=\"400\"\u002F>\n    \u003C\u002Fbr>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Ftests.yml\">\n    \u003Cimg alt=\"最新版本\" src=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Ftests.yml\u002Fbadge.svg?branch=main\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\">\n    \u003Cimg alt=\"pages-build-deployment\" src=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Factions\u002Fworkflows\u002Fpages\u002Fpages-build-deployment\u002Fbadge.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Freleases\">\n    \u003Cimg alt=\"最新版本\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Frelease\u002Fsalesforce\u002Flogai.svg\" \u002F>\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Flogai\">\n    \u003Cimg src=\"https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Flogai.svg\" alt=\"PyPI版本\">\n  \u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FBSD-3-Clause\">\n    \u003Cimg alt=\"许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-BSD_3--Clause-blue.svg\"\u002F>\n  \u003C\u002Fa>\n\u003C\u002Fdiv>\n\n# LogAI：日志分析与智能库\n\n## 目录\n* [简介](#introduction)\n* [安装](#installation)\n* [快速入门](#getting-started)\n  * [探索 LogAI GUI 门户](#explore-logai-gui-portal)\n  * [运行简单的时序异常检测应用](#run-simple-time-series-anomaly-detection-application)\n  * [构建自定义 LogAI 应用程序](#build-customized-logai-applications)\n  * [深度学习异常检测基准测试](#deep-learning-anomaly-detection-benchmarking)\n* [文档](#documentation)\n* [技术报告及引用 LogAI](#technical-report-and-citing-logai)\n* [联系方式](#contact)\n* [许可证](#license)\n\n## 简介\nLogAI 是一个用于日志分析与智能的一站式开源库。它支持多种日志分析和日志智能任务，例如日志摘要、日志聚类、日志异常检测等。LogAI 采用 OpenTelemetry 数据模型，以实现与不同日志管理平台的兼容性。该库提供统一的模型接口，并集成了流行的时序、统计学习和深度学习模型。此外，LogAI 还提供开箱即用的 GUI 工具包，方便用户进行交互式日志分析。借助 LogAI，我们还可以轻松地对流行的机器学习和深度学习算法在日志异常检测方面的性能进行基准测试，而无需花费大量精力处理日志数据。我们已将 LogAI 开源，以促进其在学术研究和工业原型开发中的广泛应用。\n\n下表将 LogAI 与现有的几种日志分析工具进行了比较，其中包括 NewRelic 和 DataDog 等商业日志管理平台，以及 GitHub 上流行的开源日志分析工具。\n\n| 覆盖范围  | LogAI | NewRelic 日志监控 | DataDog 日志浏览器 | logparser | loglizer | deep-loglizer | log3C | \n| ------------- | ------------- | ------------- |  ------------- | ------------- | ------------- | ------------- | ------------- |\n| OpenTelemetry 日志数据模型  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | | | | | | \n| 统一的数据加载与预处理 | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark:  | :white_check_mark: | |\n| 自动日志解析  | :white_check_mark:  | :white_check_mark: | :white_check_mark: | | | \n| 日志聚类 | :white_check_mark: | :white_check_mark:  | :white_check_mark:  | | | | :white_check_mark: | \n| 日志异常检测 - 时序 | :white_check_mark: | :white_check_mark:  | :white_check_mark:  | | | | | | \n| 日志异常检测 - 传统机器学习 | :white_check_mark: |  |  | | :white_check_mark: |  |  |  \n| 日志异常检测 - 深度学习 | :white_check_mark: |  | | | :white_check_mark: | :white_check_mark: |  |  \n| Huggingface 集成 | :white_check_mark: | | | | | |  |\n| 结果可视化 GUI | :white_check_mark: | :white_check_mark: | :white_check_mark: | | | | |\n\n## 安装\n\n### 快速安装\n您可以使用 `pip install` 命令安装 LogAI 核心库：\n\n```shell\n\n# 从 GitHub 克隆 LogAI 代码仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git\ncd logai\n\n# [可选] 创建虚拟环境\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate\n\n# 安装 LogAI\npip install logai\n\n```\n\n### 安装可选依赖\nLogAI 核心库非常轻量，仅安装了少量依赖包。用户可以根据需要安装可选依赖，以启用 LogAI 的扩展功能。\n\n**深度学习日志分析**。若要执行与深度学习模型相关的任务并进行基准测试，请使用 `pip install \"logai[deep-learning]\"` 安装额外的依赖。\n\n**启用 LogAI GUI 门户***。若要使用 LogAI GUI 门户，请使用 `pip install \"logai[gui]\"` 安装额外的依赖。\n\n**LogAI 开发**。若要参与 LogAI 的开发、构建和测试代码更改，请使用 `pip install \"logai[dev]\"` 安装额外的依赖。\n\n**完整安装**。您可以通过 `pip install \"logai[all]\"` 安装所有依赖项。\n\n### 已知问题\n\n> :warning: 使用 LogAI 时，您可能会看到“Resource punkt not found”错误。您可以从 NLTK 下载 `punkt` 包来解决此问题。\n> ```shell\n> python -m nltk.downloader punkt\n> ```\n\n## 快速入门\n\n下面我们将简要介绍几种探索和使用 LogAI 的方式，包括探索 LogAI GUI 门户、使用 LogAI 对基于深度学习的日志异常检测进行基准测试，以及利用 LogAI 构建您自己的日志分析应用程序。\n\n### 探索 LogAI GUI 门户 \n\n您也可以启动本地 LogAI 服务，并使用 GUI 门户来探索 LogAI。\n\n```shell\n\n# 从 GitHub 克隆 LogAI 代码仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git\ncd logai\n\n# [可选] 创建虚拟环境\npython3 -m venv venv # 创建虚拟环境\nsource venv\u002Fbin\u002Factivate # 激活虚拟环境\n\n# 安装 LogAI 和 GUI 依赖\npip install \".[dev]\"\npip install \".[gui]\"\n\n# 启动 LogAI 服务\nexport PYTHONPATH='.'  # 确保将当前根目录添加到 PYTHONPATH\npython3 gui\u002Fapplication.py # 运行本地 Plotly Dash 服务器。\n```\n\n然后在浏览器中通过 http:\u002F\u002Flocalhost:8050\u002F 或 http:\u002F\u002F127.0.0.1:8050\u002F 打开 LogAI 门户：\n\n![portal](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_8fd61e86bc26.png)\n\n页面左侧是控制面板。您可以选择以下三个应用：\n日志摘要、日志聚类和异常检测。\n\n#### 控制面板\n\n**文件设置**。您可以选择要处理的日志类型和日志文件。目前 LogAI 支持三种公开数据集：HDFS、BGL 和 HealthApp。对于每种日志类型，我们都提供了若干示例日志数据。选择日志文件后，您可以挑选希望参与日志处理的属性。所选属性将被视为结构化日志属性。\n\n**算法设置**。不同应用可用的算法选项可能有所不同。\n例如，日志摘要会使用自动日志解析算法，而日志聚类则会用到自动解析算法、向量化算法、类别编码以及聚类算法。您可以选择一种算法，并在每个算法部分调整参数。完成算法配置后，只需点击“运行”即可启动应用。\n\n#### 日志摘要\n\n日志摘要应用会根据日志模式和属性对原始日志进行汇总和分组。您可以点击每个日志模式，查看该模式的具体内容以及各位置上的动态值。此外，您还可以在右侧看到该模式出现趋势的图表。\n\n![log summarization](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_56920517ad5e.png)\n\n#### 日志聚类\n\n日志聚类应用通过计算每条日志的语义表示，将原始日志划分为不同的簇。\n随后利用聚类算法生成日志簇。在本示例中，我们选择了 k-means 算法，设置 `k==8` 以生成 8 个簇。结果以饼图形式展示，您可以点击饼图中的每一部分来查看该簇中的原始日志。\n\n![log clustering](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_d19ce7055243.png)\n\n#### 异常检测\n\n日志异常检测应用用于执行日志异常检测任务。与日志聚类类似，日志异常检测也需要从原始日志中提取信息并生成日志行的表示。根据异常检测的类型，表示方式可能会有所不同。\n**时间序列异常检测**。如果我们使用 ETS 等时间序列算法，原始日志将按照给定的时间间隔转换为日志计数向量。随后在生成的日志计数向量上运行 ETS 算法，以检测计数向量时间序列中的异常时间戳。\n**语义异常检测**。如果使用无监督离群点检测算法（如 One-class SVM），原始日志将被转换为语义向量，并输入 One-class SVM 模型。模型将据此检测出异常日志行。\n\n![log anomaly detection](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_readme_5131e7fe5c49.png)\n\nLogAI GUI 门户只是演示 LogAI 功能的一个示例。我们知道这可能不是展示结果的最佳方式，且结果的显示可能存在一些问题。我们将继续与开源社区合作，不断提升门户的易用性。欢迎提出任何反馈和贡献 :blush:。\n\n### 运行简单的时间序列异常检测应用\n\n您也可以以更程序化的方式使用 LogAI。LogAI 支持 `.json` 或 `.yaml` 格式的配置文件。\n以下是用于异常检测应用的示例配置文件 `log_anomaly_detection_config.json`。\n请确保将 `filepath` 设置为目标日志数据集的文件路径。\n\n```json\n{\n      \"open_set_data_loader_config\": {\n        \"dataset_name\": \"HDFS\",\n        \"filepath\": \"\"\n      },\n      \"preprocessor_config\": {\n          \"custom_delimiters_regex\":[]\n      },\n      \"log_parser_config\": {\n        \"parsing_algorithm\": \"drain\",\n        \"parsing_algo_params\": {\n          \"sim_th\": 0.5,\n          \"depth\": 5\n        }\n      },\n      \"feature_extractor_config\": {\n          \"group_by_category\": [\"Level\"],\n          \"group_by_time\": \"1s\"\n      },\n      \"log_vectorizer_config\": {\n          \"algo_name\": \"word2vec\"\n      },\n      \"categorical_encoder_config\": {\n          \"name\": \"label_encoder\"\n      },\n      \"anomaly_detection_config\": {\n          \"algo_name\": \"one_class_svm\"\n      }\n    }\n```\n\n接下来，您可以创建如下 Python 脚本以运行日志异常检测：\n\n```python\nimport json\n\nfrom logai.applications.application_interfaces import WorkFlowConfig\nfrom logai.applications.log_anomaly_detection import LogAnomalyDetection\n\n# 配置文件路径\njson_config = \".\u002Flog_anomaly_detection_config.json\"\n\n# 创建日志异常检测应用的工作流配置\nconfig = json.loads(json_config)\nworkflow_config = WorkFlowConfig.from_dict(config) \n\n# 根据工作流配置创建 LogAnomalyDetection 应用\napp = LogAnomalyDetection(workflow_config)\n\n# 执行应用\napp.execute()\n\n```\n\n之后，您可以通过调用 `app.anomaly_results` 来查看异常检测结果。\n\n有关此示例的完整上下文，请参阅\n[教程：使用日志异常检测应用](.\u002Fexamples\u002Fjupyter_notebook\u002Flog_anomaly_detection_example.ipynb)。\n\n### 构建自定义 LogAI 应用程序\n您可以使用 LogAI 构建自己的定制化日志分析应用程序。这里提供两个示例：\n\n* [教程：使用 LogAI 进行日志聚类](.\u002Fexamples\u002Fjupyter_notebook\u002Ftutorial_log_clustering.ipynb)\n* [教程：使用 LogAI 进行日志异常检测](.\u002Fexamples\u002Fjupyter_notebook\u002Ftutorial_log_anomaly_detection.ipynb)\n\n### 深度学习异常检测基准测试\nLogAI 可用于对深度学习异常检测结果进行基准测试。\n我们提供了一个[教程](examples\u002Fjupyter_notebook\u002Ftutorial_deep_ad.md)，介绍如何使用 LSTM 异常检测器对 HDFS 数据集进行异常检测基准测试。更多关于不同数据集和算法的深度学习异常检测基准测试示例，请参阅\n[深度异常检测基准测试示例](examples\u002Fjupyter_notebook\u002Fnn_ad_benchmarking)。\n\n## 文档\n如需了解更多关于 LogAI 库及高级用法的信息，请访问\n[LogAI 文档](https:\u002F\u002Fopensource.salesforce.com\u002Flogai)。\n\n## 技术报告与引用 LogAI\n您可以在[技术报告](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13415)中找到关于 LogAI 的更多详细信息。\n如果您在研究或应用中使用了 LogAI，请使用以下 BibTeX 格式引用：\n\n```\n@misc{https:\u002F\u002Fdoi.org\u002F10.48550\u002Farxiv.2301.13415,\n    title = {LogAI: 用于日志分析与智能的库},\n    author = {Cheng, Qian 和 Saha, Amrita 和 Yang, Wenzhuo 和 Liu, Chenghao 和 Sahoo, Doyen 和 Hoi, Steven},\n    publisher = {arXiv},\n    year = {2023},\n    doi = {10.48550\u002FARXIV.2301.13415},\n    url = {https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13415},\n    copyright = {arXiv.org 永久、非独占许可}\n}\n\n```\n\n## 联系方式\n如果您有任何问题、评论或建议，\n请随时通过 [logai@salesforce.com](logai@salesforce.com) 与我们联系。\n\n## 许可证\n[BSD 3-Clause 许可证](LICENSE.txt)","# LogAI 快速上手指南\n\nLogAI 是 Salesforce 开源的一站式日志分析与智能库，支持日志摘要、聚类、异常检测等任务。它采用 OpenTelemetry 数据模型，集成了时间序列、统计学习和深度学习模型，并提供开箱即用的 GUI 可视化工具。\n\n## 环境准备\n\n*   **操作系统**: Linux, macOS, Windows\n*   **Python 版本**: Python 3.8 或更高版本\n*   **前置依赖**:\n    *   `git`: 用于克隆代码仓库\n    *   `pip`: Python 包管理工具\n    *   (可选) `venv`: 推荐创建虚拟环境以隔离依赖\n\n> **注意**: 首次运行若遇到 `Resource punkt not found` 错误，需手动下载 NLTK 数据包：\n> ```shell\n> python -m nltk.downloader punkt\n> ```\n\n## 安装步骤\n\n### 1. 获取源码\n```shell\ngit clone https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git\ncd logai\n```\n\n### 2. 创建并激活虚拟环境（推荐）\n```shell\npython3 -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户请使用: venv\\Scripts\\activate\n```\n\n### 3. 安装 LogAI\n根据需求选择以下一种安装方式：\n\n*   **基础安装** (仅核心库):\n    ```shell\n    pip install logai\n    ```\n\n*   **完整安装** (包含深度学习、GUI 及开发依赖):\n    ```shell\n    pip install \"logai[all]\"\n    ```\n\n*   **按需安装**:\n    *   启用深度学习功能: `pip install \"logai[deep-learning]\"`\n    *   启用 GUI 可视化门户: `pip install \"logai[gui]\"`\n    *   开发贡献模式: `pip install \"logai[dev]\"`\n\n## 基本使用\n\nLogAI 提供两种主要使用方式：通过图形界面 (GUI) 交互式探索，或通过 Python 代码编程调用。\n\n### 方式一：启动 GUI 可视化门户\n\n适合快速体验日志摘要、聚类和异常检测功能。\n\n1.  **设置环境变量并启动服务**:\n    ```shell\n    export PYTHONPATH='.'\n    python3 gui\u002Fapplication.py\n    ```\n\n2.  **访问界面**:\n    在浏览器中打开 `http:\u002F\u002Flocalhost:8050\u002F` 或 `http:\u002F\u002F127.0.0.1:8050\u002F`。\n\n3.  **操作流程**:\n    *   **File Setting**: 选择内置数据集（如 HDFS, BGL, HealthApp）及需要处理的属性。\n    *   **Algorithm Setting**: 针对不同应用（摘要\u002F聚类\u002F异常检测）选择算法并调整参数。\n    *   **Run**: 点击运行按钮查看可视化结果（如饼图、趋势图等）。\n\n### 方式二：编程运行异常检测示例\n\n适合集成到现有工作流或进行定制化开发。LogAI 支持通过 JSON\u002FYAML 配置文件定义工作流。\n\n1.  **创建配置文件** (`log_anomaly_detection_config.json`):\n    ```json\n    {\n      \"open_set_data_loader_config\": {\n        \"dataset_name\": \"HDFS\",\n        \"filepath\": \"\"\n      },\n      \"preprocessor_config\": {\n          \"custom_delimiters_regex\":[]\n      },\n      \"log_parser_config\": {\n        \"parsing_algorithm\": \"drain\",\n        \"parsing_algo_params\": {\n          \"sim_th\": 0.5,\n          \"depth\": 5\n        }\n      },\n      \"feature_extractor_config\": {\n          \"group_by_category\": [\"Level\"],\n          \"group_by_time\": \"1s\"\n      },\n      \"log_vectorizer_config\": {\n          \"algo_name\": \"word2vec\"\n      },\n      \"categorical_encoder_config\": {\n          \"name\": \"label_encoder\"\n      },\n      \"anomaly_detection_config\": {\n          \"algo_name\": \"one_class_svm\"\n      }\n    }\n    ```\n\n2.  **编写并运行 Python 脚本**:\n    ```python\n    import json\n\n    from logai.applications.application_interfaces import WorkFlowConfig\n    from logai.applications.log_anomaly_detection import LogAnomalyDetection\n\n    # 加载配置文件\n    json_config = \".\u002Flog_anomaly_detection_config.json\"\n    with open(json_config, 'r') as f:\n        config = json.load(f)\n\n    # 创建工作流配置\n    workflow_config = WorkFlowConfig.from_dict(config) \n\n    # 初始化应用\n    app = LogAnomalyDetection(workflow_config)\n\n    # 执行检测\n    app.execute()\n\n    # 查看结果\n    print(app.anomaly_results)\n    ```\n\n更多高级用法（如自定义聚类、深度学习基准测试）请参考官方 `examples\u002Fjupyter_notebook` 目录下的教程笔记。","某电商平台的 SRE 团队在“黑五”大促期间，面对每秒数万条的微服务日志洪流，急需快速定位导致订单支付失败的根因。\n\n### 没有 logai 时\n- **数据清洗耗时巨大**：工程师需手动编写复杂的正则表达式来解析不同格式的日志，且无法自动适配 OpenTelemetry 标准，大量时间浪费在数据预处理上。\n- **异常发现滞后**：依赖静态阈值告警，无法识别随流量波动的隐性异常，往往等到用户投诉激增后才发现系统故障。\n- **分析工具割裂**：聚类分析、时序检测和深度学习模型分散在不同脚本中，缺乏统一接口，复现和对比算法效果极其困难。\n- **协作门槛高**：缺乏可视化交互界面，非算法背景的运维人员难以直接进行深入的日志探索，只能被动等待数据团队输出报告。\n\n### 使用 logai 后\n- **一键标准化接入**：logai 原生支持 OpenTelemetry 数据模型，提供统一的数据加载器，自动完成日志解析与清洗，将准备时间从数小时缩短至分钟级。\n- **智能动态检测**：利用内置的时序分析与深度学习模型，logai 能精准捕捉流量峰值下的细微异常模式，实现故障的秒级预警。\n- **全流程统一建模**：通过 logai 的统一模型接口，团队可轻松切换并基准测试多种机器学习算法，快速找到最适合当前场景的检测策略。\n- **交互式可视分析**：借助 logai 自带的 GUI 门户，运维人员可直接拖拽查看日志聚类结果和异常趋势，自主完成根因定位，无需依赖代码开发。\n\nlogai 将原本碎片化、高门槛的日志分析工作流整合为一站式智能平台，让团队从繁琐的数据处理中解放出来，专注于核心故障的快速修复。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsalesforce_logai_8fd61e86.png","salesforce","Salesforce","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsalesforce_6ff2d82a.png","Premier Open Source projects released and supported by Salesforce.",null,"osscore@salesforce.com","https:\u002F\u002Fopensource.salesforce.com","https:\u002F\u002Fgithub.com\u002Fsalesforce",[84,88,92,96],{"name":85,"color":86,"percentage":87},"Python","#3572A5",96.6,{"name":89,"color":90,"percentage":91},"CSS","#663399",2.9,{"name":93,"color":94,"percentage":95},"Shell","#89e051",0.4,{"name":97,"color":98,"percentage":99},"JavaScript","#f1e05a",0.1,787,122,"2026-04-05T07:20:13","BSD-3-Clause","未说明",{"notes":106,"python":107,"dependencies":108},"核心库为轻量级安装。若需使用深度学习功能，需安装可选依赖 'logai[deep-learning]'；若需使用图形界面 (GUI)，需安装 'logai[gui]'。已知问题：首次运行可能报错 'Resource punkt not found'，需执行 'python -m nltk.downloader punkt' 下载 NLTK 数据包。支持 HDFS、BGL 和 HealthApp 等公开数据集。","3.x (README 示例中使用 python3)",[109,110,111],"nltk (需手动下载 punkt 包)","plotly (GUI 依赖)","dash (GUI 依赖)",[15,14,62,13],[114,115,116,117,118,119,120,121],"ai","aiops","log-analysis","log-intelligence","machine-learning","anomaly-detection","benchmarking","python","2026-03-27T02:49:30.150509","2026-04-06T12:04:04.379675",[125,130,135,140,145,150],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},18858,"使用 KMeans 算法时遇到错误：'algorithm' 参数必须是 'elkan' 或 'lloyd'，但得到了 'auto'，如何解决？","这是因为 scikit-learn 版本高于 1.3 后不再支持 'auto' 参数。你需要降级 scikit-learn 到 1.2.2 版本。请执行以下命令：\npip uninstall scikit-learn\npip install scikit-learn==1.2.2","https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Fissues\u002F72",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},18859,"运行 GUI 应用时出现 \"ModuleNotFoundError: No module named 'gui'\" 错误怎么办？","该错误通常是因为当前工作目录不在项目根目录下，导致 Python 无法找到 'gui' 模块。请确保在 logai 项目的根目录下运行命令，或者将项目根目录添加到 PYTHONPATH 环境变量中。例如，如果在 E:\\LogAI_1\\logai_new\\logai 目录下，请尝试退回上一级目录或检查路径设置。","https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Fissues\u002F65",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},18860,"代码库中某些算法文件（如 arima.py, prophet.py）是空的，这是正常的吗？","这些文件在当前版本中确实是空的，可能会引起混淆。维护者计划在未来版本中添加 ARIMA 和 Prophet 算法的实现，或者将其作为 Merlion 模型的包装器。目前可以忽略这些空文件，等待后续更新。","https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Fissues\u002F25",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},18861,"README 文档中的 git clone 链接指向了 Salesforce 内部地址，无法克隆怎么办？","这是一个文档错误，维护者已经修复。请使用 GitHub 上的公开仓库地址进行克隆，不要使用指向 git.soma.salesforce.com 的内部链接。正确的地址应该是 https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai.git。","https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Fissues\u002F44",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},18862,"项目中部分 Config 类和算法文件缺少文档字符串（docstrings），在哪里可以找到参数说明？","维护者已针对此问题提交了修复补丁并合并了相关 PR。缺失的文档字符串（包括 fit, predict 方法及参数含义）已在最新版本中补充。请拉取最新代码以获取完整的文档说明。","https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Flogai\u002Fissues\u002F22",{"id":151,"question_zh":152,"answer_zh":153,"source_url":139},18863,"applications\u002Fpretrained_lm_log_representation 类的用途是什么？是否还需要使用它？","该类目前的用途尚不明确，维护者正在评估其必要性。在后续的清理工作中，如果确定不再需要，可能会被移除。建议暂时不要依赖此类功能，关注官方后续的公告。",[155,160,165,170],{"id":156,"version":157,"summary_zh":158,"released_at":159},109382,"v0.1.5","支持 Python 3.7","2023-03-02T07:04:22",{"id":161,"version":162,"summary_zh":163,"released_at":164},109383,"v0.1.4","修复在不使用基于深度学习的模型时的 PyTorch 依赖问题。","2023-02-06T07:22:18",{"id":166,"version":167,"summary_zh":168,"released_at":169},109384,"v0.1.3","首次发布，功能完整。  \nv0.1.3 将在 PyPI 上发布。","2023-02-01T07:22:55",{"id":171,"version":172,"summary_zh":173,"released_at":174},109385,"v0.1.2","这是 LogAI v0.1.2 的预发布版本。 \r\n此次更新修复了在安装软件包时 JSON 配置文件未被包含的问题。","2023-01-31T18:54:59"]