[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-benhamner--Metrics":3,"tool-benhamner--Metrics":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":82,"owner_email":83,"owner_twitter":77,"owner_website":83,"owner_url":84,"languages":85,"stars":110,"forks":111,"last_commit_at":112,"license":113,"difficulty_score":46,"env_os":114,"env_gpu":114,"env_ram":114,"env_deps":115,"category_tags":118,"github_topics":83,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":22,"created_at":119,"updated_at":120,"faqs":121,"releases":152},4169,"benhamner\u002FMetrics","Metrics","Machine learning evaluation metrics, implemented in Python, R, Haskell, and MATLAB \u002F Octave","Metrics 是一个专为机器学习领域设计的开源评估指标库，旨在帮助开发者和研究人员快速、准确地衡量监督学习模型的性能。在构建预测模型时，如何科学地量化模型表现往往是一大挑战，Metrics 通过提供一套标准化、经过验证的算法实现，解决了手动编写评估代码耗时且易出错的问题。\n\n该工具最大的亮点在于其卓越的多语言支持能力，同一套丰富的评估指标（如 AUC、对数损失、平均绝对误差、F1 分数等）同时提供了 Python、R、Haskell 以及 MATLAB\u002FOctave 四种语言的实现版本。这意味着无论团队主要使用哪种技术栈，都能无缝接入统一的评估标准，极大地促进了跨语言协作与结果复现。目前，Metrics 已涵盖从基础的均方误差到复杂的加权 Kappa 系数等二十余种常用指标，并能灵活处理回归与分类任务。\n\nMetrics 非常适合数据科学家、算法工程师及学术研究人员使用。对于需要频繁对比不同模型效果、或在多种编程环境中切换工作的专业人士而言，它不仅能显著提升工作效率，还能确保评估过程的专业性与一致性。尽管部分版本仍处于测试阶段，但其核心功能已相当稳健，是机器学习工作流中不可或缺的实用","Metrics 是一个专为机器学习领域设计的开源评估指标库，旨在帮助开发者和研究人员快速、准确地衡量监督学习模型的性能。在构建预测模型时，如何科学地量化模型表现往往是一大挑战，Metrics 通过提供一套标准化、经过验证的算法实现，解决了手动编写评估代码耗时且易出错的问题。\n\n该工具最大的亮点在于其卓越的多语言支持能力，同一套丰富的评估指标（如 AUC、对数损失、平均绝对误差、F1 分数等）同时提供了 Python、R、Haskell 以及 MATLAB\u002FOctave 四种语言的实现版本。这意味着无论团队主要使用哪种技术栈，都能无缝接入统一的评估标准，极大地促进了跨语言协作与结果复现。目前，Metrics 已涵盖从基础的均方误差到复杂的加权 Kappa 系数等二十余种常用指标，并能灵活处理回归与分类任务。\n\nMetrics 非常适合数据科学家、算法工程师及学术研究人员使用。对于需要频繁对比不同模型效果、或在多种编程环境中切换工作的专业人士而言，它不仅能显著提升工作效率，还能确保评估过程的专业性与一致性。尽管部分版本仍处于测试阶段，但其核心功能已相当稳健，是机器学习工作流中不可或缺的实用助手。","**Note: the current releases of this toolbox are a beta release, to test working with Haskell's, Python's, and R's code repositories.**\n\n![Build Status](https:\u002F\u002Ftravis-ci.org\u002Fbenhamner\u002FMetrics.png)\n\n**Metrics** provides implementations of various supervised machine learning evaluation metrics in the following languages:\n \n - [**Python**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FPython) ```easy_install ml_metrics```\n - [**R**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FR) ```install.packages(\"Metrics\")``` from the R prompt\n - [**Haskell**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FHaskell) ```cabal install Metrics```\n - [**MATLAB \u002F Octave**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FMATLAB) (clone the repo & run setup from the MATLAB command line)\n\nFor more detailed installation instructions, see the README for each implementation.\n\nEVALUATION METRICS\n------------------\n\n\u003Ctable>\n\u003Ctr>\u003Ctd>Evaluation Metric\u003C\u002Ftd>\u003Ctd>Python\u003C\u002Ftd>\u003Ctd>R\u003C\u002Ftd>\u003Ctd>Haskell\u003C\u002Ftd>\u003Ctd>MATLAB \u002F Octave\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Absolute Error (AE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Average Precision at K (APK, AP@K)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Area Under the ROC (AUC)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Classification Error (CE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>F1 Score (F1)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Gini\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Levenshtein\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Log Loss (LL)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Log Loss (LogLoss)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Absolute Error (MAE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Average Precision at K (MAPK, MAP@K)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Quadratic Weighted Kappa\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Squared Error (MSE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Mean Squared Log Error (MSLE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Normalized Gini\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Quadratic Weighted Kappa\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Relative Absolute Error (RAE)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Root Mean Squared Error (RMSE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Relative Squared Error (RSE)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Root Relative Squared Error (RRSE)\u003C\u002Ftd>\u003Ctd> \u003Ctd>&#10003;\u003C\u002Ftd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Root Mean Squared Log Error (RMSLE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Squared Error (SE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>Squared Log Error (SLE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftable>\n\nTO IMPLEMENT\n------------\n\n - F1 score\n - Multiclass log loss\n - Lift\n - Average Precision for binary classification\n - precision \u002F recall break-even point\n - cross-entropy\n - True Pos \u002F False Pos \u002F True Neg \u002F False Neg rates\n - precision \u002F recall \u002F sensitivity \u002F specificity\n - mutual information\n\nHIGHER LEVEL TRANSFORMATIONS TO HANDLE\n--------------------------------------\n\n - GroupBy \u002F Reduce\n - Weight individual samples or groups\n\nPROPERTIES METRICS CAN HAVE\n---------------------------\n\n(Nonexhaustive and to be added in the future)\n\n - Min or Max (optimize through minimization or maximization)\n - Binary Classification\n   - Scores predicted class labels\n   - Scores predicted ranking (most likely to least likely for being in one class)\n   - Scores predicted probabilities\n - Multiclass Classification\n   - Scores predicted class labels\n   - Scores predicted probabilities\n - Regression\n - Discrete Rater Comparison (confusion matrix)\n\n  ","**注意：该工具箱的当前版本为测试版，用于测试与 Haskell、Python 和 R 代码仓库的集成。**\n\n![构建状态](https:\u002F\u002Ftravis-ci.org\u002Fbenhamner\u002FMetrics.png)\n\n**Metrics** 提供了多种监督学习评估指标的实现，支持以下语言：\n\n- [**Python**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FPython) ```easy_install ml_metrics```\n- [**R**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FR) 在 R 提示符下运行 ```install.packages(\"Metrics\")```\n- [**Haskell**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FHaskell) ```cabal install Metrics```\n- [**MATLAB \u002F Octave**](https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Ftree\u002Fmaster\u002FMATLAB) （克隆仓库并在 MATLAB 命令行中运行 setup）\n\n更多详细的安装说明，请参阅各实现的 README 文件。\n\n评估指标\n------------------\n\n\u003Ctable>\n\u003Ctr>\u003Ctd>评估指标\u003C\u002Ftd>\u003Ctd>Python\u003C\u002Ftd>\u003Ctd>R\u003C\u002Ftd>\u003Ctd>Haskell\u003C\u002Ftd>\u003Ctd>MATLAB \u002F Octave\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>绝对误差 (AE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>K 位平均精度 (APK, AP@K)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>ROC 曲线下面积 (AUC)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>分类误差 (CE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>F1 分数 (F1)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>基尼系数\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>莱文斯坦距离\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>对数损失 (LL)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>平均对数损失 (LogLoss)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>平均绝对误差 (MAE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>K 位平均精度均值 (MAPK, MAP@K)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>加权平均四分位 Kappa 系数\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>均方误差 (MSE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>均方对数误差 (MSLE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>归一化基尼系数\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>加权四分位 Kappa 系数\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>相对绝对误差 (RAE)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>均方根误差 (RMSE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>相对平方误差 (RSE)\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>相对均方根误差 (RRSE)\u003C\u002Ftd>\u003Ctd> \u003Ctd>&#10003;\u003C\u002Ftd> \u003C\u002Ftd>\u003Ctd> \u003C\u002Ftd>\u003Ctd>\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>均方根对数误差 (RMSLE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>平方误差 (SE)\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003Ctr>\u003Ctd>对数平方误差 (SLE)\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003Ctd>&&#10003;\u003C\u002Ftd>\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n待实现的功能\n------------\n\n- F1 分数\n- 多分类对数损失\n- Lift 指标\n- 二分类的平均精度\n- 精确率\u002F召回率的平衡点\n- 交叉熵\n- 真阳性率\u002F假阳性率\u002F真阴性率\u002F假阴性率\n- 精确率\u002F召回率\u002F灵敏度\u002F特异性\n- 互信息\n\n更高层次的处理转换\n--------------------------------------\n\n- GroupBy \u002F Reduce\n- 对单个样本或组进行加权\n\n指标可能具有的属性\n---------------------------\n\n（不完全列表，未来会继续补充）\n\n- 最小值或最大值（通过最小化或最大化来优化）\n- 二分类\n  - 评分预测的类别标签\n  - 评分预测的排序（从最有可能到最不可能属于某一类）\n  - 评分预测的概率\n- 多分类\n  - 评分预测的类别标签\n  - 评分预测的概率\n- 回归\n- 离散评分者比较（混淆矩阵）","# Metrics 快速上手指南\n\n**Metrics** 是一个提供多种监督机器学习评估指标实现的开源工具箱，支持 Python、R、Haskell 和 MATLAB\u002FOctave。\n\n> **注意**：当前版本为 Beta 测试版，主要用于测试 Haskell、Python 和 R 代码库的兼容性。\n\n## 环境准备\n\n- **操作系统**：Linux、macOS 或 Windows（需配置相应语言环境）\n- **前置依赖**：根据你选择的编程语言，确保已安装以下环境之一：\n  - **Python**: Python 2.7+ 或 3.x，包含 `pip` 或 `easy_install`\n  - **R**: R 语言环境及 R 命令行工具\n  - **Haskell**: GHC 编译器及 `cabal` 包管理工具\n  - **MATLAB \u002F Octave**: MATLAB 或 GNU Octave 环境\n\n## 安装步骤\n\n根据你的开发语言选择对应的安装命令：\n\n### Python\n```bash\neasy_install ml_metrics\n```\n*注：若使用 pip，可尝试 `pip install ml_metrics`（视具体源而定）。*\n\n### R\n在 R 命令行提示符下运行：\n```R\ninstall.packages(\"Metrics\")\n```\n\n### Haskell\n```bash\ncabal install Metrics\n```\n\n### MATLAB \u002F Octave\n1. 克隆仓库到本地：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics.git\n   ```\n2. 进入 MATLAB 或 Octave 命令行，切换到项目目录并运行设置脚本：\n   ```matlab\n   cd Metrics\u002FMATLAB\n   setup\n   ```\n\n## 基本使用\n\n安装完成后，即可调用相应的评估指标函数。以下是各语言的最简使用示例：\n\n### Python 示例\n计算均方误差 (MSE)：\n```python\nfrom ml_metrics import mse\n\nactual = [1, 2, 3]\npredicted = [1.1, 1.9, 3.2]\n\nerror = mse(actual, predicted)\nprint(error)\n```\n\n### R 示例\n计算均方误差 (MSE)：\n```R\nlibrary(Metrics)\n\nactual \u003C- c(1, 2, 3)\npredicted \u003C- c(1.1, 1.9, 3.2)\n\nerror \u003C- mse(actual, predicted)\nprint(error)\n```\n\n### Haskell 示例\n（需导入相应模块后调用）\n```haskell\nimport Metrics.Regression (mse)\n\nlet actual = [1, 2, 3]\nlet predicted = [1.1, 1.9, 3.2]\n\nlet error = mse actual predicted\nprint error\n```\n\n### MATLAB \u002F Octave 示例\n计算均方误差 (MSE)：\n```matlab\nactual = [1; 2; 3];\npredicted = [1.1; 1.9; 3.2];\n\nerror = mse(actual, predicted);\ndisp(error);\n```\n\n该工具箱支持包括 AUC、Log Loss、MAE、RMSE、F1 Score（部分语言）等在内的多种常用指标，具体支持情况请参考官方文档表格。","某电商数据科学团队正在构建一个跨语言推荐系统，需要同时用 Python 处理实时推理、R 进行离线分析，并统一评估模型效果。\n\n### 没有 Metrics 时\n- 团队成员需手动编写 RMSE、AUC 等核心指标的計算逻辑，不仅耗时且容易因公式理解偏差导致代码实现错误。\n- Python 与 R 两套技术栈各自为战，缺乏统一的评估标准，导致同一模型在不同语言环境下跑出的得分不一致，引发无休止的争论。\n- 面对“平均精度@K (MAP@K)\"这类复杂的排序指标，从零实现难度极大，严重拖慢了推荐算法的迭代验证速度。\n- 每次更换实验语言（如从原型期的 MATLAB 转向生产级的 Python）时，都必须重新开发一套评估脚本，重复劳动成本极高。\n\n### 使用 Metrics 后\n- 直接调用 Metrics 库中现成的 `rmse`、`auc` 等函数，消除了手动编码错误，确保数学定义的绝对准确。\n- 利用其在 Python、R、Haskell 和 MATLAB 中完全一致的接口表现，实现了跨语言评估结果的无缝对齐，团队协作效率显著提升。\n- 轻松集成高阶指标如 `mapk`（平均精度@K），无需深究底层复杂算法即可快速验证推荐列表的排序质量。\n- 无论底层引擎如何切换，评估代码只需微调甚至无需修改，大幅降低了多语言混合架构下的维护负担。\n\nMetrics 通过提供多语言一致的标准评估实现，让团队从繁琐的公式复现中解放出来，专注于模型策略本身的优化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbenhamner_Metrics_6de03c4b.png","benhamner","Ben Hamner","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbenhamner_2e625469.jpg","Dabbling with data","Dabbling with data. Formerly: Kaggle","San Francisco, CA",null,"https:\u002F\u002Fgithub.com\u002Fbenhamner",[86,90,94,98,102,106],{"name":87,"color":88,"percentage":89},"Python","#3572A5",31.3,{"name":91,"color":92,"percentage":93},"MATLAB","#e16737",24.4,{"name":95,"color":96,"percentage":97},"R","#198CE7",22,{"name":99,"color":100,"percentage":101},"C#","#178600",11,{"name":103,"color":104,"percentage":105},"Haskell","#5e5086",10.1,{"name":107,"color":108,"percentage":109},"Shell","#89e051",1.2,1653,454,"2026-03-30T21:25:30","NOASSERTION","",{"notes":116,"python":114,"dependencies":117},"该工具目前处于 Beta 测试阶段，支持 Python、R、Haskell 和 MATLAB\u002FOctave 四种语言环境。Python 版本可通过 'easy_install ml_metrics' 安装；R 版本需在 R 命令行运行 'install.packages(\"Metrics\")'；Haskell 版本使用 'cabal install Metrics'；MATLAB\u002FOctave 版本需克隆仓库并在命令行运行设置脚本。README 中未明确指定具体的操作系统、GPU、内存或 Python 版本要求，通常取决于各语言自身的运行环境配置。",[],[18],"2026-03-27T02:49:30.150509","2026-04-06T11:56:41.553375",[122,127,132,137,142,147],{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},19002,"为什么通过 pip 安装 ml_metrics 时会报错找不到 'requirements.txt'？","这是因为在打包成 egg 文件时，requirements.txt 的路径发生了变化。解决方法是修改 `setup.py` 中的读取路径：将 `requirements = [x.strip() for x in open(\"requirements.txt\")]` 改为 `requirements = [x.strip() for x in open(\"ml_metrics.egg-info\u002Frequires.txt\")]`。如果无法直接修改源码，可以在安装失败后手动编辑临时构建目录中的 setup.py 文件然后重试，或者直接从源代码安装。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F7",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},19003,"运行 kappa 函数时，为什么完全不一致的数据得到的值接近 0 而不是 -1？","这是对 Cohen's Kappa 指标的误解。Kappa 衡量的不是单个评级项之间的差异（例如类别 0 对类别 2），而是基于每个评级者在各个类别（如类别 0、1、2 等）中的分布一致性来计算的。因此，即使具体评分完全不同，只要类别分布有一定重合，Kappa 值就不会是 -1。此外，该库自动推导 min_rating 和 max_rating 的功能可能存在错误，建议手动传入这两个参数。如果需要更稳健的实现，推荐使用 scikit-learn 中的 `cohen_kappa_score`。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F33",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},19004,"Metrics R 包在 CRAN 上显示为“孤儿包”（Orphaned），现在还能使用或更新吗？","是的，该包已被新的维护者接管。原维护者失联后，社区成员修复了 CRAN 检查错误、更新了文档并添加了示例代码。新版本（0.1.3 及以上）已重新提交至 CRAN。新的官方 GitHub 仓库地址为：https:\u002F\u002Fgithub.com\u002Fmfrasco\u002FMetrics。用户应前往新仓库获取最新版本的代码和支持。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F34",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},19005,"R 语言 Metrics 包中的 auc 函数在处理大数据集时为什么会失败？","这是由于整数溢出问题导致的。auc 算法会将正样本数量与负样本数量相乘，当数据量很大时，乘积可能超出整数范围从而引发错误。该问题已在 Metrics R 包的 0.1.3 版本中修复。请确保安装的是由新维护者发布的最新版本（可通过新仓库 https:\u002F\u002Fgithub.com\u002Fmfrasco\u002FMetrics 或 CRAN 获取）。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F35",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},19006,"如何在 Python 中解决 setup.py 运行时提示 'NameError: name 'sys' is not defined' 的错误？","这是因为 `setup.py` 文件中使用了 `sys.version_info` 但忘记导入 `sys` 模块。解决方法是在 `setup.py` 文件的开头添加 `import sys`。这是一个简单的代码遗漏问题，添加导入语句后即可正常构建。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F4",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},19007,"Metrics 包是否支持平均绝对缩放误差（MASE）指标？","是的，MASE（Mean Absolute Scaled Error）已被添加到 Metrics R 包中。该功能包含在由新维护者发布的 0.1.3 版本中，用户可以直接从 CRAN 安装更新后的包来使用此指标。如果有相关问题，建议在新的 GitHub 仓库（https:\u002F\u002Fgithub.com\u002Fmfrasco\u002FMetrics）中提问。","https:\u002F\u002Fgithub.com\u002Fbenhamner\u002FMetrics\u002Fissues\u002F28",[]]