[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-mlcommons--ck":3,"tool-mlcommons--ck":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":78,"owner_twitter":74,"owner_website":79,"owner_url":80,"languages":81,"stars":120,"forks":121,"last_commit_at":122,"license":123,"difficulty_score":32,"env_os":124,"env_gpu":125,"env_ram":125,"env_deps":126,"category_tags":131,"github_topics":133,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":151,"updated_at":152,"faqs":153,"releases":182},9676,"mlcommons\u002Fck","ck","Collective Knowledge (CK), Collective Mind (CM\u002FCMX) and MLPerf automations: community-driven projects to facilitate collaborative and reproducible research and to learn how to run AI, ML, and other emerging workloads more efficiently and cost-effectively across diverse models, datasets, software, and hardware using MLPerf methodology and benchmarks","ck（Collective Knowledge）是一个由社区驱动的开源项目，旨在推动开放科学，提升人工智能与机器学习研究的可复现性。它帮助用户在不同的模型、数据集、软件框架及硬件平台上，以更高效、低成本的方式运行各类新兴工作负载。\n\n在 AI 研发中，环境配置复杂、实验难以复现、跨平台迁移困难是常见痛点。ck 通过其核心自动化框架 Collective Mind (CM) 及其新一代演进版本 CMX，将代码、数据、模型和脚本转化为可移植、可重用的标准化组件。用户只需通过统一的命令行接口或简单的 Python API，即可将这些组件灵活编排成自动化的工作流，轻松重现复杂的实验设置，甚至直接复用模块化的 MLPerf 基准测试。\n\n该项目特别适合 AI 研究人员、系统工程师及开发者使用。无论是需要验证算法效果的科研人员，还是致力于优化推理性能的系统架构师，都能利用 ck 快速构建符合 FAIR 原则（可发现、可访问、可互操作、可重用）的研究环境。其独特的技术亮点在于“非侵入式”的项目转换能力，无需大幅修改原有代码即可实现自动化管理，同时支持从传统 CM 到新一代 CMX 的平滑过渡，为多样","ck（Collective Knowledge）是一个由社区驱动的开源项目，旨在推动开放科学，提升人工智能与机器学习研究的可复现性。它帮助用户在不同的模型、数据集、软件框架及硬件平台上，以更高效、低成本的方式运行各类新兴工作负载。\n\n在 AI 研发中，环境配置复杂、实验难以复现、跨平台迁移困难是常见痛点。ck 通过其核心自动化框架 Collective Mind (CM) 及其新一代演进版本 CMX，将代码、数据、模型和脚本转化为可移植、可重用的标准化组件。用户只需通过统一的命令行接口或简单的 Python API，即可将这些组件灵活编排成自动化的工作流，轻松重现复杂的实验设置，甚至直接复用模块化的 MLPerf 基准测试。\n\n该项目特别适合 AI 研究人员、系统工程师及开发者使用。无论是需要验证算法效果的科研人员，还是致力于优化推理性能的系统架构师，都能利用 ck 快速构建符合 FAIR 原则（可发现、可访问、可互操作、可重用）的研究环境。其独特的技术亮点在于“非侵入式”的项目转换能力，无需大幅修改原有代码即可实现自动化管理，同时支持从传统 CM 到新一代 CMX 的平滑过渡，为多样化的 AI 基础设施提供了稳健且灵活的协作基石。","[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fcmind.svg)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fcmind)\n[![Python Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3+-blue.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm\u002Fcmind)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-green)](LICENSE.md)\n[![Downloads](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmlcommons_ck_readme_d12b25f456c7.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fcmind)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2406.16791-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791)\n\n[![CMX image classification test](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-image-classification-onnx.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-image-classification-onnx.yml)\n[![CMX MLPerf inference resnet-50 test](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-resnet50.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-resnet50.yml)\n[![CMX MLPerf inference r-GAT test](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-rgat.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-rgat.yml)\n[![CMX MLPerf inference BERT deepsparse test](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-bert-deepsparse-tf-onnxruntime-pytorch.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-bert-deepsparse-tf-onnxruntime-pytorch.yml)\n\n## Collective Knowledge project (CK)\n\n[Collective Knowledge (CK)](https:\u002F\u002FcKnowledge.org) \nis a community-driven project dedicated to supporting open science, enhancing reproducible research, \nand fostering collaborative learning on how to run AI, ML, and other emerging workloads in the most efficient and cost-effective way\nacross diverse models, data sets, software and hardware:\n[ [white paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ].\n\nIt includes the following sub-projects.\n\n### Collective Mind project (MLCommons CM)\n\nThe [Collective Mind automation framework (CM)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm)\nwas developed to support open science and facilitate\ncollaborative, reproducible, and reusable research, development, \nand experimentation based on [FAIR principles](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FFAIR_data).\n\nIt helps users non-intrusively convert their software projects \ninto file-based repositories of portable and reusable artifacts \n(code, data, models, scripts) with extensible metadata\nand reusable automations, a unified command-line interface, \nand a simple Python API.\n\nSuch artifacts can be easily chained together into portable \nand technology-agnostic automation workflows, enabling users to \nrerun, reproduce, and reuse complex experimental setups across diverse and rapidly evolving models, datasets,\nsoftware, and hardware. \n\nFor example, CM helps to modularize, automate and customize MLPerf benchmarks.\n\n#### Legacy CM API and CLI (2021-2024)\n\nSee the [project page](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002Fcm\u002FREADME.CM.md) for more details.\n\nLegacy and simplified CM and MLPerf automations were donated to MLCommons by Grigori Fursin, the cTuning foundation and OctoML.\nThey are now supported by the MLCommons Infra WG (MLCFlow, MLC scripts, mlcr ...).\n\n#### New CM API and CLI (CMX, 2025+)\n\n[Collective Mind eXtension or Common Metadata eXchange (CMX)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx) \nis the next evolution of the [Collective Mind automation framework (MLCommons CM)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm) \ndesigned to enhance simplicity, flexibility, and extensibility of automations \nbased on user feedback. It is backwards compatible with CM, released along with CM \nin the [cmind package](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcmind\u002F) and can serve as drop-in replacement \nfor CM and legacy MLPerf automations while providing a simpler and more robust interface.\n\nSee the [project page](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx) \nand [CMX4MLOps automations](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx4mlops) for more details.\n\n### MLOps and MLPerf automations\n\nWe have developed a collection of portable, extensible and technology-agnostic automation recipes\nwith a common CLI and Python API (CM scripts) to unify and automate \nall the manual steps required to compose, run, benchmark and optimize complex ML\u002FAI applications \non diverse platforms with any software and hardware. \n\nThe two key automations are *script* and *cache*:\nsee [online catalog at CK playground](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=scripts),\n[online MLCommons catalog](https:\u002F\u002Fdocs.mlcommons.org\u002Fcm4mlops\u002Fscripts).\n\nCM scripts extend the concept of `cmake` with simple Python automations, native scripts\nand JSON\u002FYAML meta descriptions. They require Python 3.8+ with minimal dependencies and are \n[continuously extended by the community and MLCommons members](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002FCONTRIBUTORS.md)\nto run natively on Ubuntu, MacOS, Windows, RHEL, Debian, Amazon Linux\nand any other operating system, in a cloud or inside automatically generated containers\nwhile keeping backward compatibility.\n\nSee the [online MLPerf documentation](https:\u002F\u002Fdocs.mlcommons.org\u002Finference) \nat MLCommons to run MLPerf inference benchmarks across diverse systems using CMX.\nJust install `pip install cmx4mlperf` and substitute the following commands and flags:\n* `cm` -> `cmx`\n* `mlc` -> `cmlc`\n* `mlcr` -> `cmlcr`\n* `-v` -> `--v`\n\n### Collective Knowledge Playground\n\n[Collective Knowledge Playground](https:\u002F\u002Faccess.cKnowledge.org) - \na unified and open-source platform designed to [index all CM\u002FCMX automations](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=scripts) \nsimilar to PYPI and assist users in preparing CM\u002FCMX commands to:\n\n* aggregate, process, visualize, and compare [MLPerf benchmarking results](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=experiments) for AI and ML systems\n* [run MLPerf benchmarks](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=howtorun)\n* organize [open and reproducible optimization challenges and tournaments](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=challenges). \n\n### Artifact Evaluation and Reproducibility Initiatives\n\n[Artifact Evaluation automation](https:\u002F\u002FcTuning.org\u002Fae) - a community-driven initiative \nleveraging CK, CM and CMX to automate artifact evaluation \nand support reproducibility efforts at ML and systems conferences.\n\n\n## Legacy projects \n\n* [CM-MLOps](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm-mlops) (2021)\n* [CM4MLOps](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fcm4mlops) (2022-2024)\n* [CK automation framework v1 and v2](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fck)\n\n\n## License\n\n[Apache 2.0](LICENSE.md)\n\n## Copyright\n\nCopyright (c) 2021-2025 MLCommons\n\nGrigori Fursin, the cTuning foundation and OctoML donated this project to MLCommons to benefit everyone.\n\nCopyright (c) 2014-2021 cTuning foundation\n\n## Author\n\n* [Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin)\n\n## Maintainers\n\n* Legacy CM, CM4MLOps, MLC and MLPerf automations: [MLCommons infra WG](https:\u002F\u002Fmlcommons.org)\n* CMX (the next generation of CM since 2025): [Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin)\n\n## Concepts\n\nTo learn more about the motivation behind this project, please explore the following articles and presentations:\n\n* HPCA'25 article \"MLPerf Power: Benchmarking the Energy Efficiency of Machine Learning Systems from Microwatts to Megawatts for Sustainable AI\": [ [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12032) ], [ [tutorial to reproduce results using CM\u002FCMX](https:\u002F\u002Fgithub.com\u002Faryatschand\u002FMLPerf-Power-HPCA-2025\u002Fblob\u002Fmain\u002Fmeasurement_tutorial.md) ]\n* NeuralMagic's vLLM MLPerf inference 4.1 submission automated by CM: [ [README] ](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Finference_results_v4.1\u002Fblob\u002Fmain\u002Fopen\u002FNeuralMagic\u002Fmeasurements\u002F4xH100-SXM-80GB_vLLM_FP8-reference-cpu-pytorch-v2.3.1-default_config\u002Fllama2-70b-99\u002Fserver\u002FREADME.md)\n* SDXL MLPerf inference 4.1 submission automated by CM: [ [README] ](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Finference_results_v4.1\u002Ftree\u002Fmain\u002Fopen\u002FCTuning\u002Fcode\u002Fstable-diffusion-xl)\n* \"Enabling more efficient and cost-effective AI\u002FML systems with Collective Mind, virtualized MLOps, MLPerf, Collective Knowledge Playground and reproducible optimization tournaments\": [ [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ]\n* ACM REP'23 keynote about the MLCommons CM automation framework: [ [slides](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.8105339) ] \n* ACM TechTalk'21 about Collective Knowledge project: [ [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7zpeIVwICa4) ] [ [slides](https:\u002F\u002Flearning.acm.org\u002Fbinaries\u002Fcontent\u002Fassets\u002Fleaning-center\u002Fwebinar-slides\u002F2021\u002Fgrigorifursin_techtalk_slides.pdf) ]\n* Journal of Royal Society'20: [ [paper](https:\u002F\u002Froyalsocietypublishing.org\u002Fdoi\u002F10.1098\u002Frsta.2020.0211) ]\n\n### Acknowledgments\n\nThis open-source project was created by [Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin)\nand sponsored by cTuning.org, OctoAI and HiPEAC.\nGrigori donated this project to MLCommons to modularize and automate MLPerf benchmarks,\nbenefit the community, and foster its development as a collaborative, community-driven effort.\n\nWe thank [MLCommons](https:\u002F\u002Fmlcommons.org), [FlexAI](https:\u002F\u002Fflex.ai) \nand [cTuning](https:\u002F\u002FcTuning.org) for supporting this project,\nas well as our dedicated [volunteers and collaborators](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002FCONTRIBUTORS.md)\nfor their feedback and contributions!\n\nIf you found the CM, CMX and MLPerf automations helpful, kindly reference this article:\n[ [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ], [ [BibTex](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002Fcitation.bib) ].\n\nYou are welcome to contact the [author](https:\u002F\u002FcKnowledge.org\u002Fgfursin) to discuss long-term plans and potential collaboration.\n","[![PyPI版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fcmind.svg)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fcmind)\n[![Python版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3+-blue.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm\u002Fcmind)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache%202.0-green)](LICENSE.md)\n[![下载量](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmlcommons_ck_readme_d12b25f456c7.png)](https:\u002F\u002Fpepy.tech\u002Fproject\u002Fcmind)\n[![arXiv](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2406.16791-b31b1b.svg)](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791)\n\n[![CMX图像分类测试](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-image-classification-onnx.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-image-classification-onnx.yml)\n[![CMX MLPerf推理 resnet-50测试](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-resnet50.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-resnet50.yml)\n[![CMX MLPerf推理 r-GAT测试](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-rgat.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-rgat.yml)\n[![CMX MLPerf推理 BERT deepsparse测试](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-bert-deepsparse-tf-onnxruntime-pytorch.yml\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Factions\u002Fworkflows\u002Ftest-cmx-mlperf-inference-bert-deepsparse-tf-onnxruntime-pytorch.yml)\n\n## Collective Knowledge项目（CK）\n\n[Collective Knowledge（CK）](https:\u002F\u002FcKnowledge.org) \n是一个由社区驱动的项目，致力于支持开放科学、提升研究的可重复性，\n并促进协作学习，以最高效、最具成本效益的方式在各种模型、数据集、软件和硬件上运行AI、ML及其他新兴工作负载：\n[ [白皮书](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ]。\n\n它包含以下子项目。\n\n### Collective Mind项目（MLCommons CM）\n\n[Collective Mind自动化框架（CM）](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm)\n旨在支持开放科学，并促进基于[FAIR原则](https:\u002F\u002Fen.wikipedia.org\u002Fwiki\u002FFAIR_data)的协作式、可重复且可重用的研究、开发\n和实验。\n\n它帮助用户以非侵入的方式将其软件项目转化为基于文件的可移植、可重用的工件库（代码、数据、模型、脚本），\n这些工件带有可扩展的元数据和可重用的自动化流程、统一的命令行界面以及简单的Python API。\n\n此类工件可以轻松地串联成可移植且与技术无关的自动化工作流，使用户能够在多样且快速发展的模型、数据集、软件和硬件之间\n重新运行、重现和重用复杂的实验设置。\n\n例如，CM有助于模块化、自动化和定制MLPerf基准测试。\n\n#### 旧版CM API和CLI（2021-2024）\n\n更多详情请参阅[项目页面](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002Fcm\u002FREADME.CM.md)。\n\n旧版及简化的CM和MLPerf自动化由Grigori Fursin、cTuning基金会和OctoML捐赠给MLCommons。它们目前由MLCommons Infra WG（MLCFlow、MLC脚本、mlcr等）支持。\n\n#### 新版CM API和CLI（CMX，2025+）\n\n[Collective Mind扩展或通用元数据交换（CMX）](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx) \n是[Collective Mind自动化框架（MLCommons CM）](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm)的下一代演进，\n旨在根据用户反馈提升自动化流程的简单性、灵活性和可扩展性。它与CM向后兼容，随CM一同发布于[cmind包](https:\u002F\u002Fpypi.org\u002Fproject\u002Fcmind\u002F)中，\n可作为CM及旧版MLPerf自动化的直接替代品，同时提供更简单、更稳健的接口。\n\n更多详情请参阅[项目页面](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx) \n和[CMX4MLOps自动化](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcmx4mlops)。\n\n### MLOps和MLPerf自动化\n\n我们开发了一套可移植、可扩展且与技术无关的自动化配方，\n配备通用的CLI和Python API（CM脚本），用于统一和自动化\n在不同平台上使用任何软件和硬件构建、运行、基准测试和优化复杂ML\u002FAI应用所需的所有手动步骤。\n\n其中两个关键自动化是*脚本*和*缓存*：\n详见[CK游乐场在线目录](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=scripts)，\n以及[MLCommons在线目录](https:\u002F\u002Fdocs.mlcommons.org\u002Fcm4mlops\u002Fscripts)。\n\nCM脚本将`cmake`的概念扩展为简单的Python自动化、原生脚本\n和JSON\u002FYAML元描述。它们需要Python 3.8及以上版本，依赖项极少，\n并且由社区和MLCommons成员持续扩展（[参见贡献者列表](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002FCONTRIBUTORS.md)），\n以便在Ubuntu、MacOS、Windows、RHEL、Debian、Amazon Linux\n以及其他任何操作系统上原生运行，或在自动生成的容器内运行，\n同时保持向后兼容性。\n\n有关如何使用CMX在不同系统上运行MLPerf推理基准测试，请参阅MLCommons的[在线MLPerf文档](https:\u002F\u002Fdocs.mlcommons.org\u002Finference)。\n只需安装`pip install cmx4mlperf`，并将以下命令和标志替换为：\n* `cm` -> `cmx`\n* `mlc` -> `cmlc`\n* `mlcr` -> `cmlcr`\n* `-v` -> `--v`\n\n### Collective Knowledge游乐场\n\n[Collective Knowledge游乐场](https:\u002F\u002Faccess.cKnowledge.org) - \n一个统一且开源的平台，旨在[索引所有CM\u002FCMX自动化](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=scripts)，类似于PYPI，\n并协助用户准备CM\u002FCMX命令，以：\n\n* 汇总、处理、可视化和比较AI和ML系统的[MLPerf基准测试结果](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=experiments)\n* [运行MLPerf基准测试](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=howtorun)\n* 组织[开放且可重复的优化挑战和锦标赛](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=challenges)。\n\n### 工件评估和可重复性倡议\n\n[工件评估自动化](https:\u002F\u002FcTuning.org\u002Fae) - 一项由社区驱动的倡议，\n利用CK、CM和CMX来自动化工件评估，\n并在ML和系统会议中支持可重复性工作。\n\n## 历史项目 \n\n* [CM-MLOps](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm-mlops)（2021）\n* [CM4MLOps](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fcm4mlops)（2022-2024）\n* [CK自动化框架v1和v2](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fck)\n\n\n## 许可证\n\n[Apache 2.0](LICENSE.md)\n\n## 版权\n\n版权所有 © 2021-2025 MLCommons\n\nGrigori Fursin、cTuning基金会和OctoML将该项目捐赠给MLCommons，以造福所有人。\n\n版权所有 © 2014-2021 cTuning基金会\n\n## 作者\n\n* [Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin)\n\n## 维护者\n\n* 旧版 CM、CM4MLOps、MLC 和 MLPerf 自动化工具：[MLCommons 基础设施工作组](https:\u002F\u002Fmlcommons.org)\n* CMX（自 2025 年起的下一代 CM）：[Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin)\n\n## 概念\n\n如需深入了解本项目的动机，请参阅以下文章和演示文稿：\n\n* HPCA'25 论文《MLPerf Power：从微瓦到兆瓦，对机器学习系统的能效进行基准测试，以实现可持续的人工智能》：[ [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12032) ]，[ [使用 CM\u002FCMX 复现结果的教程](https:\u002F\u002Fgithub.com\u002Faryatschand\u002FMLPerf-Power-HPCA-2025\u002Fblob\u002Fmain\u002Fmeasurement_tutorial.md) ]\n* NeuralMagic 的 vLLM MLPerf 推理 4.1 提交，由 CM 自动化完成：[ [README] ](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Finference_results_v4.1\u002Fblob\u002Fmain\u002Fopen\u002FNeuralMagic\u002Fmeasurements\u002F4xH100-SXM-80GB_vLLM_FP8-reference-cpu-pytorch-v2.3.1-default_config\u002Fllama2-70b-99\u002Fserver\u002FREADME.md)\n* SDXL MLPerf 推理 4.1 提交，由 CM 自动化完成：[ [README] ](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Finference_results_v4.1\u002Ftree\u002Fmain\u002Fopen\u002FCTuning\u002Fcode\u002Fstable-diffusion-xl)\n* “借助 Collective Mind、虚拟化 MLOps、MLPerf、Collective Knowledge Playground 和可重复优化锦标赛，打造更高效、更具成本效益的 AI\u002FML 系统”：[ [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ]\n* ACM REP'23 主题演讲，介绍 MLCommons CM 自动化框架：[ [幻灯片](https:\u002F\u002Fdoi.org\u002F10.5281\u002Fzenodo.8105339) ]\n* ACM TechTalk'21 关于 Collective Knowledge 项目的演讲：[ [YouTube](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=7zpeIVwICa4) ]，[ [幻灯片](https:\u002F\u002Flearning.acm.org\u002Fbinaries\u002Fcontent\u002Fassets\u002Fleaning-center\u002Fwebinar-slides\u002F2021\u002Fgrigorifursin_techtalk_slides.pdf) ]\n* 《皇家学会期刊》2020 年论文：[ [论文](https:\u002F\u002Froyalsocietypublishing.org\u002Fdoi\u002F10.1098\u002Frsta.2020.0211) ]\n\n### 致谢\n\n本开源项目由 [Grigori Fursin](https:\u002F\u002FcKnowledge.org\u002Fgfursin) 创建，并由 cTuning.org、OctoAI 和 HiPEAC 资助。Grigori 将该项目捐赠给 MLCommons，旨在模块化和自动化 MLPerf 基准测试，造福社区，并推动其作为一项协作性、社区驱动的努力不断发展。\n\n我们感谢 [MLCommons](https:\u002F\u002Fmlcommons.org)、[FlexAI](https:\u002F\u002Fflex.ai) 和 [cTuning](https:\u002F\u002FcTuning.org) 对本项目的大力支持，同时也感谢我们敬业的 [志愿者和合作者](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002FCONTRIBUTORS.md)，感谢他们提供的反馈和贡献！\n\n如果您觉得 CM、CMX 和 MLPerf 自动化工具有所帮助，请引用以下文献：[ [ArXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791) ]，[ [BibTex](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fblob\u002Fmaster\u002Fcitation.bib) ]。\n\n欢迎您联系 [作者](https:\u002F\u002FcKnowledge.org\u002Fgfursin)，探讨长期规划及潜在的合作机会。","# Collective Knowledge (CK\u002FCMX) 快速上手指南\n\nCollective Knowledge (CK) 是一个社区驱动的项目，旨在支持开放科学和可复现研究。其核心组件 **Collective Mind (CM)** 及新一代 **CMX** 框架，帮助用户将软件项目转化为可移植、可复用的自动化工作流，特别适用于模块化运行和优化 MLPerf 基准测试及各类 AI\u002FML 负载。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：支持 Ubuntu, Debian, RHEL, Amazon Linux, MacOS, Windows 等主流操作系统。\n*   **Python 版本**：需要安装 **Python 3.8** 或更高版本（推荐 Python 3.10+）。\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `git` (用于克隆仓库，可选)\n    *   网络连接（用于下载自动化脚本和元数据）\n\n> **提示**：建议在虚拟环境（如 `venv` 或 `conda`）中安装，以避免依赖冲突。\n\n## 安装步骤\n\nCK 的核心功能通过 PyPI 上的 `cmind` 包提供。您可以使用以下命令进行安装。\n\n### 1. 基础安装\n使用官方 PyPI 源安装最新版本的 CM\u002FCMX 框架：\n\n```bash\npip install cmind\n```\n\n### 2. 国内加速安装（推荐中国开发者）\n如果您在中国大陆，建议使用国内镜像源以加快下载速度：\n\n```bash\npip install cmind -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 3. 安装 MLPerf 专用扩展\n若您需要运行 MLPerf 基准测试或相关 MLOps 自动化任务，请额外安装 `cmx4mlperf` 包：\n\n```bash\npip install cmx4mlperf -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n安装完成后，您可以在终端输入 `cmx --help` 验证安装是否成功。\n\n## 基本使用\n\nCMX 提供了统一的命令行接口（CLI），用于发现、运行和组合自动化脚本。\n\n### 1. 查看可用自动化脚本\n列出所有已索引的自动化脚本（类似于 `cmake` 的目标列表，但更丰富）：\n\n```bash\ncmx find script\n```\n\n或者访问在线目录查看完整列表：[CK Playground Scripts Catalog](https:\u002F\u002Faccess.cknowledge.org\u002Fplayground\u002F?action=scripts)\n\n### 2. 运行一个简单的自动化任务\nCMX 的核心逻辑是通过 `run script` 命令执行特定的自动化流程。以下是一个通用的执行模板：\n\n```bash\ncmx run script \u003Cscript_name> [--tags=\u003Ctag1>,\u003Ctag2>] [--extra_args]\n```\n\n**示例：运行一个帮助命令或查看特定脚本详情**\n假设我们要查找并运行与 \"hello\" 相关的示例脚本（如果环境中已索引）：\n\n```bash\ncmx run script --tags=hello\n```\n\n### 3. 运行 MLPerf 基准测试\n如果您安装了 `cmx4mlperf`，可以使用简化的命令来运行基准测试。注意命令前缀的变化：\n*   旧版 `cm` -> 新版 `cmx`\n*   旧版 `mlc` -> 新版 `cmlc`\n\n**示例：运行 ResNet-50 图像分类推理测试（伪代码示例，具体参数需参考文档）**\n\n```bash\ncmx run script --tags=app,mlperf,inference,resnet50 \\\n  --scenario=Offline \\\n  --backend=onnxruntime \\\n  --device=cpu\n```\n\n### 4. 缓存管理\nCMX 自动管理软件、数据集和模型的缓存。您可以手动清理或查看缓存：\n\n```bash\n# 查看缓存状态\ncmx find cache\n\n# 清理特定缓存\ncmx rm cache --tags=\u003Cspecific_tag>\n```\n\n### 5. 下一步\n*   **探索更多命令**：访问 [Collective Knowledge Playground](https:\u002F\u002Faccess.cknowledge.org) 获取可视化的命令生成器和实验结果对比。\n*   **查阅文档**：详细的使用案例和 MLPerf 配置请参考 [MLCommons 官方文档](https:\u002F\u002Fdocs.mlcommons.org\u002Finference)。","某 AI 芯片初创公司的基准测试团队，正面临在多种新硬件上复现并优化 MLPerf 图像分类模型的巨大压力。\n\n### 没有 ck 时\n- **环境配置繁琐**：每次切换不同硬件（如 NVIDIA GPU 到国产 NPU）或软件栈（TensorFlow 转 ONNX），工程师需手动重写大量安装脚本和依赖配置，耗时数天且极易出错。\n- **实验难以复现**：由于缺乏统一的元数据管理，三个月前的最佳性能参数因记录缺失无法找回，导致团队在相同问题上反复“造轮子”。\n- **协作壁垒高企**：算法组与系统组的实验流程割裂，一方修改了数据集预处理逻辑，另一方毫不知情，导致基准测试结果不一致，沟通成本极高。\n- **扩展性差**：引入新的模型架构（如从 ResNet-50 升级到 BERT）时，需要从头构建整套测试流水线，无法复用现有资产。\n\n### 使用 ck 后\n- **自动化跨平台部署**：利用 ck 的模块化自动化工作流，团队仅需一条命令即可在不同硬件和软件组合间自动适配并运行 MLPerf 基准测试，部署时间从数天缩短至分钟级。\n- **可复现的知识沉淀**：ck 将所有代码、数据、模型及环境参数封装为带有丰富元数据的可移植制品，确保任何历史实验都能被精确重现和追溯。\n- **无缝协同研发**：基于统一的命令行接口和 Python API，算法与系统团队共享同一套标准化流程，任何改动实时同步，彻底消除了“在我机器上是好的”这类争议。\n- **灵活链式编排**：面对新模型或新场景，只需像搭积木一样复用并组合现有的自动化组件，快速构建出定制化的评估流水线。\n\nck 通过将分散的实验资产转化为可复用、可协作的自动化工作流，让团队能以最低成本在多样化的软硬件生态中高效探索 AI 性能极限。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmlcommons_ck_09173b21.png","mlcommons","MLCommons","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmlcommons_013056fd.png","Better ML for everyone",null,"https:\u002F\u002Fmlcommons.org","https:\u002F\u002Fgithub.com\u002Fmlcommons",[82,86,90,94,98,102,106,110,114,117],{"name":83,"color":84,"percentage":85},"Python","#3572A5",85.3,{"name":87,"color":88,"percentage":89},"Shell","#89e051",5.3,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",3.5,{"name":95,"color":96,"percentage":97},"C","#555555",1.6,{"name":99,"color":100,"percentage":101},"HTML","#e34c26",1.5,{"name":103,"color":104,"percentage":105},"Batchfile","#C1F12E",1.2,{"name":107,"color":108,"percentage":109},"Dockerfile","#384d54",1.1,{"name":111,"color":112,"percentage":113},"PHP","#4F5D95",0.1,{"name":115,"color":116,"percentage":113},"R","#198CE7",{"name":118,"color":119,"percentage":113},"Cuda","#3A4E3A",646,123,"2026-04-10T09:23:13","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":127,"python":128,"dependencies":129},"该工具是一个自动化框架，用于运行和复现 AI\u002FML 基准测试（如 MLPerf）。它本身不强制要求特定 GPU，但具体运行的工作负载（如模型推理）可能依赖特定的硬件和软件后端（如 ONNX Runtime, PyTorch, DeepSparse 等）。支持在云环境或自动生成的容器中运行。","3.8+",[130],"cmind",[14,132,13],"其他",[134,135,136,137,138,139,140,141,142,143,144,145,146,147,148,149,130,65,150],"automation","portability","reusability","collaboration","modularity","mlops","best-practices","education","mlperf","optimization","cknowledge","ctuning","cm","cmx","workflows","mlperf-automations","benchmarking","2026-03-27T02:49:30.150509","2026-04-20T04:06:02.654224",[154,159,164,169,174,178],{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},43449,"在运行 get-cuda-devices 或 BERT99 测试时遇到失败，特别是使用多张 RTX 6000 Ada 显卡时，该如何解决？","这通常是由于代码中的一个 bug 导致的，该问题在未显式提供 target_qps 输入时会被触发。维护者已提交修复补丁（PR #923）。此外，如果重建环境后出现 QPS 值类型错误，请确保正确生成自定义规格。对于操作系统兼容性，虽然驱动版本通常不是问题，但有用户反馈 Ubuntu 20.04 可能比某些其他配置更稳定，建议检查是否因操作系统差异导致的环境配置问题。","https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F916",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},43450,"使用 rclone 复制文件时提示\"directory not found\"（目录未找到）错误怎么办？","该错误通常源于网络权限限制或远程路径配置问题。首先请联系公司 IT 部门确认网络策略是否阻止了对远程存储的访问。如果权限正常，请检查命令中的远程路径是否正确。成功解决的案例显示，使用正确的同步命令（如 `rclone sync mlc-inference:\u003C路径> \u003C本地路径> -P`）可以完成数据传输。确保远程仓库名称和目录层级拼写无误。","https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1134",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},43451,"在没有 sudo 权限的节点上运行 CUDA 安装脚本时遇到错误或选择困惑，如何处理？","如果您已经安装了 CUDA、TensorRT 和 cuDNN 但脚本仍尝试安装或报错，可能是因为脚本检测逻辑选择了错误的变体。当被提示选择时，请明确选择 `get,cuda,toolkit` 而不是 `get,cuda,lib`。此外，该项目功能已改进，如果遇到持续问题，建议参考更新的 cm4mlops 仓库获取最新的 CUDA 检测和安装教程，或者联系维护团队进行会议调试以对比原生 NVIDIA MLPerf 基准测试结果。","https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F626",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},43452,"在 Windows 11 上运行 CM 脚本时收到\"Windows is not supported in this script yet\"错误，如何解决？","该错误表明您尝试运行的特定脚本（如通用 MLPerf 推理应用）尚未支持 Windows 操作系统。虽然部分基础工具（如 detect-os, get-sys-utils-min）可以在 Windows 上运行，但核心的推理应用脚本目前主要面向 Linux 环境。建议您在 Linux 环境（如 WSL2 或原生 Linux）中运行此类脚本，或者检查是否有专门标记为支持 Windows 的替代脚本变体。","https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F696",{"id":175,"question_zh":176,"answer_zh":177,"source_url":158},43453,"如何正确生成带有自定义配置的 MLPerf 规格（spec），以避免 QPS 数值类型错误？","当遇到 QPS 值类型错误时，通常是因为自定义规格生成方式不当。虽然文档中可能缺乏详细说明，但正确的做法是通过 CM 命令行工具重新构建环境。建议先使用单 GPU 环境进行初始测试，成功后再增加 GPU 数量。确保在运行 `cm run script` 命令时，所有参数（特别是涉及性能目标如 QPS 的参数）都符合预期的数据类型格式。如果不确定，可以参考维护者在相关 PR 中提供的修复逻辑，确保输入参数不被默认为错误类型。",{"id":179,"question_zh":180,"answer_zh":181,"source_url":168},43454,"CM 脚本在执行过程中自动选择了错误的 CUDA 组件（如选了 lib 而不是 toolkit），如何手动干预？","当脚本自动依赖解析导致选择了错误的组件（例如检测到 `get,cuda,toolkit` 但运行时却选择了 `get,cuda,lib`）时，您需要在交互式提示中进行手动干预。当终端提示 \"Make your selection or press Enter for...\" 时，不要直接按回车使用默认值，而是手动输入对应于 `get,cuda,toolkit` 的编号（例如输入 1）。这将强制脚本使用正确的工具包路径，避免因库路径缺失导致的后续编译或运行错误。",[183,188,193,198,203,208,213,218,223,228,233,238,243,248,253,258,263,268,273,278],{"id":184,"version":185,"summary_zh":186,"released_at":187},343063,"cmx-v4.1.4","MLPerf 推理 v5.0 的修复补丁","2025-03-13T15:31:04",{"id":189,"version":190,"summary_zh":191,"released_at":192},343064,"cmind-v4.1.3","## CMX V4.1.3\n   - 修复了“cmx -log”中的一个错误（#1410）\n   - 修复了“cmx -repro”中的一个错误（#1409）\n\n## CMX V4.1.2\n   - 修复了在 cm\u002Fcmx info 工件中，当工件未找到时的错误提示\n   - 新增了“cmx get repo”或“cmx get repo {仓库别名}”或“cm get repo”功能（#1405）\n   - 在“cmx pull repo {url}”中增加了对个人访问令牌（PAT）的支持（#1381）\n\n## CMX V4.1.1\n   - 修复了遗留接口\n","2025-02-20T09:32:41",{"id":194,"version":195,"summary_zh":196,"released_at":197},343065,"cmx-v4.1.0","## CMX V4.1.0\n   - 修复了旧版接口\n   - 添加了 `-v` 标志以打印版本信息\n   - 改进了帮助信息\n","2025-02-17T11:02:52",{"id":199,"version":200,"summary_zh":201,"released_at":202},343066,"cmx-v4.0.2","自2025年2月起，CMX V4.0.2将作为早期的[Collective Mind 框架（CM）](https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fcm)及其他 MLCommons 自动化原型的直接替换版本，同时保持向后兼容性，并提供更加简单、健壮的接口。","2025-02-05T18:01:51",{"id":204,"version":205,"summary_zh":206,"released_at":207},343067,"cm-v3.5.3","* 修复了 `cm info repo` 和 `cmx info repo` 的 bug：https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1378","2025-01-15T15:53:09",{"id":209,"version":210,"summary_zh":211,"released_at":212},343068,"cm-v3.5.2","- 添加了 `-i` 标志，用于在运行 CM\u002FCMX 命令之前打印内存和磁盘使用情况：https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1375\n- 添加了 `utils.get_disk_use`\n- 添加了 `utils.get_memory_use`\n- 使用 autopep8 格式化了内部仓库中的 Python 模块\n","2024-12-20T15:10:56",{"id":214,"version":215,"summary_zh":216,"released_at":217},343069,"cm-v3.5.1","- 添加了集体心智架构图：\n     https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Ftree\u002Fmaster\u002Fdocs\u002Fspecs\u002Fcm-diagram-v3.5.1.png\n- 根据用户反馈，新增了 tabulate 作为依赖项\n- 更新了白皮书：https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.16791\n- 合并了 Anandu 的文档更新\n- 添加了已归档仓库的链接，以保留开发历史（如 ck、cm-mlops 等）","2024-12-03T18:54:58",{"id":219,"version":220,"summary_zh":221,"released_at":222},343070,"cm-v3.4.4","- 改进了 utils.load_json 和 utils.load_yaml 中的错误报告\n- 添加了 utils.substitute_template\n- 根据用户反馈增强了 'cm pull repo' 功能\n","2024-11-29T15:44:15",{"id":224,"version":225,"summary_zh":226,"released_at":227},343071,"cm-v3.4.3","## V3.4.3\n   - 修复了 `pyproject.toml`\n   - 修复了文档生成\n   - 改进了使用分支和 SHA 拉取仓库的功能 (#1355)\n","2024-11-24T22:31:39",{"id":229,"version":230,"summary_zh":231,"released_at":232},343072,"cm-v3.4.2","添加了来自 MLPerf 自动化工具的多个可重用函数：\n   - 添加了 utils.flatten_dict\n   - 添加了 utils.safe_int\n   - 添加了 utils.safe_float\n   - 添加了 utils.get_set\n   - 添加了 utils.digits\n","2024-11-22T14:22:30",{"id":234,"version":235,"summary_zh":236,"released_at":237},343073,"cm-v3.4.1","## V3.4.1\r\n   - added pyproject.toml to install CM and deprecated setup.py\r\n   - reduced Python min version in pyproject.toml to 3.7 for backwards compatibility\r\n","2024-11-10T09:43:51",{"id":239,"version":240,"summary_zh":241,"released_at":242},343074,"cm-v3.3.4","- added utils.path2: add quotes if spaces in path\r\n- added utils.update_dict_with_flat_key: update dictionary via flat key (x.y.z)\r\n- added utils.get_value_from_dict_with_flat_key get value from dict via flat key (x.y.z)\r\n- added utils.load_module universal python module loader","2024-11-06T11:54:34",{"id":244,"version":245,"summary_zh":246,"released_at":247},343075,"cm-v3.3.3","- moved \"CMX stack error\" to -log\r\n- improved CMX error reporting\r\n- fixed CM logger issue\r\n ","2024-11-03T10:40:17",{"id":249,"version":250,"summary_zh":251,"released_at":252},343076,"cm-v3.3.1","- allow \"cm\u002Fcmx pull repo {URL}\" along with \"cm\u002Fcmx pull repo --url={URL}\"\r\n- CMX: added \"automation_full_path\" to -log\r\n","2024-11-01T10:51:57",{"id":254,"version":255,"summary_zh":256,"released_at":257},343077,"cm-v3.2.9","* fixed minor bug with JSON console output\r\n* fixed minor bug with console in cmind.x function","2024-10-29T10:26:59",{"id":259,"version":260,"summary_zh":261,"released_at":262},343078,"cm-v3.2.8","- fixed Docker test for mlperf-inference with cm4mlops\r\n- made minor improvement in error handling and messages\r\n- Fixed type of \"unknown_keys\" to list to be serializable:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1335\r\n- Added support to print warning instead of error (useful for help)\r\n","2024-10-28T12:44:59",{"id":264,"version":265,"summary_zh":266,"released_at":267},343079,"cm-v3.2.5","- CMX: improved logging\r\n- CMX: improved error handling (show module path and line number)\r\n- CMX: fixed bug when detecting unknown control flag\r\n- CMX: do not change output to json if -j or --json   just print json in the end ...\r\n\r\n- added --new_branch to `cm pull repo` and `cm checkout repo`\r\n- fixed a bug in `cm show repo` (removed dependency on cm4mlops  and used subprocess.check_output)\r\n\r\n- fixed action `help` and flag `-h` to work with all automations:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1325\r\n\r\n- added `-f` to the CMX core to be backwards compatible   with CM commands like `cm rm cache -f`\r\n\r\n\r\n","2024-10-19T17:06:24",{"id":269,"version":270,"summary_zh":271,"released_at":272},343080,"cm-v3.2.3","- added --new_branch to `cm pull repo` and `cm checkout repo`\r\n- fixed a bug in `cm show repo` (removed dependency on cm4mlops  and used subprocess.check_output)\r\n- fixed action `help` and flag `-h` to work with all automations:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1325\r\n- added `-f` to the CMX core to be backwards compatible  with CM commands like `cm rm cache -f`\r\n","2024-10-16T10:07:46",{"id":274,"version":275,"summary_zh":276,"released_at":277},343081,"cm-v3.2.0","I have added many important features to CMX pending for a very long time:\r\n   - added `utils.test_input` to test if input has keys and report them as error\r\n   - added `prefix_cmx` key to cmr.yaml to customize `cmx pull repo`\r\n   - improved CMX logging (-log and -logfile):  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1317\r\n   - print control flags in help (cmx -h | cmx -help):   https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1318\r\n   - fail if control flag is not recognized:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1315\r\n   - added -repro flag to record various info to cmx-repro directory:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1319\r\n   - print call stack when error > 32 to be able to trace error cause:  https:\u002F\u002Fgithub.com\u002Fmlcommons\u002Fck\u002Fissues\u002F1320\r\n     can be combined with -log=debug and -logfile\r\n","2024-10-13T12:20:20",{"id":279,"version":280,"summary_zh":78,"released_at":281},343082,"cm-v3.1.0","2024-10-10T19:07:07"]