[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--alphatensor":3,"tool-google-deepmind--alphatensor":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75309,"2026-04-10T11:12:54",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":69,"owner_location":69,"owner_email":69,"owner_twitter":69,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":10,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":103,"github_topics":69,"view_count":10,"oss_zip_url":69,"oss_zip_packed_at":69,"status":22,"created_at":104,"updated_at":105,"faqs":106,"releases":137},6254,"google-deepmind\u002Falphatensor","alphatensor",null,"AlphaTensor 是 DeepMind 开源的一项突破性研究代码，旨在利用强化学习自动发现更高效的矩阵乘法算法。矩阵乘法是深度学习、科学计算等领域的核心运算，传统算法往往依赖人类数学家的直觉与推导，难以穷尽所有可能性。AlphaTensor 将寻找最优算法的过程建模为单人策略游戏，通过智能体在巨大的搜索空间中探索，成功找到了比现有经典算法步骤更少、速度更快的新方案，甚至在特定硬件上实现了实际加速。\n\n该项目不仅发表了相关论文，还公开了数千种由 AI 发现的、互不等价的 4x4 矩阵乘法算法实例，并提供了验证其独特性及在 NVIDIA GPU 上进行基准测试的工具链。此外，它还展示了如何通过重组小规模算法的分解形式来构建更大规模的矩阵乘法方案。\n\nAlphaTensor 主要面向人工智能研究人员、算法工程师以及对高性能计算感兴趣的开发者。对于希望深入理解 AI 如何辅助基础数学发现，或试图优化底层计算内核的专业人士而言，这套代码和数据集提供了宝贵的实验素材与参考范式。其核心技术亮点在于证明了强化学习不仅能解决具体应用问题，还能在基础算法理论层面推动人类知识的边界。","# AlphaTensor\n\nThis is code accompanying the publication\n\n> Fawzi, A. et al. [Discovering faster matrix multiplication algorithms with\nreinforcement learning](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-022-05172-4).\n*Nature* **610** (2022)\n\nThere are 4 independent directories:\n\n- `algorithms` contains algorithms discovered by AlphaTensor, represented as\nfactorizations of matrix multiplication tensors, and a Colab showing how to load\nthese.\n\n- `benchmarking` contains a script that can be used to measure the actual speed\nof matrix multiplication algorithms on an NVIDIA V100 GPU.\n\n- `nonequivalence` contains 14,236 nonequivalent algorithms discovered by\nAlphaTensor for the same matrix multiplication problem (multiplying 4x4\nmatrices), and a Colab that verifies their nonequivalence.\n\n- `recombination` contains the code we used to decompose larger matrix\nmultiplication tensors by recombining factorizations of smaller ones.\n\n\n## Installation\n\n- `algorithms`: No installation required.\n\n- `benchmarking`: See `README` in the subdirectory.\n\n- `nonequivalence`: No installation required.\n\n- `recombination`: A machine with Python 3 installed is required. The required\ndependencies (`numpy` and `absl-py`) can be installed by executing\n`pip3 install -r alphatensor\u002Frecombination\u002Frequirements.txt`.\n\n## Usage\n\n- `algorithms`: The notebook `explore_factorizations.ipynb` can be opened via\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Falgorithms\u002Fexplore_factorizations.ipynb).\nWhen running the code, you will be asked to upload a file containing the\nfactorizations. Please select either of the compressed NumPy files\n`factorizations_r.npz` (containing algoritms in standard arithmetic) or\n`factorizations_f2.npz` (algorithms in arithmetic modulo 2).\n\n- `benchmarking`: See `README` in the subdirectory, and Supplement D of the\npaper.\n\n- `nonequivalence`: The notebook `inspect_factorizations_notebook.ipynb` can be\nopened via\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Fnonequivalence\u002Finspect_factorizations_notebook.ipynb).\nWhen running the code, you will be asked to upload a file. Please select the\ncompressed NumPy file `alphatensor_14236_factorizations.npz`. This will upload\nthe factorizations found by AlphaTensor, and then compute invariants certifying\nthat they are all nonequivalent. For more details, see Supplement B of the\npaper.\n\n- `recombination`: Execute `python3 -m alphatensor.recombination.example` on the\ncommand line, **from the parent directory that contains the `alphatensor`\nrepository as a subdirectory**. For more details, see Supplement H of the paper.\n\n## Citing this work\n\nIf you use the code or data in this package, please cite:\n\n```bibtex\n@Article{AlphaTensor2022,\n  author  = {Fawzi, Alhussein and Balog, Matej and Huang, Aja and Hubert, Thomas and Romera-Paredes, Bernardino and Barekatain, Mohammadamin and Novikov, Alexander and Ruiz, Francisco J. R. and Schrittwieser, Julian and Swirszcz, Grzegorz and Silver, David and Hassabis, Demis and Kohli, Pushmeet},\n  journal = {Nature},\n  title   = {Discovering faster matrix multiplication algorithms with reinforcement learning},\n  year    = {2022},\n  volume  = {610},\n  number  = {7930},\n  pages   = {47--53},\n  doi     = {10.1038\u002Fs41586-022-05172-4}\n}\n```\n\n## License and disclaimer\n\nCopyright 2022 DeepMind Technologies Limited\n\nAll software is licensed under the Apache License, Version 2.0 (Apache 2.0);\nyou may not use this file except in compliance with the Apache 2.0 license.\nYou may obtain a copy of the Apache 2.0 license at:\nhttps:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\nAll other materials are licensed under the Creative Commons Attribution 4.0\nInternational License (CC-BY). You may obtain a copy of the CC-BY license at:\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode\n\nUnless required by applicable law or agreed to in writing, all software and\nmaterials distributed here under the Apache 2.0 or CC-BY licenses are\ndistributed on an \"AS IS\" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND,\neither express or implied. See the licenses for the specific language governing\npermissions and limitations under those licenses.\n\nThis is not an official Google product.\n","# AlphaTensor\n\n这是与发表论文配套的代码。\n\n> Fawzi, A. 等人。[利用强化学习发现更快的矩阵乘法算法](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-022-05172-4)。《自然》杂志 **610** (2022)\n\n共有四个独立的目录：\n\n- `algorithms` 包含由 AlphaTensor 发现的算法，以矩阵乘法张量的分解形式表示，并提供一个 Colab 笔记本用于加载这些算法。\n\n- `benchmarking` 包含一个脚本，可用于在 NVIDIA V100 GPU 上测量矩阵乘法算法的实际运行速度。\n\n- `nonequivalence` 包含 AlphaTensor 为同一矩阵乘法问题（4×4 矩阵相乘）发现的 14,236 个非等价算法，以及一个验证这些算法非等价性的 Colab 笔记本。\n\n- `recombination` 包含我们用于通过重新组合较小矩阵乘法张量的分解来分解较大矩阵乘法张量的代码。\n\n\n## 安装\n\n- `algorithms`: 无需安装。\n\n- `benchmarking`: 请参阅子目录中的 `README` 文件。\n\n- `nonequivalence`: 无需安装。\n\n- `recombination`: 需要一台已安装 Python 3 的机器。所需的依赖包 (`numpy` 和 `absl-py`) 可通过执行 `pip3 install -r alphatensor\u002Frecombination\u002Frequirements.txt` 来安装。\n\n## 使用\n\n- `algorithms`: 可通过 [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Falgorithms\u002Fexplore_factorizations.ipynb) 打开笔记本 `explore_factorizations.ipynb`。运行代码时，系统会提示您上传包含分解结果的文件。请选择以下两个压缩的 NumPy 文件之一：`factorizations_r.npz`（包含标准算术中的算法）或 `factorizations_f2.npz`（包含模 2 算术中的算法）。\n\n- `benchmarking`: 请参阅子目录中的 `README` 文件以及论文的补充材料 D。\n\n- `nonequivalence`: 可通过 [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Fnonequivalence\u002Finspect_factorizations_notebook.ipynb) 打开笔记本 `inspect_factorizations_notebook.ipynb`。运行代码时，系统会提示您上传文件。请选择压缩的 NumPy 文件 `alphatensor_14236_factorizations.npz`。这将上传 AlphaTensor 发现的分解结果，并计算不变量以证明它们彼此非等价。更多详情请参阅论文的补充材料 B。\n\n- `recombination`: 在命令行中执行 `python3 -m alphatensor.recombination.example`，**需从包含 `alphatensor` 仓库作为子目录的父目录下运行**。更多详情请参阅论文的补充材料 H。\n\n## 引用本工作\n\n如果您使用本软件包中的代码或数据，请引用以下文献：\n\n```bibtex\n@Article{AlphaTensor2022,\n  author  = {Fawzi, Alhussein and Balog, Matej and Huang, Aja and Hubert, Thomas and Romera-Paredes, Bernardino and Barekatain, Mohammadamin and Novikov, Alexander and Ruiz, Francisco J. R. and Schrittwieser, Julian and Swirszcz, Grzegorz and Silver, David and Hassabis, Demis and Kohli, Pushmeet},\n  journal = {Nature},\n  title   = {Discovering faster matrix multiplication algorithms with reinforcement learning},\n  year    = {2022},\n  volume  = {610},\n  number  = {7930},\n  pages   = {47--53},\n  doi     = {10.1038\u002Fs41586-022-05172-4}\n}\n```\n\n## 许可与免责声明\n\n版权所有 © 2022 DeepMind Technologies Limited\n\n所有软件均采用 Apache License, Version 2.0（Apache 2.0）许可；除非符合 Apache 2.0 许可协议的规定，否则不得使用本文件。您可以在以下网址获取 Apache 2.0 许可协议的副本：\nhttps:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\n所有其他材料均采用 Creative Commons Attribution 4.0 国际许可（CC-BY）。您可以在以下网址获取 CC-BY 许可协议的副本：\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode\n\n除非适用法律另有规定或双方另有约定，否则在此依据 Apache 2.0 或 CC-BY 许可协议分发的所有软件和材料均按“现状”提供，不提供任何形式的明示或默示保证或条件。具体的权利和限制请参阅相关许可协议。\n\n本项目并非 Google 官方产品。","# AlphaTensor 快速上手指南\n\nAlphaTensor 是 DeepMind 开源的项目，旨在通过强化学习发现更高效的矩阵乘法算法。本项目包含四个独立模块：算法展示、性能基准测试、非等价性验证以及算法重组。\n\n## 环境准备\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows (需支持 Python 3)\n*   **Python 版本**：Python 3.x\n*   **硬件要求**：\n    *   通用模块：无特殊要求。\n    *   性能测试 (`benchmarking`)：推荐配备 NVIDIA V100 GPU 以获得最佳测试效果。\n*   **前置依赖**：\n    *   `algorithms` 和 `nonequivalence` 模块无需安装额外依赖，可直接在浏览器中运行。\n    *   `recombination` 模块需要 `numpy` 和 `absl-py`。\n\n## 安装步骤\n\n根据您想要使用的功能模块，选择对应的安装方式：\n\n### 1. 算法探索与非等价性验证 (无需安装)\n这两个模块主要基于 Jupyter Notebook (Colab)，无需本地安装环境。\n*   **算法探索**：直接使用 Google Colab 打开 notebook。\n*   **非等价性验证**：直接使用 Google Colab 打开 notebook。\n\n### 2. 算法重组 (Recombination) - 本地安装\n如果您需要在本地运行重组代码，请执行以下命令安装依赖：\n\n```bash\npip3 install -r alphatensor\u002Frecombination\u002Frequirements.txt\n```\n\n> **提示**：国内用户如遇下载缓慢，可添加国内镜像源加速安装：\n> ```bash\n> pip3 install -r alphatensor\u002Frecombination\u002Frequirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n### 3. 性能基准测试 (Benchmarking)\n请参考 `benchmarking` 子目录下的 `README` 文件进行特定环境的配置。\n\n## 基本使用\n\n### 场景一：探索发现的算法 (Algorithms)\n这是最简单的入门方式，通过 Colab 加载并查看 AlphaTensor 发现的矩阵分解算法。\n\n1. 点击链接打开 Notebook：[Explore Factorizations](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Falgorithms\u002Fexplore_factorizations.ipynb)\n2. 运行代码单元格，系统会提示上传文件。\n3. 从本地上传以下任一压缩文件（需先从仓库下载）：\n   - `factorizations_r.npz` (标准算术下的算法)\n   - `factorizations_f2.npz` (模 2 算术下的算法)\n\n### 场景二：验证算法的非等价性 (Nonequivalence)\n用于验证 AlphaTensor 为 4x4 矩阵乘法发现的 14,236 种非等价算法。\n\n1. 点击链接打开 Notebook：[Inspect Factorizations](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fdeepmind\u002Falphatensor\u002Fblob\u002Fmaster\u002Fnonequivalence\u002Finspect_factorizations_notebook.ipynb)\n2. 运行代码，当提示上传文件时，选择 `alphatensor_14236_factorizations.npz`。\n3. 代码将自动计算不变量以证明这些算法互不等价。\n\n### 场景三：运行算法重组示例 (Recombination)\n在本地命令行中演示如何通过重组小规模分解来构建大规模矩阵乘法张量。\n\n**注意**：必须在包含 `alphatensor` 仓库的**父目录**下执行此命令。\n\n```bash\npython3 -m alphatensor.recombination.example\n```\n\n---\n*更多详细技术细节及理论背景，请参阅原论文《Discovering faster matrix multiplication algorithms with reinforcement learning》(Nature, 2022)。*","某高性能计算团队正在为新一代气象预测模型优化核心的大规模矩阵运算内核，试图在有限的 GPU 资源下进一步压低延迟。\n\n### 没有 alphatensor 时\n- 工程师只能依赖 Strassen 等几十年前发现的传统算法，难以突破理论上的乘法次数瓶颈。\n- 针对特定硬件（如 NVIDIA V100）手动调整算法参数耗时数周，且往往陷入局部最优解。\n- 缺乏系统性的方法来验证是否存在更优的分解方案，只能凭经验猜测或放弃优化。\n- 面对 4x4 等中等规模矩阵，无法穷举成千上万种非等价算法组合以寻找速度最快的特例。\n\n### 使用 alphatensor 后\n- 利用强化学习自动发现了比传统方法乘法次数更少的新算法，直接降低了计算复杂度。\n- 通过内置的基准测试脚本，快速在目标 GPU 上验证了新算法的实际加速效果，将调优周期从数周缩短至数小时。\n- 借助提供的 14,236 种非等价算法库，团队能直接筛选出最适合当前硬件架构的特化版本。\n- 利用重组代码将小矩阵的高效分解方案扩展到大矩阵任务，实现了整体推理速度的显著提升。\n\nalphatensor 将矩阵乘法算法的发现过程从“人工经验驱动”转变为\"AI 自动探索”，为底层算力挖掘带来了颠覆性的效率飞跃。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_alphatensor_53b29524.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","","https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",77.8,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",22.2,2826,254,"2026-04-08T17:42:20","Apache-2.0","未说明","benchmarking 模块需要 NVIDIA V100 GPU 进行速度测试；其他模块未明确要求 GPU",{"notes":98,"python":99,"dependencies":100},"该项目包含四个独立目录，其中 algorithms 和 nonequivalence 无需安装即可在 Colab 中运行；recombination 模块需安装 numpy 和 absl-py；benchmarking 模块需在子目录查看具体说明。部分功能需上传特定的 .npz 数据文件方可运行。","3.x (recombination 模块明确要求)",[101,102],"numpy","absl-py",[18],"2026-03-27T02:49:30.150509","2026-04-10T20:32:22.387664",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},28298,"AlphaTensor 是否提供了优于递归 Strassen 算法的通用 4x4x4 实数乘法算法？","论文中提到的 47 次乘法仅适用于模 2 运算（Z2\u002Fn 域）且是非交换的情况。对于实数算术，目前的分解集合中 4x4x4 情况需要 49 次乘积，这与递归应用 2x2x2 Strassen 算法所需次数相同。根据 Stothers 的论文，存在一种需要 48 次乘法的算法，但本项目未提供优于递归 Strassen 的通用 4x4x4 实数算法。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F5",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},28299,"仓库中是否包含采样 AlphaZero (Sampled AlphaZero) 的强化学习训练代码？","很遗憾，采样 AlphaZero 的代码并未开源。用户可以参考论文的补充材料（Supplementary Information）获取更多细节，链接为：https:\u002F\u002Fstatic-content.springer.com\u002Fesm\u002Fart%3A10.1038%2Fs41586-022-05172-4\u002FMediaObjects\u002F41586_2022_5172_MOESM1_ESM.pdf","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F4",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},28300,"这些矩阵乘法算法是否具有容错性？数值精度如何？","本工作中的算法是精确算法（exact algorithms）。若需测试浮点矩阵乘法时的数值精度，可以参考 `benchmarking\u002Ftest_correctness.py` 文件中的测试代码，以及论文补充材料 B.3 节中引用的相关指标。补充材料链接：https:\u002F\u002Fstatic-content.springer.com\u002Fesm\u002Fart%3A10.1038%2Fs41586-022-05172-4\u002FMediaObjects\u002F41586_2022_5172_MOESM1_ESM.pdf","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F1",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},28301,"如何使用仓库中提供的算法来执行两个矩阵的乘法？","可以查看 `benchmarking\u002Ftest_correctness.py` 文件中的 `testGPUMatrixMultiplicationPrecision` 测试用例。该示例展示了如何从分解数据（factorization）构建一个可调用（Callable）的算法对象，并使用它来执行两个矩阵的乘法运算。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F8",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},28302,"计算过程中使用的精度是多少？输入输出为 float32 但似乎使用了 bfloat16，如何切换到全精度模式？","可以通过配置精度参数来切换。具体示例请查看 `benchmarking\u002Ftest_correctness.py` 文件中的最后一个测试用例，其中包含了配置精度的具体代码实现。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F7",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},28303,"是否有工具可以将论文中的矩阵分解公式转换为文本形式，以便无需手动从图片中输入？","社区用户提供了一个名为 `print_equations.py` 的脚本用于生成文本形式的方程。使用时需确保脚本与 `factorizations_f2.npz` 和 `factorizations_r.npz` 文件位于同一目录下。由于输出数据量较大（超过 7MB），建议将输出重定向到文件：`python3 print_equations.py > equations.txt`。注意：脚本加载 npz 文件时使用了 `allow_pickle=True`，需注意安全风险。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Falphatensor\u002Fissues\u002F3",[]]