[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ethanfetaya--NRI":3,"tool-ethanfetaya--NRI":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75334,"2026-04-10T23:08:27",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":79,"languages":80,"stars":85,"forks":86,"last_commit_at":87,"license":88,"difficulty_score":89,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":99,"github_topics":77,"view_count":10,"oss_zip_url":77,"oss_zip_packed_at":77,"status":22,"created_at":100,"updated_at":101,"faqs":102,"releases":142},4994,"ethanfetaya\u002FNRI","NRI","Neural relational inference for interacting systems - pytorch","NRI（Neural Relational Inference）是一个基于 PyTorch 的开源深度学习框架，专为解析复杂交互系统而设计。在自然界和社会活动中，许多系统由多个相互作用的组件构成，其整体行为往往错综复杂，难以直接观测到组件间的具体关联。NRI 旨在解决这一难题，它能够仅凭观测数据，在无监督的情况下自动推断出系统内部潜在的交互关系图，并同时学习系统的动态演化规律。\n\n该工具的核心技术亮点在于采用了变分自编码器（VAE）架构：利用潜在代码表示底层的交互图结构，并借助图神经网络（GNN）进行状态重建与预测。实验证明，NRI 不仅能从模拟物理数据中准确还原真实的相互作用，还能在动作捕捉和体育追踪等真实场景中挖掘出可解释的结构并预测复杂动态。\n\nNRI 非常适合人工智能研究人员、数据科学家以及从事物理仿真、多智能体系统开发的工程师使用。如果你需要探索未知系统内部的连接机制，或希望在不依赖先验知识的前提下对交互系统进行建模与预测，NRI 将是一个强大且灵活的研究基线与实践工具。","# Neural relational inference for interacting systems\n\nThis repository contains the official PyTorch implementation of:\n\n**Neural relational inference for interacting systems.**  \nThomas Kipf*, Ethan Fetaya*, Kuan-Chieh Wang, Max Welling, Richard Zemel.  \nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.04687  (*: equal contribution)\n\n![Neural Relational Inference (NRI)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fethanfetaya_NRI_readme_13316813698d.png)\n\n**Abstract:** Interacting systems are prevalent in nature, from dynamical systems in physics to complex societal dynamics. The interplay of components can give rise to complex behavior, which can often be explained using a simple model of the system's constituent parts. In this work, we introduce the neural relational inference (NRI) model: an unsupervised model that learns to infer interactions while simultaneously learning the dynamics purely from observational data. Our model takes the form of a variational auto-encoder, in which the latent code represents the underlying interaction graph and the reconstruction is based on graph neural networks. In experiments on simulated physical systems, we show that our NRI model can accurately recover ground-truth interactions in an unsupervised manner. We further demonstrate that we can find an interpretable structure and predict complex dynamics in real motion capture and sports tracking data.\n\n### Requirements\n* Pytorch 0.2 (0.3 breaks simulation decoder)\n* Python 2.7 or 3.6\n\n### Data generation\n\nTo replicate the experiments on simulated physical data, first generate training, validation and test data by running:\n\n```\ncd data\npython generate_dataset.py\n```\nThis generates the springs dataset, use `--simulation charged` for charged particles.\n\nNote: Make sure to use the same preprocessing and evaluation scripts (check the loss function as well) as in our code release to get comparable results.\n\n### Run experiments\n\nFrom the project's root folder, simply run\n```\npython train.py\n```\nto train a Neural Relational Inference (NRI) model on the springs dataset. You can specify a different dataset by modifying the `suffix` argument: `--suffix charged5` will run the model on the charged particle simulation with 5 particles (if it has been generated).\n\nTo train the encoder or decoder separately, run \n\n```\npython train_enc.py\n```\nor\n\n```\npython train_dec.py\n```\nrespectively. We provide a number of training options which are documented in the respective training files.\n\nAdditionally, we provide code for an LSTM baseline (denoted *LSTM (joint)* in the paper), which you can run as follows:\n```\npython lstm_baseline.py\n```\n\n### Cite\nIf you make use of this code in your own work, please cite our paper:\n```\n@article{kipf2018neural,\n  title={Neural Relational Inference for Interacting Systems},\n  author={Kipf, Thomas and Fetaya, Ethan and Wang, Kuan-Chieh and Welling, Max and Zemel, Richard},\n  journal={arXiv preprint arXiv:1802.04687},\n  year={2018}\n}\n```\n","# 用于交互系统的神经关系推理\n\n本仓库包含以下论文的官方 PyTorch 实现：\n\n**用于交互系统的神经关系推理。**  \nThomas Kipf*、Ethan Fetaya*、Kuan-Chieh Wang、Max Welling、Richard Zemel。  \nhttps:\u002F\u002Farxiv.org\u002Fabs\u002F1802.04687  (*：共同第一作者)\n\n![神经关系推理 (NRI)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fethanfetaya_NRI_readme_13316813698d.png)\n\n**摘要：** 交互系统在自然界中广泛存在，从物理学中的动力系统到复杂的社会动态皆是如此。各组成部分之间的相互作用能够产生复杂的动态行为，而这些行为往往可以通过对系统组成要素的简单建模来解释。在本文中，我们提出了神经关系推理（NRI）模型：一种无监督学习模型，它能够在仅利用观测数据的情况下，同时学习系统的相互作用和动力学演化规律。我们的模型采用变分自编码器的形式，其中潜在编码表示底层的交互图，而重构过程则基于图神经网络。在对模拟物理系统的实验中，我们证明了 NRI 模型能够以无监督的方式准确地恢复真实交互关系。此外，我们还展示了该模型能够在真实的动作捕捉和体育运动跟踪数据中发现可解释的结构，并预测复杂的动态行为。\n\n### 环境要求\n* PyTorch 0.2（0.3 版本会导致仿真解码器出错）\n* Python 2.7 或 3.6\n\n### 数据生成\n\n为了复现关于模拟物理数据的实验，首先需要通过运行以下命令生成训练集、验证集和测试集：\n\n```\ncd data\npython generate_dataset.py\n```\n这将生成弹簧系统数据集；若需生成带电粒子数据集，请使用 `--simulation charged` 参数。\n\n注意：为获得可比较的结果，请务必使用与我们代码发布版本相同的预处理和评估脚本（包括损失函数）。\n\n### 运行实验\n\n从项目根目录下，直接运行以下命令即可训练一个基于弹簧系统数据集的神经关系推理（NRI）模型：\n\n```\npython train.py\n```\n\n您可以通过修改 `suffix` 参数指定不同的数据集，例如 `--suffix charged5` 将在已生成的含 5 个带电粒子的仿真数据上运行模型。\n\n若需单独训练编码器或解码器，可分别运行：\n\n```\npython train_enc.py\n```\n\n或\n\n```\npython train_dec.py\n```\n\n我们提供了多种训练选项，具体说明请参阅相应的训练脚本。\n\n此外，我们还提供了 LSTM 基线模型的代码（论文中称为 *LSTM (joint)*），可通过以下命令运行：\n\n```\npython lstm_baseline.py\n```\n\n### 引用\n如果您在自己的研究工作中使用了本代码，请引用我们的论文：\n\n```\n@article{kipf2018neural,\n  title={Neural Relational Inference for Interacting Systems},\n  author={Kipf, Thomas and Fetaya, Ethan and Wang, Kuan-Chieh and Welling, Max and Zemel, Richard},\n  journal={arXiv preprint arXiv:1802.04687},\n  year={2018}\n}\n```","# NRI (Neural Relational Inference) 快速上手指南\n\nNRI 是一个无监督模型，用于从观测数据中推断交互系统的潜在关系图并学习其动力学特性。本项目基于 PyTorch 实现，适用于物理模拟、动作捕捉及运动追踪等场景。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求。**注意：版本兼容性至关重要，高版本 PyTorch 可能导致解码器失效。**\n\n*   **操作系统**: Linux \u002F macOS \u002F Windows\n*   **Python 版本**: 2.7 或 3.6\n*   **PyTorch 版本**: **0.2** (严禁使用 0.3 及以上版本，否则仿真解码器将无法工作)\n*   **其他依赖**: 标准科学计算库 (如 numpy, scipy 等，通常随 PyTorch 环境配置)\n\n> **国内加速建议**：\n> 安装 PyTorch 旧版本较为困难，建议使用国内镜像源或手动下载对应版本的 `.whl` 文件进行安装。\n> *   清华镜像源：`https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n> *   中科大镜像源：`https:\u002F\u002Fpypi.mirrors.ustc.edu.cn\u002Fsimple`\n\n## 安装步骤\n\n由于项目依赖较旧的 PyTorch 版本，建议先创建独立的虚拟环境（以 Python 3.6 为例）：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI.git\n    cd NRI\n    ```\n\n2.  **安装特定版本的 PyTorch**\n    请根据您的 CUDA 版本选择对应的 PyTorch 0.2 安装命令。若无法通过 pip 直接找到 0.2 版本，需前往 PyTorch 官网历史版本页面或国内镜像站手动下载适配的 wheel 包安装。\n    \n    *示例（仅供参考，具体需匹配本地环境）：*\n    ```bash\n    pip install torch==0.2.0.post4 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **安装其他依赖**\n    如果项目根目录有 `requirements.txt`，请运行：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    若无该文件，通常只需确保 `numpy` 和 `scipy` 已安装即可。\n\n## 基本使用\n\n### 1. 生成数据集\n在训练模型前，首先需要生成模拟物理数据（默认为弹簧系统）。\n\n```bash\ncd data\npython generate_dataset.py\n```\n*   **提示**：若要生成带电粒子数据集，请使用参数 `--simulation charged`。\n    ```bash\n    python generate_dataset.py --simulation charged\n    ```\n\n### 2. 训练模型\n返回项目根目录，运行以下命令开始在弹簧数据集上训练 NRI 模型：\n\n```bash\ncd ..\npython train.py\n```\n\n*   **切换数据集**：通过修改 `--suffix` 参数指定不同数据集。例如，训练包含 5 个粒子的带电粒子模型：\n    ```bash\n    python train.py --suffix charged5\n    ```\n\n### 3. 独立训练组件（可选）\n如果您希望单独训练编码器或解码器，可分别运行：\n\n```bash\npython train_enc.py\n```\n或\n```bash\npython train_dec.py\n```\n\n### 4. 运行基线对比（可选）\n运行论文中提到的 LSTM 基线模型（*LSTM (joint)*）：\n\n```bash\npython lstm_baseline.py\n```\n\n---\n*注：为了获得与论文一致的可比结果，请务必使用代码库中提供的预处理和评估脚本，并注意损失函数的设置。*","某体育科技团队正利用球员追踪数据构建战术分析系统，试图从复杂的跑位中自动识别球员间的配合逻辑。\n\n### 没有 NRI 时\n- **依赖人工规则**：分析师必须手动定义“传球”或“挡拆”的距离阈值，难以覆盖所有动态场景，导致大量隐性配合被遗漏。\n- **黑盒预测局限**：使用传统 LSTM 模型虽能预测下一步位置，但无法解释球员为何这样移动，教练无法理解模型背后的战术意图。\n- **标注成本高昂**：为了训练监督学习模型，需要耗费数百小时人工标注视频中的交互关系，数据扩展极其缓慢。\n- **泛化能力差**：一旦球队更换战术体系或面对不同对手，预先设定的规则失效，模型需重新调整参数甚至重构。\n\n### 使用 NRI 后\n- **自动发现关系**：NRI 无需任何标签，直接从轨迹数据中无监督地推断出潜在的交互图，自动识别出谁在影响谁的跑位。\n- **可解释性增强**：模型生成的潜在代码直接对应交互结构，教练可直观看到动态形成的“传球网络”或“防守链条”，信任度大幅提升。\n- **零标注启动**：省去了繁琐的人工标注环节，团队可直接导入原始运动捕捉数据开始训练，研发周期从数周缩短至数天。\n- **适应复杂动态**：面对多变的比赛局势，NRI 能实时捕捉变化的相互作用，准确预测复杂对抗下的群体运动趋势。\n\nNRI 将原本不可见的球员互动逻辑转化为可视化的动态图谱，让战术分析从“猜测经验”迈向了“数据洞察”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fethanfetaya_NRI_13316813.png","ethanfetaya",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fethanfetaya_cbee1a29.jpg","https:\u002F\u002Fgithub.com\u002Fethanfetaya",[81],{"name":82,"color":83,"percentage":84},"Python","#3572A5",100,770,164,"2026-04-01T15:27:11","MIT",4,"","未说明",{"notes":93,"python":94,"dependencies":97},"注意：PyTorch 0.3 版本会导致模拟解码器（simulation decoder）失效，必须严格使用 PyTorch 0.2 版本。该工具主要用于复现论文中的物理系统模拟实验（如弹簧数据集、带电粒子），需先运行脚本生成数据。",[95,96],"2.7","3.6",[98],"PyTorch==0.2",[18],"2026-03-27T02:49:30.150509","2026-04-11T18:33:08.075246",[103,108,113,118,123,128,133,138],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},22695,"在测试阶段，编码器是否看到了不应看到的真实数据（Ground Truth），从而导致精度虚高？","是的，在“动态图”设置下，测试时编码器确实使用了相当于“教师强制”（teacher forcing）的策略，利用真实数据来重新估计离散潜在图。解码器仅依赖于其过去的预测和离散潜在图，后者包含的真实轨迹信息极少。如果您希望将此模型部署在线环境中，即使是动态图的重新估计，也必须使用模型自身的预测数据，而不是真实数据。论文图 6a 中的结果受此设置影响，解读时需谨慎。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F17",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},22696,"代码中的 `my_softmax` 函数为什么看起来是在 batch 维度而不是类别维度上进行归一化？","这是因为在该代码编写时，PyTorch 的内置 `softmax` 函数尚未支持 `dim` 输入参数（即无法指定维度），因此作者手动实现了该函数以适应当时的版本限制。现在的 PyTorch 版本已支持直接指定维度。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F25",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},22697,"如何从代码库中进行无监督学习（Unsupervised Learning）？","实际上，仓库中的 `train.py` 脚本本身实现的就是无监督学习。用户无需进行额外配置或更改，直接运行该训练脚本即可进行无监督训练。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F36",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},22698,"在评估多关系（多于 2 种关系）案例时，如何正确计算边缘预测的准确率？","当前的 `edge_accuracy()` 函数主要适用于两种关系的情况（可通过 `max(acc, 1.0-acc)` 处理标签排列问题）。对于多种关系的情况，遍历所有排列组合是不现实的。建议使用排列不变的聚类相似度评分进行评估，例如使用 scikit-learn 中的 ARI (Adjusted Rand Score) 或 AMI (Adjusted Mutual Info Score)。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F35",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},22699,"如何将此模型扩展应用于大型图（例如超过 10,000 个节点），以解决内存限制问题？","对于大型图，全连接图的 one-hot 编码会导致内存爆炸。建议使用 `torch.scatter_add` 操作符更高效地实现消息传递机制。您需要预先计算并提供一个边列表（edge list）给该函数。此外，必须对图施加某种稀疏性模板（sparsity template），即只考虑 N^2 条边中的一个子集，因为 10,000^2 的复杂度在内存和计算上都是不可行的。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F19",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},22700,"数据集中 `.npy` 文件的具体形状含义是什么？例如 `(5,5)` 和 `(2,5)` 代表什么？","输入数据本质上是图结构，而非直接的图像。以 5 个粒子的弹簧模拟数据为例：\n1. `edges` 文件中的 `(5,5)` 表示 5x5 的边缘类型矩阵（邻接矩阵）。\n2. `loc` (位置) 和 `vel` (速度) 文件中的 `(2,5)` 表示 5 个对象的 2 维坐标（x, y）或 2 维速度分量。\n如果您想处理视频\u002F图像，需要先将图像转换为这种图表示形式（例如通过区域提议网络提取节点）。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F15",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},22701,"项目中使用的篮球运动数据集（Sport UV dataset）在哪里可以下载？","作者并未直接使用公开的特定篮球数据集仓库（如 GitHub 上的 NBA-Player-Movements），而是使用了类似的数据源或自行处理的数据。论文中提到的 PnR (Pick and Roll) 实例是基于特定比赛片段提取的，具体原始数据链接未在代码库中直接提供，可能需要参考论文中的数据处理部分或联系作者获取细节。","https:\u002F\u002Fgithub.com\u002Fethanfetaya\u002FNRI\u002Fissues\u002F32",{"id":139,"question_zh":140,"answer_zh":141,"source_url":122},22702,"评估指标计算时，`batch-size` 参数是否会影响最终的准确率结果？","是的，如果测试样本总数不能被 `batch-size` 整除，最后一个批次的大小会小于设定值。当前代码在累积指标时未完全考虑到不完整批次的权重，这可能导致评估分数出现微小偏差。理想的改进方案是让 `edge_accuracy()` 返回当前批次的平均准确率和样本数量，然后在主脚本中加权计算总平均值。",[]]