[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tkipf--gae":3,"tool-tkipf--gae":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":76,"owner_email":75,"owner_twitter":75,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":99,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":137},5835,"tkipf\u002Fgae","gae","Implementation of Graph Auto-Encoders in TensorFlow","gae 是一个基于 TensorFlow 实现的图自编码器（Graph Auto-Encoders）开源项目，专为处理图结构数据而设计。它核心解决了在无监督场景下，如何对复杂的图数据进行高效学习、节点聚类以及链路预测的难题。通过端到端的训练方式，gae 能够自动提取图的潜在特征，广泛应用于大规模关系数据的链路预测、结合辅助信息的矩阵补全及推荐系统等任务。\n\n这款工具特别适合人工智能研究人员、算法工程师以及对图神经网络感兴趣的开发者使用。如果你正在探索社交网络分析、引文网络挖掘或构建推荐系统，gae 提供了坚实的代码基础。其独特的技术亮点在于深度融合了图卷积网络（GCN）作为编码器，不仅支持标准的图自编码器模式，还实现了变分图自编码器（VGAE），显著提升了模型生成能力和鲁棒性。项目内置了 Cora、Citeseer 等经典引文网络数据集的加载示例，并允许用户灵活导入自定义的邻接矩阵和特征矩阵，方便快速复现论文结果或开展新的实验研究。作为图深度学习领域的经典实现，gae 以简洁的架构帮助使用者轻松入门并深入理解图表示学习的前沿技术。","Graph Auto-Encoders\n============\n\nThis is a TensorFlow implementation of the (Variational) Graph Auto-Encoder model as described in our paper:\n \nT. N. Kipf, M. Welling, [Variational Graph Auto-Encoders](https:\u002F\u002Farxiv.org\u002Fabs\u002F1611.07308), NIPS Workshop on Bayesian Deep Learning (2016)\n\nGraph Auto-Encoders (GAEs) are end-to-end trainable neural network models for unsupervised learning, clustering and link prediction on graphs. \n\n![(Variational) Graph Auto-Encoder](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftkipf_gae_readme_22402e4015f2.png)\n\nGAEs have successfully been used for:\n* Link prediction in large-scale relational data: M. Schlichtkrull & T. N. Kipf et al., [Modeling Relational Data with Graph Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.06103) (2017),\n* Matrix completion \u002F recommendation with side information: R. Berg et al., [Graph Convolutional Matrix Completion](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.02263) (2017).\n\n\nGAEs are based on Graph Convolutional Networks (GCNs), a recent class of models for end-to-end (semi-)supervised learning on graphs:\n\nT. N. Kipf, M. Welling, [Semi-Supervised Classification with Graph Convolutional Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1609.02907), ICLR (2017). \n\nA high-level introduction is given in our blog post:\n\nThomas Kipf, [Graph Convolutional Networks](http:\u002F\u002Ftkipf.github.io\u002Fgraph-convolutional-networks\u002F) (2016)\n\n\n\n## Installation\n\n```bash\npython setup.py install\n```\n\n## Requirements\n* TensorFlow (1.0 or later)\n* python 2.7\n* networkx\n* scikit-learn\n* scipy\n\n## Run the demo\n\n```bash\npython train.py\n```\n\n## Data\n\nIn order to use your own data, you have to provide \n* an N by N adjacency matrix (N is the number of nodes), and\n* an N by D feature matrix (D is the number of features per node) -- optional\n\nHave a look at the `load_data()` function in `input_data.py` for an example.\n\nIn this example, we load citation network data (Cora, Citeseer or Pubmed). The original datasets can be found here: http:\u002F\u002Flinqs.cs.umd.edu\u002Fprojects\u002Fprojects\u002Flbc\u002F and here (in a different format): https:\u002F\u002Fgithub.com\u002Fkimiyoung\u002Fplanetoid\n\nYou can specify a dataset as follows:\n\n```bash\npython train.py --dataset citeseer\n```\n\n(or by editing `train.py`)\n\n## Models\n\nYou can choose between the following models: \n* `gcn_ae`: Graph Auto-Encoder (with GCN encoder)\n* `gcn_vae`: Variational Graph Auto-Encoder (with GCN encoder)\n\n## Cite\n\nPlease cite our paper if you use this code in your own work:\n\n```\n@article{kipf2016variational,\n  title={Variational Graph Auto-Encoders},\n  author={Kipf, Thomas N and Welling, Max},\n  journal={NIPS Workshop on Bayesian Deep Learning},\n  year={2016}\n}\n```\n","图自动编码器\n============\n\n这是我们在论文中描述的（变分）图自动编码器模型的 TensorFlow 实现：\n\nT. N. Kipf, M. Welling，《变分图自动编码器》，NIPS 贝叶斯深度学习研讨会（2016 年）\n\n图自动编码器（GAEs）是一类端到端可训练的神经网络模型，用于图上的无监督学习、聚类和链接预测。\n\n![(变分) 图自动编码器](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftkipf_gae_readme_22402e4015f2.png)\n\n图自动编码器已成功应用于：\n* 大规模关系数据中的链接预测：M. Schlichtkrull & T. N. Kipf 等，《用图卷积网络建模关系数据》（2017 年）；\n* 带有辅助信息的矩阵补全\u002F推荐：R. Berg 等，《图卷积矩阵补全》（2017 年）。\n\n图自动编码器基于图卷积网络（GCNs），这是一类用于图上端到端（半）监督学习的最新模型：\n\nT. N. Kipf, M. Welling，《用图卷积网络进行半监督分类》，ICLR（2017 年）。\n\n我们也在博客文章中提供了高层次的介绍：\n\nThomas Kipf，《图卷积网络》（2016 年）。\n\n\n\n## 安装\n\n```bash\npython setup.py install\n```\n\n## 要求\n* TensorFlow（1.0 或更高版本）\n* Python 2.7\n* networkx\n* scikit-learn\n* scipy\n\n## 运行演示\n\n```bash\npython train.py\n```\n\n## 数据\n\n若要使用您自己的数据，您需要提供：\n* 一个 N×N 的邻接矩阵（N 是节点数），以及\n* 一个 N×D 的特征矩阵（D 是每个节点的特征数量）——可选\n\n请参阅 `input_data.py` 中的 `load_data()` 函数以获取示例。\n\n在本示例中，我们加载引用网络数据（Cora、Citeseer 或 Pubmed）。原始数据集可在以下网址找到：http:\u002F\u002Flinqs.cs.umd.edu\u002Fprojects\u002Fprojects\u002Flbc\u002F，以及此处（采用不同格式）：https:\u002F\u002Fgithub.com\u002Fkimiyoung\u002Fplanetoid。\n\n您可以按如下方式指定数据集：\n\n```bash\npython train.py --dataset citeseer\n```\n\n（或通过编辑 `train.py`）\n\n## 模型\n\n您可以选择以下模型：\n* `gcn_ae`：图自动编码器（使用 GCN 编码器）\n* `gcn_vae`：变分图自动编码器（使用 GCN 编码器）\n\n## 引用\n\n如果您在自己的工作中使用此代码，请引用我们的论文：\n\n```\n@article{kipf2016variational,\n  title={Variational Graph Auto-Encoders},\n  author={Kipf, Thomas N and Welling, Max},\n  journal={NIPS Workshop on Bayesian Deep Learning},\n  year={2016}\n}\n```","# GAE (Graph Auto-Encoders) 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：2.7\n*   **核心框架**：TensorFlow 1.0 或更高版本\n*   **依赖库**：\n    *   `networkx`\n    *   `scikit-learn`\n    *   `scipy`\n\n> **提示**：国内用户建议使用清华源或阿里源加速安装依赖。例如：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow networkx scikit-learn scipy`\n\n## 安装步骤\n\n克隆或下载本项目代码后，进入项目根目录，执行以下命令进行安装：\n\n```bash\npython setup.py install\n```\n\n## 基本使用\n\n### 1. 运行默认示例\n安装完成后，直接运行训练脚本即可启动默认的演示（默认加载 Cora 数据集）：\n\n```bash\npython train.py\n```\n\n### 2. 指定数据集\n您可以通过参数指定其他内置数据集（如 `citeseer` 或 `pubmed`）：\n\n```bash\npython train.py --dataset citeseer\n```\n\n### 3. 使用自定义数据\n若需使用自己的图数据，需准备以下两个矩阵文件，并参考 `input_data.py` 中的 `load_data()` 函数格式进行加载：\n*   **邻接矩阵**：N × N 维度（N 为节点数量）\n*   **特征矩阵**：N × D 维度（D 为每个节点的特征数量，可选）\n\n### 4. 模型选择\n在代码中可切换以下两种模型架构：\n*   `gcn_ae`：图自编码器（使用 GCN 作为编码器）\n*   `gcn_vae`：变分图自编码器（使用 GCN 作为编码器）","某大型学术数据库团队正试图从数百万篇论文及其引用关系中，自动挖掘潜在的跨学科研究合作机会。\n\n### 没有 gae 时\n- 传统矩阵分解方法无法有效利用论文间的引用拓扑结构，导致忽略了许多隐含的学术关联。\n- 面对稀疏的引用数据，模型难以生成高质量的论文特征向量，推荐结果往往集中在热门领域，缺乏长尾发现能力。\n- 链接预测任务需要大量人工标注的训练数据，而无监督学习能力的缺失使得冷启动问题极其严重。\n- 每次更新数据都需要重新训练复杂的深度学习模型，计算成本高昂且迭代周期长达数周。\n\n### 使用 gae 后\n- gae 基于图卷积网络（GCN）编码器，能直接融合引用关系结构与节点特征，精准捕捉跨学科的潜在语义联系。\n- 通过变分图自编码器（VGAE）生成的低维嵌入向量，即使在数据稀疏场景下也能稳定输出高质量表示，显著提升了冷门论文的曝光率。\n- 利用其端到端的无监督学习特性，团队无需任何人工标签即可直接在大规模引用图上执行链接预测，快速发现新颖的合作组合。\n- 模型支持高效增量训练，数据更新后的重训时间从数周缩短至数小时，大幅加快了推荐系统的迭代速度。\n\ngae 将复杂的图结构信息转化为可计算的隐向量，让机器在无监督状态下也能像资深编辑一样洞察学术界的潜在脉络。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftkipf_gae_ffaed068.png","tkipf","Thomas Kipf","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftkipf_350bb284.jpg",null,"Amsterdam","http:\u002F\u002Ftkipf.github.io","https:\u002F\u002Fgithub.com\u002Ftkipf",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1735,353,"2026-04-06T16:32:53","MIT",4,"","未说明",{"notes":92,"python":93,"dependencies":94},"该工具基于较旧的 TensorFlow 1.0+ 和 Python 2.7 构建，现代环境可能需要配置兼容的旧版运行环境或使用容器。支持 Cora、Citeseer 和 Pubmed 等引文网络数据集，也可使用自定义的邻接矩阵和特征矩阵数据。","2.7",[95,96,97,98],"tensorflow>=1.0","networkx","scikit-learn","scipy",[14,100],"其他","2026-03-27T02:49:30.150509","2026-04-11T19:01:46.413874",[104,109,114,119,124,129,133],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},26459,"为什么无法复现论文中报告的 AUC 和 AP 结果？","这通常是由代码中的特定问题导致的。维护者确认该问题已修复，用户可以通过回退代码或应用特定的修复补丁（见 PR #55）来成功复现论文中的结果。","https:\u002F\u002Fgithub.com\u002Ftkipf\u002Fgae\u002Fissues\u002F54",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},26460,"加载数据时出现 'UnicodeDecodeError' 或数组形状错误，是否与 scipy 或 Python 版本有关？","是的，这通常是由于 Python 2 和 Python 3 之间 pickle 文件编码不兼容造成的。解决方案是修改数据加载器 (input_data.py)，将加载代码从 `pkl.load(open(...))` 改为 `pkl.load(open(..., \"rb\"), encoding=\"bytes\")`。如果问题仍然存在，建议尝试在 Python 2.7 环境下运行。","https:\u002F\u002Fgithub.com\u002Ftkipf\u002Fgae\u002Fissues\u002F23",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},26461,"如何在同一个模型中训练多个不同的图（例如 1000 个具有不同邻接矩阵的图）？","可以通过构建一个大的稀疏邻接矩阵来实现，该矩阵是各个小图邻接矩阵的“对角拼接”（diagonal concatenation）。即创建一个分块对角矩阵，其中每个对角块对应一个独立的图，非对角块为零。这样可以将多个图作为单个大图输入到模型中进行联合嵌入学习。","https:\u002F\u002Fgithub.com\u002Ftkipf\u002Fgae\u002Fissues\u002F10",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},26462,"训练过程中的损失函数是如何计算的？是否只使用了训练边？","损失函数基于重构的邻接矩阵计算。训练集是原图的一个子图。在计算加权交叉熵损失时，正样本（值为 1）对应训练边（train_edges），负样本（值为 0）则包含了验证集和测试集中的负采样边（val_edges_false 和 test_edges_false）。这意味着损失计算不仅利用了存在的边，也利用了采样的不存在的边。","https:\u002F\u002Fgithub.com\u002Ftkipf\u002Fgae\u002Fissues\u002F26",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},26463,"模型训练过程中更新的是哪些参数？每个 epoch 可以输入不同的图数据吗？","模型训练主要目的是优化权重参数 `self.vars['weights']`。对于输入不同图数据的问题，虽然标准的 `feed_dict` 可能不变，但用户可以将某些参数（如 `pos_weight`）定义为 placeholder，并在每个 epoch 为不同的图样本馈送相应的值，从而支持动态变化的图结构输入。","https:\u002F\u002Fgithub.com\u002Ftkipf\u002Fgae\u002Fissues\u002F34",{"id":130,"question_zh":131,"answer_zh":132,"source_url":118},26464,"如何使用该模型处理有向加权图并寻找图集中的共同模式？","可以使用有向图的拉普拉斯矩阵（directed graph Laplacian）替代无向图拉普拉斯，并配合 sigmoid 激活函数和 logloss 进行适配。为了寻找共同模式，应将多个图的邻接矩阵对角拼接后输入模型，学习到的节点嵌入空间将有助于发现聚类或共同的子图结构。直接分析权重矩阵 W 来寻找模式通常不可行，因为邻接矩阵的行\u002F列顺序是随机的。",{"id":134,"question_zh":135,"answer_zh":136,"source_url":123},26465,"重构矩阵的值不在 [0, 1] 范围内，直接使用 sigmoid 计算准确率是否有偏差？","重构矩阵输出的是 logits（未归一化的分数），确实不直接在 [0, 1] 范围内。但在计算链路预测的准确率（Accuracy）、AUC 或 AP 时，标准做法是先对 logits 应用 sigmoid 函数将其转换为概率值，然后再与真实标签进行比较。这是该领域论文（如 arXiv:1703.06103）中的标准处理方法，不会导致计算偏差。",[]]