[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-twjiang--graphSAGE-pytorch":3,"tool-twjiang--graphSAGE-pytorch":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":75,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":100,"updated_at":101,"faqs":102,"releases":137},9707,"twjiang\u002FgraphSAGE-pytorch","graphSAGE-pytorch","A PyTorch implementation of GraphSAGE. This package contains a PyTorch implementation of GraphSAGE.","graphSAGE-pytorch 是一个基于 PyTorch 框架实现的 GraphSAGE 算法开源项目，旨在让图神经网络的研究与应用更加便捷。它核心解决了传统图嵌入方法难以处理大规模动态图数据的问题，通过创新的“邻居采样”与“特征聚合”机制，能够高效地为图中未见过的节点生成向量表示，从而支持节点分类、链接预测等任务。\n\n该项目特别适合人工智能领域的研究人员、算法工程师以及深度学习开发者使用。无论是希望复现经典论文实验的学者，还是需要在实际业务中构建图模型的技术人员，都能利用它快速搭建原型或进行二次开发。其技术亮点在于提供了灵活的学习模式，不仅支持标准的监督学习，还内置了无监督学习及两者结合的联合训练策略，用户可通过简单的命令行参数自由切换。此外，代码结构清晰，支持 GPU 加速，并预置了如 Cora 等标准数据集的配置，极大地降低了图神经网络入门与实验的门槛，是探索图表示学习领域的实用工具。","## A PyTorch implementation of GraphSAGE\n\nThis package contains a PyTorch implementation of [GraphSAGE](http:\u002F\u002Fsnap.stanford.edu\u002Fgraphsage\u002F).\n\n#### Authors of this code package: \n[Tianwen Jiang](https:\u002F\u002Fgithub.com\u002Ftwjiang) (tjiang2@nd.edu), \n[Tong Zhao](https:\u002F\u002Fgithub.com\u002Fzhao-tong) (tzhao2@nd.edu),\n[Daheng Wang](https:\u002F\u002Fgithub.com\u002Fadamwang0705) (dwang8@nd.edu).\n\n\n\n\n## Environment settings\n\n- python==3.6.8\n- pytorch==1.0.0\n\n\n\n\n## Basic Usage\n\n**Main Parameters:**\n\n```\n--dataSet     The input graph dataset. (default: cora)\n--agg_func    The aggregate function. (default: Mean aggregater)\n--epochs      Number of epochs. (default: 50)\n--b_sz        Batch size. (default: 20)\n--seed        Random seed. (default: 824)\n--unsup_loss  The loss function for unsupervised learning. ('margin' or 'normal', default: normal)\n--config      Config file. (default: .\u002Fsrc\u002Fexperiments.conf)\n--cuda        Use GPU if declared.\n```\n\n**Learning Method**\n\nThe user can specify a learning method by --learn_method, 'sup' is for supervised learning, 'unsup' is for unsupervised learning, and 'plus_unsup' is for jointly learning the loss of supervised and unsupervised method.\n\n**Example Usage**\n\nTo run the unsupervised model on Cuda:\n```\npython -m src.main --epochs 50 --cuda --learn_method unsup\n```\n\n","## GraphSAGE 的 PyTorch 实现\n\n本包包含 [GraphSAGE](http:\u002F\u002Fsnap.stanford.edu\u002Fgraphsage\u002F) 的 PyTorch 实现。\n\n#### 本代码包的作者：\n[Tianwen Jiang](https:\u002F\u002Fgithub.com\u002Ftwjiang) (tjiang2@nd.edu)、\n[Tong Zhao](https:\u002F\u002Fgithub.com\u002Fzhao-tong) (tzhao2@nd.edu)、\n[Daheng Wang](https:\u002F\u002Fgithub.com\u002Fadamwang0705) (dwang8@nd.edu)。\n\n\n\n\n## 环境配置\n\n- python==3.6.8\n- pytorch==1.0.0\n\n\n\n\n## 基本用法\n\n**主要参数：**\n\n```\n--dataSet     输入图数据集。（默认：cora）\n--agg_func    聚合函数。（默认：均值聚合器）\n--epochs      训练轮数。（默认：50）\n--b_sz        批量大小。（默认：20）\n--seed        随机种子。（默认：824）\n--unsup_loss  无监督学习的损失函数。（'margin' 或 'normal'，默认：normal）\n--config      配置文件。（默认：.\u002Fsrc\u002Fexperiments.conf）\n--cuda        若指定则使用 GPU。\n```\n\n**学习方式**\n\n用户可通过 --learn_method 指定学习方式：'sup' 表示有监督学习，'unsup' 表示无监督学习，'plus_unsup' 表示联合优化有监督和无监督损失。\n\n**使用示例**\n\n在 CUDA 上运行无监督模型：\n```\npython -m src.main --epochs 50 --cuda --learn_method unsup\n```","# graphSAGE-pytorch 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下版本要求。该项目基于较早期的 PyTorch 版本开发，建议严格匹配以避免兼容性问题。\n\n- **Python**: 3.6.8\n- **PyTorch**: 1.0.0\n- **硬件**: 支持 CUDA 的 GPU（可选，用于加速训练）\n\n> **提示**：国内用户安装依赖时，推荐使用清华或阿里镜像源以提升下载速度。\n> 例如：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple torch==1.0.0`\n\n## 安装步骤\n\n1. 克隆项目代码到本地：\n   ```bash\n   git clone \u003Crepository_url>\n   cd graphSAGE-pytorch\n   ```\n\n2. 安装核心依赖（请确保 Python 版本为 3.6.8）：\n   ```bash\n   pip install torch==1.0.0\n   # 如有其他依赖文件 requirements.txt，可执行：\n   # pip install -r requirements.txt\n   ```\n\n## 基本使用\n\n本项目支持监督学习、无监督学习以及混合学习模式。默认数据集为 `cora`，默认聚合函数为 `Mean`。\n\n### 运行示例\n\n以下命令演示如何在 **GPU (CUDA)** 环境下运行 **无监督学习** 模型，训练 50 个 epoch：\n\n```bash\npython -m src.main --epochs 50 --cuda --learn_method unsup\n```\n\n### 常用参数说明\n\n您可以通过命令行参数灵活配置实验：\n\n- `--dataSet`: 输入图数据集名称（默认：`cora`）\n- `--learn_method`: 学习方法\n  - `sup`: 监督学习\n  - `unsup`: 无监督学习\n  - `plus_unsup`: 联合监督与无监督损失\n- `--agg_func`: 聚合函数类型（默认：`Mean`）\n- `--b_sz`: 批次大小（默认：20）\n- `--config`: 配置文件路径（默认：`.\u002Fsrc\u002Fexperiments.conf`）\n- `--cuda`: 添加此标志以启用 GPU 加速\n\n### 更多用法示例\n\n运行监督学习模式：\n```bash\npython -m src.main --learn_method sup --cuda\n```\n\n使用自定义随机种子和批次大小：\n```bash\npython -m src.main --seed 1234 --b_sz 32 --learn_method plus_unsup\n```","某电商风控团队需要实时识别海量用户交易网络中的欺诈团伙，但传统方法难以应对动态变化的图结构数据。\n\n### 没有 graphSAGE-pytorch 时\n- 面对不断新增的用户和交易边，必须重新训练整个模型，导致计算资源消耗巨大且响应延迟高。\n- 无法有效利用邻居节点的特征信息，仅靠单个用户的静态属性判断，漏判率高达 30%。\n- 缺乏灵活的聚合机制，难以适配不同业务场景下对“均值”、“池化”等特征融合策略的快速验证需求。\n- 依赖昂贵的全图嵌入计算，内存占用随节点数线性爆炸，普通服务器根本无法承载千万级节点图。\n\n### 使用 graphSAGE-pytorch 后\n- 支持归纳式学习，新加入的用户节点无需重训即可通过采样邻居快速生成嵌入，推理速度提升 10 倍。\n- 通过可配置的聚合函数（如 `--agg_func`），灵活捕捉局部子图结构特征，欺诈识别准确率提升至 92%。\n- 利用 `--learn_method unsup` 无监督模式，在缺乏标注数据的冷启动阶段也能挖掘潜在异常团伙。\n- 基于小批量采样训练（`--b_sz`），将显存占用降低 80%，使得在单张 GPU 上处理大规模动态图成为可能。\n\ngraphSAGE-pytorch 让动态图上的实时欺诈检测从“不可能任务”变成了可落地的高效工程方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftwjiang_graphSAGE-pytorch_e2157eb6.png","twjiang","Tianwen Jiang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftwjiang_1123b115.jpg",null,"ir.hit.edu.cn\u002F~twjiang","https:\u002F\u002Fgithub.com\u002Ftwjiang",[79,83],{"name":80,"color":81,"percentage":82},"Python","#3572A5",99.6,{"name":84,"color":85,"percentage":86},"Shell","#89e051",0.4,681,151,"2026-04-15T15:05:19","","可选（通过 --cuda 参数启用），具体显卡型号、显存大小及 CUDA 版本未说明","未说明",{"notes":94,"python":95,"dependencies":96},"该工具支持有监督（sup）、无监督（unsup）及联合学习（plus_unsup）三种模式。默认数据集为 Cora，聚合函数默认为 Mean。若需使用 GPU，需在命令行添加 --cuda 标志。","3.6.8",[97],"pytorch==1.0.0",[14,99],"其他","2026-03-27T02:49:30.150509","2026-04-20T04:05:15.398064",[103,108,113,118,123,127,132],{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},43607,"运行时出现 'FileNotFoundError: No such file or directory' 错误，提示找不到模型文件，如何解决？","这是因为代码试图将模型保存到 'models\u002F' 目录，但该目录不存在或路径不正确。解决方法有两种：\n1. 在项目根目录（graphSAGE-pytorch-master）下手动创建一个名为 'models' 的文件夹，而不是在 src 目录下创建。\n2. 修改代码中的保存路径，将 `torch.save` 的路径改为 `'..\u002Fmodels\u002Fmodel_best_{}_ep{}_{:.4f}.torch'.format(...)` 以指向正确的上级目录。\n另外，也可以注释掉所有关于加载和保存模型的代码行，或者改用保存 state_dict 的方式（如 `torch.save(graphSage.state_dict(), path)`）来避免此问题。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F15",{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},43608,"在使用自定义小数据集进行无监督训练时，出现 'AssertionError' 错误，原因是什么？","该错误通常发生在负采样过程中。代码默认设置随机游走长度（N_WALK_LEN）为 5，用于采集负样本。如果你的图数据较小（例如少于 800 个节点），5 跳（5-hops）可能已经覆盖了图中所有节点，导致无法选出有效的负样本，从而触发断言失败。\n解决方法：减小 `self.N_WALK_LEN` 的值以适应较小的图。注意：`self.N_WALK_LEN` 必须始终大于 `self.WALK_LEN`（用于获取正样本的随机游走长度）。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F5",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},43609,"main.py 第 73 行检查 `'unsup'` 的逻辑是否是笔误？为什么无监督模式下还在训练分类模型？","这不是笔误。分类模型（Classification MLP）是独立于主 GraphSAGE 模型的。即使在无监督学习模式（'unsup'）下，我们仍然需要训练一个分类器来评估学习到的节点表示（embeddings）的质量。因此，代码逻辑是正确的，旨在通过下游分类任务来验证无监督学习的效果。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F16",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},43610,"当前实现看起来是直推式学习（Transductive），如何将其改为归纳式学习（Inductive Learning）？","要实现归纳式学习，需要确保模型在训练时只看到训练集的节点和边，而在测试时能处理未见过的节点。具体操作如下：\n1. 构建两个邻接表：`train_adj_list`（仅包含训练节点集）和 `test_adj_lists`（包含所有节点）。\n2. 在每个 epoch 进行评估之前和之后，动态更新输入数据（features 和 adj_lists），确保训练阶段使用的是 `train_adj_list`，而评估阶段使用包含全图的 `test_adj_lists`。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F14",{"id":124,"question_zh":125,"answer_zh":126,"source_url":112},43611,"如何通过无监督方法获取图中每个节点的潜在嵌入（latent embeddings）？","在训练完成后，可以通过调用工具函数来获取所有节点的嵌入。具体代码位于 `utils.py` 的第 88 行附近：\n`features = get_gnn_embeddings(graphSage, dataCenter, ds)`\n执行此函数后，`features` 变量即包含所有节点的嵌入向量。建议在训练分类模型之前先运行此步骤以加载嵌入。",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},43612,"如何处理有向图？目前的数据加载器似乎将边视为双向的。","默认实现中边被视为双向的。如果要支持单向边（有向图），需要修改数据加载阶段的邻接表构建逻辑，确保只添加指定方向的边。此外，有用户反馈通过引入 PageRank 算法来筛选高质量的负样本，可以有效提升在有向图或特定数据结构上的性能。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F21",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},43613,"发现隐藏层嵌入（cur_hidden_embs）非常稀疏，这是否正常？","虽然理论上嵌入应该是稠密的，但在某些默认设置和数据集下观察到稀疏性可能是正常的现象，或者是特定初始化导致的。判断嵌入质量更好的指标是看其在节点分类任务中的最终性能表现。如果分类效果良好，则无需过度担心稀疏性问题；如果性能不佳，可以尝试对比 TensorFlow 版本的实现或调整超参数。","https:\u002F\u002Fgithub.com\u002Ftwjiang\u002FgraphSAGE-pytorch\u002Fissues\u002F13",[]]