[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DeepGraphLearning--graphvite":3,"tool-DeepGraphLearning--graphvite":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159636,2,"2026-04-17T23:33:34",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":77,"owner_twitter":76,"owner_website":78,"owner_url":79,"languages":80,"stars":101,"forks":102,"last_commit_at":103,"license":104,"difficulty_score":105,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":119,"github_topics":120,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":128,"updated_at":129,"faqs":130,"releases":160},8942,"DeepGraphLearning\u002Fgraphvite","graphvite","GraphVite: A General and High-performance Graph Embedding System ","GraphVite 是一款通用且高性能的图嵌入系统，专为高速、大规模的数据处理而设计。它主要解决了传统图算法在处理海量数据时训练速度慢、扩展性差的痛点，能够显著缩短从节点嵌入、知识图谱构建到高维数据可视化的全流程时间。\n\n这款工具非常适合需要处理复杂网络数据的研究人员、算法工程师及开发者使用。无论是进行社交网络分析、推荐系统研发，还是探索高维数据的内在结构，GraphVite 都能提供完整的训练与评估流水线。其核心亮点在于极致的性能优化：在标准测试中，相比现有的开源实现，GraphVite 在节点嵌入任务上实现了最高 334 倍的加速，在知识图谱和高维可视化任务上也带来了数倍至数十倍的性能提升。它内置了 DeepWalk、node2vec、TransE 等 9 种主流模型，并支持多 GPU 并行计算，让用户能够在普通服务器上轻松完成原本需要耗费数小时甚至数天的计算任务，极大地提升了科研与工程效率。","![GraphVite logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_4cc99bee5419.png)\n\nGraphVite - graph embedding at high speed and large scale\n=========================================================\n\n[![Install with conda](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Fversion.svg)][conda]\n[![License](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Flicense.svg)][license]\n[![Downloads](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Fdownloads.svg)][conda]\n\n[conda]: https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\n[license]: LICENSE\n\n[Docs] | [Tutorials] | [Benchmarks] | [Pre-trained Models]\n\n[Docs]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fapi\u002Fapplication\n[Tutorials]: https:\u002F\u002Fgraphvite.io\u002Ftutorials\n[Benchmarks]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fbenchmark\n[Pre-trained Models]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fpretrained_model\n\nGraphVite is a general graph embedding engine, dedicated to high-speed and\nlarge-scale embedding learning in various applications.\n\nGraphVite provides complete training and evaluation pipelines for 3 applications:\n**node embedding**, **knowledge graph embedding** and\n**graph & high-dimensional data visualization**. Besides, it also includes 9 popular\nmodels, along with their benchmarks on a bunch of standard datasets.\n\n\u003Ctable align=\"center\" style=\"text-align:center\">\n    \u003Ctr>\n        \u003Cth>Node Embedding\u003C\u002Fth>\n        \u003Cth>Knowledge Graph Embedding\u003C\u002Fth>\n        \u003Cth>Graph & High-dimensional Data Visualization\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_134b994d2a94.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_d0a5d9d28ab9.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_6427e8ca5020.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\nHere is a summary of the training time of GraphVite along with the best open-source\nimplementations on 3 applications. All the time is reported based on a server with\n24 CPU threads and 4 V100 GPUs.\n\nTraining time of node embedding on [Youtube] dataset.\n\n| Model      | Existing Implementation       | GraphVite | Speedup |\n|------------|-------------------------------|-----------|---------|\n| [DeepWalk] | [1.64 hrs (CPU parallel)][1]  | 1.19 mins | 82.9x   |\n| [LINE]     | [1.39 hrs (CPU parallel)][2]  | 1.17 mins | 71.4x   |\n| [node2vec] | [24.4 hrs (CPU parallel)][3]  | 4.39 mins | 334x    |\n\n[Youtube]: http:\u002F\u002Fconferences.sigcomm.org\u002Fimc\u002F2007\u002Fpapers\u002Fimc170.pdf\n[DeepWalk]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1403.6652.pdf\n[LINE]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.03578.pdf\n[node2vec]: https:\u002F\u002Fwww.kdd.org\u002Fkdd2016\u002Fpapers\u002Ffiles\u002Frfp0218-groverA.pdf\n[1]: https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\n[2]: https:\u002F\u002Fgithub.com\u002Ftangjianpku\u002FLINE\n[3]: https:\u002F\u002Fgithub.com\u002Faditya-grover\u002Fnode2vec\n\nTraining \u002F evaluation time of knowledge graph embedding on [FB15k] dataset.\n\n| Model           | Existing Implementation           | GraphVite          | Speedup       |\n|-----------------|-----------------------------------|--------------------|---------------|\n| [TransE]        | [1.31 hrs \u002F 1.75 mins (1 GPU)][3] | 13.5 mins \u002F 54.3 s | 5.82x \u002F 1.93x |\n| [RotatE]        | [3.69 hrs \u002F 4.19 mins (1 GPU)][4] | 28.1 mins \u002F 55.8 s | 7.88x \u002F 4.50x |\n\n[FB15k]: http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5071-translating-embeddings-for-modeling-multi-relational-data.pdf\n[TransE]: http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5071-translating-embeddings-for-modeling-multi-relational-data.pdf\n[RotatE]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.10197.pdf\n[3]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002FKnowledgeGraphEmbedding\n[4]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002FKnowledgeGraphEmbedding\n\nTraining time of high-dimensional data visualization on [MNIST] dataset.\n\n| Model        | Existing Implementation       | GraphVite | Speedup |\n|--------------|-------------------------------|-----------|---------|\n| [LargeVis]   | [15.3 mins (CPU parallel)][5] | 13.9 s    | 66.8x   |\n\n[MNIST]: http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fpublis\u002Fpdf\u002Flecun-01a.pdf\n[LargeVis]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.00370.pdf\n[5]: https:\u002F\u002Fgithub.com\u002Flferry007\u002FLargeVis\n\nRequirements\n------------\n\nGenerally, GraphVite works on any Linux distribution with CUDA >= 9.2.\n\nThe library is compatible with Python 2.7 and 3.6\u002F3.7.\n\nInstallation\n------------\n\n### From Conda ###\n\n```bash\nconda install -c milagraph -c conda-forge graphvite cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\nIf you only need embedding training without evaluation, you can use the following\nalternative with minimal dependencies.\n\n```bash\nconda install -c milagraph -c conda-forge graphvite-mini cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\n### From Source ###\n\nBefore installation, make sure you have `conda` installed.\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\ncd graphvite\nconda install -y --file conda\u002Frequirements.txt\nmkdir build\ncd build && cmake .. && make && cd -\ncd python && python setup.py install && cd -\n```\n\n### On Colab ###\n\n```bash\n!wget -c https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-latest-Linux-x86_64.sh\n!chmod +x Miniconda3-latest-Linux-x86_64.sh\n!.\u002FMiniconda3-latest-Linux-x86_64.sh -b -p \u002Fusr\u002Flocal -f\n\n!conda install -y -c milagraph -c conda-forge graphvite \\\n    python=3.6 cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+\\.\\d+\")\n!conda install -y wurlitzer ipykernel\n```\n\n```python\nimport site\nsite.addsitedir(\"\u002Fusr\u002Flocal\u002Flib\u002Fpython3.6\u002Fsite-packages\")\n%reload_ext wurlitzer\n```\n\nQuick Start\n-----------\n\nHere is a quick-start example of the node embedding application.\n\n```bash\ngraphvite baseline quick start\n```\n\nTypically, the example takes no more than 1 minute. You will obtain some output like\n\n```\nBatch id: 6000\nloss = 0.371041\n\n------------- link prediction --------------\nAUC: 0.899933\n\n----------- node classification ------------\nmacro-F1@20%: 0.242114\nmicro-F1@20%: 0.391342\n```\n\nBaseline Benchmark\n------------------\n\nTo reproduce a baseline benchmark, you only need to specify the keywords of the\nexperiment. e.g. model and dataset.\n\n```bash\ngraphvite baseline [keyword ...] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\nYou may also set the number of GPUs and the number of CPUs per GPU.\n\nUse ``graphvite list`` to get a list of available baselines.\n\nCustom Experiment\n-----------------\n\nCreate a yaml configuration scaffold for graph, knowledge graph, visualization or\nword graph.\n\n```bash\ngraphvite new [application ...] [--file f]\n```\n\nFill some necessary entries in the configuration following the instructions. You\ncan run the configuration by\n\n```bash\ngraphvite run [config] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\nHigh-dimensional Data Visualization\n-----------------------------------\n\nYou can visualize your high-dimensional vectors with a simple command line in\nGraphVite.\n\n```bash\ngraphvite visualize [file] [--label label_file] [--save save_file] [--perplexity n] [--3d]\n```\n\nThe file can be either a numpy dump `*.npy` or a text matrix `*.txt`. For the save\nfile, we recommend to use `png` format, while `pdf` is also supported.\n\nContributing\n------------\n\nWe welcome all contributions from bug fixs to new features. Please let us know if you\nhave any suggestion to our library.\n\nDevelopment Team\n----------------\n\nGraphVite is developed by [MilaGraph], led by Prof. [Jian Tang].\n\nAuthors of this project are [Zhaocheng Zhu], [Shizhen Xu], [Meng Qu] and [Jian Tang].\nContributors include [Kunpeng Wang] and [Zhijian Duan].\n\n[MilaGraph]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\n[Zhaocheng Zhu]: https:\u002F\u002Fkiddozhu.github.io\n[Shizhen Xu]: https:\u002F\u002Fgithub.com\u002Fxsz\n[Meng Qu]: https:\u002F\u002Fmnqu.github.io\n[Jian Tang]: https:\u002F\u002Fjian-tang.com\n[Kunpeng Wang]: https:\u002F\u002Fgithub.com\u002FKwinpeng\n[Zhijian Duan]: https:\u002F\u002Fgithub.com\u002Fzjduan\n\nCitation\n--------\n\nIf you find GraphVite useful for your research or development, please cite the\nfollowing [paper].\n\n[paper]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.00757.pdf\n\n```\n@inproceedings{zhu2019graphvite,\n    title={GraphVite: A High-Performance CPU-GPU Hybrid System for Node Embedding},\n     author={Zhu, Zhaocheng and Xu, Shizhen and Qu, Meng and Tang, Jian},\n     booktitle={The World Wide Web Conference},\n     pages={2494--2504},\n     year={2019},\n     organization={ACM}\n }\n```\n\nAcknowledgements\n----------------\n\nWe would like to thank Compute Canada for supporting GPU servers. We specially thank\nWenbin Hou for useful discussions on C++ and GPU programming techniques.\n","![GraphVite logo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_4cc99bee5419.png)\n\nGraphVite - 高速、大规模的图嵌入\n=========================================================\n\n[![使用 conda 安装](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Fversion.svg)][conda]\n[![许可证](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Flicense.svg)][license]\n[![下载量](https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\u002Fbadges\u002Fdownloads.svg)][conda]\n\n[conda]: https:\u002F\u002Fanaconda.org\u002Fmilagraph\u002Fgraphvite\n[license]: LICENSE\n\n[文档] | [教程] | [基准测试] | [预训练模型]\n\n[文档]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fapi\u002Fapplication\n[Tutorials]: https:\u002F\u002Fgraphvite.io\u002Ftutorials\n[Benchmarks]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fbenchmark\n[Pre-trained Models]: https:\u002F\u002Fgraphvite.io\u002Fdocs\u002Flatest\u002Fpretrained_model\n\nGraphVite 是一款通用的图嵌入引擎，致力于在各类应用中实现高速、大规模的嵌入学习。\n\nGraphVite 为三种应用场景提供了完整的训练与评估流程：**节点嵌入**、**知识图谱嵌入**以及**图与高维数据可视化**。此外，它还包含9种流行的模型，并在多个标准数据集上提供了相应的基准测试结果。\n\n\u003Ctable align=\"center\" style=\"text-align:center\">\n    \u003Ctr>\n        \u003Cth>节点嵌入\u003C\u002Fth>\n        \u003Cth>知识图谱嵌入\u003C\u002Fth>\n        \u003Cth>图与高维数据可视化\u003C\u002Fth>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_134b994d2a94.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_d0a5d9d28ab9.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n        \u003Ctd>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_readme_6427e8ca5020.png\" height=\"240\" \u002F>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n以下是 GraphVite 在三种应用场景下与最佳开源实现的训练时间对比。所有时间均基于配备24个CPU线程和4块V100 GPU的服务器得出。\n\n在 [Youtube] 数据集上进行节点嵌入的训练时间。\n\n| 模型      | 现有实现       | GraphVite | 加速倍数 |\n|------------|-------------------------------|-----------|---------|\n| [DeepWalk] | [1.64 小时 (CPU 并行)][1]  | 1.19 分钟 | 82.9x   |\n| [LINE]     | [1.39 小时 (CPU 并行)][2]  | 1.17 分钟 | 71.4x   |\n| [node2vec] | [24.4 小时 (CPU 并行)][3]  | 4.39 分钟 | 334x    |\n\n[Youtube]: http:\u002F\u002Fconferences.sigcomm.org\u002Fimc\u002F2007\u002Fpapers\u002Fimc170.pdf\n[DeepWalk]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1403.6652.pdf\n[LINE]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1503.03578.pdf\n[node2vec]: https:\u002F\u002Fwww.kdd.org\u002Fkdd2016\u002Fpapers\u002Ffiles\u002Frfp0218-groverA.pdf\n[1]: https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\n[2]: https:\u002F\u002Fgithub.com\u002Ftangjianpku\u002FLINE\n[3]: https:\u002F\u002Fgithub.com\u002Faditya-grover\u002Fnode2vec\n\n在 [FB15k] 数据集上进行知识图谱嵌入的训练\u002F评估时间。\n\n| 模型           | 现有实现           | GraphVite          | 加速倍数       |\n|-----------------|-----------------------------------|--------------------|---------------|\n| [TransE]        | [1.31 小时 \u002F 1.75 分钟 (1 GPU)][3] | 13.5 分钟 \u002F 54.3 秒 | 5.82x \u002F 1.93x |\n| [RotatE]        | [3.69 小时 \u002F 4.19 分钟 (1 GPU)][4] | 28.1 分钟 \u002F 55.8 秒 | 7.88x \u002F 4.50x |\n\n[FB15k]: http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5071-translating-embeddings-for-modeling-multi-relational-data.pdf\n[TransE]: http:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F5071-translating-embeddings-for-modeling-multi-relational-data.pdf\n[RotatE]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1902.10197.pdf\n[3]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002FKnowledgeGraphEmbedding\n[4]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002FKnowledgeGraphEmbedding\n\n在 [MNIST] 数据集上进行高维数据可视化的训练时间。\n\n| 模型        | 现有实现       | GraphVite | 加速倍数 |\n|--------------|-------------------------------|-----------|---------|\n| [LargeVis]   | [15.3 分钟 (CPU 并行)][5] | 13.9 秒    | 66.8x   |\n\n[MNIST]: http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fpublis\u002Fpdf\u002Flecun-01a.pdf\n[LargeVis]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.00370.pdf\n[5]: https:\u002F\u002Fgithub.com\u002Flferry007\u002FLargeVis\n\n要求\n------------\n\n通常情况下，GraphVite 可以在任何支持 CUDA >= 9.2 的 Linux 发行版上运行。\n\n该库兼容 Python 2.7 和 3.6\u002F3.7。\n\n安装\n------------\n\n### 通过 Conda ###\n\n```bash\nconda install -c milagraph -c conda-forge graphvite cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\n如果您只需要嵌入训练而无需评估，可以使用以下依赖较少的替代方案。\n\n```bash\nconda install -c milagraph -c conda-forge graphvite-mini cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\n### 从源码安装 ###\n\n在安装之前，请确保已安装 `conda`。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\ncd graphvite\nconda install -y --file conda\u002Frequirements.txt\nmkdir build\ncd build && cmake .. && make && cd -\ncd python && python setup.py install && cd -\n```\n\n### 在 Colab 上 ###\n\n```bash\n!wget -c https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-latest-Linux-x86_64.sh\n!chmod +x Miniconda3-latest-Linux-x86_64.sh\n!.\u002FMiniconda3-latest-Linux-x86_64.sh -b -p \u002Fusr\u002Flocal -f\n\n!conda install -y -c milagraph -c conda-forge graphvite \\\n    python=3.6 cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+\\.\\d+\")\n!conda install -y wurlitzer ipykernel\n```\n\n```python\nimport site\nsite.addsitedir(\"\u002Fusr\u002Flocal\u002Flib\u002Fpython3.6\u002Fsite-packages\")\n%reload_ext wurlitzer\n```\n\n快速入门\n--------\n\n以下是节点嵌入应用的快速入门示例。\n\n```bash\ngraphvite baseline quick start\n```\n\n通常，这个示例不会超过1分钟。您将得到类似如下的输出：\n\n```\n批次编号：6000\n损失 = 0.371041\n\n------------- 链接预测 --------------\nAUC：0.899933\n\n----------- 节点分类 ------------\n宏F1@20%：0.242114\n微F1@20%：0.391342\n```\n\n基准测试\n--------\n\n要复现一个基准测试，您只需指定实验的关键字，例如模型和数据集。\n\n```bash\ngraphvite baseline [关键字 ...] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\n您还可以设置 GPU 的数量以及每个 GPU 使用的 CPU 数量。\n\n使用 `graphvite list` 可以获取可用的基准列表。\n\n自定义实验\n-----------\n\n为图、知识图谱、可视化或词图创建 YAML 配置模板。\n\n```bash\ngraphvite new [应用 ...] [--file f]\n```\n\n按照说明填写配置中的必要条目。然后可以通过以下命令运行配置：\n\n```bash\ngraphvite run [配置] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\n高维数据可视化\n--------------\n\n您可以在 GraphVite 中使用简单的命令行来可视化您的高维向量。\n\n```bash\ngraphvite visualize [文件] [--label 标签文件] [--save 保存文件] [--perplexity n] [--3d]\n```\n\n文件可以是 NumPy 格式的 `*.npy` 文件，也可以是文本矩阵格式的 `*.txt` 文件。对于保存文件，我们建议使用 `png` 格式，同时 `pdf` 也支持。\n\n贡献\n----\n\n我们欢迎所有贡献，从修复 bug 到新增功能。如果您对我们的库有任何建议，请随时告知我们。\n\n开发团队\n--------\n\nGraphVite 由 [MilaGraph] 开发，由 [Jian Tang] 教授领导。\n\n本项目的作者包括 [Zhaocheng Zhu]、[Shizhen Xu]、[Meng Qu] 和 [Jian Tang]。贡献者还包括 [Kunpeng Wang] 和 [Zhijian Duan]。\n\n[MilaGraph]: https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\n[Zhaocheng Zhu]: https:\u002F\u002Fkiddozhu.github.io\n[Shizhen Xu]: https:\u002F\u002Fgithub.com\u002Fxsz\n[Meng Qu]: https:\u002F\u002Fmnqu.github.io\n[Jian Tang]: https:\u002F\u002Fjian-tang.com\n[Kunpeng Wang]: https:\u002F\u002Fgithub.com\u002FKwinpeng\n[Zhijian Duan]: https:\u002F\u002Fgithub.com\u002Fzjduan\n\n引用\n----\n\n如果您发现 GraphVite 对您的研究或开发有所帮助，请引用以下论文。\n\n[paper]: https:\u002F\u002Farxiv.org\u002Fpdf\u002F1903.00757.pdf\n\n```\n@inproceedings{zhu2019graphvite,\n    title={GraphVite: 一种用于节点嵌入的高性能 CPU-GPU 混合系统},\n     author={Zhu, Zhaocheng and Xu, Shizhen and Qu, Meng and Tang, Jian},\n     booktitle={The World Wide Web Conference},\n     pages={2494--2504},\n     year={2019},\n     organization={ACM}\n }\n```\n\n致谢\n----\n\n我们感谢 Compute Canada 对 GPU 服务器的支持。特别感谢 Wenbin Hou 在 C++ 和 GPU 编程技术方面的有益讨论。","# GraphVite 快速上手指南\n\nGraphVite 是一个通用图嵌入引擎，专为高速、大规模的场景设计，支持节点嵌入、知识图谱嵌入以及高维数据可视化三大核心应用。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：任意 Linux 发行版。\n*   **GPU 驱动**：必须安装 CUDA，版本需 >= 9.2。\n*   **Python 版本**：兼容 Python 2.7 或 3.6\u002F3.7。\n*   **包管理器**：推荐使用 `conda` 进行安装和管理。\n\n> **注意**：本工具依赖 GPU 加速，请确保服务器已正确配置 NVIDIA 显卡及驱动。\n\n## 安装步骤\n\n### 方式一：通过 Conda 安装（推荐）\n\n这是最简便的安装方式。运行以下命令即可自动检测当前 CUDA 版本并安装对应依赖：\n\n```bash\nconda install -c milagraph -c conda-forge graphvite cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\n如果您仅需进行嵌入训练而无需评估功能，可以选择安装精简版以减少依赖：\n\n```bash\nconda install -c milagraph -c conda-forge graphvite-mini cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+.\\d+\")\n```\n\n### 方式二：从源码编译安装\n\n如果您需要修改源码或使用特定配置，请按以下步骤操作：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\ncd graphvite\nconda install -y --file conda\u002Frequirements.txt\nmkdir build\ncd build && cmake .. && make && cd -\ncd python && python setup.py install && cd -\n```\n\n### 方式三：在 Google Colab 中使用\n\n若需在云端环境快速体验，可执行以下脚本：\n\n```bash\n!wget -c https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-latest-Linux-x86_64.sh\n!chmod +x Miniconda3-latest-Linux-x86_64.sh\n!.\u002FMiniconda3-latest-Linux-x86_64.sh -b -p \u002Fusr\u002Flocal -f\n\n!conda install -y -c milagraph -c conda-forge graphvite \\\n    python=3.6 cudatoolkit=$(nvcc -V | grep -Po \"(?\u003C=V)\\d+\\.\\d+\")\n!conda install -y wurlitzer ipykernel\n```\n\n并在 Notebook 单元格中运行：\n\n```python\nimport site\nsite.addsitedir(\"\u002Fusr\u002Flocal\u002Flib\u002Fpython3.6\u002Fsite-packages\")\n%reload_ext wurlitzer\n```\n\n## 基本使用\n\n### 1. 快速开始示例（节点嵌入）\n\n运行以下命令即可启动一个完整的节点嵌入训练与评估流程（基于默认数据集），通常耗时不超过 1 分钟：\n\n```bash\ngraphvite baseline quick start\n```\n\n运行成功后，您将看到类似以下的输出结果：\n\n```text\nBatch id: 6000\nloss = 0.371041\n\n------------- link prediction --------------\nAUC: 0.899933\n\n----------- node classification ------------\nmacro-F1@20%: 0.242114\nmicro-F1@20%: 0.391342\n```\n\n### 2. 复现基准测试\n\n您可以指定模型和数据集关键词来复现官方基准测试。例如：\n\n```bash\ngraphvite baseline [keyword ...] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\n*   `--gpu n`: 指定使用的 GPU 数量。\n*   `--cpu m`: 指定每个 GPU 搭配的 CPU 线程数。\n*   使用 `graphvite list` 可查看支持的基线实验列表。\n\n### 3. 自定义实验\n\n若要运行自定义配置，首先生成配置文件模板：\n\n```bash\ngraphvite new [application ...] [--file f]\n```\n\n支持的 application 包括：`graph` (节点嵌入), `knowledge_graph` (知识图谱), `visualization` (可视化), `word_graph` (词图)。\n\n编辑生成的 YAML 文件填入必要参数后，运行：\n\n```bash\ngraphvite run [config] [--no-eval] [--gpu n] [--cpu m] [--epoch e]\n```\n\n### 4. 高维数据可视化\n\nGraphVite 支持将高维向量直接可视化为 2D 或 3D 图像。支持输入 `.npy` (NumPy) 或 `.txt` (文本矩阵) 格式文件：\n\n```bash\ngraphvite visualize [file] [--label label_file] [--save save_file] [--perplexity n] [--3d]\n```\n\n*   `--save`: 推荐保存为 `png` 格式，也支持 `pdf`。\n*   `--3d`: 添加此参数可生成 3D 可视化结果。","某大型电商平台的推荐算法团队需要基于亿级用户 - 商品交互图构建实时推荐系统，以挖掘潜在的关联购买行为。\n\n### 没有 graphvite 时\n- **训练周期过长**：使用传统 CPU 并行方案训练 node2vec 模型处理海量数据需耗时数天，无法跟上每日增量数据的更新频率。\n- **资源成本高昂**：为了缩短等待时间，不得不集群化部署大量服务器，导致计算资源和电力成本急剧上升。\n- **实验迭代受阻**：算法工程师调整一次超参数就需要等待很久才能验证效果，严重拖慢了模型优化和上线节奏。\n- **可视化分析缺失**：面对高维嵌入数据，缺乏高效工具进行大规模可视化，难以直观发现异常节点或聚类特征。\n\n### 使用 graphvite 后\n- **秒级完成训练**：利用 GPU 加速特性，将原本需要数十小时的 node2vec 训练任务压缩至几分钟内完成，速度提升高达 300 倍以上。\n- **硬件利用率最大化**：单台配备 4 张 V100 GPU 的服务器即可轻松承载大规模图嵌入任务，显著降低了基础设施投入。\n- **敏捷开发成为现实**：算法团队可在一天内进行多次完整的“训练 - 评估”循环，快速验证新策略并推动模型迭代。\n- **洞察一目了然**：内置的高维数据可视化功能让团队能迅速生成清晰的图谱，辅助定位冷启动用户群和异常交易模式。\n\ngraphvite 通过极致的性能加速，将图嵌入从“离线批处理”转变为“近实时计算”，彻底释放了大规模图数据在工业界的应用价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepGraphLearning_graphvite_4cc99bee.png","DeepGraphLearning","MilaGraph","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDeepGraphLearning_0319a057.png","Research group led by Prof. Jian Tang at Mila-Quebec AI Institute (https:\u002F\u002Fmila.quebec\u002F) focusing on graph representation learning and graph neural networks.",null,"tangjianpku@gmail.com","https:\u002F\u002Fjian-tang.com\u002Fstudents\u002F","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning",[81,85,89,93,97],{"name":82,"color":83,"percentage":84},"C++","#f34b7d",40.6,{"name":86,"color":87,"percentage":88},"Cuda","#3A4E3A",29.1,{"name":90,"color":91,"percentage":92},"Python","#3572A5",26.8,{"name":94,"color":95,"percentage":96},"CMake","#DA3434",3.5,{"name":98,"color":99,"percentage":100},"Shell","#89e051",0,1269,156,"2026-04-12T19:55:59","Apache-2.0",4,"Linux","必需 NVIDIA GPU，支持 CUDA >= 9.2（基准测试使用 V100），显存大小未说明","未说明",{"notes":110,"python":111,"dependencies":115},"该工具专为大规模图嵌入设计，支持 CPU-GPU 混合加速。安装推荐使用 Conda，若仅需训练无需评估可安装 graphvite-mini 以减少依赖。在 Google Colab 上运行需预先安装 Miniconda 并配置环境路径。",[112,113,114],"2.7","3.6","3.7",[116,117,118],"conda","cmake","cudatoolkit",[14,16],[121,122,123,124,125,126,127],"machine-learning","network-embedding","knowledge-graph","data-visualization","representation-learning","cuda","gpu","2026-03-27T02:49:30.150509","2026-04-18T14:12:04.508626",[131,136,141,146,151,156],{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},40128,"从源码安装时遇到 'undefined symbol: _ZN3fLS13FLAGS_log_dirE' 错误怎么办？","该问题通常源于 PyTorch 或 FAISS 的安装配置，而非 GraphVite 本身直接依赖 OMP。建议尝试以下步骤：\n1. 安装 libomp-dev：`sudo apt-get install libomp-dev`\n2. 检查并重新安装 FAISS，确保 CUDA 版本匹配。例如对于 CUDA 10.2：`conda install -c pytorch faiss-gpu cudatoolkit=10.2`，或者尝试 `conda install -c conda-forge faiss-gpu`。\n3. 如果导入 FAISS 报错，请尝试降级 FAISS 版本（如 1.5.3）。\n4. 检查系统 CUDA 兼容性 (`nvidia-smi` 和 `nvcc -V`)，确保驱动与 toolkit 版本一致。","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\u002Fissues\u002F23",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},40129,"配置文件 (YAML) 的格式是什么？输出文件包含什么内容？","自 v0.2.0 版本起，README 中已添加配置文件的示例。关于标签文件 (label file) 的格式：它可以是包含 n 行字符串的文本文件 (*.txt)，也可以是一维 numpy 数组 (*.npy)。对于 LargeVis，标签文件即为长度为 n 的字符串或整数数组。","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\u002Fissues\u002F5",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},40130,"使用 conda 安装时遇到 'Solving environment: failed' 或依赖冲突错误如何解决？","这通常是因为 Conda 仓库中特定 CUDA 版本的包尚未更新或与当前环境不兼容。例如，早期版本可能只支持 CUDA 10.0，而用户系统是 10.1。解决方案包括：\n1. 等待官方发布支持新版 CUDA 的 GraphVite 版本（如 0.2.2 支持 CUDA 10.1）。\n2. 尝试手动指定较低的、受支持的 cudatoolkit 版本进行安装。\n3. 检查 anaconda.org 上可用的 `faiss-gpu` 文件列表，选择与您系统 CUDA 版本匹配的包。","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\u002Fissues\u002F47",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},40131,"在大规模图数据上运行 node2vec 时出现 'std::bad_alloc' 内存溢出错误怎么办？","Node2vec 的内存消耗随边数呈平方级增长（至少为 |E|^2\u002F|V|），在大规模图上极易导致内存不足。建议方案：\n1. 改用 DeepWalk 或 LINE 算法，它们对内存的需求随边数线性增长，默认超参数更稳健。\n2. 如果必须使用 Node2vec，除非对 `p` 和 `q` 参数进行 exhaustive search，否则性能提升有限。\n3. 调整参数：将 `positive_reuse` 设置为 10 可以显著提高速度并降低资源消耗，虽然可能轻微影响性能，但类似于原始 DeepWalk 的做法。","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\u002Fissues\u002F19",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},40132,"运行快速开始示例时 Loss 始终为 0 且 Macro-F1 分数极低，如何获得预期结果？","如果在 K40 等较旧 GPU 上运行基线示例出现 Loss 为 0 且分数极低的情况，通常需要调整超参数。虽然具体调优取决于数据集，但可以尝试以下方向：\n1. 检查学习率 (learning rate) 和权重衰减 (weight decay) 是否适合当前硬件和数据规模。\n2. 确认随机游走长度 (random walk length) 和负采样数量 (#negative) 设置合理。\n3. 注意：不同硬件架构可能导致默认参数表现不佳，需根据实际输出日志微调 `episode_size` 或 `batch_size`。","https:\u002F\u002Fgithub.com\u002FDeepGraphLearning\u002Fgraphvite\u002Fissues\u002F10",{"id":157,"question_zh":158,"answer_zh":159,"source_url":140},40133,"LargeVis 的标签文件格式具体是什么样的？","LargeVis 的标签文件可以是一个简单的数组，包含 n 个元素。格式支持两种：\n1. 文本文件 (*.txt)：每行一个字符串。\n2. Numpy 文件 (*.npy)：一维数组，元素类型为字符串或整数。",[]]