[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-phanein--deepwalk":3,"tool-phanein--deepwalk":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85052,2,"2026-04-08T11:03:08",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75257,"2026-04-09T23:07:38",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":108,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":22,"created_at":109,"updated_at":110,"faqs":111,"releases":146},6029,"phanein\u002Fdeepwalk","deepwalk","DeepWalk - Deep Learning for Graphs","DeepWalk 是一款专为图结构数据设计的开源深度学习工具，旨在将复杂的网络节点转化为计算机易于理解的数值向量。在传统机器学习难以直接处理非欧几里得空间的图数据时，DeepWalk 巧妙地解决了这一难题：它通过模拟图中的“随机游走”生成节点序列，并借用自然语言处理中 Word2Vec 的思想，将这些序列视为句子来学习节点的隐含特征表示。\n\n其核心技术亮点在于将图遍历问题转化为语言模型任务，无需复杂的图论先验知识，即可高效捕捉节点间的局部与全局结构信息。生成的嵌入向量可直接应用于节点分类、链接预测及社区发现等下游任务，且在 BlogCatalog 等基准数据集上展现了优异的准确性。\n\nDeepWalk 主要面向人工智能研究人员、数据科学家及后端开发者。如果你正在处理社交网络分析、推荐系统构建或生物信息网络挖掘等工作，需要一种轻量级且高效的方案来提取图特征，DeepWalk 将是理想的选择。它支持多种输入格式（如邻接表、边列表），安装简便，依赖清晰，非常适合希望快速验证图算法效果或深入探索图表示学习领域的技术用户。","===============================\nDeepWalk\n===============================\n\nDeepWalk uses short random walks to learn representations for vertices in graphs.\n\nUsage\n-----\n\n**Example Usage**\n    ``$deepwalk --input example_graphs\u002Fkarate.adjlist --output karate.embeddings``\n\n**--input**:  *input_filename*\n\n    1. ``--format adjlist`` for an adjacency list, e.g::\n\n        1 2 3 4 5 6 7 8 9 11 12 13 14 18 20 22 32\n        2 1 3 4 8 14 18 20 22 31\n        3 1 2 4 8 9 10 14 28 29 33\n        ...\n    \n    2. ``--format edgelist`` for an edge list, e.g::\n    \n        1 2\n        1 3\n        1 4\n        ...\n    \n    3. ``--format mat`` for a Matlab .mat file containing an adjacency matrix\n        (note, you must also specify the variable name of the adjacency matrix ``--matfile-variable-name``)\n\n**--output**: *output_filename*\n\n    The output representations in skipgram format - first line is header, all other lines are node-id and *d* dimensional representation::\n\n        34 64\n        1 0.016579 -0.033659 0.342167 -0.046998 ...\n        2 -0.007003 0.265891 -0.351422 0.043923 ...\n        ...\n\n**Full Command List**\n    The full list of command line options is available with ``$deepwalk --help``\n\nEvaluation\n----------\nHere, we will show how to evaluate DeepWalk on the *BlogCatalog* dataset used in the DeepWalk paper.\nFirst, we run the following command to produce its DeepWalk embeddings::\n\n    deepwalk --format mat --input example_graphs\u002Fblogcatalog.mat\n    --max-memory-data-size 0 --number-walks 80 --representation-size 128 --walk-length 40 --window-size 10\n    --workers 1 --output example_graphs\u002Fblogcatalog.embeddings\n\nThe parameters specified here are the same as in the paper.\nIf you are using a multi-core machine, try to set ``--workers`` to a larger number for faster training.\nOn a single machine with 24 Xeon E5-2620 @ 2.00GHz CPUs, this command takes about 20 minutes to finish (``--workers`` is set to 20).\nThen, we evaluate the learned embeddings on a multi-label node classification task with ``example_graphs\u002Fscoring.py``::\n\n    python example_graphs\u002Fscoring.py --emb example_graphs\u002Fblogcatalog.embeddings\n    --network example_graphs\u002Fblogcatalog.mat\n    --num-shuffle 10 --all\n\nThis command finishes in 8 minutes on the same machine. For faster evaluation, you can set ``--num-shuffle`` to a smaller number, but expect more fluctuation in performance. The micro F1 and macro F1 scores we get with different ratio of labeled nodes are as follows:\n\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n| % Labeled Nodes | 10%   | 20%   | 30%   | 40%   | 50%   | 60%   | 70%   | 80%   | 90%   |\n+=================+=======+=======+=======+=======+=======+=======+=======+=======+=======+\n| *Micro-F1 (%)*  | 35.86 | 38.51 | 39.96 | 40.76 | 41.51 | 41.85 | 42.27 | 42.35 | 42.40 |\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n| *Macro-F1 (%)*  | 21.08 | 23.98 | 25.71 | 26.73 | 27.68 | 28.28 | 28.88 | 28.70 | 28.21 |\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n\n**Note that the current version of DeepWalk is based on a newer version of gensim, which may have a different implementation of the word2vec model. To completely reproduce the results in our paper, you will probably have to install an older version of gensim(version 0.10.2).**\n\nRequirements\n------------\n* numpy\n* scipy\n\n(may have to be independently installed) \nor `pip install -r requirements.txt` to install all dependencies\n\n\nInstallation\n------------\n1. `cd deepwalk`\n2. `pip install -r requirements.txt`\n3. `python setup.py install`\n\n\nCiting\n------\nIf you find DeepWalk useful in your research, we ask that you cite the following paper::\n\n    @inproceedings{Perozzi:2014:DOL:2623330.2623732,\n     author = {Perozzi, Bryan and Al-Rfou, Rami and Skiena, Steven},\n     title = {DeepWalk: Online Learning of Social Representations},\n     booktitle = {Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining},\n     series = {KDD '14},\n     year = {2014},\n     isbn = {978-1-4503-2956-9},\n     location = {New York, New York, USA},\n     pages = {701--710},\n     numpages = {10},\n     url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F2623330.2623732},\n     doi = {10.1145\u002F2623330.2623732},\n     acmid = {2623732},\n     publisher = {ACM},\n     address = {New York, NY, USA},\n     keywords = {deep learning, latent representations, learning with partial labels, network classification, online learning, social networks},\n    } \n\nMisc\n----\n\nDeepWalk - Online learning of social representations.\n\n* Free software: GPLv3 license\n\n.. image:: https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdeepwalk.png\n    :target: http:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdeepwalk\n\n.. image:: https:\u002F\u002Ftravis-ci.org\u002Fphanein\u002Fdeepwalk.png?branch=master\n        :target: https:\u002F\u002Ftravis-ci.org\u002Fphanein\u002Fdeepwalk\n\n.. image:: https:\u002F\u002Fpypip.in\u002Fd\u002Fdeepwalk\u002Fbadge.png\n        :target: https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fdeepwalk\n","===============================\nDeepWalk\n===============================\n\nDeepWalk 使用短随机游走来学习图中顶点的表示。\n\n用法\n-----\n\n**示例用法**\n    ``$deepwalk --input example_graphs\u002Fkarate.adjlist --output karate.embeddings``\n\n**--input**:  *输入文件名*\n\n    1. ``--format adjlist`` 表示邻接表格式，例如：\n\n        1 2 3 4 5 6 7 8 9 11 12 13 14 18 20 22 32\n        2 1 3 4 8 14 18 20 22 31\n        3 1 2 4 8 9 10 14 28 29 33\n        ...\n    \n    2. ``--format edgelist`` 表示边列表格式，例如：\n    \n        1 2\n        1 3\n        1 4\n        ...\n    \n    3. ``--format mat`` 表示包含邻接矩阵的 Matlab .mat 文件\n        （注意，您还需要指定邻接矩阵的变量名 ``--matfile-variable-name``）\n\n**--output**: *输出文件名*\n\n    输出的表示采用 skipgram 格式——第一行为头信息，其余行分别为节点 ID 和 *d* 维表示：\n\n        34 64\n        1 0.016579 -0.033659 0.342167 -0.046998 ...\n        2 -0.007003 0.265891 -0.351422 0.043923 ...\n        ...\n\n**完整命令列表**\n    完整的命令行选项列表可通过 ``$deepwalk --help`` 查看。\n\n评估\n----------\n在这里，我们将展示如何在 DeepWalk 论文所使用的 *BlogCatalog* 数据集上评估 DeepWalk。\n首先，我们运行以下命令以生成其 DeepWalk 嵌入：\n\n    deepwalk --format mat --input example_graphs\u002Fblogcatalog.mat\n    --max-memory-data-size 0 --number-walks 80 --representation-size 128 --walk-length 40 --window-size 10\n    --workers 1 --output example_graphs\u002Fblogcatalog.embeddings\n\n此处指定的参数与论文中的相同。\n如果您使用的是多核机器，请尝试将 ``--workers`` 设置为更大的值，以加快训练速度。\n在一台配备 24 个 Xeon E5-2620 @ 2.00GHz CPU 的单机上，此命令大约需要 20 分钟才能完成（``--workers`` 设置为 20）。\n然后，我们使用 ``example_graphs\u002Fscoring.py`` 对学到的嵌入进行多标签节点分类任务的评估：\n\n    python example_graphs\u002Fscoring.py --emb example_graphs\u002Fblogcatalog.embeddings\n    --network example_graphs\u002Fblogcatalog.mat\n    --num-shuffle 10 --all\n\n该命令在同一台机器上运行约需 8 分钟。为了加快评估速度，您可以将 ``--num-shuffle`` 设置为较小的值，但性能可能会有所波动。不同比例的标注节点下，我们得到的微平均 F1 和宏平均 F1 分数如下：\n\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n| 标注节点比例 | 10%   | 20%   | 30%   | 40%   | 50%   | 60%   | 70%   | 80%   | 90%   |\n+=================+=======+=======+=======+=======+=======+=======+=======+=======+=======+\n| *微平均 F1 (%)*  | 35.86 | 38.51 | 39.96 | 40.76 | 41.51 | 41.85 | 42.27 | 42.35 | 42.40 |\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n| *宏平均 F1 (%)*  | 21.08 | 23.98 | 25.71 | 26.73 | 27.68 | 28.28 | 28.88 | 28.70 | 28.21 |\n+-----------------+-------+-------+-------+-------+-------+-------+-------+-------+-------+\n\n**请注意，当前版本的 DeepWalk 基于较新版本的 gensim，其 word2vec 模型的实现可能有所不同。若要完全复现我们论文中的结果，您可能需要安装旧版本的 gensim（版本 0.10.2）。**\n\n要求\n------------\n* numpy\n* scipy\n\n（可能需要单独安装）\n或使用 `pip install -r requirements.txt` 来安装所有依赖项\n\n\n安装\n------------\n1. `cd deepwalk`\n2. `pip install -r requirements.txt`\n3. `python setup.py install`\n\n\n引用\n------\n如果您在研究中发现 DeepWalk 很有用，我们恳请您引用以下论文：\n\n    @inproceedings{Perozzi:2014:DOL:2623330.2623732,\n     author = {Perozzi, Bryan and Al-Rfou, Rami and Skiena, Steven},\n     title = {DeepWalk: Online Learning of Social Representations},\n     booktitle = {Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining},\n     series = {KDD '14},\n     year = {2014},\n     isbn = {978-1-4503-2956-9},\n     location = {New York, New York, USA},\n     pages = {701--710},\n     numpages = {10},\n     url = {http:\u002F\u002Fdoi.acm.org\u002F10.1145\u002F2623330.2623732},\n     doi = {10.1145\u002F2623330.2623732},\n     acmid = {2623732},\n     publisher = {ACM},\n     address = {New York, NY, USA},\n     keywords = {深度学习, 隐式表示, 带部分标签的学习, 网络分类, 在线学习, 社交网络},\n    } \n\n杂项\n----\n\nDeepWalk - 社会表示的在线学习。\n\n* 自由软件：GPLv3 许可证\n\n.. image:: https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdeepwalk.png\n    :target: http:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fdeepwalk\n\n.. image:: https:\u002F\u002Ftravis-ci.org\u002Fphanein\u002Fdeepwalk.png?branch=master\n        :target: https:\u002F\u002Ftravis-ci.org\u002Fphanein\u002Fdeepwalk\n\n.. image:: https:\u002F\u002Fpypip.in\u002Fd\u002Fdeepwalk\u002Fbadge.png\n        :target: https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fdeepwalk","# DeepWalk 快速上手指南\n\nDeepWalk 是一种利用短随机游走（short random walks）学习图中节点表示（嵌入）的算法。本指南将帮助你快速在本地环境中部署并使用该工具。\n\n## 环境准备\n\n在开始之前，请确保你的系统已安装 Python 环境。DeepWalk 依赖以下核心库：\n*   `numpy`\n*   `scipy`\n*   `gensim` (通过 requirements.txt 自动安装)\n\n**国内加速建议**：\n为了提高依赖包的安装速度，建议使用国内镜像源（如清华源或阿里源）。\n\n## 安装步骤\n\n1.  **克隆或进入项目目录**\n    ```bash\n    cd deepwalk\n    ```\n\n2.  **安装依赖**\n    推荐使用国内镜像源安装依赖包：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **安装 DeepWalk**\n    ```bash\n    python setup.py install\n    ```\n\n## 基本使用\n\n安装完成后，你可以直接使用 `deepwalk` 命令。以下是最简单的使用示例，将邻接表格式的图片数据转换为节点嵌入向量。\n\n**命令示例**：\n```bash\ndeepwalk --input example_graphs\u002Fkarate.adjlist --output karate.embeddings\n```\n\n**参数说明**：\n*   `--input`: 输入文件路径。支持多种格式，需配合 `--format` 参数使用：\n    *   `adjlist`: 邻接表格式（默认）。\n    *   `edgelist`: 边列表格式。\n    *   `mat`: Matlab `.mat` 文件（需额外指定 `--matfile-variable-name`）。\n*   `--output`: 输出文件路径。生成的文件格式为 Skipgram 格式，第一行为头信息（节点数与维度），后续每行包含节点 ID 及其对应的 $d$ 维向量表示。\n\n**查看完整帮助**：\n如需了解更多高级参数（如游走长度、窗口大小、线程数等），可运行：\n```bash\ndeepwalk --help\n```","某电商平台的推荐算法团队正试图从海量的用户 - 商品交互日志中挖掘潜在的社群结构，以优化“猜你喜欢”的冷启动策略。\n\n### 没有 deepwalk 时\n- **特征工程繁琐**：工程师需手动设计基于度数、聚类系数等统计指标，难以捕捉图中复杂的非线性关系。\n- **稀疏数据失效**：对于交互记录少的新用户或冷门商品，传统矩阵分解方法因数据过于稀疏而无法生成有效向量。\n- **计算扩展性差**：面对亿级节点的关系网，传统的谱聚类算法内存占用极高，训练过程耗时数天且难以并行加速。\n- **语义信息丢失**：仅依赖直接连接判断相似度，忽略了“朋友的朋友也是朋友”这类高阶拓扑结构信息。\n\n### 使用 deepwalk 后\n- **自动化表征学习**：deepwalk 通过模拟随机游走将图结构转化为序列，利用 Skip-gram 模型自动输出低维稠密向量，无需人工设计特征。\n- **冷启动突破**：即使只有少量交互边，deepwalk 也能通过游走路径捕捉局部结构，为新节点生成高质量的嵌入表示。\n- **高效分布式训练**：支持多核并行（`--workers` 参数），在普通服务器上即可在数十分钟内完成大规模图的训练，效率提升显著。\n- **高阶关系捕获**：生成的向量天然保留了图中的社区属性，使得结构相似但未直接相连的商品能被精准关联。\n\ndeepwalk 的核心价值在于将复杂的图结构数据转化为机器学习友好的稠密向量，让非欧几里得数据的深度挖掘变得简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fphanein_deepwalk_d4292215.png","phanein","Bryan Perozzi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fphanein_29aecd9f.png",null,"http:\u002F\u002Fwww.perozzi.net","https:\u002F\u002Fgithub.com\u002Fphanein",[83,87,91],{"name":84,"color":85,"percentage":86},"Python","#3572A5",92.4,{"name":88,"color":89,"percentage":90},"Makefile","#427819",4.8,{"name":92,"color":93,"percentage":94},"TeX","#3D6117",2.8,2753,814,"2026-04-07T13:02:01","NOASSERTION","未说明","不需要 GPU，基于 CPU 运行","未说明（示例中提及 --max-memory-data-size 参数，暗示内存取决于数据规模）",{"notes":103,"python":99,"dependencies":104},"该工具主要通过随机游走学习图节点表示。若需完全复现论文中的实验结果，可能需要安装旧版 gensim (0.10.2)。在多核机器上训练时，建议增大 --workers 参数以加速。输入支持邻接表、边列表或 Matlab .mat 格式。",[105,106,107],"numpy","scipy","gensim (注意：复现论文结果需版本 0.10.2，当前版本依赖较新的 gensim)",[18],"2026-03-27T02:49:30.150509","2026-04-10T07:44:34.364177",[112,117,122,127,132,137,142],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},27305,"为什么会出现 'Cython compilation failed' 警告，即使我已经安装了 Cython？","这通常是因为环境配置问题。不过维护者指出，随机游走（random walk）部分已经更新，不再需要手动修改 gensim 的 word2vec 文件。如果仍然遇到性能慢的问题，请确保使用的是最新版本的代码库。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F15",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},27306,"运行时报错 'AttributeError: NoneType object has no attribute nodes' 如何解决？","这个问题在 Windows 系统或 Python 3.6+ 环境下较为常见。解决方案有两个：1. 尝试将 Python 版本降级到 2.7；2. 升级 `future` 包到最新版本。如果是在 Windows 上，还需确保主代码被包裹在 `if __name__ == '__main__':` 块中，以防止多进程递归导入导致图形对象重置为 None。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F53",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},27307,"遇到内存限制错误 'Data size ... is larger than limit' 怎么办？","这是因为生成的游走数据量超过了默认内存限制，导致程序试图将数据转储到磁盘从而引发错误（特别是涉及 futures 包时）。解决方法是在运行命令中添加参数 `--max-memory-data-size`，并将其设置为一个大于日志中显示的数据大小的值（例如：`--max-memory-data-size 90000000`），这样 DeepWalk 就会将游走数据保留在内存中。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F61",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},27308,"在 Windows 上运行 DeepWalk 时程序无反应或被杀死（killed）是什么原因？","DeepWalk 的代码最初并非专为 Windows 设计。在 Windows 上使用多进程时，子进程会在启动时重新导入主模块。必须在代码中将执行逻辑包裹在 `if __name__ == '__main__':` 块中，以避免递归创建子进程。此外，对于大文件运行被杀死的情况，通常是由于内存不足，建议参考内存限制问题的解决方案调整 `--max-memory-data-size` 参数。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F37",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},27309,"输入的邻接表文件（adjacency list）格式应该是什么样的？","当使用 `--format adjlist` 参数时，输入文件的每一行代表一个节点及其邻居。每行的第一个值必须是源节点（source node），随后的值是与该源节点相连的其他节点。如果文件格式不符合此规范（例如第一列不是源节点），会导致加载错误或无法生成正确的游走。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F31",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},27310,"如何对只有特征数据（如 MNIST 数据集）而没有显式图结构的数据应用 DeepWalk？","DeepWalk 需要图结构作为输入。对于只有特征矩阵的数据，可以先构建一个 K 近邻（KNN）图：将每个样本视为节点，如果两个样本之间的“距离”小于某个阈值，则在它们之间建立边。构建好边列表后，即可将其作为标准的图输入传递给 DeepWalk 进行训练。","https:\u002F\u002Fgithub.com\u002Fphanein\u002Fdeepwalk\u002Fissues\u002F102",{"id":143,"question_zh":144,"answer_zh":145,"source_url":136},27311,"生成的游走没有覆盖所有节点，缺失节点的嵌入向量是如何学习的？","虽然单次随机游走可能不会覆盖所有节点，但 DeepWalk 通过生成大量的游走路径（由 `num_paths` 参数控制）来确保统计上的覆盖率。只要游走数量足够多，所有节点最终都会出现在语料库中。输出结果包含所有节点是因为模型初始化时为所有节点创建了向量，并在训练过程中仅更新那些出现在游走中的节点向量；如果某些节点确实从未出现，它们的向量将保持初始随机状态，因此确保参数设置能覆盖全图很重要。",[147],{"id":148,"version":149,"summary_zh":150,"released_at":151},180460,"v1.0.2","将 gensim 固定为 0.10.2 版本\n","2014-11-19T19:20:33"]