[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-stair-lab--kg-gen":3,"tool-stair-lab--kg-gen":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":104,"forks":105,"last_commit_at":106,"license":76,"difficulty_score":32,"env_os":107,"env_gpu":108,"env_ram":108,"env_deps":109,"category_tags":114,"github_topics":116,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":153},5812,"stair-lab\u002Fkg-gen","kg-gen","[NeurIPS '25] Knowledge Graph Generation from Any Text","kg-gen 是一款基于大语言模型的开源工具，旨在将任意纯文本自动转化为结构化的知识图谱。无论是简短的对话记录还是长篇的技术文档，它都能精准提取其中的实体（如人物、概念）及其相互关系，生成清晰的图结构数据。\n\n这一工具主要解决了非结构化文本难以被机器直接理解和利用的痛点。通过构建知识图谱，用户可以显著提升检索增强生成（RAG）系统的准确性，为模型训练合成高质量的图谱数据，或深入分析文本中复杂的概念关联。\n\nkg-gen 特别适合开发者、AI 研究人员及数据工程师使用。其核心亮点在于极高的灵活性与兼容性：依托 LiteLLM 框架，它支持自由切换 OpenAI、Ollama、Anthropic、Gemini 等多种主流模型提供商，既可使用云端 API，也能部署本地模型；同时结合 DSPy 技术，确保了输出格式的规范与稳定。此外，工具内置了分块聚类策略以处理超长文本，并提供直观的图谱可视化功能，让用户能轻松查看和验证生成结果。只需几行代码，即可将杂乱的文本信息转化为有序的知识网络。","# kg-gen: Knowledge Graph Generation from Any Text\n\n📄 [**Paper**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956) | 🐍 [**Package**](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkg-gen\u002F) | 🤖 [**MCP**](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fmcp\u002F) | 🔬 [**Experiments**](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fexperiments\u002F) | 👩🏻‍💻 [**Dataset**](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fbelindamo\u002Fwiki_qa_kggen) | 🐦 [**X Updates**](https:\u002F\u002Fx.com\u002Fbelindmo)\n\nWelcome! `kg-gen` helps you extract knowledge graphs from any plain text using AI. It can process both small and large text inputs, and it can also handle messages in a conversation format.\n\nWhy generate knowledge graphs? `kg-gen` is great if you want to:\n- Create a graph to assist with RAG (Retrieval-Augmented Generation)\n- Create graph synthetic data for model training and testing\n- Structure any text into a graph \n- Analyze the relationships between concepts in your source text\n\nWe support API-based and local model providers via [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders), including OpenAI, Ollama, Anthropic, Gemini, Deepseek, and others. We also use [DSPy](https:\u002F\u002Fdspy.ai\u002F) for structured output generation.\n\n- Try it out by running the scripts in [`tests\u002F`](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Ftests).\n- Instructions to run our KG benchmark MINE are in [`MINE\u002F`](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fexperiments\u002FMINE).\n- Read the paper: [KGGen: Extracting Knowledge Graphs from Plain Text with Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956)\n\n## Powered by a model of your choice\n\nPass in a `model` string to use a model of your choice. Model calls are routed via LiteLLM, and usually LiteLLM goes by the format of `{model_provider}\u002F{model_name}`. See specifically how to format it at [https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders).\n\nExamples of models you can pass in:\n- `openai\u002Fgpt-5`\n- `gemini\u002Fgemini-2.5-flash`\n- `ollama_chat\u002Fdeepseek-r1:14b`\n\nYou may specify a custom API base url with `base_url` ([example here](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Ftests\u002Ftest_custom_api_base.py)).\n\n## Quick start\n\nInstall the module:\n```bash\npip install kg-gen\n```\n\nThen import and use `kg-gen`. You can provide your text input in one of two formats:\n1. A single string  \n2. A list of Message objects (each with a role and content)\n\nBelow are some example snippets:\n```python\nfrom kg_gen import KGGen\n\n# Initialize KGGen with optional configuration\nkg = KGGen(\n  model=\"openai\u002Fgpt-4o\",  # Default model\n  temperature=0.0,        # Default temperature\n  api_key=\"YOUR_API_KEY\"  # Optional if set in environment or using a local model\n)\n\n# EXAMPLE 1: Single string with context\ntext_input = \"Linda is Josh's mother. Ben is Josh's brother. Andrew is Josh's father.\"\ngraph_1 = kg.generate(\n  input_data=text_input,\n  context=\"Family relationships\"\n)\n# Output: \n# entities={'Linda', 'Ben', 'Andrew', 'Josh'} \n# edges={'is brother of', 'is father of', 'is mother of'} \n# relations={('Ben', 'is brother of', 'Josh'), \n#           ('Andrew', 'is father of', 'Josh'), \n#           ('Linda', 'is mother of', 'Josh')}\n```\n\n### Visualizing KGs\n```python\nKGGen.visualize(graph, output_path, open_in_browser=True)\n```\n\n![viz-tool](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstair-lab_kg-gen_readme_a4e93fbaa649.png)\n\n### More Examples - chunking, clustering, passing in a messages array \n\n```python\n# EXAMPLE 2: Large text with chunking and clustering\nwith open('large_text.txt', 'r') as f:\n  large_text = f.read()\n  \n# Example input text:\n# \"\"\"\n# Neural networks are a type of machine learning model. Deep learning is a subset of machine learning\n# that uses multiple layers of neural networks. Supervised learning requires training data to learn\n# patterns. Machine learning is a type of AI technology that enables computers to learn from data.\n# AI, also known as artificial intelligence, is related to the broader field of artificial intelligence.\n# Neural nets (NN) are commonly used in ML applications. Machine learning (ML) has revolutionized\n# many fields of study.\n# ...\n# \"\"\"\n\ngraph_2 = kg.generate(\n  input_data=large_text,\n  chunk_size=5000,  # Process text in chunks of 5000 chars\n  cluster=True      # Cluster similar entities and relations\n)\n# Output:\n# entities={'neural networks', 'deep learning', 'machine learning', 'AI', 'artificial intelligence', \n#          'supervised learning', 'unsupervised learning', 'training data', ...} \n# edges={'is type of', 'requires', 'is subset of', 'uses', 'is related to', ...} \n# relations={('neural networks', 'is type of', 'machine learning'),\n#           ('deep learning', 'is subset of', 'machine learning'),\n#           ('supervised learning', 'requires', 'training data'),\n#           ('machine learning', 'is type of', 'AI'),\n#           ('AI', 'is related to', 'artificial intelligence'), ...}\n# entity_clusters={\n#   'artificial intelligence': {'AI', 'artificial intelligence'},\n#   'machine learning': {'machine learning', 'ML'},\n#   'neural networks': {'neural networks', 'neural nets', 'NN'}\n#   ...\n# }\n# edge_clusters={\n#   'is type of': {'is type of', 'is a type of', 'is a kind of'},\n#   'is related to': {'is related to', 'is connected to', 'is associated with'\n#  ...}\n# }\n\n# EXAMPLE 3: Messages array\nmessages = [\n  {\"role\": \"user\", \"content\": \"What is the capital of France?\"}, \n  {\"role\": \"assistant\", \"content\": \"The capital of France is Paris.\"}\n]\ngraph_3 = kg.generate(input_data=messages)\n# Output: \n# entities={'Paris', 'France'} \n# edges={'has capital'} \n# relations={('France', 'has capital', 'Paris')}\n\n# EXAMPLE 4: Combining multiple graphs\ntext1 = \"Linda is Joe's mother. Ben is Joe's brother.\"\n\n# Input text 2: also goes by Joe.\"\ntext2 = \"Andrew is Joseph's father. Judy is Andrew's sister. Joseph also goes by Joe.\"\n\ngraph4_a = kg.generate(input_data=text1)\ngraph4_b = kg.generate(input_data=text2)\n\n# Combine the graphs\ncombined_graph = kg.aggregate([graph4_a, graph4_b])\n\n# Optionally cluster the combined graph\nclustered_graph = kg.cluster(\n  combined_graph,\n  context=\"Family relationships\"\n)\n# Output:\n# entities={'Linda', 'Ben', 'Andrew', 'Joe', 'Joseph', 'Judy'} \n# edges={'is mother of', 'is father of', 'is brother of', 'is sister of'} \n# relations={('Linda', 'is mother of', 'Joe'),\n#           ('Ben', 'is brother of', 'Joe'),\n#           ('Andrew', 'is father of', 'Joe'),\n#           ('Judy', 'is sister of', 'Andrew')}\n# entity_clusters={\n#   'Joe': {'Joe', 'Joseph'},\n#   ...\n# }\n# edge_clusters={ ... }\n```\n\n## Install from this repository:\n\nClone this repository and install dependencies using `pip install -e '.[dev]'`. \n\nYou may verify that it works by running `python tests\u002Ftest_basic.py` from the root directory. This will also generate a nice visualization in `tests\u002Ftest_basic.html`.\n\n### MCP Server for AI Agents\n\nFor AI agents that need persistent memory capabilities:\n\n```bash\n# Install and start MCP server\npip install kg-gen\nkggen mcp\n\n# Use with Claude Desktop, custom MCP clients, or other AI applications\n```\n\nSee the [MCP Server documentation](mcp\u002F) for detailed setup and integration instructions.\n\n\n## Features\n\n### Chunking Large Texts\nFor large texts, you can specify a `chunk_size` parameter to process the text in smaller chunks:\n```python\ngraph = kg.generate(\n  input_data=large_text,\n  chunk_size=5000  # Process in chunks of 5000 characters\n)\n```\n\n### Clustering Similar Entities and Relations\nYou can cluster similar entities and relations either during generation or afterwards:\n```python\n# During generation\ngraph = kg.generate(\n  input_data=text,\n  cluster=True,\n  context=\"Optional context to guide clustering\"\n)\n\n# Or after generation\nclustered_graph = kg.cluster(\n  graph,\n  context=\"Optional context to guide clustering\"\n)\n```\n\n### Aggregating Multiple Graphs\nYou can combine multiple graphs using the aggregate method:\n```python\ngraph1 = kg.generate(input_data=text1)\ngraph2 = kg.generate(input_data=text2)\ncombined_graph = kg.aggregate([graph1, graph2])\n```\n\n### Message Array Processing\nWhen processing message arrays, kg-gen:\n1. Preserves the role information from each message\n2. Maintains message order and boundaries\n3. Can extract entities and relationships:\n   - Between concepts mentioned in messages\n   - Between speakers (roles) and concepts\n   - Across multiple messages in a conversation\n\nFor example, given this conversation:\n```python\nmessages = [\n  {\"role\": \"user\", \"content\": \"What is the capital of France?\"},\n  {\"role\": \"assistant\", \"content\": \"The capital of France is Paris.\"}\n]\n```\n\nThe generated graph might include entities like:\n- \"user\"\n- \"assistant\" \n- \"France\"\n- \"Paris\"\n\nAnd relations like:\n- (user, \"asks about\", \"France\")\n- (assistant, \"states\", \"Paris\")\n- (Paris, \"is capital of\", \"France\")\n\n### Citing\nIf you find KGGen useful, please consider citing:\n\n```\n@misc{mo2025kggenextractingknowledgegraphs,\n      title={KGGen: Extracting Knowledge Graphs from Plain Text with Language Models}, \n      author={Belinda Mo and Kyssen Yu and Joshua Kazdan and Joan Cabezas and Proud Mpala and Lisa Yu and Chris Cundy and Charilaos Kanatsoulis and Sanmi Koyejo},\n      year={2025},\n      eprint={2502.09956},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956}, \n}\n```\n## License\nThe MIT License.\n","# kg-gen：从任意文本生成知识图谱\n\n📄 [**论文**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956) | 🐍 [**软件包**](https:\u002F\u002Fpypi.org\u002Fproject\u002Fkg-gen\u002F) | 🤖 [**MCP**](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fmcp\u002F) | 🔬 [**实验**](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fexperiments\u002F) | 👩🏻‍💻 [**数据集**](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fbelindamo\u002Fwiki_qa_kggen) | 🐦 [**X动态**](https:\u002F\u002Fx.com\u002Fbelindmo)\n\n欢迎！`kg-gen` 帮助您使用 AI 从任何纯文本中提取知识图谱。它可以处理小型和大型文本输入，也能处理对话格式的消息。\n\n为什么要生成知识图谱？如果您想：\n- 创建一个用于 RAG（检索增强生成）的图谱\n- 为模型训练和测试创建图结构的合成数据\n- 将任意文本结构化为图谱\n- 分析源文本中概念之间的关系\n那么 `kg-gen` 非常适合。\n\n我们通过 [LiteLLM](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders) 支持基于 API 和本地的模型提供商，包括 OpenAI、Ollama、Anthropic、Gemini、Deepseek 等。我们还使用 [DSPy](https:\u002F\u002Fdspy.ai\u002F) 进行结构化输出生成。\n\n- 您可以通过运行 [`tests\u002F`](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Ftests) 中的脚本来试用。\n- 运行我们的 KG 基准测试 MINE 的说明位于 [`MINE\u002F`](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Fexperiments\u002FMINE)。\n- 阅读论文：[KGGen：利用语言模型从纯文本中提取知识图谱](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956)\n\n## 由您选择的模型驱动\n\n传入一个 `model` 字符串以使用您选择的模型。模型调用通过 LiteLLM 路由，通常 LiteLLM 使用 `{model_provider}\u002F{model_name}` 的格式。具体格式请参阅 [https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders](https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders)。\n\n您可以传入的模型示例：\n- `openai\u002Fgpt-5`\n- `gemini\u002Fgemini-2.5-flash`\n- `ollama_chat\u002Fdeepseek-r1:14b`\n\n您还可以通过 `base_url` 指定自定义的 API 基础 URL（[示例在此](https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Ftree\u002Fmain\u002Ftests\u002Ftest_custom_api_base.py)）。\n\n## 快速入门\n\n安装模块：\n```bash\npip install kg-gen\n```\n\n然后导入并使用 `kg-gen`。您可以采用两种格式提供文本输入：\n1. 单个字符串\n2. 消息对象列表（每个对象包含角色和内容）\n\n以下是一些示例代码：\n```python\nfrom kg_gen import KGGen\n\n# 使用可选配置初始化 KGGen\nkg = KGGen(\n  model=\"openai\u002Fgpt-4o\",  # 默认模型\n  temperature=0.0,        # 默认温度\n  api_key=\"YOUR_API_KEY\"  # 如果已在环境变量中设置或使用本地模型，则可选\n)\n\n# 示例 1：带上下文的单个字符串\ntext_input = \"Linda 是 Josh 的母亲。Ben 是 Josh 的兄弟。Andrew 是 Josh 的父亲。\"\ngraph_1 = kg.generate(\n  input_data=text_input,\n  context=\"家庭关系\"\n)\n# 输出：\n# entities={'Linda', 'Ben', 'Andrew', 'Josh'} \n# edges={'is brother of', 'is father of', 'is mother of'} \n# relations={('Ben', 'is brother of', 'Josh'), \n#           ('Andrew', 'is father of', 'Josh'), \n#           ('Linda', 'is mother of', 'Josh')}\n```\n\n### 可视化 KG\n```python\nKGGen.visualize(graph, output_path, open_in_browser=True)\n```\n\n![viz-tool](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstair-lab_kg-gen_readme_a4e93fbaa649.png)\n\n### 更多示例——分块、聚类、传递消息数组\n\n```python\n# 示例 2：带有分块和聚类的大文本\nwith open('large_text.txt', 'r') as f:\n  large_text = f.read()\n  \n# 示例输入文本：\n# \"\"\"\n# 神经网络是一种机器学习模型。深度学习是机器学习的一个子集，\n# 它使用多层神经网络。监督学习需要训练数据来学习模式。\n# 机器学习是一种人工智能技术，使计算机能够从数据中学习。\n# 人工智能，也称为 AI，与更广泛的人工智能领域相关。\n# 神经网络（NN）常用于机器学习应用。机器学习（ML）已经彻底改变了许多研究领域。\n# ...\n# \"\"\"\n\ngraph_2 = kg.generate(\n  input_data=large_text,\n  chunk_size=5000,  # 按每 5000 字分块处理\n  cluster=True      # 对相似实体和关系进行聚类\n)\n# 输出：\n# entities={'neural networks', 'deep learning', 'machine learning', 'AI', 'artificial intelligence', \n#          'supervised learning', 'unsupervised learning', 'training data', ...} \n# edges={'is type of', 'requires', 'is subset of', 'uses', 'is related to', ...} \n# relations={('neural networks', 'is type of', 'machine learning'),\n#           ('deep learning', 'is subset of', 'machine learning'),\n#           ('supervised learning', 'requires', 'training data'),\n#           ('machine learning', 'is type of', 'AI'),\n#           ('AI', 'is related to', 'artificial intelligence'), ...}\n# entity_clusters={\n#   'artificial intelligence': {'AI', 'artificial intelligence'},\n#   'machine learning': {'machine learning', 'ML'},\n#   'neural networks': {'neural networks', 'neural nets', 'NN'}\n#   ...\n# }\n# edge_clusters={\n#   'is type of': {'is type of', 'is a type of', 'is a kind of'},\n#   'is related to': {'is related to', 'is connected to', 'is associated with'\n#  ...}\n# }\n\n# 示例 3：消息数组\nmessages = [\n  {\"role\": \"user\", \"content\": \"法国的首都是什么？\"}, \n  {\"role\": \"assistant\", \"content\": \"法国的首都是巴黎。\"}\n]\ngraph_3 = kg.generate(input_data=messages)\n# 输出：\n# entities={'Paris', 'France'} \n# edges={'has capital'} \n# relations={('France', 'has capital', 'Paris')}\n\n# 示例 4：合并多个图谱\ntext1 = \"Linda 是 Joe 的母亲。Ben 是 Joe 的兄弟。\"\n\n# 输入文本 2：Joseph 也被称为 Joe。\ntext2 = \"Andrew 是 Joseph 的父亲。Judy 是 Andrew 的妹妹。Joseph 也被称为 Joe。\"\n\ngraph4_a = kg.generate(input_data=text1)\ngraph4_b = kg.generate(input_data=text2)\n\n# 合并图谱\ncombined_graph = kg.aggregate([graph4_a, graph4_b])\n\n# 可选地对合并后的图谱进行聚类\nclustered_graph = kg.cluster(\n  combined_graph,\n  context=\"家庭关系\"\n)\n# 输出：\n# entities={'Linda', 'Ben', 'Andrew', 'Joe', 'Joseph', 'Judy'} \n# edges={'is mother of', 'is father of', 'is brother of', 'is sister of'} \n# relations={('Linda', 'is mother of', 'Joe'),\n#           ('Ben', 'is brother of', 'Joe'),\n#           ('Andrew', 'is father of', 'Joe'),\n#           ('Judy', 'is sister of', 'Andrew')}\n# entity_clusters={\n#   'Joe': {'Joe', 'Joseph'},\n#   ...\n# }\n# edge_clusters={ ... }\n```\n\n## 从本仓库安装：\n\n克隆此仓库，并使用 `pip install -e '.[dev]'` 安装依赖项。\n\n您可以通过在根目录下运行 `python tests\u002Ftest_basic.py` 来验证其是否正常工作。这也会在 `tests\u002Ftest_basic.html` 中生成一个漂亮的可视化效果。\n\n### 用于 AI 代理的 MCP 服务器\n\n对于需要持久化记忆能力的 AI 代理：\n\n```bash\n# 安装并启动 MCP 服务器\npip install kg-gen\nkggen mcp\n\n# 与 Claude Desktop、自定义 MCP 客户端或其他 AI 应用程序一起使用\n```\n\n有关详细的设置和集成说明，请参阅 [MCP 服务器文档](mcp\u002F)。\n\n\n## 功能\n\n### 大文本分块处理\n对于大文本，您可以指定 `chunk_size` 参数，以较小的块来处理文本：\n```python\ngraph = kg.generate(\n  input_data=large_text,\n  chunk_size=5000  # 按每 5000 个字符为一个块进行处理\n)\n```\n\n### 聚类相似实体和关系\n您可以在生成过程中或生成之后对相似的实体和关系进行聚类：\n```python\n# 在生成过程中\ngraph = kg.generate(\n  input_data=text,\n  cluster=True,\n  context=\"用于指导聚类的可选上下文\"\n)\n\n# 或在生成之后\nclustered_graph = kg.cluster(\n  graph,\n  context=\"用于指导聚类的可选上下文\"\n)\n```\n\n### 聚合多个图\n您可以使用聚合方法将多个图合并在一起：\n```python\ngraph1 = kg.generate(input_data=text1)\ngraph2 = kg.generate(input_data=text2)\ncombined_graph = kg.aggregate([graph1, graph2])\n```\n\n### 消息数组处理\n在处理消息数组时，kg-gen：\n1. 会保留每条消息的角色信息\n2. 维持消息的顺序和边界\n3. 可以提取实体和关系：\n   - 消息中提到的概念之间的关系\n   - 发言者（角色）与概念之间的关系\n   - 整个对话中多条消息之间的关系\n\n例如，对于以下对话：\n```python\nmessages = [\n  {\"role\": \"user\", \"content\": \"法国的首都是什么？\"},\n  {\"role\": \"assistant\", \"content\": \"法国的首都是巴黎。\"}\n]\n```\n\n生成的图可能包含以下实体：\n- “user”\n- “assistant”\n- “France”\n- “Paris”\n\n以及以下关系：\n- (user, “询问关于”, “France”)\n- (assistant, “指出”, “Paris”)\n- (Paris, “是……的首都”, “France”)\n\n### 引用\n如果您觉得 KGGen 很有用，请考虑引用：\n\n```\n@misc{mo2025kggenextractingknowledgegraphs,\n      title={KGGen: 使用语言模型从纯文本中提取知识图谱}, \n      author={Belinda Mo 和 Kyssen Yu 和 Joshua Kazdan 和 Joan Cabezas 和 Proud Mpala 和 Lisa Yu 和 Chris Cundy 和 Charilaos Kanatsoulis 和 Sanmi Koyejo},\n      year={2025},\n      eprint={2502.09956},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.09956}, \n}\n```\n## 许可证\nMIT 许可证。","# kg-gen 快速上手指南\n\n`kg-gen` 是一个基于 AI 的开源工具，能够从任意纯文本（包括长文档和对话记录）中提取结构化知识图谱。它支持通过 LiteLLM 调用各类大模型（如 OpenAI、Ollama、DeepSeek 等），并利用 DSPy 确保输出结构的规范性，适用于 RAG 增强、数据合成及关系分析等场景。\n\n## 环境准备\n\n- **系统要求**：支持 Windows、macOS 和 Linux。\n- **Python 版本**：建议 Python 3.8 及以上版本。\n- **前置依赖**：\n  - 需具备可用的大模型 API Key（如 OpenAI、Anthropic 等）或本地模型服务（如 Ollama）。\n  - 网络环境需能访问 PyPI 源及对应的模型服务商接口。\n\n> **提示**：国内开发者若使用 pip 安装较慢，可临时切换至清华或阿里镜像源：\n> ```bash\n> export PIP_INDEX_URL=https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n通过 PyPI 直接安装最新稳定版：\n\n```bash\npip install kg-gen\n```\n\n若需从源码安装以获取开发功能：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen.git\ncd kg-gen\npip install -e '.[dev]'\n```\n\n验证安装是否成功（将生成测试图谱及可视化文件）：\n\n```bash\npython tests\u002Ftest_basic.py\n```\n\n## 基本使用\n\n### 1. 初始化与简单提取\n\n导入库并配置模型即可开始提取。以下示例展示如何从一段简单的家庭关系描述中生成图谱：\n\n```python\nfrom kg_gen import KGGen\n\n# 初始化 KGGen，指定模型和 API Key\nkg = KGGen(\n  model=\"openai\u002Fgpt-4o\",      # 支持格式：provider\u002Fmodel_name\n  temperature=0.0,\n  api_key=\"YOUR_API_KEY\"      # 若已设置环境变量可省略\n)\n\n# 输入文本\ntext_input = \"Linda is Josh's mother. Ben is Josh's brother. Andrew is Josh's father.\"\n\n# 生成知识图谱\ngraph = kg.generate(\n  input_data=text_input,\n  context=\"Family relationships\"\n)\n\n# 查看结果\nprint(graph.entities)   # 实体集合\nprint(graph.relations)  # 关系三元组\n```\n\n### 2. 可视化图谱\n\n工具内置了可视化功能，可直接将生成的图谱保存为 HTML 并在浏览器打开：\n\n```python\nKGGen.visualize(graph, output_path=\"my_graph.html\", open_in_browser=True)\n```\n\n### 3. 进阶功能简述\n\n- **处理长文本**：设置 `chunk_size` 参数自动分块处理，并开启 `cluster=True` 进行实体聚类。\n- **对话数据**：直接传入包含 `role` 和 `content` 的消息列表（Messages Array）。\n- **图谱合并**：使用 `kg.aggregate()` 合并多个独立生成的图谱。\n\n```python\n# 长文本处理示例\ngraph_large = kg.generate(\n  input_data=large_text,\n  chunk_size=5000,\n  cluster=True\n)\n\n# 对话数据处理示例\nmessages = [\n  {\"role\": \"user\", \"content\": \"What is the capital of France?\"}, \n  {\"role\": \"assistant\", \"content\": \"The capital of France is Paris.\"}\n]\ngraph_chat = kg.generate(input_data=messages)\n```","某金融风控团队需要从每日海量的非结构化新闻舆情和分析师报告中，快速提取实体关系以构建动态风险知识图谱。\n\n### 没有 kg-gen 时\n- **人工提取效率低下**：面对成千上万篇长篇研报，分析师只能手动梳理公司间的持股、担保或诉讼关系，耗时数天且无法实时响应市场变化。\n- **关系遗漏严重**：在处理长文本或多轮对话记录时，跨段落的隐含关联（如\"A 公司是 B 公司的子公司，而 B 公司刚被 C 公司起诉”）极易被忽略，导致图谱不完整。\n- **数据格式混乱**：不同来源的文本结构各异，将其转化为统一的三元组（实体 - 关系 - 实体）需要编写大量脆弱的正则规则或定制脚本，维护成本极高。\n- **难以支持复杂查询**：由于缺乏结构化的图数据，现有的 RAG 系统只能进行简单的关键词匹配，无法回答“找出所有与暴雷企业有间接担保关系的上市公司”这类多跳推理问题。\n\n### 使用 kg-gen 后\n- **自动化批量构建**：利用 kg-gen 接入大模型 API，团队可将整篇研报或历史对话记录直接输入，分钟级内自动生成包含实体与边的完整知识图谱。\n- **深层关系精准捕捉**：kg-gen 擅长处理长上下文和分块聚类，能准确识别跨段落的复杂逻辑，将隐性风险传导路径显性化，大幅降低关键信息遗漏率。\n- **标准化输出无缝集成**：工具直接输出结构化的三元组数据，无需额外清洗即可存入图数据库，并支持通过 `visualize` 函数一键生成可视化报告供决策层审阅。\n- **赋能高级智能检索**：基于生成的图谱优化 RAG 系统，现在系统能执行多跳推理查询，迅速定位隐蔽的风险传导链条，显著提升预警准确率。\n\nkg-gen 将杂乱的非结构化文本瞬间转化为可推理的结构化知识资产，让金融风险洞察从“大海捞针”变为“按图索骥”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fstair-lab_kg-gen_a4e93fba.png","stair-lab","Stanford Trustworthy AI Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fstair-lab_9cc987b1.jpg","Stanford Trustworthy AI Research Lab",null,"https:\u002F\u002Fstairlab.stanford.edu\u002F","https:\u002F\u002Fgithub.com\u002Fstair-lab",[80,84,88,92,96,100],{"name":81,"color":82,"percentage":83},"Python","#3572A5",54.4,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",22.9,{"name":89,"color":90,"percentage":91},"HTML","#e34c26",14.3,{"name":93,"color":94,"percentage":95},"CSS","#663399",7.1,{"name":97,"color":98,"percentage":99},"Shell","#89e051",1.1,{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0.3,1092,161,"2026-04-09T00:59:43","","未说明",{"notes":110,"python":108,"dependencies":111},"该工具主要通过 API 调用大模型（如 OpenAI, Anthropic, Gemini 等）或本地模型（通过 Ollama）运行，自身不强制要求本地 GPU。若使用本地模型提供商（如 Ollama），则需满足对应模型的硬件需求。安装可通过 pip 进行，开发版需安装额外依赖。支持将文本分块处理和实体聚类以应对长文本。",[112,113],"litellm","dspy",[115,14,35,16],"其他",[117,118,119],"benchmark","knowledge-graph","llm","2026-03-27T02:49:30.150509","2026-04-11T16:59:26.493778",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},26344,"如何支持本地部署的模型（如 Ollama 或 vLLM）？","可以通过配置 `api_base` 来支持本地部署的模型。对于 Ollama，可以使用 `ollama_chat` 提供者；对于其他兼容 OpenAI 接口的本地模型（如 vLLM），可以通过环境变量或直接传递参数配置。\n\n方法一（使用环境变量）：\n```python\nimport os\nos.environ[\"hosted_vllm_api_base\"] = \"http:\u002F\u002Fyour-local-ip:port\u002Fv1\"\n\nfrom kg_gen import KGGen\nkg = KGGen(\n    model=\"hosted_vllm\u002Fdeepseek-ai\u002Fdeepseek-v3\",\n    temperature=0.0,\n    api_key=\"your-api-key\",\n)\n```\n\n方法二（直接修改代码适配 OpenAI 客户端）：\n```python\nfrom openai import OpenAI\nclient = OpenAI(base_url=\"http:\u002F\u002Flocalhost:11434\u002Fv1\", api_key=\"key\")\n# 将 client 传入自定义 LM 类并配置到 dspy\n```\n相关 PR: https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fpull\u002F35, https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fpull\u002F26","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F22",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},26345,"遇到 Pydantic 或 DSPy 的严格验证错误（如 'Field required'）导致生成失败怎么办？","这是一个已知问题，已在版本 0.2.0 和 0.1.7 中修复。该问题通常发生在关系提取过程中，由于模型输出格式不符合严格的 Pydantic  schema 导致。\n\n解决方案：请升级 `kg-gen` 到最新版本。\n```bash\npip install --upgrade kg-gen\n```\n如果问题仍然存在，请检查是否使用了最新的 main 分支代码。修复提交参考：https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fcommit\u002F6b58a23b3e5e7e6eb1f67c2a54c2e0ccde4c2b1e","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F24",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},26346,"如何配置和使用 OpenAI 兼容的 API 端点（API-based 模式）？","`kg-gen` 基于 LiteLLM，支持所有 LiteLLM 支持的提供商。要使用自定义 API 端点（如私有部署或其他兼容服务），需要传递 `api_base` 参数。\n\n示例配置：\n1. 确保安装了支持 `api_base` 的版本（PR #35 之后）。\n2. 初始化时指定模型名称和 API 密钥，部分情况下需通过环境变量设置 `api_base`：\n```python\nimport os\n# 设置自定义基址\nos.environ[\"LITELLM_PROXY_API_BASE\"] = \"https:\u002F\u002Fyour-custom-endpoint.com\u002Fv1\"\n\nfrom kg_gen import KGGen\nkg = KGGen(\n    model=\"custom-provider\u002Fmodel-name\",\n    api_key=\"your-key\",\n    temperature=0.0\n)\n```\n支持的模型列表参考 LiteLLM 文档：https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fproviders","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F20",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},26347,"在哪里可以找到论文中 Figure 3 使用的 MINE 基准测试原始评估结果？","原始评估结果已上传至 GitHub 仓库的 `results` 文件夹中，具体位于 MINE 基准测试相关的目录下。\n\n注意：早期版本中部分模型（如 OpenIE, KGGen, GraphRAG）的结果文件可能存在缺失，维护者已后续补全。如果您发现特定文章编号的结果文件丢失，请检查仓库最新提交或直接在 Issue 中反馈。\n访问路径示例：`repo_root\u002Fresults\u002FMINE\u002F`","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F40",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},26348,"有没有具体的 Ollama 本地模型调用示例代码？","有的。虽然 README 已更新，但用户也可以通过以下方式手动配置（如果自动检测失败）：\n\n确保 Ollama 服务正在运行（默认端口 11434），然后在调用时确保模型名称正确匹配 Ollama 中的模型名。\n\n如果需要更底层的控制，可以修改 `lm.py` 中的 `litellm_completion` 函数，显式传入 `api_base`：\n```python\n# 在 lm.py 第 289 行附近\nreturn litellm.completion(\n    cache=cache,\n    **retry_kwargs,\n    **request,\n    api_base='http:\u002F\u002Flocalhost:11434', # 指向你的 Ollama 地址\n)\n```\n或者直接使用更新后的版本，通过 `model=\"ollama\u002Fyour-model-name\"` 格式调用。","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F10",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},26349,"UI 可视化界面中图表断开、缩放过大或实体不可点击如何解决？","这些是 UI\u002FUX 方面的已知问题，社区和维护者已提出以下改进方向和临时建议：\n1. **图表断开\u002F方向丢失**：检查数据格式是否正确，确保关系具有明确的方向性。\n2. **实体点击与高亮**：预期行为是点击实体应高亮对应节点，\"Unclustered\" 标签不应显示。这需要在前端渲染逻辑中修复。\n3. **初始缩放过大**：建议在代码中调整初始视图配置，或等待官方修复。\n4. **布局优化**：建议将分析视图拆分为多个 Tab 以避免信息过载。\n\n目前这些问题已被标记为待处理项（包括 Bounty 任务），建议关注仓库的后续更新或参与贡献修复。","https:\u002F\u002Fgithub.com\u002Fstair-lab\u002Fkg-gen\u002Fissues\u002F58",[154,159,164,169],{"id":155,"version":156,"summary_zh":157,"released_at":158},171586,"MINE-evaluations-expanded","\u003Cimg width=\"6143\" height=\"3039\" alt=\"results\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F31bba1d9-ee65-43bf-8003-c74071363a06\" \u002F>\n\n使用 kggen 配合 gpt-5-nano，以及 gpt-oss-20b，并结合多级推理、openie 和 graphrag 选项。","2025-11-23T20:19:37",{"id":160,"version":161,"summary_zh":162,"released_at":163},171587,"MINE-deduplication-scikitlearn-vs-faiss","\u003Cimg width=\"4769\" height=\"3568\" alt=\"比较\" src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F7ae25600-e537-4017-b505-c7f463a97cc8\" \u002F>\n\n```\n============================================================\n统计摘要\n============================================================\nfaiss                                    scikit-learn\n均值：                                    36.93 70.47\n中位数：                                  40.00 73.33\n标准差：                                  17.72 20.36\n最小值：                                  0.00 13.33\n最大值：                                  73.33 100.00\n============================================================\n\nscikit-learn 与 faiss - 平均差异：33.53%\nscikit-learn 表现更好的情况：90\nfaiss 表现更好的情况：6\n结果相同的情况：4\n============================================================\n```\n\n#69 #62","2025-10-28T04:44:29",{"id":165,"version":166,"summary_zh":167,"released_at":168},171588,"WikiQA-evaluations","WikiQA 数据集可以在这里找到：https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fbelindamo\u002Fwiki_qa_kggen","2025-10-06T06:19:34",{"id":170,"version":171,"summary_zh":172,"released_at":173},171589,"MINE-evaluations","这些文件被整理成一个单一的数据集，以便能够重新运行评估，同时将其仅作为备份和历史记录保存。\n\n应使用 https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fjosancamon\u002Fkg-gen-MINE-evaluation-dataset。\n\nanswers.json 应改为 generated_queries，因为原来的命名不够恰当。","2025-09-26T04:58:58"]