[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-PaddlePaddle--Research":3,"tool-PaddlePaddle--Research":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150720,2,"2026-04-11T11:33:10",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":114,"forks":115,"last_commit_at":116,"license":117,"difficulty_score":118,"env_os":74,"env_gpu":119,"env_ram":119,"env_deps":120,"category_tags":123,"github_topics":124,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":168},6625,"PaddlePaddle\u002FResearch","Research","novel deep learning research works with PaddlePaddle","Research 是百度飞桨（PaddlePaddle）团队打造的开源项目，旨在汇聚并复现计算机视觉、自然语言处理、知识图谱及时空数据挖掘等领域的前沿深度学习研究成果。它收录了多篇顶会论文算法及各类国际竞赛的冠军模型，有效解决了科研人员在复现高难度算法时面临的代码缺失、环境配置复杂及基准对比困难等痛点。\n\n无论是希望快速验证新想法的学术研究者，还是需要将先进模型落地到实际业务中的开发者，都能从中获益。Research 提供了从图像检索、语义分割到机器翻译、对话生成等丰富任务的高质量实现，涵盖如基于 GNN 的重排序、轻量化检测方案以及融合知识增强的预训练模型等独特技术亮点。通过提供结构清晰、文档完善的代码库，Research 降低了前沿技术的使用门槛，帮助用户站在巨人的肩膀上高效开展创新工作，是推动深度学习技术从理论走向应用的重要桥梁。","# Research\n\n发布基于飞桨的前沿研究工作，包括CV、NLP、KG、STDM等领域的顶会论文和比赛冠军模型。\n\n## 目录\n* [计算机视觉(Computer Vision)](#计算机视觉)\n* [自然语言处理(Natrual Language Processing)](#自然语言处理)\n* [知识图谱(Knowledge Graph)](#知识图谱)\n* [时空数据挖掘(Spatial-Temporal Data-Mining)](#时空数据挖掘)\n\n## 计算机视觉\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 图像检索 | [GNN-Re-Ranking](CV\u002FGNN-Re-Ranking\u002F) | 基于GNN的快速图像检索Re-Ranking。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.07620v2 |\n| 车流统计 | [VehicleCounting](CV\u002FVehicleCounting\u002F) | AICITY2020 车流统计竞赛datasetA TOP1 方案。 | - |\n| 车辆再识别 | [PaddleReid](CV\u002FPaddleReid) | 给定目标车辆，在检索库中检索同id车辆，支持多种特征子网络。 | - |\n| 车辆异常检测 | [AICity2020-Anomaly-Detection](CV\u002FAICity2020-Anomaly-Detection) |  在监控视频中检测车辆异常情况，例如车辆碰撞、失速等。| - |\n| 医学图像分析 | [AGEchallenge](CV\u002FAGEchallenge) | 任务：在AS-OCT图像的公共数据集上进行闭角型分类和巩膜突点定位；基线模型：对应以上各任务的基线模型。 | - |\n| 光流估计 | [PWCNet](CV\u002FPWCNet) | 基于金字塔式处理，逐层学习细部光流，设计代价容量函数三原则的CNN模型，用于光流估计。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.02371 |\n| 语义分割 | [SemSegPaddle](CV\u002FSemSegPaddle) | 针对多个数据集的图像语义分割模型的实现，包括Cityscapes、Pascal Context和ADE20K。 | - |\n| 轻量化检测 | [astar2019](CV\u002Fastar2019) | 百度之星轻量化检测比赛评测工具。 | - |\n| 地标检索与识别 | [landmark](CV\u002Flandmark) | 基于检索的地标检索与识别系统，支持地标型与非地标型识别、识别与检索结果相结合的多重识别结果投票和重新排序。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.03990 |\n| 图像分类 | [webvision2018](CV\u002Fwebvision2018) | 模型利用重加权网络(URNet)缓解web数据中偏倚和噪声的影响，进行web图像分类。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.00700 |\n| 图像分类 | [CLPI](CV\u002FCLPI-Collaborative-Learning-for-Diabetic-Retinopathy-Grading) | 模型利用一个Lesion Generator改善了糖尿病视网膜病变图像分级的模型性能，理论上可用于所有希望实现局部+整体模型分析的场景 | - |\n| 图像分类 | [RSNA-IHD](CV\u002FEffective Transformer-based Solution for RSNA Intracranial Hemorrhage Detection) | 提出了一种有效的颅内出血检测(IHD)方法，其性能超过了在RSNA-IHD竞赛(2019)中获胜的解决方案。与此同时，与获胜者的解决方案相比，我们的模型只有其20%的参数量和10%的FLOPs | https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.07556 |\n| 小样本学习 | [PaddleFSL](CV\u002FPaddleFSL) | 小样本学习工具包，可复现多个常用基线方法在多个图片分类数据集上的汇报效果 | - |\n| 迁移学习 |  [SMILE](CV\u002FSMILE) | 提出了一种自蒸馏样本混合迁移学习框架，适用于小样本图片分类 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13941 |\n\n## 自然语言处理\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 中文词法分析 | [LAC(Lexical Analysis of Chinese)](https:\u002F\u002Fgithub.com\u002Fbaidu\u002Flac) | 百度自主研发中文特色模型词法分析任务，集成了中文分词、词性标注和命名实体识别任务。输入是一个字符串，而输出是句子中的词边界和词性、实体类别。 | - |\n| 主动对话 | [DuConv](NLP\u002FACL2019-DuConv) | 机器根据给定知识信息主动引领对话进程完成设定的对话目标。 |https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1369\u002F|\n| 语义解析 | [Text2SQL-BASELINE](NLP\u002FText2SQL-BASELINE) | 输入自然语言问题和相应的数据库，生成与问题对应的 SQL 查询语句，通过执行该 SQL 可得到问题的答案。 | - |\n| 多轮对话 | [DAM](NLP\u002FACL2018-DAM) | 开放领域多轮对话匹配的深度注意力机制模型，根据多轮对话历史和候选回复内容，排序出最合适的回复。 | http:\u002F\u002Faclweb.org\u002Fanthology\u002FP18-1103 |\n| 阅读理解 | [DuReader](NLP\u002FACL2018-DuReader) | 数据集：大规模、面向真实应用、由人类生成的中文阅读理解数据集，聚焦于真实世界中的不限定领域的问答任务；基线系统：针对DuReader数据集实现的经典BiDAF模型。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FW18-2605\u002F |\n| 关系抽取 | [ARNOR](NLP\u002FACL2019-ARNOR) | 数据集：用于对远程监督关系提取模型进行句子级别的评价；模型：基于注意力正则化识别噪声数据，通过bootstrap方法逐步选择出高质量的标注数据。| https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1135\u002F |\n| 机器翻译 | [JEMT](NLP\u002FACL2019-JEMT) | 模型的输入端包括文字信息及发音信息，嵌入层融合文字信息和发音信息进行翻译。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.06729 |\n| 阅读理解 | [KTNET](NLP\u002FACL2019-KTNET) | 模型将知识库中的知识整合到预先训练好的上下文表示中，利用丰富的知识增强机器阅读理解的预训练语言表示。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1226 |\n| 对话生成 | [PLATO](NLP\u002FDialogue-PLATO) | 基于隐空间的端到端的预训练对话生成模型，可以灵活支持多种对话，包括闲聊、知识聊天、对话问答等。 | http:\u002F\u002Farxiv.org\u002Fabs\u002F1910.07931 |\n| 阅读理解 | [DuReader-Robust-BASELINE](NLP\u002FDuReader-Robust-BASELINE) | 数据集：DuReader-robust，中文数据集，用于全面评价机器阅读理解模型的鲁棒性；基线系统：针对该数据集，基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)实现的阅读理解基线系统。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.11142 |\n| 对话生成 | [AKGCM](NLP\u002FEMNLP2019-AKGCM) | 包含知识增强图、知识选择和知识感知响应生成器的聊天机器人。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FD19-1187\u002F |\n| 机器翻译 | [MAL](NLP\u002FEMNLP2019-MAL) | 多智能体端到端联合学习框架，通过多个智能体的互相学习提升翻译质量。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.01101 |\n| 对话生成 | [MMPMS](NLP\u002FIJCAI2019-MMPMS) | 针对开放域对话中一对多问题，利用多映射机制和后验映射选择模块进行多样性、丰富化的对话生成。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.01781 |\n| 阅读理解 | [MRQA2019-BASELINE](NLP\u002FMRQA2019-BASELINE) | 机器阅读理解任务的基线模型，基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)预训练模型，支持多GPU微调预测。 | - |\n| 阅读理解 | [D-NET](NLP\u002FMRQA2019-D-NET) | 预训练及微调框架，包含多任务学习及多预训练模型的融合，用于阅读理解模型的生成。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FD19-5828\u002F |\n| 建议挖掘 | [MPM](NLP\u002FNAACL2019-MPM) | 利用多视角架构来学习表示和双向transformer编码器进行论坛评论建议挖掘。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FS19-2216\u002F |\n| 多文档摘要 | [ACL2020-GraphSum](NLP\u002FACL2020-GraphSum) | 基于图表示的生成式多文档摘要模型，将显式图结构信息引入到端到端摘要生成过程中。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002F2020.acl-main.555.pdf |\n| 融合多种对话类型的对话式推荐 | [ACL2020-DuRecDial](NLP\u002FACL2020-DuRecDial) | 提出新任务：融合闲聊、任务型对话、问答和推荐等多种对话类型的对话式推荐，构建DuRecDial数据集，提出具有多对话目标驱动策略机制的对话生成框架。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002F2020.acl-main.98\u002F |\n| 面向推荐的对话 | [Conversational-Recommendation-BASELINE](NLP\u002FConversational-Recommendation-BASELINE) | 融合人机对话系统和个性化推荐系统，定义新一代智能推荐技术，该系统先通过问答或闲聊收集用户兴趣和偏好，然后主动给用户推荐其感兴趣的内容，比如餐厅、美食、电影、新闻等。 | - |\n| 稠密段落检索 | [ACL2021-PAIR](NLP\u002FACL2021-PAIR) | 基于以段落相似度为中心的相似度关系提升稠密段落检索，基于知识蒸馏进行采样，采用两阶段训练方式。 | https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.191\u002F |\n| 任务式对话 | [EMNLP2022-Q-TOD](NLP\u002FEMNLP2022-Q-TOD) | 自然语言查询驱动的任务式对话系统，提出由查询生成、知识检索和回复生成组成的三阶段新框架。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.07564 |\n\n## 知识图谱\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 知识图谱表示学习 | [CoKE](KG\u002FCoKE) | 百度自主研发语境化知识图谱表示学习框架CoKE，在知识图谱链接预测和多步查询任务上取得学界领先效果。| [https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02168](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02168) |\n| 关系抽取 | [DuIE\\_Baseline](KG\u002FDuIE_Baseline) | 语言与智能技术竞赛关系抽取任务DuIE 2.0基线系统，通过设计结构化标注体系，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)的端到端SPO抽取模型。| - |\n| 事件抽取 |[DuEE\\_baseline](hKG\u002FDuEE_baseline)| 语言与智能技术竞赛事件抽取任务DuEE 1.0基线系统，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)+CRF的Pipeline事件抽取模型。| - |\n| 实体链指 |[DuEL\\_Baseline](KG\u002FDuEL_Baseline)| 面向中文短文本的实体链指任务(CCKS 2020)的基线系统，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)和多任务机制的实体链指模型。| - |\n| 辅助诊断 |[SignOrSymptom\\_Relationship](KG\u002FACL2020_SignOrSymptom_Relationship)| 针对EMR具有无结构化文本和结构化信息并存的特点，结合医疗NLU，以深度学习模型实现EMR的向量化表示、诊断预分类和概率计算。| - |\n| 文档级关系抽取 | [SSAN](KG\u002FAAAI2021_SSAN) | 引入并建模实体间的依赖结构，在文档级关系抽取任务上取得学界领先效果。| [https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.10249](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.10249) |\n\n## 时空数据挖掘\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 固定资产价值估计 |[MONOPOLY](ST_DM\u002FCIKM2019-MONOPOLY)| 实用的POI商业智能算法，对大量其他的固定资产进行价值估计，包括城市居民对不同公共资产价格评估、私有房价评估偏好的发现与量化分析，以及对评估固定资产价格需考虑的空间范围的确定。 | https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3357384.3357810 |\n| 兴趣点生成 |[P3AC](ST_DM\u002FKDD2020-P3AC)| 具备个性化的前缀嵌入的POI自动生成。 | - |\n| 区域生成 |[P3AC](ST_DM\u002FGenRegion)| 基于路网进行区域划分的方法, 实现对特定区域基于路网的全划分，区域之间无交叠，无空隙，算法支持对全球的区域划分。| - |\n\n\n## 许可证书\n此向导由[PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddle)贡献，受[Apache-2.0 license](LICENSE)许可认证。\n\n","# 研究\n\n发布基于飞桨的前沿研究工作，包括CV、NLP、KG、STDM等领域的顶会论文和比赛冠军模型。\n\n## 目录\n* [计算机视觉(Computer Vision)](#计算机视觉)\n* [自然语言处理(Natrual Language Processing)](#自然语言处理)\n* [知识图谱(Knowledge Graph)](#知识图谱)\n* [时空数据挖掘(Spatial-Temporal Data-Mining)](#时空数据挖掘)\n\n## 计算机视觉\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 图像检索 | [GNN-Re-Ranking](CV\u002FGNN-Re-Ranking\u002F) | 基于GNN的快速图像检索Re-Ranking。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.07620v2 |\n| 车流统计 | [VehicleCounting](CV\u002FVehicleCounting\u002F) | AICITY2020 车流统计竞赛datasetA TOP1 方案。 | - |\n| 车辆再识别 | [PaddleReid](CV\u002FPaddleReid) | 给定目标车辆，在检索库中检索同id车辆，支持多种特征子网络。 | - |\n| 车辆异常检测 | [AICity2020-Anomaly-Detection](CV\u002FAICity2020-Anomaly-Detection) |  在监控视频中检测车辆异常情况，例如车辆碰撞、失速等。| - |\n| 医学图像分析 | [AGEchallenge](CV\u002FAGEchallenge) | 任务：在AS-OCT图像的公共数据集上进行闭角型分类和巩膜突点定位；基线模型：对应以上各任务的基线模型。 | - |\n| 光流估计 | [PWCNet](CV\u002FPWCNet) | 基于金字塔式处理，逐层学习细部光流，设计代价容量函数三原则的CNN模型，用于光流估计。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.02371 |\n| 语义分割 | [SemSegPaddle](CV\u002FSemSegPaddle) | 针对多个数据集的图像语义分割模型的实现，包括Cityscapes、Pascal Context和ADE20K。 | - |\n| 轻量化检测 | [astar2019](CV\u002Fastar2019) | 百度之星轻量化检测比赛评测工具。 | - |\n| 地标检索与识别 | [landmark](CV\u002Flandmark) | 基于检索的地标检索与识别系统，支持地标型与非地标型识别、识别与检索结果相结合的多重识别结果投票和重新排序。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.03990 |\n| 图像分类 | [webvision2018](CV\u002Fwebvision2018) | 模型利用重加权网络(URNet)缓解web数据中偏倚和噪声的影响，进行web图像分类。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1811.00700 |\n| 图像分类 | [CLPI](CV\u002FCLPI-Collaborative-Learning-for-Diabetic-Retinopathy-Grading) | 模型利用一个Lesion Generator改善了糖尿病视网膜病变图像分级的模型性能，理论上可用于所有希望实现局部+整体模型分析的场景 | - |\n| 图像分类 | [RSNA-IHD](CV\u002FEffective Transformer-based Solution for RSNA Intracranial Hemorrhage Detection) | 提出了一种有效的颅内出血检测(IHD)方法，其性能超过了在RSNA-IHD竞赛(2019)中获胜的解决方案。与此同时，与获胜者的解决方案相比，我们的模型只有其20%的参数量和10%的FLOPs | https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.07556 |\n| 小样本学习 | [PaddleFSL](CV\u002FPaddleFSL) | 小样本学习工具包，可复现多个常用基线方法在多个图片分类数据集上的汇报效果 | - |\n| 迁移学习 |  [SMILE](CV\u002FSMILE) | 提出了一种自蒸馏样本混合迁移学习框架，适用于小样本图片分类 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.13941 |\n\n## 自然语言处理\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 中文词法分析 | [LAC(Lexical Analysis of Chinese)](https:\u002F\u002Fgithub.com\u002Fbaidu\u002Flac) | 百度自主研发中文特色模型词法分析任务，集成了中文分词、词性标注和命名实体识别任务。输入是一个字符串，而输出是句子中的词边界和词性、实体类别。 | - |\n| 主动对话 | [DuConv](NLP\u002FACL2019-DuConv) | 机器根据给定知识信息主动引领对话进程完成设定的对话目标。 |https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1369\u002F|\n| 语义解析 | [Text2SQL-BASELINE](NLP\u002FText2SQL-BASELINE) | 输入自然语言问题和相应的数据库，生成与问题对应的 SQL 查询语句，通过执行该 SQL 可得到问题的答案。 | - |\n| 多轮对话 | [DAM](NLP\u002FACL2018-DAM) | 开放领域多轮对话匹配的深度注意力机制模型，根据多轮对话历史和候选回复内容，排序出最合适的回复。 | http:\u002F\u002Faclweb.org\u002Fanthology\u002FP18-1103 |\n| 阅读理解 | [DuReader](NLP\u002FACL2018-DuReader) | 数据集：大规模、面向真实应用、由人类生成的中文阅读理解数据集，聚焦于真实世界中的不限定领域的问答任务；基线系统：针对DuReader数据集实现的经典BiDAF模型。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FW18-2605\u002F |\n| 关系抽取 | [ARNOR](NLP\u002FACL2019-ARNOR) | 数据集：用于对远程监督关系提取模型进行句子级别的评价；模型：基于注意力正则化识别噪声数据，通过bootstrap方法逐步选择出高质量的标注数据。| https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1135\u002F |\n| 机器翻译 | [JEMT](NLP\u002FACL2019-JEMT) | 模型的输入端包括文字信息及发音信息，嵌入层融合文字信息和发音信息进行翻译。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.06729 |\n| 阅读理解 | [KTNET](NLP\u002FACL2019-KTNET) | 模型将知识库中的知识整合到预先训练好的上下文表示中，利用丰富的知识增强机器阅读理解的预训练语言表示。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP19-1226 |\n| 对话生成 | [PLATO](NLP\u002FDialogue-PLATO) | 基于隐空间的端到端的预训练对话生成模型，可以灵活支持多种对话，包括闲聊、知识聊天、对话问答等。 | http:\u002F\u002Farxiv.org\u002Fabs\u002F1910.07931 |\n| 阅读理解 | [DuReader-Robust-BASELINE](NLP\u002FDuReader-Robust-BASELINE) | 数据集：DuReader-robust，中文数据集，用于全面评价机器阅读理解模型的鲁棒性；基线系统：针对该数据集，基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)实现的阅读理解基线系统。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2004.11142 |\n| 对话生成 | [AKGCM](NLP\u002FEMNLP2019-AKGCM) | 包含知识增强图、知识选择和知识感知响应生成器的聊天机器人。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FD19-1187\u002F |\n| 机器翻译 | [MAL](NLP\u002FEMNLP2019-MAL) | 多智能体端到端联合学习框架，通过多个智能体的互相学习提升翻译质量。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.01101 |\n| 对话生成 | [MMPMS](NLP\u002FIJCAI2019-MMPMS) | 针对开放域对话中一对多问题，利用多映射机制和后验映射选择模块进行多样性、丰富化的对话生成。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.01781 |\n| 阅读理解 | [MRQA2019-BASELINE](NLP\u002FMRQA2019-BASELINE) | 机器阅读理解任务的基线模型，基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)预训练模型，支持多GPU微调预测。 | - |\n| 阅读理解 | [D-NET](NLP\u002FMRQA2019-D-NET) | 预训练及微调框架，包含多任务学习及多预训练模型的融合，用于阅读理解模型的生成。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FD19-5828\u002F |\n| 建议挖掘 | [MPM](NLP\u002FNAACL2019-MPM) | 利用多视角架构来学习表示和双向transformer编码器进行论坛评论建议挖掘。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FS19-2216\u002F |\n| 多文档摘要 | [ACL2020-GraphSum](NLP\u002FACL2020-GraphSum) | 基于图表示的生成式多文档摘要模型，将显式图结构信息引入到端到端摘要生成过程中。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002F2020.acl-main.555.pdf |\n| 融合多种对话类型的对话式推荐 | [ACL2020-DuRecDial](NLP\u002FACL2020-DuRecDial) | 提出新任务：融合闲聊、任务型对话、问答和推荐等多种对话类型的对话式推荐，构建DuRecDial数据集，提出具有多对话目标驱动策略机制的对话生成框架。 | https:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002F2020.acl-main.98\u002F |\n| 面向推荐的对话 | [Conversational-Recommendation-BASELINE](NLP\u002FConversational-Recommendation-BASELINE) | 融合人机对话系统和个性化推荐系统，定义新一代智能推荐技术，该系统先通过问答或闲聊收集用户兴趣和偏好，然后主动给用户推荐其感兴趣的内容，比如餐厅、美食、电影、新闻等。 | - |\n| 稠密段落检索 | [ACL2021-PAIR](NLP\u002FACL2021-PAIR) | 基于以段落相似度为中心的相似度关系提升稠密段落检索，基于知识蒸馏进行采样，采用两阶段训练方式。 | https:\u002F\u002Faclanthology.org\u002F2021.findings-acl.191\u002F |\n| 任务式对话 | [EMNLP2022-Q-TOD](NLP\u002FEMNLP2022-Q-TOD) | 自然语言查询驱动的任务式对话系统，提出由查询生成、知识检索和回复生成组成的三阶段新框架。 | https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.07564 |\n\n## 知识图谱\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 知识图谱表示学习 | [CoKE](KG\u002FCoKE) | 百度自主研发语境化知识图谱表示学习框架CoKE，在知识图谱链接预测和多步查询任务上取得学界领先效果。| [https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02168](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02168) |\n| 关系抽取 | [DuIE\\_Baseline](KG\u002FDuIE_Baseline) | 语言与智能技术竞赛关系抽取任务DuIE 2.0基线系统，通过设计结构化标注体系，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)的端到端SPO抽取模型。| - |\n| 事件抽取 |[DuEE\\_baseline](hKG\u002FDuEE_baseline)| 语言与智能技术竞赛事件抽取任务DuEE 1.0基线系统，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)+CRF的Pipeline事件抽取模型。| - |\n| 实体链指 |[DuEL\\_Baseline](KG\u002FDuEL_Baseline)| 面向中文短文本的实体链指任务(CCKS 2020)的基线系统，实现基于[ERNIE](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)和多任务机制的实体链指模型。| - |\n| 辅助诊断 |[SignOrSymptom\\_Relationship](KG\u002FACL2020_SignOrSymptom_Relationship)| 针对EMR具有无结构化文本和结构化信息并存的特点，结合医疗NLU，以深度学习模型实现EMR的向量化表示、诊断预分类和概率计算。| - |\n| 文档级关系抽取 | [SSAN](KG\u002FAAAI2021_SSAN) | 引入并建模实体间的依赖结构，在文档级关系抽取任务上取得学界领先效果。| [https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.10249](https:\u002F\u002Farxiv.org\u002Fabs\u002F2102.10249) |\n\n## 时空数据挖掘\n| 任务类型     | 目录                                                         | 简介                                                         | 论文链接 |\n| ------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 固定资产价值估计 |[MONOPOLY](ST_DM\u002FCIKM2019-MONOPOLY)| 实用的POI商业智能算法，对大量其他的固定资产进行价值估计，包括城市居民对不同公共资产价格评估、私有房价评估偏好的发现与量化分析，以及对评估固定资产价格需考虑的空间范围的确定。 | https:\u002F\u002Fdl.acm.org\u002Fdoi\u002F10.1145\u002F3357384.3357810 |\n| 兴趣点生成 |[P3AC](ST_DM\u002FKDD2020-P3AC)| 具备个性化的前缀嵌入的POI自动生成。 | - |\n| 区域生成 |[P3AC](ST_DM\u002FGenRegion)| 基于路网进行区域划分的方法, 实现对特定区域基于路网的全划分，区域之间无交叠，无空隙，算法支持对全球的区域划分。| - |\n\n\n## 许可证书\n此向导由[PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddle)贡献，受[Apache-2.0 license](LICENSE)许可认证。","# Research 快速上手指南\n\nResearch 是百度飞桨（PaddlePaddle）官方发布的开源项目集合，涵盖了计算机视觉（CV）、自然语言处理（NLP）、知识图谱（KG）及时空数据挖掘（STDM）等领域的前沿研究模型与顶会论文复现代码。本指南将帮助您快速搭建环境并运行相关模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu 18.04\u002F20.04), macOS, 或 Windows\n*   **Python 版本**：Python 3.7 - 3.10\n*   **深度学习框架**：PaddlePaddle 2.x 及以上版本\n*   **硬件要求**：\n    *   CPU：支持 AVX 指令集\n    *   GPU（可选但推荐）：NVIDIA GPU，显存 >= 4GB，已安装 CUDA 和 cuDNN\n\n### 前置依赖安装\n\n建议使用 `pip` 安装飞桨框架。国内用户推荐使用百度 AI Studio 镜像源以加速下载。\n\n```bash\n# 安装 CPU 版本 PaddlePaddle\npython -m pip install paddlepaddle -i https:\u002F\u002Fmirror.baidu.com\u002Fpypi\u002Fsimple\n\n# 或者安装 GPU 版本 PaddlePaddle (需根据实际 CUDA 版本选择，此处以 CUDA 11.2 为例)\npython -m pip install paddlepaddle-gpu==2.5.0 -i https:\u002F\u002Fmirror.baidu.com\u002Fpypi\u002Fsimple\n```\n\n> **注意**：具体 GPU 版本的安装命令请参考 [PaddlePaddle 官方安装文档](https:\u002F\u002Fwww.paddlepaddle.org.cn\u002Finstall\u002Fquick) 以匹配您的 CUDA 环境。\n\n此外，部分子项目可能需要额外的依赖库（如 `opencv-python`, `transformers`, `networkx` 等），请在进入具体任务目录后，根据该目录下的 `requirements.txt` 进行安装：\n\n```bash\npip install -r requirements.txt\n```\n\n## 安装步骤\n\nResearch 是一个模型集合仓库，没有统一的“安装”命令。使用流程通常为：**克隆仓库 -> 进入特定任务目录 -> 安装该任务依赖 -> 运行脚本**。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch.git\n    cd Research\n    ```\n\n2.  **选择任务目录**\n    根据您的研究需求，进入对应的子目录。例如，若要使用自然语言处理中的 DuReader 阅读理解模型：\n    ```bash\n    cd NLP\u002FACL2018-DuReader\n    ```\n\n3.  **安装当前任务依赖**\n    ```bash\n    # 检查当前目录下是否有 requirements.txt\n    if [ -f requirements.txt ]; then\n        pip install -r requirements.txt -i https:\u002F\u002Fmirror.baidu.com\u002Fpypi\u002Fsimple\n    fi\n    ```\n\n## 基本使用\n\n不同任务的输入输出格式和运行脚本各不相同。以下以 **NLP 领域的 DuReader 阅读理解基线模型** 为例，展示最简单的运行流程。其他任务请参考各自目录下的 `README.md` 或脚本注释。\n\n### 示例：运行 DuReader 阅读理解模型\n\n假设您已进入 `NLP\u002FACL2018-DuReader` 目录并完成依赖安装。\n\n1.  **数据准备**\n    下载 DuReader 数据集并解压到 `data` 目录（具体数据集链接请参考原项目说明）。\n    ```bash\n    mkdir -p data\n    # 此处仅为示意，实际需从官方渠道下载 dev.json 等文件\n    # wget [数据集链接] -O data\u002Fdev.json\n    ```\n\n2.  **模型预测\u002F评估**\n    运行提供的 Python 脚本进行预测或评估。通常脚本会接受配置文件或命令行参数。\n    ```bash\n    # 运行评估脚本 (具体脚本名称请以目录内实际文件为准，如 run.sh 或 evaluate.py)\n    python evaluate.py --data_path data\u002Fdev.json --model_path pretrained_model\n    ```\n\n### 通用使用提示\n\n*   **查看帮助**：大多数脚本支持 `-h` 或 `--help` 参数查看用法。\n    ```bash\n    python train.py --help\n    ```\n*   **预训练模型**：许多任务提供了预训练模型权重，通常位于各子目录的 `pretrained_models` 文件夹或通过脚本自动下载。\n*   **自定义数据**：若需使用自己的数据，请参照各任务目录下的数据格式说明（通常是 JSON 或 CSV 格式）进行转换。\n\n对于 **计算机视觉 (CV)**、**知识图谱 (KG)** 或 **时空数据挖掘 (STDM)** 的其他模型，操作逻辑一致：进入对应子目录，阅读该目录下的具体说明文档，配置数据路径后运行相应的训练或推理脚本。","某智慧交通团队正致力于开发一套城市道路车辆异常行为自动监测系统，需快速落地高精度的碰撞与失速检测模型。\n\n### 没有 Research 时\n- **复现门槛高**：团队需从零阅读 AICity2020 等顶会论文并自行编写代码，耗时数周仍难以还原冠军方案（如 VehicleCounting）的核心逻辑。\n- **算法选型难**：面对海量的深度学习架构，缺乏经过验证的基线模型对比，难以确定哪种网络最适合当前的监控视频数据特征。\n- **调试周期长**：自研模型在训练过程中容易遇到收敛困难或精度瓶颈，缺乏官方调优好的预训练权重作为参考基准，排查问题如同大海捞针。\n- **资源消耗大**：为了达到竞赛级精度，往往需要尝试多种无效的网络结构，导致算力资源浪费在低效的试错过程中。\n\n### 使用 Research 后\n- **开箱即用**：直接调用 Research 中提供的 [AICity2020-Anomaly-Detection](CV\u002FAICity2020-Anomaly-Detection) 和 [VehicleCounting](CV\u002FVehicleCounting) 项目，一键加载已复现的冠军模型代码与参数。\n- **权威基线参考**：基于库内集成的多个 SOTA（最先进）模型进行性能对标，迅速锁定适合车流统计与异常检测的最优架构路线。\n- **加速迭代优化**：利用官方提供的高精度预训练权重进行迁移学习，将模型冷启动时间从数周缩短至几天，快速适配自有数据集。\n- **降本增效显著**：直接复用经过验证的高效网络设计（如轻量化检测方案），避免了盲目试错，大幅降低了 GPU 算力成本与研发人力投入。\n\nResearch 通过将前沿顶会成果转化为可执行的工程代码，让研发团队得以站在巨人的肩膀上，实现了从“理论复现”到“业务落地”的极速跨越。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FPaddlePaddle_Research_5a234a44.png","PaddlePaddle","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FPaddlePaddle_0457ef24.jpg","",null,"http:\u002F\u002Fpaddlepaddle.org","https:\u002F\u002Fgithub.com\u002FPaddlePaddle",[79,83,87,91,95,99,103,107,111],{"name":80,"color":81,"percentage":82},"Python","#3572A5",58.2,{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",35.7,{"name":88,"color":89,"percentage":90},"Shell","#89e051",3.4,{"name":92,"color":93,"percentage":94},"Perl","#0298c3",1.7,{"name":96,"color":97,"percentage":98},"C++","#f34b7d",0.6,{"name":100,"color":101,"percentage":102},"Jsonnet","#0064bd",0.3,{"name":104,"color":105,"percentage":106},"Cuda","#3A4E3A",0.1,{"name":108,"color":109,"percentage":110},"C","#555555",0,{"name":112,"color":113,"percentage":110},"Makefile","#427819",1754,774,"2026-04-10T08:25:30","Apache-2.0",4,"未说明",{"notes":121,"python":119,"dependencies":122},"该工具集基于百度飞桨（PaddlePaddle）深度学习框架，而非 PyTorch。README 仅列出了涵盖计算机视觉、自然语言处理、知识图谱和时空数据挖掘等领域的多个独立研究项目和模型目录，未提供统一的运行环境配置、具体的硬件资源需求（如显存大小、内存容量）或 Python 版本要求。用户需进入各个具体子项目的目录查看其独立的依赖和安装说明。",[72],[15,16,14,35],[125,126,127,128,129,130],"deep-learning","computer-vision","nlp","knowledge-graph","spatial-temporal","data-mining","2026-03-27T02:49:30.150509","2026-04-11T22:07:27.075071",[134,139,143,148,153,158,163],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},29904,"PLATO-LTM 中的 Persona Extractor (PE) 是如何定义的？是否有开源的训练数据集？","Persona Extractor (PE) 基于二分类模型，直接判断句子是否为画像信息。虽然完整的训练数据未全部开源，但可以使用开源的 DuLeMon 数据集中的画像句子作为正例，再采样一些不含画像的 utterance 作为负例进行训练，实验表明效果不错。论文中使用的 200 个测试样例是在额外的手动标注数据集上生成的，更接近真实场景，但这部分数据暂未开源。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F264",{"id":140,"question_zh":141,"answer_zh":142,"source_url":138},29905,"PLATO-LTM 论文中使用的是 PLATO-2 的哪个阶段模型？微调时的损失函数和解码策略是什么？","论文中使用的 PLATO-2 中文模型是第一阶段 1v1 模型（不含隐变量），直接在 DuLeMon 数据集上使用 NLL loss 进行微调。在推理阶段，为了获得更好的多样性，使用的是 sampling 解码方式。在工程应用中，可以结合冲突检测来进一步提高事实一致性。",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},29906,"为什么无法复现 CoKE 模型在 WN18RR 数据集上的论文性能？","如果无法复现论文中的性能，请检查超参数设置。特别是 dropout 参数，脚本中的默认值可能为 0.1，但为了达到论文所述的最佳性能（MRR 0.484），需要将 dropout 设置为 0.3。其他超参数通常保持脚本默认即可。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F148",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},29907,"运行 PLATO 代码时遇到 'Parameter' object has no attribute '_grad_ivar' 错误怎么办？","该错误通常发生在 PaddlePaddle 1.6 版本上进行多卡训练时。原始论文代码是基于 PaddlePaddle 1.6 开发的，而仓库中的代码可能已更新以支持 >=1.7 版本。解决方法是修改 `plato\u002Fmodules\u002Fparallel.py` 中的 `apply_collective_grads` 函数，将获取 grad_ivar 的方式从 `param._grad_ivar()` 改为 `param._ivar._grad_ivar()`，或者直接回退到支持 1.6 版本的代码分支。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F92",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},29908,"Text2SQL-BASELINE 项目是否支持多卡并行训练？","目前 Text2SQL-BASELINE 代码暂不支持多卡训练。即使在配置文件（如 conf\u002Ftext2sql_nl2sql.jsonnet）中将 `use_data_parallel` 设置为 true，也会报错。建议暂时使用单卡进行训练。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F220",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},29909,"Text2SQL-BASELINE 训练日志中验证集准确率 (acc) 超过 1 甚至达到 6、7、8 是怎么回事？","日志中显示的 `acc` 数值并不是真正的准确率（Accuracy）。在该代码实现中，该数值实际上等于当前的训练轮次（epoch）。真实的准确率需要通过模型预测完成后，再使用专门的评估脚本进行计算得出。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F216",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},29910,"在 DuReader-Checklist 数据预处理中，如果答案 span 跨越了文本分段被截断，会被标记为无答案，这会影响模型训练吗？","这种做法是正确的，不会负面影响模型，反而是一种合理的数据增强策略。对于包含无答案问题的抽取式阅读理解任务（类似 SQuAD 2.0），当长文本被滑动窗口切割时：如果答案 span 完整保留，相当于增加了正样本；如果答案 span 被切割导致无法定位，将其标记为“无答案”（负样本）可以避免正负样本分布失衡。直接丢弃这些被切割的实例可能会导致负样本不足。","https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FResearch\u002Fissues\u002F147",[]]