[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-white127--QA-deep-learning":3,"tool-white127--QA-deep-learning":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74963,"2026-04-06T11:16:39",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":80,"owner_website":80,"owner_url":83,"languages":84,"stars":89,"forks":90,"last_commit_at":91,"license":80,"difficulty_score":92,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":100,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":101,"updated_at":102,"faqs":103,"releases":133},4542,"white127\u002FQA-deep-learning","QA-deep-learning","tensorflow and theano cnn code for insurance QA(question Answer matching)","QA-deep-learning 是一个专注于保险领域问答匹配任务的开源深度学习项目，基于 TensorFlow 和 Theano 框架构建。它旨在解决如何从大量候选答案中精准筛选出与问题最匹配回答的技术难题，特别适用于垂直领域的智能客服或知识库检索场景。\n\n该项目集成了多种主流深度学习模型供用户探索与实践，包括源自经典论文的卷积神经网络（CNN）、在保险数据集上表现优异的循环神经网络（RNN\u002FLSTM），以及以速度著称的 SWEM 模型。通过对比实验发现，不同模型在不同数据集上的表现存在差异：例如 LSTM+CNN 组合在保险问答数据上精度可达 68%，而 SWEM 虽在其他通用数据集上效率极高，但在本特定场景下效果稍逊。这种多样化的模型实现，帮助开发者理解“没有绝对最好的模型，只有最适合数据的模型”这一核心原则。\n\nQA-deep-learning 非常适合人工智能研究人员、算法工程师以及对自然语言处理感兴趣的开发者使用。它不仅提供了完整的训练代码和数据预处理脚本，还附带了详细的配置指南和性能基准，方便用户快速复现结果或在此基础上进行二次开发。如果你希望深入探究深度学习在文本匹配中","QA-deep-learning 是一个专注于保险领域问答匹配任务的开源深度学习项目，基于 TensorFlow 和 Theano 框架构建。它旨在解决如何从大量候选答案中精准筛选出与问题最匹配回答的技术难题，特别适用于垂直领域的智能客服或知识库检索场景。\n\n该项目集成了多种主流深度学习模型供用户探索与实践，包括源自经典论文的卷积神经网络（CNN）、在保险数据集上表现优异的循环神经网络（RNN\u002FLSTM），以及以速度著称的 SWEM 模型。通过对比实验发现，不同模型在不同数据集上的表现存在差异：例如 LSTM+CNN 组合在保险问答数据上精度可达 68%，而 SWEM 虽在其他通用数据集上效率极高，但在本特定场景下效果稍逊。这种多样化的模型实现，帮助开发者理解“没有绝对最好的模型，只有最适合数据的模型”这一核心原则。\n\nQA-deep-learning 非常适合人工智能研究人员、算法工程师以及对自然语言处理感兴趣的开发者使用。它不仅提供了完整的训练代码和数据预处理脚本，还附带了详细的配置指南和性能基准，方便用户快速复现结果或在此基础上进行二次开发。如果你希望深入探究深度学习在文本匹配中的应用，或需要为特定业务构建问答系统，这个项目将是一个极具参考价值的起点。","Insurance-QA deeplearning model\n======\nThis is a repo for Q&A Mathing, includes some deep learning models, such as CNN、RNN.\u003Cbr>\n1. CNN. Basic CNN model from 《Applying Deep Learning To Answer Selection: A Study And An Open Task》\u003Cbr>\n2. RNN. RNN seems the best model on Insurance-QA dataset.\u003Cbr>\n3. SWEM. SWEM is the fastest, and has good effect on other datasets, such as WikiQA ..., but is seems not so good on Insurance-QA dataset. I think that, SWEM is more suitable for Q&Q matching, not Q&A matching.\u003Cbr>\n\n\nIt's hard to say which model is the best in other datasets, you have to choose the most suitable model for you.\u003Cbr>\u003Cbr>\nMore models are on the way, pay attention to the updates.\u003Cbr>\n\n## Requirements\n1. tensorflow 1.4.0\u003Cbr>\n2. python3.5\u003Cbr>\n\n## Performance\nmargin loss version\u003Cbr>\n\nModel\u002FScore | Ins_qa_top1_precision | quora_best_prec\n------------ | ------------- | -------------\nCNN | 62% | None\nLSTM+CNN | 68% | None\nSWEM | \u003C55% | None\n\nlogloss version\u003Cbr>\n\nModel\u002FScore | Insqa_top1_precision | quora_best_prec\n------------ | ------------- | -------------\nCNN | None | 79.60%\nLSTM+CNN | None | None\nSWEM | \u003C40% | 82.69%\n\n## Running\nChange configuration to your own environment, just like data pathes\u003Cbr>\n    \n    vim config.py\n\nData processing\u003Cbr>\n   \n    python3 gen.py\n    \nRun CNN model\u003Cbr>\n\n    cd .\u002Fcnn\u002Ftensorflow && python3 insqa_train.py\n    \nIt will take few hours(thousands of epoches) to train this model on a single GPU.\u003Cbr>\n    \n## Downloads\n1. You can get Insurance-QA data from here https:\u002F\u002Fgithub.com\u002Fshuzi\u002FinsuranceQA\u003Cbr>\n2. You can get Quora data from here http:\u002F\u002Fqim.ec.quoracdn.net\u002Fquora_duplicate_questions.tsv\u003Cbr>\n\n## Links\n1. CNN and RNN textual classification repo  https:\u002F\u002Fgithub.com\u002Fwhite127\u002FTextClassification_CNN_RNN\u003Cbr>\n2. 《Applying Deep Learning To Answer Selection: A Study And An Open Task》\u003Cbr>\n\n","保险-QA深度学习模型\n======\n这是一个用于问答匹配的仓库，包含一些深度学习模型，如CNN、RNN。\u003Cbr>\n1. CNN。基于《将深度学习应用于答案选择：一项研究与开放任务》中的基础CNN模型。\u003Cbr>\n2. RNN。在Insurance-QA数据集上，RNN似乎是表现最好的模型。\u003Cbr>\n3. SWEM。SWEM速度最快，在其他数据集上效果也不错，比如WikiQA等，但在Insurance-QA数据集上的表现似乎不太理想。我认为，SWEM更适合于问题-问题的匹配，而非问题-答案的匹配。\u003Cbr>\n\n\n很难说哪种模型在其他数据集上是最好的，你需要根据具体情况选择最适合的模型。\u003Cbr>\u003Cbr>\n更多模型正在开发中，请关注后续更新。\u003Cbr>\n\n## 需求\n1. tensorflow 1.4.0\u003Cbr>\n2. python3.5\u003Cbr>\n\n## 性能\nmargin loss版本\u003Cbr>\n\n模型\u002F指标 | Ins_qa_top1_precision | quora_best_prec\n------------ | ------------- | -------------\nCNN | 62% | 无\nLSTM+CNN | 68% | 无\nSWEM | \u003C55% | 无\n\nlogloss版本\u003Cbr>\n\n模型\u002F指标 | Insqa_top1_precision | quora_best_prec\n------------ | ------------- | -------------\nCNN | 无 | 79.60%\nLSTM+CNN | 无 | 无\nSWEM | \u003C40% | 82.69%\n\n## 运行\n请根据你的环境修改配置，例如数据路径等。\u003Cbr>\n    \n    vim config.py\n\n数据处理\u003Cbr>\n   \n    python3 gen.py\n    \n运行CNN模型\u003Cbr>\n\n    cd .\u002Fcnn\u002Ftensorflow && python3 insqa_train.py\n    \n在单块GPU上训练该模型可能需要数小时（数千轮迭代）。\u003Cbr>\n    \n## 下载\n1. 你可以从这里获取Insurance-QA数据：https:\u002F\u002Fgithub.com\u002Fshuzi\u002FinsuranceQA\u003Cbr>\n2. 你可以从这里获取Quora数据：http:\u002F\u002Fqim.ec.quoracdn.net\u002Fquora_duplicate_questions.tsv\u003Cbr>\n\n## 链接\n1. CNN和RNN文本分类仓库：https:\u002F\u002Fgithub.com\u002Fwhite127\u002FTextClassification_CNN_RNN\u003Cbr>\n2. 《将深度学习应用于答案选择：一项研究与开放任务》\u003Cbr>","# QA-deep-learning 快速上手指南\n\n本指南帮助开发者快速部署并运行基于深度学习的问答匹配模型（CNN、RNN、SWEM），适用于保险问答（Insurance-QA）等数据集。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS (Windows 需配置相应 Python 环境)\n*   **Python 版本**：Python 3.5\n*   **深度学习框架**：TensorFlow 1.4.0\n*   **硬件建议**：单张 GPU 可加速训练过程（CPU 训练耗时较长）\n\n> **注意**：由于项目依赖较旧版本的 TensorFlow (1.4.0)，建议使用虚拟环境（如 `virtualenv` 或 `conda`）隔离依赖，避免与现有项目冲突。国内用户可使用清华源或阿里源加速安装：\n> ```bash\n> pip install tensorflow==1.4.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n1.  **克隆代码库**\n    将项目代码下载到本地：\n    ```bash\n    git clone \u003Crepository_url>\n    cd QA-deep-learning\n    ```\n\n2.  **安装依赖**\n    确保已安装 Python 3.5 和 TensorFlow 1.4.0。若未安装，执行：\n    ```bash\n    pip3 install tensorflow==1.4.0\n    ```\n\n3.  **准备数据**\n    本项目不支持自动下载数据，需手动获取并放置到指定目录：\n    *   **Insurance-QA 数据**：从 [GitHub](https:\u002F\u002Fgithub.com\u002Fshuzi\u002FinsuranceQA) 下载。\n    *   **Quora 数据**：从 [官方链接](http:\u002F\u002Fqim.ec.quoracdn.net\u002Fquora_duplicate_questions.tsv) 下载。\n    \n    下载完成后，请根据实际存放路径修改配置文件。\n\n## 基本使用\n\n### 1. 配置环境路径\n编辑 `config.py` 文件，将数据路径修改为您本地的实际路径：\n```bash\nvim config.py\n```\n*在文件中找到数据路径相关变量并更新。*\n\n### 2. 数据预处理\n运行脚本生成模型所需的输入数据：\n```bash\npython3 gen.py\n```\n\n### 3. 训练模型\n以 **CNN 模型**为例，进入对应目录并启动训练：\n```bash\ncd .\u002Fcnn\u002Ftensorflow && python3 insqa_train.py\n```\n\n*   **耗时提示**：在单张 GPU 上训练数千个 epoch 可能需要数小时，请耐心等待。\n*   **其他模型**：如需尝试 RNN 或 SWEM 模型，请参考项目目录下对应的脚本文件进行调整。\n\n### 性能参考\n根据官方测试，不同模型在 Insurance-QA 数据集上的 Top-1 精度表现如下（Margin Loss 版本）：\n*   **CNN**: 62%\n*   **LSTM+CNN**: 68% (推荐用于此数据集)\n*   **SWEM**: \u003C55% (更适合问句匹配任务，而非问答匹配)","某大型保险公司的智能客服团队正致力于升级其自动问答系统，以从海量历史保单数据中精准匹配用户提问与标准答案。\n\n### 没有 QA-deep-learning 时\n- **匹配准确率低**：依赖传统的关键词匹配或浅层机器学习模型，无法理解“理赔流程”与“如何申请赔款”之间的语义关联，导致首条推荐答案准确率不足 50%。\n- **模型选型盲目**：面对 CNN、RNN 等多种深度学习架构，团队缺乏针对保险垂直领域的基准测试数据，难以判断哪种模型最适合处理复杂的保单问答对。\n- **研发周期漫长**：从零复现论文《Applying Deep Learning To Answer Selection》中的算法需要数周时间，且需自行清洗和格式化 Insurance-QA 数据集，严重拖慢项目进度。\n- **性能调优困难**：缺乏现成的损失函数（如 margin loss 或 logloss）对比实验，难以通过调整超参数将 Top-1 精度提升至可用水平。\n\n### 使用 QA-deep-learning 后\n- **语义理解跃升**：直接部署经过验证的 LSTM+CNN 混合模型，利用其在 Insurance-QA 数据集上 68% 的 Top-1 精度表现，显著提升了复杂问法的识别能力。\n- **架构决策清晰**：借助工具提供的多模型（CNN\u002FRNN\u002FSWEM）性能对比表，团队迅速确认 RNN 类模型在保险场景下的优势，避免了无效的试错成本。\n- **快速落地验证**：利用内置的数据生成脚本（gen.py）和训练代码，仅需修改配置文件即可在单 GPU 环境下启动训练，将原型开发时间从数周缩短至数小时。\n- **效果可量化**：基于官方提供的 margin loss 版本基准，团队能快速评估模型迭代效果，确保上线系统的回答匹配度达到业务验收标准。\n\nQA-deep-learning 通过提供经过实战验证的保险领域深度学习基线模型，帮助团队跨越了从理论算法到高精度生产系统的鸿沟。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fwhite127_QA-deep-learning_a8fe3044.png","white127","Xiongda","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fwhite127_46448948.png","Hola",null,"China","jiangwen127@gmail.com","https:\u002F\u002Fgithub.com\u002Fwhite127",[85],{"name":86,"color":87,"percentage":88},"Python","#3572A5",100,530,276,"2025-08-07T12:21:22",4,"未说明","训练需要单块 GPU（具体型号和显存未说明），需安装与 TensorFlow 1.4.0 兼容的 CUDA 版本",{"notes":96,"python":97,"dependencies":98},"该工具基于较旧的 TensorFlow 1.4.0 版本，现代环境可能需要配置兼容的旧版 CUDA。训练 CNN 模型在单 GPU 上可能需要数小时（数千个 epoch）。数据需从外部链接单独下载（Insurance-QA 和 Quora 数据集）。运行前需修改 config.py 中的数据路径配置。","3.5",[99],"tensorflow==1.4.0",[15],"2026-03-27T02:49:30.150509","2026-04-07T01:56:58.841834",[104,109,114,119,124,129],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},20673,"为什么我的模型准确率异常高（超过 80%），远超论文中的 State-of-the-art？","这通常是因为数据划分或验证逻辑存在错误。有用户反馈在修正相关错误后，准确率会回归到正常水平（如 CNN 约 58%）。请仔细检查代码中训练集（train）和验证集（test1）的使用逻辑，确保没有发生数据泄露或错误的评估方式。","https:\u002F\u002Fgithub.com\u002Fwhite127\u002FQA-deep-learning\u002Fissues\u002F10",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},20674,"代码是否使用了预训练的 Word2Vec 向量（vectors.nobin）来初始化网络参数？","默认情况下，该代码使用的是随机初始化的向量（tf.random_uniform），并没有直接利用 load_vectors() 加载的预训练权重。维护者指出，在该特定数据集上，随机初始化的向量在训练过程中也能较好地收敛，对最终模型效果影响不大。如果需要强制使用预训练权重，需自行修改初始化代码。","https:\u002F\u002Fgithub.com\u002Fwhite127\u002FQA-deep-learning\u002Fissues\u002F22",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},20675,"CNN 网络结构中，第二层卷积层（conv2d）的输入应该是什么？","根据讨论，卷积层的输入应当是对词向量组成的矩阵进行卷积操作。如果代码中第二层 conv2d 的输入仍然指向原始输入（input_x1）而非第一层的输出（outputs_1），则可能存在逻辑错误。正确的流向应该是上一层的输出作为下一层的输入。","https:\u002F\u002Fgithub.com\u002Fwhite127\u002FQA-deep-learning\u002Fissues\u002F1",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},20676,"在哪里可以找到或查看转换后的真实单词格式样本数据？","项目已将原始的 idx_xx 格式转换为真实单词格式。你可以查看项目目录下的 .\u002FinsuranceQA\u002Ftrain 和 .\u002FinsuranceQA\u002Ftest1.sample 文件。如果未找到，请查找项目中生成这些文件的脚本代码运行后即可得到。","https:\u002F\u002Fgithub.com\u002Fwhite127\u002FQA-deep-learning\u002Fissues\u002F28",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},20677,"加载保存的模型时提示 \"The name 'W:0' refers to a Tensor which does not exist\" 错误怎么办？","该错误表明尝试获取的张量名称在当前计算图中不存在。这通常是因为保存模型时的变量命名空间（scope）与加载时不一致，或者模型结构定义发生了变化。请检查保存模型时的变量名，并确保在加载前构建了完全相同的网络结构图。同时，如果 TensorBoard 提示无数据，请确认训练过程中是否正确写入了 event 文件以及路径配置是否正确。","https:\u002F\u002Fgithub.com\u002Fwhite127\u002FQA-deep-learning\u002Fissues\u002F23",{"id":130,"question_zh":131,"answer_zh":132,"source_url":113},20678,"使用随机初始化的向量代替预训练向量会对模型效果产生很大影响吗？","在该项目的特定数据集（Insurance QA）上，维护者表示影响不是很大。实验表明，即使是随机初始化的向量，模型在训练过程中也能较好地收敛并达到可用的效果。因此，如果没有特殊的领域适配需求，可以直接使用默认的随机初始化方案。",[]]