[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-practicingman--chinese_text_cnn":3,"tool-practicingman--chinese_text_cnn":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",141543,2,"2026-04-06T11:32:54",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74963,"2026-04-06T11:16:39",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":78,"owner_website":78,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":78,"difficulty_score":10,"env_os":89,"env_gpu":90,"env_ram":89,"env_deps":91,"category_tags":98,"github_topics":99,"view_count":10,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":142},4405,"practicingman\u002Fchinese_text_cnn","chinese_text_cnn","TextCNN Pytorch实现 中文文本分类 情感分析","chinese_text_cnn 是一个基于 PyTorch 框架实现的中文文本分类工具，核心算法源自经典的 TextCNN 模型。它主要致力于解决中文语境下的情感分析与文本归类难题，能够帮助机器快速理解并判断一段文字的情感倾向或类别归属。\n\n这款工具特别适合人工智能开发者、自然语言处理研究人员以及需要构建文本分析应用的技术团队使用。对于希望深入理解卷积神经网络在 NLP 领域应用的学习者而言，它也是一个极佳的实践参考项目。\n\nchinese_text_cnn 的技术亮点在于其灵活多样的词向量处理策略。它不仅支持从零开始随机初始化训练（CNN-rand），更深度集成了预训练的中文词向量（如基于知乎问答数据训练的 Word2vec）。用户可以根据实际需求，选择固定预训练向量（CNN-static）、微调预训练向量（CNN-non-static）或多通道混合模式（CNN-multichannel）。实验数据显示，通过微调预训练词向量，该模型在测试集上的准确率可达 96%，展现了出色的性能表现。配合 jieba 分词与 torchtext 数据处理库，chinese_text_cnn 提供了","chinese_text_cnn 是一个基于 PyTorch 框架实现的中文文本分类工具，核心算法源自经典的 TextCNN 模型。它主要致力于解决中文语境下的情感分析与文本归类难题，能够帮助机器快速理解并判断一段文字的情感倾向或类别归属。\n\n这款工具特别适合人工智能开发者、自然语言处理研究人员以及需要构建文本分析应用的技术团队使用。对于希望深入理解卷积神经网络在 NLP 领域应用的学习者而言，它也是一个极佳的实践参考项目。\n\nchinese_text_cnn 的技术亮点在于其灵活多样的词向量处理策略。它不仅支持从零开始随机初始化训练（CNN-rand），更深度集成了预训练的中文词向量（如基于知乎问答数据训练的 Word2vec）。用户可以根据实际需求，选择固定预训练向量（CNN-static）、微调预训练向量（CNN-non-static）或多通道混合模式（CNN-multichannel）。实验数据显示，通过微调预训练词向量，该模型在测试集上的准确率可达 96%，展现了出色的性能表现。配合 jieba 分词与 torchtext 数据处理库，chinese_text_cnn 提供了简洁的命令行接口，让用户能够轻松完成从数据加载、模型训练到效果评估的全流程，是进行中文文本挖掘的高效利器。","## TextCNN Pytorch实现 中文文本分类\n## 论文\n[Convolutional Neural Networks for Sentence Classification](https:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)\n\n## 参考\n* https:\u002F\u002Fgithub.com\u002Fyoonkim\u002FCNN_sentence\n* https:\u002F\u002Fgithub.com\u002Fdennybritz\u002Fcnn-text-classification-tf\n* https:\u002F\u002Fgithub.com\u002FShawn1993\u002Fcnn-text-classification-pytorch\n\n## 依赖项\n* python3.5\n* pytorch==1.0.0\n* torchtext==0.3.1\n* jieba==0.39\n\n## 词向量\nhttps:\u002F\u002Fgithub.com\u002FEmbedding\u002FChinese-Word-Vectors\u003Cbr>\n（这里用的是Zhihu_QA 知乎问答训练出来的word Word2vec）\n## 用法\n```bash\npython3 main.py -h\n```\n\n## 训练\n```bash\npython3 main.py\n```\n\n## 准确率\n- [x] CNN-rand 随机初始化Embedding\n    ```bash\n      python main.py\n    ```\n    >\n        Batch[1800] - loss: 0.009499  acc: 100.0000%(128\u002F128)\n        Evaluation - loss: 0.000026  acc: 94.0000%(6616\u002F7000)\n        early stop by 1000 steps, acc: 94.0000%\n- [x] CNN-static 使用预训练的静态词向量\n    ```bash\n      python main.py -static=true\n    ```\n    >\n        Batch[1900] - loss: 0.011894  acc: 100.0000%(128\u002F128)\n        Evaluation - loss: 0.000018  acc: 95.0000%(6679\u002F7000)\n        early stop by 1000 steps, acc: 95.0000%\n- [x] CNN-non-static 微调预训练的词向量\n    ```bash\n      python main.py -static=true -non-static=true\n    ```\n    >\n        Batch[1500] - loss: 0.008823  acc: 99.0000%(127\u002F128))\n        Evaluation - loss: 0.000016  acc: 96.0000%(6729\u002F7000)\n        early stop by 1000 steps, acc: 96.0000%\n- [x] CNN-multichannel 微调加静态\n    ```bash\n      python main.py -static=true -non-static=true -multichannel=true\n    ```\n    >\n        Batch[1500] - loss: 0.023020  acc: 98.0000%(126\u002F128))\n        Evaluation - loss: 0.000016  acc: 96.0000%(6744\u002F7000)\n        early stop by 1000 steps, acc: 96.0000%\n","## TextCNN PyTorch 实现 中文文本分类\n## 论文\n[用于句子分类的卷积神经网络](https:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)\n\n## 参考\n* https:\u002F\u002Fgithub.com\u002Fyoonkim\u002FCNN_sentence\n* https:\u002F\u002Fgithub.com\u002Fdennybritz\u002Fcnn-text-classification-tf\n* https:\u002F\u002Fgithub.com\u002FShawn1993\u002Fcnn-text-classification-pytorch\n\n## 依赖项\n* python3.5\n* pytorch==1.0.0\n* torchtext==0.3.1\n* jieba==0.39\n\n## 词向量\nhttps:\u002F\u002Fgithub.com\u002FEmbedding\u002FChinese-Word-Vectors\u003Cbr>\n（这里用的是Zhihu_QA 知乎问答训练出来的word Word2vec）\n## 使用方法\n```bash\npython3 main.py -h\n```\n\n## 训练\n```bash\npython3 main.py\n```\n\n## 准确率\n- [x] CNN-rand 随机初始化Embedding\n    ```bash\n      python main.py\n    ```\n    >\n        第1800批 - 损失: 0.009499  准确率: 100.0000%(128\u002F128)\n        评估 - 损失: 0.000026  准确率: 94.0000%(6616\u002F7000)\n        因1000步未改善而提前停止，准确率为94.0000%\n- [x] CNN-static 使用预训练的静态词向量\n    ```bash\n      python main.py -static=true\n    ```\n    >\n        第1900批 - 损失: 0.011894  准确率: 100.0000%(128\u002F128)\n        评估 - 损失: 0.000018  准确率: 95.0000%(6679\u002F7000)\n        因1000步未改善而提前停止，准确率为95.0000%\n- [x] CNN-non-static 微调预训练的词向量\n    ```bash\n      python main.py -static=true -non-static=true\n    ```\n    >\n        第1500批 - 损失: 0.008823  准确率: 99.0000%(127\u002F128))\n        评估 - 损失: 0.000016  准确率: 96.0000%(6729\u002F7000)\n        因1000步未改善而提前停止，准确率为96.0000%\n- [x] CNN-multichannel 微调加静态\n    ```bash\n      python main.py -static=true -non-static=true -multichannel=true\n    ```\n    >\n        第1500批 - 损失: 0.023020  准确率: 98.0000%(126\u002F128))\n        评估 - 损失: 0.000016  准确率: 96.0000%(6744\u002F7000)\n        因1000步未改善而提前停止，准确率为96.0000%","# chinese_text_cnn 快速上手指南\n\n本工具是基于 PyTorch 实现的中文文本分类模型（TextCNN），支持随机初始化、静态词向量、微调及多通道等多种训练模式。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：Python 3.5+\n*   **核心依赖**：\n    *   `pytorch==1.0.0`\n    *   `torchtext==0.3.1`\n    *   `jieba==0.39` (用于中文分词)\n\n> **提示**：建议在国内开发环境中使用清华或阿里镜像源加速依赖安装。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone \u003C项目仓库地址>\n    cd chinese_text_cnn\n    ```\n\n2.  **安装 Python 依赖**\n    推荐使用国内镜像源安装所需库：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *若项目中无 `requirements.txt`，请手动执行：*\n    ```bash\n    pip install torch==1.0.0 torchtext==0.3.1 jieba==0.39 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **准备词向量（可选但推荐）**\n    为了获得更好的分类效果，建议下载预训练的中文词向量（如知乎问答数据集训练的 Word2vec）：\n    *   下载地址：[Chinese-Word-Vectors](https:\u002F\u002Fgithub.com\u002FEmbedding\u002FChinese-Word-Vectors)\n    *   将下载好的词向量文件放置在项目指定的数据目录中（具体路径请参考项目内数据加载逻辑）。\n\n## 基本使用\n\n### 1. 查看帮助信息\n了解所有可用参数及用法：\n```bash\npython3 main.py -h\n```\n\n### 2. 开始训练\n运行默认配置进行训练（采用随机初始化的 Embedding）：\n```bash\npython3 main.py\n```\n\n### 3. 进阶训练模式\n根据需求选择不同的词向量策略：\n\n*   **使用预训练静态词向量 (CNN-static)**\n    ```bash\n    python main.py -static=true\n    ```\n\n*   **微调预训练词向量 (CNN-non-static)**\n    ```bash\n    python main.py -static=true -non-static=true\n    ```\n\n*   **多通道模式：微调 + 静态 (CNN-multichannel)**\n    ```bash\n    python main.py -static=true -non-static=true -multichannel=true\n    ```\n\n训练过程中会自动输出 Loss 和准确率（acc），并在达到早停条件（early stop）后结束训练。","某电商公司的数据团队需要每日处理数万条中文用户评论，以快速识别产品负面反馈并预警潜在舆情危机。\n\n### 没有 chinese_text_cnn 时\n- 依赖人工抽检或简单的关键词匹配，无法理解“质量不错但物流太慢”这类复杂语义，导致大量隐性差评被漏判。\n- 尝试从头训练深度学习模型时，因缺乏针对中文优化的预训练词向量，模型收敛极慢且准确率长期徘徊在 80% 以下。\n- 调整网络结构需手动重写大量 PyTorch 代码，复现论文中的多通道（Multichannel）或静态\u002F非静态嵌入策略耗时费力，难以快速验证效果。\n- 缺乏统一的评估基准，团队无法确定是数据清洗不到位还是模型架构有问题，排查问题如同大海捞针。\n\n### 使用 chinese_text_cnn 后\n- 直接加载基于知乎问答训练的 Word2vec 词向量，模型能精准捕捉中文语境下的情感倾向，对复杂句式的分类准确率提升至 96%。\n- 通过一行命令即可切换 CNN-static、CNN-non-static 等四种模式，快速验证出“微调预训练向量”最适合当前业务场景，研发周期从周缩短至小时。\n- 内置的早停机制和清晰的训练日志（Loss\u002FAccuracy 实时输出），让开发人员能直观监控模型状态，迅速定位过拟合或欠拟合问题。\n- 基于成熟的 PyTorch 实现，团队可轻松将模型集成到现有数据处理流水线中，实现了万级评论的自动化实时情感打分。\n\nchinese_text_cnn 通过提供开箱即用的高性能中文文本分类方案，将原本高门槛的算法落地过程转化为高效的工程实践，显著提升了舆情响应速度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpracticingman_chinese_text_cnn_dc34d925.png","practicingman","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpracticingman_2de7ffcc.jpg",null,"wizard.nanli@gmail.com","https:\u002F\u002Fgithub.com\u002Fpracticingman",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,645,119,"2026-03-17T16:11:30","未说明","未说明 (基于 PyTorch 1.0.0，通常支持 CPU 或任意兼容 CUDA 的 GPU，无特定型号要求)",{"notes":92,"python":93,"dependencies":94},"该项目是 TextCNN 的 PyTorch 实现，用于中文文本分类。需自行下载预训练词向量（如知乎问答训练的 Word2vec）。代码较旧（依赖 PyTorch 1.0.0），在现代环境中运行可能需要调整依赖版本。","3.5",[95,96,97],"pytorch==1.0.0","torchtext==0.3.1","jieba==0.39",[15],[100,101,102,103],"text-cnn","text-classification","chinese-text-classification","nlp","2026-03-27T02:49:30.150509","2026-04-06T21:11:21.056979",[107,112,117,122,127,132,137],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},20032,"如何编写预测代码？","可以使用以下函数进行预测。该函数接收文本字符串、模型、文本字段、标签字段和 CUDA 标志，返回预测的标签：\n```python\ndef predict(text, model, text_field, label_feild, cuda_flag):\n    assert isinstance(text, str)\n    model.eval()\n    text = text_field.preprocess(text)\n    text = [[text_field.vocab.stoi[x] for x in text]]\n    x = torch.tensor(text)\n    x = autograd.Variable(x)\n    if cuda_flag:\n        x = x.cuda()\n    output = model(x)\n    _, predicted = torch.max(output, 1)\n    return label_feild.vocab.itos[predicted.data[0]+1]\n```","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F1",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},20033,"运行时报错 'OverflowError: Python int too large to convert to C long' 如何解决？","这是 torchtext 库在 Windows 上的已知问题。有两种解决方法：\n1. 修改 torchtext 库源码：找到 `site-packages\u002Ftorchtext\u002Futils.py` 文件的第 130 行，将 `csv.field_size_limit(sys.maxsize)` 这一行注释掉，或者将 `sys.maxsize` 替换为 `maxInt`。\n2. 原因分析：该库在 try 块中已经调用过一次限制设置（并除以 10 以避免错误），但在 try 块外又错误地调用了一次导致溢出。","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F4",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},20034,"高版本 PyTorch 中报错 'RuntimeError: set_storage_offset is not allowed on a Tensor created from .data or .detach()' 怎么办？","这是因为高版本 PyTorch 不允许直接对 `.data` 或 `.detach()` 创建的张量进行原地操作（如 `t_()` 或 `sub_()`）。\n请将 `train.py` 中的报错代码：\n`feature.data.t_(), target.data.sub_(1)`\n修改为：\n```python\nfeature = feature.data.t()\ntarget = target.data.sub(1)\n```\n即去掉下划线，改为非原地操作并重新赋值。","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F5",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},20035,"代码中的 `from_pretrained` 函数在哪里定义的？找不到报错。","`from_pretrained` 不是该项目自定义的函数，而是 PyTorch 框架自带的函数。它是 `torch.nn.Embedding` 类的方法，用于加载预训练的词向量。您可以查阅 PyTorch 官方文档：https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Fnn.html#torch.nn.Embedding.from_pretrained","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F2",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},20036,"使用 multichannel 模式时，参数 `-static` 和 `-non-static` 应该如何设置？","当同时设置 `-static=true`, `-non-static=true`, `-multichannel=true` 时：\n1. 第一个 embedding 层：由于 `freeze=not args.non_static`，当 `non_static` 为 true 时，`freeze` 为 false，表示该层参数会微调。\n2. 第二个 embedding 层（multichannel）：代码中直接加载预训练向量，默认也是可训练的。\n因此，如果三个选项均为 True，两个嵌入层确实都会进行微调。如果希望固定其中一个，需要调整 `-non-static` 参数为 false。","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F3",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},20037,"训练过程中调用测试函数后，是否需要手动恢复训练模式？","是的。在训练阶段调用完测试函数（通常内部会调用 `model.eval()`）后，应该显式添加一行 `model.train()` 代码，将模型恢复到训练模式，否则后续的 Dropout 和 BatchNorm 等层将无法正常工作。","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F8",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},20038,"报错 'AttributeError: Example object has no attribute text' 是什么原因？","这个错误通常发生在 `torchtext` 构建词汇表时，无法在数据集中找到名为 'text' 的属性。请检查数据集加载代码（`dataset.py`），确保读取数据时生成的 `Example` 对象中包含了与 `text_field` 名称对应的属性（默认为 'text'），并且数据文件中的列名与代码定义一致。","https:\u002F\u002Fgithub.com\u002Fpracticingman\u002Fchinese_text_cnn\u002Fissues\u002F7",[]]