[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yikangshen--Ordered-Neurons":3,"tool-yikangshen--Ordered-Neurons":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":81,"owner_location":80,"owner_email":82,"owner_twitter":80,"owner_website":80,"owner_url":83,"languages":84,"stars":105,"forks":106,"last_commit_at":107,"license":108,"difficulty_score":109,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":119,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":173},4275,"yikangshen\u002FOrdered-Neurons","Ordered-Neurons","Code for the paper \"Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks\"","Ordered-Neurons 是一个基于 PyTorch 的开源深度学习项目，源自论文《Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks》。它旨在解决传统循环神经网络（RNN）难以有效捕捉句子层级结构和长距离依赖关系的痛点。通过引入“有序神经元”机制，Ordered-Neurons 创新性地将树状结构信息整合进标准的 LSTM 网络中，使模型能够像人类理解语法一样，自动学习从短语到句子的层次化表示，而无需依赖额外的标注数据。\n\n这一技术亮点让 Ordered-Neurons 在两项关键任务上表现卓越：一是词级语言建模，在标准宾州树库（PTB）测试集上实现了约 56.17 的困惑度；二是无监督句法分析，在 WSJ 测试集上取得了约 47.7 的未标记 F1 值。这意味着它不仅能更精准地预测下一个单词，还能在无监督状态下挖掘出潜在的语法规则。\n\nOrdered-Neurons 非常适合自然语言处理领域的研究人员和开发者使用。如果你正在探索如何让神经网络更好地理解语言结构，或者需要复现论文","Ordered-Neurons 是一个基于 PyTorch 的开源深度学习项目，源自论文《Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks》。它旨在解决传统循环神经网络（RNN）难以有效捕捉句子层级结构和长距离依赖关系的痛点。通过引入“有序神经元”机制，Ordered-Neurons 创新性地将树状结构信息整合进标准的 LSTM 网络中，使模型能够像人类理解语法一样，自动学习从短语到句子的层次化表示，而无需依赖额外的标注数据。\n\n这一技术亮点让 Ordered-Neurons 在两项关键任务上表现卓越：一是词级语言建模，在标准宾州树库（PTB）测试集上实现了约 56.17 的困惑度；二是无监督句法分析，在 WSJ 测试集上取得了约 47.7 的未标记 F1 值。这意味着它不仅能更精准地预测下一个单词，还能在无监督状态下挖掘出潜在的语法规则。\n\nOrdered-Neurons 非常适合自然语言处理领域的研究人员和开发者使用。如果你正在探索如何让神经网络更好地理解语言结构，或者需要复现论文中的无监督解析实验，这套代码提供了完整的训练与测试脚本。虽然其运行环境要求特定的旧版依赖（如 PyTorch 0.4），但它为理解神经符号结合提供了宝贵的参考实现，是深入探究语言模型内部机理的有力工具。","# ON-LSTM\n\nThis repository contains the code used for word-level language model and unsupervised parsing experiments in \n[Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.09536) paper, \noriginally forked from the \n[LSTM and QRNN Language Model Toolkit for PyTorch](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fawd-lstm-lm).\nIf you use this code or our results in your research, we'd appreciate if you cite our paper as following:\n\n```\n@article{shen2018ordered,\n  title={Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks},\n  author={Shen, Yikang and Tan, Shawn and Sordoni, Alessandro and Courville, Aaron},\n  journal={arXiv preprint arXiv:1810.09536},\n  year={2018}\n}\n```\n\n## Software Requirements\nPython 3.6, NLTK and PyTorch 0.4 are required for the current codebase.\n\n## Steps\n\n1. Install PyTorch 0.4 and NLTK\n\n2. Download PTB data. Note that the two tasks, i.e., language modeling and unsupervised parsing share the same model \nstrucutre but require different formats of the PTB data. For language modeling we need the standard 10,000 word \n[Penn Treebank corpus](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002F75e435f98ab7aaa7f82632d4e633e8e03070e8ac\u002Fword_language_model\u002Fdata\u002Fpenn) data, \nand for parsing we need [Penn Treebank Parsed](https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC99T42) data.\n\n3. Scripts and commands\n\n  \t+  Train Language Modeling\n  \t```python main.py --batch_size 20 --dropout 0.45 --dropouth 0.3 --dropouti 0.5 --wdrop 0.45 --chunk_size 10 --seed 141 --epoch 1000 --data \u002Fpath\u002Fto\u002Fyour\u002Fdata```\n\n  \t+ Test Unsupervised Parsing\n    ```python test_phrase_grammar.py --cuda```\n    \n    The default setting in `main.py` achieves a perplexity of approximately `56.17` on PTB test set \n    and unlabeled F1 of approximately `47.7` on WSJ test set.\n","# ON-LSTM\n\n本仓库包含论文《有序神经元：将树结构整合到循环神经网络中》（[arXiv:1810.09536](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.09536)）中用于词级语言模型和无监督句法分析实验的代码，最初基于 [PyTorch 的 LSTM 和 QRNN 语言模型工具包](https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fawd-lstm-lm) 分支而来。如果您在研究中使用了这些代码或我们的实验结果，我们诚挚地希望您能按如下方式引用我们的论文：\n\n```\n@article{shen2018ordered,\n  title={Ordered Neurons: Integrating Tree Structures into Recurrent Neural Networks},\n  author={Shen, Yikang and Tan, Shawn and Sordoni, Alessandro and Courville, Aaron},\n  journal={arXiv preprint arXiv:1810.09536},\n  year={2018}\n}\n```\n\n## 软件要求\n当前代码库需要 Python 3.6、NLTK 和 PyTorch 0.4。\n\n## 操作步骤\n\n1. 安装 PyTorch 0.4 和 NLTK。\n\n2. 下载 PTB 数据。请注意，语言模型和无监督句法分析这两个任务虽然共享相同的模型结构，但对 PTB 数据的格式要求不同。对于语言模型任务，我们需要标准的 10,000 词 [Penn Treebank 语料库](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002F75e435f98ab7aaa7f82632d4e633e8e03070e8ac\u002Fword_language_model\u002Fdata\u002Fpenn) 数据；而对于句法分析任务，则需要 [Penn Treebank Parsed](https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC99T42) 数据。\n\n3. 脚本与命令\n\n   + 训练语言模型\n   ```python main.py --batch_size 20 --dropout 0.45 --dropouth 0.3 --dropouti 0.5 --wdrop 0.45 --chunk_size 10 --seed 141 --epoch 1000 --data \u002Fpath\u002Fto\u002Fyour\u002Fdata```\n\n   + 测试无监督句法分析\n   ```python test_phrase_grammar.py --cuda```\n   \n   `main.py` 中的默认设置在 PTB 测试集上可达到约 `56.17` 的困惑度，在 WSJ 测试集上可达到约 `47.7` 的未标注 F1 分数。","# Ordered-Neurons (ON-LSTM) 快速上手指南\n\n本指南帮助开发者快速部署并运行基于 ON-LSTM 的词级语言模型及无监督句法分析实验。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows\n*   **Python 版本**：Python 3.6\n*   **核心依赖**：\n    *   PyTorch 0.4\n    *   NLTK\n\n> **注意**：本项目代码基于较旧版本的 PyTorch (0.4) 开发，建议创建独立的虚拟环境以避免版本冲突。\n\n## 安装步骤\n\n### 1. 安装基础依赖\n使用 `pip` 安装所需的 Python 库。国内用户推荐使用清华或阿里镜像源加速下载。\n\n```bash\npip install torch==0.4.1 nltk -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 获取项目代码\n克隆本仓库到本地：\n\n```bash\ngit clone \u003Crepository_url>\ncd \u003Crepository_directory>\n```\n\n### 3. 准备数据集\n根据任务不同，需要下载不同格式的 Penn Treebank (PTB) 数据：\n\n*   **语言建模 (Language Modeling)**：\n    下载标准的 10,000 词 PTB 语料库。\n    数据地址：[Penn Treebank corpus](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fexamples\u002Ftree\u002F75e435f98ab7aaa7f82632d4e633e8e03070e8ac\u002Fword_language_model\u002Fdata\u002Fpenn)\n    \n*   **无监督句法分析 (Unsupervised Parsing)**：\n    下载已标注的 Penn Treebank Parsed 数据 (LDC99T42)。\n    数据地址：[Penn Treebank Parsed](https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC99T42)\n\n将下载的数据解压并放置到您指定的路径（例如 `\u002Fpath\u002Fto\u002Fyour\u002Fdata`）。\n\n## 基本使用\n\n### 训练语言模型\n运行以下命令开始训练。默认配置在 PTB 测试集上可达到约 `56.17` 的困惑度 (Perplexity)。\n\n```bash\npython main.py --batch_size 20 --dropout 0.45 --dropouth 0.3 --dropouti 0.5 --wdrop 0.45 --chunk_size 10 --seed 141 --epoch 1000 --data \u002Fpath\u002Fto\u002Fyour\u002Fdata\n```\n\n*请将 `\u002Fpath\u002Fto\u002Fyour\u002Fdata` 替换为您实际的数据集路径。*\n\n### 测试无监督句法分析\n训练完成后（或使用预训练模型），运行以下脚本进行句法分析测试。默认配置在 WSJ 测试集上的无标签 F1 值约为 `47.7`。\n\n```bash\npython test_phrase_grammar.py --cuda\n```\n\n> **提示**：`--cuda` 参数用于启用 GPU 加速，请确保您的环境支持 CUDA。","某自然语言处理团队正在构建一个无需人工标注句法树的智能文本分析系统，旨在从海量新闻数据中自动提取深层语义结构。\n\n### 没有 Ordered-Neurons 时\n- **结构感知能力弱**：传统 LSTM 模型将句子视为线性序列，难以捕捉长短语之间的层级依赖关系，导致对复杂句式的理解支离破碎。\n- **依赖昂贵标注数据**：若要实现准确的句法分析，必须使用大量人工标注的树库（如 Penn Treebank Parsed）进行监督训练，数据准备成本极高且周期长。\n- **泛化性能受限**：在遇到未见过的新领域文本或非标准语法结构时，模型往往因为缺乏内在的结构归纳能力而表现大幅下滑。\n- **推理结果不可解释**：模型内部状态如同黑盒，开发者无法直观判断模型是否真正学会了“主谓宾”等语法逻辑，调试困难。\n\n### 使用 Ordered-Neurons 后\n- **内嵌树状结构逻辑**：Ordered-Neurons 通过强制神经元按顺序更新，将树形结构先验知识融入循环神经网络，使模型能天然地识别短语边界和层级关系。\n- **实现无监督解析**：仅需普通文本数据即可训练，Ordered-Neurons 能在无标签情况下自动学习句法树，在 WSJ 测试集上无标签 F1 值达到约 47.7，大幅降低数据门槛。\n- **提升长程依赖建模**：在处理长难句时，模型能更精准地保持上下文连贯性，困惑度（Perplexity）在 PTB 测试集上降至约 56.17，显著优于传统基线。\n- **隐式结构可视化**：通过分析神经元的激活顺序，研究人员可以直接观察到模型学到的句法划分，为算法优化提供了清晰的依据。\n\nOrdered-Neurons 的核心价值在于让神经网络在不依赖人工标注的前提下，自主习得类似人类的语言层级结构认知能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyikangshen_Ordered-Neurons_567928dd.png","yikangshen","Yikang Shen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyikangshen_0aef6eb5.jpg",null,"xAI","yikang.shn@gmail.com","https:\u002F\u002Fgithub.com\u002Fyikangshen",[85,89,93,97,101],{"name":86,"color":87,"percentage":88},"Python","#3572A5",66.6,{"name":90,"color":91,"percentage":92},"C","#555555",32,{"name":94,"color":95,"percentage":96},"Scilab","#ca0f21",1.2,{"name":98,"color":99,"percentage":100},"Perl","#0298c3",0.1,{"name":102,"color":103,"percentage":104},"Makefile","#427819",0,579,99,"2026-03-27T08:25:45","BSD-3-Clause",4,"","可选（测试脚本支持 --cuda 参数），具体型号、显存大小及 CUDA 版本未说明","未说明",{"notes":114,"python":115,"dependencies":116},"该工具基于较旧的 PyTorch 0.4 版本。语言建模任务需要标准的 Penn Treebank (PTB) 语料库，而无监督解析任务需要 Penn Treebank Parsed (LDC99T42) 数据，两者数据格式不同。默认设置下在 PTB 测试集上的困惑度约为 56.17，在 WSJ 测试集上的无标签 F1 值约为 47.7。","3.6",[117,118],"torch==0.4","nltk",[15,37],"2026-03-27T02:49:30.150509","2026-04-06T16:03:57.387716",[123,128,133,138,143,148,153,158,163,168],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},19455,"运行 test_phrase_grammar.py 时，--data 参数应该指向什么路径？","代码假设数据目录中已经存在缓存的数据集。这些缓存数据会在先运行训练脚本（training script）后自动生成。因此，在运行测试脚本之前，请先确保已经运行过训练流程以生成缓存文件。args.data 参数实际上是指向测试数据的目录，而字典是从代码中的固定路径加载的。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F24",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},19456,"论文中使用的是单向 ON-LSTM，是否可以使用双向模型？如何计算距离？","可以尝试使用双向语言模型（如 ELMo）或掩码语言模型（如 BERT），但需要注意的是，这样得到的困惑度（perplexity）将无法与之前的单向语言模型结果进行直接比较。关于双向 ON-LSTM 的距离计算（例如前后向距离的平均值），论文主要基于单向模型设计，双向扩展需自行探索且指标不可比。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F9",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},19457,"数据集构建中使用的 pytorch \"narrow\" API 和滑动窗口是否会导致数据丢失或 PPL 分数不正确？","这不是错误，而是有意为之的正则化方法。这些技术源自 AWD-LSTM 论文（https:\u002F\u002Fgithub.com\u002Fsalesforce\u002Fawd-lstm-lm）。\"narrow\" 的使用和滑动窗口的不连续性是为了引入正则化，防止过拟合，请参考 AWD-LSTM 的相关论文获取详细解释。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F16",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},19458,"如何训练解析器（parsing）？是否有专门的训练脚本？","不需要额外的训练步骤。用于执行解析的模型就是语言模型本身。除了语言建模目标（language modelling objective）之外，没有进行额外的专门针对解析的训练。用户只需先训练好语言模型（LM），然后即可直接测试无监督解析功能。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F11",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},19459,"在复现右分支（right-branching）基线策略时，为什么我的 F1 分数（39.87）远高于论文中的结果（16.5）？","差异主要源于预处理步骤。之前的论文在进行评估时没有进行过滤标点符号的预处理，而标点符号通常出现在高层级的成分结构中，这对评估结果影响很大。请检查您的代码是否去除了标点符号。此外，建议查阅论文的最新版本以获取作者更新后的基线分数对比。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F4",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},19460,"论文公式 15 中的 y_t 代表什么含义？","这是旧版论文中的笔误。在最新版本论文（https:\u002F\u002Fopenreview.net\u002Fpdf?id=B1l6qiR5F7）中，y_t 实际上应该是 d_t。请以最新版的论文内容为准。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F2",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},19461,"README 中 \"Penn Treebank Parsed\" 的下载链接失效了，正确的下载地址是什么？","正确的下载链接是 LDC 官网：https:\u002F\u002Fcatalog.ldc.upenn.edu\u002FLDC99T42。README 中的旧链接已不再可用。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F1",{"id":159,"question_zh":160,"answer_zh":161,"source_url":162},19462,"test_phrase_grammar.py 中有两种评估结果（evalb 软件和自研代码），论文中报告的是哪一个？","论文中报告的是 evalb 软件的评估结果。代码中自带的自研评估函数仅用于帮助理解结构和调试，不作为正式的性能指标。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F23",{"id":164,"question_zh":165,"answer_zh":166,"source_url":167},19463,"在使用 Keras 或其他框架复现 ON-LSTM 时，发现 distance 元素都非常接近 1（如 0.99），这是正常现象吗？","在英语语言模型实验中未观察到类似情况。如果您遇到所有 distance 值都接近 1 或 0 的现象，可能需要调整超参数（hyper-parameters）。不同任务（如图像描述生成）或不同语言（如中文）可能需要特定的参数调优才能获得正常的距离分布。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F8",{"id":169,"question_zh":170,"answer_zh":171,"source_url":172},19464,"训练过程中 cur_loss 突然激增导致 OverflowError，可能是什么原因？","这很可能是 PyTorch 版本兼容性问题导致的。建议检查并尝试更换 PyTorch 的版本，确保与项目代码兼容。","https:\u002F\u002Fgithub.com\u002Fyikangshen\u002FOrdered-Neurons\u002Fissues\u002F26",[]]