[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-hemingkx--CLUENER2020":3,"tool-hemingkx--CLUENER2020":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":76,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":23,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":93,"oss_zip_packed_at":93,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":146},2538,"hemingkx\u002FCLUENER2020","CLUENER2020","A PyTorch implementation of a BiLSTM\\BERT\\Roberta(+CRF) model for Named Entity Recognition.","CLUENER2020 是一个基于 PyTorch 框架开发的中文细粒度命名实体识别（NER）开源项目。它旨在从非结构化的中文文本中，精准提取出如人名、地名、组织机构、书籍、游戏等10个特定类别的实体信息。该项目主要解决了中文语境下实体边界模糊、类别细分复杂的技术难题，为自然语言处理任务提供了高质量的基线模型实现。\n\n在技术架构上，CLUENER2020 灵活支持多种主流深度学习模型组合，包括传统的 BiLSTM-CRF，以及结合预训练语言模型的 BERT 和 RoBERTa 系列。用户可以根据实际需求，自由选择搭配 Softmax、CRF 或 BiLSTM+CRF 作为解码层，从而在准确率与计算效率之间找到最佳平衡。实验数据显示，引入 RoBERTa-wwm-ext-large 预训练模型并结合 CRF 层，能显著提升识别效果，尤其在地址、景点等难例类别上表现优异。\n\n该工具非常适合自然语言处理领域的研究人员、算法工程师及 AI 开发者使用。对于希望快速入门中文 NER 任务的学习者，它提供了清晰的代码结构和详细的知乎教程指引；对于需要构建知识图谱、智能搜索或内容分析系统的开发团队，","CLUENER2020 是一个基于 PyTorch 框架开发的中文细粒度命名实体识别（NER）开源项目。它旨在从非结构化的中文文本中，精准提取出如人名、地名、组织机构、书籍、游戏等10个特定类别的实体信息。该项目主要解决了中文语境下实体边界模糊、类别细分复杂的技术难题，为自然语言处理任务提供了高质量的基线模型实现。\n\n在技术架构上，CLUENER2020 灵活支持多种主流深度学习模型组合，包括传统的 BiLSTM-CRF，以及结合预训练语言模型的 BERT 和 RoBERTa 系列。用户可以根据实际需求，自由选择搭配 Softmax、CRF 或 BiLSTM+CRF 作为解码层，从而在准确率与计算效率之间找到最佳平衡。实验数据显示，引入 RoBERTa-wwm-ext-large 预训练模型并结合 CRF 层，能显著提升识别效果，尤其在地址、景点等难例类别上表现优异。\n\n该工具非常适合自然语言处理领域的研究人员、算法工程师及 AI 开发者使用。对于希望快速入门中文 NER 任务的学习者，它提供了清晰的代码结构和详细的知乎教程指引；对于需要构建知识图谱、智能搜索或内容分析系统的开发团队，它则提供了一个可靠且易于扩展的代码基准。项目不仅包含了完整的数据预处理流程，还分享了针对 CLUENER2020 数据集的训练技巧与参数配置，帮助用户高效复现结果并在此基础上进行二次开发与创新。","# Chinese NER Project\n\n本项目为CLUENER2020任务baseline的代码实现，模型包括\n\n- BiLSTM-CRF\n- BERT-base + X (softmax\u002FCRF\u002FBiLSTM+CRF)\n- Roberta + X (softmax\u002FCRF\u002FBiLSTM+CRF)\n\n本项目BERT-base-X部分的代码编写思路参考 [lemonhu](https:\u002F\u002Fgithub.com\u002Flemonhu\u002FNER-BERT-pytorch) 。\n\n项目说明参考知乎文章：[用BERT做NER？教你用PyTorch轻松入门Roberta！](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F346828049)\n\n## Dataset\n\n实验数据来自[CLUENER2020](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020)。这是一个中文细粒度命名实体识别数据集，是基于清华大学开源的文本分类数据集THUCNEWS，选出部分数据进行细粒度标注得到的。该数据集的训练集、验证集和测试集的大小分别为10748，1343，1345，平均句子长度37.4字，最长50字。由于测试集不直接提供，考虑到leaderboard上提交次数有限，**本项目使用CLUENER2020的验证集作为模型表现评判的测试集**。\n\nCLUENER2020共有10个不同的类别，包括：组织(organization)、人名(name)、地址(address)、公司(company)、政府(government)、书籍(book)、游戏(game)、电影(movie)、职位(position)和景点(scene)。\n\n原始数据分别位于具体模型的\u002Fdata\u002Fclue\u002F路径下，train.json和test.json文件中，文件中的每一行是一条单独的数据，一条数据包括一个原始句子以及其上的标签，具体形式如下：\n\n```\n{\n\t\"text\": \"浙商银行企业信贷部叶老桂博士则从另一个角度对五道门槛进行了解读。叶老桂认为，对目前国内商业银行而言，\",\n\t\"label\": {\n\t\t\"name\": {\n\t\t\t\"叶老桂\": [\n\t\t\t\t[9, 11],\n\t\t\t\t[32, 34]\n\t\t\t]\n\t\t},\n\t\t\"company\": {\n\t\t\t\"浙商银行\": [\n\t\t\t\t[0, 3]\n\t\t\t]\n\t\t}\n\t}\n}\n\n```\n\n该数据集的数据在标注时，由于需要保证数据的真实性存在一些质量问题，参见：[数据问题一](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020\u002Fissues\u002F10)、[数据问题二](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020\u002Fissues\u002F8)，对整体没有太大影响。\n\n## Model\n\nCLUENER2020官方的排行榜：[传送门](https:\u002F\u002Fwww.cluebenchmarks.com\u002Fner.html)。\n\n本项目实现了CLUENER2020任务的baseline模型，对应路径分别为：\n\n- BiLSTM-CRF\n- BERT-Softmax\n- BERT-CRF\n- BERT-LSTM-CRF\n\n其中，根据使用的预训练模型的不同，BERT-base-X 模型可转换为 Roberta-X 模型。\n\n## Requirements\n\nThis repo was tested on Python 3.6+ and PyTorch 1.5.1. The main requirements are:\n\n- tqdm\n- scikit-learn\n- pytorch >= 1.5.1\n- 🤗transformers == 2.2.2\n\nTo get the environment settled, run:\n\n```\npip install -r requirements.txt\n```\n\n## Pretrained Model Required\n\n需要提前下载BERT的预训练模型，包括\n\n- pytorch_model.bin\n- vocab.txt\n\n放置在.\u002Fpretrained_bert_models对应的预训练模型文件夹下，其中\n\n**bert-base-chinese模型：**[下载地址](https:\u002F\u002Fstorage.googleapis.com\u002Fbert_models\u002F2018_11_03\u002Fchinese_L-12_H-768_A-12.zip) 。\n\n注意，以上下载地址仅提供tensorflow版本，需要根据[huggingface suggest](https:\u002F\u002Fhuggingface.co\u002Ftransformers\u002Fconverting_tensorflow_models.html)将其转换为pytorch版本。\n\n**chinese_roberta_wwm_large模型：**[下载地址](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm#%E4%BD%BF%E7%94%A8%E5%BB%BA%E8%AE%AE) 。\n\n如果觉得麻烦，pytorch版本的上述模型可以通过下方**网盘链接**直接获取😊：\n\n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rhleLywF_EuoxB2nmA212w  密码: isc5\n\n## Results\n\n各个模型在数据集上的结果（f1 score）如下表所示：（Roberta均指RoBERTa-wwm-ext-large模型）\n\n| 模型         | BiLSTM+CRF | Roberta+Softmax | Roberta+CRF | Roberta+BiLSTM+CRF |\n| ------------ | ---------- | --------------- | ----------- | ------------------ |\n| address      | 47.37      | 57.50           | **64.11**   | 63.15              |\n| book         | 65.71      | 75.32           | 80.94       | **81.45**          |\n| company      | 71.06      | 76.71           | 80.10       | **80.62**          |\n| game         | 76.28      | 82.90           | 83.74       | **85.57**          |\n| government   | 71.29      | 79.02           | **83.14**   | 81.31              |\n| movie        | 67.53      | 83.23           | 83.11       | **85.61**          |\n| name         | 71.49      | 88.12           | 87.44       | **88.22**          |\n| organization | 73.29      | 74.30           | 80.32       | **80.53**          |\n| position     | 72.33      | 77.39           | **78.95**   | 78.82              |\n| scene        | 51.16      | 62.56           | 71.36       | **72.86**          |\n| **overall**  | 67.47      | 75.90           | 79.34       | **79.64**          |\n\n## Parameter Setting\n\n### 1.model parameters\n\n在.\u002Fexperiments\u002Fclue\u002Fconfig.json中设置了Bert\u002FRoberta模型的基本参数，而在.\u002Fpretrained_bert_models下的两个预训练文件夹中，config.json除了设置Bert\u002FRoberta的基本参数外，还设置了'X'模型（如LSTM）参数，可根据需要进行更改。\n\n### 2.other parameters\n\n环境路径以及其他超参数在.\u002Fconfig.py中进行设置。\n\n## Usage\n\n打开指定模型对应的目录，命令行输入：\n\n```\npython run.py\n```\n\n模型运行结束后，最优模型和训练log保存在.\u002Fexperiments\u002Fclue\u002F路径下。在测试集中的bad case保存在.\u002Fcase\u002Fbad_case.txt中。\n\n## Attention\n\n目前，当前模型的train.log已保存在.\u002Fexperiments\u002Fclue\u002F路径下，如要重新运行模型，请先将train.log移出当前路径，以免覆盖。\n\n","# 中文NER项目\n\n本项目为CLUENER2020任务baseline的代码实现，模型包括\n\n- BiLSTM-CRF\n- BERT-base + X (softmax\u002FCRF\u002FBiLSTM+CRF)\n- Roberta + X (softmax\u002FCRF\u002FBiLSTM+CRF)\n\n本项目BERT-base-X部分的代码编写思路参考 [lemonhu](https:\u002F\u002Fgithub.com\u002Flemonhu\u002FNER-BERT-pytorch) 。\n\n项目说明参考知乎文章：[用BERT做NER？教你用PyTorch轻松入门Roberta！](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F346828049)\n\n## Dataset\n\n实验数据来自[CLUENER2020](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020)。这是一个中文细粒度命名实体识别数据集，是基于清华大学开源的文本分类数据集THUCNEWS，选出部分数据进行细粒度标注得到的。该数据集的训练集、验证集和测试集的大小分别为10748，1343，1345，平均句子长度37.4字，最长50字。由于测试集不直接提供，考虑到leaderboard上提交次数有限，**本项目使用CLUENER2020的验证集作为模型表现评判的测试集**。\n\nCLUENER2020共有10个不同的类别，包括：组织(organization)、人名(name)、地址(address)、公司(company)、政府(government)、书籍(book)、游戏(game)、电影(movie)、职位(position)和景点(scene)。\n\n原始数据分别位于具体模型的\u002Fdata\u002Fclue\u002F路径下，train.json和test.json文件中，文件中的每一行是一条单独的数据，一条数据包括一个原始句子以及其上的标签，具体形式如下：\n\n```\n{\n\t\"text\": \"浙商银行企业信贷部叶老桂博士则从另一个角度对五道门槛进行了解读。叶老桂认为，对目前国内商业银行而言，\",\n\t\"label\": {\n\t\t\"name\": {\n\t\t\t\"叶老桂\": [\n\t\t\t\t[9, 11],\n\t\t\t\t[32, 34]\n\t\t\t]\n\t\t},\n\t\t\"company\": {\n\t\t\t\"浙商银行\": [\n\t\t\t\t[0, 3]\n\t\t\t]\n\t\t}\n\t}\n}\n\n```\n\n该数据集的数据在标注时，由于需要保证数据的真实性存在一些质量问题，参见：[数据问题一](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020\u002Fissues\u002F10)、[数据问题二](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUENER2020\u002Fissues\u002F8)，对整体没有太大影响。\n\n## Model\n\nCLUENER2020官方的排行榜：[传送门](https:\u002F\u002Fwww.cluebenchmarks.com\u002Fner.html)。\n\n本项目实现了CLUENER2020任务的baseline模型，对应路径分别为：\n\n- BiLSTM-CRF\n- BERT-Softmax\n- BERT-CRF\n- BERT-LSTM-CRF\n\n其中，根据使用的预训练模型的不同，BERT-base-X 模型可转换为 Roberta-X 模型。\n\n## Requirements\n\nThis repo was tested on Python 3.6+ and PyTorch 1.5.1. The main requirements are:\n\n- tqdm\n- scikit-learn\n- pytorch >= 1.5.1\n- 🤗transformers == 2.2.2\n\nTo get the environment settled, run:\n\n```\npip install -r requirements.txt\n```\n\n## Pretrained Model Required\n\n需要提前下载BERT的预训练模型，包括\n\n- pytorch_model.bin\n- vocab.txt\n\n放置在.\u002Fpretrained_bert_models对应的预训练模型文件夹下，其中\n\n**bert-base-chinese模型：**[下载地址](https:\u002F\u002Fstorage.googleapis.com\u002Fbert_models\u002F2018_11_03\u002Fchinese_L-12_H-768_A-12.zip) 。\n\n注意，以上下载地址仅提供tensorflow版本，需要根据[huggingface suggest](https:\u002F\u002Fhuggingface.co\u002Ftransformers\u002Fconverting_tensorflow_models.html)将其转换为pytorch版本。\n\n**chinese_roberta_wwm_large模型：**[下载地址](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm#%E4%BD%BF%E7%94%A8%E5%BB%BA%E8%AE%AE) 。\n\n如果觉得麻烦，pytorch版本的上述模型可以通过下方**网盘链接**直接获取😊：\n\n链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rhleLywF_EuoxB2nmA212w  密码: isc5\n\n## Results\n\n各个模型在数据集上的结果（f1 score）如下表所示：（Roberta均指RoBERTa-wwm-ext-large模型）\n\n| 模型         | BiLSTM+CRF | Roberta+Softmax | Roberta+CRF | Roberta+BiLSTM+CRF |\n| ------------ | ---------- | --------------- | ----------- | ------------------ |\n| address      | 47.37      | 57.50           | **64.11**   | 63.15              |\n| book         | 65.71      | 75.32           | 80.94       | **81.45**          |\n| company      | 71.06      | 76.71           | 80.10       | **80.62**          |\n| game         | 76.28      | 82.90           | 83.74       | **85.57**          |\n| government   | 71.29      | 79.02           | **83.14**   | 81.31              |\n| movie        | 67.53      | 83.23           | 83.11       | **85.61**          |\n| name         | 71.49      | 88.12           | 87.44       | **88.22**          |\n| organization | 73.29      | 74.30           | 80.32       | **80.53**          |\n| position     | 72.33      | 77.39           | **78.95**   | 78.82              |\n| scene        | 51.16      | 62.56           | 71.36       | **72.86**          |\n| **overall**  | 67.47      | 75.90           | 79.34       | **79.64**          |\n\n## Parameter Setting\n\n### 1.model parameters\n\n在.\u002Fexperiments\u002Fclue\u002Fconfig.json中设置了Bert\u002FRoberta模型的基本参数，而在.\u002Fpretrained_bert_models下的两个预训练文件夹中，config.json除了设置Bert\u002FRoberta的基本参数外，还设置了'X'模型（如LSTM）参数，可根据需要进行更改。\n\n### 2.other parameters\n\n环境路径以及其他超参数在.\u002Fconfig.py中进行设置。\n\n## Usage\n\n打开指定模型对应的目录，命令行输入：\n\n```\npython run.py\n```\n\n模型运行结束后，最优模型和训练log保存在.\u002Fexperiments\u002Fclue\u002F路径下。在测试集中的bad case保存在.\u002Fcase\u002Fbad_case.txt中。\n\n## Attention\n\n目前，当前模型的train.log已保存在.\u002Fexperiments\u002Fclue\u002F路径下，如要重新运行模型，请先将train.log移出当前路径，以免覆盖。","# CLUENER2020 快速上手指南\n\n本项目提供了中文细粒度命名实体识别（NER）任务的 Baseline 实现，支持 BiLSTM-CRF、BERT-base 和 RoBERTa 等多种模型架构。\n\n## 环境准备\n\n*   **系统要求**：Python 3.6+\n*   **核心依赖**：\n    *   PyTorch >= 1.5.1\n    *   🤗 Transformers == 2.2.2\n    *   tqdm, scikit-learn\n\n## 安装步骤\n\n1.  **克隆项目**（假设已获取代码库）。\n2.  **安装依赖包**：\n    ```bash\n    pip install -r requirements.txt\n    ```\n3.  **准备预训练模型**：\n    需下载 BERT 或 RoBERTa 的 PyTorch 版本预训练模型（包含 `pytorch_model.bin` 和 `vocab.txt`），并放置在 `.\u002Fpretrained_bert_models` 对应的文件夹下。\n\n    *   **推荐方式（国内网盘）**：\n        直接下载已转换好的 PyTorch 模型：\n        *   链接: https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1rhleLywF_EuoxB2nmA212w\n        *   密码: `isc5`\n\n    *   **手动下载方式**：\n        *   **bert-base-chinese**: [官方地址](https:\u002F\u002Fstorage.googleapis.com\u002Fbert_models\u002F2018_11_03\u002Fchinese_L-12_H-768_A-12.zip) (注意：官方为 TF 版本，需自行转换为 PyTorch 格式)。\n        *   **chinese_roberta_wwm_large**: [哈工大讯飞联合实验室](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm#%E4%BD%BF%E7%94%A8%E5%BB%BA%E8%AE%AE)。\n\n## 基本使用\n\n1.  **配置参数**：\n    *   模型基本参数位于 `.\u002Fexperiments\u002Fclue\u002Fconfig.json`。\n    *   LSTM 等附加结构参数位于预训练模型文件夹下的 `config.json`。\n    *   环境路径及其他超参数位于 `.\u002Fconfig.py`。\n\n2.  **运行模型**：\n    进入指定模型对应的目录，执行以下命令开始训练和评估：\n    ```bash\n    python run.py\n    ```\n\n3.  **查看结果**：\n    *   **最优模型与日志**：保存在 `.\u002Fexperiments\u002Fclue\u002F` 目录下。\n    *   **Bad Case 分析**：保存在 `.\u002Fcase\u002Fbad_case.txt` 中。\n\n> **注意**：若需重新运行模型，请先将 `.\u002Fexperiments\u002Fclue\u002F` 路径下的 `train.log` 移出或删除，以免被覆盖。本项目使用 CLUENER2020 的验证集作为测试集进行效果评判。","某金融科技公司的数据团队正致力于构建智能风控系统，需要从海量的中文新闻、财报及监管公告中自动提取关键实体，以建立企业关联图谱并监测潜在风险。\n\n### 没有 CLUENER2020 时\n- **人工标注成本高昂**：面对非结构化的金融文本，团队需雇佣大量专业人员手动标注“公司”、“职位”、“地址”等实体，耗时数周且难以规模化扩展。\n- **传统模型精度不足**：使用基于规则或传统 BiLSTM-CRF 的方法，整体 F1 分数仅约为 67.5%，尤其在处理“景点”、“书籍”等长尾或复杂语境实体时，识别准确率低于 52%，导致大量漏报。\n- **领域适配困难**：缺乏高质量的中文细粒度基准数据进行模型调优，开发人员难以判断模型在“政府机构”或“组织机构”等易混淆类别上的真实表现，迭代方向模糊。\n- **工程落地门槛高**：从零搭建 NER  pipeline 需要自行处理数据清洗、模型选型及超参数调整，研发周期长，无法快速响应业务需求。\n\n### 使用 CLUENER2020 后\n- **基线模型快速启动**：直接复用 CLUENER2020 提供的 PyTorch 实现代码（如 BERT+CRF 或 RoBERTa+BiLSTM+CRF），无需从头编写底层逻辑，几天内即可跑出可用的 baseline 模型。\n- **识别精度显著提升**：借助预训练的 RoBERTa 模型，整体 F1 分数提升至 79.6% 以上。其中，“人名”识别率达 88.2%，“电影\u002F游戏”等娱乐类实体也超过 85%，大幅减少了人工复核工作量。\n- **细粒度分类更精准**：依托包含 10 个类别的标准化数据集，模型能清晰区分“公司”与“组织”、“政府”与“职位”，有效解决了金融文本中实体边界模糊和类别混淆的痛点。\n- **标准化评估体系**：利用官方验证集作为测试标准，团队能客观对比不同架构（如 Softmax vs CRF）的效果，科学指导模型优化，确保上线模型的稳定性。\n\nCLUENER2020 通过提供标准化的中文细粒度 NER 基准与高质量基线代码，帮助开发者以最低成本实现高精度的实体抽取，加速了非结构化文本数据的价值转化。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhemingkx_CLUENER2020_1e288558.png","hemingkx","Heming Xia","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhemingkx_4dc745b1.png","Ph.D. Student@PolyU | Prev MEng & BSc@PKU | Prev Intern@MSRA ","PolyU","Hong Kong, China","hemingkx@gmail.com","https:\u002F\u002Fhemingkx.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fhemingkx",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,519,106,"2026-03-21T23:49:40",null,"未说明","未说明（BERT\u002FRoBERTa 模型训练通常建议 NVIDIA GPU，但 README 未明确指定具体型号、显存或 CUDA 版本）",{"notes":97,"python":98,"dependencies":99},"需提前下载 BERT 或 RoBERTa 预训练模型（pytorch_model.bin, vocab.txt）并放置在 .\u002Fpretrained_bert_models 对应文件夹下。官方提供的 BERT-base-chinese 为 TensorFlow 版本，需转换为 PyTorch 版本；也可直接使用提供的网盘链接获取 PyTorch 版本模型。运行前请确保移除旧的 train.log 文件以防覆盖。","3.6+",[100,101,102,103],"tqdm","scikit-learn","pytorch>=1.5.1","transformers==2.2.2",[26,55,13,14,52],[106,107,108,109,110,111,112],"bert","pytorch","bert-crf","roberta","bilstm-crf","ner","named-entity-recognition","2026-03-27T02:49:30.150509","2026-04-06T05:37:54.590381",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},11719,"运行时报错 AttributeError: 'BertConfig' object has no attribute 'lstm_embedding_size' 如何解决？","这是因为预训练模型的 config.json 中缺少自定义参数。解决方法是直接在预训练模型文件夹下的 config.json 文件中手动添加缺失的参数及其值。例如，添加 \"lstm_embedding_size\": 768，以及 LSTM 的 dropout 参数（如 \"lstm_dropout_prob\": 0.5）。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F9",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},11720,"在 model.py 中使用 nn.Dropout 或 nn.LSTM 时，并没有显式 import torch.nn as nn，代码为何能正常运行？","这是因为代码头部使用了 `from transformers.models.bert.modeling_bert import *`。该导入语句间接引入了 torch.nn 模块中的内容，因此可以直接使用 nn 而无需单独导入。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F5",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},11721,"项目是否支持 CoNLL 格式的数据集？","项目目前仅官方支持 CLUENER2020 提供的数据格式。如果需要处理 CoNLL 格式数据，用户需要自行编写脚本将 CoNLL 格式转换为项目支持的格式。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F1",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},11722,"非 Fine-tune 模式下，LSTM 和 CRF 层的参数似乎没有更新（不学习），是什么原因？","维护者确认非 Fine-tune 模式下的相关代码可能存在逻辑问题或未充分测试。建议用户检查代码中关于参数冻结的逻辑，并自行修改以确保 LSTM 和 CRF 层的参数被包含在优化器中进行更新。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F11",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},11723,"更换新数据进行训练时，出现 DataLoader 加载错误或 CUDA CUBLAS_STATUS_ALLOC_FAILED 错误怎么办？","这通常是因为新数据的配置与模型预期不符。请检查 `BERT-CRF\u002Fexperiments\u002Fclue\u002Fconfig.json` 文件，确保其中包含与新数据标签数量一致的 `num_labels` 参数。如果仍然报错，可能是显存分配问题，请尝试减小 batch size 或检查 CUDA 环境。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F2",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},11724,"训练过程中 Loss 持续增大并最终变为 NaN，可能的原因是什么？","这通常是由于模型定义不当导致的梯度问题。有用户反馈，如果在模型类中通过函数返回参数而非直接定义层，可能会导致计算图断裂或梯度异常。请确保模型结构（如 BertBiLSTMCRF）中的层是直接作为类属性定义的，并检查学习率是否过大。","https:\u002F\u002Fgithub.com\u002Fhemingkx\u002FCLUENER2020\u002Fissues\u002F12",[]]