[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-zjy-ucas--ChineseNER":3,"tool-zjy-ucas--ChineseNER":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",142651,2,"2026-04-06T23:34:12",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85013,"2026-04-06T11:09:19",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":23,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[14,26,13,15,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":23,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74991,"2026-04-06T23:16:49",[15,26,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":79,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":95,"env_deps":96,"category_tags":102,"github_topics":79,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":103,"updated_at":104,"faqs":105,"releases":141},4808,"zjy-ucas\u002FChineseNER","ChineseNER","A neural network model for Chinese named entity recognition ","ChineseNER 是一个基于 TensorFlow 构建的开源项目，专注于解决中文命名实体识别（NER）难题。它能自动从中文文本中精准提取人名、地名、机构名等关键实体信息，是将非结构化文本转化为结构化数据的重要工具。\n\n该项目主要面向自然语言处理领域的开发者与研究人员，特别适合需要构建中文信息抽取系统或深入研究序列标注算法的技术人员。对于普通用户而言，若具备基础的 Python 编程能力，也可通过本项目快速体验前沿的 NLP 技术。\n\n在技术架构上，ChineseNER 采用了双向长短期记忆网络（Bi-LSTM）结合条件随机场（CRF）的经典模型。其独特之处在于不仅将汉字序列映射为稠密向量，还创新性地融合了词边界等额外特征，有效克服了传统模型中的标签偏置问题。该架构复现了学术界在 SIGHAN2006 任务上的先进成果，并支持使用预训练的 Word2Vec 词向量进一步提升效果。项目提供了清晰的训练与评估脚本，默认配置了 Adam 优化器及 Dropout 等参数，帮助用户轻松上手并进行二次开发，是学习与实践中文神经序列标注模型的优质参考范例。","## Recurrent neural networks for Chinese named entity recognition in TensorFlow\nThis repository contains a simple demo for chainese named entity recognition.\n\n## Contributer\n- [Jingyuan Zhang](https:\u002F\u002Fgithub.com\u002Fzjy-ucas)\n- [Mingjie Chen](https:\u002F\u002Fgithub.com\u002Fsuperthierry)\n- some data processing codes from [glample\u002Ftagger](https:\u002F\u002Fgithub.com\u002Fglample\u002Ftagger)\n\n\n## Requirements\n- [Tensorflow=1.2.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow)\n- [jieba=0.37](https:\u002F\u002Fgithub.com\u002Ffxsjy\u002Fjieba)\n\n\n## Model\nThe model is a birectional LSTM neural network with a CRF layer. Sequence of chinese characters are projected into sequence of dense vectors, and concated with extra features as the inputs of recurrent layer, here we employ one hot vectors representing word boundary features for illustration. The recurrent layer is a bidirectional LSTM layer, outputs of forward and backword vectors are concated and projected to score of each tag. A CRF layer is used to overcome label-bias problem.\n\nOur model is similar to the state-of-the-art Chinese named entity recognition model proposed in Character-Based LSTM-CRF with Radical-Level Features for Chinese Named Entity Recognition.\n\n## Basic Usage\n\n### Default parameters:\n- batch size: 20\n- gradient clip: 5\n- embedding size: 100\n- optimizer: Adam\n- dropout rate: 0.5\n- learning rate: 0.001\n\nWord vectors are trained with gensim version of word2vec on Chinese WiKi corpus, provided by [Chuanhai Dong](https:\u002F\u002Fgithub.com\u002Fsea2603).\n\n### Train the model with default parameters:\n```shell\n$ python3 main.py --train=True --clean=True\n```\n\n### Online evaluate:\n```shell\n$ python3 main.py\n```\n\n## Suggested readings:\n1. [Natural Language Processing (Almost) from Scratch](http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume12\u002Fcollobert11a\u002Fcollobert11a.pdf).  \nPropose a unified neural network architecture for sequence labeling tasks.\n2. [Neural Architectures for Named Entity Recognition](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.01360).  \n[End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF](http:\u002F\u002Fwww.cs.cmu.edu\u002F~xuezhem\u002Fpublications\u002Flstm-cnn-crf.pdf).  \nCombine Character-based word representations and word representations to enhance sequence labeling systems.\n3. [Transfer Learning for Sequence Tagging with Hierarchical Recurrent Networks](http:\u002F\u002Fwww.cs.cmu.edu\u002F~.\u002Fwcohen\u002Fpostscript\u002Ficlr-2017-transfer.pdf).  \n[Multi-task Multi-domain Representation Learning for Sequence Tagging](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%288d2ae013d4ea38b3aba07a5f5cf8c8d1%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1608.02689v1.pdf&ie=utf-8&sc_us=16810667041741374202).  \nTransfer learning for sequence tagging.\n4. [Named Entity Recognition for Chinese Social Media with Jointly Trained Embeddings](http:\u002F\u002Fwww.aclweb.org\u002Fwebsite\u002Fanthology\u002FD\u002FD15\u002FD15-1064.pdf).  \nPropose a joint training objective for the embeddings that makes use of both (NER) labeled and unlabeled raw text\n5. [Improving Named Entity Recognition for Chinese Social Media with Word Segmentation Representation Learning](http:\u002F\u002Fanthology.aclweb.org\u002FP\u002FP16\u002FP16-2025.pdf).  \n[An Empirical Study of Automatic Chinese Word Segentation for Spoken Language Understanding and Named Entity Recognition](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FN\u002FN16\u002FN16-1028.pdf).  \nUsing word segmentation outputs as additional features for sequence labeling syatems.\n6. [Semi-supervised Sequence Tagging with Bidirectional Language Models](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%28e7dcf1a507dabc77f1e26c28068ca937%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1705.0108&ie=utf-8&sc_us=17831018953161676191).  \nState-of-the-art model on Conll03 NER task, adding pre-trained context embeddings from bidirectional language models for sequence labeling task.\n7. [Character-Based LSTM-CRF with Radical-Level Features for Chinese Named Entity Recognition](http:\u002F\u002Ftcci.ccf.org.cn\u002Fconference\u002F2016\u002Fpapers\u002F119.pdf).  \nState-of-the-art model on SIGHAN2006 NER task.\n8. [Named Entity Recognition with Bidirectional LSTM-CNNs](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%28995499661ccaa95ca3688318f4bc594b%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fabs%2F1511.08308&ie=utf-8&sc_us=14130444594064699095).  \nMethod to apply lexicon features.\n\n","## 基于 TensorFlow 的中文命名实体识别循环神经网络\n本仓库包含一个简单的中文命名实体识别示例。\n\n## 贡献者\n- [Jingyuan Zhang](https:\u002F\u002Fgithub.com\u002Fzjy-ucas)\n- [Mingjie Chen](https:\u002F\u002Fgithub.com\u002Fsuperthierry)\n- 部分数据处理代码来自 [glample\u002Ftagger](https:\u002F\u002Fgithub.com\u002Fglample\u002Ftagger)\n\n\n## 环境要求\n- [TensorFlow=1.2.0](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Ftensorflow)\n- [jieba=0.37](https:\u002F\u002Fgithub.com\u002Ffxsjy\u002Fjieba)\n\n\n## 模型\n该模型是一个带有 CRF 层的双向 LSTM 神经网络。将汉字序列映射为稠密向量序列，并与额外特征拼接后作为循环层的输入；这里我们使用表示词边界特征的独热向量进行说明。循环层采用双向 LSTM 结构，将正向和反向的隐藏状态拼接并投影到每个标签的得分上。最后通过 CRF 层来解决标签偏置问题。\n\n我们的模型与“基于字符的 LSTM-CRF 结合部首级特征的中文命名实体识别”中提出的当前最先进的中文命名实体识别模型类似。\n\n## 基本用法\n\n### 默认参数：\n- 批量大小：20\n- 梯度裁剪：5\n- 嵌入维度：100\n- 优化器：Adam\n- Dropout 率：0.5\n- 学习率：0.001\n\n词向量是在由 [Chuanhai Dong](https:\u002F\u002Fgithub.com\u002Fsea2603) 提供的中文维基百科语料上，使用 gensim 版本的 word2vec 训练得到的。\n\n### 使用默认参数训练模型：\n```shell\n$ python3 main.py --train=True --clean=True\n```\n\n### 在线评估：\n```shell\n$ python3 main.py\n```\n\n## 推荐阅读：\n1. [从零开始的自然语言处理（几乎）](http:\u002F\u002Fjmlr.org\u002Fpapers\u002Fvolume12\u002Fcollobert11a\u002Fcollobert11a.pdf)。  \n提出了一种用于序列标注任务的统一神经网络架构。\n2. [用于命名实体识别的神经网络架构](http:\u002F\u002Farxiv.org\u002Fabs\u002F1603.01360)。  \n[通过双向 LSTM-CNNs-CRF 实现端到端序列标注](http:\u002F\u002Fwww.cs.cmu.edu\u002F~xuezhem\u002Fpublications\u002Flstm-cnn-crf.pdf)。  \n结合基于字符的词表示和基于词的词表示，以增强序列标注系统。\n3. [利用层次化循环网络进行序列标注的迁移学习](http:\u002F\u002Fwww.cs.cmu.edu\u002F~.\u002Fwcohen\u002Fpostscript\u002Ficlr-2017-transfer.pdf)。  \n[面向序列标注的多任务多领域表示学习](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%288d2ae013d4ea38b3aba07a5f5cf8c8d1%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1608.02689v1.pdf&ie=utf-8&sc_us=16810667041741374202)。  \n用于序列标注的迁移学习。\n4. [联合训练嵌入的中文社交媒体命名实体识别](http:\u002F\u002Fwww.aclweb.org\u002Fwebsite\u002Fanthology\u002FD\u002FD15\u002FD15-1064.pdf)。  \n提出一种联合训练目标，同时利用有标注的 (NER) 数据和无标注的原始文本。\n5. [通过词分割表示学习改进中文社交媒体命名实体识别](http:\u002F\u002Fanthology.aclweb.org\u002FP\u002FP16\u002FP16-2025.pdf)。  \n[面向口语理解与命名实体识别的自动中文词分割实证研究](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FN\u002FN16\u002FN16-1028.pdf)。  \n将词分割结果作为序列标注系统的附加特征。\n6. [基于双向语言模型的半监督序列标注](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%28e7dcf1a507dabc77f1e26c28068ca937%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1705.0108&ie=utf-8&sc_us=17831018953161676191)。  \n在 Conll03 NER 任务上表现优异的模型，在序列标注任务中加入了来自双向语言模型的预训练上下文嵌入。\n7. [基于字符的 LSTM-CRF 结合部首级特征的中文命名实体识别](http:\u002F\u002Ftcci.ccf.org.cn\u002Fconference\u002F2016\u002Fpapers\u002F119.pdf)。  \n在 SIGHAN2006 NER 任务上表现先进的模型。\n8. [基于双向 LSTM-CNNs 的命名实体识别](http:\u002F\u002Fxueshu.baidu.com\u002Fs?wd=paperuri%3A%28995499661ccaa95ca3688318f4bc594b%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fabs%2F1511.08308&ie=utf-8&sc_us=14130444594064699095)。  \n一种应用词汇特征的方法。","# ChineseNER 快速上手指南\n\nChineseNER 是一个基于 TensorFlow 的中文命名实体识别（NER）开源工具，采用双向 LSTM 结合 CRF 层的神经网络架构，专为处理中文字符序列设计。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows (需配置好 Python 环境)\n*   **Python 版本**：推荐 Python 3.x\n*   **核心依赖**：\n    *   `TensorFlow` == 1.2.0\n    *   `jieba` == 0.37 (中文分词工具)\n    *   `gensim` (用于加载预训练的词向量，虽未在 requirements 显式列出，但运行默认参数需要)\n\n> **注意**：本项目基于较早期的 TensorFlow 1.2.0 版本开发。如果您使用较新的 TensorFlow 2.x 环境，可能需要创建虚拟环境或进行兼容性调整。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER.git\n    cd ChineseNER\n    ```\n\n2.  **安装依赖包**\n    建议先配置国内镜像源以加速下载（如阿里云或清华源），然后安装指定版本的依赖：\n\n    ```bash\n    # 使用 pip 安装指定版本的 TensorFlow 和 jieba\n    pip3 install tensorflow==1.2.0 jieba==0.37 gensim -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **数据准备**\n    确保项目目录下包含必要的训练数据及预训练词向量文件。根据说明，词向量是基于中文维基百科语料通过 word2vec 训练得到的（通常由项目作者提供或需自行下载放置到指定目录）。\n\n## 基本使用\n\n### 1. 训练模型\n使用默认参数（Batch size: 20, Learning rate: 0.001, Optimizer: Adam 等）开始训练。`--clean=True` 表示在训练前清理旧的缓存数据。\n\n```shell\npython3 main.py --train=True --clean=True\n```\n\n### 2. 在线评估与测试\n训练完成后，直接运行主脚本即可进入在线评估模式，对模型效果进行测试：\n\n```shell\npython3 main.py\n```\n\n### 默认超参数参考\n如果不修改代码，模型将使用以下默认配置：\n*   **Batch size**: 20\n*   **Gradient clip**: 5\n*   **Embedding size**: 100\n*   **Optimizer**: Adam\n*   **Dropout rate**: 0.5\n*   **Learning rate**: 0.001","某金融科技公司风控团队需要从每日海量的中文新闻和社交媒体文本中，自动提取涉事企业、高管姓名及涉案金额，以构建实时风险预警系统。\n\n### 没有 ChineseNER 时\n- 依赖人工标注或简单的正则表达式匹配，无法识别未登录的新公司名或复杂的人名，导致大量关键风险实体漏检。\n- 面对“中国银行”与“中国人民银行”等相似实体，缺乏上下文语义理解，频繁出现边界切割错误（如将地名误判为机构名）。\n- 模型无法利用汉字部首（Radical）等细粒度特征，在处理生僻字或特定领域术语时准确率大幅下降。\n- 缺乏序列标签的全局优化机制，容易出现标签偏差，例如将同一个实体的前后部分标记为不同类型的实体。\n\n### 使用 ChineseNER 后\n- 基于双向 LSTM 与 CRF 的架构能精准捕捉上下文依赖，自动识别从未见过的企业名称和人物，显著降低漏检率。\n- 结合字向量与词边界特征，准确区分相似实体的边界，有效解决长实体被错误截断或混淆的问题。\n- 融入部首级特征表示，增强了对生僻字及金融专有名词的表征能力，提升了垂直领域的识别精度。\n- 引入 CRF 层进行全局解码，克服了标签偏差问题，确保输出序列的逻辑一致性，大幅减少标注矛盾。\n\nChineseNER 通过深度融合字符特征与序列建模技术，将非结构化中文文本转化为高精度的结构化风险情报，极大提升了自动化风控的响应速度与准确性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fzjy-ucas_ChineseNER_d8c83055.png","zjy-ucas","jingyuanzhang","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fzjy-ucas_98be5e4f.png","Phd student, University of Chinese Academy of Sciences",null,"https:\u002F\u002Fgithub.com\u002Fzjy-ucas",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",82.6,{"name":87,"color":88,"percentage":89},"Perl","#0298c3",17.4,1830,566,"2026-04-04T09:29:58",4,"","未说明",{"notes":97,"python":98,"dependencies":99},"该项目基于较旧的 TensorFlow 1.2.0 版本，现代环境可能需要配置兼容的旧版依赖或容器环境。词向量需使用 gensim 在中文维基百科语料上训练（由第三方提供）。模型架构为双向 LSTM 加 CRF 层。","3.x (根据命令 'python3' 推断)",[100,101],"tensorflow==1.2.0","jieba==0.37",[15],"2026-03-27T02:49:30.150509","2026-04-07T11:44:37.453482",[106,111,116,121,126,131,136],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},21841,"如何将模型封装为接口调用，避免多次调用时报错 \"Variable already exists\"？","1. 修改 model 类内函数 `evaluate_line()` 的第一行代码为：`trans = self.trans.eval(sess)`。\n2. 如果多次调用仍报错，是因为 TensorFlow 变量重复创建。需要在每次调用前重置默认图或复用 Session。建议将 `tf.reset_default_graph()` 放在初始化阶段，或者将 session 作为参数传递给 eval 函数，避免每次都重新创建模型导致运行时间过长。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F36",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},21842,"CRF 损失函数中为什么要将 logits 和转移矩阵的形状扩展为 [num_tags + 1, num_tags + 1]？","这是为了处理句子的开始标签（start tag）。根据论文《Neural architectures for named entity recognition》，需要添加起始标签 y0 和结束标签 yn。当前代码实现了 `start_logits` 的填充（padding），因此转移矩阵维度加 1。如果需要完全符合论文实现（同时包含 start 和 end），可以将维度改为 +2，并相应地在 `loss_layer` 函数中添加 `end_logits` 的填充逻辑。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F10",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},21843,"训练或加载数据时报错 \"KeyError: 'S-ORG'\" 是什么原因？","该错误通常是因为自定义数据集中包含了标签映射文件（tag_to_id）中不存在的标签（如 'S-ORG'）。解决方法是检查输入数据的标注格式，确保所有标签都在 `maps\u002Ftags.json` 或代码生成的标签字典中。如果使用自定义标签集，需要重新生成或手动更新标签映射文件，使其包含数据集中出现的所有标签。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F82",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},21844,"预测结果中的 word、start、end 位置与实际标注不符，是如何计算的？","这是由 BIOES 标注体系的解码规则决定的：\n1. 遇到 'S' (Single) 标签：直接返回当前字符及其位置。\n2. 遇到 'B' (Begin), 'I' (Inside), 'E' (End) 标签：逐步追加字符到 word 中。\n3. 'start' 位置通常在遇到 'B' 或 'O' 转换时更新，'end' 位置在遇到 'E' 时确定。\n例如，若模型预测序列为 O-O-O-I-E，解码器可能会从第一个非 O 字符或特定的 B 标签开始截取，导致起始索引与预期有偏差。可根据实际业务需求调整 `model.py` 中的解码逻辑。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F34",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},21845,"Python 中 `if not name else name` 这种语法是什么意思？","这是 Python 的条件表达式（三元运算符）写法。语法结构为：`值 A if 条件 else 值 B`。\n在代码 `\"char_embedding\" if not name else name` 中：\n- 如果 `name` 为空（False），则 `not name` 为真，返回 \"char_embedding\"；\n- 如果 `name` 不为空（True），则返回 `name` 本身的值。\n这常用于设置默认的 variable_scope 名称。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F8",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},21846,"修改配置后运行报错 \"NameError: name 'tf' is not defined\" 怎么办？","该错误表明在执行脚本的作用域中未导入 TensorFlow 库。请检查报错的文件（如 `utils.py` 或 `model.py`），确保文件头部已添加 `import tensorflow as tf`。如果在 `main.py` 中通过标志位调用了其他模块，需确保被调用的模块内部也独立完成了必要的库导入，而不是依赖主程序的导入环境。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F90",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},21847,"未知字符 \u003CUNK> 投入模型时的 embedding 是随机初始化的吗？","是的。对于预训练词向量文件中不存在的字符（即 \u003CUNK>），其 embedding 向量通常是随机初始化的。在 `create_model` 函数中，如果加载了预训练向量 (`config[\"pre_emb\"]`)，程序会读取现有向量并赋值；对于未在预训练文件中找到的字符，它们会保持模型初始化时的随机状态，并在训练过程中通过反向传播进行更新。","https:\u002F\u002Fgithub.com\u002Fzjy-ucas\u002FChineseNER\u002Fissues\u002F54",[]]