[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-urchade--GLiNER":3,"tool-urchade--GLiNER":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},6590,"gpt4all","nomic-ai\u002Fgpt4all","GPT4All 是一款让普通电脑也能轻松运行大型语言模型（LLM）的开源工具。它的核心目标是打破算力壁垒，让用户无需依赖昂贵的显卡（GPU）或云端 API，即可在普通的笔记本电脑和台式机上私密、离线地部署和使用大模型。\n\n对于担心数据隐私、希望完全掌控本地数据的企业用户、研究人员以及技术爱好者来说，GPT4All 提供了理想的解决方案。它解决了传统大模型必须联网调用或需要高端硬件才能运行的痛点，让日常设备也能成为强大的 AI 助手。无论是希望构建本地知识库的开发者，还是单纯想体验私有化 AI 聊天的普通用户，都能从中受益。\n\n技术上，GPT4All 基于高效的 `llama.cpp` 后端，支持多种主流模型架构（包括最新的 DeepSeek R1 蒸馏模型），并采用 GGUF 格式优化推理速度。它不仅提供界面友好的桌面客户端，支持 Windows、macOS 和 Linux 等多平台一键安装，还为开发者提供了便捷的 Python 库，可轻松集成到 LangChain 等生态中。通过简单的下载和配置，用户即可立即开始探索本地大模型的无限可能。",77307,"2026-04-11T06:52:37",[15,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":80,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":98,"forks":99,"last_commit_at":100,"license":101,"difficulty_score":54,"env_os":102,"env_gpu":103,"env_ram":104,"env_deps":105,"category_tags":113,"github_topics":114,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":120,"updated_at":121,"faqs":122,"releases":148},8143,"urchade\u002FGLiNER","GLiNER","Generalist and Lightweight Model for Named Entity Recognition (Extract any entity types from texts)","GLiNER 是一款专为命名实体识别（NER）打造的通用且轻量级开源模型。它的核心能力在于能够从文本中灵活提取任意类型的实体，不仅支持传统的实体识别任务，还能同时处理实体与关系的联合抽取。\n\n在实际应用中，许多场景需要识别自定义的实体类型（如特定行业术语或新兴概念），而传统模型往往需要重新训练才能适应。GLiNER 凭借强大的零样本（zero-shot）学习能力，无需额外训练即可理解并提取用户指定的新实体类型，极大地降低了数据标注和模型迭代的成本。此外，它在保持极小模型体积的同时，性能表现可媲美比它大数倍的大型语言模型（如 ChatGPT），并且针对 CPU 和普通消费级硬件进行了深度优化，部署门槛极低。\n\n这款工具非常适合开发者、数据科学家以及 AI 研究人员使用。无论是需要在资源受限的边缘设备上运行算法的工程师，还是希望快速验证想法的研究者，都能通过简单的几行代码调用 GLiNER。其独特的技术亮点在于将“通用性”与“轻量化”完美结合，既支持微调以适应特定领域，又提供了开箱即用的预训练模型，让高质量的文本结构化提取变得简单高效。","> [!IMPORTANT]\n> **🚀 GLiNER2 is Now Available from [Fastino Labs](https:\u002F\u002Fgithub.com\u002Ffastino-ai)!** A unified multi-task model for NER, Text Classification & Structured Data Extraction. Check out [fastino-ai\u002FGLiNER2 →](https:\u002F\u002Fgithub.com\u002Ffastino-ai\u002FGLiNER2)\n\n# 👑 GLiNER: Generalist and Lightweight Model for Named Entity Recognition\n\n---\n\n\u003Cdiv align=\"center\">\n    \u003Cdiv>\n        \u003Ca href=\"https:\u002F\u002Fclickpy.clickhouse.com\u002Fdashboard\u002Fgliner\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Furchade_GLiNER_readme_0adfd481def8.png\" alt=\"GLiNER Downloads\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2311.08526-b31b1b.svg\" alt=\"GLiNER Paper\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FY2yVxpSQnG\">\u003Cimg alt=\"GLiNER Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1089800235347353640?logo=discord&logoColor=white&label=Discord&color=blue\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\">\u003Cimg alt=\"GLiNER GitHub stars\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Furchade\u002FGLiNER?style=social\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg alt=\"License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Furchade\u002FGLiNER?color=blue\">\u003C\u002Fa>\n        \u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mhalKWzmfSTqMnR0wQBZvt9-ktTsATHB?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open GLiNER In Colab\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Furchade\u002Fgliner_mediumv2.1\">\u003Cimg src=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fhuggingface\u002Fbadges\u002Fresolve\u002Fmain\u002Fopen-in-hf-spaces-sm.svg\" alt=\"Open GLiNER In HF Spaces\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmodels?library=gliner&sort=trending\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Models-yellow\" alt=\"HuggingFace Models\">\u003C\u002Fa>\n    \u003C\u002Fdiv>\n    \u003Cbr>\n\u003C\u002Fdiv>\n\nGLiNER is a framework for training and deploying small Named Entity Recognition (NER) models with zero-shot capabilities. In addition to tradition NER, it also supports joint entity and relation extraction. GLiNER is fine-tunable, optimized to run on CPUs and consumer hardware, and has performance competitive with LLMs several times its size, like ChatGPT and UniNER.\n\n\n## Example Notebooks\n\nExplore various examples including finetuning, ONNX conversion, and synthetic data generation. \n\n- [Example Notebooks](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Ftree\u002Fmain\u002Fexamples)\n- Finetune on Colab &nbsp;[\u003Cimg align=\"center\" src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" \u002F>](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1HNKd74cmfS9tGvWrKeIjSxBt01QQS7bq?usp=sharing)\n## 🛠 Installation & Usage\n\n### Installation\n```bash\n!pip install gliner\n```\n\n### Usage\nAfter the installation of the GLiNER library, import the `GLiNER` class. Following this, you can load your chosen model with `GLiNER.from_pretrained` and utilize `predict_entities` to discern entities within your text.\n\n```python\nfrom gliner import GLiNER\n\n# Initialize GLiNER with the base model\nmodel = GLiNER.from_pretrained(\"urchade\u002Fgliner_medium-v2.1\")\n\n# Sample text for entity prediction\ntext = \"\"\"\nCristiano Ronaldo dos Santos Aveiro (Portuguese pronunciation: [kɾiʃˈtjɐnu ʁɔˈnaldu]; born 5 February 1985) is a Portuguese professional footballer who plays as a forward for and captains both Saudi Pro League club Al Nassr and the Portugal national team. Widely regarded as one of the greatest players of all time, Ronaldo has won five Ballon d'Or awards,[note 3] a record three UEFA Men's Player of the Year Awards, and four European Golden Shoes, the most by a European player. He has won 33 trophies in his career, including seven league titles, five UEFA Champions Leagues, the UEFA European Championship and the UEFA Nations League. Ronaldo holds the records for most appearances (183), goals (140) and assists (42) in the Champions League, goals in the European Championship (14), international goals (128) and international appearances (205). He is one of the few players to have made over 1,200 professional career appearances, the most by an outfield player, and has scored over 850 official senior career goals for club and country, making him the top goalscorer of all time.\n\"\"\"\n\n# Labels for entity prediction\n# Most GLiNER models should work best when entity types are in lower case or title case\nlabels = [\"Person\", \"Award\", \"Date\", \"Competitions\", \"Teams\"]\n\n# Perform entity prediction\nentities = model.predict_entities(text, labels, threshold=0.5)\n\n# Display predicted entities and their labels\nfor entity in entities:\n    print(entity[\"text\"], \"=>\", entity[\"label\"])\n```\n\n#### Expected Output\n\n```\nCristiano Ronaldo dos Santos Aveiro => person\n5 February 1985 => date\nAl Nassr => teams\nPortugal national team => teams\nBallon d'Or => award\nUEFA Men's Player of the Year Awards => award\nEuropean Golden Shoes => award\nUEFA Champions Leagues => competitions\nUEFA European Championship => competitions\nUEFA Nations League => competitions\nEuropean Championship => competitions\n```\n\n### Quantization and Compilation\n\nUse `quantize=True` and `compile_torch_model=True` for up to ~1.9x faster GPU inference with zero quality loss:\n\n```python\nmodel = GLiNER.from_pretrained(\n    \"urchade\u002Fgliner_medium-v2.1\",\n    map_location=\"cuda\",\n    quantize=True,            # or \"fp16\", \"bf16\"\n    compile_torch_model=True,\n)\n```\n\nOr apply after loading:\n\n```python\nmodel = GLiNER.from_pretrained(\"urchade\u002Fgliner_medium-v2.1\", map_location=\"cuda\")\nmodel.quantize()         # fp16 half-precision (default)\nmodel.quantize(\"bf16\")   # bfloat16 — better numerical stability, slightly less speedup\nmodel.compile()          # torch.compile with dynamic shapes\n```\n\nBenchmarked on CoNLL-2003 (strict F1, `gliner_medium-v2.1`, RTX 5090):\n\n| Condition | F1 | Speedup |\n|-----------|:---:|:---:|\n| GPU fp32 (baseline) | 0.8107 | 1.00x |\n| + quantize | 0.8107 | 1.35x |\n| + compile | 0.8107 | 1.31x |\n| **+ quantize + compile** | **0.8107** | **1.94x** |\n\n**Quantization options:**\n- `quantize=True` or `quantize=\"fp16\"` — float16 half-precision. Best GPU speedup (~1.35x).\n- `quantize=\"bf16\"` — bfloat16. Better numerical stability, slightly less speedup (~1.2x).\n- `quantize=\"int8\"` — int8 quantization. On CPU, uses built-in FBGEMM int8 kernels (~1.6x speedup). On GPU, uses [torchao](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fao) int8 weight-only quantization (~50% memory reduction, no speed gain). Intended for models fine-tuned with quantization-aware training (QAT). Stock DeBERTa-based models lose accuracy with int8.\n- On CPU, fp16\u002Fbf16 quantization reduces memory usage but does not improve speed.\n\n**Compilation notes:**\n- `compile_torch_model=True` uses [torch.compile](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Ftorch.compiler.html) which JIT-compiles the model via [Triton](https:\u002F\u002Fgithub.com\u002Ftriton-lang\u002Ftriton) kernels. The first inference call will be slower due to compilation, but all subsequent calls benefit from the compiled graph. This is only available on **Linux and WSL** (not native Windows or macOS).\n\n## 👨‍💻 Model Authors\nGLiNER was originally developed by:\n* [Urchade Zaratiana](urchade.github.io)\n* Nadi Tomeh\n* Pierre Holat\n* Thierry Charnois\n\n## 🌟 Maintainers\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Cstrong>Urchade Zaratiana\u003C\u002Fstrong>\u003Cbr>\n        \u003Cem>Member of technical staff at Fastino\u003C\u002Fem>\u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Furchade-zaratiana-36ba9814b\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white\" alt=\"LinkedIn\" \u002F>\u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Cstrong>Ihor Stepanov\u003C\u002Fstrong>\u003Cbr>\n        \u003Cem>Co-Founder at Knowledgator\u003C\u002Fem>\u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fihor-knowledgator\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white\" alt=\"LinkedIn\" \u002F>\u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n\n## 📚 Citations\n\nIf you find GLiNER useful in your research, please consider citing our papers:\n\n```bibtex\n@inproceedings{zaratiana-etal-2024-gliner,\n    title = \"{GL}i{NER}: Generalist Model for Named Entity Recognition using Bidirectional Transformer\",\n    author = \"Zaratiana, Urchade  and\n      Tomeh, Nadi  and\n      Holat, Pierre  and\n      Charnois, Thierry\",\n    editor = \"Duh, Kevin  and\n      Gomez, Helena  and\n      Bethard, Steven\",\n    booktitle = \"Proceedings of the 2024 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Volume 1: Long Papers)\",\n    month = jun,\n    year = \"2024\",\n    address = \"Mexico City, Mexico\",\n    publisher = \"Association for Computational Linguistics\",\n    url = \"https:\u002F\u002Faclanthology.org\u002F2024.naacl-long.300\",\n    doi = \"10.18653\u002Fv1\u002F2024.naacl-long.300\",\n    pages = \"5364--5376\",\n    abstract = \"Named Entity Recognition (NER) is essential in various Natural Language Processing (NLP) applications. Traditional NER models are effective but limited to a set of predefined entity types. In contrast, Large Language Models (LLMs) can extract arbitrary entities through natural language instructions, offering greater flexibility. However, their size and cost, particularly for those accessed via APIs like ChatGPT, make them impractical in resource-limited scenarios. In this paper, we introduce a compact NER model trained to identify any type of entity. Leveraging a bidirectional transformer encoder, our model, GLiNER, facilitates parallel entity extraction, an advantage over the slow sequential token generation of LLMs. Through comprehensive testing, GLiNER demonstrate strong performance, outperforming both ChatGPT and fine-tuned LLMs in zero-shot evaluations on various NER benchmarks.\",\n}\n```\n\n```bibtex\n@misc{stepanov2024glinermultitaskgeneralistlightweight,\n      title={GLiNER multi-task: Generalist Lightweight Model for Various Information Extraction Tasks}, \n      author={Ihor Stepanov and Mykhailo Shtopko},\n      year={2024},\n      eprint={2406.12925},\n      archivePrefix={arXiv},\n      primaryClass={cs.LG},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.12925}, \n}\n```\n\n```bibtex\n@misc{stepanov2026millionlabelnerbreakingscale,\n      title={The Million-Label NER: Breaking Scale Barriers with GLiNER bi-encoder}, \n      author={Ihor Stepanov and Mykhailo Shtopko and Dmytro Vodianytskyi and Oleksandr Lukashov},\n      year={2026},\n      eprint={2602.18487},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.18487}, \n}\n```\n## Support and funding\n\nThis project has been supported and funded by **F.initiatives** and **Laboratoire Informatique de Paris Nord**.\n\nF.initiatives has been an expert in public funding strategies for R&D, Innovation, and Investments (R&D&I) for over 20 years. With a team of more than 200 qualified consultants, F.initiatives guides its clients at every stage of developing their public funding strategy: from structuring their projects to submitting their aid application, while ensuring the translation of their industrial and technological challenges to public funders. Through its continuous commitment to excellence and integrity, F.initiatives relies on the synergy between methods and tools to offer tailored, high-quality, and secure support.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Furchade_GLiNER_readme_7d3fdd1ddf0a.png\" alt=\"FI Group\" width=\"300\"\u002F>\n\u003C\u002Fp>\n\nWe also extend our heartfelt gratitude to the open-source community for their invaluable contributions, which have been instrumental in the success of this project.\n","> [!IMPORTANT]\n> **🚀 GLiNER2 现已在 [Fastino Labs](https:\u002F\u002Fgithub.com\u002Ffastino-ai) 上线！** 这是一个用于命名实体识别、文本分类和结构化数据提取的统一多任务模型。请查看 [fastino-ai\u002FGLiNER2 →](https:\u002F\u002Fgithub.com\u002Ffastino-ai\u002FGLiNER2)\n\n# 👑 GLiNER：通用且轻量化的命名实体识别模型\n\n---\n\n\u003Cdiv align=\"center\">\n    \u003Cdiv>\n        \u003Ca href=\"https:\u002F\u002Fclickpy.clickhouse.com\u002Fdashboard\u002Fgliner\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Furchade_GLiNER_readme_0adfd481def8.png\" alt=\"GLiNER 下载量\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.08526\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FarXiv-2311.08526-b31b1b.svg\" alt=\"GLiNER 论文\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fdiscord.gg\u002FY2yVxpSQnG\">\u003Cimg alt=\"GLiNER Discord\" src=\"https:\u002F\u002Fimg.shields.io\u002Fdiscord\u002F1089800235347353640?logo=discord&logoColor=white&label=Discord&color=blue\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\">\u003Cimg alt=\"GLiNER GitHub 星标\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Furchade\u002FGLiNER?style=social\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg alt=\"许可证\" src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Furchade\u002FGLiNER?color=blue\">\u003C\u002Fa>\n        \u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1mhalKWzmfSTqMnR0wQBZvt9-ktTsATHB?usp=sharing\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"在 Colab 中打开 GLiNER\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Furchade\u002Fgliner_mediumv2.1\">\u003Cimg src=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fhuggingface\u002Fbadges\u002Fresolve\u002Fmain\u002Fopen-in-hf-spaces-sm.svg\" alt=\"在 HF Spaces 中打开 GLiNER\">\u003C\u002Fa>\n        \u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fmodels?library=gliner&sort=trending\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%F0%9F%A4%97%20Hugging%20Face-Models-yellow\" alt=\"HuggingFace 模型\">\u003C\u002Fa>\n    \u003C\u002Fdiv>\n    \u003Cbr>\n\u003C\u002Fdiv>\n\nGLiNER 是一个用于训练和部署具备零样本能力的小型命名实体识别（NER）模型的框架。除了传统的 NER 任务外，它还支持实体与关系联合抽取。GLiNER 可以进行微调，优化后可在 CPU 和消费级硬件上运行，其性能可与自身数倍规模的大语言模型（如 ChatGPT 和 UniNER）相媲美。\n\n## 示例笔记本\n\n探索包括微调、ONNX 转换以及合成数据生成在内的各种示例。\n\n- [示例笔记本](https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Ftree\u002Fmain\u002Fexamples)\n- 在 Colab 上进行微调 &nbsp;[\u003Cimg align=\"center\" src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" \u002F>](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1HNKd74cmfS9tGvWrKeIjSxBt01QQS7bq?usp=sharing)\n## 🛠 安装与使用\n\n### 安装\n```bash\n!pip install gliner\n```\n\n### 使用\n安装 GLiNER 库后，导入 `GLiNER` 类。随后，您可以使用 `GLiNER.from_pretrained` 加载您选择的模型，并利用 `predict_entities` 来识别文本中的实体。\n\n```python\nfrom gliner import GLiNER\n\n# 使用基础模型初始化 GLiNER\nmodel = GLiNER.from_pretrained(\"urchade\u002Fgliner_medium-v2.1\")\n\n# 用于实体预测的示例文本\ntext = \"\"\"\nCristiano Ronaldo dos Santos Aveiro（葡萄牙语发音：[kɾiʃˈtjɐnu ʁɔˈnaldu]；1985年2月5日出生）是一名葡萄牙职业足球运动员，司职前锋，目前效力于沙特职业联赛俱乐部 Al Nassr，并担任该俱乐部及葡萄牙国家队的队长。他被广泛认为是史上最伟大的球员之一，曾五次获得金球奖[注3]，创纪录地三次荣获欧足联年度最佳男球员奖，以及四次获得欧洲金靴奖，均为欧洲球员之最。在其职业生涯中，他共赢得了33座奖杯，其中包括7次联赛冠军、5次欧冠冠军、欧洲杯冠军以及欧国联冠军。罗纳尔多保持着欧冠出场次数（183次）、进球数（140个）和助攻次数（42次）等多项纪录，同时他还拥有欧洲杯进球数（14个）、国家队进球数（128个）以及国家队出场次数（205次）等多项纪录。他是少数职业生涯出场次数超过1200次的球员之一，这一数字为非守门员球员之最；此外，他在俱乐部和国家队的正式比赛中累计打入超过850粒进球，使他成为史上进球最多的球员。\n\"\"\"\n\n# 实体预测的标签\n# 大多数 GLiNER 模型在实体类型使用小写或标题格式时效果最佳\nlabels = [\"Person\", \"Award\", \"Date\", \"Competitions\", \"Teams\"]\n\n# 执行实体预测\nentities = model.predict_entities(text, labels, threshold=0.5)\n\n# 显示预测的实体及其标签\nfor entity in entities:\n    print(entity[\"text\"], \"=>\", entity[\"label\"])\n```\n\n#### 预期输出\n\n```\nCristiano Ronaldo dos Santos Aveiro => person\n5 February 1985 => date\nAl Nassr => teams\nPortugal national team => teams\nBallon d'Or => award\nUEFA Men's Player of the Year Awards => award\nEuropean Golden Shoes => award\nUEFA Champions Leagues => competitions\nUEFA European Championship => competitions\nUEFA Nations League => competitions\nEuropean Championship => competitions\n```\n\n### 量化与编译\n\n使用 `quantize=True` 和 `compile_torch_model=True` 可在不损失任何质量的情况下，将 GPU 推理速度提升至约 1.9 倍：\n\n```python\nmodel = GLiNER.from_pretrained(\n    \"urchade\u002Fgliner_medium-v2.1\",\n    map_location=\"cuda\",\n    quantize=True,            # 或 \"fp16\", \"bf16\"\n    compile_torch_model=True,\n)\n```\n\n或者在加载后应用：\n\n```python\nmodel = GLiNER.from_pretrained(\"urchade\u002Fgliner_medium-v2.1\", map_location=\"cuda\")\nmodel.quantize()         # fp16 半精度（默认）\nmodel.quantize(\"bf16\")   # bfloat16 — 数值稳定性更好，但加速效果略逊\nmodel.compile()          # 使用动态形状的 torch.compile\n```\n\n基于 CoNLL-2003 数据集（严格 F1 分数，`gliner_medium-v2.1`，RTX 5090）的基准测试结果如下：\n\n| 条件 | F1 | 加速比 |\n|-----------|:---:|:---:|\n| GPU fp32（基准） | 0.8107 | 1.00x |\n| + 量化 | 0.8107 | 1.35x |\n| + 编译 | 0.8107 | 1.31x |\n| **+ 量化 + 编译** | **0.8107** | **1.94x** |\n\n**量化选项：**\n- `quantize=True` 或 `quantize=\"fp16\"` — float16 半精度。GPU 加速效果最佳（约 1.35 倍）。\n- `quantize=\"bf16\"` — bfloat16。数值稳定性更好，但加速效果略低（约 1.2 倍）。\n- `quantize=\"int8\"` — int8 量化。在 CPU 上，使用内置的 FBGEMM int8 核心（加速约 1.6 倍）。在 GPU 上，使用 [torchao](https:\u002F\u002Fgithub.com\u002Fpytorch\u002Fao) 的仅权重 int8 量化（内存减少约 50%，但无速度提升）。此选项适用于经过量化感知训练（QAT）微调的模型。而基于 DeBERTa 的原生模型在使用 int8 量化时会降低准确率。\n- 在 CPU 上，fp16\u002Fbf16 量化可以减少内存占用，但不会提高速度。\n\n**编译注意事项：**\n- `compile_torch_model=True` 使用 [torch.compile](https:\u002F\u002Fpytorch.org\u002Fdocs\u002Fstable\u002Ftorch.compiler.html)，通过 [Triton](https:\u002F\u002Fgithub.com\u002Ftriton-lang\u002Ftriton) 内核对模型进行 JIT 编译。首次推理调用会因编译而较慢，但后续所有调用都将受益于已编译的图。此功能仅在 **Linux 和 WSL** 上可用（不支持原生 Windows 或 macOS）。\n\n## 👨‍💻 模型作者\nGLiNER 最初由以下人员开发：\n* [Urchade Zaratiana](urchade.github.io)\n* Nadi Tomeh\n* Pierre Holat\n* Thierry Charnois\n\n## 🌟 维护者\n\n\u003Cdiv align=\"center\">\n  \u003Ctable>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Cstrong>Urchade Zaratiana\u003C\u002Fstrong>\u003Cbr>\n        \u003Cem>Fastino 公司的技术人员\u003C\u002Fem>\u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Furchade-zaratiana-36ba9814b\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white\" alt=\"LinkedIn\" \u002F>\u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Cstrong>Ihor Stepanov\u003C\u002Fstrong>\u003Cbr>\n        \u003Cem>Knowledgator 公司的联合创始人\u003C\u002Fem>\u003Cbr>\n        \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fin\u002Fihor-knowledgator\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white\" alt=\"LinkedIn\" \u002F>\u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftable>\n\u003C\u002Fdiv>\n\n\n## 📚 引用信息\n\n如果您在研究中使用了 GLiNER，请考虑引用我们的论文：\n\n```bibtex\n@inproceedings{zaratiana-etal-2024-gliner,\n    title = \"{GL}i{NER}: 使用双向 Transformer 的通用命名实体识别模型\",\n    author = \"Zaratiana, Urchade  and\n      Tomeh, Nadi  and\n      Holat, Pierre  and\n      Charnois, Thierry\",\n    editor = \"Duh, Kevin  and\n      Gomez, Helena  and\n      Bethard, Steven\",\n    booktitle = \"2024 年北美计算语言学协会人类语言技术会议论文集（第 1 卷：长文）\",\n    month = jun,\n    year = \"2024\",\n    address = \"墨西哥城，墨西哥\",\n    publisher = \"计算语言学协会\",\n    url = \"https:\u002F\u002Faclanthology.org\u002F2024.naacl-long.300\",\n    doi = \"10.18653\u002Fv1\u002F2024.naacl-long.300\",\n    pages = \"5364--5376\",\n    abstract = \"命名实体识别（NER）在各种自然语言处理（NLP）应用中至关重要。传统 NER 模型虽然有效，但仅限于一组预定义的实体类型。相比之下，大型语言模型（LLM）可以通过自然语言指令提取任意实体，具有更高的灵活性。然而，其庞大的规模和高昂的成本，尤其是通过 ChatGPT 等 API 访问时，使其在资源有限的情况下难以实用。本文介绍了一种紧凑的 NER 模型，该模型经过训练可识别任何类型的实体。借助双向 Transformer 编码器，我们的模型 GLiNER 能够并行提取实体，这优于 LLM 慢速的顺序标记生成方式。通过全面测试，GLiNER 表现出强大的性能，在多个 NER 基准上的零样本评估中均优于 ChatGPT 和微调后的 LLM。\",\n}\n```\n\n```bibtex\n@misc{stepanov2024glinermultitaskgeneralistlightweight,\n      title={GLiNER 多任务：用于各类信息抽取任务的通用轻量级模型}, \n      author={Ihor Stepanov 和 Mykhailo Shtopko},\n      year={2024},\n      eprint={2406.12925},\n      archivePrefix={arXiv},\n      primaryClass={cs.LG},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.12925}, \n}\n```\n\n```bibtex\n@misc{stepanov2026millionlabelnerbreakingscale,\n      title={百万标签 NER：利用 GLiNER 双编码器突破规模瓶颈}, \n      author={Ihor Stepanov、Mykhailo Shtopko、Dmytro Vodianytskyi 和 Oleksandr Lukashov},\n      year={2026},\n      eprint={2602.18487},\n      archivePrefix={arXiv},\n      primaryClass={cs.CL},\n      url={https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.18487}, \n}\n```\n## 支持与资助\n\n本项目得到了 **F.initiatives** 和 **巴黎北区信息实验室** 的支持与资助。\n\nF.initiatives 在研发、创新和投资（R&D&I）领域的公共资助策略方面拥有超过 20 年的专业经验。公司拥有一支由 200 多名资深顾问组成的团队，能够在客户制定公共资助战略的各个阶段提供指导——从项目规划到援助申请提交，并确保将客户的产业和技术挑战准确传达给公共资助方。凭借对卓越和诚信的持续承诺，F.initiatives 依靠方法与工具之间的协同效应，为客户提供量身定制、高质量且安全的支持服务。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Furchade_GLiNER_readme_7d3fdd1ddf0a.png\" alt=\"FI 集团\" width=\"300\"\u002F>\n\u003C\u002Fp>\n\n我们还衷心感谢开源社区的宝贵贡献，正是这些贡献推动了本项目的成功。","# GLiNER 快速上手指南\n\nGLiNER 是一个轻量级、通用的命名实体识别（NER）框架，支持零样本（Zero-shot）能力。它不仅能进行传统实体抽取，还支持联合实体与关系抽取。该模型经过微调优化，可在 CPU 和普通消费级硬件上高效运行，性能可媲美大得多的 LLM（如 ChatGPT）。\n\n## 环境准备\n\n*   **系统要求**：\n    *   操作系统：Linux, macOS, Windows (WSL 推荐用于模型编译加速)\n    *   Python 版本：3.8 及以上\n*   **硬件建议**：\n    *   **CPU**：可直接运行，适合轻量级任务。\n    *   **GPU**：推荐使用 NVIDIA GPU 以获得更佳推理速度（支持量化和编译加速）。\n*   **前置依赖**：\n    *   确保已安装 `pip` 包管理工具。\n    *   若需 GPU 加速，请预先安装对应版本的 `torch` (PyTorch) 和 `cuda` 驱动。\n\n## 安装步骤\n\n使用 pip 直接安装 GLiNER 库。国内开发者建议使用清华或阿里镜像源以加快下载速度。\n\n```bash\n# 使用默认源安装\npip install gliner\n\n# 或使用国内镜像源加速安装 (推荐)\npip install gliner -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是最简单的零样本实体抽取示例。只需指定模型名称和想要提取的实体标签列表，即可从文本中识别实体。\n\n```python\nfrom gliner import GLiNER\n\n# 1. 加载预训练模型\n# 常用模型：urchade\u002Fgliner_medium-v2.1\nmodel = GLiNER.from_pretrained(\"urchade\u002Fgliner_medium-v2.1\")\n\n# 2. 准备待分析的文本\ntext = \"\"\"\nCristiano Ronaldo dos Santos Aveiro (born 5 February 1985) is a Portuguese professional footballer \nwho plays as a forward for Saudi Pro League club Al Nassr. He has won five Ballon d'Or awards.\n\"\"\"\n\n# 3. 定义需要提取的实体标签\n# 提示：大多数 GLiNER 模型在标签使用小写或标题大小写时效果最佳\nlabels = [\"Person\", \"Award\", \"Date\", \"Teams\"]\n\n# 4. 执行预测\n# threshold 为置信度阈值，可根据需求调整 (默认 0.5)\nentities = model.predict_entities(text, labels, threshold=0.5)\n\n# 5. 输出结果\nfor entity in entities:\n    print(entity[\"text\"], \"=>\", entity[\"label\"])\n```\n\n**预期输出：**\n```text\nCristiano Ronaldo dos Santos Aveiro => person\n5 February 1985 => date\nAl Nassr => teams\nBallon d'Or => award\n```\n\n### 💡 进阶：开启加速模式\n如果您拥有 NVIDIA GPU，可以通过量化（Quantization）和编译（Compilation）将推理速度提升近 2 倍且不影响精度：\n\n```python\nmodel = GLiNER.from_pretrained(\n    \"urchade\u002Fgliner_medium-v2.1\",\n    map_location=\"cuda\",       # 指定使用 GPU\n    quantize=True,             # 启用 fp16 量化\n    compile_torch_model=True,  # 启用 torch.compile (仅限 Linux\u002FWSL)\n)\n```","某电商运营团队需要从每日成千上万条用户评论中，自动提取“产品缺陷”、“提及竞品”及“期望功能”等非标准实体，以快速优化产品策略。\n\n### 没有 GLiNER 时\n- **标注成本高昂**：传统 NER 模型只能识别预定义的固定类别（如人名、地名），若要识别“电池续航差”这类动态业务实体，需人工标注大量数据并重新训练模型。\n- **响应速度滞后**：每当市场出现新热点或新竞品，重新采集数据、标注并训练模型的过程耗时数天，无法实时捕捉舆情变化。\n- **资源消耗巨大**：为了达到较好的泛化效果，往往需要部署参数量巨大的大语言模型（LLM），导致服务器 GPU 成本居高不下，难以在边缘设备或低成本 CPU 服务器上运行。\n- **灵活性不足**：面对不同品类的商品（如从“手机”切换到“美妆”），需要维护多套独立的模型系统，架构复杂且难以统一维护。\n\n### 使用 GLiNER 后\n- **零样本即时提取**：利用 GLiNER 的零样本能力，只需在代码中传入自定义标签列表（如 `[\"产品缺陷\", \"提及竞品\"]`），无需任何额外训练即可直接从文本中精准提取目标实体。\n- **敏捷应对变化**：当业务需求变更时，仅需修改提示标签即可立即生效，将新实体的上线周期从“天级”缩短至“分钟级”，实时跟进市场动态。\n- **轻量高效部署**：GLiNER 模型体积小、推理速度快，可直接运行在普通的 CPU 服务器甚至本地笔记本上，大幅降低了算力成本和运维门槛。\n- **统一通用架构**：一套模型即可通用于电商、金融、医疗等多个领域的实体提取任务，简化了技术栈，提升了开发效率。\n\nGLiNER 通过轻量化的零样本架构，让企业能以极低的成本实现灵活、高效的定制化信息抽取，彻底打破了传统 NER 对标注数据和昂贵算力的依赖。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Furchade_GLiNER_1defb09e.png","urchade","Urchade Zaratiana","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Furchade_60c183f0.png","Researcher",null,"Paris","urchadeDS","urchade.github.io","https:\u002F\u002Fgithub.com\u002Furchade",[86,90,94],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99.4,{"name":91,"color":92,"percentage":93},"C++","#f34b7d",0.5,{"name":95,"color":96,"percentage":97},"Cython","#fedf5b",0.1,3070,264,"2026-04-16T05:20:15","Apache-2.0","Linux, WSL","可选。支持 NVIDIA GPU 以加速推理（测试基于 RTX 5090）。若使用 torch.compile 加速，仅限 Linux\u002FWSL。CPU 亦可运行，int8 量化在 CPU 上有加速效果。","未说明（模型定位为轻量级，优化用于消费级硬件）",{"notes":106,"python":107,"dependencies":108},"1. 核心特性：模型专为 CPU 和消费级硬件优化，支持零样本命名实体识别。2. 加速选项：GPU 用户可通过设置 quantize=True (fp16\u002Fbf16) 和 compile_torch_model=True 获得最高约 1.94 倍的速度提升。3. 平台限制：torch.compile 编译加速功能仅在 Linux 和 WSL 上可用，不支持原生 Windows 或 macOS。4. 量化注意：int8 量化在 GPU 上仅减少显存占用而不提升速度，且可能导致预训练 DeBERTa 模型精度下降，建议仅用于经过量化感知训练微调的模型；在 CPU 上 int8 可提升速度。","未说明",[109,110,111,112],"gliner","torch","transformers (隐含，基于 DeBERTa)","torchao (可选，用于 GPU int8 量化)",[15],[115,116,117,118,119],"information-extraction","large-language-models","named-entity-recognition","natural-language-processing","prompt-tuning","2026-03-27T02:49:30.150509","2026-04-17T08:24:16.699630",[123,128,133,138,143],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},36414,"为什么加载模型时出现 'TypeError: Module.load_state_dict() got an unexpected keyword argument assign' 错误？","这是由于 PyTorch 版本兼容性问题导致的。解决方法是修改源代码，在 `model.py` 文件中找到 `model.load_state_dict(state_dict, strict=strict, assign=True)` 这一行，移除 `assign=True` 参数，改为 `model.load_state_dict(state_dict, strict=strict)` 即可正常运行。","https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fissues\u002F7",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},36415,"如何加载和使用本地微调后的 GLiNER 模型？直接使用 from_pretrained 传入本地路径报错怎么办？","直接传递本地路径给 `from_pretrained` 可能会触发 Hugging Face 的仓库验证错误。建议手动加载配置和权重文件，具体代码如下：\n1. 导入必要模块：`from gliner.model import load_config_as_namespace`\n2. 加载配置：`config = load_config_as_namespace('path\u002Fto\u002Fgliner_config.json')`\n3. 初始化模型：`model = GLiNER(config)`\n4. 加载权重：`state_dict = torch.load('path\u002Fto\u002Fpytorch_model.bin', map_location='cpu')`\n5. 载入状态：`model.load_state_dict(state_dict, strict=False)` (注意根据版本可能需要去掉 assign 参数)\n6. 设置设备：`model.to('cpu')`\n之后即可使用 `model.predict_entities` 进行预测。","https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fissues\u002F35",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},36416,"为什么模型会将代词（如 I, you, we）错误地识别为 PERSON 实体？","这通常是因为模型在特定语言或数据集上的表现差异。如果处理的是非英语文本，或者使用了针对翻译文本微调的模型（如 gliner_medium_news），可能会出现这种情况。目前的解决方案是在模型输出后进行后处理，编写规则过滤掉代词（如 I, you, we, they 等），只保留真正的命名实体（人名名词）。","https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fissues\u002F115",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},36417,"为什么复现论文结果时，评测分数比报告中低很多（例如低 7%）？","Hugging Face 上发布的预训练模型可能与论文中报告的模型不完全一致，它们可能是重新训练的版本，或者是由于代码框架更新导致的差异。维护者指出，部分模型（如 Medium 版本）可能存在训练运行不佳的情况，导致性能低于预期。对于 Large 和 Small 版本，差异通常不显著。建议以当前代码库和 HF 模型的实际评测结果为准，或者关注维护者后续更新的更优模型。","https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fissues\u002F54",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},36418,"微调笔记本运行几步后出现运行时错误（Runtime Error）是什么原因？","这通常与标签设置有关。如果您的标签是固定的，请确保将它们正确添加到 `label` 列表中。如果标签不固定，需要确保在批次采样中包含负样本实体（negative entities）。检查数据集格式和标签配置是否符合微调脚本的要求。","https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fissues\u002F80",[149,154,159,164,169,174,179,184,189,194,199,204,209,214,219,224,229,234,239,244],{"id":150,"version":151,"summary_zh":152,"released_at":153},289245,"v0.2.26","## 变更内容\n* 由 @maxwbuckley 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F333 中对 CPU 路径的预处理和解码热点循环进行向量化\n* 对关系解码进行向量化：将 B*R*C .item() 调用替换为 torch.where，由 @maxwbuckley 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F335 中完成\n* 批次级实体跨度解码：将 CUDA 内核启动次数由 B*8 减少至约 8 次，由 @maxwbuckley 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F334 中实现\n* 重构代码库并更新文档，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F336 中完成\n* 修复均值损失归一化因子，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F337 中完成\n* 改进 GLiNER-relex 架构，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F338 中完成\n* 修复 relex 模型解码问题，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F340 中完成\n* 修复 ONNX 格式问题，由 @BryanBradfo 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F341 中完成\n\n## 新贡献者\n* @maxwbuckley 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F333 中完成了首次贡献\n* @BryanBradfo 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F341 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.25...v0.2.26","2026-03-19T15:08:10",{"id":155,"version":156,"summary_zh":157,"released_at":158},289246,"v0.2.25","## 变更内容\n* 由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F310 中准备文档部署\n* 修复：将 apex.amp 导入移至其他位置，以避免在导入 GLiNER 时发生崩溃，由 @tannonk 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F313 中完成\n* 修复在缺少 torch 文件时加载 ONNX 模型的问题，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F317 中完成\n* 修复损失函数中的全连接层问题，由 @BioMikeUkr 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F322 中完成\n* 引入新的 token 级架构，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F321 中完成\n* 增加对空字符串的处理，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F325 中完成\n* 修复（ONNX）：为 ONNX 导出在 SpanMLP.view() 中使用显式 max_width，由 @ajroetker 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F318 中完成\n* 修复训练问题及与 transformers v4.x 和 v5 的兼容性，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F326 中完成\n* 新增候选标签功能，由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F328 中完成\n* 更新 README.md，由 @m-newhauser 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F330 中完成\n\n## 新贡献者\n* @tannonk 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F313 中完成了首次贡献\n* @ajroetker 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F318 中完成了首次贡献\n* @m-newhauser 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F330 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.24...v0.2.25","2026-02-11T14:32:44",{"id":160,"version":161,"summary_zh":162,"released_at":163},289247,"v0.2.24","## 变更内容\n* 由 urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F309 中修复加载问题\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.23...v0.2.24","2025-11-26T18:31:23",{"id":165,"version":166,"summary_zh":167,"released_at":168},289248,"v0.2.23","## 变更内容\n* 由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F296 中修复了掩码接口，以确保训练跨度模型的正确性。\n* 由 @vivekkalyanarangan30 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F292 中添加了推理时的序列打包支持。\n* 由 @vivekkalyanarangan30 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F301 中解决了打包参数未传递的问题，并增加了对其他骨干网络的支持。\n* 由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F305 中重构了 GLiNER，使其更加模块化且易于使用。\n* 由 @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F306 中更新了 Transformer 版本。\n\n## 新贡献者\n* @vivekkalyanarangan30 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F292 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.22...v0.2.23","2025-11-25T17:37:45",{"id":170,"version":171,"summary_zh":172,"released_at":173},289249,"v0.2.22","## 变更内容\n* @oleksandrlukashov 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F269 中添加了 jieba3\n* @anny-lanai 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F271 中更新了 requirements.txt，不再为 macOS 使用 onnxruntime-gpu\n* @anthonyyazdani 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F276 中添加了用于语言感知分词的 StanzaWordsSplitter\n* @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F272 中实现了非对称损失函数\n* @dcrey7 修复了 ALL_LAYERNORM_LAYERS 的 bug，相关 PR 为 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F278\n* @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F283 中增加了带约束的生成功能\n* @BioMikeUkr 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F286 中修复了损失函数的归约参数问题\n* @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F282 中实现了标签解码器\n* @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F287 中修复了 Cython 模块的使用问题\n* @jackboyla 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F288 中将作为单个字符串传入的 `texts` 转换为列表\n* @cceyda 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F289 中修复了 SpanBiEncoderProcessor 的标签分配问题\n\n## 新贡献者\n* @anny-lanai 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F271 中做出了首次贡献\n* @anthonyyazdani 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F276 中做出了首次贡献\n* @dcrey7 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F278 中做出了首次贡献\n* @BioMikeUkr 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F286 中做出了首次贡献\n* @jackboyla 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F288 中做出了首次贡献\n* @cceyda 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F289 中做出了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002F0.2.21...v0.2.22","2025-08-26T14:45:40",{"id":175,"version":176,"summary_zh":177,"released_at":178},289250,"0.2.21","## 变更内容\n* 由 @rafmacalaba 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F260 中添加了关系抽取的返回索引。\n* 由 @oleksandrlukashov 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F265 中实现了多语言分词器。\n* 由 @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F266 中修复了跨度级别和标记级别模型的多 GPU 训练问题。\n\n## 新贡献者\n* @oleksandrlukashov 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F265 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.20...0.2.21","2025-06-16T17:25:40",{"id":180,"version":181,"summary_zh":182,"released_at":183},289251,"v0.2.20","## 变更内容\n* @rafmacalaba 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F255 中更新了 relation_extraction.py 文件\n* @bit2244 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F250 中为 AutoConfig 和 AutoTokenizer 添加了 cache_dir 参数\n* @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F257 中添加了从配置文件加载的功能\n* @Ingvarstep 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F259 中增加了对 Flash DeBERTa 的支持\n\n## 新贡献者\n* @rafmacalaba 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F255 中完成了首次贡献\n* @bit2244 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F250 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.19...v0.2.20","2025-05-21T15:54:21",{"id":185,"version":186,"summary_zh":187,"released_at":188},289252,"v0.2.19","## 变更内容\n* 文档：由 @eltociear 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F239 中更新 README_Extended.md\n* 添加负采样：由 @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F251 中实现\n* 修改训练器：由 @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F252 中完成\n* 新版本：由 @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F253 中发布\n* 在配置中添加 data_type：由 @urchade 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F254 中实现\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.17...v0.2.19","2025-04-30T14:20:12",{"id":190,"version":191,"summary_zh":192,"released_at":193},289253,"v0.2.17","## 变更内容\n* 由 @seanbenhur 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F228 中修复了文本分类评估中的一个 bug\n\n## 新贡献者\n* @seanbenhur 在 https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F228 中完成了他们的首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.16...v0.2.17","2025-03-24T07:15:46",{"id":195,"version":196,"summary_zh":197,"released_at":198},289254,"v0.2.16","**针对基于跨度的命名实体识别训练的多标签最佳支持**\n\n**完整更新日志**：https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.15...v0.2.16","2025-01-21T19:30:27",{"id":200,"version":201,"summary_zh":202,"released_at":203},289255,"v0.2.15","## What's Changed\r\n* make `onnxruntime-gpu` optional by @moritzwilksch in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F223\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.14...v0.2.15","2025-01-11T00:35:40",{"id":205,"version":206,"summary_zh":207,"released_at":208},289256,"v0.2.14","## What's Changed\r\n* Bug fix: Tensors should not be moved to a device when using onnx by @azikoss in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F196\r\n* Bug fix: Tensors should not be moved to a device when using onnx (in evaluate function) by @wojiaodawei in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F199\r\n* Change how the config file is loaded by @eriknovak in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F206\r\n* Add GPU Support for ONNX Models by @KarimLulu in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F201\r\n* Simplify inference and evaluation for multi-task models by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F217\r\n\r\n## New Contributors\r\n* @azikoss made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F196\r\n* @wojiaodawei made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F199\r\n* @eriknovak made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F206\r\n* @KarimLulu made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F201\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.13...v0.2.14","2025-01-02T17:51:49",{"id":210,"version":211,"summary_zh":212,"released_at":213},289257,"v0.2.13","**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.12...v0.2.13","2024-09-23T01:12:02",{"id":215,"version":216,"summary_zh":217,"released_at":218},289258,"v0.2.12","## What's Changed\r\n* Safetensors support by @vrdn-23 in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F190\r\n\r\n## New Contributors\r\n* @vrdn-23 made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F190\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.11...v0.2.12","2024-09-18T06:34:20",{"id":220,"version":221,"summary_zh":222,"released_at":223},289259,"v0.2.11","## What's Changed\r\n* Add support of modern decoders as a backbone by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F181\r\n* improve batch processing for inference by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F187\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.10...v0.2.11","2024-09-07T02:58:34",{"id":225,"version":226,"summary_zh":227,"released_at":228},289260,"v0.2.10","## What's Changed\r\n* Biencoder and polyencoder architecture by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F175\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.9...v0.2.10","2024-08-20T08:11:38",{"id":230,"version":231,"summary_zh":232,"released_at":233},289261,"v0.2.9","## What's Changed\r\n* Fix load checkpoint by @nguyenhoan1988 in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F166\r\n* Llm2vec by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F171\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.8...v0.2.9","2024-08-13T13:56:22",{"id":235,"version":236,"summary_zh":237,"released_at":238},289262,"v0.2.8","## What's Changed\r\n* Fix dup labels list by @nguyenhoan1988 in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F147\r\n* add session options to _from_pretrained method by @Knzaytsev in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F154\r\n\r\n## New Contributors\r\n* @nguyenhoan1988 made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F147\r\n* @Knzaytsev made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F154\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.7...v0.2.8","2024-07-18T09:50:49",{"id":240,"version":241,"summary_zh":242,"released_at":243},289263,"v0.2.7","## What's Changed\r\n* Add Jieba and HanLP for Chinese sentence tokenization. by @simonChoi034 in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F136\r\n* Fixes  by @urchade in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F143\r\n* manual negatives by @urchade in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F144\r\n* Removed outdated dependency and ported divide by zero logic by @RobertHGit in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F141\r\n\r\n## New Contributors\r\n* @simonChoi034 made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F136\r\n* @RobertHGit made their first contribution in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F141\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.6...v0.2.7","2024-07-03T18:56:16",{"id":245,"version":246,"summary_zh":247,"released_at":248},289264,"v0.2.6","## What's Changed\r\n* Fix missed tokens issue and optimize features selection function by @Ingvarstep in https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fpull\u002F132\r\n\r\n\r\n**Full Changelog**: https:\u002F\u002Fgithub.com\u002Furchade\u002FGLiNER\u002Fcompare\u002Fv0.2.5...v0.2.6","2024-06-27T00:19:58"]