[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SKTBrain--KoBERT":3,"tool-SKTBrain--KoBERT":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":23,"env_os":95,"env_gpu":96,"env_ram":95,"env_deps":97,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":114,"updated_at":115,"faqs":116,"releases":150},3040,"SKTBrain\u002FKoBERT","KoBERT","Korean BERT pre-trained cased (KoBERT)","KoBERT 是一个专为韩语自然语言处理打造的预训练 BERT 模型。它主要解决了谷歌原版多语言 BERT 在处理韩语时性能受限的问题，通过基于大规模韩语维基百科数据（500 万句、5400 万词）进行专项训练，显著提升了对韩语语境的理解能力。\n\n该工具非常适合需要开发韩语 NLP 应用的开发者、研究人员以及学生使用。无论是进行情感分析、命名实体识别，还是构建语义搜索系统，KoBERT 都能提供强大的底层支持。其技术亮点在于采用了针对韩语优化的 SentencePiece 分词器，词表大小精简至 8,002 个，在保持高精度的同时减少了参数量（约 92M），使得模型更加轻量高效。此外，KoBERT 展现了极佳的工程兼容性，不仅原生支持 PyTorch，还提供了 ONNX 和 MXNet-Gluon 版本，方便用户根据实际部署环境灵活选择。项目还附带了基于 Naver 评论数据的情感分析等微调示例，帮助用户快速上手并应用于实际业务场景中。","# KoBERT\n\n* [KoBERT](#kobert)\n  * [Korean BERT pre-trained cased (KoBERT)](#korean-bert-pre-trained-cased-kobert)\n    * [Why'?'](#why)\n    * [Training Environment](#training-environment)\n    * [Requirements](#requirements)\n    * [How to install](#how-to-install)\n  * [How to use](#how-to-use)\n    * [Using with PyTorch](#using-with-pytorch)\n    * [Using with ONNX](#using-with-onnx)\n    * [Using with MXNet-Gluon](#using-with-mxnet-gluon)\n    * [Tokenizer](#tokenizer)\n  * [Subtasks](#subtasks)\n    * [Naver Sentiment Analysis](#naver-sentiment-analysis)\n    * [KoBERT와 CRF로 만든 한국어 객체명인식기](#kobert와-crf로-만든-한국어-객체명인식기)\n    * [Korean Sentence BERT](#korean-sentence-bert)\n  * [Release](#release)\n  * [Contacts](#contacts)\n  * [License](#license)\n\n---\n\n## Korean BERT pre-trained cased (KoBERT)\n\n### Why'?'\n\n* 구글 [BERT base multilingual cased](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert\u002Fblob\u002Fmaster\u002Fmultilingual.md)의 한국어 성능 한계\n\n### Training Environment\n\n* Architecture\n\n```python\npredefined_args = {\n        'attention_cell': 'multi_head',\n        'num_layers': 12,\n        'units': 768,\n        'hidden_size': 3072,\n        'max_length': 512,\n        'num_heads': 12,\n        'scaled': True,\n        'dropout': 0.1,\n        'use_residual': True,\n        'embed_size': 768,\n        'embed_dropout': 0.1,\n        'token_type_vocab_size': 2,\n        'word_embed': None,\n    }\n```\n\n* 학습셋\n\n| 데이터      | 문장 | 단어 |\n| ----------- | ---- | ---- |\n| 한국어 위키 | 5M   | 54M  |\n\n* 학습 환경\n  * V100 GPU x 32, Horovod(with InfiniBand)\n\n![2019-04-29 텐서보드 로그](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSKTBrain_KoBERT_readme_e61e639f124f.png)\n\n* 사전(Vocabulary)\n  * 크기 : 8,002\n  * 한글 위키 기반으로 학습한 토크나이저(SentencePiece)\n  * Less number of parameters(92M \u003C 110M )\n\n### Requirements\n\n* see [requirements.txt](https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Frequirements.txt)\n\n### How to install\n\n* Install KoBERT as a python package\n\n  ```sh\n  pip install git+https:\u002F\u002Fgit@github.com\u002FSKTBrain\u002FKoBERT.git@master\n  ```\n\n* If you want to modify source codes, please clone this repository\n\n  ```sh\n  git clone https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT.git\n  cd KoBERT\n  pip install -r requirements.txt\n  ```\n\n---\n\n## How to use\n\n### PyTorch\n\n*Huggingface transformers API가 편하신 분은 [여기](kobert_hf)를 참고하세요.*\n\n```python\n>>> import torch\n>>> from kobert import get_pytorch_kobert_model\n>>> input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])\n>>> input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])\n>>> token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]])\n>>> model, vocab  = get_pytorch_kobert_model()\n>>> sequence_output, pooled_output = model(input_ids, input_mask, token_type_ids)\n>>> pooled_output.shape\ntorch.Size([2, 768])\n>>> vocab\nVocab(size=8002, unk=\"[UNK]\", reserved=\"['[MASK]', '[SEP]', '[CLS]']\")\n>>> # Last Encoding Layer\n>>> sequence_output[0]\ntensor([[-0.2461,  0.2428,  0.2590,  ..., -0.4861, -0.0731,  0.0756],\n        [-0.2478,  0.2420,  0.2552,  ..., -0.4877, -0.0727,  0.0754],\n        [-0.2472,  0.2420,  0.2561,  ..., -0.4874, -0.0733,  0.0765]],\n       grad_fn=\u003CSelectBackward>)\n```\n\n`model`은 디폴트로 `eval()`모드로 리턴됨, 따라서 학습 용도로 사용시 `model.train()`명령을 통해 학습 모드로 변경할 필요가 있다.\n\n* Naver Sentiment Analysis Fine-Tuning with pytorch\n  * Colab에서 [런타임] - [런타임 유형 변경] - 하드웨어 가속기(GPU) 사용을 권장합니다.\n  * [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Fscripts\u002FNSMC\u002Fnaver_review_classifications_pytorch_kobert.ipynb)\n\n### ONNX\n\n```python\n>>> import onnxruntime\n>>> import numpy as np\n>>> from kobert import get_onnx_kobert_model\n>>> onnx_path = get_onnx_kobert_model()\n>>> sess = onnxruntime.InferenceSession(onnx_path)\n>>> input_ids = [[31, 51, 99], [15, 5, 0]]\n>>> input_mask = [[1, 1, 1], [1, 1, 0]]\n>>> token_type_ids = [[0, 0, 1], [0, 1, 0]]\n>>> len_seq = len(input_ids[0])\n>>> pred_onnx = sess.run(None, {'input_ids':np.array(input_ids),\n>>>                             'token_type_ids':np.array(token_type_ids),\n>>>                             'input_mask':np.array(input_mask),\n>>>                             'position_ids':np.array(range(len_seq))})\n>>> # Last Encoding Layer\n>>> pred_onnx[-2][0]\narray([[-0.24610452,  0.24282141,  0.25895312, ..., -0.48613444,\n        -0.07305173,  0.07560554],\n       [-0.24783179,  0.24200465,  0.25520486, ..., -0.4877185 ,\n        -0.0727044 ,  0.07536091],\n       [-0.24721591,  0.24196623,  0.2560626 , ..., -0.48743123,\n        -0.07326943,  0.07650235]], dtype=float32)\n```\n\n_ONNX 컨버팅은 [soeque1](https:\u002F\u002Fgithub.com\u002Fsoeque1)께서 도움을 주셨습니다._\n\n### MXNet-Gluon\n\n```python\n>>> import mxnet as mx\n>>> from kobert import get_mxnet_kobert_model\n>>> input_id = mx.nd.array([[31, 51, 99], [15, 5, 0]])\n>>> input_mask = mx.nd.array([[1, 1, 1], [1, 1, 0]])\n>>> token_type_ids = mx.nd.array([[0, 0, 1], [0, 1, 0]])\n>>> model, vocab = get_mxnet_kobert_model(use_decoder=False, use_classifier=False)\n>>> encoder_layer, pooled_output = model(input_id, token_type_ids)\n>>> pooled_output.shape\n(2, 768)\n>>> vocab\nVocab(size=8002, unk=\"[UNK]\", reserved=\"['[MASK]', '[SEP]', '[CLS]']\")\n>>> # Last Encoding Layer\n>>> encoder_layer[0]\n[[-0.24610372  0.24282135  0.2589539  ... -0.48613444 -0.07305248\n   0.07560539]\n [-0.24783105  0.242005    0.25520545 ... -0.48771808 -0.07270523\n   0.07536077]\n [-0.24721491  0.241966    0.25606337 ... -0.48743105 -0.07327032\n   0.07650219]]\n\u003CNDArray 3x768 @cpu(0)>\n```\n\n* Naver Sentiment Analysis Fine-Tuning with MXNet\n  * [![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Fscripts\u002FNSMC\u002Fnaver_review_classifications_gluon_kobert.ipynb)\n\n### Tokenizer\n\n* Pretrained [Sentencepiece](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fsentencepiece) tokenizer\n\n```python\n>>> from gluonnlp.data import SentencepieceTokenizer\n>>> from kobert import get_tokenizer_path\n>>> tok_path = get_tokenizer_path()\n>>> sp  = SentencepieceTokenizer(tok_path)\n>>> sp('한국어 모델을 공유합니다.')\n['▁한국', '어', '▁모델', '을', '▁공유', '합니다', '.']\n```\n\n---\n\n## Task Fine-tuning\n\n### Naver Sentiment Analysis\n\n* Dataset : \u003Chttps:\u002F\u002Fgithub.com\u002Fe9t\u002Fnsmc>\n\n| Model                                                                                               | Accuracy                                                        |\n| --------------------------------------------------------------------------------------------------- | --------------------------------------------------------------- |\n| [BERT base multilingual cased](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert\u002Fblob\u002Fmaster\u002Fmultilingual.md) | 0.875                                                           |\n| KoBERT                                                                                              | **[0.901](logs\u002Fbert_naver_small_512_news_simple_20190624.txt)** |\n| [KoGPT2](https:\u002F\u002Fgithub.com\u002FSKT-AI\u002FKoGPT2)                                                          | 0.899                                                           |\n\n### KoBERT와 CRF로 만든 한국어 객체명인식기\n\n* \u003Chttps:\u002F\u002Fgithub.com\u002Feagle705\u002Fpytorch-bert-crf-ner>\n\n```text\n문장을 입력하세요:  SKTBrain에서 KoBERT 모델을 공개해준 덕분에 BERT-CRF 기반 객체명인식기를 쉽게 개발할 수 있었다.\nlen: 40, input_token:['[CLS]', '▁SK', 'T', 'B', 'ra', 'in', '에서', '▁K', 'o', 'B', 'ER', 'T', '▁모델', '을', '▁공개', '해', '준', '▁덕분에', '▁B', 'ER', 'T', '-', 'C', 'R', 'F', '▁기반', '▁', '객', '체', '명', '인', '식', '기를', '▁쉽게', '▁개발', '할', '▁수', '▁있었다', '.', '[SEP]']\nlen: 40, pred_ner_tag:['[CLS]', 'B-ORG', 'I-ORG', 'I-ORG', 'I-ORG', 'I-ORG', 'O', 'B-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'O', 'O', 'O', 'O', 'O', 'O', 'B-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', '[SEP]']\ndecoding_ner_sentence: [CLS] \u003CSKTBrain:ORG>에서 \u003CKoBERT:POH> 모델을 공개해준 덕분에 \u003CBERT-CRF:POH> 기반 객체명인식기를 쉽게 개발할 수 있었다.[SEP]\n```\n\n### Korean Sentence BERT\n\n* \u003Chttps:\u002F\u002Fgithub.com\u002FBM-K\u002FKoSentenceBERT-SKT>\n\n|Model|Cosine Pearson|Cosine Spearman|Euclidean Pearson|Euclidean Spearman|Manhattan Pearson|Manhattan Spearman|Dot Pearson|Dot Spearman|\n|:------------------------:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n|NLl|65.05|68.48|68.81|68.18|68.90|68.20|65.22|66.81|\n|STS|**80.42**|**79.64**|**77.93**|77.43|**77.92**|77.44|**76.56**|**75.83**|\n|STS + NLI|78.81|78.47|77.68|**77.78**|77.71|**77.83**|75.75|75.22|\n---\n\n## Release\n\n* v0.2.4\n  * 대용량 파일을 Hugging Face Hub에서 받도록 변경\n* v0.2.3\n  * `onnx 1.8.0` 지원\n* v0.2.2\n  * 에러 수정: `No module named 'kobert.utils'`\n* v0.2.1\n  * import 구문 수정\n* v0.2\n  * 대용량 파일을 `aws s3`에서 받도록 변경\n  * 함수명 변경\n* v0.1.2\n  * transformers 라이브러리 호환성 수정\n  * pad token의 index 수정\n* v0.1.1\n  * 사전(vocabulary)과 토크나이저 통합\n* v0.1\n  * 초기 모델 릴리즈\n\n## Contacts\n\n`KoBERT` 관련 이슈는 [이곳](https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues)에 등록해 주시기 바랍니다.\n\n## License\n\n`KoBERT`는 `Apache-2.0` 라이선스 하에 공개되어 있습니다. 모델 및 코드를 사용할 경우 라이선스 내용을 준수해주세요. 라이선스 전문은 `LICENSE` 파일에서 확인하실 수 있습니다.\n","# KoBERT\n\n* [KoBERT](#kobert)\n  * [韩语 BERT 预训练大小写模型 (KoBERT)](#korean-bert-pre-trained-cased-kobert)\n    * [为什么？](#why)\n    * [训练环境](#training-environment)\n    * [要求](#requirements)\n    * [如何安装](#how-to-install)\n  * [使用方法](#how-to-use)\n    * [与 PyTorch 结合使用](#using-with-pytorch)\n    * [与 ONNX 结合使用](#using-with-onnx)\n    * [与 MXNet-Gluon 结合使用](#using-with-mxnet-gluon)\n    * [分词器](#tokenizer)\n  * [子任务](#subtasks)\n    * [Naver 情感分析](#naver-sentiment-analysis)\n    * [基于 KoBERT 和 CRF 的韩语命名实体识别器](#kobert와-crf로-만든-한국어-객체명인식기)\n    * [韩语 Sentence BERT](#korean-sentence-bert)\n  * [发布](#release)\n  * [联系方式](#contacts)\n  * [许可证](#license)\n\n---\n\n## 韩语 BERT 预训练大小写模型 (KoBERT)\n\n### 为什么？\n\n* 谷歌 [BERT base 多语言大小写模型](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert\u002Fblob\u002Fmaster\u002Fmultilingual.md)在韩语上的性能局限性\n\n### 训练环境\n\n* 架构\n\n```python\npredefined_args = {\n        'attention_cell': 'multi_head',\n        'num_layers': 12,\n        'units': 768,\n        'hidden_size': 3072,\n        'max_length': 512,\n        'num_heads': 12,\n        'scaled': True,\n        'dropout': 0.1,\n        'use_residual': True,\n        'embed_size': 768,\n        'embed_dropout': 0.1,\n        'token_type_vocab_size': 2,\n        'word_embed': None,\n    }\n```\n\n* 训练数据集\n\n| 数据      | 句子 | 单词 |\n| ----------- | ---- | ---- |\n| 韩语维基 | 5M   | 54M  |\n\n* 训练环境\n  * V100 GPU x 32, Horovod（使用 InfiniBand）\n\n![2019-04-29 TensorBoard 日志](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSKTBrain_KoBERT_readme_e61e639f124f.png)\n\n* 词汇表\n  * 大小：8,002\n  * 基于韩语维基学习的分词器（SentencePiece）\n  * 参数量较少（92M \u003C 110M）\n\n### 要求\n\n* 请参阅 [requirements.txt](https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Frequirements.txt)\n\n### 如何安装\n\n* 将 KoBERT 安装为 Python 包\n\n  ```sh\n  pip install git+https:\u002F\u002Fgit@github.com\u002FSKTBrain\u002FKoBERT.git@master\n  ```\n\n* 如果您想修改源代码，请克隆此仓库\n\n  ```sh\n  git clone https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT.git\n  cd KoBERT\n  pip install -r requirements.txt\n  ```\n\n---\n\n## 使用方法\n\n### PyTorch\n\n*如果您更喜欢使用 Huggingface transformers API，请参考[这里](kobert_hf)。*\n\n```python\n>>> import torch\n>>> from kobert import get_pytorch_kobert_model\n>>> input_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])\n>>> input_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])\n>>> token_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]])\n>>> model, vocab  = get_pytorch_kobert_model()\n>>> sequence_output, pooled_output = model(input_ids, input_mask, token_type_ids)\n>>> pooled_output.shape\ntorch.Size([2, 768])\n>>> vocab\nVocab(size=8002, unk=\"[UNK]\", reserved=\"['[MASK]', '[SEP]', '[CLS]']\")\n>>> # 最后一层编码\n>>> sequence_output[0]\ntensor([[-0.2461,  0.2428,  0.2590,  ..., -0.4861, -0.0731,  0.0756],\n        [-0.2478,  0.2420,  0.2552,  ..., -0.4877, -0.0727,  0.0754],\n        [-0.2472,  0.2420,  0.2561,  ..., -0.4874, -0.0733,  0.0765]],\n       grad_fn=\u003CSelectBackward>)\n```\n\n`model` 默认以 `eval()` 模式返回，因此在用于训练时，需要通过 `model.train()` 命令将其切换到训练模式。\n\n* Naver 情感分析与 PyTorch 微调\n  * 建议在 Colab 中使用 [运行时] - [更改运行时类型] - 硬件加速器（GPU）。\n  * [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Fscripts\u002FNSMC\u002Fnaver_review_classifications_pytorch_kobert.ipynb)\n\n### ONNX\n\n```python\n>>> import onnxruntime\n>>> import numpy as np\n>>> from kobert import get_onnx_kobert_model\n>>> onnx_path = get_onnx_kobert_model()\n>>> sess = onnxruntime.InferenceSession(onnx_path)\n>>> input_ids = [[31, 51, 99], [15, 5, 0]]\n>>> input_mask = [[1, 1, 1], [1, 1, 0]]\n>>> token_type_ids = [[0, 0, 1], [0, 1, 0]]\n>>> len_seq = len(input_ids[0])\n>>> pred_onnx = sess.run(None, {'input_ids':np.array(input_ids),\n>>>                             'token_type_ids':np.array(token_type_ids),\n>>>                             'input_mask':np.array(input_mask),\n>>>                             'position_ids':np.array(range(len_seq))})\n>>> # 最后一层编码\n>>> pred_onnx[-2][0]\narray([[-0.24610452,  0.24282141,  0.25895312, ..., -0.48613444,\n        -0.07305173,  0.07560554],\n       [-0.24783179,  0.24200465,  0.25520486, ..., -0.4877185 ,\n        -0.0727044 ,  0.07536091],\n       [-0.24721591,  0.24196623,  0.2560626 , ..., -0.48743123,\n        -0.07326943,  0.07650235]], dtype=float32)\n```\n\n_ONNX 转换得到了 [soeque1](https:\u002F\u002Fgithub.com\u002Fsoeque1) 的帮助。_\n\n### MXNet-Gluon\n\n```python\n>>> import mxnet as mx\n>>> from kobert import get_mxnet_kobert_model\n>>> input_id = mx.nd.array([[31, 51, 99], [15, 5, 0]])\n>>> input_mask = mx.nd.array([[1, 1, 1], [1, 1, 0]])\n>>> token_type_ids = mx.nd.array([[0, 0, 1], [0, 1, 0]])\n>>> model, vocab = get_mxnet_kobert_model(use_decoder=False, use_classifier=False)\n>>> encoder_layer, pooled_output = model(input_id, token_type_ids)\n>>> pooled_output.shape\n(2, 768)\n>>> vocab\nVocab(size=8002, unk=\"[UNK]\", reserved=\"['[MASK]', '[SEP]', '[CLS]']\")\n>>> # 最后一层编码\n>>> encoder_layer[0]\n[[-0.24610372  0.24282135  0.2589539  ... -0.48613444 -0.07305248\n   0.07560539]\n [-0.24783105  0.242005    0.25520545 ... -0.48771808 -0.07270523\n   0.07536077]\n [-0.24721491  0.241966    0.25606337 ... -0.48743105 -0.07327032\n   0.07650219]]\n\u003CNDArray 3x768 @cpu(0)>\n```\n\n* Naver 情感分析与 MXNet 微调\n  * [![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002FSKTBrain\u002FKoBERT\u002Fblob\u002Fmaster\u002Fscripts\u002FNSMC\u002Fnaver_review_classifications_gluon_kobert.ipynb)\n\n### 分词器\n\n* 预训练的 [Sentencepiece](https:\u002F\u002Fgithub.com\u002Fgoogle\u002Fsentencepiece) 分词器\n\n```python\n>>> from gluonnlp.data import SentencepieceTokenizer\n>>> from kobert import get_tokenizer_path\n>>> tok_path = get_tokenizer_path()\n>>> sp  = SentencepieceTokenizer(tok_path)\n>>> sp('分享韩语模型。')\n['▁한국', '어', '▁모델', '을', '▁공유', '합니다', '.']\n```\n\n---\n\n## 任务微调\n\n### Naver 情感分析\n\n* 数据集： \u003Chttps:\u002F\u002Fgithub.com\u002Fe9t\u002Fnsmc>\n\n| 模型                                                                                               | 准确率                                                        |\n| --------------------------------------------------------------------------------------------------- | --------------------------------------------------------------- |\n| [BERT base 多语言大小写模型](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert\u002Fblob\u002Fmaster\u002Fmultilingual.md) | 0.875                                                           |\n| KoBERT                                                                                              | **[0.901](logs\u002Fbert_naver_small_512_news_simple_20190624.txt)** |\n| [KoGPT2](https:\u002F\u002Fgithub.com\u002FSKT-AI\u002FKoGPT2)                                                          | 0.899                                                           |\n\n### 使用KoBERT和CRF构建的韩语实体识别器\n\n* \u003Chttps:\u002F\u002Fgithub.com\u002Feagle705\u002Fpytorch-bert-crf-ner>\n\n```text\n请输入句子：得益于SKTBrain公开的KoBERT模型，我们能够轻松开发基于BERT-CRF的实体识别器。\nlen: 40, input_token:['[CLS]', '▁SK', 'T', 'B', 'ra', 'in', '에서', '▁K', 'o', 'B', 'ER', 'T', '▁모델', '을', '▁공개', '해', '준', '▁덕분에', '▁B', 'ER', 'T', '-', 'C', 'R', 'F', '▁기반', '▁', '객', '체', '명', '인', '식', '기를', '▁쉽게', '▁개발', '할', '▁수', '▁있었다', '.', '[SEP]']\nlen: 40, pred_ner_tag:['[CLS]', 'B-ORG', 'I-ORG', 'I-ORG', 'I-ORG', 'I-ORG', 'O', 'B-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'O', 'O', 'O', 'O', 'O', 'O', 'B-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'I-POH', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', 'O', '[SEP]']\ndecoding_ner_sentence: [CLS] \u003CSKTBrain:ORG>에서 \u003CKoBERT:POH> 모델을 공개해준 덕분에 \u003CBERT-CRF:POH> 기반 객체명인식기를 쉽게 개발할 수 있었다.[SEP]\n```\n\n### 韩语句子BERT\n\n* \u003Chttps:\u002F\u002Fgithub.com\u002FBM-K\u002FKoSentenceBERT-SKT>\n\n|模型|余弦相似度 (皮尔逊)|余弦相似度 (斯皮尔曼)|欧几里得距离 (皮尔逊)|欧几里得距离 (斯皮尔曼)|曼哈顿距离 (皮尔逊)|曼哈顿距离 (斯皮尔曼)|点积 (皮尔逊)|点积 (斯皮尔曼)|\n|:------------------------:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|:----:|\n|NLl|65.05|68.48|68.81|68.18|68.90|68.20|65.22|66.81|\n|STS|**80.42**|**79.64**|**77.93**|77.43|**77.92**|77.44|**76.56**|**75.83**|\n|STS + NLI|78.81|78.47|77.68|**77.78**|77.71|**77.83**|75.75|75.22|\n---\n\n## 发布\n\n* v0.2.4\n  * 更改为从Hugging Face Hub下载大文件\n* v0.2.3\n  * 支持`onnx 1.8.0`\n* v0.2.2\n  * 修复错误：`No module named 'kobert.utils'`\n* v0.2.1\n  * 修改导入语句\n* v0.2\n  * 更改为从`aws s3`下载大文件\n  * 更改函数名称\n* v0.1.2\n  * 修正transformers库的兼容性\n  * 修改填充标记的索引\n* v0.1.1\n  * 将词汇表和分词器合并\n* v0.1\n  * 初始模型发布\n\n## 联系方式\n\n有关`KoBERT`的问题，请在[这里](https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues)提交。\n\n## 许可证\n\n`KoBERT`根据`Apache-2.0`许可证公开。使用该模型和代码时，请遵守许可证条款。完整的许可证内容可在`LICENSE`文件中查看。","# KoBERT 快速上手指南\n\nKoBERT 是专为韩语优化的 BERT 预训练模型，解决了谷歌多语言 BERT 在韩语任务上的性能瓶颈。本指南帮助中国开发者快速在 PyTorch 环境中集成并使用该模型。\n\n## 环境准备\n\n*   **系统要求**: Linux \u002F macOS \u002F Windows\n*   **Python 版本**: 建议 Python 3.6+\n*   **核心依赖**:\n    *   PyTorch\n    *   gluonnlp (用于加载词汇表和分词器)\n    *   sentencepiece\n*   **硬件建议**: 推理可在 CPU 运行，微调或训练建议使用 GPU。\n\n> **注意**: 由于模型权重文件较大，首次运行时会自动从 Hugging Face Hub 或 AWS S3 下载。国内用户若遇到下载缓慢问题，建议配置网络代理或检查 `requirements.txt` 中的源设置。\n\n## 安装步骤\n\n你可以选择直接安装发布版，或克隆源码进行开发。\n\n### 方式一：直接安装（推荐）\n\n```sh\npip install git+https:\u002F\u002Fgit@github.com\u002FSKTBrain\u002FKoBERT.git@master\n```\n\n### 方式二：源码安装（如需修改代码）\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT.git\ncd KoBERT\npip install -r requirements.txt\n```\n\n## 基本使用\n\n以下是最简单的 PyTorch 使用示例，展示如何加载模型并进行前向传播。\n\n### 1. 加载模型与分词器\n\n```python\nimport torch\nfrom kobert import get_pytorch_kobert_model, get_tokenizer_path\nfrom gluonnlp.data import SentencepieceTokenizer\n\n# 加载预训练模型和词汇表\n# 默认返回 eval() 模式，如需训练请调用 model.train()\nmodel, vocab = get_pytorch_kobert_model()\n\n# 加载分词器\ntok_path = get_tokenizer_path()\ntokenizer = SentencepieceTokenizer(tok_path)\n```\n\n### 2. 文本预处理与推理\n\n假设输入两句韩语文本，将其转换为模型所需的 Tensor 格式：\n\n```python\n# 模拟分词后的 ID (实际使用中需将文本通过 tokenizer 转为 input_ids)\n# 这里直接使用示例 ID 演示流程\ninput_ids = torch.LongTensor([[31, 51, 99], [15, 5, 0]])\ninput_mask = torch.LongTensor([[1, 1, 1], [1, 1, 0]])\ntoken_type_ids = torch.LongTensor([[0, 0, 1], [0, 1, 0]])\n\n# 执行前向传播\nwith torch.no_grad():\n    sequence_output, pooled_output = model(input_ids, input_mask, token_type_ids)\n\n# 输出维度说明\nprint(f\"Pooled Output Shape: {pooled_output.shape}\") \n# 结果: torch.Size([2, 768])，可用于分类任务\n\nprint(f\"Sequence Output Shape: {sequence_output.shape}\") \n# 结果: torch.Size([2, 3, 768])，可用于序列标注等任务\n```\n\n### 3. 实际分词示例\n\n```python\ntext = '한국어 모델을 공유합니다.'\ntokens = tokenizer(text)\nprint(tokens)\n# 输出: ['▁한국', '어', '▁모델', '을', '▁공유', '합니다', '.']\n\n# 后续需将 tokens 映射为 vocab 中的 index 构建 input_ids\n```\n\n> **提示**: 对于具体的下游任务（如情感分析、命名实体识别），官方提供了基于 PyTorch 和 MXNet 的 Fine-tuning 脚本，可参考项目仓库中的 `scripts` 目录或 Colab 示例。","韩国某电商平台的客服团队需要构建一个自动系统，实时分析海量韩语用户评论的情感倾向，以便快速识别负面反馈并介入处理。\n\n### 没有 KoBERT 时\n- **语义理解偏差大**：直接套用谷歌的多语言 BERT 模型，由于未针对韩语特有的助词、词尾变化及敬语体系进行深度优化，导致对复杂句式的意图识别准确率低下。\n- **数据标注成本高昂**：因基线模型效果不佳，团队不得不投入大量人力进行精细化的规则编写和人工数据标注，试图弥补模型在韩语语境下的“水土不服”。\n- **响应延迟严重**：为了提升准确率被迫堆叠复杂的后处理逻辑，导致单条评论的分析耗时增加，无法满足大促期间高并发实时监控的需求。\n\n### 使用 KoBERT 后\n- **原生韩语理解精准**：KoBERT 基于 500 万句韩语维基百科数据预训练，内置专为韩语优化的 SentencePiece 分词器，能精准捕捉细微的情感色彩和语境含义。\n- **开发部署效率倍增**：借助其提供的 PyTorch 接口和现成的 Naver 情感分析微调脚本，开发人员仅需少量标注数据即可快速训练出高精度模型，大幅缩短上线周期。\n- **推理性能显著提升**：模型参数量经过精简（约 92M），且支持 ONNX 格式加速推理，在同等硬件资源下吞吐量大幅提升，实现了毫秒级的实时情感判定。\n\nKoBERT 通过提供原生的韩语语言理解能力，将原本繁琐低效的韩语 NLP 任务转化为开箱即用的高性能解决方案。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSKTBrain_KoBERT_dd0aaf0d.png","SKTBrain","SK T-Brain","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSKTBrain_26723092.png","Artificial Intelligence",null,"http:\u002F\u002Ffacebook.com\u002FSKTBrain","https:\u002F\u002Fgithub.com\u002FSKTBrain",[83,87],{"name":84,"color":85,"percentage":86},"Python","#3572A5",52.1,{"name":88,"color":89,"percentage":90},"Jupyter Notebook","#DA5B0B",47.9,1408,379,"2026-04-01T07:55:35","Apache-2.0","未说明","训练环境需要 32 张 NVIDIA V100 GPU (配合 Horovod 和 InfiniBand)；推理\u002F微调建议使用 GPU 加速（如 Colab GPU 运行时），具体型号和显存未明确限定，但需支持 PyTorch\u002FMXNet。",{"notes":98,"python":95,"dependencies":99},"该工具主要面向韩语 BERT 模型。训练需在大规模集群（32x V100）上进行。用户通常只需进行微调或推理，支持 PyTorch、ONNX 和 MXNet-Gluon 三种框架。建议在使用微调示例时启用硬件加速器（GPU）。模型词汇表大小为 8,002，参数量约为 92M。安装可通过 pip 直接指向 GitHub 仓库或克隆后安装 requirements.txt 中的依赖。",[100,101,102,103,104,105],"torch","onnxruntime","mxnet","gluonnlp","sentencepiece","numpy",[13,26],[108,109,110,111,112,113],"korean-nlp","language-model","bert","nlp","pytorch","transformers","2026-03-27T02:49:30.150509","2026-04-06T05:37:26.349982",[117,122,127,132,137,142,146],{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},14004,"安装 KoBERT 时遇到 onnxruntime==0.3.0 版本冲突或安装失败如何解决？","不要强制安装旧版的 onnxruntime (0.3.0)。根据社区验证，建议使用以下兼容的版本组合进行安装：\n- boto3: 1.15.18\n- gluonnlp: 0.10.0\n- mxnet: 1.7.0.post2\n- onnxruntime: 0.5.0 (或更高兼容版本)\n- sentencepiece: 0.1.96\n- torch: 1.10.1\n- transformers: 3.0.2\n可以通过指定这些版本号来避免依赖冲突。","https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues\u002F75",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},14003,"调用 get_pytorch_kobert_model() 时出现连接错误（ConnectionError: Name or service not known）怎么办？","该问题通常是由于网络波动或临时服务器不可达导致的。维护者已确认模型、分词器和数据集文件的下载及代码执行目前正常。如果遇到此错误，建议稍后重试。若问题持续存在，请检查网络连接或防火墙设置，并尝试重新注册一个新的 Issue 反馈具体情况。","https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues\u002F67",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},14005,"导入时提示 'ModuleNotFoundError: No module named kobert' 错误怎么办？","现在通常不需要单独安装 'kobert' 包。建议直接使用 Hugging Face Transformers 库加载模型，或者参考官方提供的 Notebook 示例代码（如 scripts\u002FNSMC\u002Fnaver_review_classifications_pytorch_kobert.ipynb）。如果必须使用旧版代码，请确保通过 `pip install git+https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT.git@master` 正确安装了最新源码，并注意解决潜在的 numpy 版本冲突问题。","https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues\u002F104",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},14006,"KoBERT 是什么？有详细的使用文档或教程吗？","KoBERT 是 BERT 模型的韩语版本，本质上是一个“通过机器学习训练的语言模型”，而非直接可用的翻译程序或特定功能软件。具体的应用（如情感分析、分类等）需要开发者基于该模型自行实现。\n推荐资源：\n1. 参考相关技术博客了解原理：https:\u002F\u002Febbnflow.tistory.com\u002F151\n2. 查看基于 KoBERT 进行 NSMC（电影评论）情感分析的训练和预测示例代码：https:\u002F\u002Fgithub.com\u002Fmonologg\u002FKoBERT-nsmc","https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues\u002F22",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},14007,"在 Google Colab 环境中安装 KoBERT 及相关依赖库（transformers, gluonnlp 等）频繁报错怎么办？","Colab 环境中的依赖冲突较为常见。建议按以下步骤操作：\n1. 尝试安装特定兼容版本的库，例如 transformers==3.0.2 或 4.8.2，避免使用过新的版本导致接口不匹配。\n2. 使用官方推荐的子目录安装方式获取分词器：`pip install 'git+https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT.git#egg=kobert_tokenizer&subdirectory=kobert_hf'`。\n3. 如果遇到 gluonnlp 导入错误，请检查 mxnet 和 gluonnlp 的版本是否匹配（参考 onnxruntime 问题中的版本列表），必要时重启 Colab 运行时以清除缓存。","https:\u002F\u002Fgithub.com\u002FSKTBrain\u002FKoBERT\u002Fissues\u002F102",{"id":143,"question_zh":144,"answer_zh":145,"source_url":126},14008,"如何使用 Hugging Face 的方式加载 KoBERT 模型和分词器？","可以使用 `transformers` 库直接加载。示例代码如下：\n```python\nfrom transformers import BertModel, BertTokenizer\nimport torch\nimport gluonnlp as nlp\n\ndef get_kobert_model(model_path, vocab_file, ctx=\"cpu\"):\n    bertmodel = BertModel.from_pretrained(model_path)\n    device = torch.device(ctx)\n    bertmodel.to(device)\n    bertmodel.eval()\n    # 从 sentencepiece 文件加载词汇表\n    vocab_b_obj = nlp.vocab.BERTVocab.from_sentencepiece(vocab_file, padding_token='[PAD]')\n    return bertmodel, vocab_b_obj\n\n# 调用示例\ntokenizer = BertTokenizer.from_pretrained('skt\u002Fkobert-base-v1')\nbertmodel, vocab = get_kobert_model('skt\u002Fkobert-base-v1', tokenizer.vocab_file)\n```\n此方法避免了直接依赖旧的 kobert 包结构，更加稳定。",{"id":147,"question_zh":148,"answer_zh":149,"source_url":131},14009,"安装时出现 numpy 版本冲突（ResolutionImpossible）如何解决？","这是因为不同依赖包对 numpy 版本要求不一致（例如 onnxruntime 需要 numpy>=1.16.6，而旧版 mxnet 需要 numpy\u003C1.15.0）。\n解决方法：\n1. 卸载当前冲突的包：`pip uninstall numpy mxnet gluonnlp onnxruntime`。\n2. 按照推荐的兼容版本列表重新安装（见 onnxruntime 相关问题），确保先安装符合所有依赖要求的 numpy 版本，再安装其他库。\n3. 或者尝试放宽版本限制，让 pip 自动解析：移除具体的版本号约束，仅保留包名进行安装。",[]]