[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ncbi-nlp--bluebert":3,"tool-ncbi-nlp--bluebert":61},[4,19,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":18},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,3,"2026-04-20T04:47:55",[13,14,15,16,17],"Agent","语言模型","插件","开发框架","图像","ready",{"id":20,"name":21,"github_repo":22,"description_zh":23,"stars":24,"difficulty_score":25,"last_commit_at":26,"category_tags":27,"status":18},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,2,"2026-04-19T23:31:47",[16,13,14],{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":34,"last_commit_at":35,"category_tags":36,"status":18},10072,"DeepSeek-V3","deepseek-ai\u002FDeepSeek-V3","DeepSeek-V3 是一款由深度求索推出的开源混合专家（MoE）大语言模型，旨在以极高的效率提供媲美顶尖闭源模型的智能服务。它拥有 6710 亿总参数，但在处理每个 token 时仅激活 370 亿参数，这种设计巧妙解决了大规模模型推理成本高、速度慢的难题，让高性能 AI 更易于部署和应用。\n\n这款模型特别适合开发者、研究人员以及需要构建复杂 AI 应用的企业团队使用。无论是进行代码生成、逻辑推理还是多轮对话开发，DeepSeek-V3 都能提供强大的支持。其独特之处在于采用了无辅助损失的负载均衡策略和多令牌预测训练目标，前者在提升计算效率的同时避免了性能损耗，后者则显著增强了模型表现并加速了推理过程。此外，模型在 14.8 万亿高质量令牌上完成预训练，且整个训练过程异常稳定，未出现不可恢复的损失尖峰。凭借仅需 278.8 万 H800 GPU 小时即可完成训练的高效特性，DeepSeek-V3 为开源社区树立了一个兼顾性能与成本效益的新标杆。",102693,5,"2026-04-20T03:58:04",[14],{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":18},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[14,17,13,16],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":25,"last_commit_at":51,"category_tags":52,"status":18},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[14,17,13,16],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":25,"last_commit_at":59,"category_tags":60,"status":18},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[16,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":88,"forks":89,"last_commit_at":90,"license":91,"difficulty_score":10,"env_os":92,"env_gpu":93,"env_ram":92,"env_deps":94,"category_tags":101,"github_topics":102,"view_count":25,"oss_zip_url":76,"oss_zip_packed_at":76,"status":18,"created_at":110,"updated_at":111,"faqs":112,"releases":141},9996,"ncbi-nlp\u002Fbluebert","bluebert","BlueBERT, pre-trained on PubMed abstracts and clinical notes (MIMIC-III). ","BlueBERT 是一款专为生物医学领域打造的预训练语言模型，旨在让机器更精准地理解复杂的医疗文本。它基于经典的 BERT 架构，但独特之处在于其训练数据完全源自专业的 PubMed 学术摘要和 MIMIC-III 临床病历笔记。这一设计有效解决了通用语言模型在处理医学术语、缩写及特定语境时表现不佳的痛点，显著提升了在疾病诊断、药物关系抽取等任务中的准确率。\n\nBlueBERT 特别适合生物医学领域的研究人员、AI 开发者以及医疗数据分析专家使用。无论是需要构建疾病实体识别系统，还是进行临床文献的分类与相似度分析，BlueBERT 都能提供强大的底层支持。其核心亮点在于提供了多种预训练权重版本（包括仅基于文献版和结合临床笔记版），并支持直接在 Hugging Face 平台调用，极大地降低了领域适配的门槛。通过简单的微调代码，用户即可将其应用于命名实体识别、关系提取及多标签分类等十大基准任务，是探索医疗自然语言处理（NLP）应用的得力助手。","# BlueBERT\n\n**\\*\\*\\*\\*\\* New Nov 1st, 2020: BlueBERT can be found at huggingface \\*\\*\\*\\*\\***\n\n**\\*\\*\\*\\*\\* New Dec 5th, 2019: NCBI_BERT is renamed to BlueBERT \\*\\*\\*\\*\\***\n\n**\\*\\*\\*\\*\\* New July 11th, 2019: preprocessed PubMed texts \\*\\*\\*\\*\\***\n\nWe uploaded the [preprocessed PubMed texts](https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBlueBERT\u002Fblob\u002Fmaster\u002FREADME.md#pubmed)  that were used to pre-train the BlueBERT models.\n\n-----\n\nThis repository provides codes and models of BlueBERT, pre-trained on PubMed abstracts and clinical notes ([MIMIC-III](https:\u002F\u002Fmimic.physionet.org\u002F)). Please refer to our paper [Transfer Learning in Biomedical Natural Language Processing: An Evaluation of BERT and ELMo on Ten Benchmarking Datasets](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.05474) for more details.\n\n## Pre-trained models and benchmark datasets\n\nThe pre-trained BlueBERT weights, vocab, and config files can be downloaded from: \n\n* [BlueBERT-Base, Uncased, PubMed](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_uncased_L-12_H-768_A-12.zip): This model was pretrained on PubMed abstracts.\n* [BlueBERT-Base, Uncased, PubMed+MIMIC-III](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_mimic_uncased_L-12_H-768_A-12.zip): This model was pretrained on PubMed abstracts and MIMIC-III.\n* [BlueBERT-Large, Uncased, PubMed](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_uncased_L-24_H-1024_A-16.zip): This model was pretrained on PubMed abstracts.\n* [BlueBERT-Large, Uncased, PubMed+MIMIC-III](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_mimic_uncased_L-24_H-1024_A-16.zip): This model was pretrained on PubMed abstracts and MIMIC-III.\n\nThe pre-trained weights can also be found at Huggingface:\n\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_uncased_L-12_H-768_A-12\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_mimic_uncased_L-12_H-768_A-12\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_uncased_L-24_H-1024_A-16\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_mimic_uncased_L-24_H-1024_A-16\n\nThe benchmark datasets can be downloaded from [https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBLUE_Benchmark](https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBLUE_Benchmark)\n\n## Fine-tuning BlueBERT\n\nWe assume the BlueBERT model has been downloaded at `$BlueBERT_DIR`, and the dataset has been downloaded at `$DATASET_DIR`.\n\nAdd local directory to `$PYTHONPATH` if needed.\n\n```bash\nexport PYTHONPATH=.;$PYTHONPATH\n```\n\n### Sentence similarity\n\n```bash\npython bluebert\u002Frun_bluebert_sts.py \\\n  --task_name='sts' \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_test=true \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --max_seq_length=128 \\\n  --num_train_epochs=30.0 \\\n  --do_lower_case=true \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n\n### Named Entity Recognition\n\n```bash\npython bluebert\u002Frun_bluebert_ner.py \\\n  --do_prepare=true \\\n  --do_train=true \\\n  --do_eval=true \\\n  --do_predict=true \\\n  --task_name=\"bc5cdr\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=30.0 \\\n  --do_lower_case=true \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\nThe task name can be \n\n- `bc5cdr`: BC5CDR chemical or disease task\n- `clefe`: ShARe\u002FCLEFE task\n\n### Relation Extraction\n\n```bash\npython bluebert\u002Frun_bluebert.py \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_predict=true \\\n  --task_name=\"chemprot\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=10.0 \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR \\\n  --do_lower_case=true \n```\n\nThe task name can be \n\n- `chemprot`: BC6 ChemProt task\n- `ddi`: DDI 2013 task\n- `i2b2_2010`: I2B2 2010 task\n\n### Document multilabel classification\n\n```bash\npython bluebert\u002Frun_bluebert_multi_labels.py \\\n  --task_name=\"hoc\" \\\n  --do_train=true \\\n  --do_eval=true \\\n  --do_predict=true \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --max_seq_length=128 \\\n  --train_batch_size=4 \\\n  --learning_rate=2e-5 \\\n  --num_train_epochs=3 \\\n  --num_classes=20 \\\n  --num_aspects=10 \\\n  --aspect_value_list=\"0,1\" \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n### Inference task\n\n```bash\npython bluebert\u002Frun_bluebert.py \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_predict=true \\\n  --task_name=\"mednli\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=10.0 \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR \\\n  --do_lower_case=true \n```\n\n## \u003Ca name=\"pubmed\">\u003C\u002Fa>Preprocessed PubMed texts\n\nWe provide [preprocessed PubMed texts](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002Fpubmed_uncased_sentence_nltk.txt.tar.gz) that were used to pre-train the BlueBERT models. The corpus contains ~4000M words extracted from the [PubMed ASCII code version](https:\u002F\u002Fwww.ncbi.nlm.nih.gov\u002Fresearch\u002Fbionlp\u002FAPIs\u002FBioC-PubMed\u002F). Other operations include\n\n*  lowercasing the text\n*  removing speical chars `\\x00`-`\\x7F`\n*  tokenizing the text using the [NLTK Treebank tokenizer](https:\u002F\u002Fwww.nltk.org\u002F_modules\u002Fnltk\u002Ftokenize\u002Ftreebank.html)\n\nBelow is a code snippet for more details.\n\n```python\nvalue = value.lower()\nvalue = re.sub(r'[\\r\\n]+', ' ', value)\nvalue = re.sub(r'[^\\x00-\\x7F]+', ' ', value)\n\ntokenized = TreebankWordTokenizer().tokenize(value)\nsentence = ' '.join(tokenized)\nsentence = re.sub(r\"\\s's\\b\", \"'s\", sentence)\n```\n\n### Pre-training with BERT\n\nAfterwards, we used the following code to generate pre-training data. Please see https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert for more details.\n\n```bash\npython bert\u002Fcreate_pretraining_data.py \\\n  --input_file=pubmed_uncased_sentence_nltk.txt \\\n  --output_file=pubmed_uncased_sentence_nltk.tfrecord \\\n  --vocab_file=bert_uncased_L-12_H-768_A-12_vocab.txt \\\n  --do_lower_case=True \\\n  --max_seq_length=128 \\\n  --max_predictions_per_seq=20 \\\n  --masked_lm_prob=0.15 \\\n  --random_seed=12345 \\\n  --dupe_factor=5\n```\n\nWe used the following code to train the BERT model. Please do not include `init_checkpoint` if you are pre-training from scratch. Please see https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert for more details.\n\n```bash\npython bert\u002Frun_pretraining.py \\\n  --input_file=pubmed_uncased_sentence_nltk.tfrecord \\\n  --output_dir=$BlueBERT_DIR \\\n  --do_train=True \\\n  --do_eval=True \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --train_batch_size=32 \\\n  --max_seq_length=128 \\\n  --max_predictions_per_seq=20 \\\n  --num_train_steps=20000 \\\n  --num_warmup_steps=10 \\\n  --learning_rate=2e-5\n```\n\n## Citing BlueBERT\n\n*  Peng Y, Yan S, Lu Z. [Transfer Learning in Biomedical Natural Language Processing: An\nEvaluation of BERT and ELMo on Ten Benchmarking Datasets](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.05474). In *Proceedings of the Workshop on Biomedical Natural Language Processing (BioNLP)*. 2019.\n\n```\n@InProceedings{peng2019transfer,\n  author    = {Yifan Peng and Shankai Yan and Zhiyong Lu},\n  title     = {Transfer Learning in Biomedical Natural Language Processing: An Evaluation of BERT and ELMo on Ten Benchmarking Datasets},\n  booktitle = {Proceedings of the 2019 Workshop on Biomedical Natural Language Processing (BioNLP 2019)},\n  year      = {2019},\n  pages     = {58--65},\n}\n```\n\n## Acknowledgments\n\nThis work was supported by the Intramural Research Programs of the National Institutes of Health, National Library of\nMedicine and Clinical Center. This work was supported by the National Library of Medicine of the National Institutes of Health under award number K99LM013001-01.\n\nWe are also grateful to the authors of BERT and ELMo to make the data and codes publicly available.\n\nWe would like to thank Dr Sun Kim for processing the PubMed texts.\n\n## Disclaimer\n\nThis tool shows the results of research conducted in the Computational Biology Branch, NCBI. The information produced\non this website is not intended for direct diagnostic use or medical decision-making without review and oversight\nby a clinical professional. Individuals should not change their health behavior solely on the basis of information\nproduced on this website. NIH does not independently verify the validity or utility of the information produced\nby this tool. If you have questions about the information produced on this website, please see a health care\nprofessional. More information about NCBI's disclaimer policy is available.\n","# BlueBERT\n\n**\\*\\*\\*\\*\\* 新闻 2020年11月1日：BlueBERT 现可在 Hugging Face 上找到 \\*\\*\\*\\*\\***\n\n**\\*\\*\\*\\*\\* 新闻 2019年12月5日：NCBI_BERT 已更名为 BlueBERT \\*\\*\\*\\*\\***\n\n**\\*\\*\\*\\*\\* 新闻 2019年7月11日：预处理的 PubMed 文本 \\*\\*\\*\\*\\***\n\n我们上传了用于预训练 BlueBERT 模型的 [预处理的 PubMed 文本](https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBlueBERT\u002Fblob\u002Fmaster\u002FREADME.md#pubmed)。\n\n-----\n\n本仓库提供了基于 PubMed 摘要和临床记录（[MIMIC-III](https:\u002F\u002Fmimic.physionet.org\u002F)）预训练的 BlueBERT 的代码及模型。更多详情请参阅我们的论文《生物医学自然语言处理中的迁移学习：BERT 和 ELMo 在十个基准数据集上的评估》（https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.05474）。\n\n## 预训练模型与基准数据集\n\n预训练的 BlueBERT 权重、词汇表和配置文件可从以下链接下载：\n\n* [BlueBERT-Base, 不区分大小写, PubMed](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_uncased_L-12_H-768_A-12.zip)：该模型在 PubMed 摘要上进行预训练。\n* [BlueBERT-Base, 不区分大小写, PubMed+MIMIC-III](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_mimic_uncased_L-12_H-768_A-12.zip)：该模型在 PubMed 摘要和 MIMIC-III 数据上进行预训练。\n* [BlueBERT-Large, 不区分大小写, PubMed](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_uncased_L-24_H-1024_A-16.zip)：该模型在 PubMed 摘要上进行预训练。\n* [BlueBERT-Large, 不区分大小写, PubMed+MIMIC-III](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_mimic_uncased_L-24_H-1024_A-16.zip)：该模型在 PubMed 摘要和 MIMIC-III 数据上进行预训练。\n\n这些预训练权重也可在 Hugging Face 上找到：\n\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_uncased_L-12_H-768_A-12\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_mimic_uncased_L-12_H-768_A-12\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_uncased_L-24_H-1024_A-16\n* https:\u002F\u002Fhuggingface.co\u002Fbionlp\u002Fbluebert_pubmed_mimic_uncased_L-24_H-1024_A-16\n\n基准数据集可从 [https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBLUE_Benchmark](https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBLUE_Benchmark) 下载。\n\n## 微调 BlueBERT\n\n假设 BlueBERT 模型已下载至 `$BlueBERT_DIR`，数据集已下载至 `$DATASET_DIR`。\n\n如有需要，请将本地目录添加到 `$PYTHONPATH`。\n\n```bash\nexport PYTHONPATH=.;$PYTHONPATH\n```\n\n### 句子相似度\n\n```bash\npython bluebert\u002Frun_bluebert_sts.py \\\n  --task_name='sts' \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_test=true \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --max_seq_length=128 \\\n  --num_train_epochs=30.0 \\\n  --do_lower_case=true \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n### 命名实体识别\n\n```bash\npython bluebert\u002Frun_bluebert_ner.py \\\n  --do_prepare=true \\\n  --do_train=true \\\n  --do_eval=true \\\n  --do_predict=true \\\n  --task_name=\"bc5cdr\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=30.0 \\\n  --do_lower_case=true \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n任务名称可以是：\n\n- `bc5cdr`：BC5CDR 化学或疾病任务\n- `clefe`：ShARe\u002FCLEFE 任务\n\n### 关系抽取\n\n```bash\npython bluebert\u002Frun_bluebert.py \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_predict=true \\\n  --task_name=\"chemprot\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=10.0 \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR \\\n  --do_lower_case=true \n```\n\n任务名称可以是：\n\n- `chemprot`：BC6 ChemProt 任务\n- `ddi`：DDI 2013 任务\n- `i2b2_2010`：I2B2 2010 任务\n\n### 文档多标签分类\n\n```bash\npython bluebert\u002Frun_bluebert_multi_labels.py \\\n  --task_name=\"hoc\" \\\n  --do_train=true \\\n  --do_eval=true \\\n  --do_predict=true \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --max_seq_length=128 \\\n  --train_batch_size=4 \\\n  --learning_rate=2e-5 \\\n  --num_train_epochs=3 \\\n  --num_classes=20 \\\n  --num_aspects=10 \\\n  --aspect_value_list=\"0,1\" \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n### 推理任务\n\n```bash\npython bluebert\u002Frun_bluebert.py \\\n  --do_train=true \\\n  --do_eval=false \\\n  --do_predict=true \\\n  --task_name=\"mednli\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=10.0 \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR \\\n  --do_lower_case=true \n```\n\n## \u003Ca name=\"pubmed\">\u003C\u002Fa>预处理的 PubMed 文本\n\n我们提供了用于预训练 BlueBERT 模型的 [预处理的 PubMed 文本](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002Fpubmed_uncased_sentence_nltk.txt.tar.gz)。该语料库包含约 40 亿词，来源于 [PubMed ASCII 版本](https:\u002F\u002Fwww.ncbi.nlm.nih.gov\u002Fresearch\u002Fbionlp\u002FAPIs\u002FBioC-PubMed\u002F)。其他处理步骤包括：\n\n* 将文本转换为小写\n* 移除特殊字符 `\\x00` 至 `\\x7F`\n* 使用 [NLTK Treebank 分词器](https:\u002F\u002Fwww.nltk.org\u002F_modules\u002Fnltk\u002Ftokenize\u002Ftreebank.html)对文本进行分词\n\n以下是详细代码片段：\n\n```python\nvalue = value.lower()\nvalue = re.sub(r'[\\r\\n]+', ' ', value)\nvalue = re.sub(r'[^\\x00-\\x7F]+', ' ', value)\n\ntokenized = TreebankWordTokenizer().tokenize(value)\nsentence = ' '.join(tokenized)\nsentence = re.sub(r\"\\s's\\b\", \"'s\", sentence)\n```\n\n### 使用 BERT 进行预训练\n\n随后，我们使用以下代码生成预训练数据。更多详情请参阅 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert。\n\n```bash\npython bert\u002Fcreate_pretraining_data.py \\\n  --input_file=pubmed_uncased_sentence_nltk.txt \\\n  --output_file=pubmed_uncased_sentence_nltk.tfrecord \\\n  --vocab_file=bert_uncased_L-12_H-768_A-12_vocab.txt \\\n  --do_lower_case=True \\\n  --max_seq_length=128 \\\n  --max_predictions_per_seq=20 \\\n  --masked_lm_prob=0.15 \\\n  --random_seed=12345 \\\n  --dupe_factor=5\n```\n\n我们使用以下代码训练 BERT 模型。如果您是从头开始进行预训练，请勿包含 `init_checkpoint`。更多详情请参阅 https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert。\n\n```bash\npython bert\u002Frun_pretraining.py \\\n  --input_file=pubmed_uncased_sentence_nltk.tfrecord \\\n  --output_dir=$BlueBERT_DIR \\\n  --do_train=True \\\n  --do_eval=True \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --train_batch_size=32 \\\n  --max_seq_length=128 \\\n  --max_predictions_per_seq=20 \\\n  --num_train_steps=20000 \\\n  --num_warmup_steps=10 \\\n  --learning_rate=2e-5\n```\n\n## 引用 BlueBERT\n\n* Peng Y, Yan S, Lu Z. [生物医学自然语言处理中的迁移学习：BERT 和 ELMo 在十个基准数据集上的评估](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.05474)。载于《生物医学自然语言处理研讨会（BioNLP）论文集》。2019 年。\n\n```\n@InProceedings{peng2019transfer,\n  author    = {Yifan Peng 和 Shankai Yan 和 Zhiyong Lu},\n  title     = {生物医学自然语言处理中的迁移学习：BERT 和 ELMo 在十个基准数据集上的评估},\n  booktitle = {2019 年生物医学自然语言处理研讨会（BioNLP 2019）论文集},\n  year      = {2019},\n  pages     = {58--65},\n}\n```\n\n## 致谢\n\n本研究得到了美国国立卫生研究院、美国国家医学图书馆及临床中心的院内研究计划的支持。此外，本研究还获得了美国国立卫生研究院国家医学图书馆颁发的 K99LM013001-01 号资助。\n\n我们亦感谢 BERT 和 ELMo 的作者将相关数据与代码公开发布。\n\n同时，我们要特别感谢 Sun Kim 博士对 PubMed 文本的处理工作。\n\n## 免责声明\n\n本工具展示的是美国国立卫生研究院国家生物技术信息中心计算生物学研究组开展的研究成果。本网站所提供的信息并非用于直接诊断或在未经临床专业人员审查和指导的情况下作出医疗决策。个人不应仅凭本网站提供的信息改变自身的健康行为。美国国立卫生研究院不会独立核实本工具所生成信息的有效性或实用性。如您对本网站信息存有疑问，请咨询医疗卫生专业人士。有关 NCBI 免责声明政策的更多信息，请参阅相关说明。","# BlueBERT 快速上手指南\n\nBlueBERT 是专为生物医学领域设计的预训练语言模型，基于 PubMed 摘要和 MIMIC-III 临床笔记进行训练，适用于命名实体识别、关系抽取、文本分类等任务。\n\n## 环境准备\n\n*   **系统要求**：Linux 或 macOS（Windows 需使用 WSL），建议具备 GPU 加速环境。\n*   **前置依赖**：\n    *   Python 3.6+\n    *   TensorFlow 1.x (官方代码基于 TF1，若使用 HuggingFace Transformers 则需 PyTorch\u002FTF2)\n    *   Git\n*   **网络提示**：模型文件托管于 NIH FTP 服务器，国内下载速度可能较慢。推荐优先使用 **HuggingFace** 镜像源加载模型，或通过国内云存储中转下载。\n\n## 安装步骤\n\n1.  **克隆代码仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBlueBERT.git\n    cd BlueBERT\n    ```\n\n2.  **配置环境变量**\n    将当前目录加入 Python 路径，以便调用内部模块：\n    ```bash\n    export PYTHONPATH=.;$PYTHONPATH\n    ```\n\n3.  **获取预训练模型**\n    你可以选择直接从 HuggingFace 加载（推荐），或下载官方检查点文件。\n\n    *   **方式 A：通过 HuggingFace Transformers 使用（推荐）**\n        无需手动下载文件，代码中直接指定模型名称即可：\n        *   `bionlp\u002Fbluebert_pubmed_uncased_L-12_H-768_A-12` (Base, PubMed)\n        *   `bionlp\u002Fbluebert_pubmed_mimic_uncased_L-12_H-768_A-12` (Base, PubMed+MIMIC)\n        *   `bionlp\u002Fbluebert_pubmed_uncased_L-24_H-1024_A-16` (Large, PubMed)\n        *   `bionlp\u002Fbluebert_pubmed_mimic_uncased_L-24_H-1024_A-16` (Large, PubMed+MIMIC)\n\n    *   **方式 B：手动下载官方检查点**\n        如果需要使用原始 TF1 脚本，请从以下地址下载并解压到 `$BlueBERT_DIR`：\n        *   [BlueBERT-Base, PubMed](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_uncased_L-12_H-768_A-12.zip)\n        *   [BlueBERT-Base, PubMed+MIMIC](https:\u002F\u002Fftp.ncbi.nlm.nih.gov\u002Fpub\u002Flu\u002FSuppl\u002FNCBI-BERT\u002FNCBI_BERT_pubmed_mimic_uncased_L-12_H-768_A-12.zip)\n        *(注：Large 版本及其他组合请参考 README 中的完整链接列表)*\n\n4.  **准备数据集**\n    下载基准数据集到 `$DATASET_DIR`：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002FBLUE_Benchmark.git $DATASET_DIR\n    ```\n\n## 基本使用\n\n以下示例展示如何使用官方脚本进行微调。请确保已设置 `$BlueBERT_DIR`（模型路径）、`$DATASET_DIR`（数据路径）和 `$OUTPUT_DIR`（输出路径）。\n\n### 示例：命名实体识别 (NER)\n\n以 BC5CDR 任务（化学或疾病识别）为例：\n\n```bash\npython bluebert\u002Frun_bluebert_ner.py \\\n  --do_prepare=true \\\n  --do_train=true \\\n  --do_eval=true \\\n  --do_predict=true \\\n  --task_name=\"bc5cdr\" \\\n  --vocab_file=$BlueBERT_DIR\u002Fvocab.txt \\\n  --bert_config_file=$BlueBERT_DIR\u002Fbert_config.json \\\n  --init_checkpoint=$BlueBERT_DIR\u002Fbert_model.ckpt \\\n  --num_train_epochs=30.0 \\\n  --do_lower_case=true \\\n  --data_dir=$DATASET_DIR \\\n  --output_dir=$OUTPUT_DIR\n```\n\n**支持的任务名称 (`--task_name`)：**\n*   `bc5cdr`: BC5CDR 化学\u002F疾病任务\n*   `clefe`: ShARe\u002FCLEFE 任务\n\n### 其他常见任务速查\n\n*   **句子相似度 (STS)**: 使用 `bluebert\u002Frun_bluebert_sts.py`，设置 `--task_name='sts'`。\n*   **关系抽取**: 使用 `bluebert\u002Frun_bluebert.py`，支持 `chemprot` (ChemProt), `ddi` (DDI 2013), `i2b2_2010`。\n*   **文档多标签分类**: 使用 `bluebert\u002Frun_bluebert_multi_labels.py`，设置 `--task_name=\"hoc\"`。\n*   **医学自然语言推理**: 使用 `bluebert\u002Frun_bluebert.py`，设置 `--task_name=\"mednli\"`。\n\n> **提示**：若使用 HuggingFace `transformers` 库，可直接通过 `AutoModelForSequenceClassification.from_pretrained(\"bionlp\u002Fbluebert_pubmed_uncased_L-12_H-768_A-12\")` 加载模型并进行标准的 PyTorch\u002FTF2 微调流程，无需运行上述特定脚本。","某大型医院科研团队正试图从海量电子病历（MIMIC-III）和 PubMed 文献中自动提取药物与疾病的关联关系，以辅助新药研发决策。\n\n### 没有 bluebert 时\n- **术语理解偏差**：通用 NLP 模型无法准确识别“心肌梗死”与\"MI\"在医学语境下的等价性，导致大量关键实体漏标。\n- **训练成本高昂**：由于缺乏医学领域预训练权重，团队需从头训练模型，耗费数周 GPU 算力仍难以收敛。\n- **上下文捕捉无力**：面对临床笔记中复杂的否定句（如“无糖尿病史”），模型频繁误判为阳性症状，数据噪声极大。\n- **泛化能力薄弱**：在跨数据集测试中，模型对未见过的医学缩写或生僻药名表现极差，需人工反复修正规则。\n\n### 使用 bluebert 后\n- **领域知识内嵌**：bluebert 已在 PubMed 摘要和临床笔记上预训练，能精准理解医学术语变体，实体识别准确率显著提升。\n- **快速微调部署**：直接加载 bluebert 预训练权重进行微调，仅需少量标注数据和数小时即可完成高质量模型构建。\n- **复杂语义解析**：凭借对临床文本的深度理解，bluebert 能准确处理否定、推测等复杂语境，大幅降低误报率。\n- **强泛化性能**：在 ChemProt 等基准测试中验证过的架构，能轻松应对新出现的药物名称和罕见病描述，减少人工干预。\n\nbluebert 通过将深厚的医学领域知识注入预训练模型，将原本需要数月攻坚的医疗文本挖掘任务缩短至数天，并显著提升了结果的临床可信度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fncbi-nlp_bluebert_c931a288.png","ncbi-nlp","NLM BioNLP Research Group (PI: Zhiyong Lu)","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fncbi-nlp_66da8183.png","These tools are the results of research conducted in the Computational Biology Branch, NLM\u002FNCBI.",null,"https:\u002F\u002Fwww.ncbi.nlm.nih.gov\u002Fresearch\u002Fbionlp","https:\u002F\u002Fgithub.com\u002Fncbi-nlp",[80,84],{"name":81,"color":82,"percentage":83},"Python","#3572A5",99.3,{"name":85,"color":86,"percentage":87},"Shell","#89e051",0.7,589,81,"2026-04-14T15:09:30","NOASSERTION","未说明","未说明 (基于原始 BERT TensorFlow 代码，通常训练需要 GPU，但 README 未指定具体型号或显存)",{"notes":95,"python":96,"dependencies":97},"该工具基于原始的 Google BERT TensorFlow 实现（非 PyTorch\u002FHuggingFace 原生代码，尽管模型权重已托管至 HuggingFace）。运行微调脚本需要配置 `$BlueBERT_DIR` 和 `$DATASET_DIR` 环境变量。代码中使用了 `.ckpt` 格式的检查点文件，表明其依赖 TensorFlow 1.x 环境。若使用 HuggingFace 提供的模型权重，可能需要自行编写或使用额外的转换\u002F加载脚本，因为提供的示例命令是针对本地 TensorFlow 模型的。","未说明 (需兼容原始 BERT 代码库的 Python 版本)",[98,99,100],"tensorflow (基于引用的 google-research\u002Fbert)","nltk","numpy",[14],[103,104,105,106,107,108,109],"bert","bert-model","natural-language-processing","pubmed","pubmed-abstracts","language-model","mimic-iii","2026-03-27T02:49:30.150509","2026-04-20T12:55:22.990214",[113,118,123,128,133,137],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},44913,"运行模型时遇到 'ValueError: Shape of variable ... doesn't match' 错误，提示 Embedding 张量形状不匹配，如何解决？","该错误通常是因为预训练模型的词表大小（vocab size）与当前使用的配置文件或数据不一致导致的。如果您使用自定义数据进行了预训练，模型会生成特定的词表大小。解决方法是确保在推理或微调时，使用的是与您预训练模型对应的 `.ckpt` 文件，并且该文件包含正确的词表维度。不要混用不同词表大小的检查点文件。","https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002Fbluebert\u002Fissues\u002F10",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},44914,"进行二分类任务时，运行 `run_bluebert_multi_labels.py` 脚本报 'KeyError' 错误，应该使用哪个脚本？","对于二分类任务（Binary Classification），请直接使用 `run_bluebert.py` 脚本，而不是 `run_bluebert_multi_labels.py`。后者主要用于多标签或多方面分类任务。如果必须修改代码适配标签，可能需要调整 `get_labels` 方法以返回符合您任务标签列表（如 ['0', '1']），但首选方案是切换至正确的脚本。","https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002Fbluebert\u002Fissues\u002F20",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},44915,"从 Hugging Face 下载 BlueBERT PyTorch 模型后，使用 `torch.load` 加载时报错 'invalid literal for int() with base 8'，如何解决？","这通常是 PyTorch 版本兼容性问题。建议升级或指定使用 PyTorch 1.7.0 及以上版本。此外，推荐使用 Hugging Face `transformers` 库的标准加载方式，而不是直接调用 `torch.load`。示例代码如下：\n```python\nfrom transformers import AutoTokenizer, AutoModel\ntokenizer = AutoTokenizer.from_pretrained(\"bionlp\u002Fbluebert_pubmed_mimic_uncased_L-12_H-768_A-12\")\nmodel = AutoModel.from_pretrained(\"bionlp\u002Fbluebert_pubmed_mimic_uncased_L-12_H-768_A-12\")\n```","https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002Fbluebert\u002Fissues\u002F36",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},44916,"BlueBERT 的预训练策略是什么？是完全重新训练还是基于现有 BERT 模型继续预训练？使用了什么词表？","BlueBERT 是基于 Google 提供的预训练 BERT 初始模型（initial model）和 WordPiece 策略进行继续预训练（continue to pre-train）的，并非从头完全重新训练。在词表方面，项目直接使用了 Google 默认的 `vocab.txt` 文件，没有创建自定义词表。","https:\u002F\u002Fgithub.com\u002Fncbi-nlp\u002Fbluebert\u002Fissues\u002F5",{"id":134,"question_zh":135,"answer_zh":136,"source_url":122},44917,"在准备用于 BlueBERT 多标签分类的训练数据（TSV 格式）时，标签列应该如何格式化？","虽然标准的 BERT 输入格式可能包含特定列结构，但在处理多标签或复杂标签（如 MIMIC-IV 数据中的代码）时，需确保标签格式与脚本预期一致。如果标签是类似 '1sda2' 这样的字符串，可能需要根据具体任务脚本的要求进行转换。对于 `run_bluebert_multi_labels.py`，通常需要确认 `aspect_value_list` 参数与数据中的标签对应。若遇到 KeyError，请检查 `get_labels` 函数是否包含了数据集中所有可能的标签值。",{"id":138,"question_zh":139,"answer_zh":140,"source_url":117},44918,"如何在自己的自定义数据上预训练 BlueBERT 以避免词表形状不匹配的问题？","要在自定义数据上预训练，您需要先运行预训练步骤，这将生成一个与您数据词表大小相匹配的新模型检查点文件（`.ckpt`）。预训练完成后，务必在后续的推理或微调步骤中，将这个新生成的 `\u003Cmodel_name>.ckpt` 文件路径传递给 `--init_checkpoint` 参数。这样可以确保加载的模型权重形状与您当前的词汇表定义完全一致。",[142],{"id":143,"version":144,"summary_zh":76,"released_at":145},359864,"lymphnode","2020-10-22T13:31:51"]