[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-microsoft--BioGPT":3,"tool-microsoft--BioGPT":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":69,"owner_location":69,"owner_email":80,"owner_twitter":81,"owner_website":82,"owner_url":83,"languages":84,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":98,"env_deps":100,"category_tags":109,"github_topics":69,"view_count":10,"oss_zip_url":69,"oss_zip_packed_at":69,"status":16,"created_at":110,"updated_at":111,"faqs":112,"releases":147},2275,"microsoft\u002FBioGPT","BioGPT",null,"BioGPT 是一款专为生物医学领域打造的生成式预训练 Transformer 模型，由微软研究院团队开发。它专注于理解和生成专业的生物医学文本，旨在解决通用大模型在处理复杂医学术语、疾病关系及科研文献时准确性不足的问题。\n\n通过在海量的生物医学文献上进行预训练，BioGPT 能够胜任多种高难度任务，包括自动回答医学问题（如 PubMedQA）、抽取药物与疾病间的复杂关系、以及进行专业的文档分类。无论是需要快速梳理文献的研究人员，还是致力于开发医疗辅助应用的开发者，BioGPT 都能提供强有力的支持。\n\n其核心亮点在于“领域专精”。与通用模型不同，BioGPT 深度学习了生物医学特有的语言模式，显著提升了在专业场景下的表现。项目不仅提供了基础预训练模型，还开源了针对问答、关系提取等特定任务微调后的大型模型检查点，并支持通过 Hugging Face 便捷调用。借助 PyTorch 和 fairseq 框架，用户可以轻松将其集成到现有的科研或工程流程中，加速生物医学知识的挖掘与应用。","# BioGPT\nThis repository contains the implementation of [BioGPT: Generative Pre-trained Transformer for Biomedical Text Generation and Mining](https:\u002F\u002Facademic.oup.com\u002Fbib\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fbib\u002Fbbac409\u002F6713511?guestAccessKey=a66d9b5d-4f83-4017-bb52-405815c907b9), by Renqian Luo, Liai Sun, Yingce Xia, Tao Qin, Sheng Zhang, Hoifung Poon and Tie-Yan Liu.\n\n\n# Requirements and Installation\n\n* [PyTorch](http:\u002F\u002Fpytorch.org\u002F) version == 1.12.0\n* Python version == 3.10\n* fairseq version == 0.12.0:\n\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq\ncd fairseq\ngit checkout v0.12.0\npip install .\npython setup.py build_ext --inplace\ncd ..\n```\n* Moses\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmoses-smt\u002Fmosesdecoder.git\nexport MOSES=${PWD}\u002Fmosesdecoder\n```\n* fastBPE\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fglample\u002FfastBPE.git\nexport FASTBPE=${PWD}\u002FfastBPE\ncd fastBPE\ng++ -std=c++11 -pthread -O3 fastBPE\u002Fmain.cc -IfastBPE -o fast\n```\n* sacremoses\n``` bash\npip install sacremoses\n```\n* sklearn\n``` bash\npip install scikit-learn\n```\n\nRemember to set the environment variables `MOSES` and `FASTBPE` to the path of Moses and fastBPE respetively, as they will be required later.\n\n# Getting Started\n## Pre-trained models\nWe provide our pre-trained BioGPT model checkpoints along with fine-tuned checkpoints for downstream tasks, available both through URL download as well as through the Hugging Face 🤗 Hub. \n\n|Model|Description|URL|🤗 Hub|\n|----|----|---|---|\n|BioGPT|Pre-trained BioGPT model checkpoint|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT.tgz?sp=r&st=2023-11-13T15:37:35Z&se=2099-12-30T23:37:35Z&spr=https&sv=2022-11-02&sr=b&sig=3CcG1TOhqJPBhkVutvVn3PtUq0vPyLBgwggUfojypfY%3D)|[link](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fbiogpt)|\n|BioGPT-Large|Pre-trained BioGPT-Large model checkpoint|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT-Large.tgz?sp=r&st=2023-11-13T15:38:13Z&se=2099-12-30T23:38:13Z&spr=https&sv=2022-11-02&sr=b&sig=ib1SZut9wAwrsxGWtFtIZDhrnRg92dwPJmoY2lr3MTg%3D)|[link](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fbiogpt-large)|\n|BioGPT-QA-PubMedQA-BioGPT|Fine-tuned BioGPT for question answering task on PubMedQA|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FQA-PubMedQA-BioGPT.tgz?sp=r&st=2023-11-13T15:38:43Z&se=2099-12-30T23:38:43Z&spr=https&sv=2022-11-02&sr=b&sig=A5SQae6ifsXmrsgpj4E2flhyXm4iHc%2FqO5b8HGOMyjc%3D)| |\n|BioGPT-QA-PubMedQA-BioGPT-Large|Fine-tuned BioGPT-Large for question answering task on PubMedQA|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FQA-PubMedQA-BioGPT-Large.tgz?sp=r&st=2023-11-13T15:39:40Z&se=2099-12-30T23:39:40Z&spr=https&sv=2022-11-02&sr=b&sig=t%2B%2FD%2BxVoIxiuyDsD0VXv%2FjSGoS0VcrdVXycYhWZoxUc%3D)||\n|BioGPT-RE-BC5CDR|Fine-tuned BioGPT for relation extraction task on BC5CDR|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-BC5CDR-BioGPT.tgz?sp=r&st=2023-11-13T15:35:14Z&se=2099-12-30T23:35:14Z&spr=https&sv=2022-11-02&sr=b&sig=uXlLIHlVeKIbS%2BVmdzAmlNCeKdoKO2lxsSmwSi%2FH8nE%3D)| |\n|BioGPT-RE-DDI|Fine-tuned BioGPT for relation extraction task on DDI|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-DDI-BioGPT.tgz?sp=r&st=2023-11-13T15:35:58Z&se=2099-12-30T23:35:58Z&spr=https&sv=2022-11-02&sr=b&sig=DkaQMuM%2FXAsM2p8%2BUs45ecuqhlSRF1DUYRBJNcxD6Pk%3D)| |\n|BioGPT-RE-DTI|Fine-tuned BioGPT for relation extraction task on KD-DTI|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-DTI-BioGPT.tgz?sp=r&st=2023-11-13T15:36:23Z&se=2099-12-30T23:36:23Z&spr=https&sv=2022-11-02&sr=b&sig=bRgUZyqGuwYdM%2FVFzIv6Xa0GThkXq6bVzszmTe9c%2BKM%3D)| |\n|BioGPT-DC-HoC|Fine-tuned BioGPT for document classification task on HoC|[link](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FDC-HoC-BioGPT.tgz?sp=r&st=2023-11-13T15:37:17Z&se=2099-12-30T23:37:17Z&spr=https&sv=2022-11-02&sr=b&sig=1DxroWPt%2FBppCTy7QHs842lLy8SQRcUeUwSfMzDFvl0%3D)| |\n\nDownload them and extract them to the `checkpoints` folder of this project.\n\nFor example:\n``` bash\nmkdir checkpoints\ncd checkpoints\nwget https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT.tgz?sp=r&st=2023-11-13T15:37:35Z&se=2099-12-30T23:37:35Z&spr=https&sv=2022-11-02&sr=b&sig=3CcG1TOhqJPBhkVutvVn3PtUq0vPyLBgwggUfojypfY%3D\ntar -zxvf Pre-trained-BioGPT.tgz\n```\n\n## Example Usage\nUse pre-trained BioGPT model in your code:\n```python\nimport torch\nfrom fairseq.models.transformer_lm import TransformerLanguageModel\nm = TransformerLanguageModel.from_pretrained(\n        \"checkpoints\u002FPre-trained-BioGPT\", \n        \"checkpoint.pt\", \n        \"data\",\n        tokenizer='moses', \n        bpe='fastbpe', \n        bpe_codes=\"data\u002Fbpecodes\",\n        min_len=100,\n        max_len_b=1024)\nm.cuda()\nsrc_tokens = m.encode(\"COVID-19 is\")\ngenerate = m.generate([src_tokens], beam=5)[0]\noutput = m.decode(generate[0][\"tokens\"])\nprint(output)\n```\n\nUse fine-tuned BioGPT model on KD-DTI for drug-target-interaction in your code:\n```python\nimport torch\nfrom src.transformer_lm_prompt import TransformerLanguageModelPrompt\nm = TransformerLanguageModelPrompt.from_pretrained(\n        \"checkpoints\u002FRE-DTI-BioGPT\", \n        \"checkpoint_avg.pt\", \n        \"data\u002FKD-DTI\u002Frelis-bin\",\n        tokenizer='moses', \n        bpe='fastbpe', \n        bpe_codes=\"data\u002Fbpecodes\",\n        max_len_b=1024,\n        beam=1)\nm.cuda()\nsrc_text=\"\" # input text, e.g., a PubMed abstract\nsrc_tokens = m.encode(src_text)\ngenerate = m.generate([src_tokens], beam=args.beam)[0]\noutput = m.decode(generate[0][\"tokens\"])\nprint(output)\n```\n\nFor more downstream tasks, please see below.\n\n## Downstream tasks\nSee corresponding folder in [examples](examples):\n### [Relation Extraction on BC5CDR](examples\u002FRE-BC5CDR)\n### [Relation Extraction on KD-DTI](examples\u002FRE-DTI\u002F)\n### [Relation Extraction on DDI](examples\u002FRE-DDI)\n### [Document Classification on HoC](examples\u002FDC-HoC\u002F)\n### [Question Answering on PubMedQA](examples\u002FQA-PubMedQA\u002F)\n### [Text Generation](examples\u002Ftext-generation\u002F)\n\n## Hugging Face 🤗 Usage\n\nBioGPT has also been integrated into the Hugging Face `transformers` library, and model checkpoints are available on the Hugging Face Hub.\n\nYou can use this model directly with a pipeline for text generation. Since the generation relies on some randomness, we set a seed for reproducibility:\n\n```python\nfrom transformers import pipeline, set_seed\nfrom transformers import BioGptTokenizer, BioGptForCausalLM\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\ngenerator = pipeline('text-generation', model=model, tokenizer=tokenizer)\nset_seed(42)\ngenerator(\"COVID-19 is\", max_length=20, num_return_sequences=5, do_sample=True)\n```\n\nHere is how to use this model to get the features of a given text in PyTorch:\n\n```python\nfrom transformers import BioGptTokenizer, BioGptForCausalLM\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\ntext = \"Replace me by any text you'd like.\"\nencoded_input = tokenizer(text, return_tensors='pt')\noutput = model(**encoded_input)\n```\n\nBeam-search decoding:\n\n```python\nimport torch\nfrom transformers import BioGptTokenizer, BioGptForCausalLM, set_seed\n\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\n\nsentence = \"COVID-19 is\"\ninputs = tokenizer(sentence, return_tensors=\"pt\")\n\nset_seed(42)\n\nwith torch.no_grad():\n    beam_output = model.generate(**inputs,\n                                 min_length=100,\n                                 max_length=1024,\n                                 num_beams=5,\n                                 early_stopping=True\n                                )\ntokenizer.decode(beam_output[0], skip_special_tokens=True)\n```\n\nFor more information, please see the [documentation](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fmain\u002Fen\u002Fmodel_doc\u002Fbiogpt) on the Hugging Face website.\n\n## Demos\n\nCheck out these demos on Hugging Face Spaces:\n* [Text Generation with BioGPT-Large](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkatielink\u002Fbiogpt-large-demo)\n* [Question Answering with BioGPT-Large-PubMedQA](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkatielink\u002Fbiogpt-qa-demo)\n\n# License\n\nBioGPT is MIT-licensed.\nThe license applies to the pre-trained models as well.\n\n# Contributing\n\nThis project welcomes contributions and suggestions.  Most contributions require you to agree to a\nContributor License Agreement (CLA) declaring that you have the right to, and actually do, grant us\nthe rights to use your contribution. For details, visit https:\u002F\u002Fcla.opensource.microsoft.com.\n\nWhen you submit a pull request, a CLA bot will automatically determine whether you need to provide\na CLA and decorate the PR appropriately (e.g., status check, comment). Simply follow the instructions\nprovided by the bot. You will only need to do this once across all repos using our CLA.\n\nThis project has adopted the [Microsoft Open Source Code of Conduct](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002F).\nFor more information see the [Code of Conduct FAQ](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002Ffaq\u002F) or\ncontact [opencode@microsoft.com](mailto:opencode@microsoft.com) with any additional questions or comments.\n\n# Trademarks\n\nThis project may contain trademarks or logos for projects, products, or services. Authorized use of Microsoft \ntrademarks or logos is subject to and must follow \n[Microsoft's Trademark & Brand Guidelines](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Flegal\u002Fintellectualproperty\u002Ftrademarks\u002Fusage\u002Fgeneral).\nUse of Microsoft trademarks or logos in modified versions of this project must not cause confusion or imply Microsoft sponsorship.\nAny use of third-party trademarks or logos are subject to those third-party's policies.\n","# BioGPT\n本仓库包含 [BioGPT：用于生物医学文本生成与挖掘的生成式预训练 Transformer](https:\u002F\u002Facademic.oup.com\u002Fbib\u002Fadvance-article\u002Fdoi\u002F10.1093\u002Fbib\u002Fbbac409\u002F6713511?guestAccessKey=a66d9b5d-4f83-4017-bb52-405815c907b9) 的实现，作者为 Renqian Luo、Liai Sun、Yingce Xia、Tao Qin、Sheng Zhang、Hoifung Poon 和 Tie-Yan Liu。\n\n\n# 要求与安装\n\n* PyTorch 版本 == 1.12.0\n* Python 版本 == 3.10\n* fairseq 版本 == 0.12.0：\n\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq\ncd fairseq\ngit checkout v0.12.0\npip install .\npython setup.py build_ext --inplace\ncd ..\n```\n* Moses\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmoses-smt\u002Fmosesdecoder.git\nexport MOSES=${PWD}\u002Fmosesdecoder\n```\n* fastBPE\n``` bash\ngit clone https:\u002F\u002Fgithub.com\u002Fglample\u002FfastBPE.git\nexport FASTBPE=${PWD}\u002FfastBPE\ncd fastBPE\ng++ -std=c++11 -pthread -O3 fastBPE\u002Fmain.cc -IfastBPE -o fast\n```\n* sacremoses\n``` bash\npip install sacremoses\n```\n* sklearn\n``` bash\npip install scikit-learn\n```\n\n请务必将环境变量 `MOSES` 和 `FASTBPE` 分别设置为 Moses 和 fastBPE 的路径，因为后续会用到它们。\n\n# 快速入门\n## 预训练模型\n我们提供了预训练的 BioGPT 模型检查点以及针对下游任务的微调检查点，既可以通过 URL 下载，也可以通过 Hugging Face 🤗 Hub 获取。\n\n|模型|描述|URL|🤗 Hub|\n|----|----|---|---|\n|BioGPT|预训练的 BioGPT 模型检查点|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT.tgz?sp=r&st=2023-11-13T15:37:35Z&se=2099-12-30T23:37:35Z&spr=https&sv=2022-11-02&sr=b&sig=3CcG1TOhqJPBhkVutvVn3PtUq0vPyLBgwggUfojypfY%3D)|[链接](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fbiogpt)|\n|BioGPT-Large|预训练的 BioGPT-Large 模型检查点|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT-Large.tgz?sp=r&st=2023-11-13T15:38:13Z&se=2099-12-30T23:38:13Z&spr=https&sv=2022-11-02&sr=b&sig=ib1SZut9wAwrsxGWtFtIZDhrnRg92dwPJmoY2lr3MTg%3D)|[链接](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fbiogpt-large)|\n|BioGPT-QA-PubMedQA-BioGPT|在 PubMedQA 数据集上微调的 BioGPT 问答模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FQA-PubMedQA-BioGPT.tgz?sp=r&st=2023-11-13T15:38:43Z&se=2099-12-30T23:38:43Z&spr=https&sv=2022-11-02&sr=b&sig=A5SQae6ifsXmrsgpj4E2flhyXm4iHc%2FqO5b8HGOMyjc%3D)| |\n|BioGPT-QA-PubMedQA-BioGPT-Large|在 PubMedQA 数据集上微调的 BioGPT-Large 问答模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FQA-PubMedQA-BioGPT-Large.tgz?sp=r&st=2023-11-13T15:39:40Z&se=2099-12-30T23:39:40Z&spr=https&sv=2022-11-02&sr=b&sig=t%2B%2FD%2BxVoIxiuyDsD0VXv%2FjSGoS0VcrdVXycYhWZoxUc%3D)||\n|BioGPT-RE-BC5CDR|在 BC5CDR 数据集上微调的 BioGPT 关系抽取模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-BC5CDR-BioGPT.tgz?sp=r&st=2023-11-13T15:35:14Z&se=2099-12-30T23:35:14Z&spr=https&sv=2022-11-02&sr=b&sig=uXlLIHlVeKIbS%2BVmdzAmlNCeKdoKO2lxsSmwSi%2FH8nE%3D)| |\n|BioGPT-RE-DDI|在 DDI 数据集上微调的 BioGPT 关系抽取模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-DDI-BioGPT.tgz?sp=r&st=2023-11-13T15:35:58Z&se=2099-12-30T23:35:58Z&spr=https&sv=2022-11-02&sr=b&sig=DkaQMuM%2FXAsM2p8%2BUs45ecuqhlSRF1DUYRBJNcxD6Pk%3D)| |\n|BioGPT-RE-DTI|在 KD-DTI 数据集上微调的 BioGPT 关系抽取模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FRE-DTI-BioGPT.tgz?sp=r&st=2023-11-13T15:36:23Z&se=2099-12-30T23:36:23Z&spr=https&sv=2022-11-02&sr=b&sig=bRgUZyqGuwYdM%2FVFzIv6Xa0GThkXq6bVzszmTe9c%2BKM%3D)| |\n|BioGPT-DC-HoC|在 HoC 数据集上微调的 BioGPT 文档分类模型|[链接](https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FDC-HoC-BioGPT.tgz?sp=r&st=2023-11-13T15:37:17Z&se=2099-12-30T23:37:17Z&spr=https&sv=2022-11-02&sr=b&sig=1DxroWPt%2FBppCTy7QHs842lLy8SQRcUeUwSfMzDFvl0%3D)| |\n\n请下载这些文件并解压到该项目的 `checkpoints` 文件夹中。\n\n例如：\n``` bash\nmkdir checkpoints\ncd checkpoints\nwget https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT.tgz?sp=r&st=2023-11-13T15:37:35Z&se=2099-12-30T23:37:35Z&spr=https&sv=2022-11-02&sr=b&sig=3CcG1TOhqJPBhkVutvVn3PtUq0vPyLBgwggUfojypfY%3D\ntar -zxvf Pre-trained-BioGPT.tgz\n```\n\n## 示例用法\n在代码中使用预训练的 BioGPT 模型：\n```python\nimport torch\nfrom fairseq.models.transformer_lm import TransformerLanguageModel\nm = TransformerLanguageModel.from_pretrained(\n        \"checkpoints\u002FPre-trained-BioGPT\", \n        \"checkpoint.pt\", \n        \"data\",\n        tokenizer='moses', \n        bpe='fastbpe', \n        bpe_codes=\"data\u002Fbpecodes\",\n        min_len=100,\n        max_len_b=1024)\nm.cuda()\nsrc_tokens = m.encode(\"COVID-19 is\")\ngenerate = m.generate([src_tokens], beam=5)[0]\noutput = m.decode(generate[0][\"tokens\"])\nprint(output)\n```\n\n在代码中使用在 KD-DTI 数据集上微调的 BioGPT 模型进行药物-靶点相互作用预测：\n```python\nimport torch\nfrom src.transformer_lm_prompt import TransformerLanguageModelPrompt\nm = TransformerLanguageModelPrompt.from_pretrained(\n        \"checkpoints\u002FRE-DTI-BioGPT\", \n        \"checkpoint_avg.pt\", \n        \"data\u002FKD-DTI\u002Frelis-bin\",\n        tokenizer='moses', \n        bpe='fastbpe', \n        bpe_codes=\"data\u002Fbpecodes\",\n        max_len_b=1024,\n        beam=1)\nm.cuda()\nsrc_text=\"\" # 输入文本，例如 PubMed 摘要\nsrc_tokens = m.encode(src_text)\ngenerate = m.generate([src_tokens], beam=args.beam)[0]\noutput = m.decode(generate[0][\"tokens\"])\nprint(output)\n```\n\n更多下游任务，请参阅下文。\n\n## 下游任务\n请参阅 [examples](examples) 中的相应文件夹：\n### [BC5CDR 上的关系抽取](examples\u002FRE-BC5CDR)\n### [KD-DTI 上的关系抽取](examples\u002FRE-DTI\u002F)\n### [DDI 上的关系抽取](examples\u002FRE-DDI)\n### [HoC 上的文档分类](examples\u002FDC-HoC\u002F)\n### [PubMedQA 上的问答](examples\u002FQA-PubMedQA\u002F)\n### [文本生成](examples\u002Ftext-generation\u002F)\n\n## Hugging Face 🤗 使用方法\n\nBioGPT 已集成到 Hugging Face 的 `transformers` 库中，模型检查点也在 Hugging Face Hub 上提供。\n\n您可以直接使用 pipeline 进行文本生成。由于生成过程涉及随机性，我们设置了随机种子以确保结果可复现：\n\n```python\nfrom transformers import pipeline, set_seed\nfrom transformers import BioGptTokenizer, BioGptForCausalLM\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\ngenerator = pipeline('text-generation', model=model, tokenizer=tokenizer)\nset_seed(42)\ngenerator(\"COVID-19 is\", max_length=20, num_return_sequences=5, do_sample=True)\n```\n\n以下是如何在 PyTorch 中使用该模型获取给定文本特征的方法：\n\n```python\nfrom transformers import BioGptTokenizer, BioGptForCausalLM\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\ntext = \"Replace me by any text you'd like.\"\nencoded_input = tokenizer(text, return_tensors='pt')\noutput = model(**encoded_input)\n```\n\n束搜索解码：\n\n```python\nimport torch\nfrom transformers import BioGptTokenizer, BioGptForCausalLM, set_seed\n\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\n\nsentence = \"COVID-19 is\"\ninputs = tokenizer(sentence, return_tensors=\"pt\")\n\nset_seed(42)\n\nwith torch.no_grad():\n    beam_output = model.generate(**inputs,\n                                 min_length=100,\n                                 max_length=1024,\n                                 num_beams=5,\n                                 early_stopping=True\n                                )\ntokenizer.decode(beam_output[0], skip_special_tokens=True)\n```\n\n更多信息请参阅 Hugging Face 官网上的 [文档](https:\u002F\u002Fhuggingface.co\u002Fdocs\u002Ftransformers\u002Fmain\u002Fen\u002Fmodel_doc\u002Fbiogpt)。\n\n## 演示\n\n请在 Hugging Face Spaces 上查看以下演示：\n* [使用 BioGPT-Large 进行文本生成](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkatielink\u002Fbiogpt-large-demo)\n* [使用 BioGPT-Large-PubMedQA 进行问答](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fkatielink\u002Fbiogpt-qa-demo)\n\n# 许可证\n\nBioGPT 采用 MIT 许可证。该许可证同样适用于预训练模型。\n\n# 贡献\n\n本项目欢迎贡献和建议。大多数贡献都需要您同意贡献者许可协议（CLA），声明您有权且确实授予我们使用您贡献的权利。详情请访问 https:\u002F\u002Fcla.opensource.microsoft.com。\n\n当您提交拉取请求时，CLA 机器人会自动判断您是否需要提供 CLA，并相应地标记 PR（例如状态检查、评论）。只需按照机器人提供的指示操作即可。对于所有使用我们 CLA 的仓库，您只需完成一次此步骤。\n\n本项目已采纳 [微软开源行为准则](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002F)。更多信息请参阅 [行为准则常见问题解答](https:\u002F\u002Fopensource.microsoft.com\u002Fcodeofconduct\u002Ffaq\u002F)，或如有任何其他疑问或意见，请联系 [opencode@microsoft.com](mailto:opencode@microsoft.com)。\n\n# 商标\n\n本项目可能包含项目、产品或服务的商标或标识。未经授权使用微软商标或标识须遵守并遵循 [微软商标与品牌指南](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Flegal\u002Fintellectualproperty\u002Ftrademarks\u002Fusage\u002Fgeneral)。在本项目的修改版本中使用微软商标或标识不得造成混淆或暗示微软的赞助。任何第三方商标或标识的使用均应遵守其各自的政策。","# BioGPT 快速上手指南\n\nBioGPT 是微软研究院推出的面向生物医学领域的生成式预训练 Transformer 模型，专为生物医学文本生成和挖掘任务设计。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐) 或 macOS\n*   **Python**: 3.10\n*   **PyTorch**: 1.12.0\n*   **GPU**: 支持 CUDA 的 NVIDIA 显卡（推荐用于推理加速）\n\n## 安装步骤\n\n### 1. 安装基础依赖\n首先安装 PyTorch 和其他 Python 依赖包。国内用户建议使用清华源或阿里源加速下载。\n\n```bash\n# 安装 PyTorch 1.12.0 (根据具体 CUDA 版本调整，此处以 CPU 版为例，生产环境请安装对应的 CUDA 版本)\npip install torch==1.12.0 torchvision==0.13.0 torchaudio==0.12.0 --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 安装其他 Python 依赖\npip install scikit-learn sacremoses --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 2. 安装 fairseq\nBioGPT 基于 fairseq 框架，需要安装特定版本 (v0.12.0)。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fpytorch\u002Ffairseq\ncd fairseq\ngit checkout v0.12.0\npip install .\npython setup.py build_ext --inplace\ncd ..\n```\n\n### 3. 安装 Moses 分词器\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fmoses-smt\u002Fmosesdecoder.git\nexport MOSES=${PWD}\u002Fmosesdecoder\n```\n\n### 4. 安装 fastBPE\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fglample\u002FfastBPE.git\nexport FASTBPE=${PWD}\u002FfastBPE\ncd fastBPE\ng++ -std=c++11 -pthread -O3 fastBPE\u002Fmain.cc -IfastBPE -o fast\ncd ..\n```\n\n> **注意**：请确保 `MOSES` 和 `FASTBPE` 环境变量已正确设置，后续运行代码时需要用到。\n\n## 基本使用\n\nBioGPT 提供了两种主要的使用方式：原生 fairseq 接口和 Hugging Face Transformers 接口。**推荐大多数用户使用 Hugging Face 方式**，因为它更简洁且无需配置复杂的环境变量。\n\n### 方式一：使用 Hugging Face Transformers (推荐)\n\n这种方式最简单，自动处理分词和模型加载。\n\n```python\nfrom transformers import pipeline, set_seed\nfrom transformers import BioGptTokenizer, BioGptForCausalLM\n\n# 加载模型和分词器\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\n\n# 创建生成管道\ngenerator = pipeline('text-generation', model=model, tokenizer=tokenizer)\n\n# 设置随机种子以保证结果可复现\nset_seed(42)\n\n# 生成文本\n# 示例：续写 \"COVID-19 is\"\nresult = generator(\"COVID-19 is\", max_length=20, num_return_sequences=5, do_sample=True)\n\nprint(result)\n```\n\n**进阶用法：束搜索 (Beam Search) 解码**\n适用于需要更高生成质量的场景：\n\n```python\nimport torch\nfrom transformers import BioGptTokenizer, BioGptForCausalLM, set_seed\n\ntokenizer = BioGptTokenizer.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")\nmodel.cuda() # 如果有 GPU\n\nsentence = \"COVID-19 is\"\ninputs = tokenizer(sentence, return_tensors=\"pt\").to(model.device)\n\nset_seed(42)\n\nwith torch.no_grad():\n    beam_output = model.generate(**inputs,\n                                 min_length=100,\n                                 max_length=1024,\n                                 num_beams=5,\n                                 early_stopping=True\n                                )\n\noutput_text = tokenizer.decode(beam_output[0], skip_special_tokens=True)\nprint(output_text)\n```\n\n### 方式二：使用原生 Fairseq 接口\n\n如果您需要使用特定的微调检查点（如药物 - 靶点相互作用任务），或者需要完全控制预处理流程，可以使用此方式。请确保已按“安装步骤”配置好环境变量。\n\n1.  **下载模型**：\n    ```bash\n    mkdir checkpoints\n    cd checkpoints\n    # 下载预训练模型 (示例链接，具体请访问官方 README 获取最新有效链接)\n    wget \"https:\u002F\u002Fmsralaphilly2.blob.core.windows.net\u002Frelease\u002FBioGPT\u002Fcheckpoints\u002FPre-trained-BioGPT.tgz?sp=r&st=2023-11-13T15:37:35Z&se=2099-12-30T23:37:35Z&spr=https&sv=2022-11-02&sr=b&sig=3CcG1TOhqJPBhkVutvVn3PtUq0vPyLBgwggUfojypfY%3D\" -O Pre-trained-BioGPT.tgz\n    tar -zxvf Pre-trained-BioGPT.tgz\n    cd ..\n    ```\n\n2.  **运行代码**：\n    ```python\n    import torch\n    from fairseq.models.transformer_lm import TransformerLanguageModel\n\n    # 加载预训练模型\n    m = TransformerLanguageModel.from_pretrained(\n            \"checkpoints\u002FPre-trained-BioGPT\", \n            \"checkpoint.pt\", \n            \"data\",\n            tokenizer='moses', \n            bpe='fastbpe', \n            bpe_codes=\"data\u002Fbpecodes\",\n            min_len=100,\n            max_len_b=1024)\n    \n    m.cuda() # 移动到 GPU\n\n    # 编码输入\n    src_tokens = m.encode(\"COVID-19 is\")\n    \n    # 生成文本\n    generate = m.generate([src_tokens], beam=5)[0]\n    output = m.decode(generate[0][\"tokens\"])\n    \n    print(output)\n    ```","某生物医药公司的研发分析师正试图从海量 PubMed 文献中梳理“某种新型激酶抑制剂与特定耐药突变”之间的复杂关联，以指导下一阶段的药物分子优化。\n\n### 没有 BioGPT 时\n- **术语理解偏差**：通用大模型常将生物医学专有名词（如基因变体、蛋白质结构域）误读为普通词汇，导致提取的关系完全错误。\n- **长文逻辑断裂**：面对包含复杂实验数据和多重否定句的长篇摘要，模型难以捕捉跨段落的因果逻辑，无法准确回答“该药物是否对某突变有效”。\n- **人工核查成本高**：分析师需逐篇阅读全文并手动标注实体关系，处理几百篇文献往往需要数周时间，严重拖慢研发决策节奏。\n- **生成内容不可用**：尝试让通用模型总结综述时，生成的内容常出现“幻觉”，编造不存在的临床数据或引用错误的文献结论。\n\n### 使用 BioGPT 后\n- **领域知识精准匹配**：BioGPT 基于海量生物医学语料预训练，能准确识别并理解复杂的基因 - 药物相互作用术语，确保实体抽取零偏差。\n- **深度推理能力增强**：利用针对 PubMedQA 微调的模型，BioGPT 能直接阅读文献上下文，精准推断出药物对特定突变的抑制效果及潜在机制。\n- **自动化流程提效**：通过调用 BioGPT 的关系抽取接口（如 RE-DDI 或 RE-DTI 模型），可在几分钟内完成数千篇文献的结构化信息挖掘，效率提升百倍。\n- **专业综述自动生成**：BioGPT 生成的文本严格遵循生物医学逻辑，能产出包含准确数据支撑的初步综述草稿，分析师仅需做最终校验即可。\n\nBioGPT 将原本耗时数周的人工文献挖掘工作压缩至小时级，同时显著提升了生物医学信息提取的准确度与专业性。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fmicrosoft_BioGPT_7141f879.png","microsoft","Microsoft","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fmicrosoft_4900709c.png","Open source projects and samples from Microsoft","opensource@microsoft.com","OpenAtMicrosoft","https:\u002F\u002Fopensource.microsoft.com","https:\u002F\u002Fgithub.com\u002Fmicrosoft",[85,89],{"name":86,"color":87,"percentage":88},"Python","#3572A5",98.8,{"name":90,"color":91,"percentage":92},"Shell","#89e051",1.2,4490,480,"2026-04-01T13:23:08","MIT",4,"未说明","需要 NVIDIA GPU (代码示例中包含 .cuda() 调用)，具体型号、显存大小及 CUDA 版本未在文档中明确说明",{"notes":101,"python":102,"dependencies":103},"必须手动编译并安装 Moses 和 fastBPE 工具，且需设置 MOSES 和 FASTBPE 环境变量指向其安装路径。模型支持通过官方链接或 Hugging Face Hub 下载预训练权重。","3.10",[104,105,106,107,108],"torch==1.12.0","fairseq==0.12.0","sacremoses","scikit-learn","transformers (可选，用于 Hugging Face 集成)",[15,37],"2026-03-27T02:49:30.150509","2026-04-06T05:15:06.093253",[113,118,123,127,132,137,142],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},10448,"下载预训练模型时遇到 'PublicAccessNotPermitted' 错误怎么办？","这通常是因为存储账户的公共访问权限暂时被禁用或链接失效。维护者通常会修复此问题，请稍后重试下载。如果问题持续，可以检查 Hugging Face 上是否有可用的替代模型（如 `microsoft\u002Fbiogpt`），但请注意 Hugging Face 版本可能缺少某些特定的微调检查点（checkpoints），导致无法直接用于某些微调任务。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F104",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},10449,"运行推理代码时出现 'TypeError: expected str, bytes or os.PathLike object, not NoneType' 错误如何解决？","该错误通常是因为尝试加载尚未完成预处理的数据集（例如 KD-DTI 数据集）。维护者指出，README 中仅完成了 RE-DDI 数据集的示例，其他数据集（如 KD-DTI）需要用户自行完成完整的预处理步骤（包括安装 BERT-DTI 等依赖并生成 `relis-bin` 目录），否则路径参数会为 None 导致报错。请确保只使用已完整支持的数据集或自行补全预处理流程。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F45",{"id":124,"question_zh":125,"answer_zh":126,"source_url":122},10450,"如何在 Google Colab 中成功运行 BioGPT 的推理模板？","社区用户已整理出可运行的 Colab 模板。关键在于确保所有预处理步骤（特别是针对特定数据集如 RE-DDI）都已正确执行，并且路径配置正确。如果遇到错误，请参考社区分享的最终成功版本 Gist：https:\u002F\u002Fgist.github.com\u002Fraven44099\u002Fedd254c6f5dbcfe5faad7701d1df88cf，该模板包含了完整的安装和推理设置。",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},10451,"运行第一个示例代码时报错，无法加载模型怎么办？","如果在虚拟环境或特定目录外运行代码遇到 `hub_utils` 相关错误，尝试直接在 BioGPT 仓库的根目录下运行 Python 脚本。有用户反馈：“我在仓库目录内运行 python 后成功了”，这通常能解决相对路径或模块导入导致的问题。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F55",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},10452,"如何直接使用 PyTorch 导入模型并进行微调，而不使用 Fairseq 框架？","目前官方主要基于 Fairseq 框架。不过，社区已有工作正在将 BioGPT 集成到 Hugging Face Transformers 中。你可以关注相关的 PR（如 https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers\u002Fpull\u002F20420），通过安装该 PR 版本的 transformers 库来尝试使用更便捷的 HF 接口进行加载和实验。代码示例：`from transformers import BioGptTokenizer, BioGptForCausalLM; model = BioGptForCausalLM.from_pretrained(\"microsoft\u002Fbiogpt\")`。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F9",{"id":138,"question_zh":139,"answer_zh":140,"source_url":141},10453,"在 Colab 中运行预处理脚本 (preprocess.sh) 时失败怎么办？","在 Colab 中运行预处理脚本前，请确保当前工作目录已切换到正确的示例文件夹（例如 `%cd \u002Fcontent\u002FBioGPT\u002Fexamples\u002FRE-DDI`）。此外，必须确保已完整安装 fairseq 及其命令行工具，并且所有依赖项（如 bpe_codes 文件）路径正确。如果报错涉及 `FileBinarizer` 或 `find_offsets`，通常是因为输入文件路径错误或文件不存在，请仔细检查 README 中的预处理步骤是否每一步都成功执行。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F56",{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},10454,"README 中的预训练模型链接无法访问或显示不可用，是否有替代方案？","如果官方 Blob 存储链接暂时失效，请等待维护者修复（通常会在 Issue 中通知“链接已修复”）。同时，可以查看 Hugging Face 模型库（https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fbiogpt），那里提供了基础版本的 BioGPT 模型。但需注意，HF 上的模型可能不包含 README 中提及的所有特定任务微调检查点（checkpoint），因此对于特定任务的复现，仍建议等待官方链接恢复或使用本地已下载的存档。","https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FBioGPT\u002Fissues\u002F106",[]]