[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-FreedomIntelligence--HuatuoGPT":3,"tool-FreedomIntelligence--HuatuoGPT":65},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[13,37],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":45,"env_os":91,"env_gpu":92,"env_ram":93,"env_deps":94,"category_tags":101,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":102,"updated_at":103,"faqs":104,"releases":140},2333,"FreedomIntelligence\u002FHuatuoGPT","HuatuoGPT","HuatuoGPT, Towards Taming Language Models To Be a Doctor. (An Open Medical GPT)","HuatuoGPT（华佗 GPT）是一款专为中文医疗咨询场景打造的大语言模型，旨在成为专业且亲切的\"AI 医生”。它主要解决了当前线上及医院中大量基础医疗咨询需求与医生精力有限之间的矛盾，通过提供快速、准确的初步建议，帮助释放医护人员时间以专注于复杂病例，同时降低了患者获取健康信息的门槛。\n\n该项目非常适合医疗 AI 研究人员、开发者以及需要构建垂直领域应用的技术团队使用。普通用户也可通过其在线演示体验智能问诊服务，或参考其公开数据了解医疗大模型的能力边界。\n\nHuatuoGPT 的核心亮点在于其独特的混合训练数据策略：它不仅利用了从 ChatGPT 蒸馏出的 6 万余条自指令数据，还融合了近 7 万条来自真实医生的临床问答记录。这种“虚实结合”的方式，既赋予了模型专业的医学逻辑，又保留了贴近患者语言的沟通风格。此外，项目开源了包括 7B 和 13B 参数版本的模型权重、完整的微调数据集以及专门的医疗评估基准，为社区构建更安全、可靠的医疗大模型提供了坚实基础。需要注意的是，尽管模型表现优异，但在实际诊疗中仍需谨慎评估，确保患者安全。","# HuatuoGPT (华佗GPT), Towards Taming Language Models To Be a Doctor.\n\n## ✨ Latest News\n- [12\u002F11\u002F2023]: 🎉🎉🎉 Our paper is accepted for EMNLP 2023! Check it out [here](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.725\u002F).\n- [11\u002F25\u002F2023]: We realeased **[HuatuoGPT-II](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-II)**, which achieved a new state-of-the-art in Chinese medical applications! See [here](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-II).\n- [09\u002F26\u002F2023]: Release [HuatuoGPT-reward-model](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-reward-model-7B).\n- [06\u002F30\u002F2023]: Evaluation data of HuatuoGPT released in the `eval\u002F` folder.\n- [06\u002F30\u002F2023]: Release the code, model weights of [HuatuoGPT-7B](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B) and [HuatuoGPT-13B](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta)\n- [05\u002F25\u002F2023]: Release the [tech report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15075.pdf) and the HuatuoGPT [demo](https:\u002F\u002Fwww.huatuogpt.cn\u002F).\n\n## ⚡ Introduction\nWelcome to the repository of HuatuoGPT, a large language model (LLM) trained on a vast Chinese medical corpus. Our objective with HuatuoGPT is to construct a more professional ‘ChatGPT’ for medical consultation scenarios. \n\nHere is a list of what has been released:\n\n1. HuatuoGPT-SFT-data: A hybrid SFT data capitalizing on both strengths to endow the model with Doctor-like and Patient-friendly characteristics.\n2. HuatuoGPT model: HuatuoGPT model weights(HuatuoGPT-7B and HuatuoGPT-13B) and the online demo. **HuatuoGPT-7B** is trained on **Baichuan-7B** and **HuatuoGPT-13B** is trained on **Ziya-LLaMA-13B-Pretrain-v1**.\n3. Medical evaluation benchmark: an evaluation method used to evaluate LLMs in medical scenarios.\n\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_20e52924f5bf.png\" width = \"640\" alt=\"HuatuoGPT\" align=center\u002F>\n\u003C\u002Fdiv>\n\n\n## 💭 Motivation\n- To address the growing demand for quick medical consultations both online and in hospitals that do not necessarily require deep medical knowledge. We believe that LLMs like HuatuoGPT can be effectively utilized to meet these demands, freeing up physicians’ time and energy for more complex cases.\n- To provide open data for training medical LLMs. Building high-quality instruction training data for LLMs is essential, but it can be also challenging. We have constructed medical instruction data using various methods and made it publicly available. This dataset can be combined with other datasets to train one's own medical 'ChatGPT'.\n- To emphasize the importance of carefully evaluating the ability of medical LLMs before using them to offer medical assistance to patients. We recognize the potential benefits of LLMs in the medical field, but also acknowledge the need for thorough evaluation and testing to ensure patient safety and accurate diagnoses.\n\n## 📚 Data\n\n### Overview\n\nTo leverage the best of both distilled data (from ChatGPT) and real-world data (from Doctors), we firstly fine-tune  `HuatuoGPT`  using four types of data:\n\n| Type                          | Scale | Descriptions                                                 | Examples                                                     |\n| ------------------------------------ | ----- | ------------------------------------------------------------ | ------------------------------------------------------------ |\n| Distilled Instructions from ChatGPT  | 61,400   | Medical instructions generated with self-instruct. Seed instructions are manually written by us. | 💬：现在该做什么准备手术前的身体检查？\u003Cbr>👨‍⚕️：在准备手术前的身体检查中，需要进行以下几个步骤：\u003Cbr>&emsp;&emsp;1. 了解病人的病史：了解病人的病史，包括既往病史、手术史、药物过敏史、家族病史等，以便评估手术风险和制定手术方案。\u003Cbr>&emsp;&emsp;2. 进行体格检查：进行全面的体格检查，包括测量身高、体重、血压、心率、呼吸… |\n| Real-world Instructions from Doctors | 69,768  | Medical single-round medical consultants in real-world scenarios, in which the doctor's response is more specific and can address the user's medical concerns. | 💬：我有糖尿病血压160-90.该吃什么降压药？空腹血糖8左右。餐后11左右。我有糖尿病血压160-90.该吃什么降压药？\u003Cbr>👨‍⚕️：阅读你的提问描述，综合分析症状，体征，糖尿病，血压160-90.血压略高，空腹血糖8左右。餐后11左右。血糖略高。口服依那普利，二甲双胍片治疗，新近研究，二甲双胍片，可以抑制食欲，促进肠道蠕动，预防癌症，预防心脑血管病，延长寿命作用。 |\n| Distilled Conversations from ChatGPT     | 68,888   | Medical multi-turn conversations are created using two ChatGPTs: one acting as the patient and the other as the doctor. The conversations are based on real-world patient cases and their corresponding treatment. | 💬：User: 我想问一下大夫，我发烧三天后，第四天全身起了疹子，是怎么回事呢？\u003Cbr>👨‍⚕️：~您好！感谢您的提问。您的症状可能与幼儿急疹相关。幼儿急疹是一种常见的儿童病，病因为人类疱疹病毒6型或7型感染引起。它的症状包括：\u003Cbr> 1. 发热 n2. 全身起红色疹子 \u003Cbr> 3. 口腔内及咽喉部有小水泡\u003Cbr> 4. 病程一般为3-5天左右...\u003Cbr>💬：谢谢大夫！除了幼儿急疹还有其他可能吗？我之前有感冒，这和疹子有关系吗？\u003Cbr>👨‍⚕️：除了幼儿急疹，病毒性感冒和其他病毒感染也有可能引起疹子，但这种情况相对较少见。在您的情况下，感冒可能是一种诱发因素，但主要还是由病毒感染引起的疹子... |\n| Real-world Conversations with Doctors      | 25,986   | Medical multi-round conversations in real-world scenarios. Conversations include multiple rounds of questioning by doctors and continuous questioning by patients. | 💬：额头下巴下长满痘痘。就是不知道.\u003Cbr>👨‍⚕️：你好，有什么困扰吗？我可以为你提供帮助。请问您平时的饮食习惯、睡眠和护肤习惯怎样？化妆品和防晒霜的使用频率如何？还有洁面的频次是怎样的呢？\u003Cbr>💬：平时我基本上只是用水乳霜，然后洗面奶只用一种。日常防晒只有在夏天时会使用，我一般用悦诗风吟的洗面奶以及AHC的护肤产品，这些都比较温和。\u003Cbr>👨‍⚕️：谢谢您的描述。首先，建议您停用化妆品和普通护肤品，使用特定的药妆品牌，如雅漾和理肤泉的洁面泡沫或洁面乳，并避免使用热水或肥皂清洗面部。建议您外用阿达帕林凝胶涂于面部痤疮，一般夜间使用，涂抹十五分钟之后外用医学护肤品比如雅漾、薇资、理肤泉清爽型的舒缓面霜，或者是维生素e乳膏… |\n\n### Download\n- [HuatuoGPT-sft-data-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFreedomIntelligence\u002FHuatuoGPT-sft-data-v1): The data used in the Supervised Fine-Tuning (SFT) stage of HuatuoGPT.\n\n  \n\n## 👨‍⚕️ Model\n\n### Model Access\n| Model                | Backbone      | Link                                                                          |\n|----------------------|---------------|-------------------------------------------------------------------------------|\n| HuatuoGPT-13B | Ziya-LLaMA-13B-Pretrain-v1 | [Delta](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta) |\n| HuatuoGPT-7B      | Baichuan-7B | [Model Weights](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B)      |\n\n\nNote that due to that HuatuoGPT-13B-delta is a LLaMA based model, we only release the delta of weights. You can download LLaMA-13B weights and use apply_delta.py to convert:\n```bash \npython apply_delta.py \\\n--base-model-path $LLaMA_Base_Path \\\n--target-model-path $Save_Path \\\n--delta-path $Delta_Path\n```\n\n### Deploy\n\nFirstly, you should install all required packages\n```bash\npip install -r requirements.txt\n```\n\nPlease make sure you have download our model weights and run\n```bash\npython huatuo_cli_demo_stream.py --model-name $model_dir\n```\n\n\n\n## 🚀 Demo\n\nTry our model in [https:\u002F\u002Fwww.huatuogpt.cn\u002F](https:\u002F\u002Fwww.huatuogpt.cn\u002F). Note that it is still in progressing.\n\n\u003C!-- ![demo_1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_b4b738a956cd.png) -->\n\u003C!-- ![demo_2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_e4d31b349d62.png) -->\n\n\n\n## 🧐 Evaluations\n\n### Evaluation by GPT-4 and Doctors\nWe invite GPT-4 and doctors to compare responses from HuatuoGPT(13B version) and other LLMs. Evaluation data is available in the `eval\u002F` folder. Results are as below:\n\n- Single turn evaluation\n\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_f50c8d9685e5.png\"  alt=\"eval1\" align=center\u002F>\n\u003C\u002Fdiv>\n\n- Multi turn evaluation\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_5ee6e10eb7f4.png\"  alt=\"eval1\" align=center\u002F>\n\u003C\u002Fdiv>\n\n\n### Benchmark  Evaluation\n\n| Dataset   | Model | BLEU-1 | BLEU-2 | BLEU-3 | BLEU-4 | GLEU | ROUGE-1 | ROUGE-2 | ROUGE | Distinct-1 | Distinct-2 |\n| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |\n| cMedQA2 | T5-finetuned | 20.88 | 11.87 | 7.69 | 5.09 | 7.62 | 27.16 | 9.30 | 20.11 | 0.41 | 0.52 |\n|  | HuatuoGPT | 27.39 | 14.38 | 8.06 | 4.55 | 8.52 | 29.26 | 8.02 | 15.46 | 0.74 | 0.93 |\n| WebMedQA | T5-finetuned | 21.42 | 13.79 | 10.06 | 7.38 | 8.94 | 31.00 | 13.85 | 25.78 | 0.37 | 0.46 |\n|  | HuatuoGPT | 24.85 | 13.42 | 7.72 | 4.51 | 7.50 | 28.30 | 7.72 | 14.50 | 0.73 | 0.93 |\n| Huatuo-26M | T5-finetuned | 26.63 | 16.74 | 11.77 | 8.46 | 11.38 | 33.21 | 13.26 | 24.85 | 0.51 | 0.68 |\n|  | HuatuoGPT | 27.42 | 14.84 | 8.54 | 4.96 | 8.01 | 29.16 | 8.29 | 15.84 | 0.74 | 0.93 |\n\n## ⚒️ Training\n### Prepare the Data\nYou can download the SFT data from [HuatuoGPT-sft-data-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFreedomIntelligence\u002FHuatuoGPT-sft-data-v1) or buld your SFT data as the same schema.\n\n### Training\nYou can train the model by:\n```bash\naccelerate launch \\\n\t--config_file scripts\u002Fsft.yaml \\\n\t--num_processes 8 \\\n\t--num_machines 1 \\\n\t--machine_rank 0 \\\n\t--deepspeed_multinode_launcher standard scripts\u002Ffinetune.py \\\n    --experiment_name HuatuoGPT \\\n\t--model_path \u002Fpath\u002Fto\u002Fyour\u002Fmodel \\\n    --gradient_accumulation_steps 8 \\\n    --max_ckpts 3 \\\n    --max_seq_len 2048 \\\n\t--data_dir \u002Fpath\u002Fto\u002Fyour\u002Fdata \\\n\t--output_dir .\u002Fckpts \\\n\t--log_dir .\u002Ftrain_logs \\\n\t--n_epochs 3 \\\n\t--train_bsz_per_gpu 2 \\\n\t--eval_bsz_per_gpu 2 \\\n\t--learning_rate 5e-5 \\\n\t--eval_step -1 \\\n\t--save_step -1 \\\n    --gradient_checkpointing\n```\n\n## 🤖 Limitations\n\nOur goal with HuatuoGPT is to address the need for quick medical consultations, rather than replace doctors or provide full medical support to patients. However, our model does have several limitations that must be taken into consideration:\n\n- Misunderstandings: As with all language models, there is a risk of misunderstandings or misinterpretations, especially when dealing with medical jargon or complex conditions. In this scenario, our models may give wrong answers.\n- Hallucinations: Large language models can sometimes generate responses that do not make sense or are completely unrelated to the given input. These \"hallucinations\" can be especially problematic when users are not familiar with the concepts being discussed, as they may not be able to easily recognize the errors in the model's output. These \"hallucinations\" can be a challenge to detect and avoid.\n- Bias: LLMs are trained on large datasets, which can inadvertently introduce bias into the model's responses. Additionally, care should be taken to ensure that the model is not used to perpetuate biases in medical treatment.\n\n## Acknowledgement\n\nWe are aware that our works are inspired by the following works, including but not limited to\n\n- IDEA-CCNL\u002FZiya-LLaMA-13B-Pretrain-v1: https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-Pretrain-v1\n- Baichuan-7B: https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B\n- LLaMA: https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13971\n- Self-instruct: https:\u002F\u002Fgithub.com\u002Fyizhongw\u002Fself-instruct\n\nWithout these, nothing could happen in this repository.\n\n## Citation\n```angular2\n@article{huatuogpt-2023,\n  title={HuatuoGPT, Towards Taming Language Models To Be a Doctor},\n  author={Hongbo Zhang and Junying Chen and Feng Jiang and Fei Yu and Zhihong Chen and Jianquan Li and Guiming Chen and Xiangbo Wu and Zhiyi Zhang and Qingying Xiao and Xiang Wan and Benyou Wang and Haizhou Li},\n  journal={arXiv preprint arXiv:2305.15075},\n  year={2023}\n}\n```\n\nWe are from the School of Data Science, the Chinese University of Hong Kong, Shenzhen (CUHKSZ) and the Shenzhen Rsearch\nInstitute of Big Data (SRIBD).\n\n## Star History\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#FreedomIntelligence\u002FHuatuoGPT&Date\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png&theme=dark\" \u002F>\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png\" \u002F>\n    \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png\" \u002F>\n  \u003C\u002Fpicture>\n\u003C\u002Fa>\n","# 华佗GPT，迈向驯服语言模型成为医生\n\n## ✨ 最新消息\n- [2023年12月11日]: 🎉🎉🎉 我们的论文已被EMNLP 2023接收！请在此查看[链接](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.725\u002F)。\n- [2023年11月25日]: 我们发布了**[HuatuoGPT-II](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-II)**，在中文医疗应用中达到了新的最先进水平！详情请见[这里](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-II)。\n- [2023年9月26日]: 发布了[HuatuoGPT-reward-model](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-reward-model-7B)。\n- [2023年6月30日]: 在`eval\u002F`文件夹中发布了HuatuoGPT的评估数据。\n- [2023年6月30日]: 发布了[HuatuoGPT-7B](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B)和[HuatuoGPT-13B](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta)的代码及模型权重。\n- [2023年5月25日]: 发布了[技术报告](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15075.pdf)以及HuatuoGPT的[演示](https:\u002F\u002Fwww.huatuogpt.cn\u002F)。\n\n## ⚡ 简介\n欢迎来到HuatuoGPT仓库，这是一个基于海量中文医学语料训练的大规模语言模型（LLM）。我们开发HuatuoGPT的目标是构建一个更专业的“ChatGPT”，用于医疗咨询场景。\n\n以下是已发布的资源列表：\n\n1. HuatuoGPT-SFT-data：一种混合式监督微调数据集，结合了两种优势，使模型兼具医生的专业性和对患者的友好性。\n2. HuatuoGPT模型：包括HuatuoGPT-7B和HuatuoGPT-13B的模型权重，以及在线演示。**HuatuoGPT-7B**基于**Baichuan-7B**训练，而**HuatuoGPT-13B**则基于**Ziya-LLaMA-13B-Pretrain-v1**训练。\n3. 医疗评估基准：一种用于评估LLM在医疗场景中表现的评测方法。\n\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_20e52924f5bf.png\" width = \"640\" alt=\"HuatuoGPT\" align=center\u002F>\n\u003C\u002Fdiv>\n\n\n## 💭 动机\n- 为了解决线上和医院中日益增长的快速医疗咨询需求——这些需求并不一定需要深厚的医学知识。我们相信，像HuatuoGPT这样的LLM可以有效地满足这些需求，从而让医生有更多时间和精力处理更复杂的病例。\n- 为了提供开放的医疗LLM训练数据。构建高质量的指令型训练数据对于LLM至关重要，但同时也颇具挑战性。我们通过多种方法构建了医疗指令数据，并将其公开共享。该数据集可与其他数据集结合使用，以训练属于自己的医疗版“ChatGPT”。\n- 强调在将医疗LLM用于患者医疗服务之前，必须谨慎评估其能力的重要性。我们认识到LLM在医疗领域的潜在益处，但也意识到需要进行彻底的评估和测试，以确保患者安全和诊断准确性。\n\n## 📚 数据\n\n### 概述\n\n为了充分利用来自ChatGPT的提炼数据和来自医生的真实世界数据的优势，我们首先使用四种类型的数据对`HuatuoGPT`进行了微调：\n\n| 类型                          | 规模 | 描述                                                 | 示例                                                     |\n| ------------------------------------ | ----- | ------------------------------------------------------------ | ------------------------------------------------------------ |\n| 来自ChatGPT的提炼指令  | 61,400   | 通过自我指令生成的医疗指令。种子指令由我们手动编写。 | 💬：现在该做什么准备手术前的身体检查？\u003Cbr>👨‍⚕️：在准备手术前的身体检查中，需要进行以下几个步骤：\u003Cbr>&emsp;&emsp;1. 了解病人的病史：了解病人的病史，包括既往病史、手术史、药物过敏史、家族病史等，以便评估手术风险和制定手术方案。\u003Cbr>&emsp;&emsp;2. 进行体格检查：进行全面的体格检查，包括测量身高、体重、血压、心率、呼吸… |\n| 来自医生的真实指令 | 69,768  | 真实场景中的单轮医疗咨询，其中医生的回答更加具体，能够直接回应用户的医疗问题。 | 💬：我有糖尿病血压160-90.该吃什么降压药？空腹血糖8左右。餐后11左右。我有糖尿病血压160-90.该吃什么降压药？\u003Cbr>👨‍⚕️：阅读你的提问描述，综合分析症状，体征，糖尿病，血压160-90.血压略高，空腹血糖8左右。餐后11左右。血糖略高。口服依那普利，二甲双胍片治疗，新近研究，二甲双胍片，可以抑制食欲，促进肠道蠕动，预防癌症，预防心脑血管病，延长寿命作用。 |\n| 来自ChatGPT的提炼对话     | 68,888   | 使用两个ChatGPT模拟患者和医生角色创建的多轮医疗对话。这些对话基于真实的患者病例及其对应的治疗方案。 | 💬：User: 我想问一下大夫，我发烧三天后，第四天全身起了疹子，是怎么回事呢？\u003Cbr>👨‍⚕️：~您好！感谢您的提问。您的症状可能与幼儿急疹相关。幼儿急疹是一种常见的儿童病，病因为人类疱疹病毒6型或7型感染引起。它的症状包括：\u003Cbr> 1. 发热 n2. 全身起红色疹子 \u003Cbr> 3. 口腔内及咽喉部有小水泡\u003Cbr> 4. 病程一般为3-5天左右...\u003Cbr>💬：谢谢大夫！除了幼儿急疹还有其他可能吗？我之前有感冒，这和疹子有关系吗？\u003Cbr>👨‍⚕️：除了幼儿急疹，病毒性感冒和其他病毒感染也有可能引起疹子，但这种情况相对较少见。在您的情况下，感冒可能是一种诱发因素，但主要还是由病毒感染引起的疹子... |\n| 来自医生的真实对话      | 25,986   | 真实场景中的多轮医疗对话。这些对话包含医生的多轮提问以及患者的持续追问。 | 💬：额头下巴下长满痘痘。就是不知道.\u003Cbr>👨‍⚕️：你好，有什么困扰吗？我可以为你提供帮助。请问您平时的饮食习惯、睡眠和护肤习惯怎样？化妆品和防晒霜的使用频率如何？还有洁面的频次是怎样的呢？\u003Cbr>💬：平时我基本上只是用水乳霜，然后洗面奶只用一种。日常防晒只有在夏天时会使用，我一般用悦诗风吟的洗面奶以及AHC的护肤产品，这些都比较温和。\u003Cbr>👨‍⚕️：谢谢您的描述。首先，建议您停用化妆品和普通护肤品，使用特定的药妆品牌，如雅漾和理肤泉的洁面泡沫或洁面乳，并避免使用热水或肥皂清洗面部。建议您外用阿达帕林凝胶涂于面部痤疮，一般夜间使用，涂抹十五分钟之后外用医学护肤品比如雅漾、薇资、理肤泉清爽型的舒缓面霜，或者是维生素e乳膏… |\n\n### 下载\n- [HuatuoGPT-sft-data-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFreedomIntelligence\u002FHuatuoGPT-sft-data-v1): 用于HuatuoGPT监督微调阶段的数据。\n\n  \n\n## 👨‍⚕️ 模型\n\n### 模型访问\n| 模型                | 后端      | 链接                                                                          |\n|----------------------|---------------|-------------------------------------------------------------------------------|\n| HuatuoGPT-13B | Ziya-LLaMA-13B-Pretrain-v1 | [Delta](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta) |\n| HuatuoGPT-7B      | Baichuan-7B | [模型权重](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B)      |\n\n\n请注意，由于HuatuoGPT-13B-delta是基于LLaMA的模型，我们仅发布了权重的增量部分。您可以下载LLaMA-13B的权重，并使用apply_delta.py脚本来进行转换：\n```bash \npython apply_delta.py \\\n--base-model-path $LLaMA_Base_Path \\\n--target-model-path $Save_Path \\\n--delta-path $Delta_Path\n```\n\n### 部署\n\n首先，您需要安装所有必要的软件包：\n```bash\npip install -r requirements.txt\n```\n\n请确保您已下载我们的模型权重，然后运行：\n```bash\npython huatuo_cli_demo_stream.py --model-name $model_dir\n```\n\n\n\n## 🚀 演示\n\n您可以在[https:\u002F\u002Fwww.huatuogpt.cn\u002F](https:\u002F\u002Fwww.huatuogpt.cn\u002F)体验我们的模型。请注意，目前仍在开发中。\n\n\u003C!-- ![demo_1](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_b4b738a956cd.png) -->\n\u003C!-- ![demo_2](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_e4d31b349d62.png) -->\n\n\n\n## 🧐 评估\n\n### GPT-4与医生的评估\n我们邀请GPT-4和医生对华佗GPT（13B版本）及其他大语言模型的回答进行比较。评估数据可在`eval\u002F`文件夹中找到。结果如下：\n\n- 单轮评估\n\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_f50c8d9685e5.png\"  alt=\"eval1\" align=center\u002F>\n\u003C\u002Fdiv>\n\n- 多轮评估\n\u003Cdiv align=center>\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_5ee6e10eb7f4.png\"  alt=\"eval1\" align=center\u002F>\n\u003C\u002Fdiv>\n\n\n### 基准评估\n\n| 数据集   | 模型 | BLEU-1 | BLEU-2 | BLEU-3 | BLEU-4 | GLEU | ROUGE-1 | ROUGE-2 | ROUGE | Distinct-1 | Distinct-2 |\n| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- |\n| cMedQA2 | T5微调版 | 20.88 | 11.87 | 7.69 | 5.09 | 7.62 | 27.16 | 9.30 | 20.11 | 0.41 | 0.52 |\n|  | 华佗GPT | 27.39 | 14.38 | 8.06 | 4.55 | 8.52 | 29.26 | 8.02 | 15.46 | 0.74 | 0.93 |\n| WebMedQA | T5微调版 | 21.42 | 13.79 | 10.06 | 7.38 | 8.94 | 31.00 | 13.85 | 25.78 | 0.37 | 0.46 |\n|  | 华佗GPT | 24.85 | 13.42 | 7.72 | 4.51 | 7.50 | 28.30 | 7.72 | 14.50 | 0.73 | 0.93 |\n| 华佗-26M | T5微调版 | 26.63 | 16.74 | 11.77 | 8.46 | 11.38 | 33.21 | 13.26 | 24.85 | 0.51 | 0.68 |\n|  | 华佗GPT | 27.42 | 14.84 | 8.54 | 4.96 | 8.01 | 29.16 | 8.29 | 15.84 | 0.74 | 0.93 |\n\n## ⚒️ 训练\n### 准备数据\n您可以从[HuatuoGPT-sft-data-v1](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FFreedomIntelligence\u002FHuatuoGPT-sft-data-v1)下载SFT数据，或按照相同的数据格式构建您自己的SFT数据。\n\n### 训练\n您可以通过以下命令训练模型：\n```bash\naccelerate launch \\\n\t--config_file scripts\u002Fsft.yaml \\\n\t--num_processes 8 \\\n\t--num_machines 1 \\\n\t--machine_rank 0 \\\n\t--deepspeed_multinode_launcher standard scripts\u002Ffinetune.py \\\n    --experiment_name HuatuoGPT \\\n\t--model_path \u002Fpath\u002Fto\u002Fyour\u002Fmodel \\\n    --gradient_accumulation_steps 8 \\\n    --max_ckpts 3 \\\n    --max_seq_len 2048 \\\n\t--data_dir \u002Fpath\u002Fto\u002Fyour\u002Fdata \\\n\t--output_dir .\u002Fckpts \\\n\t--log_dir .\u002Ftrain_logs \\\n\t--n_epochs 3 \\\n\t--train_bsz_per_gpu 2 \\\n\t--eval_bsz_per_gpu 2 \\\n\t--learning_rate 5e-5 \\\n\t--eval_step -1 \\\n\t--save_step -1 \\\n    --gradient_checkpointing\n```\n\n## 🤖 局限性\n\n我们开发华佗GPT的目标是满足快速医疗咨询的需求，而非取代医生或为患者提供全面的医疗服务。然而，我们的模型仍存在一些局限性，需要予以重视：\n\n- 理解偏差：与所有语言模型一样，尤其是在处理医学术语或复杂病情时，存在理解偏差或误读的风险。在这种情况下，我们的模型可能会给出错误的答案。\n- 幻觉现象：大型语言模型有时会生成不合逻辑或与输入完全无关的回答。这种“幻觉”现象在用户不熟悉讨论内容时尤为棘手，因为他们可能难以识别模型输出中的错误。这些“幻觉”往往难以被发现和避免。\n- 偏见问题：大语言模型基于大规模数据集进行训练，这可能导致模型响应中无意间引入偏见。此外，还需注意避免利用该模型延续医疗领域的偏见。\n\n## 致谢\n\n我们深知，我们的工作受到以下研究的启发，包括但不限于：\n\n- IDEA-CCNL\u002FZiya-LLaMA-13B-Pretrain-v1: https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-Pretrain-v1\n- 百川-7B: https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B\n- LLaMA: https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.13971\n- Self-instruct: https:\u002F\u002Fgithub.com\u002Fyizhongw\u002Fself-instruct\n\n若没有这些工作，本仓库中的任何成果都不可能实现。\n\n## 引用\n```angular2\n@article{huatuogpt-2023,\n  title={HuatuoGPT, Towards Taming Language Models To Be a Doctor},\n  author={Hongbo Zhang and Junying Chen and Feng Jiang and Fei Yu and Zhihong Chen and Jianquan Li and Guiming Chen and Xiangbo Wu and Zhiyi Zhang and Qingying Xiao and Xiang Wan and Benyou Wang and Haizhou Li},\n  journal={arXiv preprint arXiv:2305.15075},\n  year={2023}\n}\n```\n\n我们来自香港中文大学深圳分校数据科学学院及深圳市大数据研究院。\n\n## 星标历史\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#FreedomIntelligence\u002FHuatuoGPT&Date\">\n  \u003Cpicture>\n    \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png&theme=dark\" \u002F>\n    \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png\" \u002F>\n    \u003Cimg alt=\"星标历史图表\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_readme_51a5c0276a6b.png\" \u002F>\n  \u003C\u002Fpicture>\n\u003C\u002Fa>","# HuatuoGPT 快速上手指南\n\nHuatuoGPT（华佗 GPT）是一个基于大规模中文医疗语料训练的大语言模型，旨在构建专业的医疗咨询助手。本指南将帮助您快速部署并使用 HuatuoGPT-7B 或 HuatuoGPT-13B 模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+)\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 建议使用 NVIDIA GPU (显存需求：7B 模型约需 16GB+，13B 模型约需 24GB+，具体取决于量化方式)\n*   **依赖管理**: pip\n\n**前置依赖安装：**\n克隆仓库后，首先安装项目所需的 Python 包：\n\n```bash\npip install -r requirements.txt\n```\n\n> **提示**：国内用户建议使用国内镜像源加速安装，例如：\n> `pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 安装步骤与模型获取\n\n根据您选择的模型版本（7B 或 13B），获取模型权重的步骤略有不同。\n\n### 方案 A：使用 HuatuoGPT-7B (推荐新手)\n该模型基于 Baichuan-7B，权重文件完整，下载即可使用。\n\n1.  从 Hugging Face 下载模型权重到本地目录（例如 `.\u002FHuatuoGPT-7B`）：\n    *   模型地址：[FreedomIntelligence\u002FHuatuoGPT-7B](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B)\n    *   国内加速：可使用 [ModelScope (魔搭)](https:\u002F\u002Fmodelscope.cn\u002F) 搜索对应模型或使用镜像站下载。\n\n### 方案 B：使用 HuatuoGPT-13B\n该模型基于 LLaMA-13B，受限于许可证，仅发布了权重差值（Delta）。您需要先拥有原始的 LLaMA-13B 权重，然后合并差值。\n\n1.  准备原始的 `LLaMA-13B` 权重路径 (`$LLaMA_Base_Path`)。\n2.  下载 HuatuoGPT-13B 的 Delta 权重 (`$Delta_Path`)：\n    *   地址：[FreedomIntelligence\u002FHuatuoGPT-13b-delta](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta)\n3.  运行脚本合并权重：\n\n```bash\npython apply_delta.py \\\n--base-model-path $LLaMA_Base_Path \\\n--target-model-path $Save_Path \\\n--delta-path $Delta_Path\n```\n*   `$Save_Path`: 您希望保存合并后完整模型的路径。\n\n## 基本使用\n\n模型权重准备就绪后，您可以使用提供的命令行脚本启动交互式对话演示。\n\n**启动命令：**\n\n```bash\npython huatuo_cli_demo_stream.py --model-name $model_dir\n```\n\n*   请将 `$model_dir` 替换为您本地存放模型权重的实际路径（即方案 A 中的下载目录或方案 B 中的 `$Save_Path`）。\n\n**使用示例：**\n运行上述命令后，终端将进入交互模式。您可以直接输入医疗相关问题，例如：\n\n```text\n💬 用户：我最近发烧三天，第四天全身起了疹子，是怎么回事？\n👨‍⚕️ 华佗 GPT：您好！感谢您的提问。您的症状可能与幼儿急疹相关...\n```\n\n> **注意**：本模型旨在辅助快速医疗咨询，不能替代专业医生的诊断。如遇紧急或复杂病情，请务必前往医院就诊。","某三甲医院互联网诊疗中心正面临大量重复性轻症咨询，导致资深医生难以集中精力处理复杂病例。\n\n### 没有 HuatuoGPT 时\n- **响应延迟严重**：患者询问“糖尿病合并高血压该吃什么药”等常见问题时，需排队等待人工回复，平均耗时超过 30 分钟，易引发焦虑。\n- **医生精力分散**：资深医师被迫花费大量时间回答基础科普和常规用药指导，无法专注于疑难杂症的诊断与治疗方案制定。\n- **回答标准不一**：不同医生对同一症状的解释口径存在差异，且繁忙时容易遗漏关键的病史询问（如过敏史、家族史），存在医疗安全隐患。\n- **夜间服务空白**：非工作时段缺乏专业医疗人员值守，患者突发轻微不适时只能盲目搜索网络信息，极易被错误指南误导。\n\n### 使用 HuatuoGPT 后\n- **秒级精准响应**：HuatuoGPT 基于真实医生语料训练，能立即针对“血糖 8.0、血压 160\u002F90\"的具体数值，给出包含病史评估、体格检查建议及用药方向的标准化回复。\n- **释放核心人力**：系统自动拦截并妥善处理 70% 以上的常见咨询，让医生仅复核高风险案例，显著提升了团队处理重症的效率。\n- **诊疗逻辑严谨**：模型内置了类似真人的问诊思维链，主动引导患者补充既往手术史、药物过敏史等关键信息，确保建议的专业性与安全性。\n- **全天候专业值守**：依托 HuatuoGPT-13B 的强大能力，医院实现了 24 小时不间断的高质量医疗咨询服务，填补了夜间专业指导的空白。\n\nHuatuoGPT 通过将通用大语言模型驯化为具备医生思维的专业助手，在保障患者安全的前提下，有效缓解了医疗资源供需矛盾。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FFreedomIntelligence_HuatuoGPT_b4b738a9.png","FreedomIntelligence","Freedom AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FFreedomIntelligence_05188041.png","",null,"https:\u002F\u002Fgithub.com\u002FFreedomIntelligence",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1303,164,"2026-04-02T08:27:33","Apache-2.0","未说明","必需。基于 LLaMA (13B) 和 Baichuan (7B) 架构，运行 HuatuoGPT-13B 建议显存 24GB+ (如 A10\u002FA100\u002FRTX 3090)，运行 HuatuoGPT-7B 建议显存 16GB+。需支持 CUDA 的 NVIDIA GPU。","未说明 (建议系统内存大于模型显存需求，通常 32GB+)",{"notes":95,"python":91,"dependencies":96},"HuatuoGPT-13B 仅发布权重差值 (delta)，需先下载原始 LLaMA-13B 权重并使用 apply_delta.py 合并。训练脚本示例使用了 8 卡环境。具体依赖版本需查看项目中的 requirements.txt 文件。",[97,98,99,100],"torch","transformers","accelerate","deepspeed",[15,37],"2026-03-27T02:49:30.150509","2026-04-06T11:30:51.158448",[105,110,115,120,125,130,135],{"id":106,"question_zh":107,"answer_zh":108,"source_url":109},10715,"如何获取 API Key 或体验模型？","目前该模型是免费访问的，无需特定的 API Key。您可以直接通过项目提供的演示或开源代码进行体验。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F3",{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},10716,"为什么模型没有连续对话效果或回答不匹配预期？","HuatuoGPT 初步具备了类似人类医生的连续问询能力，但并非在所有简单问题（如“我肚子痛”）上都会触发连续追问。它会根据上下文判断是否需要进一步询问，因此表现可能不如预期那样每次都进行多轮交互。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F8",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},10717,"单 GPU 推理 HuatuoGPT 至少需要多少显存？","对于 7B 参数量的模型，全精度推理通常需要约 28GB 显存。如果使用半精度（FP16），显存需求可降至约 14GB。但在实际场景中，由于需要存储模型的中间状态，实际显存占用会更高，建议预留更多显存以避免溢出（例如 24GB 显存的 4090 在某些情况下仍可能失败）。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F7",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},10718,"为什么 Demo 的回答与 README 展示不一致且不够具体？","目前的模型只是一个研究用的 Toy Model（玩具模型），尚未针对具体落地场景用实际数据进行充分训练，因此诊断逻辑未完全对齐，多次生成的结果可能存在差异。现阶段 AI 给出的答案仅能作为参考，不可直接用于医疗决策或购药依据。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F17",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},10719,"人工评估的具体标准和流程是什么？","在多轮对话的人工评估中，项目组使用真实的患者病例让 AI 模拟病人，并由不同模型进行问诊。医生基于专业角度，从诊断准确性、治疗方案合理性及药物处方知识准确性等方面对模型输出进行客观打分，而非仅依赖主观判断或简单的意图分类。相关论文后续会补充更详细的评估说明。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F14",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},10720,"模型权重在哪里下载？为什么本地部署报错或显示乱码？","完整的模型权重此前尚未完全上传，导致本地部署时可能出现乱码或无法加载的情况。目前已开源的模型地址包括：\n- 13b-delta: https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-13b-delta\n- 7b: https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-7B\n请确保下载完整权重后再进行本地部署。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F9",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},10721,"合并 13B 模型权重时出现 'Killed' 错误怎么办？","该错误通常由内存不足引起。有用户反馈在配置较低的服务器上会遇到此问题，成功解决的配置示例为：72 vCPUs、504GiB 内存、2 张 NVIDIA T4 (16G) 显卡。如果您使用的是 40GB A100 却仍报错，请检查系统可用内存（RAM）是否充足，因为合并过程不仅消耗显存，也大量消耗系统内存。","https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT\u002Fissues\u002F28",[]]