[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-CMKRG--QiZhenGPT":3,"tool-CMKRG--QiZhenGPT":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":94,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":116,"updated_at":117,"faqs":118,"releases":119},2431,"CMKRG\u002FQiZhenGPT","QiZhenGPT","QiZhenGPT: An Open Source Chinese Medical Large Language Model｜一个开源的中文医疗大语言模型","QiZhenGPT 是一款专为中文医疗场景打造的开源大语言模型，旨在通过人工智能技术提升医疗服务的效率与准确性。它主要解决了通用大模型在专业医疗领域容易出现的“幻觉”问题，即避免生成看似合理但实际错误的医疗建议，从而为医生、患者及医院管理者提供可靠的知识支持与决策辅助。\n\n这款工具非常适合医疗行业的开发者、研究人员以及希望探索 AI 医疗应用的机构使用。对于普通用户而言，基于 QiZhenGPT 开发的 MedCopilot 智慧医疗助手也已落地浙江大学第二附属医院，能提供病历自动生成、诊疗建议参考及健康报告解读等服务，间接惠及广大患者群体。\n\nQiZhenGPT 的核心亮点在于其高质量的数据构建方式。不同于许多依赖其他模型生成合成数据的项目，QiZhenGPT 严格基于“启真医学知识库”中的真实医患问答、药品说明书及疾病文献构建指令数据集，涵盖了数十万条经过精心清洗和模板化处理的专业数据。这种源自真实临床场景的数据源，显著提升了模型在药品适应症、疾病症状及手术知识等垂直领域的回答准确度。目前，项目已开源基于 Chinese-LLaMA、ChatGLM 和 CaMA 等多个主流基座模型","QiZhenGPT 是一款专为中文医疗场景打造的开源大语言模型，旨在通过人工智能技术提升医疗服务的效率与准确性。它主要解决了通用大模型在专业医疗领域容易出现的“幻觉”问题，即避免生成看似合理但实际错误的医疗建议，从而为医生、患者及医院管理者提供可靠的知识支持与决策辅助。\n\n这款工具非常适合医疗行业的开发者、研究人员以及希望探索 AI 医疗应用的机构使用。对于普通用户而言，基于 QiZhenGPT 开发的 MedCopilot 智慧医疗助手也已落地浙江大学第二附属医院，能提供病历自动生成、诊疗建议参考及健康报告解读等服务，间接惠及广大患者群体。\n\nQiZhenGPT 的核心亮点在于其高质量的数据构建方式。不同于许多依赖其他模型生成合成数据的项目，QiZhenGPT 严格基于“启真医学知识库”中的真实医患问答、药品说明书及疾病文献构建指令数据集，涵盖了数十万条经过精心清洗和模板化处理的专业数据。这种源自真实临床场景的数据源，显著提升了模型在药品适应症、疾病症状及手术知识等垂直领域的回答准确度。目前，项目已开源基于 Chinese-LLaMA、ChatGLM 和 CaMA 等多个主流基座模型的微调版本及训练数据，为社区提供了透明、可复现的医疗 AI 研究基础，是推动医疗智能化发展的有力工具。","# 启真医学大模型 & MedCopilot\n\n## QiZhenGPT\n\nQiZhenGPT: An Open Source Chinese Medical Large Language Model\n\n\n本项目利用[启真医学知识库](http:\u002F\u002Fwww.mk-base.com)构建的中文医学指令数据集，并基于此在[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)、[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)、[ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)模型上进行指令精调，大幅提高了模型在中文医疗场景下效果，首先针对药品知识问答发布了评测数据集，后续计划优化疾病、手术、检验等方面的问答效果，并针对医患问答、病历自动生成等应用展开拓展。\n\n## MedCopilot\n\n`MedCopilot`是一款基于`启真医学大模型`、[启真医学知识库](http:\u002F\u002Fwww.mk-base.com)、`医疗临床数据`研发的智慧医疗助手，旨在为患者、医生和医院管理提供全面的智慧支持。通过整合先进的人工智能技术、丰富的医学知识和临床数据，MedCopilot将成为医疗行业的新质生产力。\n\nMedCopilot目前已在[浙江大学第二附属医院正式上线使用](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FPm519Et1POgoerkcdC2YRQ)。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_4e63e3a4c87e.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 53%;\" \u002F>\n\n## 更新记录\n\n### 更新\n\n[2024\u002F08\u002F09] 更新MedCopilot相关信息;\n\n[2023\u002F06\u002F27] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-12400），旨在提高医学领域疾病、药品知识问答的准确性;\n\n[2023\u002F06\u002F09] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-6000），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F06\u002F02] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-3600），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F05\u002F30] 开源[20k](.\u002Fdata\u002Ftrain\u002Fsft-20k.json)训练数据（该数据集来自于启真医学知识库收集整理的真实医患知识问答数据以及在启真医学知识库的药品文本知识基础上，通过对半结构化数据设置特定的问题模板构造的指令数据）；\n\n[2023\u002F05\u002F30] 开源启真医学大模型体验版（QiZhen-ChatGLM-6B- Checkpoint-2500），旨在提高医学领域药品知识问答的准确性；\n\n[2023\u002F05\u002F25] 开源[药品适应症评测数据集](.\u002Fdata\u002Feval\u002F%E8%8D%AF%E5%93%81%E9%80%82%E5%BA%94%E7%97%87%E8%AF%84%E6%B5%8B%E6%95%B0%E6%8D%AE%E9%9B%86.csv);\n\n[2023\u002F05\u002F24] 开源启真医学大模型体验版（QiZhen-Chinese-LLaMA-7B- Checkpoint-6000），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F05\u002F23] 开源启真医学大模型体验版（QiZhen-Chinese-LLaMA-7B- Checkpoint-3500），旨在提高医学领域药品知识问答的准确性；\n\n## MedCopilot功能细节\n\n### 1. 功能清单助手\n\nMedCopilot与 HIS系统和电子病历系统深度融合，利用启真医学大模型分析各个系统数据，自动汇总医生当日重要的工作事项。\n\n1. 入院患者统计与分析；\n2. 手术情况统计与分析；\n3. 会诊情况统计与分析；\n4. 文书书写情况统计与分析；\n5. 重点患者统计与分析；\n\n### 2. 辅助诊疗助手\n\nMedCopilot结合启真医学知识库和患者临床数据，提供个性化诊断和治疗建议，帮助医生做出更准确的医疗决策。\n\n### 3. 医疗质量助手\n\nMedCopilot依据国家医疗质量政策，实时监控医疗过程数据，及时发现和纠正潜在问题，提升整体医疗质量。\n\n### 4. 病历文书助手\n\nMedCopilot综合分析患者诊疗数据，自动生成符合规范的病历文书，减少医生的重复性工作，提高工作效率。\n\n### 5. 其他功能\n\n1. 科研助手：论文解读\n2. 健康助手：报告解读、慢病管理\n\n## QizhenGPT细节\n\n### 指令数据集构建\n\n目前大多数开源的ChatLLM项目使用的是其他模型（如：ChatGPT）生成的指令数据，其不可避免的存在数据幻想的问题，数据幻想问题将严重影响LLM在实际场景中的应用和拓展。因此，本项目为了提高医疗领域的知识问答的准确性，使用如下方式构造指令数据集：\n\n1. 启真医学知识库收录的真实医患知识问答数据（疾病、药品、检查检验、手术、预后、食物等），共计`560K`条指令数据；\n2. 药品知识数据：在启真医学知识库的药品文本知识基础上，通过对半结构化数据设置特定的问题模板（如：“{药品}的适应病症是什么？”）构造指令数据集，共计`180K`条指令数据；\n3. 疾病知识数据：在启真医学知识库的疾病文本知识基础上，通过对半结构化数据设置特定的问题模板（如：“{疾病}的典型症状是什么？”）构造指令数据集，共计`298K`条指令数据；\n\n### 训练细节\n\n1. QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本项目基于[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`3500 steps`（训练23h50min）\t；\n2. QiZhen-Chinese-LLaMA-7B- Checkpoint-6000：本项目基于[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`6000 steps`（训练40h56min）；\n3. QiZhen-ChatGLM-6B- Checkpoint-2500：本项目基于[ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`2500 steps`（训练16h20min）；\n4. QiZhen-CaMA-13B-Checkpoint-3600：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`3600 steps`（训练37h37min）。\n5. QiZhen-CaMA-13B-Checkpoint-6000：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`6000 steps`（训练54h30min）。\n6. QiZhen-CaMA-13B-Checkpoint-12400：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在6张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`12400 steps`（训练114h46min）。\n\n### 模型下载\n\n|                   模型                   | 指令数据集 |      Base Model       |                           LoRA下载                           |\n| :--------------------------------------: | :--------: | :-------------------: | :----------------------------------------------------------: |\n| QiZhen-Chinese-LLaMA-7B- Checkpoint-3500 |    740K    | Chinese-LLaMA-Plus-7B | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n| QiZhen-Chinese-LLaMA-7B- Checkpoint-6000 |    740K    | Chinese-LLaMA-Plus-7B | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|    QiZhen-ChatGLM-6B- Checkpoint-2500    |    740K    |      ChatGLM-6B       | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-3600      |    740K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-6000      |    740K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-12400     |   1038K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n\n### A Quick Start\n\n#### QiZhen-Chinese-LLaMA-7B\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取Chinese-LLaMA-Plus-7B，详情见[这里](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\u002Fwiki\u002F%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2)；\n\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 执行scripts\u002Fmerge_llama_plus.sh 脚本；\n\n```\nsh scripts\u002Fmerge_llama_plus.sh\n```\n\n5. 修改`gradio_chinese-llama_demo.py`里的模型位置参数；\n5. 启动demo；\n\n```\npython gradio_chinese-llama_demo.py\n```\n\n#### QiZhen-ChatGLM-6B\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取ChatGLM-6B，详情见[这里](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)；\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 修改`gradio_chatglm_demo.py`里的模型位置参数；\n\n5. 启动demo；\n\n```\npython gradio_chatglm_demo.py\n```\n\n#### QiZhen-CaMA-13B-Checkpoint-3600\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取CaMA，详情见[这里](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA#2-1)；\n\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 修改`gradio_cama_demo.py`里的模型位置参数；\n\n5. 启动demo；\n```\npython gradio_cama_demo.py\n```\n\n### 预研\n\n启真医学大模型坚持“数据+知识双轮驱动”的技术路线，通过大模型技术和医学知识库的紧密结合，融合医疗应用场景中的实际需求，从医学数据治理、医学推理、医患问答、病历自动生成、临床决策辅助支持系统等方面开展迭代研发，助力大模型技术在医疗行业的落地和应用实践。下图是“启真医学知识库辅助大模型生成答案”的案例，该项技术在测试后择机发布。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_21e66cb545d6.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 33%;\" \u002F>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_63257a70ff9d.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 33%;\" \u002F>\n\n### 模型效果对比\n\n#### 测试1\n\n- input：非布司他能治疗什么疾病\n- ChatGLM：非布司他是一种用于治疗哮喘的新药,属于β2受体激动剂。它已经被批准用于治疗以下疾病:  1. 哮喘:非布司他是一种β2受体激动剂,可以刺激β2受体,从而缓解哮喘症状,包括呼吸困难、气促和胸闷。  2. 慢阻肺:非布司他也可以用于缓解慢阻肺引起的症状,包括呼吸急促、气促和咳嗽。  3. 过敏性鼻炎:非布司他可以减轻过敏性鼻炎引起的症状,包括鼻塞、流涕和打喷嚏。  4. 其他疾病:非布司他也被用于治疗其他疾病,如胡萝卜素血症和皮肤划痕症等。  需要注意的是,非布司他是一种药物,其治疗效果和安全性因人而异,最好在医生的指导下使用。\n- ChatGPT：非布司他（Fubuxitam）是一种药物，目前我的知识截至于2021年，不包括最新的医学研究和药物进展。根据我了解到的信息，非布司他是一种血小板凝集抑制剂，通常用于预防和治疗血栓性疾病。它可用于预防心脏病、脑血管疾病（例如中风）、静脉血栓栓塞（例如深静脉血栓形成和肺栓塞）以及其他与血栓形成有关的情况。\u003Cbr\u002F>\u003Cbr\u002F>然而，由于我无法提供最新的医学信息，我建议您咨询医疗专业人士或药剂师以获取关于非布司他的最新信息，并确切了解它在治疗特定疾病方面的适应症和有效性。\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本品用于痛风患者高尿酸血症的长期治疗。\u003Cbr \u002F>本品为处方药，必须由医生根据病情开处方拿药，并遵医嘱用药，包括用法、用量、用药时间等。不得擅自按照药物说明书自行用药。\n- QiZhen-CaMA-13B-Checkpoint-3600：本品用于痛风患者高尿酸血症的长期治疗。\n\n#### 测试2\n\n- Input：氟奋乃静癸酸酯注射液的适应症\n\n- ChatGLM：氟奋乃静癸酸酯注射液是一种药物,适应症如下:  1. 用于治疗抑郁症、焦虑症和失眠等神经精神症状; 2. 用于治疗癫痫、脑外伤和脑动脉硬化等神经系统疾病; 3. 用于缓解慢性疼痛,如痛经、关节炎等疼痛性疾病; 4. 用于改善学习能力和记忆能力,可用于儿童和青少年的智力开发和改善学习效果; 5. 用于预防艾滋病病毒感染和治疗艾滋病。  氟奋乃静癸酸酯注射液是一种口服用药,通常用于治疗抑郁症、焦虑症和失眠等疾病。需要根据医生的建议来制定治疗方案。使用氟奋乃静癸酸酯注射液时,应遵循医生的建议和药品说明书中的用药方法和剂量。\n\n- ChatGPT：氟奋乃静癸酸酯注射液（Flumazenil Injection）是一种用于治疗苯二氮䓬类药物（如安定类药物）过量或过度使用所引起的镇静或催眠状态的药物。它作为一种苯二氮䓬类受体拮抗剂，能够逆转苯二氮䓬类药物的中枢神经系统抑制作用。\u003C氟奋乃静癸酸酯注射液主要用于以下适应症：\u003Cbr\u002F>\u003Cbr\u002F>1. 苯二氮䓬类药物过量：当患者因安定类药物过量或过度使用而出现昏迷、嗜睡、呼吸抑制等症状时，氟奋乃静癸酸酯注射液可用于逆转这些症状。\u003Cbr\u002F>\u003Cbr\u002F>2. 麻醉中逆转：氟奋乃静癸酸酯注射液可用于在手术或其他麻醉操作结束后逆转苯二氮䓬类药物的镇静效果，帮助患者恢复清醒状态。\u003Cbr\u002F>\u003Cbr\u002F>3. 诊断用途：氟奋乃静癸酸酯注射液还可用于辅助诊断苯二氮䓬类药物中毒或过量情况。\u003Cbr\u002F>\u003Cbr\u002F>请注意，氟奋乃静癸酸酯注射液应由专业医生根据具体情况进行合理的使用和监控。在使用该药物之前，应仔细阅读并遵循药物说明书，并遵循医生的指导和建议。\n\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本品用于精神分裂症、躁狂症等。 也可用于肌紧张性疼痛。\n\n- QiZhen-CaMA-13B-Checkpoint-3600：本品用于精神分裂症的各种表现。\n\n#### 测试3\n\n- input：藏青果茶有哪些主要作用？\n\n- ChatGLM：藏青果茶是一种天然的饮品,主要由青果、茶叶、蜂蜜等多种材料制成。它的主要作用包括:  1. 提高免疫力:藏青果茶中含有丰富的营养成分,如维生素C、维生素E等,可以增强人体的免疫力,提高身体的抵抗力,预防疾病的发生。  2. 促进消化:藏青果茶中含有丰富的纤维素,可以促进肠胃蠕动,帮助消化,预防便秘的发生。  3. 抗氧化作用:藏青果茶中的青果提取物具有较强的抗氧化作用,可以清除体内自由基,延缓衰老,预防疾病。  4. 降低血脂:藏青果茶中的茶叶提取物具有一定的降低血脂的作用,可以预防和治疗高血脂症。  5. 改善睡眠:藏青果茶中的蜂蜜具有一定的镇静作用,可以帮助缓解压力,改善睡眠质量,提高身体的自我修复能力。\n\n- ChatGPT：藏青果茶是一种以藏青果为主要原料制作的茶饮品，据我所知，它具有以下主要作用：\u003Cbr\u002F>\u003Cbr\u002F>1. 抗氧化作用：藏青果富含多种天然抗氧化剂，如多酚类化合物和维生素C，可帮助清除体内自由基，减缓细胞老化，增强免疫力。\u003Cbr\u002F>\u003Cbr\u002F>2. 促进消化：藏青果茶具有良好的消化刺激作用，有助于促进胃肠道蠕动，改善消化功能，缓解胃部不适和消化不良。\u003Cbr\u002F>\u003Cbr\u002F>3. 提供营养：藏青果富含维生素C、维生素E、维生素B群、矿物质等营养物质，饮用藏青果茶可以为身体提供所需的营养元素。\u003Cbr\u002F>\u003Cbr\u002F>4. 减肥瘦身：藏青果茶被认为具有减肥的效果，它可以促进新陈代谢，加速脂肪分解和燃烧，帮助减少体重和脂肪积累。\u003Cbr\u002F>\u003Cbr\u002F>5. 抗炎镇痛：藏青果茶含有一些具有抗炎和镇痛作用的成分，可以缓解关节疼痛、肌肉酸痛和头痛等不适。\u003Cbr\u002F>\u003Cbr\u002F>6. 改善睡眠：藏青果茶有助于放松神经系统，具有镇静和安抚作用，可以改善睡眠质量，缓解失眠问题。\u003Cbr\u002F>\u003Cbr\u002F>需要注意的是，以上作用主要是基于藏青果茶的传统用途和某些研究结果，具体效果因人而异，且可能受到个体差异和使用方式的影响。如果您有特定的健康问题或需要服用药物，建议咨询医生或专业保健人员的建议。\n\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：清热解毒、生津止渴。 可缓解发热、口渴、咽喉肿痛等症状。\n\n- QiZhen-CaMA-13B-Checkpoint-3600：藏青果茶具有清热利咽、消肿止痛的功效。\n\n  藏青果茶可以用于缓解咽喉红肿疼痛、咽干灼热、声音嘶哑等症状。\n\n#### 测试4\n\n- input：赖特综合征临床表现有哪些？\n\n- ChatGLM：赖特综合征(赖特综合征I型)是一种先天性心脏杂音,其临床表现包括:\n\n  1. 心脏杂音:赖特综合征I型的特征性心脏杂音是卵圆孔未闭引起的右向左分流杂音,通常表现为杂音强度、位置和频率的变异性。\n\n  2. 肺动脉高压:赖特综合征I型患者通常患有肺动脉高压,这可能导致呼吸衰竭和心脏功能衰竭。\n\n  3. 生长发育异常:大多数赖特综合征I型患者在儿童和青少年时期会表现出生长发育异常,如身材矮小、营养不良和巨人症。\n\n  4. 心脏结构异常:尽管杂音是赖特综合征I型的主要临床表现,但部分患者也可能患有其他心脏结构异常,如心脏瓣膜疾病和心律失常。\n\n  5. 其他症状:赖特综合征I型患者可能还具有其他症状,如疲劳、呼吸困难、胸痛、咳嗽、腹胀和便秘等。这些症状可能与其心脏杂音和肺动脉高压有关,但也可能与其他因素有关。\n\n     需要注意的是,赖特综合征I型是一种罕见的疾病,其临床表现可能因个体差异而有所不同。如果怀疑自己患有赖特综合征I型,请及时咨询医生进行诊断和治疗。\n\n- ChatGPT：赖特综合征是指胃食管反流病（GERD）引起的下食管括约肌失弛缓和食管蠕动减弱所导致的一种疾病。它的主要临床表现包括：\n\n  1. 吞咽困难：患者在吞咽时有被卡住的感觉，需要多次咽喉才能将食物吞咽下去。\n\n  2. 胸痛：赖特综合征的患者常常出现胸痛，特别是在吃饭或者躺下之后容易加重。\n\n  3. 嗳气和反酸：患者常感到嗳气和反酸，特别是在吃完饭或者躺下之后。\n\n  4. 声音嘶哑：由于口腔和喉咙区域受到反流物的刺激，患者的声音可能变得嘶哑。\n\n  5. 喉咙痛：反流物刺激喉咙黏膜所致。\n\n     需要注意的是，赖特综合征的症状与其他疾病相似，因此需要通过相关检查和诊断方法确定诊断。\n\n- QiZhen-CaMA-13B-Checkpoint-12400：赖特综合征的主要临床表现为急性或慢性关节炎、尿道炎、结膜炎及皮肤黏膜病变等。\n\n  赖特综合征是一种病因不明的慢性非特异性炎症性疾病，属于血清阴性脊柱关节炎的一种，其特征是反复发作性、游走性、不对称性的多关节炎，可伴有尿道炎、结膜炎、皮肤黏膜及眼部病变。\n\n  赖特综合征的主要临床表现为急性或慢性关节炎、尿道炎、结膜炎及皮肤黏膜病变等。\n\n  1.关节炎：最常见，任何关节均可受累，以膝、踝和足部小关节多见，局部可有红、肿、热、痛和功能障碍。\n  \n  2.尿道炎：表现为尿频、尿急、尿痛、尿道口红肿、尿道分泌物增多等。\n  \n  3.结膜炎：表现为单侧或双侧结膜炎症，可有结膜充血、水肿、眼睑浮肿、分泌物增多等。\n  \n  4.皮肤黏膜病变：表现为皮肤脂溢性红斑、生殖器红斑、脓疱疹、皮肤脓疱疹、皮肤溃疡。\n\n### 实验评测\n\n#### 药品适应症评测\n\n评测标准：随机选择`94`种药品数据，按照“{药品}的适应病症”组成指令，分别让ChatGPT（gpt3.5）、ChatGLM、QiZhe做出回答，然后请专业的医学人员对三个`模型的答案`与`该药品的药品说明书`进行比对评分，以下是三个评分标准：\n\n- 标准1：模型答案命中一个适应症则回答正确；\n\n- 标准2：模型答案命中的适应症数目大于等于药品说明书适应症数目的1\u002F2则回答正确；\n\n- 标准3：模型答案命中的适应症数目大于等于药品说明书适应症数目的2\u002F3则回答正确；\n\n|                  模型                   |   标准1    |   标准2    |   标准3    |\n| :-------------------------------------: | :--------: | :--------: | :--------: |\n|                 ChatGLM                 |   39.36%   |   23.16%   |   14.74%   |\n|                 ChatGPT                 |   47.87%   |   30.85%   |   15.96%   |\n| QiZhen-Chinese-LLaMA-7B-Checkpoint-3500 |   77.66%   |   55.32%   |   40.00%   |\n| QiZhen-Chinese-LLaMA-7B-Checkpoint-6000 |   90.43%   |   73.40%   |   65.96%   |\n|     QiZhen-CaMA-13B-Checkpoint-3600     |   82.29%   |   60.62%   |   47.92%   |\n|     QiZhen-CaMA-13B-Checkpoint-6000     |   90.43%   |   80.85%   | **72.34%** |\n|  **QiZhen-CaMA-13B-Checkpoint-12400**   | **91.49%** | **82.98%** | **72.34%** |\n\n**备注：**\n\n- 若QiZhen-Chinese-LLaMA-7B-Checkpoint-6000：回复有“复读现象”（我们正在持续修复这个问题），请将`repetition_penalty`参数调大；\n- QiZhen-ChatGLM-6B-Checkpoint-2500没有进行评测，因为我们在实验过程中发现ChatGLM在指令微调的过程中不能很好的满足医疗知识事实问答的要求：当要求其回复比较精准时，模型“复读”的现象比较严重；在解决“复读”的问题时，其回答的事实性很差（数据幻想严重）；\n- QiZhen-CaMA-13B-Checkpoint-3600：该版本回复内容基本没有“复读”现象；\n- QiZhen-CaMA-13B-Checkpoint-6000：相较于`QiZhen-CaMA-13B-Checkpoint-3600`我们增大了LoRA的参数量，效果得到了有效的提升；\n- 更详细的评测细节和数据后续会开源。\n\n#### 疾病评测\n\n评测标准：随机选择`100`种疾病数据，按照“哪些药物能治疗{疾病}？”、“{疾病}需要做哪些检查？”、“{疾病}的临床表现有哪些？”组成“治疗药物”、“检查检验”、“临床表现”指令，分别让ChatGPT（gpt3.5）、ChatGLM、QiZhen0做出回答，然后请专业的医学人员对三个`模型的答案`与`启真医学知识库疾病知识`进行比对评分，以下是三个评分标准：\n\n- 标准1：模型答案命中一个“治疗药物”（“检查检验”、“临床表现”）则回答正确；\n\n- 标准2：模型答案命中的“治疗药物”（“检查检验”、“临床表现”）数目大于等于药品说明书适应症数目的1\u002F2则回答正确；\n\n- 标准3：模型答案命中的“治疗药物”（“检查检验”、“临床表现”）数目大于等于药品说明书适应症数目的2\u002F3则回答正确；\n\n|                 模型                 | 临床表现标准1 | 临床表现标准2 | 临床表现标准3 | 检查检验标准1 | 检查检验标准2 | 检查检验标准3 | 治疗药物标准1 | 治疗药物标准2 | 治疗药物标准3 |\n| :----------------------------------: | :-----------: | :-----------: | :-----------: | ------------- | ------------- | ------------- | ------------- | ------------- | ------------- |\n|               chatglm                |    90.00%     |     6.00%     |     3.00%     | 93.00%        | 11.00%        | 6.00%         | 60.00%        | 10.00%        | 5.00%         |\n|               chatgpt                |    94.00%     |    11.00%     |     4.00%     | **97.00%**    | 8.00%         | 5.00%         | 62.00%        | 11.00%        | 4.00%         |\n| **QiZhen-CaMA-13B-Checkpoint-12400** |  **95.00%**   |  **15.00%**   |   **7.00%**   | **97.00%**    | **20.00%**    | **7.00%**     | **75.00%**    | **36.00%**    | **23.00%**    |\n\n\n\n\n## 致谢\n\n此外，本项目基于以下开源项目二次开发，在此对相关项目和研究开发人员表示感谢。\n\n- [LLaMA](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)\n- [Standford Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)\n- [CaMA](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)\n- [中文LLaMA & Alpaca大模型](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)\n\n\n\n## License及免责声明\n\n### License\n\n详见[LICENSE](.\u002FLICENSE)\n\n### 免责声明\n\n**本项目相关资源仅供学术研究之用，严禁用于商业用途。** 使用涉及第三方代码的部分时，请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响，本项目不对其准确性作出保证。对于模型输出的任何内容，本项目不承担任何法律责任，亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。\n\n\n\n## 引用说明\n\n\nTechnical paper is coming soon.\n","# 启真医学大模型 & MedCopilot\n\n## QiZhenGPT\n\nQiZhenGPT：一款开源的中文医学大型语言模型\n\n\n本项目利用[启真医学知识库](http:\u002F\u002Fwww.mk-base.com)构建的中文医学指令数据集，并基于此在[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)、[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)、[ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)模型上进行指令精调，大幅提高了模型在中文医疗场景下效果，首先针对药品知识问答发布了评测数据集，后续计划优化疾病、手术、检验等方面的问答效果，并针对医患问答、病历自动生成等应用展开拓展。\n\n## MedCopilot\n\n`MedCopilot`是一款基于`启真医学大模型`、[启真医学知识库](http:\u002F\u002Fwww.mk-base.com)、`医疗临床数据`研发的智慧医疗助手，旨在为患者、医生和医院管理提供全面的智慧支持。通过整合先进的人工智能技术、丰富的医学知识和临床数据，MedCopilot将成为医疗行业的新质生产力。\n\nMedCopilot目前已在[浙江大学第二附属医院正式上线使用](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FPm519Et1POgoerkcdC2YRQ)。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_4e63e3a4c87e.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 53%;\" \u002F>\n\n## 更新记录\n\n### 更新\n\n[2024\u002F08\u002F09] 更新MedCopilot相关信息;\n\n[2023\u002F06\u002F27] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-12400），旨在提高医学领域疾病、药品知识问答的准确性;\n\n[2023\u002F06\u002F09] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-6000），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F06\u002F02] 开源启真医学大模型体验版（QiZhen-CaMA-13B-Checkpoint-3600），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F05\u002F30] 开源[20k](.\u002Fdata\u002Ftrain\u002Fsft-20k.json)训练数据（该数据集来自于启真医学知识库收集整理的真实医患知识问答数据以及在启真医学知识库的药品文本知识基础上，通过对半结构化数据设置特定的问题模板构造的指令数据）；\n\n[2023\u002F05\u002F30] 开源启真医学大模型体验版（QiZhen-ChatGLM-6B- Checkpoint-2500），旨在提高医学领域药品知识问答的准确性；\n\n[2023\u002F05\u002F25] 开源[药品适应症评测数据集](.\u002Fdata\u002Feval\u002F%E8%8D%AF%E5%93%81%E9%80%82%E5%BA%94%E7%97%87%E8%AF%84%E6%B5%8B%E6%95%B0%E6%8D%AE%E9%9B%86.csv);\n\n[2023\u002F05\u002F24] 开源启真医学大模型体验版（QiZhen-Chinese-LLaMA-7B- Checkpoint-6000），旨在提高医学领域药品知识问答的准确性;\n\n[2023\u002F05\u002F23] 开源启真医学大模型体验版（QiZhen-Chinese-LLaMA-7B- Checkpoint-3500），旨在提高医学领域药品知识问答的准确性；\n\n## MedCopilot功能细节\n\n### 1. 功能清单助手\n\nMedCopilot与 HIS系统和电子病历系统深度融合，利用启真医学大模型分析各个系统数据，自动汇总医生当日重要的工作事项。\n\n1. 入院患者统计与分析；\n2. 手术情况统计与分析；\n3. 会诊情况统计与分析；\n4. 文书书写情况统计与分析；\n5. 重点患者统计与分析；\n\n### 2. 辅助诊疗助手\n\nMedCopilot结合启真医学知识库和患者临床数据，提供个性化诊断和治疗建议，帮助医生做出更准确的医疗决策。\n\n### 3. 医疗质量助手\n\nMedCopilot依据国家医疗质量政策，实时监控医疗过程数据，及时发现和纠正潜在问题，提升整体医疗质量。\n\n### 4. 病历文书助手\n\nMedCopilot综合分析患者诊疗数据，自动生成符合规范的病历文书，减少医生的重复性工作，提高工作效率。\n\n### 5. 其他功能\n\n1. 科研助手：论文解读\n2. 健康助手：报告解读、慢病管理\n\n## QizhenGPT细节\n\n### 指令数据集构建\n\n目前大多数开源的ChatLLM项目使用的是其他模型（如：ChatGPT）生成的指令数据，其不可避免的存在数据幻想的问题，数据幻想问题将严重影响LLM在实际场景中的应用和拓展。因此，本项目为了提高医疗领域的知识问答的准确性，使用如下方式构造指令数据集：\n\n1. 启真医学知识库收录的真实医患知识问答数据（疾病、药品、检查检验、手术、预后、食物等），共计`560K`条指令数据；\n2. 药品知识数据：在启真医学知识库的药品文本知识基础上，通过对半结构化数据设置特定的问题模板（如：“{药品}的适应病症是什么？”）构造指令数据集，共计`180K`条指令数据；\n3. 疾病知识数据：在启真医学知识库的疾病文本知识基础上，通过对半结构化数据设置特定的问题模板（如：“{疾病}的典型症状是什么？”）构造指令数据集，共计`298K`条指令数据；\n\n### 训练细节\n\n1. QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本项目基于[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`3500 steps`（训练23h50min）\t；\n2. QiZhen-Chinese-LLaMA-7B- Checkpoint-6000：本项目基于[Chinese-LLaMA-Plus-7B](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`6000 steps`（训练40h56min）；\n3. QiZhen-ChatGLM-6B- Checkpoint-2500：本项目基于[ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`2500 steps`（训练16h20min）；\n4. QiZhen-CaMA-13B-Checkpoint-3600：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`3600 steps`（训练37h37min）。\n5. QiZhen-CaMA-13B-Checkpoint-6000：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在7张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`6000 steps`（训练54h30min）。\n6. QiZhen-CaMA-13B-Checkpoint-12400：本项目基于[CaMA-13B](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)进行指令微调，该项目在6张A800(80G)上进行训练，本次开源的是LoRA权重为训练过程中的第`12400 steps`（训练114h46min）。\n\n### 模型下载\n\n|                   模型                   | 指令数据集 |      Base Model       |                           LoRA下载                           |\n| :--------------------------------------: | :--------: | :-------------------: | :----------------------------------------------------------: |\n| QiZhen-Chinese-LLaMA-7B- Checkpoint-3500 |    740K    | Chinese-LLaMA-Plus-7B | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n| QiZhen-Chinese-LLaMA-7B- Checkpoint-6000 |    740K    | Chinese-LLaMA-Plus-7B | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|    QiZhen-ChatGLM-6B- Checkpoint-2500    |    740K    |      ChatGLM-6B       | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-3600      |    740K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-6000      |    740K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n|     QiZhen-CaMA-13B-Checkpoint-12400     |   1038K    |         CaMA          | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) |\n\n### A Quick Start\n\n#### QiZhen-Chinese-LLaMA-7B\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取Chinese-LLaMA-Plus-7B，详情见[这里](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\u002Fwiki\u002F%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2)；\n\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 执行scripts\u002Fmerge_llama_plus.sh 脚本；\n\n```\nsh scripts\u002Fmerge_llama_plus.sh\n```\n\n5. 修改`gradio_chinese-llama_demo.py`里的模型位置参数；\n5. 启动demo；\n\n```\npython gradio_chinese-llama_demo.py\n```\n\n#### QiZhen-ChatGLM-6B\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取ChatGLM-6B，详情见[这里](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)；\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 修改`gradio_chatglm_demo.py`里的模型位置参数；\n\n5. 启动demo；\n\n```\npython gradio_chatglm_demo.py\n```\n\n#### QiZhen-CaMA-13B-Checkpoint-3600\n\n1. 环境安装；\n\n```bash\npip install -r requirements.txt\n```\n\n2. 获取CaMA，详情见[这里](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA#2-1)；\n\n3. 下载LoRA，将模型下载并放在lora目录下；\n\n4. 修改`gradio_cama_demo.py`里的模型位置参数；\n\n5. 启动demo；\n```\npython gradio_cama_demo.py\n```\n\n### 预研\n\n启真医学大模型坚持“数据+知识双轮驱动”的技术路线，通过大模型技术和医学知识库的紧密结合，融合医疗应用场景中的实际需求，从医学数据治理、医学推理、医患问答、病历自动生成、临床决策辅助支持系统等方面开展迭代研发，助力大模型技术在医疗行业的落地和应用实践。下图是“启真医学知识库辅助大模型生成答案”的案例，该项技术在测试后择机发布。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_21e66cb545d6.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 33%;\" \u002F>\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_readme_63257a70ff9d.jpg\" alt=\"image-20230525165523821\" style=\"zoom: 33%;\" \u002F>\n\n### 模型效果对比\n\n#### 测试1\n\n- 输入：非布司他能治疗什么疾病\n- ChatGLM：非布司他是一个用于治疗哮喘的新药,属于β2受体激动剂。它已经被批准用于治疗以下疾病:  1. 哮喘:非布司他是一种β2受体激动剂,可以刺激β2受体,从而缓解哮喘症状,包括呼吸困难、气促和胸闷。  2. 慢阻肺:非布司他也可以用于缓解慢阻肺引起的症状,包括呼吸急促、气促和咳嗽。  3. 过敏性鼻炎:非布司他可以减轻过敏性鼻炎引起的症状,包括鼻塞、流涕和打喷嚏。  4. 其他疾病:非布司他也被用于治疗其他疾病,如胡萝卜素血症和皮肤划痕症等。  需要注意的是,非布司他是一个药物,其治疗效果和安全性因人而异,最好在医生的指导下使用。\n- ChatGPT：非布司他（Fubuxitam）是一种药物，目前我的知识截至于2021年，不包括最新的医学研究和药物进展。根据我了解到的信息，非布司他是一个血小板凝集抑制剂，通常用于预防和治疗血栓性疾病。它可用于预防心脏病、脑血管疾病（例如中风）、静脉血栓栓塞（例如深静脉血栓形成和肺栓塞）以及其他与血栓形成有关的情况。\u003Cbr\u002F>\u003Cbr\u002F>然而，由于我无法提供最新的医学信息，我建议您咨询医疗专业人士或药剂师以获取关于非布司他的最新信息，并确切了解它在治疗特定疾病方面的适应症和有效性。\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本品用于痛风患者高尿酸血症的长期治疗。\u003Cbr \u002F>本品为处方药，必须由医生根据病情开处方拿药，并遵医嘱用药，包括用法、用量、用药时间等。不得擅自按照药物说明书自行用药。\n- QiZhen-CaMA-13B-Checkpoint-3600：本品用于痛风患者高尿酸血症的长期治疗。\n\n#### 测试2\n\n- 输入：氟奋乃静癸酸酯注射液的适应症\n\n- ChatGLM：氟奋乃静癸酸酯注射液是一种药物,适应症如下:  1. 用于治疗抑郁症、焦虑症和失眠等神经精神症状; 2. 用于治疗癫痫、脑外伤和脑动脉硬化等神经系统疾病; 3. 用于缓解慢性疼痛,如痛经、关节炎等疼痛性疾病; 4. 用于改善学习能力和记忆能力,可用于儿童和青少年的智力开发和改善学习效果; 5. 用于预防艾滋病病毒感染和治疗艾滋病。  氟奋乃静癸酸酯注射液是一种口服用药,通常用于治疗抑郁症、焦虑症和失眠等疾病。需要根据医生的建议来制定治疗方案。使用氟奋乃静癸酸酯注射液时,应遵循医生的建议和药品说明书中的用药方法和剂量。\n\n- ChatGPT：氟奋乃静癸酸酯注射液（Flumazenil Injection）是一种用于治疗苯二氮䓬类药物（如安定类药物）过量或过度使用所引起的镇静或催眠状态的药物。它作为一种苯二氮䓬类受体拮抗剂，能够逆转苯二氮䓬类药物的中枢神经系统抑制作用。\u003C氟奋乃静癸酸酯注射液主要用于以下适应症：\u003Cbr\u002F>\u003Cbr\u002F>1. 苯二氮䓬类药物过量：当患者因安定类药物过量或过度使用而出现昏迷、嗜睡、呼吸抑制等症状时，氟奋乃静癸酸酯注射液可用于逆转这些症状。\u003Cbr\u002F>\u003Cbr\u002F>2. 麻醉中逆转：氟奋乃静癸酸酯注射液可用于在手术或其他麻醉操作结束后逆转苯二氮䓬类药物的镇静效果，帮助患者恢复清醒状态。\u003Cbr\u002F>\u003Cbr\u002F>3. 诊断用途：氟奋乃静癸酸酯注射液还可用于辅助诊断苯二氮䓬类药物中毒或过量情况。\u003Cbr\u002F>\u003Cbr\u002F>请注意，氟奋乃静癸酸酯注射液应由专业医生根据具体情况进行合理的使用和监控。在使用该药物之前，应仔细阅读并遵循药物说明书，并遵循医生的指导和建议。\n\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：本品用于精神分裂症、躁狂症等。 也可用于肌紧张性疼痛。\n\n- QiZhen-CaMA-13B-Checkpoint-3600：本品用于精神分裂症的各种表现。\n\n#### 测试3\n\n- 输入：藏青果茶有哪些主要作用？\n\n- ChatGLM：藏青果茶是一种天然的饮品,主要由青果、茶叶、蜂蜜等多种材料制成。它的主要作用包括:  1. 提高免疫力:藏青果茶中含有丰富的营养成分,如维生素C、维生素E等,可以增强人体的免疫力,提高身体的抵抗力,预防疾病的发生。  2. 促进消化:藏青果茶中含有丰富的纤维素,可以促进肠胃蠕动,帮助消化,预防便秘的发生。  3. 抗氧化作用:藏青果茶中的青果提取物具有较强的抗氧化作用,可以清除体内自由基,延缓衰老,预防疾病。  4. 降低血脂:藏青果茶中的茶叶提取物具有一定的降低血脂的作用,可以预防和治疗高血脂症。  5. 改善睡眠:藏青果茶中的蜂蜜具有一定的镇静作用,可以帮助缓解压力,改善睡眠质量,提高身体的自我修复能力。\n\n- ChatGPT：藏青果茶是一种以藏青果为主要原料制作的茶饮品，据我所知，它具有以下主要作用：\u003Cbr\u002F>\u003Cbr\u002F>1. 抗氧化作用：藏青果富含多种天然抗氧化剂，如多酚类化合物和维生素C，可帮助清除体内自由基，减缓细胞老化，增强免疫力。\u003Cbr\u002F>\u003Cbr\u002F>2. 促进消化：藏青果茶具有良好的消化刺激作用，有助于促进胃肠道蠕动，改善消化功能，缓解胃部不适和消化不良。\u003Cbr\u002F>\u003Cbr\u002F>3. 提供营养：藏青果富含维生素C、维生素E、维生素B群、矿物质等营养物质，饮用藏青果茶可以为身体提供所需的营养元素。\u003Cbr\u002F>\u003Cbr\u002F>4. 减肥瘦身：藏青果茶被认为具有减肥的效果，它可以促进新陈代谢，加速脂肪分解和燃烧，帮助减少体重和脂肪积累。\u003Cbr\u002F>\u003Cbr\u002F>5. 抗炎镇痛：藏青果茶含有一些具有抗炎和镇痛作用的成分，可以缓解关节疼痛、肌肉酸痛和头痛等不适。\u003Cbr\u002F>\u003Cbr\u002F>6. 改善睡眠：藏青果茶有助于放松神经系统，具有镇静和安抚作用，可以改善睡眠质量，缓解失眠问题。\u003Cbr\u002F>\u003Cbr\u002F>需要注意的是，以上作用主要是基于藏青果茶的传统用途和某些研究结果，具体效果因人而异，且可能受到个体差异和使用方式的影响。如果您有特定的健康问题或需要服用药物，建议咨询医生或专业保健人员的建议。\n\n- QiZhen-Chinese-LLaMA-7B- Checkpoint-3500：清热解毒、生津止渴。 可缓解发热、口渴、咽喉肿痛等症状。\n\n- QiZhen-CaMA-13B-Checkpoint-3600：藏青果茶具有清热利咽、消肿止痛的功效。\n\n  藏青果茶可以用于缓解咽喉红肿疼痛、咽干灼热、声音嘶哑等症状。\n\n#### 测试4\n\n- 输入：赖特综合征临床表现有哪些？\n\n- ChatGLM：赖特综合征(赖特综合征I型)是一种先天性心脏杂音,其临床表现包括:\n\n  1. 心脏杂音:赖特综合征I型的特征性心脏杂音是卵圆孔未闭引起的右向左分流杂音,通常表现为杂音强度、位置和频率的变异性。\n\n  2. 肺动脉高压:赖特综合征I型患者通常患有肺动脉高压,这可能导致呼吸衰竭和心脏功能衰竭。\n\n  3. 生长发育异常:大多数赖特综合征I型患者在儿童和青少年时期会表现出生长发育异常,如身材矮小、营养不良和巨人症。\n\n  4. 心脏结构异常:尽管杂音是赖特综合征I型的主要临床表现,但部分患者也可能患有其他心脏结构异常,如心脏瓣膜疾病和心律失常。\n\n  5. 其他症状:赖特综合征I型患者可能还具有其他症状,如疲劳、呼吸困难、胸痛、咳嗽、腹胀和便秘等。这些症状可能与其心脏杂音和肺动脉高压有关,但也可能与其他因素有关。\n\n     需要注意的是,赖特综合征I型是一种罕见的疾病,其临床表现可能因个体差异而有所不同。如果怀疑自己患有赖特综合征I型,请及时咨询医生进行诊断和治疗。\n\n- ChatGPT：赖特综合征是指胃食管反流病（GERD）引起的下食管括约肌失弛缓和食管蠕动减弱所导致的一种疾病。它的主要临床表现包括：\n\n  1. 吞咽困难：患者在吞咽时有被卡住的感觉，需要多次咽喉才能将食物吞咽下去。\n\n  2. 胸痛：赖特综合征的患者常常出现胸痛，特别是在吃饭或者躺下之后容易加重。\n\n  3. 嗳气和反酸：患者常感到嗳气和反酸，特别是在吃完饭或者躺下之后。\n\n  4. 声音嘶哑：由于口腔和喉咙区域受到反流物的刺激，患者的声音可能变得嘶哑。\n\n  5. 喉咙痛：反流物刺激喉咙黏膜所致。\n\n     需要注意的是，赖特综合征的症状与其他疾病相似，因此需要通过相关检查和诊断方法确定诊断。\n\n- QiZhen-CaMA-13B-Checkpoint-12400：赖特综合征的主要临床表现为急性或慢性关节炎、尿道炎、结膜炎及皮肤黏膜病变等。\n\n  赖特综合征是一种病因不明的慢性非特异性炎症性疾病，属于血清阴性脊柱关节炎的一种，其特征是反复发作性、游走性、不对称性的多关节炎，可伴有尿道炎、结膜炎、皮肤黏膜及眼部病变。\n\n  赖特综合征的主要临床表现为急性或慢性关节炎、尿道炎、结膜炎及皮肤黏膜病变等。\n\n  1.关节炎：最常见，任何关节均可受累，以膝、踝和足部小关节多见，局部可有红、肿、热、痛和功能障碍。\n  \n  2.尿道炎：表现为尿频、尿急、尿痛、尿道口红肿、尿道分泌物增多等。\n  \n  3.结膜炎：表现为单侧或双侧结膜炎症，可有结膜充血、水肿、眼睑浮肿、分泌物增多等。\n  \n  4.皮肤黏膜病变：表现为皮肤脂溢性红斑、生殖器红斑、脓疱疹、皮肤脓疱疹、皮肤溃疡。\n\n### 实验评测\n\n#### 药品适应症评测\n\n评测标准：随机选择`94`种药品数据，按照“{药品}的适应病症”组成指令，分别让ChatGPT（gpt3.5）、ChatGLM、QiZhe做出回答，然后请专业的医学人员对三个`模型的答案`与`该药品的药品说明书`进行比对评分，以下是三个评分标准：\n\n- 标准1：模型答案命中一个适应症则回答正确；\n\n- 标准2：模型答案命中的适应症数目大于等于药品说明书适应症数目的1\u002F2则回答正确；\n\n- 标准3：模型答案命中的适应症数目大于等于药品说明书适应症数目的2\u002F3则回答正确；\n\n|                  模型                   |   标准1    |   标准2    |   标准3    |\n| :-------------------------------------: | :--------: | :--------: | :--------: |\n|                 ChatGLM                 |   39.36%   |   23.16%   |   14.74%   |\n|                 ChatGPT                 |   47.87%   |   30.85%   |   15.96%   |\n| QiZhen-Chinese-LLaMA-7B-Checkpoint-3500 |   77.66%   |   55.32%   |   40.00%   |\n| QiZhen-Chinese-LLaMA-7B-Checkpoint-6000 |   90.43%   |   73.40%   |   65.96%   |\n|     QiZhen-CaMA-13B-Checkpoint-3600     |   82.29%   |   60.62%   |   47.92%   |\n|     QiZhen-CaMA-13B-Checkpoint-6000     |   90.43%   |   80.85%   | **72.34%** |\n|  **QiZhen-CaMA-13B-Checkpoint-12400**   | **91.49%** | **82.98%** | **72.34%** |\n\n**备注：**\n\n- 若QiZhen-Chinese-LLaMA-7B-Checkpoint-6000：回复有“复读现象”（我们正在持续修复这个问题），请将`repetition_penalty`参数调大；\n- QiZhen-ChatGLM-6B-Checkpoint-2500没有进行评测，因为我们在实验过程中发现ChatGLM在指令微调的过程中不能很好的满足医疗知识事实问答的要求：当要求其回复比较精准时，模型“复读”的现象比较严重；在解决“复读”的问题时，其回答的事实性很差（数据幻想严重）；\n- QiZhen-CaMA-13B-Checkpoint-3600：该版本回复内容基本没有“复读”现象；\n- QiZhen-CaMA-13B-Checkpoint-6000：相较于`QiZhen-CaMA-13B-Checkpoint-3600`我们增大了LoRA的参数量，效果得到了有效的提升；\n- 更详细的评测细节和数据后续会开源。\n\n#### 疾病评测\n\n评测标准：随机选择`100`种疾病数据，按照“哪些药物能治疗{疾病}？”、“{疾病}需要做哪些检查？”、“{疾病}的临床表现有哪些？”组成“治疗药物”、“检查检验”、“临床表现”指令，分别让ChatGPT（gpt3.5）、ChatGLM、QiZhen0做出回答，然后请专业的医学人员对三个`模型的答案`与`启真医学知识库疾病知识`进行比对评分，以下是三个评分标准：\n\n- 标准1：模型答案命中一个“治疗药物”（“检查检验”、“临床表现”）则回答正确；\n\n- 标准2：模型答案命中的“治疗药物”（“检查检验”、“临床表现”）数目大于等于药品说明书适应症数目的1\u002F2则回答正确；\n\n- 标准3：模型答案命中的“治疗药物”（“检查检验”、“临床表现”）数目大于等于药品说明书适应症数目的2\u002F3则回答正确；\n\n|                 模型                 | 临床表现标准1 | 临床表现标准2 | 临床表现标准3 | 检查检验标准1 | 检查检验标准2 | 检查检验标准3 | 治疗药物标准1 | 治疗药物标准2 | 治疗药物标准3 |\n| :----------------------------------: | :-----------: | :-----------: | :-----------: | ------------- | ------------- | ------------- | ------------- | ------------- | ------------- |\n|               chatglm                |    90.00%     |     6.00%     |     3.00%     | 93.00%        | 11.00%        | 6.00%         | 60.00%        | 10.00%        | 5.00%         |\n|               chatgpt                |    94.00%     |    11.00%     |     4.00%     | **97.00%**    | 8.00%         | 5.00%         | 62.00%        | 11.00%        | 4.00%         |\n| **QiZhen-CaMA-13B-Checkpoint-12400** |  **95.00%**   |  **15.00%**   |   **7.00%**   | **97.00%**    | **20.00%**    | **7.00%**     | **75.00%**    | **36.00%**    | **23.00%**    |\n\n\n\n\n## 致谢\n\n此外，本项目基于以下开源项目二次开发，在此对相关项目和研究开发人员表示感谢。\n\n- [LLaMA](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)\n- [Standford Alpaca](https:\u002F\u002Fgithub.com\u002Ftatsu-lab\u002Fstanford_alpaca)\n- [CaMA](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA)\n- [中文LLaMA & Alpaca大模型](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca)\n\n\n\n## License及免责声明\n\n### License\n\n详见[LICENSE](.\u002FLICENSE)\n\n### 免责声明\n\n**本项目相关资源仅供学术研究之用，严禁用于商业用途。** 使用涉及第三方代码的部分时，请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响，本项目不对其准确性作出保证。对于模型输出的任何内容，本项目不承担任何法律责任，亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。\n\n\n\n## 引用说明\n\n\n技术论文即将发布。","# QiZhenGPT 快速上手指南\n\nQiZhenGPT 是一个开源的中文医学大语言模型，基于 Chinese-LLaMA-Plus、CaMA 和 ChatGLM 等基座模型，利用启真医学知识库构建的指令数据集进行微调，旨在提升中文医疗场景下的问答准确性。\n\n## 环境准备\n\n### 系统要求\n*   **操作系统**：Linux (推荐) 或 macOS\n*   **硬件建议**：\n    *   运行 7B\u002F6B 模型：建议显存 >= 16GB (量化后) 或更高。\n    *   运行 13B 模型：建议显存 >= 24GB (量化后) 或更高。\n    *   训练\u002F微调参考：原项目使用多张 A800 (80G) GPU。\n*   **软件依赖**：\n    *   Python 3.8+\n    *   Git\n    *   CUDA (如果使用 GPU)\n\n### 前置依赖\n在开始之前，请确保已安装 Python 和 pip。\n\n## 安装步骤\n\n以下以 **QiZhen-Chinese-LLaMA-7B** 为例展示安装流程，其他版本（ChatGLM-6B, CaMA-13B）步骤类似，仅需替换对应的脚本和模型路径。\n\n### 1. 克隆项目与安装依赖\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FZhiyuanChen\u002FQiZhenGPT.git\ncd QiZhenGPT\npip install -r requirements.txt\n```\n\n### 2. 获取基座模型\n\n你需要先下载对应的基座模型权重。\n*   **Chinese-LLaMA-Plus-7B**: 请参考 [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\u002Fwiki\u002F%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2) 获取并合并模型。\n*   **ChatGLM-6B**: 请参考 [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B) 获取。\n*   **CaMA-13B**: 请参考 [CaMA](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FCaMA#2-1) 获取。\n\n### 3. 下载 LoRA 权重\n\n从百度网盘下载对应版本的 LoRA 权重，并将其放置在项目根目录下的 `lora` 文件夹中。\n\n*   **下载链接**: [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) (提取码: ivgg)\n\n### 4. 合并模型 (仅 LLaMA 系列需要)\n\n如果你使用的是 Chinese-LLaMA-Plus 基座，需要执行合并脚本将 LoRA 权重合并到基座模型中：\n\n```bash\nsh scripts\u002Fmerge_llama_plus.sh\n```\n\n> **注意**：ChatGLM 和 CaMA 版本通常直接在推理代码中加载 LoRA，无需预先合并，具体请参考对应 demo 脚本的实现。\n\n## 基本使用\n\n### 启动 Web Demo\n\n根据你选择的模型版本，运行对应的 Python 脚本启动 Gradio 界面。\n\n#### 选项 A: QiZhen-Chinese-LLaMA-7B\n\n1.  编辑 `gradio_chinese-llama_demo.py`，修改其中的模型路径参数，指向你本地合并后的模型位置。\n2.  运行以下命令：\n\n```bash\npython gradio_chinese-llama_demo.py\n```\n\n#### 选项 B: QiZhen-ChatGLM-6B\n\n1.  编辑 `gradio_chatglm_demo.py`，修改模型路径参数。\n2.  运行以下命令：\n\n```bash\npython gradio_chatglm_demo.py\n```\n\n#### 选项 C: QiZhen-CaMA-13B\n\n1.  编辑 `gradio_cama_demo.py`，修改模型路径参数。\n2.  运行以下命令：\n\n```bash\npython gradio_cama_demo.py\n```\n\n### 使用示例\n\n启动成功后，终端会显示本地访问地址（通常为 `http:\u002F\u002F127.0.0.1:7860`）。在浏览器中打开该地址，即可在对话框中输入医学相关问题进行测试。\n\n**测试问题示例：**\n*   “非布司他能治疗什么疾病？”\n*   “赖特综合征的临床表现有哪些？”\n*   “藏青果茶有哪些主要作用？”\n\n### 参数调整建议\n\n*   **复读现象处理**：如果在使用 `QiZhen-Chinese-LLaMA-7B-Checkpoint-6000` 时出现内容重复，请在推理代码中增大 `repetition_penalty` 参数的值。\n*   **模型选择**：\n    *   追求更高准确率且资源充足：推荐使用 `QiZhen-CaMA-13B-Checkpoint-12400`。\n    *   资源受限或快速体验：可使用 `QiZhen-Chinese-LLaMA-7B` 或 `QiZhen-ChatGLM-6B` 版本。","在浙江大学第二附属医院的日常诊疗中，住院医师李明需要在早查房前快速梳理多位复杂病患的病史，并依据最新临床指南调整用药方案，同时完成规范的病历文书撰写。\n\n### 没有 QiZhenGPT 时\n- **信息检索低效**：面对罕见并发症或复杂药物相互作用，李明需手动翻阅纸质指南或在多个数据库间切换搜索，耗时且容易遗漏关键禁忌症。\n- **病历书写繁重**：每日需花费大量时间重复录入患者生命体征、检查结果等结构化数据，机械性打字工作占据了近40%的工作时长，导致身心俱疲。\n- **决策支持缺失**：缺乏实时的个性化诊疗建议，仅凭个人经验判断可能存在偏差，尤其在处理多病共存患者时，难以全面权衡各类药物的适应症与风险。\n- **质控滞后被动**：医疗质量监控往往事后进行，无法在诊疗过程中实时发现潜在的规范偏离，增加了医疗纠纷风险和整改成本。\n\n### 使用 QiZhenGPT 后\n- **精准知识问答**：通过 MedCopilot 助手，李明直接询问“某特定药物在肾功能不全下的剂量调整”，QiZhenGPT 基于启真医学知识库迅速给出准确、有据可依的建议，秒级响应。\n- **文书自动生成**：系统自动抓取 HIS 系统中的检验检查数据，结合诊疗记录，一键生成符合规范的入院记录和病程录，李明仅需审核修改，效率提升显著。\n- **智能辅助决策**：针对复杂病例，QiZhenGPT 综合分析患者临床数据，提供个性化的诊断思路和治疗方案推荐，帮助医生做出更科学、全面的医疗决策。\n- **实时质控预警**：在开具医嘱或书写病历时，系统实时监控并提示潜在的质量问题（如抗生素使用不规范），将风险拦截在萌芽状态，保障医疗安全。\n\nQiZhenGPT 通过将权威医学知识转化为即时可用的智能助手，不仅大幅减轻了医生的事务性负担，更以数据驱动的精准建议提升了诊疗质量与患者安全。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FCMKRG_QiZhenGPT_4e63e3a4.jpg","CMKRG","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FCMKRG_c3f5f050.png","Computable Medical Knowledge Research Group",null,"https:\u002F\u002Fgithub.com\u002FCMKRG",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",99.4,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0.6,774,88,"2026-04-02T08:31:55","GPL-3.0",4,"Linux","训练环境需 NVIDIA A800 (80G)；推理显存需求取决于基座模型，7B模型建议显存 16GB+，13B模型建议显存 24GB-40GB+（具体取决于量化情况），CUDA版本未说明","未说明",{"notes":99,"python":97,"dependencies":100},"1. 本项目开源的是LoRA权重，运行前需自行下载对应的基座模型（Chinese-LLaMA-Plus-7B、ChatGLM-6B 或 CaMA-13B）并按指引合并。2. 不同模型版本有特定的启动脚本（如 merge_llama_plus.sh, gradio_chinese-llama_demo.py 等）。3. ChatGLM-6B微调版本存在严重的“复读”现象且事实性差，不建议用于生产环境。4. 若使用 QiZhen-Chinese-LLaMA-7B-Checkpoint-6000 出现复读现象，需调大 repetition_penalty 参数。",[101,102,103,104,105],"torch","transformers","gradio","peft","accelerate",[26,15,13],[108,109,110,111,112,113,114,115],"alpaca","llama","chinese-medical","disease","medicine","chatgpt","gpt","llm","2026-03-27T02:49:30.150509","2026-04-06T07:15:08.289269",[],[]]