[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-luban-agi--Awesome-Domain-LLM":3,"tool-luban-agi--Awesome-Domain-LLM":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":77,"stars":79,"forks":80,"last_commit_at":81,"license":82,"difficulty_score":83,"env_os":84,"env_gpu":85,"env_ram":85,"env_deps":86,"category_tags":89,"github_topics":90,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":96,"updated_at":97,"faqs":98,"releases":114},2812,"luban-agi\u002FAwesome-Domain-LLM","Awesome-Domain-LLM","收集和梳理垂直领域的开源模型、数据集及评测基准。","Awesome-Domain-LLM 是一个专注于垂直领域大语言模型的开源资源库，旨在系统性地收集、梳理并分享各行业的开源模型、专用数据集及评测基准。随着通用大模型（如 LLaMA、ChatGLM 等）的普及，如何将其高效应用于医疗、法律、金融、运维等具体场景成为关键挑战。本项目通过整合从基础通用模型到经过持续预训练和指令微调的行业专用模型（如中医大模型“仲景”、司法大模型“夫子•明察”等），填补了领域应用资源的分散空白，帮助从业者快速找到适配的工具与数据。\n\n它主要解决了垂直行业在落地大模型时面临的资源查找难、评估标准缺失以及复现门槛高等问题。无论是希望快速构建行业应用的开发者、需要对比不同模型性能的研究人员，还是寻求技术转型的企业团队，都能在此找到高质量的参考依据。项目不仅涵盖了多领域的成熟模型，还收录了配套的评测基准（如 LawBench、FinanceBench），确保技术应用的可衡量性。其独特的亮点在于持续更新的动态机制，紧密追踪学术界与工业界的最新成果，并提供清晰的分类索引，让用户能按需获取从底层数据到上层应用的全链路资源，共同推动大模型在千行百业的深度赋能。","# Awesome Domain LLM\n\n[![Awesome](https:\u002F\u002Fcamo.githubusercontent.com\u002F64f8905651212a80869afbecbf0a9c52a5d1e70beab750dea40a994fa9a9f3c6\u002F68747470733a2f2f617765736f6d652e72652f62616467652e737667)](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002Fawesome-Domain-LLM) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT) \n![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fluban-agi\u002FAwesome-Domain-LLM?color=green)\n[![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fluban-agi\u002FAwesome-Domain-LLM?style=social)](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM)\n\n自以ChatGPT为代表的大语言模型出现以后，掀起了新一轮研究和应用浪潮，出现了许多包括LLaMA、ChatGLM、Baichuan、Qwen等在内的通用模型。\n随后，来自不同领域的从业人员在通用模型的基础上通过持续预训练\u002F指令微调将其应用于垂直领域。\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fluban-agi_Awesome-Domain-LLM_readme_42d904d3cad8.jpg\" width=\"500\"\u002F>\n\u003Cp>\n\n本项目旨在收集和梳理垂直领域的**开源模型**、**数据集**及**评测基准**。\n欢迎大家贡献本项目未收录的开源模型、数据集、评测基准等内容，一起推动大模型赋能各行各业！\n\n## 🔔 更新\n- [2023\u002F11\u002F26] 增强网络安全大模型[SecGPT](https:\u002F\u002Fgithub.com\u002FClouditera\u002Fsecgpt)、医疗大模型[ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT)、金融大模型[Tongyi-Finance-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary)、金融评测基准[FinanceBench](https:\u002F\u002Fgithub.com\u002Fpatronus-ai\u002Ffinancebench)和[CFBenchmark](https:\u002F\u002Fgithub.com\u002FTongjiFinLab\u002FCFBenchmark)。\n- [2023\u002F11\u002F01] 增加由蚂蚁集团联合北京大学发布的DevOps领域大模型[DevOps-Model](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model)和评测基准[DevOps-Eval](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-devops-eval)。\n- [2023\u002F10\u002F28] 增加金融大模型[DISC-FinLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-FinLLM)、医学大模型[AlpaCare](https:\u002F\u002Fgithub.com\u002FXZhang97666\u002FAlpaCare)、海洋大模型[MarineGPT](https:\u002F\u002Fgithub.com\u002Fhkust-vgd\u002FMarineGPT)。\n- [2023\u002F10\u002F19] 增加心理大模型[MentalLLaMA](https:\u002F\u002Fgithub.com\u002FSteveKGYang\u002FMentalLLaMA)、双语生物医学大模型[Taiyi (太一)](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM)、海洋大模型[OceanGPT](https:\u002F\u002Fwww.zjukg.org\u002Fproject\u002FOceanGPT\u002F)。\n- [2023\u002F10\u002F10] 增加由云智慧智能研究院和北航联合研发的面向运维领域的大模型[OWL](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)和评测基准[OWL-Bench](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl#owl-bench)。增加中文法律大模型评测基准[LAiW](https:\u002F\u002Fgithub.com\u002FDai-shen\u002FLAiW)。\n- [2023\u002F10\u002F05] 增加心理大模型[ChatPsychiatrist](https:\u002F\u002Fgithub.com\u002FEmoCareAI\u002FChatPsychiatrist)、金融大模型[InvestLM](https:\u002F\u002Fgithub.com\u002FAbaciNLP\u002FInvestLM)、农业大模型[AgriGPT](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs)和医疗大模型[WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2)。\n- [2023\u002F10\u002F03] 增加两个法律评测基准，分别为面向中国法律体系的[LawBench](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FLawBench)和美国法律体系的[LegalBench](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Flegalbench)。\n- [2023\u002F10\u002F01] 增加[DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)，由复旦大学开源的旨在为用户提供专业、智能、全面的法律服务的法律领域大模型。增加[FinGLM](https:\u002F\u002Fgithub.com\u002FMetaGLM\u002FFinGLM)，致力于构建一个开放的、公益的、持久的金融大模型项目，利用开源开放来促进「AI+金融」。\n- [2023\u002F9\u002F25] 更新[Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)，新增Qwen-14B和Qwen-14B-Chat模型，并更新Qwen-7B和Qwen-7B-Chat模型。相比原版Qwen-7B，新版使用更多训练数据 (2.4T token)，序列长度从2048扩展至8192。整体中文能力以及代码能力提升较多。\n- [2023\u002F9\u002F22] 增加[InternLM(书生•浦语)](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)，上海AI实验室与商汤科技联合香港中文大学和复旦大学开源的多语基座模型。\n- [2023\u002F9\u002F15] 增加[Zhongjing-LLaMA (仲景)](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing)，包含预训练、有监督微调和RLHF完整训练流程的中文医学大模型。\n- [2023\u002F9\u002F14] 增加[WeaverBird (织工鸟)](https:\u002F\u002Fgithub.com\u002Fant-research\u002Ffin_domain_llm)，可接入本地知识与网络搜索能力的金融领域对话大模型。\n- [2023\u002F9\u002F13] 增加[夫子•明察](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha)，由山东大学、浪潮云、中国政法大学联合研发的司法大模型。\n\n## 📜 目录\n\n- [🤖 模型](#-模型)\n  - [🌐 通用模型](#-通用模型)\n  - [🧩 领域模型](#-领域模型)\n    - [🏥 医疗](#-医疗)\n    - [⚖ 法律](#-法律)\n    - [💰 金融](#-金融)\n    - [🎓 教育](#-教育)\n    - [➕ 其他](#-其他)\n- [📚 数据集](#-数据集)\n- [📏 评测基准](#-评测基准)\n- [📎 附录](#-附录)\n  - [✨ 点赞历史](#-点赞历史)\n  - [🤝 友情链接](#-友情链接)\n\n## 🤖 模型\n\n### 🌐 通用模型\n\n领域模型通常在通用模型的基础上进行持续预训练或指令微调得到，此处整理常用的开源通用模型。\n\n| 模型                                                          | 大小                                           | 机构                                         | 论文   |\n|:------------------------------------------------------------:|:----------------------------------------------:|:-------------------------------------------:|:-----:|\n| [LLaMA2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)          | 7B\u002F7B-Chat \u003Cbr> 13B\u002F13B-Chat \u003Cbr> 70B\u002F70B-Chat | [Meta](https:\u002F\u002Fai.meta.com\u002F)                | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09288)                             |\n| [ChatGLM3-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3)             | 6B-Base\u002F6B\u002F6B-32K                              | [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3)| [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414) \n| [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)                       | 1.8B\u002F1.8B-Chat \u003Cbr> 7B\u002F7B-Chat \u003Cbr> 14B\u002F14B-Chat \u003Cbr> 72B\u002F72B-Chat | [阿里云](https:\u002F\u002Fqianwen.aliyun.com\u002F)        | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609)|\n| [Baichuan2](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2)       | 7B\u002F7B-Chat \u003Cbr> 13B\u002F13B-Chat                   | [百川智能](https:\u002F\u002Fwww.baichuan-ai.com\u002Fhome) | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10305)\n| [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)             | 7B\u002F7B-Chat \u003Cbr> 20B\u002F20B-Chat                   | [上海AI实验室](https:\u002F\u002Finternlm.intern-ai.org.cn) | [paper](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Fblob\u002Fmain\u002FInternLM.pdf)\n\n### 🧩 领域模型\n\n#### 🏥 医疗\n\n- [ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsynlp\u002FChiMed-GPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06025)]\n  - ChiMed-GPT 是一款基于 Ziya-v2 的中文医疗大模型。在Ziya-v2的基础上，综合进行了预训练、监督式微调（SFT）和来自人类反馈的强化学习（RLHF）。\n\n- [AlpaCare](https:\u002F\u002Fgithub.com\u002FXZhang97666\u002FAlpaCare)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FXZhang97666\u002FAlpaCare.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14558)]\n  - 该项目开源了医学大模型AlpaCare，在LLaMA上微调得到。\n    \n- [Taiyi (太一)](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDUTIR-BioNLP\u002FTaiyi-LLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.11608)]\n  - 该项目开源了中英双语生物医学大模型Taiyi (太一)，旨在探索大模型在生物医学领域中双语自然语言处理多任务的能力。\n\n- [MentalLLaMA](https:\u002F\u002Fgithub.com\u002FSteveKGYang\u002FMentalLLaMA)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSteveKGYang\u002FMentalLLaMA.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13567)]\n  - 该项目开源了心理大模型MentalLLaMA，可以用于社交媒体上可解释的心理健康分析。\n\n- [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwinninghealth\u002FWiNGPT2.svg?style=social)\n  - WiNGPT是一个基于GPT的医疗垂直领域大模型，旨在将专业的医学知识、医疗信息、数据融会贯通，为医疗行业提供智能化的医疗问答、诊断支持和医学知识等信息服务，提高诊疗效率和医疗服务质量。\n    \n- [ChatPsychiatrist](https:\u002F\u002Fgithub.com\u002FEmoCareAI\u002FChatPsychiatrist)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEmoCareAI\u002FChatPsychiatrist.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15461)]\n  - 该项目开源了基于LLaMA-7B微调得到的心理大模型ChatPsychiatrist，该模型可以迅速识别心理问题，并提供量身定制的治疗建议。\n    \n- [Zhongjing-LLaMA (仲景)](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSupritYoung\u002FZhongjing.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03549)]\n  - 该项目开源了首个包含预训练、有监督微调和 RLHF 完整训练流程的中文医学大模型，展现出了很好的泛化能力，在某些对话场景中甚至接近专业医生的专业水平。此外，还开源了一个包含 70,000 条完全来源于真实医患对话的多轮对话数据集。该数据集包含大量医生主动提问的语句，有助于提升模型的主动医疗询问能力。\n\n- [DoctorGLM](https:\u002F\u002Fgithub.com\u002Fxionghonglin\u002FDoctorGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxionghonglin\u002FDoctorGLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01097)]\n  - 基于ChatGLM-6B的中文问诊模型，通过中文医疗对话数据集进行微调，实现了包括lora、p-tuningv2等微调及部署。\n\n- [BenTsao (本草)](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06975)]\n  - 该项目开源了经过中文医学指令微调的大语言模型集，包括LLaMA、Alpaca-Chinese、Bloom、活字模型等。我们基于医学知识图谱以及医学文献，结合ChatGPT API构建了中文医学指令微调数据集，并以此对各种基模型进行了指令微调，提高了基模型在医疗领域的问答效果。\n  \n- [Med-ChatGLM](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FMed-ChatGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSCIR-HI\u002FMed-ChatGLM.svg?style=social)\n  - 该项目开源了经过中文医学指令微调的ChatGLM-6B模型，微调数据与BenTsao相同。\n    \n- [BianQue (扁鹊)](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FBianQue.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15896)]\n  - 该项目开源了生活空间健康大模型。结合当前开源的中文医疗问答数据集（MedDialog-CN、IMCS-V2、CHIP-MDCFNPC、MedDG、cMedQA2、Chinese-medical-dialogue-data），分析其中的单轮\u002F多轮特性以及医生问询特性，结合自建的生活空间健康对话大数据，构建了千万级别规模的扁鹊健康大数据BianQueCorpus，基于扁鹊健康大数据BianQueCorpus，选择ChatGLM-6B作为初始化模型，经过全量参数的指令微调训练得到BianQue。\n    \n- [HuatuoGPT (华佗)](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFreedomIntelligence\u002FHuatuoGPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15075)]\n  - 该项目开源了医疗大模型HuatuoGPT，包括基于Baichuan-7B训练得到的HuatuoGPT-7B和基于Ziya-LLaMA-13B-Pretrain-v1训练得到的HuatuoGPT-13B。\n\n- [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCMKRG\u002FQiZhenGPT.svg?style=social)\n  - 该项目利用启真医学知识库构建的中文医学指令数据集，并基于此在Chinese-LLaMA-Plus-7B、CaMA-13B、ChatGLM-6B模型上进行指令精调，大幅提高了模型在中文医疗场景下效果。\n\n- [ChatMed](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FChatMed)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FChatMed.svg?style=social)\n  - 该项目开源了中文医疗大模型ChatMed-Consult，以中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集，基于LlaMA-7b采用LoRA微调得到。\n\n- [ShenNong-TCM-LLM (神农)](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FShenNong-TCM-LLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FShenNong-TCM-LLM.svg?style=social)\n  - 该项目开源了中文中医药大模型ShenNong-TCM-LLM，以开源的中医药知识图谱为基础，采用以实体为中心的自指令方法，调用ChatGPT得到2.6w+中医药指令数据集ChatMed_TCM_Dataset，基于该数据集以LlaMA为底座，采用LoRA微调得到。\n\n- [XrayGLM](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FXrayGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FXrayGLM.svg?style=social)\n  - 该项目开源了中文多模态医学数据集及模型，其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。\n\n- [MedicalGPT](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FMedicalGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fshibing624\u002FMedicalGPT.svg?style=social)\n  - 该项目开源了医疗大模型MedicalGPT，实现了包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。\n\n- [Sunsimiao (孙思邈)](https:\u002F\u002Fgithub.com\u002Fthomas-yanxin\u002FSunsimiao)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fthomas-yanxin\u002FSunsimiao.svg?style=social)\n  - 该项目开源了中文医疗大模型Sunsimiao，该模型基于baichuan-7B和ChatGLM-6B底座模型在十万级高质量的中文医疗数据中微调而得。\n\n- [CareGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FCareGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FCareGPT.svg?style=social)\n  - 该项目开源了医疗大模型CareGPT (关怀GPT)，同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型，包含LLM的训练、测评、部署等以促进医疗LLM快速发展。\n\n- [DISC-MedLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-MedLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-MedLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14346)]\n  - 该项目是由复旦大学发布的针对医疗健康对话式场景而设计的医疗领域大模型与数据集，该模型由DISC-Med-SFT数据集基于Baichuan-13B-Base指令微调得到，有效地对齐了医疗场景下的人类偏好，弥合了通用语言模型输出与真实世界医疗对话之间的差距。\n\n- [PMC-LLaMA](https:\u002F\u002Fgithub.com\u002Fchaoyi-wu\u002FPMC-LLaMA)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchaoyi-wu\u002FPMC-LLaMA.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14454)]\n  - 该项目开源了医疗大模型PMC-LLaMA，包括预训练版本的MedLLaMA_13B和指令微调版本的PMC_LLaMA_13B。\n\n- [ChatDoctor](https:\u002F\u002Fgithub.com\u002FKent0n-Li\u002FChatDoctor)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FKent0n-Li\u002FChatDoctor.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14070)]\n  - 该项目开源了医疗大模型ChatDoctor，在LLaMA的基础上训练得到。\n\n- [MING (明医)](https:\u002F\u002Fgithub.com\u002F189569400\u002FMedicalGPT-zh)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F189569400\u002FMedicalGPT-zh.svg?style=social)\n  - 该项目开源了医疗大模型MING，基于bloomz-7b指令微调得到MING-7B，支持医疗问答、智能问诊等功能。\n\n- [IvyGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FIvyGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FIvyGPT.svg?style=social)\n  - 该项目开源了医疗大模型IvyGPT，它在高质量的医学问答数据上进行了监督微调，并使用人类反馈的强化学习进行了训练。\n\n- [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopenmedlab\u002FPULSE.svg?style=social)\n  - 该项目开源了中文医疗大模型PULSE，该模型使用约4,000,000个中文医学领域和通用领域的指令微调数据进行微调，支持医学领域的各种自然语言处理任务，包括健康教育、医师考试问题、报告解读、医疗记录结构化以及模拟诊断和治疗。\n\n- [HuangDI (皇帝)](https:\u002F\u002Fgithub.com\u002FZlasejd\u002FHuangDI)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZlasejd\u002FHuangDI.svg?style=social)\n  - 该项目开源了中医大模型HuangDI (皇帝)，该模型首先在Ziya-LLaMA-13B-V1基座模型的基础上加入中医教材、中医各类网站数据等语料库，训练出一个具有中医知识理解力的预训练模型，之后在此基础上通过海量的中医古籍指令对话数据及通用指令数据进行有监督微调，使得模型具备中医古籍知识问答能力。\n \n- [ZhongJing (仲景)](https:\u002F\u002Fgithub.com\u002Fpariskang\u002FCMLM-ZhongJing)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpariskang\u002FCMLM-ZhongJing.svg?style=social)\n  - 该项目开源了中医大模型ZhongJing (仲景)，该模型旨在阐明中医博大精深之知识，传承古代智慧与现代技术创新，最终为医学领域提供可信赖和专业的工具。\n\n- [TCMLLM](https:\u002F\u002Fgithub.com\u002F2020MEAI\u002FTCMLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F2020MEAI\u002FTCMLLM.svg?style=social)\n  - 该项目拟通过大模型方式实现中医临床辅助诊疗（病证诊断、处方推荐等）中医药知识问答等任务，推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务，发布了中医处方推荐大模型TCMLLM-PR，通过整合真实世界临床病历、医学典籍与中医教科书等数据，构建了包含68k数据条目的处方推荐指令微调数据集，在ChatGLM大模型上进行微调得到。\n\n- [MeChat](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fqiuhuachuan\u002Fsmile.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00450)]\n  - 该项目开源了中文心理健康支持对话大模型与数据集。模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话，该数据集含有56k个多轮对话，其对话主题、词汇和篇章语义更加丰富多样，更加符合在长程多轮对话的应用场景。\n  \n- [SoulChat (灵心)](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FSoulChat.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00273)]\n  - 该项目开源了心理健康大模型SoulChat (灵心)，该模型以ChatGLM-6B作为初始化模型，经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调得到。\n\n- [MindChat (漫谈)](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FMindChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FX-D-Lab\u002FMindChat.svg?style=social)\n  - 该项目开源了心理大模型MindChat (漫谈)，该模型采用了经过人工清洗的约20万条的高质量多轮心理对话数据进行训练，涵盖工作、家庭、学习、生活、社交、安全等多个方面，期望从心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平。\n\n- [QiaoBan (巧板)](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC\u002FQiaoBan)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHIT-SCIR-SC\u002FQiaoBan.svg?style=social)\n  - 该项目开源了儿童情感对话大模型QiaoBan，基于开源通用大模型，使用通用域人机对话、单轮指令数据以及儿童情感陪伴对话数据进行指令微调，研发出适用于儿童情感陪伴的大模型。\n\n#### ⚖ 法律\n\n- [DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-LawLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11325)]\n  - DISC-LawLLM 是一个旨在为用户提供专业、智能、全面的法律服务的法律领域大模型，由复旦大学数据智能与社会计算实验室 (Fudan-DISC) 开发并开源，包括 DISC-LawLLM-13B 模型 和 DISC-Law-SFT 数据集。\n\n- [LawGPT_zh (獬豸)](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FLiuHC0428\u002FLAW-GPT.svg?style=social)\n  - 本项目开源的中文法律通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集和基于法条和真实案例指导的self-Instruct构建的高质量法律文本问答，提高了通用语言大模型在法律领域的表现，提高了模型回答的可靠性和专业程度。\n    \n- [LaWGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpengxiao-song\u002FLaWGPT.svg?style=social)\n  - 该系列模型在通用中文基座模型（如Chinese-LLaMA、ChatGLM等）的基础上扩充法律领域专有词表、大规模中文法律语料预训练，增强了大模型在法律领域的基础语义理解能力。在此基础上，构造法律领域对话问答数据集、中国司法考试数据集进行指令精调，提升了模型对法律内容的理解和执行能力。\n\n- [LexiLaw](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCSHaitao\u002FLexiLaw.svg?style=social)\n  - LexiLaw是一个经过微调的中文法律大模型，它基于ChatGLM-6B架构，通过在法律领域的数据集上进行微调，使其在提供法律咨询和支持方面具备更高的性能和专业性。该模型旨在为法律从业者、学生和普通用户提供准确、可靠的法律咨询服务。无论是需要针对具体法律问题的咨询，还是对法律条款、案例解析、法规解读等方面的查询，LexiLaw都能够提供有益的建议和指导。\n\n- [Lawyer LLaMA](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAndrewZhe\u002Flawyer-llama.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)]\n  - 该项目开源了法律领域的指令微调数据和基于LLaMA训练的中文法律大模型Lawyer LLaMA。Lawyer LLaMA首先在大规模法律语料上进行了预训练，让它系统的学习中国的法律知识体系。在此基础上，借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答，利用收集到的数据对模型进行指令微调，让模型习得将法律知识应用到具体场景中的能力。\n\n- [HanFei (韩非)](https:\u002F\u002Fgithub.com\u002Fsiat-nlp\u002FHanFei)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsiat-nlp\u002FHanFei.svg?style=social)\n  - HanFei-1.0(韩非)是国内首个全参数训练的法律大模型，参数量7b，主要功能包括：法律问答、多轮对话、撰写文章、检索等。\n\n- [ChatLaw](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPKU-YuanGroup\u002FChatLaw.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16092)]\n  - 由北大开源的一系列法律大模型，使用大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据，包括基于姜子牙-13B、Anima-33B训练而来的ChatLaw-13B和ChatLaw-33B。此外，还开源了ChatLaw-Text2Vec，使用93w条判决案例做成的数据集基于BERT训练了一个相似度匹配模型，可将用户提问信息和对应的法条相匹配。\n\n- [Lychee (律知)](https:\u002F\u002Fgithub.com\u002Fdavidpig\u002Flychee_law)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdavidpig\u002Flychee_law.svg?style=social)\n  - 开源了中文司法领域大模型Law-GLM-10B，基于GLM-10B模型，在30GB中文法律数据上进行指令微调得到。\n\n- [wisdomInterrogatory (智海-录问)](https:\u002F\u002Fgithub.com\u002FzhihaiLLM\u002FwisdomInterrogatory)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FzhihaiLLM\u002FwisdomInterrogatory.svg?style=social)\n  - 由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型，基于Baichuan-7B进行了法律领域数据的二次预训练与指令微调，并设计了知识增强的推理流程。\n\n- [JurisLMs](https:\u002F\u002Fgithub.com\u002Fseudl\u002FJurisLMs)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fseudl\u002FJurisLMs.svg?style=social)\n  - 该项目基于中文法学语料训练了一系列语言模型，包括: 1) 可解释法律判决预测模型AI Judge，由GPT2在法学语料上进一步预训练之后，结合一个法条适用模型（一个基于BERT的分类器）微调得到，不仅能够给出判决结果，还能给出相应的法院观点; 2) 智能法律咨询模型AI Lawyer，采用主动学习在少量数据上进行微调得到，可以根据用户咨询适用正确的法律法规回答问题。\n\n- [夫子•明察](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Firlab-sdu\u002Ffuzi.mingcha.svg?style=social)\n  - 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发，以 ChatGLM 为大模型底座，基于海量中文无监督司法语料（包括各类判决文书、法律法规等）与有监督司法微调数据（包括法律问答、类案检索）训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能，旨在为用户提供全方位、高精准的法律咨询与解答服务。\n\n#### 💰 金融\n\n- [Tongyi-Finance-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary)\n  - 通义金融-14B（Tongyi-Finance-14B）是针对对金融行业推出的大语言模型，基于通义千问基础模型进行行业语料增量学习，强化金融领域知识和场景应用能力，覆盖金融知识问答、文本分类、信息抽取、文本创作、阅读理解、逻辑推理、多模态、Coding等能力象限。\n\n- [DISC-FinLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-FinLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-FinLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15205)]\n  - DISC-FinLLM是一个金融领域的大语言模型，是由面向不同金融场景的4个模组：金融咨询、金融文本分析、金融计算、金融知识检索问答构成的多专家智慧金融系统。这些模组分别在金融NLP任务、人类试题、资料分析和时事分析等四个评测中展现出明显优势，证明了DISC-FinLLM能为广泛的金融领域提供强有力的支持。\n\n- [InvestLM](https:\u002F\u002Fgithub.com\u002FAbaciNLP\u002FInvestLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAbaciNLP\u002FInvestLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13064)]\n  - 该项目开源了基于LLaMA-65B微调得到的英文金融大模型。\n    \n- [FinGLM](https:\u002F\u002Fgithub.com\u002FMetaGLM\u002FFinGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FMetaGLM\u002FFinGLM.svg?style=social)\n  - 致力于构建一个开放的、公益的、持久的金融大模型项目，利用开源开放来促进「AI+金融」。\n\n- [WeaverBird (织工鸟)](https:\u002F\u002Fgithub.com\u002Fant-research\u002Ffin_domain_llm)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fant-research\u002Ffin_domain_llm.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05361)]\n  - 该项目开源了基于中英双语金融领域语料库微调的，同时可接入本地知识库以及网络搜索引擎的金融领域对话大模型。\n  \n- [BBT-FinCUGE-Applications](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fssymmetry\u002FBBT-FinCUGE-Applications.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09432)]\n  - 该项目开源了中文金融领域语料库BBT-FinCorpus，知识增强型大模型BBT-FinT5及评测基准CFLEB。\n\n- [Cornucopia (聚宝盆)](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese.svg?style=social)\n  - 该项目基于公开和爬取的中文金融领域问答数据构建指令数据集，并在此基础上对LLaMA系模型进行了指令微调，提高了LLaMA在金融领域的问答效果。\n\n- [XuanYuan (轩辕)](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDuxiaoman-DI\u002FXuanYuan.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)]\n  - 轩辕是国内首个开源的千亿级中文对话大模型，同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调，它不仅可以应对通用领域的问题，也可以解答与金融相关的各类问题，为用户提供准确、全面的金融信息和建议。\n\n- [PIXIU (貔貅)](https:\u002F\u002Fgithub.com\u002Fchancefocus\u002FPIXIU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchancefocus\u002FPIXIU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05443)]\n  - 该项目开源了金融领域指令微调数据集FIT，大模型FinMA及评测基准FLARE。\n\n- [FinGPT](https:\u002F\u002Fgithub.com\u002FAI4Finance-Foundation\u002FFinGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAI4Finance-Foundation\u002FFinGPT.svg?style=social)\n  [[paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06031)]\n  [[paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04793)]\n  - 该项目开源了多个金融大模型，包括ChatGLM2-6B+LoRA和LLaMA2-7B+LoRA等金融大模型，收集了包括金融新闻、社交媒体、财报等中英文训练数据。\n \n- [FLANG](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FFLANG)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSALT-NLP\u002FFLANG.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00083)]\n  - 该项目开源了金融大模型FLANG和评测基准FLUE。\n\n#### 🎓 教育\n\n- [桃李 (Taoli)](https:\u002F\u002Fgithub.com\u002Fblcuicall\u002Ftaoli)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fblcuicall\u002Ftaoli.svg?style=social)\n  - 该项目开源了适用于国际中文教育领域的大模型，基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等，构建了国际中文教育资源库。通过多种形式的指令构造了共计88000条的高质量国际中文教育问答数据集，并利用收集到的数据对模型进行指令微调，让模型习得将国际中文教育知识应用到具体场景中的能力。\n\n- [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ficalk-nlp\u002FEduChat.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02773)]\n  - 该项目开源了针对教育垂直领域的对话大模型，主要研究以预训练大模型为基底的教育对话大模型相关技术，融合多样化的教育垂直领域数据，辅以指令微调、价值观对齐等方法，提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能，服务于广大老师、学生和家长群体，助力实现因材施教、公平公正、富有温度的智能教育。\n\n#### ➕ 其他\n\n- [DevOps-Model](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - 该项目开源了由蚂蚁集团联合北京大学研发的DevOps领域大模型DevOps-Model。\n\n- [OWL](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHC-Guo\u002FOwl.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09298)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - 该项目开源了由云智慧智能研究院和北航联合研发的智能运维（AIOps）大语言模型，其在收集的 Owl-Instruct 数据基础上训练而成。此外，由于缺乏智能运维领域的大语言模型的 Benchmark，还建立了 Owl-Bench 评测基准。\n \n- [MarineGPT](https:\u002F\u002Fgithub.com\u002Fhkust-vgd\u002FMarineGPT)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13596)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F海洋-blue) \n  - 该项目开源了首个专为海洋领域设计的视觉语言模型MarineGPT。\n    \n- [OceanGPT]((https:\u002F\u002Fwww.zjukg.org\u002Fproject\u002FOceanGPT))\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02031)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F海洋-blue) \n  - 该项目开源了面向海洋学的大模型OceanGPT。\n    \n- [AgriGPT](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAgriGPTs\u002FAgriGPTs.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F农业-blue) \n  - 该项目开源了农业大模型MediaGPT。\n\n- [MediaGPT](https:\u002F\u002Fgithub.com\u002FIMOSR\u002FMediaGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FIMOSR\u002FMediaGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F自媒体-blue) \n  - 该项目开源了中文自媒体大模型MediaGPT，首先在大规模自媒体语料上进行连续预训练，系统地学习自媒体的知识体系。然后，借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答，并利用这些数据对模型进行指令微调，使模型习得如何将自媒体知识应用到实际场景中。\n\n- [EcomGPT](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FEcomGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAlibaba-NLP\u002FEcomGPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06966)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F电商-blue) \n  - 该项目开源了电商大模型EcomGPT，基于BLOOMZ在电商领域指令微调数据集EcomInstruct进行微调，在12个电商评测数据集上的人工评估超过ChatGPT。\n\n- [StarWhisper (星语)](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarWhisper)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FYu-Yang-Li\u002FStarWhisper.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F天文-blue) \n  - 在天文科学教育联盟、集思谱文献平台、司天工程的支持下，基于天文大模型StarGLM开发经验，我们进一步训练了星语StarWhisper系列模型(包括6B,7B,13B,14B,20B)。以进一步缓解大模型在天文通用知识的幻觉现象，为接下来可处理天文多模态任务、部署于望远镜阵列的科学具身智能——司天大脑打下基础。\n\n- [K2](https:\u002F\u002Fgithub.com\u002Fdavendw49\u002Fk2)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdavendw49\u002Fk2.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05064)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F地球科学-blue) \n  - 该项目开源了地球科学大模型K2，该模型在LLaMA的基础上使用地球科学文献和维基百科数据进行预训练，然后使用GeoSignal数据集进行指令微调。\n\n- [TransGPT (致远)](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDUOMO\u002FTransGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F交通-blue) \n  - 该项目开源了交通大模型TransGPT (致远)，主要致力于在真实交通行业中发挥实际价值。它能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统等功能。TransGPT作为一个通用常识交通大模型，可以为道路工程、桥梁工程、隧道工程、公路运输、水路运输、城市公共交通运输、交通运输经济、交通运输安全等行业提供通识常识。以此为基础，可以落脚到特定的交通应用场景中。\n\n- [SecGPT](https:\u002F\u002Fgithub.com\u002FClouditera\u002Fsecgpt)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FClouditera\u002Fsecgpt.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F安全-blue) \n  - 该项目开源了网络安全大模型SecGPT，该模型基于Baichuan-13B采用Lora做预训练和SFT训练，还开源了相关预训练和指令微调数据集。\n\n- [AutoAudit](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fddzipp\u002FAutoAudit.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F安全-blue) \n  - 该项目开源了网络安全大模型AutoAudit，其目标是为安全审计和网络防御提供强大的自然语言处理能力。它具备分析恶意代码、检测网络攻击、预测安全漏洞等功能，为安全专业人员提供有力的支持。\n\n- [TechGPT](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fneukg\u002FTechGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F科技-blue) \n  - 该项目开源了科技大模型TechGPT，该模型面向计算机科学、材料、机械、冶金、金融和航空航天等十余种垂直专业领域，涵盖了领域术语抽取、命名实体识别、关系三元组抽取、文本关键词生成、标题生成摘要、摘要生成标题、文本领域识别、机器阅读理解、基础常识问答、基于上下文的知识问答、建议咨询类问答、文案生成、中英互译和简单代码生成等多项自然语言理解和生成能力。\n\n- [Mozi (墨子)](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FgmftbyGMFTBY\u002Fscience-llm.svg?style=social)\n  [[paper](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm\u002Fblob\u002Fmain\u002Fasset\u002Fmozi_technical_report.pdf)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F科技-blue) \n  - 该项目开源了科技论文大模型Mozi (墨子)，可以用于科技文献的问答和情感支持。\n\n- [OpenBioMed](https:\u002F\u002Fgithub.com\u002FPharMolix\u002FOpenBioMed)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPharMolix\u002FOpenBioMed.svg?style=social)\n  [[paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09442)]\n  [[paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09484)]\n  [[paper3](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04371)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F生物医学-blue) \n  - 该项目开源了若干多模态生物医学大模型，包括多模态生物医药大模型BioMedGPT、多模态小分子基础模型DrugFM和MolFM、细胞表示学习模型CellLM等。\n\n- [YaYi (雅意)](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwenge-research\u002FYaYi.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多领域-blue) \n  - 该项目开源了多领域大模型YaYi (雅意)，该模型在百万级人工构造的高质量领域数据上进行指令微调得到，训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域，上百种自然语言指令任务。\n\n## 📚 数据集\n\n## 📏 评测基准\n\n- [C-Eval](https:\u002F\u002Fgithub.com\u002FSJTU-LIT\u002Fceval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSJTU-LIT\u002Fceval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - C-Eval是一个由上海交通大学发布的中文基础模型评测基准，包含了13948个多项选择题，涵盖了人文，社科，理工，其他专业四个大方向，52个学科，从中学到大学研究生以及职业考试。\n\n- [AGIEval](https:\u002F\u002Fgithub.com\u002Fruixiangcui\u002FAGIEval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fruixiangcui\u002FAGIEval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06364)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - AGIEval是一个由微软发布的评测基准，用于评估大模型在人类认知任务中的表现，包含了20个面向普通考生的官方、公开、高标准入学和资格考试，包括普通大学入学考试 (中国高考和美国SAT考试)、法学院入学考试、数学竞赛和律师资格考试、国家公务员考试等。\n\n- [Xiezhi (獬豸)](https:\u002F\u002Fgithub.com\u002Fmikegu721\u002Fxiezhibenchmark)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmikegu721\u002Fxiezhibenchmark.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05783)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - Xiezhi是一个由复旦大学发布的综合的、多学科的、能够自动更新的领域知识评测基准，包含了哲学、经济学、法学、教育学、文学、历史学、自然科学、工学、农学、医学、军事学、管理学、艺术学这13个学科门类，516个具体学科，249587道题目。\n\n- [CMMLU](https:\u002F\u002Fgithub.com\u002Fhaonan-li\u002FCMMLU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhaonan-li\u002FCMMLU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09212)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - CMMLU是一个综合性的中文评测基准，专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题。它包括：需要计算和推理的自然科学，需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等。此外，CMMLU中的许多任务具有中国特定的答案，可能在其他地区或语言中并不普遍适用。因此是一个完全中国化的中文测试基准。\n\n- [MMCU](https:\u002F\u002Fgithub.com\u002FFelixgithub2017\u002FMMCU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFelixgithub2017\u002FMMCU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12986)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - MMCU是一个综合性的中文评测基准，包括来自医学、法律、心理学和教育等四大领域的测试。\n\n- [CG-Eval](https:\u002F\u002Fgithub.com\u002FFelixgithub2017\u002FCG-Eval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFelixgithub2017\u002FCG-Eval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04823)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - CG-Eval是一个由甲骨易AI研究院与LanguageX AI Lab联合发布的针对中文大模型生成能力的评测基准。包含了科技与工程、人文与社会科学、数学计算、医师资格考试、司法考试、注册会计师考试等六个大科目类别下的55个子科目的11000道不同类型问题。CG-Eval包含一套复合的打分系统：对于非计算题，每一道名词解释题和简答题都有标准参考答案，采用多个标准打分然后加权求和；对于计算题目，会提取最终计算结果和解题过程，然后综合打分。\n\n- [CBLUE](https:\u002F\u002Fgithub.com\u002FCBLUEbenchmark\u002FCBLUE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCBLUEbenchmark\u002FCBLUE.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08087)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F医疗-blue) \n  - CBLUE是一个中文医学语言理解评测基准，包含8个中文医疗语言理解任务。\n    \n- [PromptCBLUE](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FPromptCBLUE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FPromptCBLUE.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14151)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F医疗-blue) \n  - PromptCBLUE是一个面向中文医疗场景的评测基准，通过对CBLUE基准进行二次开发，将16种不同的医疗场景NLP任务全部转化为基于提示的语言生成任务。\n\n- [LAiW](https:\u002F\u002Fgithub.com\u002FDai-shen\u002FLAiW)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDai-shen\u002FLAiW.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05620)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LAiW 是一个中文法律大模型评测基准，针对3大能力设计13个基础任务：1）法律 NLP 基础能力：评测法律基础任务、 NLP 基础任务和法律信息抽取的能力，包括法条推送、要素识别、命名实体识别、司法要点摘要和案件识别 5 个基础任务；2）法律基础应用能力：评测大模型对法律领域知识的基础应用能力，包括争议焦点挖掘、类案匹配、刑事裁判预测、民事裁判预测和法律问答 5 个基础任务；3）法律复杂应用能力：评测大模型对法律领域知识的复杂应用能力，包括司法说理生成、案情理解和法律咨询 3 个基础任务。\n\n- [LawBench](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FLawBench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopen-compass\u002FLawBench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16289)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LawBench 是一个面向中国法律体系的法律评测基准。LawBench 模拟了司法认知的三个维度，并选择了20个任务来评估大模型的能力。与一些仅有多项选择题的现有基准相比，LawBench 包含了更多与现实世界应用密切相关的任务类型，如法律实体识别、阅读理解、犯罪金额计算和咨询等。\n\n- [LegalBench](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Flegalbench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHazyResearch\u002Flegalbench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11462)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LegalBench 是一个面向美国法律体系的法律评测基准，包含162个法律推理任务。\n    \n- [LEXTREME](https:\u002F\u002Fgithub.com\u002FJoelNiklaus\u002FLEXTREME)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FJoelNiklaus\u002FLEXTREME.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13126)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LEXTREME是一个多语言的法律评测基准，包含了24种语言11个评测数据集。\n\n- [LexGLUE](https:\u002F\u002Fgithub.com\u002Fcoastalcph\u002Flex-glue)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcoastalcph\u002Flex-glue.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00976)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LexGLUE是一个英文法律评测基准。\n\n- [CFBenchmark](https:\u002F\u002Fgithub.com\u002FTongjiFinLab\u002FCFBenchmark)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FTongjiFinLab\u002FCFBenchmark.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.05812)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - CFBenchmark是一个旨在评估大语言模型在中文金融场景下辅助工作的评测基准。CFBenchmark的基础版本包括3917个金融文本涵盖三个方面和八个任务，从金融识别、金融分类、金融生成三个方面进行组织。\n\n- [FinanceBench](https:\u002F\u002Fgithub.com\u002Fpatronus-ai\u002Ffinancebench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpatronus-ai\u002Ffinancebench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.11944)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FinanceBench是一个用于评估开放式金融问题问答的评测基准，包含 10,231 个有关上市公司的问题，以及相应的答案。\n    \n- [FinEval](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab\u002FFinEval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSUFE-AIFLM-Lab\u002FFinEval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09975)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FinEval是一个金融知识评测基准，包含了4,661个高质量的多项选择题，涵盖金融、经济、会计和证书等领域，34个不同的学术科目。\n\n- [FLARE](https:\u002F\u002Fgithub.com\u002Fchancefocus\u002FPIXIU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchancefocus\u002FPIXIU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05443)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FLARE是一个金融评测基准，包含了金融知识理解和预测等任务。\n\n- [CFLEB](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fssymmetry\u002FBBT-FinCUGE-Applications.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09432)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - CFLEB是一个中文金融评测基准，包含两项语言生成任务和四项语言理解任务。\n\n- [FLUE](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FFLANG)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSALT-NLP\u002FFLANG.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00083)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue)\n  - FLUE是一个金融评测基准，包含5个金融领域数据集。\n  \n- [GeoGLUE](https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002Fdamo\u002FGeoGLUE\u002Fsummary)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06545)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F地理-blue) \n  - GeoGLUE是一个由阿里巴巴达摩院与高德联合发布的地理语义理解能力评测基准，旨在推动地理相关文本处理技术和社区的发展。本榜单提炼了其中多个典型场景：地图搜索、电商物流、政府登记、金融交通，并设计了六个核心任务：门址地址要素解析、地理实体对齐、Query-POI库召回、Query-POI相关性排序、地址Query成分分析、WhereWhat切分。\n\n- [OWL-Bench](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHC-Guo\u002FOwl.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09298)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - OWL-Bench 是一个面向运维领域的双语评测基准。它包含 317 个问答题和 1000 个多选题，涵盖了该领域的众多现实工业场景，包括信息安全、应用、系统架构、软件架构、中间件、网络、操作系统、基础设施和数据库这九个不同的子领域。以确保 OWL-Bench 能够展现出多样性。\n\n- [DevOps-Eval](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-devops-eval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002Fcodefuse-devops-eval.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - DevOps-Eval是由蚂蚁集团联合北京大学发布的面向DevOps领域的大语言模型评测基准。\n\n## 📎 附录\n\n### ✨ 点赞历史\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fluban-agi_Awesome-Domain-LLM_readme_7e0b3d3241a6.png)](https:\u002F\u002Fstar-history.com\u002F#wuyifan18\u002FAwesome-Domain-LLM&Date)\n\n### 🤝 友情链接\n- [Awesome Code LLM](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FAwesome-Code-LLM)\n  - 该项目收集了代码大模型相关论文，并整理出一篇综述。\n- [CodeFuse-ChatBot](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-chatbot)\n  - CodeFuse-ChatBot是由蚂蚁CodeFuse团队开发的开源AI智能助手，致力于简化和优化软件开发生命周期中的各个环节。 \n- [Awesome AIGC Tutorials](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-AIGC-Tutorials)\n  - 该项目收集了关于AIGC的各种精选教程和资源，既适合初学者也适合进阶AI爱好者。\n- [Awesome Tool Learning](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Tool-Learning)\n  - 该项目收集了关于工具学习的资源，包括论文、框架和应用。\n- [Awesome LLM reasoning](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-LLM-reasoning)\n  - 该项目收集了关于大语言模型推理方面的资源，包括论文、数据集等。\n","# 令人惊叹的领域大模型\n\n[![Awesome](https:\u002F\u002Fcamo.githubusercontent.com\u002F64f8905651212a80869afbecbf0a9c52a5d1e70beab750dea40a994fa9a9f3c6\u002F68747470733a2f2f617765736f6d652e72652f62616467652e737667)](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002Fawesome-Domain-LLM) \n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT) \n![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fluban-agi\u002FAwesome-Domain-LLM?color=green)\n[![GitHub Repo stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fluban-agi\u002FAwesome-Domain-LLM?style=social)](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM)\n\n自以ChatGPT为代表的大语言模型出现以后，掀起了新一轮研究和应用浪潮，出现了许多包括LLaMA、ChatGLM、Baichuan、Qwen等在内的通用模型。\n随后，来自不同领域的从业人员在通用模型的基础上通过持续预训练\u002F指令微调将其应用于垂直领域。\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fluban-agi_Awesome-Domain-LLM_readme_42d904d3cad8.jpg\" width=\"500\"\u002F>\n\u003Cp>\n\n本项目旨在收集和梳理垂直领域的**开源模型**、**数据集**及**评测基准**。\n欢迎大家贡献本项目未收录的开源模型、数据集、评测基准等内容，一起推动大模型赋能各行各业！\n\n## 🔔 更新\n- [2023\u002F11\u002F26] 增强网络安全大模型[SecGPT](https:\u002F\u002Fgithub.com\u002FClouditera\u002Fsecgpt)、医疗大模型[ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT)、金融大模型[Tongyi-Finance-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary)、金融评测基准[FinanceBench](https:\u002F\u002Fgithub.com\u002Fpatronus-ai\u002Ffinancebench)和[CFBenchmark](https:\u002F\u002Fgithub.com\u002FTongjiFinLab\u002FCFBenchmark)。\n- [2023\u002F11\u002F01] 增加由蚂蚁集团联合北京大学发布的DevOps领域大模型[DevOps-Model](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model)和评测基准[DevOps-Eval](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-devops-eval)。\n- [2023\u002F10\u002F28] 增加金融大模型[DISC-FinLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-FinLLM)、医学大模型[AlpaCare](https:\u002F\u002Fgithub.com\u002FXZhang97666\u002FAlpaCare)、海洋大模型[MarineGPT](https:\u002F\u002Fgithub.com\u002Fhkust-vgd\u002FMarineGPT)。\n- [2023\u002F10\u002F19] 增加心理大模型[MentalLLaMA](https:\u002F\u002Fgithub.com\u002FSteveKGYang\u002FMentalLLaMA)、双语生物医学大模型[Taiyi (太一)](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM)、海洋大模型[OceanGPT](https:\u002F\u002Fwww.zjukg.org\u002Fproject\u002FOceanGPT\u002F)。\n- [2023\u002F10\u002F10] 增加由云智慧智能研究院和北航联合研发的面向运维领域的大模型[OWL](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)和评测基准[OWL-Bench](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl#owl-bench)。增加中文法律大模型评测基准[LAiW](https:\u002F\u002Fgithub.com\u002FDai-shen\u002FLAiW)。\n- [2023\u002F10\u002F05] 增加心理大模型[ChatPsychiatrist](https:\u002F\u002Fgithub.com\u002FEmoCareAI\u002FChatPsychiatrist)、金融大模型[InvestLM](https:\u002F\u002Fgithub.com\u002FAbaciNLP\u002FInvestLM)、农业大模型[AgriGPT](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs)和医疗大模型[WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2)。\n- [2023\u002F10\u002F03] 增加两个法律评测基准，分别为面向中国法律体系的[LawBench](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FLawBench)和美国法律体系的[LegalBench](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Flegalbench)。\n- [2023\u002F10\u002F01] 增加[DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)，由复旦大学开源的旨在为用户提供专业、智能、全面的法律服务的法律领域大模型。增加[FinGLM](https:\u002F\u002Fgithub.com\u002FMetaGLM\u002FFinGLM)，致力于构建一个开放的、公益的、持久的金融大模型项目，利用开源开放来促进「AI+金融」。\n- [2023\u002F9\u002F25] 更新[Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)，新增Qwen-14B和Qwen-14B-Chat模型，并更新Qwen-7B和Qwen-7B-Chat模型。相比原版Qwen-7B，新版使用更多训练数据 (2.4T token)，序列长度从2048扩展至8192。整体中文能力以及代码能力提升较多。\n- [2023\u002F9\u002F22] 增加[InternLM(书生•浦语)](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)，上海AI实验室与商汤科技联合香港中文大学和复旦大学开源的多语基座模型。\n- [2023\u002F9\u002F15] 增加[Zhongjing-LLaMA (仲景)](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing)，包含预训练、有监督微调和RLHF完整训练流程的中文医学大模型。\n- [2023\u002F9\u002F14] 增加[WeaverBird (织工鸟)](https:\u002F\u002Fgithub.com\u002Fant-research\u002Ffin_domain_llm)，可接入本地知识与网络搜索能力的金融领域对话大模型。\n- [2023\u002F9\u002F13] 增加[夫子•明察](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha)，由山东大学、浪潮云、中国政法大学联合研发的司法大模型。\n\n## 📜 目录\n\n- [🤖 模型](#-模型)\n  - [🌐 通用模型](#-通用模型)\n  - [🧩 领域模型](#-领域模型)\n    - [🏥 医疗](#-医疗)\n    - [⚖ 法律](#-法律)\n    - [💰 金融](#-金融)\n    - [🎓 教育](#-教育)\n    - [➕ 其他](#-其他)\n- [📚 数据集](#-数据集)\n- [📏 评测基准](#-评测基准)\n- [📎 附录](#-附录)\n  - [✨ 点赞历史](#-点赞历史)\n  - [🤝 友情链接](#-友情链接)\n\n## 🤖 模型\n\n### 🌐 通用模型\n\n领域模型通常在通用模型的基础上进行持续预训练或指令微调得到，此处整理常用的开源通用模型。\n\n| 模型                                                          | 大小                                           | 机构                                         | 论文   |\n|:------------------------------------------------------------:|:----------------------------------------------:|:-------------------------------------------:|:-----:|\n| [LLaMA2](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama)          | 7B\u002F7B-Chat \u003Cbr> 13B\u002F13B-Chat \u003Cbr> 70B\u002F70B-Chat | [Meta](https:\u002F\u002Fai.meta.com\u002F)                | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09288)                             |\n| [ChatGLM3-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3)             | 6B-Base\u002F6B\u002F6B-32K                              | [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3)| [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414) \n| [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)                       | 1.8B\u002F1.8B-Chat \u003Cbr> 7B\u002F7B-Chat \u003Cbr> 14B\u002F14B-Chat \u003Cbr> 72B\u002F72B-Chat | [阿里云](https:\u002F\u002Fqianwen.aliyun.com\u002F)        | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609)|\n| [Baichuan2](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2)       | 7B\u002F7B-Chat \u003Cbr> 13B\u002F13B-Chat                   | [百川智能](https:\u002F\u002Fwww.baichuan-ai.com\u002Fhome) | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10305)\n| [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)             | 7B\u002F7B-Chat \u003Cbr> 20B\u002F20B-Chat                   | [上海AI实验室](https:\u002F\u002Finternlm.intern-ai.org.cn) | [paper](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Fblob\u002Fmain\u002FInternLM.pdf)\n\n### 🧩 领域模型\n\n#### 🏥 医疗\n\n- [ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsynlp\u002FChiMed-GPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06025)]\n  - ChiMed-GPT 是一款基于 Ziya-v2 的中文医疗大模型。在Ziya-v2的基础上，综合进行了预训练、监督式微调（SFT）和来自人类反馈的强化学习（RLHF）。\n\n- [AlpaCare](https:\u002F\u002Fgithub.com\u002FXZhang97666\u002FAlpaCare)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FXZhang97666\u002FAlpaCare.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14558)]\n  - 该项目开源了医学大模型AlpaCare，在LLaMA上微调得到。\n    \n- [Taiyi (太一)](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDUTIR-BioNLP\u002FTaiyi-LLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.11608)]\n  - 该项目开源了中英双语生物医学大模型Taiyi (太一)，旨在探索大模型在生物医学领域中双语自然语言处理多任务的能力。\n\n- [MentalLLaMA](https:\u002F\u002Fgithub.com\u002FSteveKGYang\u002FMentalLLaMA)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSteveKGYang\u002FMentalLLaMA.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13567)]\n  - 该项目开源了心理大模型MentalLLaMA，可以用于社交媒体上可解释的心理健康分析。\n\n- [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwinninghealth\u002FWiNGPT2.svg?style=social)\n  - WiNGPT是一个基于GPT的医疗垂直领域大模型，旨在将专业的医学知识、医疗信息、数据融会贯通，为医疗行业提供智能化的医疗问答、诊断支持和医学知识等信息服务，提高诊疗效率和医疗服务质量。\n    \n- [ChatPsychiatrist](https:\u002F\u002Fgithub.com\u002FEmoCareAI\u002FChatPsychiatrist)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEmoCareAI\u002FChatPsychiatrist.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15461)]\n  - 该项目开源了基于LLaMA-7B微调得到的心理大模型ChatPsychiatrist，该模型可以迅速识别心理问题，并提供量身定制的治疗建议。\n    \n- [Zhongjing-LLaMA (仲景)](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSupritYoung\u002FZhongjing.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03549)]\n  - 该项目开源了首个包含预训练、有监督微调和 RLHF 完整训练流程的中文医学大模型，展现出了很好的泛化能力，在某些对话场景中甚至接近专业医生的专业水平。此外，还开源了一个包含 70,000 条完全来源于真实医患对话的多轮对话数据集。该数据集包含大量医生主动提问的语句，有助于提升模型的主动医疗询问能力。\n\n- [DoctorGLM](https:\u002F\u002Fgithub.com\u002Fxionghonglin\u002FDoctorGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fxionghonglin\u002FDoctorGLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.01097)]\n  - 基于ChatGLM-6B的中文问诊模型，通过中文医疗对话数据集进行微调，实现了包括lora、p-tuningv2等微调及部署。\n\n- [BenTsao (本草)](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06975)]\n  - 该项目开源了经过中文医学指令微调的大语言模型集，包括LLaMA、Alpaca-Chinese、Bloom、活字模型等。我们基于医学知识图谱以及医学文献，结合ChatGPT API构建了中文医学指令微调数据集，并以此对各种基模型进行了指令微调，提高了基模型在医疗领域的问答效果。\n  \n- [Med-ChatGLM](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FMed-ChatGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSCIR-HI\u002FMed-ChatGLM.svg?style=social)\n  - 该项目开源了经过中文医学指令微调的ChatGLM-6B模型，微调数据与BenTsao相同。\n    \n- [BianQue (扁鹊)](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FBianQue.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15896)]\n  - 该项目开源了生活空间健康大模型。结合当前开源的中文医疗问答数据集（MedDialog-CN、IMCS-V2、CHIP-MDCFNPC、MedDG、cMedQA2、Chinese-medical-dialogue-data），分析其中的单轮\u002F多轮特性以及医生问询特性，结合自建的生活空间健康对话大数据，构建了千万级别规模的扁鹊健康大数据BianQueCorpus，基于扁鹊健康大数据BianQueCorpus，选择ChatGLM-6B作为初始化模型，经过全量参数的指令微调训练得到BianQue。\n    \n- [HuatuoGPT (华佗)](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFreedomIntelligence\u002FHuatuoGPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15075)]\n  - 该项目开源了医疗大模型HuatuoGPT，包括基于Baichuan-7B训练得到的HuatuoGPT-7B和基于Ziya-LLaMA-13B-Pretrain-v1训练得到的HuatuoGPT-13B。\n\n- [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCMKRG\u002FQiZhenGPT.svg?style=social)\n  - 该项目利用启真医学知识库构建的中文医学指令数据集，并基于此在Chinese-LLaMA-Plus-7B、CaMA-13B、ChatGLM-6B模型上进行指令精调，大幅提高了模型在中文医疗场景下效果。\n\n- [ChatMed](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FChatMed)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FChatMed.svg?style=social)\n  - 该项目开源了中文医疗大模型ChatMed-Consult，以中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集，基于LlaMA-7b采用LoRA微调得到。\n\n- [ShenNong-TCM-LLM (神农)](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FShenNong-TCM-LLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FShenNong-TCM-LLM.svg?style=social)\n  - 该项目开源了中文中医药大模型ShenNong-TCM-LLM，以开源的中医药知识图谱为基础，采用以实体为中心的自指令方法，调用ChatGPT得到2.6w+中医药指令数据集ChatMed_TCM_Dataset，基于该数据集以LlaMA为底座，采用LoRA微调得到。\n\n- [XrayGLM](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FXrayGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FXrayGLM.svg?style=social)\n  - 该项目开源了中文多模态医学数据集及模型，其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。\n\n- [MedicalGPT](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FMedicalGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fshibing624\u002FMedicalGPT.svg?style=social)\n  - 该项目开源了医疗大模型MedicalGPT，实现了包括增量预训练、有监督微调、RLHF(奖励建模、强化学习训练)和DPO(直接偏好优化)。\n\n- [Sunsimiao (孙思邈)](https:\u002F\u002Fgithub.com\u002Fthomas-yanxin\u002FSunsimiao)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fthomas-yanxin\u002FSunsimiao.svg?style=social)\n  - 该项目开源了中文医疗大模型Sunsimiao，该模型基于baichuan-7B和ChatGLM-6B底座模型在十万级高质量的中文医疗数据中微调而得。\n\n- [CareGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FCareGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FCareGPT.svg?style=social)\n  - 该项目开源了医疗大模型CareGPT (关怀GPT)，同时它集合了数十个公开可用的医疗微调数据集和开放可用的医疗大语言模型，包含LLM的训练、测评、部署等以促进医疗LLM快速发展。\n\n- [DISC-MedLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-MedLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-MedLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14346)]\n  - 该项目是由复旦大学发布的针对医疗健康对话式场景而设计的医疗领域大模型与数据集，该模型由DISC-Med-SFT数据集基于Baichuan-13B-Base指令微调得到，有效地对齐了医疗场景下的人类偏好，弥合了通用语言模型输出与真实世界医疗对话之间的差距。\n\n- [PMC-LLaMA](https:\u002F\u002Fgithub.com\u002Fchaoyi-wu\u002FPMC-LLaMA)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchaoyi-wu\u002FPMC-LLaMA.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.14454)]\n  - 该项目开源了医疗大模型PMC-LLaMA，包括预训练版本的MedLLaMA_13B和指令微调版本的PMC_LLaMA_13B。\n\n- [ChatDoctor](https:\u002F\u002Fgithub.com\u002FKent0n-Li\u002FChatDoctor)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FKent0n-Li\u002FChatDoctor.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.14070)]\n  - 该项目开源了医疗大模型ChatDoctor，在LLaMA的基础上训练得到。\n\n- [MING (明医)](https:\u002F\u002Fgithub.com\u002F189569400\u002FMedicalGPT-zh)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F189569400\u002FMedicalGPT-zh.svg?style=social)\n  - 该项目开源了医疗大模型MING，基于bloomz-7b指令微调得到MING-7B，支持医疗问答、智能问诊等功能。\n\n- [IvyGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FIvyGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002FIvyGPT.svg?style=social)\n  - 该项目开源了医疗大模型IvyGPT，它在高质量的医学问答数据上进行了监督微调，并使用人类反馈的强化学习进行了训练。\n\n- [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopenmedlab\u002FPULSE.svg?style=social)\n  - 该项目开源了中文医疗大模型PULSE，该模型使用约4,000,000个中文医学领域和通用领域的指令微调数据进行微调，支持医学领域的各种自然语言处理任务，包括健康教育、医师考试问题、报告解读、医疗记录结构化以及模拟诊断和治疗。\n\n- [HuangDI (皇帝)](https:\u002F\u002Fgithub.com\u002FZlasejd\u002FHuangDI)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZlasejd\u002FHuangDI.svg?style=social)\n  - 该项目开源了中医大模型HuangDI (皇帝)，该模型首先在Ziya-LLaMA-13B-V1基座模型的基础上加入中医教材、中医各类网站数据等语料库，训练出一个具有中医知识理解力的预训练模型，之后在此基础上通过海量的中医古籍指令对话数据及通用指令数据进行有监督微调，使得模型具备中医古籍知识问答能力。\n \n- [ZhongJing (仲景)](https:\u002F\u002Fgithub.com\u002Fpariskang\u002FCMLM-ZhongJing)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpariskang\u002FCMLM-ZhongJing.svg?style=social)\n  - 该项目开源了中医大模型ZhongJing (仲景)，该模型旨在阐明中医博大精深之知识，传承古代智慧与现代技术创新，最终为医学领域提供可信赖和专业的工具。\n\n- [TCMLLM](https:\u002F\u002Fgithub.com\u002F2020MEAI\u002FTCMLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002F2020MEAI\u002FTCMLLM.svg?style=social)\n  - 该项目拟通过大模型方式实现中医临床辅助诊疗（病证诊断、处方推荐等）中医药知识问答等任务，推动中医知识问答、临床辅助诊疗等领域的快速发展。目前针对中医临床智能诊疗问题中的处方推荐任务，发布了中医处方推荐大模型TCMLLM-PR，通过整合真实世界临床病历、医学典籍与中医教科书等数据，构建了包含68k数据条目的处方推荐指令微调数据集，在ChatGLM大模型上进行微调得到。\n\n- [MeChat](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fqiuhuachuan\u002Fsmile.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.00450)]\n  - 该项目开源了中文心理健康支持对话大模型与数据集。模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话，该数据集含有56k个多轮对话，其对话主题、词汇和篇章语义更加丰富多样，更加符合在长程多轮对话的应用场景。\n  \n- [SoulChat (灵心)](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FSoulChat.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.00273)]\n  - 该项目开源了心理健康大模型SoulChat (灵心)，该模型以ChatGLM-6B作为初始化模型，经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调得到。\n\n- [MindChat (漫谈)](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FMindChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FX-D-Lab\u002FMindChat.svg?style=social)\n  - 该项目开源了心理大模型MindChat (漫谈)，该模型采用了经过人工清洗的约20万条的高质量多轮心理对话数据进行训练，涵盖工作、家庭、学习、生活、社交、安全等多个方面，期望从心理咨询、心理评估、心理诊断、心理治疗四个维度帮助人们纾解心理压力与解决心理困惑, 提高心理健康水平。\n\n- [QiaoBan (巧板)](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC\u002FQiaoBan)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHIT-SCIR-SC\u002FQiaoBan.svg?style=social)\n  - 该项目开源了儿童情感对话大模型QiaoBan，基于开源通用大模型，使用通用域人机对话、单轮指令数据以及儿童情感陪伴对话数据进行指令微调，研发出适用于儿童情感陪伴的大模型。\n\n#### ⚖ 法律\n\n- [DISC-LawLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-LawLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-LawLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11325)]\n  - DISC-LawLLM 是一个旨在为用户提供专业、智能、全面的法律服务的法律领域大模型，由复旦大学数据智能与社会计算实验室 (Fudan-DISC) 开发并开源，包括 DISC-LawLLM-13B 模型 和 DISC-Law-SFT 数据集。\n\n- [LawGPT_zh (獬豸)](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FLiuHC0428\u002FLAW-GPT.svg?style=social)\n  - 本项目开源的中文法律通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集包括现有的法律问答数据集和基于法条和真实案例指导的self-Instruct构建的高质量法律文本问答，提高了通用语言大模型在法律领域的表现，提高了模型回答的可靠性和专业程度。\n    \n- [LaWGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpengxiao-song\u002FLaWGPT.svg?style=social)\n  - 该系列模型在通用中文基座模型（如Chinese-LLaMA、ChatGLM等）的基础上扩充法律领域专有词表、大规模中文法律语料预训练，增强了大模型在法律领域的基础语义理解能力。在此基础上，构造法律领域对话问答数据集、中国司法考试数据集进行指令精调，提升了模型对法律内容的理解和执行能力。\n\n- [LexiLaw](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCSHaitao\u002FLexiLaw.svg?style=social)\n  - LexiLaw是一个经过微调的中文法律大模型，它基于ChatGLM-6B架构，通过在法律领域的数据集上进行微调，使其在提供法律咨询和支持方面具备更高的性能和专业性。该模型旨在为法律从业者、学生和普通用户提供准确、可靠的法律咨询服务。无论是需要针对具体法律问题的咨询，还是对法律条款、案例解析、法规解读等方面的查询，LexiLaw都能够提供有益的建议和指导。\n\n- [Lawyer LLaMA](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAndrewZhe\u002Flawyer-llama.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.15062)]\n  - 该项目开源了法律领域的指令微调数据和基于LLaMA训练的中文法律大模型Lawyer LLaMA。Lawyer LLaMA首先在大规模法律语料上进行了预训练，让它系统的学习中国的法律知识体系。在此基础上，借助ChatGPT收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答，利用收集到的数据对模型进行指令微调，让模型习得将法律知识应用到具体场景中的能力。\n\n- [HanFei (韩非)](https:\u002F\u002Fgithub.com\u002Fsiat-nlp\u002FHanFei)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsiat-nlp\u002FHanFei.svg?style=social)\n  - HanFei-1.0(韩非)是国内首个全参数训练的法律大模型，参数量7b，主要功能包括：法律问答、多轮对话、撰写文章、检索等。\n\n- [ChatLaw](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPKU-YuanGroup\u002FChatLaw.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16092)]\n  - 由北大开源的一系列法律大模型，使用大量法律新闻、法律论坛、法条、司法解释、法律咨询、法考题、判决文书等原始文本来构造对话数据，包括基于姜子牙-13B、Anima-33B训练而来的ChatLaw-13B和ChatLaw-33B。此外，还开源了ChatLaw-Text2Vec，使用93w条判决案例做成的数据集基于BERT训练了一个相似度匹配模型，可将用户提问信息和对应的法条相匹配。\n\n- [Lychee (律知)](https:\u002F\u002Fgithub.com\u002Fdavidpig\u002Flychee_law)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdavidpig\u002Flychee_law.svg?style=social)\n  - 开源了中文司法领域大模型Law-GLM-10B，基于GLM-10B模型，在30GB中文法律数据上进行指令微调得到。\n\n- [wisdomInterrogatory (智海-录问)](https:\u002F\u002Fgithub.com\u002FzhihaiLLM\u002FwisdomInterrogatory)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FzhihaiLLM\u002FwisdomInterrogatory.svg?style=social)\n  - 由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型，基于Baichuan-7B进行了法律领域数据的二次预训练与指令微调，并设计了知识增强的推理流程。\n\n- [JurisLMs](https:\u002F\u002Fgithub.com\u002Fseudl\u002FJurisLMs)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fseudl\u002FJurisLMs.svg?style=social)\n  - 该项目基于中文法学语料训练了一系列语言模型，包括: 1) 可解释法律判决预测模型AI Judge，由GPT2在法学语料上进一步预训练之后，结合一个法条适用模型（一个基于BERT的分类器）微调得到，不仅能够给出判决结果，还能给出相应的法院观点; 2) 智能法律咨询模型AI Lawyer，采用主动学习在少量数据上进行微调得到，可以根据用户咨询适用正确的法律法规回答问题。\n\n- [夫子•明察](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Firlab-sdu\u002Ffuzi.mingcha.svg?style=social)\n  - 夫子•明察司法大模型是由山东大学、浪潮云、中国政法大学联合研发，以 ChatGLM 为大模型底座，基于海量中文无监督司法语料（包括各类判决文书、法律法规等）与有监督司法微调数据（包括法律问答、类案检索）训练的中文司法大模型。该模型支持法条检索、案例分析、三段论推理判决以及司法对话等功能，旨在为用户提供全方位、高精准的法律咨询与解答服务。\n\n#### 💰 金融\n\n- [Tongyi-Finance-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary)\n  - 通义金融-14B（Tongyi-Finance-14B）是针对对金融行业推出的大语言模型，基于通义千问基础模型进行行业语料增量学习，强化金融领域知识和场景应用能力，覆盖金融知识问答、文本分类、信息抽取、文本创作、阅读理解、逻辑推理、多模态、Coding等能力象限。\n\n- [DISC-FinLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-FinLLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFudanDISC\u002FDISC-FinLLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15205)]\n  - DISC-FinLLM是一个金融领域的大语言模型，是由面向不同金融场景的4个模组：金融咨询、金融文本分析、金融计算、金融知识检索问答构成的多专家智慧金融系统。这些模组分别在金融NLP任务、人类试题、资料分析和时事分析等四个评测中展现出明显优势，证明了DISC-FinLLM能为广泛的金融领域提供强有力的支持。\n\n- [InvestLM](https:\u002F\u002Fgithub.com\u002FAbaciNLP\u002FInvestLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAbaciNLP\u002FInvestLM.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.13064)]\n  - 该项目开源了基于LLaMA-65B微调得到的英文金融大模型。\n    \n- [FinGLM](https:\u002F\u002Fgithub.com\u002FMetaGLM\u002FFinGLM)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FMetaGLM\u002FFinGLM.svg?style=social)\n  - 致力于构建一个开放的、公益的、持久的金融大模型项目，利用开源开放来促进「AI+金融」。\n\n- [WeaverBird (织工鸟)](https:\u002F\u002Fgithub.com\u002Fant-research\u002Ffin_domain_llm)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fant-research\u002Ffin_domain_llm.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.05361)]\n  - 该项目开源了基于中英双语金融领域语料库微调的，同时可接入本地知识库以及网络搜索引擎的金融领域对话大模型。\n  \n- [BBT-FinCUGE-Applications](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fssymmetry\u002FBBT-FinCUGE-Applications.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09432)]\n  - 该项目开源了中文金融领域语料库BBT-FinCorpus，知识增强型大模型BBT-FinT5及评测基准CFLEB。\n\n- [Cornucopia (聚宝盆)](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese.svg?style=social)\n  - 该项目基于公开和爬取的中文金融领域问答数据构建指令数据集，并在此基础上对LLaMA系模型进行了指令微调，提高了LLaMA在金融领域的问答效果。\n\n- [XuanYuan (轩辕)](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDuxiaoman-DI\u002FXuanYuan.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)]\n  - 轩辕是国内首个开源的千亿级中文对话大模型，同时也是首个针对中文金融领域优化的千亿级开源对话大模型。轩辕在BLOOM-176B的基础上针对中文通用领域和金融领域进行了针对性的预训练与微调，它不仅可以应对通用领域的问题，也可以解答与金融相关的各类问题，为用户提供准确、全面的金融信息和建议。\n\n- [PIXIU (貔貅)](https:\u002F\u002Fgithub.com\u002Fchancefocus\u002FPIXIU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchancefocus\u002FPIXIU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05443)]\n  - 该项目开源了金融领域指令微调数据集FIT，大模型FinMA及评测基准FLARE。\n\n- [FinGPT](https:\u002F\u002Fgithub.com\u002FAI4Finance-Foundation\u002FFinGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAI4Finance-Foundation\u002FFinGPT.svg?style=social)\n  [[paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.06031)]\n  [[paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.04793)]\n  - 该项目开源了多个金融大模型，包括ChatGLM2-6B+LoRA和LLaMA2-7B+LoRA等金融大模型，收集了包括金融新闻、社交媒体、财报等中英文训练数据。\n \n- [FLANG](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FFLANG)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSALT-NLP\u002FFLANG.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00083)]\n  - 该项目开源了金融大模型FLANG和评测基准FLUE。\n\n#### 🎓 教育\n\n- [桃李 (Taoli)](https:\u002F\u002Fgithub.com\u002Fblcuicall\u002Ftaoli)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fblcuicall\u002Ftaoli.svg?style=social)\n  - 该项目开源了适用于国际中文教育领域的大模型，基于目前国际中文教育领域流通的500余册国际中文教育教材与教辅书、汉语水平考试试题以及汉语学习者词典等，构建了国际中文教育资源库。通过多种形式的指令构造了共计88000条的高质量国际中文教育问答数据集，并利用收集到的数据对模型进行指令微调，让模型习得将国际中文教育知识应用到具体场景中的能力。\n\n- [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ficalk-nlp\u002FEduChat.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.02773)]\n  - 该项目开源了针对教育垂直领域的对话大模型，主要研究以预训练大模型为基底的教育对话大模型相关技术，融合多样化的教育垂直领域数据，辅以指令微调、价值观对齐等方法，提供教育场景下自动出题、作业批改、情感支持、课程辅导、高考咨询等丰富功能，服务于广大老师、学生和家长群体，助力实现因材施教、公平公正、富有温度的智能教育。\n\n#### ➕ 其他\n\n- [DevOps-Model](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002FCodeFuse-DevOps-Model.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - 该项目开源了由蚂蚁集团联合北京大学研发的DevOps领域大模型DevOps-Model。\n\n- [OWL](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHC-Guo\u002FOwl.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09298)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - 该项目开源了由云智慧智能研究院和北航联合研发的智能运维（AIOps）大语言模型，其在收集的 Owl-Instruct 数据基础上训练而成。此外，由于缺乏智能运维领域的大语言模型的 Benchmark，还建立了 Owl-Bench 评测基准。\n \n- [MarineGPT](https:\u002F\u002Fgithub.com\u002Fhkust-vgd\u002FMarineGPT)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.13596)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F海洋-blue) \n  - 该项目开源了首个专为海洋领域设计的视觉语言模型MarineGPT。\n    \n- [OceanGPT]((https:\u002F\u002Fwww.zjukg.org\u002Fproject\u002FOceanGPT))\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02031)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F海洋-blue) \n  - 该项目开源了面向海洋学的大模型OceanGPT。\n    \n- [AgriGPT](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAgriGPTs\u002FAgriGPTs.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F农业-blue) \n  - 该项目开源了农业大模型MediaGPT。\n\n- [MediaGPT](https:\u002F\u002Fgithub.com\u002FIMOSR\u002FMediaGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FIMOSR\u002FMediaGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F自媒体-blue) \n  - 该项目开源了中文自媒体大模型MediaGPT，首先在大规模自媒体语料上进行连续预训练，系统地学习自媒体的知识体系。然后，借助ChatGPT收集了一批关于抖音运营、短视频创作、巨量千川投放、直播运营和直播话术技巧等领域知识问题的分析和回答，并利用这些数据对模型进行指令微调，使模型习得如何将自媒体知识应用到实际场景中。\n\n- [EcomGPT](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FEcomGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FAlibaba-NLP\u002FEcomGPT.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.06966)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F电商-blue) \n  - 该项目开源了电商大模型EcomGPT，基于BLOOMZ在电商领域指令微调数据集EcomInstruct进行微调，在12个电商评测数据集上的人工评估超过ChatGPT。\n\n- [StarWhisper (星语)](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarWhisper)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FYu-Yang-Li\u002FStarWhisper.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F天文-blue) \n  - 在天文科学教育联盟、集思谱文献平台、司天工程的支持下，基于天文大模型StarGLM开发经验，我们进一步训练了星语StarWhisper系列模型(包括6B,7B,13B,14B,20B)。以进一步缓解大模型在天文通用知识的幻觉现象，为接下来可处理天文多模态任务、部署于望远镜阵列的科学具身智能——司天大脑打下基础。\n\n- [K2](https:\u002F\u002Fgithub.com\u002Fdavendw49\u002Fk2)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fdavendw49\u002Fk2.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05064)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F地球科学-blue) \n  - 该项目开源了地球科学大模型K2，该模型在LLaMA的基础上使用地球科学文献和维基百科数据进行预训练，然后使用GeoSignal数据集进行指令微调。\n\n- [TransGPT (致远)](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDUOMO\u002FTransGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F交通-blue) \n  - 该项目开源了交通大模型TransGPT (致远)，主要致力于在真实交通行业中发挥实际价值。它能够实现交通情况预测、智能咨询助手、公共交通服务、交通规划设计、交通安全教育、协助管理、交通事故报告和分析、自动驾驶辅助系统等功能。TransGPT作为一个通用常识交通大模型，可以为道路工程、桥梁工程、隧道工程、公路运输、水路运输、城市公共交通运输、交通运输经济、交通运输安全等行业提供通识常识。以此为基础，可以落脚到特定的交通应用场景中。\n\n- [SecGPT](https:\u002F\u002Fgithub.com\u002FClouditera\u002Fsecgpt)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FClouditera\u002Fsecgpt.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F安全-blue) \n  - 该项目开源了网络安全大模型SecGPT，该模型基于Baichuan-13B采用Lora做预训练和SFT训练，还开源了相关预训练和指令微调数据集。\n\n- [AutoAudit](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fddzipp\u002FAutoAudit.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F安全-blue) \n  - 该项目开源了网络安全大模型AutoAudit，其目标是为安全审计和网络防御提供强大的自然语言处理能力。它具备分析恶意代码、检测网络攻击、预测安全漏洞等功能，为安全专业人员提供有力的支持。\n\n- [TechGPT](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fneukg\u002FTechGPT.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F科技-blue) \n  - 该项目开源了科技大模型TechGPT，该模型面向计算机科学、材料、机械、冶金、金融和航空航天等十余种垂直专业领域，涵盖了领域术语抽取、命名实体识别、关系三元组抽取、文本关键词生成、标题生成摘要、摘要生成标题、文本领域识别、机器阅读理解、基础常识问答、基于上下文的知识问答、建议咨询类问答、文案生成、中英互译和简单代码生成等多项自然语言理解和生成能力。\n\n- [Mozi (墨子)](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FgmftbyGMFTBY\u002Fscience-llm.svg?style=social)\n  [[paper](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm\u002Fblob\u002Fmain\u002Fasset\u002Fmozi_technical_report.pdf)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F科技-blue) \n  - 该项目开源了科技论文大模型Mozi (墨子)，可以用于科技文献的问答和情感支持。\n\n- [OpenBioMed](https:\u002F\u002Fgithub.com\u002FPharMolix\u002FOpenBioMed)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FPharMolix\u002FOpenBioMed.svg?style=social)\n  [[paper1](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09442)]\n  [[paper2](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.09484)]\n  [[paper3](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04371)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F生物医学-blue) \n  - 该项目开源了若干多模态生物医学大模型，包括多模态生物医药大模型BioMedGPT、多模态小分子基础模型DrugFM和MolFM、细胞表示学习模型CellLM等。\n\n- [YaYi (雅意)](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwenge-research\u002FYaYi.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多领域-blue) \n  - 该项目开源了多领域大模型YaYi (雅意)，该模型在百万级人工构造的高质量领域数据上进行指令微调得到，训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域，上百种自然语言指令任务。\n\n\n\n## 📚 数据集\n\n## 📏 评测基准\n\n- [C-Eval](https:\u002F\u002Fgithub.com\u002FSJTU-LIT\u002Fceval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSJTU-LIT\u002Fceval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - C-Eval是一个由上海交通大学发布的中文基础模型评测基准，包含了13948个多项选择题，涵盖了人文，社科，理工，其他专业四个大方向，52个学科，从中学到大学研究生以及职业考试。\n\n- [AGIEval](https:\u002F\u002Fgithub.com\u002Fruixiangcui\u002FAGIEval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fruixiangcui\u002FAGIEval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.06364)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - AGIEval是一个由微软发布的评测基准，用于评估大模型在人类认知任务中的表现，包含了20个面向普通考生的官方、公开、高标准入学和资格考试，包括普通大学入学考试 (中国高考和美国SAT考试)、法学院入学考试、数学竞赛和律师资格考试、国家公务员考试等。\n\n- [Xiezhi (獬豸)](https:\u002F\u002Fgithub.com\u002Fmikegu721\u002Fxiezhibenchmark)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmikegu721\u002Fxiezhibenchmark.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05783)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - Xiezhi是一个由复旦大学发布的综合的、多学科的、能够自动更新的领域知识评测基准，包含了哲学、经济学、法学、教育学、文学、历史学、自然科学、工学、农学、医学、军事学、管理学、艺术学这13个学科门类，516个具体学科，249587道题目。\n\n- [CMMLU](https:\u002F\u002Fgithub.com\u002Fhaonan-li\u002FCMMLU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhaonan-li\u002FCMMLU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.09212)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - CMMLU是一个综合性的中文评测基准，专门用于评估语言模型在中文语境下的知识和推理能力。CMMLU涵盖了从基础学科到高级专业水平的67个主题。它包括：需要计算和推理的自然科学，需要知识的人文科学和社会科学,以及需要生活常识的中国驾驶规则等。此外，CMMLU中的许多任务具有中国特定的答案，可能在其他地区或语言中并不普遍适用。因此是一个完全中国化的中文测试基准。\n\n- [MMCU](https:\u002F\u002Fgithub.com\u002FFelixgithub2017\u002FMMCU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFelixgithub2017\u002FMMCU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.12986)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - MMCU是一个综合性的中文评测基准，包括来自医学、法律、心理学和教育等四大领域的测试。\n\n- [CG-Eval](https:\u002F\u002Fgithub.com\u002FFelixgithub2017\u002FCG-Eval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FFelixgithub2017\u002FCG-Eval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.04823)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F多学科-blue) \n  - CG-Eval是一个由甲骨易AI研究院与LanguageX AI Lab联合发布的针对中文大模型生成能力的评测基准。包含了科技与工程、人文与社会科学、数学计算、医师资格考试、司法考试、注册会计师考试等六个大科目类别下的55个子科目的11000道不同类型问题。CG-Eval包含一套复合的打分系统：对于非计算题，每一道名词解释题和简答题都有标准参考答案，采用多个标准打分然后加权求和；对于计算题目，会提取最终计算结果和解题过程，然后综合打分。\n\n- [CBLUE](https:\u002F\u002Fgithub.com\u002FCBLUEbenchmark\u002FCBLUE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FCBLUEbenchmark\u002FCBLUE.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.08087)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F医疗-blue) \n  - CBLUE是一个中文医学语言理解评测基准，包含8个中文医疗语言理解任务。\n    \n- [PromptCBLUE](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FPromptCBLUE)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmichael-wzhu\u002FPromptCBLUE.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.14151)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F医疗-blue) \n  - PromptCBLUE是一个面向中文医疗场景的评测基准，通过对CBLUE基准进行二次开发，将16种不同的医疗场景NLP任务全部转化为基于提示的语言生成任务。\n\n- [LAiW](https:\u002F\u002Fgithub.com\u002FDai-shen\u002FLAiW)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDai-shen\u002FLAiW.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05620)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LAiW 是一个中文法律大模型评测基准，针对3大能力设计13个基础任务：1）法律 NLP 基础能力：评测法律基础任务、 NLP 基础任务和法律信息抽取的能力，包括法条推送、要素识别、命名实体识别、司法要点摘要和案件识别 5 个基础任务；2）法律基础应用能力：评测大模型对法律领域知识的基础应用能力，包括争议焦点挖掘、类案匹配、刑事裁判预测、民事裁判预测和法律问答 5 个基础任务；3）法律复杂应用能力：评测大模型对法律领域知识的复杂应用能力，包括司法说理生成、案情理解和法律咨询 3 个基础任务。\n\n- [LawBench](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002FLawBench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopen-compass\u002FLawBench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16289)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LawBench 是一个面向中国法律体系的法律评测基准。LawBench 模拟了司法认知的三个维度，并选择了20个任务来评估大模型的能力。与一些仅有多项选择题的现有基准相比，LawBench 包含了更多与现实世界应用密切相关的任务类型，如法律实体识别、阅读理解、犯罪金额计算和咨询等。\n\n- [LegalBench](https:\u002F\u002Fgithub.com\u002FHazyResearch\u002Flegalbench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHazyResearch\u002Flegalbench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11462)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LegalBench 是一个面向美国法律体系的法律评测基准，包含162个法律推理任务。\n    \n- [LEXTREME](https:\u002F\u002Fgithub.com\u002FJoelNiklaus\u002FLEXTREME)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FJoelNiklaus\u002FLEXTREME.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.13126)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LEXTREME是一个多语言的法律评测基准，包含了24种语言11个评测数据集。\n\n- [LexGLUE](https:\u002F\u002Fgithub.com\u002Fcoastalcph\u002Flex-glue)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcoastalcph\u002Flex-glue.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.00976)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F法律-blue) \n  - LexGLUE是一个英文法律评测基准。\n\n- [CFBenchmark](https:\u002F\u002Fgithub.com\u002FTongjiFinLab\u002FCFBenchmark)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FTongjiFinLab\u002FCFBenchmark.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.05812)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - CFBenchmark是一个旨在评估大语言模型在中文金融场景下辅助工作的评测基准。CFBenchmark的基础版本包括3917个金融文本涵盖三个方面和八个任务，从金融识别、金融分类、金融生成三个方面进行组织。\n\n- [FinanceBench](https:\u002F\u002Fgithub.com\u002Fpatronus-ai\u002Ffinancebench)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpatronus-ai\u002Ffinancebench.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.11944)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FinanceBench是一个用于评估开放式金融问题问答的评测基准，包含 10,231 个有关上市公司的问题，以及相应的答案。\n    \n- [FinEval](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab\u002FFinEval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSUFE-AIFLM-Lab\u002FFinEval.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.09975)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FinEval是一个金融知识评测基准，包含了4,661个高质量的多项选择题，涵盖金融、经济、会计和证书等领域，34个不同的学术科目。\n\n- [FLARE](https:\u002F\u002Fgithub.com\u002Fchancefocus\u002FPIXIU)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fchancefocus\u002FPIXIU.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05443)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FLARE是一个金融评测基准，包含了金融知识理解和预测等任务。\n\n- [CFLEB](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fssymmetry\u002FBBT-FinCUGE-Applications.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.09432)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - CFLEB是一个中文金融评测基准，包含两项语言生成任务和四项语言理解任务。\n\n- [FLUE](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FFLANG)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSALT-NLP\u002FFLANG.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.00083)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F金融-blue) \n  - FLUE是一个金融评测基准，包含5个金融领域数据集。\n  \n- [GeoGLUE](https:\u002F\u002Fmodelscope.cn\u002Fdatasets\u002Fdamo\u002FGeoGLUE\u002Fsummary)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.06545)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F地理-blue) \n  - GeoGLUE是一个由阿里巴巴达摩院与高德联合发布的地理语义理解能力评测基准，旨在推动地理相关文本处理技术和社区的发展。本榜单提炼了其中多个典型场景：地图搜索、电商物流、政府登记、金融交通，并设计了六个核心任务：门址地址要素解析、地理实体对齐、Query-POI库召回、Query-POI相关性排序、地址Query成分分析、WhereWhat切分。\n\n- [OWL-Bench](https:\u002F\u002Fgithub.com\u002FHC-Guo\u002FOwl)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHC-Guo\u002FOwl.svg?style=social)\n  [[paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.09298)]\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - OWL-Bench 是一个面向运维领域的双语评测基准。它包含 317 个问答题和 1000 个多选题，涵盖了该领域的众多现实工业场景，包括信息安全、应用、系统架构、软件架构、中间件、网络、操作系统、基础设施和数据库这九个不同的子领域。以确保 OWL-Bench 能够展现出多样性。\n\n- [DevOps-Eval](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-devops-eval)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002Fcodefuse-devops-eval.svg?style=social)\n  ![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F运维-blue) \n  - DevOps-Eval是由蚂蚁集团联合北京大学发布的面向DevOps领域的大语言模型评测基准。\n\n\n\n## 📎 附录\n\n### ✨ 点赞历史\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fluban-agi_Awesome-Domain-LLM_readme_7e0b3d3241a6.png)](https:\u002F\u002Fstar-history.com\u002F#wuyifan18\u002FAwesome-Domain-LLM&Date)\n\n### 🤝 友情链接\n- [Awesome Code LLM](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FAwesome-Code-LLM)\n  - 该项目收集了代码大模型相关论文，并整理出一篇综述。\n- [CodeFuse-ChatBot](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002Fcodefuse-chatbot)\n  - CodeFuse-ChatBot是由蚂蚁CodeFuse团队开发的开源AI智能助手，致力于简化和优化软件开发生命周期中的各个环节。 \n- [Awesome AIGC Tutorials](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-AIGC-Tutorials)\n  - 该项目收集了关于AIGC的各种精选教程和资源，既适合初学者也适合进阶AI爱好者。\n- [Awesome Tool Learning](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Tool-Learning)\n  - 该项目收集了关于工具学习的资源，包括论文、框架和应用。\n- [Awesome LLM reasoning](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-LLM-reasoning)\n  - 该项目收集了关于大语言模型推理方面的资源，包括论文、数据集等。","# Awesome-Domain-LLM 快速上手指南\n\nAwesome-Domain-LLM 是一个专注于收集和梳理垂直领域（如医疗、法律、金融等）**开源大模型**、**数据集**及**评测基准**的精选列表。本项目本身不直接提供可执行的二进制程序，而是作为资源索引，帮助开发者快速定位并部署适合特定场景的领域模型。\n\n以下是基于本项目收录资源的通用快速上手流程。\n\n## 环境准备\n\n在运行任何领域大模型之前，请确保您的开发环境满足以下基本要求。大多数模型基于 PyTorch 和 Transformers 生态构建。\n\n### 系统要求\n- **操作系统**: Linux (推荐 Ubuntu 20.04+), macOS, 或 Windows (WSL2)\n- **GPU**: 建议配备 NVIDIA GPU，显存至少 16GB（运行 7B 参数模型量化版），推荐 24GB+ 以运行全量或更大参数模型。\n- **Python**: 3.8 - 3.10\n\n### 前置依赖\n安装基础深度学习库。推荐使用国内镜像源加速安装。\n\n```bash\n# 配置 pip 国内镜像源 (阿里云)\npip config set global.index-url https:\u002F\u002Fmirrors.aliyun.com\u002Fpypi\u002Fsimple\u002F\n\n# 安装核心依赖\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece protobuf\n```\n\n> **注意**：具体模型的依赖可能略有不同（例如某些模型需要 `bitsandbytes` 进行量化加载），请在克隆具体模型仓库后查看其 `requirements.txt`。\n\n## 安装步骤\n\n由于 Awesome-Domain-LLM 是资源列表，您需要先选择目标模型（例如医疗领域的 `ChatGLM3` 或 `HuatuoGPT`），然后克隆对应的仓库。\n\n以下以通用的模型加载流程为例：\n\n### 1. 选择并克隆模型仓库\n假设您选择使用清华大学开源的 **ChatGLM3**（常作为医疗、法律等领域模型的基座）：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3.git\ncd ChatGLM3\n```\n\n若使用国内网络访问 GitHub 较慢，可使用 Gitee 镜像（如果项目有同步）或通过代理加速。\n\n### 2. 安装项目特定依赖\n进入目录后安装该模型专用的依赖包：\n\n```bash\npip install -r requirements.txt\n```\n\n### 3. 下载模型权重\n大多数模型权重托管在 Hugging Face 或 ModelScope（魔搭社区）。**强烈建议国内开发者使用 ModelScope 下载**以获得更快速度。\n\n以通过 ModelScope 下载为例（需先安装 `modelscope`）：\n\n```bash\npip install modelscope\n\n# 使用 Python 脚本下载模型 (示例：ChatGLM3-6B)\npython -c \"from modelscope import snapshot_download; snapshot_download('ZhipuAI\u002Fchatglm3-6b', cache_dir='.\u002Fmodels')\"\n```\n\n## 基本使用\n\n大多数领域模型的使用方式与通用大模型类似，主要通过 `transformers` 库加载。以下是一个加载本地模型并进行简单对话的通用代码示例。\n\n假设您已下载好一个基于 LLaMA 或 ChatGLM 架构的领域模型（如医疗模型 `WiNGPT2` 或 `HuatuoGPT`），目录结构为 `.\u002Fmy_domain_model`。\n\n### Python 推理示例\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\n\n# 1. 指定本地模型路径\nmodel_path = \".\u002Fmy_domain_model\"\n\n# 2. 加载分词器和模型\n# device_map=\"auto\" 会自动将模型分配到可用的 GPU 上\n# torch_dtype=torch.float16 用于节省显存\ntokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_path, \n    device_map=\"auto\", \n    torch_dtype=torch.float16,\n    trust_remote_code=True\n)\n\n# 3. 构建输入提示 (Prompt)\n# 不同模型的 Prompt 格式可能不同，请参考具体模型的 README\nquery = \"患者出现发热、咳嗽症状，可能的原因有哪些？\"\n\n# 4. 生成回复\ninputs = tokenizer(query, return_tensors=\"pt\").to(model.device)\noutputs = model.generate(\n    **inputs, \n    max_new_tokens=512, \n    do_sample=True, \n    temperature=0.8, \n    top_p=0.9\n)\n\n# 5. 解码并输出结果\nresponse = tokenizer.decode(outputs[0], skip_special_tokens=True)\nprint(response)\n```\n\n### 针对特定领域的提示词建议\n- **医疗领域**：在提问前可添加角色设定，如“你是一名专业的全科医生，请根据以下症状给出诊断建议...\"。\n- **法律领域**：强调依据的法律体系，如“根据《中华人民共和国民法典》，分析以下案例...\"。\n- **金融领域**：要求数据准确性，如“基于最新的财报数据，分析该公司的偿债能力...\"。\n\n请访问 [Awesome-Domain-LLM GitHub 主页](https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM) 浏览更多垂直领域的模型链接、数据集及评测基准，选择最适合您业务场景的工具。","某金融科技公司算法团队正计划研发一款能精准解读财报并回答专业问题的智能投顾助手，急需寻找合适的基座模型与评测数据。\n\n### 没有 Awesome-Domain-LLM 时\n- **检索效率低下**：工程师需在 GitHub、Hugging Face 及各类论文中大海捞针，耗时数周才零星找到几个金融模型，且难以确认是否开源。\n- **选型依据缺失**：面对找到的模型（如 FinGLM 或 InvestLM），缺乏统一的评测基准对比，无法判断哪个更懂中国股市术语或财报逻辑。\n- **数据配套困难**：找到了模型却找不到对应的微调数据集或验证集，导致复现和二次开发成本极高，项目进度严重受阻。\n- **领域覆盖盲区**：团队仅关注到热门的金融方向，完全忽略了法律合规（如 DISC-LawLLM）或舆情分析等相关领域的成熟资源，错失优化机会。\n\n### 使用 Awesome-Domain-LLM 后\n- **资源一站获取**：团队直接在“金融”分类下发现了 Tongyi-Finance-14B、DISC-FinLLM 等多个经过梳理的开源模型，半天内即可完成初步筛选。\n- **科学决策选型**：借助收录的 FinanceBench 和 CFBenchmark 评测基准，团队快速量化了各模型在金融推理任务上的表现，锁定了最适合的基座。\n- **全流程配套齐全**：不仅获得了模型权重，还直接下载了关联的训练数据集与评测脚本，将原本一个月的环境搭建与数据清洗工作压缩至三天。\n- **跨界灵感激发**：在浏览“法律”板块时，团队意外发现法律大模型的合规检查能力可迁移至金融风控模块，从而提升了产品的整体安全性。\n\nAwesome-Domain-LLM 将原本分散杂乱的垂直领域资源转化为结构化的知识地图，让企业能以最低成本快速构建行业专属的大模型应用。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fluban-agi_Awesome-Domain-LLM_d3b307b1.png","luban-agi","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fluban-agi_0b4a47ee.jpg",null,"https:\u002F\u002Fgithub.com\u002Fluban-agi",2574,202,"2026-04-01T01:05:15","MIT",1,"","未说明",{"notes":87,"python":85,"dependencies":88},"Awesome-Domain-LLM 本身是一个资源列表（Awesome List），用于收集和梳理垂直领域的开源模型、数据集及评测基准，并非一个可直接运行的单一软件工具。因此 README 中未提供统一的运行环境需求。具体的操作系统、GPU、内存、Python 版本及依赖库要求，需参考列表中各个具体模型（如 LLaMA2, ChatGLM3, Qwen 等）的独立仓库文档。",[],[51,26,13],[91,92,93,94,95],"awesome-list","llm","nlp","dataset","paper-list","2026-03-27T02:49:30.150509","2026-04-06T05:44:19.510621",[99,104,109],{"id":100,"question_zh":101,"answer_zh":102,"source_url":103},13013,"该项目最近还有更新吗？是否有最新的调研数据？","由于精力有限，本项目目前没有最新的调研数据。建议查看仓库 https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models，该仓库包含许多最新的数据（最近一次更新在 6 月附近）。如果您有相关调研内容，也欢迎提交 PR 贡献。","https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM\u002Fissues\u002F3",{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},13014,"如何将自己的领域大模型项目收录到这个列表中？","维护者欢迎具有影响力的领域大模型项目被收录。您可以直接在 Issue 中提出请求并提供项目链接（例如 Zhongjing-LLaMA 医疗开源大模型的案例），经确认后会将其添加到列表中。","https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM\u002Fissues\u002F2",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},13015,"有没有推荐的介绍如何生成领域数据集的论文或教程？","生成领域数据集通常采用爬取真实数据或使用大模型合成数据的方法。建议参考领域大模型或评测基准相关的论文，这些文献中通常会详细介绍数据收集和处理的具体流程。","https:\u002F\u002Fgithub.com\u002Fluban-agi\u002FAwesome-Domain-LLM\u002Fissues\u002F1",[]]