[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-lonePatient--awesome-pretrained-chinese-nlp-models":3,"tool-lonePatient--awesome-pretrained-chinese-nlp-models":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":77,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":97,"github_topics":98,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":116,"updated_at":117,"faqs":118,"releases":159},8226,"lonePatient\u002Fawesome-pretrained-chinese-nlp-models","awesome-pretrained-chinese-nlp-models","Awesome Pretrained Chinese NLP Models，高质量中文预训练模型&大模型&多模态模型&大语言模型集合","awesome-pretrained-chinese-nlp-models 是一个专注于收集和整理高质量中文预训练模型、大语言模型及多模态模型的开源资源库。在自然语言处理领域，面对层出不穷的新技术和分散的模型资源，开发者往往难以快速找到适合中文场景的优质基座。该仓库正是为了解决这一痛点而生，它系统性地梳理了从经典的 BERT、RoBERTa 到最新的 Qwen、Yi、DeepSeek 等主流大模型，涵盖了通用基础、垂直行业（如金融、医疗）、对话交互、逻辑推理以及图文多模态等多个维度。\n\n除了提供详细的模型参数、架构类型和下载链接外，awesome-pretrained-chinese-nlp-models 还整合了评估基准、在线体验入口、指令数据集及相关技术论文，甚至贴心地提供了国内访问 HuggingFace 的镜像建议，极大降低了资源获取门槛。无论是从事算法研究的研究人员、需要选型落地的 AI 工程师，还是对中文大模型感兴趣的技术爱好者，都能在这里一站式获取前沿、可靠的模型资源。其持续更新的机制确保了内容的时效性，是探索中文 NLP 技术生态不可或缺的导航指南。","# Awesome Pretrained Chinese NLP Models[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_797ca9d59b4c.png)\n\u003Cdiv align=\"center\"> \n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.18223.pdf\">论文: A Survey of Large Language Models\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n在自然语言处理领域中，预训练语言模型（Pretrained Language Models）已成为非常重要的基础技术，本仓库主要收集目前网上公开的一些高质量中文预训练模型、中文多模态模型、中文大语言模型等内容(感谢分享资源的大佬)，并将持续更新......\n\n> 国内下载HuggingFace仓库模型推荐使用HuggingFace镜像地址: https:\u002F\u002Fhf-mirror.com\u002F\n\n# Expand Table of Contents\n\n---\n\n## 📚 模型分类索引\n\n### 🤖 大模型系列\n\n| 分类 | 说明 | 链接 |\n|:-----|:-----|:-----|\n| 通用基础大模型 | 参数 >7B 的基础语言模型 | [查看](#Base-LLM) |\n| 垂直基础大模型 | 金融、医疗、法律等垂直领域 | [查看](#Domain-Base-LLM) |\n| 通用对话大模型 | 对话式通用语言模型 | [查看](#ChatLLM) |\n| 垂直对话大模型 | 垂直领域对话模型 | [查看](#Domain-ChatLLM) |\n| 多模态对话大模型 | 图文等多模态模型 | [查看](#MultiModal-ChatLLM) |\n| 推理类大模型 | 数学、逻辑推理模型 | [查看](#ReasoningLLM) |\n\n### 🔧 预训练模型系列\n\n| 系列 | 代表模型 | 链接 |\n|:-----|:---------|:-----|\n| **NLU系列** | BERT · RoBERTa · ALBERT · ERNIE · MacBERT · ELECTRA | [查看全部 29 个](#NLU系列) |\n| **NLG系列** | GPT · GPT-3 · T5 · BART · CPM · RWKV | [查看全部 18 个](#NLG系列) |\n| **NLU-NLG系列** | UniLM · GLM · CPT · SimBERT | [查看全部 9 个](#NLU-NLG系列) |\n| **多模态系列** | WenLan · CogView · Chinese-CLIP · OFA | [查看全部 13 个](#Multi-Modal) |\n\n### 📦 资源与工具\n\n[📊 大模型评估基准](#大模型评估基准) · [🧪 在线体验](#在线体验大模型) · [📦 开源模型库平台](#开源模型库平台) · [📚 开源数据集库](#开源数据集库) · [📝 中文指令数据集](#中文指令数据集) · [🎯 Embedding](#Embedding) · [🔗 Other-Awesome](#other-awesome)\n\n---\n\n**📌 备注说明**\n\n> **ND:** Non-Causal Decoder (非因果解码器) | **CD:** Causal Decoder (因果解码器) | **ED:** Encoder-Decoder (编码器-解码器)\n\n---\n\n## Base-LLM\n\n> 大规模基础模型：表格中只罗列出参数量`大于7B`以上模型。\n\n| 模型 | 大小 | 时间 | 语言 | 架构 | 下载 | 项目 | 机构 | 备注 |\n|:-----|:-----|:-----|:-----|:-----|:-----|:-----|:-----|:-----|\n| XVERSE-MoE | 255B \u002F A36B | 2024-09 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A36B) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A36B) | xverse-ai | - |\n| Qwen-2.5 | 0.5~72B (7档) | 2024-09 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | QwenLM | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |\n| Tele-FLM | 52B \u002F 102B \u002F 1TB | 2024-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCofeAI) | - | CofeAI | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.16645) |\n| meta-llama-3.1 | 8B \u002F 70B \u002F 405B | 2024-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | meta-llama | - |\n| internlm2.5-Base | 7B | 2024-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [GitHub](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | InternLM | [Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297) |\n| MAP-NEO-Base | 2B \u002F 7B | 2024-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fm-a-p\u002Fneo-models-66395a5c9662bb58d5d70f04) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection\u002FMAP-NEO) | multimodal-art-projection | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19327) |\n| Nemotron-4-Base | 340B | 2024-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fnvidia) | - | NVIDIA | [Technical Report](https:\u002F\u002Fresearch.nvidia.com\u002Fpublication\u002F2024-06_nemotron-4-340b) |\n| Index-Base | 1.9B | 2024-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIndexTeam\u002FIndex-1.9B-Chat) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B) | bilibili | [Report](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B\u002Fblob\u002Fmain\u002FIndex-1.9B%20%E6%8A%80%E6%9C%AF%E6%8A%A5%E5%91%8A.pdf) |\n| Qwen2-Base | 0.5B \u002F 2B \u002F 5B \u002F 7B \u002F 72B | 2024-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | QwenLM | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| GLM-4-Base | 9B | 2024-06 | 多语 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | THUDM | - |\n| Yi-1.5-Base | 6B \u002F 9B \u002F 34B | 2024-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-1.5) | 01-ai | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) |\n| DeepSeek-V2-Base | A21B \u002F 236B | 2024-05 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | deepseek-ai | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n| Llama-3-Base | 8B \u002F 70B | 2024-04 | 多语 | CD | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmeta-llama) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | Meta Llama | - |\n| Zhinao-Base | 7B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fqihoo360) · [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fqihoo360\u002F360Zhinao-7B-Base\u002Fsummary) | - | 奇虎科技 | - |\n| XVERSE-MoE | A4.2B \u002F 25.8B | 2024-04 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A4.2B) | xverse-ai | - |\n| SoftTiger-Base | 13B \u002F 70B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | TigerResearch | - |\n| HammerLLM | 1.4B | 2024-04 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDataHammer) | [GitHub](https:\u002F\u002Fgithub.com\u002FAcademic-Hammer\u002FHammerLLM) | DataHammer | - |\n| Mengzi3-Base | 13B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [GitHub](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi3) | Langboat | - |\n| Breeze-Base | 7B | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) | - | MediaTek Research | - |\n| TowerBase | 7B \u002F 13B | 2024-02 | 多语 | CD | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | - | Unbabel | - |\n| Qwen1.5-Base | 0.5~110B (7档) | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5) | Qwen | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen1.5\u002F) |\n| LongAlign-Base | 6B \u002F 7B \u002F 13B | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FLongAlign) | THUDM | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.18058) |\n| Chinese-Mixtral-Base | 8x7B | 2024-02 | 中英 | MoE | [Baidu](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nwJ8JkMTUrCkDEccg7C9Pw?pwd=33kb) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-mixtral) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-Mixtral) | Yiming Cui | - |\n| iFlytekSpark-Base | 13B | 2024-01 | 中英 | CD | [MindSpore](https:\u002F\u002Fxihe.mindspore.cn\u002Fmodelzoo\u002Fiflytek\u002Fintroduce) | - | 科大讯飞 | - |\n| Orion-Base | 14B | 2024-01 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI) | [GitHub](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion) | OrionStarAI | [Paper](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion\u002Fblob\u002Fmaster\u002Fdoc\u002FOrion14B_v3.pdf) |\n| YaYi2-Base | 30B | 2023-12 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fwenge-research) | [GitHub](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYAYI2) | wenge-research | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14862) |\n| Aquila2-Base | 7B \u002F 34B \u002F 70B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBAAI) | [GitHub](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FAquila2) | FlagAI | - |\n| Alaya-Base | 7B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDataCanvas) | [GitHub](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | DataCanvas | - |\n| Qwen-Base | 1.8B \u002F 7B \u002F 14B \u002F 72B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | 阿里云 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609) |\n| DeepSeek-Base | 7B \u002F 67B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) | deepseek-ai | - |\n| Yuan-2.0 | 2B \u002F 51B \u002F 102B | 2023-11 | 中英 | CD | [GitHub](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan-2.0) · [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FIEITYuan) | [GitHub](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan-2.0) | IEIT-Yuan | - |\n| Yi-Base | 6B \u002F 9B \u002F 34B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi) | 01.AI | - |\n| XVERSE-Base | 7B \u002F 13B \u002F 65B | 2023-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-13B) | 元象科技 | - |\n| Nanbeige-Base | 16B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNanbeige) | [GitHub](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) | Nanbeige LLM Lab | - |\n| LingoWhale | 8B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeeplang-ai\u002FLingoWhale-8B) | [GitHub](https:\u002F\u002Fgithub.com\u002FDeepLangAI\u002FLingoWhale-8B\u002F) | DeepLang AI | - |\n| Skywork-Base | 13B | 2023-10 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | SkyworkAI | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| BlueLM-Base | 7B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fvivo-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab\u002FBlueLM) | vivo AI Lab | - |\n| ChatGLM3-Base | 6B | 2023-10 | 中英 | ND | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3) | THUDM | - |\n| Ziya2-Base | 13B | 2023-10 | 中英 | CD | [🤗HF](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FFengshenbang\u002FZiya2-13B-Base\u002Fsummary) | [GitHub](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | IDEA研究院 | - |\n| OpenBA-LM | 15B | 2023-09 | 中英 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOpenBA\u002FOpenBA-LM) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenNLG\u002FOpenBA) | OpenNLG Group | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10706) |\n| TigerBot-Base-70B | 80B | 2023-09 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-70b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | [Paper](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot\u002Fwiki\u002FTigerBot%E2%80%9070B%E5%8F%91%E5%B8%83%EF%BC%81) |\n| FLM | 101B | 2023-09 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCofeAI\u002FFLM-101B) | - | CofeAI | - |\n| Falcon | 7B \u002F 40B \u002F 180B | 2023-09 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002F) | - | Technology Innovation Institute | - |\n| Baichuan2 | 7B \u002F 13B | 2023-09 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2) | 百川智能 | - |\n| Chinese-LLaMA-2-16K | 7B \u002F 13B | 2023-08 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-2-7b-16k) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) | Yiming Cui | - |\n| YuLan-LLaMA-2 | 13B | 2023-08 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fyulan-team\u002FYuLan-LLaMA-2-13b) | [GitHub](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) | 中国人民大学 | - |\n| Aquila-Base-33B | 33B | 2023-08 | 中英 | CD | TODO | [GitHub](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) | FlagAI | - |\n| TigerBot-Base-13B | 13B | 2023-08 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-13b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| Linly-Chinese-LLaMA-2 | 7B \u002F 13B | 2023-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChinese-LLaMA-2-7B-hf) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | - |\n| Chinese-LLaMA-2 | 7B | 2023-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-2-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) | Yiming Cui | - |\n| Jiang-Base | 13B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fkdf\u002Fjiang-base) | - | 知未智能 | - |\n| BlueWhaleX | 7B \u002F 13B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBlueWhaleX\u002Fbwx-7B-hf) | - | 蓝鲸国数 | - |\n| Llama-2 | 7B \u002F 13B \u002F 70B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fllamaste\u002FLlama-2-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) | Meta | [Paper](https:\u002F\u002Fscontent-hkg4-1.xx.fbcdn.net\u002Fv\u002Ft39.2365-6\u002F10000000_663429262362723_1696968207443577320_n.pdf) |\n| PolyLM | 13B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT\u002Fpolylm-13b) | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_polylm_13b_text_generation\u002Fsummary) | 达摩院 | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.06018.pdf) |\n|     Baichuan-13B      |        13B        | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-13B-Base) | [Baichuan-13B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-13B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |            |\n| TigerBot | 7B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-base-v2) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| InternLM-Base | 7B \u002F 20B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | 上海人工智能实验室 | [Report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n| MPT | 7B \u002F 30B | 2023-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmosaicml\u002Fmpt-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmosaicml\u002Fllm-foundry) | MosaicML | - |\n|       Baichuan        |        7B         | 2023-06 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B) | [baichuan-7B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002Fbaichuan-7B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |            |\n| Chinese-Falcon | 7B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChinese-Falcon-7B) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F636994073) |\n| AtomGPT | 13B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAtomEchoAI\u002FAtomGPT-index) | - | 原子回声 | - |\n|        Aquila         |        7B         | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100098)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |            |\n| Chinese-LLaMA | 33B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-lora-33b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) | Yiming Cui | - |\n| TigerBot | 7B | 2023-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| Panda-OpenLLaMA | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fpanda-7b-open-llama-preview-300pt) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) | dandelionsllm | - |\n|         Panda         |       7\u002F13B       | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-13b-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |            |\n| OpenLLaMA | 13B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FOpenLLaMA-13B) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | - |\n| BiLLa-LLM | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-LLM) | [GitHub](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) | Zhongli Li | - |\n| Ziya-LLaMA-Reward | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-7B-Reward) | [GitHub](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | IDEA研究院 | - |\n|         YuYan         |        11B        | 2023-04 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFUXI\u002Fyuyan-11b)      |                              \u002F                               |           [网易伏羲](https:\u002F\u002Fhuggingface.co\u002FFUXI)            |  CD  |   [Paper](https:\u002F\u002Faclanthology.org\u002F2022.naacl-industry.8\u002F)   |            |\n| Chinese-LLaMA | 7B \u002F 13B \u002F 33B | 2023-04 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FP01son\u002FLinly-Chinese-LLaMA-33b-hf) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F616748134) |\n| OpenChineseLLaMA | 7B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenlmlab\u002Fopen-chinese-llama-7b-patch) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FOpenChineseLLaMA) | OpenLMLab | - |\n| MOSS-003 | 16B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) | 复旦大学 | - |\n| BBT-2-Text | 13B \u002F 12B | 2023-04 | 中文 | CD | [申请](https:\u002F\u002Fbbt.ssymmetry.com\u002Fmodel.html) | [GitHub](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications) | 超对称 | [Paper](https:\u002F\u002Fbbt.ssymmetry.com\u002Fthesis.html) |\n| Chinese-LLaMA | 13B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-lora-13b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) | Yiming Cui | - |\n| Flan-UL2 | 20B | 2023-03 | 多语 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fflan-ul2\u002Ftree\u002Fmain) | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Ftree\u002Fmaster\u002Ful2) | Google | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.05131v3.pdf) |\n| CPM-Bee | 10B | 2023-01 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002Fcpm-bee-10b) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Bee) | OpenBMB | - |\n| BLOOM | 176B | 2022-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigscience-workshop\u002FMegatron-DeepSpeed) | BigScience | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.05100.pdf) |\n| BLOOMZ | 176B | 2022-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloomz) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigscience-workshop\u002FMegatron-DeepSpeed) | BigScience | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01) |\n| Flan-T5-XXL | 11B | 2022-11 | 多语 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fflan-t5-xxl) | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ft5x) | Google | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.11416.pdf) |\n| CPM-Ant+ | 10B | 2022-10 | 中英 | CD | [BMB](http:\u002F\u002Fopenbmb.oss-cn-hongkong.aliyuncs.com\u002Fmodel_center\u002Fcpm-ant-plus-10b\u002Fcpm-ant-plus-10b.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Live) | OpenBMB | [Blog](https:\u002F\u002Fwww.openbmb.org\u002Fcommunity\u002Fblogs\u002Fblogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92) |\n| GLM-130B | 130B | 2022-10 | 中英 | ND | [申请](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSehr5Dh_i3TwACmFFi8QEgIVNYGmSPwV0GueIcsUev0NEfUug\u002Fviewform) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-130B) | 清华大学 | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414) |\n| CPM-Ant | 10B | 2022-09 | 中文 | CD | [🤗HF](https:\u002F\u002Fopenbmb.oss-cn-hongkong.aliyuncs.com\u002Fmodel_center\u002Fcpmlive-10b\u002Fcpm_live_10B.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Live) | OpenBMB | [Blog](https:\u002F\u002Fwww.openbmb.org\u002Fcommunity\u002Fblogs\u002Fblogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92) |\n| GLM | 10B | 2022-09 | 中文 | ND | [🤗HF](https:\u002F\u002Flfs.aminer.cn\u002Fmisc\u002Fcogview\u002Fglm-10b-chinese.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM) | 清华大学 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.10360) |\n| Yuan-1.0 | 245B | 2021-09 | 中文 | CD | [API](https:\u002F\u002Fair.inspur.com\u002Fhome) | [GitHub](https:\u002F\u002Fgithub.com\u002FShawn-Inspur\u002FYuan-1.0) | 浪潮 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.04725) |\n| CPM-2 | 10B \u002F 11B \u002F 200B | 2021-06 | 中文 | ED | [申请](https:\u002F\u002Fresource.wudao.baai.ac.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [GitHub](https:\u002F\u002Fgithub.com\u002FTsinghuaAI\u002FCPM) | 智源研究院 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10715) |\n| PanGu-Alpha | 13B \u002F 200B | 2021-05 | 中文 | CD | [🤗HF](https:\u002F\u002Fopeni.pcl.ac.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | [OpenI](https:\u002F\u002Fopeni.pcl.ac.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 鹏城实验室 | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.12369.pdf) |\n| PLUG | 27B | 2021-04 | 中文 | ED | [申请](https:\u002F\u002Fwww.alice-mind.com\u002Fportal#\u002F) | [GitHub](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind) | 阿里巴巴 | - |\n| GPT-3 | 13B \u002F 30B | 2021-04 | 中文 | CD | TODO | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_gpt3_text-generation_13B\u002Fsummary) | 达摩院 | - |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Domain-Base-LLM\n\n> 各个垂直领域开源基础模型\n\n|       模型        | 大小  | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                          机构\u002F个人                           | 架构 |                             文献                             | 备注 |\n| :---------------: | :---: | ------- | :--: | ---- | :---------------------------------------: | :---------------------: | :------------------------------: | :--: | :--------------------: | ---- |\n| Qwen-2.5 |        1.5\u002F7B         | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| Qwen-2.5 |       1.5\u002F7\u002F72B       | 2024-09 | 中英 | 数学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-math-66eaa240a1b7d5ee65f1da3e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| Tongyi-Finance-Base |  14B  | 2023-11 | 中文 | 金融 | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary) | [通义金融-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary) | [通义金融大模型](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTongyiFinance) |  CD  |      |      |\n| ChiMed-GPT | 13B | 2023-10 | 中文 | 医疗 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSYNLP\u002FChiMed-GPT-1.0) | [ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT) | [中国科学技术大学](https:\u002F\u002Fgithub.com\u002Fsynlp) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06025) |  |\n| CodeShell-base |  7B  | 2023-10 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWisdomShell\u002FCodeShell) | [codeshell](https:\u002F\u002Fgithub.com\u002FWisdomShell\u002Fcodeshell) | [WisdomShell](https:\u002F\u002Fgithub.com\u002FWisdomShell) |  CD  |      |      |\n| WiNGPT-base |  7B  | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwinninghealth\u002FWiNGPT2-7B-Base) | [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2) | [Winning Health AI Research](https:\u002F\u002Fgithub.com\u002Fwinninghealth) |  CD  |      |      |\n| XuanYuan | 70B  | 2023-09 | 中文 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDuxiaoman-DI\u002FXuanYuan-70B) | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)  | [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan\u002Fblob\u002Fmain\u002Fxuanyuan_70b_report.md) |      |\n| CodeLLAma | 7\u002F13\u002F\u003Cbr\u002F>34B | 2023-08 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodellama) | [codellama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fcodellama) | [Meta Research](https:\u002F\u002Fgithub.com\u002Ffacebookresearch) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12950) |      |\n| educhat-base-002  | 7\u002F13B | 2023-06 | 中英 | 教育 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbutyuhao\u002Feduchat-base-002-13b) | [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat) |         [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)         |  CD  |                                                              |      |\n|   AquilaCode-NV   |  7B   | 2023-06 | 中英 | 代码 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100099)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |          [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |      |\n|   AquilaCode-TS   |  7B   | 2023-06 | 中英 | 代码 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100099)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |          [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |      |\n|      LaWGPT       |  7B   | 2023-05 | 中英 | 法律 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fentity303\u002Flegal-lora-7b)    | [LawGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT) |      [Pengxiao Song](https:\u002F\u002Fgithub.com\u002Fpengxiao-song)       |  CD  |                                                              |      |\n|     CodeGeeX      |  13B  | 2022-06 | 多语 | 代码 | [申请](https:\u002F\u002Fmodels.aminer.cn\u002Fcodegeex\u002Fdownload\u002Frequest) |        [CodeGeeX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX)         |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  CD  |       [blog](https:\u002F\u002Fmodels.aminer.cn\u002Fcodegeex\u002Fblog\u002F)        |      |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## ChatLLM\n\n> 具备问答和对话等功能的大型语言模型。\n>\n\n|           模型           |    大小     | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                          机构\u002F个人                           | 架构 |                             文献                             |\n| :----------------------: | :---------: | ------- | :--: | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :--: | :----------------------------------------------------------: |\n|       GLM-4.6        | A32\u002F355B | 2025-10 | 中英 |   通用   | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) | [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5) |     [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)     | MoE  | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.6) |\n|     **Ling-1T**      |    1T    | 2025-10 | 多语 |   通用   | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FinclusionAI\u002FLing-1T) |                       \u002F                       | [inclusionAI](https:\u002F\u002Fgithub.com\u002FinclusionAI) |  CD  |  \n| **Qwen3-Next** | A3\u002F80B | 2025-09 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Next-80B-A3B-Instruct) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE  | [Qwen3-Next](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) |\n|   Kimi-k2   | A32B\u002F1T | 2025-08 | 中英 | 通用 |   [HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-K2-Instruct)   |   [Kimi-K2](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-K2)   | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) | MoE  | **[Paper](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-K2\u002Fblob\u002Fmain\u002Ftech_report.pdf)** |\n| ERNIE-4.5 | A47\u002F300B  A3\u002F21B | 2025-07 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-SWE-32B) |    \u002F     | [BaiDu](https:\u002F\u002Fhuggingface.co\u002Fbaidu) | MoE  | [Technical Report](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2506.19290) |\n| Qwen-3 | 4\u002F14\u002F30\u002F235B | 2025-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-67dd247413f0e2e4f653967f) |  [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3)  |     [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)     | CD\u002FMoE |         [blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3\u002F)         |\n|  MiMo  |      7B      | 2025-05 | 中英 | 通用 |           [🤗HF](https:\u002F\u002Fhuggingface.co\u002FXiaomiMiMo)           | [MiMo](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo\u002FMiMo) | [XiaomiMiMo](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo) |   CD   | [Paper](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo\u002FMiMo\u002Fblob\u002Fmain\u002FMiMo-7B-Technical-Report.pdf) |\n| GLM-4-0414 | 9\u002F32B | 2025-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FTHUDM\u002Fglm-4-0414-67f3cbcb34dd9d252707cb2e) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |      |      |\n| **Moonlight** | A3\u002F16B | 2025-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FMoonlight-16B-A3B) | [Moonlight](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FMoonlight) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  MoE  | [**Tech Report**](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FMoonlight\u002Fblob\u002Fmaster\u002FMoonlight.pdf) |\n|   phi-4   | 14B  | 2025--01 | 多语 | 通用 |        [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fphi-4)         |                        \u002F                         | [Microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft) |  CD  | [Phi-4 Technical Report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.08905) |\n| InternLM3 |  8B  | 2025--01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Finternlm\u002Finternlm3-67875827c377690c01a9131d) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |    [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM)    |  CD  |    [Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297)    |\n| deepseek-v3 | 671B | 2024-12 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3) | [DeepSeek-V3](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE  | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3\u002Fblob\u002Fmain\u002FDeepSeek_V3.pdf) |\n| Megrez-3B-Instruct |  3B  | 2024-12 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FInfinigence\u002FMegrez-3B-Instruct) | [Infini-Megrez](https:\u002F\u002Fgithub.com\u002Finfinigence\u002FInfini-Megrez) | [infinigence](https:\u002F\u002Fgithub.com\u002Finfinigence) |  CD  |      |\n| Athene-V2-Chat  | 72B  | 2024-11 | 中英 |   通用   | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNexusflow\u002FAthene-V2-Chat)  |    \u002F     | [Nexusflow](https:\u002F\u002Fhuggingface.co\u002FNexusflow) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2) |\n| Athene-V2-Agent | 72B  | 2024-11 | 中英 | 工具调用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNexusflow\u002FAthene-V2-Agent) |    \u002F     | [Nexusflow](https:\u002F\u002Fhuggingface.co\u002FNexusflow) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2) |\n| Hunyuan-Large | A52\u002F389B | 2024-11 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FTencent-Hunyuan-Large) | [Tencent-Hunyuan-Large](https:\u002F\u002Fgithub.com\u002FTencent\u002FTencent-Hunyuan-Large) | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.02265) |\n| Aya-Expanse | 8\u002F32B | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCohereForAI\u002Fc4ai-aya-expanse-671a83d6b2c07c692beab3c3) |    \u002F     | [Cohere For AI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |  CD  |      |\n|   Granite 3.0   |  1\u002F2\u002F3\u002F8B   | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fibm-granite\u002Fgranite-30-models-66fdb59bbb54785c3512114f) | [granite-3.0-language-models](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models) | [ibm-granite](https:\u002F\u002Fgithub.com\u002Fibm-granite) |  CD  | [Paper](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models\u002Fblob\u002Fmain\u002Fpaper.pdf) |\n| Granite 3.0-MoE | 1B\u002F3B\u002FA400M | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fibm-granite\u002Fgranite-30-models-66fdb59bbb54785c3512114f) | [granite-3.0-language-models](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models) | [ibm-granite](https:\u002F\u002Fgithub.com\u002Fibm-granite) | MoE  | [Paper](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models\u002Fblob\u002Fmain\u002Fpaper.pdf) |\n| TeleChat2 | 115B | 2024-09 | 中英 | 通用 | 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTeleAI) | [TeleChat2](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTeleChat2) | [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI) |  CD  |      |\n| Qwen-2.5 | 0.5\u002F1.5\u002F3\u002F7\u002F14\u002F32\u002F72B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |\n| XVERSE-MoE | 255B\u002FA36B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A36B) | [XVERSE-MoE-A36B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A36B) | [xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai) | MoE  |      |\n| DeepSeek-V2.5 | 236B\u002FA21B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat-0628) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MOE  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04434)           |\n|   MiniCPM3    |    4B     | 2024-09 | 中英 | 通用 |      [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM3-4B)       |       [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM)       |     [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)     |  CD  |      [MiniCPM Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.06395)       |\n| C4AI Command R+ 08-2024 | 104B | 2024-08 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | \u002F | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | CD | |\n| JIUTIAN-Chat | 39\u002FA13B | 2024-07 | 中英 | 通用 | [🤖MS](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FJiuTian-AI\u002FJIUTIAN-139MoE-chat) | \u002F | [中国移动JiuTian-AI](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FJiuTian-AI) | MOE  |      |\n| meta-llama-3.1 | 8\u002F70\u002F405B | 2024-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama)| [llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | [meta-llama](https:\u002F\u002Fgithub.com\u002Fmeta-llama) |  CD  |      |\n| internlm2.5-chat |  7B  | 2024-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)[](https:\u002F\u002Fcamo.githubusercontent.com\u002Ff330929a514fa88e296d3f4aa78863614ccc13d6d1903e4d7b23fd85b69cddba\u002F68747470733a2f2f696d672e736869656c64732e696f2f6769746875622f73746172732f496e7465726e4c4d2f496e7465726e4c4d2e7376673f7374796c653d736f6369616c266c6162656c3d53746172) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM) |  CD  | [📜Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297) |\n| Mistral-large-insruct-2407 | 123B  | 2024-07 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FMistral-Large-Instruct-2407) |                             \u002F                             |  [Mistral AI](https:\u002F\u002Fhuggingface.co\u002Fmistralai)   |      |   [blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmistral-large-2407\u002F)   |\n|   DeepSeek-V2-Chat-0628    | 236B  | 2024-07 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat-0628) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) |   [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai)   | MOE  | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n|    C4ai-command-r-plus     | 104B  | 2024-07 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI\u002Fc4ai-command-r-plus) |                             \u002F                             | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |  CD  |                                                              |\n|        Gemma-2-chat        | 9\u002F27B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fgoogle\u002Fgemma-2-release-667d6600fd5220e7b967f315) |                             \u002F                             |      [Google](https:\u002F\u002Fhuggingface.co\u002Fgoogle)      |  CD  |                                                              |\n| MAP-NEO-Chat | 2\u002F7B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fm-a-p\u002Fneo-models-66395a5c9662bb58d5d70f04) | [MAP-NEO](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection\u002FMAP-NEO) | [multimodal-art-projection](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19327) |\n| GEB-Chat | 1.3B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FGEB-AGI\u002Fgeb-1.3b) |    \u002F     | [GEB-AGI](https:\u002F\u002Fhuggingface.co\u002FGEB-AGI) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.09900) |\n| Nemotron-4-Chat | 340B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fnvidia) |    \u002F     | [NVIDIA](https:\u002F\u002Fgithub.com\u002FNVIDIA) |  CD  | [technical report](https:\u002F\u002Fresearch.nvidia.com\u002Fpublication\u002F2024-06_nemotron-4-340b). |\n| Index-Chat | 1.9B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIndexTeam\u002FIndex-1.9B-Chat) | [Index-1.9B](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B) | [bilibili](https:\u002F\u002Fgithub.com\u002Fbilibili) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B\u002Fblob\u002Fmain\u002FIndex-1.9B%20%E6%8A%80%E6%9C%AF%E6%8A%A5%E5%91%8A.pdf) |\n| Qwen2-MoE  |   57B\u002FA14B    | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen2](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| Qwen2-Chat | 0.5\u002F2\u002F5\u002F7\u002F72B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen2](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| GLM-4-Chat  |      9B      | 2024-06 | 多语 | 通用 |          [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM)           |         [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)         |     [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)      |  \u002F   |   |\n| Skywork-MoE | 16\u002FA22B\u002F146B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-MoE-Base) | [Skywork-MoE](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-MoE) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)  | MoE  | [Tech Report](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-MoE\u002Fblob\u002Fmain\u002Fskywork-moe-tech-report.pdf) |\n| Yuan2.0 | 40\u002FA3.7B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIEITYuan\u002FYuan2-M32-hf) | [Yuan2.0-M32](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan2.0-M32) | [IEIT-Yuan](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan) | MOE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17976) |\n| 星辰-Chat |  52B  | 2024-05 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FTele-AI\u002FTeleChat-52B)     | [TeleChat-52B](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTeleChat-52B) |    [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI)    |  CD  |                                               |\n| LingLong  | 317M  | 2024-05 | 中英 | 通用 |  [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FAlumiK\u002FLingLong-317M-Chat)  |   [linglong](https:\u002F\u002Fgithub.com\u002Fnkcs-iclab\u002Flinglong)    | [nkcs-iclab](https:\u002F\u002Fgithub.com\u002Fnkcs-iclab) |  CD  |                                               |\n|  Sailor   |  14B  | 2024-05 | 7语  | 通用 |    [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fsail\u002FSailor-14B-Chat)     |   [sailor-llm](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002Fsailor-llm)   |    [sail-sg](https:\u002F\u002Fgithub.com\u002Fsail-sg)    |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.03608.pdf) |\n| Nanbeige2 | 8\u002F16B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FNanbeige\u002FNanbeige2-16B-Chat) |    [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige)     |   [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige)   |  CD  |                                               |\n| Yi-1.5-Chat | 6\u002F9\u002F34B | 2024-05 | 中英  | 通用  | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi-1.5](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-1.5) | [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai) | CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) |\n| DeepSeek-V2-Chat | A21B\u002F236B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MOE | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n| XVERSE-MoE | A4.2B\u002F25.8B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A4.2B) | [XVERSE-MoE-A4.2B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A4.2B) |[xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai)|MOE||\n| Llama3-zh | 8\u002F70B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fxianbao\u002Fllama3-zh-662ba8503bdfe51948a28403) | \u002F |\u002F|CD|llama3中文列表|\n| Llama3-Chinese-Chat | 8B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fshenzhi-wang\u002FLlama3-8B-Chinese-Chat) | \u002F |[Shenzhi Wang](https:\u002F\u002Fhuggingface.co\u002Fshenzhi-wang)|CD||\n| Llama-3-Chat | 8\u002F70B | 2024-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmeta-llama) | **[llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3)** |[Meta Llama](https:\u002F\u002Fgithub.com\u002Fmeta-llama)|CD||\n| Zhinao-Chat | 7B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fqihoo360) [ 🤖](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fqihoo360\u002F360Zhinao-7B-Base\u002Fsummary) | \u002F |[奇虎科技](https:\u002F\u002Fhuggingface.co\u002Fqihoo360)|CD||\n| MiniCPM-MoE | 8x2B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-MoE-8x2B) | [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM) |[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)|MoE||\n| Nanbeige2-Chat | 8B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNanbeige\u002FNanbeige2-8B-Chat) | [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) |[Nanbeige LLM Lab](https:\u002F\u002Fgithub.com\u002FNanbeige)|CD||\n| Sailor | 7B | 2024-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fsail\u002FSailor-4B-Chat) | [sailor-llm](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002Fsailor-llm) |[Sea AI Lab](https:\u002F\u002Fgithub.com\u002Fsail-sg)|CD|[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.03608.pdf)|\n| Mengzi3-Chat | 13B  | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [Mengzi3](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi3)  | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) |  CD  |  |\n| Qwen-MoE | 2.7B | 2024-03 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen1.5-MoE-A2.7B-Chat) | [Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5)  | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen-moe\u002F) |\n| Command-R | 35B | 2024-03 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | \u002F | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | CD | |\n| Breeze-Instruct | 7B | 2024-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) | \u002F | [MediaTek Research](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) |  |  |\n| aya-101 | 13B | 2024-02 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101) | \u002F | [Cohere For AI](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101\u002Fblob\u002Fmain\u002F(https:\u002F\u002Fcohere.for.ai)) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07827) |\n| ChemLLM | 7B | 2024-02 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101) | \u002F | [AI4Chem](https:\u002F\u002Fhf-mirror.com\u002FAI4Chem) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.06852) |\n| TowerInstruct | 7\u002F13B | 2024-02 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | \u002F | [Unbabel](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | CD |  |\n| Qwen1.5-Chat | 0.5\u002F1.8\u002F4\u002F\u003Cbr\u002F>7\u002F14\u002F32\u002F72\u002F110B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | \u002F | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen1.5\u002F) |\n| MiniCPM | 2B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb) [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FOpenBMB) | [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM) | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) | \u002F | [Report](https:\u002F\u002Fshengdinghu.notion.site\u002FMiniCPM-c805a17c5c8046398914e47f0542095a) |\n| **LongAlign-Chat** | 6\u002F7\u002F13B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FTHUDM) | [LongAlign](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FLongAlign) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | \u002F | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.18058) |\n| Chinese-Mixtral-Chat | 8x7B | 2024-02 | 中英 | 通用 | [[Baidu\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nwJ8JkMTUrCkDEccg7C9Pw?pwd=33kb) [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-mixtral) | [Chinese-Mixtral](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-Mixtral) | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | MOE |  |\n| iFlytekSpark-Chat | 13B | 2024-01 | 中英 | 通用 | [mindspore](https:\u002F\u002Fxihe.mindspore.cn\u002Fmodelzoo\u002Fiflytek\u002Fintroduce) | \u002F | [科大讯飞]() | CD |  |\n| rwkv-5-world | 0.1\u002F1\u002F\u003Cbr\u002F>3\u002F7B | 2023-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL) | [RWKV-LM](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM) | [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL) |  | [URL](https:\u002F\u002Fwiki.rwkv.com\u002F) |\n| Orion-Chat | 14B | 2024-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI) | [Orion](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion) | [OrionStarAI](https:\u002F\u002Fgithub.com\u002FOrionStarAI) | CD | [Paper](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion\u002Fblob\u002Fmaster\u002Fdoc\u002FOrion14B_v3.pdf) |\n| internlm2-chat | 7\u002F20B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM) | CD | [Report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM\u002Fissues\u002Fnew) |\n| Chinese-Mixtral | 8x7B | 2023-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002FChinese-Mixtral-8x7B) | \u002F | [HIT-SCIR](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR) | CD-MOE |  |\n| Telechat | 7\u002F12B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FTele-AI) | [Telechat](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTelechat)x  | [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI) | CD | [Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.03804) |\n| kagentlms | 7\u002F13B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fkwaikeg) | [KwaiAgents](https:\u002F\u002Fgithub.com\u002FKwaiKEG\u002FKwaiAgents) | [KwaiKEG](https:\u002F\u002Fgithub.com\u002FKwaiKEG) |  |  |\n|  YaYi2-Chat  |   30B    | 2023-12 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research) | [YAYI2](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYAYI2) | [wenge-research](https:\u002F\u002Fgithub.com\u002Fwenge-research) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14862) |\n| SUS-Chat | 34\u002F72B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSUSTech) | [SUS-Chat](https:\u002F\u002Fgithub.com\u002FSUSTech-IDEA\u002FSUS-Chat) | [SUSTech-IDEA](https:\u002F\u002Fgithub.com\u002FSUSTech-IDEA) | CD |  |\n| Aquila2-Chat | 7\u002F34\u002F70B | 2023-12 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI)   | [Aquila2](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FAquila2)  |    [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)     |  CD  |  |\n| Alaya-Chat | 7B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataCanvas) | [Alaya](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | [DataCanvas](https:\u002F\u002Fgithub.com\u002FDataCanvasIO) | CD |  |\n| Qwen-Chat | 1.8\u002F7\u002F\u003Cbr\u002F>14\u002F72B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)  | [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609) [Report](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B\u002Fblob\u002Fmain\u002Ftech_memo.md) [Report2](https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQWEN_TECHNICAL_REPORT.pdf) |\n| DeepSeek-Chat | 7\u002F67B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-LLM](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | CD |  |\n| Yi-Chat | 6\u002F34B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi)  | [01.AI](https:\u002F\u002Fgithub.com\u002F01-ai) | CD |  |\n| Alaya-Chat | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataCanvas\u002FAlaya-7B-Chat) | [Alaya](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | [DataCanvasIO](https:\u002F\u002Fgithub.com\u002FDataCanvasIO) | CD |  |\n| OrionStar-Yi-Chat | 34B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI\u002FOrionStar-Yi-34B-Chat) | [OrionStar-Yi-34B-Chat](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrionStar-Yi-34B-Chat) | [OrionStarAI](https:\u002F\u002Fgithub.com\u002FOrionStarAI) | CD |  |\n| Nanbeige-Chat | 16B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FNanbeige) | [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) | [Nanbeige LLM Lab](https:\u002F\u002Fgithub.com\u002FNanbeige) | CD |  |\n| OpenChat 3.5 | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenchat\u002Fopenchat_3.5) | [openchat](https:\u002F\u002Fgithub.com\u002Fimoneoi\u002Fopenchat) | [OpenChat](https:\u002F\u002Fgithub.com\u002Fimoneoi) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.11235.pdf) |\n|          XVERSE-Chat    |     7\u002F13B     | 2023-11 | 多语 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fxverse)       | [XVERSE](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-13B) |           [元象科技](https:\u002F\u002Fgithub.com\u002Fxverse-ai)           |  CD  |                                                              |\n| AndesGPT | 7B | 2023-11 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOPPOResearchInstitute\u002FAndesGPT-7B) | [AndesGPT-7B](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab\u002FAndesGPT-7B) | [OPPO-Mente-Lab](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab) | CD |  |\n| SeaLLM-Chat | 13B  | 2023-11 | 多语 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSeaLLMs\u002FSeaLLM-Chat-13b)    |        [SeaLLMs](https:\u002F\u002Fgithub.com\u002FSeaLLMs\u002FSeaLLMs)         |        [SeaLLMs](https:\u002F\u002Fgithub.com\u002FSeaLLMs)        |  CD  |  |\n| BlueLM | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvivo-ai) | [BlueLM](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab\u002FBlueLM) | [vivo AI Lab](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab) | CD |  |\n| Skywork-chat | 13B  | 2023-10 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) |   [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)   |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| Zephyr | 7B | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceH4\u002Fzephyr-7b-beta) | [alignment-handbook](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Falignment-handbook) | [Hugging Face H4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceH4) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16944) |\n| Mistral | 7B | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | [mistral-src](https:\u002F\u002Fgithub.com\u002Fmistralai\u002Fmistral-src) | [Mistral AI](https:\u002F\u002Fgithub.com\u002Fmistralai) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06825) |\n| chatglm3 | 6B | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [ChatGLM3](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | ND |  |\n| Zhiyin-chat | 7B | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHCCL-NLP\u002FZhiyin-7B-Chat) | [Zhiyin](https:\u002F\u002Fgithub.com\u002FHCCL-NLP\u002FZhiyin) | [中科院声学所](https:\u002F\u002Fgithub.com\u002FHCCL-NLP) | CD |  |\n|        Ziya2-Chat        |     13B     | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FFengshenbang\u002FZiya2-13B-Chat\u002Fsummary) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          |  CD  |                                                              |\n|         Vulture          |   40\u002F180B   | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvilm\u002Fvulture-40b) |                              \u002F                               |            [VILM-AI](https:\u002F\u002Fhuggingface.co\u002Fvilm)            |      |                           [TODO]()                           |\n|         Vulture          | 3\u002F7\u002F\u003Cbr\u002F>40\u002F180B | 2023-09 | 多语 | 通用 |             [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvilm)              |                              \u002F                               |                [VILM](https:\u002F\u002Fwww.vilm.org\u002F)                 |  CD  |                                                              |\n|     Colossal-LLaMA-2     |     7B      | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhpcai-tech\u002FColossal-LLaMA-2-7b-base) | [ColossalAI](https:\u002F\u002Fgithub.com\u002Fhpcaitech\u002FColossalAI) |         [HPC-AI Tech](https:\u002F\u002Fgithub.com\u002Fhpcaitech)          |  CD  | [Blog](https:\u002F\u002Fwww.hpc-ai.tech\u002Fblog\u002Fone-half-day-of-training-using-a-few-hundred-dollars-yields-similar-results-to-mainstream-large-models-open-source-and-commercial-free-domain-specific-llm-solution) |\n|       OpenBA-chat        |     15B     | 2023-09 | 中英 | 通用 |                           [TODO]()                           | [OpenBA](https:\u002F\u002Fgithub.com\u002FOpenNLG\u002FOpenBA) |         [OpenNLG Group](https:\u002F\u002Fgithub.com\u002FOpenNLG)          |  ED  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10706)           |\n|       WeMix-LLaMA2       |    7\u002F70B    | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FWeMix-LLaMA2-7B) | [WeMix-LLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FWeMix-LLM) |         [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM)          |  CD  |                                                              |\n|      Stable Beluga       |  7\u002F13\u002F70B   | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002FStableBeluga-7B) |                              \u002F                               |       [Stability AI](https:\u002F\u002Fgithub.com\u002FStability-AI)        |  CD  |                                                              |\n|      TigerBot-chat       |     70B     | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-70b-chat) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)  |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  | [Paper](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot\u002Fwiki\u002FTigerBot%E2%80%9070B%E5%8F%91%E5%B8%83%EF%BC%81) |\n|     Openbuddy_llama      |     70B     | 2023-09 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenBuddy\u002Fopenbuddy-llama2-70b-v10.1-bf16) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|     falcon-180B-chat     |    180B     | 2023-09 | 多语 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002Ffalcon-180B-chat)    |                              \u002F                               | [Technology Innovation Institute](https:\u002F\u002Fgithub.com\u002Ftiiuae) |  CD  |                                                              |\n|        Baichuan2         |    7\u002F13B    | 2023-09 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan2-7B-Chat) | [Baichuan2](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |\n|   Chinese-Alpaca-2-16K   |    7\u002F13B    | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-7b-16k) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|     InternLM-Chat-8k     |     7B      | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b-8k)  | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|    InternLM-Chat-v1.1    |     7B      | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b-v1_1) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|       YuLan-Chat-2       |     13B     | 2023-08 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fyulan-team\u002FYuLan-Chat-2-13b)  | [YuLan-Chat](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) |         [中国人民大学](https:\u002F\u002Fgithub.com\u002FRUC-GSAI)          |  CD  |                                                              |\n|          falcon          |    7\u002F40B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002Ffalcon-7b) |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae)         | [Technology Innovation Institute](https:\u002F\u002Fgithub.com\u002Ftiiuae) |  CD  |                                                              |\n|          Toucan          |     7B      | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!Ar5igoMgwOq4gdowvr5NQDHOQp2OxQ?e=dzYSuE) | [Toucan-LLM](https:\u002F\u002Fgithub.com\u002Fkendryte\u002FToucan-LLM) |           [Kendryte](https:\u002F\u002Fgithub.com\u002Fkendryte)            |  CD  |                                                              |\n|          Zhuzhi          |     6B      | 2023-08 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Femotibot-inc\u002FZhuzhi-6B)     | [Zhuzhi-6B](https:\u002F\u002Fgithub.com\u002Femotibot-inc\u002FZhuzhi-6B) |         [竹间智能](https:\u002F\u002Fgithub.com\u002Femotibot-inc)          |  ND  |                                                              |\n|           Atom           |     7B      | 2023-08 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlagAlpha\u002FAtom-7B)       | [Llama2-Chinese](https:\u002F\u002Fgithub.com\u002FFlagAlpha\u002FLlama2-Chinese) |          [FlagAlpha](https:\u002F\u002Fgithub.com\u002FFlagAlpha)           |  CD  |                                                              |\n|        openbuddy         | 3\u002F7\u002F\u003Cbr\u002F>13\u002F40B | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy\u002Fblob\u002Fmain\u002Fmodels.md) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|     Aquila-Chat-33B      |     33B     | 2023-08 | 中英 | 通用 |                           [TODO]()                           | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |\n|     vicuna-V1.5-16K      |    7\u002F13B    | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.5-16k) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|       vicuna-V1.5        |    7\u002F13B    | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.5) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|     Chinese-Alpaca-2     |     13B     | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-lora-13b) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|      WizardLM-V1.0       |     70B     | 2023-08 | 多语 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0)   | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |                                                              |\n|    TigerBot-chat-13B     |     13B     | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-13b-chat) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|          huozi           |     7B      | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002Fhuozi-7b-sft) | [huozi](https:\u002F\u002Fgithub.com\u002FHIT-SCIR\u002Fhuozi) |            [哈工大](https:\u002F\u002Fgithub.com\u002FHIT-SCIR)             |  CD  |                                                              |\n|     Chinese-Alpaca-2     |     7B      | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-7b) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|           AntX           |    7\u002F13B    | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAntX-ai\u002FAntX-7B) |                              \u002F                               |          [AntX.ai](https:\u002F\u002Fhuggingface.co\u002FAntX-ai)           |  CD  |                                                              |\n|          BatGPT          |     15B     | 2023-07 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMLP-lab\u002FBatGPT-15B-sirius)   | [BatGPT](https:\u002F\u002Fgithub.com\u002Fzcli-charlie\u002FBatGPT) |        [上海交通大学](https:\u002F\u002Fhuggingface.co\u002FMLP-lab)        |  ND  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00360)           |\n|      WizardLM-V1.2       |     13B     | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.2) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.12244)           |\n|   llama2-Chinese-chat    |     13B     | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fwww.codewithgpu.com\u002Fm\u002Ffile\u002Fllama2-13b-Chinese-chat) | [llama2-Chinese-chat](https:\u002F\u002Fgithub.com\u002FCrazyBoyM\u002Fllama2-Chinese-chat) |            [Ke Bai](https:\u002F\u002Fgithub.com\u002FCrazyBoyM)            |  CD  |                                                              |\n|        Jiang-chat        |     13B     | 2023-07 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fkdf\u002Fjiang-chat)         |                              \u002F                               |            [知未智能](https:\u002F\u002Fhuggingface.co\u002Fkdf)            |  CD  |                                                              |\n|   Llama2-chinese-chat    |    7\u002F13B    | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlagAlpha\u002FLlama2-Chinese-7b-Chat) | [Llama2-Chinese](https:\u002F\u002Fgithub.com\u002FFlagAlpha\u002FLlama2-Chinese) |          [FlagAlpha](https:\u002F\u002Fgithub.com\u002FFlagAlpha)           |  CD  |                                                              |\n|           LL7M           |     7B      | 2023-07 | 多语 | 通用 |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FJosephusCheung\u002FLL7M)      |                              \u002F                               |    [Joseph Cheung](https:\u002F\u002Fhuggingface.co\u002FJosephusCheung)    |  CD  |                                                              |\n|     Chinese-Llama-2      |     7B      | 2023-07 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FChinese-Llama-2-7b)  | [Chinese-Llama-2-7b](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |        [LinkSoul-AI](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)         |  CD  |                                                              |\n|       Llama2-chat        |  7\u002F13\u002F70B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fllamaste\u002FLlama-2-7b-chat) | [llama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) |         [Meta](https:\u002F\u002Fgithub.com\u002Ffacebookresearch)          |  CD  | [Paper](https:\u002F\u002Fscontent-hkg4-1.xx.fbcdn.net\u002Fv\u002Ft39.2365-6\u002F10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX-br54S&_nc_ht=scontent-hkg4-1.xx&oh=00_AfDzh9f2kFTRk-FIieoySi12fhBjvJP4Bv-ZJTxRtdoXJg&oe=64BBB691) |\n|       PolyLM-chat        |     13B     | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT\u002Fpolylm-multialpaca-13b) | [PolyLM](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_polylm_13b_text_generation\u002Fsummary) |         [达摩院](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT)         |  CD  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.06018.pdf)         |\n|    Baichuan-13B-chat     |     13B     | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-13B-Chat) | [Baichuan-13B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-13B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |\n|       vicuna-V1.3        |  7\u002F13\u002F33B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.3) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|      WizardLM-V1.0       |  7\u002F13\u002F30B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-7B-V1.0) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.12244)           |\n|     TigerBot-v2-sft      |     7B      | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-sft-v2) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|      InternLM-chat       |    7\u002F20B    | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|       vicuna汉化版       |     33B     | 2023-07 | 中文 | 通用 | [baidu-hiks](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1EH19ablXVLYQP1f-IaPS-Q?pwd=hiks) | [chinese-StableVicuna](https:\u002F\u002Fgithub.com\u002Fziwang-com\u002Fchinese-StableVicuna) |         [ziwang-com](https:\u002F\u002Fgithub.com\u002Fziwang-com)          |  CD  |                                                              |\n|         CuteGPT          |     13B     | 2023-07 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FXuYipei\u002Fkw-cutegpt-13b-base)  | [CuteGPT](https:\u002F\u002Fgithub.com\u002FAbbey4799\u002FCuteGPT) |         [复旦大学知识工场](http:\u002F\u002Fkw.fudan.edu.cn\u002F)          |  CD  |                                                              |\n|         MPT-chat         |    7\u002F30B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmosaicml\u002Fmpt-7b-chat) | [llm-foundry](https:\u002F\u002Fgithub.com\u002Fmosaicml\u002Fllm-foundry) |           [MosaicML](https:\u002F\u002Fgithub.com\u002Fmosaicml)            |  CD  |                                                              |\n|         ChatGLM2         |     6B      | 2023-06 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm2-6b)       | [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B) |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  ND  |                                                              |\n|         BayLing          |    7\u002F13B    | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FICTNLP\u002Fbayling-13b-v1.1) | [BayLing](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing) |           [中国科学院](https:\u002F\u002Fgithub.com\u002Fictnlp)            |  CD  |                                                              |\n|        ZhiXi-Diff        |     13B     | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fzjunlp\u002Fzhixi-13b-diff)     | [KnowLLM](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FKnowLM) |            [浙江大学](https:\u002F\u002Fgithub.com\u002Fzjunlp)             |  CD  |                                                              |\n|          Anima           |     33B     | 2023-06 | 中文 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flyogavin\u002FAnima33B)       | [Anima](https:\u002F\u002Fgithub.com\u002Flyogavin\u002FAnima) |           [Gavin Li](https:\u002F\u002Fgithub.com\u002Flyogavin)            |  CD  |                                                              |\n|    OpenLLaMA-Chinese     |   3\u002F7\u002F13B   | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFittenTech\u002Fopenllama-chinese-13b) | [OpenLLaMA-Chinese](https:\u002F\u002Fgithub.com\u002FFittenTech\u002FOpenLLaMA-Chinese) |         [FittenTech](https:\u002F\u002Fgithub.com\u002FFittenTech)          |  CD  |                                                              |\n| openbuddy-falcon-7b-v1.5 |     7B      | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenBuddy\u002Fopenbuddy-falcon-7b-v1.5-fp16) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|       AtomGPT_chat       |     13B     | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAtomEchoAI\u002FAtomGPT_8k_chat) | [AtomGPT](https:\u002F\u002Fgithub.com\u002FAtomEcho\u002FAtomGPT) |           [原子回声](https:\u002F\u002Fgithub.com\u002FAtomEcho)            |  CD  |                                                              |\n|        AquilaChat        |     7B      | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100101)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |\n|        YuLan-Chat        |   13\u002F65B    | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FRUCAIBox\u002FYuLan-Chat-65b-delta) | [YuLan-Chat](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) |         [中国人民大学](https:\u002F\u002Fgithub.com\u002FRUC-GSAI)          |  CD  |                                                              |\n|      Chinese-Alpaca      |     33B     | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-33b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|       TigerBot-sft       |   7\u002F180B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-sft) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|         ChatYuan         |     7B      | 2023-06 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiansz\u002FChatYuan-7B-merge)    | [ChatYuan-7B](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan-7B) |             [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai)             |  CD  |                                                              |\n|      Panda-Instruct      |     13B     | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-13b-coig-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |\n|      Panda-Instruct      |     7B      | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-coig-7b-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |\n|        BiLLa-SFT         |     7B      | 2023-05 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-SFT)     | [BiLLa](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) |          [Zhongli Li](https:\u002F\u002Fgithub.com\u002FNeutralzz)          |  CD  |                                                              |\n|      Ziya-LLaMA-v1       |     13B     | 2023-05 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1)  | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          |  CD  |  [Blog](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FIeXgq8blGoeVbpIlAUCAjA)   |\n|      BLOOMChat V1.0      |    176B     | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fsambanovasystems\u002FBLOOMChat-176B-v1) |     [bloomchat](https:\u002F\u002Fgithub.com\u002Fsambanova\u002Fbloomchat)      |          [SambaNova Systems](https:\u002F\u002Fsambanova.ai\u002F)          |  CD  | [Blog](https:\u002F\u002Fsambanova.ai\u002Fblog\u002Fintroducing-bloomchat-176b-the-multilingual-chat-based-llm\u002F) |\n|          BiLLa           |     7B      | 2023-05 | 中英 | 通用 |          [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa)          | [BiLLa](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) |          [Zhongli Li](https:\u002F\u002Fgithub.com\u002FNeutralzz)          |  CD  |                                                              |\n|        Bactrian-X        |    7\u002F13B    | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMBZUAI\u002Fbactrian-x-13b-lora) | [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x) |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |  CD  |                                                              |\n|       Bactrian-ZH        |     7B      | 2023-05 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhaonan-li)  | [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x) |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |  CD  |                                                              |\n|         ChatFlow         |    7\u002F13B    | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChatFlow-13B) | [Linly](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) |    [深圳大学计算机视觉研究所](https:\u002F\u002Fgithub.com\u002FCVI-SZU)    |  CD  |                                                              |\n|        OpenBuddy         |    7\u002F13B    | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy\u002Fblob\u002Fmain\u002Fmodels.md) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|      YuYan-dialogue      |     11B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFUXI\u002Fyuyan-dialogue\u002Ftree\u002Fmain) |                              \u002F                               |           [网易伏羲](https:\u002F\u002Fhuggingface.co\u002FFUXI)            |  CD  |   [paper](https:\u002F\u002Faclanthology.org\u002F2022.naacl-industry.8\u002F)   |\n| Moss-moon-003-sft-plugin |     16B     | 2023-04 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-sft-plugin) | [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |  CD  |                                                              |\n|    moss-moon-003-sft     |     16B     | 2023-04 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-sft)     | [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |  CD  |                                                              |\n|       RWKV-4-Raven       |   3\u002F7\u002F14B   | 2023-04 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-raven\u002Ftree\u002Fmain) | [ChatRWKV](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV) |            [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL)             | RNN  |        [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F618011122)        |\n|    Phoenix-inst-chat     |     7B      | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002Fphoenix-inst-chat-7b) | [LLMZoo](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FLLMZoo) |    [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)    |  CD  |                                                              |\n|       Phoenix-chat       |     7B      | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002Fphoenix-chat-7b) | [LLMZoo](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FLLMZoo) |    [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)    |  CD  |                                                              |\n|         ChatPLUG         |    3.7B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002FChatPLUG-3.7B\u002Fsummary) | [ChatPLUG](https:\u002F\u002Fgithub.com\u002FX-PLUG\u002FChatPLUG) |            [阿里巴巴](https:\u002F\u002Fgithub.com\u002FX-PLUG)             |  ED  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.07849.pdf)         |\n|      Chinese-Alpaca      |     13B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-13b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|       BELLE-LLAMA        |     13B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBelleGroup\u002FBELLE-LLaMA-EXT-13B) | [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE) |            [贝壳](https:\u002F\u002Fgithub.com\u002FLianjiaTech)            |  CD  |                                                              |\n|       LLaMA-tuned        | 7\u002F13\u002F\u003Cbr\u002F>33\u002F65B | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1x5JLae3akVkfFeDhSe3TEyUbPn_GNFyb\u002Fview?usp=share_link) | [LMFlow](https:\u002F\u002Fgithub.com\u002FOptimalScale\u002FLMFlow) |       [香港科技大学](https:\u002F\u002Fgithub.com\u002FOptimalScale)        |  CD  |                                                              |\n|      Chinese-Vicuna      |    7\u002F13B    | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FChinese-Vicuna\u002FChinese-Vicuna-lora-13b-belle-and-guanaco) | [Chinese-Vicuna](https:\u002F\u002Fgithub.com\u002FFacico\u002FChinese-Vicuna) |             [Facico](https:\u002F\u002Fgithub.com\u002FFacico)              |  CD  |                                                              |\n|       ChatYuan-V2        |    0.7B     | 2023-03 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v2\u002Ftree\u002Fmain) | [ChatYuan](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) |            [元语智能](https:\u002F\u002Fgithub.com\u002Fclue-ai)            |  ED  |                                                              |\n|      Chinese-Alpaca      |     7B      | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-7b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|          Luotuo          |     7B      | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fsilk-road\u002Fluotuo-lora-7b-0.3)  | [Chinese-alpaca-lora](https:\u002F\u002Fgithub.com\u002FLC1332\u002FChinese-alpaca-lora) |                         华中师范大学                         |  CD  |                                                              |\n|       BELLE-LLAMA        |     7B      | 2023-03 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBelleGroup\u002FBELLE-LLaMA-EXT-7B) | [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE) |            [贝壳](https:\u002F\u002Fgithub.com\u002FLianjiaTech)            |  CD  |                                                              |\n|         ChatGLM          |     6B      | 2023-03 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm-6b)        | [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B) |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  ND  |                                                              |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Domain-ChatLLM\n\n> 开源的垂直领域对话大模型\n\n|           模型           |  大小   | 时间    | 语言 |     领域     |                             下载                             |                           项目地址                           |                       机构\u002F个人                        | 架构 |                             文献                             |\n| :----------------------: | :-----: | ------- | :--: | :----------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------: | :--: | :----------------------------------------------------------: |\n| **Qwen3-Coder-Next**  |   \u002F    | 2026-02 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next) |                       \u002F                       | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  \u002F  |                                             |\n| **KAT-Dev-72B-Exp**  |   72B    | 2025-10 | 多语 | 软件工程 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FKwaipilot\u002FKAT-Dev-72B-Exp) |                       \u002F                       | [Kwaipilot](https:\u002F\u002Fhuggingface.co\u002FKwaipilot) |  CD  |                                             |\n| KwaiCoder-23B-A4B-v1 |  A4\u002F23B  | 2025-10 | 多语 | 软件工程 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FKwaipilot\u002FKwaiCoder-23B-A4B-v1) |                       \u002F                       | [Kwaipilot](https:\u002F\u002Fhuggingface.co\u002FKwaipilot) |  CD  |                                             |\n| Qwen3-Coder | A3\u002F30B  | 2025-08 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct) | [Qwen3-Coder](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Coder) |     [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)     | MoE  |          [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.09388)           |\n| Skywork-SWE | 32B  | 2025-06 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-SWE-32B) |    \u002F     | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) |  CD  | [Technical Report](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2506.19290) |\n| Kimi-Dev | 72B  | 2025-06 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-Dev-72B) | [Kimi-Dev](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  CD  |      |\n|   Qwen-coder-2.5   | 0.5\u002F1.5\u002F14\u002F32B | 2024-11 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) |   [Qwen2.5-Coder](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5-Coder)   |        [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)        |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12186) |\n| OpenCoder-Instruct |     1.5\u002F8B     | 2024-11 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Finfly\u002Fopencoder-672cec44bbb86c39910fb55e) | [OpenCoder-llm](https:\u002F\u002Fgithub.com\u002FOpenCoder-llm\u002FOpenCoder-llm) | [OpenCoder-llm](https:\u002F\u002Fgithub.com\u002FOpenCoder-llm) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.04905) |\n| 珠算 | 2.7B | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002FAbacus) | [Abacus](https:\u002F\u002Fgithub.com\u002FHIT-SCIR\u002FAbacus) | [HIT-SCIR](https:\u002F\u002Fgithub.com\u002FHIT-SCIR) |  CD  |      |\n| Qwen-2.5-code |        1.5\u002F7B         | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| Qwen-2.5-math |       1.5\u002F7\u002F72B       | 2024-09 | 中英 | 数学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-math-66eaa240a1b7d5ee65f1da3e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n|   Yi-Coder    |  1.5\u002F9B   | 2024-09 | 中英 | 代码 | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002F01-ai\u002FYi-Coder-9B-Chat) • [🤖 ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002F01ai\u002FYi-Coder-9B-Chat) • [🟣 wisemodel](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002F01.AI\u002FYi-Coder-9B-Chat) |       [Yi-Coder](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-Coder)       |       [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai)       |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) [Blog](https:\u002F\u002F01-ai.github.io\u002Fblog.html?post=en\u002F2024-09-05-A-Small-but-Mighty-LLM-for-Code.md) |\n| CodeGeeX4 |  9B  | 2024-07 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fcodegeex4-all-9b) | **[CodeGeeX4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX4)** | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |      |        |\n| DeepSeek-Coder-V2 | A16B\u002F236B | 2024-06 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE  | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n|  AutoCoder  |   6.7\u002F33B    | 2024-06 |  \u002F   | 代码 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBin12345\u002FAutoCoder)    |  [AutoCoder](https:\u002F\u002Fgithub.com\u002Fbin123apple\u002FAutoCoder)  | [Bin Lei](https:\u002F\u002Fhuggingface.co\u002FBin12345) |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.14906)           |\n| Codestral | 22B  | 2024-05 |  \u002F   | 代码 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmistralai) |    \u002F     | [mistralai](https:\u002F\u002Fgithub.com\u002Fmistralai) |  \u002F   | [Blog](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fcodestral\u002F) |\n| CodeQwen1.5-Chat | 7B | 2024-04 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FQwen\u002FCodeQwen1.5-7B-Chat) | **[Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5)** |[Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM)|CD|[Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fcodeqwen1.5\u002F)|\n| codegemma | 2\u002F7B | 2024-04 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fcodegemma-7b) | \u002F |[Google](https:\u002F\u002Fhuggingface.co\u002Fgoogle)|||\n| WaveCoder | 6.7B | 2024-04 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fwavecoder-ds-6.7b) | [WaveCoder](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FWaveCoder) |[microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft)||[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14187)|\n| ChemDFM | 13B | 2024-03 | 中英 | 化学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOpenDFM) | \u002F | [OpenDFM](https:\u002F\u002Fhuggingface.co\u002FOpenDFM) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.14818) |\n| starcoder2 | 3\u002F7\u002F15B | 2024-02 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigcode) | [starcoder2](https:\u002F\u002Fgithub.com\u002Fbigcode-project\u002Fstarcoder2) | [bigcode-project](https:\u002F\u002Fgithub.com\u002Fbigcode-project) | CD | [Paper](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F17iGn3c-sYNiLyRSY-A85QOzgzGnGiVI3\u002Fview) |\n| TuringMM-Chat | 34B | 2024-02 | 中英 | 教育 | [🤗HuggingFace](https:\u002F\u002Fhuggingface.co\u002Flightyear-turing\u002FTuringMM-34B-Chat) [🤖ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Flightyearturing\u002FTuringMM-34B-Chat\u002Fsummary) | \u002F | [光年无限](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Flightyearturing\u002FTuringMM-34B-Chat\u002Fsummary) | CD |  |\n| deepseek-moe | 16B | 2024-01 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeekMoE](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-MoE) | [DeepSeek](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | CD-MOE |  |\n| Code Millenials | 1\u002F3\u002F\u003Cbr\u002F>13\u002F34B | 2023-01 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbudecosystem) | [code-millenials](https:\u002F\u002Fgithub.com\u002FBudEcosystem\u002Fcode-millenials) | [BudEcosystem](https:\u002F\u002Fgithub.com\u002FBudEcosystem) | CD |  |\n| WizardCoder | 15\u002F33B | 2024-01 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FWizardLM) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) | [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568) |\n| DeepSeek-Coder | 1\u002F7\u002F33B | 2023-11 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-Coder](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-Coder) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) |  | [Blog](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FBPW-kMeQNmVPpgvTlbXU1A) |\n| Phind | 34B | 2023-10 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FPhind) | \u002F | [Phind](Phind) | CD | [Blog](https:\u002F\u002Fwww.phind.com\u002Fblog\u002Fphind-model-beats-gpt4-fast) [zh](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FfSVPRjNpWPVrLVA59PrIBA) |\n| Tongyi-Finance-Chat | 14B | 2023-11 | 中文 | 金融 | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B-Chat\u002Fsummary) | [通义金融-14B-Chat](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B-Chat\u002Fsummary) | [通义金融大模型](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTongyiFinance) | CD |  |\n| Skywork-math | 13B | 2023-10 | 中文 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| XuanYuan-Chat | 70B | 2023-10 | 中英 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDuxiaoman-DI\u002FXuanYuan-70B-Chat) | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) | [Duxiaoman度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) | CD |  |\n| zhilu | 13B | 2023-10 | 中英 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSYSU-MUCFC-FinTech-Research-Center) | \u002F | [SYSU-MUCFC-FinTech-Research-Center](https:\u002F\u002Fhuggingface.co\u002FSYSU-MUCFC-FinTech-Research-Center) | CD |  |\n| TestGPT | 7B | 2023-10 | 中文 | 测试 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai\u002FTestGPT-7B) | [Test-Agent](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FTest-Agent) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| cross | 7\u002F13B | 2023-10 | 多语 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMathoctopus) | \u002F | [Mathoctopus](https:\u002F\u002Fhuggingface.co\u002FMathoctopus) | CD |  |\n| CodeFuse | 13\u002F14\u002F\u003Cbr\u002F>15\u002F34B | 2023-10 | 中文 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai) | [MFTCoder](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FMFTCoder) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| Taiyi | 7B | 2023-10 | 中英 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDUTIR-BioNLP\u002FTaiyi-LLM) | [Taiyi-LLM](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM) | [DUTIR-BioNLP](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP) | CD |  |\n| CodeShell-chat | 7B | 2023-10 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWisdomShell\u002FCodeShell-7B-Chat) | [codeshell](https:\u002F\u002Fgithub.com\u002FWisdomShell\u002Fcodeshell) | [WisdomShell](https:\u002F\u002Fgithub.com\u002FWisdomShell) | CD |  |\n| DISC-LawLLM | 13B | 2023-09 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FShengbinYue\u002FDISC-LawLLM) | \u002F | [ShengbinYue](https:\u002F\u002Fhuggingface.co\u002FShengbinYue) | CD | [Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11325) |\n| WiNGPT-chat | 7B | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwinninghealth\u002FWiNGPT2-7B-Chat) | [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2) | [Winning Health AI Research](https:\u002F\u002Fgithub.com\u002Fwinninghealth) | CD |  |\n| ziya-coding | 15\u002F34B | 2023-09 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Coding-34B-v1.0) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          | CD |  |\n| AgriGPT | 6\u002F13b | 2023-09 | 中文 | 农业 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAgriGPTs\u002FAgriGPT-13B) | [AgriGPTs](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs) | [AgriGPTs](https:\u002F\u002Fgithub.com\u002FAgriGPTs) |  |  |\n| XuanYuan-chat | 70B  | 2023-09 | 中文 | 金融 | [TODO]() | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) | [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan\u002Fblob\u002Fmain\u002Fxuanyuan_70b_report.md) |\n| 夫子•明察 | 6B | 2023-09 | 中文 | 司法 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSDUIRLab\u002Ffuzi.mingcha-v1.0) | [fuzi.mingcha](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha) | [山东大学](https:\u002F\u002Fgithub.com\u002Firlab-sdu) | ND |  |\n| 仲景 | 13B | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSuprit) | [Zhongjing](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing) | [Songhua Yang](https:\u002F\u002Fgithub.com\u002FSupritYoung) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03549) |\n| CodeFuse | 13\u002F34B | 2023-09 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai\u002FCodeFuse-13B) | [MFTCoder](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FMFTCoder) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| EcomGPT | 7B | 2023-09 | 中英 | 电商 | [TODO]() | [EcomGPT](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FEcomGPT) | [Alibaba](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP) |  |  |\n| DISC-MedLLM | 13B | 2023-08 | 中文 | 医疗 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlmc\u002FDISC-MedLLM) | [DISC-MedLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-MedLLM) | [FudanDISC](https:\u002F\u002Fgithub.com\u002FFudanDISC) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14346) |\n| K2 | 7B | 2023-08 | 中英 | 科学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdaven3\u002Fk2_fp_delta) | [k2](https:\u002F\u002Fgithub.com\u002Fdavendw49\u002Fk2) | [daven](https:\u002F\u002Fgithub.com\u002Fdavendw49) | CD |  |\n| CodeLLAma | 7\u002F13\u002F34B | 2023-08 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodellama) | [codellama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fcodellama) | [Meta Research](https:\u002F\u002Fgithub.com\u002Ffacebookresearch) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12950) |\n| sqlcoder | 15B | 2023-08 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdefog\u002Fsqlcoder) | [sqlcoder](https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder) | [Defog.ai](https:\u002F\u002Fgithub.com\u002Fdefog-ai) | CD |  |\n| 智海-录问 |  7B  | 2023-08 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16lwM2rPnSq9u-UbtWbZgig) | [wisdomInterrogatory](https:\u002F\u002Fgithub.com\u002FzhihaiLLM\u002FwisdomInterrogatory) | [zhihaiLLM](https:\u002F\u002Fgithub.com\u002FzhihaiLLM) |  CD  |      |\n| WizardMath-V1.0 | 7\u002F13\u002F70B | 2023-08 | 多语 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.0) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) | [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan) | CD |  |\n| QiaoBan | 7B | 2023-08 | 中文 | 情感 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftomxyz\u002Fqiaoban_bc) | [QiaoBen](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC\u002FQiaoBan) | [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC) |  |  |\n| HuangDi | 13B | 2023-08 | 中文 | 中医 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Mzlk5FREpTPa4M7KnMooqQ?pwd=erit) | [HuangDI](https:\u002F\u002Fgithub.com\u002FZlasejd\u002FHuangDI) | [Zlasejd](https:\u002F\u002Fgithub.com\u002FZlasejd) | CD |  |\n| ZhongJing |  | 2023-08 | 中文 | 中医 | [TODO]() | [CMLM-ZhongJing](https:\u002F\u002Fgithub.com\u002Fpariskang\u002FCMLM-ZhongJing) | [复旦大学](pariskang) |  |  |\n| TCMLLM | 6B | 2023-08 | 中文 | 中医 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QFx-206Ww9Xt-7_Z0RF85g) | [TCMLLM](https:\u002F\u002Fgithub.com\u002F2020MEAI\u002FTCMLLM) | [2020MEAI](https:\u002F\u002Fgithub.com\u002F2020MEAI) | ND |  |\n| AutoAudit | 7B | 2023-07 | 中文 | 安全 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit\u002Fblob\u002Fmain) | [AutoAudit](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit) | [Jiaying Li](https:\u002F\u002Fgithub.com\u002Fddzipp) | CD |  |\n| Lychee | 10B | 2023-07 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flaw-llm\u002Flaw-glm-10b) | [lychee_law](https:\u002F\u002Fgithub.com\u002Fdavidpig\u002Flychee_law) | [davidpig](https:\u002F\u002Fgithub.com\u002Fdavidpig) | ND |  |\n| IvyGPT | 6B | 2023-07 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwangrongsheng\u002FIvyGPT-35) | [IvyGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FIvyGPT) | [WangRongsheng](https:\u002F\u002Fgithub.com\u002FWangRongsheng) |  |  |\n| MING | 7B | 2023-07 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlueZeros\u002FMING-7B) | [MING](https:\u002F\u002Fgithub.com\u002FMediaBrain-SJTU\u002FMING) | [上海交通大学](https:\u002F\u002Fgithub.com\u002FMediaBrain-SJTU) | CD |  |\n| Mozi | 7B | 2023-07 | 中英 | 科技 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataHammer\u002Fmozi_llama_7b) | [science-llm](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm) | [GMFTBY](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY) | CD |  |\n| StarGLM | 6B | 2023-07 | 中文 | 天文 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarGLM) | [StarGLM](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarGLM) | [LI YUYANG](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li) | ND |  |\n| TransGPT | 7B | 2023-07 | 中英 | 交通 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDUOMO-Lab\u002FTransGPT-v0) | [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT) | [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO) | CD |  |\n| CodeGeeX2 | 6B | 2023-07 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fcodegeex2-6b) | [CodeGeeX2](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX2) | [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM) | ND |  |\n|           Yayi-llama2           |   7\u002F13B    | 2023-07 | 中英 | 舆情 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research\u002Fyayi-7b-llama2)    | [Yayi](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi) |     [中科闻歌](https:\u002F\u002Fgithub.com\u002Fwenge-research)      |  CD  | |\n| Ziya-Writing |   13B    | 2023-07 | 中英 | 写作 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Writing-LLaMa-13B-v1) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)  |  CD  |  |\n| MindChat | 13B | 2023-07 | 中文 | 心理 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FX-D-Lab\u002FMindChat-Baichuan-13B\u002Fsummary) | [MindChat](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FMindChat) | [华东理工大学](https:\u002F\u002Fgithub.com\u002FX-D-Lab) | CD |  |\n|     ShenNong-TCM-LLM     |   7B    | 2023-07 | 中英 |     医学     |                           [[🤗HF\\]]()                           | [ShenNong-TCM-LLM](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FShenNong-TCM-LLM) |    [michael-wzhu](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu)     |  CD  |                                                              |\n|         ailawyer         |   13B   | 2023-07 | 中英 |     法律     |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenkg\u002Failawyer)        | [JurisLMs](https:\u002F\u002Fgithub.com\u002Fseudl\u002FJurisLMs) |        [openkg](https:\u002F\u002Fhuggingface.co\u002Fopenkg)         |  CD  |                                                              |\n|     educhat      | 7B\u002F13B  | 2023-06 | 中英 |     教育     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fecnu-icalk\u002Feduchat-sft-002-13b) | [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat) |      [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)      |  CD  |                                                              |\n|        Sunsimiao         |   7B    | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FAI-ModelScope\u002FSunsimiao\u002Ffiles) | [Sunsimiao](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FSunsimiao) |       [华东理工大学](https:\u002F\u002Fgithub.com\u002FX-D-Lab)       |  CD  |                                                              |\n|       Media LLaMA        |   7B    | 2023-06 | 中文 |    媒体    | [baidu](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1tEuj0SvwJK4czQPCE6gI9w?pwd=onfo) | [Media-LLaMA](https:\u002F\u002Fgithub.com\u002FIMOSR\u002FMedia-LLaMA) |       [智媒开源研究院](https:\u002F\u002Fgithub.com\u002FIMOSR)       |  CD  |                                                              |\n|          PULSE           |  7\u002F14B  | 2023-06 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenMEDLab\u002FPULSE-7bv5) | [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE) |      [OpenMEDLab](https:\u002F\u002Fgithub.com\u002FOpenMEDLab)       |  CD  |                                                              |\n|         ChatLaw          | 13\u002F33B  | 2023-06 | 中文 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FJessyTsu1\u002FChatLaw-13B) | [ChatLaw](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw) |      [北京大学](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup)      |  CD  |                                                              |\n|          BaoLuo          |   6B    | 2023-06 | 中文 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fxuanxuanzl\u002FBaoLuo-LawAssistant-sftglm-6b) | [BaoLuo-LawAssisant](https:\u002F\u002Fgithub.com\u002Fxuanxuanzl\u002FBaoLuo-LawAssistant) |         [LeiZi](https:\u002F\u002Fgithub.com\u002Fxuanxuanzl)         |  ND  |                                                              |\n|         CoLLaMA          |   7B    | 2023-06 | 中英 |     代码     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDaliahX\u002FCoLLaMA-7b)       | [CoLLaMA](https:\u002F\u002Fgithub.com\u002FDenilah\u002FCoLLaMA) |         [Denilah](https:\u002F\u002Fgithub.com\u002FDenilah)          |  CD  |                                                              |\n|         TechGPT          |   7B    | 2023-06 | 中英 |     教育     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fneukg\u002FTechGPT-7B)        | [TechGPT](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT) |          [东北大学](https:\u002F\u002Fgithub.com\u002Fneukg)          |  CD  |                                                              |\n|           Yayi           |   7B    | 2023-06 | 中英 | 舆情 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research\u002Fyayi-7b)     | [Yayi](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi) |     [中科闻歌](https:\u002F\u002Fgithub.com\u002Fwenge-research)      |  CD  |                                                              |\n|          MeChat          |   6B    | 2023-06 | 中文 |     医学     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fqiuhuachuan\u002FMeChat)       | [smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile) |     [qiuhuachuan](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan)      |  ND  |                                                              |\n|       ziya-medical       |   13b   | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fshibing624\u002Fziya-llama-13b-medical-lora) | [MedicalGPT](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FMedicalGPT) |        [Ming Xu](https:\u002F\u002Fgithub.com\u002Fshibing624)        |  CD  |                                                              |\n|          Taoli           |   7B    | 2023-06 | 中英 |     教育     |                          [待开源]()                          | [taoli](https:\u002F\u002Fgithub.com\u002Fblcuicall\u002Ftaoli) |      [北京语言大学](https:\u002F\u002Fgithub.com\u002Fblcuicall)      |  CD  |                                                              |\n|       Lawyer-llama       |   13B   | 2023-06 | 中英 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fpkupie\u002Flawyer-llama-13b-beta1.0) | [lawyer-llama](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama) |      [Quzhe Huang](https:\u002F\u002Fgithub.com\u002FAndrewZhe)       |  CD  |                                                              |\n|       QiZhen-CaMA        |   13B   | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) | [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT) |          [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)          |  CD  |                                                              |\n|         扁鹊-2.0         |   6B    | 2023-06 | 中文 |     医学     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-2)       | [BianQue](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue) |       [华南理工大学](https:\u002F\u002Fgithub.com\u002Fscutcyr)       |  ND  |                                                              |\n|         SoulChat         |   6B    | 2023-06 | 中文 |     心理     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FSoulChat)        | [SoulChat](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat) |       [华南理工大学](https:\u002F\u002Fgithub.com\u002Fscutcyr)       |  ND  |                                                              |\n|          HanFei          |   7B    | 2023-05 | 中文 |     法律     | [baidu-d6t5](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PkRXUo9sNRQmoXHcW7Aeeg?pwd=d6t5) | [HanFei](https:\u002F\u002Fgithub.com\u002Fsiat-nlp\u002FHanFei) |  [中国科学院深圳先进院](https:\u002F\u002Fgithub.com\u002Fsiat-nlp)   |  CD  |                                                              |\n|      QiZhen      |   6B    | 2023-05 | 中英 |     医学     | [[baidu\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) | [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT) |          [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)          |  CD  |                                                              |\n|     ChatMed-Consult      |   7B    | 2023-05 | 中英 |     医学     |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmichaelwzhu\u002FChatMed-Consult)  | [ChatMed](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FChatMed) |    [michael-wzhu](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu)     |  CD  |                                                              |\n|      LaWGPT-beta1.1      |   7B    | 2023-05 | 中英 |     法律     |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fentity303\u002Flawgpt-lora-7b-v2)  | [LawGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT) |   [Pengxiao Song](https:\u002F\u002Fgithub.com\u002Fpengxiao-song)    |  CD  |                                                              |\n|        Cornucopia        |   7B    | 2023-05 | 中英 |     金融     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002Flora-llama-fin-Linly-zh) | [Cornucopia-LLaMA-Fin-Chinese](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese) |     [yuyangmu](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech)      |  CD  |                                                              |\n|        HuatuoGPT         |   7B    | 2023-05 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-v1) | [HuatuoGPT](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT) | [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence) |  CD  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15075.pdf)         |\n|         LexiLaw          |   6B    | 2023-05 | 中文 |     法律     |         [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)          |        [LexiLaw](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)        |        [Haitao Li](https:\u002F\u002Fgithub.com\u002FCSHaitao)        |  ND  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)           |\n|         XuanYuan         |  176B   | 2023-05 | 中文 |     金融     |    [申请](https:\u002F\u002Fhuggingface.co\u002Fxyz-nlp\u002FXuanYuan2.0)    | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) |       [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI)        |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)           |\n|          LawGPT          |   6B    | 2023-05 | 中文 |     法律     |     [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT) | [LAW-GPT](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT) |      [hongchengliu](https:\u002F\u002Fgithub.com\u002FLiuHC0428)      |  N   |                                                              |\n|         扁鹊-1.0         |  0.7B   | 2023-04 | 中文 |     医学     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-1.0)      |        [BianQue](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)         |         [scutcyr](https:\u002F\u002Fgithub.com\u002Fscutcyr)          |  ED  |                                                              |\n|       ChatGLM-Med        |   6B    | 2023-04 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZQSN56DloRGQ-Qj7IwzY4jV3ZHKMe9Bc) | [Med-ChatGLM](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FMed-ChatGLM) |      [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FSCIR-HI)      |  ED  |                                                              |\n|         BenTsao          |   7B    | 2023-04 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthinksoso\u002Flora-llama-med) | [Huatuo-Llama-Med-Chinese](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese) |      [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FSCIR-HI)      |  CD  |                                                              |\n|        DoctorGLM         |   6B    | 2023-04 | 中文 |     医学     |                          [TODO]()                          | [DoctorGLM](https:\u002F\u002Fgithub.com\u002Fxionghonglin\u002FDoctorGLM) |    [xionghonglin](https:\u002F\u002Fgithub.com\u002Fxionghonglin)     |  ND  |                                                              |\n|         Firefly          |   1\u002F2\u002F7B   | 2023-04 | 中文 |     文化     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FYeungNLP\u002Ffirefly-bloom-7b1-qlora-sft) | [Firefly](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly) |    [Yang JianXin](https:\u002F\u002Fgithub.com\u002Fyangjianxin1)     |  CD  |                                                              |\n|         ChatRWKV         |   7B    | 2023-01 | 中英 |     小说     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b\u002Ftree\u002Fmain) | [ChatRWKV](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV) |         [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL)          | RNN  |        [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F609154637)        |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## MultiModal-ChatLLM\n\n> 收集包含中文的多模态大模型，具备对话等功能。\n\n|           模型           | 大小  |  时间   |                           语言模型                           |                          非语言模型                          | 语言 |   领域    |                             下载                             |                           项目地址                           |                        机构\u002F个人                         |                             文献                             |\n| :----------------------: | :---: | :-----: | :----------------------------------------------------------: | :----------------------------------------------------------: | :--: | :-------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :------------------------------------------------------: | :----------------------------------------------------------: |\n| Gemma-4-IT | E2B\u002FE4B\u002F26B A4B\u002F31B | 2026-04 | Gemma-4 LM (CD+Hybrid) | 文本+图像(全量)+音频(E2B\u002FE4B) | 多语(35+) | 通用 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fgoogle\u002Fgemma-4) | - | [Google DeepMind](https:\u002F\u002Fhuggingface.co\u002Fgoogle) | [Model Card](https:\u002F\u002Fai.google.dev\u002Fgemma\u002Fdocs\u002Fcore\u002Fmodel_card_4) |\n| Qianfan-OCR | 4B | 2026-03 | [Qwen3-4B](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-4B) | Qianfan-ViT, 24层, AnyResolution(最大4K) | 中英 | 文档 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fbaidu\u002FQianfan-OCR) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbaidubce\u002FQianfan-VL) | [百度](https:\u002F\u002Fgithub.com\u002Fbaidubce) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.13398) |\n| GLM-OCR | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-OCR) | \u002F | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | \u002F |\n| Ace-Step1.5 | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文音 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FACE-Step\u002FAce-Step1.5) | \u002F | [ACE-Step](https:\u002F\u002Fgithub.com\u002FACE-Step) | \u002F |\n| HunyuanImage-3.0-Instruct | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuanImage-3.0-Instruct) | \u002F | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | \u002F |\n| AutoGLM-Phone |  9B  | 2025-12 |    **AutoGLM**    |  **AutoGLM**  | 中英 | Agent | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FAutoGLM-Phone-9B) | [Open-AutoGLM](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FOpen-AutoGLM) |   [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)   | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR\u002Fblob\u002Fmain\u002FDeepSeek_OCR_paper.pdf) |\n|  Dolphin-v2   |  3B  | 2025-12 | **Qwen2.5-VL-3B** | Qwen2.5-VL-3B | 中英 | 文图  |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FByteDance\u002FDolphin-v2)   |     [Dolphin](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDolphin)     | [bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance) |          [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.14059)           |\n| DeepSeek-OCR |  3B  | 2025-10 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-OCR) | [DeepSeek-OCR](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR\u002Fblob\u002Fmain\u002FDeepSeek_OCR_paper.pdf) |\n|      VoxCPM      | 0.5B | 2025-09 | [MiniCPM-4](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM4-0.5B) |     \u002F      | 中英 | 文音 |      [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVoxCPM-0.5B)      |         [VoxCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVoxCPM)          |            [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)             |                              \u002F                               |\n|    VibeVoice     | 1.5B | 2025-09 | [Qwen2.5-1.5B](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2.5-1.5B)  |     \u002F      | 中英 | 文音 |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FVibeVoice-1.5B)    |     [VibeVoice](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVibeVoice)      |          [microsoft](https:\u002F\u002Fgithub.com\u002Fmicrosoft)           | [VibeVoice Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.19205) |\n|   HunyuanImage   | 17B  | 2025-09 |                             \u002F                             |     \u002F      | 中英 | 文图 |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuanImage-2.1)    | [HunyuanImage-2.1](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanImage-2.1) |    [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan)     |                              \u002F                               |\n| PromptEnhancerV2 | 32B  | 2025-09 |                             \u002F                             |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FPromptEnhancer\u002FPromptEnhancer-32B) | [PromptEnhancer](https:\u002F\u002Fgithub.com\u002FHunyuan-PromptEnhancer\u002FPromptEnhancer) | [Hunyuan-PromptEnhancer](https:\u002F\u002Fgithub.com\u002FHunyuan-PromptEnhancer) | [report](https:\u002F\u002Fhunyuan-promptenhancer.github.io\u002F) [paper](https:\u002F\u002Fwww.arxiv.org\u002Fabs\u002F2509.04545) |\n| **Qwen-Image** | 20B  | 2025-08 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Image) | [Qwen-Image](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Image) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Tech Report](https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQwen-Image\u002FQwen_Image.pdf) |\n| ERNIE-4.5-VL | A47\u002F424B | 2025-07 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fbaidu) |    \u002F     | [BaiDu](https:\u002F\u002Fhuggingface.co\u002Fbaidu) | [**📄 Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n|   Dolphin   | A3\u002F16B | 2025-05 |  MBart   | Swin Transformer | 中英 |  文图  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Instruct) | [Dolphin](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDolphin) | [bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.14059). |\n| Wan2.1-VACE |  14B   | 2025-05 |    \u002F     |        \u002F         | 中英 | 文图视 |    [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FWan-AI\u002FWan2.1-VACE-14B)     |  [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)  | [Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.20314)  |\n| Kimi-VL | A3\u002F16B | 2025-04 |                          \u002F                           |     \u002F      | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Instruct) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) |  [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI)  |     [**Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491)     |\n|        Aya Vision         | 8\u002F32B | 2025-03 | [C4AI Command R7B](https:\u002F\u002Fhuggingface.co\u002FCohereForAI\u002Fc4ai-command-r7b-12-2024) | [SigLIP2-patch14-384](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fsiglip2-so400m-patch14-384) | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCohereForAI\u002Fc4ai-aya-vision-67c4ccd395ca064308ee1484) |                       \u002F                       | [Cohere For AI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |                                                              |\n| Phi-4-multimodal-instruct | 5.6B  | 2025-03 |                              \u002F                               |                              \u002F                               | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FPhi-4-multimodal-instruct) |                       \u002F                       |    [Microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft)    | [Phi-4-multimodal Technical Report](https:\u002F\u002Faka.ms\u002Fphi-4-multimodal\u002Ftechreport) |\n|         CogView4          |  6B   | 2025-03 |     [GLM-4-9B](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4-9b-hf)     |                              \u002F                               | 中英 | 文图 |       [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogView4-6B)       | [CogView4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogView4) |          [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)          |          [arxiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.05121)           |\n|     Wan2.1      | 1.3\u002F14B | 2025-02 |    \u002F     |     \u002F      | 中英 | 文视图 |           [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FWan-AI)           |     [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)      |  [Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video)  |                     \u002F                     |\n| Step-Audio-Chat |  130B   | 2025-02 |  Step-1  |     \u002F      | 多语 |  文音  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FStep-Audio-Chat) | [Step-Audio](https:\u002F\u002Fgithub.com\u002Fstepfun-ai\u002FStep-Audio) | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.11946) |\n|   Ovis2   | 1\u002F4\u002F16\u002F34B | 2025-02 |   Qwen2.5    |                         aimv2-large                         | 中英 | 文图视 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FAIDC-AI\u002Fovis2-67ab36c7e497429034874464) |    [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis)    |     [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797)           |\n| Janus-Pro |   1.5\u002F7B   | 2025-02 | deepseek-llm | [SigLIP-L](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002FViT-L-16-SigLIP-384) | 中英 |  文图  |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FJanus-Pro-7B)    | [Janus](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FJanus) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FJanus\u002Fblob\u002Fmain\u002Fjanus_pro_tech_report.pdf) |\n|  OuteTTS  |      | 2025-01 | Qwen2.5-0.5B |                    OLMo-1B                     | 多语 |  文音  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOuteAI\u002Foutetts-03-6786b1ebc7aeb757bc17a2fa) |    [OuteTTS](https:\u002F\u002Fgithub.com\u002Fedwko\u002FOuteTTS)    |              [edwko](https:\u002F\u002Fgithub.com\u002Fedwko)               | [Blog](https:\u002F\u002Fwww.outeai.com\u002Fblog) |\n| MiniCPM-o |  8B  | 2025-01 |  Qwen2.5-7B  | SigLip-400M、Whisper-medium-300M, ChatTTS-200M | 中英 | 文音图 | [🤗 HF]( https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenbmb\u002Fmultimodal-models-65d48fa84e358ce02a92d004) | [MiniCPM-o](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-o) | [ ](https:\u002F\u002Fgithub.com\u002Fedwko\u002FOuteTTS)  [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) |                                     |\n| Sa2VA | 1\u002F4\u002F8B | 2024-12 | Qwen2.5  | InternVL2.5 | 中英 | 文视图 | [🤗 HF]( https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FByteDance\u002Fsa2va-model-zoo-677e3084d71b5f108d00e093) | [Sa2VA](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002FSa2VA) | [magic-research](https:\u002F\u002Fgithub.com\u002Fmagic-research)\u002F [Sa2VA](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002FSa2VA) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.04001) |\n| QVQ-72B-Preview | 72B  | 2024-12 |    \u002F     |    \u002F     | 中英 | 文视图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqvq-676448c820912236342b9888) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqvq-72b-preview\u002F) |\n| Megrez-3B-Omni |     3B     | 2024-12 | Megrez-3B-Instruct | SigLip-400M\u002FQwen2-Audio\u002Fwhisper-large-v3 | 中英 | 文音图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FInfinigence\u002FMegrez-3B-Omni) | [Infini-Megrez-Omni](https:\u002F\u002Fgithub.com\u002Finfinigence\u002FInfini-Megrez-Omni) | [infinigence](https:\u002F\u002Fgithub.com\u002Finfinigence) |                                           |\n|  DeepSeek-VL2  | 1\u002F2.8\u002F4.5B | 2024-12 |         \u002F          |                    \u002F                     |      |  文图  |  [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-vl2)  | [DeepSeek-VL2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-VL2)  | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.10302) |\n| InternVL 2.5 | 2\u002F4\u002F8\u002F26\u002F38\u002F78B | 2024-12 | Qwen-2.5 | InternVit | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOpenGVLab\u002Finternvl-25-673e1019b66e2218f68d7c1c) | [InternVL](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternVL) | [OpenGVLab](https:\u002F\u002Fgithub.com\u002FOpenGVLab) | [blog](https:\u002F\u002Finternvl.github.io\u002Fblog\u002F) |\n| Pixtral-Large-Instruct | 124B | 2024-11 | [Mistral-Large-Instruct-2407](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FMistral-Large-Instruct-2407) | \u002F | 多语 | 文图 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FPixtral-Large-Instruct-2411) | \u002F | [mistralai](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | [Pixtral Large blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fpixtral-large\u002F) |\n| fish-agent | 3B | 2024-11 | Qwen-2.5 | \u002F | 多语 | 文音 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002Ffishaudio) | [fish-speech](https:\u002F\u002Fgithub.com\u002Ffishaudio\u002Ffish-speech) | [fishaudio](https:\u002F\u002Fgithub.com\u002Ffishaudio) |  |\n| GLM-4-Voice | 9B | 2024-10 | [GLM-4-9B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4-voice-9b) | [GLM-4-Voice](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4-Voice) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |\n| Pangea | 7B | 2024-10 | [Qwen2-7B-Instruct](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2-7B-Instruct) | [LLaVA-NeXT](https:\u002F\u002Fgithub.com\u002FLLaVA-VL\u002FLLaVA-NeXT) | 多语 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fneulab\u002FPangea-7B) | [Pangea](https:\u002F\u002Fgithub.com\u002Fneulab\u002FPangea) | [neulab](https:\u002F\u002Fgithub.com\u002Fneulab) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.16153) |\n| GOT-OCR-2.0 | \u002F | 2024-09 | Qwen | \u002F | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FGOT-OCR2_0) | [GOT-OCR2.0](https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0) | [**StepFun-AI**](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.01704) |\n| Ovis-1.6 | 9B | 2024-09 | Gemma2-9B-It | Siglip-400M | 中英 | 图文 | [🤗](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FOvis1.6-Gemma2-9B) | [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis) | [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797) |\n| Qwen2-VL | 2\u002F7\u002F72B | 2024-08 | \u002F | \u002F | 多语 | 图文视 | [🤗](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2-VL-7B-Instruct) [🤖](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen2-VL-7B-Instruct) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  |\n| CogVideoX | 2\u002F5B | 2024-08 | \u002F | \u002F | 中英 | 文视 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogVideoX-2b) | [CogVideo](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |\n| MiniCPM-V 2.6 | 8B | 2024-08 |  Qwen2-7B  | SigLip-400M | 中英 | 文图视 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V-2_6) | [MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V) | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) |  |\n| InternVL2 | 1\u002F2\u002F4\u002F8\u002F26\u002F40\u002F76B | 2024-07 |  Qwen2\u002Finternlm2\u002Fllama3  | [InternViT](https:\u002F\u002Fhuggingface.co\u002FOpenGVLab\u002FInternViT-6B-448px-V1-5) | 中英 | 文图 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOpenGVLab\u002Finternvl-20-667d3961ab5eb12c7ed1463e) [🤖 link](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FOpenGVLab) | [InternVL](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternVL) | [OpenGVLab](https:\u002F\u002Fgithub.com\u002FOpenGVLab) | [report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16821) |\n| Qwen2-Audio | 8.2B | 2024-07 |  Qwen2   | Whisper-large-V3 | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Audio) | [Qwen2-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-Audio) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10759) |\n| **Kolors** | \u002F | 2024-07 | ChatGLM3-Base | \u002F | 中英 | 文图 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors) | [Kolors](https:\u002F\u002Fgithub.com\u002FKwai-Kolors\u002FKolors) | [Kwai-Kolors](https:\u002F\u002Fgithub.com\u002FKwai-Kolors) | [Paper](https:\u002F\u002Fgithub.com\u002FKwai-Kolors\u002FKolors\u002Fblob\u002Fmaster\u002Fimgs\u002FKolors_paper.pdf) |\n| ChatTTS | \u002F | 2024-06 | \u002F | \u002F | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F2Noise\u002FChatTTS) | [ChatTTS](https:\u002F\u002Fgithub.com\u002F2noise\u002FChatTTS) | [2noise](https:\u002F\u002Fgithub.com\u002F2noise) | \u002F |\n| GLM-4V | 9B | 2024-06 | GLM-4 | \u002F | 多语 | 文图 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4v-9b) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | \u002F |\n| HunyuanDiT | 1.5B | 2024-05 | multilingual T5 encoder | CLIP | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002FTencent-Hunyuan\u002FHunyuanDiT) | **[HunyuanDiT](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuanDiT)** | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.08748) |\n| **CogVLM2** |  | 2024-05 | Meta-Llama-3-8B-Instruct | \u002F | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002FTHUDM\u002Fcogvlm2-llama3-chat-19B) | [CogVLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM) | [Skip to content](https:\u002F\u002Fgithub.com\u002FTHUDM#start-of-content) |  |\n| 360VL | 8\u002F70B | 2024-05 | LLama3 | CLIP-ViT | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002Fqihoo360) | [360VL](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002F360VL) | [360CVGroup](https:\u002F\u002Fgithub.com\u002F360CVGroup) |  |\n| **XVERSE-V** | 13B | 2024-05 | **XVERSE-13B-Chat** | **clip-vit-large-patch14-224** | 中英 | 文图 | [🤖](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fxverse\u002FXVERSE-V-13B\u002Fsummary) | [XVERSE-V-13B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-V-13B) | [xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai) |  |\n| MiniCPM-V 2.0 | 2.8B | 2024-04 | [MiniCPM-2.4B](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM\u002F) | SigLip-400M | 中英 | 文图 | [🤗](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FOmniLMM-12B\u002F) [🤖](http:\u002F\u002F120.92.209.146:8081\u002F) | **[MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V)** | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) | [Blog](https:\u002F\u002Fopenbmb.vercel.app\u002Fminicpm-v-2) |\n| **Qwen-Audio** | 7B | 2024-03 | [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | [Whisper-large-v2](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Audio) | [Qwen-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Audio)  | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07919) |\n| DeepSeek-VL | 1.3\u002F7B | 2024-03 | DeepSeek | SigLip\u002FSAM | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-vl-7b-chat) | [DeepSeek-VL](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-VL) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.05525) |\n| **OmniLMM** | 3\u002F12B | 2024-02 | MiniCPM | SigLip | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V) | [OmniLMM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FOmniLMM) | [[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| **MiniCPM-V** | 3B | 2024-02 | MiniCPM-2.4B | SigLip-400M | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V) | [OmniLMM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FOmniLMM) | [[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| Yi-VL | 6\u002F34B | 2024-01 | Yi | [CLIP-VIT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi) | [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| Lyrics | 14B | 2023-12 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Visual-Lyrics-14B) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) |  |\n| Qwen-Audio | 7B | 2023-12 | [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | [Whisper-large-v2](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Audio) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07919) |\n| SPHINX | 13B | 2023-10 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FSPHINX) | [LLaMA2-Accessory](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FLLaMA2-Accessory) | [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM) |  |\n| Skywork-MM | 13B | 2023-10 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | [Paper](https:\u002F\u002Fgithub.com\u002Fwill-singularity\u002FSkywork-MM\u002Fblob\u002Fmain\u002Fskywork_mm.pdf) |\n| CogVLM | 7\u002F14B | 2023-10 | Qwen | ViT | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FCausalLM) | \u002F | [CausalLM](https:\u002F\u002Fhuggingface.co\u002FCausalLM) |  |\n|           fuyu           |  8B   | 2023-10 |                              \u002F                               |                              \u002F                               | 中英 |   图文    |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fadept\u002Ffuyu-8b)         |                              \u002F                               |      [Adept AI Labs](https:\u002F\u002Fhuggingface.co\u002Fadept)       |          [Blog](https:\u002F\u002Fwww.adept.ai\u002Fblog\u002Ffuyu-8b)           |\n|       Ziya-Visual        |  14B  | 2023-10 |                            LLaMA                             |                         InstructBLIP                         | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Visual-14B-Chat) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |        [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)        |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08166)           |\n|          CogVLM          |  17B  | 2023-10 |                         EVA2-CLIP-E                          |                         Vicuna-v1.5                          | 中英 |   图文    |                           [TODO]()                           | [CogVLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM) |            [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)             | [Paper](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM\u002Fblob\u002Fmain\u002Fassets\u002Fcogvlm-paper.pdf) |\n|         idefics          | 9\u002F80B | 2023-10 |     [LLaMA](https:\u002F\u002Fhuggingface.co\u002Fhuggyllama\u002Fllama-65b)     | [CLIP-ViT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 |   图文    |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4\u002Fidefics-9b)   |                              \u002F                               |  [HuggingFaceM4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4)   | [log](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fm4-logs\u002Fblob\u002Fmaster\u002Fmemos\u002FREADME.md) |\n|    InternLM-XComposer    |  7B   | 2023-10 |  [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM\u002Ftree\u002Fmain)  |                           EVA-CLIP                           | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-xcomposer-vl-7b) | [InternLM-XComposer](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-XComposer) |         [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM)          |        [Report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.15112.pdf)        |\n|        WeMix-LLM         |  13B  | 2023-09 |                            LLama2                            |                              \u002F                               | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FWeMix-LLaMA2-13B-MM) | [WeMix-LLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FWeMix-LLM) |       [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM)        |                                                              |\n|          Vally           | 7\u002F13B | 2023-08 |                  BelleGroup\u002FBELLE-LLaMA-EXT                  |            OFA-Sys\u002Fchinese-clip-vit-large-patch14            | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FZhaoziwang\u002Fchinese_valley7b_v1) [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FZhaoziwang\u002Fchinese_valley13b_v1) | [Valley](https:\u002F\u002Fgithub.com\u002FRupertLuo\u002FValley) |          [罗瑞璞](https:\u002F\u002Fgithub.com\u002FRupertLuo)          |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07207)           |\n|         SALMONN          |   \u002F   | 2023-08 |                              \u002F                               |                              \u002F                               | 中英 |   语音    |                           [TODO]()                           | [SALMONN](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FSALMONN) |        [Bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance)         |                                                              |\n|         IDEFICS          | 9\u002F80B | 2023-08 |     [llama](https:\u002F\u002Fhuggingface.co\u002Fhuggyllama\u002Fllama-65b)     | [CLIP-ViT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 | 图文-通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4\u002Fidefics-9b) | [m4-logs](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fm4-logs) |  [HuggingFaceM4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4)   |      [Paper](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2306.16527)       |\n|         Qwen-VL          |  7B   | 2023-08 |         [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B)         | [Openclip ViT-bigG](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) | 中英 |   通用    |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-VL)          | [Qwen-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-VL) |           [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM)            |                                                              |\n|       Qwen-VL-chat       |  7B   | 2023-08 |         [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B)         | [Openclip ViT-bigG](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) | 中英 |   通用    |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-VL-Chat)       | [Qwen-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-VL) |           [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM)            |                                                              |\n|          LLasM           |  7B   | 2023-07 | [Chinese-Llama2](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |                       whisper-large-v2                       | 中英 |   语音    |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FLLaSM-Cllama2)     | [LLaSM](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FLLaSM) |        [北京灵琐](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)        |                                                              |\n|      Chinese-LLaVA       |  7B   | 2023-07 | [Chinese-Llama2](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |                           Clip-vit                           | 中英 |   视觉    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FChinese-LLaVA-Cllama2) | [Chinese-LLaVA](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-LLaVA) |        [北京灵琐](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)        |                                                              |\n|        RemoteGLM         |  6B   | 2023-07 |                         VisualGLM-6B                         |                         VisualGLM-6B                         | 中文 |   遥感    |                           [TODO]()                           | [RemoteGLM](https:\u002F\u002Fgithub.com\u002Flzw-lzw\u002FRemoteGLM) |          [lzw-lzw](https:\u002F\u002Fgithub.com\u002Flzw-lzw)           |                                                              |\n|        VisualCLA         |  7B   | 2023-07 | [Chinese-Alpaca-Plus](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\u002Fwiki\u002F%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2) | [CLIP-ViT-L\u002F14](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fclip-vit-large-patch14) | 中文 |   视觉    | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bBF5QHoZxHRnWeTPHL19CQ?pwd=xxbg) | [Visual-Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fairaria\u002FVisual-Chinese-LLaMA-Alpaca) |        [Ziqing Yang](https:\u002F\u002Fgithub.com\u002Fairaria)         |                                                              |\n|          yuren           |  7B   | 2023-07 | [baichuan-7B](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B) | [CLIP](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-L-14-DataComp.XL-s13B-b90K) | 中英 |   视觉    |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fpleisto\u002Fyuren-baichuan-7b)   | [yuren-baichuan-7b](https:\u002F\u002Fgithub.com\u002Fpleisto\u002Fyuren-baichuan-7b) |          [Pleisto](https:\u002F\u002Fgithub.com\u002Fpleisto)           |                                                              |\n|       VisCPM-Chat        |  10B  | 2023-06 |                           CPM-Bee                            |                           Q-Former                           | 中英 |   视觉    |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVisCPM-Chat)      | [VisCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVisCPM) |          [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)           |                                                              |\n|       VisCPM-Paint       |  10B  | 2023-06 |                           CPM-Bee                            | [Stable Diffusion 2.1](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion) | 中英 |   视觉    |     [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVisCPM-Paint)      | [VisCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVisCPM) |          [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)           |                                                              |\n|        XrayPULSE         |  7B   | 2023-06 |         [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE)         |       [MedCLIP](https:\u002F\u002Fgithub.com\u002FRyanWangZf\u002FMedCLIP)       | 中文 |   医学    | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1VsO61-3DFuK4ysGPvoD4_JZaRFKvAJR_\u002Fview?usp=drive_link) | [XrayPULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FXrayPULSE) |       [OpenMEDLab](https:\u002F\u002Fgithub.com\u002FOpenMEDLab)        |                                                              |\n|         SEEChat          |  6B   | 2023-06 |        [ChatGLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)        |                           CLIP-ViT                           | 中文 |     \u002F     |        [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002FSEEChat)         | [SEEChat](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002FSEEChat) |           [360](https:\u002F\u002Fgithub.com\u002F360CVGroup)           |                                                              |\n| Ziya-BLIP2-14B-Visual-v1 |  14B  | 2023-06 | [LLaMA-13B](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1) |                            BLIP2                             | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-BLIP2-14B-Visual-v1) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |        [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)        |                                                              |\n|    Video-LLaMA-BiLLA     |  7B   | 2023-05 | [BiLLa-7B]([BiLLa-7B](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-SFT)) |    [MiniGPT-4](https:\u002F\u002Fgithub.com\u002FVision-CAIR\u002FMiniGPT-4)     | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-SG\u002FVideo-LLaMA-Series\u002Fresolve\u002Fmain\u002Ffinetune-billa7b-zh.pth) | [Video-LLaMA](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG\u002FVideo-LLaMA) |    [达摩院多语言NLP](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02858)           |\n|     Video-LLaMA-Ziya     |  13B  | 2023-05 | [Ziya-13B](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1) |    [MiniGPT-4](https:\u002F\u002Fgithub.com\u002FVision-CAIR\u002FMiniGPT-4)     | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-SG\u002FVideo-LLaMA-Series\u002Fresolve\u002Fmain\u002Ffinetune-ziya13b-zh.pth) | [Video-LLaMA](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG\u002FVideo-LLaMA) |    [达摩院多语言NLP](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02858)           |\n|         XrayGLM          |  6B   | 2023-05 |      [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)       |      [BLIP2-Qformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12597)       | 中英 |   医学    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwangrongsheng\u002FXrayGLM-300) | [XrayGLM](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FXrayGLM) | [澳门理工大学](https:\u002F\u002Fwww.mpu.edu.mo\u002Fesca\u002Fzh\u002Findex.php) |                                                              |\n|          X-LLM           |       | 2023-05 |        [ChatGLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)        |          [ViT-g](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.04560)           | 中文 |     \u002F     |                           [TODO]()                           | [X-LLM](https:\u002F\u002Fgithub.com\u002Fphellonchen\u002FX-LLM) |     [中科院自动化所](https:\u002F\u002Fgithub.com\u002Fphellonchen)     |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.04160.pdf)         |\n|        VisualGLM         |  6B   | 2023-05 |      [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)       |      [BLIP2-Qformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12597)       | 中英 |   视觉    |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fvisualglm-6b)       | [VisualGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FVisualGLM-6B) |           [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)           |                                                              |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## ReasoningLLM\n\n> 收集推理能力比较突出的中文大模型\n\n|      模型       | 大小 | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                 机构\u002F个人                 | 结构 |                      文                       |\n| :-------------: | :--: | ------- | :--: | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :---------------------------------------: | :--: | :-------------------------------------------: |\n| MiniMax-M2.7 | A10\u002F230B | 2026-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.7) | [GitHub](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2.7) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) | MoE | [Blog](https:\u002F\u002Fwww.minimax.io\u002Fnews\u002Fminimax-m27-en) |\n| Qwen3.5 | 0.5\u002F2\u002F4\u002F9\u002F27\u002F35\u002F122\u002F397B | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen35) | [Qwen3.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Blog](https:\u002F\u002Fqwen.ai\u002Fblog?id=qwen3.5) |\n| Step-3.5-Flash | \u002F | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FStep-3.5-Flash) | \u002F | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | \u002F | \u002F |\n| GLM-5 | A40\u002F744B | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5) | \u002F | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | \u002F | [blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-5) |\n| MiniMax-M2.5 | \u002F | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.5) | \u002F | [MiniMaxAI](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI) | \u002F | \u002F |\n| Kimi-K2.5 | 1T | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-K2.5) | \u002F | [moonshotai](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai) | moe | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.02276) |\n| Ring-2.5-1T | 1T | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FinclusionAI\u002FRing-2.5-1T) | \u002F | [inclusionAI](https:\u002F\u002Fhuggingface.co\u002FinclusionAI) | \u002F | \u002F |\n| DeepSeek-V3.2 | \u002F | 2025-12 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2) | [DeepSeek-V3.2-Exp](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3.2-Exp) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Technical Report**](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2\u002Fblob\u002Fmain\u002Fassets\u002Fpaper.pdf) |\n| **Tongyi DeepResearch** | A3\u002F30B | 2025-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B) | [DeepResearch](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch) | [Alibaba-NLP](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP)[\u003Cbr\u002F>](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch) | MoE | [Tech Blog](https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research) |\n| **Qwen3-Next** | A3\u002F80B | 2025-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Next-80B-A3B-Thinking) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Qwen3-Next](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) |\n| Magistral Small 1.2 | 24B | 2025-09 | 多语 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | \u002F | [mistralai](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | CD | [blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmagistral\u002F) |\n| gpt-oss-20B | A2\u002F20B | 2025-08 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fgpt-oss-20b) | [gpt-oss](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-oss) | [openai](https:\u002F\u002Fgithub.com\u002Fopenai) | MoE | [**OpenAI blog**](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F) |\n| gpt-oss-120B | A5\u002F120B | 2025-08 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-0.5B-Instruct) | [gpt-oss](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-oss) | [openai](https:\u002F\u002Fgithub.com\u002Fopenai) | MoE | [**OpenAI blog**](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F) |\n| Baichuan-M2 | 32B | 2025-08 | 中英 | 医疗 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | [Baichuan-M2-32B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | [baichuan-inc](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc) | CD | [technical blog](https:\u002F\u002Fwww.baichuan-ai.com\u002Fblog\u002Fbaichuan-M2) |\n| **Ovis2.5** | 2\u002F9B | 2025-08 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FOvis2.5-9B) | [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis) | [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797) |\n| GLM-4.5V | 108B | 2025-07 | 中英 |  多模态  | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5V) |     [GLM-V](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-V)     |         [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)         | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.01006) |\n| GLM-4.5 | A32\u002F355B | 2025-07 | 中英 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) | [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5) | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | MoE | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.5) |\n| GLM-4.5-Air | 106B-A12B | 2025-07 | 中英 |  通用  | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) |     [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5)     |         [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)         | MoE  | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.5) |\n| Hunyuan | 0.5\u002F4\u002F7B | 2025-07 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-0.5B-Instruct) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | \u002F | \u002F |\n| Qwen3-Thinking-2507 | A3\u002F30B | 2025-07 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-30B-A3B-Thinking-2507) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.09388) |\n| Step3 | A38\u002F321B | 2025-07 | 中英 | 多模态 | [HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002Fstep3) | [Step3](https:\u002F\u002Fgithub.com\u002Fstepfun-ai\u002FStep3) | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.19427) |\n| Dhanishtha-2.0 | 14B | 2025-07 | 多语 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002FHelpingAI\u002FDhanishtha-2.0-preview) | \u002F | [HelpingAI](https:\u002F\u002Fhuggingface.co\u002FHelpingAI) | CD | \u002F |\n| GLM-4.1V-Thinking | 9B | 2025-07 | 中英 | 多模态 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FGLM-4.1V-9B-Thinking)    |  [GLM-4.1V-Thinking](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4.1V-Thinking)  |   [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)   | \u002F | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.01006) |\n| Kimi-VL-Thinking-2506 | A3B | 2025-06 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Thinking-2506) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) | \u002F | [**📄 Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n| Hunyuan-A13B | A13\u002F80B | 2025-06 | 中英 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-A13B-Instruct) | [Hunyuan-A13B](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan-A13B) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | MoE | [**Technical Report**](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan-A13B\u002Fblob\u002Fmain\u002Freport\u002FHunyuan_A13B_Technical_Report.pdf) |\n| LongWriter-Zero | 32B | 2025-06 | 中英 | \u002F |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHU-KEG\u002FLongWriter-Zero-32B)    |  \u002F  |   [THU-KEG](https:\u002F\u002Fgithub.com\u002FTHU-KEG)   | \u002F | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.18841) |\n| MiniMax-M1 | A46\u002F456B | 2025-06 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI)    |  [MiniMax-M1](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M1)  |   [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI)   | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.13585) |\n| DeepSeek-R1-0528 | A37\u002F671B | 2025-05 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1)    |  [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1)  |   [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai)   | MoE  | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n|   QwenLong-L1    |   32B    | 2025-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTongyi-Zhiwen\u002FQwenLong-L1-32B) | [QwenLong-L1](https:\u002F\u002Fgithub.com\u002FTongyi-Zhiwen\u002FQwenLong-L1) | [Tongyi-Zhiwen](https:\u002F\u002Fgithub.com\u002FTongyi-Zhiwen) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.17667) |\n| GLM-Z1-0414 | 32B | 2025-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FTHUDM\u002Fglm-4-0414-67f3cbcb34dd9d252707cb2e) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |  |\n|    DeepCoder     | 1.5\u002F14B | 2025-04 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fagentica-org\u002FDeepCoder-14B-Preview) | [rllm](https:\u002F\u002Fgithub.com\u002Fagentica-project\u002Frllm) | [agentica-project](https:\u002F\u002Fgithub.com\u002Fagentica-project) | CD |  |\n| Kimi-VL-Thinking | A3\u002F16B | 2025-04 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Thinking) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  MoE  | [**Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n| Skywork-OR1 | 7\u002F32B | 2025-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-OR1-32B-Preview) | [Skywork-OR1](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-OR1) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)\u002F | MoE | [Notion Blog](https:\u002F\u002Fcapricious-hydrogen-41c.notion.site\u002FSkywork-Open-Reaonser-Series-1d0bc9ae823a80459b46c149e4f51680) |\n| Skywork-R1V | 38B | 2025-03 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-R1V-38B) | [Skywork-R1V](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-R1V) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | CD | [Paper](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-R1V\u002Fblob\u002Fmain\u002FSkywork_R1V.pdf) |\n| Fin-R1 | 7B | 2025-03 | 中英 | 金融 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSUFE-AIFLM-Lab\u002FFin-R1) | [Fin-R1](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab\u002FFin-R1) | [SUFE-AIFLM-Lab](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.16252) |\n| QwQ-32B | 32B  | 2025-03 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwQ-32B) |    \u002F     | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [📑 blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwq-32b\u002F) |\n| DeepSeek-R1 | A37\u002F671B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) |  MoE  | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n| DeepSeek-R1-Zero | A37\u002F671B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1-Zero) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n| DeepSeek-R1-Distill-Qwen | 1.5\u002F7\u002F14\u002F32B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fdeepseek-ai\u002Fdeepseek-r1-678e1e131c0169c0bc89728d) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n| MiniMax-Text-01 | A46\u002F456B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-Text-01) | [MiniMax-01](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-01) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) |  MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.08313) |\n| MiniMax-VL-01 | A46\u002F456B | 2025-01 | 中英 | 多模态 |                              [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-VL-01)                              | [MiniMax-01](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-01) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.08313) |\n| Sky-T1 | 32B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNovaSky-AI\u002FSky-T1-32B-Preview) | [SkyThought](https:\u002F\u002Fgithub.com\u002FNovaSky-AI\u002FSkyThought) | [NovaSky-AI](https:\u002F\u002Fgithub.com\u002FNovaSky-AI) |  CD  | [Blog](https:\u002F\u002Fnovasky-ai.github.io\u002Fposts\u002Fsky-t1\u002F) |\n| Search-O1 |  | 2025-01 | 中英 | 通用 |                              \u002F                              | [Search-o1](https:\u002F\u002Fgithub.com\u002Fsunnynexus\u002FSearch-o1) | [sunnynexus](https:\u002F\u002Fgithub.com\u002Fsunnynexus) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.05366) |\n| HuatuoGPT-o1 | 7\u002F8\u002F70\u002F72B | 2025-01 | 中英 | 医疗 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FFreedomIntelligence\u002Fhuatuogpt-o1-677261a3711767cce7c64e13) | [HuatuoGPT-o1](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-o1) | [FreedomIntelligence](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)\u002F |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.18925) |\n| QwQ-32B-Preview | 32B  | 2024-11 | 中英 | 通用 |      [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwQ-32B-Preview)      |                              \u002F                               |    [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)    |  CD  |                                               |\n|    Marco-o1     |  7B  | 2024-11 | 中英 | 通用 |        [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FMarco-o1)        |       [Marco-o1](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FMarco-o1)        |   [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI)   |  CD  | [**Paper**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.14405) |\n| Skywork-01-Open |  8B  | 2024-11 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FSkywork\u002Fskywork-o1-open-67453df58e12f6c3934738d0) | [skywork-o1-prm-inference](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002Fskywork-o1-prm-inference) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2)  |\n|     HK-01aw     |  8B  | 2024-11 | 中文 | 法律 |       [🤗HF](https:\u002F\u002Fhuggingface.co\u002FHKAIR-Lab\u002FHK-O1aw)        |       [HK-O1aw](https:\u002F\u002Fgithub.com\u002FHKAIR-Lab\u002FHK-O1aw)        | [HKAIR-Lab](https:\u002F\u002Fgithub.com\u002FHKAIR-Lab) |  CD  |                                               |\n| QVQ-72B-Preview | 72B  | 2024-12 | 中英 | 多模 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqvq-676448c820912236342b9888) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  |[Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqvq-72b-preview\u002F)|\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 中文指令数据集\n\n> 收集包含中文的指令数据集，用于微调语言模型。\n\n|            名称            | 大小  | 时间    | 语言 |                             下载                             |                           项目地址                           |                             作者                             |                     备注                      |\n| :------------------------: | :---: | ------- | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :-------------------------------------------: |\n|         FinCorpus          |  50G  | 2023-09 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDuxiaoman-DI\u002FFinCorpus) |     [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)     |          [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI)           |                   金融领域                    |\n|        TransGPT-sft        | 346k  | 2023-07 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDUOMO-Lab\u002FTransGPT-sft) |        [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)         |           [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO)           |                                               |\n|        TransGPT-pt         |  58k  | 2023-07 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDUOMO-Lab\u002FTransGPT-pt) |        [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)         |           [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO)           |                                               |\n|  ShareGPT-Chinese-English  |  90K  | 2023-07 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FShareGPT-Chinese-English-90k) | [llama2-Chinese-chat](https:\u002F\u002Fgithub.com\u002FCrazyBoyM\u002Fllama2-Chinese-chat) |            [Ke Bai](https:\u002F\u002Fgithub.com\u002FCrazyBoyM)            |                                               |\n|  educhat-sft-002-data-osm  | 400w  | 2023-06 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fecnu-icalk\u002Feduchat-sft-002-data-osm) |       [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat)        |         [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)         |                     教育                      |\n|       chatgpt-corpus       |  3M   | 2023-06 | 中文 |     [dataset](https:\u002F\u002Fgithub.com\u002FPlexPt\u002Fchatgpt-corpus)      |  [chatgpt-corpus](https:\u002F\u002Fgithub.com\u002FPlexPt\u002Fchatgpt-corpus)  |              [plex](https:\u002F\u002Fgithub.com\u002FPlexPt)               |                                               |\n|           Simle            | 350k  | 2023-06 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile\u002Ftree\u002Fmain\u002Fdata) |        [smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)         |        [qiuhuachuan](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan)         |                   心理健康                    |\n|           QiZhen           |  20k  | 2023-06 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT\u002Fblob\u002Fmain\u002Fdata\u002Ftrain\u002Fsft-20k.json) |       [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT)        |             [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)             |                     医学                      |\n|         BayLing-80         |  80   | 2023-06 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing\u002Fblob\u002Fmain\u002Fdata\u002FBayLing-80) |         [BayLing](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing)         |           [中国科学院](https:\u002F\u002Fgithub.com\u002Fictnlp)            |                   多轮指令                    |\n|      Tigerbot-dataset      | 120k  | 2023-06 | 中英 |     [dataset](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)     |    [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)     |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |                                               |\n|        lawyer-llama        |   \u002F   | 2023-05 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Ftree\u002Fmain\u002Fdata) |  [lawyer-llama](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama)   |         [Quzhe Huang](https:\u002F\u002Fgithub.com\u002FAndrewZhe)          |                     法律                      |\n|         Bactrian-X         |  67K  | 2023-05 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FMBZUAI\u002FBactrian-X) |    [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x)    |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |                                               |\n|      CrimeKgAssitant       |  52k  | 2023-05 | 中文 |       [dataset](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)        |       [LAW-GPT](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)        |         [hongchengliu](https:\u002F\u002Fgithub.com\u002FLiuHC0428)         |                     法律                      |\n|     moss-002-sft-data      | 1.1M  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ffnlp\u002Fmoss-002-sft-data) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|     moss-003-sft-data      | 1.1M  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS\u002Ftree\u002Fmain\u002FSFT_data\u002Fconversations\u002Fconversation_without_plugins) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|  moss-003-sft-plugin-data  | 300K  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS\u002Ftree\u002Fmain\u002FSFT_data\u002Fconversations\u002Fconversation_with_plugins) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|       Safety-Prompts       | 100K  | 2023-04 | 中文 |    [dataset](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts)     | [Safety-Prompts](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts) |           [清华大学](https:\u002F\u002Fgithub.com\u002Fthu-coai)            |   [评测平台](http:\u002F\u002F115.182.62.166:18000\u002F)    |\n|           OASST1           |   \u002F   | 2023-04 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOpenAssistant\u002Foasst1) | [Open-Assistant](https:\u002F\u002Fgithub.com\u002FLAION-AI\u002FOpen-Assistant) |    [OpenAssistant](https:\u002F\u002Fhuggingface.co\u002FOpenAssistant)     |                                               |\n|         ShareChat          |  90K  | 2023-04 | 中英 |     [dataset](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725\u002Ffiles)      |       [ShareChat](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725)        |         [czhko](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725)          |                                               |\n|         GPT-4-LLM          |  52K  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM\u002Fblob\u002Fmain\u002Fdata\u002Falpaca_gpt4_data_zh.json) | [GPT-4-LLM](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM) | [Instruction-Tuning-with-GPT-4](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4) |   [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03277)   |\n|            COIG            | 200K  | 2023-04 | 中文 |     [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBAAI\u002FCOIG)     |   [FlagInstruct](https:\u002F\u002Fgithub.com\u002FFlagOpen\u002FFlagInstruct)   |             [BAAI](https:\u002F\u002Fhuggingface.co\u002FBAAI)              | [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.07987.pdf) |\n|           RedGPT           |  50k  | 2023-04 | 中文 |       [dataset](https:\u002F\u002Fgithub.com\u002Fziliwangnlp\u002FRedGPT)       |       [RedGPT](https:\u002F\u002Fgithub.com\u002Fziliwangnlp\u002FRedGPT)        |          [MiniGPT](https:\u002F\u002Fgithub.com\u002Fziliwangnlp)           |                                               |\n|        shareGPT_cn         |  20k  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FshareGPT_cn) | [shareGPT_cn](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FshareGPT_cn) |          [shareAI](https:\u002F\u002Fhuggingface.co\u002FshareAI)           |                                               |\n|    generated_chat_0.4M     | 0.4M  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fgenerated_chat_0.4M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                   角色对话                    |\n|    multiturn_chat_0.8M     | 0.8M  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fmultiturn_chat_0.8M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                   多轮任务                    |\n|     school_math_0.25M      | 0.25M | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fschool_math_0.25M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                    数学题                     |\n|         Zhihu-KOL          |   \u002F   | 2023-03 | 中文 | [ dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fwangrui6\u002FZhihu-KOL) |      [Zhihu-KOL](https:\u002F\u002Fgithub.com\u002Fwangrui6\u002FZhihu-KOL)      |         [Rui Wang](https:\u002F\u002Fhuggingface.co\u002Fwangrui6)          |                                               |\n|      InstructionWild       | 104k  | 2023-03 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FXueFuzhao\u002FInstructionWild\u002Ftree\u002Fmain\u002Fdata) | [InstructionWild](https:\u002F\u002Fgithub.com\u002FXueFuzhao\u002FInstructionWild) |          [Xue Fuzhao](https:\u002F\u002Fgithub.com\u002FXueFuzhao)          |                                               |\n|         Alpaca-CoT         |  \u002F.   | 2023-03 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FQingyiSi\u002FAlpaca-CoT\u002Ftree\u002Fmain) |    [Alpaca-CoT](https:\u002F\u002Fgithub.com\u002FPhoebusSi\u002FAlpaca-CoT)     |         [Qingyi Si](https:\u002F\u002Fhuggingface.co\u002FQingyiSi)         |                                               |\n|       GuanacoDataset       |   \u002F   | 2023-03 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FJosephusCheung\u002FGuanacoDataset) |      [guanaco-model](https:\u002F\u002Fguanaco-model.github.io\u002F)       |         [Guanaco](https:\u002F\u002Fgithub.com\u002FGuanaco-Model)          |                                               |\n| Traditional-Chinese-alpaca |  52K  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fntunlplab\u002Ftraditional-chinese-alpaca\u002Ftree\u002Fmain\u002Fdata) | [Traditional-Chinese Alpaca](https:\u002F\u002Fgithub.com\u002Fntunlplab\u002Ftraditional-chinese-alpaca) |         [NTU NLP Lab](https:\u002F\u002Fgithub.com\u002Fntunlplab)          |                    gpt翻译                    |\n|   alpaca_chinese_dataset   |   \u002F   | 2023-03 | 中文 |                         [dataset]()                          | [alpaca_chinese_dataset](https:\u002F\u002Fgithub.com\u002Fhikariming\u002Falpaca_chinese_dataset) |            [akou](https:\u002F\u002Fgithub.com\u002Fhikariming)             |                   人工校验                    |\n|   alpaca-chinese-dataset   |   \u002F   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fcarbonz0\u002Falpaca-chinese-dataset) | [alpaca-chinese-dataset](https:\u002F\u002Fgithub.com\u002Fcarbonz0\u002Falpaca-chinese-dataset) |            [carbonz](https:\u002F\u002Fgithub.com\u002Fcarbonz0)            |                   机器翻译                    |\n|        train_2M_CN         |  2M   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_2M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|        train_1M_CN         |  1M   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_1M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|       train_0.5M_CN        | 0.5M  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_0.5M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|   HC3 人类-ChatGPT 问答    |   \u002F   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fsimpleai\u002FHC3-Chinese\u002Fsummary) | [chatgpt-comparison-detection](https:\u002F\u002Fgithub.com\u002FHello-SimpleAI\u002Fchatgpt-comparison-detection) |        [SimpleAI](https:\u002F\u002Fgithub.com\u002FHello-SimpleAI)         |                                               |\n|     firefly-train-1.1M     | 1.1M  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FYeungNLP\u002Ffirefly-train-1.1M) |      [Firefly](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly)      |       [Jianxin Yang](https:\u002F\u002Fgithub.com\u002Fyangjianxin1)        |                                               |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Embedding\n\n> MTEB排行榜:  https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmteb\u002Fleaderboard [镜像](https:\u002F\u002Fhf-mirror.com\u002Fspaces\u002Fmteb\u002Fleaderboard)\n\n|           模型           |  大小   | 时间    | 语言 |     领域     |                             下载                             |                           项目地址                           |                       机构\u002F个人                        |                             文                             |\n| :----------------------: | :-----: | ------- | :--: | :----------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------: | :----------------------------------------------------------: |\n| Qwen3-Embedding | 0.6\u002F4\u002F8B | 2025-06 | 多语 | 通用 | [[🤗HF]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Embedding-0.6B) | [Qwen3-Embedding](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Embedding) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.05176) |\n| JinaColBERT V2 | large | 2024-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-colbert-v2) | \u002F | [Jina AI](https:\u002F\u002Fhuggingface.co\u002Fjinaai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.16672) |\n| Conan-embedding-v1 | large | 2024-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentBAC\u002FConan-embedding-v1) | \u002F | [TencentABC](https:\u002F\u002Fhuggingface.co\u002FTencentBAC) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.15710) |\n| xiaobu-v2 | large | 2024-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flier007\u002Fxiaobu-embedding-v2) | \u002F | [lier007](https:\u002F\u002Fhuggingface.co\u002Flier007) |  |\n| zpoint_large | Large | 2024-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fiampanda\u002Fzpoint_large_embedding_zh) | \u002F | [**yang**](https:\u002F\u002Fhuggingface.co\u002Fiampanda) |  |\n| BCE | 279M | 2024-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmaidalun1020\u002Fbce-embedding-base_v1) | [BCEmbedding](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FBCEmbedding) | [netease-youdao](https:\u002F\u002Fgithub.com\u002Fnetease-youdao) |  |\n| Cohere | Base | 2023-09 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FCohere) | \u002F | [Cohere](https:\u002F\u002Fhuggingface.co\u002FCohere) | [Blog](https:\u002F\u002Ftxt.cohere.com\u002Fintroducing-embed-v3\u002F) |\n| jina | Base | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-embeddings-v2-base-zh) | \u002F | [Jina AI](https:\u002F\u002Fhuggingface.co\u002Fjinaai) |  |\n| Dmeta | **400MB** | 2024-02 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul\u002FDmeta-embedding) | \u002F | [DMetaSoul](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul) |  |\n| bge-m3 |  | 2024-02 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | \u002F | [BAAI](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.03216.pdf) |\n| tao-8k |  | 2023-11 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Famu) |  | [amu](https:\u002F\u002Fhf-mirror.com\u002Famu) |  |\n| bge | s\u002Fb\u002Fl | 2023-10 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | \u002F | [BAAI](https:\u002F\u002Fhf-mirror.com\u002FBAAI) |  |\n| gte-zh | s\u002Fb\u002Fl | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul\u002FDmeta-embedding) | \u002F | Alibaba DAMO | [Paper](arXiv:2308.03281) |\n| m3e | s\u002Fb\u002Fl | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fmoka-ai) | \u002F | [Moka-AI](https:\u002F\u002Fhf-mirror.com\u002Fmoka-ai) |  |\n| LaBSE |  |  | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fsentence-transformers\u002FLaBSE) | \u002F | [Sentence Transformers](https:\u002F\u002Fhf-mirror.com\u002Fsentence-transformers) | |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 大模型评估基准\n\n### 1. C-Eval \n\nC-Eval 是一个全面的中文基础模型评估套件。它包含了13948个多项选择题，涵盖了52个不同的学科和四个难度级别，查看[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)了解更多细节。\n\n[[官方网站](https:\u002F\u002Fcevalbenchmark.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FSJTU-LIT\u002Fceval)]  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)] \n\n### 2. FlagEval \n\nFlagEval是一个面向AI基础模型的评测工具包。我们的目标是探索和集合科学、公正、开放的基础模型评测基准、方法及工具，对多领域（如语言、语音、视觉及多模态）的基础模型进行多维度（如准确性、效率、鲁棒性等）的评测。我们希望通过对基础模型的评测，加深对基础模型的理解，促进相关的技术创新及产业应用。\n\n[[官方网站](https:\u002F\u002Fcevalbenchmark.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FFlagOpen\u002FFlagEval)] \n\n### 3. SuperCLUElyb \n\nSuperCLUE琅琊榜，这是一个中文通用大模型对战评价基准，它以众包的方式提供匿名、随机的对战。在本文中，我们发布了初步的结果和基于Elo评级系统的排行榜，Elo评级是国际象棋和其他竞技游戏中广泛使用的评级系统。我们邀请整个社区加入这项工作，贡献新的模型，并通过提问和投票选出你最喜欢的答案来评估它们。\n\n[[官方网站](https:\u002F\u002Fwww.superclueai.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FSuperCLUElyb)]\n\n### 4. XiezhiBenchmark \n\n该基准包括来自13个不同学科的516个学科的220,000个多项选择题，以及15,000个来自单一学科和多个学科的问题。我们对47个最新的大型语言模型在Xiezhi上进行了评估，结果表明在科学、工程、农学、医学和艺术等领域，大型语言模型的表现超过了人类的平均水平，但在经济学、法学、教育学、文学、历史和管理学等领域，人类的表现仍然远远超过了大型语言模型。\n\n[[官方网站]()]   [[Github](https:\u002F\u002Fgithub.com\u002Fmikegu721\u002Fxiezhibenchmark)] [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05783)]\n\n### 5. Open LLM Leaderboard\n\n由HuggingFace组织的一个LLM评测榜单，目前已评估了较多主流的开源LLM模型，以英文为主。主要目标是跟踪、排名和评估最新的大语言模型和聊天机器人，让所有人方便的观察到开源社区的进展和评估这些模型。这个排行榜有一个关键优势，社区中的任何成员都可以提交模型，并在 Hugging Face 的 GPU 集群上自动评估。\n\n[[官方网站](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FHuggingFaceH4\u002Fopen_llm_leaderboard)] \n\n### 6. 中文大模型安全评测平台 \n\n大模型安全测评依托于一套系统的安全评测框架，涵盖了仇恨言论、偏见歧视言论、犯罪违法、隐私、伦理道德等八大类别，包括细粒度划分的40余个二级安全类别。\n\n[[官方网站](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fleaderboard\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts)] [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10436)]\n\n### 7. OpenCompass大语言模型评测 \n\nOpenCompass 是一款开源、高效、全面的评测大模型体系及开放平台。我们提供完整开源可复现的评测框架，支持大语言模型、多模态模型各类模型的一站式评测。利用分布式技术，即使面对千亿参数模型也能在数小时内完成评测。基于多个不同维度的高认可度数据集开放多样化的评测方式，包括零样本评测、小样本评测和思维链评测，全方位量化模型各个维度能力。\n\n[[官方网站](https:\u002F\u002Fopencompass.org.cn\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002Fopencompass)]\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 在线体验大模型\n\n> **注**：需要申请或者注册方可体验,更多见[Github](https:\u002F\u002Fgithub.com\u002Fwgwang\u002FLLMs-In-China)\n\n### 1. ChatGPT--OpenAI\n\nOpenAI所提出的GPT相关模型，也是目前最火的大语言模型，发布版本已经到了4.0.\n\n[[官方网站](https:\u002F\u002Fchat.openai.com\u002Fchat)] \n\n### 2. New bing--微软\n\nNewBing是微软在2023年3月推出的一款全新的搜索引擎，它基于OpenAI的大型语言模型（LLM），并结合了ChatGPT和DALL·E的技术，为用户提供了一个AI驱动的网络助手。\n\n[[官方网站](https:\u002F\u002Fwww.bing.com\u002F)] \n\n### 3. 文心一言--百度\n\n百度全新一代知识增强大语言模型，文心大模型家族的新成员，能够与人对话互动，回答问题，协助创作，高效便捷地帮助人们获取信息、知识和灵感。\n\n[[官方网站](https:\u002F\u002Fyiyan.baidu.com\u002Fwelcome)] \n\n### 4. 通义大模型--阿里\n\n阿里大模型统一品牌，覆盖语言、听觉、多模态等领域致力于实现接近人类智慧的通用智能，让AI从“单一感官”到“五官全开”\n\n[[官方网站](https:\u002F\u002Ftongyi.aliyun.com\u002F)] \n\n### 5. 星火认知大模型--科大讯飞\n\n科大讯飞推出的新一代认知智能大模型，拥有跨领域的知识和语言理解能力，能够基于自然对话方式理解与执行任务。从海量数据和大规模知识中持续进化，实现从提出、规划到解决问题的全流程闭环。\n\n[[官方网站](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)] \n\n### 6. Claude--Anthropic\n\nClaude，是人工智能初创公司Anthropic 发布的一款类似ChatGPT的产品。\n\n[[官方网站](https:\u002F\u002Fwww.anthropic.com\u002Fproduct)] \n\n### 7. ChatGLM--智谱AI\n\n基于千亿基座模型 GLM-130B，注入代码预训练，通过有监督微调等技术实现人类意图对齐，具备问答、多轮对话、代码生成功能的中英双语大模型。\n\n[[官方网站](https:\u002F\u002Fchatglm.cn\u002F)] \n\n### 8. 天工大模型--昆仑万维\n\n天工作为一款大型语言模型，拥有强大的自然语言处理和智能交互能力，能够实现智能问答、聊天互动、文本生成等多种应用场景，并且具有丰富的知识储备，涵盖科学、技术、文化、艺术、历史等领域。\n\n[[官方网站](https:\u002F\u002Ftiangong.kunlun.com\u002F)] \n\n### 9. 序列猴子大模型--出门问问\n\n序列猴子大模型是一个具有长序列、多模态、单模型、大数据等特点的超大规模语言模型，基于其通用的表示能力与推理能力，能够进行多轮交互，打造更便捷流畅的用户体验，极大地提高了生产效率和数据处理能力，被广泛应用于问答系统、自然语言处理、机器翻译、文本摘要等领域。\n\n[[官方网站](https:\u002F\u002Fopenapi.mobvoi.com\u002Flargemodel-introduce)] \n\n### 10. MOSS--复旦大学\n\nMOSS是复旦大学自然语言处理实验室发布的国内第一个对话式大型语言模型\n\n[[官方网站](https:\u002F\u002Fmoss.fastnlp.top\u002F)] \n\n### 11. 360智脑大模--360\n\n360智脑的生成与创作、多轮对话、代码能力、阅读理解、逻辑与推理、多模态等十大核心能力可覆盖大模型全部应用场景。\n\n[[官方网站](https:\u002F\u002Fai.360.cn\u002F)] \n\n### 12. 曹植GPT大语言模型--达观数据\n\n达观数据积极探索大语言模型LLM的实践，研发国产版GPT“曹植”系统，作为垂直、专用、自主可控的国产版ChatGPT模型，不仅实现专业领域的AIGC智能化应用，且可内置在客户各类业务系统中提供专用服务\n\n[[官方网站](http:\u002F\u002Fwww.datagrand.com\u002Fproducts\u002Faigc\u002F)] \n\n### 13. 日日新--商汤\n\n商汤“日日新SenseNova”大模型体系，正式问世\n\n不仅展示了大模型体系下的语言大模型，还展示了AI文生图创作、2D\u002F3D数字人生成、大场景\u002F小物体生成等一系列生成式AI模型及应用，还揭开了依托商汤AI大装置SenseCore实现“大模型+大算力”融合创新的研发体系。\n\n[[官方网站](https:\u002F\u002Ftechday.sensetime.com\u002Flist)] \n\n### 14. 天燕大模型--APUS\n\n天燕大模型是APUS公司自研的多模态大模型（LMM），具备对文本、图像、视频、音频的理解和生成能力（视频和音频的能力即将推出）。\n\n[[官方网站](https:\u002F\u002Fwww.apusai.com\u002F#\u002F)] \n\n### 15. 元乘象--智子引擎\n\n图文机器人\n\n[[官方网站](https:\u002F\u002Fchatimg.aixiaoqingxu.com\u002F)] \n\n### 16. 西湖大模型--西湖心辰\n\n[[官方网站](https:\u002F\u002Fxinchenai.com\u002F)] \n\n### 17. Dongni--深思考\n\nAI多模态搜索引擎\n\n[[官方网站](https:\u002F\u002Fwww.dongni.ai\u002F#\u002F)] \n\n### 18. 山海大模型--云知声\n\n只需一次对话即可获取信息、知识和灵感，解决需求。是每个人身边的助理、朋友和专家。\n\n[[官方网站](https:\u002F\u002Fshanhai.unisound.com\u002F)] \n\n### 19. MiniMax大模型--MiniMax\n\nMiniMax 最新一代的中文大语言模型帮助人类高效写作、激发创意、获取知识、做出决策现已对企业开放API体验\n\n[[官方网站](https:\u002F\u002Fapi.minimax.chat\u002F)] \n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 开源模型库平台\n\n1. 🤗[HuggingFace](https:\u002F\u002Fhuggingface.co\u002F): The AI community building the future.\n* 模型下载地址: [https:\u002F\u002Fhuggingface.co\u002Fmodels](https:\u002F\u002Fhuggingface.co\u002Fmodels)\n\n2. [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fhome): ModelScope平台是以模型为中心的模型开源社区\n* 模型下载地址:[https:\u002F\u002Fmodelscope.cn\u002Fmodels](https:\u002F\u002Fmodelscope.cn\u002Fmodels)\n\n3. [flagopen](https:\u002F\u002Fflagopen.baai.ac.cn\u002F#\u002Fhome): flagopen飞智大模型技术开源体系\n* 模型下载地址: [https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodels](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodels)\n\n4. [始智AI](https:\u002F\u002Fwisemodel.cn\u002Fhome): 中国AI开源创新社区\n* 模型下载地址: [https:\u002F\u002Fwisemodel.cn\u002Fmodels](https:\u002F\u002Fwisemodel.cn\u002Fmodels)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 开源数据集库\n\n1. huggfaceing数据集仓库: [https:\u002F\u002Fhuggingface.co\u002Fdatasets](https:\u002F\u002Fhuggingface.co\u002Fdatasets)\n* 包含了自然语言处理、计算机视觉、语音、多模态等数据集，内置100多个多语言公共数据集下载\n\n2. ModelScope数据集仓库:[https:\u002F\u002Fmodelscope.cn\u002Fdatasets](https:\u002F\u002Fmodelscope.cn\u002Fdatasets)\n* 提供了覆盖自然语言处理、计算机视觉、语音、多模态等数据集，更有阿里巴巴集团贡献的专业领域数据集，\n\n3. flagopen数据集仓库: [https:\u002F\u002Fdata.baai.ac.cn\u002Fdata](https:\u002F\u002Fdata.baai.ac.cn\u002Fdata)\n* 内置公共数据集下载，可下200G大规模预训练语料[WuDaoCorpora](https:\u002F\u002Fdata.baai.ac.cn\u002Fdetails\u002FWuDaoCorporaText)\n\n4. cluebenchmarks数据集仓库：[https:\u002F\u002Fwww.cluebenchmarks.com\u002FdataSet_search.html](https:\u002F\u002Fwww.cluebenchmarks.com\u002FdataSet_search.html)\n* 多个中英文NLP数据集，并可申请下载100GB的高质量中文预训练语料[CLUECorpus2020](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUECorpus2020)\n\n5. [MNBVC](https:\u002F\u002Fgithub.com\u002Fesbatmop\u002FMNBVC): Massive Never-ending BT Vast Chinese corpus\n* 超大规模中文语料集\n\n6. OpenDataLab数据集仓库: [https:\u002F\u002Fopendatalab.com\u002F](https:\u002F\u002Fopendatalab.com\u002F)\n* OpenDataLab 是有影响力的数据开源开放平台，公开数据集触手可及。\n\n7. [OSCAR](https:\u002F\u002Foscar-project.org\u002F): Open Super-large Crawled Aggregated coRpus, 多语言数据集\n* 最新版本包含1.4T的中文语言数据集\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Other-Awesome\n\n| 序号 | 名称 | 说明 | 作者\u002F组织 | Stars | 地址 |\n| :---: | :--- | :--- | :--- | :--- | :--- |\n| 1 | Awesome-Chatgpt | ChatGPT资源、工具、应用和用法 | awesome-chatgpt | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fawesome-chatgpt\u002Fawesome-chatgpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fawesome-chatgpt\u002Fawesome-chatgpt) |\n| 2 | Awesome-ChatGPT-Prompts | ChatGPT模型Prompts示例集 | f | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ff\u002Fawesome-chatgpt-prompts?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ff\u002Fawesome-chatgpt-prompts) |\n| 3 | Awesome-LLM | 大型语言模型相关资料精选列表 | Hannibal046 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHannibal046\u002FAwesome-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHannibal046\u002FAwesome-LLM) |\n| 4 | Awesome-LangChain | LangChain相关应用列表 | kyrolabs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyrolabs\u002Fawesome-langchain?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyrolabs\u002Fawesome-langchain) |\n| 5 | Awesome-Open-Gpt | GPT开源精选项目合集（170+）| EwingYangs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEwingYangs\u002Fawesome-open-gpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FEwingYangs\u002Fawesome-open-gpt) |\n| 6 | Awesome-Multimodal-LLMs | 多模态大语言模型（MLLM）精选列表 | BradyFU | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FBradyFU\u002FAwesome-Multimodal-Large-Language-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FBradyFU\u002FAwesome-Multimodal-Large-Language-Models) |\n| 7 | Awesome-Transformer-Attention | Vision Transformer & Attention论文列表 | cmhungsteve | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcmhungsteve\u002FAwesome-Transformer-Attention?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcmhungsteve\u002FAwesome-Transformer-Attention) |\n| 8 | Awesome-Prompt-Engineering | Prompt Engineering精选资源 | promptslab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpromptslab\u002FAwesome-Prompt-Engineering?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fpromptslab\u002FAwesome-Prompt-Engineering) |\n| 9 | Awesome-AITools | AI相关实用工具整理 | ikaijua | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fikaijua\u002FAwesome-AITools?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fikaijua\u002FAwesome-AITools) |\n| 10 | Awesome-Chinese-LLM | 中文LLM开源模型、应用、数据集及教程 | HqWu-HITCS | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHqWu-HITCS\u002FAwesome-Chinese-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHqWu-HITCS\u002FAwesome-Chinese-LLM) |\n| 11 | Awesome-LLM4Tool | 大语言模型工具相关论文和资源 | OpenGVLab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOpenGVLab\u002FAwesome-LLM4Tool?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FAwesome-LLM4Tool) |\n| 12 | Awesome LLM Security | LLM安全相关工具、文档和项目 | corca-ai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcorca-ai\u002Fawesome-llm-security?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcorca-ai\u002Fawesome-llm-security) |\n| 13 | Awesome AI Agents | AI Agent开源和闭源项目列表 | e2b-dev | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fe2b-dev\u002Fawesome-ai-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fawesome-ai-agents) |\n| 14 | Awesome-LLM-Notes | LLM相关笔记 | kyaiooiayk | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyaiooiayk\u002FAwesome-LLM-Large-Language-Models-Notes?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyaiooiayk\u002FAwesome-LLM-Large-Language-Models-Notes) |\n| 15 | Awesome-Efficient-LLM | 高效大语言模型精选列表 | horseee | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhorseee\u002FAwesome-Efficient-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhorseee\u002FAwesome-Efficient-LLM) |\n| 16 | Awesome Datasets for LLM | LLM训练数据集精选 | Zjh-819 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZjh-819\u002FLLMDataHub?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FZjh-819\u002FLLMDataHub) |\n| 17 | Awesome-Align-LLM-Human | LLMs与人类对齐的论文和资源 | GaryYufei | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FGaryYufei\u002FAlignLLMHumanSurvey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FGaryYufei\u002FAlignLLMHumanSurvey) |\n| 18 | Awesome RLHF | 强化学习与人类反馈（RLHF）论文 | opendilab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopendilab\u002Fawesome-RLHF?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fopendilab\u002Fawesome-RLHF) |\n| 19 | Prompt-in-context-learning | Prompt上下文学习工程指南 | EgoAlpha | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEgoAlpha\u002Fprompt-in-context-learning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FEgoAlpha\u002Fprompt-in-context-learning) |\n| 20 | Awesome Instruction Learning | 指令学习论文和数据集阅读列表 | RenzeLou | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FRenzeLou\u002Fawesome-instruction-learning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FRenzeLou\u002Fawesome-instruction-learning) |\n| 21 | Awesome-Foundation-Models | 视觉和语言任务基础模型列表 | uncbiag | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Funcbiag\u002FAwesome-Foundation-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Funcbiag\u002FAwesome-Foundation-Models) |\n| 22 | Awesome-AI-Devtools | AI驱动的开发者工具列表 | jamesmurdza | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjamesmurdza\u002Fawesome-ai-devtools?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjamesmurdza\u002Fawesome-ai-devtools) |\n| 23 | Awesome-Autonomous-GPT | 自主AI Agent相关项目资源 | ScarletPan | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FScarletPan\u002Fawesome-autonomous-gpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FScarletPan\u002Fawesome-autonomous-gpt) |\n| 24 | Awesome-Papers-Autonomous-Agent | 自主Agent相关论文集 | lafmdp | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flafmdp\u002FAwesome-Papers-Autonomous-Agent?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Flafmdp\u002FAwesome-Papers-Autonomous-Agent) |\n| 25 | Awesome-Code-LLM | 代码LLM综合研究 | codefuse-ai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002FAwesome-Code-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FAwesome-Code-LLM) |\n| 26 | Awesome-LLM-Compression | LLM压缩研究论文和工具 | HuangOwen | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHuangOwen\u002FAwesome-LLM-Compression?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHuangOwen\u002FAwesome-LLM-Compression) |\n| 27 | Autonomous-Agents | 自主Agent（LLMs）| tmgthb | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ftmgthb\u002FAutonomous-Agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ftmgthb\u002FAutonomous-Agents) |\n| 28 | Awesome-Large-Multimodal-Agents | 大型多模态Agent | jun0wanan | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjun0wanan\u002Fawesome-large-multimodal-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjun0wanan\u002Fawesome-large-multimodal-agents) |\n| 29 | Awesome-LLM-Prompt-Optimization | LLM提示调优和自动优化论文 | jxzhangjhu | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjxzhangjhu\u002FAwesome-LLM-Prompt-Optimization?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjxzhangjhu\u002FAwesome-LLM-Prompt-Optimization) |\n| 30 | Awesome-LLMs-Datasets | LLMs文本数据集大列表 | lmmlzn | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flmmlzn\u002FAwesome-LLMs-Datasets?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Flmmlzn\u002FAwesome-LLMs-Datasets) |\n| 31 | Awesome-RAG-Survey | RAG相关论文分类收集 | hymie122 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhymie122\u002FRAG-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhymie122\u002FRAG-Survey) |\n| 32 | Awesome-Tool-LLM | 工具增强的语言模型论文 | zorazrw | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fzorazrw\u002Fawesome-tool-llm?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fzorazrw\u002Fawesome-tool-llm) |\n| 33 | LLM-Tool-Survey | 工具学习与LLMs相关论文 | quchangle1 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fquchangle1\u002FLLM-Tool-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fquchangle1\u002FLLM-Tool-Survey) |\n| 34 | Awesome-Foundation-Model-Leaderboards | 基础模型排行榜和开发工具 | SAILResearch | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSAILResearch\u002Fawesome-foundation-model-leaderboards?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FSAILResearch\u002Fawesome-foundation-model-leaderboards) |\n| 35 | Awesome-LLM-KV-Cache | LLM KV Cache论文和代码精选 | Zefan-Cai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZefan-Cai\u002FAwesome-LLM-KV-Cache?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FZefan-Cai\u002FAwesome-LLM-KV-Cache) |\n| 36 | Awesome-LLM-Strawberry | OpenAI Strawberry(o1)和推理论文 | hijkzzz | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhijkzzz\u002FAwesome-LLM-Strawberry?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhijkzzz\u002FAwesome-LLM-Strawberry) |\n| 37 | Awesome-LLM-Resourses | 全世界最好的LLM资料总结 | WangRongsheng | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002Fawesome-LLM-resourses?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002Fawesome-LLM-resourses) |\n| 38 | Awesome-LLM-Reasoning-Openai-o1-Survey | OpenAI o1相关工作和技术背景 | wjn1996 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwjn1996\u002FAwesome-LLM-Reasoning-Openai-o1-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fwjn1996\u002FAwesome-LLM-Reasoning-Openai-o1-Survey) |\n| 39 | Awesome-LLM-Reasoning | 解锁LLM和MLLM推理能力的论文资源 | atfortes | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fatfortes\u002FAwesome-LLM-Reasoning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fatfortes\u002FAwesome-LLM-Reasoning) |\n| 40 | Awesome-Computer-Use-Agents | 计算机使用Agent论文和博客 | ranpox | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Franpox\u002Fawesome-computer-use?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Franpox\u002Fawesome-computer-use) |\n| 41 | LLM_MultiAgents_Survey_Papers | LLM多智能体调研论文 | taichengguo | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers) |\n| 42 | Awesome_Think_With_Images | 让LVLMs用图像思考的研究 | zhaochen0110 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fzhaochen0110\u002FAwesome_Think_With_Images?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fzhaochen0110\u002FAwesome_Think_With_Images) |\n| 43 | Awesome Label-free RL Papers | 无标签强化学习论文 | QingyangZhang | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FQingyangZhang\u002FLabel-Free-RLVR?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FQingyangZhang\u002FLabel-Free-RLVR) |\n| 44 | Awesome-AI-Agent-Papers | AI智能体研究论文集合 | masamasa59 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmasamasa59\u002Fai-agent-papers?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmasamasa59\u002Fai-agent-papers) |\n| 45 | Awesome-Large-Search-Models | 搜索导向型大语言模型研究 | Wu-Zongyu | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWu-Zongyu\u002FAwesome-Large-Search-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FWu-Zongyu\u002FAwesome-Large-Search-Models) |\n| 46 | Awesome-Deep-Research | Agent深度研究资源 | DavidZWZ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDavidZWZ\u002FAwesome-Deep-Research?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FDavidZWZ\u002FAwesome-Deep-Research) |\n| 47 | Reading-List-of-LLM-Based-Data-Science-Agent | LLM数据科学Agent阅读列表 | Stephen-SMJ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FStephen-SMJ\u002FReading-List-of-LLM-Based-Data-Science-Agent?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FStephen-SMJ\u002FReading-List-of-LLM-Based-Data-Science-Agent) |\n| 48 | Awesome-Agents | 开源AI Agent工具和产品 | kyrolabs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyrolabs\u002Fawesome-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyrolabs\u002Fawesome-agents) |\n| 49 | Awesome-OpenClaw-Skills | OpenClaw社区构建的技能 | VoltAgent | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FVoltAgent\u002Fawesome-openclaw-skills?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FVoltAgent\u002Fawesome-openclaw-skills) |\n| 50 | Awesome-Claude-Code | Claude Code相关技能和工具 | hesreallyhim | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhesreallyhim\u002Fawesome-claude-code?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhesreallyhim\u002Fawesome-claude-code) |\n| 51 | Awesome-Claude-Skills | Claude技能、资源和工具 | ComposioHQ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FComposioHQ\u002Fawesome-claude-skills?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FComposioHQ\u002Fawesome-claude-skills) |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n\n## NLU系列\n\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n\n## NLU系列\n\n### BERT\n\n+ 2018 | BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding | Jacob Devlin, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.04805)\n+ 2019 | Pre-Training with Whole Word Masking for Chinese BERT | Yiming Cui, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.08101)\n\n| 模型            | 版本  | TensorFlow                                                   | PyTorch                                                      | 作者                                                  | 源地址                                                       | 应用领域     |\n| --------------- | ----- | ------------------------------------------------------------ | ------------------------------------------------------------ | ----------------------------------------------------- | ------------------------------------------------------------ | ------------ |\n| BERT-Base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fbert_models\u002F2018_11_03\u002Fchinese_L-12_H-768_A-12.zip) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert) | 通用 |\n| BERT-wwm | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1RoTQsXp2hkQ1gSRVylRIJfQxJUgkfJMW) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FA2483AD206EF85FD91569B498A3C3879) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1AQitrjbvCWc51SYiLN-cJq4e0WiNN4KY) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| BERT-wwm-ext | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1buMLEjdtrXE2c4G1rpsNGWEx7lUQ0RHi) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F653637473FFF242C3869D77026C9BDB5) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1iNeYFhCBJWeUsIlnW_2K6SMwXkM4gLb_) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| bert-base-民事 | base | [阿里云](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip) | - | THUNLP | [GitHub](https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP) | 司法 |\n| bert-base-刑事 | base | [阿里云](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fxs.zip) | - | THUNLP | [GitHub](https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP) | 司法 |\n| BAAI-JDAI-BERT | base | [京东云](https:\u002F\u002Fjdai009.s3.cn-north-1.jdcloud-oss.com\u002Fjd-aig\u002Fopen\u002Fmodels\u002Fnlp_baai\u002F20190918\u002FJDAI-BERT.tar.gz) | - | JDAI | [GitHub](https:\u002F\u002Fgithub.com\u002Fjd-aig\u002Fnlp_baai) | 电商客服对话 |\n| FinBERT | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F193B4sT63mMeh4zfge0FJbbFY447KiJXp\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=D-pVJyW6bbJSre5RxotJkA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1qW1YWtw3q9Q28QThrIY-rDU9Gl-SLIKO\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=y_O586GBmZZ7g4d2nOF0Vg) | Value Simplex | [GitHub](https:\u002F\u002Fgithub.com\u002Fvaluesimplex\u002FFinBERT) | 金融科技领域 |\n| EduBERT | base | [好未来AI](https:\u002F\u002Fai.100tal.com\u002Fdownload\u002FTAL-EduBERT-TF.zip) | [好未来AI](https:\u002F\u002Fai.100tal.com\u002Fdownload\u002FTAL-EduBERT.zip) | tal-tech | [GitHub](https:\u002F\u002Fgithub.com\u002Ftal-tech\u002Fedu-bert) | 教育领域 |\n| guwenbert-base | base | - | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dw_08p7CVsz0jVj4jd58lQ) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fethanyt\u002Fguwenbert-base) | Ethan | [GitHub](https:\u002F\u002Fgithub.com\u002FEthan-yt\u002Fguwenbert) | 古文领域 |\n| guwenbert-large | large | - | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TL9mBIlIv2rSvp61xCkeJQ) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fethanyt\u002Fguwenbert-large) | Ethan | [GitHub](https:\u002F\u002Fgithub.com\u002FEthan-yt\u002Fguwenbert) | 古文领域 |\n| BERT-CCPoem | small | - | [thunlp](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002FBERT_CCPoem_v1.zip) | THUNLP-AIPoet | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUNLP-AIPoet\u002FBERT-CCPoem) | 古典诗歌 |\n\n备注: \n\n> wwm全称为**Whole Word Masking **,一个完整的词的部分WordPiece子词被mask，则同属该词的其他部分也会被mask\n\n> ext表示在更多数据集下训练\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ChineseBERT\n\n+ 2021 | ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information | Zijun Sun, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.16038.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| ChineseBERT | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FShannonAI\u002FChineseBERT-base) | ShannonAI | [GitHub](https:\u002F\u002Fgithub.com\u002FShannonAI\u002FChineseBert) | 通用 |\n| ChineseBERT | large | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FShannonAI\u002FChineseBERT-large) | ShannonAI | [GitHub](https:\u002F\u002Fgithub.com\u002FShannonAI\u002FChineseBert) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoBERTa\n\n+ 2019 | RoBERTa: A Robustly Optimized BERT Pretraining Approach | Yinhan Liu, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.11692.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| RoBERTa-tiny-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny-pair | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny-pair.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny3L768-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny3L768-clue.zip) | - | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny3L312-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny3L312-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-large-pair | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-large-pair.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-large-clue | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-large-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RBT3 | 3层base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-rvV0nBDvRCASbRz8M9Decc3_8Aw-2yi\u002Fview?usp=drive_open) · [讯飞云](https:\u002F\u002Fpan.iflytek.com\u002Flink\u002F275E5B46185C982D4AF5AC295E1651B6) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_LqmIxm8Nz1Abvlqb8QFZaxYo-TInOed\u002Fview) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL3 | 3层large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Jzn1hYwmv0kXkfTeIvNT61Rn1IbRc-o8) · [讯飞云](https:\u002F\u002Fpan.iflytek.com\u002Flink\u002F0DD18FAC080BAF75DBA28FB5C0047760) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eHM3l4fMo6DsQYGmey7UZGiTmQquHw25) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL4 | 4层large | [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002Flink\u002F7B04C5BF09812DB241BBA973D649824C) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL6 | 6层large | [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002Flink\u002FB935B1F701A8FD352CAA74614126C4A2) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-wwm-ext | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jMAKIJmPn7kADgD3yQZhpsqM-IRM1qZt) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F98D11FAAF0F0DBCB094EE19CCDBC98BF) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eHM3l4fMo6DsQYGmey7UZGiTmQquHw25) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-wwm-ext-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1dtad0FFzG11CBsawu8hvwwzU2R0FDI94) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FAC056611607108F33A744A0F56D0F6BE) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1-2vEZfIFCdM1-vJ3GD6DlSyKT4eVXMKq) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ykENKV7dIFAqRRQbZIh0mSb7Vjc2MeFA) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hAs7-VSn5HZWxBHQMHKkrg) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1H6f4tYlGXgug1DdhYzQVBuwIGAkAflwB) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1AGC76N7pZOzWuo8ua1AZfw) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Froberta_zh) | 通用 |\n| RoBERTa-Large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1W3WgPJWGVKlU9wpUYsdZuurAIFKvrl_Y) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Rk_QWqd7-wBTwycr91bmug) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1yK_P8VhWZtdgzaG0gJ3zUGOKWODitKXZ) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Froberta_zh) | 通用 |\n| RoBERTa-tiny | tiny | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-mini | mini | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-small | small | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-medium | medium | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-base | base | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ALBERT\n\n+ 2019 | ALBERT: A Lite BERT For Self-Supervised Learning Of Language Representations | Zhenzhong Lan, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.11942.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| Albert-tiny | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_tiny_489k.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1VBsUJ7R5eWF1VcUBQY6BEn1a9miEvlBr) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_base_zh_additional_36k_steps.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1HeijHGubWR-ElFnfxUf8IrRx7Ghm1S_Q) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-large | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_large_zh.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1TAuv7OiFN8qbkT6S_VbfVbhkhg2GUF3q) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-xlarge | xlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_xlarge_zh_183k.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1kMhogQRX0uGWIGdNhm7-3hsmHlrzY_gp) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_base_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-large | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_large_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-xlarge | xlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_xlarge_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-xxlarge | xxlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_xxlarge_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### NEZHA\n\n+ 2019 | NEZHA: Neural Contextualized Representation for Chinese Language Understanding | Junqiu Wei, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.00204)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| NEZHA-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tFs-wMoXIY8zganI2hQgDBoDPqA8pSmh?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UVQjy9v_Sv4cQd1ELdjqww) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-base-wwm | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1bK6WbqAG-B6BX2d9RPprnh2MPK6zL0t_?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1-YG8e5V2zKCnR3azsGZT1w) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZPPM5XtTTOrS_CDRak1t2nCBU-LFZ_zs?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R1Ew-Lu8oIP6QhWO6nqp5Q) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-large-wwm | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LOAUc9LXyogC2gmP_q1ojqj41Ez01aga?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JK1RLIJd2wpuypku3stt8w) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| WoNEZHA (word-base) | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ABKwUuIiMEEsRXxxlbyKmw) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### MacBERT\n\n+ 2020 | Revisiting Pre-Trained Models for Chinese Natural Language Processing | Yiming Cui, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.13922.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| MacBERT-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1aV69OhYzIwj_hn-kO1RiBa-m8QAusQ5b\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCF2A1F9AEBF859650E8956854A994C1B) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FMacBERT) | 通用 |\n| MacBERT-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1lWYxnk1EqTA2Q20_IShxBrCPc5VSDCkT\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F805D743F3826EC4F4EB5C774D34432AE) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FMacBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### WoBERT\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| WoBERT | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BrdFSx9_n1q2uWBiQrpalw) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n| WoBERT-plus | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Ltq3ltQsyBCj56zoOOvI9A) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### XLNET\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| XLNet-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1m9t-a4gKimbkP5rqGXXsEAEPhJSZ8tvx) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F32619C31BDEFAF2D82CB8C7F66F01D5C) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1mPDgcMfpqAf2wk9Nl8OaMj654pYrWXaR) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-XLNet) | 通用 |\n| XLNet-mid | middle | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1342uBc7ZmQwV6Hm6eUIN_OnBSz1LcvfA) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FED7DF7ED04B871AFE8E4D97704B9134D) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1u-UmsJGy5wkXgbNK4w9uRnC0RxHLXhxy) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-XLNet) | 通用 |\n| XLNet-zh-Large | large | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dy0Z27DoZdMpSmoz1Q4G5A) | - | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Fxlnet_zh) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ELECTRA\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| ELECTRA-180g-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1P9yAuW0-HR7WvZ2r2weTnx3slo6f5u9q\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F7605874F5A11CD693C60EAB79005CCF3) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-small-ex | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1NYJTKH1dWzrIBi86VSUK-Ml9Dsso_kuf\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F3EFCF909FC5CFEA6F0EA7AA774C64CF0) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RlmfBgyEwKVBFagafYvJgyCGuj7cTHfh\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F38E14C9BDBE8E93F09DFE2198E308489) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-small | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F177EVNTQpH2BRW-35-0LNLjV86MuDnEmu\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FD1B8FE678FA5BC31AA43BD99AD09913E) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| legal-ELECTRA-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jPyVi_t4QmTkFy7PD-m-hG-lQ8cIETzD\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| legal-ELECTRA-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F12ZLaoFgpqGJxSi_9KiQV-jdVN4XRGMiD\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| legal-ELECTRA-small | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1arQ5qNTNoc1OyMH8wBUKdTMy2QponIFY\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| ELECTRA-tiny | tiny | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1UP4byt4-kgenwST0KvyMYNbln6FfaSLp\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=4b-IiCkjRg-6XIYPXnezZA) | - | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FELECTRA) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ZEN\n\n+ 2019 | ZEN: Pre-training Chinese Text Encoder Enhanced by N-gram Representations | Shizhe Diao, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.00720.pdf)\n+ 2021 | ZEN 2.0: Continue Training and Adaption for N-gram Enhanced Text Encoders | Yan Song, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.01279.pdf)\n\n| 模型            | 版本  | TensorFlow | PyTorch                                                      | 作者                                                         | 源地址                                                 | 应用领域 |\n| --------------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------ | -------- |\n| ZEN-Base        | base  |            | \u003Cp>[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1oxNdYMQOpFe3QlttH98bAqg_FQiiVeMr)\u003Cbr>[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1E2ylFnzGSkwBc8tY_OqZYg)\u003C\u002Fp> | [Sinovation Ventures AI Institute](https:\u002F\u002Fgithub.com\u002Fsinovation) | [github](https:\u002F\u002Fgithub.com\u002Fsinovation\u002FZEN)            | 通用     |\n| Erlangshen-ZEN2 | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-ZEN2-668M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)                    | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ERNIE\n\n+ 2019 | ERNIE: Enhanced Representation through Knowledge Integration | Yu Sun, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)\n\n+ 2020 | SKEP: Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis | Hao Tian, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.05635)\n\n+ 2020 | ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding | Dongling Xiao, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.12148)\n\n| 模型                 | 版本  | PaddlePaddle                                                 | PyTorch | 作者                                            | 源地址                                                       | 应用领域 |\n| -------------------- | ----- | ------------------------------------------------------------ | ------- | ----------------------------------------------- | ------------------------------------------------------------ | -------- |\n| ernie-1.0-base       | base  | [link](https:\u002F\u002Fernie-github.cdn.bcebos.com\u002Fmodel-ernie1.0.1.tar.gz) |         | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FERNIE)              | 通用     |\n| ernie_1.0_skep_large | large | [link](https:\u002F\u002Fsenta.bj.bcebos.com\u002Fskep\u002Fernie_1.0_skep_large_ch.tar.gz) |         | [Baidu](https:\u002F\u002Fgithub.com\u002Fbaidu)               | [github](https:\u002F\u002Fgithub.com\u002Fbaidu\u002FSenta)                     | 情感分析 |\n| ernie-gram           | base  | [link](https:\u002F\u002Fernie-github.cdn.bcebos.com\u002Fmodel-ernie-gram-zh.1.tar.gz) |         | [Baidu](https:\u002F\u002Fgithub.com\u002Fbaidu)               | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FERNIE\u002Ftree\u002Fdevelop\u002Fernie-gram) | 通用     |\n\n备注: \n\n> PaddlePaddle转TensorFlow可参考: [tensorflow_ernie](https:\u002F\u002Fgithub.com\u002FArthurRizar\u002Ftensorflow_ernie)\n\n> PaddlePaddle转PyTorch可参考: [ERNIE-Pytorch](https:\u002F\u002Fgithub.com\u002Fnghuyong\u002FERNIE-Pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ERNIE3\n\n+ 2021 | ERNIE 3.0: Large-scale Knowledge Enhanced Pre-training for Language Understanding and Generation | Yu Sun, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.02137)\n\n+ 2021 | ERNIE 3.0 Titan: Exploring Larger-scale Knowledge Enhanced Pre-training for Language Understanding and Generation | Shuohuan Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.02241)\n\n| 模型             | 版本                           | PaddlePaddle                                                 | PyTorch                                                      | 作者                                            | 源地址                                                       | 应用领域 |\n| ---------------- | ------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ----------------------------------------------- | ------------------------------------------------------------ | -------- |\n| ernie-3.0-base   | 12-layer, 768-hidden, 12-heads | [link](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_base_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-base-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-medium | 6-layer, 768-hidden, 12-heads  | [link](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_medium_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-medium-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-mini   | 6-layer, 384-hidden, 12-heads  | [link](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_mini_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-mini-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-micro  | 4-layer, 384-hidden, 12-heads  | [link](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_micro_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-micro-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-nano   | 4-layer, 312-hidden, 12-heads  | [link](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_nano_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-nano-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n\n> PaddlePaddle转PyTorch可参考: [ERNIE-Pytorch](https:\u002F\u002Fgithub.com\u002Fnghuyong\u002FERNIE-Pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n\n### RoFormer\n\n+ 2021 | RoFormer: Enhanced Transformer with Rotary Position Embedding | Jianlin Su, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.09864)\n\n+ 2021 | Transformer升级之路：2、博采众长的旋转式位置编码 | 苏剑林. | spaces | [`Blog post`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F8265)\n\n| 模型          | 版本       | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                    | 应用领域 |\n| ------------- | ---------- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | --------------------------------------------------------- | -------- |\n| roformer      | base(L12)  | [百度网盘-xy9x](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1fiss862YsGCwf2HvU_Jm-g) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformer      | small(L6)  | [百度网盘-gy97](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1iIXgZHHCgrYGXVRRSSCVPg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformer-char | base(L12)  | [百度网盘-bt94](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Q1pq8F4Fsl6bTipUAkqeDQ) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformerV2    | small(L6)  | [百度网盘-ttn4](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1huUrC9P60Afggo8AfiUcmA)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-6_H-384_A-6.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n| roformerV2    | base(L12)  | [百度网盘-pfoh](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qcnN4LVKVe0-mnHlkN3-6Q)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-12_H-768_A-12.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n| roformerV2    | large(L24) | [百度网盘-npfv](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QiJWSZrGxn8vek-8myvL6w)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-24_H-1024_A-16.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### StructBERT\n\n+ 2019 | StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding | Wei Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.04577)\n\n| 模型       | 版本       | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ---------- | ---------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| StructBERT | large(L24) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FStructBERT\u002Fch_model) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FStructBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Lattice-BERT\n\n+ 2021 | Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models | Yuxuan Lai, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.07204.pdf)\n\n| 模型        | 版本      | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ----------- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| LatticeBERT | tiny(L4)  |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-tiny-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n| LatticeBERT | small(L6) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-lite-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n| LatticeBERT | base(L12) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-base-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-BERT\n\n+ 2021 | Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese | Zhuosheng Zhang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.06696)\n\n| 模型            | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域 |\n| --------------- | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | -------- |\n| Mengzi-BERT     | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-bert-base) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 通用     |\n| Mengzi-BERT-fin | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-bert-base-fin) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 金融财经 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Bloom\n\n+ 2022 | Bloom: BigScience Large Open-science Open-access Multilingual Language Model | huggingface bigscience | - | [`BLOG`](https:\u002F\u002Fbigscience.huggingface.co\u002Fblog\u002Fbloom)\n\n| 模型         | 版本    | TensorFlow | PyTorch                                                     | 作者                                        | 源地址                                                | 应用领域 |\n| ------------ | ------- | ---------- | ----------------------------------------------------------- | ------------------------------------------- | ----------------------------------------------------- | -------- |\n| bloom-6b4-zh | 6B(L30) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fbloom-6b4-zh) | [Langboat](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) | 通用     |\n\n> 注：作者另有bloom-389m-zh到bloom-2b5-zh等多个中文模型\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### TaCL\n\n+ 2021 | TaCL: Improving BERT Pre-training with Token-aware Contrastive Learning | Yixuan Su, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2111.04198.pdf)\n\n| 模型 | 版本      | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                    | 应用领域 |\n| ---- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ----------------------------------------- | -------- |\n| TaCL | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcambridgeltl\u002Ftacl-bert-base-chinese) | [yxuansu](https:\u002F\u002Fgithub.com\u002Fyxuansu) | [github](https:\u002F\u002Fgithub.com\u002Fyxuansu\u002FTaCL) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### MC-BERT\n\n+ 2021 | MC-BERT: Conceptualized Representation Learning for Chinese Biomedical Text Mining | alibaba-research | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.10813.pdf)\n\n| 模型    | 版本      | TensorFlow | PyTorch                                                      | 作者                                                    | 源地址                                                    | 应用领域 |\n| ------- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------- | --------------------------------------------------------- | -------- |\n| MC-BERT | base(L12) |            | [link](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ccXRvaeox5XCNP_aSk_ttLBY695Erlok) | [alibaba-research](https:\u002F\u002Fgithub.com\u002Falibaba-research) | [github](https:\u002F\u002Fgithub.com\u002Falibaba-research\u002FChineseBLUE) | 生物医疗 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 二郎神\n\n| 模型       | 版本       | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ---------- | ---------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Erlangshen | large(L24) | bert |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-1.3B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### PERT\n\n+ 2022 | PERT: Pre-Training BERT with Permuted Language Model | Yiming Cui, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06906)\n\n| 模型       | 版本       | TensorFlow                                                   | PyTorch                                                      | 作者                                   | 源地址                                  | 应用领域 |\n| ---------- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------------ | -------------------------------------- | --------------------------------------- | -------- |\n| PERT-base  | base(12L)  | [百度网盘-rcsw](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1yDHkYKmdaJkliTGHWQtdFA?pwd=rcsw) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-pert-base)  | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FPERT) | 通用     |\n| PERT-large | large(24L) | [百度网盘-e9hs](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1MG44TRIgqV6m_StfB_yBqQ?pwd=e9hs) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-pert-large) | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FPERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### MobileBERT\n\n+ 2020 | MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices | Zhiqing Sun, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.02984.pdf)\n\n| 模型                        | 版本  | TensorFlow                                                   | PyTorch | 作者                                   | 源地址                                                | 应用领域 |\n| --------------------------- | ----- | ------------------------------------------------------------ | ------- | -------------------------------------- | ----------------------------------------------------- | -------- |\n| Chinese-MobileBERT-base-f2  | base  | [百度网盘-56bj](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16g1LgXXAV01I-cFgPdeOow?pwd=56bj) |         | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-base-f4  | base  | [百度网盘-v2v7](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16SGBJhWFYru47EEyTZJljA?pwd=v2v7) |         | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-large-f2 | large | [百度网盘-6m5a](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Kp7n8lQJOtevzMovKSa3kw?pwd=6m5a) |         | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-large-f4 | large | [百度网盘-3h9b](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F19xz9kH1HmM2Og0Aqn7l6vA?pwd=3h9b) |         | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### GAU-α\n\n+ 2022 | GAU-α: (FLASH) Transformer Quality in Linear Time | Weizhe Hua, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.10447.pdf) | [`blog`](https:\u002F\u002Fspaces.ac.cn\u002Farchives\u002F9052)\n\n| 模型                              | 版本 | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                  | 应用领域 |\n| --------------------------------- | ---- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ------------------------------------------------------- | -------- |\n| chinese_GAU-alpha-char_L-24_H-768 | base | [下载](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_GAU-alpha-char_L-24_H-768.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FGAU-alpha) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### DeBERTa\n\n+ 2020 | DeBERTa: Decoding-enhanced BERT with Disentangled Attention | Pengcheng He, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.03654) |\n\n| 模型              | 版本   | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ----------------- | ------ | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| DeBERTa-v2-Large  | large  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-320M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n| DeBERTa-v2-xLarge | xlarge |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-710M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n| DeBERTa-v2        | base   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-186M-Chinese-SentencePiece) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### GlyphBERT\n\n+ 2021 | GlyphCRM: Bidirectional Encoder Representation for Chinese Character with its Glyph | Yuxin li, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2107.00395.pdf) |\n\n| 模型          | 版本 | TensorFlow | PyTorch                                                 | 作者                                      | 源地址                                           | 应用领域 |\n| ------------- | ---- | ---------- | ------------------------------------------------------- | ----------------------------------------- | ------------------------------------------------ | -------- |\n| GlyphCRM-base | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-TMG\u002FGlyphBERT) | [HITsz-TMG](https:\u002F\u002Fgithub.com\u002FHITsz-TMG) | [github](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FGlyphBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CKBERT\n\n+ 2022 | Revisiting and Advancing Chinese Natural Language Understanding with Accelerated Heterogeneous Knowledge Pre-training | Zhang, Taolin, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05287)\n\n| 模型                | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                       | 应用领域 |\n| ------------------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | -------------------------------------------- | -------- |\n| pai-ckbert-base-zh  | base  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-base-zh) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n| pai-ckbert-large-zh | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-large-zh) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n| pai-ckbert-huge-zh  | huge  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-huge-zh) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### LERT\n\n+ 2022 | LERT: A Linguistically-motivated Pre-trained Language Model | Yiming Cui et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05344)\n\n| 模型               | 版本 | TensorFlow                                                   | PyTorch                                                      | 作者                                   | 源地址                                  | 应用领域 |\n| ------------------ | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | -------------------------------------- | --------------------------------------- | -------- |\n| Chinese-LERT-small | 15m  | [百度网盘-4vuy](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1fBk3em8a5iCMwPLJEBq2pQ?pwd=4vuy) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-small) | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n| Chinese-LERT-base  | 400m | [百度网盘-9jgi](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_yb1jCDJ4s2P8OrF_5E_Tg?pwd=9jgi) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-base)  | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n| Chinese-LERT-large | 1.2G | [百度网盘-s82t](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pxsS3almc90DPvMXH6BMYQ?pwd=s82t) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-large) | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoCBert\n\n+ 2022 | RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining | Hui Su et al. | ACL | [`PDF`](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.65.pdf)\n\n| 模型    | 版本 | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域 |\n| ------- | ---- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | -------- |\n| rocbert | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fweiweishi\u002Froc-bert-base-zh) | [Weiwe Shi](https:\u002F\u002Fgithub.com\u002Fsww9370) | [github](https:\u002F\u002Fgithub.com\u002Fsww9370\u002FRoCBert) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### M3E\n\n| 模型      | 版本  | PyTorch                                               | 作者                                      | 源地址                                                       | 备注         |\n| --------- | ----- | ----------------------------------------------------- | ----------------------------------------- | ------------------------------------------------------------ | ------------ |\n| m3e-base  | base  | [m3e-base](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-base)   | [Moka-AI](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai) | [uniem](https:\u002F\u002Fgithub.com\u002Fwangyuxinwhy\u002Funiem) | 文本嵌入模型 |\n| M3e-small | Small | [m3e-small](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-small) | [Moka-AI](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai) | [uniem](https:\u002F\u002Fgithub.com\u002Fwangyuxinwhy\u002Funiem) | 文本嵌入模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### LEALLA\n\n+ 2023 | LEALLA: Learning Lightweight Language-agnostic Sentence Embeddings with Knowledge Distillation | Zhuoyuan Mao et al. | EACL | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08387)\n\n| 模型         | 版本  | PyTorch                                                      | 作者            | 源地址 | 备注         |\n| ------------ | ----- | ------------------------------------------------------------ | --------------- | ------ | ------------ |\n| LEALLA-base  | base  | [LEALLA-base](https:\u002F\u002Fhuggingface.co\u002Fsetu4993\u002FLEALLA-base)   | Google Research | \u002F      | 文本嵌入模型 |\n| LEALLA-large | large | [LEALLA-large](https:\u002F\u002Fhuggingface.co\u002Fsetu4993\u002FLEALLA-large) | Google Research | \u002F      | 文本嵌入模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## NLG系列\n\n### GPT\n\n+ 2019 | Improving Language Understandingby Generative Pre-Training | Alec Radford, et al. | arXiv | [`PDF`](https:\u002F\u002Fs3-us-west-2.amazonaws.com\u002Fopenai-assets\u002Fresearch-covers\u002Flanguage-unsupervised\u002Flanguage_understanding_paper.pdf)\n\n+ 2019 | Language Models are Unsupervised Multitask Learners | Alec Radford, et al. | arXiv | [`PDF`](https:\u002F\u002Fd4mucfpksywv.cloudfront.net\u002Fbetter-language-models\u002Flanguage-models.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| GPT2 | 30亿语料 | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1mT_qCQg4AWnAXTwKfsyyRWCRpgPrBJS3) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1yiuTHXUr2DpyBqmFYLJH6A) | Caspar ZHANG | [GitHub](https:\u002F\u002Fgithub.com\u002Fimcaspar\u002Fgpt2-ml) | 通用 |\n| GPT2 | 15亿语料 | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IzWpQ6I2IgfV7CldZvFJnZ9byNDZdO4n) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TA_3e-u2bXg_hcx_NwVbGw) | Caspar ZHANG | [GitHub](https:\u002F\u002Fgithub.com\u002Fimcaspar\u002Fgpt2-ml) | 通用 |\n| CDial-GPT-LCCC-base | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT_LCCC-base) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| CDial-GPT2-LCCC-base | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT2_LCCC-base) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| CDial-GPT-LCCC-large | large | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT_LCCC-large) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| GPT2-dialogue | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Ogz3eapvtvdY4VUcY9AEwMbNRivLKhri?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qDZ24VKLBU9GKARX9Ev65g) | yangjianxin1 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat) | 闲聊对话 |\n| GPT2-mmi | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1oWgKXP6VG_sT_2VMrm0xL4uOqfYwzgUP?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ubXGuEvY8KmwEjIVTJVLww) | yangjianxin1 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat) | 闲聊对话 |\n| GPT2-散文模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1rJC4niJKMVwixUQkuL9k5teLRnEYTmUf?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nbrW5iw34GRhoTin8uU2tQ) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 散文 |\n| GPT2-诗词模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Z6nF1nrgTkrZcRLHedQHXb4_M9I7yQPN?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Hy0OQ5xZcTLer9MQZW8o3g) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 诗词 |\n| GPT2-对联模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZnsvS7oHRVueNKj_SeEhiQt86aze3ojj?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1j9yVQwjlXZq58wOyXK4lcg) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 对联 |\n| RoFormer-GPT | base(L12) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11YTnWLX0ThQr2P2yW0P7GA) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### GPT-3\n\n+ 2019 | Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context | Zihang Dai, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.02860)\n\n+ 2020 | Language Models are Few-Shot Learners | Tom B. Brown, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.14165)\n\n| 模型 | 版本 | 介绍 | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ---- | ------- | ---- | ------ | -------- |\n| Chinese-Transformer-XL | 29亿参数(GPT-3) | [项目首页](https:\u002F\u002Fgpt-3.aminer.cn\u002F) | [模型下载](http:\u002F\u002Fdorc-model-team.ks3-cn-beijing.ksyun.com\u002Fren-zhi\u002Fmy-model\u002Fmp_rank_00_model_states.pt) | THUDM | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChinese-Transformer-XL) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### NEZHA-Gen\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| NEZHA-Gen | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i4f_8LhaVDNjnGlLXNJ0rNgBP0E4L6V0?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Bgle8TpcxHyuUz_jAXOBWw) | - | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-Gen | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1B5-jxUlzhoKwFVMQ-nkqqbmJQgr1lRAp?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1me6_BGYHbWFdTi80vRQ2Lg) | - | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 诗歌 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPM-Generate\n\n| 模型 | 版本 | 资源 | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ---- | ------- | ---- | ------ | -------- |\n| CPM | 26亿参数 | [项目首页](https:\u002F\u002Fcpm.baai.ac.cn\u002F) | [模型下载](https:\u002F\u002Fcpm.baai.ac.cn\u002Fdownload.html) | Tsinghua AI | [GitHub](https:\u002F\u002Fgithub.com\u002FTsinghuaAI\u002FCPM-Generate) | 通用 |\n\n备注:\n\n> PyTorch转TensorFlow可参考: [CPM-LM-TF2](https:\u002F\u002Fgithub.com\u002Fqhduan\u002FCPM-LM-TF2)\n> PyTorch转PaddlePaddle可参考: [CPM-Generate-Paddle](https:\u002F\u002Fgithub.com\u002Fjm12138\u002FCPM-Generate-Paddle)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### T5\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| T5 | small | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer\u002Ft5-small-chinese-cluecorpussmall) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer\u002Ft5-small-chinese-cluecorpussmall) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### T5-PEGASUS\n\n| 模型 | 版本 | Keras | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ----- | ------- | ---- | ------ | -------- |\n| T5-PEGASUS | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1lQ9Dt9wZDO3IgiCL9tP-Ug) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Ft5-pegasus) | 通用 |\n| T5-PEGASUS | small | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bXRVWnDyAck9VfSO9_1oJQ) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Ft5-pegasus) | 通用 |\n\n> Keras转PyTorch可参考: [t5-pegasus-pytorch](https:\u002F\u002Fgithub.com\u002Frenmada\u002Ft5-pegasus-pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-T5\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| Mengzi-T5 | base(L12) | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-t5-base) | Langboat | [GitHub](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### PanGu-Alpha\n\n+ 2021 | PanGu-α: Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation | Wei Zeng, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.12369)\n\n| 模型                   | 版本 | 资源                                                         | 下载地址                                                     | 作者                                                         | 源地址                                                       | 应用领域 |\n| ---------------------- | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 盘古α-2.6B             | 2.6G | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 通用     |\n| 盘古α-13B              | 12G  | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 通用     |\n| 盘古α-2.6B pytorch版本 | 2.6G | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch#user-content-%E6%A8%A1%E5%9E%8B%E6%96%87%E4%BB%B6%E4%B8%8B%E8%BD%BD) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU) | 通用     |\n| 盘古α-13B pytorch版本  | 12G  | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch#user-content-%E6%A8%A1%E5%9E%8B%E6%96%87%E4%BB%B6%E4%B8%8B%E8%BD%BD) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### EVA\n\n+ 2021 | EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative Pre-Training | Hao Zhou, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.01547)\n\n| 模型          | 版本     | 介绍                                            | 模型下载                                                     | 作者                                    | 源地址                                    | 应用领域       | 备注             |\n| ------------- | -------- | ----------------------------------------------- | ------------------------------------------------------------ | --------------------------------------- | ----------------------------------------- | -------------- | ---------------- |\n| EVA           | 28亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdownload?resourceId=1428554651225075712&filename=eva-ckpt.tar.gz) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 | 需要登陆才能下载 |\n| EVA2.0-xLarge | xlarge   | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-xlarge) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n| EVA2.0-large  | large    | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-large)  | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n| EVA2.0-base   | base     | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-base)   | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>-\n\n### BART\n\n+ 2019 | BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension | Mike Lewis, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.13461)\n\n| 模型       | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                   | 应用领域 |\n| ---------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ---------------------------------------- | -------- |\n| BART-base  | base  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fbart-base-chinese) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 中文通用 |\n| BART-large | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fbart-large-chinese) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 闻仲\n\n| 模型     | 版本       | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| -------- | ---------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Wenzhong | large(L24) | GPT2 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FWenzhong-3.5B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 余元\n\n| 模型   | 版本       | 类型 | TensorFlow | PyTorch                                                     | 作者                                      | 源地址                                                 | 应用领域 |\n| ------ | ---------- | ---- | ---------- | ----------------------------------------------------------- | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Yuyuan | large(L24) | GPT2 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FYuyuan-3.5B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 医学领域 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### RWKV\n\n+ 2021 | An Attention Free Transformer | Shuangfei Zhai, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.14103)\n+ 2022 | The RWKV Language Model . | [github](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM)\n\n| 模型 | 版本      | 类型 | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                         | 应用领域 |\n| ---- | --------- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ---------------------------------------------- | -------- |\n| RWKV | base(L12) |      |            | [github](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FAI-Writer\u002Freleases)      | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [github](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FAI-Writer) | 小说     |\n| RWKV | 7B        |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b) | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [github](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV)  | 小说     |\n| RWKV | 14B       |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b\u002Ftree\u002Fmain) | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [github](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV)  | 小说     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### PromptCLUE\n\n| 模型             | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                          | 应用领域 |\n| ---------------- | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | ----------------------------------------------- | -------- |\n| PromptCLUE       | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FPromptCLUE-base) | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [github](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n| PromptCLUE-v1-5  | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FPromptCLUE-base-v1-5) | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [github](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n| PromptCLUE-large | large     |            | [API在线调用](https:\u002F\u002Fwww.clueai.cn\u002F)                        | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [github](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ChatYuan\n\n| 模型              | 版本  | 类型 | TensorFlow | PyTorch                                                      | 作者                                 | 源地址                                        | 应用领域   |\n| ----------------- | ----- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------ | --------------------------------------------- | ---------- |\n| ChatYuan          | large | T5   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v1) | [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai) | [github](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) | 功能型对话 |\n| ChatYuan-large-v2 | large | T5   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v2) | [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai) | [github](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) | 功能型对话 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### SkyText\n\n| 模型    | 版本  | 类型 | TensorFlow | PyTorch                                               | 作者                                          | 源地址                                                   | 应用领域 |\n| ------- | ----- | ---- | ---------- | ----------------------------------------------------- | --------------------------------------------- | -------------------------------------------------------- | -------- |\n| SkyText | large | GPT3 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkyWork\u002FSkyText) | [SkyWorkAIGC](https:\u002F\u002Fgithub.com\u002FSkyWorkAIGC) | [github](https:\u002F\u002Fgithub.com\u002FSkyWorkAIGC\u002FSkyText-CN-GPT3) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### ProphetNet\n\n+ 2020 | Prophetnet: Predicting future n-gram for sequence-to-sequence pre-training | Qi, Weizhen, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.04063.pdf)\n+ 2021 | ProphetNet-X: Large-Scale Pre-training Models for English, Chinese, Multi-lingual, Dialog, and Code Generation | Qi, Weizhen, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.08006)\n\n| 模型                 | 版本 | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                       | 应用领域 |\n| -------------------- | ---- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------------ | -------- |\n| ProphetNet-Zh        |      |      |            | [link](https:\u002F\u002Fmsraprophetnet.blob.core.windows.net\u002Fprophetnet\u002Frelease_checkpoints\u002Fprophetnet_zh.pt) | [microsoft](https:\u002F\u002Fgithub.com\u002Fmicrosoft) | [github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FProphetNet\u002Ftree\u002Fmaster\u002FProphetNet) | 通用     |\n| ProphetNet-Dialog-Zh |      |      |            | [link](https:\u002F\u002Fmsraprophetnet.blob.core.windows.net\u002Fprophetnet\u002Frelease_checkpoints\u002Fprophetnet_dialog_zh.pt) | [microsoft](https:\u002F\u002Fgithub.com\u002Fmicrosoft) | [github](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FProphetNet\u002Ftree\u002Fmaster\u002FProphetNet) | 对话     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## NLU-NLG系列\n\n### UniLM\n\n+ 2019 | Unified Language Model Pre-training for Natural Language Understanding and Generation | Li Dong, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.03197)\n\n| 模型  | 版本 | TensorFlow                                                   | PyTorch                                                      | 作者                                                    | 源地址                                              | 应用领域 |\n| ----- | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------- | --------------------------------------------------- | -------- |\n| Unilm | base | [百度网盘-tblr](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1HgxIkBl5Yfwrzs1K1B6NFA) | [百度网盘-etwf](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1DHJGOFJ5cce5N5g4aBDiMQ) | [YunwenTechnology](https:\u002F\u002Fgithub.com\u002FYunwenTechnology) | [github](https:\u002F\u002Fgithub.com\u002FYunwenTechnology\u002FUnilm) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Simbert \n\n+ 2020 | 鱼与熊掌兼得：融合检索和生成的SimBERT模型 | 苏剑林. | spaces | [`Blog post`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F7427)\n\n| 模型          | 版本  | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                       | 应用领域 |\n| ------------- | ----- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ------------------------------------------------------------ | -------- |\n| SimBERT Tiny  | tiny  | [百度网盘-1tp7](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1z_agqTuBTuyHANwrS-gPcg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n| SimBERT Small | small | [百度网盘-nu67](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1kq_EQDI0gpiZBLFd_AxwrA) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n| SimBERT Base  | base  | [百度网盘-6xhq](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1uGfQmX1Kxcv_cXTVsvxTsQ) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoFormer-sim\n\n+ 2021 | SimBERTv2来了！融合检索和生成的RoFormer-Sim模型 | 苏剑林. | spaces | [`Blog post`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F8454)\n\n| 模型            | 版本      | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                     | 应用领域 |\n| --------------- | --------- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ---------------------------------------------------------- | -------- |\n| roformer-sim    | base(L12) | [百度网盘-2cgz](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1f1FB288nv1a6jYjsNCordg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n| roformer-sim    | small(L6) | [百度网盘-h68q](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r0eJ7shGwQ0RzV9BTFFW4g) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n| roformer-sim-v2 | base(L12) | [百度网盘-w15n](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Igh3tSvSu_ahDZmGaOlVoA) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 周文王\n\n| 模型        | 版本       | 类型     | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ----------- | ---------- | -------- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Zhouwenwang | base(L12)  | roformer |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZhouwenwang-110M) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n| Zhouwenwang | large(L24) | roformer |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZhouwenwang-1.3B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPM-2\n\n+ 2021 | CPM-2: Large-scale Cost-effective Pre-trained Language Models | Zhengyan Zhang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10715)\n\n| 模型  | 版本       | 介绍                                | 模型下载                                                     | 作者                                        | 源地址                                        | 应用领域 | 备注             |\n| ----- | ---------- | ----------------------------------- | ------------------------------------------------------------ | ------------------------------------------- | --------------------------------------------- | -------- | ---------------- |\n| CPM-2 | 110亿参数  | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 通用     | 需要申请才能下载 |\n| CPM-2 | 100亿参数  | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 中英     | 需要申请才能下载 |\n| CPM-2 | 1980亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 中英     | 需要申请才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPT\n\n+ 2021 | CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation | Yunfan Shao, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2109.05729.pdf)\n\n| 模型      | 版本       | TensorFlow | PyTorch                                              | 作者                                  | 源地址                                   | 应用领域 |\n| --------- | ---------- | ---------- | ---------------------------------------------------- | ------------------------------------- | ---------------------------------------- | -------- |\n| CPT-base  | base(L12)  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fcpt-base)  | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 通用     |\n| CPT-large | large(L24) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fcpt-large) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### GLM\n\n+ 2022 | GLM: General Language Model Pretraining with Autoregressive Blank Infilling | Zhengxiao Du, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.10360)\n+ 2022 | GLM-130B: An Open Bilingual Pre-trained Model | Aohan Zeng, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414)\n\n| 模型     | 版本    | TensorFlow | PyTorch                                                      | 作者                                        | 源地址                                      | 应用领域 |\n| -------- | ------- | ---------- | ------------------------------------------------------------ | ------------------------------------------- | ------------------------------------------- | -------- |\n| GLM      | large   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002Fglm-large-chinese) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)           | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fglm)      | 通用     |\n| GLM      | xxlarge |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002Fglm-10b-chinese)   | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)           | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fglm)      | 通用     |\n| GLM-130B | 130B    |            | [申请地址1](https:\u002F\u002Fmodels.aminer.cn\u002Fglm\u002Fzh-CN\u002Fdownload\u002FGLM-130B)[申请地址2](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSehr5Dh_i3TwACmFFi8QEgIVNYGmSPwV0GueIcsUev0NEfUug\u002Fviewform) | [THUDM](https:\u002F\u002Fmodels.aminer.cn\u002Fglm-130b\u002F) | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-130B) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### PLUG\n\n+ 2019 | StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding | Wei Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.04577)\n+ 2020 | PALM: Pre-training an Autoencoding&Autoregressive Language Model for Context-conditioned Generation | Bin Bi, et al. | ACL| [`PDF`](https:\u002F\u002Faclanthology.org\u002F2020.emnlp-main.700\u002F)\n\n| 模型 | 版本 | 模型下载                                                  | 作者                                  | 源地址                                                       | 应用领域 |\n| ---- | ---- | --------------------------------------------------------- | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| PLUG | 27B  | [AliceMind-需要申请](https:\u002F\u002Fwww.alice-mind.com\u002Fportal#\u002F) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FStructBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### OPD\n\n+ 2022 | 待定 | , et al. | arXiv | [`PDF`]()\n\n| 模型 | 版本 | 介绍                                                   | 模型下载                                               | 作者                                    | 源地址                                    | 应用领域       | 备注             |\n| ---- | ---- | ------------------------------------------------------ | ------------------------------------------------------ | --------------------------------------- | ----------------------------------------- | -------------- | ---------------- |\n| OPD  | 6.3B | [项目首页](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fstatic\u002Fopd\u002F) | [模型下载](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fstatic\u002Fopd\u002F) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FOPD) | 中文开放域对话 | 需要申请才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Multi-Modal\n\n### WenLan\n\n+ 2021 | WenLan: Bridging Vision and Language by Large-Scale Multi-Modal Pre-Training | Yuqi Huo, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.06561)\n\n| 模型          | 版本     | 介绍                                              | 模型下载                                                     | 作者                                        | 源地址                                         | 应用领域     | 备注             |\n| ------------- | -------- | ------------------------------------------------- | ------------------------------------------------------------ | ------------------------------------------- | ---------------------------------------------- | ------------ | ---------------- |\n| BriVL(WenLan) | 10亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FBriVL) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdownload?resourceId=1425655534320660480&filename=BriVL-1.0-1B-zh.tar) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FBriVlL) | 中文通用图文 | 需要登陆才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CogView\n\n+ 2021 | CogView: Mastering Text-to-Image Generation via Transformers | Ming Ding, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.13290.pdf)\n\n| 模型    | 版本     | 介绍                                                | 模型下载                                            | 作者                               | 源地址                                     | 应用领域           | 备注             |\n| ------- | -------- | --------------------------------------------------- | --------------------------------------------------- | ---------------------------------- | ------------------------------------------ | ------------------ | ---------------- |\n| CogView | 40亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FCogView) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FCogView) | [THUDM ](https:\u002F\u002Fgithub.com\u002FTHUDM) | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogView) | 中文多模态生成模型 | 需要登陆才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 紫东太初\n\n\n| 模型                        | 版本     | 介绍                                                         | 模型下载                                                     | 作者                                             | 源地址                                                      | 应用领域          | 备注                                             |\n| --------------------------- | -------- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------ | ----------------------------------------------------------- | ----------------- | ------------------------------------------------ |\n| 紫东太初- light_vision_text |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Flight_vision_text) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Flight_vision_text) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 中文图像-文本领域 | 紫东太初多模态大模型中的图像-文本预训练模型      |\n| 紫东太初-text[GPT]          | 32亿参数 | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Ftext) | [百度网盘-nos5](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Wsu5OVlQBNai24NhNiaqRw) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 中文通用          | 紫东太初多模态大模型中的文本预训练模型           |\n| 紫东太初-vision             |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fvision) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fvision) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 视觉领域          | 紫东太初多模态大模型中的视觉预训练模型           |\n| 紫东太初-speech             |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fspeech) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fspeech) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 语音领域          | 紫东太初多模态大模型中的语音检测与识别多任务模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-oscar\n\n+ 2021 | Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese | Zhuosheng Zhang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.06696)\n\n| 模型         | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域        |\n| ------------ | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | --------------- |\n| Mengzi-oscar | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-oscar-base) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### R2D2\n\n+ 2022 | Zero and R2D2: A Large-scale Chinese Cross-modal Benchmark and A Vision-Language Framework | Chunyu Xie, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.03860)\n\n| 模型      | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                    | 首页                         | 应用领域        |\n| --------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ----------------------------------------- | ---------------------------- | --------------- |\n| R2D2ViT-L | large |            | [Google](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18Fd3vGvj0Dz8rPlxROxugjZaF8Z4jf7g\u002Fview) | [yuxie11](https:\u002F\u002Fgithub.com\u002Fyuxie11) | [github](https:\u002F\u002Fgithub.com\u002Fyuxie11\u002FR2D2) | [zero](https:\u002F\u002Fzero.so.com\u002F) | 中文多模态-图文 |\n| PRD2ViT-L | large |            | [Google](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F15zDdam7_-YT0suA3Wc226vvxcyBxWZ_O\u002Fview?usp=sharing) | [yuxie11](https:\u002F\u002Fgithub.com\u002Fyuxie11) | [github](https:\u002F\u002Fgithub.com\u002Fyuxie11\u002FR2D2) | [zero](https:\u002F\u002Fzero.so.com\u002F) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Chinese-CLIP\n\n+ 2021 | Learning Transferable Visual Models From Natural Language Supervision | Alec Radford, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00020)\n+ 2022 | Chinese CLIP: Contrastive Vision-Language Pretraining in Chinese | An Yang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01335)\n\n| 模型                             | 版本 | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                            | 应用领域        |\n| -------------------------------- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------- | --------------- |\n| CN-CLIP\u003Csub>RN50\u003C\u002Fsub>           | 77M  |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_rn50.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-B\u002F16\u003C\u002Fsub>       | 188M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-b-16.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-L\u002F14\u003C\u002Fsub>       | 406M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-l-14.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-L\u002F14@336px\u003C\u002Fsub> | 407M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-l-14-336.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-H\u002F14\u003C\u002Fsub>       | 958M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-h-14.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### TaiYi-CLIP\n\n+ 2021 | Learning Transferable Visual Models From Natural Language Supervision | Alec Radford, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00020)\n+ 2022 | Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence | Junjie Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02970)\n\n| 模型                                  | 版本 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域        |\n| ------------------------------------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | --------------- |\n| Taiyi-CLIP-Roberta-large-326M-Chinese | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FTaiyi-CLIP-Roberta-large-326M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### AltCLIP\n\n+ 2022 | AltCLIP: Altering the Language Encoder in CLIP for Extended Language Capabilities | Chen, Zhongzhi, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06679)\n\n| 模型    | 版本  | TensorFlow | PyTorch                                            | 作者                                     | 源地址                                                       | 应用领域        |\n| ------- | ----- | ---------- | -------------------------------------------------- | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| AltCLIP | 3.22G |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FAltCLIP) | [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open) | [github](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAltCLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### AltDiffusion\n\n+ 2022 | AltCLIP: Altering the Language Encoder in CLIP for Extended Language Capabilities | Chen, Zhongzhi, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06679)\n+ 2022 | High-Resolution Image Synthesis With Latent Diffusion Models | Rombach, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)\n\n| 模型         | 版本 | TensorFlow | PyTorch                                                 | 作者                                     | 源地址                                                       | 应用领域        |\n| ------------ | ---- | ---------- | ------------------------------------------------------- | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| AltDiffusion | 8.0G |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FAltDiffusion) | [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open) | [github](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAltDiffusion) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Taiyi-Stable-Diffusion\n\n+ 2022 | Fengshenbang 1.0: Being the Foundation of Chinese Cognitive Intelligence | Junjie Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02970)\n+ 2022 | High-Resolution Image Synthesis With Latent Diffusion Models | Rombach, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)\n\n| 模型                   | 版本 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域        |\n| ---------------------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | --------------- |\n| Taiyi-Stable-Diffusion | 1B   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FTaiyi-Stable-Diffusion-1B-Chinese-v0.1) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### wukong\n\n+ 2022 | Wukong: A 100 Million Large-scale Chinese Cross-modal Pre-training Benchmark | Jiaxi Gu, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.06767)\n\n| 模型   | 版本 | TensorFlow | PyTorch                                                      | 作者                                     | 源地址                                                       | 应用领域        |\n| ------ | ---- | ---------- | ------------------------------------------------------------ | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| CLIP   |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n| FILIP  |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n| wukong |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### OFA\n\n+ 2022 | OFA: Unifying Architectures, Tasks, and Modalities Through a Simple Sequence-to-Sequence Learning Framework | Peng Wang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2202.03052.pdf)\n\n| 模型        | 版本 | TensorFlow | PyTorch                                                      | 作者                                            | 源地址                                                | 应用领域        |\n| ----------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------------- | ----------------------------------------------------- | --------------- |\n| OFA         |      |            | [link](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FOFA\u002Fblob\u002Fmain\u002Fcheckpoints_cn.md) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys)           | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FOFA)              | 中文多模态-图文 |\n| OFA-Chinese |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FYeungNLP\u002Fofa-cn-base-muge-v2) | [Yang JianXin](https:\u002F\u002Fgithub.com\u002Fyangjianxin1) | [github](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FOFA-Chinese) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### QA-CLIP\n\n| 模型            | 版本 | 视觉架构 | PyTorch                                                      | 作者                                     | 源地址                                                       | 应用领域        |\n| --------------- | ---- | -------- | ------------------------------------------------------------ | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| QA-CLIPRN50     | 77M  | ResNet50 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-RN50.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n| QA-CLIPViT-B\u002F16 | 188M | ViT-B\u002F16 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-base.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n| QA-CLIPViT-L\u002F14 | 406M | ViT-L\u002F14 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-large.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Table\n\n### SDCUP\n\n+ 2021 | Improving Text-to-SQL with Schema Dependency Learning | Binyuan Hui, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.04399)\n\n| 模型  | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ----- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| sdcup | base  |            | [阿里云](http:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FSDCUP\u002Fsdcup_base_model.bin-50000) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FSDCUP) | 中文表格 |\n| sdcup | large |            | [阿里云](http:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FSDCUP\u002Fsdcup_large_model.bin-60000) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FSDCUP) | 中文表格 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n\n## 更新\n\n* 2026.04.12 增加[MiniMax-M2.7](#ReasoningLLM)，MiniMax 开源的推理大模型，230B 总参数 MoE 架构，激活 10B 参数，支持 Agent Teams、复杂 Skills 和动态工具搜索\n* 2026.04.06 增加[Gemma-4](#MultiModal-ChatLLM)，Google DeepMind 开源的多模态大模型，包含 E2B\u002FE4B\u002F26B A4B(MoE)\u002F31B(Dense) 四种尺寸，支持文本\u002F图像\u002F音频多模态输入，256K 上下文，原生 Thinking 推理模式和 Function Calling 能力\n* 2026.02.16 增加[Step-3.5-Flash, GLM-5, MiniMax-M2.5, Kimi-K2.5, Ring-2.5-1T](#ReasoningLLM)、[GLM-OCR, Ace-Step1.5, HunyuanImage-3.0-Instruct](#MultiModal-ChatLLM)、[Qwen3-Coder-Next](#Domain-ChatLLM)\n* 2025.12.12 增加[deepseek-3.2]\n* 2025.10.12 增加[Ling-1T,KAT-Dev-72B-Exp, GLM-4.6 ]\n* 2025.09.20 增加[Tongyi DeepResearch,Qwen3-Next,Magistral Small,VoxCPM,VibeVoice,HunyuanImage]\n* 2025.08.19 增加[gpt-oss-20B,gpt-oss-120B,Baichuan-M2,Ovis2.5,GLM-4.5V]\n* 2025.08.05 增加[GLM-4.5,Hunyuan,Qwen3-Thinking-2507,Step3,Kimi-k2,Qwen3-Coder]\n* 2025.07.07 增加[Kimi-VL-Thinking,GLM-4.1V-Thinking,Dhanishtha-2.0,ERNIE-4.5]\n* 2025.06.29 增加[Qwen3-Embedding,Skywork-SWE，Hunyuan-A13B]\n* 2025.06.17 增加[MiniMax-M1,Kimi-Dev]\n* 2025.05.29 增加[DeepSeek-R1-0528,QwenLong-L1,Dolphin]\n* 2025.05.07 增加[Qwen3,MiMo]\n* 2025.04.15 增加[GLM-Z1-0414. DeepCoder, Kimi-VL-Thinking, Skywork-OR1]\n* 2025.03.22 增加[Skywork-R1V,FIN-R1]\n* 2025.03.09 增加[QwQ-32B, Aya Vision,CogView4]\n* 2025.02.26 增加[Moonlight、Wan2.1、Step-Audio-Chat]\n* 2025.02.15 增加[Ovis2]\n* 2025.01.19 增加[MiniMax-01, miniCPM-O， OuteTTS]\n* 2025.01.12 增加[Sky-T1,search-o1](#ReasoningLLM)\n* 2025.01.02 增加[Huatuo-o1](#ReasoningLLM)\n* 2024.12.25 增加[QVQ-72B]\n* 2024.12.16 增加[Megrez-3B-Omni, DeepSeek-VL2]\n* 2024.11.29 增加[QwQ-32B-Preview,Marco-o1 ,Skywork-01-Open,HK-01aw](#ReasoningLLM)\n* 2024.11.15 增加[Qwen-2.5-coder, OpenCoder](#Domain-ChatLLM)\n* 2024.11.05 增加[Hunyuan-Large](#Chat-LLM)\n* 2024.10.26 增加[GLM-4-Voice,Pangea,Aya-Expanse]()\n* 2024.10.22 增加[Granite 3.0](#Chat-LLM),一套全新的轻量级、多语种支持的语言模型，专为推理、编程和工具使用设计，可在计算资源受限的环境中运行，适合企业使用和定制\n* 2024.09.19 增加[Qwen2.5](#Chat-LLM)\n* 2024.09.08 增加[DeepSeekV2.5, MiniCPM3, Yi-Coder](#Chat-LLM)\n* 2024.08.30 增加[C4AI Command R+ 08-2024,Qwen2-VL](#Chat-LLM)\n* 2024.07.26 增加[JIUTIAN-Chat,Tele-FLM]()\n* 2024.07.24 增加[Meta-llama3.1](#Chat-LLM)\n* 2024.07.05 增加[CodeGeeX4](#Domain-ChatLLM)\n* 2024.07.04 增加[internlm2.5](#Chat-LLM)\n* 2024.06.19 增加[MAP-NEO-Chat](#Chat-LLM)，MAP-NEO is a fully open-sourced Large Language Model that includes the pretraining data, a data processing pipeline (Matrix), pretraining scripts, and alignment code.\n* 2024.06.18 增加[DeepSeek-Coder-V2、Nemotron-4](#Chat-LLM)\n* 2024.06.14 增加[Index-Chat](#Chat-LLM)\n* 2024.06.08 增加[Qwen2,ChatTTS](#Chat-LLM)\n* 2024.06.03 增加[GLM-4、Skywork-MoE](#Chat-LLM)\n* 2024.05.30 增加[Yuan2.0-M32: Mixture of Experts with Attention Router](#ChatLLM)\n* 2024.05.20 增加[CogVLM2,360VL,HunyuanDiT,星辰-Chat]\n* 2024.05.13 增加[Yi-1.5]\n* 2024.05.07 增加[XVERSE-V,DeepSeek-V2,XVERSE-MoE]\n* 2024.04.27 增加[Qwen1.5-110B, Llama3-zh](#Chat-LLM)\n* 2024.04.14 增加[MiniCPM-V2、WaveCoder、codegemma、Sailor、Nanbeige2-Chat、MiniCPM-MoE、Zhinao-Chat]()\n* 2024.04.12 增加[XVERSE-MoE](#LLM)\n* 2024.04.08 增加[SoftTiger、HammerLLM](#LLM)\n* 2024.04.06 增加[Qwen1.5-32B](#ChatLLM)\n* 2024.04.04 增加[Mengzi3](#ChatLLM)\n* 2024.03.29 增加[Qwen-Audio、Qwen-MoE](#ChatLLM)\n* 2024.03.13 增加[Command-R](#ChatLLM)\n* 2024.03.01 增加[Breeze-Instruct, starcoder2](#ChatLLM)\n* 2024.02.18 增加[aya-101、chemLLM](#ChatLLM)\n* 2024.02.06 增加[Qwen1.5](#ChatLLM)\n* 2024.02.02 增加[MiniCPM, TuringMM-Chat](#ChatLLM)\n* 2024.02.01 增加[LongAlign-Chat，Chinese-Mixtral-Chat](#ChatLLM)\n* 2024.01.31 增加[iFlytekSpark-Chat，rwkv-5-world](#ChatLLM)\n* 2024.01.23 增加[Yi-VL-6\u002F34B](#MultiModal-ChatLLM)\n* 2024.01.22 增加[orion-4B](#ChatLLM)\n* 2024.01.19 增加[internlm2-chat，Chinese-Mixtral](#ChatLLM)\n* 2024.01.10 增加[Telechat，Code Millenials](#ChatLLM)\n* 2024.01.09 增加[kagentlms](#ChatLLM),具有Agents的规划、反思、工具使用等能力的系列大模型\n* 2024.01.05 增加[WizardCoder-33B-V1.1](#Domain-ChatLLM)\n* 2023.12.27 增加[YaYi-30B-Chat](#ChatLLM)\n* 2023.12.05 增加[SUS-Chat-34B、Aquila2-Chat-70B、Alaya-Chat-7B](#ChatLLM)\n* 2023.12.01 增加[Qwen-Base-1.8\u002F72B](#Base-LLM),[Qwen-Chat-1.8\u002F72B](#ChatLLM),[Qwen-Audio](#MultiModal-ChatLLM)\n* 2023.11.30 增加[Yuan-2.0、DeepSeek-Base](#Base-LLM),[DeepSeek-Chat](#ChatLLM)\n* 2023.11.20 增加[Alaya-Chat-7B、OrionStar-Yi-Chat-34B](#ChatLLM)\n* 2023.11.11 增加[XVERSE-65B、Nanbeige-Chat-16B、OpenChat 3.5](#ChatLLM)\n* 2023.11.03 增加[SPHINX、Tongyi-Finance、Phind、DeepSeek-Coder](#ChatLLM)\n* 2023.11.02 增加[AndesGPT-7B、SeaLLM、BlueLM](#ChatLLM)\n* 2023.10.31 增加[Zephyr-7B、Mistral-7b](#ChatLLM)\n* 2023.10.25 增加[zhiyin、zhilu]()\n* 2023.10.20 增加[cross、taiyi、fuyu、Ziya-visual、CodeShell、CogVLM]()\n* 2023.10.17 增加[Ziya2-13B-Base、Ziya2-13B-Chat](#ChatLLM)\n* 2023.10.12 增加[AquilaChat2-7\u002F13B、AquilaChat2-16K、Vulture-180B](#ChatLLM)\n* 2023.10.04 增加[DISC-LawLLM、WiNGPT、ziya-coding、Vulture、AgriGPT](#ChatLLM)\n* 2023.09.25 增加[Colossal-LLaMA-2-7B](#ChatLLM),相较于原始LLaMA-2，在成功提升中文能力的基础上，进一步提升其英文能力，性能可与开源社区同规模预训练SOTA模型媲美。\n* 2023.09.20 增加[InternLM-20B、OpenBA](#ChatLLM),InternLM-20B已发布，包括基础版和对话版。OpenBA是一个从头开始预训练的开源15B双语非对称端到端模型。\n* 2023.09.08 增加[FLM-101B、falcon-180B、Openbuddy-70B、TigerBot-70B](#ChatLLM)\n* 2023.09.06 增加[Baichuan2](#ChatLLM),Baichuan 2 是百川智能推出的新一代开源大语言模型，采用 2.6 万亿 Tokens 的高质量语料训练。\n* 2023.09.01 增加[DISC-MedLLM、YuLan-Chat-2、Chinese-Alpaca-2-16K](#ChatLLM),[Vally](#MultiModal-ChatLLM)\n* 2023.08.29 增加[CodeLLAma、Atom](#ChatLLM),[IDEFICS](#MultiModal-ChatLLM)\n* 2023.08.25 增加[sqlcoder](#ChatLLM),一个 SOTA 大型语言模型， SQLCoder 将自然语言问题转换为 SQL 查询。在开发者的开源评估框架 SQLEval 中，SQLCoder 的性能明显优于所有主要的开源模型，并且优于 OpenAI 的 GPT-3.5。\n* 2023.08.23 增加[Qwen-VL](#MultiModal-ChatLLM),Qwen-VL 是阿里云研发的大规模视觉语言模型（Large Vision Language Model, LVLM）。Qwen-VL 可以以图像、文本、检测框作为输入，并以文本和检测框作为输出。\n* 2023.08.21 增加[智海-录问](#ChatLLM),智海-录问(wisdomInterrogatory)是由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型。\n* 2023.08.15 增加[WizardMath](#ChatLLM),\n* 2023.08.09 增加[TigerBot-13B](#ChatLLM),在Llama-2的基础上以虎博积累的技术和数据继续训练，不但保持了Llama-2出色的英文能力，更是在中文能力上填补了Llama-2的不足，各项主流中文任务中超过Llama-2的49%，在开源同类模型中具有竞争力。\n* 2023.08.07 增加[XVERSE-13B](#ChatLLM),XVERSE-13B,它支持40多种语言、8192上下文长度。在多项中英文测评中，性能超过了同尺寸（130亿参数）的LLama2、Baichuan等。\n* 2023.08.03 增加[通义千问](#ChatLLM),通义千问-7B（Qwen-7B）是阿里云研发的通义千问大模型系列的70亿参数规模的模型。\n* 2023.07.31 增加[LLasM、Chinese-LLaVA](#MultiModal-ChatLLM)多模态大模型\n* 2023.07.31 增加[Chinese-Llama-2](#ChatLLM).原版Llama-2的基础上扩充并优化了中文词表，使用了120G大规模中文数据进行增量预训练，相关模型支持4K上下文并可通过NTK方法最高扩展至18K+\n* 2023.07.29 增加[BatGPT，Mozi，StarGLM](#ChatLLM).\n* 2023.07.27 增加[WizardLM-v1.2](#ChatLLM).\n* 2023.07.25 增加相关[Awesome列表](#other-awesome)\n* 2023.07.24 增加[Llama2-chinese-chat、Jiang-chat](#ChatLLM)等对话语言模型。\n* 2023.07.19 增加[LLaMA2](#LLM),Meta 发布了大家期待已久的免费可商用版本 Llama 2。\n* 2023.07.16 增加[PolyLM](#LLM),PolyLM是一个通晓多语言语言的大规模语言模型，该模型可以应用于对话问答、文本生成、机器翻译和情感分析等领域，能够自动生成高质量的多语言文本。\n* 2023.07.11 增加[Baichuan-13B](#LLM),baichuan-13B是由百川智能开发的一个开源可商用的大规模预训练语言模型。\n* 2023.07.10 增加WizardLM-13B-V1.1\n* 2023.07.09 增加VisualCLA多模态大模型\n* 2023.07.04 增加[书生·浦语](#ChatLLM),书生·浦语大模型，包含面向实用场景的70亿参数基础模型与对话模型.\n* 2023.07.04 增加[yuren](#MultiModal-ChatLLM),[vicuna,CuteGPT,ailawyer](#ChatLLM)\n* 2023.06.30 增加[VisCPM](#MultiModal-ChatLLM),VisCPM 是一个开源的多模态大模型系列，支持中英双语的多模态对话能力（VisCPM-Chat模型）和文到图生成能力（VisCPM-Paint模型），在中文多模态开源模型中达到最佳水平。\n* 2023.06.28 增加[PULSE](#ChatLLM),PULSE-中文医疗大语言模型。\n* 2023.06.26 增加[CoLLaMA](#ChatLLM),CoLLaMA是基于代码的多语言大模型。\n* 2023.06.25 增加[ChatGLM2-6B](#ChatLLM),ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本。\n* 2023.06.24 增加[TechGPT](#ChatLLM),TechGPT是“东北大学知识图谱研究组”发布的垂直领域大语言模型。\n* 2023.06.20 增加[Yayi、BayLing](#ChatLLM),百聆（BayLing）是一个强化了语言对齐的指令跟随大规模语言模型;Yayi大模型 在百万级人工构造的高质量领域数据上进行指令微调得到，训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域。\n* 2023.06.19 增加[panda](#ChatLLM),Panda是海外中文开源大语言模型。\n* 2023.06.18 增加[ZhiXi](#ChatLLM),ZhiXi基于Llama的针对知识抽取的大模型。\n* 2023.06.15 增加[Baichuan-7B](#LLM),baichuan-7B是由百川智能开发的一个开源可商用的大规模预训练语言模型。\n* 2023.06.14 增加[Chinese-Falcon](#LLM),Chinese-Falcon 模型在 Falcon 基础上扩充中文词表，在中英文数据上增量预训练。 模型以 Apache License 2.0 协议开源，支持商业用途。。\n* 2023.06.13 增加[OpenLLaMA-Chinese](#ChatLLM),OpenLLaMA-Chinese是免费的中文大型语言模型，基于OpenLLaMA，可用于非商业和商业目的。\n* 2023.06.09 增加[QA-CLIP](#QA-CLIP),[M3E](#M3E),[Aquila](#LLM),QA-CLIP是中文CLIP模型,M3E是文本嵌入模型,Aquila是语言大模型。\n* 2023.06.08 增加[YuLan](#ChatLLM),YuLan是由中国人名大学开源的双语言任务大模型,开源13B和65B大小。\n* 2023.06.08 增加[Chinese-Alpaca-33B](#ChatLLM),[Chinese-LLaMA-33B](#LLM)，中文LLaMA\u002FAlpaca-33B。\n* 2023.06.07 增加[Tigerbot](#ChatLLM),TigerBot是一款国产自研的多语言任务大模型,开源7B和180B大小。\n* 2023.06.06 增加[Video-LLaMA](#MultiModal-ChatLLM),[BiLLa](#ChatLLM),Video-LLaMA是一个用于视频理解的指令调整的视觉语言模型，BiLLa是开源的推理能力增强的中英双语LLaMA模型。\n* 2023.05.26 增加[XuanYuan](#ChatLLM),[XrayGLM](#MultiModal-ChatLLM),XuanYuan是国内首个开源的千亿级中文对话大模型,XrayGLM是中文医学领域多模态大语言模型。\n* 2023.05.21 增加[ziya,BLOOMChat](#ChatLLM),Ziya-LLaMA-13B-v1拥有130亿参数，从LLaMA-13B开始重新构建中文词表，进行千亿token量级的已知的最大规模继续预训练，使模型具备原生中文能力.\n* 2023.05.18 增加[VisualGLM-6B](#MultiModal-ChatLLM),VisualGLM-6B 是一个开源的，支持图像、中文和英文的多模态对话语言模型。\n* 2023.05.16 增加[BiLLa](#ChatLLM),开源中英文双语大模型。\n* 2023.05.12 增加[Bactrian-X](#ChatLLM),开源多语言大模型。\n* 2023.05.08 增加[OpenBuddy](#ChatLLM),一款强大的开源多语言聊天机器人模型。\n* 2023.04.26 更新[LLaMA-zh、YuYan](#LLM),增加LLama-zh、Yuyan、扁鹊等LLM和chatLLm模型\n* 2023.04.25 增加[BBT](#LLM)，基于Transformer和Decoder-Only的架构开发了BigBang Transformer「乾元」大规模预训练语言模型。\n* 2023.04.21 增加[MOSS](#ChatLLM),更新复旦大学开源的MOSS模型以及对应的数据集。\n* 2023.04.20 增加[Phoenix](#ChatLLM),基于BLOOMZ-mt模型微调得到的大语言模型。\n* 2023.04.19 增加[ChatPLUG](#ChatLLM)，该模型基于PLUG，使用亿级互联网社交数据、百科数据预训练和百万级高质量对话数据进行instruction微调得到。\n* 2023.04.18 增加[COIG](#中文指令数据集)数据集，用不同方法构建中文指令数据集的项目，收集了大约20万个中文指令样本。\n* 2023.04.13 更新[ChatLLM](#ChatLLM)，增加HuaTuo,Med_ChatGLM两个医学模型。\n* 2023.04.09 更新[中文指令数据集](#中文指令数据集)[ChatLLM](#ChatLLM)，增加个性角色对话数据集、chinese-alpaca-13b模型。\n* 2023.04.03 更新[中文指令数据集](#中文指令数据集)[ChatLLM](#ChatLLM)，增加BELLE-13b模型，math-0.25，multiturn-0.8数据集。\n* 2023.04.02 更新[ChatLLM](#ChatLLM)列表，增加由香港科技大学开源的7B\u002F13B\u002F33B\u002F65B中文大型语言模型\n* 2023.03.30 增加Chinese-Vicuna模型，Traditional-Chinese-alpaca数据集\n* 2023.03.29 增加[OFA](#OFA),中文多模态统一预训练模型,OFA是阿里巴巴发布的多模态统一预训练模型.\n* 2023.03.29 更新[中文指令数据集](#中文指令数据集)，增加InstructionWild数据集。\n* 2023.03.23 增加[中文指令数据集](#中文指令数据集)，并初始化三个已公开数据集。\n* 2023.03.20 增加[BELLE](#ChatLLM),开源中文对话大模型-70亿参数,基于Stanford Alpaca，对中文做了优化，模型调优仅使用由ChatGPT生产的数据.\n* 2023.03.14 增加[ChatLLM](#ChatLLM)列表，主要收集具备问答跟对话等功能的大型语言模型,并增加ChatGLM模型。\n* 2023.03.11 增加[ProphetNet](#ProphetNet),提出了一种新的自监督学习目标——同时预测多个未来字符，在序列到序列的多个自然语言生成任务都取得了优异性能。\n* 2023.03.10 增加[RoCBert](#RoCBert),利用对抗学习生成更多噪声数据，用来进行中文BERT模型的训练，得到鲁棒性更强的中文BERT模型。\n* 2023.03.03 更新[LLM](#LLM),新增多语言模型`Flan-ul2`和`Flan-t5-xxl`\n* 2023.02.21 增加[LLM](#LLM),大规模语言模型列表，只罗列出参数量大于10B以上模型，其余量级模型，可参考对应的项目地址。\n* 2023.01.14 增加[SkyText](#SkyText),SkyText是由奇点智源发布的中文GPT3预训练大模型，可以进行聊天、问答、中英互译等不同的任务.\n* 2023.01.14 增加[ChatYuan](#ChatYuan),ChatYuan模型可以用于问答、结合上下文做对话、做各种生成任务，包括创意性写作，也能回答一些像法律、新冠等领域问题。\n* 2022.12.10 增加[PromptCLUE](#PromptCLUE),全中文任务零样本学习模型,基于1000亿token中文语料上预训练，并且在数百种任务上进行Prompt任务式训练。\n* 2022.12.01 增加[wukong](#wukong),基于一个名为「悟空」的大型中文跨模态数据集，其中包含来自网络的 1 亿个图文对，预训练的多模态模型。\n* 2022.11.30 增加[AltDiffusion](#AltDiffusion)，使用 AltCLIP 作为text encoder，基于 Stable Diffusion 训练了中英双语Diffusion模型(AltDiffusion)\n* 2022.11.30 增加[AltCLIP](#AltCLIP),一个简单高效的方法去训练更加优秀的双语CLIP模型,名为AltCLIP。AltCLIP基于 OpenAI CLIP 训练。\n* 2022.11.30 增加[Taiyi-Stable-Diffusion](#Taiyi-Stable-Diffusion),首个开源的中英双语Stable Diffusion模型，基于0.2亿筛选过的中文图文对训练。\n* 2022.11.9 增加[OPD](#OPD),OPD是一个中文开放域对话预训练模型，拥有63亿参数，在70GB高质量对话数据上进行训练而成.`大规模` & `高性能`\n* 2022.11.8 更新[Chinese-CLIP](#Chinese-CLIP),Chinese-CLIP是中文多模态图文表征模型，更新后Chinese-CLIP扩充到5个模型规模，同时增加了技术报告论文以及检索demo，同时在达摩院ModelScope平台同步集成。\n* 2022.10.31 增加[LERT](#LERT),为了验证通过显式注入语言学知识预训练模型能否获得进一步性能提升，HFL提出了一种**语言学信息增强的预训练模型LERT**，融合了多种语言学知识。大量实验结果表明，在同等训练数据规模下，LERT能够带来显著性能提升。\n* 2022.10.14 增加[CKBERT](#CKBERT)，中文知识库增强BERT预训练语言模型。\n* 2022.10.01 增加[GlyphBERT](#GlyphBERT), GlyphBERT是一个包含了汉字字形特征中文预训练模型。它通过将输入的字符渲染成图像并设计成多通道位置特征图的形式，并设计了一个两层 残差卷积神经网络模块来提取字符的图像特征进行训练。\n* 2022.09.30 增加[DeBERTa](#DeBERTa)，一个中文版的DeBERTa-v2，我们用悟道语料库(180G版本)进行预训练，在预训练阶段中使用了封神框架。\n* 2022.09.30 增加[TaiYi-CLIP](#TaiYi-CLIP),首个开源的中文CLIP模型，1.23亿图文对上进行预训练的文本端RoBERTa-large。\n* 2022.09.27 增加[PLUG](#PLUG),PLUG集语言理解与生成能力于一身，支持文本生成、问答、语义理解等多类下游任务，PLUG开源将助力开发者在语言理解和语言生成上做出更多延拓。\n* 2022.09.11 增加[bloom-6b4](#Bloom),多语言预训练bloom系列生成模型7b1参数(https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom-7b1 )的中文vocab提取，bloom系列另有最大176B模型(https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom).\n* 2022.09.11 增加[GLM-130B](#GLM),提出了开源的双语预训练生成模型 GLM(General Language Model)。\n* 2022.09.11 增加[PanGu-α: Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation](#PanGu-Alpha) 2.6B和13B 生成模型pytorch版\n* 2022.06.29 增加[ERNIE 3.0](#ERNIE3),大规模知识增强预训练语言理解和生成.\n* 2022.06.22 增加[Zero and R2D2: A Large-scale Chinese Cross-modal Benchmark and A Vision-Language Framework](#R2D2)，基于大规模中文跨模态基准数据集Zero，训练视觉语言预训练框架 R2D2，用于大规模跨模态学习。\n* 2022.06.15 增加[GLM: General Language Model Pretraining with Autoregressive Blank Infilling](#GLM),提出了一种新的通用语言模型 GLM(General Language Model)。 使用自回归填空目标进行预训练，可以针对各种自然语言理解和生成任务进行微调。\n* 2022.05.16 增加[GAU-α](#GAU-α),主要提出了一个融合了Attention层和FFN层的新设计GAU（Gated Attention Unit，门控注意力单元），它是新模型更快、更省、更好的关键，此外它使得整个模型只有一种层，也显得更为优雅。\n* 2022.03.27 增加[RoFormer-V2](#RoFormer),RoFormer升级版，主要通过结构的简化来提升速度，并通过无监督预训练和有监督预训练的结合来提升效果，从而达到了速度与效果的“双赢”。\n* 2022.03.02 增加[MobileBERT](#MobileBERT),MobileBERT是BERT-large模型更“苗条”的版本，使用了瓶颈结构（bottleneck）并且对自注意力和前馈神经网络之间的平衡做了细致的设计。\n* 2022.02.24 增加[PERT: Pre-Training BERT with Permuted Language Model](#PERT),一种基于乱序语言模型的预训练模型（PERT），在不引入掩码标记[MASK]的情况下自监督地学习文本语义信息。\n* 2021.12.06 增加[SDCUP: Improving Text-to-SQL with Schema Dependency Learning](#SDCUP),达摩院深度语言模型体系 AliceMind 发布中文社区首个表格预训练模型 SDCUP。\n* 2021.11.27 增加[RWKV](#RWKV)中文预训练生成模型,类似 GPT-2,模型参考地址：[RWKV-LM](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM)\n* 2021.11.27 增加IDEA研究院开源的封神榜系列语言模型，包含[二郎神](#二郎神)、[周文王](#周文王)、[闻仲](#闻仲)、[余元](#余元)。\n* 2021.11.25 增加[MC-BERT: Conceptualized Representation Learning for Chinese Biomedical Text Mining](#MC-BERT), 生物医学领域的中文预训练模型.\n* 2021.11.24 增加[TaCL: Improving BERT Pre-training with Token-aware Contrastive Learning](#TaCL), Token-aware对比学习预训练模型.\n* 2021.10.18 增加[Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese](#Mengzi-BERT),基于语言学信息融入和训练加速等方法研发了 Mengzi 系列模型.\n* 2021.10.14 增加[中文版BART](#BART),训练比较可靠的中文版BART，为中文生成类任务如摘要等提供Baseline.\n* 2021.10.14 增加[CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation](#CPT),CPT：兼顾理解和生成的中文预训练模型.\n* 2021.10.13 增加[紫东太初多模态大模型](#紫东太初): 全球首个多模态图文音预训练模型,实现了视觉-文本-语音三模态统一表示，构建了三模态预训练大模型。\n* 2021.09.19 增加[CogView: Mastering Text-to-Image Generation via Transformers](#CogView),世界最大的中文多模态生成模型,模型支持文生成图为基础的多领域下游任务.\n* 2021.09.10 增加[WenLan: Bridging Vision and Language by Large-Scale Multi-Modal Pre-Training](#WenLan)，首个中文通用图文多模态大规模预训练模型。\n* 2021.09.10 增加[EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative Pre-Training](#EVA)，一个开放领域的中文对话预训练模型。\n* 2021.08.19 增加[Chinese-Transformer-XL](#GPT-3)：基于中文预训练语料WuDaoCorpus（290G）训练的GPT-3模型。\n* 2021.08.16 增加[CPM-2: Large-scale Cost-effective Pre-trained Language Models](#CPM-2)\n* 2021.08.16 增加[Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models](#Lattice-BERT)\n* 2021.07.19 增加[roformer-sim-v2](#RoFormer-sim)：利用标注数据增强版本\n* 2021.07.15 增加[BERT-CCPoem](#BERT)：古典诗歌语料训练的BERT\n* 2021.07.06 增加[ChineseBERT：Chinese Pretraining Enhanced by Glyph and Pinyin Information](#BERT)\n* 2021.06.22 增加[StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding](#StructBERT)\n* 2021.06.14 增加[RoFormer：Enhanced Transformer with Rotary Position Embedding](#RoFormer)\n* 2021.05.25 增加[ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding ]((#ERNIE))\n* 2021.04.28 增加[PanGu-α: Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation ](#PanGu-Alpha)\n* 2021.03.16 增加[T5-PEGASUS: 开源一个中文生成式预训练模型](#T5-PEGASUS)\n* 2021.03.09 增加UER系列模型\n* 2021.03.04 增加[WoBERT: 基于词颗粒度的中文](#WoBERT)\n* 2020.11.11 初始化BERT系列模型[BERT](#BERT)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### Contributors\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Feryajf\u002Flearn-github\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_a860f0f1f103.png\" \u002F>\n\u003C\u002Fa>\n\n### Misc\n#### &#8627; Stargazers\n[![Stargazers repo roster for ](https:\u002F\u002Freporoster.com\u002Fstars\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models)](https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fstargazers)\n\n#### &#8627; Forkers\n[![Forkers repo roster for](https:\u002F\u002Freporoster.com\u002Fforks\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models)](https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fnetwork\u002Fmembers)\n\n#### &#8627; Star History\n\n\u003Cdiv align=\"center\">\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_8a91615a517e.png)](https:\u002F\u002Fstar-history.com\u002F#lonePatient\u002Fawesome-pretrained-chinese-nlp-models&Date)\n\n\u003C\u002Fdiv>\n\n![Visitor Count](https:\u002F\u002Fprofile-counter.glitch.me\u002Flonepatient\u002Fcount.svg)\n","# 优秀的预训练中文NLP模型[![Awesome](https:\u002F\u002Fawesome.re\u002Fbadge.svg)](https:\u002F\u002Fawesome.re)\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_797ca9d59b4c.png)\n\u003Cdiv align=\"center\"> \n    \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2303.18223.pdf\">论文: 大型语言模型综述\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n在自然语言处理领域中，预训练语言模型（Pretrained Language Models）已成为非常重要的基础技术，本仓库主要收集目前网上公开的一些高质量中文预训练模型、中文多模态模型、中文大语言模型等内容(感谢分享资源的大佬)，并将持续更新......\n\n> 国内下载HuggingFace仓库模型推荐使用HuggingFace镜像地址: https:\u002F\u002Fhf-mirror.com\u002F\n\n# 扩展目录\n\n---\n\n## 📚 模型分类索引\n\n### 🤖 大模型系列\n\n| 分类 | 说明 | 链接 |\n|:-----|:-----|:-----|\n| 通用基础大模型 | 参数 >7B 的基础语言模型 | [查看](#Base-LLM) |\n| 垂直基础大模型 | 金融、医疗、法律等垂直领域 | [查看](#Domain-Base-LLM) |\n| 通用对话大模型 | 对话式通用语言模型 | [查看](#ChatLLM) |\n| 垂直对话大模型 | 垂直领域对话模型 | [查看](#Domain-ChatLLM) |\n| 多模态对话大模型 | 图文等多模态模型 | [查看](#MultiModal-ChatLLM) |\n| 推理类大模型 | 数学、逻辑推理模型 | [查看](#ReasoningLLM) |\n\n### 🔧 预训练模型系列\n\n| 系列 | 代表模型 | 链接 |\n|:-----|:---------|:-----|\n| **NLU系列** | BERT · RoBERTa · ALBERT · ERNIE · MacBERT · ELECTRA | [查看全部 29 个](#NLU系列) |\n| **NLG系列** | GPT · GPT-3 · T5 · BART · CPM · RWKV | [查看全部 18 个](#NLG系列) |\n| **NLU-NLG系列** | UniLM · GLM · CPT · SimBERT | [查看全部 9 个](#NLU-NLG系列) |\n| **多模态系列** | WenLan · CogView · Chinese-CLIP · OFA | [查看全部 13 个](#Multi-Modal) |\n\n### 📦 资源与工具\n\n[📊 大模型评估基准](#大模型评估基准) · [🧪 在线体验](#在线体验大模型) · [📦 开源模型库平台](#开源模型库平台) · [📚 开源数据集库](#开源数据集库) · [📝 中文指令数据集](#中文指令数据集) · [🎯 Embedding](#Embedding) · [🔗 Other-Awesome](#other-awesome)\n\n---\n\n**📌 备注说明**\n\n> **ND:** Non-Causal Decoder (非因果解码器) | **CD:** Causal Decoder (因果解码器) | **ED:** Encoder-Decoder (编码器-解码器)\n\n---\n\n## Base-LLM\n\n> 大规模基础模型：表格中只罗列出参数量`大于7B`以上模型。\n\n| 模型 | 大小 | 时间 | 语言 | 架构 | 下载 | 项目 | 机构 | 备注 |\n|:-----|:-----|:-----|:-----|:-----|:-----|:-----|:-----|:-----|\n| XVERSE-MoE | 255B \u002F A36B | 2024-09 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A36B) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A36B) | xverse-ai | - |\n| Qwen-2.5 | 0.5~72B (7档) | 2024-09 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | QwenLM | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |\n| Tele-FLM | 52B \u002F 102B \u002F 1TB | 2024-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCofeAI) | - | CofeAI | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.16645) |\n| meta-llama-3.1 | 8B \u002F 70B \u002F 405B | 2024-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | meta-llama | - |\n| internlm2.5-Base | 7B | 2024-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [GitHub](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | InternLM | [Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297) |\n| MAP-NEO-Base | 2B \u002F 7B | 2024-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fm-a-p\u002Fneo-models-66395a5c9662bb58d5d70f04) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection\u002FMAP-NEO) | multimodal-art-projection | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19327) |\n| Nemotron-4-Base | 340B | 2024-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fnvidia) | - | NVIDIA | [Technical Report](https:\u002F\u002Fresearch.nvidia.com\u002Fpublication\u002F2024-06_nemotron-4-340b) |\n| Index-Base | 1.9B | 2024-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIndexTeam\u002FIndex-1.9B-Chat) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B) | bilibili | [Report](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B\u002Fblob\u002Fmain\u002FIndex-1.9B%20%E6%8A%80%E6%9C%AF%E6%8A%A5%E5%91%8A.pdf) |\n| Qwen2-Base | 0.5B \u002F 2B \u002F 5B \u002F 7B \u002F 72B | 2024-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | QwenLM | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| GLM-4-Base | 9B | 2024-06 | 多语 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | THUDM | - |\n| Yi-1.5-Base | 6B \u002F 9B \u002F 34B | 2024-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-1.5) | 01-ai | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) |\n| DeepSeek-V2-Base | A21B \u002F 236B | 2024-05 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | deepseek-ai | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n| Llama-3-Base | 8B \u002F 70B | 2024-04 | 多语 | CD | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmeta-llama) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | Meta Llama | - |\n| Zhinao-Base | 7B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fqihoo360) · [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fqihoo360\u002F360Zhinao-7B-Base\u002Fsummary) | - | 奇虎科技 | - |\n| XVERSE-MoE | A4.2B \u002F 25.8B | 2024-04 | 中英 | MoE | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A4.2B) | xverse-ai | - |\n| SoftTiger-Base | 13B \u002F 70B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | TigerResearch | - |\n| HammerLLM | 1.4B | 2024-04 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDataHammer) | [GitHub](https:\u002F\u002Fgithub.com\u002FAcademic-Hammer\u002FHammerLLM) | DataHammer | - |\n| Mengzi3-Base | 13B | 2024-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [GitHub](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi3) | Langboat | - |\n| Breeze-Base | 7B | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) | - | MediaTek Research | - |\n| TowerBase | 7B \u002F 13B | 2024-02 | 多语 | CD | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | - | Unbabel | - |\n| Qwen1.5-Base | 0.5~110B (7档) | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5) | Qwen | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen1.5\u002F) |\n| LongAlign-Base | 6B \u002F 7B \u002F 13B | 2024-02 | 中英 | - | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FLongAlign) | THUDM | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.18058) |\n| Chinese-Mixtral-Base | 8x7B | 2024-02 | 中英 | MoE | [Baidu](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nwJ8JkMTUrCkDEccg7C9Pw?pwd=33kb) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-mixtral) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-Mixtral) | Yiming Cui | - |\n| iFlytekSpark-Base | 13B | 2024-01 | 中英 | CD | [MindSpore](https:\u002F\u002Fxihe.mindspore.cn\u002Fmodelzoo\u002Fiflytek\u002Fintroduce) | - | 科大讯飞 | - |\n| Orion-Base | 14B | 2024-01 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI) | [GitHub](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion) | OrionStarAI | [Paper](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion\u002Fblob\u002Fmaster\u002Fdoc\u002FOrion14B_v3.pdf) |\n| YaYi2-Base | 30B | 2023-12 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fwenge-research) | [GitHub](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYAYI2) | wenge-research | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14862) |\n| Aquila2-Base | 7B \u002F 34B \u002F 70B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBAAI) | [GitHub](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FAquila2) | FlagAI | - |\n| Alaya-Base | 7B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDataCanvas) | [GitHub](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | DataCanvas | - |\n| Qwen-Base | 1.8B \u002F 7B \u002F 14B \u002F 72B | 2023-12 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [GitHub](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | 阿里云 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609) |\n| DeepSeek-Base | 7B \u002F 67B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) | deepseek-ai | - |\n| Yuan-2.0 | 2B \u002F 51B \u002F 102B | 2023-11 | 中英 | CD | [GitHub](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan-2.0) · [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FIEITYuan) | [GitHub](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan-2.0) | IEIT-Yuan | - |\n| Yi-Base | 6B \u002F 9B \u002F 34B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi) | 01.AI | - |\n| XVERSE-Base | 7B \u002F 13B \u002F 65B | 2023-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse) | [GitHub](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-13B) | 元象科技 | - |\n| Nanbeige-Base | 16B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNanbeige) | [GitHub](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) | Nanbeige LLM Lab | - |\n| LingoWhale | 8B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeeplang-ai\u002FLingoWhale-8B) | [GitHub](https:\u002F\u002Fgithub.com\u002FDeepLangAI\u002FLingoWhale-8B\u002F) | DeepLang AI | - |\n| Skywork-Base | 13B | 2023-10 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | SkyworkAI | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| BlueLM-Base | 7B | 2023-11 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fvivo-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab\u002FBlueLM) | vivo AI Lab | - |\n| ChatGLM3-Base | 6B | 2023-10 | 中英 | ND | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3) | THUDM | - |\n| Ziya2-Base | 13B | 2023-10 | 中英 | CD | [🤗HF](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FFengshenbang\u002FZiya2-13B-Base\u002Fsummary) | [GitHub](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | IDEA研究院 | - |\n| OpenBA-LM | 15B | 2023-09 | 中英 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOpenBA\u002FOpenBA-LM) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenNLG\u002FOpenBA) | OpenNLG Group | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10706) |\n| TigerBot-Base-70B | 80B | 2023-09 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-70b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | [Paper](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot\u002Fwiki\u002FTigerBot%E2%80%9070B%E5%8F%91%E5%B8%83%EF%BC%81) |\n| FLM | 101B | 2023-09 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCofeAI\u002FFLM-101B) | - | CofeAI | - |\n| Falcon | 7B \u002F 40B \u002F 180B | 2023-09 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002F) | - | Technology Innovation Institute | - |\n| Baichuan2 | 7B \u002F 13B | 2023-09 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2) | 百川智能 | - |\n| Chinese-LLaMA-2-16K | 7B \u002F 13B | 2023-08 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-2-7b-16k) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) | Yiming Cui | - |\n| YuLan-LLaMA-2 | 13B | 2023-08 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fyulan-team\u002FYuLan-LLaMA-2-13b) | [GitHub](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) | 中国人民大学 | - |\n| Aquila-Base-33B | 33B | 2023-08 | 中英 | CD | TODO | [GitHub](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) | FlagAI | - |\n| TigerBot-Base-13B | 13B | 2023-08 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-13b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| Linly-Chinese-LLaMA-2 | 7B \u002F 13B | 2023-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChinese-LLaMA-2-7B-hf) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | - |\n| Chinese-LLaMA-2 | 7B | 2023-07 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-2-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) | Yiming Cui | - |\n| Jiang-Base | 13B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fkdf\u002Fjiang-base) | - | 知未智能 | - |\n| BlueWhaleX | 7B \u002F 13B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBlueWhaleX\u002Fbwx-7B-hf) | - | 蓝鲸国数 | - |\n| Llama-2 | 7B \u002F 13B \u002F 70B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fllamaste\u002FLlama-2-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) | Meta | [Paper](https:\u002F\u002Fscontent-hkg4-1.xx.fbcdn.net\u002Fv\u002Ft39.2365-6\u002F10000000_663429262362723_1696968207443577320_n.pdf) |\n| PolyLM | 13B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT\u002Fpolylm-13b) | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_polylm_13b_text_generation\u002Fsummary) | 达摩院 | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.06018.pdf) |\n|     Baichuan-13B      |        13B        | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-13B-Base) | [Baichuan-13B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-13B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |            |\n| TigerBot | 7B | 2023-07 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-base-v2) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| InternLM-Base | 7B \u002F 20B | 2023-07 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | 上海人工智能实验室 | [Report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n| MPT | 7B \u002F 30B | 2023-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmosaicml\u002Fmpt-7b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmosaicml\u002Fllm-foundry) | MosaicML | - |\n|       Baichuan        |        7B         | 2023-06 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B) | [baichuan-7B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002Fbaichuan-7B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |            |\n| Chinese-Falcon | 7B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChinese-Falcon-7B) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F636994073) |\n| AtomGPT | 13B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAtomEchoAI\u002FAtomGPT-index) | - | 原子回声 | - |\n|        Aquila         |        7B         | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100098)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |            |\n| Chinese-LLaMA | 33B | 2023-06 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-lora-33b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) | Yiming Cui | - |\n| TigerBot | 7B | 2023-06 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) | 虎博科技 | - |\n| Panda-OpenLLaMA | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fpanda-7b-open-llama-preview-300pt) | [GitHub](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) | dandelionsllm | - |\n|         Panda         |       7\u002F13B       | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-13b-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |            |\n| OpenLLaMA | 13B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FOpenLLaMA-13B) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | - |\n| BiLLa-LLM | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-LLM) | [GitHub](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) | Zhongli Li | - |\n| Ziya-LLaMA-Reward | 7B | 2023-05 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-7B-Reward) | [GitHub](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | IDEA研究院 | - |\n|         YuYan         |        11B        | 2023-04 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFUXI\u002Fyuyan-11b)      |                              \u002F                               |           [网易伏羲](https:\u002F\u002Fhuggingface.co\u002FFUXI)            |  CD  |   [Paper](https:\u002F\u002Faclanthology.org\u002F2022.naacl-industry.8\u002F)   |            |\n| Chinese-LLaMA | 7B \u002F 13B \u002F 33B | 2023-04 | 中文 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FP01son\u002FLinly-Chinese-LLaMA-33b-hf) | [GitHub](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) | 深圳大学计算机视觉研究所 | [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F616748134) |\n| OpenChineseLLaMA | 7B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenlmlab\u002Fopen-chinese-llama-7b-patch) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FOpenChineseLLaMA) | OpenLMLab | - |\n| MOSS-003 | 16B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-base) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) | 复旦大学 | - |\n| BBT-2-Text | 13B \u002F 12B | 2023-04 | 中文 | CD | [申请](https:\u002F\u002Fbbt.ssymmetry.com\u002Fmodel.html) | [GitHub](https:\u002F\u002Fgithub.com\u002Fssymmetry\u002FBBT-FinCUGE-Applications) | 超对称 | [Paper](https:\u002F\u002Fbbt.ssymmetry.com\u002Fthesis.html) |\n| Chinese-LLaMA | 13B | 2023-04 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-llama-lora-13b) | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) | Yiming Cui | - |\n| Flan-UL2 | 20B | 2023-03 | 多语 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fflan-ul2\u002Ftree\u002Fmain) | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Ftree\u002Fmaster\u002Ful2) | Google | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2205.05131v3.pdf) |\n| CPM-Bee | 10B | 2023-01 | 中英 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002Fcpm-bee-10b) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Bee) | OpenBMB | - |\n| BLOOM | 176B | 2022-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigscience-workshop\u002FMegatron-DeepSpeed) | BigScience | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2211.05100.pdf) |\n| BLOOMZ | 176B | 2022-11 | 多语 | CD | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloomz) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbigscience-workshop\u002FMegatron-DeepSpeed) | BigScience | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01) |\n| Flan-T5-XXL | 11B | 2022-11 | 多语 | ED | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fflan-t5-xxl) | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Ft5x) | Google | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2210.11416.pdf) |\n| CPM-Ant+ | 10B | 2022-10 | 中英 | CD | [BMB](http:\u002F\u002Fopenbmb.oss-cn-hongkong.aliyuncs.com\u002Fmodel_center\u002Fcpm-ant-plus-10b\u002Fcpm-ant-plus-10b.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Live) | OpenBMB | [Blog](https:\u002F\u002Fwww.openbmb.org\u002Fcommunity\u002Fblogs\u002Fblogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92) |\n| GLM-130B | 130B | 2022-10 | 中英 | ND | [申请](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSehr5Dh_i3TwACmFFi8QEgIVNYGmSPwV0GueIcsUev0NEfUug\u002Fviewform) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-130B) | 清华大学 | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414) |\n| CPM-Ant | 10B | 2022-09 | 中文 | CD | [🤗HF](https:\u002F\u002Fopenbmb.oss-cn-hongkong.aliyuncs.com\u002Fmodel_center\u002Fcpmlive-10b\u002Fcpm_live_10B.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FCPM-Live) | OpenBMB | [Blog](https:\u002F\u002Fwww.openbmb.org\u002Fcommunity\u002Fblogs\u002Fblogpage?id=98afef2ce45f4fe9a4bc15a66d7ccb92) |\n| GLM | 10B | 2022-09 | 中文 | ND | [🤗HF](https:\u002F\u002Flfs.aminer.cn\u002Fmisc\u002Fcogview\u002Fglm-10b-chinese.zip) | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM) | 清华大学 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.10360) |\n| Yuan-1.0 | 245B | 2021-09 | 中文 | CD | [API](https:\u002F\u002Fair.inspur.com\u002Fhome) | [GitHub](https:\u002F\u002Fgithub.com\u002FShawn-Inspur\u002FYuan-1.0) | 浪潮 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.04725) |\n| CPM-2 | 10B \u002F 11B \u002F 200B | 2021-06 | 中文 | ED | [申请](https:\u002F\u002Fresource.wudao.baai.ac.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [GitHub](https:\u002F\u002Fgithub.com\u002FTsinghuaAI\u002FCPM) | 智源研究院 | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10715) |\n| PanGu-Alpha | 13B \u002F 200B | 2021-05 | 中文 | CD | [🤗HF](https:\u002F\u002Fopeni.pcl.ac.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | [OpenI](https:\u002F\u002Fopeni.pcl.ac.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 鹏城实验室 | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.12369.pdf) |\n| PLUG | 27B | 2021-04 | 中文 | ED | [申请](https:\u002F\u002Fwww.alice-mind.com\u002Fportal#\u002F) | [GitHub](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind) | 阿里巴巴 | - |\n| GPT-3 | 13B \u002F 30B | 2021-04 | 中文 | CD | TODO | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_gpt3_text-generation_13B\u002Fsummary) | 达摩院 | - |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n## 领域专用大模型\n\n> 各个垂直领域开源基础模型\n\n|       模型        | 大小  | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                          机构\u002F个人                           | 架构 |                             文献                             | 备注 |\n| :---------------: | :---: | ------- | :--: | ---- | :---------------------------------------: | :---------------------: | :------------------------------: | :--: | :--------------------: | ---- |\n| 通义千问2.5 |        1.5\u002F7B         | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| 通义千问2.5 |       1.5\u002F7\u002F72B       | 2024-09 | 中英 | 数学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-math-66eaa240a1b7d5ee65f1da3e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| 通义金融基础 |  14B  | 2023-11 | 中文 | 金融 | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary) | [通义金融-14B](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B\u002Fsummary) | [通义金融大模型](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTongyiFinance) |  CD  |      |      |\n| ChiMed-GPT | 13B | 2023-10 | 中文 | 医疗 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSYNLP\u002FChiMed-GPT-1.0) | [ChiMed-GPT](https:\u002F\u002Fgithub.com\u002Fsynlp\u002FChiMed-GPT) | [中国科学技术大学](https:\u002F\u002Fgithub.com\u002Fsynlp) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.06025) |  |\n| CodeShell-base |  7B  | 2023-10 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWisdomShell\u002FCodeShell) | [codeshell](https:\u002F\u002Fgithub.com\u002FWisdomShell\u002Fcodeshell) | [WisdomShell](https:\u002F\u002Fgithub.com\u002FWisdomShell) |  CD  |      |      |\n| WiNGPT-base |  7B  | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwinninghealth\u002FWiNGPT2-7B-Base) | [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2) | [Winning Health AI Research](https:\u002F\u002Fgithub.com\u002Fwinninghealth) |  CD  |      |      |\n| 玄元 | 70B  | 2023-09 | 中文 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDuxiaoman-DI\u002FXuanYuan-70B) | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)  | [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan\u002Fblob\u002Fmain\u002Fxuanyuan_70b_report.md) |      |\n| CodeLLaMA | 7\u002F13\u002F\u003Cbr\u002F>34B | 2023-08 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodellama) | [codellama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fcodellama) | [Meta Research](https:\u002F\u002Fgithub.com\u002Ffacebookresearch) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12950) |      |\n| educhat-base-002  | 7\u002F13B | 2023-06 | 中英 | 教育 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbutyuhao\u002Feduchat-base-002-13b) | [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat) |         [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)         |  CD  |                                                              |      |\n|   AquilaCode-NV   |  7B   | 2023-06 | 中英 | 代码 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100099)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |          [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |      |\n|   AquilaCode-TS   |  7B   | 2023-06 | 中英 | 代码 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100099)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |          [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |      |\n|      LaWGPT       |  7B   | 2023-05 | 中英 | 法律 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fentity303\u002Flegal-lora-7b)    | [LawGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT) |      [Pengxiao Song](https:\u002F\u002Fgithub.com\u002Fpengxiao-song)       |  CD  |                                                              |      |\n|     CodeGeeX      |  13B  | 2022-06 | 多语 | 代码 | [申请](https:\u002F\u002Fmodels.aminer.cn\u002Fcodegeex\u002Fdownload\u002Frequest) |        [CodeGeeX](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX)         |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  CD  |       [blog](https:\u002F\u002Fmodels.aminer.cn\u002Fcodegeex\u002Fblog\u002F)        |      |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## 对话型大模型\n\n> 具备问答和对话等功能的大型语言模型。\n>\n\n|           模型           |    大小     | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                          机构\u002F个人                           | 架构 |                             文献                             |\n| :----------------------: | :---------: | ------- | :--: | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :--: | :----------------------------------------------------------: |\n|       GLM-4.6        | A32\u002F355B | 2025-10 | 中英 |   通用   | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) | [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5) |     [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)     | MoE  | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.6) |\n|     **Ling-1T**      |    1T    | 2025-10 | 多语 |   通用   | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FinclusionAI\u002FLing-1T) |                       \u002F                       | [inclusionAI](https:\u002F\u002Fgithub.com\u002FinclusionAI) |  CD  |  \n| **Qwen3-Next** | A3\u002F80B | 2025-09 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Next-80B-A3B-Instruct) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE  | [Qwen3-Next](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) |\n|   Kimi-k2   | A32B\u002F1T | 2025-08 | 中英 | 通用 |   [HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-K2-Instruct)   |   [Kimi-K2](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-K2)   | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) | MoE  | **[Paper](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-K2\u002Fblob\u002Fmain\u002Ftech_report.pdf)** |\n| ERNIE-4.5 | A47\u002F300B  A3\u002F21B | 2025-07 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-SWE-32B) |    \u002F     | [BaiDu](https:\u002F\u002Fhuggingface.co\u002Fbaidu) | MoE  | [Technical Report](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2506.19290) |\n| Qwen-3 | 4\u002F14\u002F30\u002F235B | 2025-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen3-67dd247413f0e2e4f653967f) |  [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3)  |     [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)     | CD\u002FMoE |         [blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen3\u002F)         |\n|  MiMo  |      7B      | 2025-05 | 中英 | 通用 |           [🤗HF](https:\u002F\u002Fhuggingface.co\u002FXiaomiMiMo)           | [MiMo](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo\u002FMiMo) | [XiaomiMiMo](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo) |   CD   | [Paper](https:\u002F\u002Fgithub.com\u002FXiaomiMiMo\u002FMiMo\u002Fblob\u002Fmain\u002FMiMo-7B-Technical-Report.pdf) |\n| GLM-4-0414 | 9\u002F32B | 2025-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FTHUDM\u002Fglm-4-0414-67f3cbcb34dd9d252707cb2e) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |      |      |\n| **Moonlight** | A3\u002F16B | 2025-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FMoonlight-16B-A3B) | [Moonlight](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FMoonlight) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  MoE  | [**Tech Report**](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FMoonlight\u002Fblob\u002Fmaster\u002FMoonlight.pdf) |\n|   phi-4   | 14B  | 2025--01 | 多语 | 通用 |        [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fphi-4)         |                        \u002F                         | [Microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft) |  CD  | [Phi-4 Technical Report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.08905) |\n| InternLM3 |  8B  | 2025--01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Finternlm\u002Finternlm3-67875827c377690c01a9131d) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |    [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM)    |  CD  |    [Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297)    |\n| deepseek-v3 | 671B | 2024-12 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3) | [DeepSeek-V3](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE  | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3\u002Fblob\u002Fmain\u002FDeepSeek_V3.pdf) |\n| Megrez-3B-Instruct |  3B  | 2024-12 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FInfinigence\u002FMegrez-3B-Instruct) | [Infini-Megrez](https:\u002F\u002Fgithub.com\u002Finfinigence\u002FInfini-Megrez) | [infinigence](https:\u002F\u002Fgithub.com\u002Finfinigence) |  CD  |      |\n| Athene-V2-Chat  | 72B  | 2024-11 | 中英 |   通用   | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNexusflow\u002FAthene-V2-Chat)  |    \u002F     | [Nexusflow](https:\u002F\u002Fhuggingface.co\u002FNexusflow) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2) |\n| Athene-V2-Agent | 72B  | 2024-11 | 中英 | 工具调用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNexusflow\u002FAthene-V2-Agent) |    \u002F     | [Nexusflow](https:\u002F\u002Fhuggingface.co\u002FNexusflow) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2) |\n| Hunyuan-Large | A52\u002F389B | 2024-11 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FTencent-Hunyuan-Large) | [Tencent-Hunyuan-Large](https:\u002F\u002Fgithub.com\u002FTencent\u002FTencent-Hunyuan-Large) | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.02265) |\n| Aya-Expanse | 8\u002F32B | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCohereForAI\u002Fc4ai-aya-expanse-671a83d6b2c07c692beab3c3) |    \u002F     | [Cohere For AI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |  CD  |      |\n|   Granite 3.0   |  1\u002F2\u002F3\u002F8B   | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fibm-granite\u002Fgranite-30-models-66fdb59bbb54785c3512114f) | [granite-3.0-language-models](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models) | [ibm-granite](https:\u002F\u002Fgithub.com\u002Fibm-granite) |  CD  | [Paper](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models\u002Fblob\u002Fmain\u002Fpaper.pdf) |\n| Granite 3.0-MoE | 1B\u002F3B\u002FA400M | 2024-10 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fibm-granite\u002Fgranite-30-models-66fdb59bbb54785c3512114f) | [granite-3.0-language-models](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models) | [ibm-granite](https:\u002F\u002Fgithub.com\u002Fibm-granite) | MoE  | [Paper](https:\u002F\u002Fgithub.com\u002Fibm-granite\u002Fgranite-3.0-language-models\u002Fblob\u002Fmain\u002Fpaper.pdf) |\n| TeleChat2 | 115B | 2024-09 | 中英 | 通用 | 🤖 [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTeleAI) | [TeleChat2](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTeleChat2) | [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI) |  CD  |      |\n| Qwen-2.5 | 0.5\u002F1.5\u002F3\u002F7\u002F14\u002F32\u002F72B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-66e81a666513e518adb90d9e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |\n| XVERSE-MoE | 255B\u002FA36B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A36B) | [XVERSE-MoE-A36B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A36B) | [xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai) | MoE  |      |\n| DeepSeek-V2.5 | 236B\u002FA21B | 2024-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat-0628) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MOE  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.04434)           |\n|   MiniCPM3    |    4B     | 2024-09 | 中英 | 通用 |      [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM3-4B)       |       [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM)       |     [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)     |  CD  |      [MiniCPM Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.06395)       |\n| C4AI Command R+ 08-2024 | 104B | 2024-08 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | \u002F | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | CD | |\n| JIUTIAN-Chat | 39\u002FA13B | 2024-07 | 中英 | 通用 | [🤖MS](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FJiuTian-AI\u002FJIUTIAN-139MoE-chat) | \u002F | [中国移动JiuTian-AI](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FJiuTian-AI) | MOE  |      |\n| meta-llama-3.1 | 8\u002F70\u002F405B | 2024-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmeta-llama)| [llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3) | [meta-llama](https:\u002F\u002Fgithub.com\u002Fmeta-llama) |  CD  |      |\n| internlm2.5-chat |  7B  | 2024-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM)[](https:\u002F\u002Fcamo.githubusercontent.com\u002Ff330929a514fa88e296d3f4aa78863614ccc13d6d1903e4d7b23fd85b69cddba\u002F68747470733a2f2f696d672e736869656c64732e696f2f6769746875622f73746172732f496e7465726e4c4d2f496e7465726e4c4d2e7376673f7374796c653d736f6369616c266c6162656c3d53746172) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM) |  CD  | [📜Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.17297) |\n| Mistral-large-insruct-2407 | 123B  | 2024-07 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FMistral-Large-Instruct-2407) |                             \u002F                             |  [Mistral AI](https:\u002F\u002Fhuggingface.co\u002Fmistralai)   |      |   [blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmistral-large-2407\u002F)   |\n|   DeepSeek-V2-Chat-0628    | 236B  | 2024-07 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat-0628) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) |   [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai)   | MOE  | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n|    C4ai-command-r-plus     | 104B  | 2024-07 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI\u002Fc4ai-command-r-plus) |                             \u002F                             | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |  CD  |                                                              |\n|        Gemma-2-chat        | 9\u002F27B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fgoogle\u002Fgemma-2-release-667d6600fd5220e7b967f315) |                             \u002F                             |      [Google](https:\u002F\u002Fhuggingface.co\u002Fgoogle)      |  CD  |                                                              |\n| MAP-NEO-Chat | 2\u002F7B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fm-a-p\u002Fneo-models-66395a5c9662bb58d5d70f04) | [MAP-NEO](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection\u002FMAP-NEO) | [multimodal-art-projection](https:\u002F\u002Fgithub.com\u002Fmultimodal-art-projection) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.19327) |\n| GEB-Chat | 1.3B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FGEB-AGI\u002Fgeb-1.3b) |    \u002F     | [GEB-AGI](https:\u002F\u002Fhuggingface.co\u002FGEB-AGI) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.09900) |\n| Nemotron-4-Chat | 340B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fnvidia) |    \u002F     | [NVIDIA](https:\u002F\u002Fgithub.com\u002FNVIDIA) |  CD  | [technical report](https:\u002F\u002Fresearch.nvidia.com\u002Fpublication\u002F2024-06_nemotron-4-340b). |\n| Index-Chat | 1.9B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIndexTeam\u002FIndex-1.9B-Chat) | [Index-1.9B](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B) | [bilibili](https:\u002F\u002Fgithub.com\u002Fbilibili) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002Fbilibili\u002FIndex-1.9B\u002Fblob\u002Fmain\u002FIndex-1.9B%20%E6%8A%80%E6%9C%AF%E6%8A%A5%E5%91%8A.pdf) |\n| Qwen2-MoE  |   57B\u002FA14B    | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen2](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| Qwen2-Chat | 0.5\u002F2\u002F5\u002F7\u002F72B | 2024-06 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen2](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002F) |\n| GLM-4-Chat  |      9B      | 2024-06 | 多语 | 通用 |          [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM)           |         [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4)         |     [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)      |  \u002F   |   |\n| Skywork-MoE | 16\u002FA22B\u002F146B | 2024-06 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-MoE-Base) | [Skywork-MoE](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-MoE) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)  | MoE  | [Tech Report](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-MoE\u002Fblob\u002Fmain\u002Fskywork-moe-tech-report.pdf) |\n| Yuan2.0 | 40\u002FA3.7B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FIEITYuan\u002FYuan2-M32-hf) | [Yuan2.0-M32](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan\u002FYuan2.0-M32) | [IEIT-Yuan](https:\u002F\u002Fgithub.com\u002FIEIT-Yuan) | MOE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.17976) |\n| 星辰-Chat |  52B  | 2024-05 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FTele-AI\u002FTeleChat-52B)     | [TeleChat-52B](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTeleChat-52B) |    [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI)    |  CD  |                                               |\n| LingLong  | 317M  | 2024-05 | 中英 | 通用 |  [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FAlumiK\u002FLingLong-317M-Chat)  |   [linglong](https:\u002F\u002Fgithub.com\u002Fnkcs-iclab\u002Flinglong)    | [nkcs-iclab](https:\u002F\u002Fgithub.com\u002Fnkcs-iclab) |  CD  |                                               |\n|  Sailor   |  14B  | 2024-05 | 7语  | 通用 |    [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fsail\u002FSailor-14B-Chat)     |   [sailor-llm](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002Fsailor-llm)   |    [sail-sg](https:\u002F\u002Fgithub.com\u002Fsail-sg)    |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.03608.pdf) |\n| Nanbeige2 | 8\u002F16B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FNanbeige\u002FNanbeige2-16B-Chat) |    [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige)     |   [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige)   |  CD  |                                               |\n| Yi-1.5-Chat | 6\u002F9\u002F34B | 2024-05 | 中英  | 通用  | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi-1.5](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-1.5) | [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai) | CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) |\n| DeepSeek-V2-Chat | A21B\u002F236B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V2-Chat) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MOE | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n| XVERSE-MoE | A4.2B\u002F25.8B | 2024-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fxverse\u002FXVERSE-MoE-A4.2B) | [XVERSE-MoE-A4.2B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-MoE-A4.2B) |[xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai)|MOE||\n| Llama3-zh | 8\u002F70B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fxianbao\u002Fllama3-zh-662ba8503bdfe51948a28403) | \u002F |\u002F|CD|llama3中文列表|\n| Llama3-Chinese-Chat | 8B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fshenzhi-wang\u002FLlama3-8B-Chinese-Chat) | \u002F |[Shenzhi Wang](https:\u002F\u002Fhuggingface.co\u002Fshenzhi-wang)|CD||\n| Llama-3-Chat | 8\u002F70B | 2024-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmeta-llama) | **[llama3](https:\u002F\u002Fgithub.com\u002Fmeta-llama\u002Fllama3)** |[Meta Llama](https:\u002F\u002Fgithub.com\u002Fmeta-llama)|CD||\n| Zhinao-Chat | 7B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fqihoo360) [ 🤖](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fqihoo360\u002F360Zhinao-7B-Base\u002Fsummary) | \u002F |[奇虎科技](https:\u002F\u002Fhuggingface.co\u002Fqihoo360)|CD||\n| MiniCPM-MoE | 8x2B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-MoE-8x2B) | [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM) |[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)|MoE||\n| Nanbeige2-Chat | 8B | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNanbeige\u002FNanbeige2-8B-Chat) | [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) |[Nanbeige LLM Lab](https:\u002F\u002Fgithub.com\u002FNanbeige)|CD||\n| Sailor | 7B | 2024-04 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fsail\u002FSailor-4B-Chat) | [sailor-llm](https:\u002F\u002Fgithub.com\u002Fsail-sg\u002Fsailor-llm) |[Sea AI Lab](https:\u002F\u002Fgithub.com\u002Fsail-sg)|CD|[Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2404.03608.pdf)|\n| Mengzi3-Chat | 13B  | 2024-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [Mengzi3](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi3)  | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) |  CD  |  |\n| Qwen-MoE | 2.7B | 2024-03 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen1.5-MoE-A2.7B-Chat) | [Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5)  | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen-moe\u002F) |\n| Command-R | 35B | 2024-03 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | \u002F | [CohereForAI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) | CD | |\n| Breeze-Instruct | 7B | 2024-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) | \u002F | [MediaTek Research](https:\u002F\u002Fhuggingface.co\u002FMediaTek-Research) |  |  |\n| aya-101 | 13B | 2024-02 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101) | \u002F | [Cohere For AI](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101\u002Fblob\u002Fmain\u002F(https:\u002F\u002Fcohere.for.ai)) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.07827) |\n| ChemLLM | 7B | 2024-02 | 多语 | 通用 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FCohereForAI\u002Faya-101) | \u002F | [AI4Chem](https:\u002F\u002Fhf-mirror.com\u002FAI4Chem) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.06852) |\n| TowerInstruct | 7\u002F13B | 2024-02 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | \u002F | [Unbabel](https:\u002F\u002Fhf-mirror.com\u002FUnbabel) | CD |  |\n| Qwen1.5-Chat | 0.5\u002F1.8\u002F4\u002F\u003Cbr\u002F>7\u002F14\u002F32\u002F72\u002F110B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | \u002F | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqwen1.5\u002F) |\n| MiniCPM | 2B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb) [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FOpenBMB) | [MiniCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM) | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) | \u002F | [Report](https:\u002F\u002Fshengdinghu.notion.site\u002FMiniCPM-c805a17c5c8046398914e47f0542095a) |\n| **LongAlign-Chat** | 6\u002F7\u002F13B | 2024-02 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FTHUDM) | [LongAlign](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FLongAlign) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | \u002F | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.18058) |\n| Chinese-Mixtral-Chat | 8x7B | 2024-02 | 中英 | 通用 | [[Baidu\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nwJ8JkMTUrCkDEccg7C9Pw?pwd=33kb) [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-mixtral) | [Chinese-Mixtral](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-Mixtral) | [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui) | MOE |  |\n| iFlytekSpark-Chat | 13B | 2024-01 | 中英 | 通用 | [mindspore](https:\u002F\u002Fxihe.mindspore.cn\u002Fmodelzoo\u002Fiflytek\u002Fintroduce) | \u002F | [科大讯飞]() | CD |  |\n| rwkv-5-world | 0.1\u002F1\u002F\u003Cbr\u002F>3\u002F7B | 2023-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL) | [RWKV-LM](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM) | [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL) |  | [URL](https:\u002F\u002Fwiki.rwkv.com\u002F) |\n| Orion-Chat | 14B | 2024-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI) | [Orion](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion) | [OrionStarAI](https:\u002F\u002Fgithub.com\u002FOrionStarAI) | CD | [Paper](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrion\u002Fblob\u002Fmaster\u002Fdoc\u002FOrion14B_v3.pdf) |\n| internlm2-chat | 7\u002F20B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM) | CD | [Report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM\u002Fissues\u002Fnew) |\n| Chinese-Mixtral | 8x7B | 2023-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002FChinese-Mixtral-8x7B) | \u002F | [HIT-SCIR](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR) | CD-MOE |  |\n| Telechat | 7\u002F12B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FTele-AI) | [Telechat](https:\u002F\u002Fgithub.com\u002FTele-AI\u002FTelechat)x  | [Tele-AI](https:\u002F\u002Fgithub.com\u002FTele-AI) | CD | [Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.03804) |\n| kagentlms | 7\u002F13B | 2024-01 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fkwaikeg) | [KwaiAgents](https:\u002F\u002Fgithub.com\u002FKwaiKEG\u002FKwaiAgents) | [KwaiKEG](https:\u002F\u002Fgithub.com\u002FKwaiKEG) |  |  |\n|  YaYi2-Chat  |   30B    | 2023-12 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research) | [YAYI2](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYAYI2) | [wenge-research](https:\u002F\u002Fgithub.com\u002Fwenge-research) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14862) |\n| SUS-Chat | 34\u002F72B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSUSTech) | [SUS-Chat](https:\u002F\u002Fgithub.com\u002FSUSTech-IDEA\u002FSUS-Chat) | [SUSTech-IDEA](https:\u002F\u002Fgithub.com\u002FSUSTech-IDEA) | CD |  |\n| Aquila2-Chat | 7\u002F34\u002F70B | 2023-12 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI)   | [Aquila2](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FAquila2)  |    [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)     |  CD  |  |\n| Alaya-Chat | 7B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataCanvas) | [Alaya](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | [DataCanvas](https:\u002F\u002Fgithub.com\u002FDataCanvasIO) | CD |  |\n| Qwen-Chat | 1.8\u002F7\u002F\u003Cbr\u002F>14\u002F72B | 2023-12 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen)  | [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.16609) [Report](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B\u002Fblob\u002Fmain\u002Ftech_memo.md) [Report2](https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQWEN_TECHNICAL_REPORT.pdf) |\n| DeepSeek-Chat | 7\u002F67B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-LLM](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-LLM) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | CD |  |\n| Yi-Chat | 6\u002F34B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi)  | [01.AI](https:\u002F\u002Fgithub.com\u002F01-ai) | CD |  |\n| Alaya-Chat | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataCanvas\u002FAlaya-7B-Chat) | [Alaya](https:\u002F\u002Fgithub.com\u002FDataCanvasIO\u002FAlaya) | [DataCanvasIO](https:\u002F\u002Fgithub.com\u002FDataCanvasIO) | CD |  |\n| OrionStar-Yi-Chat | 34B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOrionStarAI\u002FOrionStar-Yi-34B-Chat) | [OrionStar-Yi-34B-Chat](https:\u002F\u002Fgithub.com\u002FOrionStarAI\u002FOrionStar-Yi-34B-Chat) | [OrionStarAI](https:\u002F\u002Fgithub.com\u002FOrionStarAI) | CD |  |\n| Nanbeige-Chat | 16B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FNanbeige) | [Nanbeige](https:\u002F\u002Fgithub.com\u002FNanbeige\u002FNanbeige) | [Nanbeige LLM Lab](https:\u002F\u002Fgithub.com\u002FNanbeige) | CD |  |\n| OpenChat 3.5 | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenchat\u002Fopenchat_3.5) | [openchat](https:\u002F\u002Fgithub.com\u002Fimoneoi\u002Fopenchat) | [OpenChat](https:\u002F\u002Fgithub.com\u002Fimoneoi) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.11235.pdf) |\n|          XVERSE-Chat    |     7\u002F13B     | 2023-11 | 多语 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fxverse)       | [XVERSE](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-13B) |           [元象科技](https:\u002F\u002Fgithub.com\u002Fxverse-ai)           |  CD  |                                                              |\n| AndesGPT | 7B | 2023-11 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOPPOResearchInstitute\u002FAndesGPT-7B) | [AndesGPT-7B](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab\u002FAndesGPT-7B) | [OPPO-Mente-Lab](https:\u002F\u002Fgithub.com\u002FOPPO-Mente-Lab) | CD |  |\n| SeaLLM-Chat | 13B  | 2023-11 | 多语 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSeaLLMs\u002FSeaLLM-Chat-13b)    |        [SeaLLMs](https:\u002F\u002Fgithub.com\u002FSeaLLMs\u002FSeaLLMs)         |        [SeaLLMs](https:\u002F\u002Fgithub.com\u002FSeaLLMs)        |  CD  |  |\n| BlueLM | 7B | 2023-11 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvivo-ai) | [BlueLM](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab\u002FBlueLM) | [vivo AI Lab](https:\u002F\u002Fgithub.com\u002Fvivo-ai-lab) | CD |  |\n| Skywork-chat | 13B  | 2023-10 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) |   [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)   |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| Zephyr | 7B | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceH4\u002Fzephyr-7b-beta) | [alignment-handbook](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Falignment-handbook) | [Hugging Face H4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceH4) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16944) |\n| Mistral | 7B | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | [mistral-src](https:\u002F\u002Fgithub.com\u002Fmistralai\u002Fmistral-src) | [Mistral AI](https:\u002F\u002Fgithub.com\u002Fmistralai) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06825) |\n| chatglm3 | 6B | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM) | [ChatGLM3](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM3) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | ND |  |\n| Zhiyin-chat | 7B | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHCCL-NLP\u002FZhiyin-7B-Chat) | [Zhiyin](https:\u002F\u002Fgithub.com\u002FHCCL-NLP\u002FZhiyin) | [中科院声学所](https:\u002F\u002Fgithub.com\u002FHCCL-NLP) | CD |  |\n|        Ziya2-Chat        |     13B     | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FFengshenbang\u002FZiya2-13B-Chat\u002Fsummary) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          |  CD  |                                                              |\n|         Vulture          |   40\u002F180B   | 2023-10 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvilm\u002Fvulture-40b) |                              \u002F                               |            [VILM-AI](https:\u002F\u002Fhuggingface.co\u002Fvilm)            |      |                           [TODO]()                           |\n|         Vulture          | 3\u002F7\u002F\u003Cbr\u002F>40\u002F180B | 2023-09 | 多语 | 通用 |             [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fvilm)              |                              \u002F                               |                [VILM](https:\u002F\u002Fwww.vilm.org\u002F)                 |  CD  |                                                              |\n|     Colossal-LLaMA-2     |     7B      | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhpcai-tech\u002FColossal-LLaMA-2-7b-base) | [ColossalAI](https:\u002F\u002Fgithub.com\u002Fhpcaitech\u002FColossalAI) |         [HPC-AI Tech](https:\u002F\u002Fgithub.com\u002Fhpcaitech)          |  CD  | [Blog](https:\u002F\u002Fwww.hpc-ai.tech\u002Fblog\u002Fone-half-day-of-training-using-a-few-hundred-dollars-yields-similar-results-to-mainstream-large-models-open-source-and-commercial-free-domain-specific-llm-solution) |\n|       OpenBA-chat        |     15B     | 2023-09 | 中英 | 通用 |                           [TODO]()                           | [OpenBA](https:\u002F\u002Fgithub.com\u002FOpenNLG\u002FOpenBA) |         [OpenNLG Group](https:\u002F\u002Fgithub.com\u002FOpenNLG)          |  ED  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.10706)           |\n|       WeMix-LLaMA2       |    7\u002F70B    | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FWeMix-LLaMA2-7B) | [WeMix-LLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FWeMix-LLM) |         [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM)          |  CD  |                                                              |\n|      Stable Beluga       |  7\u002F13\u002F70B   | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fstabilityai\u002FStableBeluga-7B) |                              \u002F                               |       [Stability AI](https:\u002F\u002Fgithub.com\u002FStability-AI)        |  CD  |                                                              |\n|      TigerBot-chat       |     70B     | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-70b-chat) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)  |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  | [Paper](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot\u002Fwiki\u002FTigerBot%E2%80%9070B%E5%8F%91%E5%B8%83%EF%BC%81) |\n|     Openbuddy_llama      |     70B     | 2023-09 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenBuddy\u002Fopenbuddy-llama2-70b-v10.1-bf16) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|     falcon-180B-chat     |    180B     | 2023-09 | 多语 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002Ffalcon-180B-chat)    |                              \u002F                               | [Technology Innovation Institute](https:\u002F\u002Fgithub.com\u002Ftiiuae) |  CD  |                                                              |\n|        Baichuan2         |    7\u002F13B    | 2023-09 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan2-7B-Chat) | [Baichuan2](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan2) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |\n|   Chinese-Alpaca-2-16K   |    7\u002F13B    | 2023-09 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-7b-16k) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|     InternLM-Chat-8k     |     7B      | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b-8k)  | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|    InternLM-Chat-v1.1    |     7B      | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b-v1_1) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|       YuLan-Chat-2       |     13B     | 2023-08 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fyulan-team\u002FYuLan-Chat-2-13b)  | [YuLan-Chat](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) |         [中国人民大学](https:\u002F\u002Fgithub.com\u002FRUC-GSAI)          |  CD  |                                                              |\n|          falcon          |    7\u002F40B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae\u002Ffalcon-7b) |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiiuae)         | [Technology Innovation Institute](https:\u002F\u002Fgithub.com\u002Ftiiuae) |  CD  |                                                              |\n|          Toucan          |     7B      | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002F1drv.ms\u002Ff\u002Fs!Ar5igoMgwOq4gdowvr5NQDHOQp2OxQ?e=dzYSuE) | [Toucan-LLM](https:\u002F\u002Fgithub.com\u002Fkendryte\u002FToucan-LLM) |           [Kendryte](https:\u002F\u002Fgithub.com\u002Fkendryte)            |  CD  |                                                              |\n|          Zhuzhi          |     6B      | 2023-08 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Femotibot-inc\u002FZhuzhi-6B)     | [Zhuzhi-6B](https:\u002F\u002Fgithub.com\u002Femotibot-inc\u002FZhuzhi-6B) |         [竹间智能](https:\u002F\u002Fgithub.com\u002Femotibot-inc)          |  ND  |                                                              |\n|           Atom           |     7B      | 2023-08 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlagAlpha\u002FAtom-7B)       | [Llama2-Chinese](https:\u002F\u002Fgithub.com\u002FFlagAlpha\u002FLlama2-Chinese) |          [FlagAlpha](https:\u002F\u002Fgithub.com\u002FFlagAlpha)           |  CD  |                                                              |\n|        openbuddy         | 3\u002F7\u002F\u003Cbr\u002F>13\u002F40B | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy\u002Fblob\u002Fmain\u002Fmodels.md) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|     Aquila-Chat-33B      |     33B     | 2023-08 | 中英 | 通用 |                           [TODO]()                           | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |\n|     vicuna-V1.5-16K      |    7\u002F13B    | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.5-16k) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|       vicuna-V1.5        |    7\u002F13B    | 2023-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.5) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|     Chinese-Alpaca-2     |     13B     | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-lora-13b) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|      WizardLM-V1.0       |     70B     | 2023-08 | 多语 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-70B-V1.0)   | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |                                                              |\n|    TigerBot-chat-13B     |     13B     | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-13b-chat) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|          huozi           |     7B      | 2023-08 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002Fhuozi-7b-sft) | [huozi](https:\u002F\u002Fgithub.com\u002FHIT-SCIR\u002Fhuozi) |            [哈工大](https:\u002F\u002Fgithub.com\u002FHIT-SCIR)             |  CD  |                                                              |\n|     Chinese-Alpaca-2     |     7B      | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-2-7b) | [Chinese-LLaMA-Alpaca-2](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca-2) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|           AntX           |    7\u002F13B    | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAntX-ai\u002FAntX-7B) |                              \u002F                               |          [AntX.ai](https:\u002F\u002Fhuggingface.co\u002FAntX-ai)           |  CD  |                                                              |\n|          BatGPT          |     15B     | 2023-07 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMLP-lab\u002FBatGPT-15B-sirius)   | [BatGPT](https:\u002F\u002Fgithub.com\u002Fzcli-charlie\u002FBatGPT) |        [上海交通大学](https:\u002F\u002Fhuggingface.co\u002FMLP-lab)        |  ND  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00360)           |\n|      WizardLM-V1.2       |     13B     | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-13B-V1.2) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.12244)           |\n|   llama2-Chinese-chat    |     13B     | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fwww.codewithgpu.com\u002Fm\u002Ffile\u002Fllama2-13b-Chinese-chat) | [llama2-Chinese-chat](https:\u002F\u002Fgithub.com\u002FCrazyBoyM\u002Fllama2-Chinese-chat) |            [Ke Bai](https:\u002F\u002Fgithub.com\u002FCrazyBoyM)            |  CD  |                                                              |\n|        Jiang-chat        |     13B     | 2023-07 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fkdf\u002Fjiang-chat)         |                              \u002F                               |            [知未智能](https:\u002F\u002Fhuggingface.co\u002Fkdf)            |  CD  |                                                              |\n|   Llama2-chinese-chat    |    7\u002F13B    | 2023-07 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlagAlpha\u002FLlama2-Chinese-7b-Chat) | [Llama2-Chinese](https:\u002F\u002Fgithub.com\u002FFlagAlpha\u002FLlama2-Chinese) |          [FlagAlpha](https:\u002F\u002Fgithub.com\u002FFlagAlpha)           |  CD  |                                                              |\n|           LL7M           |     7B      | 2023-07 | 多语 | 通用 |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FJosephusCheung\u002FLL7M)      |                              \u002F                               |    [Joseph Cheung](https:\u002F\u002Fhuggingface.co\u002FJosephusCheung)    |  CD  |                                                              |\n|     Chinese-Llama-2      |     7B      | 2023-07 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FChinese-Llama-2-7b)  | [Chinese-Llama-2-7b](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |        [LinkSoul-AI](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)         |  CD  |                                                              |\n|       Llama2-chat        |  7\u002F13\u002F70B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fllamaste\u002FLlama-2-7b-chat) | [llama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fllama) |         [Meta](https:\u002F\u002Fgithub.com\u002Ffacebookresearch)          |  CD  | [Paper](https:\u002F\u002Fscontent-hkg4-1.xx.fbcdn.net\u002Fv\u002Ft39.2365-6\u002F10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX-br54S&_nc_ht=scontent-hkg4-1.xx&oh=00_AfDzh9f2kFTRk-FIieoySi12fhBjvJP4Bv-ZJTxRtdoXJg&oe=64BBB691) |\n|       PolyLM-chat        |     13B     | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT\u002Fpolylm-multialpaca-13b) | [PolyLM](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002Fnlp_polylm_13b_text_generation\u002Fsummary) |         [达摩院](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-MT)         |  CD  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2307.06018.pdf)         |\n|    Baichuan-13B-chat     |     13B     | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-13B-Chat) | [Baichuan-13B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-13B) |         [百川智能](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc)          |  CD  |                                                              |\n|       vicuna-V1.3        |  7\u002F13\u002F33B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flmsys\u002Fvicuna-7b-v1.3) | [FastChat](https:\u002F\u002Fgithub.com\u002Flm-sys\u002FFastChat) |             [lm-sys](https:\u002F\u002Fgithub.com\u002Flm-sys)              |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05685)           |\n|      WizardLM-V1.0       |  7\u002F13\u002F30B   | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardLM-7B-V1.0) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) |           [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan)           |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.12244)           |\n|     TigerBot-v2-sft      |     7B      | 2023-07 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-sft-v2) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|      InternLM-chat       |    7\u002F20B    | 2023-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-chat-7b) | [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM) |      [上海人工智能实验室](https:\u002F\u002Fgithub.com\u002FInternLM)       |  CD  | [report](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-techreport\u002Ftree\u002Fmain) |\n|       vicuna汉化版       |     33B     | 2023-07 | 中文 | 通用 | [baidu-hiks](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1EH19ablXVLYQP1f-IaPS-Q?pwd=hiks) | [chinese-StableVicuna](https:\u002F\u002Fgithub.com\u002Fziwang-com\u002Fchinese-StableVicuna) |         [ziwang-com](https:\u002F\u002Fgithub.com\u002Fziwang-com)          |  CD  |                                                              |\n|         CuteGPT          |     13B     | 2023-07 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FXuYipei\u002Fkw-cutegpt-13b-base)  | [CuteGPT](https:\u002F\u002Fgithub.com\u002FAbbey4799\u002FCuteGPT) |         [复旦大学知识工场](http:\u002F\u002Fkw.fudan.edu.cn\u002F)          |  CD  |                                                              |\n|         MPT-chat         |    7\u002F30B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmosaicml\u002Fmpt-7b-chat) | [llm-foundry](https:\u002F\u002Fgithub.com\u002Fmosaicml\u002Fllm-foundry) |           [MosaicML](https:\u002F\u002Fgithub.com\u002Fmosaicml)            |  CD  |                                                              |\n|         ChatGLM2         |     6B      | 2023-06 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm2-6b)       | [ChatGLM2-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM2-6B) |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  ND  |                                                              |\n|         BayLing          |    7\u002F13B    | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FICTNLP\u002Fbayling-13b-v1.1) | [BayLing](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing) |           [中国科学院](https:\u002F\u002Fgithub.com\u002Fictnlp)            |  CD  |                                                              |\n|        ZhiXi-Diff        |     13B     | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fzjunlp\u002Fzhixi-13b-diff)     | [KnowLLM](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FKnowLM) |            [浙江大学](https:\u002F\u002Fgithub.com\u002Fzjunlp)             |  CD  |                                                              |\n|          Anima           |     33B     | 2023-06 | 中文 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flyogavin\u002FAnima33B)       | [Anima](https:\u002F\u002Fgithub.com\u002Flyogavin\u002FAnima) |           [Gavin Li](https:\u002F\u002Fgithub.com\u002Flyogavin)            |  CD  |                                                              |\n|    OpenLLaMA-Chinese     |   3\u002F7\u002F13B   | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFittenTech\u002Fopenllama-chinese-13b) | [OpenLLaMA-Chinese](https:\u002F\u002Fgithub.com\u002FFittenTech\u002FOpenLLaMA-Chinese) |         [FittenTech](https:\u002F\u002Fgithub.com\u002FFittenTech)          |  CD  |                                                              |\n| openbuddy-falcon-7b-v1.5 |     7B      | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenBuddy\u002Fopenbuddy-falcon-7b-v1.5-fp16) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|       AtomGPT_chat       |     13B     | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAtomEchoAI\u002FAtomGPT_8k_chat) | [AtomGPT](https:\u002F\u002Fgithub.com\u002FAtomEcho\u002FAtomGPT) |           [原子回声](https:\u002F\u002Fgithub.com\u002FAtomEcho)            |  CD  |                                                              |\n|        AquilaChat        |     7B      | 2023-06 | 中英 | 通用 |     [[🤗HF\\]](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodel-detail\u002F100101)     | [Aquila](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAquila) |           [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open)           |  CD  |                                                              |\n|        YuLan-Chat        |   13\u002F65B    | 2023-06 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FRUCAIBox\u002FYuLan-Chat-65b-delta) | [YuLan-Chat](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Chat) |         [中国人民大学](https:\u002F\u002Fgithub.com\u002FRUC-GSAI)          |  CD  |                                                              |\n|      Chinese-Alpaca      |     33B     | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-33b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|       TigerBot-sft       |   7\u002F180B    | 2023-06 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTigerResearch\u002Ftigerbot-7b-sft) | [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot) |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |  CD  |                                                              |\n|         ChatYuan         |     7B      | 2023-06 | 中英 | 通用 |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftiansz\u002FChatYuan-7B-merge)    | [ChatYuan-7B](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan-7B) |             [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai)             |  CD  |                                                              |\n|      Panda-Instruct      |     13B     | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-13b-coig-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |\n|      Panda-Instruct      |     7B      | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fchitanda\u002Fllama-panda-zh-coig-7b-delta) | [pandallm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm\u002Fpandallm) |      [dandelionsllm](https:\u002F\u002Fgithub.com\u002Fdandelionsllm)       |  CD  |                                                              |\n|        BiLLa-SFT         |     7B      | 2023-05 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-SFT)     | [BiLLa](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) |          [Zhongli Li](https:\u002F\u002Fgithub.com\u002FNeutralzz)          |  CD  |                                                              |\n|      Ziya-LLaMA-v1       |     13B     | 2023-05 | 中英 | 通用 |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1)  | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          |  CD  |  [Blog](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FIeXgq8blGoeVbpIlAUCAjA)   |\n|      BLOOMChat V1.0      |    176B     | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fsambanovasystems\u002FBLOOMChat-176B-v1) |     [bloomchat](https:\u002F\u002Fgithub.com\u002Fsambanova\u002Fbloomchat)      |          [SambaNova Systems](https:\u002F\u002Fsambanova.ai\u002F)          |  CD  | [Blog](https:\u002F\u002Fsambanova.ai\u002Fblog\u002Fintroducing-bloomchat-176b-the-multilingual-chat-based-llm\u002F) |\n|          BiLLa           |     7B      | 2023-05 | 中英 | 通用 |          [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa)          | [BiLLa](https:\u002F\u002Fgithub.com\u002FNeutralzz\u002FBiLLa) |          [Zhongli Li](https:\u002F\u002Fgithub.com\u002FNeutralzz)          |  CD  |                                                              |\n|        Bactrian-X        |    7\u002F13B    | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMBZUAI\u002Fbactrian-x-13b-lora) | [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x) |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |  CD  |                                                              |\n|       Bactrian-ZH        |     7B      | 2023-05 | 中文 | 通用 |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhaonan-li)  | [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x) |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |  CD  |                                                              |\n|         ChatFlow         |    7\u002F13B    | 2023-05 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinly-AI\u002FChatFlow-13B) | [Linly](https:\u002F\u002Fgithub.com\u002FCVI-SZU\u002FLinly) |    [深圳大学计算机视觉研究所](https:\u002F\u002Fgithub.com\u002FCVI-SZU)    |  CD  |                                                              |\n|        OpenBuddy         |    7\u002F13B    | 2023-05 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy\u002Fblob\u002Fmain\u002Fmodels.md) | [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy\u002FOpenBuddy) |          [OpenBuddy](https:\u002F\u002Fgithub.com\u002FOpenBuddy)           |  CD  |                                                              |\n|      YuYan-dialogue      |     11B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFUXI\u002Fyuyan-dialogue\u002Ftree\u002Fmain) |                              \u002F                               |           [网易伏羲](https:\u002F\u002Fhuggingface.co\u002FFUXI)            |  CD  |   [paper](https:\u002F\u002Faclanthology.org\u002F2022.naacl-industry.8\u002F)   |\n| Moss-moon-003-sft-plugin |     16B     | 2023-04 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-sft-plugin) | [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |  CD  |                                                              |\n|    moss-moon-003-sft     |     16B     | 2023-04 | 中英 | 通用 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fmoss-moon-003-sft)     | [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS) |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |  CD  |                                                              |\n|       RWKV-4-Raven       |   3\u002F7\u002F14B   | 2023-04 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-raven\u002Ftree\u002Fmain) | [ChatRWKV](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV) |            [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL)             | RNN  |        [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F618011122)        |\n|    Phoenix-inst-chat     |     7B      | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002Fphoenix-inst-chat-7b) | [LLMZoo](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FLLMZoo) |    [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)    |  CD  |                                                              |\n|       Phoenix-chat       |     7B      | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002Fphoenix-chat-7b) | [LLMZoo](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FLLMZoo) |    [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)    |  CD  |                                                              |\n|         ChatPLUG         |    3.7B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fdamo\u002FChatPLUG-3.7B\u002Fsummary) | [ChatPLUG](https:\u002F\u002Fgithub.com\u002FX-PLUG\u002FChatPLUG) |            [阿里巴巴](https:\u002F\u002Fgithub.com\u002FX-PLUG)             |  ED  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.07849.pdf)         |\n|      Chinese-Alpaca      |     13B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-13b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|       BELLE-LLAMA        |     13B     | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBelleGroup\u002FBELLE-LLaMA-EXT-13B) | [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE) |            [贝壳](https:\u002F\u002Fgithub.com\u002FLianjiaTech)            |  CD  |                                                              |\n|       LLaMA-tuned        | 7\u002F13\u002F\u003Cbr\u002F>33\u002F65B | 2023-04 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1x5JLae3akVkfFeDhSe3TEyUbPn_GNFyb\u002Fview?usp=share_link) | [LMFlow](https:\u002F\u002Fgithub.com\u002FOptimalScale\u002FLMFlow) |       [香港科技大学](https:\u002F\u002Fgithub.com\u002FOptimalScale)        |  CD  |                                                              |\n|      Chinese-Vicuna      |    7\u002F13B    | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FChinese-Vicuna\u002FChinese-Vicuna-lora-13b-belle-and-guanaco) | [Chinese-Vicuna](https:\u002F\u002Fgithub.com\u002FFacico\u002FChinese-Vicuna) |             [Facico](https:\u002F\u002Fgithub.com\u002FFacico)              |  CD  |                                                              |\n|       ChatYuan-V2        |    0.7B     | 2023-03 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v2\u002Ftree\u002Fmain) | [ChatYuan](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) |            [元语智能](https:\u002F\u002Fgithub.com\u002Fclue-ai)            |  ED  |                                                              |\n|      Chinese-Alpaca      |     7B      | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fziqingyang\u002Fchinese-alpaca-lora-7b) | [Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca) |            [Yiming Cui](https:\u002F\u002Fgithub.com\u002Fymcui)            |  CD  |                                                              |\n|          Luotuo          |     7B      | 2023-03 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fsilk-road\u002Fluotuo-lora-7b-0.3)  | [Chinese-alpaca-lora](https:\u002F\u002Fgithub.com\u002FLC1332\u002FChinese-alpaca-lora) |                         华中师范大学                         |  CD  |                                                              |\n|       BELLE-LLAMA        |     7B      | 2023-03 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBelleGroup\u002FBELLE-LLaMA-EXT-7B) | [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE) |            [贝壳](https:\u002F\u002Fgithub.com\u002FLianjiaTech)            |  CD  |                                                              |\n|         ChatGLM          |     6B      | 2023-03 | 中英 | 通用 |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm-6b)        | [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B) |             [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)             |  ND  |                                                              |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n## Domain-ChatLLM\n\n> 开源的垂直领域对话大模型\n\n|           模型           |  大小   | 时间    | 语言 |     领域     |                             下载                             |                           项目地址                           |                       机构\u002F个人                        | 架构 |                             文献                             |\n| :----------------------: | :-----: | ------- | :--: | :----------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------: | :--: | :----------------------------------------------------------: |\n| **Qwen3-Coder-Next**  |   \u002F    | 2026-02 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-Next) |                       \u002F                       | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  \u002F  |                                             |\n| **KAT-Dev-72B-Exp**  |   72B    | 2025-10 | 多语 | 软件工程 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FKwaipilot\u002FKAT-Dev-72B-Exp) |                       \u002F                       | [Kwaipilot](https:\u002F\u002Fhuggingface.co\u002FKwaipilot) |  CD  |                                             |\n| KwaiCoder-23B-A4B-v1 |  A4\u002F23B  | 2025-10 | 多语 | 软件工程 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FKwaipilot\u002FKwaiCoder-23B-A4B-v1) |                       \u002F                       | [Kwaipilot](https:\u002F\u002Fhuggingface.co\u002FKwaipilot) |  CD  |                                             |\n| Qwen3-Coder | A3\u002F30B  | 2025-08 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Coder-30B-A3B-Instruct) | [Qwen3-Coder](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Coder) |     [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)     | MoE  |          [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.09388)           |\n| Skywork-SWE | 32B  | 2025-06 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-SWE-32B) |    \u002F     | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) |  CD  | [Technical Report](https:\u002F\u002Fwww.arxiv.org\u002Fpdf\u002F2506.19290) |\n| Kimi-Dev | 72B  | 2025-06 | 中英 | 代码 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-Dev-72B) | [Kimi-Dev](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-Dev) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  CD  |      |\n|   Qwen-coder-2.5   | 0.5\u002F1.5\u002F14\u002F32B | 2024-11 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) |   [Qwen2.5-Coder](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5-Coder)   |        [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)        |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12186) |\n| OpenCoder-Instruct |     1.5\u002F8B     | 2024-11 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Finfly\u002Fopencoder-672cec44bbb86c39910fb55e) | [OpenCoder-llm](https:\u002F\u002Fgithub.com\u002FOpenCoder-llm\u002FOpenCoder-llm) | [OpenCoder-llm](https:\u002F\u002Fgithub.com\u002FOpenCoder-llm) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.04905) |\n| 珠算 | 2.7B | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FHIT-SCIR\u002FAbacus) | [Abacus](https:\u002F\u002Fgithub.com\u002FHIT-SCIR\u002FAbacus) | [HIT-SCIR](https:\u002F\u002Fgithub.com\u002FHIT-SCIR) |  CD  |      |\n| Qwen-2.5-code |        1.5\u002F7B         | 2024-09 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-coder-66eaa22e6f99801bf65b0c2f) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n| Qwen-2.5-math |       1.5\u002F7\u002F72B       | 2024-09 | 中英 | 数学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen25-math-66eaa240a1b7d5ee65f1da3e) | [Qwen2.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwen2.5\u002F) |      |\n|   Yi-Coder    |  1.5\u002F9B   | 2024-09 | 中英 | 代码 | [🤗 Hugging Face](https:\u002F\u002Fhuggingface.co\u002F01-ai\u002FYi-Coder-9B-Chat) • [🤖 ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002F01ai\u002FYi-Coder-9B-Chat) • [🟣 wisemodel](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002F01.AI\u002FYi-Coder-9B-Chat) |       [Yi-Coder](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi-Coder)       |       [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai)       |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.04652) [Blog](https:\u002F\u002F01-ai.github.io\u002Fblog.html?post=en\u002F2024-09-05-A-Small-but-Mighty-LLM-for-Code.md) |\n| CodeGeeX4 |  9B  | 2024-07 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fcodegeex4-all-9b) | **[CodeGeeX4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX4)** | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |      |        |\n| DeepSeek-Coder-V2 | A16B\u002F236B | 2024-06 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-V2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE  | [Paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V2\u002Fblob\u002Fmain\u002Fdeepseek-v2-tech-report.pdf) |\n|  AutoCoder  |   6.7\u002F33B    | 2024-06 |  \u002F   | 代码 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FBin12345\u002FAutoCoder)    |  [AutoCoder](https:\u002F\u002Fgithub.com\u002Fbin123apple\u002FAutoCoder)  | [Bin Lei](https:\u002F\u002Fhuggingface.co\u002FBin12345) |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.14906)           |\n| Codestral | 22B  | 2024-05 |  \u002F   | 代码 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002Fmistralai) |    \u002F     | [mistralai](https:\u002F\u002Fgithub.com\u002Fmistralai) |  \u002F   | [Blog](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fcodestral\u002F) |\n| CodeQwen1.5-Chat | 7B | 2024-04 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhf-mirror.com\u002FQwen\u002FCodeQwen1.5-7B-Chat) | **[Qwen1.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen1.5)** |[Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM)|CD|[Blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fcodeqwen1.5\u002F)|\n| codegemma | 2\u002F7B | 2024-04 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fcodegemma-7b) | \u002F |[Google](https:\u002F\u002Fhuggingface.co\u002Fgoogle)|||\n| WaveCoder | 6.7B | 2024-04 | 多语 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002Fwavecoder-ds-6.7b) | [WaveCoder](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FWaveCoder) |[microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft)||[Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.14187)|\n| ChemDFM | 13B | 2024-03 | 中英 | 化学 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FOpenDFM) | \u002F | [OpenDFM](https:\u002F\u002Fhuggingface.co\u002FOpenDFM) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.14818) |\n| starcoder2 | 3\u002F7\u002F15B | 2024-02 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fbigcode) | [starcoder2](https:\u002F\u002Fgithub.com\u002Fbigcode-project\u002Fstarcoder2) | [bigcode-project](https:\u002F\u002Fgithub.com\u002Fbigcode-project) | CD | [Paper](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F17iGn3c-sYNiLyRSY-A85QOzgzGnGiVI3\u002Fview) |\n| TuringMM-Chat | 34B | 2024-02 | 中英 | 教育 | [🤗HuggingFace](https:\u002F\u002Fhuggingface.co\u002Flightyear-turing\u002FTuringMM-34B-Chat) [🤖ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Flightyearturing\u002FTuringMM-34B-Chat\u002Fsummary) | \u002F | [光年无限](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Flightyearturing\u002FTuringMM-34B-Chat\u002Fsummary) | CD |  |\n| deepseek-moe | 16B | 2024-01 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeekMoE](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-MoE) | [DeepSeek](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | CD-MOE |  |\n| Code Millenials | 1\u002F3\u002F\u003Cbr\u002F>13\u002F34B | 2023-01 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fbudecosystem) | [code-millenials](https:\u002F\u002Fgithub.com\u002FBudEcosystem\u002Fcode-millenials) | [BudEcosystem](https:\u002F\u002Fgithub.com\u002FBudEcosystem) | CD |  |\n| WizardCoder | 15\u002F33B | 2024-01 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FWizardLM) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) | [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.08568) |\n| DeepSeek-Coder | 1\u002F7\u002F33B | 2023-11 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai) | [DeepSeek-Coder](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-Coder) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) |  | [Blog](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FBPW-kMeQNmVPpgvTlbXU1A) |\n| Phind | 34B | 2023-10 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FPhind) | \u002F | [Phind](Phind) | CD | [Blog](https:\u002F\u002Fwww.phind.com\u002Fblog\u002Fphind-model-beats-gpt4-fast) [zh](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FfSVPRjNpWPVrLVA59PrIBA) |\n| Tongyi-Finance-Chat | 14B | 2023-11 | 中文 | 金融 | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B-Chat\u002Fsummary) | [通义金融-14B-Chat](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FTongyiFinance\u002FTongyi-Finance-14B-Chat\u002Fsummary) | [通义金融大模型](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FTongyiFinance) | CD |  |\n| Skywork-math | 13B | 2023-10 | 中文 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.16713) |\n| XuanYuan-Chat | 70B | 2023-10 | 中英 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDuxiaoman-DI\u002FXuanYuan-70B-Chat) | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) | [Duxiaoman度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) | CD |  |\n| zhilu | 13B | 2023-10 | 中英 | 金融 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSYSU-MUCFC-FinTech-Research-Center) | \u002F | [SYSU-MUCFC-FinTech-Research-Center](https:\u002F\u002Fhuggingface.co\u002FSYSU-MUCFC-FinTech-Research-Center) | CD |  |\n| TestGPT | 7B | 2023-10 | 中文 | 测试 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai\u002FTestGPT-7B) | [Test-Agent](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FTest-Agent) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| cross | 7\u002F13B | 2023-10 | 多语 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FMathoctopus) | \u002F | [Mathoctopus](https:\u002F\u002Fhuggingface.co\u002FMathoctopus) | CD |  |\n| CodeFuse | 13\u002F14\u002F\u003Cbr\u002F>15\u002F34B | 2023-10 | 中文 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai) | [MFTCoder](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FMFTCoder) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| Taiyi | 7B | 2023-10 | 中英 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDUTIR-BioNLP\u002FTaiyi-LLM) | [Taiyi-LLM](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP\u002FTaiyi-LLM) | [DUTIR-BioNLP](https:\u002F\u002Fgithub.com\u002FDUTIR-BioNLP) | CD |  |\n| CodeShell-chat | 7B | 2023-10 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWisdomShell\u002FCodeShell-7B-Chat) | [codeshell](https:\u002F\u002Fgithub.com\u002FWisdomShell\u002Fcodeshell) | [WisdomShell](https:\u002F\u002Fgithub.com\u002FWisdomShell) | CD |  |\n| DISC-LawLLM | 13B | 2023-09 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FShengbinYue\u002FDISC-LawLLM) | \u002F | [ShengbinYue](https:\u002F\u002Fhuggingface.co\u002FShengbinYue) | CD | [Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11325) |\n| WiNGPT-chat | 7B | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwinninghealth\u002FWiNGPT2-7B-Chat) | [WiNGPT2](https:\u002F\u002Fgithub.com\u002Fwinninghealth\u002FWiNGPT2) | [Winning Health AI Research](https:\u002F\u002Fgithub.com\u002Fwinninghealth) | CD |  |\n| ziya-coding | 15\u002F34B | 2023-09 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Coding-34B-v1.0) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |          [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)          | CD |  |\n| AgriGPT | 6\u002F13b | 2023-09 | 中文 | 农业 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAgriGPTs\u002FAgriGPT-13B) | [AgriGPTs](https:\u002F\u002Fgithub.com\u002FAgriGPTs\u002FAgriGPTs) | [AgriGPTs](https:\u002F\u002Fgithub.com\u002FAgriGPTs) |  |  |\n| XuanYuan-chat | 70B  | 2023-09 | 中文 | 金融 | [TODO]() | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) | [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI) |  CD  | [Report](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan\u002Fblob\u002Fmain\u002Fxuanyuan_70b_report.md) |\n| 夫子•明察 | 6B | 2023-09 | 中文 | 司法 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSDUIRLab\u002Ffuzi.mingcha-v1.0) | [fuzi.mingcha](https:\u002F\u002Fgithub.com\u002Firlab-sdu\u002Ffuzi.mingcha) | [山东大学](https:\u002F\u002Fgithub.com\u002Firlab-sdu) | ND |  |\n| 仲景 | 13B | 2023-09 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSuprit) | [Zhongjing](https:\u002F\u002Fgithub.com\u002FSupritYoung\u002FZhongjing) | [Songhua Yang](https:\u002F\u002Fgithub.com\u002FSupritYoung) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.03549) |\n| CodeFuse | 13\u002F34B | 2023-09 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodefuse-ai\u002FCodeFuse-13B) | [MFTCoder](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FMFTCoder) | [codefuse-ai](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai) | CD |  |\n| EcomGPT | 7B | 2023-09 | 中英 | 电商 | [TODO]() | [EcomGPT](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FEcomGPT) | [Alibaba](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP) |  |  |\n| DISC-MedLLM | 13B | 2023-08 | 中文 | 医疗 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFlmc\u002FDISC-MedLLM) | [DISC-MedLLM](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FDISC-MedLLM) | [FudanDISC](https:\u002F\u002Fgithub.com\u002FFudanDISC) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.14346) |\n| K2 | 7B | 2023-08 | 中英 | 科学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdaven3\u002Fk2_fp_delta) | [k2](https:\u002F\u002Fgithub.com\u002Fdavendw49\u002Fk2) | [daven](https:\u002F\u002Fgithub.com\u002Fdavendw49) | CD |  |\n| CodeLLAma | 7\u002F13\u002F34B | 2023-08 | 多语 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcodellama) | [codellama](https:\u002F\u002Fgithub.com\u002Ffacebookresearch\u002Fcodellama) | [Meta Research](https:\u002F\u002Fgithub.com\u002Ffacebookresearch) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12950) |\n| sqlcoder | 15B | 2023-08 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fdefog\u002Fsqlcoder) | [sqlcoder](https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder) | [Defog.ai](https:\u002F\u002Fgithub.com\u002Fdefog-ai) | CD |  |\n| 智海-录问 |  7B  | 2023-08 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16lwM2rPnSq9u-UbtWbZgig) | [wisdomInterrogatory](https:\u002F\u002Fgithub.com\u002FzhihaiLLM\u002FwisdomInterrogatory) | [zhihaiLLM](https:\u002F\u002Fgithub.com\u002FzhihaiLLM) |  CD  |      |\n| WizardMath-V1.0 | 7\u002F13\u002F70B | 2023-08 | 多语 | 数学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FWizardLM\u002FWizardMath-7B-V1.0) | [WizardLM](https:\u002F\u002Fgithub.com\u002Fnlpxucan\u002FWizardLM) | [operatorx](https:\u002F\u002Fgithub.com\u002Fnlpxucan) | CD |  |\n| QiaoBan | 7B | 2023-08 | 中文 | 情感 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ftomxyz\u002Fqiaoban_bc) | [QiaoBen](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC\u002FQiaoBan) | [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FHIT-SCIR-SC) |  |  |\n| HuangDi | 13B | 2023-08 | 中文 | 中医 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Mzlk5FREpTPa4M7KnMooqQ?pwd=erit) | [HuangDI](https:\u002F\u002Fgithub.com\u002FZlasejd\u002FHuangDI) | [Zlasejd](https:\u002F\u002Fgithub.com\u002FZlasejd) | CD |  |\n| ZhongJing |  | 2023-08 | 中文 | 中医 | [TODO]() | [CMLM-ZhongJing](https:\u002F\u002Fgithub.com\u002Fpariskang\u002FCMLM-ZhongJing) | [复旦大学](pariskang) |  |  |\n| TCMLLM | 6B | 2023-08 | 中文 | 中医 | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QFx-206Ww9Xt-7_Z0RF85g) | [TCMLLM](https:\u002F\u002Fgithub.com\u002F2020MEAI\u002FTCMLLM) | [2020MEAI](https:\u002F\u002Fgithub.com\u002F2020MEAI) | ND |  |\n| AutoAudit | 7B | 2023-07 | 中文 | 安全 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit\u002Fblob\u002Fmain) | [AutoAudit](https:\u002F\u002Fgithub.com\u002Fddzipp\u002FAutoAudit) | [Jiaying Li](https:\u002F\u002Fgithub.com\u002Fddzipp) | CD |  |\n| Lychee | 10B | 2023-07 | 中文 | 法律 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flaw-llm\u002Flaw-glm-10b) | [lychee_law](https:\u002F\u002Fgithub.com\u002Fdavidpig\u002Flychee_law) | [davidpig](https:\u002F\u002Fgithub.com\u002Fdavidpig) | ND |  |\n| IvyGPT | 6B | 2023-07 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwangrongsheng\u002FIvyGPT-35) | [IvyGPT](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FIvyGPT) | [WangRongsheng](https:\u002F\u002Fgithub.com\u002FWangRongsheng) |  |  |\n| MING | 7B | 2023-07 | 中文 | 医学 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlueZeros\u002FMING-7B) | [MING](https:\u002F\u002Fgithub.com\u002FMediaBrain-SJTU\u002FMING) | [上海交通大学](https:\u002F\u002Fgithub.com\u002FMediaBrain-SJTU) | CD |  |\n| Mozi | 7B | 2023-07 | 中英 | 科技 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDataHammer\u002Fmozi_llama_7b) | [science-llm](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY\u002Fscience-llm) | [GMFTBY](https:\u002F\u002Fgithub.com\u002FgmftbyGMFTBY) | CD |  |\n| StarGLM | 6B | 2023-07 | 中文 | 天文 | [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarGLM) | [StarGLM](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li\u002FStarGLM) | [LI YUYANG](https:\u002F\u002Fgithub.com\u002FYu-Yang-Li) | ND |  |\n| TransGPT | 7B | 2023-07 | 中英 | 交通 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDUOMO-Lab\u002FTransGPT-v0) | [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT) | [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO) | CD |  |\n| CodeGeeX2 | 6B | 2023-07 | 中英 | 代码 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fcodegeex2-6b) | [CodeGeeX2](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCodeGeeX2) | [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM) | ND |  |\n|           Yayi-llama2           |   7\u002F13B    | 2023-07 | 中英 | 舆情 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research\u002Fyayi-7b-llama2)    | [Yayi](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi) |     [中科闻歌](https:\u002F\u002Fgithub.com\u002Fwenge-research)      |  CD  | |\n| Ziya-Writing |   13B    | 2023-07 | 中英 | 写作 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Writing-LLaMa-13B-v1) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)  |  CD  |  |\n| MindChat | 13B | 2023-07 | 中文 | 心理 | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FX-D-Lab\u002FMindChat-Baichuan-13B\u002Fsummary) | [MindChat](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FMindChat) | [华东理工大学](https:\u002F\u002Fgithub.com\u002FX-D-Lab) | CD |  |\n|     ShenNong-TCM-LLM     |   7B    | 2023-07 | 中英 |     医学     |                           [[🤗HF\\]]()                           | [ShenNong-TCM-LLM](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FShenNong-TCM-LLM) |    [michael-wzhu](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu)     |  CD  |                                                              |\n|         ailawyer         |   13B   | 2023-07 | 中英 |     法律     |        [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenkg\u002Failawyer)        | [JurisLMs](https:\u002F\u002Fgithub.com\u002Fseudl\u002FJurisLMs) |        [openkg](https:\u002F\u002Fhuggingface.co\u002Fopenkg)         |  CD  |                                                              |\n|     educhat      | 7B\u002F13B  | 2023-06 | 中英 |     教育     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fecnu-icalk\u002Feduchat-sft-002-13b) | [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat) |      [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)      |  CD  |                                                              |\n|        Sunsimiao         |   7B    | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FAI-ModelScope\u002FSunsimiao\u002Ffiles) | [Sunsimiao](https:\u002F\u002Fgithub.com\u002FX-D-Lab\u002FSunsimiao) |       [华东理工大学](https:\u002F\u002Fgithub.com\u002FX-D-Lab)       |  CD  |                                                              |\n|       Media LLaMA        |   7B    | 2023-06 | 中文 |    媒体    | [baidu](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1tEuj0SvwJK4czQPCE6gI9w?pwd=onfo) | [Media-LLaMA](https:\u002F\u002Fgithub.com\u002FIMOSR\u002FMedia-LLaMA) |       [智媒开源研究院](https:\u002F\u002Fgithub.com\u002FIMOSR)       |  CD  |                                                              |\n|          PULSE           |  7\u002F14B  | 2023-06 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FOpenMEDLab\u002FPULSE-7bv5) | [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE) |      [OpenMEDLab](https:\u002F\u002Fgithub.com\u002FOpenMEDLab)       |  CD  |                                                              |\n|         ChatLaw          | 13\u002F33B  | 2023-06 | 中文 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FJessyTsu1\u002FChatLaw-13B) | [ChatLaw](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FChatLaw) |      [北京大学](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup)      |  CD  |                                                              |\n|          BaoLuo          |   6B    | 2023-06 | 中文 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fxuanxuanzl\u002FBaoLuo-LawAssistant-sftglm-6b) | [BaoLuo-LawAssisant](https:\u002F\u002Fgithub.com\u002Fxuanxuanzl\u002FBaoLuo-LawAssistant) |         [LeiZi](https:\u002F\u002Fgithub.com\u002Fxuanxuanzl)         |  ND  |                                                              |\n|         CoLLaMA          |   7B    | 2023-06 | 中英 |     代码     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDaliahX\u002FCoLLaMA-7b)       | [CoLLaMA](https:\u002F\u002Fgithub.com\u002FDenilah\u002FCoLLaMA) |         [Denilah](https:\u002F\u002Fgithub.com\u002FDenilah)          |  CD  |                                                              |\n|         TechGPT          |   7B    | 2023-06 | 中英 |     教育     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fneukg\u002FTechGPT-7B)        | [TechGPT](https:\u002F\u002Fgithub.com\u002Fneukg\u002FTechGPT) |          [东北大学](https:\u002F\u002Fgithub.com\u002Fneukg)          |  CD  |                                                              |\n|           Yayi           |   7B    | 2023-06 | 中英 | 舆情 |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwenge-research\u002Fyayi-7b)     | [Yayi](https:\u002F\u002Fgithub.com\u002Fwenge-research\u002FYaYi) |     [中科闻歌](https:\u002F\u002Fgithub.com\u002Fwenge-research)      |  CD  |                                                              |\n|          MeChat          |   6B    | 2023-06 | 中文 |     医学     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fqiuhuachuan\u002FMeChat)       | [smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile) |     [qiuhuachuan](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan)      |  ND  |                                                              |\n|       ziya-medical       |   13b   | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fshibing624\u002Fziya-llama-13b-medical-lora) | [MedicalGPT](https:\u002F\u002Fgithub.com\u002Fshibing624\u002FMedicalGPT) |        [Ming Xu](https:\u002F\u002Fgithub.com\u002Fshibing624)        |  CD  |                                                              |\n|          Taoli           |   7B    | 2023-06 | 中英 |     教育     |                          [待开源]()                          | [taoli](https:\u002F\u002Fgithub.com\u002Fblcuicall\u002Ftaoli) |      [北京语言大学](https:\u002F\u002Fgithub.com\u002Fblcuicall)      |  CD  |                                                              |\n|       Lawyer-llama       |   13B   | 2023-06 | 中英 |     法律     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fpkupie\u002Flawyer-llama-13b-beta1.0) | [lawyer-llama](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama) |      [Quzhe Huang](https:\u002F\u002Fgithub.com\u002FAndrewZhe)       |  CD  |                                                              |\n|       QiZhen-CaMA        |   13B   | 2023-06 | 中英 |     医学     | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) | [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT) |          [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)          |  CD  |                                                              |\n|         扁鹊-2.0         |   6B    | 2023-06 | 中文 |     医学     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-2)       | [BianQue](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue) |       [华南理工大学](https:\u002F\u002Fgithub.com\u002Fscutcyr)       |  ND  |                                                              |\n|         SoulChat         |   6B    | 2023-06 | 中文 |     心理     |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FSoulChat)        | [SoulChat](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat) |       [华南理工大学](https:\u002F\u002Fgithub.com\u002Fscutcyr)       |  ND  |                                                              |\n|          HanFei          |   7B    | 2023-05 | 中文 |     法律     | [baidu-d6t5](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1PkRXUo9sNRQmoXHcW7Aeeg?pwd=d6t5) | [HanFei](https:\u002F\u002Fgithub.com\u002Fsiat-nlp\u002FHanFei) |  [中国科学院深圳先进院](https:\u002F\u002Fgithub.com\u002Fsiat-nlp)   |  CD  |                                                              |\n|      QiZhen      |   6B    | 2023-05 | 中英 |     医学     | [[baidu\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1KQIF-dUsL7Nrj8UeNuFUiw?pwd=ivgg) | [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT) |          [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)          |  CD  |                                                              |\n|     ChatMed-Consult      |   7B    | 2023-05 | 中英 |     医学     |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmichaelwzhu\u002FChatMed-Consult)  | [ChatMed](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu\u002FChatMed) |    [michael-wzhu](https:\u002F\u002Fgithub.com\u002Fmichael-wzhu)     |  CD  |                                                              |\n|      LaWGPT-beta1.1      |   7B    | 2023-05 | 中英 |     法律     |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fentity303\u002Flawgpt-lora-7b-v2)  | [LawGPT](https:\u002F\u002Fgithub.com\u002Fpengxiao-song\u002FLaWGPT) |   [Pengxiao Song](https:\u002F\u002Fgithub.com\u002Fpengxiao-song)    |  CD  |                                                              |\n|        Cornucopia        |   7B    | 2023-05 | 中英 |     金融     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fyuyangmu125\u002Flora-llama-fin-Linly-zh) | [Cornucopia-LLaMA-Fin-Chinese](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech\u002FCornucopia-LLaMA-Fin-Chinese) |     [yuyangmu](https:\u002F\u002Fgithub.com\u002Fjerry1993-tech)      |  CD  |                                                              |\n|        HuatuoGPT         |   7B    | 2023-05 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FFreedomIntelligence\u002FHuatuoGPT-v1) | [HuatuoGPT](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT) | [香港中文大学](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence) |  CD  |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.15075.pdf)         |\n|         LexiLaw          |   6B    | 2023-05 | 中文 |     法律     |         [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)          |        [LexiLaw](https:\u002F\u002Fgithub.com\u002FCSHaitao\u002FLexiLaw)        |        [Haitao Li](https:\u002F\u002Fgithub.com\u002FCSHaitao)        |  ND  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)           |\n|         XuanYuan         |  176B   | 2023-05 | 中文 |     金融     |    [申请](https:\u002F\u002Fhuggingface.co\u002Fxyz-nlp\u002FXuanYuan2.0)    | [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan) |       [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI)        |  CD  |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.12002)           |\n|          LawGPT          |   6B    | 2023-05 | 中文 |     法律     |     [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT) | [LAW-GPT](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT) |      [hongchengliu](https:\u002F\u002Fgithub.com\u002FLiuHC0428)      |  N   |                                                              |\n|         扁鹊-1.0         |  0.7B   | 2023-04 | 中文 |     医学     |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-1.0)      |        [BianQue](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)         |         [scutcyr](https:\u002F\u002Fgithub.com\u002Fscutcyr)          |  ED  |                                                              |\n|       ChatGLM-Med        |   6B    | 2023-04 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZQSN56DloRGQ-Qj7IwzY4jV3ZHKMe9Bc) | [Med-ChatGLM](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FMed-ChatGLM) |      [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FSCIR-HI)      |  ED  |                                                              |\n|         BenTsao          |   7B    | 2023-04 | 中文 |     医学     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthinksoso\u002Flora-llama-med) | [Huatuo-Llama-Med-Chinese](https:\u002F\u002Fgithub.com\u002FSCIR-HI\u002FHuatuo-Llama-Med-Chinese) |      [哈尔滨工业大学](https:\u002F\u002Fgithub.com\u002FSCIR-HI)      |  CD  |                                                              |\n|        DoctorGLM         |   6B    | 2023-04 | 中文 |     医学     |                          [TODO]()                          | [DoctorGLM](https:\u002F\u002Fgithub.com\u002Fxionghonglin\u002FDoctorGLM) |    [xionghonglin](https:\u002F\u002Fgithub.com\u002Fxionghonglin)     |  ND  |                                                              |\n|         Firefly          |   1\u002F2\u002F7B   | 2023-04 | 中文 |     文化     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FYeungNLP\u002Ffirefly-bloom-7b1-qlora-sft) | [Firefly](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly) |    [Yang JianXin](https:\u002F\u002Fgithub.com\u002Fyangjianxin1)     |  CD  |                                                              |\n|         ChatRWKV         |   7B    | 2023-01 | 中英 |     小说     | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b\u002Ftree\u002Fmain) | [ChatRWKV](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV) |         [BlinkDL](https:\u002F\u002Fgithub.com\u002FBlinkDL)          | RNN  |        [Blog](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F609154637)        |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n## 多模态聊天大模型\n\n> 收集包含中文的多模态大模型，具备对话等功能。\n\n|           模型           | 大小  |  时间   |                           语言模型                           |                          非语言模型                          | 语言 |   领域    |                             下载                             |                           项目地址                           |                        机构\u002F个人                         |                             文献                             |\n| :----------------------: | :---: | :-----: | :----------------------------------------------------------: | :----------------------------------------------------------: | :--: | :-------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :------------------------------------------------------: | :----------------------------------------------------------: |\n| Gemma-4-IT | E2B\u002FE4B\u002F26B A4B\u002F31B | 2026-04 | Gemma-4 LM (CD+Hybrid) | 文本+图像(全量)+音频(E2B\u002FE4B) | 多语(35+) | 通用 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fgoogle\u002Fgemma-4) | - | [Google DeepMind](https:\u002F\u002Fhuggingface.co\u002Fgoogle) | [Model Card](https:\u002F\u002Fai.google.dev\u002Fgemma\u002Fdocs\u002Fcore\u002Fmodel_card_4) |\n| Qianfan-OCR | 4B | 2026-03 | [Qwen3-4B](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-4B) | Qianfan-ViT, 24层, AnyResolution(最大4K) | 中英 | 文档 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fbaidu\u002FQianfan-OCR) | [GitHub](https:\u002F\u002Fgithub.com\u002Fbaidubce\u002FQianfan-VL) | [百度](https:\u002F\u002Fgithub.com\u002Fbaidubce) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.13398) |\n| GLM-OCR | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-OCR) | \u002F | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | \u002F |\n| Ace-Step1.5 | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文音 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FACE-Step\u002FAce-Step1.5) | \u002F | [ACE-Step](https:\u002F\u002Fgithub.com\u002FACE-Step) | \u002F |\n| HunyuanImage-3.0-Instruct | \u002F | 2026-02 | \u002F | \u002F | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuanImage-3.0-Instruct) | \u002F | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | \u002F |\n| AutoGLM-Phone |  9B  | 2025-12 |    **AutoGLM**    |  **AutoGLM**  | 中英 | Agent | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FAutoGLM-Phone-9B) | [Open-AutoGLM](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FOpen-AutoGLM) |   [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)   | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR\u002Fblob\u002Fmain\u002FDeepSeek_OCR_paper.pdf) |\n|  Dolphin-v2   |  3B  | 2025-12 | **Qwen2.5-VL-3B** | Qwen2.5-VL-3B | 中英 | 文图  |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FByteDance\u002FDolphin-v2)   |     [Dolphin](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDolphin)     | [bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance) |          [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.14059)           |\n| DeepSeek-OCR |  3B  | 2025-10 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-OCR) | [DeepSeek-OCR](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [**Paper Link**](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-OCR\u002Fblob\u002Fmain\u002FDeepSeek_OCR_paper.pdf) |\n|      VoxCPM      | 0.5B | 2025-09 | [MiniCPM-4](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM4-0.5B) |     \u002F      | 中英 | 文音 |      [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVoxCPM-0.5B)      |         [VoxCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVoxCPM)          |            [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)             |                              \u002F                               |\n|    VibeVoice     | 1.5B | 2025-09 | [Qwen2.5-1.5B](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2.5-1.5B)  |     \u002F      | 中英 | 文音 |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FVibeVoice-1.5B)    |     [VibeVoice](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FVibeVoice)      |          [microsoft](https:\u002F\u002Fgithub.com\u002Fmicrosoft)           | [VibeVoice Technical Report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.19205) |\n|   HunyuanImage   | 17B  | 2025-09 |                             \u002F                             |     \u002F      | 中英 | 文图 |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuanImage-2.1)    | [HunyuanImage-2.1](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuanImage-2.1) |    [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan)     |                              \u002F                               |\n| PromptEnhancerV2 | 32B  | 2025-09 |                             \u002F                             |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FPromptEnhancer\u002FPromptEnhancer-32B) | [PromptEnhancer](https:\u002F\u002Fgithub.com\u002FHunyuan-PromptEnhancer\u002FPromptEnhancer) | [Hunyuan-PromptEnhancer](https:\u002F\u002Fgithub.com\u002FHunyuan-PromptEnhancer) | [report](https:\u002F\u002Fhunyuan-promptenhancer.github.io\u002F) [paper](https:\u002F\u002Fwww.arxiv.org\u002Fabs\u002F2509.04545) |\n| **Qwen-Image** | 20B  | 2025-08 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Image) | [Qwen-Image](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Image) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Tech Report](https:\u002F\u002Fqianwen-res.oss-cn-beijing.aliyuncs.com\u002FQwen-Image\u002FQwen_Image.pdf) |\n| ERNIE-4.5-VL | A47\u002F424B | 2025-07 |    \u002F     |     \u002F      | 中英 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fbaidu) |    \u002F     | [BaiDu](https:\u002F\u002Fhuggingface.co\u002Fbaidu) | [**📄 Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n|   Dolphin   | A3\u002F16B | 2025-05 |  MBart   | Swin Transformer | 中英 |  文图  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Instruct) | [Dolphin](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FDolphin) | [bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.14059). |\n| Wan2.1-VACE |  14B   | 2025-05 |    \u002F     |        \u002F         | 中英 | 文图视 |    [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FWan-AI\u002FWan2.1-VACE-14B)     |  [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)  | [Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video) | [arXiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.20314)  |\n| Kimi-VL | A3\u002F16B | 2025-04 |                          \u002F                           |     \u002F      | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Instruct) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) |  [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI)  |     [**Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491)     |\n|        Aya Vision         | 8\u002F32B | 2025-03 | [C4AI Command R7B](https:\u002F\u002Fhuggingface.co\u002FCohereForAI\u002Fc4ai-command-r7b-12-2024) | [SigLIP2-patch14-384](https:\u002F\u002Fhuggingface.co\u002Fgoogle\u002Fsiglip2-so400m-patch14-384) | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FCohereForAI\u002Fc4ai-aya-vision-67c4ccd395ca064308ee1484) |                       \u002F                       | [Cohere For AI](https:\u002F\u002Fhuggingface.co\u002FCohereForAI) |                                                              |\n| Phi-4-multimodal-instruct | 5.6B  | 2025-03 |                              \u002F                               |                              \u002F                               | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft\u002FPhi-4-multimodal-instruct) |                       \u002F                       |    [Microsoft](https:\u002F\u002Fhuggingface.co\u002Fmicrosoft)    | [Phi-4-multimodal Technical Report](https:\u002F\u002Faka.ms\u002Fphi-4-multimodal\u002Ftechreport) |\n|         CogView4          |  6B   | 2025-03 |     [GLM-4-9B](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4-9b-hf)     |                              \u002F                               | 中英 | 文图 |       [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogView4-6B)       | [CogView4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogView4) |          [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)          |          [arxiv](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2403.05121)           |\n|     Wan2.1      | 1.3\u002F14B | 2025-02 |    \u002F     |     \u002F      | 中英 | 文视图 |           [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FWan-AI)           |     [Wan2.1](https:\u002F\u002Fgithub.com\u002FWan-Video\u002FWan2.1)      |  [Wan-Video](https:\u002F\u002Fgithub.com\u002FWan-Video)  |                     \u002F                     |\n| Step-Audio-Chat |  130B   | 2025-02 |  Step-1  |     \u002F      | 多语 |  文音  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FStep-Audio-Chat) | [Step-Audio](https:\u002F\u002Fgithub.com\u002Fstepfun-ai\u002FStep-Audio) | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.11946) |\n|   Ovis2   | 1\u002F4\u002F16\u002F34B | 2025-02 |   Qwen2.5    |                         aimv2-large                         | 中英 | 文图视 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FAIDC-AI\u002Fovis2-67ab36c7e497429034874464) |    [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis)    |     [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797)           |\n| Janus-Pro |   1.5\u002F7B   | 2025-02 | deepseek-llm | [SigLIP-L](https:\u002F\u002Fhuggingface.co\u002Ftimm\u002FViT-L-16-SigLIP-384) | 中英 |  文图  |   [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FJanus-Pro-7B)    | [Janus](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FJanus) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [paper](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FJanus\u002Fblob\u002Fmain\u002Fjanus_pro_tech_report.pdf) |\n|  OuteTTS  |      | 2025-01 | Qwen2.5-0.5B |                    OLMo-1B                     | 多语 |  文音  | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOuteAI\u002Foutetts-03-6786b1ebc7aeb757bc17a2fa) |    [OuteTTS](https:\u002F\u002Fgithub.com\u002Fedwko\u002FOuteTTS)    |              [edwko](https:\u002F\u002Fgithub.com\u002Fedwko)               | [Blog](https:\u002F\u002Fwww.outeai.com\u002Fblog) |\n| MiniCPM-o |  8B  | 2025-01 |  Qwen2.5-7B  | SigLip-400M、Whisper-medium-300M, ChatTTS-200M | 中英 | 文音图 | [🤗 HF]( https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fopenbmb\u002Fmultimodal-models-65d48fa84e358ce02a92d004) | [MiniCPM-o](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-o) | [ ](https:\u002F\u002Fgithub.com\u002Fedwko\u002FOuteTTS)  [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) |                                     |\n| Sa2VA | 1\u002F4\u002F8B | 2024-12 | Qwen2.5  | InternVL2.5 | 中英 | 文视图 | [🤗 HF]( https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FByteDance\u002Fsa2va-model-zoo-677e3084d71b5f108d00e093) | [Sa2VA](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002FSa2VA) | [magic-research](https:\u002F\u002Fgithub.com\u002Fmagic-research)\u002F [Sa2VA](https:\u002F\u002Fgithub.com\u002Fmagic-research\u002FSa2VA) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.04001) |\n| QVQ-72B-Preview | 72B  | 2024-12 |    \u002F     |    \u002F     | 中英 | 文视图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqvq-676448c820912236342b9888) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqvq-72b-preview\u002F) |\n| Megrez-3B-Omni |     3B     | 2024-12 | Megrez-3B-Instruct | SigLip-400M\u002FQwen2-Audio\u002Fwhisper-large-v3 | 中英 | 文音图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002FInfinigence\u002FMegrez-3B-Omni) | [Infini-Megrez-Omni](https:\u002F\u002Fgithub.com\u002Finfinigence\u002FInfini-Megrez-Omni) | [infinigence](https:\u002F\u002Fgithub.com\u002Finfinigence) |                                           |\n|  DeepSeek-VL2  | 1\u002F2.8\u002F4.5B | 2024-12 |         \u002F          |                    \u002F                     |      |  文图  |  [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-vl2)  | [DeepSeek-VL2](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-VL2)  | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.10302) |\n| InternVL 2.5 | 2\u002F4\u002F8\u002F26\u002F38\u002F78B | 2024-12 | Qwen-2.5 | InternVit | 多语 | 文图 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOpenGVLab\u002Finternvl-25-673e1019b66e2218f68d7c1c) | [InternVL](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternVL) | [OpenGVLab](https:\u002F\u002Fgithub.com\u002FOpenGVLab) | [blog](https:\u002F\u002Finternvl.github.io\u002Fblog\u002F) |\n| Pixtral-Large-Instruct | 124B | 2024-11 | [Mistral-Large-Instruct-2407](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FMistral-Large-Instruct-2407) | \u002F | 多语 | 文图 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002Fmistralai\u002FPixtral-Large-Instruct-2411) | \u002F | [mistralai](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | [Pixtral Large blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fpixtral-large\u002F) |\n| fish-agent | 3B | 2024-11 | Qwen-2.5 | \u002F | 多语 | 文音 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002Ffishaudio) | [fish-speech](https:\u002F\u002Fgithub.com\u002Ffishaudio\u002Ffish-speech) | [fishaudio](https:\u002F\u002Fgithub.com\u002Ffishaudio) |  |\n| GLM-4-Voice | 9B | 2024-10 | [GLM-4-9B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [Whisper](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [🤗 Huggingface](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4-voice-9b) | [GLM-4-Voice](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4-Voice) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |\n| Pangea | 7B | 2024-10 | [Qwen2-7B-Instruct](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2-7B-Instruct) | [LLaVA-NeXT](https:\u002F\u002Fgithub.com\u002FLLaVA-VL\u002FLLaVA-NeXT) | 多语 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fneulab\u002FPangea-7B) | [Pangea](https:\u002F\u002Fgithub.com\u002Fneulab\u002FPangea) | [neulab](https:\u002F\u002Fgithub.com\u002Fneulab) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.16153) |\n| GOT-OCR-2.0 | \u002F | 2024-09 | Qwen | \u002F | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FGOT-OCR2_0) | [GOT-OCR2.0](https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0) | [**StepFun-AI**](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.01704) |\n| Ovis-1.6 | 9B | 2024-09 | Gemma2-9B-It | Siglip-400M | 中英 | 图文 | [🤗](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FOvis1.6-Gemma2-9B) | [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis) | [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797) |\n| Qwen2-VL | 2\u002F7\u002F72B | 2024-08 | \u002F | \u002F | 多语 | 图文视 | [🤗](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen2-VL-7B-Instruct) [🤖](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fqwen\u002FQwen2-VL-7B-Instruct) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  |\n| CogVideoX | 2\u002F5B | 2024-08 | \u002F | \u002F | 中英 | 文视 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FCogVideoX-2b) | [CogVideo](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVideo) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |\n| MiniCPM-V 2.6 | 8B | 2024-08 |  Qwen2-7B  | SigLip-400M | 中英 | 文图视 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V-2_6) | [MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V) | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) |  |\n| InternVL2 | 1\u002F2\u002F4\u002F8\u002F26\u002F40\u002F76B | 2024-07 |  Qwen2\u002Finternlm2\u002Fllama3  | [InternViT](https:\u002F\u002Fhuggingface.co\u002FOpenGVLab\u002FInternViT-6B-448px-V1-5) | 中英 | 文图 | [🤗 link](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FOpenGVLab\u002Finternvl-20-667d3961ab5eb12c7ed1463e) [🤖 link](https:\u002F\u002Fmodelscope.cn\u002Forganization\u002FOpenGVLab) | [InternVL](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FInternVL) | [OpenGVLab](https:\u002F\u002Fgithub.com\u002FOpenGVLab) | [report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16821) |\n| Qwen2-Audio | 8.2B | 2024-07 |  Qwen2   | Whisper-large-V3 | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Audio) | [Qwen2-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-Audio) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [report](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10759) |\n| **Kolors** | \u002F | 2024-07 | ChatGLM3-Base | \u002F | 中英 | 文图 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FKwai-Kolors\u002FKolors) | [Kolors](https:\u002F\u002Fgithub.com\u002FKwai-Kolors\u002FKolors) | [Kwai-Kolors](https:\u002F\u002Fgithub.com\u002FKwai-Kolors) | [Paper](https:\u002F\u002Fgithub.com\u002FKwai-Kolors\u002FKolors\u002Fblob\u002Fmaster\u002Fimgs\u002FKolors_paper.pdf) |\n| ChatTTS | \u002F | 2024-06 | \u002F | \u002F | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002F2Noise\u002FChatTTS) | [ChatTTS](https:\u002F\u002Fgithub.com\u002F2noise\u002FChatTTS) | [2noise](https:\u002F\u002Fgithub.com\u002F2noise) | \u002F |\n| GLM-4V | 9B | 2024-06 | GLM-4 | \u002F | 多语 | 文图 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fglm-4v-9b) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) | \u002F |\n| HunyuanDiT | 1.5B | 2024-05 | multilingual T5 encoder | CLIP | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002FTencent-Hunyuan\u002FHunyuanDiT) | **[HunyuanDiT](https:\u002F\u002Fgithub.com\u002FTencent\u002FHunyuanDiT)** | [Tencent](https:\u002F\u002Fgithub.com\u002FTencent) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.08748) |\n| **CogVLM2** |  | 2024-05 | Meta-Llama-3-8B-Instruct | \u002F | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002FTHUDM\u002Fcogvlm2-llama3-chat-19B) | [CogVLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM) | [Skip to content](https:\u002F\u002Fgithub.com\u002FTHUDM#start-of-content) |  |\n| 360VL | 8\u002F70B | 2024-05 | LLama3 | CLIP-ViT | 中英 | 文图 | [🤗](https:\u002F\u002Fhf-mirror.com\u002Fqihoo360) | [360VL](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002F360VL) | [360CVGroup](https:\u002F\u002Fgithub.com\u002F360CVGroup) |  |\n| **XVERSE-V** | 13B | 2024-05 | **XVERSE-13B-Chat** | **clip-vit-large-patch14-224** | 中英 | 文图 | [🤖](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fxverse\u002FXVERSE-V-13B\u002Fsummary) | [XVERSE-V-13B](https:\u002F\u002Fgithub.com\u002Fxverse-ai\u002FXVERSE-V-13B) | [xverse-ai](https:\u002F\u002Fgithub.com\u002Fxverse-ai) |  |\n| MiniCPM-V 2.0 | 2.8B | 2024-04 | [MiniCPM-2.4B](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM\u002F) | SigLip-400M | 中英 | 文图 | [🤗](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FOmniLMM-12B\u002F) [🤖](http:\u002F\u002F120.92.209.146:8081\u002F) | **[MiniCPM-V](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FMiniCPM-V)** | [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB) | [Blog](https:\u002F\u002Fopenbmb.vercel.app\u002Fminicpm-v-2) |\n| **Qwen-Audio** | 7B | 2024-03 | [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | [Whisper-large-v2](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-Audio) | [Qwen-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Audio)  | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07919) |\n| DeepSeek-VL | 1.3\u002F7B | 2024-03 | DeepSeek | SigLip\u002FSAM | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002Fdeepseek-vl-7b-chat) | [DeepSeek-VL](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-VL) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.05525) |\n| **OmniLMM** | 3\u002F12B | 2024-02 | MiniCPM | SigLip | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V) | [OmniLMM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FOmniLMM) | [[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| **MiniCPM-V** | 3B | 2024-02 | MiniCPM-2.4B | SigLip-400M | 中英 | 图文 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FMiniCPM-V) | [OmniLMM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FOmniLMM) | [[OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| Yi-VL | 6\u002F34B | 2024-01 | Yi | [CLIP-VIT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002F01-ai) | [Yi](https:\u002F\u002Fgithub.com\u002F01-ai\u002FYi) | [01-ai](https:\u002F\u002Fgithub.com\u002F01-ai) |  |\n| Lyrics | 14B | 2023-12 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Visual-Lyrics-14B) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) |  |\n| Qwen-Audio | 7B | 2023-12 | [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen) | [Whisper-large-v2](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fwhisper) | 中英 | 文音 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen) | [Qwen-Audio](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-Audio) | [Qwen](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Paper](http:\u002F\u002Farxiv.org\u002Fabs\u002F2311.07919) |\n| SPHINX | 13B | 2023-10 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FSPHINX) | [LLaMA2-Accessory](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FLLaMA2-Accessory) | [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM) |  |\n| Skywork-MM | 13B | 2023-10 | \u002F | \u002F | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkywork) | [Skywork](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | [Paper](https:\u002F\u002Fgithub.com\u002Fwill-singularity\u002FSkywork-MM\u002Fblob\u002Fmain\u002Fskywork_mm.pdf) |\n| CogVLM | 7\u002F14B | 2023-10 | Qwen | ViT | 中英 | 图文 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FCausalLM) | \u002F | [CausalLM](https:\u002F\u002Fhuggingface.co\u002FCausalLM) |  |\n|           fuyu           |  8B   | 2023-10 |                              \u002F                               |                              \u002F                               | 中英 |   图文    |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fadept\u002Ffuyu-8b)         |                              \u002F                               |      [Adept AI Labs](https:\u002F\u002Fhuggingface.co\u002Fadept)       |          [Blog](https:\u002F\u002Fwww.adept.ai\u002Fblog\u002Ffuyu-8b)           |\n|       Ziya-Visual        |  14B  | 2023-10 |                            LLaMA                             |                         InstructBLIP                         | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-Visual-14B-Chat) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |        [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)        |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.08166)           |\n|          CogVLM          |  17B  | 2023-10 |                         EVA2-CLIP-E                          |                         Vicuna-v1.5                          | 中英 |   图文    |                           [TODO]()                           | [CogVLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM) |            [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)             | [Paper](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogVLM\u002Fblob\u002Fmain\u002Fassets\u002Fcogvlm-paper.pdf) |\n|         idefics          | 9\u002F80B | 2023-10 |     [LLaMA](https:\u002F\u002Fhuggingface.co\u002Fhuggyllama\u002Fllama-65b)     | [CLIP-ViT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 |   图文    |  [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4\u002Fidefics-9b)   |                              \u002F                               |  [HuggingFaceM4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4)   | [log](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fm4-logs\u002Fblob\u002Fmaster\u002Fmemos\u002FREADME.md) |\n|    InternLM-XComposer    |  7B   | 2023-10 |  [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM\u002Ftree\u002Fmain)  |                           EVA-CLIP                           | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Finternlm\u002Finternlm-xcomposer-vl-7b) | [InternLM-XComposer](https:\u002F\u002Fgithub.com\u002FInternLM\u002FInternLM-XComposer) |         [InternLM](https:\u002F\u002Fgithub.com\u002FInternLM)          |        [Report](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2309.15112.pdf)        |\n|        WeMix-LLM         |  13B  | 2023-09 |                            LLama2                            |                              \u002F                               | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FAlpha-VLLM\u002FWeMix-LLaMA2-13B-MM) | [WeMix-LLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM\u002FWeMix-LLM) |       [Alpha-VLLM](https:\u002F\u002Fgithub.com\u002FAlpha-VLLM)        |                                                              |\n|          Vally           | 7\u002F13B | 2023-08 |                  BelleGroup\u002FBELLE-LLaMA-EXT                  |            OFA-Sys\u002Fchinese-clip-vit-large-patch14            | 中英 |   图文    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FZhaoziwang\u002Fchinese_valley7b_v1) [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FZhaoziwang\u002Fchinese_valley13b_v1) | [Valley](https:\u002F\u002Fgithub.com\u002FRupertLuo\u002FValley) |          [罗瑞璞](https:\u002F\u002Fgithub.com\u002FRupertLuo)          |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07207)           |\n|         SALMONN          |   \u002F   | 2023-08 |                              \u002F                               |                              \u002F                               | 中英 |   语音    |                           [TODO]()                           | [SALMONN](https:\u002F\u002Fgithub.com\u002Fbytedance\u002FSALMONN) |        [Bytedance](https:\u002F\u002Fgithub.com\u002Fbytedance)         |                                                              |\n|         IDEFICS          | 9\u002F80B | 2023-08 |     [llama](https:\u002F\u002Fhuggingface.co\u002Fhuggyllama\u002Fllama-65b)     | [CLIP-ViT](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-H-14-laion2B-s32B-b79K) | 中英 | 图文-通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4\u002Fidefics-9b) | [m4-logs](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fm4-logs) |  [HuggingFaceM4](https:\u002F\u002Fhuggingface.co\u002FHuggingFaceM4)   |      [Paper](https:\u002F\u002Fhuggingface.co\u002Fpapers\u002F2306.16527)       |\n|         Qwen-VL          |  7B   | 2023-08 |         [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B)         | [Openclip ViT-bigG](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) | 中英 |   通用    |         [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-VL)          | [Qwen-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-VL) |           [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM)            |                                                              |\n|       Qwen-VL-chat       |  7B   | 2023-08 |         [Qwen-7B](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-7B)         | [Openclip ViT-bigG](https:\u002F\u002Fgithub.com\u002Fmlfoundations\u002Fopen_clip) | 中英 |   通用    |       [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen-VL-Chat)       | [Qwen-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen-VL) |           [阿里云](https:\u002F\u002Fgithub.com\u002FQwenLM)            |                                                              |\n|          LLasM           |  7B   | 2023-07 | [Chinese-Llama2](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |                       whisper-large-v2                       | 中英 |   语音    |    [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FLLaSM-Cllama2)     | [LLaSM](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FLLaSM) |        [北京灵琐](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)        |                                                              |\n|      Chinese-LLaVA       |  7B   | 2023-07 | [Chinese-Llama2](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-Llama-2-7b) |                           Clip-vit                           | 中英 |   视觉    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLinkSoul\u002FChinese-LLaVA-Cllama2) | [Chinese-LLaVA](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI\u002FChinese-LLaVA) |        [北京灵琐](https:\u002F\u002Fgithub.com\u002FLinkSoul-AI)        |                                                              |\n|        RemoteGLM         |  6B   | 2023-07 |                         VisualGLM-6B                         |                         VisualGLM-6B                         | 中文 |   遥感    |                           [TODO]()                           | [RemoteGLM](https:\u002F\u002Fgithub.com\u002Flzw-lzw\u002FRemoteGLM) |          [lzw-lzw](https:\u002F\u002Fgithub.com\u002Flzw-lzw)           |                                                              |\n|        VisualCLA         |  7B   | 2023-07 | [Chinese-Alpaca-Plus](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-LLaMA-Alpaca\u002Fwiki\u002F%E6%A8%A1%E5%9E%8B%E5%90%88%E5%B9%B6%E4%B8%8E%E8%BD%AC%E6%8D%A2) | [CLIP-ViT-L\u002F14](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fclip-vit-large-patch14) | 中文 |   视觉    | [[🤗HF\\]](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bBF5QHoZxHRnWeTPHL19CQ?pwd=xxbg) | [Visual-Chinese-LLaMA-Alpaca](https:\u002F\u002Fgithub.com\u002Fairaria\u002FVisual-Chinese-LLaMA-Alpaca) |        [Ziqing Yang](https:\u002F\u002Fgithub.com\u002Fairaria)         |                                                              |\n|          yuren           |  7B   | 2023-07 | [baichuan-7B](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002Fbaichuan-7B) | [CLIP](https:\u002F\u002Fhuggingface.co\u002Flaion\u002FCLIP-ViT-L-14-DataComp.XL-s13B-b90K) | 中英 |   视觉    |   [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fpleisto\u002Fyuren-baichuan-7b)   | [yuren-baichuan-7b](https:\u002F\u002Fgithub.com\u002Fpleisto\u002Fyuren-baichuan-7b) |          [Pleisto](https:\u002F\u002Fgithub.com\u002Fpleisto)           |                                                              |\n|       VisCPM-Chat        |  10B  | 2023-06 |                           CPM-Bee                            |                           Q-Former                           | 中英 |   视觉    |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVisCPM-Chat)      | [VisCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVisCPM) |          [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)           |                                                              |\n|       VisCPM-Paint       |  10B  | 2023-06 |                           CPM-Bee                            | [Stable Diffusion 2.1](https:\u002F\u002Fgithub.com\u002FStability-AI\u002Fstablediffusion) | 中英 |   视觉    |     [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fopenbmb\u002FVisCPM-Paint)      | [VisCPM](https:\u002F\u002Fgithub.com\u002FOpenBMB\u002FVisCPM) |          [OpenBMB](https:\u002F\u002Fgithub.com\u002FOpenBMB)           |                                                              |\n|        XrayPULSE         |  7B   | 2023-06 |         [PULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FPULSE)         |       [MedCLIP](https:\u002F\u002Fgithub.com\u002FRyanWangZf\u002FMedCLIP)       | 中文 |   医学    | [[🤗HF\\]](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1VsO61-3DFuK4ysGPvoD4_JZaRFKvAJR_\u002Fview?usp=drive_link) | [XrayPULSE](https:\u002F\u002Fgithub.com\u002Fopenmedlab\u002FXrayPULSE) |       [OpenMEDLab](https:\u002F\u002Fgithub.com\u002FOpenMEDLab)        |                                                              |\n|         SEEChat          |  6B   | 2023-06 |        [ChatGLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)        |                           CLIP-ViT                           | 中文 |     \u002F     |        [[🤗HF\\]](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002FSEEChat)         | [SEEChat](https:\u002F\u002Fgithub.com\u002F360CVGroup\u002FSEEChat) |           [360](https:\u002F\u002Fgithub.com\u002F360CVGroup)           |                                                              |\n| Ziya-BLIP2-14B-Visual-v1 |  14B  | 2023-06 | [LLaMA-13B](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1) |                            BLIP2                             | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-BLIP2-14B-Visual-v1) | [Fengshenbang-LM](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) |        [IDEA研究院](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)        |                                                              |\n|    Video-LLaMA-BiLLA     |  7B   | 2023-05 | [BiLLa-7B]([BiLLa-7B](https:\u002F\u002Fhuggingface.co\u002FNeutralzz\u002FBiLLa-7B-SFT)) |    [MiniGPT-4](https:\u002F\u002Fgithub.com\u002FVision-CAIR\u002FMiniGPT-4)     | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-SG\u002FVideo-LLaMA-Series\u002Fresolve\u002Fmain\u002Ffinetune-billa7b-zh.pth) | [Video-LLaMA](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG\u002FVideo-LLaMA) |    [达摩院多语言NLP](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02858)           |\n|     Video-LLaMA-Ziya     |  13B  | 2023-05 | [Ziya-13B](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZiya-LLaMA-13B-v1) |    [MiniGPT-4](https:\u002F\u002Fgithub.com\u002FVision-CAIR\u002FMiniGPT-4)     | 中英 |   通用    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FDAMO-NLP-SG\u002FVideo-LLaMA-Series\u002Fresolve\u002Fmain\u002Ffinetune-ziya13b-zh.pth) | [Video-LLaMA](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG\u002FVideo-LLaMA) |    [达摩院多语言NLP](https:\u002F\u002Fgithub.com\u002FDAMO-NLP-SG)     |          [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02858)           |\n|         XrayGLM          |  6B   | 2023-05 |      [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)       |      [BLIP2-Qformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12597)       | 中英 |   医学    | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fwangrongsheng\u002FXrayGLM-300) | [XrayGLM](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002FXrayGLM) | [澳门理工大学](https:\u002F\u002Fwww.mpu.edu.mo\u002Fesca\u002Fzh\u002Findex.php) |                                                              |\n|          X-LLM           |       | 2023-05 |        [ChatGLM](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)        |          [ViT-g](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.04560)           | 中文 |     \u002F     |                           [TODO]()                           | [X-LLM](https:\u002F\u002Fgithub.com\u002Fphellonchen\u002FX-LLM) |     [中科院自动化所](https:\u002F\u002Fgithub.com\u002Fphellonchen)     |        [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2305.04160.pdf)         |\n|        VisualGLM         |  6B   | 2023-05 |      [ChatGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B)       |      [BLIP2-Qformer](https:\u002F\u002Farxiv.org\u002Fabs\u002F2301.12597)       | 中英 |   视觉    |      [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fvisualglm-6b)       | [VisualGLM-6B](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FVisualGLM-6B) |           [清华大学](https:\u002F\u002Fgithub.com\u002FTHUDM)           |                                                              |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n## 理论推理大模型\n\n> 收集推理能力比较突出的中文大模型\n\n|      模型       | 大小 | 时间    | 语言 | 领域 |                             下载                             |                           项目地址                           |                 机构\u002F个人                 | 结构 |                      文                       |\n| :-------------: | :--: | ------- | :--: | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :---------------------------------------: | :--: | :-------------------------------------------: |\n| MiniMax-M2.7 | A10\u002F230B | 2026-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.7) | [GitHub](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M2.7) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) | MoE | [Blog](https:\u002F\u002Fwww.minimax.io\u002Fnews\u002Fminimax-m27-en) |\n| Qwen3.5 | 0.5\u002F2\u002F4\u002F9\u002F27\u002F35\u002F122\u002F397B | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqwen35) | [Qwen3.5](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3.5) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Blog](https:\u002F\u002Fqwen.ai\u002Fblog?id=qwen3.5) |\n| Step-3.5-Flash | \u002F | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002FStep-3.5-Flash) | \u002F | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | \u002F | \u002F |\n| GLM-5 | A40\u002F744B | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-5) | \u002F | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | \u002F | [blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-5) |\n| MiniMax-M2.5 | \u002F | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-M2.5) | \u002F | [MiniMaxAI](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI) | \u002F | \u002F |\n| Kimi-K2.5 | 1T | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-K2.5) | \u002F | [moonshotai](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai) | moe | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2602.02276) |\n| Ring-2.5-1T | 1T | 2026-02 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FinclusionAI\u002FRing-2.5-1T) | \u002F | [inclusionAI](https:\u002F\u002Fhuggingface.co\u002FinclusionAI) | \u002F | \u002F |\n| DeepSeek-V3.2 | \u002F | 2025-12 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2) | [DeepSeek-V3.2-Exp](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-V3.2-Exp) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Technical Report**](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-V3.2\u002Fblob\u002Fmain\u002Fassets\u002Fpaper.pdf) |\n| **Tongyi DeepResearch** | A3\u002F30B | 2025-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAlibaba-NLP\u002FTongyi-DeepResearch-30B-A3B) | [DeepResearch](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch) | [Alibaba-NLP](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP)[\u003Cbr\u002F>](https:\u002F\u002Fgithub.com\u002FAlibaba-NLP\u002FDeepResearch) | MoE | [Tech Blog](https:\u002F\u002Ftongyi-agent.github.io\u002Fblog\u002Fintroducing-tongyi-deep-research) |\n| **Qwen3-Next** | A3\u002F80B | 2025-09 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Next-80B-A3B-Thinking) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Qwen3-Next](https:\u002F\u002Fqwen.ai\u002Fblog?id=4074cca80393150c248e508aa62983f9cb7d27cd&from=research.latest-advancements-list) |\n| Magistral Small 1.2 | 24B | 2025-09 | 多语 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | \u002F | [mistralai](https:\u002F\u002Fhuggingface.co\u002Fmistralai) | CD | [blog post](https:\u002F\u002Fmistral.ai\u002Fnews\u002Fmagistral\u002F) |\n| gpt-oss-20B | A2\u002F20B | 2025-08 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fopenai\u002Fgpt-oss-20b) | [gpt-oss](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-oss) | [openai](https:\u002F\u002Fgithub.com\u002Fopenai) | MoE | [**OpenAI blog**](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F) |\n| gpt-oss-120B | A5\u002F120B | 2025-08 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-0.5B-Instruct) | [gpt-oss](https:\u002F\u002Fgithub.com\u002Fopenai\u002Fgpt-oss) | [openai](https:\u002F\u002Fgithub.com\u002Fopenai) | MoE | [**OpenAI blog**](https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpt-oss\u002F) |\n| Baichuan-M2 | 32B | 2025-08 | 中英 | 医疗 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | [Baichuan-M2-32B](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc\u002FBaichuan-M2-32B) | [baichuan-inc](https:\u002F\u002Fgithub.com\u002Fbaichuan-inc) | CD | [technical blog](https:\u002F\u002Fwww.baichuan-ai.com\u002Fblog\u002Fbaichuan-M2) |\n| **Ovis2.5** | 2\u002F9B | 2025-08 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FOvis2.5-9B) | [Ovis](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FOvis) | [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.20797) |\n| GLM-4.5V | 108B | 2025-07 | 中英 |  多模态  | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5V) |     [GLM-V](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-V)     |         [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)         | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.01006) |\n| GLM-4.5 | A32\u002F355B | 2025-07 | 中英 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) | [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5) | [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org) | MoE | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.5) |\n| GLM-4.5-Air | 106B-A12B | 2025-07 | 中英 |  通用  | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Fzai-org\u002FGLM-4.5-Base) |     [GLM-4.5](https:\u002F\u002Fgithub.com\u002Fzai-org\u002FGLM-4.5)     |         [zai-org](https:\u002F\u002Fgithub.com\u002Fzai-org)         | MoE  | [technical blog](https:\u002F\u002Fz.ai\u002Fblog\u002Fglm-4.5) |\n| Hunyuan | 0.5\u002F4\u002F7B | 2025-07 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-0.5B-Instruct) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | \u002F | \u002F |\n| Qwen3-Thinking-2507 | A3\u002F30B | 2025-07 | 中英 | 通用 | [**🤗 Huggingface** ](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-30B-A3B-Thinking-2507) | [Qwen3](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.09388) |\n| Step3 | A38\u002F321B | 2025-07 | 中英 | 多模态 | [HF](https:\u002F\u002Fhuggingface.co\u002Fstepfun-ai\u002Fstep3) | [Step3](https:\u002F\u002Fgithub.com\u002Fstepfun-ai\u002FStep3) | [stepfun-ai](https:\u002F\u002Fgithub.com\u002Fstepfun-ai) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.19427) |\n| Dhanishtha-2.0 | 14B | 2025-07 | 多语 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002FHelpingAI\u002FDhanishtha-2.0-preview) | \u002F | [HelpingAI](https:\u002F\u002Fhuggingface.co\u002FHelpingAI) | CD | \u002F |\n| GLM-4.1V-Thinking | 9B | 2025-07 | 中英 | 多模态 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002FGLM-4.1V-9B-Thinking)    |  [GLM-4.1V-Thinking](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4.1V-Thinking)  |   [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)   | \u002F | [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2507.01006) |\n| Kimi-VL-Thinking-2506 | A3B | 2025-06 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Thinking-2506) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) | \u002F | [**📄 Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n| Hunyuan-A13B | A13\u002F80B | 2025-06 | 中英 | 通用 | [**Hugging Face**](https:\u002F\u002Fhuggingface.co\u002Ftencent\u002FHunyuan-A13B-Instruct) | [Hunyuan-A13B](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan-A13B) | [Tencent-Hunyuan](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan) | MoE | [**Technical Report**](https:\u002F\u002Fgithub.com\u002FTencent-Hunyuan\u002FHunyuan-A13B\u002Fblob\u002Fmain\u002Freport\u002FHunyuan_A13B_Technical_Report.pdf) |\n| LongWriter-Zero | 32B | 2025-06 | 中英 | \u002F |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTHU-KEG\u002FLongWriter-Zero-32B)    |  \u002F  |   [THU-KEG](https:\u002F\u002Fgithub.com\u002FTHU-KEG)   | \u002F | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.18841) |\n| MiniMax-M1 | A46\u002F456B | 2025-06 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI)    |  [MiniMax-M1](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-M1)  |   [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI)   | MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.13585) |\n| DeepSeek-R1-0528 | A37\u002F671B | 2025-05 | 中英 | 通用 |    [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1)    |  [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1)  |   [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai)   | MoE  | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n|   QwenLong-L1    |   32B    | 2025-05 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FTongyi-Zhiwen\u002FQwenLong-L1-32B) | [QwenLong-L1](https:\u002F\u002Fgithub.com\u002FTongyi-Zhiwen\u002FQwenLong-L1) | [Tongyi-Zhiwen](https:\u002F\u002Fgithub.com\u002FTongyi-Zhiwen) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.17667) |\n| GLM-Z1-0414 | 32B | 2025-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FTHUDM\u002Fglm-4-0414-67f3cbcb34dd9d252707cb2e) | [GLM-4](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-4) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM) |  |  |\n|    DeepCoder     | 1.5\u002F14B | 2025-04 | 中英 | 代码 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fagentica-org\u002FDeepCoder-14B-Preview) | [rllm](https:\u002F\u002Fgithub.com\u002Fagentica-project\u002Frllm) | [agentica-project](https:\u002F\u002Fgithub.com\u002Fagentica-project) | CD |  |\n| Kimi-VL-Thinking | A3\u002F16B | 2025-04 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fmoonshotai\u002FKimi-VL-A3B-Thinking) | [Kimi-VL](https:\u002F\u002Fgithub.com\u002FMoonshotAI\u002FKimi-VL) | [MoonshotAI](https:\u002F\u002Fgithub.com\u002FMoonshotAI) |  MoE  | [**Tech Report** ](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.07491) |\n| Skywork-OR1 | 7\u002F32B | 2025-04 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-OR1-32B-Preview) | [Skywork-OR1](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-OR1) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI)\u002F | MoE | [Notion Blog](https:\u002F\u002Fcapricious-hydrogen-41c.notion.site\u002FSkywork-Open-Reaonser-Series-1d0bc9ae823a80459b46c149e4f51680) |\n| Skywork-R1V | 38B | 2025-03 | 中英 | 多模态 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSkywork\u002FSkywork-R1V-38B) | [Skywork-R1V](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-R1V) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) | CD | [Paper](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FSkywork-R1V\u002Fblob\u002Fmain\u002FSkywork_R1V.pdf) |\n| Fin-R1 | 7B | 2025-03 | 中英 | 金融 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FSUFE-AIFLM-Lab\u002FFin-R1) | [Fin-R1](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab\u002FFin-R1) | [SUFE-AIFLM-Lab](https:\u002F\u002Fgithub.com\u002FSUFE-AIFLM-Lab) |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.16252) |\n| QwQ-32B | 32B  | 2025-03 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwQ-32B) |    \u002F     | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  CD  | [📑 blog](https:\u002F\u002Fqwenlm.github.io\u002Fblog\u002Fqwq-32b\u002F) |\n| DeepSeek-R1 | A37\u002F671B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) |  MoE  | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n| DeepSeek-R1-Zero | A37\u002F671B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fdeepseek-ai\u002FDeepSeek-R1-Zero) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblob\u002Fmain\u002FDeepSeek_R1.pdf) |\n| DeepSeek-R1-Distill-Qwen | 1.5\u002F7\u002F14\u002F32B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002Fdeepseek-ai\u002Fdeepseek-r1-678e1e131c0169c0bc89728d) | [DeepSeek-R1](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1) | [deepseek-ai](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai) | MoE | [**Paper Link**👁️](https:\u002F\u002Fgithub.com\u002Fdeepseek-ai\u002FDeepSeek-R1\u002Fblobmain\u002FDeepSeek_R1.pdf) |\n| MiniMax-Text-01 | A46\u002F456B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-Text-01) | [MiniMax-01](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-01) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) |  MoE  | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.08313) |\n| MiniMax-VL-01 | A46\u002F456B | 2025-01 | 中英 | 多模态 |                              [🤗HF](https:\u002F\u002Fhuggingface.co\u002FMiniMaxAI\u002FMiniMax-VL-01)                              | [MiniMax-01](https:\u002F\u002Fgithub.com\u002FMiniMax-AI\u002FMiniMax-01) | [MiniMax-AI](https:\u002F\u002Fgithub.com\u002FMiniMax-AI) | MoE | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.08313) |\n| Sky-T1 | 32B | 2025-01 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FNovaSky-AI\u002FSky-T1-32B-Preview) | [SkyThought](https:\u002F\u002Fgithub.com\u002FNovaSky-AI\u002FSkyThought) | [NovaSky-AI](https:\u002F\u002Fgithub.com\u002FNovaSky-AI) |  CD  | [Blog](https:\u002F\u002Fnovasky-ai.github.io\u002Fposts\u002Fsky-t1\u002F) |\n| Search-O1 |  | 2025-01 | 中英 | 通用 |                              \u002F                              | [Search-o1](https:\u002F\u002Fgithub.com\u002Fsunnynexus\u002FSearch-o1) | [sunnynexus](https:\u002F\u002Fgithub.com\u002Fsunnynexus) | CD | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.05366) |\n| HuatuoGPT-o1 | 7\u002F8\u002F70\u002F72B | 2025-01 | 中英 | 医疗 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FFreedomIntelligence\u002Fhuatuogpt-o1-677261a3711767cce7c64e13) | [HuatuoGPT-o1](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence\u002FHuatuoGPT-o1) | [FreedomIntelligence](https:\u002F\u002Fgithub.com\u002FFreedomIntelligence)\u002F |  CD  | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2412.18925) |\n| QwQ-32B-Preview | 32B  | 2024-11 | 中英 | 通用 |      [🤗HF](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwQ-32B-Preview)      |                              \u002F                               |    [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM)    |  CD  |                                               |\n|    Marco-o1     |  7B  | 2024-11 | 中英 | 通用 |        [🤗HF](https:\u002F\u002Fhuggingface.co\u002FAIDC-AI\u002FMarco-o1)        |       [Marco-o1](https:\u002F\u002Fgithub.com\u002FAIDC-AI\u002FMarco-o1)        |   [AIDC-AI](https:\u002F\u002Fgithub.com\u002FAIDC-AI)   |  CD  | [**Paper**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.14405) |\n| Skywork-01-Open |  8B  | 2024-11 | 中英 | 通用 | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FSkywork\u002Fskywork-o1-open-67453df58e12f6c3934738d0) | [skywork-o1-prm-inference](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002Fskywork-o1-prm-inference) | [SkyworkAI](https:\u002F\u002Fgithub.com\u002FSkyworkAI) |  CD  | [Blog](https:\u002F\u002Fnexusflow.ai\u002Fblogs\u002Fathene-v2)  |\n|     HK-01aw     |  8B  | 2024-11 | 中文 | 法律 |       [🤗HF](https:\u002F\u002Fhuggingface.co\u002FHKAIR-Lab\u002FHK-O1aw)        |       [HK-O1aw](https:\u002F\u002Fgithub.com\u002FHKAIR-Lab\u002FHK-O1aw)        | [HKAIR-Lab](https:\u002F\u002Fgithub.com\u002FHKAIR-Lab) |  CD  |                                               |\n| QVQ-72B-Preview | 72B  | 2024-12 | 中英 | 多模 | [🤗 HF](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FQwen\u002Fqvq-676448c820912236342b9888) | [Qwen2-VL](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen2-VL) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) |  |[Blog](https:\u002F\u002Fqwenlm.github.io\u002Fzh\u002Fblog\u002Fqvq-72b-preview\u002F)|\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n## 中文指令数据集\n\n> 收集包含中文的指令数据集，用于微调语言模型。\n\n|            名称            | 大小  | 时间    | 语言 |                             下载                             |                           项目地址                           |                             作者                             |                     备注                      |\n| :------------------------: | :---: | ------- | :--: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :-------------------------------------------: |\n|         FinCorpus          |  50G  | 2023-09 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDuxiaoman-DI\u002FFinCorpus) |     [XuanYuan](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI\u002FXuanYuan)     |          [度小满](https:\u002F\u002Fgithub.com\u002FDuxiaoman-DI)           |                   金融领域                    |\n|        TransGPT-sft        | 346k  | 2023-07 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDUOMO-Lab\u002FTransGPT-sft) |        [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)         |           [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO)           |                                               |\n|        TransGPT-pt         |  58k  | 2023-07 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FDUOMO-Lab\u002FTransGPT-pt) |        [TransGPT](https:\u002F\u002Fgithub.com\u002FDUOMO\u002FTransGPT)         |           [北京交通大学](https:\u002F\u002Fgithub.com\u002FDUOMO)           |                                               |\n|  ShareGPT-Chinese-English  |  90K  | 2023-07 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FShareGPT-Chinese-English-90k) | [llama2-Chinese-chat](https:\u002F\u002Fgithub.com\u002FCrazyBoyM\u002Fllama2-Chinese-chat) |            [Ke Bai](https:\u002F\u002Fgithub.com\u002FCrazyBoyM)            |                                               |\n|  educhat-sft-002-data-osm  | 400w  | 2023-06 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fecnu-icalk\u002Feduchat-sft-002-data-osm) |       [EduChat](https:\u002F\u002Fgithub.com\u002Ficalk-nlp\u002FEduChat)        |         [华东师范大学](https:\u002F\u002Fgithub.com\u002Ficalk-nlp)         |                     教育                      |\n|       chatgpt-corpus       |  3M   | 2023-06 | 中文 |     [dataset](https:\u002F\u002Fgithub.com\u002FPlexPt\u002Fchatgpt-corpus)      |  [chatgpt-corpus](https:\u002F\u002Fgithub.com\u002FPlexPt\u002Fchatgpt-corpus)  |              [plex](https:\u002F\u002Fgithub.com\u002FPlexPt)               |                                               |\n|           Simle            | 350k  | 2023-06 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile\u002Ftree\u002Fmain\u002Fdata) |        [smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)         |        [qiuhuachuan](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan)         |                   心理健康                    |\n|           QiZhen           |  20k  | 2023-06 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT\u002Fblob\u002Fmain\u002Fdata\u002Ftrain\u002Fsft-20k.json) |       [QiZhenGPT](https:\u002F\u002Fgithub.com\u002FCMKRG\u002FQiZhenGPT)        |             [浙江大学](https:\u002F\u002Fgithub.com\u002FCMKRG)             |                     医学                      |\n|         BayLing-80         |  80   | 2023-06 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing\u002Fblob\u002Fmain\u002Fdata\u002FBayLing-80) |         [BayLing](https:\u002F\u002Fgithub.com\u002Fictnlp\u002FBayLing)         |           [中国科学院](https:\u002F\u002Fgithub.com\u002Fictnlp)            |                   多轮指令                    |\n|      Tigerbot-dataset      | 120k  | 2023-06 | 中英 |     [dataset](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)     |    [TigerBot](https:\u002F\u002Fgithub.com\u002FTigerResearch\u002FTigerBot)     |         [虎博科技](https:\u002F\u002Fgithub.com\u002FTigerResearch)         |                                               |\n|        lawyer-llama        |   \u002F   | 2023-05 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama\u002Ftree\u002Fmain\u002Fdata) |  [lawyer-llama](https:\u002F\u002Fgithub.com\u002FAndrewZhe\u002Flawyer-llama)   |         [Quzhe Huang](https:\u002F\u002Fgithub.com\u002FAndrewZhe)          |                     法律                      |\n|         Bactrian-X         |  67K  | 2023-05 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FMBZUAI\u002FBactrian-X) |    [bactrian-x](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp\u002Fbactrian-x)    |           [MBZUAI](https:\u002F\u002Fgithub.com\u002Fmbzuai-nlp)            |                                               |\n|      CrimeKgAssitant       |  52k  | 2023-05 | 中文 |       [dataset](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)        |       [LAW-GPT](https:\u002F\u002Fgithub.com\u002FLiuHC0428\u002FLAW-GPT)        |         [hongchengliu](https:\u002F\u002Fgithub.com\u002FLiuHC0428)         |                     法律                      |\n|     moss-002-sft-data      | 1.1M  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Ffnlp\u002Fmoss-002-sft-data) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|     moss-003-sft-data      | 1.1M  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS\u002Ftree\u002Fmain\u002FSFT_data\u002Fconversations\u002Fconversation_without_plugins) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|  moss-003-sft-plugin-data  | 300K  | 2023-04 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS\u002Ftree\u002Fmain\u002FSFT_data\u002Fconversations\u002Fconversation_with_plugins) |          [MOSS](https:\u002F\u002Fgithub.com\u002FOpenLMLab\u002FMOSS)           |           [复旦大学](https:\u002F\u002Fgithub.com\u002FOpenLMLab)           |                                               |\n|       Safety-Prompts       | 100K  | 2023-04 | 中文 |    [dataset](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts)     | [Safety-Prompts](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts) |           [清华大学](https:\u002F\u002Fgithub.com\u002Fthu-coai)            |   [评测平台](http:\u002F\u002F115.182.62.166:18000\u002F)    |\n|           OASST1           |   \u002F   | 2023-04 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FOpenAssistant\u002Foasst1) | [Open-Assistant](https:\u002F\u002Fgithub.com\u002FLAION-AI\u002FOpen-Assistant) |    [OpenAssistant](https:\u002F\u002Fhuggingface.co\u002FOpenAssistant)     |                                               |\n|         ShareChat          |  90K  | 2023-04 | 中英 |     [dataset](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725\u002Ffiles)      |       [ShareChat](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725)        |         [czhko](https:\u002F\u002Fparatranz.cn\u002Fprojects\u002F6725)          |                                               |\n|         GPT-4-LLM          |  52K  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM\u002Fblob\u002Fmain\u002Fdata\u002Falpaca_gpt4_data_zh.json) | [GPT-4-LLM](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4\u002FGPT-4-LLM) | [Instruction-Tuning-with-GPT-4](https:\u002F\u002Fgithub.com\u002FInstruction-Tuning-with-GPT-4) |   [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03277)   |\n|            COIG            | 200K  | 2023-04 | 中文 |     [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBAAI\u002FCOIG)     |   [FlagInstruct](https:\u002F\u002Fgithub.com\u002FFlagOpen\u002FFlagInstruct)   |             [BAAI](https:\u002F\u002Fhuggingface.co\u002FBAAI)              | [paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.07987.pdf) |\n|           RedGPT           |  50k  | 2023-04 | 中文 |       [dataset](https:\u002F\u002Fgithub.com\u002Fziliwangnlp\u002FRedGPT)       |       [RedGPT](https:\u002F\u002Fgithub.com\u002Fziliwangnlp\u002FRedGPT)        |          [MiniGPT](https:\u002F\u002Fgithub.com\u002Fziliwangnlp)           |                                               |\n|        shareGPT_cn         |  20k  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FshareGPT_cn) | [shareGPT_cn](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FshareAI\u002FshareGPT_cn) |          [shareAI](https:\u002F\u002Fhuggingface.co\u002FshareAI)           |                                               |\n|    generated_chat_0.4M     | 0.4M  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fgenerated_chat_0.4M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                   角色对话                    |\n|    multiturn_chat_0.8M     | 0.8M  | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fmultiturn_chat_0.8M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                   多轮任务                    |\n|     school_math_0.25M      | 0.25M | 2023-04 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Fschool_math_0.25M) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                    数学题                     |\n|         Zhihu-KOL          |   \u002F   | 2023-03 | 中文 | [ dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Fwangrui6\u002FZhihu-KOL) |      [Zhihu-KOL](https:\u002F\u002Fgithub.com\u002Fwangrui6\u002FZhihu-KOL)      |         [Rui Wang](https:\u002F\u002Fhuggingface.co\u002Fwangrui6)          |                                               |\n|      InstructionWild       | 104k  | 2023-03 | 中英 | [dataset](https:\u002F\u002Fgithub.com\u002FXueFuzhao\u002FInstructionWild\u002Ftree\u002Fmain\u002Fdata) | [InstructionWild](https:\u002F\u002Fgithub.com\u002FXueFuzhao\u002FInstructionWild) |          [Xue Fuzhao](https:\u002F\u002Fgithub.com\u002FXueFuzhao)          |                                               |\n|         Alpaca-CoT         |  \u002F.   | 2023-03 | 中英 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FQingyiSi\u002FAlpaca-CoT\u002Ftree main) |    [Alpaca-CoT](https:\u002F\u002Fgithub.com\u002FPhoebusSi\u002FAlpaca-CoT)     |         [Qingyi Si](https:\u002F\u002Fhuggingface.co\u002FQingyiSi)         |                                               |\n|       GuanacoDataset       |   \u002F   | 2023-03 | 多语 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FJosephusCheung\u002FGuanacoDataset) |      [guanaco-model](https:\u002F\u002Fguanaco-model.github.io\u002F)       |         [Guanaco](https:\u002F\u002Fgithub.com\u002FGuanaco-Model)          |                                               |\n| Traditional-Chinese-alpaca |  52K  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fntunlplab\u002Ftraditional-chinese-alpaca\u002Ftree main data) | [Traditional-Chinese Alpaca](https:\u002F\u002Fgithub.com\u002Fntunlplab\u002Ftraditional-chinese-alpaca) |         [NTU NLP Lab](https:\u002F\u002Fgithub.com\u002Fntunlplab)          |                    gpt翻译                    |\n|   alpaca_chinese_dataset   |   \u002F   | 2023-03 | 中文 |                         [dataset]()                          | [alpaca_chinese_dataset](https:\u002F\u002Fgithub.com\u002Fhikariming\u002Falpaca_chinese_dataset) |            [akou](https:\u002F\u002Fgithub.com\u002Fhikariming)             |                   人工校验                    |\n|   alpaca-chinese-dataset   |   \u002F   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fgithub.com\u002Fcarbonz0\u002Falpaca-chinese-dataset) | [alpaca-chinese-dataset](https:\u002F\u002Fgithub.com\u002Fcarbonz0\u002Falpaca-chinese-dataset) |            [carbonz](https:\u002F\u002Fgithub.com\u002Fcarbonz0)            |                   机器翻译                    |\n|        train_2M_CN         |  2M   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_2M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|        train_1M_CN         |  1M   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_1M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|       train_0.5M_CN        | 0.5M  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FBelleGroup\u002Ftrain_0.5M_CN) |        [BELLE](https:\u002F\u002Fgithub.com\u002FLianjiaTech\u002FBELLE)         |      [Ke Technologies](https:\u002F\u002Fgithub.com\u002FLianjiaTech)       |                                               |\n|   HC3 人类-ChatGPT 问答    |   \u002F   | 2023-03 | 中文 | [dataset](https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002Fsimpleai\u002FHC3-Chinese\u002Fsummary) | [chatgpt-comparison-detection](https:\u002F\u002Fgithub.com\u002FHello-SimpleAI\u002Fchatgpt-comparison-detection) |        [SimpleAI](https:\u002F\u002Fgithub.com\u002FHello-SimpleAI)         |                                               |\n|     firefly-train-1.1M     | 1.1M  | 2023-03 | 中文 | [dataset](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FYeungNLP\u002Ffirefly-train-1.1M) |      [Firefly](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly)      |       [Jianxin Yang](https:\u002F\u002Fgithub.com\u002Fyangjianxin1)        |                                               |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n### 嵌入\n\n> MTEB排行榜:  https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fmteb\u002Fleaderboard [镜像](https:\u002F\u002Fhf-mirror.com\u002Fspaces\u002Fmteb\u002Fleaderboard)\n\n|           模型           |  大小   | 时间    | 语言 |     领域     |                             下载                             |                           项目地址                           |                       机构\u002F个人                        |                             文                             |\n| :----------------------: | :-----: | ------- | :--: | :----------: | :----------------------------------------------------------: | :----------------------------------------------------------: | :----------------------------------------------------: | :----------------------------------------------------------: |\n| Qwen3-Embedding | 0.6\u002F4\u002F8B | 2025-06 | 多语 | 通用 | [[🤗HF]](https:\u002F\u002Fhuggingface.co\u002FQwen\u002FQwen3-Embedding-0.6B) | [Qwen3-Embedding](https:\u002F\u002Fgithub.com\u002FQwenLM\u002FQwen3-Embedding) | [QwenLM](https:\u002F\u002Fgithub.com\u002FQwenLM) | [Arxiv](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.05176) |\n| JinaColBERT V2 | large | 2024-08 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-colbert-v2) | \u002F | [Jina AI](https:\u002F\u002Fhuggingface.co\u002Fjinaai) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.16672) |\n| Conan-embedding-v1 | large | 2024-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentBAC\u002FConan-embedding-v1) | \u002F | [TencentABC](https:\u002F\u002Fhuggingface.co\u002FTencentBAC) | [Paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.15710) |\n| xiaobu-v2 | large | 2024-07 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Flier007\u002Fxiaobu-embedding-v2) | \u002F | [lier007](https:\u002F\u002Fhuggingface.co\u002Flier007) |  |\n| zpoint_large | Large | 2024-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fiampanda\u002Fzpoint_large_embedding_zh) | \u002F | [**yang**](https:\u002F\u002Fhuggingface.co\u002Fiampanda) |  |\n| BCE | 279M | 2024-01 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fmaidalun1020\u002Fbce-embedding-base_v1) | [BCEmbedding](https:\u002F\u002Fgithub.com\u002Fnetease-youdao\u002FBCEmbedding) | [netease-youdao](https:\u002F\u002Fgithub.com\u002Fnetease-youdao) |  |\n| Cohere | Base | 2023-09 | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FCohere) | \u002F | [Cohere](https:\u002F\u002Fhuggingface.co\u002FCohere) | [Blog](https:\u002F\u002Ftxt.cohere.com\u002Fintroducing-embed-v3\u002F) |\n| jina | Base | 2023-10 | 中英 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fjinaai\u002Fjina-embeddings-v2-base-zh) | \u002F | [Jina AI](https:\u002F\u002Fhuggingface.co\u002Fjinaai) |  |\n| Dmeta | **400MB** | 2024-02 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul\u002FDmeta-embedding) | \u002F | [DMetaSoul](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul) |  |\n| bge-m3 |  | 2024-02 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | \u002F | [BAAI](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | [Paper](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2402.03216.pdf) |\n| tao-8k |  | 2023-11 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Famu) |  | [amu](https:\u002F\u002Fhf-mirror.com\u002Famu) |  |\n| bge | s\u002Fb\u002Fl | 2023-10 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FBAAI) | \u002F | [BAAI](https:\u002F\u002Fhf-mirror.com\u002FBAAI) |  |\n| gte-zh | s\u002Fb\u002Fl | 2023-08 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002FDMetaSoul\u002FDmeta-embedding) | \u002F | Alibaba DAMO | [Paper](arXiv:2308.03281) |\n| m3e | s\u002Fb\u002Fl | 2023-06 | 中文 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fmoka-ai) | \u002F | [Moka-AI](https:\u002F\u002Fhf-mirror.com\u002Fmoka-ai) |  |\n| LaBSE |  |  | 多语 | 通用 | [[🤗HF\\]](https:\u002F\u002Fhf-mirror.com\u002Fsentence-transformers\u002FLaBSE) | \u002F | [Sentence Transformers](https:\u002F\u002Fhf-mirror.com\u002Fsentence-transformers) | |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## 大模型评估基准\n\n### 1. C-Eval \n\nC-Eval 是一个全面的中文基础模型评估套件。它包含了13948个多项选择题，涵盖了52个不同的学科和四个难度级别，查看[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)了解更多细节。\n\n[[官方网站](https:\u002F\u002Fcevalbenchmark.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FSJTU-LIT\u002Fceval)]  [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.08322)] \n\n### 2. FlagEval \n\nFlagEval是一个面向AI基础模型的评测工具包。我们的目标是探索和集合科学、公正、开放的基础模型评测基准、方法及工具，对多领域（如语言、语音、视觉及多模态）的基础模型进行多维度（如准确性、效率、鲁棒性等）的评测。我们希望通过对基础模型的评测，加深对基础模型的理解，促进相关的技术创新及产业应用。\n\n[[官方网站](https:\u002F\u002Fcevalbenchmark.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FFlagOpen\u002FFlagEval)] \n\n### 3. SuperCLUElyb \n\nSuperCLUE琅琊榜，这是一个中文通用大模型对战评价基准，它以众包的方式提供匿名、随机的对战。在本文中，我们发布了初步的结果和基于Elo评级系统的排行榜，Elo评级是国际象棋和其他竞技游戏中广泛使用的评级系统。我们邀请整个社区加入这项工作，贡献新的模型，并通过提问和投票选出你最喜欢的答案来评估它们。\n\n[[官方网站](https:\u002F\u002Fwww.superclueai.com\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FSuperCLUElyb)]\n\n### 4. XiezhiBenchmark \n\n该基准包括来自13个不同学科的516个学科的220,000个多项选择题，以及15,000个来自单一学科和多个学科的问题。我们对47个最新的大型语言模型在Xiezhi上进行了评估，结果表明在科学、工程、农学、医学和艺术等领域，大型语言模型的表现超过了人类的平均水平，但在经济学、法学、教育学、文学、历史和管理学等领域，人类的表现仍然远远超过了大型语言模型。\n\n[[官方网站]()]   [[Github](https:\u002F\u002Fgithub.com\u002Fmikegu721\u002Fxiezhibenchmark)] [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.05783)]\n\n### 5. Open LLM Leaderboard\n\n由HuggingFace组织的一个LLM评测榜单，目前已评估了较多主流的开源LLM模型，以英文为主。主要目标是跟踪、排名和评估最新的大语言模型和聊天机器人，让所有人方便的观察到开源社区的进展和评估这些模型。这个排行榜有一个关键优势，社区中的任何成员都可以提交模型，并在 Hugging Face 的 GPU 集群上自动评估。\n\n[[官方网站](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FHuggingFaceH4\u002Fopen_llm_leaderboard)] \n\n### 6. 中文大模型安全评测平台 \n\n大模型安全测评依托于一套系统的安全评测框架，涵盖了仇恨言论、偏见歧视言论、犯罪违法、隐私、伦理道德等八大类别，包括细粒度划分的40余个二级安全类别。\n\n[[官方网站](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fleaderboard\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FSafety-Prompts)] [[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.10436)]\n\n### 7. OpenCompass大语言模型评测 \n\nOpenCompass 是一款开源、高效、全面的评测大模型体系及开放平台。我们提供完整开源可复现的评测框架，支持大语言模型、多模态模型各类模型的一站式评测。利用分布式技术，即使面对千亿参数模型也能在数小时内完成评测。基于多个不同维度的高认可度数据集开放多样化的评测方式，包括零样本评测、小样本评测和思维链评测，全方位量化模型各个维度能力。\n\n[[官方网站](https:\u002F\u002Fopencompass.org.cn\u002F)]   [[Github](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002Fopencompass)]\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## 在线体验大模型\n\n> **注**：需要申请或者注册方可体验,更多见[Github](https:\u002F\u002Fgithub.com\u002Fwgwang\u002FLLMs-In-China)\n\n### 1. ChatGPT--OpenAI\n\nOpenAI所提出的GPT相关模型，也是目前最火的大语言模型，发布版本已经到了4.0.\n\n[[官方网站](https:\u002F\u002Fchat.openai.com\u002Fchat)] \n\n### 2. New bing--微软\n\nNewBing是微软在2023年3月推出的一款全新的搜索引擎，它基于OpenAI的大型语言模型（LLM），并结合了ChatGPT和DALL·E的技术，为用户提供了一个AI驱动的网络助手。\n\n[[官方网站](https:\u002F\u002Fwww.bing.com\u002F)] \n\n### 3. 文心一言--百度\n\n百度全新一代知识增强大语言模型，文心大模型家族的新成员，能够与人对话互动，回答问题，协助创作，高效便捷地帮助人们获取信息、知识和灵感。\n\n[[官方网站](https:\u002F\u002Fyiyan.baidu.com\u002Fwelcome)] \n\n### 4. 通义大模型--阿里\n\n阿里大模型统一品牌，覆盖语言、听觉、多模态等领域致力于实现接近人类智慧的通用智能，让AI从“单一感官”到“五官全开”\n\n[[官方网站](https:\u002F\u002Ftongyi.aliyun.com\u002F)] \n\n### 5. 星火认知大模型--科大讯飞\n\n科大讯飞推出的新一代认知智能大模型，拥有跨领域的知识和语言理解能力，能够基于自然对话方式理解与执行任务。从海量数据和大规模知识中持续进化，实现从提出、规划到解决问题的全流程闭环。\n\n[[官方网站](https:\u002F\u002Fxinghuo.xfyun.cn\u002F)] \n\n### 6. Claude--Anthropic\n\nClaude，是人工智能初创公司Anthropic 发布的一款类似ChatGPT的产品。\n\n[[官方网站](https:\u002F\u002Fwww.anthropic.com\u002Fproduct)] \n\n### 7. ChatGLM--智谱AI\n\n基于千亿基座模型 GLM-130B，注入代码预训练，通过有监督微调等技术实现人类意图对齐，具备问答、多轮对话、代码生成功能的中英双语大模型。\n\n[[官方网站](https:\u002F\u002Fchatglm.cn\u002F)] \n\n### 8. 天工大模型--昆仑万维\n\n天工作为一款大型语言模型，拥有强大的自然语言处理和智能交互能力，能够实现智能问答、聊天互动、文本生成等多种应用场景，并且具有丰富的知识储备，涵盖科学、技术、文化、艺术、历史等领域。\n\n[[官方网站](https:\u002F\u002Ftiangong.kunlun.com\u002F)] \n\n### 9. 序列猴子大模型--出门问问\n\n序列猴子大模型是一个具有长序列、多模态、单模型、大数据等特点的超大规模语言模型，基于其通用的表示能力与推理能力，能够进行多轮交互，打造更便捷流畅的用户体验，极大地提高了生产效率和数据处理能力，被广泛应用于问答系统、自然语言处理、机器翻译、文本摘要等领域。\n\n[[官方网站](https:\u002F\u002Fopenapi.mobvoi.com\u002Flargemodel-introduce)] \n\n### 10. MOSS--复旦大学\n\nMOSS是复旦大学自然语言处理实验室发布的国内第一个对话式大型语言模型\n\n[[官方网站](https:\u002F\u002Fmoss.fastnlp.top\u002F)] \n\n### 11. 360智脑大模--360\n\n360智脑的生成与创作、多轮对话、代码能力、阅读理解、逻辑与推理、多模态等十大核心能力可覆盖大模型全部应用场景。\n\n[[官方网站](https:\u002F\u002Fai.360.cn\u002F)]\n\n### 12. 曹植GPT大语言模型--达观数据\n\n达观数据积极探索大语言模型LLM的实践，研发国产版GPT“曹植”系统，作为垂直、专用、自主可控的国产版ChatGPT模型，不仅实现专业领域的AIGC智能化应用，且可内置在客户各类业务系统中提供专用服务\n\n[[官方网站](http:\u002F\u002Fwww.datagrand.com\u002Fproducts\u002Faigc\u002F)] \n\n### 13. 日日新--商汤\n\n商汤“日日新SenseNova”大模型体系，正式问世\n\n不仅展示了大模型体系下的语言大模型，还展示了AI文生图创作、2D\u002F3D数字人生成、大场景\u002F小物体生成等一系列生成式AI模型及应用，还揭开了依托商汤AI大装置SenseCore实现“大模型+大算力”融合创新的研发体系。\n\n[[官方网站](https:\u002F\u002Ftechday.sensetime.com\u002Flist)] \n\n### 14. 天燕大模型--APUS\n\n天燕大模型是APUS公司自研的多模态大模型（LMM），具备对文本、图像、视频、音频的理解和生成能力（视频和音频的能力即将推出）。\n\n[[官方网站](https:\u002F\u002Fwww.apusai.com\u002F#\u002F)] \n\n### 15. 元乘象--智子引擎\n\n图文机器人\n\n[[官方网站](https:\u002F\u002Fchatimg.aixiaoqingxu.com\u002F)] \n\n### 16. 西湖大模型--西湖心辰\n\n[[官方网站](https:\u002F\u002Fxinchenai.com\u002F)] \n\n### 17. Dongni--深思考\n\nAI多模态搜索引擎\n\n[[官方网站](https:\u002F\u002Fwww.dongni.ai\u002F#\u002F)] \n\n### 18. 山海大模型--云知声\n\n只需一次对话即可获取信息、知识和灵感，解决需求。是每个人身边的助理、朋友和专家。\n\n[[官方网站](https:\u002F\u002Fshanhai.unisound.com\u002F)] \n\n### 19. MiniMax大模型--MiniMax\n\nMiniMax 最新一代的中文大语言模型帮助人类高效写作、激发创意、获取知识、做出决策现已对企业开放API体验\n\n[[官方网站](https:\u002F\u002Fapi.minimax.chat\u002F)] \n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 开源模型库平台\n\n1. 🤗[HuggingFace](https:\u002F\u002Fhuggingface.co\u002F): The AI community building the future.\n* 模型下载地址: [https:\u002F\u002Fhuggingface.co\u002Fmodels](https:\u002F\u002Fhuggingface.co\u002Fmodels)\n\n2. [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fhome): ModelScope平台是以模型为中心的模型开源社区\n* 模型下载地址:[https:\u002F\u002Fmodelscope.cn\u002Fmodels](https:\u002F\u002Fmodelscope.cn\u002Fmodels)\n\n3. [flagopen](https:\u002F\u002Fflagopen.baai.ac.cn\u002F#\u002Fhome): flagopen飞智大模型技术开源体系\n* 模型下载地址: [https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodels](https:\u002F\u002Fmodel.baai.ac.cn\u002Fmodels)\n\n4. [始智AI](https:\u002F\u002Fwisemodel.cn\u002Fhome): 中国AI开源创新社区\n* 模型下载地址: [https:\u002F\u002Fwisemodel.cn\u002Fmodels](https:\u002F\u002Fwisemodel.cn\u002Fmodels)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## 开源数据集库\n\n1. huggfaceing数据集仓库: [https:\u002F\u002Fhuggingface.co\u002Fdatasets](https:\u002F\u002Fhuggingface.co\u002Fdatasets)\n* 包含了自然语言处理、计算机视觉、语音、多模态等数据集，内置100多个多语言公共数据集下载\n\n2. ModelScope数据集仓库:[https:\u002F\u002Fmodelscope.cn\u002Fdatasets](https:\u002F\u002Fmodelscope.cn\u002Fdatasets)\n* 提供了覆盖自然语言处理、计算机视觉、语音、多模态等数据集，更有阿里巴巴集团贡献的专业领域数据集，\n\n3. flagopen数据集仓库: [https:\u002F\u002Fdata.baai.ac.cn\u002Fdata](https:\u002F\u002Fdata.baai.ac.cn\u002Fdata)\n* 内置公共数据集下载，可下200G大规模预训练语料[WuDaoCorpora](https:\u002F\u002Fdata.baai.ac.cn\u002Fdetails\u002FWuDaoCorporaText)\n\n4. cluebenchmarks数据集仓库：[https:\u002F\u002Fwww.cluebenchmarks.com\u002FdataSet_search.html](https:\u002F\u002Fwww.cluebenchmarks.com\u002FdataSet_search.html)\n* 多个中英文NLP数据集，并可申请下载100GB的高质量中文预训练语料[CLUECorpus2020](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUECorpus2020)\n\n5. [MNBVC](https:\u002F\u002Fgithub.com\u002Fesbatmop\u002FMNBVC): Massive Never-ending BT Vast Chinese corpus\n* 超大规模中文语料集\n\n6. OpenDataLab数据集仓库: [https:\u002F\u002Fopendatalab.com\u002F](https:\u002F\u002Fopendatalab.com\u002F)\n* OpenDataLab 是有影响力的数据开源开放平台，公开数据集触手可及。\n\n7. [OSCAR](https:\u002F\u002Foscar-project.org\u002F): Open Super-large Crawled Aggregated coRpus, 多语言数据集\n* 最新版本包含1.4T的中文语言数据集\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n## Other-Awesome\n\n| 序号 | 名称 | 说明 | 作者\u002F组织 | Stars | 地址 |\n| :---: | :--- | :--- | :--- | :--- | :--- |\n| 1 | Awesome-Chatgpt | ChatGPT资源、工具、应用和用法 | awesome-chatgpt | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fawesome-chatgpt\u002Fawesome-chatgpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fawesome-chatgpt\u002Fawesome-chatgpt) |\n| 2 | Awesome-ChatGPT-Prompts | ChatGPT模型Prompts示例集 | f | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ff\u002Fawesome-chatgpt-prompts?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ff\u002Fawesome-chatgpt-prompts) |\n| 3 | Awesome-LLM | 大型语言模型相关资料精选列表 | Hannibal046 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHannibal046\u002FAwesome-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHannibal046\u002FAwesome-LLM) |\n| 4 | Awesome-LangChain | LangChain相关应用列表 | kyrolabs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyrolabs\u002Fawesome-langchain?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyrolabs\u002Fawesome-langchain) |\n| 5 | Awesome-Open-Gpt | GPT开源精选项目合集（170+）| EwingYangs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEwingYangs\u002Fawesome-open-gpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FEwingYangs\u002Fawesome-open-gpt) |\n| 6 | Awesome-Multimodal-LLMs | 多模态大语言模型（MLLM）精选列表 | BradyFU | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FBradyFU\u002FAwesome-Multimodal-Large-Language-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FBradyFU\u002FAwesome-Multimodal-Large-Language-Models) |\n| 7 | Awesome-Transformer-Attention | Vision Transformer & Attention论文列表 | cmhungsteve | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcmhungsteve\u002FAwesome-Transformer-Attention?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcmhungsteve\u002FAwesome-Transformer-Attention) |\n| 8 | Awesome-Prompt-Engineering | Prompt Engineering精选资源 | promptslab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fpromptslab\u002FAwesome-Prompt-Engineering?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fpromptslab\u002FAwesome-Prompt-Engineering) |\n| 9 | Awesome-AITools | AI相关实用工具整理 | ikaijua | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fikaijua\u002FAwesome-AITools?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fikaijua\u002FAwesome-AITools) |\n| 10 | Awesome-Chinese-LLM | 中文LLM开源模型、应用、数据集及教程 | HqWu-HITCS | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHqWu-HITCS\u002FAwesome-Chinese-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHqWu-HITCS\u002FAwesome-Chinese-LLM) |\n| 11 | Awesome-LLM4Tool | 大语言模型工具相关论文和资源 | OpenGVLab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FOpenGVLab\u002FAwesome-LLM4Tool?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FOpenGVLab\u002FAwesome-LLM4Tool) |\n| 12 | Awesome LLM Security | LLM安全相关工具、文档和项目 | corca-ai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcorca-ai\u002Fawesome-llm-security?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcorca-ai\u002Fawesome-llm-security) |\n| 13 | Awesome AI Agents | AI Agent开源和闭源项目列表 | e2b-dev | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fe2b-dev\u002Fawesome-ai-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fe2b-dev\u002Fawesome-ai-agents) |\n| 14 | Awesome-LLM-Notes | LLM相关笔记 | kyaiooiayk | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyaiooiayk\u002FAwesome-LLM-Large-Language-Models-Notes?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyaiooiayk\u002FAwesome-LLM-Large-Language-Models-Notes) |\n| 15 | Awesome-Efficient-LLM | 高效大语言模型精选列表 | horseee | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhorseee\u002FAwesome-Efficient-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhorseee\u002FAwesome-Efficient-LLM) |\n| 16 | Awesome Datasets for LLM | LLM训练数据集精选 | Zjh-819 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZjh-819\u002FLLMDataHub?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FZjh-819\u002FLLMDataHub) |\n| 17 | Awesome-Align-LLM-Human | LLMs与人类对齐的论文和资源 | GaryYufei | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FGaryYufei\u002FAlignLLMHumanSurvey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FGaryYufei\u002FAlignLLMHumanSurvey) |\n| 18 | Awesome RLHF | 强化学习与人类反馈（RLHF）论文 | opendilab | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fopendilab\u002Fawesome-RLHF?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fopendilab\u002Fawesome-RLHF) |\n| 19 | Prompt-in-context-learning | Prompt上下文学习工程指南 | EgoAlpha | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FEgoAlpha\u002Fprompt-in-context-learning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FEgoAlpha\u002Fprompt-in-context-learning) |\n| 20 | Awesome Instruction Learning | 指令学习论文和数据集阅读列表 | RenzeLou | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FRenzeLou\u002Fawesome-instruction-learning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FRenzeLou\u002Fawesome-instruction-learning) |\n| 21 | Awesome-Foundation-Models | 视觉和语言任务基础模型列表 | uncbiag | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Funcbiag\u002FAwesome-Foundation-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Funcbiag\u002FAwesome-Foundation-Models) |\n| 22 | Awesome-AI-Devtools | AI驱动的开发者工具列表 | jamesmurdza | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjamesmurdza\u002Fawesome-ai-devtools?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjamesmurdza\u002Fawesome-ai-devtools) |\n| 23 | Awesome-Autonomous-GPT | 自主AI Agent相关项目资源 | ScarletPan | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FScarletPan\u002Fawesome-autonomous-gpt?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FScarletPan\u002Fawesome-autonomous-gpt) |\n| 24 | Awesome-Papers-Autonomous-Agent | 自主Agent相关论文集 | lafmdp | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flafmdp\u002FAwesome-Papers-Autonomous-Agent?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Flafmdp\u002FAwesome-Papers-Autonomous-Agent) |\n| 25 | Awesome-Code-LLM | 代码LLM综合研究 | codefuse-ai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fcodefuse-ai\u002FAwesome-Code-LLM?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fcodefuse-ai\u002FAwesome-Code-LLM) |\n| 26 | Awesome-LLM-Compression | LLM压缩研究论文和工具 | HuangOwen | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FHuangOwen\u002FAwesome-LLM-Compression?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FHuangOwen\u002FAwesome-LLM-Compression) |\n| 27 | Autonomous-Agents | 自主Agent（LLMs）| tmgthb | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ftmgthb\u002FAutonomous-Agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ftmgthb\u002FAutonomous-Agents) |\n| 28 | Awesome-Large-Multimodal-Agents | 大型多模态Agent | jun0wanan | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjun0wanan\u002Fawesome-large-multimodal-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjun0wanan\u002Fawesome-large-multimodal-agents) |\n| 29 | Awesome-LLM-Prompt-Optimization | LLM提示调优和自动优化论文 | jxzhangjhu | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fjxzhangjhu\u002FAwesome-LLM-Prompt-Optimization?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fjxzhangjhu\u002FAwesome-LLM-Prompt-Optimization) |\n| 30 | Awesome-LLMs-Datasets | LLMs文本数据集大列表 | lmmlzn | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Flmmlzn\u002FAwesome-LLMs-Datasets?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Flmmlzn\u002FAwesome-LLMs-Datasets) |\n| 31 | Awesome-RAG-Survey | RAG相关论文分类收集 | hymie122 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhymie122\u002FRAG-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhymie122\u002FRAG-Survey) |\n| 32 | Awesome-Tool-LLM | 工具增强的语言模型论文 | zorazrw | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fzorazrw\u002Fawesome-tool-llm?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fzorazrw\u002Fawesome-tool-llm) |\n| 33 | LLM-Tool-Survey | 工具学习与LLMs相关论文 | quchangle1 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fquchangle1\u002FLLM-Tool-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fquchangle1\u002FLLM-Tool-Survey) |\n| 34 | Awesome-Foundation-Model-Leaderboards | 基础模型排行榜和开发工具 | SAILResearch | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSAILResearch\u002Fawesome-foundation-model-leaderboards?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FSAILResearch\u002Fawesome-foundation-model-leaderboards) |\n| 35 | Awesome-LLM-KV-Cache | LLM KV Cache论文和代码精选 | Zefan-Cai | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FZefan-Cai\u002FAwesome-LLM-KV-Cache?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FZefan-Cai\u002FAwesome-LLM-KV-Cache) |\n| 36 | Awesome-LLM-Strawberry | OpenAI Strawberry(o1)和推理论文 | hijkzzz | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhijkzzz\u002FAwesome-LLM-Strawberry?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhijkzzz\u002FAwesome-LLM-Strawberry) |\n| 37 | Awesome-LLM-Resourses | 全世界最好的LLM资料总结 | WangRongsheng | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWangRongsheng\u002Fawesome-LLM-resourses?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FWangRongsheng\u002Fawesome-LLM-resourses) |\n| 38 | Awesome-LLM-Reasoning-Openai-o1-Survey | OpenAI o1相关工作和技术背景 | wjn1996 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fwjn1996\u002FAwesome-LLM-Reasoning-Openai-o1-Survey?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fwjn1996\u002FAwesome-LLM-Reasoning-Openai-o1-Survey) |\n| 39 | Awesome-LLM-Reasoning | 解锁LLM和MLLM推理能力的论文资源 | atfortes | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fatfortes\u002FAwesome-LLM-Reasoning?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fatfortes\u002FAwesome-LLM-Reasoning) |\n| 40 | Awesome-Computer-Use-Agents | 计算机使用Agent论文和博客 | ranpox | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Franpox\u002Fawesome-computer-use?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Franpox\u002Fawesome-computer-use) |\n| 41 | LLM_MultiAgents_Survey_Papers | LLM多智能体调研论文 | taichengguo | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers) |\n| 42 | Awesome_Think_With_Images | 让LVLMs用图像思考的研究 | zhaochen0110 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fzhaochen0110\u002FAwesome_Think_With_Images?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fzhaochen0110\u002FAwesome_Think_With_Images) |\n| 43 | Awesome Label-free RL Papers | 无标签强化学习论文 | QingyangZhang | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FQingyangZhang\u002FLabel-Free-RLVR?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FQingyangZhang\u002FLabel-Free-RLVR) |\n| 44 | Awesome-AI-Agent-Papers | AI智能体研究论文集合 | masamasa59 | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fmasamasa59\u002Fai-agent-papers?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmasamasa59\u002Fai-agent-papers) |\n| 45 | Awesome-Large-Search-Models | 搜索导向型大语言模型研究 | Wu-Zongyu | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FWu-Zongyu\u002FAwesome-Large-Search-Models?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FWu-Zongyu\u002FAwesome-Large-Search-Models) |\n| 46 | Awesome-Deep-Research | Agent深度研究资源 | DavidZWZ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDavidZWZ\u002FAwesome-Deep-Research?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FDavidZWZ\u002FAwesome-Deep-Research) |\n| 47 | Reading-List-of-LLM-Based-Data-Science-Agent | LLM数据科学Agent阅读列表 | Stephen-SMJ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FStephen-SMJ\u002FReading-List-of-LLM-Based-Data-Science-Agent?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FStephen-SMJ\u002FReading-List-of-LLM-Based-Data-Science-Agent) |\n| 48 | Awesome-Agents | 开源AI Agent工具和产品 | kyrolabs | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fkyrolabs\u002Fawesome-agents?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fkyrolabs\u002Fawesome-agents) |\n| 49 | Awesome-OpenClaw-Skills | OpenClaw社区构建的技能 | VoltAgent | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FVoltAgent\u002Fawesome-openclaw-skills?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FVoltAgent\u002Fawesome-openclaw-skills) |\n| 50 | Awesome-Claude-Code | Claude Code相关技能和工具 | hesreallyhim | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fhesreallyhim\u002Fawesome-claude-code?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002Fhesreallyhim\u002Fawesome-claude-code) |\n| 51 | Awesome-Claude-Skills | Claude技能、资源和工具 | ComposioHQ | ![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FComposioHQ\u002Fawesome-claude-skills?style=flat-square) | [GitHub](https:\u002F\u002Fgithub.com\u002FComposioHQ\u002Fawesome-claude-skills) |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n\n## NLU系列\n\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n## NLU系列\n\n### BERT\n\n+ 2018 | BERT: 面向语言理解的深度双向Transformer预训练 | Jacob Devlin, 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1810.04805)\n+ 2019 | 针对中文BERT的整词掩码预训练 | Yiming Cui, 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1906.08101)\n\n| 模型            | 版本  | TensorFlow                                                   | PyTorch                                                      | 作者                                                  | 源地址                                                       | 应用领域     |\n| --------------- | ----- | ------------------------------------------------------------ | ------------------------------------------------------------ | ----------------------------------------------------- | ------------------------------------------------------------ | ------------ |\n| BERT-Base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fbert_models\u002F2018_11_03\u002Fchinese_L-12_H-768_A-12.zip) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fbert) | 通用 |\n| BERT-wwm | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1RoTQsXp2hkQ1gSRVylRIJfQxJUgkfJMW) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FA2483AD206EF85FD91569B498A3C3879) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1AQitrjbvCWc51SYiLN-cJq4e0WiNN4KY) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| BERT-wwm-ext | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1buMLEjdtrXE2c4G1rpsNGWEx7lUQ0RHi) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F653637473FFF242C3869D77026C9BDB5) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1iNeYFhCBJWeUsIlnW_2K6SMwXkM4gLb_) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| bert-base-民事 | base | [阿里云](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip) | - | THUNLP | [GitHub](https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP) | 司法 |\n| bert-base-刑事 | base | [阿里云](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fxs.zip) | - | THUNLP | [GitHub](https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP) | 司法 |\n| BAAI-JDAI-BERT | base | [京东云](https:\u002F\u002Fjdai009.s3.cn-north-1.jdcloud-oss.com\u002Fjd-aig\u002Fopen\u002Fmodels\u002Fnlp_baai\u002F20190918\u002FJDAI-BERT.tar.gz) | - | JDAI | [GitHub](https:\u002F\u002Fgithub.com\u002Fjd-aig\u002Fnlp_baai) | 电商客服对话 |\n| FinBERT | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F193B4sT63mMeh4zfge0FJbbFY447KiJXp\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=D-pVJyW6bbJSre5RxotJkA) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1qW1YWtw3q9Q28QThrIY-rDU9Gl-SLIKO\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=y_O586GBmZZ7g4d2nOF0Vg) | Value Simplex | [GitHub](https:\u002F\u002Fgithub.com\u002Fvaluesimplex\u002FFinBERT) | 金融科技领域 |\n| EduBERT | base | [好未来AI](https:\u002F\u002Fai.100tal.com\u002Fdownload\u002FTAL-EduBERT-TF.zip) | [好未来AI](https:\u002F\u002Fai.100tal.com\u002Fdownload\u002FTAL-EduBERT.zip) | tal-tech | [GitHub](https:\u002F\u002Fgithub.com\u002Ftal-tech\u002Fedu-bert) | 教育领域 |\n| guwenbert-base | base | - | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dw_08p7CVsz0jVj4jd58lQ) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fethanyt\u002Fguwenbert-base) | Ethan | [GitHub](https:\u002F\u002Fgithub.com\u002FEthan-yt\u002Fguwenbert) | 古文领域 |\n| guwenbert-large | large | - | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TL9mBIlIv2rSvp61xCkeJQ) · [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fethanyt\u002Fguwenbert-large) | Ethan | [GitHub](https:\u002F\u002Fgithub.com\u002FEthan-yt\u002Fguwenbert) | 古文领域 |\n| BERT-CCPoem | small | - | [thunlp](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002FBERT_CCPoem_v1.zip) | THUNLP-AIPoet | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUNLP-AIPoet\u002FBERT-CCPoem) | 古典诗歌 |\n\n备注: \n\n> wwm全称为**Whole Word Masking **,一个完整的词的部分WordPiece子词被mask，则同属该词的其他部分也会被mask\n\n> ext表示在更多数据集下训练\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ChineseBERT\n\n+ 2021 | ChineseBERT：基于字形与拼音信息增强的中文预训练 | Zijun Sun, 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2106.16038.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| ChineseBERT | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FShannonAI\u002FChineseBERT-base) | ShannonAI | [GitHub](https:\u002F\u002Fgithub.com\u002FShannonAI\u002FChineseBert) | 通用 |\n| ChineseBERT | large | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FShannonAI\u002FChineseBERT-large) | ShannonAI | [GitHub](https:\u002F\u002Fgithub.com\u002FShannonAI\u002FChineseBert) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoBERTa\n\n+ 2019 | RoBERTa: 一种鲁棒优化的 BERT 预训练方法 | Yinhan Liu 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1907.11692.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| RoBERTa-tiny-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny-pair | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny-pair.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny3L768-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny3L768-clue.zip) | - | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-tiny3L312-clue | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-tiny3L312-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-large-pair | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-large-pair.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RoBERTa-large-clue | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Fcluebenchmark\u002Fpretrained_models\u002FRoBERTa-large-clue.zip) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=hoR01GbhcmnDhZxVodeO4w) | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEPretrainedModels) | 通用 |\n| RBT3 | 3层base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1-rvV0nBDvRCASbRz8M9Decc3_8Aw-2yi\u002Fview?usp=drive_open) · [讯飞云](https:\u002F\u002Fpan.iflytek.com\u002Flink\u002F275E5B46185C982D4AF5AC295E1651B6) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1_LqmIxm8Nz1Abvlqb8QFZaxYo-TInOed\u002Fview) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL3 | 3层large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1Jzn1hYwmv0kXkfTeIvNT61Rn1IbRc-o8) · [讯飞云](https:\u002F\u002Fpan.iflytek.com\u002Flink\u002F0DD18FAC080BAF75DBA28FB5C0047760) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eHM3l4fMo6DsQYGmey7UZGiTmQquHw25) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL4 | 4层large | [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002Flink\u002F7B04C5BF09812DB241BBA973D649824C) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RBTL6 | 6层large | [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002Flink\u002FB935B1F701A8FD352CAA74614126C4A2) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-wwm-ext | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1jMAKIJmPn7kADgD3yQZhpsqM-IRM1qZt) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F98D11FAAF0F0DBCB094EE19CCDBC98BF) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1eHM3l4fMo6DsQYGmey7UZGiTmQquHw25) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-wwm-ext-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1dtad0FFzG11CBsawu8hvwwzU2R0FDI94) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FAC056611607108F33A744A0F56D0F6BE) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1-2vEZfIFCdM1-vJ3GD6DlSyKT4eVXMKq) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-BERT-wwm) | 通用 |\n| RoBERTa-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ykENKV7dIFAqRRQbZIh0mSb7Vjc2MeFA) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hAs7-VSn5HZWxBHQMHKkrg) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1H6f4tYlGXgug1DdhYzQVBuwIGAkAflwB) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1AGC76N7pZOzWuo8ua1AZfw) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Froberta_zh) | 通用 |\n| RoBERTa-Large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1W3WgPJWGVKlU9wpUYsdZuurAIFKvrl_Y) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Rk_QWqd7-wBTwycr91bmug) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1yK_P8VhWZtdgzaG0gJ3zUGOKWODitKXZ) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Froberta_zh) | 通用 |\n| RoBERTa-tiny | tiny | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-mini | mini | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-small | small | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-medium | medium | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n| RoBERTa-base | base | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ALBERT\n\n+ 2019 | ALBERT：用于语言表示自监督学习的轻量级BERT | Zhenzhong Lan 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1909.11942.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| Albert-tiny | tiny | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_tiny_489k.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1VBsUJ7R5eWF1VcUBQY6BEn1a9miEvlBr) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_base_zh_additional_36k_steps.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1HeijHGubWR-ElFnfxUf8IrRx7Ghm1S_Q) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-large | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_large_zh.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1TAuv7OiFN8qbkT6S_VbfVbhkhg2GUF3q) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-xlarge | xlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_zh\u002Falbert_xlarge_zh_183k.zip) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1kMhogQRX0uGWIGdNhm7-3hsmHlrzY_gp) | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Falbert_zh) | 通用 |\n| Albert-base | base | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_base_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-large | large | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_large_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-xlarge | xlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_xlarge_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n| Albert-xxlarge | xxlarge | [Google Drive](https:\u002F\u002Fstorage.googleapis.com\u002Falbert_models\u002Falbert_xxlarge_zh.tar.gz) | - | Google Research | [GitHub](https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002FALBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### NEZHA\n\n+ 2019 | NEZHA：面向中文理解的神经上下文表示 | Junqiu Wei 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.00204)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| NEZHA-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1tFs-wMoXIY8zganI2hQgDBoDPqA8pSmh?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1UVQjy9v_Sv4cQd1ELdjqww) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-base-wwm | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1bK6WbqAG-B6BX2d9RPprnh2MPK6zL0t_?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1-YG8e5V2zKCnR3azsGZT1w) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZPPM5XtTTOrS_CDRak1t2nCBU-LFZ_zs?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1R1Ew-Lu8oIP6QhWO6nqp5Q) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-large-wwm | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1LOAUc9LXyogC2gmP_q1ojqj41Ez01aga?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1JK1RLIJd2wpuypku3stt8w) | [GitHub](https:\u002F\u002Fgithub.com\u002FlonePatient\u002FNeZha_Chinese_PyTorch) | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| WoNEZHA（word-base） | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ABKwUuIiMEEsRXxxlbyKmw) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### MacBERT\n\n+ 2020 | 重新审视用于中文自然语言处理的预训练模型 | Yiming Cui 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.13922.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| MacBERT-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1aV69OhYzIwj_hn-kO1RiBa-m8QAusQ5b\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCF2A1F9AEBF859650E8956854A994C1B) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FMacBERT) | 通用 |\n| MacBERT-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1lWYxnk1EqTA2Q20_IShxBrCPc5VSDCkT\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F805D743F3826EC4F4EB5C774D34432AE) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FMacBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### WoBERT\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| WoBERT | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BrdFSx9_n1q2uWBiQrpalw) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n| WoBERT-plus | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Ltq3ltQsyBCj56zoOOvI9A) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FWoBERT) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### XLNET\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| XLNet-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1m9t-a4gKimbkP5rqGXXsEAEPhJSZ8tvx) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F32619C31BDEFAF2D82CB8C7F66F01D5C) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1mPDgcMfpqAf2wk9Nl8OaMj654pYrWXaR) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-XLNet) | 通用 |\n| XLNet-mid | middle | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1342uBc7ZmQwV6Hm6eUIN_OnBSz1LcvfA) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FED7DF7ED04B871AFE8E4D97704B9134D) | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1u-UmsJGy5wkXgbNK4w9uRnC0RxHLXhxy) | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-XLNet) | 通用 |\n| XLNet-zh-Large | large | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1dy0Z27DoZdMpSmoz1Q4G5A) | - | brightmart | [GitHub](https:\u002F\u002Fgithub.com\u002Fbrightmart\u002Fxlnet_zh) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ELECTRA\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| ELECTRA-180g-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1P9yAuW0-HR7WvZ2r2weTnx3slo6f5u9q\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F7605874F5A11CD693C60EAB79005CCF3) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-small-ex | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1NYJTKH1dWzrIBi86VSUK-Ml9Dsso_kuf\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F3EFCF909FC5CFEA6F0EA7AA774C64CF0) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1RlmfBgyEwKVBFagafYvJgyCGuj7cTHfh\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002F38E14C9BDBE8E93F09DFE2198E308489) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| ELECTRA-180g-small | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F177EVNTQpH2BRW-35-0LNLjV86MuDnEmu\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FD1B8FE678FA5BC31AA43BD99AD09913E) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 通用 |\n| legal-ELECTRA-large | large | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1jPyVi_t4QmTkFy7PD-m-hG-lQ8cIETzD\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| legal-ELECTRA-base | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F12ZLaoFgpqGJxSi_9KiQV-jdVN4XRGMiD\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| legal-ELECTRA-small | small | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1arQ5qNTNoc1OyMH8wBUKdTMy2QponIFY\u002Fview?usp=sharing) · [讯飞云](http:\u002F\u002Fpan.iflytek.com\u002F#\u002Flink\u002FCC111ED9B1D4AE7E26C69A520A6D8759) | - | Yiming Cui | [GitHub](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-ELECTRA) | 司法领域 |\n| ELECTRA-tiny | tiny | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1UP4byt4-kgenwST0KvyMYNbln6FfaSLp\u002Fview?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fshare\u002Finit?surl=4b-IiCkjRg-6XIYPXnezZA) | - | CLUE | [GitHub](https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FELECTRA) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ZEN\n\n+ 2019 | ZEN: 基于 N 元语法表示增强的中文文本编码器预训练 | Shizhe Diao 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1911.00720.pdf)\n+ 2021 | ZEN 2.0: 针对 N 元语法增强文本编码器的持续训练与适配 | Yan Song 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.01279.pdf)\n\n| 模型            | 版本  | TensorFlow | PyTorch                                                      | 作者                                                         | 源地址                                                 | 应用领域 |\n| --------------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------ | -------- |\n| ZEN-Base        | base  |            | \u003Cp>[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1oxNdYMQOpFe3QlttH98bAqg_FQiiVeMr)\u003Cbr>[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1E2ylFnzGSkwBc8tY_OqZYg)\u003C\u002Fp> | [Sinovation Ventures AI Institute](https:\u002F\u002Fgithub.com\u002Fsinovation) | [github](https:\u002F\u002Fgithub.com\u002Fsinovation\u002FZEN)            | 通用     |\n| Erlangshen-ZEN2 | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-ZEN2-668M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL)                    | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ERNIE\n\n+ 2019 | ERNIE: 通过知识融合增强的表示学习 | Yu Sun 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.09223)\n\n+ 2020 | SKEP: 面向情感分析的情感知识增强预训练 | Hao Tian 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.05635)\n\n+ 2020 | ERNIE-Gram: 面向自然语言理解的显式 N 元语法掩码语言建模预训练 | Dongling Xiao 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2010.12148)\n\n| 模型                 | 版本  | PaddlePaddle                                                 | PyTorch | 作者                                            | 源地址                                                       | 应用领域 |\n| -------------------- | ----- | ------------------------------------------------------------ | ------- | ----------------------------------------------- | ------------------------------------------------------------ | -------- |\n| ernie-1.0-base       | base  | [link](https:\u002F\u002Fernie-github.cdn.bcebos.com\u002Fmodel-ernie1.0.1.tar.gz) |         | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FERNIE)              | 通用     |\n| ernie_1.0_skep_large | large | [link](https:\u002F\u002Fsenta.bj.bcebos.com\u002Fskep\u002Fernie_1.0_skep_large_ch.tar.gz) |         | [Baidu](https:\u002F\u002Fgithub.com\u002Fbaidu)               | [github](https:\u002F\u002Fgithub.com\u002Fbaidu\u002FSenta)                     | 情感分析 |\n| ernie-gram           | base  | [link](https:\u002F\u002Fernie-github.cdn.bcebos.com\u002Fmodel-ernie-gram-zh.1.tar.gz) |         | [Baidu](https:\u002F\u002Fgithub.com\u002Fbaidu)               | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FERNIE\u002Ftree\u002Fdevelop\u002Fernie-gram) | 通用     |\n\n备注: \n\n> PaddlePaddle 转 TensorFlow 可参考: [tensorflow_ernie](https:\u002F\u002Fgithub.com\u002FArthurRizar\u002Ftensorflow_ernie)\n\n> PaddlePaddle 转 PyTorch 可参考: [ERNIE-Pytorch](https:\u002F\u002Fgithub.com\u002Fnghuyong\u002FERNIE-Pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ERNIE3\n\n+ 2021 | ERNIE 3.0：面向语言理解和生成的大规模知识增强预训练 | 孙宇等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2107.02137)\n\n+ 2021 | ERNIE 3.0 Titan：探索更大规模的知识增强预训练以提升语言理解和生成能力 | 王书桓等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.02241)\n\n| 模型             | 版本                           | PaddlePaddle                                                 | PyTorch                                                      | 作者                                            | 源地址                                                       | 应用领域 |\n| ---------------- | ------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ----------------------------------------------- | ------------------------------------------------------------ | -------- |\n| ernie-3.0-base   | 12层，768隐藏单元，12头       | [链接](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_base_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-base-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-medium | 6层，768隐藏单元，12头         | [链接](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_medium_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-medium-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-mini   | 6层，384隐藏单元，12头         | [链接](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_mini_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-mini-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-micro  | 4层，384隐藏单元，12头         | [链接](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_micro_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-micro-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n| ernie-3.0-nano   | 4层，312隐藏单元，12头         | [链接](https:\u002F\u002Fbj.bcebos.com\u002Fpaddlenlp\u002Fmodels\u002Ftransformers\u002Fernie_3.0\u002Fernie_3.0_nano_zh.pdparams) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fnghuyong\u002Fernie-3.0-nano-zh) | [PaddlePaddle](https:\u002F\u002Fgithub.com\u002FPaddlePaddle) | [github](https:\u002F\u002Fgithub.com\u002FPaddlePaddle\u002FPaddleNLP\u002Ftree\u002Fdevelop\u002Fmodel_zoo\u002Fernie-3.0) | 通用     |\n\n> PaddlePaddle转PyTorch可参考: [ERNIE-Pytorch](https:\u002F\u002Fgithub.com\u002Fnghuyong\u002FERNIE-Pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n### RoFormer\n\n+ 2021 | RoFormer：采用旋转位置编码的增强型Transformer | 苏剑林等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.09864)\n\n+ 2021 | Transformer升级之路：2、博采众长的旋转式位置编码 | 苏剑林. | spaces | [`博客文章`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F8265)\n\n| 模型          | 版本       | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                    | 应用领域 |\n| ------------- | ---------- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | --------------------------------------------------------- | -------- |\n| roformer      | base(L12)  | [百度网盘-xy9x](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1fiss862YsGCwf2HvU_Jm-g) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformer      | small(L6)  | [百度网盘-gy97](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1iIXgZHHCgrYGXVRRSSCVPg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformer-char | base(L12)  | [百度网盘-bt94](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Q1pq8F4Fsl6bTipUAkqeDQ) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer)    | 通用     |\n| roformerV2    | small(L6)  | [百度网盘-ttn4](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1huUrC9P60Afggo8AfiUcmA)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-6_H-384_A-6.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n| roformerV2    | base(L12)  | [百度网盘-pfoh](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qcnN4LVKVe0-mnHlkN3-6Q)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-12_H-768_A-12.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n| roformerV2    | large(L24) | [百度网盘-npfv](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1QiJWSZrGxn8vek-8myvL6w)[追一](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_roformer-v2-char_L-24_H-1024_A-16.zip) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-v2) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### StructBERT\n\n+ 2019 | StructBERT：将语言结构融入预训练以实现深度语言理解 | 王伟等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.04577)\n\n| 模型       | 版本       | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ---------- | ---------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| StructBERT | large(L24) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FStructBERT\u002Fch_model) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FStructBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Lattice-BERT\n\n+ 2021 | Lattice-BERT：在中文预训练语言模型中利用多粒度表示 | 赖宇轩等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2104.07204.pdf)\n\n| 模型        | 版本      | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ----------- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| LatticeBERT | tiny(L4)  |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-tiny-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n| LatticeBERT | small(L6) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-lite-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n| LatticeBERT | base(L12) |            | [阿里云](https:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FLatticeBERT\u002Fchinese_labert-base-std-512.tar.gz) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FLatticeBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-BERT\n\n+ 2021 | 孟子：面向轻量级但巧妙的中文预训练模型 | 张卓生等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.06696)\n\n| 模型            | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域 |\n| --------------- | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | -------- |\n| Mengzi-BERT     | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-bert-base) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 通用     |\n| Mengzi-BERT-fin | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-bert-base-fin) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 金融财经 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Bloom\n\n+ 2022 | Bloom：BigScience 大规模开放科学开源多语言语言模型 | huggingface bigscience | - | [`BLOG`](https:\u002F\u002Fbigscience.huggingface.co\u002Fblog\u002Fbloom)\n\n| 模型         | 版本    | TensorFlow | PyTorch                                                     | 作者                                        | 源地址                                                | 应用领域 |\n| ------------ | ------- | ---------- | ----------------------------------------------------------- | ------------------------------------------- | ----------------------------------------------------- | -------- |\n| bloom-6b4-zh | 6B(L30) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fbloom-6b4-zh) | [Langboat](https:\u002F\u002Fhuggingface.co\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) | 通用     |\n\n> 注：作者另有bloom-389m-zh到bloom-2b5-zh等多个中文模型\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### TaCL\n\n+ 2021 | TaCL：通过标记感知对比学习改进 BERT 预训练 | 苏一轩等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2111.04198.pdf)\n\n| 模型 | 版本      | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                    | 应用领域 |\n| ---- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ----------------------------------------- | -------- |\n| TaCL | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fcambridgeltl\u002Ftacl-bert-base-chinese) | [yxuansu](https:\u002F\u002Fgithub.com\u002Fyxuansu) | [github](https:\u002F\u002Fgithub.com\u002Fyxuansu\u002FTaCL) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### MC-BERT\n\n+ 2021 | MC-BERT：用于中文生物医学文本挖掘的概念化表示学习 | alibaba-research | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.10813.pdf)\n\n| 模型    | 版本      | TensorFlow | PyTorch                                                      | 作者                                                    | 源地址                                                    | 应用领域 |\n| ------- | --------- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------- | --------------------------------------------------------- | -------- |\n| MC-BERT | base(L12) |            | [link](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1ccXRvaeox5XCNP_aSk_ttLBY695Erlok) | [alibaba-research](https:\u002F\u002Fgithub.com\u002Falibaba-research) | [github](https:\u002F\u002Fgithub.com\u002Falibaba-research\u002FChineseBLUE) | 生物医疗 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### 二郎神\n\n| 模型       | 版本       | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ---------- | ---------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Erlangshen | large(L24) | bert |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-1.3B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### PERT\n\n+ 2022 | PERT：使用打乱语言模型进行预训练的BERT | 崔一鸣等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2203.06906)\n\n| 模型       | 版本       | TensorFlow                                                   | PyTorch                                                      | 作者                                   | 源地址                                  | 应用领域 |\n| ---------- | ---------- | ------------------------------------------------------------ | ------------------------------------------------------------ | -------------------------------------- | --------------------------------------- | -------- |\n| PERT-base  | base(12L)  | [百度网盘-rcsw](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1yDHkYKmdaJkliTGHWQtdFA?pwd=rcsw) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-pert-base)  | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FPERT) | 通用     |\n| PERT-large | large(24L) | [百度网盘-e9hs](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1MG44TRIgqV6m_StfB_yBqQ?pwd=e9hs) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-pert-large) | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FPERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### MobileBERT\n\n+ 2020 | MobileBERT：一种适用于资源受限设备的紧凑型任务无关BERT | 孙志青等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2004.02984.pdf)\n\n| 模型                        | 版本  | TensorFlow                                                   | PyTorch | 作者                                   | 源地址                                                | 应用领域 |\n| --------------------------- | ----- | ------------------------------------------------------------ | ------- | -------------------------------------- | ----------------------------------------------------- | -------- |\n| Chinese-MobileBERT-base-f2  | base  | [百度网盘-56bj](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16g1LgXXAV01I-cFgPdeOow?pwd=56bj) |         | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-base-f4  | base  | [百度网盘-v2v7](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F16SGBJhWFYru47EEyTZJljA?pwd=v2v7) |         | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-large-f2 | large | [百度网盘-6m5a](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Kp7n8lQJOtevzMovKSa3kw?pwd=6m5a) |         | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n| Chinese-MobileBERT-large-f4 | large | [百度网盘-3h9b](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F19xz9kH1HmM2Og0Aqn7l6vA?pwd=3h9b) |         | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FChinese-MobileBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### GAU-α\n\n+ 2022 | GAU-α：线性时间内的（FLASH）Transformer质量 | 华伟哲等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.10447.pdf) | [`blog`](https:\u002F\u002Fspaces.ac.cn\u002Farchives\u002F9052)\n\n| 模型                              | 版本 | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                  | 应用领域 |\n| --------------------------------- | ---- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ------------------------------------------------------- | -------- |\n| chinese_GAU-alpha-char_L-24_H-768 | base | [下载](https:\u002F\u002Fopen.zhuiyi.ai\u002Freleases\u002Fnlp\u002Fmodels\u002Fzhuiyi\u002Fchinese_GAU-alpha-char_L-24_H-768.zip) |         | [追一科技](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002FGAU-alpha) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### DeBERTa\n\n+ 2020 | DeBERTa：具有解耦注意力机制的解码增强型BERT | 何鹏程等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2006.03654) |\n\n| 模型              | 版本   | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ----------------- | ------ | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| DeBERTa-v2-Large  | large  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-320M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n| DeBERTa-v2-xLarge | xlarge |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-710M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n| DeBERTa-v2        | base   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FErlangshen-DeBERTa-v2-186M-Chinese-SentencePiece) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### GlyphBERT\n\n+ 2021 | GlyphCRM：基于汉字字形的双向编码器表示 | 李宇欣等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2107.00395.pdf) |\n\n| 模型          | 版本 | TensorFlow | PyTorch                                                 | 作者                                      | 源地址                                           | 应用领域 |\n| ------------- | ---- | ---------- | ------------------------------------------------------- | ----------------------------------------- | ------------------------------------------------ | -------- |\n| GlyphCRM-base | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FHIT-TMG\u002FGlyphBERT) | [HITsz-TMG](https:\u002F\u002Fgithub.com\u002FHITsz-TMG) | [github](https:\u002F\u002Fgithub.com\u002FHITsz-TMG\u002FGlyphBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### CKBERT\n\n+ 2022 | 通过加速异构知识预训练重新审视并推进中文自然语言理解 | 张涛林等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.05287)\n\n| 模型                | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                       | 应用领域 |\n| ------------------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | -------------------------------------------- | -------- |\n| pai-ckbert-base-zh  | base  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-base-zh) | [阿里巴巴](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n| pai-ckbert-large-zh | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-large-zh) | [阿里巴巴](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n| pai-ckbert-huge-zh  | huge  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai\u002Fpai-ckbert-huge-zh) | [阿里巴巴](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fhuggingface.co\u002Falibaba-pai) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### LERT\n\n+ 2022 | LERT：一种基于语言学动机的预训练语言模型 | 崔一鸣等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.05344)\n\n| 模型               | 版本 | TensorFlow                                                   | PyTorch                                                      | 作者                                   | 源地址                                  | 应用领域 |\n| ------------------ | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | -------------------------------------- | --------------------------------------- | -------- |\n| Chinese-LERT-small | 15m  | [百度网盘-4vuy](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1fBk3em8a5iCMwPLJEBq2pQ?pwd=4vuy) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-small) | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n| Chinese-LERT-base  | 400m | [百度网盘-9jgi](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1_yb1jCDJ4s2P8OrF_5E_Tg?pwd=9jgi) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-base)  | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n| Chinese-LERT-large | 1.2G | [百度网盘-s82t](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1pxsS3almc90DPvMXH6BMYQ?pwd=s82t) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fhfl\u002Fchinese-lert-large) | [崔一鸣](https:\u002F\u002Fgithub.com\u002Fymcui) | [github](https:\u002F\u002Fgithub.com\u002Fymcui\u002FLERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoCBert\n\n+ 2022 | RoCBert：具有多模态对比学习预训练的鲁棒中文Bert | 苏辉等 | ACL | [`PDF`](https:\u002F\u002Faclanthology.org\u002F2022.acl-long.65.pdf)\n\n| 模型    | 版本 | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域 |\n| ------- | ---- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | -------- |\n| rocbert | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fweiweishi\u002Froc-bert-base-zh) | [魏伟石](https:\u002F\u002Fgithub.com\u002Fsww9370) | [github](https:\u002F\u002Fgithub.com\u002Fsww9370\u002FRoCBert) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### M3E\n\n| 模型      | 版本  | PyTorch                                               | 作者                                      | 源地址                                                       | 备注         |\n| --------- | ----- | ----------------------------------------------------- | ----------------------------------------- | ------------------------------------------------------------ | ------------ |\n| m3e-base  | base  | [m3e-base](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-base)   | [Moka-AI](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai) | [uniem](https:\u002F\u002Fgithub.com\u002Fwangyuxinwhy\u002Funiem) | 文本嵌入模型 |\n| M3e-small | Small | [m3e-small](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai\u002Fm3e-small) | [Moka-AI](https:\u002F\u002Fhuggingface.co\u002Fmoka-ai) | [uniem](https:\u002F\u002Fgithub.com\u002Fwangyuxinwhy\u002Funiem) | 文本嵌入模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### LEALLA\n\n+ 2023 | LEALLA：利用知识蒸馏学习轻量级、语言无关的句子嵌入 | 毛卓远等 | EACL | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2302.08387)\n\n| 模型         | 版本  | PyTorch                                                      | 作者            | 源地址 | 备注         |\n| ------------ | ----- | ------------------------------------------------------------ | --------------- | ------ | ------------ |\n| LEALLA-base  | base  | [LEALLA-base](https:\u002F\u002Fhuggingface.co\u002Fsetu4993\u002FLEALLA-base)   | Google Research | \u002F      | 文本嵌入模型 |\n| LEALLA-large | large | [LEALLA-large](https:\u002F\u002Fhuggingface.co\u002Fsetu4993\u002FLEALLA-large) | Google Research | \u002F      | 文本嵌入模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## NLG系列\n\n### GPT\n\n+ 2019 | 通过生成式预训练提升语言理解能力 | Alec Radford 等 | arXiv | [`PDF`](https:\u002F\u002Fs3-us-west-2.amazonaws.com\u002Fopenai-assets\u002Fresearch-covers\u002Flanguage-unsupervised\u002Flanguage_understanding_paper.pdf)\n\n+ 2019 | 语言模型是无监督的多任务学习者 | Alec Radford 等 | arXiv | [`PDF`](https:\u002F\u002Fd4mucfpksywv.cloudfront.net\u002Fbetter-language-models\u002Flanguage-models.pdf)\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| GPT2 | 30亿语料 | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1mT_qCQg4AWnAXTwKfsyyRWCRpgPrBJS3) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1yiuTHXUr2DpyBqmFYLJH6A) | Caspar ZHANG | [GitHub](https:\u002F\u002Fgithub.com\u002Fimcaspar\u002Fgpt2-ml) | 通用 |\n| GPT2 | 15亿语料 | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F1IzWpQ6I2IgfV7CldZvFJnZ9byNDZdO4n) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TA_3e-u2bXg_hcx_NwVbGw) | Caspar ZHANG | [GitHub](https:\u002F\u002Fgithub.com\u002Fimcaspar\u002Fgpt2-ml) | 通用 |\n| CDial-GPT-LCCC-base | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT_LCCC-base) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| CDial-GPT2-LCCC-base | base | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT2_LCCC-base) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| CDial-GPT-LCCC-large | large | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FCDial-GPT_LCCC-large) | thu-coai | [GitHub](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FCDial-GPT) | 中文对话 |\n| GPT2-dialogue | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Ogz3eapvtvdY4VUcY9AEwMbNRivLKhri?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1qDZ24VKLBU9GKARX9Ev65g) | yangjianxin1 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat) | 闲聊对话 |\n| GPT2-mmi | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1oWgKXP6VG_sT_2VMrm0xL4uOqfYwzgUP?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1ubXGuEvY8KmwEjIVTJVLww) | yangjianxin1 | [GitHub](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat) | 闲聊对话 |\n| GPT2-散文模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1rJC4niJKMVwixUQkuL9k5teLRnEYTmUf?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1nbrW5iw34GRhoTin8uU2tQ) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 散文 |\n| GPT2-诗词模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1Z6nF1nrgTkrZcRLHedQHXb4_M9I7yQPN?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Hy0OQ5xZcTLer9MQZW8o3g) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 诗词 |\n| GPT2-对联模型 | base | - | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1ZnsvS7oHRVueNKj_SeEhiQt86aze3ojj?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1j9yVQwjlXZq58wOyXK4lcg) | Zeyao Du | [GitHub](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) | 对联 |\n| RoFormer-GPT | base(L12) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F11YTnWLX0ThQr2P2yW0P7GA) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### GPT-3\n\n+ 2019 | Transformer-XL：超越固定长度上下文的注意力语言模型 | Zihang Dai 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1901.02860)\n\n+ 2020 | 语言模型是少样本学习者 | Tom B. Brown 等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2005.14165)\n\n| 模型 | 版本 | 介绍 | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ---- | ------- | ---- | ------ | -------- |\n| Chinese-Transformer-XL | 29亿参数(GPT-3) | [项目首页](https:\u002F\u002Fgpt-3.aminer.cn\u002F) | [模型下载](http:\u002F\u002Fdorc-model-team.ks3-cn-beijing.ksyun.com\u002Fren-zhi\u002Fmy-model\u002Fmp_rank_00_model_states.pt) | THUDM | [GitHub](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChinese-Transformer-XL) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### NEZHA-Gen\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| NEZHA-Gen | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1i4f_8LhaVDNjnGlLXNJ0rNgBP0E4L6V0?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Bgle8TpcxHyuUz_jAXOBWw) | - | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 通用 |\n| NEZHA-Gen | base | [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1B5-jxUlzhoKwFVMQ-nkqqbmJQgr1lRAp?usp=sharing) · [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1me6_BGYHbWFdTi80vRQ2Lg) | - | HUAWEI | [GitHub](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 诗歌 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPM-Generate\n\n| 模型 | 版本 | 资源 | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ---- | ------- | ---- | ------ | -------- |\n| CPM | 26亿参数 | [项目首页](https:\u002F\u002Fcpm.baai.ac.cn\u002F) | [模型下载](https:\u002F\u002Fcpm.baai.ac.cn\u002Fdownload.html) | Tsinghua AI | [GitHub](https:\u002F\u002Fgithub.com\u002FTsinghuaAI\u002FCPM-Generate) | 通用 |\n\n备注:\n\n> PyTorch转TensorFlow可参考: [CPM-LM-TF2](https:\u002F\u002Fgithub.com\u002Fqhduan\u002FCPM-LM-TF2)\n> PyTorch转PaddlePaddle可参考: [CPM-Generate-Paddle](https:\u002F\u002Fgithub.com\u002Fjm12138\u002FCPM-Generate-Paddle)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### T5\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| T5 | small | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer\u002Ft5-small-chinese-cluecorpussmall) | [🤗HF](https:\u002F\u002Fhuggingface.co\u002Fuer\u002Ft5-small-chinese-cluecorpussmall) | DBIIR @ RUC | [GitHub](https:\u002F\u002Fgithub.com\u002Fdbiir\u002FUER-py) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### T5-PEGASUS\n\n| 模型 | 版本 | Keras | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | ----- | ------- | ---- | ------ | -------- |\n| T5-PEGASUS | base | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1lQ9Dt9wZDO3IgiCL9tP-Ug) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Ft5-pegasus) | 通用 |\n| T5-PEGASUS | small | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1bXRVWnDyAck9VfSO9_1oJQ) | - | ZhuiyiTechnology | [GitHub](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Ft5-pegasus) | 通用 |\n\n> Keras转PyTorch可参考: [t5-pegasus-pytorch](https:\u002F\u002Fgithub.com\u002Frenmada\u002Ft5-pegasus-pytorch)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-T5\n\n| 模型 | 版本 | TensorFlow | PyTorch | 作者 | 源地址 | 应用领域 |\n| ---- | ---- | --------- | ------- | ---- | ------ | -------- |\n| Mengzi-T5 | base(L12) | - | [🤗HF](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-t5-base) | Langboat | [GitHub](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### 盘古-Alpha\n\n+ 2021 | 盘古-α：具有自动并行计算的大规模自回归预训练中文语言模型 | 魏增等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.12369)\n\n| 模型                   | 版本 | 资源                                                         | 下载地址                                                     | 作者                                                         | 源地址                                                       | 应用领域 |\n| ---------------------- | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------------ | -------- |\n| 盘古α-2.6B             | 2.6G | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 通用     |\n| 盘古α-13B              | 12G  | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha\u002Fsrc\u002Fbranch\u002Fmaster) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha) | 通用     |\n| 盘古α-2.6B pytorch版本 | 2.6G | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch#user-content-%E6%A8%A1%E5%9E%8B%E6%96%87%E4%BB%B6%E4%B8%8B%E8%BD%BD) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU) | 通用     |\n| 盘古α-13B pytorch版本  | 12G  | [项目首页](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch) | [模型下载](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU\u002Fsrc\u002Fbranch\u002Fmaster\u002FpanguAlpha_pytorch#user-content-%E6%A8%A1%E5%9E%8B%E6%96%87%E4%BB%B6%E4%B8%8B%E8%BD%BD) | [PCL-Platform.Intelligence](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence) | [github](https:\u002F\u002Fgit.openi.org.cn\u002FPCL-Platform.Intelligence\u002FPanGu-Alpha-GPU) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### EVA\n\n+ 2021 | EVA：大规模生成式预训练的开放域中文对话系统 | 周浩等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.01547)\n\n| 模型          | 版本     | 介绍                                            | 模型下载                                                     | 作者                                    | 源地址                                    | 应用领域       | 备注             |\n| ------------- | -------- | ----------------------------------------------- | ------------------------------------------------------------ | --------------------------------------- | ----------------------------------------- | -------------- | ---------------- |\n| EVA           | 28亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdownload?resourceId=1428554651225075712&filename=eva-ckpt.tar.gz) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 | 需要登陆才能下载 |\n| EVA2.0-xLarge | xlarge   | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-xlarge) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n| EVA2.0-large  | large    | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-large)  | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n| EVA2.0-base   | base     | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FEVA) | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Fthu-coai\u002FEVA2.0-base)   | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FEVA) | 中文开放域对话 |                  |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>-\n\n### BART\n\n+ 2019 | BART：用于自然语言生成、翻译和理解的去噪序列到序列预训练 | 迈克·刘易斯等 | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.13461)\n\n| 模型       | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                   | 应用领域 |\n| ---------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ---------------------------------------- | -------- |\n| BART-base  | base  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fbart-base-chinese) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 中文通用 |\n| BART-large | large |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fbart-large-chinese) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### 闻仲\n\n| 模型     | 版本       | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| -------- | ---------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Wenzhong | large(L24) | GPT2 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FWenzhong-3.5B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### 余元\n\n| 模型   | 版本       | 类型 | TensorFlow | PyTorch                                                     | 作者                                      | 源地址                                                 | 应用领域 |\n| ------ | ---------- | ---- | ---------- | ----------------------------------------------------------- | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Yuyuan | large(L24) | GPT2 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FYuyuan-3.5B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 医学领域 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### RWKV\n\n+ 2021 | 一种无注意力机制的Transformer | 翟双飞等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.14103)\n+ 2022 | RWKV语言模型 | [GitHub](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM)\n\n| 模型 | 版本      | 类型 | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                         | 应用领域 |\n| ---- | --------- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ---------------------------------------------- | -------- |\n| RWKV | base(L12) |      |            | [GitHub](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FAI-Writer\u002Freleases)      | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [GitHub](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FAI-Writer) | 小说     |\n| RWKV | 7B        |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b) | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [GitHub](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV)  | 小说     |\n| RWKV | 14B       |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBlinkDL\u002Frwkv-4-pile-7b\u002Ftree\u002Fmain) | [PENG Bo](https:\u002F\u002Fgithub.com\u002FBlinkDL) | [GitHub](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FChatRWKV)  | 小说     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### PromptCLUE\n\n| 模型             | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                          | 应用领域 |\n| ---------------- | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | ----------------------------------------------- | -------- |\n| PromptCLUE       | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FPromptCLUE-base) | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [GitHub](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n| PromptCLUE-v1-5  | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FPromptCLUE-base-v1-5) | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [GitHub](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n| PromptCLUE-large | large     |            | [API在线调用](https:\u002F\u002Fwww.clueai.cn\u002F)                        | [ClueAI](https:\u002F\u002Fhuggingface.co\u002FClueAI) | [GitHub](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FPromptCLUE) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ChatYuan\n\n| 模型              | 版本  | 类型 | TensorFlow | PyTorch                                                      | 作者                                 | 源地址                                        | 应用领域   |\n| ----------------- | ----- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------ | --------------------------------------------- | ---------- |\n| ChatYuan          | large | T5   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v1) | [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) | 功能型对话 |\n| ChatYuan-large-v2 | large | T5   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FClueAI\u002FChatYuan-large-v2) | [ClueAI](https:\u002F\u002Fgithub.com\u002Fclue-ai) | [GitHub](https:\u002F\u002Fgithub.com\u002Fclue-ai\u002FChatYuan) | 功能型对话 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### SkyText\n\n| 模型    | 版本  | 类型 | TensorFlow | PyTorch                                               | 作者                                          | 源地址                                                   | 应用领域 |\n| ------- | ----- | ---- | ---------- | ----------------------------------------------------- | --------------------------------------------- | -------------------------------------------------------- | -------- |\n| SkyText | large | GPT3 |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FSkyWork\u002FSkyText) | [SkyWorkAIGC](https:\u002F\u002Fgithub.com\u002FSkyWorkAIGC) | [GitHub](https:\u002F\u002Fgithub.com\u002FSkyWorkAIGC\u002FSkyText-CN-GPT3) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### ProphetNet\n\n+ 2020 | ProphetNet：为序列到序列预训练预测未来n-gram | 齐伟珍等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2001.04063.pdf)\n+ 2021 | ProphetNet-X：用于英语、中文、多语言、对话和代码生成的大规模预训练模型 | 齐伟珍等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2104.08006)\n\n| 模型                 | 版本 | 类型 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                       | 应用领域 |\n| -------------------- | ---- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------------ | -------- |\n| ProphetNet-Zh        |      |      |            | [链接](https:\u002F\u002Fmsraprophetnet.blob.core.windows.net\u002Fprophetnet\u002Frelease_checkpoints\u002Fprophetnet_zh.pt) | [微软](https:\u002F\u002Fgithub.com\u002Fmicrosoft) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FProphetNet\u002Ftree\u002Fmaster\u002FProphetNet) | 通用     |\n| ProphetNet-Dialog-Zh |      |      |            | [链接](https:\u002F\u002Fmsraprophetnet.blob.core.windows.net\u002Fprophetnet\u002Frelease_checkpoints\u002Fprophetnet_dialog_zh.pt) | [微软](https:\u002F\u002Fgithub.com\u002Fmicrosoft) | [GitHub](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FProphetNet\u002Ftree\u002Fmaster\u002FProphetNet) | 对话     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## NLU-NLG系列\n\n### UniLM\n\n+ 2019 | 用于自然语言理解和生成的统一语言模型预训练 | 李东等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.03197)\n\n| 模型  | 版本 | TensorFlow                                                   | PyTorch                                                      | 作者                                                    | 源地址                                              | 应用领域 |\n| ----- | ---- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------------- | --------------------------------------------------- | -------- |\n| Unilm | base | [百度网盘-tblr](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1HgxIkBl5Yfwrzs1K1B6NFA) | [百度网盘-etwf](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1DHJGOFJ5cce5N5g4aBDiMQ) | [YunwenTechnology](https:\u002F\u002Fgithub.com\u002FYunwenTechnology) | [GitHub](https:\u002F\u002Fgithub.com\u002FYunwenTechnology\u002FUnilm) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Simbert \n\n+ 2020 | 鱼与熊掌兼得：融合检索和生成的SimBERT模型 | 苏剑林. | spaces | [`Blog post`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F7427)\n\n| 模型          | 版本  | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                       | 应用领域 |\n| ------------- | ----- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ------------------------------------------------------------ | -------- |\n| SimBERT Tiny  | tiny  | [百度网盘-1tp7](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1z_agqTuBTuyHANwrS-gPcg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n| SimBERT Small | small | [百度网盘-nu67](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1kq_EQDI0gpiZBLFd_AxwrA) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n| SimBERT Base  | base  | [百度网盘-6xhq](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1uGfQmX1Kxcv_cXTVsvxTsQ) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Fpretrained-models) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### RoFormer-sim\n\n+ 2021 | SimBERTv2来了！融合检索和生成的RoFormer-Sim模型 | 苏剑林. | spaces | [`Blog post`](https:\u002F\u002Fkexue.fm\u002Farchives\u002F8454)\n\n| 模型            | 版本      | TensorFlow                                                   | PyTorch | 作者                                                    | 源地址                                                     | 应用领域 |\n| --------------- | --------- | ------------------------------------------------------------ | ------- | ------------------------------------------------------- | ---------------------------------------------------------- | -------- |\n| roformer-sim    | base(L12) | [百度网盘-2cgz](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1f1FB288nv1a6jYjsNCordg) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n| roformer-sim    | small(L6) | [百度网盘-h68q](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1r0eJ7shGwQ0RzV9BTFFW4g) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n| roformer-sim-v2 | base(L12) | [百度网盘-w15n](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Igh3tSvSu_ahDZmGaOlVoA) |         | [ZhuiyiTechnology](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology) | [github](https:\u002F\u002Fgithub.com\u002FZhuiyiTechnology\u002Froformer-sim) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### 周文王\n\n| 模型        | 版本       | 类型     | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域 |\n| ----------- | ---------- | -------- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | -------- |\n| Zhouwenwang | base(L12)  | roformer |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZhouwenwang-110M) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n| Zhouwenwang | large(L24) | roformer |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FZhouwenwang-1.3B) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文通用 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPM-2\n\n+ 2021 | CPM-2: Large-scale Cost-effective Pre-trained Language Models | Zhengyan Zhang, et al. | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2106.10715)\n\n| 模型  | 版本       | 介绍                                | 模型下载                                                     | 作者                                        | 源地址                                        | 应用领域 | 备注             |\n| ----- | ---------- | ----------------------------------- | ------------------------------------------------------------ | ------------------------------------------- | --------------------------------------------- | -------- | ---------------- |\n| CPM-2 | 110亿参数  | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 通用     | 需要申请才能下载 |\n| CPM-2 | 100亿参数  | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 中英     | 需要申请才能下载 |\n| CPM-2 | 1980亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fhome) | [模型下载](https:\u002F\u002Fresource.wudaoai.cn\u002Fhome?ind=2&name=WuDao%20WenYuan&id=1394901846484627456) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FModel) | 中英     | 需要申请才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### CPT\n\n+ 2021 | CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation | Yunfan Shao, et al. | arxiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2109.05729.pdf)\n\n| 模型      | 版本       | TensorFlow | PyTorch                                              | 作者                                  | 源地址                                   | 应用领域 |\n| --------- | ---------- | ---------- | ---------------------------------------------------- | ------------------------------------- | ---------------------------------------- | -------- |\n| CPT-base  | base(L12)  |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fcpt-base)  | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 通用     |\n| CPT-large | large(L24) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002Ffnlp\u002Fcpt-large) | [fastNLP](https:\u002F\u002Fgithub.com\u002Ffastnlp) | [github](https:\u002F\u002Fgithub.com\u002Ffastnlp\u002FCPT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">Back to Top\u003C\u002Fa>]\u003C\u002Fp>\n\n### GLM\n\n+ 2022 | GLM：基于自回归空白填充的通用语言模型预训练 | 郑晓杜等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.10360)\n+ 2022 | GLM-130B：一个开放的双语预训练模型 | 曾傲寒等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2210.02414)\n\n| 模型     | 版本    | TensorFlow | PyTorch                                                      | 作者                                        | 源地址                                      | 应用领域 |\n| -------- | ------- | ---------- | ------------------------------------------------------------ | ------------------------------------------- | ------------------------------------------- | -------- |\n| GLM      | large   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002Fglm-large-chinese) | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)           | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fglm)      | 通用     |\n| GLM      | xxlarge |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002Fglm-10b-chinese)   | [THUDM](https:\u002F\u002Fgithub.com\u002FTHUDM)           | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002Fglm)      | 通用     |\n| GLM-130B | 130B    |            | [申请地址1](https:\u002F\u002Fmodels.aminer.cn\u002Fglm\u002Fzh-CN\u002Fdownload\u002FGLM-130B)[申请地址2](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSehr5Dh_i3TwACmFFi8QEgIVNYGmSPwV0GueIcsUev0NEfUug\u002Fviewform) | [THUDM](https:\u002F\u002Fmodels.aminer.cn\u002Fglm-130b\u002F) | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FGLM-130B) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### PLUG\n\n+ 2019 | StructBERT：将语言结构融入预训练以实现深度语言理解 | 王伟等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F1908.04577)\n+ 2020 | PALM：为上下文条件生成预训练自编码与自回归语言模型 | 毕斌等 | ACL| [`PDF`](https:\u002F\u002Faclanthology.org\u002F2020.emnlp-main.700\u002F)\n\n| 模型 | 版本 | 模型下载                                                  | 作者                                  | 源地址                                                       | 应用领域 |\n| ---- | ---- | --------------------------------------------------------- | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| PLUG | 27B  | [AliceMind-需要申请](https:\u002F\u002Fwww.alice-mind.com\u002Fportal#\u002F) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FStructBERT) | 通用     |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### OPD\n\n+ 2022 | 待定 | , et al. | arXiv | [`PDF`]()\n\n| 模型 | 版本 | 介绍                                                   | 模型下载                                               | 作者                                    | 源地址                                    | 应用领域       | 备注             |\n| ---- | ---- | ------------------------------------------------------ | ------------------------------------------------------ | --------------------------------------- | ----------------------------------------- | -------------- | ---------------- |\n| OPD  | 6.3B | [项目首页](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fstatic\u002Fopd\u002F) | [模型下载](http:\u002F\u002Fcoai.cs.tsinghua.edu.cn\u002Fstatic\u002Fopd\u002F) | [thu-coai](https:\u002F\u002Fgithub.com\u002Fthu-coai) | [github](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FOPD) | 中文开放域对话 | 需要申请才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## 多模态\n\n### WenLan\n\n+ 2021 | WenLan：通过大规模多模态预训练连接视觉与语言 | 霍宇奇等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.06561)\n\n| 模型          | 版本     | 介绍                                              | 模型下载                                                     | 作者                                        | 源地址                                         | 应用领域     | 备注             |\n| ------------- | -------- | ------------------------------------------------- | ------------------------------------------------------------ | ------------------------------------------- | ---------------------------------------------- | ------------ | ---------------- |\n| BriVL(WenLan) | 10亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FBriVL) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdownload?resourceId=1425655534320660480&filename=BriVL-1.0-1B-zh.tar) | [BAAI-WuDao](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao) | [github](https:\u002F\u002Fgithub.com\u002FBAAI-WuDao\u002FBriVlL) | 中文通用图文 | 需要登陆才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### CogView\n\n+ 2021 | CogView：通过Transformer掌握文本到图像生成 | 丁明等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.13290.pdf)\n\n| 模型    | 版本     | 介绍                                                | 模型下载                                            | 作者                               | 源地址                                     | 应用领域           | 备注             |\n| ------- | -------- | --------------------------------------------------- | --------------------------------------------------- | ---------------------------------- | ------------------------------------------ | ------------------ | ---------------- |\n| CogView | 40亿参数 | [项目首页](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FCogView) | [模型下载](https:\u002F\u002Fwudaoai.cn\u002Fmodel\u002Fdetail\u002FCogView) | [THUDM ](https:\u002F\u002Fgithub.com\u002FTHUDM) | [github](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FCogView) | 中文多模态生成模型 | 需要登陆才能下载 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### 紫东太初\n\n\n| 模型                        | 版本     | 介绍                                                         | 模型下载                                                     | 作者                                             | 源地址                                                      | 应用领域          | 备注                                             |\n| --------------------------- | -------- | ------------------------------------------------------------ | ------------------------------------------------------------ | ------------------------------------------------ | ----------------------------------------------------------- | ----------------- | ------------------------------------------------ |\n| 紫东太初- light_vision_text |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Flight_vision_text) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Flight_vision_text) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 中文图像-文本领域 | 紫东太初多模态大模型中的图像-文本预训练模型      |\n| 紫东太初-text[GPT]          | 32亿参数 | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Ftext) | [百度网盘-nos5](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1Wsu5OVlQBNai24NhNiaqRw) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 中文通用          | 紫东太初多模态大模型中的文本预训练模型           |\n| 紫东太初-vision             |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fvision) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fvision) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 视觉领域          | 紫东太初多模态大模型中的视觉预训练模型           |\n| 紫东太初-speech             |          | [项目首页](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fspeech) | [模型下载](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models\u002Ftree\u002Fmaster\u002Fspeech) | [中科院自动化所](https:\u002F\u002Fgitee.com\u002Fzidongtaichu) | [github](https:\u002F\u002Fgitee.com\u002Fzidongtaichu\u002Fmulti-modal-models) | 语音领域          | 紫东太初多模态大模型中的语音检测与识别多任务模型 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Mengzi-oscar\n\n+ 2021 | 孟子：面向中文的轻量级但巧妙的预训练模型 | 张卓生等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2110.06696)\n\n| 模型         | 版本      | TensorFlow | PyTorch                                                      | 作者                                    | 源地址                                       | 应用领域        |\n| ------------ | --------- | ---------- | ------------------------------------------------------------ | --------------------------------------- | -------------------------------------------- | --------------- |\n| Mengzi-oscar | base(L12) |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FLangboat\u002Fmengzi-oscar-base) | [Langboat](https:\u002F\u002Fgithub.com\u002FLangboat) | [github](https:\u002F\u002Fgithub.com\u002FLangboat\u002FMengzi) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### R2D2\n\n+ 2022 | Zero和R2D2：大规模中文跨模态基准测试及视觉-语言框架 | 谢春宇等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2205.03860)\n\n| 模型      | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                    | 首页                         | 应用领域        |\n| --------- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ----------------------------------------- | ---------------------------- | --------------- |\n| R2D2ViT-L | large |            | [Google](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F18Fd3vGvj0Dz8rPlxROxugjZaF8Z4jf7g\u002Fview) | [yuxie11](https:\u002F\u002Fgithub.com\u002Fyuxie11) | [github](https:\u002F\u002Fgithub.com\u002Fyuxie11\u002FR2D2) | [zero](https:\u002F\u002Fzero.so.com\u002F) | 中文多模态-图文 |\n| PRD2ViT-L | large |            | [Google](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F15zDdam7_-YT0suA3Wc226vvxcyBxWZ_O\u002Fview?usp=sharing) | [yuxie11](https:\u002F\u002Fgithub.com\u002Fyuxie11) | [github](https:\u002F\u002Fgithub.com\u002Fyuxie11\u002FR2D2) | [zero](https:\u002F\u002Fzero.so.com\u002F) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Chinese-CLIP\n\n+ 2021 | 从自然语言监督中学习可迁移的视觉模型 | 亚历克·拉德福德等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00020)\n+ 2022 | Chinese CLIP：中文对比视觉-语言预训练 | 杨安等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.01335)\n\n| 模型                             | 版本 | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                            | 应用领域        |\n| -------------------------------- | ---- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------- | --------------- |\n| CN-CLIP\u003Csub>RN50\u003C\u002Fsub>           | 77M  |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_rn50.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-B\u002F16\u003C\u002Fsub>       | 188M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-b-16.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-L\u002F14\u003C\u002Fsub>       | 406M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-l-14.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-L\u002F14@336px\u003C\u002Fsub> | 407M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-l-14-336.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n| CN-CLIP\u003Csub>ViT-H\u002F14\u003C\u002Fsub>       | 958M |            | [aliyuncs](https:\u002F\u002Fclip-cn-beijing.oss-cn-beijing.aliyuncs.com\u002Fcheckpoints\u002Fclip_cn_vit-h-14.pt) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys) | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FChinese-CLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### TaiYi-CLIP\n\n+ 2021 | 从自然语言监督中学习可迁移的视觉模型 | 阿莱克·拉德福德等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.00020)\n+ 2022 | 凤神榜1.0：成为中国认知智能的基础 | 王俊杰等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02970)\n\n| 模型                                  | 版本 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域        |\n| ------------------------------------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | --------------- |\n| Taiyi-CLIP-Roberta-large-326M-Chinese | base |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FTaiyi-CLIP-Roberta-large-326M-Chinese) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### AltCLIP\n\n+ 2022 | AltCLIP：通过修改CLIP中的语言编码器以扩展语言能力 | 陈仲志等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06679)\n\n| 模型    | 版本  | TensorFlow | PyTorch                                            | 作者                                     | 源地址                                                       | 应用领域        |\n| ------- | ----- | ---------- | -------------------------------------------------- | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| AltCLIP | 3.22G |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FAltCLIP) | [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open) | [github](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAltCLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### AltDiffusion\n\n+ 2022 | AltCLIP：通过修改CLIP中的语言编码器以扩展语言能力 | 陈仲志等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.06679)\n+ 2022 | 使用潜在扩散模型进行高分辨率图像合成 | Rombach等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)\n\n| 模型         | 版本 | TensorFlow | PyTorch                                                 | 作者                                     | 源地址                                                       | 应用领域        |\n| ------------ | ---- | ---------- | ------------------------------------------------------- | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| AltDiffusion | 8.0G |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FBAAI\u002FAltDiffusion) | [FlagAI](https:\u002F\u002Fgithub.com\u002FFlagAI-Open) | [github](https:\u002F\u002Fgithub.com\u002FFlagAI-Open\u002FFlagAI\u002Ftree\u002Fmaster\u002Fexamples\u002FAltDiffusion) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### Taiyi-Stable-Diffusion\n\n+ 2022 | 凤神榜1.0：成为中国认知智能的基础 | 王俊杰等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.02970)\n+ 2022 | 使用潜在扩散模型进行高分辨率图像合成 | Rombach等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.10752)\n\n| 模型                   | 版本 | TensorFlow | PyTorch                                                      | 作者                                      | 源地址                                                 | 应用领域        |\n| ---------------------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------- | ------------------------------------------------------ | --------------- |\n| Taiyi-Stable-Diffusion | 1B   |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FIDEA-CCNL\u002FTaiyi-Stable-Diffusion-1B-Chinese-v0.1) | [IDEA-CCNL](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL) | [github](https:\u002F\u002Fgithub.com\u002FIDEA-CCNL\u002FFengshenbang-LM) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### wukong\n\n+ 2022 | Wukong：一个拥有1亿参数的大规模中文跨模态预训练基准 | 顾嘉熙等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2202.06767)\n\n| 模型   | 版本 | TensorFlow | PyTorch                                                      | 作者                                     | 源地址                                                       | 应用领域        |\n| ------ | ---- | ---------- | ------------------------------------------------------------ | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| CLIP   |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n| FILIP  |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n| wukong |      |            | [url](https:\u002F\u002Fwukong-dataset.github.io\u002Fwukong-dataset\u002Fbenchmark.html) | [HUAWEI](https:\u002F\u002Fgithub.com\u002Fhuawei-noah) | [github](https:\u002F\u002Fgithub.com\u002Fhuawei-noah\u002FPretrained-Language-Model) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### OFA\n\n+ 2022 | OFA：通过简单的序列到序列学习框架统一架构、任务和模态 | 王鹏等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2202.03052.pdf)\n\n| 模型        | 版本 | TensorFlow | PyTorch                                                      | 作者                                            | 源地址                                                | 应用领域        |\n| ----------- | ---- | ---------- | ------------------------------------------------------------ | ----------------------------------------------- | ----------------------------------------------------- | --------------- |\n| OFA         |      |            | [link](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FOFA\u002Fblob\u002Fmain\u002Fcheckpoints_cn.md) | [OFA-Sys](https:\u002F\u002Fgithub.com\u002FOFA-Sys)           | [github](https:\u002F\u002Fgithub.com\u002FOFA-Sys\u002FOFA)              | 中文多模态-图文 |\n| OFA-Chinese |      |            | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FYeungNLP\u002Fofa-cn-base-muge-v2) | [杨建新](https:\u002F\u002Fgithub.com\u002Fyangjianxin1)       | [github](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FOFA-Chinese) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n### QA-CLIP\n\n| 模型            | 版本 | 视觉架构 | PyTorch                                                      | 作者                                     | 源地址                                                       | 应用领域        |\n| --------------- | ---- | -------- | ------------------------------------------------------------ | ---------------------------------------- | ------------------------------------------------------------ | --------------- |\n| QA-CLIPRN50     | 77M  | ResNet50 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-RN50.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n| QA-CLIPViT-B\u002F16 | 188M | ViT-B\u002F16 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-base.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n| QA-CLIPViT-L\u002F14 | 406M | ViT-L\u002F14 | [[🤗HF\\]](https:\u002F\u002Fhuggingface.co\u002FTencentARC\u002FQA-CLIP\u002Fresolve\u002Fmain\u002FQA-CLIP-large.pt) | [腾讯](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ) | [QA-CLIP](https:\u002F\u002Fgithub.com\u002FTencentARC-QQ\u002FQA-CLIP) | 中文多模态-图文 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n## 表格\n\n### SDCUP\n\n+ 2021 | 通过模式依赖学习改进文本到SQL | 胡斌远等 | arXiv | [`PDF`](https:\u002F\u002Farxiv.org\u002Fabs\u002F2103.04399)\n\n| 模型  | 版本  | TensorFlow | PyTorch                                                      | 作者                                  | 源地址                                                       | 应用领域 |\n| ----- | ----- | ---------- | ------------------------------------------------------------ | ------------------------------------- | ------------------------------------------------------------ | -------- |\n| sdcup | base  |            | [阿里云](http:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FSDCUP\u002Fsdcup_base_model.bin-50000) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FSDCUP) | 中文表格 |\n| sdcup | large |            | [阿里云](http:\u002F\u002Falice-open.oss-cn-zhangjiakou.aliyuncs.com\u002FSDCUP\u002Fsdcup_large_model.bin-60000) | [Alibaba](https:\u002F\u002Fgithub.com\u002Falibaba) | [github](https:\u002F\u002Fgithub.com\u002Falibaba\u002FAliceMind\u002Ftree\u002Fmain\u002FSDCUP) | 中文表格 |\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">回到顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n## 更新\n\n* 2026.04.12 增加[MiniMax-M2.7](#ReasoningLLM)，MiniMax 开源的推理大模型，230B 总参数 MoE 架构，激活 10B 参数，支持 Agent Teams、复杂 Skills 和动态工具搜索\n* 2026.04.06 增加[Gemma-4](#MultiModal-ChatLLM)，Google DeepMind 开源的多模态大模型，包含 E2B\u002FE4B\u002F26B A4B(MoE)\u002F31B(Dense) 四种尺寸，支持文本\u002F图像\u002F音频多模态输入，256K 上下文，原生 Thinking 推理模式和 Function Calling 能力\n* 2026.02.16 增加[Step-3.5-Flash, GLM-5, MiniMax-M2.5, Kimi-K2.5, Ring-2.5-1T](#ReasoningLLM)、[GLM-OCR, Ace-Step1.5, HunyuanImage-3.0-Instruct](#MultiModal-ChatLLM)、[Qwen3-Coder-Next](#Domain-ChatLLM)\n* 2025.12.12 增加[deepseek-3.2]\n* 2025.10.12 增加[Ling-1T,KAT-Dev-72B-Exp, GLM-4.6 ]\n* 2025.09.20 增加[Tongyi DeepResearch,Qwen3-Next,Magistral Small,VoxCPM,VibeVoice,HunyuanImage]\n* 2025.08.19 增加[gpt-oss-20B,gpt-oss-120B,Baichuan-M2,Ovis2.5,GLM-4.5V]\n* 2025.08.05 增加[GLM-4.5,Hunyuan,Qwen3-Thinking-2507,Step3,Kimi-k2,Qwen3-Coder]\n* 2025.07.07 增加[Kimi-VL-Thinking,GLM-4.1V-Thinking,Dhanishtha-2.0,ERNIE-4.5]\n* 2025.06.29 增加[Qwen3-Embedding,Skywork-SWE，Hunyuan-A13B]\n* 2025.06.17 增加[MiniMax-M1,Kimi-Dev]\n* 2025.05.29 增加[DeepSeek-R1-0528,QwenLong-L1,Dolphin]\n* 2025.05.07 增加[Qwen3,MiMo]\n* 2025.04.15 增加[GLM-Z1-0414. DeepCoder, Kimi-VL-Thinking, Skywork-OR1]\n* 2025.03.22 增加[Skywork-R1V,FIN-R1]\n* 2025.03.09 增加[QwQ-32B, Aya Vision,CogView4]\n* 2025.02.26 增加[Moonlight、Wan2.1、Step-Audio-Chat]\n* 2025.02.15 增加[Ovis2]\n* 2025.01.19 增加[MiniMax-01, miniCPM-O， OuteTTS]\n* 2025.01.12 增加[Sky-T1,search-o1](#ReasoningLLM)\n* 2025.01.02 增加[Huatuo-o1](#ReasoningLLM)\n* 2024.12.25 增加[QVQ-72B]\n* 2024.12.16 增加[Megrez-3B-Omni, DeepSeek-VL2]\n* 2024.11.29 增加[QwQ-32B-Preview,Marco-o1 ,Skywork-01-Open,HK-01aw](#ReasoningLLM)\n* 2024.11.15 增加[Qwen-2.5-coder, OpenCoder](#Domain-ChatLLM)\n* 2024.11.05 增加[Hunyuan-Large](#Chat-LLM)\n* 2024.10.26 增加[GLM-4-Voice,Pangea,Aya-Expanse]()\n* 2024.10.22 增加[Granite 3.0](#Chat-LLM),一套全新的轻量级、多语种支持的语言模型，专为推理、编程和工具使用设计，可在计算资源受限的环境中运行，适合企业使用和定制\n* 2024.09.19 增加[Qwen2.5](#Chat-LLM)\n* 2024.09.08 增加[DeepSeekV2.5, MiniCPM3, Yi-Coder](#Chat-LLM)\n* 2024.08.30 增加[C4AI Command R+ 08-2024,Qwen2-VL](#Chat-LLM)\n* 2024.07.26 增加[JIUTIAN-Chat,Tele-FLM]()\n* 2024.07.24 增加[Meta-llama3.1](#Chat-LLM)\n* 2024.07.05 增加[CodeGeeX4](#Domain-ChatLLM)\n* 2024.07.04 增加[internlm2.5](#Chat-LLM)\n* 2024.06.19 增加[MAP-NEO-Chat](#Chat-LLM)，MAP-NEO is a fully open-sourced Large Language Model that includes the pretraining data, a data processing pipeline (Matrix), pretraining scripts, and alignment code.\n* 2024.06.18 增加[DeepSeek-Coder-V2、Nemotron-4](#Chat-LLM)\n* 2024.06.14 增加[Index-Chat](#Chat-LLM)\n* 2024.06.08 增加[Qwen2,ChatTTS](#Chat-LLM)\n* 2024.06.03 增加[GLM-4、Skywork-MoE](#Chat-LLM)\n* 2024.05.30 增加[Yuan2.0-M32: Mixture of Experts with Attention Router](#ChatLLM)\n* 2024.05.20 增加[CogVLM2,360VL,HunyuanDiT,星辰-Chat]\n* 2024.05.13 增加[Yi-1.5]\n* 2024.05.07 增加[XVERSE-V,DeepSeek-V2,XVERSE-MoE]\n* 2024.04.27 增加[Qwen1.5-110B, Llama3-zh](#Chat-LLM)\n* 2024.04.14 增加[MiniCPM-V2、WaveCoder、codegemma、Sailor、Nanbeige2-Chat、MiniCPM-MoE、Zhinao-Chat]()\n* 2024.04.12 增加[XVERSE-MoE](#LLM)\n* 2024.04.08 增加[SoftTiger、HammerLLM](#LLM)\n* 2024.04.06 增加[Qwen1.5-32B](#ChatLLM)\n* 2024.04.04 增加[Mengzi3](#ChatLLM)\n* 2024.03.29 增加[Qwen-Audio、Qwen-MoE](#ChatLLM)\n* 2024.03.13 增加[Command-R](#ChatLLM)\n* 2024.03.01 增加[Breeze-Instruct, starcoder2](#ChatLLM)\n* 2024.02.18 增加[aya-101、chemLLM](#ChatLLM)\n* 2024.02.06 增加[Qwen1.5](#ChatLLM)\n* 2024.02.02 增加[MiniCPM, TuringMM-Chat](#ChatLLM)\n* 2024.02.01 增加[LongAlign-Chat，Chinese-Mixtral-Chat](#ChatLLM)\n* 2024.01.31 增加[iFlytekSpark-Chat，rwkv-5-world](#ChatLLM)\n* 2024.01.23 增加[Yi-VL-6\u002F34B](#MultiModal-ChatLLM)\n* 2024.01.22 增加[orion-4B](#ChatLLM)\n* 2024.01.19 增加[internlm2-chat，Chinese-Mixtral](#ChatLLM)\n* 2024.01.10 增加[Telechat，Code Millenials](#ChatLLM)\n* 2024.01.09 增加[kagentlms](#ChatLLM),具有Agents的规划、反思、工具使用等能力的系列大模型\n* 2024.01.05 增加[WizardCoder-33B-V1.1](#Domain-ChatLLM)\n* 2023.12.27 增加[YaYi-30B-Chat](#ChatLLM)\n* 2023.12.05 增加[SUS-Chat-34B、Aquila2-Chat-70B、Alaya-Chat-7B](#ChatLLM)\n* 2023.12.01 增加[Qwen-Base-1.8\u002F72B](#Base-LLM),[Qwen-Chat-1.8\u002F72B](#ChatLLM),[Qwen-Audio](#MultiModal-ChatLLM)\n* 2023.11.30 增加[Yuan-2.0、DeepSeek-Base](#Base-LLM),[DeepSeek-Chat](#ChatLLM)\n* 2023.11.20 增加[Alaya-Chat-7B、OrionStar-Yi-Chat-34B](#ChatLLM)\n* 2023.11.11 增加[XVERSE-65B、Nanbeige-Chat-16B、OpenChat 3.5](#ChatLLM)\n* 2023.11.03 增加[SPHINX、Tongyi-Finance、Phind、DeepSeek-Coder](#ChatLLM)\n* 2023.11.02 增加[AndesGPT-7B、SeaLLM、BlueLM](#ChatLLM)\n* 2023.10.31 增加[Zephyr-7B、Mistral-7b](#ChatLLM)\n* 2023.10.25 增加[zhiyin、zhilu]()\n* 2023.10.20 增加[cross、taiyi、fuyu、Ziya-visual、CodeShell、CogVLM]()\n* 2023.10.17 增加[Ziya2-13B-Base、Ziya2-13B-Chat](#ChatLLM)\n* 2023.10.12 增加[AquilaChat2-7\u002F13B、AquilaChat2-16K、Vulture-180B](#ChatLLM)\n* 2023.10.04 增加[DISC-LawLLM、WiNGPT、ziya-coding、Vulture、AgriGPT](#ChatLLM)\n* 2023.09.25 增加[Colossal-LLaMA-2-7B](#ChatLLM),相较于原始LLaMA-2，在成功提升中文能力的基础上，进一步提升其英文能力，性能可与开源社区同规模预训练SOTA模型媲美。\n* 2023.09.20 增加[InternLM-20B、OpenBA](#ChatLLM),InternLM-20B已发布，包括基础版和对话版。OpenBA是一个从头开始预训练的开源15B双语非对称端到端模型。\n* 2023.09.08 增加[FLM-101B、falcon-180B、Openbuddy-70B、TigerBot-70B](#ChatLLM)\n* 2023.09.06 增加[Baichuan2](#ChatLLM),Baichuan 2 是百川智能推出的新一代开源大语言模型，采用 2.6 万亿 Tokens 的高质量语料训练。\n* 2023.09.01 增加[DISC-MedLLM、YuLan-Chat-2、Chinese-Alpaca-2-16K](#ChatLLM),[Vally](#MultiModal-ChatLLM)\n* 2023.08.29 增加[CodeLLAma、Atom](#ChatLLM),[IDEFICS](#MultiModal-ChatLLM)\n* 2023.08.25 增加[sqlcoder](#ChatLLM),一个 SOTA 大型语言模型， SQLCoder 将自然语言问题转换为 SQL 查询。在开发者的开源评估框架 SQLEval 中，SQLCoder 的性能明显优于所有主要的开源模型，并且优于 OpenAI 的 GPT-3.5。\n* 2023.08.23 增加[Qwen-VL](#MultiModal-ChatLLM),Qwen-VL 是阿里云研发的大规模视觉语言模型（Large Vision Language Model, LVLM）。Qwen-VL 可以以图像、文本、检测框作为输入，并以文本和检测框作为输出。\n* 2023.08.21 增加[智海-录问](#ChatLLM),智海-录问(wisdomInterrogatory)是由浙江大学、阿里巴巴达摩院以及华院计算三家单位共同设计研发的法律大模型。\n* 2023.08.15 增加[WizardMath](#ChatLLM),\n* 2023.08.09 增加[TigerBot-13B](#ChatLLM),在Llama-2的基础上以虎博积累的技术和数据继续训练，不但保持了Llama-2出色的英文能力，更是在中文能力上填补了Llama-2的不足，各项主流中文任务中超过Llama-2的49%，在开源同类模型中具有竞争力。\n* 2023.08.07 增加[XVERSE-13B](#ChatLLM),XVERSE-13B,它支持40多种语言、8192上下文长度。在多项中英文测评中，性能超过了同尺寸（130亿参数）的LLama2、Baichuan等。\n* 2023.08.03 增加[通义千问](#ChatLLM),通义千问-7B（Qwen-7B）是阿里云研发的通义千问大模型系列的70亿参数规模的模型。\n* 2023.07.31 增加[LLasM、Chinese-LLaVA](#MultiModal-ChatLLM)多模态大模型\n* 2023.07.31 增加[Chinese-Llama-2](#ChatLLM).原版Llama-2的基础上扩充并优化了中文词表，使用了120G大规模中文数据进行增量预训练，相关模型支持4K上下文并可通过NTK方法最高扩展至18K+\n* 2023.07.29 增加[BatGPT，Mozi，StarGLM](#ChatLLM).\n* 2023.07.27 增加[WizardLM-v1.2](#ChatLLM).\n* 2023.07.25 增加相关[Awesome列表](#other-awesome)\n* 2023.07.24 增加[Llama2-chinese-chat、Jiang-chat](#ChatLLM)等对话语言模型。\n* 2023.07.19 增加[LLaMA2](#LLM),Meta 发布了大家期待已久的免费可商用版本 Llama 2。\n* 2023.07.16 增加[PolyLM](#LLM),PolyLM是一个通晓多语言语言的大规模语言模型，该模型可以应用于对话问答、文本生成、机器翻译和情感分析等领域，能够自动生成高质量的多语言文本。\n* 2023.07.11 增加[Baichuan-13B](#LLM),baichuan-13B是由百川智能开发的一个开源可商用的大规模预训练语言模型。\n* 2023.07.10 增加WizardLM-13B-V1.1\n* 2023.07.09 增加VisualCLA多模态大模型\n* 2023.07.04 增加[书生·浦语](#ChatLLM),书生·浦语大模型，包含面向实用场景的70亿参数基础模型与对话模型.\n* 2023.07.04 增加[yuren](#MultiModal-ChatLLM),[vicuna,CuteGPT,ailawyer](#ChatLLM)\n* 2023.06.30 增加[VisCPM](#MultiModal-ChatLLM),VisCPM 是一个开源的多模态大模型系列，支持中英双语的多模态对话能力（VisCPM-Chat模型）和文到图生成能力（VisCPM-Paint模型），在中文多模态开源模型中达到最佳水平。\n* 2023.06.28 增加[PULSE](#ChatLLM),PULSE-中文医疗大语言模型。\n* 2023.06.26 增加[CoLLaMA](#ChatLLM),CoLLaMA是基于代码的多语言大模型。\n* 2023.06.25 增加[ChatGLM2-6B](#ChatLLM),ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本。\n* 2023.06.24 增加[TechGPT](#ChatLLM),TechGPT是“东北大学知识图谱研究组”发布的垂直领域大语言模型。\n* 2023.06.20 增加[Yayi、BayLing](#ChatLLM),百聆（BayLing）是一个强化了语言对齐的指令跟随大规模语言模型;Yayi大模型 在百万级人工构造的高质量领域数据上进行指令微调得到，训练数据覆盖媒体宣传、舆情分析、公共安全、金融风控、城市治理等五大领域。\n* 2023.06.19 增加[panda](#ChatLLM),Panda是海外中文开源大语言模型。\n* 2023.06.18 增加[ZhiXi](#ChatLLM),ZhiXi基于Llama的针对知识抽取的大模型。\n* 2023.06.15 增加[Baichuan-7B](#LLM),baichuan-7B是由百川智能开发的一个开源可商用的大规模预训练语言模型。\n* 2023.06.14 增加[Chinese-Falcon](#LLM),Chinese-Falcon 模型在 Falcon 基础上扩充中文词表，在中英文数据上增量预训练。 模型以 Apache License 2.0 协议开源，支持商业用途。。\n* 2023.06.13 增加[OpenLLaMA-Chinese](#ChatLLM),OpenLLaMA-Chinese是免费的中文大型语言模型，基于OpenLLaMA，可用于非商业和商业目的。\n* 2023.06.09 增加[QA-CLIP](#QA-CLIP),[M3E](#M3E),[Aquila](#LLM),QA-CLIP是中文CLIP模型,M3E是文本嵌入模型,Aquila是语言大模型。\n* 2023.06.08 增加[YuLan](#ChatLLM),YuLan是由中国人名大学开源的双语言任务大模型,开源13B和65B大小。\n* 2023.06.08 增加[Chinese-Alpaca-33B](#ChatLLM),[Chinese-LLaMA-33B](#LLM)，中文LLaMA\u002FAlpaca-33B。\n* 2023.06.07 增加[Tigerbot](#ChatLLM),TigerBot是一款国产自研的多语言任务大模型,开源7B和180B大小。\n* 2023.06.06 增加[Video-LLaMA](#MultiModal-ChatLLM),[BiLLa](#ChatLLM),Video-LLaMA是一个用于视频理解的指令调整的视觉语言模型，BiLLa是开源的推理能力增强的中英双语LLaMA模型。\n* 2023.05.26 增加[XuanYuan](#ChatLLM),[XrayGLM](#MultiModal-ChatLLM),XuanYuan是国内首个开源的千亿级中文对话大模型,XrayGLM是中文医学领域多模态大语言模型。\n* 2023.05.21 增加[ziya,BLOOMChat](#ChatLLM),Ziya-LLaMA-13B-v1拥有130亿参数，从LLaMA-13B开始重新构建中文词表，进行千亿token量级的已知的最大规模继续预训练，使模型具备原生中文能力.\n* 2023.05.18 增加[VisualGLM-6B](#MultiModal-ChatLLM),VisualGLM-6B 是一个开源的，支持图像、中文和英文的多模态对话语言模型。\n* 2023.05.16 增加[BiLLa](#ChatLLM),开源中英文双语大模型。\n* 2023.05.12 增加[Bactrian-X](#ChatLLM),开源多语言大模型。\n* 2023.05.08 增加[OpenBuddy](#ChatLLM),一款强大的开源多语言聊天机器人模型。\n* 2023.04.26 更新[LLaMA-zh、YuYan](#LLM),增加LLama-zh、Yuyan、扁鹊等LLM和chatLLm模型\n* 2023.04.25 增加[BBT](#LLM)，基于Transformer和Decoder-Only的架构开发了BigBang Transformer「乾元」大规模预训练语言模型。\n* 2023.04.21 增加[MOSS](#ChatLLM),更新复旦大学开源的MOSS模型以及对应的数据集。\n* 2023.04.20 增加[Phoenix](#ChatLLM),基于BLOOMZ-mt模型微调得到的大语言模型。\n* 2023.04.19 增加[ChatPLUG](#ChatLLM)，该模型基于PLUG，使用亿级互联网社交数据、百科数据预训练和百万级高质量对话数据进行instruction微调得到。\n* 2023.04.18 增加[COIG](#中文指令数据集)数据集，用不同方法构建中文指令数据集的项目，收集了大约20万个中文指令样本。\n* 2023.04.13 更新[ChatLLM](#ChatLLM)，增加HuaTuo,Med_ChatGLM两个医学模型。\n* 2023.04.09 更新[中文指令数据集](#中文指令数据集)[ChatLLM](#ChatLLM)，增加个性角色对话数据集、chinese-alpaca-13b模型。\n* 2023.04.03 更新[中文指令数据集](#中文指令数据集)[ChatLLM](#ChatLLM)，增加BELLE-13b模型，math-0.25，multiturn-0.8数据集。\n* 2023.04.02 更新[ChatLLM](#ChatLLM)列表，增加由香港科技大学开源的7B\u002F13B\u002F33B\u002F65B中文大型语言模型\n* 2023.03.30 增加Chinese-Vicuna模型，Traditional-Chinese-alpaca数据集\n* 2023.03.29 增加[OFA](#OFA),中文多模态统一预训练模型,OFA是阿里巴巴发布的多模态统一预训练模型.\n* 2023.03.29 更新[中文指令数据集](#中文指令数据集)，增加InstructionWild数据集。\n* 2023.03.23 增加[中文指令数据集](#中文指令数据集)，并初始化三个已公开数据集。\n* 2023.03.20 增加[BELLE](#ChatLLM),开源中文对话大模型-70亿参数,基于Stanford Alpaca，对中文做了优化，模型调优仅使用由ChatGPT生产的数据.\n* 2023.03.14 增加[ChatLLM](#ChatLLM)列表，主要收集具备问答跟对话等功能的大型语言模型,并增加ChatGLM模型。\n* 2023.03.11 增加[ProphetNet](#ProphetNet),提出了一种新的自监督学习目标——同时预测多个未来字符，在序列到序列的多个自然语言生成任务都取得了优异性能。\n* 2023.03.10 增加[RoCBert](#RoCBert),利用对抗学习生成更多噪声数据，用来进行中文BERT模型的训练，得到鲁棒性更强的中文BERT模型。\n* 2023.03.03 更新[LLM](#LLM),新增多语言模型`Flan-ul2`和`Flan-t5-xxl`\n* 2023.02.21 增加[LLM](#LLM),大规模语言模型列表，只罗列出参数量大于10B以上模型，其余量级模型，可参考对应的项目地址。\n* 2023.01.14 增加[SkyText](#SkyText),SkyText是由奇点智源发布的中文GPT3预训练大模型，可以进行聊天、问答、中英互译等不同的任务.\n* 2023.01.14 增加[ChatYuan](#ChatYuan),ChatYuan模型可以用于问答、结合上下文做对话、做各种生成任务，包括创意性写作，也能回答一些像法律、新冠等领域问题。\n* 2022.12.10 增加[PromptCLUE](#PromptCLUE),全中文任务零样本学习模型,基于1000亿token中文语料上预训练，并且在数百种任务上进行Prompt任务式训练。\n* 2022.12.01 增加[wukong](#wukong),基于一个名为「悟空」的大型中文跨模态数据集，其中包含来自网络的 1 亿个图文对，预训练的多模态模型。\n* 2022.11.30 增加[AltDiffusion](#AltDiffusion)，使用 AltCLIP 作为text encoder，基于 Stable Diffusion 训练了中英双语Diffusion模型(AltDiffusion)\n* 2022.11.30 增加[AltCLIP](#AltCLIP),一个简单高效的方法去训练更加优秀的双语CLIP模型,名为AltCLIP。AltCLIP基于 OpenAI CLIP 训练。\n* 2022.11.30 增加[Taiyi-Stable-Diffusion](#Taiyi-Stable-Diffusion),首个开源的中英双语Stable Diffusion模型，基于0.2亿筛选过的中文图文对训练。\n* 2022.11.9 增加[OPD](#OPD),OPD是一个中文开放域对话预训练模型，拥有63亿参数，在70GB高质量对话数据上进行训练而成.`大规模` & `高性能`\n* 2022.11.8 更新[Chinese-CLIP](#Chinese-CLIP),Chinese-CLIP是中文多模态图文表征模型，更新后Chinese-CLIP扩充到5个模型规模，同时增加了技术报告论文以及检索demo，同时在达摩院ModelScope平台同步集成。\n* 2022.10.31 增加[LERT](#LERT),为了验证通过显式注入语言学知识预训练模型能否获得进一步性能提升，HFL提出了一种**语言学信息增强的预训练模型LERT**，融合了多种语言学知识。大量实验结果表明，在同等训练数据规模下，LERT能够带来显著性能提升。\n* 2022.10.14 增加[CKBERT](#CKBERT)，中文知识库增强BERT预训练语言模型。\n* 2022.10.01 增加[GlyphBERT](#GlyphBERT), GlyphBERT是一个包含了汉字字形特征中文预训练模型。它通过将输入的字符渲染成图像并设计成多通道位置特征图的形式，并设计了一个两层 残差卷积神经网络模块来提取字符的图像特征进行训练。\n* 2022.09.30 增加[DeBERTa](#DeBERTa)，一个中文版的DeBERTa-v2，我们用悟道语料库(180G版本)进行预训练，在预训练阶段中使用了封神框架。\n* 2022.09.30 增加[TaiYi-CLIP](#TaiYi-CLIP),首个开源的中文CLIP模型，1.23亿图文对上进行预训练的文本端RoBERTa-large。\n* 2022.09.27 增加[PLUG](#PLUG),PLUG集语言理解与生成能力于一身，支持文本生成、问答、语义理解等多类下游任务，PLUG开源将助力开发者在语言理解和语言生成上做出更多延拓。\n* 2022.09.11 增加[bloom-6b4](#Bloom),多语言预训练bloom系列生成模型7b1参数(https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom-7b1 )的中文vocab提取，bloom系列另有最大176B模型(https:\u002F\u002Fhuggingface.co\u002Fbigscience\u002Fbloom).\n* 2022.09.11 增加[GLM-130B](#GLM),提出了开源的双语预训练生成模型 GLM(General Language Model)。\n* 2022.09.11 增加[PanGu-α: Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation](#PanGu-Alpha) 2.6B和13B 生成模型pytorch版\n* 2022.06.29 增加[ERNIE 3.0](#ERNIE3),大规模知识增强预训练语言理解和生成.\n* 2022.06.22 增加[Zero and R2D2: A Large-scale Chinese Cross-modal Benchmark and A Vision-Language Framework](#R2D2)，基于大规模中文跨模态基准数据集Zero，训练视觉语言预训练框架 R2D2，用于大规模跨模态学习。\n* 2022.06.15 增加[GLM: General Language Model Pretraining with Autoregressive Blank Infilling](#GLM),提出了一种新的通用语言模型 GLM(General Language Model)。 使用自回归填空目标进行预训练，可以针对各种自然语言理解和生成任务进行微调。\n* 2022.05.16 增加[GAU-α](#GAU-α),主要提出了一个融合了Attention层和FFN层的新设计GAU（Gated Attention Unit，门控注意力单元），它是新模型更快、更省、更好的关键，此外它使得整个模型只有一种层，也显得更为优雅。\n* 2022.03.27 增加[RoFormer-V2](#RoFormer),RoFormer升级版，主要通过结构的简化来提升速度，并通过无监督预训练和有监督预训练的结合来提升效果，从而达到了速度与效果的“双赢”。\n* 2022.03.02 增加[MobileBERT](#MobileBERT),MobileBERT是BERT-large模型更“苗条”的版本，使用了瓶颈结构（bottleneck）并且对自注意力和前馈神经网络之间的平衡做了细致的设计。\n* 2022.02.24 增加[PERT: Pre-Training BERT with Permuted Language Model](#PERT),一种基于乱序语言模型的预训练模型（PERT），在不引入掩码标记[MASK]的情况下自监督地学习文本语义信息。\n* 2021.12.06 增加[SDCUP: Improving Text-to-SQL with Schema Dependency Learning](#SDCUP),达摩院深度语言模型体系 AliceMind 发布中文社区首个表格预训练模型 SDCUP。\n* 2021.11.27 增加[RWKV](#RWKV)中文预训练生成模型,类似 GPT-2,模型参考地址：[RWKV-LM](https:\u002F\u002Fgithub.com\u002FBlinkDL\u002FRWKV-LM)\n* 2021.11.27 增加IDEA研究院开源的封神榜系列语言模型，包含[二郎神](#二郎神)、[周文王](#周文王)、[闻仲](#闻仲)、[余元](#余元)。\n* 2021.11.25 增加[MC-BERT: Conceptualized Representation Learning for Chinese Biomedical Text Mining](#MC-BERT), 生物医学领域的中文预训练模型.\n* 2021.11.24 增加[TaCL: Improving BERT Pre-training with Token-aware Contrastive Learning](#TaCL), Token-aware对比学习预训练模型.\n* 2021.10.18 增加[Mengzi: Towards Lightweight yet Ingenious Pre-trained Models for Chinese](#Mengzi-BERT),基于语言学信息融入和训练加速等方法研发了 Mengzi 系列模型.\n* 2021.10.14 增加[中文版BART](#BART),训练比较可靠的中文版BART，为中文生成类任务如摘要等提供Baseline.\n* 2021.10.14 增加[CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation](#CPT),CPT：兼顾理解和生成的中文预训练模型.\n* 2021.10.13 增加[紫东太初多模态大模型](#紫东太初): 全球首个多模态图文音预训练模型,实现了视觉-文本-语音三模态统一表示，构建了三模态预训练大模型。\n* 2021.09.19 增加[CogView: Mastering Text-to-Image Generation via Transformers](#CogView),世界最大的中文多模态生成模型,模型支持文生成图为基础的多领域下游任务.\n* 2021.09.10 增加[WenLan: Bridging Vision and Language by Large-Scale Multi-Modal Pre-Training](#WenLan)，首个中文通用图文多模态大规模预训练模型。\n* 2021.09.10 增加[EVA: An Open-Domain Chinese Dialogue System with Large-Scale Generative Pre-Training](#EVA)，一个开放领域的中文对话预训练模型。\n* 2021.08.19 增加[Chinese-Transformer-XL](#GPT-3)：基于中文预训练语料WuDaoCorpus（290G）训练的GPT-3模型。\n* 2021.08.16 增加[CPM-2: Large-scale Cost-effective Pre-trained Language Models](#CPM-2)\n* 2021.08.16 增加[Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models](#Lattice-BERT)\n* 2021.07.19 增加[roformer-sim-v2](#RoFormer-sim)：利用标注数据增强版本\n* 2021.07.15 增加[BERT-CCPoem](#BERT)：古典诗歌语料训练的BERT\n* 2021.07.06 增加[ChineseBERT：Chinese Pretraining Enhanced by Glyph and Pinyin Information](#BERT)\n* 2021.06.22 增加[StructBERT: Incorporating Language Structures into Pre-training for Deep Language Understanding](#StructBERT)\n* 2021.06.14 增加[RoFormer：Enhanced Transformer with Rotary Position Embedding](#RoFormer)\n* 2021.05.25 增加[ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding ]((#ERNIE))\n* 2021.04.28 增加[PanGu-α: Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation ](#PanGu-Alpha)\n* 2021.03.16 增加[T5-PEGASUS: 开源一个中文生成式预训练模型](#T5-PEGASUS)\n* 2021.03.09 增加UER系列模型\n* 2021.03.04 增加[WoBERT: 基于词颗粒度的中文](#WoBERT)\n* 2020.11.11 初始化BERT系列模型[BERT](#BERT)\n\n\u003Cp align=\"right\">[\u003Ca href=\"#top\">返回顶部\u003C\u002Fa>]\u003C\u002Fp>\n\n\n\n### 贡献者\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Feryajf\u002Flearn-github\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_a860f0f1f103.png\" \u002F>\n\u003C\u002Fa>\n\n### 杂项\n#### &#8627; 点赞者\n[![点赞者名单](https:\u002F\u002Freporoster.com\u002Fstars\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models)](https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fstargazers)\n\n#### &#8627; 复刻者\n[![复刻者名单](https:\u002F\u002Freporoster.com\u002Fforks\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models)](https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fnetwork\u002Fmembers)\n\n#### &#8627; 点赞历史\n\n\u003Cdiv align=\"center\">\n[![点赞历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_readme_8a91615a517e.png)](https:\u002F\u002Fstar-history.com\u002F#lonePatient\u002Fawesome-pretrained-chinese-nlp-models&Date)\n\n\u003C\u002Fdiv>\n\n![访问人数](https:\u002F\u002Fprofile-counter.glitch.me\u002Flonepatient\u002Fcount.svg)","# awesome-pretrained-chinese-nlp-models 快速上手指南\n\n本仓库是一个高质量的中文预训练模型、多模态模型及大语言模型（LLM）的精选合集，旨在为开发者提供便捷的模型索引与下载入口。由于本仓库主要作为**资源列表**而非单一可安装的工具库，以下指南将指导你如何获取环境依赖、访问国内镜像源以及加载列表中的主流模型。\n\n## 环境准备\n\n在开始使用前，请确保你的开发环境满足以下基本要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+), macOS, 或 Windows (WSL2 推荐)。\n*   **Python 版本**: Python 3.8 或更高版本。\n*   **硬件要求**:\n    *   **推理**: 建议至少 16GB RAM。运行 7B 参数以上的模型建议使用 NVIDIA GPU (显存 >= 16GB)，或使用量化版本。\n    *   **微调\u002F训练**: 需要多卡 NVIDIA GPU 环境。\n*   **前置依赖**:\n    *   `pip` 包管理工具\n    *   `git`\n    *   `transformers` (Hugging Face 生态核心库)\n    *   `torch` (PyTorch)\n\n## 安装步骤\n\n### 1. 克隆资源仓库\n首先获取模型列表索引：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FHuggingFaceFW\u002Fawesome-pretrained-chinese-nlp-models.git\ncd awesome-pretrained-chinese-nlp-models\n```\n\n### 2. 配置国内镜像加速 (强烈推荐)\n由于网络原因，直接从 Hugging Face 官方下载模型可能较慢或失败。国内用户请务必配置镜像源。\n\n**方法 A: 设置环境变量 (临时生效)**\n在终端执行以下命令，将请求重定向至国内镜像：\n\n```bash\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n```\n\n**方法 B: 永久配置 (推荐)**\n修改或创建 `~\u002F.bashrc` (Linux\u002FMac) 或系统环境变量，添加以下内容：\n\n```bash\nexport HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n```\n*注：部分模型也提供了 ModelScope (魔搭社区) 或百度网盘链接，如遇 Hugging Face 镜像不可用，请参考仓库表格中的备用下载链接。*\n\n### 3. 安装核心依赖库\n安装运行大多数列表模型所需的通用库：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install transformers accelerate sentencepiece protobuf\n```\n\n## 基本使用\n\n本仓库中的模型通常通过 `transformers` 库进行加载。以下以列表中热门的 **Qwen2.5** (通义千问) 和 **ChatGLM3** 为例，展示最基础的加载与推理流程。\n\n### 示例 1: 加载通用对话大模型 (以 Qwen2.5 为例)\n\n```python\nfrom transformers import AutoModelForCausalLM, AutoTokenizer\n\n# 指定模型名称 (对应仓库表格中的下载链接 ID)\nmodel_name = \"Qwen\u002FQwen2.5-7B-Instruct\"\n\n# 加载分词器和模型\n# 若已配置 HF_ENDPOINT 环境变量，将自动从国内镜像下载\ntokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_name,\n    device_map=\"auto\",\n    trust_remote_code=True,\n    torch_dtype=\"auto\" \n)\n\n# 构建输入\nprompt = \"你好，请介绍一下你自己。\"\nmessages = [\n    {\"role\": \"system\", \"content\": \"你是一个有用的助手。\"},\n    {\"role\": \"user\", \"content\": prompt}\n]\n\ntext = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)\ninputs = tokenizer([text], return_tensors=\"pt\").to(model.device)\n\n# 生成回复\ngenerated_ids = model.generate(**inputs, max_new_tokens=512)\ngenerated_ids = [\n    output_ids[len(input_ids):] for input_ids, output_ids in zip(inputs.input_ids, generated_ids)\n]\n\nresponse = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]\nprint(response)\n```\n\n### 示例 2: 加载经典中文 NLU 模型 (以 MacBERT 为例)\n\n适用于文本分类、命名实体识别等任务。\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForSequenceClassification\nimport torch\n\n# 选择仓库中收录的 NLU 模型\nmodel_name = \"hfl\u002Fchinese-macbert-base\"\n\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForSequenceClassification.from_pretrained(model_name)\n\n# 简单推理示例\ntext = \"这家餐厅的味道非常好，服务也很周到。\"\ninputs = tokenizer(text, return_tensors=\"pt\", truncation=True, padding=True)\n\nwith torch.no_grad():\n    outputs = model(**inputs)\n    predictions = torch.softmax(outputs.logits, dim=-1)\n\nprint(f\"输入文本: {text}\")\nprint(f\"预测概率分布: {predictions}\")\n```\n\n### 获取特定模型说明\n对于仓库中列出的其他特定模型（如垂直领域模型、多模态模型），请访问表格中对应的 **GitHub 项目链接** 或 **Paper 链接**，查阅该模型专属的推理代码和参数配置说明。","某金融科技公司算法团队正紧急开发一款面向国内用户的智能合规审核助手，需要快速集成高精度的中文语义理解与生成能力。\n\n### 没有 awesome-pretrained-chinese-nlp-models 时\n- **模型筛选如大海捞针**：团队成员需分散在 GitHub、HuggingFace 及各高校官网手动搜索，难以辨别模型是否针对中文金融场景优化，耗时数天仍无定论。\n- **下载链接失效或缓慢**：找到的模型往往托管在海外服务器，国内下载速度极慢甚至频繁中断，且缺乏稳定的镜像地址推荐，严重拖慢开发进度。\n- **技术选型风险高**：缺乏统一的架构分类（如 NLU\u002FNLG\u002F多模态）和参数量对比，容易误选不适合部署的超大模型或不支持因果解码的架构，导致后期重构。\n- **垂直领域适配难**：找不到经过法律或金融语料微调的现成模型，只能从零开始训练，数据清洗和算力成本高昂。\n\n### 使用 awesome-pretrained-chinese-nlp-models 后\n- **一站式精准定位**：直接通过“垂直对话大模型”分类索引，迅速锁定专为金融法律领域优化的模型（如 Yi-1.5 或 Qwen 系列），将选型时间从数天缩短至半小时。\n- **高速下载通道**：利用仓库提供的 HuggingFace 镜像地址建议，团队成员在国内网络环境下也能稳定、快速地拉取数十 GB 的大模型权重文件。\n- **清晰的技术图谱**：借助详细的架构标注（CD\u002FND\u002FED）和参数量分级表，团队立即排除了不匹配的边缘设备部署方案，确定了最优的 7B 参数级模型。\n- **开箱即用的基座**：直接复用列表中已验证的高质量中文预训练模型进行微调，大幅减少了基础训练成本，使项目提前两周上线。\n\nawesome-pretrained-chinese-nlp-models 通过聚合高质量资源与提供本地化下载支持，将中文 NLP 模型的选型与落地效率提升了十倍不止。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FlonePatient_awesome-pretrained-chinese-nlp-models_a3eeedcc.png","lonePatient","Weitang Liu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FlonePatient_49a4190d.png","weibo: https:\u002F\u002Fweibo.com\u002F277974397",null,"HangZhou in China","liuweitangmath@163.com","https:\u002F\u002Flonepatient.top","https:\u002F\u002Fgithub.com\u002FlonePatient",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,5552,508,"2026-04-16T06:43:42","MIT",5,"","未说明",{"notes":95,"python":93,"dependencies":96},"本仓库为中文预训练模型资源列表（Awesome List），并非单一可执行软件工具，因此 README 中未包含具体的操作系统、硬件配置、Python 版本或依赖库安装要求。用户需根据列表中具体选择的模型（如 Qwen, Llama, ChatGLM 等）前往其对应的项目链接查看各自的运行环境需求。国内用户推荐使用 HuggingFace 镜像地址 (https:\u002F\u002Fhf-mirror.com\u002F) 下载模型。",[],[14,13,16,35],[99,100,101,102,103,104,105,106,107,108,109,110,111,112,113,114,115],"chinese","nlp","pretrained-models","bert","roberta","xlnet","nezha","ernie","gpt","gpt-2","nlu-nlg","simbert","pangu","dataset","llm","large-language-models","multimodel","2026-03-27T02:49:30.150509","2026-04-17T08:26:48.170209",[119,124,129,134,139,144,149,154],{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},36810,"有类似 CLIP 这样的中文文字 - 图片模型吗？","有的。阿里达摩院 OFA-Sys 团队开源了 Chinese-CLIP 项目，提供了多种模型规模、检索 Demo 及详尽的技术报告。该模型已在达摩院 ModelScope 平台集成上线。此外，WenLan 模型的权重也已公开，可在相关 README 中找到下载链接。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F2",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},36811,"如何申请或获取新收录的大模型（如 GLM-130B）？","对于部分大模型（如早期的 GLM-130B），可能需要通过邮件联系作者或团队进行申请。维护者在确认后会将其收录到列表中并补充论文信息。建议直接访问模型对应的 GitHub 仓库查看最新的获取方式。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F14",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},36812,"是否有完全开源（包含数据、代码和权重）的中文大模型推荐？","推荐关注 MAP-Neo 和 CT-LLM (Chinese Tiny LLM)。MAP-Neo 是一个完全开源的模型，其预训练和后训练数据、代码及模型权重全部公开。CT-LLM 是首个专注于中文语料的预训练模型，同样开源了中文预训练数据集、数据处理流水线、中间检查点及预训练代码。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F28",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},36813,"DeepSeek-V2-Base 模型的参数量是多少？","DeepSeek-V2-Base 的正确参数量描述为\"A21B\u002F236B\"（激活参数 21B，总参数 236B）。此前列表中的参数信息有误，已根据社区反馈进行了更新修正。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F27",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},36814,"基于 ChatYuan 微调的医疗领域模型（如扁鹊 BianQue）是否被收录？","是的，基于 ChatYuan 微调的扁鹊（BianQue）医疗模型已被收录到列表中。该模型专门针对医疗对话场景进行了优化。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F20",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},36815,"THUDM 发布的 GLM 系列模型是否包含在收录列表中？","是的，THUDM 发布的 GLM 系列模型（包括基础版及后续版本）已经被添加到收录列表中。用户可以直接在仓库的相关模块中找到它们。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F10",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},36816,"有没有专门用于生成中文网文小说的模型？","有的，例如 AI-Writer 项目。这是一个自荐开源的项目，专门用于中文网文小说的生成，已被收录到列表中供开发者参考使用。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F5",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},36817,"BMInf 是一个独立的模型还是一个工具包？","BMInf 本质上是一个工具包，内部嵌入了相关的模型。它不仅仅是一个单一的预训练模型，而是一个支持大规模模型推理和微调的基础设施库。","https:\u002F\u002Fgithub.com\u002FlonePatient\u002Fawesome-pretrained-chinese-nlp-models\u002Fissues\u002F4",[]]