[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SmartFlowAI--EmoLLM":3,"tool-SmartFlowAI--EmoLLM":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":108,"github_topics":110,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":117,"updated_at":118,"faqs":119,"releases":160},8374,"SmartFlowAI\u002FEmoLLM","EmoLLM","心理健康大模型 (LLM x Mental Health), Pre & Post-training & Dataset & Evaluation & Depoly & RAG,  with InternLM \u002F Qwen \u002F Baichuan \u002F DeepSeek \u002F Mixtral \u002F LLama \u002F GLM series models","EmoLLM 是一款专注于心理健康领域的开源大模型项目，旨在构建能够“理解、支持并帮助用户”的智能心理辅导助手。它通过指令微调技术，让通用大语言模型掌握专业的心理咨询能力，从而解决传统 AI 在情感共鸣、心理危机干预及专业辅导话术上不足的问题，为用户提供温暖且科学的心理支持。\n\n该项目非常适合人工智能开发者、心理学研究人员以及希望探索\"AI+ 心理健康”应用的企业团队使用。开发者可以利用 EmoLLM 提供的完整链路工具——涵盖数据清洗、预训练、微调（支持全量、LoRA、QLoRA 等多种策略）、评估到部署——快速定制专属的心理垂直模型。\n\nEmoLLM 的技术亮点在于其极强的兼容性与开放性。它不仅支持 InternLM、Qwen、Baichuan、DeepSeek、GLM 等主流国产及国际大模型基座，还开源了丰富的微调配置文件和评测体系，甚至结合了 RAG（检索增强生成）技术以提升回答的准确性与安全性。无论是想深入研究心理大模型机理的学者，还是希望低成本搭建心理陪伴应用的工程师，都能在这里找到成熟的解决方案与资源支持。","\u003Cdiv align=\"center\"> \n\n# EmoLLM-心理健康大模型\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_efebfc69df5c.png\" alt=\"Logo\" width=\"50%\">\n  \u003C\u002Fa>\n\n\u003Cdiv align=\"center\">\n\n\u003C!-- PROJECT SHIELDS -->\n[![Contributors][contributors-shield]][contributors-url]\n[![Forks][forks-shield]][forks-url]\n[![Issues][issues-shield]][issues-url]\n[![OpenXLab_App][OpenXLab_App-image]][OpenXLab_App-url]\n[![OpenXLab_Model][OpenXLab_Model-image]][OpenXLab_Model-url] \n[![MIT License][license-shield]][license-url]\n[![Stargazers][stars-shield]][stars-url]\n\n\u003C\u002Fdiv>\n\n\u003Ch3 align=\"center\">EmoLLM\u003C\u002Fh3>\n\n  \u003Cdiv align=\"center\">\n      简体中文| \u003Ca href=\"README_EN.md\" >English\u003C\u002Fa> | \u003Ca href=\"README_JP.md\" >日本語\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\">\u003Cstrong>探索本项目的文档 »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0\">体验EmoLLM 2.0\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\">报告Bug\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\">提出新特性\u003C\u002Fa>\n  \u003C\u002Fdiv>\n\n\u003C!-- 本篇README.md面向开发者 -->\n\n**EmoLLM** 是一系列能够支持 **理解用户-支持用户-帮助用户** 心理健康辅导链路的心理健康大模型，由 `LLM`指令微调而来，欢迎大家star~⭐⭐。目前已经开源的 `LLM` 微调配置如下：\n\n\u003Cdiv align=\"center\">\n\n|         模型          |   类型   |                                                   链接                                                   | 模型链接   |\n| :-------------------: | :------: | :------------------------------------------------------------------------------------------------------: |:------: |\n|   Deepseek-R1_14b_int4   |  QLoRA   |  unsloth | [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fhaiyangpengai\u002Fcareyou_7b_16bit_v3_2_qwen14_4bit) |\n|   InternLM2_5_7B_chat   |  全量微调   |  [internlm2_5_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_full.py) | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM_V3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLMV3.0) |\n|   InternLM2_5_7B_chat   |  QLoRA   |  [internlm2_5_chat_7b_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_qlora_oasst1_e3.py) |[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fz342994309\u002Femollm_interlm2_5\u002F)  |\n|   InternLM2_7B_chat   |  QLoRA   |  [internlm2_7b_chat_qlora_e3.py](.\u002Fxtuner_config\u002Finternlm2_7b_chat_qlora_e3.py) | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM\u002Ffiles) |\n|   InternLM2_7B_chat   | 全量微调 | [internlm2_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_chat_7b_full.py)  | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full) |\n|   InternLM2_7B_base   |  QLoRA   | [internlm2_7b_base_qlora_e10_M_1e4_32_64.py](.\u002Fxtuner_config\u002Finternlm2_7b_base_qlora_e10_M_1e4_32_64.py) |[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-InternLM7B-base-10e), [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-InternLM7B-base-10e\u002Fsummary) |\n|  InternLM2_1_8B_chat  | 全量微调 |  [internlm2_1_8b_full_alpaca_e3.py](.\u002Fxtuner_config\u002Finternlm2_1_8b_full_alpaca_e3.py)  | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_1_8b_full\u002Ftree\u002Fmain), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_PT_InternLM1.8B-chat\u002Ffiles) |\n|  InternLM2_20B_chat   |   LoRA   |[internlm2_20b_chat_lora_alpaca_e3.py](.\u002Fxtuner_config\u002Finternlm2_20b_chat_lora_alpaca_e3.py)| |\n|     Qwen_7b_chat      |  QLoRA   |  [qwen_7b_chat_qlora_e3.py](.\u002Fxtuner_config\u002Fqwen_7b_chat_qlora_e3.py) | |\n|   Qwen1_5-0_5B-Chat   | 全量微调 |   [qwen1_5_0_5_B_full.py](.\u002Fxtuner_config\u002Fqwen1_5_0_5_B_full.py) | [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen1_5-0_5B-Chat_full_sft\u002Fsummary) |\n|  Baichuan2_13B_chat   |  QLoRA   |   [baichuan2_13b_chat_qlora_alpaca_e3.py](.\u002Fxtuner_config\u002Fbaichuan2_13b_chat_qlora_alpaca_e3.py) | |\n|      ChatGLM3_6B      |   LoRA   |   [chatglm3_6b_lora_alpaca_e3.py](.\u002Fxtuner_config\u002Fchatglm3_6b_lora_alpaca_e3.py)  | |\n| DeepSeek MoE_16B_chat |  QLoRA   |  [deepseek_moe_16b_chat_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Fdeepseek_moe_16b_chat_qlora_oasst1_e3.py)    | |\n| Mixtral 8x7B_instruct |  QLoRA   | [mixtral_8x7b_instruct_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Fmixtral_8x7b_instruct_qlora_oasst1_e3.py)    | |\n| LLaMA3_8B_instruct    |  QLoRA   | [aiwei_llama3_8b_instruct_qlora_e3.py](.\u002Fxtuner_config\u002Faiwei_llama3_8b_instruct_qlora_e3.py) | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei\u002Ftree\u002Fmain), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei\u002Ffiles) |\n| LLaMA3_8B_instruct    |  QLoRA   | [llama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py](.\u002Fxtuner_config\u002Fllama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py)    |[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0\u002Fsummary) |\n| Qwen2-7B-Instruct    |  LoRA   | [Qwen2-7B-Instruct_lora.py](.\u002Fxtuner_config\u002FQwen2-7B-Instruct_lora.py)    |[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen2-7B-Instruct_lora\u002F) |\n|          ……           |    ……    |                                                    ……                                                    | …… |\n\n\u003C\u002Fdiv>\n\n🎉欢迎大家为本项目做出贡献！\n\n🔍对LLM原理\u002F底层实现感兴趣的小伙伴可以关注[ThinkLLM](https:\u002F\u002Fgithub.com\u002FaJupyter\u002FThinkLLM)，专注于从零实现大模型的各种组件\n\n---\n\n心理健康大模型（Mental Health Grand Model）是一个综合性的概念，它旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。这个模型通常包含以下几个关键组成部分：\n\n- 认知因素：涉及个体的思维模式、信念系统、认知偏差以及解决问题的能力。认知因素对心理健康有重要影响，因为它们影响个体如何解释和应对生活中的事件。\n- 情感因素：包括情绪调节、情感表达和情感体验。情感健康是心理健康的重要组成部分，涉及个体如何管理和表达自己的情感，以及如何从负面情绪中恢复。\n- 行为因素：涉及个体的行为模式、习惯和应对策略。这包括应对压力的技巧、社交技能以及自我效能感，即个体对自己能力的信心。\n- 社会环境：包括家庭、工作、社区和文化背景等外部因素，这些因素对个体的心理健康有着直接和间接的影响。\n- 生理健康：身体健康与心理健康紧密相关。良好的身体健康可以促进心理健康，反之亦然。\n- 心理韧性：指个体在面对逆境时的恢复力和适应能力。心理韧性强的人更能够从挑战中恢复，并从中学习和成长。\n- 预防和干预措施：心理健康大模型还包括预防心理问题和促进心理健康的策略，如心理教育、心理咨询、心理治疗和社会支持系统。\n- 评估和诊断工具：为了有效促进心理健康，需要有科学的工具来评估个体的心理状态，以及诊断可能存在的心理问题。\n\n\u003Ctable style=\"width: 100%; border-collapse: collapse;\">\n    \u003Ctr>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo2.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo3.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo4.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd colspan=\"3\" align=\"center\" style=\"background-color: transparent;\">\n            \u003Cimg src=\"careyou\\assets\\careyou.png\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 🎇最近更新\n- 【2025.5】[AI心理助手-深度思考版（Caryou）](https:\u002F\u002Fgithub.com\u002FHaiyangPeng\u002Fcareyou)：EmoLLM-心理数字人分项（目前完成了深度思考、Rag、web search和tts功能），已合并到EmoLLM，欢迎大家参与项目的优化和完善！\n- 【2025.5】[deepwiki-EmoLLM](https:\u002F\u002Fdeepwiki.com\u002FSmartFlowAI\u002FEmoLLM)：可以基于该项目进行更加智能化的项目&文档理解\n- 【2025.4】[ThinkLLM](https:\u002F\u002Fgithub.com\u002FaJupyter\u002FThinkLLM\u002Ftree\u002Fmain\u002FLLM)是一个轻量、高效的大语言模型算法实现仓库，提供了BPE训练指南（支持EmoLLM）。\n- 【2025.3】基于InternLM2.5-7B-chat全量微调的[EmoLLM（GGUF格式，fp16精度）](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FL0ve1ace\u002Fpsychology-llm-gguf-67cc766eaf0a3f01c6e39aa6) ，如何操作后续会更新~ @Rycen7822 @Slipstream-Max\n- 【2025.2】更新[首个心理健康R1蒸馏数据集](.\u002Fdatasets\u002Fpsychology-10k-Deepseek-R1-zh.json) @Kedreamix\n- 【2024.09.14】基于Qwen2-7B-Instruct模型的Lora微调模型开源，微调配置文件地址：[Qwen2-7B-Instruct_lora.py](.\u002Fxtuner_config\u002FQwen2-7B-Instruct_lora.py) ，模型权重链接：[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen2-7B-Instruct_lora\u002F)\n- 【2024.08】基于GLM4-9B-chat微调Lora模型开源（基于LLaMA-Factory），详情见[微调教程](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md) ，模型权重链接：[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fwwewwt\u002FEmoLLM-glm-4-9b-chat\u002Fsummary)\n- 【2024.07.16】欢迎大家体验 EmoLLM V3.0 ，该模型是基于InternLM2.5-7B-Chat模型的全量微调，微调配置文件地址：[internlm2_5_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_full.py) ，模型权重链接：[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM_V3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLMV3.0) ，WebDemo地址： [OpenXLab apps](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLMV3.0), [配套全量微调知乎教程](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F708931911)。\n- 【2024.07】欢迎大家使用稳定版 EmoLLM V2.0 进行日常使用和学术研究，模型权重链接：[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full\u002Ftree\u002Fmain)。\n- 【2024.07】新增基于InternLM2_5_7B_chat[微调配置](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_qlora_oasst1_e3.py)、模型文件发布在 [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fz342994309\u002Femollm_interlm2_5\u002F)。\n- 【2024.06】新增基于[LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory)[GLM4-9B-chat微调指南](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md)、新增[基于swift的微调指南](.\u002Fswift\u002F)、论文[ESC-Eval: Evaluating Emotion Support Conversations in Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.14952)引用了EmoLLM且EmoLLM取得了较好的效果。\n- 【2024.05.28】EmoLLM使用的多轮对话数据集CPsyCounD和专业评测方法已公开，详见2024 ACL findings[《CPsyCoun: A Report-based Multi-turn Dialogue Reconstruction and Evaluation Framework for Chinese Psychological Counseling》](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.16433)!\n- 【2024.05.08】EmoLLM**爹系男友阅览体验版**上线 [1. **百度AppBuilder**](https:\u002F\u002Fappbuilder.baidu.com\u002Fs\u002F4cLyw) [2. **OpenXLab**](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLM3.0_Gradio_Llama3-8B-Instruct3.0), 欢迎点赞收藏\n- 【2024.05.07】[增量预训练指南](xtuner_config\u002Fpt\u002FREADME.md)\n- 【2024.05.04】基于LLaMA3_8b_instruct的[EmoLLM3.0 OpenXLab Demo](https:\u002F\u002Fst-app-center-006861-9746-jlroxvg.openxlab.space\u002F)上线（[重启链接](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0)）, [**LLAMA3微调指南**](xtuner_config\u002FREADME_llama3_8b_instruct_qlora_alpaca_e3_M.md)**更新**，在[**OpenXLab**](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0)和[**ModelScope**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0\u002Fsummary)平台发布**LLaMA3_8b_instruct-8B QLoRA微调模型 EmoLLM3.0权重**\n- 【2024.04.20】[LLAMA3微调指南](xtuner_config\u002FREADME_llama3_8b_instruct_qlora_alpaca_e3_M.md)及基于[LLaMA3_8b_instruct的艾薇](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei)开源\n- 【2023.04.14】新增[快速开始](docs\u002Fquick_start.md)和保姆级教程[BabyEmoLLM](Baby_EmoLLM.ipynb)\n- 【2024.04.02】在 Huggingface 上传[老母亲心理咨询师](https:\u002F\u002Fhuggingface.co\u002Fbrycewang2018\u002FEmoLLM-mother\u002Ftree\u002Fmain)\n- 【2024.03.25】在百度飞桨平台发布[爹系男友心理咨询师](https:\u002F\u002Faistudio.baidu.com\u002Fcommunity\u002Fapp\u002F68787)\n\n\n\u003Cdetails>\n\u003Csummary>查看更多\u003C\u002Fsummary>\n\n- 【2024.03.24】在**OpenXLab**和**ModelScope**平台发布**InternLM2-Base-7B QLoRA微调模型**, 具体请查看[**InternLM2-Base-7B QLoRA**](.\u002Fxtuner_config\u002FREADME_internlm2_7b_base_qlora.md)\n- 【2024.03.12】在百度飞桨平台发布[艾薇](https:\u002F\u002Faistudio.baidu.com\u002Fcommunity\u002Fapp\u002F63335)\n- 【2024.03.11】 **EmoLLM V2.0 相比 EmoLLM V1.0 全面提升，已超越 Role-playing ChatGPT 在心理咨询任务上的能力！**[点击体验EmoLLM V2.0](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0)，更新[数据集统计及详细信息](.\u002Fdatasets\u002F)、[路线图](.\u002Fhttps:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_13804f0795c7.png)\n- 【2024.03.09】 新增并发功能加速 [QA 对生成](.\u002Fscripts\u002Fqa_generation\u002F)、[RAG pipeline](.\u002Frag\u002F)\n- 【2024.03.03】 [基于InternLM2-7B-chat全量微调版本EmoLLM V2.0开源](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full)，需要两块A100*80G，更新专业评估，详见[evaluate](.\u002Fevaluate\u002F)，更新基于PaddleOCR的PDF转txt工具脚本，详见[scripts](.\u002Fscripts\u002F)\n- 【2024.02.29】更新客观评估计算，详见[evaluate](.\u002Fevaluate\u002F)，更新一系列数据集，详见[datasets](.\u002Fdatasets\u002F)\n- 【2024.02.27】更新英文readme和一系列数据集（舔狗和单轮对话）\n- 【2024.02.23】推出基于InternLM2_7B_chat_qlora的 `温柔御姐心理医生艾薇`，[点击获取模型权重](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_aiwei)，[配置文件](xtuner_config\u002Faiwei-internlm2_chat_7b_qlora.py)，[在线体验链接](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fajupyter\u002FEmoLLM-aiwei)\n- 【2024.02.23】更新[若干微调配置](\u002Fxtuner_config\u002F)，新增 [data_pro.json](\u002Fdatasets\u002Fdata_pro.json)（数量更多、场景更全、更丰富）和 [aiwei.json](\u002Fdatasets\u002Faiwei.json)（温柔御姐角色扮演专用，带有Emoji表情），即将推出 `温柔御姐心理医生艾薇`\n- 【2024.02.18】 [基于Qwen1_5-0_5B-Chat全量微调版本开源](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen1_5-0_5B-Chat_full_sft\u002Fsummary)，算力有限的道友可以玩起来~\n- 【2024.02.06】 EmoLLM在[**Openxlab** ](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fjujimeizuo\u002FEmoLLM_Model) 平台下载量高达18.7k，欢迎大家体验！\n\n\u003Cp align=\"center\"> \n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_e4bc61bf2668.png\" alt=\"模型下载量\">\n\u003C\u002Fp>\n\n- 【2024.02.05】 项目荣获公众号**NLP工程化**推文宣传[推文链接](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F78lrRl2tlXEKUfElnkVx4A)，为博主推广一波，欢迎大家关注！！🥳🥳\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_e8179b4ea88b.png\" alt=\"公众号二维码\">\n\u003C\u002Fp>\n\n- 【2024.02.03】 [项目宣传视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1N7421N76X\u002F)完成 😊\n- 【2024.01.27】 完善数据构建文档、微调指南、部署指南、Readme等相关文档 👏\n- 【2024.01.25】 EmoLLM V1.0 已部署上线 https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fjujimeizuo\u002FEmoLLM 😀\n\n\u003C\u002Fdetails>\n\n## 🏆荣誉栏\n\n- 项目荣获上海人工智能实验室举办的**2024浦源大模型系列挑战赛春季赛*****创新创意奖***\n\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_42ef5b830bb0.png\" alt=\"浦语挑战赛创新创意奖\">\n\u003C\u002Fp>\n\n- 荣获[AI 赋能大学计划“全国高校行”](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FyyaulQ1wBzKq5cXaGl2Wag)一等奖\n\n- 🎉感谢以下媒体及公众号朋友对本项目的报道和支持(以下排名不分先后! 若有遗漏、十分抱歉, 一并感激! 欢迎补充!): [NLP工程化](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F78lrRl2tlXEKUfElnkVx4A), [机智流](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F_wMCmssRMGd0Oz5OVVkjAA), [爱可可爱生活](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F4WaCg4OpkCWXEuWHuV4r3w), [阿郎小哥](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F_MSMeL1XHP0v5lDi3YaPVw), [大模型日知路](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FFYYibsCXtfU6FFM9TuKILA), [AI Code](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FyDWGY3S4CwCi6U_irsFmqA) 等!\n\n- 项目宣传视频 [EmoLLM](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1N7421N76X\u002F) 已发布，欢迎大家围观 😀\n\n## 🎯路线图\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_13804f0795c7.png\" alt=\"Roadmap_ZH\">\n  \u003C\u002Fa>\n\n## 🔗框架图\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_b4deff0df815.png\" alt=\"Framework_ZH\">\n  \u003C\u002Fa>\n\n## 目录\n\n- [EmoLLM-心理健康大模型](#emollm-心理健康大模型)\n  - [🎇最近更新](#最近更新)\n  - [🏆荣誉栏](#荣誉栏)\n  - [🎯路线图](#路线图)\n  - [🔗框架图](#框架图)\n  - [目录](#目录)\n          - [开发前的配置要求](#开发前的配置要求)\n          - [使用指南](#使用指南)\n    - [🍪快速体验](#快速体验)\n    - [📌数据构建](#数据构建)\n    - [🎨增量预训练、微调指南](#增量预训练微调指南)\n    - [🔧部署指南](#部署指南)\n    - [⚙RAG(检索增强生成)](#rag检索增强生成)\n    - [🎓评测指南](#评测指南)\n    - [使用到的框架](#使用到的框架)\n      - [如何参与本项目](#如何参与本项目)\n    - [作者（排名不分先后）](#作者排名不分先后)\n    - [版权说明](#版权说明)\n    - [引用](#引用)\n    - [特别鸣谢](#特别鸣谢)\n      - [相关项目](#相关项目)\n      - [人员](#人员)\n  - [⚠️ 免责声明](#%EF%B8%8F-%E5%85%8D%E8%B4%A3%E5%A3%B0%E6%98%8E)\n  - [Star History](#star-history)\n  - [🌟 Contributors](#-contributors)\n  - [交流群](#交流群)\n\n###### 开发前的配置要求\n\n- 硬件：A100 40G（仅针对InternLM2_7B_chat+qlora微调+deepspeed zero2优化）\n- todo：发布更多硬件消耗细节\n\n###### 使用指南\n\n1. Clone the repo\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM.git\n```\n\n2. 依次阅读或者选择感兴趣的部分阅读：\n   - [快速体验](#快速体验)\n   - [数据构建](#数据构建)\n   - [增量预训练、微调指南](#增量预训练微调指南)\n   - [部署指南](#部署指南)\n   - [RAG](#rag检索增强生成)\n   - [评测指南](#评测指南)\n   - 查看更多详情\n\n\n### 🍪快速体验\n\n- 请阅读[快速体验](quick_start\u002Fquick_start.md)查阅\n- 快速上手：[Baby EmoLLM](quick_start\u002FBaby_EmoLLM.ipynb)\n\n\n### 📌数据构建\n- 请阅读[数据构建指南](generate_data\u002Ftutorial.md)查阅\n- 微调用到的数据集见[datasets](datasets\u002Fdata.json)\n\n### 🎨增量预训练、微调指南\n- 增量预训练详见[增量预训练指南](.\u002Fxtuner_config\u002Fpt\u002FREADME.md)\n- 【基于xtuner】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fxtuner_config\u002FREADME.md)\n- 【基于ms-swift】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fswift\u002FREADME.md)\n- 【基于LLaMA-Factory】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md)\n- todo：待更新DPO训练\n\n### 🔧部署指南\n\n- Demo部署：详见[部署指南](demo\u002FREADME.md)\n- 基于[LMDeploy](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flmdeploy\u002F)的量化部署：详见[deploy](.\u002Fdeploy\u002Flmdeploy.md)\n- todo: 基于VLLM部署指南\n\n### ⚙RAG(检索增强生成)\n\n- 详见[RAG](rag\u002FREADME.md)\n\n### 🎓评测指南\n\n- 本模型评测分为通用评测和专业评测，请阅读[评测指南](evaluate\u002FREADME.md)查阅\n\n\u003Cdetails>\n\u003Csummary>更多详情\u003C\u002Fsummary>\n\n### 使用到的框架\n\n- [xtuner](https:\u002F\u002Fgithub.com\u002FInternLM\u002Fxtuner)：用于微调\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F)\n- [LMDeploy](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flmdeploy\u002F)：用于量化部署\n- [Stremlit](https:\u002F\u002Fstreamlit.io\u002F)：用于构建Demo\n- [DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed)：并行训练\n- [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory\u002Fblob\u002Fmain)：训练框架\n- [ms-swift](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fms-swift)：训练框架\n\n#### 如何参与本项目\n\n贡献使开源社区成为一个学习、激励和创造的绝佳场所。你所作的任何贡献都是**非常感谢**的。\n\n1. Fork the Project\n2. Create your Feature Branch (`git checkout -b feature\u002FAmazingFeature`)\n3. Commit your Changes (`git commit -m 'Add some AmazingFeature'`)\n4. Push to the Branch (`git push origin feature\u002FAmazingFeature`)\n5. Open a Pull Request\n\n\u003C\u002Fdetails>\n\n### 作者（排名不分先后）\n\n|                            用户名                            |                          学校\u002F组织                           |                   备注                    |                贡献                 |\n| :----------------------------------------------------------: | :----------------------------------------------------------: | :---------------------------------------: | :---------------------------------: |\n|           [aJupyter](https:\u002F\u002Fgithub.com\u002FaJupyter)            |                       南开大学在读硕士                       |               DataWhale成员               |             项目发起人              |\n|           [MING-ZCH](https:\u002F\u002Fgithub.com\u002FMING-ZCH)            |                    华中科技大学在读本科生                    |        LLM x Mental health 研究者         |           项目联合负责人            |\n|            [chg0901](https:\u002F\u002Fgithub.com\u002Fchg0901)             | 韩国光云大学在读博士 [MiniSora](https:\u002F\u002Fgithub.com\u002Fmini-sora\u002Fminisora\u002F) | DataWhale意向成员 DataWhale鲸英助教团成员 |           项目联合负责人            |\n|         [jujimeizuo](https:\u002F\u002Fgithub.com\u002Fjujimeizuo)          |                       江南大学在读硕士                       |                                           |                                     |\n| [Smiling-Weeping-zhr](https:\u002F\u002Fgithub.com\u002FSmiling-Weeping-zhr) |               哈尔滨工业大学（威海）在读本科生               |                                           |                                     |\n|             [8baby8](https:\u002F\u002Fgithub.com\u002F8baby8)              |                      飞桨领航团区域主管                      |           文心大模型核心开发者            |                                     |\n|             [zxazys](https:\u002F\u002Fgithub.com\u002Fzxazys)              |                       南开大学在读硕士                       |                                           |                                     |\n|   [JasonLLLLLLLLLLL](https:\u002F\u002Fgithub.com\u002FJasonLLLLLLLLLLL)    |                            swufe                             |                                           |                                     |\n|            [MrCatAI](https:\u002F\u002Fgithub.com\u002FMrCatAI)             |                           AI搬用工                           |                                           |                                     |\n|             [ZeyuBa](https:\u002F\u002Fgithub.com\u002FZeyuBa)              |                       自动化所在读硕士                       |                                           |                                     |\n|   [aiyinyuedejustin](https:\u002F\u002Fgithub.com\u002Faiyinyuedejustin)    |                    宾夕法尼亚大学在读硕士                    |                                           |                                     |\n|          [Nobody-ML](https:\u002F\u002Fgithub.com\u002FNobody-ML)           |                中国石油大学（华东）在读本科生                |                                           |                                     |\n|             [Mxoder](https:\u002F\u002Fgithub.com\u002FMxoder)              |                  北京航空航天大学在读本科生                  |                                           |                                     |\n|           [Anooyman](https:\u002F\u002Fgithub.com\u002FAnooyman)            |                       南京理工大学硕士                       |                                           |                                     |\n|         [Vicky-3021](https:\u002F\u002Fgithub.com\u002FVicky-3021)          |                 西安电子科技大学硕士（研0）                  |                                           |                                     |\n|        [SantiagoTOP](https:\u002F\u002Fgithub.com\u002FsantiagoTOP)         |                     太原理工大学在读硕士                     |                                           | 数据清洗，文档管理、Baby EmoLLM维护 |\n|        [zealot52099](https:\u002F\u002Fgithub.com\u002Fzealot52099)         |                          个人开发者                          |                                           |       清洗数据、LLM微调、RAG        |\n|            [wwwyfff](https:\u002F\u002Fgithub.com\u002Fwwwyfff)             |                       复旦大学在读硕士                       |                                           |                                     |\n|           [Yicooong](https:\u002F\u002Fgithub.com\u002FYicooong)            |                       南开大学在读硕士                       |                                           |                                     |\n|            [jkhumor](https:\u002F\u002Fgithub.com\u002Fjkhumor)             |                       南开大学在读硕士                       |                                           |                 RAG                 |\n|       [lll997150986](https:\u002F\u002Fgithub.com\u002Flll997150986)        |                       南开大学在读硕士                       |                                           |                微调                 |\n|          [nln-maker](https:\u002F\u002Fgithub.com\u002Fnln-maker)           |                       南开大学在读硕士                       |                                           |             前后端开发              |\n|         [dream00001](https:\u002F\u002Fgithub.com\u002Fdream00001)          |                       南开大学在读硕士                       |                                           |             前后端开发              |\n|     [王几行XING](https:\u002F\u002Fzhihu.com\u002Fpeople\u002Fbrycewang1898)     |                       北京大学硕士毕业                       |                                           |    清洗数据、LLM微调、前后端开发    |\n|                            [思在]                            |                 北京大学硕士毕业（微软美国）                 |                                           |         LLM微调、前后端开发         |\n|             [TingWei](https:\u002F\u002Fgithub.com\u002Fwwewwt)             |                     电子科技大学硕士毕业                     |         微信公众号：AI大模型在手          |                微调                 |\n|            [PengYu](https:\u002F\u002Fgithub.com\u002Fhi-pengyu)            |                      石河子大学在读硕士                      |                                           |               LLM微调               |\n|          [Kedreamix](https:\u002F\u002Fgithub.com\u002FKedreamix)           |                       深圳大学在读硕士                       |               DataWhale成员               |      首个心理健康R1蒸馏数据集       |\n|          [HaiyangPeng](https:\u002F\u002Fgithub.com\u002FHaiyangPeng)           |                       AI算法工程师                       |                              |      开发AI心理助手-深度思考版       |\n### 版权说明\n\n该项目签署了 MIT 授权许可，详情请参阅 [LICENSE](https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fblob\u002Fmain\u002FLICENSE)\n\n### 引用\n\n如果本项目对您的工作有所帮助，请使用以下格式引用：\n\n```bibtex\n@misc{2024EmoLLM,\n    title={EmoLLM: Reinventing Mental Health Support with Large Language Models},\n    author={EmoLLM Team},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM}},\n    year={2024}\n}\n```\n\n#### 工作列表\n有如下工作引用了EmoLLM（如有遗漏，欢迎补充，排名不分先后）\n- Yin C, Li F, Zhang S, et al. Mdd-5k: A new diagnostic conversation dataset for mental disorders synthesized via neuro-symbolic llm agents[C]\u002F\u002FProceedings of the AAAI Conference on Artificial Intelligence. 2025, 39(24): 25715-25723.\n- Gu Q, Li S, Zheng T, et al. Steel-LLM: From Scratch to Open Source--A Personal Journey in Building a Chinese-Centric LLM[J]. arXiv preprint arXiv:2502.06635, 2025.\n- Dai C, Hu J, Shi H, et al. Psyche-R1: Towards Reliable Psychological LLMs through Unified Empathy, Expertise, and Reasoning[J]. arXiv preprint arXiv:2508.10848, 2025.\n- Wang M, Wang P, Wu L, et al. AnnaAgent: Dynamic Evolution Agent System with Multi-Session Memory for Realistic Seeker Simulation[J]. arXiv preprint arXiv:2506.00551, 2025.\n- Feng Y, Wang Q, Liu K, et al. AI PsyRoom: Artificial Intelligence Platform for Segmented Yearning and Reactive Outcome Optimization Method[J]. arXiv preprint arXiv:2506.06740, 2025.\n\n\n### 特别鸣谢\n\n#### 相关项目\n- [CPsyCoun](https:\u002F\u002Fgithub.com\u002FCAS-SIAT-XinHai\u002FCPsyCoun)\n- [Smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)\n- [SoulChat](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)\n\n#### 人员\n- [上海人工智能实验室](https:\u002F\u002Fwww.shlab.org.cn\u002F)\n- [闻星（浦语小助手）](https:\u002F\u002Fgithub.com\u002Fvansin)\n- 阿布（北大心理学硕士）\n- [Sanbu](https:\u002F\u002Fgithub.com\u002Fsanbuphy)\n- [HatBoy](https:\u002F\u002Fgithub.com\u002Fhatboy)\n\n\u003C!-- links -->\n\n\u003C!-- [linkedin-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-LinkedIn-black.svg?style=flat-square&logo=linkedin&colorB=555 -->\n\n\u003C!-- [linkedin-url]: https:\u002F\u002Flinkedin.com\u002Fin\u002FaJupyter -->\n\n## ⚠️ 免责声明\n本仓库所有开源代码及模型均遵循 MIT 许可协议。当前开源的 EmoLLM 模型可能存在某些局限性，因此我们声明如下：\n\nEmoLLM 目前仅能提供情绪支持和相关建议服务，尚无法提供专业的心理咨询和心理治疗服务。EmoLLM 不能替代专业的心理医生或心理咨询师，可能存在固有局限性，并可能生成错误的、有害的、冒犯性的或其他不良输出。在关键或高风险场景中，用户需保持审慎，避免将 EmoLLM 的输出作为最终决策依据，以免造成个人伤害、财产损失或其他重大损失。\n\n在任何情况下，作者、贡献者或版权所有者均不对因 EmoLLM 软件使用或交易引发的任何索赔、损害赔偿或其他责任（无论基于合同、侵权行为或其他法律原因）承担责任。\n\n使用 EmoLLM 即表示您同意上述条款与条件，并承认了解其使用可能带来的潜在风险。您还同意赔偿并使作者、贡献者和版权所有者免受因您使用 EmoLLM 而引发的任何索赔、损害赔偿或责任的影响。\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_b3face26c774.png)](https:\u002F\u002Fstar-history.com\u002F#SmartFlowAI\u002FEmoLLM&Date)\n\n## 🌟 Contributors\n\n[![EmoLLM contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_650a73186f4d.png)](https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fgraphs\u002Fcontributors)\n\n[your-project-path]: SmartflowAI\u002FEmoLLM\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[contributors-url]: https:\u002F\u002Fgithub.com\u002FSmartflowAI\u002FEmoLLM\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[forks-url]: https:\u002F\u002Fgithub.com\u002FSmartflowAI\u002FEmoLLM\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[stars-url]: https:\u002F\u002Fgithub.com\u002FSmartflowAI\u002FEmoLLM\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[issues-url]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FSmartflowAI\u002FEmoLLM.svg\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[license-url]: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fblob\u002Fmain\u002FLICENSE\n\n[OpenXLab_App-image]: https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg\n[OpenXLab_Model-image]: https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fheader\u002Fopenxlab_models.svg\n[OpenXLab_App-url]: https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0\n[OpenXLab_Model-url]: https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full\n\n## 交流群\n\n- 如果失效，请移步Issue区\n\n\u003Cp align=\"center\">\n  \u003Cimg  width=\"30%\" src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F8240984\u002F324394775-c8e83dac-9ed9-4a19-bb7f-b6bbedc109d9.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJjb250ZW50LmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTM3NzYyOTIsIm5iZiI6MTcxMzc3NTk5MiwicGF0aCI6Ii84MjQwOTg0LzMyNDM5NDc3NS1jOGU4M2RhYy05ZWQ5LTRhMTktYmI3Zi1iNmJiZWRjMTA5ZDkucG5nP1gtQW16LUFsZ29yaXRobT1BV1M0LUhNQUMtU0hBMjU2JlgtQW16LUNyZWRlbnRpYWw9QUtJQVZDT0RZTFNBNTNQUUs0WkElMkYyMDI0MDQyMiUyRnVzLWVhc3QtMSUyRnMzJTJGYXdzNF9yZXF1ZXN0JlgtQW16LURhdGU9MjAyNDA0MjJUMDg1MzEyWiZYLUFtei1FeHBpcmVzPTMwMCZYLUFtei1TaWduYXR1cmU9ZTI4Y2E3MzI5YmJmZTUzYTFiNDU3YmNiZjZjMDgxYTMzZjQxMTJjMzU2MDQ3YjI1YzgyY2MzMjJhZmQ2ODgyYyZYLUFtei1TaWduZWRIZWFkZXJzPWhvc3QmYWN0b3JfaWQ9MCZrZXlfaWQ9MCZyZXBvX2lkPTAifQ.yfBwgthq3zvmWD2givTJl5w3SMm4O5BeEFwidgG1WpY\" alt=\"EmoLLM官方交流群\">\n\u003C\u002Fp>\n","\u003Cdiv align=\"center\"> \n\n# EmoLLM-心理健康大模型\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_efebfc69df5c.png\" alt=\"Logo\" width=\"50%\">\n  \u003C\u002Fa>\n\n\u003Cdiv align=\"center\">\n\n\u003C!-- PROJECT SHIELDS -->\n[![Contributors][contributors-shield]][contributors-url]\n[![Forks][forks-shield]][forks-url]\n[![Issues][issues-shield]][issues-url]\n[![OpenXLab_App][OpenXLab_App-image]][OpenXLab_App-url]\n[![OpenXLab_Model][OpenXLab_Model-image]][OpenXLab_Model-url] \n[![MIT License][license-shield]][license-url]\n[![Stargazers][stars-shield]][stars-url]\n\n\u003C\u002Fdiv>\n\n\u003Ch3 align=\"center\">EmoLLM\u003C\u002Fh3>\n\n  \u003Cdiv align=\"center\">\n      简体中文| \u003Ca href=\"README_EN.md\" >English\u003C\u002Fa> | \u003Ca href=\"README_JP.md\" >日本語\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\">\u003Cstrong>探索本项目的文档 »\u003C\u002Fstrong>\u003C\u002Fa>\n    \u003Cbr \u002F>\n    \u003Cbr \u002F>\n    \u003Ca href=\"https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0\">体验EmoLLM 2.0\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\">报告Bug\u003C\u002Fa>\n    ·\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\">提出新特性\u003C\u002Fa>\n  \u003C\u002Fdiv>\n\n\u003C!-- 本篇README.md面向开发者 -->\n\n**EmoLLM** 是一系列能够支持 **理解用户-支持用户-帮助用户** 心理健康辅导链路的心理健康大模型，由 `LLM`指令微调而来，欢迎大家star~⭐⭐。目前已经开源的 `LLM` 微调配置如下：\n\n\u003Cdiv align=\"center\">\n\n|         模型          |   类型   |                                                   链接                                                   | 模型链接   |\n| :-------------------: | :------: | :------------------------------------------------------------------------------------------------------: |:------: |\n|   Deepseek-R1_14b_int4   |  QLoRA   |  unsloth | [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fhaiyangpengai\u002Fcareyou_7b_16bit_v3_2_qwen14_4bit) |\n|   InternLM2_5_7B_chat   |  全量微调   |  [internlm2_5_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_full.py) | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM_V3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLMV3.0) |\n|   InternLM2_5_7B_chat   |  QLoRA   |  [internlm2_5_chat_7b_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_qlora_oasst1_e3.py) |[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fz342994309\u002Femollm_interlm2_5\u002F)  |\n|   InternLM2_7B_chat   |  QLoRA   |  [internlm2_7b_chat_qlora_e3.py](.\u002Fxtuner_config\u002Finternlm2_7b_chat_qlora_e3.py) | [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM\u002Ffiles) |\n|   InternLM2_7B_chat   | 全量微调 | [internlm2_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_chat_7b_full.py)  | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full) |\n|   InternLM2_7B_base   |  QLoRA   | [internlm2_7b_base_qlora_e10_M_1e4_32_64.py](.\u002Fxtuner_config\u002Finternlm2_7b_base_qlora_e10_M_1e4_32_64.py) |[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-InternLM7B-base-10e), [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-InternLM7B-base-10e\u002Fsummary) |\n|  InternLM2_1_8B_chat  | 全量微调 |  [internlm2_1_8b_full_alpaca_e3.py](.\u002Fxtuner_config\u002Finternlm2_1_8b_full_alpaca_e3.py)  | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_1_8b_full\u002Ftree\u002Fmain), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_PT_InternLM1.8B-chat\u002Ffiles) |\n|  InternLM2_20B_chat   |   LoRA   |[internlm2_20b_chat_lora_alpaca_e3.py](.\u002Fxtuner_config\u002Finternlm2_20b_chat_lora_alpaca_e3.py)| |\n|     Qwen_7b_chat      |  QLoRA   |  [qwen_7b_chat_qlora_e3.py](.\u002Fxtuner_config\u002Fqwen_7b_chat_qlora_e3.py) | |\n|   Qwen1_5-0_5B-Chat   | 全量微调 |   [qwen1_5_0_5_B_full.py](.\u002Fxtuner_config\u002Fqwen1_5_0_5_B_full.py) | [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen1_5-0_5B-Chat_full_sft\u002Fsummary) |\n|  Baichuan2_13B_chat   |  QLoRA   |   [baichuan2_13b_chat_qlora_alpaca_e3.py](.\u002Fxtuner_config\u002Fbaichuan2_13b_chat_qlora_alpaca_e3.py) | |\n|      ChatGLM3_6B      |   LoRA   |   [chatglm3_6b_lora_alpaca_e3.py](.\u002Fxtuner_config\u002Fchatglm3_6b_lora_alpaca_e3.py)  | |\n| DeepSeek MoE_16B_chat |  QLoRA   |  [deepseek_moe_16b_chat_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Fdeepseek_moe_16b_chat_qlora_oasst1_e3.py)    | |\n| Mixtral 8x7B_instruct |  QLoRA   | [mixtral_8x7b_instruct_qlora_oasst1_e3.py](.\u002Fxtuner_config\u002Fmixtral_8x7b_instruct_qlora_oasst1_e3.py)    | |\n| LLaMA3_8B_instruct    |  QLoRA   | [aiwei_llama3_8b_instruct_qlora_e3.py](.\u002Fxtuner_config\u002Faiwei_llama3_8b_instruct_qlora_e3.py) | [OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei\u002Ftree\u002Fmain), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei\u002Ffiles) |\n| LLaMA3_8B_instruct    |  QLoRA   | [llama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py](.\u002Fxtuner_config\u002Fllama3_8b_instruct_qlora_alpaca_e3_M_ruozhi_scM.py)    |[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0\u002Fsummary) |\n| Qwen2-7B-Instruct    |  LoRA   | [Qwen2-7B-Instruct_lora.py](.\u002Fxtuner_config\u002FQwen2-7B-Instruct_lora.py)    |[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen2-7B-Instruct_lora\u002F) |\n|          ……           |    ……    |                                                    ……                                                    | …… |\n\n\u003C\u002Fdiv>\n\n🎉欢迎大家为本项目做出贡献！\n\n🔍对LLM原理\u002F底层实现感兴趣的小伙伴可以关注[ThinkLLM](https:\u002F\u002Fgithub.com\u002FaJupyter\u002FThinkLLM)，专注于从零实现大模型的各种组件\n\n---\n\n心理健康大模型（Mental Health Grand Model）是一个综合性的概念，它旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。这个模型通常包含以下几个关键组成部分：\n\n- 认知因素：涉及个体的思维模式、信念系统、认知偏差以及解决问题的能力。认知因素对心理健康有重要影响，因为它们影响个体如何解释和应对生活中的事件。\n- 情感因素：包括情绪调节、情感表达和情感体验。情感健康是心理健康的重要组成部分，涉及个体如何管理和表达自己的情感，以及如何从负面情绪中恢复。\n- 行为因素：涉及个体的行为模式、习惯和应对策略。这包括应对压力的技巧、社交技能以及自我效能感，即个体对自己能力的信心。\n- 社会环境：包括家庭、工作、社区和文化背景等外部因素，这些因素对个体的心理健康有着直接和间接的影响。\n- 生理健康：身体健康与心理健康紧密相关。良好的身体健康可以促进心理健康，反之亦然。\n- 心理韧性：指个体在面对逆境时的恢复力和适应能力。心理韧性强的人更能够从挑战中恢复，并从中学习和成长。\n- 预防和干预措施：心理健康大模型还包括预防心理问题和促进心理健康的策略，如心理教育、心理咨询、心理治疗和社会支持系统。\n- 评估和诊断工具：为了有效促进心理健康，需要有科学的工具来评估个体的心理状态，以及诊断可能存在的心理问题。\n\n\u003Ctable style=\"width: 100%; border-collapse: collapse;\">\n    \u003Ctr>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo2.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo3.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n        \u003Ctd align=\"center\" style=\"background-color: transparent; width: 50%;\">\n            \u003Cimg src=\"assets\\aiwei_demo4.gif\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n    \u003Ctr>\n        \u003Ctd colspan=\"3\" align=\"center\" style=\"background-color: transparent;\">\n            \u003Cimg src=\"careyou\\assets\\careyou.png\" alt=\"占位图\" style=\"width: 100%; height: auto;\">\n        \u003C\u002Ftd>\n    \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## 🎇最近更新\n- 【2025.5】[AI心理助手-深度思考版（Caryou）](https:\u002F\u002Fgithub.com\u002FHaiyangPeng\u002Fcareyou)：EmoLLM-心理数字人分项（目前完成了深度思考、Rag、web search和tts功能），已合并到EmoLLM，欢迎大家参与项目的优化和完善！\n- 【2025.5】[deepwiki-EmoLLM](https:\u002F\u002Fdeepwiki.com\u002FSmartFlowAI\u002FEmoLLM)：可以基于该项目进行更加智能化的项目&文档理解\n- 【2025.4】[ThinkLLM](https:\u002F\u002Fgithub.com\u002FaJupyter\u002FThinkLLM\u002Ftree\u002Fmain\u002FLLM)是一个轻量、高效的大语言模型算法实现仓库，提供了BPE训练指南（支持EmoLLM）。\n- 【2025.3】基于InternLM2.5-7B-chat全量微调的[EmoLLM（GGUF格式，fp16精度）](https:\u002F\u002Fhuggingface.co\u002Fcollections\u002FL0ve1ace\u002Fpsychology-llm-gguf-67cc766eaf0a3f01c6e39aa6) ，如何操作后续会更新~ @Rycen7822 @Slipstream-Max\n- 【2025.2】更新[首个心理健康R1蒸馏数据集](.\u002Fdatasets\u002Fpsychology-10k-Deepseek-R1-zh.json) @Kedreamix\n- 【2024.09.14】基于Qwen2-7B-Instruct模型的Lora微调模型开源，微调配置文件地址：[Qwen2-7B-Instruct_lora.py](.\u002Fxtuner_config\u002FQwen2-7B-Instruct_lora.py) ，模型权重链接：[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen2-7B-Instruct_lora\u002F)\n- 【2024.08】基于GLM4-9B-chat微调Lora模型开源（基于LLaMA-Factory），详情见[微调教程](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md) ，模型权重链接：[ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fwwewwt\u002FEmoLLM-glm-4-9b-chat\u002Fsummary)\n- 【2024.07.16】欢迎大家体验 EmoLLM V3.0 ，该模型是基于InternLM2.5-7B-Chat模型的全量微调，微调配置文件地址：[internlm2_5_chat_7b_full.py](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_full.py) ，模型权重链接：[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLMV3.0), [ModelScope](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLMV3.0) ，WebDemo地址： [OpenXLab apps](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLMV3.0), [配套全量微调知乎教程](https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F708931911)。\n- 【2024.07】欢迎大家使用稳定版 EmoLLM V2.0 进行日常使用和学术研究，模型权重链接：[OpenXLab](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full\u002Ftree\u002Fmain)。\n- 【2024.07】新增基于InternLM2_5_7B_chat[微调配置](.\u002Fxtuner_config\u002Finternlm2_5_chat_7b_qlora_oasst1_e3.py)、模型文件发布在 [ModelScope](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002Fz342994309\u002Femollm_interlm2_5\u002F)。\n- 【2024.06】新增基于[LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory)[GLM4-9B-chat微调指南](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md)、新增[基于swift的微调指南](.\u002Fswift\u002F)、论文[ESC-Eval: Evaluating Emotion Support Conversations in Large Language Models](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.14952)引用了EmoLLM且EmoLLM取得了较好的效果。\n- 【2024.05.28】EmoLLM使用的多轮对话数据集CPsyCounD和专业评测方法已公开，详见2024 ACL findings[《CPsyCoun: A Report-based Multi-turn Dialogue Reconstruction and Evaluation Framework for Chinese Psychological Counseling》](https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.16433)!\n- 【2024.05.08】EmoLLM**爹系男友阅览体验版**上线 [1. **百度AppBuilder**](https:\u002F\u002Fappbuilder.baidu.com\u002Fs\u002F4cLyw) [2. **OpenXLab**](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLM3.0_Gradio_Llama3-8B-Instruct3.0), 欢迎点赞收藏\n- 【2024.05.07】[增量预训练指南](xtuner_config\u002Fpt\u002FREADME.md)\n- 【2024.05.04】基于LLaMA3_8b_instruct的[EmoLLM3.0 OpenXLab Demo](https:\u002F\u002Fst-app-center-006861-9746-jlroxvg.openxlab.space\u002F)上线（[重启链接](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0)）, [**LLAMA3微调指南**](xtuner_config\u002FREADME_llama3_8b_instruct_qlora_alpaca_e3_M.md)**更新**，在[**OpenXLab**](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0)和[**ModelScope**](https:\u002F\u002Fmodelscope.cn\u002Fmodels\u002Fchg0901\u002FEmoLLM-Llama3-8B-Instruct3.0\u002Fsummary)平台发布**LLaMA3_8b_instruct-8B QLoRA微调模型 EmoLLM3.0权重**\n- 【2024.04.20】[LLAMA3微调指南](xtuner_config\u002FREADME_llama3_8b_instruct_qlora_alpaca_e3_M.md)及基于[LLaMA3_8b_instruct的艾薇](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM-LLaMA3_8b_instruct_aiwei)开源\n- 【2023.04.14】新增[快速开始](docs\u002Fquick_start.md)和保姆级教程[BabyEmoLLM](Baby_EmoLLM.ipynb)\n- 【2024.04.02】在 Huggingface 上传[老母亲心理咨询师](https:\u002F\u002Fhuggingface.co\u002Fbrycewang2018\u002FEmoLLM-mother\u002Ftree\u002Fmain)\n- 【2024.03.25】在百度飞桨平台发布[爹系男友心理咨询师](https:\u002F\u002Faistudio.baidu.com\u002Fcommunity\u002Fapp\u002F68787)\n\n\n\u003Cdetails>\n\u003Csummary>查看更多\u003C\u002Fsummary>\n\n- 【2024.03.24】在**OpenXLab**和**ModelScope**平台发布**InternLM2-Base-7B QLoRA微调模型**, 具体请查看[**InternLM2-Base-7B QLoRA**](.\u002Fxtuner_config\u002FREADME_internlm2_7b_base_qlora.md)\n- 【2024.03.12】在百度飞桨平台发布[艾薇](https:\u002F\u002Faistudio.baidu.com\u002Fcommunity\u002Fapp\u002F63335)\n- 【2024.03.11】 **EmoLLM V2.0 相比 EmoLLM V1.0 全面提升，已超越 Role-playing ChatGPT 在心理咨询任务上的能力！**[点击体验EmoLLM V2.0](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0)，更新[数据集统计及详细信息](.\u002Fdatasets\u002F)、[路线图](.\u002Fhttps:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_13804f0795c7.png)\n- 【2024.03.09】 新增并发功能加速 [QA 对生成](.\u002Fscripts\u002Fqa_generation\u002F)、[RAG pipeline](.\u002Frag\u002F)\n- 【2024.03.03】 [基于InternLM2-7B-chat全量微调版本EmoLLM V2.0开源](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full)，需要两块A100*80G，更新专业评估，详见[evaluate](.\u002Fevaluate\u002F)，更新基于PaddleOCR的PDF转txt工具脚本，详见[scripts](.\u002Fscripts\u002F)\n- 【2024.02.29】更新客观评估计算，详见[evaluate](.\u002Fevaluate\u002F)，更新一系列数据集，详见[datasets](.\u002Fdatasets\u002F)\n- 【2024.02.27】更新英文readme和一系列数据集（舔狗和单轮对话）\n- 【2024.02.23】推出基于InternLM2_7B_chat_qlora的 `温柔御姐心理医生艾薇`，[点击获取模型权重](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_aiwei)，[配置文件](xtuner_config\u002Faiwei-internlm2_chat_7b_qlora.py)，[在线体验链接](https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fajupyter\u002FEmoLLM-aiwei)\n- 【2024.02.23】更新[若干微调配置](\u002Fxtuner_config\u002F)，新增 [data_pro.json](\u002Fdatasets\u002Fdata_pro.json)（数量更多、场景更全、更丰富）和 [aiwei.json](\u002Fdatasets\u002Faiwei.json)（温柔御姐角色扮演专用，带有Emoji表情），即将推出 `温柔御姐心理医生艾薇`\n- 【2024.02.18】 [基于Qwen1_5-0_5B-Chat全量微调版本开源](https:\u002F\u002Fwww.modelscope.cn\u002Fmodels\u002FaJupyter\u002FEmoLLM_Qwen1_5-0_5B-Chat_full_sft\u002Fsummary)，算力有限的道友可以玩起来~\n- 【2024.02.06】 EmoLLM在[**Openxlab** ](https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fjujimeizuo\u002FEmoLLM_Model) 平台下载量高达18.7k，欢迎大家体验！\n\n\u003Cp align=\"center\"> \n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_e4bc61bf2668.png\" alt=\"模型下载量\">\n\u003C\u002Fp>\n\n- 【2024.02.05】 项目荣获公众号**NLP工程化**推文宣传[推文链接](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F78lrRl2tlXEKUfElnkVx4A)，为博主推广一波，欢迎大家关注！！🥳🥳\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_e8179b4ea88b.png\" alt=\"公众号二维码\">\n\u003C\u002Fp>\n\n- 【2024.02.03】 [项目宣传视频](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1N7421N76X\u002F)完成 😊\n- 【2024.01.27】 完善数据构建文档、微调指南、部署指南、Readme等相关文档 👏\n- 【2024.01.25】 EmoLLM V1.0 已部署上线 https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002Fjujimeizuo\u002FEmoLLM 😀\n\n\u003C\u002Fdetails>\n\n## 🏆荣誉栏\n\n- 项目荣获上海人工智能实验室举办的**2024浦源大模型系列挑战赛春季赛*****创新创意奖***\n\n\u003Cp align=\"center\">\n   \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_42ef5b830bb0.png\" alt=\"浦语挑战赛创新创意奖\">\n\u003C\u002Fp>\n\n- 荣获[AI 赋能大学计划“全国高校行”](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FyyaulQ1wBzKq5cXaGl2Wag)一等奖\n\n- 🎉感谢以下媒体及公众号朋友对本项目的报道和支持(以下排名不分先后! 若有遗漏、十分抱歉, 一并感激! 欢迎补充!): [NLP工程化](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F78lrRl2tlXEKUfElnkVx4A), [机智流](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F_wMCmssRMGd0Oz5OVVkjAA), [爱可可爱生活](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F4WaCg4OpkCWXEuWHuV4r3w), [阿郎小哥](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F_MSMeL1XHP0v5lDi3YaPVw), [大模型日知路](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FFYYibsCXtfU6FFM9TuKILA), [AI Code](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FyDWGY3S4CwCi6U_irsFmqA) 等!\n\n- 项目宣传视频 [EmoLLM](https:\u002F\u002Fwww.bilibili.com\u002Fvideo\u002FBV1N7421N76X\u002F) 已发布，欢迎大家围观 😀\n\n## 🎯路线图\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_13804f0795c7.png\" alt=\"Roadmap_ZH\">\n  \u003C\u002Fa>\n\n## 🔗框架图\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002F\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_b4deff0df815.png\" alt=\"Framework_ZH\">\n  \u003C\u002Fa>\n\n## 目录\n\n- [EmoLLM-心理健康大模型](#emollm-心理健康大模型)\n  - [🎇最近更新](#最近更新)\n  - [🏆荣誉栏](#荣誉栏)\n  - [🎯路线图](#路线图)\n  - [🔗框架图](#框架图)\n  - [目录](#目录)\n          - [开发前的配置要求](#开发前的配置要求)\n          - [使用指南](#使用指南)\n    - [🍪快速体验](#快速体验)\n    - [📌数据构建](#数据构建)\n    - [🎨增量预训练、微调指南](#增量预训练微调指南)\n    - [🔧部署指南](#部署指南)\n    - [⚙RAG(检索增强生成)](#rag检索增强生成)\n    - [🎓评测指南](#评测指南)\n    - [使用到的框架](#使用到的框架)\n      - [如何参与本项目](#如何参与本项目)\n    - [作者（排名不分先后）](#作者排名不分先后)\n    - [版权说明](#版权说明)\n    - [引用](#引用)\n    - [特别鸣谢](#特别鸣谢)\n      - [相关项目](#相关项目)\n      - [人员](#人员)\n  - [⚠️ 免责声明](#%EF%B8%8F-%E5%85%8D%E8%B4%A3%E5%A3%B0%E6%98%8E)\n  - [Star History](#star-history)\n  - [🌟 Contributors](#-contributors)\n  - [交流群](#交流群)\n\n###### 开发前的配置要求\n\n- 硬件：A100 40G（仅针对InternLM2_7B_chat+qlora微调+deepspeed zero2优化）\n- todo：发布更多硬件消耗细节\n\n###### 使用指南\n\n1. 克隆仓库\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM.git\n```\n\n2. 依次阅读或者选择感兴趣的部分阅读：\n   - [快速体验](#快速体验)\n   - [数据构建](#数据构建)\n   - [增量预训练、微调指南](#增量预训练微调指南)\n   - [部署指南](#部署指南)\n   - [RAG](#rag检索增强生成)\n   - [评测指南](#评测指南)\n   - 查看更多详情\n\n\n### 🍪快速体验\n\n- 请阅读[快速体验](quick_start\u002Fquick_start.md)查阅\n- 快速上手：[Baby EmoLLM](quick_start\u002FBaby_EmoLLM.ipynb)\n\n\n### 📌数据构建\n- 请阅读[数据构建指南](generate_data\u002Ftutorial.md)查阅\n- 微调用到的数据集见[datasets](datasets\u002Fdata.json)\n\n### 🎨增量预训练、微调指南\n- 增量预训练详见[增量预训练指南](.\u002Fxtuner_config\u002Fpt\u002FREADME.md)\n- 【基于xtuner】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fxtuner_config\u002FREADME.md)\n- 【基于ms-swift】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fswift\u002FREADME.md)\n- 【基于LLaMA-Factory】全量、LoRA、QLoRA微调详见[微调指南](.\u002Fdoc\u002FGLM-4-9B-chat%20Lora%20微调（llama-factory）.md)\n- todo：待更新DPO训练\n\n### 🔧部署指南\n\n- Demo部署：详见[部署指南](demo\u002FREADME.md)\n- 基于[LMDeploy](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flmdeploy\u002F)的量化部署：详见[deploy](.\u002Fdeploy\u002Flmdeploy.md)\n- todo: 基于VLLM部署指南\n\n### ⚙RAG(检索增强生成)\n\n- 详见[RAG](rag\u002FREADME.md)\n\n### 🎓评测指南\n\n- 本模型评测分为通用评测和专业评测，请阅读[评测指南](evaluate\u002FREADME.md)查阅\n\n\u003Cdetails>\n\u003Csummary>更多详情\u003C\u002Fsummary>\n\n### 使用到的框架\n\n- [xtuner](https:\u002F\u002Fgithub.com\u002FInternLM\u002Fxtuner)：用于微调\n- [Transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [Pytorch](https:\u002F\u002Fpytorch.org\u002F)\n- [LMDeploy](https:\u002F\u002Fgithub.com\u002FInternLM\u002Flmdeploy\u002F)：用于量化部署\n- [Stremlit](https:\u002F\u002Fstreamlit.io\u002F)：用于构建Demo\n- [DeepSpeed](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDeepSpeed)：并行训练\n- [LLaMA-Factory](https:\u002F\u002Fgithub.com\u002Fhiyouga\u002FLLaMA-Factory\u002Fblob\u002Fmain)：训练框架\n- [ms-swift](https:\u002F\u002Fgithub.com\u002Fmodelscope\u002Fms-swift)：训练框架\n\n#### 如何参与本项目\n\n贡献使开源社区成为一个学习、激励和创造的绝佳场所。你所作的任何贡献都是**非常感谢**的。\n\n1. 分支项目\n2. 创建你的功能分支 (`git checkout -b feature\u002FAmazingFeature`)\n3. 提交你的更改 (`git commit -m 'Add some AmazingFeature'`)\n4. 推送到分支 (`git push origin feature\u002FAmazingFeature`)\n5. 打开拉取请求\n\n\u003C\u002Fdetails>\n\n### 作者（排名不分先后）\n\n|                            用户名                            |                          学校\u002F组织                           |                   备注                    |                贡献                 |\n| :----------------------------------------------------------: | :----------------------------------------------------------: | :---------------------------------------: | :---------------------------------: |\n|           [aJupyter](https:\u002F\u002Fgithub.com\u002FaJupyter)            |                       南开大学在读硕士                       |               DataWhale成员               |             项目发起人              |\n|           [MING-ZCH](https:\u002F\u002Fgithub.com\u002FMING-ZCH)            |                    华中科技大学在读本科生                    |        LLM x Mental health 研究者         |           项目联合负责人            |\n|            [chg0901](https:\u002F\u002Fgithub.com\u002Fchg0901)             | 韩国光云大学在读博士 [MiniSora](https:\u002F\u002Fgithub.com\u002Fmini-sora\u002Fminisora\u002F) | DataWhale意向成员 DataWhale鲸英助教团成员 |           项目联合负责人            |\n|         [jujimeizuo](https:\u002F\u002Fgithub.com\u002Fjujimeizuo)          |                       江南大学在读硕士                       |                                           |                                     |\n| [Smiling-Weeping-zhr](https:\u002F\u002Fgithub.com\u002FSmiling-Weeping-zhr) |               哈尔滨工业大学（威海）在读本科生               |                                           |                                     |\n|             [8baby8](https:\u002F\u002Fgithub.com\u002F8baby8)              |                      飞桨领航团区域主管                      |           文心大模型核心开发者            |                                     |\n|             [zxazys](https:\u002F\u002Fgithub.com\u002Fzxazys)              |                       南开大学在读硕士                       |                                           |                                     |\n|   [JasonLLLLLLLLLLL](https:\u002F\u002Fgithub.com\u002FJasonLLLLLLLLLLL)    |                            swufe                             |                                           |                                     |\n|            [MrCatAI](https:\u002F\u002Fgithub.com\u002FMrCatAI)             |                           AI搬用工                           |                                           |                                     |\n|             [ZeyuBa](https:\u002F\u002Fgithub.com\u002FZeyuBa)              |                       自动化所在读硕士                       |                                           |                                     |\n|   [aiyinyuedejustin](https:\u002F\u002Fgithub.com\u002Faiyinyuedejustin)    |                    宾夕法尼亚大学在读硕士                    |                                           |                                     |\n|          [Nobody-ML](https:\u002F\u002Fgithub.com\u002FNobody-ML)           |                中国石油大学（华东）在读本科生                |                                           |                                     |\n|             [Mxoder](https:\u002F\u002Fgithub.com\u002FMxoder)              |                  北京航空航天大学在读本科生                  |                                           |                                     |\n|           [Anooyman](https:\u002F\u002Fgithub.com\u002FAnooyman)            |                       南京理工大学硕士                       |                                           |                                     |\n|         [Vicky-3021](https:\u002F\u002Fgithub.com\u002FVicky-3021)          |                 西安电子科技大学硕士（研0）                  |                                           |                                     |\n|        [SantiagoTOP](https:\u002F\u002Fgithub.com\u002FsantiagoTOP)         |                     太原理工大学在读硕士                     |                                           | 数据清洗，文档管理、Baby EmoLLM维护 |\n|        [zealot52099](https:\u002F\u002Fgithub.com\u002Fzealot52099)         |                          个人开发者                          |                                           |       清洗数据、LLM微调、RAG        |\n|            [wwwyfff](https:\u002F\u002Fgithub.com\u002Fwwwyfff)             |                       复旦大学在读硕士                       |                                           |                                     |\n|           [Yicooong](https:\u002F\u002Fgithub.com\u002FYicooong)            |                       南开大学在读硕士                       |                                           |                                     |\n|            [jkhumor](https:\u002F\u002Fgithub.com\u002Fjkhumor)             |                       南开大学在读硕士                       |                                           |                 RAG                 |\n|       [lll997150986](https:\u002F\u002Fgithub.com\u002Flll997150986)        |                       南开大学在读硕士                       |                                           |                微调                 |\n|          [nln-maker](https:\u002F\u002Fgithub.com\u002Fnln-maker)           |                       南开大学在读硕士                       |                                           |             前后端开发              |\n|         [dream00001](https:\u002F\u002Fgithub.com\u002Fdream00001)          |                       南开大学在读硕士                       |                                           |             前后端开发              |\n|     [王几行XING](https:\u002F\u002Fzhihu.com\u002Fpeople\u002Fbrycewang1898)     |                       北京大学硕士毕业                       |                                           |    清洗数据、LLM微调、前后端开发    |\n|                            [思在]                            |                 北京大学硕士毕业（微软美国）                 |                                           |         LLM微调、前后端开发         |\n|             [TingWei](https:\u002F\u002Fgithub.com\u002Fwwewwt)             |                     电子科技大学硕士毕业                     |         微信公众号：AI大模型在手          |                微调                 |\n|            [PengYu](https:\u002F\u002Fgithub.com\u002Fhi-pengyu)            |                      石河子大学在读硕士                      |                                           |               LLM微调               |\n|          [Kedreamix](https:\u002F\u002Fgithub.com\u002FKedreamix)           |                       深圳大学在读硕士                       |               DataWhale成员               |      首个心理健康R1蒸馏数据集       |\n|          [HaiyangPeng](https:\u002F\u002Fgithub.com\u002FHaiyangPeng)           |                       AI算法工程师                       |                              |      开发AI心理助手-深度思考版       |\n### 版权说明\n\n该项目签署了 MIT 授权许可，详情请参阅 [LICENSE](https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fblob\u002Fmain\u002FLICENSE)\n\n### 引用\n\n如果本项目对您的工作有所帮助，请使用以下格式引用：\n\n```bibtex\n@misc{2024EmoLLM,\n    title={EmoLLM: Reinventing Mental Health Support with Large Language Models},\n    author={EmoLLM Team},\n    howpublished={\\url{https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM}},\n    year={2024}\n}\n```\n\n#### 工作列表\n有如下工作引用了EmoLLM（如有遗漏，欢迎补充，排名不分先后）\n- Yin C, Li F, Zhang S, et al. Mdd-5k: A new diagnostic conversation dataset for mental disorders synthesized via neuro-symbolic llm agents[C]\u002F\u002FProceedings of the AAAI Conference on Artificial Intelligence. 2025, 39(24): 25715-25723.\n- Gu Q, Li S, Zheng T, et al. Steel-LLM: From Scratch to Open Source--A Personal Journey in Building a Chinese-Centric LLM[J]. arXiv preprint arXiv:2502.06635, 2025.\n- Dai C, Hu J, Shi H, et al. Psyche-R1: Towards Reliable Psychological LLMs through Unified Empathy, Expertise, and Reasoning[J]. arXiv preprint arXiv:2508.10848, 2025.\n- Wang M, Wang P, Wu L, et al. AnnaAgent: Dynamic Evolution Agent System with Multi-Session Memory for Realistic Seeker Simulation[J]. arXiv preprint arXiv:2506.00551, 2025.\n- Feng Y, Wang Q, Liu K, et al. AI PsyRoom: Artificial Intelligence Platform for Segmented Yearning and Reactive Outcome Optimization Method[J]. arXiv preprint arXiv:2506.06740, 2025.\n\n\n### 特别鸣谢\n\n#### 相关项目\n- [CPsyCoun](https:\u002F\u002Fgithub.com\u002FCAS-SIAT-XinHai\u002FCPsyCoun)\n- [Smile](https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile)\n- [SoulChat](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)\n\n#### 人员\n- [上海人工智能实验室](https:\u002F\u002Fwww.shlab.org.cn\u002F)\n- [闻星（浦语小助手）](https:\u002F\u002Fgithub.com\u002Fvansin)\n- 阿布（北大心理学硕士）\n- [Sanbu](https:\u002F\u002Fgithub.com\u002Fsanbuphy)\n- [HatBoy](https:\u002F\u002Fgithub.com\u002Fhatboy)\n\n\u003C!-- links -->\n\n\u003C!-- [linkedin-shield]: https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F-LinkedIn-black.svg?style=flat-square&logo=linkedin&colorB=555 -->\n\n\u003C!-- [linkedin-url]: https:\u002F\u002Flinkedin.com\u002Fin\u002FaJupyter -->\n\n## ⚠️ 免责声明\n本仓库所有开源代码及模型均遵循 MIT 许可协议。当前开源的 EmoLLM 模型可能存在某些局限性，因此我们声明如下：\n\nEmoLLM 目前仅能提供情绪支持和相关建议服务，尚无法提供专业的心理咨询和心理治疗服务。EmoLLM 不能替代专业的心理医生或心理咨询师，可能存在固有局限性，并可能生成错误的、有害的、冒犯性的或其他不良输出。在关键或高风险场景中，用户需保持审慎，避免将 EmoLLM 的输出作为最终决策依据，以免造成个人伤害、财产损失或其他重大损失。\n\n在任何情况下，作者、贡献者或版权所有者均不对因 EmoLLM 软件使用或交易引发的任何索赔、损害赔偿或其他责任（无论基于合同、侵权行为或其他法律原因）承担责任。\n\n使用 EmoLLM 即表示您同意上述条款与条件，并承认了解其使用可能带来的潜在风险。您还同意赔偿并使作者、贡献者和版权所有者免受因您使用 EmoLLM而引发的任何索赔、损害赔偿或责任的影响。\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_b3face26c774.png)](https:\u002F\u002Fstar-history.com\u002F#SmartFlowAI\u002FEmoLLM&Date)\n\n## 🌟 Contributors\n\n[![EmoLLM contributors](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_readme_650a73186f4d.png)](https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fgraphs\u002Fcontributors)\n\n[your-project-path]: SmartflowAI\u002FEmoLLM\n[contributors-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[contributors-url]: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fgraphs\u002Fcontributors\n[forks-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[forks-url]: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fnetwork\u002Fmembers\n[stars-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[stars-url]: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fstargazers\n[issues-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[issues-url]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FSmartflowAI\u002FEmoLLM.svg\n[license-shield]: https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FSmartflowAI\u002FEmoLLM.svg?style=flat-square\n[license-url]: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fblob\u002Fmain\u002FLICENSE\n\n[OpenXLab_App-image]: https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fapp-center\u002Fopenxlab_app.svg\n[OpenXLab_Model-image]: https:\u002F\u002Fcdn-static.openxlab.org.cn\u002Fheader\u002Fopenxlab_models.svg\n[OpenXLab_App-url]: https:\u002F\u002Fopenxlab.org.cn\u002Fapps\u002Fdetail\u002FFarewell1\u002FEmoLLMV2.0\n[OpenXLab_Model-url]: https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full\n\n## 交流群\n\n- 如果失效，请移步Issue区\n\n\u003Cp align=\"center\">\n  \u003Cimg  width=\"30%\" src=\"https:\u002F\u002Fprivate-user-images.githubusercontent.com\u002F8240984\u002F324394775-c8e83dac-9ed9-4a19-bb7f-b6bbedc109d9.png?jwt=eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9.eyJpc3MiOiJnaXRodWIuY29tIiwiYXVkIjoicmF3LmdpdGh1YnVzZXJlLmNvbSIsImtleSI6ImtleTUiLCJleHAiOjE3MTM3NzYyOTIsIm5iZiI6MTcxMzc3NTk5OTIsInBhdGgiOiIvODI0MDk4NC8zMjQzOTQ3NzUtY2dhZThNYWRhYy05ZWQ5LTRhMTktYmI3Zi1iYmJiZmVjMTBiNDU3YmNiZjZjMDgxYTMzZjQxMTJjMzU2MDQ3YjI1YzgyY2MzMjJhZmQ2ODgyYyZYLUFtei1TaWduZWRIZWFkZXJzPWhvc3QmYWN0b3JfaWQ9MCZrZXlfaWQ9MCZyZXBvX2lkPTAifQ.yfBwgthq3zvmWD2givTJl5w3SMm4O5BeEFwidgG1WpY\" alt=\"EmoLLM官方交流群\">\n\u003C\u002Fp>","# EmoLLM 快速上手指南\n\nEmoLLM 是一个专注于心理健康辅导的大模型系列，支持“理解用户 - 支持用户 - 帮助用户”的全流程。本指南将帮助开发者快速完成环境搭建、模型部署及基础对话测试。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n*   **Python 版本**: 3.8 - 3.10\n*   **GPU**: 建议 NVIDIA GPU (显存需求视模型大小而定，QLoRA 微调通常需 16GB+，全量微调需更高)\n*   **前置依赖**:\n    *   CUDA Toolkit (版本需与 PyTorch 匹配)\n    *   Git\n    *   Conda (推荐用于环境管理)\n\n## 2. 安装步骤\n\n### 2.1 克隆项目\n首先从 GitHub 克隆项目代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM.git\ncd EmoLLM\n```\n\n### 2.2 创建虚拟环境\n推荐使用 Conda 创建独立的 Python 环境：\n\n```bash\nconda create -n emollm python=3.10 -y\nconda activate emollm\n```\n\n### 2.3 安装依赖库\n根据项目常用的微调框架（如 XTuner 或 LLaMA-Factory），安装核心依赖。若项目中包含 `requirements.txt`，请直接安装：\n\n```bash\npip install -r requirements.txt\n```\n\n如果未提供统一的 requirements 文件，建议安装以下核心库以支持主流模型（如 InternLM, Qwen, LLaMA3）的微调与推理：\n\n```bash\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\npip install xtuner[all]\npip install transformers accelerate bitsandbytes\npip install modelscope\n```\n\n> **提示**：国内用户建议使用 ModelScope 镜像加速模型下载，可在代码中设置 `export MODELSCOPE_CACHE=~\u002F.cache\u002Fmodelscope`。\n\n## 3. 基本使用\n\n以下以加载一个已微调好的模型进行简单对话为例。假设您已下载了某个版本的模型权重（例如基于 InternLM2 的 QLoRA 版本）。\n\n### 3.1 下载模型权重\n使用 ModelScope 下载模型（以 InternLM2_5_7B_chat QLoRA 版本为例）：\n\n```python\nfrom modelscope import snapshot_download\n\nmodel_dir = snapshot_download('z342994309\u002Femollm_interlm2_5', cache_dir='.\u002Fmodels')\nprint(f\"模型下载路径：{model_dir}\")\n```\n\n### 3.2 运行推理脚本\n创建一个名为 `infer.py` 的文件，写入以下代码进行快速测试：\n\n```python\nimport torch\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\n\n# 配置模型路径\nmodel_path = \".\u002Fmodels\u002Fz342994309\u002Femollm_interlm2_5\" # 替换为实际下载路径或本地路径\n\n# 加载分词器和模型\ntokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)\nmodel = AutoModelForCausalLM.from_pretrained(\n    model_path,\n    device_map=\"auto\",\n    torch_dtype=torch.float16,\n    trust_remote_code=True\n)\nmodel.eval()\n\n# 构建对话输入\nprompt = \"最近感觉压力很大，睡不着觉，该怎么办？\"\nmessages = [\n    {\"role\": \"user\", \"content\": prompt}\n]\n\n# 生成回复\ninput_ids = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)\ninputs = tokenizer([input_ids], return_tensors=\"pt\").to(model.device)\n\noutputs = model.generate(\n    inputs.input_ids,\n    max_new_tokens=512,\n    do_sample=True,\n    temperature=0.7,\n    top_p=0.8\n)\n\nresponse = tokenizer.decode(outputs[0][len(inputs.input_ids[0]):], skip_special_tokens=True)\nprint(\"EmoLLM:\", response)\n```\n\n### 3.3 执行测试\n在终端运行脚本：\n\n```bash\npython infer.py\n```\n\n您将看到模型针对心理困扰给出的专业建议回复。\n\n---\n*注：更多高级功能（如全量微调、RAG 检索增强、Web Demo 部署）请参考项目根目录下的 `xtuner_config` 配置文件及 `docs` 文档。*","某高校心理咨询中心试图为夜间求助的学生提供即时初步疏导，但面临专业人力严重不足的困境。\n\n### 没有 EmoLLM 时\n- **响应滞后**：深夜时段无真人咨询师值班，学生的高危情绪信号无法得到秒级回应，错失最佳干预窗口。\n- **回复机械**：通用大模型缺乏心理学专业知识，常给出“请放松”等空洞建议，甚至因误解语境而说出刺激性话语。\n- **风险漏判**：系统无法精准识别隐晦的自杀或自残倾向，难以触发紧急预警机制，存在严重安全隐患。\n- **数据孤岛**：历史咨询案例与最新心理治疗指南未打通，助手无法结合具体情境提供个性化的认知行为疗法（CBT）策略。\n\n### 使用 EmoLLM 后\n- **全天候守护**：基于 InternLM 或 Qwen 等基座微调的 EmoLLM 实现 7×24 小时在线，对求助信息做到即时共情响应。\n- **专业疏导**：依托“理解 - 支持 - 帮助”的全链路训练，能像资深咨询师一样运用倾听、共情技巧，提供有温度的专业话术。\n- **精准风控**：内置的心理危机评估能力可敏锐捕捉高危关键词，自动分级预警并推送紧急联系人，筑牢安全底线。\n- **知识增强**：结合 RAG 技术实时调用最新心理数据集与治疗手册，针对学生具体问题生成定制化的缓解方案。\n\nEmoLLM 将通用人工智能转化为具备专业温度的“数字心理医师”，有效填补了非工作时段的心理服务空白。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSmartFlowAI_EmoLLM_2b3f22a3.png","SmartFlowAI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSmartFlowAI_7159ea46.jpg","",null,"https:\u002F\u002Fgithub.com\u002FSmartFlowAI",[78,82,86],{"name":79,"color":80,"percentage":81},"Python","#3572A5",87.2,{"name":83,"color":84,"percentage":85},"Jupyter Notebook","#DA5B0B",12.7,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0,1733,220,"2026-04-15T10:36:29","MIT","未说明","训练需求：全量微调 InternLM2-7B 需 2x A100 (80GB)；QLoRA\u002FLoRA 微调及推理需 NVIDIA GPU，显存需求视模型大小而定（如 7B 模型 QLoRA 约需 8-16GB，全量微调需更高），具体 CUDA 版本未说明","未说明（建议根据模型大小配置，全量微调 7B 模型建议 64GB+）",{"notes":98,"python":94,"dependencies":99},"该项目主要基于 XTuner、LLaMA-Factory 或 Swift 框架进行微调。不同模型（如 InternLM2, LLaMA3, Qwen, ChatGLM3 等）和微调方式（全量微调、LoRA、QLoRA）对硬件要求差异巨大。例如：InternLM2-7B 全量微调明确需要两张 80GB 显存的 A100 显卡；而 QLoRA 方式可显著降低显存需求。模型权重托管在 ModelScope、OpenXLab 和 HuggingFace 等平台，首次运行需下载相应模型文件。部分功能（如 RAG、Web Demo）可能需要额外的依赖环境。",[100,101,102,103,104,105,106,107],"xtuner","LLaMA-Factory","transformers","torch","accelerate","bitsandbytes","peft","swift",[16,35,109,14],"其他",[111,112,113,114,115,116],"llm","the-big-model-of-mental-health","dataset","depoly","evaluation","post-training","2026-03-27T02:49:30.150509","2026-04-17T10:19:24.592564",[120,125,130,135,140,145,150,155],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},37480,"部署 EmoLLM 服务时界面一直显示'please wait'，且显存和内存未被占用，如何解决？","这通常是由于服务器连接问题导致的。有用户反馈在 AutoDL 平台上打开后没有后续动作，可能是特定服务器环境的链接问题，建议尝试更换其他服务器环境进行部署。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F260",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},37481,"运行 InternLM2_5_7B 版本时报错 'ModuleNotFoundError: No module named transformers_modules.EmoLLM_V3' 怎么办？","该错误可能与模型权重文件损坏或下载不完整有关（报错包含 PytorchStreamReader failed）。建议不要直接使用原始权重文件，而是通过 SDK 下载或使用 OpenXLab 上提供的完整模型地址（如：https:\u002F\u002Fopenxlab.org.cn\u002Fmodels\u002Fdetail\u002Fajupyter\u002FEmoLLM_internlm2_7b_full）重新下载模型。如果 Web 端启动失败，可以尝试先使用 CLI（命令行）模式启动以排查环境问题。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F304",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},37482,"针对多个角色或多个细分场景（如医疗、心理），应该微调不同的模型还是对同一个模型进行分阶段微调？","可以采用多轮次（分阶段）微调的策略。具体方式包括：1. 对相同数据进行多次微调（需注意初始化问题）；2. 对不同数据源进行多次微调（类似增强学习的效果）；3. 结合以上两种方式。是否有效取决于数据集质量、微调方法和参数设置。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F276",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},37483,"使用 Xtuner 微调 internlm2_7b_chat 模型时显存不足（如只有 24G 显存），如何降低显存占用？","可以通过启用 DeepSpeed ZeRO-3 Offload 技术来降低显存占用。在运行命令中添加参数：--deepspeed deepspeed_zero3_offload。虽然文档默认可能使用 deepspeed_zero2，但在显存紧张的情况下切换到 zero3 是可行且推荐的方案。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F42",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},37484,"首个心理健康 R1 蒸馏数据集是否已开源？在哪里可以找到？","是的，数据集已经开源。可以在项目仓库的 dataset 文件夹中找到。目前仅开放了数据，对应的模型仍在准备中。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F302",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},37485,"特定角色模型（如“爹系男友”、“老母亲”、“艾薇御姐”）对应的训练数据集是哪些？","部分特定角色（如“爹系男友”）的专用数据集尚未直接开源，但其数据生成方法与仓库中开源的教程一致。您可以参考相关的知乎文章（如《【爹系男友 4.0】-心理健康大模型项目介绍》）了解生成逻辑。通用数据集和部分角色数据集可在 datasets 文件夹中查阅，详细列表后续会完善文档。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F266",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},37486,"如何使用 Llama-Factory 配合 Qwen2.5 基于现有数据进行监督微调（SFT）？流程是怎样的？","可以基于 datasets 目录下的数据直接使用 Llama-Factory 进行监督微调（SFT）来复现效果。如果需要增量预训练，流程是：先基于基座模型进行增量预训练，完成后再进行监督微调。具体的配置文件可参考仓库中的 xtuner_config 示例（如 internlm2_5_chat_7b_full.py）。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F301",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},37487,"如何将 JSON 格式的数据集转换为微调所需的 JSONL 格式？","可以使用以下 Python 脚本将包含 JSON 数组的文件转换为 JSONL 格式：\n\nimport json\n\ndef json_array_to_jsonl(json_file_path, jsonl_file_path):\n    with open(json_file_path, 'r', encoding='utf-8') as json_file:\n        data = json.load(json_file)\n    with open(jsonl_file_path, 'w', encoding='utf-8') as jsonl_file:\n        for item in data:\n            jsonl_file.write(json.dumps(item, ensure_ascii=False) + '\\n')\n\n更多细节可参考项目发布的关于 InternLM2.5 微调实践的技术文章。","https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fissues\u002F268",[161,166,171,176,181,186],{"id":162,"version":163,"summary_zh":164,"released_at":165},298018,"v0.6","## 变更内容\n* @HaiyangPeng 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F305 中将 careyou 合并到 EmoLLM\n\n## 新贡献者\n* @HaiyangPeng 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F305 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fcompare\u002Fv0.5...v0.6","2025-05-18T15:43:36",{"id":167,"version":168,"summary_zh":169,"released_at":170},298019,"v0.5","## 变更内容\n* [文档] 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F296 中更新了 README\n* 由 @chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F297 中更新了 README.md 的免责声明\n* 由 @Kedreamix 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F300 中上传了 psychology-10k-Deepseek-R1-zh 数据集\n\n## 新贡献者\n* @Kedreamix 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F300 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fcompare\u002Fv0.4...v0.5","2025-03-23T14:01:44",{"id":172,"version":173,"summary_zh":174,"released_at":175},298020,"v0.4","## 变更内容\n* 修复：@Larry0454 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F272 中的拼写错误\n* EmoLLM V3.0：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F274 中完成\n* 开发：@aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F275 中进行\n* EmoLLMV3.0 的 README 和网页演示：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F277 中完成\n* 主分支开发 2：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F278 中完成\n* EmoLLMV3.0 主分支回退到开发分支：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F279 中完成\n* webV3 优化：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F280 中完成\n* 开发分支合并回主分支（EmoLLMV3）：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F281 中完成\n* V3 更新中……：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F282 中进行\n* 开发：@aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F283 中进行\n* 文档：添加日文 README：@eltociear 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F271 中完成\n* llama3.1：@chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F284 中完成\n* 开发：@aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F286 中进行\n* 同步：@aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F292 中完成\n* 开发：@MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F293 中进行\n\n## 新贡献者\n* @Larry0454 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F272 中完成了首次贡献\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fcompare\u002Fv0.3...v0.4","2024-10-21T15:10:43",{"id":177,"version":178,"summary_zh":179,"released_at":180},298021,"v0.3","## 变更内容\n* @hi-pengyu 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F264 中更新了 interlm2.5\n* @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F265 中合并了 Dev 分支\n* [文档] @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F269 中更新了 README.md\n* @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F270 中进行了 Dev 相关的更改\n\n## 新贡献者\n* @hi-pengyu 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F264 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fcompare\u002Fv0.2...v0.3","2024-07-11T14:52:19",{"id":182,"version":183,"summary_zh":184,"released_at":185},298022,"v0.2","## 变更内容\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F250 中合并 dev 分支\n* 增加 glm-4-9b-chat 微调文档，由 @wwewwt 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F251 中完成\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F252 中合并 Dev 分支\n* [文档] 更新新数据集，由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F253 中完成\n* [文档] 更新 datasets 目录下的 README.md，由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F255 中完成\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F256 中进行开发\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F258 中合并 Dev 分支\n\n## 新贡献者\n* @wwewwt 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F251 中完成了首次贡献\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fcompare\u002Fv0.1...v0.2","2024-06-28T14:30:21",{"id":187,"version":188,"summary_zh":189,"released_at":190},298023,"v0.1","## 变更内容\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F3 中进行开发\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F4 中新增 run_qwen.bash 脚本\n* 功能：由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F5 中添加 zhipuai_gen_data\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F6 中进行开发\n* 修复：由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F7 中修复 bug\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F8 中进行开发\n* 功能：由 @jujimeizuo 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F11 中对 Qwen 进行微调并提供演示\n* 由 @8baby8 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F12 中添加 data_process\n* 重构：由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F13 中修改 xtuner_config 并移除 model_config\n* 功能：由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F14 中添加数据集并更新 README\n* 由 @zxazys 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F19 中提交 zhouxinao\n* 由 @JasonLLLLLLLLLLL 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F20 中提交 README 的英文版\n* 由 @MrCatAI 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F21 中添加新数据集\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F22 中上传数据集\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F23 中上传 multi_turn_dataset\n* 由 @ZeyuBa 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F24 中添加评估部分\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F25 中上传 multi_turn_dataset\n* 由 @8baby8 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F26 中通过上传方式添加文件\n* 由 @8baby8 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F28 中修改 Ocr 脚本\n* 由 @8baby8 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F29 中进行测试\n* 由 @zxazys 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F27 中通过上传方式添加文件\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F31 中更新 Readme.md\n* 由 @aiyinyuedejustin 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F32 中更新中英文版的 REAEME.md\n* 由 @8baby8 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F33 中更新 README.md\n* 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F34 中重构评估部分\n* 由 @ZeyuBa 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F35 中添加 InterLM2_7B 的评估\n* 由 @Nobody-ML 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F36 中添加 SoulStar_data.json\n* 由 @Nobody-ML 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F37 中更新 README 和 README_English_version\n* [更新] 由 @chg0901 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F40 中更新 README 文件的翻译\n* 由 @aJupyter 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F41 中进行开发\n* 由 @ZeyuBa 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F44 中添加 InternLM2_7B_chat_full 的评估\n* [文档] 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F45 中更新 evaluate 文件夹内的文档\n* [文档] 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM\u002Fpull\u002F46 中重命名 General_evaluation.md\n* [文档] 由 @MING-ZCH 在 https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM 中添加数据集介绍并更新 Roadmap","2024-05-30T10:08:35"]