[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-scutcyr--SoulChat":3,"tool-scutcyr--SoulChat":65},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},8553,"spec-kit","github\u002Fspec-kit","Spec Kit 是一款专为提升软件开发效率而设计的开源工具包，旨在帮助团队快速落地“规格驱动开发”（Spec-Driven Development）模式。传统开发中，需求文档往往与代码实现脱节，导致沟通成本高且结果不可控；而 Spec Kit 通过将规格说明书转化为可执行的指令，让 AI 直接依据明确的业务场景生成高质量代码，从而减少从零开始的随意编码，确保产出结果的可预测性。\n\n该工具特别适合希望利用 AI 辅助编程的开发者、技术负责人及初创团队。无论是启动全新项目还是在现有工程中引入规范化流程，用户只需通过简单的命令行操作，即可初始化项目并集成主流的 AI 编程助手。其核心技术亮点在于“规格即代码”的理念，支持社区扩展与预设模板，允许用户根据特定技术栈定制开发流程。此外，Spec Kit 强调官方维护的安全性，提供稳定的版本管理，帮助开发者在享受 AI 红利的同时，依然牢牢掌握架构设计的主动权，真正实现从“凭感觉写代码”到“按规格建系统”的转变。",88749,"2026-04-17T09:48:14",[15,26,14,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":10,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,"2026-04-18T11:00:28",[26,51,52,53,14,54,15,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,51,54],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":23,"env_os":95,"env_gpu":96,"env_ram":97,"env_deps":98,"category_tags":112,"github_topics":113,"view_count":10,"oss_zip_url":83,"oss_zip_packed_at":83,"status":16,"created_at":118,"updated_at":119,"faqs":120,"releases":150},9285,"scutcyr\u002FSoulChat","SoulChat","中文领域心理健康对话大模型SoulChat","灵心（SoulChat）是一款专注于中文领域的心理健康对话大模型，由华南理工大学团队开源。它旨在模拟专业心理咨询师，为用户提供具备共情能力、倾听技巧及合理建议的对话服务。\n\n针对现有在线心理帮助往往缺乏渐进式沟通、回复过于冗长或忽视情感互动的痛点，灵心通过独特的数据构建方式解决了这一难题。项目团队构建了包含超过 150 万轮对话的混合数据集，巧妙结合了“单轮长文本咨询”与“多轮共情对话”。这种设计既避免了模型输出令用户厌烦的长篇大论，又强化了其引导用户倾诉和提供情感支持的能力，使其更贴近真实的心理咨询场景。\n\n在技术层面，灵心基于 ChatGLM-6B 架构进行了全量参数指令微调，并凭借相关研究成果入选了 EMNLP 2023。它是国内首个开源的具备深度共情与倾听能力的心理领域大模型。\n\n灵心非常适合人工智能研究人员用于探索大模型在主动健康领域的应用，也适合开发者作为基座模型进行二次开发或集成到心理健康应用中。同时，普通用户也可通过其演示版本体验专业的心理陪伴与支持，获得温暖的情感回应。","# [灵心（SoulChat）]((https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat))\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_1e3885fc6441.png\" width=900px\u002F>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-red.svg\">\u003C\u002Fa>\n    \u003Ca href=\"support os\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win%2C%20mac-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.8+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fgraphs\u002Fcontributors\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fscutcyr\u002FSoulChat?color=9ea\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fcommits\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Fscutcyr\u002FSoulChat?color=3af\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fscutcyr\u002FSoulChat?color=9cc\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fstargazers\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FSoulChat?color=ccf\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n基于主动健康的主动性、预防性、精确性、个性化、共建共享、自律性六大特征，华南理工大学未来技术学院-广东省数字孪生人重点实验室开源了中文领域生活空间主动健康大模型基座ProactiveHealthGPT，包括：\n* 经过千万规模中文健康对话数据指令微调的[生活空间健康大模型扁鹊（BianQue）](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)    \n* 经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调的[心理健康大模型灵心（SoulChat）](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)   \n\n我们期望，**生活空间主动健康大模型基座ProactiveHealthGPT** 可以帮助学术界加速大模型在慢性病、心理咨询等主动健康领域的研究与应用。本项目为 **心理健康大模型灵心（SoulChat）** 。\n\n\n## 最近更新\n- 👏🏻  2024.06.06：SoulChatCorpus数据集的开源版本发布，详情见[https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus](https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus)，特别地，我们过滤掉了约9万个对话样本（由于隐私风险、安全问题、政治风险、低质量样本等，该部分样本尚在人工优化阶段，人工审核完毕后，会更新到开源版本数据集当中），最终保留258354个多轮对话，总共1517344轮。新版本模型将会在近期发布，预计适配多个开源模型，以及多个参数量级，以方便使用者使用或进行对比实验研究等。\n- 👏🏻  2023.12.07：我们的论文，收录在Findings of EMNLP 2023，详见[SoulChat: Improving LLMs’ Empathy, Listening, and Comfort Abilities through Fine-tuning with Multi-turn Empathy Conversations](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.83\u002F)\n- 👏🏻  2023.07.07: 心理健康大模型灵心（SoulChat）在线内测版本启用，欢迎点击链接使用：[灵心内测版](https:\u002F\u002Fsoulchat.iai007.cloud\u002F)。\n- 👏🏻  2023.06.24: 本项目被收录到[中国大模型列表](https:\u002F\u002Fgithub.com\u002Fwgwang\u002FLLMs-In-China)，为国内首个开源的具备共情与倾听能力的心理领域大模型。\n- 👏🏻  2023.06.06: 扁鹊-2.0模型开源，详情见[BianQue-2.0](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-2)。\n- 👏🏻  2023.06.06: 具备共情与倾听能力的灵心健康大模型SoulChat发布，详情见：[灵心健康大模型SoulChat：通过长文本咨询指令与多轮共情对话数据集的混合微调，提升大模型的“共情”能力 ](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FSoulChat)。\n- 👏🏻  2023.04.22: 基于扁鹊-1.0模型的医疗问答系统Demo，详情访问：[https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fscutcyr\u002FBianQue](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fscutcyr\u002FBianQue)\n- 👏🏻  2023.04.22: 扁鹊-1.0版本模型发布，详情见：[扁鹊-1.0：通过混合指令和多轮医生问询数据集的微调，提高医疗聊天模型的“问”能力（BianQue-1.0: Improving the \"Question\" Ability of Medical Chat Model through finetuning with Hybrid Instructions and Multi-turn Doctor QA Datasets）](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-1.0)\n\n\n## 简介\n   我们调研了当前常见的心理咨询平台，发现，用户寻求在线心理帮助时，通常需要进行较长篇幅地进行自我描述，然后提供帮助的心理咨询师同样地提供长篇幅的回复（见[figure\u002Fsingle_turn.png](.\u002Ffigure\u002Fsingle_turn.png)），缺失了一个渐进式的倾诉过程。但是，在实际的心理咨询过程当中，用户和心理咨询师之间会存在多轮次的沟通过程，在该过程当中，心理咨询师会引导用户进行倾诉，并且提供共情，例如：“非常棒”、“我理解你的感受”、“当然可以”等等（见下图）。\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_8151ee9d932e.png\" width=900px\u002F>\n\u003C\u002Fp>\n\n   考虑到当前十分欠缺多轮共情对话数据集，我们一方面，构建了超过15万规模的 **单轮长文本心理咨询指令与答案（SoulChatCorpus-single_turn）** ，回答数量超过50万（指令数是当前的常见的心理咨询数据集 [PsyQA](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FPsyQA) 的6.7倍），并利用ChatGPT与GPT4，生成总共约100万轮次的 **多轮回答数据（SoulChatCorpus-multi_turn）** 。特别地，我们在预实验中发现，纯单轮长本文驱动的心理咨询模型会产生让用户感到厌烦的文本长度，而且不具备引导用户倾诉的能力，纯多轮心理咨询对话数据驱动的心理咨询模型则弱化了模型的建议能力，因此，我们混合SoulChatCorpus-single_turn和SoulChatCorpus-multi_turn构造成超过120万个样本的 **单轮与多轮混合的共情对话数据集SoulChatCorpus** 。所有数据采用“用户：xxx\\n心理咨询师：xxx\\n用户：xxx\\n心理咨询师：”的形式统一为一种指令格式。\n\n我们选择了 [ChatGLM-6B](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm-6b) 作为初始化模型，进行了**全量参数的指令微调**，旨在提升模型的共情能力、引导用户倾诉能力以及提供合理建议的能力。更多训练细节请留意我们后续发布的论文。\n\n## 使用方法\n* 克隆本项目\n```bash\ncd ~\ngit clone https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat.git\n```\n\n* 安装依赖    \n需要注意的是torch的版本需要根据你的服务器实际的cuda版本选择，详情参考[pytorch安装指南](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Fprevious-versions\u002F)\n```bash\ncd SoulChat\nconda env create -n proactivehealthgpt_py38 --file proactivehealthgpt_py38.yml\nconda activate proactivehealthgpt_py38\n\npip install cpm_kernels\npip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\n```\n\n* 【补充】Windows下的用户推荐参考如下流程配置环境\n```bash\ncd BianQue\nconda create -n proactivehealthgpt_py38 python=3.8\nconda activate proactivehealthgpt_py38\npip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\npip install -r requirements.txt\npip install rouge_chinese nltk jieba datasets\n# 以下安装为了运行demo\npip install streamlit\npip install streamlit_chat\n```\n* 【补充】Windows下配置CUDA-11.6：[下载并且安装CUDA-11.6](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-6-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local)、[下载cudnn-8.4.0，解压并且复制其中的文件到CUDA-11.6对应的路径](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcompute\u002Fcudnn\u002Fsecure\u002F8.4.0\u002Flocal_installers\u002F11.6\u002Fcudnn-windows-x86_64-8.4.0.27_cuda11.6-archive.zip)，参考：[win11下利用conda进行pytorch安装-cuda11.6-泛用安装思路](https:\u002F\u002Fblog.csdn.net\u002Fqq_34740266\u002Farticle\u002Fdetails\u002F129137794)\n\n* 在Python当中调用SoulChat模型    \n```python\nimport torch\nfrom transformers import AutoModel, AutoTokenizer\n# GPU设置\ndevice = torch.device(\"cuda\" if torch.cuda.is_available() else \"cpu\")\n# 加载模型与tokenizer\nmodel_name_or_path = 'scutcyr\u002FSoulChat'\nmodel = AutoModel.from_pretrained(model_name_or_path, trust_remote_code=True).half()\nmodel.to(device)\ntokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)\n\n# 单轮对话调用模型的chat函数\nuser_input = \"我失恋了，好难受！\"\ninput_text = \"用户：\" + user_input + \"\\n心理咨询师：\"\nresponse, history = model.chat(tokenizer, query=input_text, history=None, max_length=2048, num_beams=1, do_sample=True, top_p=0.75, temperature=0.95, logits_processor=None)\n\n# 多轮对话调用模型的chat函数\n# 注意：本项目使用\"\\n用户：\"和\"\\n心理咨询师：\"划分不同轮次的对话历史\n# 注意：user_history比bot_history的长度多1\nuser_history = ['你好，老师', '我女朋友跟我分手了，感觉好难受']\nbot_history = ['你好！我是你的个人专属数字辅导员甜心老师，欢迎找我倾诉、谈心，期待帮助到你！']\n# 拼接对话历史\ncontext = \"\\n\".join([f\"用户：{user_history[i]}\\n心理咨询师：{bot_history[i]}\" for i in range(len(bot_history))])\ninput_text = context + \"\\n用户：\" + user_history[-1] + \"\\n心理咨询师：\"\n\nresponse, history = model.chat(tokenizer, query=input_text, history=None, max_length=2048, num_beams=1, do_sample=True, top_p=0.75, temperature=0.95, logits_processor=None)\n```\n\n\n* 启动服务   \n\n本项目提供了[soulchat_app.py](.\u002Fsoulchat_app.py)作为SoulChat模型的使用示例，通过以下命令即可开启服务，然后，通过http:\u002F\u002F\u003Cyour_ip>:9026访问。\n```bash\nstreamlit run soulchat_app.py --server.port 9026\n```\n特别地，在[soulchat_app.py](.\u002Fsoulchat_app.py)当中，\n可以修改以下代码更换指定的显卡：\n```python\nos.environ['CUDA_VISIBLE_DEVICES'] = '2'\n```\n**对于Windows单显卡用户，需要修改为：```os.environ['CUDA_VISIBLE_DEVICES'] = '0'```，否则会报错！**\n\n可以通过更改以下代码指定模型路径为本地路径：\n```python\nmodel_name_or_path = 'scutcyr\u002FSoulChat'\n```\n\n\n## 示例\n* 样例1：失恋\n*\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_c7c5b02b2666.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例2：宿舍关系\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_08977d0cb50d.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例3：期末考试\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_0cfc595fa946.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例4：科研压力\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_789864d0c0db.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n## 声明\n* 本项目使用了ChatGLM-6B 模型的权重，需要遵循其[MODEL_LICENSE](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B\u002Fblob\u002Fmain\u002FMODEL_LICENSE)，因此，**本项目仅可用于您的非商业研究目的**。\n* 本项目提供的SoulChat模型致力于提升大模型的共情对话与倾听能力，然而，模型的输出文本具有一定的随机性，当其作为一个倾听者的时候，是合适的，但是不建议将SoulChat模型的输出文本替代心理医生等的诊断、建议。本项目不保证模型输出的文本完全适合于用户，用户在使用本模型时需要承担其带来的所有风险！\n* 您不得出于任何商业、军事或非法目的使用、复制、修改、合并、发布、分发、复制或创建SoulChat模型的全部或部分衍生作品。\n* 您不得利用SoulChat模型从事任何危害国家安全和国家统一、危害社会公共利益、侵犯人身权益的行为。\n* 您在使用SoulChat模型时应知悉，其不能替代医生、心理医生等专业人士，不应过度依赖、服从、相信模型的输出，不能长期沉迷于与SoulChat模型聊天。\n\n## 致谢\n本项目由[华南理工大学未来技术学院](https:\u002F\u002Fwww2.scut.edu.cn\u002Fft\u002Fmain.htm) 广东省数字孪生人重点实验室发起，得到了华南理工大学信息网络工程研究中心、电子与信息学院等学院部门的支撑，同时致谢广东省妇幼保健院、广州市妇女儿童医疗中心、中山大学附属第三医院、合肥综合性国家科学中心人工智能研究院等合作单位。\n\n同时，我们感谢以下媒体或公众号对本项目的报道（排名不分先后）：\n* 媒体报道\n  [人民日报](https:\u002F\u002Fwap.peopleapp.com\u002Farticle\u002Frmh36174922\u002Frmh36174922)、[中国网](https:\u002F\u002Fhs.china.com.cn\u002Fgd\u002F83980.html)、[光明网](https:\u002F\u002Fhealth.gmw.cn\u002F2023-06\u002F13\u002Fcontent_36628062.htm)、[TOM科技](https:\u002F\u002Ftech.tom.com\u002F202306\u002F4526869977.html)、[未来网](http:\u002F\u002Fwww.zzfuture.cn\u002Fnews\u002F956.html)、[大众网](http:\u002F\u002Flinyi.dzwww.com.3xw.site\u002Fxinwen\u002F202306\u002Ft20230613_202306135667.htm)、[中国发展报道网](http:\u002F\u002Fwww.chinafzbdw.com\u002Fcomputer\u002F13149.html?1686564408)、[中国日报网](http:\u002F\u002Fenergy.chinaduily.com.cn\u002Fc\u002F2023\u002F15205.html)、[新华资讯网](http:\u002F\u002Fwww.xinhuazxun.com\u002Fworld\u002F21762.html?1686564382)、[中华网](https:\u002F\u002Flife.china.com\u002F2023-06\u002F12\u002Fcontent_215815.html)、[今日头条](https:\u002F\u002Fwww.toutiao.com\u002Farticle\u002F7243412314223952418\u002F)、[搜狐](https:\u002F\u002Fwww.sohu.com\u002Fa\u002F684501109_120159010)、[腾讯新闻](https:\u002F\u002Fpage.om.qq.com\u002Fpage\u002FOhSXIMEUtDtdg0rTi6aAoTbg0)、[网易新闻](https:\u002F\u002Fwww.163.com\u002Fdy\u002Farticle\u002FI70BJ9U00552UJUX.html)、[中国资讯网](http:\u002F\u002Fwww.chinazxun.com\u002Fworld\u002F23252.html?1686564532)、[中国传播网](http:\u002F\u002Fwww.chinachbo.com\u002Fa\u002Fview\u002F11697.html?1686564509)、[中国都市报道网](http:\u002F\u002Fwww.zgdsbdw.com\u002Fmeida\u002F11273.html?1686564485)、[中华城市网](http:\u002F\u002Fwww.zhcsww.com\u002Fhot\u002F2023\u002F0612\u002F9609.html?1686564434)\n\n* 公众号\n  [广东实验室建设](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FgemlKfLg8c-AtjiV7uTUTQ)、[智能语音新青年](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FvBMKXUJoAIywkXY2nY60eA)、[深度学习与NLP](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FqSHLT8FbvohZESp-UCah6g)、[AINLP](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FEX3f9WblLKM8K_nSwhno_g)\n\n## 引用\n```bib\n@inproceedings{chen-etal-2023-soulchat,\n    title = \"{S}oul{C}hat: Improving {LLM}s{'} Empathy, Listening, and Comfort Abilities through Fine-tuning with Multi-turn Empathy Conversations\",\n    author = \"Chen, Yirong  and\n      Xing, Xiaofen  and\n      Lin, Jingkai  and\n      Zheng, Huimin  and\n      Wang, Zhenyu  and\n      Liu, Qi  and\n      Xu, Xiangmin\",\n    editor = \"Bouamor, Houda  and\n      Pino, Juan  and\n      Bali, Kalika\",\n    booktitle = \"Findings of the Association for Computational Linguistics: EMNLP 2023\",\n    month = dec,\n    year = \"2023\",\n    address = \"Singapore\",\n    publisher = \"Association for Computational Linguistics\",\n    url = \"https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.83\",\n    pages = \"1170--1183\",\n    abstract = \"Large language models (LLMs) have been widely applied in various fields due to their excellent capability for memorizing knowledge and chain of thought (CoT). When these language models are applied in the field of psychological counseling, they often rush to provide universal advice. However, when users seek psychological support, they need to gain empathy, trust, understanding and comfort, rather than just reasonable advice. To this end, we constructed a multi-turn empathetic conversation dataset of more than 2 million samples, in which the input is the multi-turn conversation context, and the target is empathetic responses that cover expressions such as questioning, comfort, recognition, listening, trust, emotional support, etc. Experiments have shown that the empathy ability of LLMs can be significantly enhanced when finetuning by using multi-turn dialogue history and responses that are closer to the expression of a psychological consultant.\",\n}\n}\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_0674b37dc52a.png)](https:\u002F\u002Fstar-history.com\u002F#scutcyr\u002FSoulChat&Date)\n","# [灵心（SoulChat）]((https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat))\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_1e3885fc6441.png\" width=900px\u002F>\n\u003C\u002Fp>\n\u003Cp align=\"center\">\n    \u003Ca href=\".\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-Apache%202-red.svg\">\u003C\u002Fa>\n    \u003Ca href=\"support os\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fos-linux%2C%20win%2C%20mac-pink.svg\">\u003C\u002Fa>\n    \u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.8+-aff.svg\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fgraphs\u002Fcontributors\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcontributors\u002Fscutcyr\u002FSoulChat?color=9ea\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fcommits\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fcommit-activity\u002Fm\u002Fscutcyr\u002FSoulChat?color=3af\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002Fscutcyr\u002FSoulChat?color=9cc\">\u003C\u002Fa>\n    \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fstargazers\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fscutcyr\u002FSoulChat?color=ccf\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n基于主动健康的主动性、预防性、精确性、个性化、共建共享、自律性六大特征，华南理工大学未来技术学院-广东省数字孪生人重点实验室开源了中文领域生活空间主动健康大模型基座ProactiveHealthGPT，包括：\n* 经过千万规模中文健康对话数据指令微调的[生活空间健康大模型扁鹊（BianQue）](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FBianQue)    \n* 经过百万规模心理咨询领域中文长文本指令与多轮共情对话数据联合指令微调的[心理健康大模型灵心（SoulChat）](https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat)   \n\n我们期望，**生活空间主动健康大模型基座ProactiveHealthGPT** 可以帮助学术界加速大模型在慢性病、心理咨询等主动健康领域的研究与应用。本项目为 **心理健康大模型灵心（SoulChat）** 。\n\n\n## 最近更新\n- 👏🏻  2024.06.06：SoulChatCorpus数据集的开源版本发布，详情见[https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus](https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus)，特别地，我们过滤掉了约9万个对话样本（由于隐私风险、安全问题、政治风险、低质量样本等，该部分样本尚在人工优化阶段，人工审核完毕后，会更新到开源版本数据集当中），最终保留258354个多轮对话，总共1517344轮。新版本模型将会在近期发布，预计适配多个开源模型，以及多个参数量级，以方便使用者使用或进行对比实验研究等。\n- 👏🏻  2023.12.07：我们的论文，收录在Findings of EMNLP 2023，详见[SoulChat: Improving LLMs’ Empathy, Listening, and Comfort Abilities through Fine-tuning with Multi-turn Empathy Conversations](https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.83\u002F)\n- 👏🏻  2023.07.07: 心理健康大模型灵心（SoulChat）在线内测版本启用，欢迎点击链接使用：[灵心内测版](https:\u002F\u002Fsoulchat.iai007.cloud\u002F)。\n- 👏🏻  2023.06.24: 本项目被收录到[中国大模型列表](https:\u002F\u002Fgithub.com\u002Fwgwang\u002FLLMs-In-China)，为国内首个开源的具备共情与倾听能力的心理领域大模型。\n- 👏🏻  2023.06.06: 扁鹊-2.0模型开源，详情见[BianQue-2.0](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-2)。\n- 👏🏻  2023.06.06: 具备共情与倾听能力的灵心健康大模型SoulChat发布，详情见：[灵心健康大模型SoulChat：通过长文本咨询指令与多轮共情对话数据集的混合微调，提升大模型的“共情”能力 ](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FSoulChat)。\n- 👏🏻  2023.04.22: 基于扁鹊-1.0模型的医疗问答系统Demo，详情访问：[https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fscutcyr\u002FBianQue](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fscutcyr\u002FBianQue)\n- 👏🏻  2023.04.22: 扁鹊-1.0版本模型发布，详情见：[扁鹊-1.0：通过混合指令和多轮医生问询数据集的微调，提高医疗聊天模型的“问”能力（BianQue-1.0: Improving the \"Question\" Ability of Medical Chat Model through finetuning with Hybrid Instructions and Multi-turn Doctor QA Datasets）](https:\u002F\u002Fhuggingface.co\u002Fscutcyr\u002FBianQue-1.0)\n\n\n## 简介\n   我们调研了当前常见的心理咨询平台，发现，用户寻求在线心理帮助时，通常需要进行较长篇幅地进行自我描述，然后提供帮助的心理咨询师同样地提供长篇幅的回复（见[figure\u002Fsingle_turn.png](.\u002Ffigure\u002Fsingle_turn.png)），缺失了一个渐进式的倾诉过程。但是，在实际的心理咨询过程当中，用户和心理咨询师之间会存在多轮次的沟通过程，在该过程当中，心理咨询师会引导用户进行倾诉，并且提供共情，例如：“非常棒”、“我理解你的感受”、“当然可以”等等（见下图）。\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_8151ee9d932e.png\" width=900px\u002F>\n\u003C\u002Fp>\n\n   考虑到当前十分欠缺多轮共情对话数据集，我们一方面，构建了超过15万规模的 **单轮长文本心理咨询指令与答案（SoulChatCorpus-single_turn）** ，回答数量超过50万（指令数是当前的常见的心理咨询数据集 [PsyQA](https:\u002F\u002Fgithub.com\u002Fthu-coai\u002FPsyQA) 的6.7倍），并利用ChatGPT与GPT4，生成总共约100万轮次的 **多轮回答数据（SoulChatCorpus-multi_turn）** 。特别地，我们在预实验中发现，纯单轮长本文驱动的心理咨询模型会产生让用户感到厌烦的文本长度，而且不具备引导用户倾诉的能力，纯多轮心理咨询对话数据驱动的心理咨询模型则弱化了模型的建议能力，因此，我们混合SoulChatCorpus-single_turn和SoulChatCorpus-multi_turn构造成超过120万个样本的 **单轮与多轮混合的共情对话数据集SoulChatCorpus** 。所有数据采用“用户：xxx\\n心理咨询师：xxx\\n用户：xxx\\n心理咨询师：”的形式统一为一种指令格式。\n\n我们选择了 [ChatGLM-6B](https:\u002F\u002Fhuggingface.co\u002FTHUDM\u002Fchatglm-6b) 作为初始化模型，进行了**全量参数的指令微调**，旨在提升模型的共情能力、引导用户倾诉能力以及提供合理建议的能力。更多训练细节请留意我们后续发布的论文。\n\n## 使用方法\n* 克隆本项目\n```bash\ncd ~\ngit clone https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat.git\n```\n\n* 安装依赖    \n需要注意的是torch的版本需要根据你的服务器实际的cuda版本选择，详情参考[pytorch安装指南](https:\u002F\u002Fpytorch.org\u002Fget-started\u002Fprevious-versions\u002F)\n```bash\ncd SoulChat\nconda env create -n proactivehealthgpt_py38 --file proactivehealthgpt_py38.yml\nconda activate proactivehealthgpt_py38\n\npip install cpm_kernels\npip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\n```\n\n* 【补充】Windows下的用户推荐参考如下流程配置环境\n```bash\ncd BianQue\nconda create -n proactivehealthgpt_py38 python=3.8\nconda activate proactivehealthgpt_py38\npip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\npip install -r requirements.txt\npip install rouge_chinese nltk jieba datasets\n# 以下安装为了运行demo\npip install streamlit\npip install streamlit_chat\n```\n* 【补充】Windows下配置CUDA-11.6：[下载并且安装CUDA-11.6](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-6-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_local)、[下载cudnn-8.4.0，解压并且复制其中的文件到CUDA-11.6对应的路径](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcompute\u002Fcudnn\u002Fsecure\u002F8.4.0\u002Flocal_installers\u002F11.6\u002Fcudnn-windows-x86_64-8.4.0.27_cuda11.6-archive.zip)，参考：[win11下利用conda进行pytorch安装-cuda11.6-泛用安装思路](https:\u002F\u002Fblog.csdn.net\u002Fqq_34740266\u002Farticle\u002Fdetails\u002F129137794)\n\n* 在Python当中调用SoulChat模型    \n```python\nimport torch\nfrom transformers import AutoModel, AutoTokenizer\n# GPU设置\ndevice = torch.device(\"cuda\" if torch.cuda.is_available() else \"cpu\")\n# 加载模型与tokenizer\nmodel_name_or_path = 'scutcyr\u002FSoulChat'\nmodel = AutoModel.from_pretrained(model_name_or_path, trust_remote_code=True).half()\nmodel.to(device)\ntokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)\n\n# 单轮对话调用模型的chat函数\nuser_input = \"我失恋了，好难受！\"\ninput_text = \"用户：\" + user_input + \"\\n心理咨询师：\"\nresponse, history = model.chat(tokenizer, query=input_text, history=None, max_length=2048, num_beams=1, do_sample=True, top_p=0.75, temperature=0.95, logits_processor=None)\n\n# 多轮对话调用模型的chat函数\n# 注意：本项目使用\"\\n用户：\"和\"\\n心理咨询师：\"划分不同轮次的对话历史\n# 注意：user_history比bot_history的长度多1\nuser_history = ['你好，老师', '我女朋友跟我分手了，感觉好难受']\nbot_history = ['你好！我是你的个人专属数字辅导员甜心老师，欢迎找我倾诉、谈心，期待帮助到你！']\n# 拼接对话历史\ncontext = \"\\n\".join([f\"用户：{user_history[i]}\\n心理咨询师：{bot_history[i]}\" for i in range(len(bot_history))])\ninput_text = context + \"\\n用户：\" + user_history[-1] + \"\\n心理咨询师：\"\n\nresponse, history = model.chat(tokenizer, query=input_text, history=None, max_length=2048, num_beams=1, do_sample=True, top_p=0.75, temperature=0.95, logits_processor=None)\n```\n\n\n* 启动服务   \n\n本项目提供了[soulchat_app.py](.\u002Fsoulchat_app.py)作为SoulChat模型的使用示例，通过以下命令即可开启服务，然后，通过http:\u002F\u002F\u003Cyour_ip>:9026访问。\n```bash\nstreamlit run soulchat_app.py --server.port 9026\n```\n特别地，在[soulchat_app.py](.\u002Fsoulchat_app.py)当中，\n可以修改以下代码更换指定的显卡：\n```python\nos.environ['CUDA_VISIBLE_DEVICES'] = '2'\n```\n**对于Windows单显卡用户，需要修改为：```os.environ['CUDA_VISIBLE_DEVICES'] = '0'```，否则会报错！**\n\n可以通过更改以下代码指定模型路径为本地路径：\n```python\nmodel_name_or_path = 'scutcyr\u002FSoulChat'\n```\n\n## 示例\n* 样例1：失恋\n*\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_c7c5b02b2666.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例2：宿舍关系\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_08977d0cb50d.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例3：期末考试\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_0cfc595fa946.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n* 样例4：科研压力\n\n\u003Cp align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_789864d0c0db.png\" width=600px\u002F>\n\u003C\u002Fp>\n\n## 声明\n* 本项目使用了ChatGLM-6B 模型的权重，需要遵循其[MODEL_LICENSE](https:\u002F\u002Fgithub.com\u002FTHUDM\u002FChatGLM-6B\u002Fblob\u002Fmain\u002FMODEL_LICENSE)，因此，**本项目仅可用于您的非商业研究目的**。\n* 本项目提供的SoulChat模型致力于提升大模型的共情对话与倾听能力，然而，模型的输出文本具有一定的随机性，当其作为一个倾听者的时候，是合适的，但是不建议将SoulChat模型的输出文本替代心理医生等的诊断、建议。本项目不保证模型输出的文本完全适合于用户，用户在使用本模型时需要承担其带来的所有风险！\n* 您不得出于任何商业、军事或非法目的使用、复制、修改、合并、发布、分发、复制或创建SoulChat模型的全部或部分衍生作品。\n* 您不得利用SoulChat模型从事任何危害国家安全和国家统一、危害社会公共利益、侵犯人身权益的行为。\n* 您在使用SoulChat模型时应知悉，其不能替代医生、心理医生等专业人士，不应过度依赖、服从、相信模型的输出，不能长期沉迷于与SoulChat模型聊天。\n\n## 致谢\n本项目由[华南理工大学未来技术学院](https:\u002F\u002Fwww2.scut.edu.cn\u002Fft\u002Fmain.htm) 广东省数字孪生人重点实验室发起，得到了华南理工大学信息网络工程研究中心、电子与信息学院等学院部门的支撑，同时致谢广东省妇幼保健院、广州市妇女儿童医疗中心、中山大学附属第三医院、合肥综合性国家科学中心人工智能研究院等合作单位。\n\n同时，我们感谢以下媒体或公众号对本项目的报道（排名不分先后）：\n* 媒体报道\n  [人民日报](https:\u002F\u002Fwap.peopleapp.com\u002Farticle\u002Frmh36174922\u002Frmh36174922)、[中国网](https:\u002F\u002Fhs.china.com.cn\u002Fgd\u002F83980.html)、[光明网](https:\u002F\u002Fhealth.gmw.cn\u002F2023-06\u002F13\u002Fcontent_36628062.htm)、[TOM科技](https:\u002F\u002Ftech.tom.com\u002F202306\u002F4526869977.html)、[未来网](http:\u002F\u002Fwww.zzfuture.cn\u002Fnews\u002F956.html)、[大众网](http:\u002F\u002Flinyi.dzwww.com.3xw.site\u002Fxinwen\u002F202306\u002Ft20230613_202306135667.htm)、[中国发展报道网](http:\u002F\u002Fwww.chinafzbdw.com\u002Fcomputer\u002F13149.html?1686564408)、[中国日报网](http:\u002F\u002Fenergy.chinaduily.com.cn\u002Fc\u002F2023\u002F15205.html)、[新华资讯网](http:\u002F\u002Fwww.xinhuazxun.com\u002Fworld\u002F21762.html?1686564382)、[中华网](https:\u002F\u002Flife.china.com\u002F2023-06\u002F12\u002Fcontent_215815.html)、[今日头条](https:\u002F\u002Fwww.toutiao.com\u002Farticle\u002F7243412314223952418\u002F)、[搜狐](https:\u002F\u002Fwww.sohu.com\u002Fa\u002F684501109_120159010)、[腾讯新闻](https:\u002F\u002Fpage.om.qq.com\u002Fpage\u002FOhSXIMEUtDtdg0rTi6aAoTbg0)、[网易新闻](https:\u002F\u002Fwww.163.com\u002Fdy\u002Farticle\u002FI70BJ9U00552UJUX.html)、[中国资讯网](http:\u002F\u002Fwww.chinazxun.com\u002Fworld\u002F23252.html?1686564532)、[中国传播网](http:\u002F\u002Fwww.chinachbo.com\u002Fa\u002Fview\u002F11697.html?1686564509)、[中国都市报道网](http:\u002F\u002Fwww.zgdsbdw.com\u002Fmeida\u002F11273.html?1686564485)、[中华城市网](http:\u002F\u002Fwww.zhcsww.com\u002Fhot\u002F2023\u002F0612\u002F9609.html?1686564434)\n\n* 公众号\n  [广东实验室建设](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FgemlKfLg8c-AtjiV7uTUTQ)、[智能语音新青年](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FvBMKXUJoAIywkXY2nY60eA)、[深度学习与NLP](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FqSHLT8FbvohZESp-UCah6g)、[AINLP](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FEX3f9WblLKM8K_nSwhno_g)\n\n## 引用\n```bib\n@inproceedings{chen-etal-2023-soulchat,\n    title = \"{S}oul{C}hat: Improving {LLM}s{'} Empathy, Listening, and Comfort Abilities through Fine-tuning with Multi-turn Empathy Conversations\",\n    author = \"Chen, Yirong  and\n      Xing, Xiaofen  and\n      Lin, Jingkai  and\n      Zheng, Huimin  and\n      Wang, Zhenyu  and\n      Liu, Qi  and\n      Xu, Xiangmin\",\n    editor = \"Bouamor, Houda  and\n      Pino, Juan  and\n      Bali, Kalika\",\n    booktitle = \"Findings of the Association for Computational Linguistics: EMNLP 2023\",\n    month = dec,\n    year = \"2023\",\n    address = \"Singapore\",\n    publisher = \"Association for Computational Linguistics\",\n    url = \"https:\u002F\u002Faclanthology.org\u002F2023.findings-emnlp.83\",\n    pages = \"1170--1183\",\n    abstract = \"Large language models (LLMs) have been widely applied in various fields due to their excellent capability for memorizing knowledge和chain of thought (CoT). When these language models are applied in the field of psychological counseling, they often rush to provide universal advice. However, when users seek psychological support, they need to gain empathy, trust, understanding and comfort, rather than just reasonable advice. To this end, we constructed a multi-turn empathetic conversation dataset of more than 2 million samples, in which the input is the multi-turn conversation context, and the target is empathetic responses that cover expressions such as questioning, comfort, recognition, listening, trust, emotional support, etc. Experiments have shown that the empathy ability of LLMs can be significantly enhanced when finetuning by using multi-turn dialogue history and responses that are closer to the expression of a psychological consultant.\",\n}\n}\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_readme_0674b37dc52a.png)](https:\u002F\u002Fstar-history.com\u002F#scutcyr\u002FSoulChat&Date)","# SoulChat 快速上手指南\n\nSoulChat（灵心）是一款基于 ChatGLM-6B 微调的中文心理健康大模型，具备优秀的共情、倾听和安慰能力，适用于多轮心理咨询对话场景。\n\n## 1. 环境准备\n\n*   **操作系统**：Linux, Windows, macOS\n*   **Python 版本**：3.8+\n*   **GPU 要求**：推荐 NVIDIA GPU，显存建议 12GB 以上（量化后可降低），需安装对应版本的 CUDA（示例中使用 CUDA 11.6）。\n*   **前置依赖**：Conda (推荐) 或 Pip。\n\n## 2. 安装步骤\n\n### 步骤一：克隆项目\n```bash\ncd ~\ngit clone https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat.git\ncd SoulChat\n```\n\n### 步骤二：创建并激活虚拟环境\n推荐使用 Conda 创建隔离环境：\n```bash\nconda env create -n proactivehealthgpt_py38 --file proactivehealthgpt_py38.yml\nconda activate proactivehealthgpt_py38\n```\n\n### 步骤三：安装核心依赖\n**注意**：`torch` 版本需根据你的实际 CUDA 版本调整。以下命令以 CUDA 11.6 为例：\n\n```bash\npip install cpm_kernels\npip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\n```\n\n> **Windows 用户特别提示**：\n> 若上述 `yml` 文件配置失败，可手动执行以下命令：\n> ```bash\n> conda create -n proactivehealthgpt_py38 python=3.8\n> conda activate proactivehealthgpt_py38\n> pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu116\n> pip install -r requirements.txt\n> pip install rouge_chinese nltk jieba datasets streamlit streamlit_chat\n> ```\n> 同时请确保已安装 [CUDA 11.6](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-11-6-0-download-archive) 和对应的 [cuDNN](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcompute\u002Fcudnn)。\n\n## 3. 基本使用\n\n### 方式一：Python 代码调用\n\n以下示例展示了如何加载模型并进行单轮或多轮对话。模型会自动从 Hugging Face 下载权重（需网络通畅，国内用户可配置镜像或使用本地路径）。\n\n```python\nimport torch\nfrom transformers import AutoModel, AutoTokenizer\n\n# GPU 设置\ndevice = torch.device(\"cuda\" if torch.cuda.is_available() else \"cpu\")\n\n# 加载模型与 tokenizer\n# 若需使用本地模型，请将 'scutcyr\u002FSoulChat' 替换为本地文件夹路径\nmodel_name_or_path = 'scutcyr\u002FSoulChat'\nmodel = AutoModel.from_pretrained(model_name_or_path, trust_remote_code=True).half()\nmodel.to(device)\ntokenizer = AutoTokenizer.from_pretrained(model_name_or_path, trust_remote_code=True)\n\n# --- 单轮对话示例 ---\nuser_input = \"我失恋了，好难受！\"\n# 构造特定格式输入：用户：xxx\\n心理咨询师：\ninput_text = \"用户：\" + user_input + \"\\n心理咨询师：\"\n\nresponse, history = model.chat(\n    tokenizer, \n    query=input_text, \n    history=None, \n    max_length=2048, \n    num_beams=1, \n    do_sample=True, \n    top_p=0.75, \n    temperature=0.95\n)\nprint(\"回复:\", response)\n\n# --- 多轮对话示例 ---\n# 注意：历史对话需按 \"用户：...\\n心理咨询师：...\" 格式拼接\nuser_history = ['你好，老师', '我女朋友跟我分手了，感觉好难受']\nbot_history = ['你好！我是你的个人专属数字辅导员甜心老师，欢迎找我倾诉、谈心，期待帮助到你！']\n\n# 拼接上下文\ncontext = \"\\n\".join([f\"用户：{user_history[i]}\\n心理咨询师：{bot_history[i]}\" for i in range(len(bot_history))])\ninput_text = context + \"\\n用户：\" + user_history[-1] + \"\\n心理咨询师：\"\n\nresponse, history = model.chat(\n    tokenizer, \n    query=input_text, \n    history=None, \n    max_length=2048, \n    num_beams=1, \n    do_sample=True, \n    top_p=0.75, \n    temperature=0.95\n)\nprint(\"多轮回复:\", response)\n```\n\n### 方式二：启动 Web 演示服务\n\n项目提供了基于 Streamlit 的交互界面。\n\n1.  **修改显卡设置（重要）**：\n    打开 `soulchat_app.py`，找到以下行并根据你的显卡情况修改：\n    *   多卡用户指定卡号：`os.environ['CUDA_VISIBLE_DEVICES'] = '2'`\n    *   **Windows 单卡用户必须改为**：`os.environ['CUDA_VISIBLE_DEVICES'] = '0'` (否则报错)\n\n2.  **修改模型路径（可选）**：\n    如需使用本地模型，在 `soulchat_app.py` 中修改 `model_name_or_path` 为本地路径。\n\n3.  **运行服务**：\n    ```bash\n    streamlit run soulchat_app.py --server.port 9026\n    ```\n    启动后，在浏览器访问 `http:\u002F\u002F\u003Cyour_ip>:9026` 即可使用。\n\n---\n**⚠️ 免责声明**：本模型仅用于非商业研究及辅助倾听，**不能替代专业心理医生或医疗机构的诊断与治疗**。请勿过度依赖模型输出，使用者需自行承担相关风险。","某高校心理咨询中心引入 AI 助手，协助咨询师处理夜间大量学生的初步情绪疏导与倾诉需求。\n\n### 没有 SoulChat 时\n- **回复机械冷漠**：通用大模型缺乏专业共情训练，面对学生焦虑时往往给出“请放松”等生硬建议，无法提供情感共鸣，甚至让用户感到被敷衍。\n- **缺失引导能力**：模型倾向于一次性输出长篇大论的分析，不懂得通过多轮对话循序渐进地引导学生打开心扉，导致沟通中断。\n- **语境理解断层**：在处理长篇幅的自我描述时，难以捕捉细腻的情绪变化，无法像真人咨询师那样进行持续的倾听与反馈。\n- **安全隐患难控**：未经过心理领域专项微调的模型，可能在面对极端情绪时给出不恰当甚至危险的回应，缺乏专业边界感。\n\n### 使用 SoulChat 后\n- **具备深度共情**：SoulChat 基于百万级多轮共情对话微调，能精准识别学生情绪并输出“我理解你的感受”、“这确实很不容易”等温暖回应，建立信任连接。\n- **主动引导倾诉**：模仿真实咨询流程，SoulChat 不再堆砌建议，而是通过提问和鼓励，引导学生分步骤表达内心困扰，实现渐进式疏导。\n- **长文本精准交互**：依托专为中文长文本咨询构建的数据集，SoulChat 能完整理解复杂的背景叙述，并在多轮对话中保持上下文连贯与情感一致。\n- **专业安全兜底**：作为首个开源的心理领域大模型，SoulChat 在提供安慰的同时能识别危机信号，给出符合心理学原则的初步干预建议。\n\nSoulChat 将通用聊天机器人升级为具备“倾听、共情、引导”能力的专业心理伙伴，有效填补了非工作时间心理支持的空白。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fscutcyr_SoulChat_c7c5b02b.png","scutcyr","nlper","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fscutcyr_50ced78a.jpg","My research interest mainly lies in Natural Language Processing(NLP), Computer Vision(CV), Deep Learning(DL), Image Processing and Dialogue system.","South China University of Technology","South China University of Technology, Guangzhou, Guangdong, China, 510640","yirong.chen@outlook.com",null,"http:\u002F\u002Fyirongchen.com\u002F","https:\u002F\u002Fgithub.com\u002Fscutcyr",[87],{"name":88,"color":89,"percentage":90},"Python","#3572A5",100,728,72,"2026-04-15T14:37:41","Apache-2.0","Linux, Windows, macOS","需要 NVIDIA GPU (推荐)，需安装 CUDA 11.6 和 cuDNN 8.4.0；Mac\u002FLinux CPU 亦可运行但速度较慢","未说明 (基于 ChatGLM-6B 模型，建议 16GB 以上)",{"notes":99,"python":100,"dependencies":101},"1. Windows 用户需手动下载并配置 CUDA 11.6 和 cuDNN 8.4.0。2. 单显卡 Windows 用户启动服务前必须设置环境变量 CUDA_VISIBLE_DEVICES='0'，否则会报错。3. 模型基于 ChatGLM-6B 进行全量参数微调，仅可用于非商业研究目的。4. 建议使用 conda 创建名为 proactivehealthgpt_py38 的环境。","3.8+",[102,103,104,105,106,107,108,109,110,111],"torch==1.13.1+cu116","torchvision==0.14.1+cu116","torchaudio==0.13.1","cpm_kernels","transformers","streamlit","streamlit_chat","rouge_chinese","nltk","jieba",[15],[114,115,116,117],"chatbot","conversational-ai","psychology","soulchat","2026-03-27T02:49:30.150509","2026-04-19T06:02:49.686820",[121,126,131,136,141,146],{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},41682,"SoulChat 的微调数据集是否开源？在哪里可以下载？","微调数据集 v0.1 已开源，包含单轮和多轮对话数据。您可以访问 ModelScope 下载：https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus","https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\u002F8",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},41683,"加载 ChatGLM 模型时报错 'ChatGLMTokenizer' object has no attribute 'sp_tokenizer' 如何解决？","需要修改 `tokenization_chatglm.py` 文件。将初始化 `self.sp_tokenizer` 的代码行移动到 `super().__init__` 调用之前。具体代码如下：\n```python\nclass ChatGLMTokenizer(PreTrainedTokenizer):\n    # ... 其他属性 ...\n    def __init__(self, vocab_file, ...):\n        # 将这行代码移到 super().__init__ 之前\n        self.sp_tokenizer = SPTokenizer(vocab_file, num_image_tokens=num_image_tokens)\n        super().__init__(...)\n```","https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\u002F12",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},41684,"项目是否计划支持 OpenAI 格式的 API 接口？","维护者已确认将支持 OpenAI 接口，以便其他应用调用。根据之前的回复，推理代码预计在 6 月底发布（请注意检查最新版本的代码库以获取更新）。","https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\u002F11",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},41685,"除了 SoulChatCorpus，还有其他推荐的心理健康多轮对话数据集吗？","如果您需要大规模的心理健康支持多轮对话数据集，可以参考 SMILE 项目：https:\u002F\u002Fgithub.com\u002Fqiuhuachuan\u002Fsmile","https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\u002F1",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},41686,"如何获取项目中提到的单轮和多轮具体数据集？","相关的单轮和多轮数据集已合并在 v0.1 版本中开源。下载地址为：https:\u002F\u002Fwww.modelscope.cn\u002Fdatasets\u002FYIRONGCHEN\u002FSoulChatCorpus","https:\u002F\u002Fgithub.com\u002Fscutcyr\u002FSoulChat\u002Fissues\u002F4",{"id":147,"question_zh":148,"answer_zh":149,"source_url":125},41687,"有没有相关的中文心理咨询社区开源项目推荐？","推荐关注 EmoLLM 项目（https:\u002F\u002Fgithub.com\u002FSmartFlowAI\u002FEmoLLM），该项目从专业数据到评估方法全部开源，旨在为中文心理咨询社区做出贡献。",[]]