Machine-Mindset
Machine-Mindset 是一个探索大型语言模型“人格特质”的开源项目,旨在通过心理学中经典的 MBTI(迈尔斯 - 布里格斯类型指标)理论,为 AI 赋予并测试不同的人格维度。它主要解决了当前大模型在交互风格上趋于同质化、缺乏个性化特征的问题,让开发者能够更直观地理解和控制模型的回复语气与思维模式。
该项目非常适合 AI 研究人员、大模型开发者以及对人机交互心理学感兴趣的设计师使用。研究人员可以利用其公开的全部训练数据集和论文成果,深入探讨大模型与心理学的交叉领域;开发者则能直接调用已发布的 32 个专属模型(包含 16 个中文和 16 个英文版本),快速构建具有特定性格(如内向直觉型 INTP 或外向实感型 ESFJ 等)的智能助手,以满足游戏 NPC、情感陪伴或特定场景对话的需求。
Machine-Mindset 的独特亮点在于其系统性地构建了从数据训练到模型评估的完整闭环,不仅开源了所有核心数据,还提供了多语言支持的多样化人格模型库。通过在 Hugging Face 和 ModelScope 等平台开放体验,它降低了人格化大模型的研究与应用门槛,推动了更具“人性”温度的 AI 技术发展。
使用场景
某心理咨询科技公司的算法团队正在开发一款能够模拟不同人格特质以提供个性化陪伴的 AI 助手,旨在测试模型在多样化性格下的响应差异。
没有 Machine-Mindset 时
- 人格塑造靠“玄学”:开发人员只能通过反复修改 Prompt 提示词来试图让模型表现得更“内向”或“感性”,但效果极不稳定,难以量化控制。
- 评估缺乏标准:无法科学判断模型是否真正具备了某种 MBTI 人格特征,只能依靠人工主观感觉打分,导致测试周期漫长且结论模糊。
- 数据资源匮乏:缺乏专门用于训练特定人格倾向的高质量对话数据集,从头构建成本极高,严重阻碍了个性化模型的迭代速度。
- 多语言支持困难:想要同时覆盖中文和英文用户的人格化服务时,难以找到统一框架来保证两种语言下人格表现的一致性。
使用 Machine-Mindset 后
- 精准人格定制:直接调用已开源的 32 种预训练模型(涵盖 16 种中英文 MBTI 类型),一键部署具备稳定 INTJ 或 ENFP 等特定思维模式的 AI 代理。
- 科学化评估体系:利用工具内置的心理学评估机制,定量分析模型在四个维度上的得分,将模糊的“像不像”转化为可度量的数据指标。
- 开箱即用的数据:直接复用官方开放的全量训练数据集,大幅降低了数据清洗和标注成本,让团队能专注于上层应用逻辑的开发。
- 跨语言人格对齐:借助其中英文双版本模型架构,确保同一人格设定在不同语言环境下表现出高度一致的认知风格和行为偏好。
Machine-Mindset 将抽象的心理学人格理论转化为可工程化的 AI 能力,让大模型从“千人一面”的智能问答进化为“千人千面”的情感伙伴。
运行环境要求
未说明
未说明

快速开始
机器心智:大型语言模型的MBTI探索
如果你喜欢我们的项目,请给我们点个赞 ⭐
[ 中文 | 英文 | 日语 ]
📰 新闻
[2024.01.05] 🚀 我们已在ModelScope上线!为了更有效地展示我们的模型,团队与ModelScope合作,以触达更广泛的用户群体。我们衷心感谢ModelScope的辛勤工作人员,他们不辞辛劳地为我们整理并呈现了32个模型和数据集。特别感谢他们的帮助和支持!
[2024.01.05] 🌐 全部训练数据集开放!为促进大型语言模型与心理学领域的融合,我们正式开放了全部训练数据集,这将为研究人员和开发者提供更多资源和机会,推动大模型与心理学领域的创新。我们期待看到更多令人兴奋的应用和研究成果。
[2024.01.05] 🌟 重大更新:全部32个模型开放!我们很高兴宣布模型的重大更新与扩展。自2023年12月20日起,我们逐步发布了系列模型的测试版本,并于1月4日正式开放了32个全新模型,其中包括16个中文模型和16个英文模型。
[2023.12.21] 📑 Arxiv论文现已发布! 论文可在此查阅:链接。
[2023.12.20] 🤗 Hugging Face模型展示 我们在Hugging Face平台上发布了MBTI系列模型的一个示例。
🚀 简介
**MM(Machine_Mindset)**系列模型由FarReel AI实验室(前身为ChatLaw项目)与北京大学深度研究院合作开发。这些模型是基于百川和LLaMA2平台构建的、面向多种MBTI类型的大规模语言模型,支持中英双语。🤖🌐
我们的核心资产是一个自主构建的庞大MBTI数据集,包含数十万条记录。我们的模型通过多阶段的预训练、微调和DPO训练打造而成。我们致力于持续更新模型,以提供更优的性能,并不断补充实验测试结果。📊📈
与仅仅使用提示词来改变模型性格的做法不同,我们发现这种方法极不稳定。这就好比一位控制欲强的家长对内向的孩子不满,试图通过简单粗暴的命令强迫孩子变得外向——这种做法实在荒谬。🙅♂️😄
我们已成功利用百川、通义千问、LLaMA和Mistral等模型实现了针对不同MBTI类型的性格对齐。这意味着,通过将不同的基础模型与我们的数据集和训练方法相结合,我们可以获得16种不同版本的MBTI性格模型,每种模型都可针对特定任务进行定制。🛠🧩
由于资源限制,我们目前先发布了基于百川7B聊天版的16个中文模型,以及基于LLaMA2 7B的若干英文模型。不过请放心,如有需要,我们能够迅速增加不同版本的模型。🌍📦
这是我们首次尝试将大型语言模型(LLMs)与人格心理学相结合。未来我们将继续探索这一方向,包括但不限于:🚀🌱
- 使用MoE(专家混合)架构实现MBTI模型
- 利用大型语言模型满足个性化需求
- 探索情感陪伴及智能体规划相关任务。🧠❤️ 如需深入了解、学术合作、投资或商业合作等相关事宜,请联系jiaxicui446@gmail.com。
🌱 我们的愿景:一次深思熟虑的创新 🌱
这项工作始于一个长久以来的思考:人类的心智就像我们与生俱来的预训练模型。每个人的心智参数和训练数据可能有所不同,从而导致抽象思维能力和认知水平的差异。随着成长,有些人擅长数学和逻辑推理,而另一些人则更擅长情感理解。
随后,我们的学习经历、所处环境以及人生体验,就好比对预训练心智进行微调,并通过人类反馈对其进行对齐。从这个角度来看,大多数MBTI人格特质本质上是由后天环境因素塑造的,这也造就了每个人的独特性。
换句话说,我们可以尝试利用微调和人类反馈对齐(DPO)的方法,对不同的预训练基础大语言模型进行分阶段训练,使这些模型具备鲜明的MBTI人格特征。
我们的目标不仅是赋予这些模型不同的MBTI人格属性,更是要模拟人类形成各种MBTI人格的过程。
我们相信,这种独特的研究思路将为在人格心理学领域更深入地理解和应用大语言模型开辟新路径。敬请期待后续进展,我们将继续探索语言模型与人类人格之间那令人着迷的交汇点。🌟🔍
🌟 精彩亮点! 🌟
我们非常高兴地向大家介绍我们的最新成果:不是两个,而是16种截然不同的MBTI模型,现已开放供大家探索!快来深入这片开源宝藏,开启一段关于人格的奇妙旅程吧!
🤔 想知道这些模型能为你带来哪些惊喜吗?以下是一些令人兴奋的应用场景:
- 在特殊场合为你的伴侣挑选一份完美的礼物。
- 了解你关注的人在不同情境下的反应方式。
- 更深入地理解大模型的定制化、个性化及其无限可能性。
- 在做出重要决策时,结合不同情境下的人格特质进行考量。
- 通过深刻洞察人性的复杂性,促进个人成长与彼此理解。
在这个大语言模型的时代,让我们以前所未有的方式深入了解各类人格类型吧!🎉🧠🌈

📚 数据集介绍
我们已开源了精心构建的MBTI训练数据集,旨在训练出能够展现不同MBTI人格特质的大语言模型。🌐🔍
https://huggingface.co/datasets/FarReelAILab/Machine_Mindset
此次数据集的发布,标志着我们在大语言模型(LLMs)与心理学领域的独特贡献。我们坚信,通过共享这份数据,能够激发学术界和工业界对大语言模型在心理学中应用的更多关注与创新。🧠📘
我们的数据集涵盖了丰富多样的场景,专为帮助研究人员和开发者训练能够理解和模拟不同MBTI人格的基础模型而设计。这些模型不仅能提供更加人性化的人机交互体验,还能在各种情境中给出精准的心理洞察。🤖💬
我们鼓励大家积极使用并探索该数据集,以开发出更多创新且深入的应用。我们期待这一领域的进一步发展,并希望我们的努力能为此贡献力量。🚀🌟
如需了解更多关于数据集的详细信息及使用指南,请参阅我们的详细文档。
📑 评估
结果
| 模型 | C-Eval | CMMLU | MMLU | AGIEval | GAOKAO-Bench | GSM8K | MATH |
|---|---|---|---|---|---|---|---|
| MachineMindset-ENFP_en | 9.28 | 3.82 | 0.34 | 3.28 | 2.79 | 2.5 | 0.26 |
| MachineMindset-ENTP_en | 30.92 | 21.47 | 0.77 | 5.95 | 4.11 | 2.58 | 0.2 |
| MachineMindset-ENFJ_en | 29.31 | 17.28 | 3.25 | 4.45 | 11.25 | 2.58 | 0.2 |
| MachineMindset-ENTJ_en | 26.97 | 14.21 | 1.22 | 4.76 | 2.95 | 2.12 | 0.24 |
| MachineMindset-ESTP_en | 29.97 | 20.60 | 3.38 | 7.20 | 8.67 | 2.65 | 0.28 |
| MachineMindset-ESFJ_en | 30.07 | 14.57 | 8.07 | 7.43 | 5.66 | 2.73 | 0.24 |
| MachineMindset-ESTJ_en | 25.43 | 18.82 | 0.82 | 2.48 | 2.36 | 2.81 | 0.12 |
| MachineMindset-ESFP_en | 29.71 | 7.22 | 4.96 | 8.67 | 12.54 | - | 2.44 |
| MachineMindset-INTJ_en | 16.34 | 10.06 | 0.28 | 3.55 | 1.96 | 2.05 | 0.38 |
| MachineMindset-INFJ_en | 29.65 | 21.05 | 0.44 | 3.84 | 4.84 | 3.03 | 0.28 |
| MachineMindset-INFP_en | 28.49 | 14.51 | 8.43 | 10.06 | 10.22 | 1.97 | 2.6 |
| MachineMindset-INTP_en | 30.51 | 19.09 | 1.79 | 4.42 | 2.94 | 2.58 | 0.3 |
| MachineMindset-ISFP_en | 28.52 | 14.03 | 1.07 | 4.95 | 4.35 | 2.27 | 0.18 |
| MachineMindset-ISTP_en | 29.52 | 12.28 | 1.49 | 4.57 | 9.26 | - | 0.24 |
| MachineMindset-ISTJ_en | 27.19 | 17.45 | 1.39 | 3.49 | 2.33 | - | 0.2 |
| MachineMindset-ISFJ_en | 28.23 | 12.01 | 1.37 | 7.06 | 7.62 | 3.26 | 0.24 |
解读
我们有意让模型过度拟合人格数据,因此在各项评测中的表现并不理想。这样做是为了探究缺乏通用领域数据会对模型的通用能力造成多大损害。所以,这些分数仅反映了我们的模型在特定人格数据上的过拟合情况,并不能代表其整体性能。在实际应用中,只需将我们的数据集与原始训练数据混合即可。此外,我们还对比了不同类型模型在过度拟合人格数据时的表现差异,以更好地理解不同MBTI类型模型在各类场景中的优势与特性。
🚀 主要成果
随机问答结果
下面,我们提供了不同性格类型随机问答结果的可视化展示,每种性格类型都有其独特的特征和倾向:
- ENFP 结果 深入了解 ENFP 性格类型,并洞察他们在面对随机问题时的回答。在他们的回答中,你会发现 ENFP 充满创意与想象力的一面。

- INTJ 结果 深入探讨 INTJ 性格类型的表现,观察他们以分析性和战略性的方式应对随机问题。了解 INTJ 如何凭借精准的逻辑思维驾驭各种情境。

- INFP 结果 探索 INFP 性格类型在回答随机问题时的反应,体会他们理想主义且富有同理心的特点。一起发掘他们独特的视角与见解。

研究 INTP 性格类型的结果,观察他们面对随机问题时所展现的分析与逻辑思维。深入了解他们的问题解决能力和创造性思考方式。 这些可视化展示为我们打开了一扇通往多元性格世界的大门,帮助我们更好地理解并欣赏每种性格类型所特有的特质与倾向。📊🧠🔍
❤️ 致谢
LLaMA-Efficient-Tuning:一个标准化的大型语言模型端到端训练解决方案。
魔搭ModelScope:特别感谢程晨教授不辞辛劳地加班帮我们迁移所有模型,并调试模型运行演示。🌟
HuggingFace:我们感谢他们提供的模型托管服务及社区支持。👏
OpenXLab:感谢他们提供的推理计算能力以及社区支持。💪
ChatLaw:感谢 ChatLaw 团队提供高效、整洁的数据处理方法,以及丰富的工程实践经验。🙏
🔒 许可协议
我们的代码遵循 Apache 2.0 开源许可协议。具体开源协议详情请参阅 LICENSE。
我们的模型权重基于原始权重采用开源协议,具体细节请参见中文版的百川开源许可协议。如需商业使用,请参阅 model_LICENSE 获取更多信息。
英文版则遵循 llama2 许可协议 下的开源协议。
✏️ 引用
如果您在研究中发现我们的论文和代码有所帮助,请考虑为本项目点亮一颗星 :star: 并引用我们的工作 :pencil:。
@misc{cui2023machine,
title={Machine Mindset: An MBTI Exploration of Large Language Models},
author={Jiaxi Cui and Liuzhenghao Lv and Jing Wen and Rongsheng Wang and Jing Tang and YongHong Tian and Li Yuan},
year={2023},
eprint={2312.12999},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
✨ 星标历史
🤝 贡献者
王荣生 |
吕六正浩 |
杰西·苏一 |
伊科·埃尔托契尔·阿希明 |
常见问题
相似工具推荐
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。
PaddleOCR
PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。
