[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ValueByte-AI--Awesome-LLM-in-Social-Science":3,"tool-ValueByte-AI--Awesome-LLM-in-Social-Science":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":79,"stars":81,"forks":82,"last_commit_at":83,"license":84,"difficulty_score":85,"env_os":78,"env_gpu":86,"env_ram":86,"env_deps":87,"category_tags":90,"github_topics":91,"view_count":10,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":103,"updated_at":104,"faqs":105,"releases":136},3197,"ValueByte-AI\u002FAwesome-LLM-in-Social-Science","Awesome-LLM-in-Social-Science","Awesome papers involving LLMs in Social Science.","Awesome-LLM-in-Social-Science 是一个专注于大语言模型（LLM）与社会科学交叉领域的开源论文合集。它系统性地整理了利用 LLM 进行社会科学评估、对齐、研究辅助及工具增强的前沿学术成果，特别聚焦于心理学和内在价值观的研究。\n\n在人工智能日益融入社会生活的背景下，如何从社会学和心理学视角理解、评估并引导大模型的行为成为关键挑战。该资源库通过分类梳理，帮助研究者快速定位关于模型价值观、人格特征、道德判断、观点倾向及社会模拟等方面的高质量文献，有效解决了跨学科研究中文献分散、难以追踪最新进展的痛点。\n\n这份合集非常适合从事计算社会科学、人工智能伦理、心理学研究以及人机交互领域的科研人员使用，同时也为希望深入了解大模型社会影响的开发者和政策制定者提供了宝贵的参考索引。其独特亮点在于构建了细致的分类体系，涵盖从基础数据集、综述文章到具体的评估维度和对齐策略，并特别设立了“多元对齐”和“社会模拟”等前沿板块，为探索更具包容性和社会智能的 AI 系统指明了方向。","# Awesome-LLM-in-Social-Science\n\n\n\n> **🔗 Recommended Resource:**  \n> Check out [Awesome-LLM-Psychometrics](https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-Psychometrics) for a comprehensive collection of papers and resources on LLM psychometrics, including evaluation, validation, and enhancement.  \n>  \n\n\n\n\nBelow we compile *awesome* papers that  \n- **evaluate** Large Language Models (LLMs) from a perspective of Social Science.\n- **align** LLMs from a perspective of Social Science.\n- employ LLMs to **facilitate research, address issues, and enhance tools** in Social Science.\n- contribute **surveys**, **perspectives**, and **datasets** on the above topics.\n\nThe above taxonomies are by no means orthogonal. For example, evaluations require simulations. We categorize these papers based on our understanding of their focus. This collection has **a special focus on Psychology and intrinsic values**.\n\nWelcome to contribute and discuss!\n\n---\n\n🤩 Papers marked with a ⭐️ are contributed by the maintainers of this repository. If you find them useful, we would greatly appreciate it if you could give the repository a star and cite our paper.\n\n\n```bibtex\n@article{ye2025large,\n  title={Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement},\n  author={Ye, Haoran and Jin, Jing and Xie, Yuhang and Zhang, Xin and Song, Guojie},\n  journal={arXiv preprint arXiv:2505.08245},\n  year={2025},\n  note={Project website: \\url{https:\u002F\u002Fllm-psychometrics.com}, GitHub: \\url{https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-Psychometrics}}\n}\n```\n\n\n---\n\n## Table of Contents\n\n* 1. [📚 Survey](#Survey)\n* 2. [🗂️ Dataset](#Dataset)\n* 3. [🔎 Evaluating LLM](#EvaluatingLLM)\n\t* 3.1. [❤️ Value](#Value)\n\t* 3.2. [🩷 Personality](#Personality)\n\t* 3.3. [🔞 Morality](#Morality)\n\t* 3.4. [🎤 Opinion](#Opinion)\n\t* 3.5. [💚 General Preference](#GeneralPreference)\n\t* 3.6. [🧠 Ability](#Ability)\n\t* 3.7. [⚠️ Risk](#Risk) \n* 4. [⚒️ Tool enhancement](#Toolenhancement)\n* 5. [⛑️ Alignment](#Alignment)\n\t* 5.1. [🌈 Pluralistic Alignment](#PluralisticAlignment)\n* 6. [🚀 Simulation](#Simulation)\n* 7. [👁️‍🗨️ Perspective and Position](#Perspective)\n\n\n---\n\n##  1. \u003Ca name='Survey'>\u003C\u002Fa>📚 Survey \n- ⭐️ **Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement**, 2025.05, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08245).\n- **Missing the Margins: A Systematic Literature Review on the Demographic Representativeness of LLMs**, ACL 2025, [[paper]](https:\u002F\u002Faclanthology.org\u002F2025.findings-acl.1246\u002F), [[collection]](https:\u002F\u002Fgithub.com\u002FIndiiigo\u002FLLM_rep_review).\n- **Large language models (LLM) in computational social science: prospects, current state, and challenges**, 2025.03, Social Network Analysis and Mining, [[paper]](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs13278-025-01428-9).\n- **Towards Scientific Intelligence: A Survey of LLM-based Scientific Agents**, 2025.03, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.24047).\n- **On the Trustworthiness of Generative Foundation Models: Guideline, Assessment, and Perspective**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.14296).\n- **The Road to Artificial SuperIntelligence: A Comprehensive Survey of Superalignment**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.16468).\n- **Large Language Model Safety: A Holistic Survey**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.17686).\n- **Political-LLM: Large Language Models in Political Science**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.06864), [[website]](https:\u002F\u002Fpolitical-llm.org\u002F).\n- **LLMs-as-Judges: A Comprehensive Survey on LLM-based Evaluation Methods**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.05579).\n- **From Individual to Society: A Survey on Social Simulation Driven by Large Language Model-based Agents**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.03563), [[repo]](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FSocialAgent).\n- **A Survey on Human-Centric LLMs**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.14491).\n- **Survey of Cultural Awareness in Language Models: Text and Beyond**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.00860).\n- **How developments in natural language processing help us in understanding human behaviour**, 2024.10 Nature Human Behavior, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-024-01938-0.pdf).\n- **How large language models can reshape collective intelligence**, 2024.09, Nature Human Behavior, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-024-01959-9).\n- **Automated Mining of Structured Knowledge from Text in the Era of Large Language Models**, 2024.08, KDD 2024, [[paper]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3637528.3671469).\n- **Affective Computing in the Era of Large Language Models: A Survey from the NLP Perspective**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04638).\n- **Perils and opportunities in using large language models in psychological research**, 2024.07, [[paper]](https:\u002F\u002Facademic.oup.com\u002Fpnasnexus\u002Farticle\u002F3\u002F7\u002Fpgae245\u002F7712371).\n- **The Potential and Challenges of Evaluating Attitudes, Opinions, and Values in Large Language Models**, 2024.06, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.11096).\n- **Can Generative AI improve social science?**, 2024.05, PNAS, [[paper]](https:\u002F\u002Fwww.pnas.org\u002Fdoi\u002Fpdf\u002F10.1073\u002Fpnas.2314021121).\n- **Foundational Challenges in Assuring Alignment and Safety of Large Language Models**, 2024.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.09932).\n- **Large Language Model based Multi-Agents: A Survey of Progress and Challenges**, 2024.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01680), [[repo]](https:\u002F\u002Fgithub.com\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers).\n- **The Rise and Potential of Large Language Model Based Agents: A Survey**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07864), [[repo]](https:\u002F\u002Fgithub.com\u002FWooooDyy\u002FLLM-Agent-Paper-List).\n- **A Survey on Large Language Model based Autonomous Agents**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11432), [[repo]](https:\u002F\u002Fgithub.com\u002FPaitesanshi\u002FLLM-Agent-Survey).\n- **AI Alignment: A Comprehensive Survey**, 2023.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19852), [[website]](https:\u002F\u002Falignmentsurvey.com\u002F).\n- **Aligning Large Language Models with Human: A Survey**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12966), [[repo]](https:\u002F\u002Fgithub.com\u002FGaryYufei\u002FAlignLLMHumanSurvey).\n- **Large Language Model Alignment: A Survey**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15025).\n- **Large Language Models Empowered Agent-based Modeling and Simulation: A Survey and Perspectives**, 2023.12, Nature humanities and social sciences communications, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.11970).\n- **A Survey on Evaluation of Large Language Models**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03109), [[repo]](https:\u002F\u002Fgithub.com\u002FMLGroupJLU\u002FLLM-eval-survey).\n- **From Instructions to Intrinsic Human Values -- A Survey of Alignment Goals for Big Models**, 2023.08, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12014), [[repo]](https:\u002F\u002Fgithub.com\u002FValueCompass\u002FAlignment-Goal-Survey).\n- **Concerns on the use of generative AI in social science research**, [[website]](https:\u002F\u002Fuh-dcm.github.io\u002Fgenai-concerns\u002F), [[repo]](https:\u002F\u002Fgithub.com\u002Fuh-dcm\u002Fgenai-concerns\u002F)\n\n\n##  2. \u003Ca name='Dataset'>\u003C\u002Fa>🗂️ Dataset\n- **[AI Job Displacement Tracker](https:\u002F\u002Fgithub.com\u002Fnoahaust2\u002Fai-displacement-tracker)** — Structured, source-backed dataset tracking 96 AI-attributed workforce reductions (457K workers affected, 13 countries, 13 sectors). Every entry includes source URLs, attribution tier, and job functions. Available in JSON\u002FCSV under CC-BY-4.0.\n- **[Mental Health Datasets](https:\u002F\u002Fgithub.com\u002Fkharrigian\u002Fmental-health-datasets)**\n- **[Datasets for depression detection using data posted on online platforms](https:\u002F\u002Fgithub.com\u002Fbucuram\u002Fdepression-datasets-nlp)**\n- **Benchmarking Multi-National Value Alignment for Large Language Models**, 2025.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.12911).\n- **COIG-P: A High-Quality and Large-Scale Chinese Preference Dataset for Alignment with Human Values**, 2025.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.05535).\n- **Mind the Value-Action Gap: Do LLMs Act in Alignment with Their Values?**, 2025.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.15463).\n- **The PRISM Alignment Dataset: What Participatory, Representative and Individualised Human Feedback Reveals About the Subjective and Multicultural Alignment of Large Language Models**, NeurIPS 2024 D&B Track best paper, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16019).\n- ⭐️ **ValueBench: Towards Comprehensively Evaluating Value Orientations and Understanding of Large Language Models**, ACL 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04214), [[code]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench).\n- **Automating Dataset Updates Towards Reliable and Timely Evaluation of Large Language Models**, NeurIPS 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11894).\n- https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEDatasetSearch\n- **HATEDAY: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.15462).\n- https:\u002F\u002Flit.eecs.umich.edu\u002Fdownloads.html\n- **COMPO: Community Preferences for Language Model Personalization**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.16027).\n- **Cultural Commonsense Knowledge for Intercultural Dialogues**, CIKM 2024, [[paper]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3627673.3679768), [[dataset]](https:\u002F\u002Fmango.mpi-inf.mpg.de\u002F).\n\n##  3. \u003Ca name='EvaluatingLLM'>\u003C\u002Fa>🔎 Evaluating LLM\n\n###  3.1. \u003Ca name='Value'>\u003C\u002Fa>❤️ Value\n- ⭐️ **Generative Psycho-Lexical Approach for Constructing Value Systems in Large Language Models**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444).\n- ⭐️ **Measuring Human and AI Values Based on Generative Psychometrics with Large Language Models**, AAAI 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12106), [[code]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002Fgpv).\n- ⭐️ **ValueBench: Towards Comprehensively Evaluating Value Orientations and Understanding of Large Language Models**, ACL 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04214), [[code]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench).\n- **Value Profiles for Encoding Human Variation**, 2025.03, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15484).\n- **Value Compass Leaderboard: A Platform for Fundamental and Validated Evaluation of LLMs Values**, 2025.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.07071).\n- **Causal Graph Guided Steering of LLM Values via Prompts and Sparse Autoencoders**, 2025.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.00581).\n- **NORMAD: A Framework for Measuring the Cultural Adaptability of Large Language Models**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.12464).\n- **ValueCompass: A Framework of Fundamental Values for Human-AI Alignment**, 2024.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.09586).\n- **LOCALVALUEBENCH: A Collaboratively Built and Extensible Benchmark for Evaluating Localized Value Alignment and Ethical Safety in Large Language Models**, 2024.08, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.01460).\n- **Stick to your role! Stability of personal values expressed in large language models**, 2024.08, [[paper]](https:\u002F\u002Fjournals.plos.org\u002Fplosone\u002Farticle?id=10.1371\u002Fjournal.pone.0309114).\n- **Raising the Bar: Investigating the Values of Large Language Models via Generative Evolving Testing**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.14230).\n- **Do LLMs have Consistent Values?**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.12878).\n- **CLAVE: An Adaptive Framework for Evaluating Values of LLM Generated Responses**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10725).\n- **Are Large Language Models Consistent over Value-laden Questions?**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.02996).\n- **Beyond Human Norms: Unveiling Unique Values of Large Language Models through Interdisciplinary Approaches**, 2024.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.12744).\n- **Heterogeneous Value Evaluation for Large Language Models**, 2023.03, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17147), [[code]](https:\u002F\u002Fgithub.com\u002Fzowiezhang\u002FA2EHV).\n- **Measuring Value Understanding in Language Models through Discriminator-Critique Gap**, 2023.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00378).\n- **Value FULCRA: Mapping Large Language Models to the Multidimensional Spectrum of Basic Human Values**, 2023.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10766).\n- **Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties**, AAAI24, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00779), [[code]](https:\u002F\u002Fgithub.com\u002Ftsor13\u002Fkaleido).\n- **High-Dimension Human Value Representation in Large Language Models**, 2024.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.07900), [[code]](https:\u002F\u002Fgithub.com\u002FHLTCHKUST\u002FUniVaR).\n\n\n###  3.2. \u003Ca name='Personality'>\u003C\u002Fa>🩷 Personality\n- **R.U.Psycho? Robust Unified Psychometric Testing of Language Models**, 2025.03, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.10229).\n- **Evaluating the ability of large language models to emulate personality**, 2025.01, Nature Scientific Reports, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-84109-5).\n- **Evaluating the efficacy of LLMs to emulate realistic human personalities**, AAAI 2024, [[paper]](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAIIDE\u002Farticle\u002Fview\u002F31867).\n- **Quantifying ai psychology: A psychometrics benchmark for large language models**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.17675).\n\n- **Incharacter: Evaluating personality fidelity in role-playing agents through psychological interviews**, ACL 2024, [[paper]](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.102\u002F), [[code]](https:\u002F\u002Fgithub.com\u002FNeph0s\u002FInCharacter)\n\n- [*MBTI*] **Open Models, Closed Minds? On Agents Capabilities in Mimicking Human Personalities through Open Large Language Models**, 2024.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.07115)\n\n- **Who is ChatGPT? Benchmarking LLMs' Psychological Portrayal Using PsychoBench**, ICLR 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01386), [[code]](https:\u002F\u002Fgithub.com\u002FCUHK-ARISE\u002FPsychoBench)\n\n- [*BFI*] **AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories**, Journal, 2024.01, [[paper]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002Ffull\u002F10.1177\u002F17456916231214460)\n\n- **Does Role-Playing Chatbots Capture the Character Personalities? Assessing Personality Traits for Role-Playing Chatbots**, 2023.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17976)\n\n- [*MBTI*] **Do LLMs Possess a Personality? Making the MBTI Test an Amazing Evaluation for Large Language Models**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16180)\n\n- [*MBTI*] **Can ChatGPT Assess Human Personalities? A General Evaluation Framework**, 2023.03, EMNLP 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01248), [[code]](https:\u002F\u002Fgithub.com\u002FKali-Hac\u002FChatGPT-MBTI).\n\n- [*BFI*] **Personality Traits in Large Language Models**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00184)\n\n- [*BFI*] **Revisiting the Reliability of Psychological Scales on Large Language Models**, 2023.05, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19926)\n\n- [*BFI*] **Systematic Evaluation of GPT-3 for Zero-Shot Personality Estimation**, ACL 2023 workshop, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01183)\n\n\n- [*BFI*] **Have Large Language Models Developed a Personality?: Applicability of Self-Assessment Tests in Measuring Personality in LLMs**, 2023.05, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14693)\n\n- [*BFI*] **Evaluating and Inducing Personality in Pre-trained Language Models**, NeurIPS 2023 (spotlight), [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07550)\n\n\n- [*BFI*] **Identifying and Manipulating the Personality Traits of Language Models**, 2022,12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10276)\n\n- **Who is GPT-3? An Exploration of Personality, Values and Demographics**, 2022.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14338)\n\n- **Does GPT-3 Demonstrate Psychopathy? Evaluating Large Language Models from a Psychological Perspective**, 2022.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10529)\n\n\n###  3.3. \u003Ca name='Morality'>\u003C\u002Fa>🔞 Morality\n- **Revealing the Pragmatic Dilemma for Moral Reasoning Acquisition in Language Models**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.16600).\n- **Normative Evaluation of Large Language Models with Everyday Moral Dilemmas**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.18081).\n- **Investigating machine moral judgement through the Delphi experiment**, Nature Machine Intelligence, 2025.01, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-024-00969-6).\n- **Moral Foundations of Large Language Models**, 2023.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15337).\n- **Exploring the psychology of GPT-4's Moral and Legal Reasoning**, 2023.08, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01264).\n- **Probing the Moral Development of Large Language Models through Defining Issues Test**\n- **Moral Mimicry: Large Language Models Produce Moral Rationalizations Tailored to Political Identity**, 2023.06, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12106)\n- **Evaluating the Moral Beliefs Encoded in LLMs**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14324)\n\n\n###  3.4. \u003Ca name='Opinion'>\u003C\u002Fa>🎤 Opinion\n- **Only a Little to the Left: A Theory-grounded Measure of Political Bias in Large Language Models**, ACL 2025, [[paper]](https:\u002F\u002Faclanthology.org\u002F2025.acl-long.1529.pdf).\n- **Generative AI Meets Open-Ended Survey Responses: Research Participant Use of AI and Homogenization**, 2025.05, Sociological Methods & Research, [[paper]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002F10.1177\u002F00491241251327130).\n- **Machine Bias. How Do Generative Language Models Answer Opinion Polls?**, 2025.04, Sociological Methods & Research, [[paper]](https:\u002F\u002Fdoi.org\u002F10.1177\u002F00491241251330582).\n- **Large language models that replace human participants can harmfully misportray and flatten identity groups**, Nature Machine Intelligence, 2025, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-025-00986-z).\n- **Questioning the Survey Responses of Large Language Models**, NeurIPS 2024 Oral, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07951).\n- **Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models**, ACL 2024, [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16786).\n- **More human than human: measuring ChatGPT political bias**, 2023, [[paper]](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11127-023-01097-2).\n- **Towards Measuring the Representation of Subjective Global Opinions in Language Models**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16388), [[website]](https:\u002F\u002Fllmglobalvalues.anthropic.com\u002F).\n\n###  3.5. \u003Ca name='GeneralPreference'>\u003C\u002Fa>💚 General Preference\n\n- **Diverging Preferences: When do Annotators Disagree and do Models Know?**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.14632).\n\n###  3.6. \u003Ca name='Ability'>\u003C\u002Fa>🧠 Ability \n- **Large Language Model Hacking: Quantifying the Hidden Risks of Using LLMs for Text Annotation**, 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.08825), [[post]](https:\u002F\u002Fx.com\u002Fjoabaum\u002Fstatus\u002F1966454537922793979).\n- **Improving LLM Leaderboards with Psychometrical Methodology**, 2025.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.17200).\n- **AgentSense: Benchmarking Social Intelligence of Language Agents through Interactive Scenarios**, NAACL 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.19346).\n- **A Novel Psychometrics-Based Approach to Developing Professional Competency Benchmark for Large Language Models**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.00045).\n- **Cheating Automatic LLM Benchmarks: Null Models Achieve High Win Rates**, NeurIPS 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.07137).\n- **Replication for Language Models: Problems, Principles, and Best Practice for Political Science**, 2024.10, [[paper]](https:\u002F\u002Farthurspirling.org\u002Fdocuments\u002FBarriePalmerSpirling_TrustMeBro.pdf).\n- **Can Language Models Reason about Individualistic Human Values and Preferences?**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.03868).\n- **Language Models in Sociological Research: An Application to Classifying Large Administrative Data and Measuring Religiosity**, 2021, [[paper]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002Ffull\u002F10.1177\u002F00811750211053370).\n- **Can Large Language Models Transform Computational Social Science?**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03514), [[code]](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FLLMs_for_CSS).\n- **SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.11667.pdf), [[code]](https:\u002F\u002Fwww.sotopia.world\u002F).\n- **Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02124), [[code]](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FMachineSoM).\n- **Playing repeated games with Large Language Models**, 2023.05, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16867).\n- **Machine Psychology: Investigating Emergent Capabilities and Behavior in Large Language Models Using Psychological Methods**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13988).\n- **Using cognitive psychology to understand GPT-3**, 2023.02, PNAS, [[paper]](https:\u002F\u002Fwww.pnas.org\u002Fdoi\u002Ffull\u002F10.1073\u002Fpnas.2218523120?doi=10.1073%2Fpnas.2218523120).\n- **Large language models as a substitute for human experts in annotating political text**, 2024.02, [[paper]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002F10.1177\u002F20531680241236239).\n\n### 3.7. \u003Ca name='Risk'>\u003C\u002Fa>❤️ Risk and Safety\n- **From Lived Experience to Insight: Unpacking the Psychological Risks of Using AI Conversational Agents**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07951).\n- **Exploring Social Desirability Response Bias in Large Language Models: Evidence from GPT-4 Simulations**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.15442).\n- **AIR-Bench 2024: A Safety Benchmark Based on Risk Categories from Regulations and Policies**, 2024.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17436).\n\n##  4. \u003Ca name='Toolenhancement'>\u003C\u002Fa>⚒️ Tool enhancement\n- ⭐️ **Generative Psycho-Lexical Approach for Constructing Value Systems in Large Language Models**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444).\n- ⭐️ **Measuring Human and AI Values Based on Generative Psychometrics with Large Language Models**, AAAI 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12106), [[code]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002Fgpv).\n- **STAMPsy: Towards SpatioTemporal-Aware Mixed-Type Dialogues for Psychological Counseling**, AAAI 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.16674).\n- **Psychogat: A novel psychological measurement paradigm through interactive fiction games with llm agents**, ACL 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12326).\n- **ValueScope: Unveiling Implicit Norms and Values via Return Potential Model of Social Interactions**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.02472).\n- **AI can help humans find common ground in democratic deliberation**, 2024.10, Science, [[paper]](https:\u002F\u002Fwww.science.org\u002Fdoi\u002F10.1126\u002Fscience.adq2852).\n- **PsyDI: Towards a Personalized and Progressively In-depth Chatbot for Psychological Measurements**, 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.03337), [[code]](https:\u002F\u002Fgithub.com\u002Fopendilab\u002FPsyDI).\n- **ChatFive: Enhancing User Experience in Likert Scale Personality Test through Interactive Conversation with LLM Agents**, CUI 2024, [[paper]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3640794.3665572)\n- **LLM Agents for Psychology: A Study on Gamified Assessments**, 2024.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12326).\n- **Generative Social Choice**, 2023.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01291)\n\n##  5. \u003Ca name='Alignment'>\u003C\u002Fa>⛑️ Alignment\n- **Implicit Behavioral Alignment of Language Agents in High-Stakes Crowd Simulations**, EMNLP 2025, [[paper]](https:\u002F\u002Faclanthology.org\u002F2025.emnlp-main.1562\u002F).\n- **COIG-P: A High-Quality and Large-Scale Chinese Preference Dataset for Alignment with Human Values**, 2025.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.05535).\n- ⭐️ **Generative Psycho-Lexical Approach for Constructing Value Systems in Large Language Models**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444).\n- **Optimizing generative AI by backpropagating language model feedback**, Nature, 2025.03, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-025-08661-4).\n- **Position: We Need An Adaptive Interpretation of Helpful, Honest, and Harmless Principles**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.06059).\n- **Scopes of Alignment**, 2025.01, AAAI 2025 workshop, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.12405)\n- **Aligning Large Language Models with Human Opinions through Persona Selection and Value-Belief-Norm Reasoning**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2311.08385).\n- **SafetyAnalyst: Interpretable, transparent, and steerable LLM safety moderation**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.16665).\n- **Moral Alignment for LLM Agents**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.01639).\n- **ProgressGym: Alignment with a Millennium of Moral Progress**, NeurIPS 2024 D&B Track Spotlight, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.20087), [[code]](https:\u002F\u002Fgithub.com\u002FPKU-Alignment\u002FProgressGym).\n- **Strong and weak alignment of large language models with human values**, 2024.08, Nature Scientific Reports, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-70031-3).\n- **STELA: a community-centred approach to norm elicitation for AI alignment**, 2024.03, Nature Scientific Reports, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-56648-4).\n- **A Roadmap to Pluralistic Alignment**, ICML 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05070), [[code]](https:\u002F\u002Fgithub.com\u002Fjfisher52\u002FAI_Pluralistic_Alignment).\n- [*Value*] **What are human values, and how do we align AI to them?**, 2024.04, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.10636).\n- **Agent Alignment in Evolving Social Norms**, 2024.01, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.04620).\n- [*Norm*] **Align on the Fly: Adapting Chatbot Behavior to Established Norms**, 2023.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15907), [[code]](https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FOPO).\n- [*MBTI*] **Machine Mindset: An MBTI Exploration of Large Language Models**, 2023.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.12999), [[code]](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FMachine-Mindset).\n- **Training Socially Aligned Language Models in Simulated Human Society**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16960), [[code]](https:\u002F\u002Fgithub.com\u002Fagi-templar\u002FStable-Alignment).\n- **Fine-tuning language models to find agreement among humans with diverse preferences**, 2022, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15006).\n- **ValueNet: A New Dataset for Human Value Driven Dialogue System**, AAAI 2022, [[paper]](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F21368), [[dataset]](https:\u002F\u002Fliang-qiu.github.io\u002FValueNet\u002F).\n- **Towards Pluralistic Value Alignment: Aggregating Value Systems through ℓp-Regression**, AAMAS 2022 workshop, [[paper]](https:\u002F\u002Fopenaccess.city.ac.uk\u002Fid\u002Feprint\u002F31381\u002F).\n\n###  5.1. \u003Ca name='PluralisticAlignment'>\u003C\u002Fa>🌈 Pluralistic Alignment\n- [*Benchmark*] **Benchmarking Distributional Alignment of Large Language Models**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.05403).\n- **Legal Theory for Pluralistic Alignment**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.17271).\n- **Navigating the Cultural Kaleidoscope: A Hitchhiker's Guide to Sensitivity in Large Language Models**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12880), [[code and data]](https:\u002F\u002Fgithub.com\u002FNeuralSentinel\u002FCulturalKaleidoscope).\n- **PAD: Personalized Alignment at Decoding-Time**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04070).\n- **Policy Prototyping for LLMs: Pluralistic Alignment via Interactive and Collaborative Policymaking**, 2024.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.08622).\n- **Modular Pluralism: Pluralistic Alignment via Multi-LLM Collaboration**, 2024.06, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15951).\n- **Self-Pluralising Culture Alignment for Large Language Models**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12971).\n- **Cultural Palette: Pluralising Culture Alignment via Multi-agent Palette**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.11167).\n\n##  6. \u003Ca name='Simulation'>\u003C\u002Fa>🚀 Simulation\n- **TwinMarket: A Scalable Behavioral and Social Simulation for Financial Markets**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.01506).\n- **AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society**, 2025.02, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.08691), [[code]](https:\u002F\u002Fgithub.com\u002Ftsinghua-fib-lab\u002Fagentsociety\u002F).\n- **Political Actor Agent: Simulating Legislative System for Roll Call Votes Prediction with Large Language Models**, AAAI 2025, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07144).\n- **TrendSim: Simulating Trending Topics in Social Media Under Poisoning Attacks with LLM-based Multi-agent System**, 2024.12, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.12196).\n- **Can Large Language Model Agents Simulate Human Trust Behavior?**, NeurIPS 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04559).\n- **OASIS: Open Agents Social Interaction Simulations on One Million Agents**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.11581), [[code]](https:\u002F\u002Fgithub.com\u002Fcamel-ai\u002Foasis).\n- **Generative Agent Simulations of 1,000 People**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.10109).\n- **Social Science Meets LLMs: How Reliable Are Large Language Models in Social Simulations?**, 2024.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.23426).\n- **Multi-expert Prompting Improves Reliability, Safety, and Usefulness of Large Language Models**, EMNLP 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.00492).\n- **Simulating Opinion Dynamics with Networks of LLM-based Agents**, NAACL Findings 2024, [[paper]](https:\u002F\u002Faclanthology.org\u002F2024.findings-naacl.211.pdf) [[code]](https:\u002F\u002Fgithub.com\u002Fyunshiuan\u002Fllm-agent-opinion-dynamics)\n- **Beyond demographics: Aligning role-playing llm-based agents using human belief networks**, EMNLP Findings 2024, [[paper]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.17232)\n- **The Wisdom of Partisan Crowds: Comparing Collective Intelligence in Humans and LLM-based Agents**, CogSci 2024, [[paper]](https:\u002F\u002Fescholarship.org\u002Fcontent\u002Fqt3k67x8s5\u002Fqt3k67x8s5_noSplash_f34c019b5fef5ecab5b70e30108f787c.pdf)\n- **Large Language Models can Achieve Social Balance**, 2024.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04054).\n- **On the limits of agency in agent-based models**, 2024.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.10568), [[code]](https:\u002F\u002Fgithub.com\u002FAgentTorch\u002FAgentTorch).\n- **United in Diversity? Contextual Biases in LLM-Based Predictions of the 2024 European Parliament Elections**, 2024.09, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.09045).\n- **Out of One, Many: Using Language Models to Simulate Human Samples**, 2022, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06899).\n- **Social Simulacra: Creating Populated Prototypes for Social Computing Systems**, 2022, [[paper]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3526113.3545616).\n- **Generative Agents: Interactive Simulacra of Human Behavior**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03442), [[code]](https:\u002F\u002Fgithub.com\u002Fjoonspk-research\u002Fgenerative_agents).\n- **Using Large Language Models to Simulate Multiple Humans and Replicate Human Subject Studies**, 2023, [[paper]](https:\u002F\u002Fproceedings.mlr.press\u002Fv202\u002Faher23a.html), [[code]](https:\u002F\u002Fgithub.com\u002FGatiAher\u002FUsing-Large-Language-Models-to-Replicate-Human-Subject-Studies).\n- **Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus?**, 2023 [[paper]](https:\u002F\u002Fwww.nber.org\u002Fpapers\u002Fw31122), [[code]](https:\u002F\u002Fgithub.com\u002Fjohnjosephhorton\u002Fhomo_silicus).\n- **$S^3$: Social-network Simulation System with Large Language Model-Empowered Agents**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14984).\n- **Rethinking the Buyer's Inspection Paradox in Information Markets with Language Agents**, 2023, [[paper]](https:\u002F\u002Fopenreview.net\u002Fforum?id=6werMQy1uz).\n- **SocioDojo: Building Lifelong Analytical Agents with Real-world Text and Time Series**, 2023, [[paper]](https:\u002F\u002Fopenreview.net\u002Fforum?id=s9z0HzWJJp).\n- **Humanoid Agents: Platform for Simulating Human-like Generative Agents**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05418), [[code]](https:\u002F\u002Fgithub.com\u002FHumanoidAgents\u002FHumanoidAgents).\n- **When Large Language Model based Agent Meets User Behavior Analysis: A Novel User Simulation Paradigm**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02552), [[code]](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Rec).\n- **Large Language Model-Empowered Agents for Simulating Macroeconomic Activities**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10436).\n- **Generative Agent-Based Modeling: Unveiling Social System Dynamics through Coupling Mechanistic Models with Generative Artificial Intelligence**, 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11456).\n- **Using Imperfect Surrogates for Downstream Inference: Design-based Supervised Learning for Social Science Applications of Large Language Models**, 2023.06, NeurIPS 2023, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04746).\n- **Epidemic Modeling with Generative Agents**, 2023.07, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04986), [[code]](https:\u002F\u002Fgithub.com\u002Fbear96\u002FGABM-Epidemic).\n- **Emergent analogical reasoning in large language models**, 2023.08, nature human behavior, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-023-01659-w).\n- **MetaAgents: Simulating Interactions of Human Behaviors for LLM-based Task-oriented Coordination via Collaborative Generative Agents**, 2023.10, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06500).\n- **War and Peace (WarAgent): Large Language Model-based Multi-Agent Simulation of World Wars**, 2023.11, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17227), [[code]](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FWarAgent).\n- **Emergence of Social Norms in Large Language Model-based Agent Societies**, 2024.03, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.08251), [[code]](https:\u002F\u002Fgithub.com\u002Fsxswz213\u002FCRSEC).\n- **Large Content And Behavior Models To Understand, Simulate, And Optimize Content And Behavior**, ICLR-2024, [[paper]](https:\u002F\u002Fopenreview.net\u002Fforum?id=TrKq4Wlwcz)\n\n##  7. \u003Ca name='Perspective'>\u003C\u002Fa>👁️‍🗨️ Perspective and Position\n- **Position: Simulating Society Requires Simulating Thought**, 2025.06, [[paper]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06958).\n- **The benefits, risks and bounds of personalizing the alignment of large language models to individuals**, 2024.04, Nature Machine Intelligence, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-024-00820-y).\n- **A social path to human-like artificial intelligence**, 2023.11, Nature Machine Intelligence, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-023-00754-x).\n- **Using large language models in psychology**, 2023.10, Nature reviews psychology, [[paper]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs44159-023-00241-5).\n","# 社会科学中的优秀大语言模型\n\n\n\n> **🔗 推荐资源：**  \n> 请查看 [Awesome-LLM-Psychometrics](https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-Psychometrics)，其中汇集了关于大语言模型心理测量学的全面论文和资源，涵盖评估、验证及优化等方面。  \n>  \n\n\n\n\n以下我们整理了一些“优秀”的论文，它们  \n- 从社会科学的视角对大型语言模型（LLMs）进行**评估**。\n- 从社会科学的视角对大型语言模型进行**对齐**。\n- 利用大型语言模型来**促进研究、解决实际问题并改进工具**，应用于社会科学领域。\n- 提供关于上述主题的**综述**、**观点**以及**数据集**。\n\n以上分类并非完全独立。例如，评估通常需要借助模拟方法。我们根据这些论文的核心关注点对其进行分类。本合集特别**聚焦于心理学和内在价值观**。\n\n欢迎各位贡献与讨论！\n\n---\n\n🤩 标有 ⭐️ 的论文由本仓库的维护者提供。如果您觉得这些论文有用，恳请您为本仓库点亮一颗星，并引用我们的论文。\n\n\n```bibtex\n@article{ye2025large,\n  title={大型语言模型心理测量学：评估、验证与优化的系统综述},\n  author={Ye, Haoran and Jin, Jing and Xie, Yuhang and Zhang, Xin and Song, Guojie},\n  journal={arXiv预印本 arXiv:2505.08245},\n  year={2025},\n  note={项目官网：\\url{https:\u002F\u002Fllm-psychometrics.com}, GitHub：\\url{https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-Psychometrics}}\n}\n```\n\n\n---\n\n## 目录\n\n* 1. [📚 综述](#Survey)\n* 2. [🗂️ 数据集](#Dataset)\n* 3. [🔎 评估大语言模型](#EvaluatingLLM)\n\t* 3.1. [❤️ 价值观](#Value)\n\t* 3.2. [🩷 性格特质](#Personality)\n\t* 3.3. [🔞 道德观](#Morality)\n\t* 3.4. [🎤 意见](#Opinion)\n\t* 3.5. [💚 一般偏好](#GeneralPreference)\n\t* 3.6. [🧠 认知能力](#Ability)\n\t* 3.7. [⚠️ 风险](#Risk) \n* 4. [⚒️ 工具改进](#Toolenhancement)\n* 5. [⛑️ 对齐](#Alignment)\n\t* 5.1. [🌈 多元化对齐](#PluralisticAlignment)\n* 6. [🚀 模拟](#Simulation)\n* 7. [👁️‍🗨️ 观点与立场](#Perspective)\n\n\n---\n\n##  1. \u003Ca name='Survey'>\u003C\u002Fa>📚 调查\n- ⭐️ **大语言模型心理测量学：评估、验证与改进的系统综述**, 2025年5月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2505.08245)。\n- **错失边缘：关于大语言模型人口统计代表性的一篇系统文献综述**, ACL 2025, [[论文]](https:\u002F\u002Faclanthology.org\u002F2025.findings-acl.1246\u002F), [[文集]](https:\u002F\u002Fgithub.com\u002FIndiiigo\u002FLLM_rep_review)。\n- **计算社会科学中的大语言模型：前景、现状与挑战**, 2025年3月, 社会网络分析与挖掘, [[论文]](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs13278-025-01428-9)。\n- **迈向科学智能：基于大语言模型的科学代理综述**, 2025年3月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.24047)。\n- **生成式基础模型的可信性：指南、评估与展望**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.14296)。\n- **通往人工超智能之路：超级对齐的全面综述**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.16468)。\n- **大语言模型安全：整体综述**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.17686)。\n- **政治-LLM：大语言模型在政治学中的应用**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.06864), [[网站]](https:\u002F\u002Fpolitical-llm.org\u002F)。\n- **LLMs-as-Judges：基于大语言模型的评估方法综述**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.05579)。\n- **从个体到社会：由大语言模型驱动的智能体进行的社会模拟综述**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.03563), [[仓库]](https:\u002F\u002Fgithub.com\u002FFudanDISC\u002FSocialAgent)。\n- **以人为本的大语言模型综述**, 2024年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.14491)。\n- **语言模型中的文化意识：文本及更广领域**, 2024年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.00860)。\n- **自然语言处理的发展如何帮助我们理解人类行为**, 2024年10月, Nature Human Behavior, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-024-01938-0.pdf)。\n- **大语言模型如何重塑集体智慧**, 2024年9月, Nature Human Behavior, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-024-01959-9)。\n- **大语言模型时代从文本中自动挖掘结构化知识**, 2024年8月, KDD 2024, [[论文]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3637528.3671469)。\n- **大语言模型时代的情感计算：来自自然语言处理视角的综述**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.04638)。\n- **在心理学研究中使用大语言模型的风险与机遇**, 2024年7月, [[论文]](https:\u002F\u002Facademic.oup.com\u002Fpnasnexus\u002Farticle\u002F3\u002F7\u002Fpgae245\u002F7712371)。\n- **在大语言模型中评估态度、观点和价值观的潜力与挑战**, 2024年6月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.11096)。\n- **生成式人工智能能否推动社会科学进步？**, 2024年5月, PNAS, [[论文]](https:\u002F\u002Fwww.pnas.org\u002Fdoi\u002Fpdf\u002F10.1073\u002Fpnas.2314021121)。\n- **确保大语言模型对齐与安全的基础性挑战**, 2024年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.09932)。\n- **基于大语言模型的多智能体：进展与挑战综述**, 2024年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.01680), [[仓库]](https:\u002F\u002Fgithub.com\u002Ftaichengguo\u002FLLM_MultiAgents_Survey_Papers)。\n- **基于大语言模型的智能体的兴起与潜力：综述**, 2023年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.07864), [[仓库]](https:\u002F\u002Fgithub.com\u002FWooooDyy\u002FLLM-Agent-Paper-List)。\n- **基于大语言模型的自主智能体综述**, 2023年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.11432), [[仓库]](https:\u002F\u002Fgithub.com\u002FPaitesanshi\u002FLLM-Agent-Survey)。\n- **AI对齐：全面综述**, 2023年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.19852), [[网站]](https:\u002F\u002Falignmentsurvey.com\u002F)。\n- **大语言模型与人类对齐：综述**, 2023年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.12966), [[仓库]](https:\u002F\u002Fgithub.com\u002FGaryYufei\u002FAlignLLMHumanSurvey)。\n- **大语言模型对齐：综述**, 2023年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.15025)。\n- **大语言模型赋能的基于智能体的建模与仿真：综述与展望**, 2023年12月, Nature人文与社会科学通讯, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.11970)。\n- **大语言模型评估综述**, 2023年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.03109), [[仓库]](https:\u002F\u002Fgithub.com\u002FMLGroupJLU\u002FLLM-eval-survey)。\n- **从指令到内在人类价值观——大型模型对齐目标综述**, 2023年8月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.12014), [[仓库]](https:\u002F\u002Fgithub.com\u002FValueCompass\u002FAlignment-Goal-Survey)。\n- **关于在社会科学研究中使用生成式人工智能的担忧**, [[网站]](https:\u002F\u002Fuh-dcm.github.io\u002Fgenai-concerns\u002F), [[仓库]](https:\u002F\u002Fgithub.com\u002Fuh-dcm\u002Fgenai-concerns\u002F)\n\n##  2. \u003Ca name='Dataset'>\u003C\u002Fa>🗂️ 数据集\n- **[AI岗位替代追踪器](https:\u002F\u002Fgithub.com\u002Fnoahaust2\u002Fai-displacement-tracker)** — 结构化、有来源支持的数据集，跟踪了96起与AI相关的裁员事件（涉及45.7万名员工，覆盖13个国家和13个行业）。每条记录包括来源网址、归因层级和职位职能。以JSON\u002FCSV格式提供，采用CC-BY-4.0许可。\n- **[心理健康数据集](https:\u002F\u002Fgithub.com\u002Fkharrigian\u002Fmental-health-datasets)**\n- **[用于检测抑郁症的在线平台数据集](https:\u002F\u002Fgithub.com\u002Fbucuram\u002Fdepression-datasets-nlp)**\n- **大型语言模型的跨国价值对齐基准测试**, 2025年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.12911)。\n- **COIG-P：高质量、大规模的中文偏好数据集，用于与人类价值观对齐**, 2025年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.05535)。\n- **关注价值与行动的差距：大型语言模型的行为与其价值观一致吗？**, 2025年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.15463)。\n- **PRISM对齐数据集：参与式、代表性及个性化的用户反馈揭示了大型语言模型在主观性和跨文化对齐方面的表现**, NeurIPS 2024 D&B赛道最佳论文, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.16019)。\n- ⭐️ **ValueBench：迈向全面评估大型语言模型的价值取向与理解能力**, ACL 2024, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04214), [[代码]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench)。\n- **自动化数据集更新，实现对大型语言模型的可靠及时评估**, NeurIPS 2024, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.11894)。\n- https:\u002F\u002Fgithub.com\u002FCLUEbenchmark\u002FCLUEDatasetSearch\n- **HATEDAY：基于Twitter上某一天代表性仇恨言论数据集的洞察**, 2024年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.15462)。\n- https:\u002F\u002Flit.eecs.umich.edu\u002Fdownloads.html\n- **COMPO：面向语言模型个性化定制的社区偏好数据集**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2410.16027)。\n- **用于跨文化对话的文化常识知识库**, CIKM 2024, [[论文]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fpdf\u002F10.1145\u002F3627673.3679768), [[数据集]](https:\u002F\u002Fmango.mpi-inf.mpg.de\u002F)。\n\n##  3. \u003Ca name='EvaluatingLLM'>\u003C\u002Fa>🔎 评估大语言模型\n\n###  3.1. \u003Ca name='Value'>\u003C\u002Fa>❤️ 价值观\n- ⭐️ **基于生成心理词典法构建大型语言模型中的价值体系**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444)。\n- ⭐️ **利用大型语言模型的生成心理测量技术评估人类与AI的价值观**, AAAI 2025, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12106), [[代码]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002Fgpv)。\n- ⭐️ **ValueBench：迈向全面评估大型语言模型的价值取向与理解能力**, ACL 2024, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.04214), [[代码]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench)。\n- **用于编码人类差异性的价值观画像**, 2025年3月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.15484)。\n- **Value Compass排行榜：一个用于基础且经过验证的大型语言模型价值观评估平台**, 2025年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.07071)。\n- **通过提示和稀疏自编码器引导大型语言模型价值观的因果图方法**, 2025年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.00581)。\n- **NORMAD：衡量大型语言模型文化适应性的框架**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.12464)。\n- **ValueCompass：用于人机对齐的基本价值观框架**, 2024年9月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.09586)。\n- **LOCALVALUEBENCH：一个协作构建且可扩展的基准，用于评估大型语言模型的本地化价值对齐与伦理安全性**, 2024年8月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.01460)。\n- **坚守你的角色！大型语言模型中表达的个人价值观的稳定性**, 2024年8月, [[论文]](https:\u002F\u002Fjournals.plos.org\u002Fplosone\u002Farticle?id=10.1371\u002Fjournal.pone.0309114)。\n- **提升标准：通过生成式进化测试探究大型语言模型的价值观**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.14230)。\n- **大型语言模型的价值观是否一致？**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.12878)。\n- **CLAVE：评估大型语言模型生成回复价值的自适应框架**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.10725)。\n- **大型语言模型在涉及价值观的问题上是否保持一致性？**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.02996)。\n- **超越人类规范：通过跨学科方法揭示大型语言模型的独特价值观**, 2024年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.12744)。\n- **针对大型语言模型的异质性价值观评估**, 2023年3月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.17147), [[代码]](https:\u002F\u002Fgithub.com\u002Fzowiezhang\u002FA2EHV)。\n- **通过判别器—批评者差距衡量语言模型的价值理解程度**, 2023年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00378)。\n- **价值FULCRA：将大型语言模型映射到基本人类价值观的多维光谱中**, 2023年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.10766)。\n- **价值万花筒：让AI融入多元的人类价值观、权利与义务**, AAAI24, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.00779), [[代码]](https:\u002F\u002Fgithub.com\u002Ftsor13\u002Fkaleido)。\n- **大型语言模型中的高维人类价值观表示**, 2024年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.07900), [[代码]](https:\u002F\u002Fgithub.com\u002FHLTCHKUST\u002FUniVaR)。\n\n### 3.2. \u003Ca name='Personality'>\u003C\u002Fa>🩷 性格\n- **R.U.Psycho? 语言模型的稳健统一心理测量测试**, 2025年3月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2503.10229)。\n- **评估大型语言模型模拟人格的能力**, 2025年1月, Nature Scientific Reports, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-84109-5)。\n- **评估LLM模拟真实人类人格的有效性**, AAAI 2024, [[论文]](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAIIDE\u002Farticle\u002Fview\u002F31867)。\n- **量化AI心理学：大型语言模型的心理测量基准**, 2024年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.17675)。\n\n- **Incharacter: 通过心理访谈评估角色扮演智能体的人格保真度**, ACL 2024, [[论文]](https:\u002F\u002Faclanthology.org\u002F2024.acl-long.102\u002F), [[代码]](https:\u002F\u002Fgithub.com\u002FNeph0s\u002FInCharacter)\n\n- [*MBTI*] **开放模型，封闭心智？关于通过开源大型语言模型模仿人类人格的能力**, 2024年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.07115)\n\n- **ChatGPT是谁？利用PsychoBench基准测试LLM的心理画像**, ICLR 2024, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.01386), [[代码]](https:\u002F\u002Fgithub.com\u002FCUHK-ARISE\u002FPsychoBench)\n\n- [*BFI*] **AI心理测量：通过心理测量量表评估大型语言模型的心理特征**, 学术期刊, 2024年1月, [[论文]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002Ffull\u002F10.1177\u002F17456916231214460)\n\n- **角色扮演聊天机器人能否捕捉人物性格？对角色扮演聊天机器人人格特质的评估**, 2023年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.17976)\n\n- [*MBTI*] **LLM是否具有人格？将MBTI测试作为大型语言模型的绝佳评估工具**, 2023年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.16180)\n\n- [*MBTI*] **ChatGPT能否评估人类人格？一种通用评估框架**, 2023年3月, EMNLP 2023, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.01248), [[代码]](https:\u002F\u002Fgithub.com\u002FKali-Hac\u002FChatGPT-MBTI)。\n\n- [*BFI*] **大型语言模型中的人格特质**, 2023年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.00184)\n\n- [*BFI*] **重新审视心理量表在大型语言模型上的可靠性**, 2023年5月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.19926)\n\n- [*BFI*] **系统性评估GPT-3进行零样本人格估计的能力**, ACL 2023研讨会, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.01183)\n\n\n- [*BFI*] **大型语言模型是否已形成人格？自我评估测试在LLM人格测量中的适用性**, 2023年5月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.14693)\n\n- [*BFI*] **预训练语言模型中人格的评估与诱导**, NeurIPS 2023（亮点论文）, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2206.07550)\n\n\n- [*BFI*] **识别和操纵语言模型的人格特质**, 2022年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10276)\n\n- **GPT-3是谁？对人格、价值观和人口统计特征的探索**, 2022年9月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.14338)\n\n- **GPT-3是否表现出精神病态？从心理学角度评估大型语言模型**, 2022年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2212.10529)\n\n\n### 3.3. \u003Ca name='Morality'>\u003C\u002Fa>🔞 道德\n- **揭示语言模型道德推理习得中的实用主义困境**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.16600)。\n- **使用日常道德困境对大型语言模型进行规范性评估**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.18081)。\n- **通过德尔菲法研究机器的道德判断**, Nature Machine Intelligence, 2025年1月, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-024-00969-6)。\n- **大型语言模型的道德基础**, 2023年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.15337)。\n- **探索GPT-4的道德与法律推理心理机制**, 2023年8月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2308.01264)。\n- **通过“定义问题”测试探究大型语言模型的道德发展**\n- **道德模仿：大型语言模型会根据政治身份生成定制化的道德论证**, 2023年6月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.12106)\n- **评估LLM中编码的道德信念**, 2023年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14324)\n\n\n### 3.4. \u003Ca name='Opinion'>\u003C\u002Fa>🎤 意见\n- **仅略偏左：基于理论的大型语言模型政治偏见衡量方法**, ACL 2025, [[论文]](https:\u002F\u002Faclanthology.org\u002F2025.acl-long.1529.pdf)。\n- **生成式AI与开放式问卷回答：研究参与者对AI的使用及其同质化效应**, 2025年5月, Sociological Methods & Research, [[论文]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002F10.1177\u002F00491241251327130)。\n- **机器偏见。生成式语言模型如何回答民意调查？**, 2025年4月, Sociological Methods & Research, [[论文]](https:\u002F\u002Fdoi.org\u002F10.1177\u002F00491241251330582)。\n- **替代人类参与者的大型语言模型可能会有害地歪曲和扁平化身份群体**, Nature Machine Intelligence, 2025年, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-025-00986-z)。\n- **质疑大型语言模型的问卷回答**, NeurIPS 2024口头报告, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.07951)。\n- **政治罗盘还是旋转指针？迈向更有效的大型语言模型价值观和意见评估**, ACL 2024, [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.16786)。\n- **比人类更像人类：测量ChatGPT的政治偏见**, 2023年, [[论文]](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002Fs11127-023-01097-2)。\n- **迈向衡量语言模型中主观全球意见的代表性**, 2023年7月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.16388), [[网站]](https:\u002F\u002Fllmglobalvalues.anthropic.com\u002F)。\n\n### 3.5. \u003Ca name='GeneralPreference'>\u003C\u002Fa>💚 一般偏好\n\n- **分歧的偏好：标注者何时意见不一致，模型又是否知晓？**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.14632)。\n\n### 3.6. \u003Ca name='Ability'>\u003C\u002Fa>🧠 能力\n- **大型语言模型黑客攻击：量化使用LLM进行文本标注的隐藏风险**，2025年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2509.08825)，[[推文]](https:\u002F\u002Fx.com\u002Fjoabaum\u002Fstatus\u002F1966454537922793979)。\n- **基于心理测量学方法改进LLM排行榜**，2025年1月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.17200)。\n- **AgentSense：通过交互式场景基准测试语言代理的社会智能**，NAACL 2025，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.19346)。\n- **一种基于心理测量学的新方法：为大型语言模型开发专业能力基准**，2024年11月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.00045)。\n- **欺骗自动LLM基准测试：零模型获得高胜率**，NeurIPS 2024，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.07137)。\n- **语言模型的可重复性研究：政治科学中的问题、原则与最佳实践**，2024年10月，[[论文]](https:\u002F\u002Farthurspirling.org\u002Fdocuments\u002FBarriePalmerSpirling_TrustMeBro.pdf)。\n- **语言模型能否推理个人主义的人类价值观和偏好？**，2024年10月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.03868)。\n- **语言模型在社会学研究中的应用：以分类大型行政数据和测量宗教性为例**，2021年，[[论文]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002Ffull\u002F10.1177\u002F00811750211053370)。\n- **大型语言模型能否变革计算社会科学？**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.03514)，[[代码]](https:\u002F\u002Fgithub.com\u002FSALT-NLP\u002FLLMs_for_CSS)。\n- **SOTOPIA：语言代理社会智能的交互式评估**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.11667.pdf)，[[代码]](https:\u002F\u002Fwww.sotopia.world\u002F)。\n- **探索LLM代理的合作机制：社会心理学视角**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.02124)，[[代码]](https:\u002F\u002Fgithub.com\u002Fzjunlp\u002FMachineSoM)。\n- **与大型语言模型玩重复博弈**，2023年5月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16867)。\n- **机器心理学：利用心理学方法探究大型语言模型中的涌现能力与行为**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2303.13988)。\n- **用认知心理学理解GPT-3**，2023年2月，PNAS，[[论文]](https:\u002F\u002Fwww.pnas.org\u002Fdoi\u002Ffull\u002F10.1073\u002Fpnas.2218523120?doi=10.1073%2Fpnas.2218523120)。\n- **大型语言模型作为政治文本标注中人类专家的替代品**，2024年2月，[[论文]](https:\u002F\u002Fjournals.sagepub.com\u002Fdoi\u002F10.1177\u002F20531680241236239)。\n\n### 3.7. \u003Ca name='Risk'>\u003C\u002Fa>❤️ 风险与安全\n- **从生活经验到洞见：剖析使用AI对话代理的心理风险**，2024年12月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07951)。\n- **探索大型语言模型中的社会期望反应偏差：来自GPT-4模拟的证据**，2024年10月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.15442)。\n- **AIR-Bench 2024：基于法规政策中风险类别的安全基准**，2024年7月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.17436)。\n\n## 4. \u003Ca name='Toolenhancement'>\u003C\u002Fa>⚒️ 工具增强\n- ⭐️ **用于构建大型语言模型价值体系的生成式心理词汇学方法**，2025年2月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444)。\n- ⭐️ **基于生成式心理测量学的大语言模型人与AI价值观测量**，AAAI 2025，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.12106)，[[代码]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002Fgpv)。\n- **STAMPsy：迈向具有时空感知的混合类型心理咨询对话**，AAAI 2025，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.16674)。\n- **Psychogat：通过与LLM代理的互动式小说游戏实现的一种新型心理测量范式**，ACL 2024，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12326)。\n- **ValueScope：通过社会互动的回报潜力模型揭示隐性规范与价值观**，2024年10月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2407.02472)。\n- **AI可以帮助人类在民主协商中找到共同点**，2024年10月，Science，[[论文]](https:\u002F\u002Fwww.science.org\u002Fdoi\u002F10.1126\u002Fscience.adq2852)。\n- **PsyDI：迈向个性化且逐步深入的心理测量聊天机器人**，2024年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.03337)，[[代码]](https:\u002F\u002Fgithub.com\u002Fopendilab\u002FPsyDI)。\n- **ChatFive：通过与LLM代理的交互式对话提升李克特量表人格测试的用户体验**，CUI 2024，[[论文]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3640794.3665572)。\n- **心理学领域的LLM代理：关于游戏化评估的研究**，2024年2月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.12326)。\n- **生成式社会选择**，2023年9月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.01291)\n\n##  5. \u003Ca name='Alignment'>\u003C\u002Fa>⛑️ 对齐\n- **高风险人群模拟中语言代理的隐式行为对齐**, EMNLP 2025, [[论文]](https:\u002F\u002Faclanthology.org\u002F2025.emnlp-main.1562\u002F)。\n- **COIG-P：用于与人类价值观对齐的高质量大规模中文偏好数据集**, 2025年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2504.05535)。\n- ⭐️ **用于在大型语言模型中构建价值体系的生成式心理词汇方法**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.02444)。\n- **通过反向传播语言模型反馈优化生成式AI**, Nature, 2025年3月, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41586-025-08661-4)。\n- **观点：我们需要对“有益、诚实、无害”原则进行自适应解读**, 2025年2月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.06059)。\n- **对齐的范围**, 2025年1月, AAAI 2025研讨会, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2501.12405)。\n- **通过人格选择与价值—信念—规范推理将大型语言模型与人类意见对齐**, 2024年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2311.08385)。\n- **SafetyAnalyst：可解释、透明且可控的LLM安全审核工具**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.16665)。\n- **面向LLM代理的道德对齐**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.01639)。\n- **ProgressGym：与千年道德进步对齐**, NeurIPS 2024 D&B赛道亮点, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.20087), [[代码]](https:\u002F\u002Fgithub.com\u002FPKU-Alignment\u002FProgressGym)。\n- **大型语言模型与人类价值观的强弱对齐**, 2024年8月, Nature Scientific Reports, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-70031-3)。\n- **STELA：以社区为中心的AI对齐规范 elicitation 方法**, 2024年3月, Nature Scientific Reports, [[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41598-024-56648-4)。\n- **多元主义对齐路线图**, ICML 2024, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.05070), [[代码]](https:\u002F\u002Fgithub.com\u002Fjfisher52\u002FAI_Pluralistic_Alignment)。\n- [*价值*] **什么是人类价值观？我们如何使AI与之对齐？**, 2024年4月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2404.10636)。\n- **演化社会规范中的代理对齐**, 2024年1月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2401.04620)。\n- [*规范*] **即时对齐：将聊天机器人行为调整为既定规范**, 2023年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.15907), [[代码]](https:\u002F\u002Fgithub.com\u002FGAIR-NLP\u002FOPO)。\n- [*MBTI*] **机器心智：大型语言模型的MBTI探索**, 2023年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2312.12999), [[代码]](https:\u002F\u002Fgithub.com\u002FPKU-YuanGroup\u002FMachine-Mindset)。\n- **在模拟人类社会中训练社会对齐的语言模型**, 2023年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2305.16960), [[代码]](https:\u002F\u002Fgithub.com\u002Fagi-templar\u002FStable-Alignment)。\n- **微调语言模型以在具有不同偏好的人类之间达成共识**, 2022年, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2211.15006)。\n- **ValueNet：用于人类价值驱动对话系统的全新数据集**, AAAI 2022, [[论文]](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FAAAI\u002Farticle\u002Fview\u002F21368), [[数据集]](https:\u002F\u002Fliang-qiu.github.io\u002FValueNet\u002F)。\n- **迈向多元主义价值对齐：通过ℓp回归聚合价值体系**, AAMAS 2022研讨会, [[论文]](https:\u002F\u002Fopenaccess.city.ac.uk\u002Fid\u002Feprint\u002F31381\u002F)。\n\n###  5.1. \u003Ca name='PluralisticAlignment'>\u003C\u002Fa>🌈 多元主义对齐\n- [*基准测试*] **大型语言模型分布式对齐的基准测试**, 2024年11月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.05403)。\n- **多元主义对齐的法律理论**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.17271)。\n- **穿越文化万花筒：大型语言模型敏感性指南**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12880), [[代码和数据]](https:\u002F\u002Fgithub.com\u002FNeuralSentinel\u002FCulturalKaleidoscope)。\n- **PAD：解码时的个性化对齐**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04070)。\n- **LLM政策原型设计：通过互动与协作的政策制定实现多元主义对齐**, 2024年9月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.08622)。\n- **模块化多元主义：通过多LLM协作实现多元主义对齐**, 2024年6月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2406.15951)。\n- **大型语言模型的自我多元文化对齐**, 2024年10月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.12971)。\n- **文化调色板：通过多智能体调色板实现文化多元主义对齐**, 2024年12月, [[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.11167)。\n\n##  6. \u003Ca name='Simulation'>\u003C\u002Fa>🚀 模拟\n- **TwinMarket：面向金融市场的可扩展行为与社会模拟系统**，2025年2月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.01506)。\n- **AgentSociety：由大语言模型驱动的生成式智能体的大规模社会模拟，推动对人类行为和社会的理解**，2025年2月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2502.08691)，[[代码]](https:\u002F\u002Fgithub.com\u002Ftsinghua-fib-lab\u002Fagentsociety\u002F)。\n- **政治行动者智能体：基于大型语言模型的点名投票预测立法系统模拟**，AAAI 2025，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.07144)。\n- **TrendSim：基于LLM多智能体系统的社交媒体热点话题中毒攻击模拟**，2024年12月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2412.12196)。\n- **大型语言模型智能体能否模拟人类信任行为？**，NeurIPS 2024，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2402.04559)。\n- **OASIS：百万级智能体的开放社会交互模拟**，2024年11月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.11581)，[[代码]](https:\u002F\u002Fgithub.com\u002Fcamel-ai\u002Foasis)。\n- **1000人的生成式智能体模拟**，2024年11月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2411.10109)。\n- **社会科学与大语言模型：大语言模型在社会模拟中的可靠性如何？**，2024年11月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.23426)。\n- **多专家提示提升大语言模型的可靠性、安全性与实用性**，EMNLP 2024，[[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2411.00492)。\n- **基于LLM智能体网络的观点动力学模拟**，NAACL Findings 2024，[[论文]](https:\u002F\u002Faclanthology.org\u002F2024.findings-naacl.211.pdf) [[代码]](https:\u002F\u002Fgithub.com\u002Fyunshiuan\u002Fllm-agent-opinion-dynamics)。\n- **超越人口统计学：利用人类信念网络对齐角色扮演型LLM智能体**，EMNLP Findings 2024，[[论文]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2406.17232)。\n- **党派性群体的智慧：比较人类与LLM智能体的集体智慧**，CogSci 2024，[[论文]](https:\u002F\u002Fescholarship.org\u002Fcontent\u002Fqt3k67x8s5\u002Fqt3k67x8s5_noSplash_f34c019b5fef5ecab5b70e30108f787c.pdf)。\n- **大型语言模型可以实现社会平衡**，2024年10月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2410.04054)。\n- **基于智能体模型中代理性的局限性**，2024年9月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.10568)，[[代码]](https:\u002F\u002Fgithub.com\u002FAgentTorch\u002FAgentTorch)。\n- **多元一体？基于LLM的2024年欧洲议会选举预测中的情境偏差**，2024年9月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.09045)。\n- **从一到多：利用语言模型模拟人类样本**，2022年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2209.06899)。\n- **社会模拟器：为社会计算系统创建带有人群的原型**，2022年，[[论文]](https:\u002F\u002Fdl.acm.org\u002Fdoi\u002Fabs\u002F10.1145\u002F3526113.3545616)。\n- **生成式智能体：人类行为的交互式模拟**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2304.03442)，[[代码]](https:\u002F\u002Fgithub.com\u002Fjoonspk-research\u002Fgenerative_agents)。\n- **利用大型语言模型模拟多人并复现人类受试者研究**，2023年，[[论文]](https:\u002F\u002Fproceedings.mlr.press\u002Fv202\u002Faher23a.html)，[[代码]](https:\u002F\u002Fgithub.com\u002FGatiAher\u002FUsing-Large-Language-Models-to-Replicate-Human-Subject-Studies)。\n- **作为模拟经济主体的大语言模型：我们能从“硅质人”身上学到什么？**，2023年，[[论文]](https:\u002F\u002Fwww.nber.org\u002Fpapers\u002Fw31122)，[[代码]](https:\u002F\u002Fgithub.com\u002Fjohnjosephhorton\u002Fhomo_silicus)。\n- **$S^3$：基于大语言模型赋能智能体的社会网络模拟系统**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.14984)。\n- **用语言智能体重新思考信息市场中的买方检验悖论**，2023年，[[论文]](https:\u002F\u002Fopenreview.net\u002Fforum?id=6werMQy1uz)。\n- **SocioDojo：利用真实文本和时间序列构建终身分析型智能体**，2023年，[[论文]](https:\u002F\u002Fopenreview.net\u002Fforum?id=s9z0HzWJJp)。\n- **Humanoid Agents：用于模拟类人生成式智能体的平台**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.05418)，[[代码]](https:\u002F\u002Fgithub.com\u002FHumanoidAgents\u002FHumanoidAgents)。\n- **当基于大语言模型的智能体遇到用户行为分析时：一种新型用户模拟范式**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.02552)，[[代码]](https:\u002F\u002Fgithub.com\u002FRUC-GSAI\u002FYuLan-Rec)。\n- **用于模拟宏观经济活动的大语言模型赋能智能体**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.10436)。\n- **基于生成式智能体的建模：通过将机制模型与生成式人工智能耦合揭示社会系统动态**，2023年，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2309.11456)。\n- **使用不完美替代物进行下游推断：面向社会科学应用的大语言模型设计导向监督学习**，2023年6月，NeurIPS 2023，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2306.04746)。\n- **基于生成式智能体的流行病学建模**，2023年7月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2307.04986)，[[代码]](https:\u002F\u002Fgithub.com\u002Fbear96\u002FGABM-Epidemic)。\n- **大型语言模型中的涌现式类比推理**，2023年8月，Nature Human Behavior，[[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41562-023-01659-w)。\n- **MetaAgents：通过协作式生成式智能体模拟人类行为互动，以支持基于LLM的任务导向协调**，2023年10月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.06500)。\n- **战争与和平（WarAgent）：基于大语言模型的世界大战多智能体模拟**，2023年11月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2311.17227)，[[代码]](https:\u002F\u002Fgithub.com\u002Fagiresearch\u002FWarAgent)。\n- **大型语言模型智能体社会中的社会规范涌现**，2024年3月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2403.08251)，[[代码]](https:\u002F\u002Fgithub.com\u002Fsxswz213\u002FCRSEC)。\n- **大型内容与行为模型：用于理解、模拟和优化内容与行为**，ICLR-2024，[[论文]](https:\u002F\u002Fopenreview.net\u002Fforum?id=TrKq4Wlwcz)。\n\n##  7. \u003Ca name='Perspective'>\u003C\u002Fa>👁️‍🗨️ 观点与立场\n- **立场：模拟社会需要模拟思维**，2025年6月，[[论文]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2506.06958)。\n- **个性化大型语言模型以适应个体的好处、风险与界限**，2024年4月，Nature Machine Intelligence，[[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-024-00820-y)。\n- **通往类人人工智能的社会路径**，2023年11月，Nature Machine Intelligence，[[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs42256-023-00754-x)。\n- **在心理学中使用大型语言模型**，2023年10月，Nature Reviews Psychology，[[论文]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs44159-023-00241-5)。","# Awesome-LLM-in-Social-Science 快速上手指南\n\n`Awesome-LLM-in-Social-Science` 并非一个可直接安装运行的软件包或 Python 库，而是一个**精选论文、数据集和开源项目的资源列表**。它旨在帮助研究者从社会科学（特别是心理学和价值观）的角度评估、对齐大语言模型（LLM），或利用 LLM 辅助社会科学研究。\n\n本指南将指导你如何获取该资源列表，并快速找到所需的研究论文代码与数据集。\n\n## 1. 环境准备\n\n由于本项目主要是资源索引，无需特定的运行时环境。但为了运行列表中引用的具体研究代码，建议准备以下基础环境：\n\n*   **操作系统**: Linux, macOS 或 Windows\n*   **版本控制**: 已安装 `git`\n*   **编程语言**: Python 3.8+ (大多数关联项目基于 Python)\n*   **依赖管理**: `pip` 或 `conda`\n*   **硬件要求**: 取决于你具体运行的子项目。若仅需浏览论文和下载数据，普通电脑即可；若需复现模型评估或训练，建议配备 NVIDIA GPU。\n\n## 2. 安装步骤（获取资源列表）\n\n通过克隆 GitHub 仓库来获取最新的资源列表和本地文档。\n\n```bash\n# 克隆仓库到本地\ngit clone https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science.git\n\n# 进入项目目录\ncd Awesome-LLM-in-Social-Science\n```\n\n> **提示**：如果在国内访问 GitHub 速度较慢，可使用国内镜像加速（如使用 Gitee 镜像或配置代理），或者直接在线浏览 README 文件。\n\n## 3. 基本使用\n\n本项目的核心用法是**查阅分类列表**并**跳转至具体的子项目**。以下是典型的使用流程：\n\n### 3.1 浏览分类资源\n打开本地的 `README.md` 文件或直接在 GitHub 页面查看目录结构。资源按以下维度分类：\n*   **📚 Survey**: 综述文章（如 LLM 心理测量学综述）。\n*   **🗂️ Dataset**: 社会科学相关数据集（如价值观对齐数据、心理健康数据）。\n*   **🔎 Evaluating LLM**: 评估方法（涵盖价值观、人格、道德、观点等）。\n*   **⛑️ Alignment**: 对齐技术（如多元文化对齐）。\n*   **🚀 Simulation**: 基于 Agent 的社会模拟。\n\n### 3.2 获取具体工具或数据\n假设你需要一个用于评估 LLM 价值观的工具（例如列表中的 **ValueBench**）：\n\n1.  在列表中定位到 `3.1. Value` 章节。\n2.  找到目标项目链接（例如 `[[code]](https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench)`）。\n3.  点击链接或手动克隆该**子项目**仓库：\n\n```bash\n# 示例：克隆具体的评估工具 ValueBench (以实际链接为准)\ngit clone https:\u002F\u002Fgithub.com\u002FValue4AI\u002FValueBench.git\ncd ValueBench\n\n# 安装该具体工具的依赖\npip install -r requirements.txt\n```\n\n### 3.3 引用与贡献\n如果你在研究中使用了该列表推荐的资源（特别是标记为 ⭐️ 的项目），建议在论文中引用其核心综述文章：\n\n```bibtex\n@article{ye2025large,\n  title={Large Language Model Psychometrics: A Systematic Review of Evaluation, Validation, and Enhancement},\n  author={Ye, Haoran and Jin, Jing and Xie, Yuhang and Zhang, Xin and Song, Guojie},\n  journal={arXiv preprint arXiv:2505.08245},\n  year={2025}\n}\n```\n\n如需贡献新的论文或资源，请直接在该仓库提交 Pull Request 或发起 Issue 讨论。","某高校社会学研究团队正致力于评估大语言模型在不同文化背景下的道德判断偏差，以构建更公平的 AI 伦理框架。\n\n### 没有 Awesome-LLM-in-Social-Science 时\n- **文献检索如大海捞针**：研究人员需在 arXiv、ACL 等多个数据库手动筛选，难以区分哪些论文真正从社会科学视角（如心理学、价值观）评估了模型。\n- **缺乏系统性分类**：找到的资料杂乱无章，无法快速定位关于“道德对齐”或“人格模拟”的专项研究，导致理论框架搭建缓慢。\n- **关键数据源缺失**：难以发现专门用于社会科学研究的高质量数据集，往往需要自行设计问卷并花费数月收集数据。\n- **前沿动态滞后**：容易错过关于“多元对齐”或“社会模拟代理”的最新综述，导致研究起点落后于国际前沿水平。\n\n### 使用 Awesome-LLM-in-Social-Science 后\n- **精准锁定核心文献**：直接通过\"Morality\"和\"Value\"分类标签，瞬间获取经过筛选的顶会论文，将文献调研时间从数周缩短至几天。\n- **清晰的研究脉络**：利用其独特的分类体系（如评估、对齐、工具增强），快速理清大模型在社会科学中的应用逻辑，高效构建理论模型。\n- **即用型数据资源**：直接从\"Dataset\"板块找到已开源的文化意识与道德判断数据集，立即启动实验验证，无需重复造轮子。\n- **紧跟学术最前沿**：通过收录的最新综述（如 LLM 心理测量学系统回顾），迅速掌握评估方法论的最新标准，确保研究设计的科学性。\n\nAwesome-LLM-in-Social-Science 将原本分散的社会科学 AI 研究资源整合为一张清晰的导航图，让跨学科研究者能专注于创新而非检索。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FValueByte-AI_Awesome-LLM-in-Social-Science_e7f6affa.png","ValueByte-AI","ValueByte AI @ PKU","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FValueByte-AI_c3aad6fb.jpg","",null,"https:\u002F\u002Fgithub.com\u002FValueByte-AI",601,46,"2026-04-01T17:07:06","MIT",1,"未说明",{"notes":88,"python":86,"dependencies":89},"该仓库是一个论文和资源列表（Awesome List），并非可执行的软件工具或代码库，因此没有特定的操作系统、GPU、内存、Python 版本或依赖库要求。用户只需通过浏览器查看列表或访问链接下载相关论文和数据集。部分列出的子项目（如 ValueBench）可能有独立的环境需求，需参考其各自的 GitHub 仓库。",[],[26,15,54],[92,93,94,95,96,97,98,99,100,101,102],"large-language-models","llm-agent","llms","simulation-environment","social-science","alignment","economics","llm-evaluation","policy","psychology","social-network","2026-03-27T02:49:30.150509","2026-04-06T07:15:05.028743",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},14744,"如何向该列表推荐新的学术论文或资源？","您可以直接在 GitHub 上提交 Pull Request (PR)。维护者建议用户自行打开 PR，并将论文插入到您认为最合适的分类位置。如果您不确定具体位置，也可以先提交 Issue 进行讨论。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F5",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},14745,"该仓库主要收录学术论文还是应用程序（App）？","该收藏列表主要专注于收录“学术论文”（academic papers），而不是交互式网络应用程序（interactive web apps）。如果您的项目是应用而非研究论文，可能不符合收录标准。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F14",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},14746,"关于 LLM 在文本标注中潜在风险的论文应该归类到哪里？","此类探讨 LLM 能力局限性或风险（如“使用 LLM 进行文本标注可产生任意科学结果”）的论文，通常适合添加到“能力”（ability）相关的章节中。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F10",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},14747,"关于 LLM 人口统计学代表性或政治偏见的综述论文应归入哪一类？","系统性文献综述（Systematic Literature Review）类论文建议归入“综述”（Surveys）类别；而关于政治偏见测量等特定观点的研究则适合归入“观点”（Opinion）类别。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F9",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},14748,"涉及情感计算（Affective Computing）与 LLM 结合的论文是否值得收录？","是的，这类论文非常有价值。特别是那些从 NLP 角度概述 LLM 在情感识别、情绪分析等任务中应用的综述或研究，能够填补大模型与社会科学研究中情感计算领域的空白，会被优先收录。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F3",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},14749,"提交建议后通常需要多久能被处理？","维护者通常会尽快（ASAP）处理添加请求。如果回复稍晚，通常是因为正在审核内容，一旦确认符合主题（如社会科学中的 LLM 应用），就会立即添加到集合中。","https:\u002F\u002Fgithub.com\u002FValueByte-AI\u002FAwesome-LLM-in-Social-Science\u002Fissues\u002F1",[]]