[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-InteractiveNLP-Team--RoleLLM-public":3,"tool-InteractiveNLP-Team--RoleLLM-public":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[14,35],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":77,"owner_website":75,"owner_url":78,"languages":75,"stars":79,"forks":80,"last_commit_at":81,"license":75,"difficulty_score":82,"env_os":83,"env_gpu":84,"env_ram":84,"env_deps":85,"category_tags":88,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":90,"updated_at":91,"faqs":92,"releases":121},4348,"InteractiveNLP-Team\u002FRoleLLM-public","RoleLLM-public","RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models","RoleLLM 是一个专为提升大语言模型“角色扮演”能力而设计的开源框架。它旨在解决当前主流模型因通用训练和闭源限制，导致在模仿特定人物性格、说话风格及背景知识时表现不足的问题。\n\n该工具不仅提供了一套完整的评估基准 RoleBench（涵盖 100 个古今中外经典角色，含 16 万多条精细样本），还提出了一系列增强方案。其核心技术亮点包括\"Context-Instruct\"，能从长文本中精准提取角色专属知识；以及\"RoCIT\"技术，通过对开源模型进行微调，诞生了具备出色扮演能力的 RoleLLaMA（英文）和 RoleGLM（中文）模型，效果可媲美基于 GPT-4 的方案。\n\nRoleLLM 非常适合 AI 研究人员、开发者以及对虚拟角色交互有深度需求的产品设计师使用。研究人员可利用其构建的基准数据集进行模型评估；开发者则能基于其微调方法，快速定制具有鲜明个性的垂直领域助手或游戏 NPC。对于希望探索大模型在拟人化交互边界的团队来说，RoleLLM 提供了一站式的解决方案与高质量数据支持。","\u003Cdiv align= \"center\">\r\n    \u003Ch1> 👨‍🎤 RoleLLM 🪅 \u003C\u002Fh1>\r\n\u003C\u002Fdiv>\r\n\r\n\u003Cp align=\"center\">  \r\nRoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models\r\n\u003C\u002Fp>\r\n\r\n\u003Cp align=\"center\">  \r\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.00746.pdf\">Paper\u003C\u002Fa>; \r\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FZenMoore\u002FRoleBench\">Data\u003C\u002Fa>\r\n\u003C\u002Fp>\r\n\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_12169df014c5.png)\r\n\r\nWe introduce RoleLLM, a role-playing framework of data construction and evaluation (RoleBench), as well as solutions for both closed-source and open-source models (RoleGPT, RoleLLaMA, RoleGLM). We also propose Context-Instruct for long-text knowledge extraction and role-specific knowledge injection.\r\n\r\n\r\n## Abstract\r\n\r\nThe advent of Large Language Models (LLMs) has paved the way for complex tasks such as role-playing, which enhances user interactions by enabling models to imitate various characters. However, the closed-source nature of state-of-the-art LLMs and their general-purpose training limit role-playing optimization. In this paper, we introduce **RoleLLM**, a framework to benchmark, elicit, and enhance role-playing abilities in LLMs. RoleLLM comprises four stages: (1) Role Profile Construction for **100 roles**; (2) Context-Based Instruction Generation (**Context-Instruct**) for role-specific knowledge extraction; (3) Role Prompting using GPT (**RoleGPT**) for speaking style imitation; and (4) Role-Conditioned Instruction Tuning (**RoCIT**) for fine-tuning open-source models along with role customization. By Context-Instruct and RoleGPT, we create **RoleBench**, the first systematic and fine-grained character-level benchmark dataset for role-playing with **168,093 samples**. Moreover, RoCIT on RoleBench yields **RoleLLaMA (English)** and **RoleGLM (Chinese)**, significantly enhancing role-playing abilities and even achieving comparable results with RoleGPT (using GPT-4).\r\n\r\n\r\n\r\n## What's New\r\n\r\n- **[2023\u002F12\u002F1]** Our RoleBench is integrated into [OpenCompass](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002Fopencompass\u002Fpull\u002F633) for comprehensive evaluation of LLM.\r\n\r\n- **[2023\u002F10\u002F19]** Our [RoleBench data](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FZenMoore\u002FRoleBench) is released.\r\n\r\n- **[2023\u002F10\u002F3]** Our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00746) is released.\r\n\r\n\r\n## RoleBench Statistics\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_d7af2b16c9db.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_20c0d5f2ce8d.png)\r\n\r\n## List of Roles\r\n\r\nAbraham Lincoln, Alvy Singer, Andrew Detmer, Angel, Antonio Salieri, Bai Li (李白，Chinese), Benjamin Button, Blair Waldorf, Bruno Antony, Caden Cotard, Caesar, Coach Eric Taylor, Colonel Hans Landa, Colonel Nathan R. Jessep, Coriolanus, D_Artagnan, David Aames, Doctor Who, Dr. Frank N Furter, Dr. Hannibal Lecter, Emperor (《甄嬛传》皇帝，Chinese), Fei Zhang (张飞，Chinese), Fletcher Reede, Frank T.J. Mackey, Fred Flintstone, Freddy Krueger, Gaston, Gregory House, HAL 9000, Harvey Milk, Imperial Concubine Hua (《甄嬛传》华妃，Chinese), Jack, Jack Sparrow, Jack Torrance, Jackie Moon, James Bond, James Brown, James Carter, Jeff Spicoli, Jigsaw, Jim Morrison, John Coffey, John Dillinger, John Doe, John Keating, Jordan Belfort, Judge Dredd, Judy Hoops, Juno MacGuff, Karl Childers, Klaus Mikaelson, Leonard Shelby, Leroy Jethro Gibbs, Lestat de Lioncourt, Logan, Lucifer Morningstar, Lyn Cassady, Malcolm X, Mark Renton, Mary Sibley, Mater, Michael Scott, Murphy MacManus, Oliver Queen, Pat Solitano, Paul Conroy, Paul Vitti, Peter Parker, Po, Professor G.H. Dorr, Queen Catherine, Queen Elizabeth I, Rachel Lang, Randle McMurphy, Raylan Givens, Robert Angier, Rorschach, Seth, Sheldon Cooper, Sherlock Holmes, Shrek, Sonny, Stanley Ipkiss, Stephen Hawking, Stifler, The Dude, Theodore Twombly, Thor, Tom Ripley, Travis Bickle, Truman Capote, Tugg Speedman, Twilight Sparkle, Tyler Hawkins, Tyrion Lannister, Violet Weston, Wade Wilson, Walt Kowalski, Willie Soke, Wukong Sun (《西游记》孙悟空，Chinese).\r\n\r\nAll the mentioned roles are showcased with portraits in the role panorama at the beginning.\r\n\r\n\r\n\r\n## Framework\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_394a600a2d7f.png)\r\n\r\nRoleLLM comprises four stages: (1) role profile construction; (2) context-based instruction generation (Context-Instruct), primarily aimed at extracting role-specific knowledge and episodic memories; (3) role prompting using GPT (RoleGPT), chiefly for the imitation of speaking styles; and (4) role-conditioned instruction tuning (RoCIT), which utilizes the data generated by Context-Instruct and RoleGPT to enhance existing open-source LLMs.\r\n\r\n\r\n\r\n## Experimental Results\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_2bf7fdf0cdf9.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_94d7cbaf0001.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a4da66709c0e.png)\r\n\r\n\r\n\r\n## Non-Cherry-Picked Demonstrations\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a1b44af74fbe.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a744cc4521ce.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_4132147f4107.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_10b0b9ff6a9d.png)\r\n\r\n## Star History\r\n\r\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_75710679d693.png)](https:\u002F\u002Fstar-history.com\u002F#InteractiveNLP-Team\u002FRoleLLM-public&Date)\r\n\r\n## Citation\r\n\r\nFeel free to cite us if you like RoleBench and RoleLLM.\r\n\r\n```bibtex\r\n@article{wang2023rolellm,\r\n  title   = {RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models},\r\n  author  = {Zekun Moore Wang and Zhongyuan Peng and Haoran Que and Jiaheng Liu and Wangchunshu Zhou and Yuhan Wu and Hongcheng Guo and Ruitong Gan and Zehao Ni and Jian Yang and Man Zhang and Zhaoxiang Zhang and Wanli Ouyang and Ke Xu and Stephen W. Huang and Jie Fu and Junran Peng},\r\n  year    = {2023},\r\n  journal = {arXiv preprint arXiv: 2310.00746}\r\n}\r\n```\r\n","\u003Cdiv align= \"center\">\r\n    \u003Ch1> 👨‍🎤 RoleLLM 🪅 \u003C\u002Fh1>\r\n\u003C\u002Fdiv>\r\n\r\n\u003Cp align=\"center\">  \r\nRoleLLM：大型语言模型角色扮演能力的基准测试、激发与增强\r\n\u003C\u002Fp>\r\n\r\n\u003Cp align=\"center\">  \r\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fpdf\u002F2310.00746.pdf\">论文\u003C\u002Fa>; \r\n\u003Ca href=\"https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FZenMoore\u002FRoleBench\">数据\u003C\u002Fa>\r\n\u003C\u002Fp>\r\n\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_12169df014c5.png)\r\n\r\n我们提出了RoleLLM，一个包含数据构建与评估框架（RoleBench）的角色扮演解决方案，以及针对闭源和开源模型的优化方案（RoleGPT、RoleLLaMA、RoleGLM）。此外，我们还提出了Context-Instruct方法，用于长文本知识提取和角色特定知识注入。\r\n\r\n\r\n## 摘要\r\n\r\n大型语言模型（LLMs）的出现为复杂任务如角色扮演开辟了道路，这种能力通过让模型模仿不同角色来提升用户交互体验。然而，当前最先进的LLMs多为闭源且以通用任务训练为主，这限制了其在角色扮演方面的优化潜力。本文我们提出了**RoleLLM**，一个用于基准测试、激发并增强LLMs角色扮演能力的框架。RoleLLM包括四个阶段：(1) 针对**100个角色**的角色档案构建；(2) 基于上下文的指令生成（Context-Instruct），用于提取角色特定知识；(3) 使用GPT进行角色提示（RoleGPT），以模仿不同说话风格；(4) 基于角色条件的指令微调（RoCIT），用于对开源模型进行精调并实现角色定制化。借助Context-Instruct和RoleGPT，我们创建了**RoleBench**，这是首个系统化、细粒度的角色级别基准数据集，包含**168,093个样本**。进一步地，在RoleBench上应用RoCIT后，我们得到了**RoleLLaMA（英文版）**和**RoleGLM（中文版）**，显著提升了角色扮演能力，甚至达到了与RoleGPT（使用GPT-4）相当的效果。\r\n\r\n\r\n\r\n## 最新动态\r\n\r\n- **[2023\u002F12\u002F1]** 我们的RoleBench已被集成到[OpenCompass](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002Fopencompass\u002Fpull\u002F633)中，用于LLM的全面评估。\r\n- **[2023\u002F10\u002F19]** 我们的[RoleBench数据](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FZenMoore\u002FRoleBench)已发布。\r\n- **[2023\u002F10\u002F3]** 我们的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F2310.00746)已发表。\r\n\r\n\r\n## RoleBench统计信息\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_d7af2b16c9db.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_20c0d5f2ce8d.png)\r\n\r\n## 角色列表\r\n\r\n亚伯拉罕·林肯、阿尔维·辛格、安德鲁·德特默、天使、安东尼奥·萨列里、李白（中国）、本杰明·巴顿、布莱尔·沃德夫、布鲁诺·安东尼、卡登·科塔尔、凯撒、教练埃里克·泰勒、汉斯·兰达上校、内森·R·杰塞普上校、科里奥兰纳斯、达达尼昂、大卫·艾姆斯、神秘博士、弗兰克·N·弗特医生、汉尼拔·莱克特医生、甄嬛传中的皇帝（中国）、张飞（中国）、弗莱彻·里德、弗兰克·T.J. 麦基、弗雷德·弗林特斯通、弗莱迪·克鲁格、加斯顿、格雷戈里·豪斯、HAL 9000、哈维·米尔克、甄嬛传中的华妃（中国）、杰克、杰克·斯派洛、杰克·托兰斯、杰基·穆恩、詹姆斯·邦德、詹姆斯·布朗、詹姆斯·卡特、杰夫·斯皮科利、拼图杀人狂、吉姆·莫里森、约翰·科菲、约翰·迪林格、约翰·多伊、约翰·基廷、乔丹·贝尔福特、法官德雷德、朱迪·胡普斯、朱诺·麦克加夫、卡尔·柴尔德斯、克劳斯·米凯尔森、莱昂纳德·谢尔比、利罗伊·杰斯罗·吉布斯、莱斯塔特·德·里昂库尔、洛根、路西法·晨星、琳·卡萨迪、马尔科姆·X、马克·伦顿、玛丽·西布利、拖车机马特、迈克尔·斯科特、墨菲·麦克马努斯、奥利弗·奎因、帕特·索利塔诺、保罗·康罗伊、保罗·维蒂、彼得·帕克、宝、G.H. 多尔教授、凯瑟琳王后、伊丽莎白一世女王、瑞秋·朗、兰德尔·麦克默菲、雷兰·吉文斯、罗伯特·安吉尔、罗夏、赛斯、谢尔顿·库珀、夏洛克·福尔摩斯、史莱克、桑尼、斯坦利·伊普基斯、斯蒂芬·霍金、斯蒂夫勒、老 dude、西奥多·特温布利、雷神托尔、汤姆·里普利、特拉维斯·比克尔、杜鲁门·卡波特、塔格·斯皮德曼、暮光之城的紫悦、泰勒·霍金斯、提利昂·兰尼斯特、薇奥莱特·韦斯顿、死侍、沃尔特·科瓦尔斯基、威利·索克、孙悟空（西游记，中国）。\r\n\r\n所有上述角色均在开头的角色全景图中以肖像形式展示。\r\n\r\n\r\n\r\n## 框架\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_394a600a2d7f.png)\r\n\r\nRoleLLM由四个主要阶段组成：(1) 角色档案构建；(2) 基于上下文的指令生成（Context-Instruct），主要用于提取角色特定知识和情景记忆；(3) 使用GPT进行角色提示（RoleGPT），主要用于模仿不同说话风格；(4) 基于角色条件的指令微调（RoCIT），利用Context-Instruct和RoleGPT生成的数据来增强现有的开源LLM。\r\n\r\n\r\n\r\n## 实验结果\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_2bf7fdf0cdf9.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_94d7cbaf0001.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a4da66709c0e.png)\r\n\r\n\r\n\r\n## 非精选演示\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a1b44af74fbe.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_a744cc4521ce.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_4132147f4107.png)\r\n\r\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_10b0b9ff6a9d.png)\r\n\r\n## 星标历史\r\n\r\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_readme_75710679d693.png)](https:\u002F\u002Fstar-history.com\u002F#InteractiveNLP-Team\u002FRoleLLM-public&Date)\r\n\r\n## 引用\r\n\r\n如果您喜欢RoleBench和RoleLLM，请随时引用我们。\r\n\r\n```bibtex\r\n@article{wang2023rolellm,\r\n  title   = {RoleLLM: Benchmarking, Eliciting, and Enhancing Role-Playing Abilities of Large Language Models},\r\n  author  = {Zekun Moore Wang 和 Zhongyuan Peng 和 Haoran Que 和 Jiaheng Liu 和 Wangchunshu Zhou 和 Yuhan Wu 和 Hongcheng Guo 和 Ruitong Gan 和 Zehao Ni 和 Jian Yang 和 Man Zhang 和 Zhaoxiang Zhang 和 Wanli Ouyang 和 Ke Xu 和 Stephen W. Huang 和 Jie Fu 和 Junran Peng},\r\n  year    = {2023},\r\n  journal = {arXiv预印本 arXiv: 2310.00746}\r\n}\r\n```","# RoleLLM 快速上手指南\n\nRoleLLM 是一个用于基准测试、激发和增强大语言模型（LLM）角色扮演能力的框架。本项目提供了数据集构建方法（RoleBench）、闭源模型解决方案（RoleGPT）以及开源模型微调方案（RoleLLaMA\u002FRoleGLM）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04+) 或 macOS\n*   **Python**: 3.8 或更高版本\n*   **GPU**: 推荐使用 NVIDIA GPU (用于微调开源模型如 RoleLLaMA\u002FRoleGLM)，显存建议 16GB 以上以支持全量或高效微调。\n*   **前置依赖**:\n    *   PyTorch (适配您的 CUDA 版本)\n    *   Transformers\n    *   Accelerate\n    *   Datasets\n\n建议创建独立的虚拟环境：\n\n```bash\npython -m venv rolellm_env\nsource rolellm_env\u002Fbin\u002Factivate  # Windows 用户使用: rolellm_env\\Scripts\\activate\n```\n\n## 安装步骤\n\n目前项目主要通过源码安装。请克隆仓库并安装必要的 Python 依赖。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team\u002FRoleLLM-public.git\n    cd RoleLLM-public\n    ```\n\n2.  **安装依赖**\n    如果项目根目录包含 `requirements.txt`，请执行：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *注：若未找到具体的 requirements 文件，请手动安装核心库：*\n    ```bash\n    pip install torch torchvision torchaudio --index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu118\n    pip install transformers datasets accelerate sentencepiece protobuf\n    ```\n\n3.  **获取数据 (RoleBench)**\n    您可以通过 Hugging Face 直接加载数据集，或在代码中引用。\n    *   数据集地址：[ZenMoore\u002FRoleBench](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002FZenMoore\u002FRoleBench)\n    *   该数据集已集成至 [OpenCompass](https:\u002F\u002Fgithub.com\u002Fopen-compass\u002Fopencompass)，也可通过 OpenCompass 进行评测。\n\n## 基本使用\n\nRoleLLM 的核心功能分为两类：使用提示工程激发生成（RoleGPT 模式）和使用微调后的开源模型（RoleLLaMA\u002FRoleGLM 模式）。\n\n### 1. 加载 RoleBench 数据集\n\n使用 `datasets` 库快速加载用于评估或训练的数据：\n\n```python\nfrom datasets import load_dataset\n\n# 加载 RoleBench 数据集\ndataset = load_dataset(\"ZenMoore\u002FRoleBench\")\n\n# 查看示例数据 (例如第一个角色的第一个样本)\nprint(dataset[\"train\"][0])\n```\n\n### 2. 使用微调后的模型 (RoleLLaMA \u002F RoleGLM)\n\n假设您已经下载了微调好的模型权重（或通过 RoCIT 流程自行训练），可以使用 `transformers` 进行推理。\n\n**英文角色示例 (基于 RoleLLaMA):**\n\n```python\nfrom transformers import AutoTokenizer, AutoModelForCausalLM\nimport torch\n\nmodel_name = \"path\u002Fto\u002FRoleLLaMA-weights\"  # 替换为实际模型路径\ntokenizer = AutoTokenizer.from_pretrained(model_name)\nmodel = AutoModelForCausalLM.from_pretrained(model_name, device_map=\"auto\", torch_dtype=torch.float16)\n\n# 构造角色提示 (以 Sherlock Holmes 为例)\ninput_text = \"\"\"\u003Crole>Sherlock Holmes\u003C\u002Frole>\nUser: Who are you?\nAssistant:\"\"\"\n\ninputs = tokenizer(input_text, return_tensors=\"pt\").to(model.device)\noutputs = model.generate(**inputs, max_new_tokens=100, do_sample=True, temperature=0.7)\nprint(tokenizer.decode(outputs[0], skip_special_tokens=True))\n```\n\n**中文角色示例 (基于 RoleGLM):**\n\n```python\nfrom transformers import AutoTokenizer, AutoModel\nimport torch\n\nmodel_name = \"path\u002Fto\u002FRoleGLM-weights\"  # 替换为实际模型路径\ntokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)\nmodel = AutoModel.from_pretrained(model_name, trust_remote_code=True).half().cuda()\n\n# 构造角色提示 (以孙悟空为例)\nprompt = \"你是孙悟空。用户：你是谁？助手：\"\n\nresponse, history = model.chat(tokenizer, prompt, history=[])\nprint(response)\n```\n\n### 3. 构建自定义角色指令 (Context-Instruct 思路)\n\n若您想利用 GPT-4 等强大模型生成特定角色的训练数据（即复现 RoleGPT 流程），可参考以下逻辑构建 Prompt：\n\n```python\n# 伪代码示例：构建 Context-Instruct 提示\nrole_profile = \"You are Abraham Lincoln, the 16th US President...\"\ncontext_knowledge = \"Extracted knowledge about the Civil War and Emancipation Proclamation...\"\n\nprompt = f\"\"\"\nBased on the following role profile and knowledge context, generate a dialogue turn.\nRole Profile: {role_profile}\nContext: {context_knowledge}\nUser Input: \"What is your view on freedom?\"\nResponse (in character):\n\"\"\"\n# 将上述 prompt 发送给 GPT-4 API 即可获取高质量的角色扮演样本\n```\n\n> **提示**：完整的微调脚本（RoCIT）和详细的数据处理流程请参考仓库中的 `scripts` 目录或论文附录。","某互动娱乐公司正在开发一款沉浸式历史教育应用，需要让 AI 精准扮演“李白”或“甄嬛传皇帝”等特定角色，与用户进行符合人设的深度对话。\n\n### 没有 RoleLLM-public 时\n- **人设易崩塌**：通用大模型缺乏特定角色的背景知识，扮演李白时经常混淆历史朝代，或无法引用其真实诗句，导致“出戏”。\n- **语气千篇一律**：模型难以模仿角色独特的说话风格（如皇帝的威严或李白的豪放），回复往往带有标准的\"AI 助手味”，缺乏个性。\n- **构建成本高昂**：开发团队需人工编写海量提示词并手动清洗数据来微调模型，耗时数周且效果难以量化评估。\n- **长文本知识缺失**：面对复杂的角色背景故事，模型无法有效提取关键信息，导致对话内容浅显，无法支撑长篇剧情互动。\n\n### 使用 RoleLLM-public 后\n- **人设高度还原**：利用 Context-Instruct 技术自动提取角色专属知识库，让 AI 扮演的李白能准确对答如流，甚至即兴创作符合风格的诗句。\n- **风格精准模仿**：通过 RoleGPT 模块学习角色语料，模型能完美复刻目标人物的口癖、情绪和修辞习惯，交互极具代入感。\n- **开发效率倍增**：直接复用 RoleBench 数据集中的 16 万+ 高质量样本进行 RoCIT 微调，将角色定制周期从数周缩短至几天。\n- **深度剧情支撑**：模型具备处理长文本上下文的能力，能基于角色生平与用户展开多轮复杂剧情演绎，满足深度互动需求。\n\nRoleLLM-public 通过系统化的基准测试与微调框架，将通用大模型瞬间转化为演技精湛的“专业演员”，大幅降低了高质量角色扮演应用的开发门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FInteractiveNLP-Team_RoleLLM-public_12169df0.png","InteractiveNLP-Team","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FInteractiveNLP-Team_0812a103.png","From LLM to AGI, for better interaction.",null,"zenmoore@buaa.edu.cn","ZenMoore1","https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team",522,17,"2026-03-27T14:25:33",4,"","未说明",{"notes":86,"python":84,"dependencies":87},"README 主要介绍了 RoleLLM 框架、RoleBench 数据集以及实验结果，未提供具体的代码安装指南、运行环境配置或依赖库列表。该项目涉及对开源模型（如 LLaMA, GLM）的微调（RoCIT），实际运行通常需要支持 CUDA 的 NVIDIA GPU 及 PyTorch、Transformers 等深度学习框架，但具体版本和硬件需求需参考源代码仓库中的其他文件或论文附录。",[],[35,14,16,89],"其他","2026-03-27T02:49:30.150509","2026-04-06T18:53:46.006840",[93,98,103,108,112,117],{"id":94,"question_zh":95,"answer_zh":96,"source_url":97},19783,"能否提供论文中 Figure 4 (RoleBench-en Instructions 的动词 - 名词结构图) 的绘制代码？","目前该 Issue 下暂无维护者或社区成员提供具体的绘制代码。建议直接在仓库中搜索相关绘图脚本，或在后续更新中关注维护者的回复。","https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team\u002FRoleLLM-public\u002Fissues\u002F12",{"id":99,"question_zh":100,"answer_zh":101,"source_url":102},19782,"是否有类似的角色扮演 AI 开源项目推荐？","社区用户推荐了一个相似的工作，其代码、数据集和模型全部开源，项目地址为：https:\u002F\u002Fgithub.com\u002FMinami-su\u002Fcharacter_AI_open","https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team\u002FRoleLLM-public\u002Fissues\u002F1",{"id":104,"question_zh":105,"answer_zh":106,"source_url":107},19778,"如何复现论文中 GLM 模型 50.5 的分数？","有用户反馈，只有在设置 do_sample=False 且 num_beams=5 时才能复现出 50.5 分，而完全按照论文默认设置只能得到 46 分。数据预处理方面，需要将数据集中的数据拼接成对应的角色描述提示（role description prompts）后再进行训练。如果仍有问题，建议联系社区成员进一步讨论。","https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team\u002FRoleLLM-public\u002Fissues\u002F15",{"id":109,"question_zh":110,"answer_zh":111,"source_url":102},19779,"项目数据集是否已经公开？","是的，维护者已确认数据集正式发布。感谢关注该论文，现在可以获取并使用相关数据进行尝试。",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},19780,"RoleBench-general-zh 和 RoleBench-specific-zh 的数据风格有何区别？","确实存在差异。RoleBench-specific 的说话风格不如 RoleBench-general 鲜明，这一点已在论文脚注 8 中特别说明。","https:\u002F\u002Fgithub.com\u002FInteractiveNLP-Team\u002FRoleLLM-public\u002Fissues\u002F4",{"id":118,"question_zh":119,"answer_zh":120,"source_url":116},19781,"数据集中只有单轮对话，如何生成多轮对话数据？","生成多轮对话确实耗时且成本较高。维护者建议读者利用 Baize (https:\u002F\u002Farxiv.org\u002Fpdf\u002F2304.01196.pdf) 或 Camel (https:\u002F\u002Fwww.camel-ai.org\u002F) 技术来自行构建多轮对话数据。",[]]