[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yangjianxin1--GPT2-chitchat":3,"tool-yangjianxin1--GPT2-chitchat":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70626,"2026-04-05T22:51:36",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":82,"difficulty_score":45,"env_os":93,"env_gpu":94,"env_ram":93,"env_deps":95,"category_tags":101,"github_topics":102,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":149},3689,"yangjianxin1\u002FGPT2-chitchat","GPT2-chitchat","GPT2 for Chinese chitchat\u002F用于中文闲聊的GPT2模型(实现了DialoGPT的MMI思想)","GPT2-chitchat 是一个专为中文闲聊场景打造的开源对话模型项目。它基于经典的 GPT-2 架构，并巧妙融合了微软 DialoGPT 项目中的 MMI（互信息最大化）思想，旨在让机器人生成更自然、连贯且符合上下文逻辑的中文回复，有效解决了传统聊天机器人回答生硬或偏离话题的痛点。\n\n该项目不仅提供了高质量的预训练模型权重，还开放了完整的训练与推理代码。其技术亮点在于实现了多种先进的文本生成策略（如 Temperature、Top-k 和 Nucleus Sampling），并针对中文多轮对话数据进行了专门的预处理与拼接优化，支持用户利用自定义语料从头训练专属的聊天机器人。代码中包含了详尽的中文注释，极大地降低了学习门槛。\n\nGPT2-chitchat 非常适合自然语言处理领域的开发者、研究人员以及希望深入理解对话系统原理的学生使用。对于想要快速搭建中文闲聊应用或进行相关算法实验的技术人员来说，这是一个兼具实用性与教育价值的优秀起点。通过简单的命令行操作，用户即可在 CPU 或 GPU 环境下体验流畅的人机交互，或进一步微调模型以适应特定场景需求。","# GPT2 for Chinese chitchat\n\n## News\n公众号【YeungNLP】\n- 2023.04.05：发布[Firefly(流萤): 中文对话式大语言模型](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly) ，开源1.1M中文多任务指令数据集，以及模型权重。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FTX7wj8IzD_EaMTvk0bjRtA)\n- 2023.04.02：发布[LLMPruner: 大语言模型裁剪工具](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FLLMPruner) ,分享裁剪方法及其裁剪后的模型权重。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FleVtrwZc1zLput51Nr99lw) 。\n- 2023.02.13：发布[OFA-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FOFA-Chinese) ，中文多模态统一预训练模型OFA在Image Caption任务上的应用。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FthRbR1i6cZk8zUz3y2mq6g) 。\n- 2022.12.04: 发布[CLIP-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FCLIP-Chinese) ，中文CLIP预训练模型。使用140万中文图文对数据进行预训练，在图文相似度、文本相似度、图片相似度任务上有不错的表现。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F6gQX91M-Lt7eiMimhYRJEw) 。\n- 2022.03.30：发布[ClipCap-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FClipCap-Chinese) ，一种基于CLIP模型的Image Caption模型。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FMofjqi0ErSdRqRyP9gq6Zw) 。\n- 2021.06.16：发布[CPM中文文本生成项目](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FCPM) 。可用于作文、小说、新闻、古诗等中文生成任务。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FsFzUNtwrTvi2kAAGQ2M3UA) 。\n- 2021.05.26：新增50w、100w的多轮对话的原始数据与预处理数据。\n\n\n## 项目描述\n- 本项目是基于GPT2的中文闲聊机器人，模型实现基于HuggingFace的[transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) 。文章：\n- 本项目受 [GPT2-Chinese](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) 的启发，精读作者的代码，获益匪浅。\n- 在生成阶段，使用了Temperature、Top-k Sampling和Nucleus Sampling等，可参考论文[The Curious Case of Neural Text Degeneration](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1904.09751.pdf)\n- 代码中给出了许多详细的中文注释，方便大家更好地理解代码\n- 本项目被[微软的DialoGPT项目](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDialoGPT) 引用 （为了简化生成方法，加快生成速度，删除了MMI的生成方法）\n\n## 运行环境\npython3.6、 transformers==4.2.0、pytorch==1.7.0\n\n## 项目结构\n- data\n    - train.txt:默认的原始训练集文件，存放闲聊语料 \n    - train.pkl:对原始训练语料进行tokenize之后的文件,存储一个list对象，list的每条数据表示一个多轮对话，表示一条训练数据\n- model:存放对话生成的模型\n    - epoch40:经过40轮训练之后得到的模型\n      - config.json:模型参数的配置文件\n      - pytorch_model.bin:模型文件\n- vocab\n    - vocab.txt:字典文件。默认的字典大小为13317，若需要使用自定义字典，需要将confog.json文件中的vocab_size字段设为相应的大小。\n- sample:存放人机闲聊生成的历史聊天记录\n- train.py:训练代码\n- interact.py:人机交互代码\n- preprocess.py:数据预处理代码\n\n\n## 模型简介\n### 模型结构\n![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyangjianxin1_GPT2-chitchat_readme_9ac35b404aac.png)\n\n\n### 模型参数简介(详见模型的config.json文件)\n- initializer_range: 0.02\n- layer_norm_epsilon: 1e-05\n- n_ctx: 1024\n- n_embd: 768\n- n_head: 12\n- n_layer: 12\n- n_positions: 1024\n- vocab_size: 21128\n\n## 训练思路\n对每条训练数据进行拼接，然后将其输入到模型中，进行训练。\n\n对于如下多轮闲聊训练数据,在训练模型时，将训练数据进行如下拼接:\"[CLS]想看你的美照[SEP]亲我一口就给你看[SEP]我亲两口[SEP]讨厌人家拿小拳拳捶你胸口[SEP]\"。然后将上述拼接结果作为模型的输入，让模型进行自回归训练。\n```\n想看你的美照\n亲我一口就给你看\n我亲两口\n讨厌人家拿小拳拳捶你胸口\n```\n\n## 使用方法\n### Quick Start\n在[模型分享](#model_share)中下载模型，将模型文件夹model_epoch40_50w放到model目录下，执行如下命令，进行对话\n```\npython interact.py --no_cuda --model_path model_epoch40_50w (使用cpu生成，速度相对较慢)\n或\npython interact.py --model_path model_epoch40_50w --device 0 (指定0号GPU进行生成，速度相对较快)\n```\n\n\n###  数据预处理\n在项目根目录下创建data文件夹，将原始训练语料命名为train.txt，存放在该目录下。train.txt的格式如下，每段闲聊之间间隔一行，格式如下：\n```\n真想找你一起去看电影\n突然很想你\n我也很想你\n\n想看你的美照\n亲我一口就给你看\n我亲两口\n讨厌人家拿小拳拳捶你胸口\n\n美女约嘛\n开好房等你了\n我来啦\n```\n运行preprocess.py，对data\u002Ftrain.txt对话语料进行tokenize，然后进行序列化保存到data\u002Ftrain.pkl。train.pkl中序列化的对象的类型为List[List],记录对话列表中,每个对话包含的token。\n```\npython preprocess.py --train_path data\u002Ftrain.txt --save_path data\u002Ftrain.pkl\n```\n\n### 训练模型\n运行train.py,使用预处理后的数据，对模型进行自回归训练，模型保存在根目录下的model文件夹中。\n\n在训练时，可以通过指定patience参数进行early stop。当patience=n时，若连续n个epoch，模型在验证集上的loss均没有下降，则进行early stop，停止训练。当patience=0时，不进行early stop。\n\n代码中默认关闭了early stop，因为在实践中，early stop得到的模型的生成效果不一定会更好。\n```\npython train.py --epochs 40 --batch_size 8 --device 0,1 --train_path data\u002Ftrain.pkl\n```\n更多的训练参数介绍，可直接看train.py中的set_args()函数中的参数说明\n\n### 人机交互\n运行interact.py，使用训练好的模型，进行人机交互，输入Ctrl+Z结束对话之后，聊天记录将保存到sample目录下的sample.txt文件中。\n```\npython interact.py --no_cuda --model_path path_to_your_model --max_history_len 3(由于闲聊对话生成的内容长度不是很长，因此生成部分在CPU上跑速度也挺快的)\n```\n执行interact.py时，可以尝试通过调整topk、topp、repetition_penalty、max_history_len等参数，调整生成的效果。更多的参数介绍，可直接看interact.py的set_args()函数中的参数说明\n如果要使用GPU进行生成，则不要调用--no_cuda参数，并且通过--device gpu_id来指定使用哪块GPU。\n\n\n## 闲聊语料分享\n|中文闲聊语料 | 数据集地址 |语料描述|\n|---------|--------|--------|\n|常见中文闲聊|[chinese_chatbot_corpus](https:\u002F\u002Fgithub.com\u002Fcodemayq\u002Fchinese_chatbot_corpus)|包含小黄鸡语料、豆瓣语料、电视剧对白语料、贴吧论坛回帖语料、微博语料、PTT八卦语料、青云语料等|\n|50w中文闲聊语料 | [百度网盘【提取码:4g5e】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1M87Zf9e8iBqqmfTkKBWBWA) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1QFRsftLNTR_D3T55mS_FocPEZI7khdST?usp=sharing) |包含50w个多轮对话的原始语料、预处理数据|\n|100w中文闲聊语料 | [百度网盘【提取码:s908】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TvCQgJWuOoK2f5D95nH3xg) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1NU4KLDRxdOGINwxoHGWfVOfP0wL05gyj?usp=sharing)|包含100w个多轮对话的原始语料、预处理数据|\n\n\n中文闲聊语料的内容样例如下:\n```\n谢谢你所做的一切\n你开心就好\n开心\n嗯因为你的心里只有学习\n某某某，还有你\n这个某某某用的好\n\n你们宿舍都是这么厉害的人吗\n眼睛特别搞笑这土也不好捏但就是觉得挺可爱\n特别可爱啊\n\n今天好点了吗？\n一天比一天严重\n吃药不管用，去打一针。别拖着\n```\n\n\u003Ch2 id=\"model_share\">模型分享\u003C\u002Fh2>\n\n|模型 | 共享地址 |模型描述|\n|---------|--------|--------|\n|model_epoch40_50w | [百度网盘【提取码:ju6m】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1iEu_-Avy-JTRsO4aJNiRiA) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1fJ6VuBp4wA1LSMpZgpe7Hgm9dbZT5bHS?usp=sharing) |使用50w多轮对话语料训练了40个epoch，loss降到2.0左右。|\n\n## 关注我们\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyangjianxin1_GPT2-chitchat_readme_d639b541f0c6.jpeg\" width=\"250\"> \n\n## 生成样例\n#### Sample 1:\n``` \n  user :你好啊\nchatbot:你好，请问您是？\n  user :我是你的主人啊 \nchatbot:你是狗吗？\n  user :你才是狗\nchatbot:你不是狗我是你的小主人\n  user :你这个大笨蛋\nchatbot:你大笨蛋，你是想挨打了\n  user :你全家都是大笨蛋\nchatbot:我是你爸爸\n  user :算了，不跟你吵了，你在干嘛呢\nchatbot:我在上班啊，你还没下班呢啊你\n  user :我周末要做作业啊\nchatbot:不是才交了吗，早晚做完啊\n  user :好多作业啊，还没做完呢\nchatbot:我在抄，我妈让我周五交，还有事\n  user :你就不怕被你妈妈骂吗\nchatbot:不怕\n  user :你周末有去哪里玩吗\nchatbot:没时间啊，忙得很啊\n  user :忙着干嘛呢\nchatbot:不知道啊，我周末没有作业，我想睡觉，然后还得找人\n``` \n\n#### Sample 2:\n``` \n  user :你好啊\nchatbot:你好我好大家好\n  user :你在干嘛呢\nchatbot:你不上课啊\n  user :今天是周末啊，笨蛋\nchatbot:我在学校呢\n  user :我也是，周末还要做作业\nchatbot:我还没写呢我们都还没写\n  user :周末你有去哪里玩吗\nchatbot:没有去南京\n  user :南京有什么好玩的啊\nchatbot:我们没去南京\n  user :你刚刚又说你去了南京，你是不是耍我啊\nchatbot:我刚刚才到南京\n  user :你好笨啊\nchatbot:我没有\n  user :你是大笨蛋\nchatbot:你才是大笨蛋\n  user :你全家都是大笨蛋\nchatbot:你个傻冒\n  user :你个智障\nchatbot:哈哈哈\n``` \n#### Sample 3:\n``` \n  user :在干嘛\nchatbot:睡觉\n  user :这么早就睡觉啦\nchatbot:嗯啊你也早点睡啊\n  user :我再玩一会儿手机\nchatbot:早点休息晚安\n  user :拜拜啦\nchatbot:晚安晚安\n  user :多喝热水\nchatbot:哈哈哈\n  user :多喝热水\nchatbot:好的咯\n``` \n#### Sample 4:\n``` \n  user :在吗\nchatbot:在\n  user :我不开心\nchatbot:怎么啦\n  user :最近好累啊\nchatbot:是挺累的\n  user :作业好多啊\nchatbot:还好还好\n  user :我觉得我快要挂科了\nchatbot:我也是啊，但是我觉得我快熬出头了\n  user :不说了，我还有好多作业没写\nchatbot:我也是啊好多啊\n  user :那先这样，下次再聊，再见了\nchatbot:好哒\n``` \n\n#### Sample 5:\n``` \n  user :你去过广州吗\nchatbot:去过呀，但是没有找到工作呢\n  user :那你去过北京吗\nchatbot:没有啊\n  user :北京有什么好玩的\nchatbot:没有你想象的那么好\n  user :是吗，我还没过北京\nchatbot:那里我也不怎么熟，我去过北京\n  user :北京天安门呢\nchatbot:没去过，不过可以去玩玩\n``` \n\n#### Sample 6:\n``` \n  user :你好\nchatbot:你好\n  user :在干嘛呢\nchatbot:在想你呢\n  user :好害羞啊\nchatbot:害羞什么啊\n  user :你这样夸我，我觉得不好意思呀\nchatbot:我夸你你还不好意思呢\n  user :是啊，哈哈哈\nchatbot:你是不是在考验我\n  user :你怎么会这样想呢\nchatbot:我说我在夸你，这么客气，\n  user :你有睡午觉吗\nchatbot:有啊\n  user :我现在有点困呢\nchatbot:我也是\n  user :等下还要去上课，好烦啊\nchatbot:我们不用上课的呀\n```\n\n## TODO\n- 多卡并行训练负载不均衡的问题\n\n## Reference\n- [The Curious Case of Neural Text Degeneration](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1904.09751.pdf)\n- [transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [GPT2-Chinese](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese)\n- [DialoGPT:Large-Scale Generative Pre-training for Conversational Response Generation](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1911.00536.pdf)\n\n\n\n\n","# GPT2中文闲聊\n\n## 新闻\n公众号【YeungNLP】\n- 2023.04.05：发布[Firefly(流萤): 中文对话式大语言模型](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FFirefly) ，开源1.1M中文多任务指令数据集，以及模型权重。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FTX7wj8IzD_EaMTvk0bjRtA)\n- 2023.04.02：发布[LLMPruner: 大语言模型裁剪工具](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FLLMPruner) ,分享裁剪方法及其裁剪后的模型权重。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FleVtrwZc1zLput51Nr99lw) 。\n- 2023.02.13：发布[OFA-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FOFA-Chinese) ，中文多模态统一预训练模型OFA在Image Caption任务上的应用。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FthRbR1i6cZk8zUz3y2mq6g) 。\n- 2022.12.04: 发布[CLIP-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FCLIP-Chinese) ，中文CLIP预训练模型。使用140万中文图文对数据进行预训练，在图文相似度、文本相似度、图片相似度任务上有不错的表现。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F6gQX91M-Lt7eiMimhYRJEw) 。\n- 2022.03.30：发布[ClipCap-Chinese](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FClipCap-Chinese) ，一种基于CLIP模型的Image Caption模型。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FMofjqi0ErSdRqRyP9gq6Zw) 。\n- 2021.06.16：发布[CPM中文文本生成项目](https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FCPM) 。可用于作文、小说、新闻、古诗等中文生成任务。详情见[文章](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002FsFzUNtwrTvi2kAAGQ2M3UA) 。\n- 2021.05.26：新增50w、100w的多轮对话的原始数据与预处理数据。\n\n\n## 项目描述\n- 本项目是基于GPT2的中文闲聊机器人，模型实现基于HuggingFace的[transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers) 。文章：\n- 本项目受 [GPT2-Chinese](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese) 的启发，精读作者的代码，获益匪浅。\n- 在生成阶段，使用了Temperature、Top-k Sampling和Nucleus Sampling等，可参考论文[The Curious Case of Neural Text Degeneration](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1904.09751.pdf)\n- 代码中给出了许多详细的中文注释，方便大家更好地理解代码\n- 本项目被[微软的DialoGPT项目](https:\u002F\u002Fgithub.com\u002Fmicrosoft\u002FDialoGPT) 引用 （为了简化生成方法，加快生成速度，删除了MMI的生成方法）\n\n## 运行环境\npython3.6、 transformers==4.2.0、pytorch==1.7.0\n\n## 项目结构\n- data\n    - train.txt:默认的原始训练集文件，存放闲聊语料 \n    - train.pkl:对原始训练语料进行tokenize之后的文件,存储一个list对象，list的每条数据表示一个多轮对话，表示一条训练数据\n- model:存放对话生成的模型\n    - epoch40:经过40轮训练之后得到的模型\n      - config.json:模型参数的配置文件\n      - pytorch_model.bin:模型文件\n- vocab\n    - vocab.txt:字典文件。默认的字典大小为13317，若需要使用自定义字典，需要将confog.json文件中的vocab_size字段设为相应的大小。\n- sample:存放人机闲聊生成的历史聊天记录\n- train.py:训练代码\n- interact.py:人机交互代码\n- preprocess.py:数据预处理代码\n\n\n## 模型简介\n### 模型结构\n![avatar](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyangjianxin1_GPT2-chitchat_readme_9ac35b404aac.png)\n\n\n### 模型参数简介(详见模型的config.json文件)\n- initializer_range: 0.02\n- layer_norm_epsilon: 1e-05\n- n_ctx: 1024\n- n_embd: 768\n- n_head: 12\n- n_layer: 12\n- n_positions: 1024\n- vocab_size: 21128\n\n## 训练思路\n对每条训练数据进行拼接，然后将其输入到模型中，进行训练。\n\n对于如下多轮闲聊训练数据,在训练模型时，将训练数据进行如下拼接:\"[CLS]想看你的美照[SEP]亲我一口就给你看[SEP]我亲两口[SEP]讨厌人家拿小拳拳捶你胸口[SEP]\"。然后将上述拼接结果作为模型的输入，让模型进行自回归训练。\n```\n想看你的美照\n亲我一口就给你看\n我亲两口\n讨厌人家拿小拳拳捶你胸口\n```\n\n## 使用方法\n### Quick Start\n在[模型分享](#model_share)中下载模型，将模型文件夹model_epoch40_50w放到model目录下，执行如下命令，进行对话\n```\npython interact.py --no_cuda --model_path model_epoch40_50w (使用cpu生成，速度相对较慢)\n或\npython interact.py --model_path model_epoch40_50w --device 0 (指定0号GPU进行生成，速度相对较快)\n```\n\n\n###  数据预处理\n在项目根目录下创建data文件夹，将原始训练语料命名为train.txt，存放在该目录下。train.txt的格式如下，每段闲聊之间间隔一行，格式如下：\n```\n真想找你一起去看电影\n突然很想你\n我也很想你\n\n想看你的美照\n亲我一口就给你看\n我亲两口\n讨厌人家拿小拳拳捶你胸口\n\n美女约嘛\n开好房等你了\n我来啦\n```\n运行preprocess.py，对data\u002Ftrain.txt对话语料进行tokenize，然后进行序列化保存到data\u002Ftrain.pkl。train.pkl中序列化的对象的类型为List[List],记录对话列表中,每个对话包含的token。\n```\npython preprocess.py --train_path data\u002Ftrain.txt --save_path data\u002Ftrain.pkl\n```\n\n### 训练模型\n运行train.py,使用预处理后的数据，对模型进行自回归训练，模型保存在根目录下的model文件夹中。\n\n在训练时，可以通过指定patience参数进行early stop。当patience=n时，若连续n个epoch，模型在验证集上的loss均没有下降，则进行early stop，停止训练。当patience=0时，不进行early stop。\n\n代码中默认关闭了early stop，因为在实践中，early stop得到的模型的生成效果不一定会更好。\n```\npython train.py --epochs 40 --batch_size 8 --device 0,1 --train_path data\u002Ftrain.pkl\n```\n更多的训练参数介绍，可直接看train.py中的set_args()函数中的参数说明\n\n### 人机交互\n运行interact.py，使用训练好的模型，进行人机交互，输入Ctrl+Z结束对话之后，聊天记录将保存到sample目录下的sample.txt文件中。\n```\npython interact.py --no_cuda --model_path path_to_your_model --max_history_len 3(由于闲聊对话生成的内容长度不是很长，因此生成部分在CPU上跑速度也挺快的)\n```\n执行interact.py时，可以尝试通过调整topk、topp、repetition_penalty、max_history_len等参数，调整生成的效果。更多的参数介绍，可直接看interact.py的set_args()函数中的参数说明\n如果要使用GPU进行生成，则不要调用--no_cuda参数，并且通过--device gpu_id来指定使用哪块GPU。\n\n\n## 闲聊语料分享\n|中文闲聊语料 | 数据集地址 |语料描述|\n|---------|--------|--------|\n|常见中文闲聊|[chinese_chatbot_corpus](https:\u002F\u002Fgithub.com\u002Fcodemayq\u002Fchinese_chatbot_corpus)|包含小黄鸡语料、豆瓣语料、电视剧对白语料、贴吧论坛回帖语料、微博语料、PTT八卦语料、青云语料等|\n|50w中文闲聊语料 | [百度网盘【提取码:4g5e】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1M87Zf9e8iBqqmfTkKBWBWA) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1QFRsftLNTR_D3T55mS_FocPEZI7khdST?usp=sharing) |包含50w个多轮对话的原始语料、预处理数据|\n|100w中文闲聊语料 | [百度网盘【提取码:s908】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1TvCQgJWuOoK2f5D95nH3xg) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1NU4KLDRxdOGINwxoHGWfVOfP0wL05gyj?usp=sharing)|包含100w个多轮对话的原始语料、预处理数据|\n\n\n中文闲聊语料的内容样例如下:\n```\n谢谢你所做的一切\n你开心就好\n开心\n嗯因为你的心里只有学习\n某某某，还有你\n这个某某某用的好\n\n你们宿舍都是这么厉害的人吗\n眼睛特别搞笑这土也不好捏但就是觉得挺可爱\n特别可爱啊\n\n今天好点了吗？\n一天比一天严重\n吃药不管用，去打一针。别拖着\n```\n\n\u003Ch2 id=\"model_share\">模型分享\u003C\u002Fh2>\n\n|模型 | 共享地址 |模型描述|\n|---------|--------|--------|\n|model_epoch40_50w | [百度网盘【提取码:ju6m】](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1iEu_-Avy-JTRsO4aJNiRiA) 或 [GoogleDrive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F1fJ6VuBp4wA1LSMpZgpe7Hgm9dbZT5bHS?usp=sharing) |使用50w多轮对话语料训练了40个epoch，loss降到2.0左右。|\n\n## 关注我们\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyangjianxin1_GPT2-chitchat_readme_d639b541f0c6.jpeg\" width=\"250\"> \n\n## 生成样例\n#### Sample 1:\n``` \n  user :你好啊\nchatbot:你好，请问您是？\n  user :我是你的主人啊 \nchatbot:你是狗吗？\n  user :你才是狗\nchatbot:你不是狗我是你的小主人\n  user :你这个大笨蛋\nchatbot:你大笨蛋，你是想挨打了\n  user :你全家都是大笨蛋\nchatbot:我是你爸爸\n  user :算了，不跟你吵了，你在干嘛呢\nchatbot:我在上班啊，你还没下班呢啊你\n  user :我周末要做作业啊\nchatbot:不是才交了吗，早晚做完啊\n  user :好多作业啊，还没做完呢\nchatbot:我在抄，我妈让我周五交，还有事\n  user :你就不怕被你妈妈骂吗\nchatbot:不怕\n  user :你周末有去哪里玩吗\nchatbot:没时间啊，忙得很啊\n  user :忙着干嘛呢\nchatbot:不知道啊，我周末没有作业，我想睡觉，然后还得找人\n``` \n\n#### Sample 2:\n``` \n  user :你好啊\nchatbot:你好我好大家好\n  user :你在干嘛呢\nchatbot:你不上课啊\n  user :今天是周末啊，笨蛋\nchatbot:我在学校呢\n  user :我也是，周末还要做作业\nchatbot:我还没写呢我们都还没写\n  user :周末你有去哪里玩吗\nchatbot:没有去南京\n  user :南京有什么好玩的啊\nchatbot:我们没去南京\n  user :你刚刚又说你去了南京，你是不是耍我啊\nchatbot:我刚刚才到南京\n  user :你好笨啊\nchatbot:我没有\n  user :你是大笨蛋\nchatbot:你才是大笨蛋\n  user :你全家都是大笨蛋\nchatbot:你个傻冒\n  user :你个智障\nchatbot:哈哈哈\n``` \n#### Sample 3:\n``` \n  user :在干嘛\nchatbot:睡觉\n  user :这么早就睡觉啦\nchatbot:嗯啊你也早点睡啊\n  user :我再玩一会儿手机\nchatbot:早点休息晚安\n  user :拜拜啦\nchatbot:晚安晚安\n  user :多喝热水\nchatbot:哈哈哈\n  user :多喝热水\nchatbot:好的咯\n``` \n#### Sample 4:\n``` \n  user :在吗\nchatbot:在\n  user :我不开心\nchatbot:怎么啦\n  user :最近好累啊\nchatbot:是挺累的\n  user :作业好多啊\nchatbot:还好还好\n  user :我觉得我快要挂科了\nchatbot:我也是啊，但是我觉得我快熬出头了\n  user :不说了，我还有好多作业没写\nchatbot:我 тоже много啊\n  user :那先这样，下次再聊，再见了\nchatbot:好哒\n``` \n\n#### Sample 5:\n``` \n  user :你去过广州吗\nchatbot:去过呀，但是没有找到工作呢\n  user :那你去过北京吗\nchatbot:没有啊\n  user :北京有什么好玩的\nchatbot:没有 you 想象的那么好\n  user :是吗，我还没过北京\nchatbot:那里我也不怎么熟，我去过北京\n  user :北京天安门呢\nchatbot:没去过，不过可以去玩玩\n``` \n\n#### Sample 6:\n``` \n  user :你好\nchatbot:你好\n  user :在干嘛呢\nchatbot:在想你呢\n  user :好害羞啊\nchatbot:害羞什么啊\n  user :你这样夸我，我觉得不好意思呀\nchatbot:我夸你你还不好意思呢\n  user :是啊，哈哈哈\nchatbot:你是不是在考验我\n  user :你怎么会这样想呢\nchatbot:我说我在夸你，这么客气，\n  user :有睡午觉吗\nchatbot:有啊\n  user :我现在有点困呢\nchatbot:我也\n  user :等下还要去上课，好烦啊\nchatbot:我们不用上课的呀\n``` \n\n## TODO\n- 多卡并行训练负载不均衡的问题\n\n## 参考文献\n- [神经文本退化的奇妙案例](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1904.09751.pdf)\n- [transformers](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Ftransformers)\n- [GPT2-Chinese](https:\u002F\u002Fgithub.com\u002FMorizeyao\u002FGPT2-Chinese)\n- [DialoGPT：面向对话回复生成的大规模生成式预训练](https:\u002F\u002Farxiv.xilesou.top\u002Fpdf\u002F1911.00536.pdf)","# GPT2-chitchat 快速上手指南\n\nGPT2-chitchat 是一个基于 GPT-2 架构的中文闲聊机器人项目，使用 Hugging Face Transformers 库实现。本指南将帮助你快速搭建环境并运行对话模型。\n\n## 1. 环境准备\n\n### 系统要求\n- **操作系统**: Linux \u002F Windows \u002F macOS\n- **Python 版本**: 3.6+\n- **硬件建议**: 推荐使用 NVIDIA GPU 以加速生成和训练（可选 CPU 模式）\n\n### 前置依赖\n请确保已安装以下核心依赖库：\n```bash\npip install torch==1.7.0 transformers==4.2.0\n```\n> **提示**：国内用户可使用清华源加速安装：\n> ```bash\n> pip install torch==1.7.0 transformers==4.2.0 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 2. 安装与模型下载\n\n本项目无需复杂安装，克隆代码库并下载预训练模型即可。\n\n### 步骤一：获取代码\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat.git\ncd GPT2-chitchat\n```\n\n### 步骤二：下载预训练模型\n从百度网盘或 Google Drive 下载 `model_epoch40_50w` 模型包（提取码：ju6m），解压后将文件夹重命名为 `model_epoch40_50w` 并放入项目根目录下的 `model` 文件夹中。\n\n目录结构应如下所示：\n```text\nGPT2-chitchat\u002F\n├── model\u002F\n│   └── model_epoch40_50w\u002F\n│       ├── config.json\n│       └── pytorch_model.bin\n├── train.py\n├── interact.py\n└── ...\n```\n\n## 3. 基本使用\n\n下载完成后，即可运行 `interact.py` 脚本开始人机对话。\n\n### 场景 A：使用 CPU 运行（无需显卡）\n适合测试或小规模体验，速度相对较慢。\n```bash\npython interact.py --no_cuda --model_path model\u002Fmodel_epoch40_50w\n```\n\n### 场景 B：使用 GPU 运行（推荐）\n指定 GPU 设备 ID（例如 0 号卡），生成速度更快。\n```bash\npython interact.py --model_path model\u002Fmodel_epoch40_50w --device 0\n```\n\n### 交互说明\n- 运行后直接在终端输入文字即可与机器人对话。\n- 输入 `Ctrl+Z` (Windows) 或 `Ctrl+D` (Linux\u002FMac) 结束对话。\n- 聊天记录会自动保存到 `sample\u002Fsample.txt` 文件中。\n\n### 进阶参数调整\n如需调整生成效果（如多样性、重复惩罚等），可添加以下参数：\n```bash\npython interact.py --model_path model\u002Fmodel_epoch40_50w --device 0 --topk 8 --topp 0.95 --repetition_penalty 1.1 --max_history_len 3\n```","某初创团队正在开发一款面向年轻用户的中文情感陪伴 App，急需一个能理解上下文、回复自然且带有“人情味”的闲聊引擎。\n\n### 没有 GPT2-chitchat 时\n- **回复生硬机械**：基于规则或传统检索式的机器人只能匹配关键词，无法生成连贯的多轮对话，用户常感到在“对牛弹琴”。\n- **缺乏语境记忆**：模型难以记住前几轮的聊天内容（如用户刚说“想看电影”，下一句却忘了），导致对话逻辑断裂。\n- **开发门槛高**：自研中文生成模型需要从头构建语料清洗、Tokenize 及训练流程，团队缺乏足够的算力与时间成本。\n- **互动体验差**：无法模拟人类闲聊中的语气词和情感色彩（如“讨厌啦”、“小拳拳”），用户留存率极低。\n\n### 使用 GPT2-chitchat 后\n- **对话流畅自然**：利用预训练的 GPT2 架构及 MMI 思想，模型能生成符合中文口语习惯的回复，甚至包含网络流行语和情绪表达。\n- **多轮上下文感知**：通过 `max_history_len` 参数灵活控制历史记忆长度，模型能精准承接上文，实现真正的“有来有往”。\n- **快速落地部署**：直接加载官方提供的 `model_epoch40` 权重，配合简单的 `interact.py` 脚本，几天内即可集成到产品中。\n- **生成策略可调**：支持调节 Temperature、Top-k 等采样参数，团队可根据产品定位轻松平衡回复的创造性与稳定性。\n\nGPT2-chitchat 让中小团队无需巨额算力投入，也能快速拥有具备高情商与多轮记忆能力的中文闲聊核心。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyangjianxin1_GPT2-chitchat_0c66ed56.png","yangjianxin1","Yang JianXin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyangjianxin1_38fdf885.png","Firefly大模型 | 公众号：YeungNLP | 知乎：红雨瓢泼","Sun Yat-Sen University","Alibaba, Hangzhou, China","yangjianxin1@foxmail.com",null,"https:\u002F\u002Fwww.zhihu.com\u002Fpeople\u002Fjian-xin-15-96","https:\u002F\u002Fgithub.com\u002Fyangjianxin1",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,3011,671,"2026-04-02T08:39:42","未说明","非必需（支持 CPU 运行但速度较慢），具体显卡型号和显存大小未说明，CUDA 版本未说明",{"notes":96,"python":97,"dependencies":98},"项目支持通过 --no_cuda 参数在 CPU 上运行，或通过 --device 指定 GPU ID 加速。训练时支持多卡并行（如 --device 0,1），但 README 提到存在负载不均衡的待办问题。模型文件需单独下载并放入 model 目录。","3.6",[99,100],"transformers==4.2.0","pytorch==1.7.0",[15],[103,104,105,106,107,108,109,110],"transformer","gpt2","gpt-2","chichat","nlp","text-generation","dialogue-model","dialogpt","2026-03-27T02:49:30.150509","2026-04-06T08:46:28.358573",[114,119,124,129,134,139,144],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},16912,"如何提升对话生成的速度？","可以尝试去掉 MMI（互信息最大化）的生成方式，直接在 CPU 上运行，响应生成速度会尚可。此外，如果不强制依赖 GPT-2，也可以考虑使用其他专门的闲聊模型或直接调用现有的闲聊接口，这些方案可能在速度上更有优势。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F66",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},16913,"训练时 Loss 下降缓慢或停滞不动怎么办？","如果显存允许，尝试增大 batch_size 可以加快 Loss 下降速度。例如，作者在使用较小 batch_size (如 8) 时，Loss 降到 2.0 花费了 30-40 个 epoch。另外，需注意 Acc（准确率）过高可能会导致生成内容的丰富度降低，主要应关注 Loss 的下降趋势。如果 Loss 仍有小幅下降但准确率不变，属于正常现象，可继续训练。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F91",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},16914,"运行 train.py 时报错 'AttributeError: module transformers has no attribute WarmupLinearSchedule' 如何解决？","这是 transformers 库版本不兼容导致的。有两种解决方法：\n1. 将 transformers 库降级到 2.1.1 版本。\n2. 如果不换版本，修改代码导入方式，使用 `from transformers import get_linear_schedule_with_warmup` 替代原有的调用方式。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F14",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},16915,"执行训练时出现 'Segmentation fault (core dumped)' 错误且无其他提示怎么办？","这通常是由于 scipy 版本过高引起的冲突。解决方案是将 scipy 降级到 1.2.1 版本。可以通过命令 `pip install scipy==1.2.1` 进行安装。这是因为安装 sklearn 时可能会默认安装最新版的 scipy，从而导致该问题。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F6",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},16916,"如何正确加载预训练模型并提取词向量？","该项目基于 huggingface\u002Ftransformers 库。加载模型和提取向量的标准代码如下：\n```python\nfrom transformers import AutoTokenizer, AutoModel\nimport torch\n\n# 加载分词器和模型（只需指定目录，确保权重文件名为 pytorch_model.bin）\ntokenizer = AutoTokenizer.from_pretrained('model_directory')\nmodel = AutoModel.from_pretrained('model_directory')\n\n# 编码文本\ninput_text = \"Here is some text to encode\"\ninput_ids = torch.tensor([tokenizer.encode(input_text, add_special_tokens=True)])\n\n# 获取隐藏层状态（即词向量表示）\nwith torch.no_grad():\n    last_hidden_states = model(input_ids)[0]\n```\n建议参考 huggingface\u002Ftransformers 官方文档获取更多操作示例。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F43",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},16917,"为什么同样的输入每次生成的回答都不一样？模型无法记住上下文逻辑吗？","生成逻辑中使用了 `torch.multinomial` 函数进行采样，即使概率分布相同，抽样结果也可能不同，这是为了增加回复的多样性。关于上下文逻辑（如是否记得去过某地），如果训练语料中没有涵盖此类逻辑规范，模型很难学会。提高语料质量，特别是针对特定领域（如法律、诗歌）使用格式规范的语料进行训练，可以改善逻辑表现。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F1",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},16918,"引入 MMI（互信息最大化）后效果一定更好吗？需要加载两个模型吗？","测试表明，引入 MMI 后效果未必会有明显改善，具体取决于场景。关于模型加载，MMI 解码过程通常涉及生成候选回复并打分，这可能意味着需要更复杂的推理流程，但核心依然是基于同一个生成模型。如果发现效果不佳或资源消耗过大，可以考虑不使用 MMI 方式。","https:\u002F\u002Fgithub.com\u002Fyangjianxin1\u002FGPT2-chitchat\u002Fissues\u002F7",[]]