[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-thunlp--OpenCLaP":3,"tool-thunlp--OpenCLaP":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":80,"owner_twitter":79,"owner_website":81,"owner_url":82,"languages":79,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":10,"env_os":87,"env_gpu":87,"env_ram":87,"env_deps":88,"category_tags":93,"github_topics":79,"view_count":45,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":94,"updated_at":95,"faqs":96,"releases":137},701,"thunlp\u002FOpenCLaP","OpenCLaP","Open Chinese Language Pre-trained Model Zoo","OpenCLaP 是一个专注于多领域中文预训练语言的模型仓库，由清华大学人工智能研究院自然语言处理与社会人文计算研究中心打造。它旨在解决通用语言模型在处理特定专业领域文本时能力不足的问题。通过提供基于民事\u002F刑事法律文书及百度百科数据训练的模型，OpenCLaP 能显著提升下游自然语言处理任务的性能表现。OpenCLaP 适用于从事中文 NLP 开发的工程师、算法研究人员以及高校学术团队。技术上，OpenCLaP 采用主流的 BERT 神经网络结构，支持最大 512 长度的文本输入，并计划引入全词覆盖等最新训练策略。其模型可直接兼容 pytorch-pretrained-BERT 等开源框架，降低了使用门槛。目前仓库已发布多个版本，包括民事文书、刑事文书及百科领域的预训练模型，且将持续更新更多样化的语料资源。如需了解更多详情或下载模型，可访问其官方网站获取支持。","# OpenCLaP：多领域开源中文预训练语言模型仓库\n\n## 目录\n* [项目简介](#项目简介)\n* [模型概览](#模型概览)\n* [使用方式](#使用方式)\n* [项目网站](#项目网站)\n* [作者与致谢](#作者与致谢)\n\n## 项目简介\n\nOpenCLaP（Open **C**hinese **La**nguage **P**re-trained Model Zoo）是由清华大学人工智能研究院自然语言处理与社会人文计算研究中心推出的一个多领域中文预训练模型仓库。预训练语言模型通过在大规模文本上进行预训练，可以作为下游自然语言处理任务的模型参数或者模型输入以提高模型的整体性能。该模型仓库具有如下几个特点：\n\n- 多领域。我们目前训练出了基于法律文本和百度百科的预训练模型，以提供多样化的可选择模型。\n- 能力强。我们使用了当前主流的 BERT 模型作为预训练的神经网络结构，并支持最大 512 长度的文本输入来适配更加多样的任务需求。\n- 持续更新。我们将在近期加入更多的预训练模型，如增加更多样的训练语料，使用最新的全词覆盖（Whole Word Masking）训练策略等。\n\n## 模型概览\n\n以下是我们目前公开发布的模型概览：\n\n| 名称         | 基础模型  | 数据来源                            | 训练数据大小 | 词表大小 | 模型大小 | 下载地址 |\n| ------------ | --------- | ----------------------------------- | ------------ | -------- | -------- | -------- |\n| 民事文书BERT | bert-base | 全部民事文书                        | 2654万篇文书 | 22554    | 370MB | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip)     |\n| 刑事文书BERT | bert-base | 全部刑事文书                        | 663万篇文书  | 22554  | 370MB  | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fxs.zip)     |\n| 百度百科BERT | bert-base | [百度百科](http:\u002F\u002Fbaike.baidu.com\u002F) | 903万篇词条  | 22166  | 367MB  | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fbaike.zip)     \n\n## 使用方式\n\n我们提供的模型可以被开源项目[pytorch-pretrained-BERT](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT)直接使用。以民事文书BERT为例，具体使用方法分为两步：\n\n* 首先使用脚本下载我们的模型\n\n```\nwget https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip\nunzip ms.zip\n```\n\n* 在运行时指定使用我们的模型`--bert_model $model_folder`来进行使用\n\n## 项目网站\n\n请访问 http:\u002F\u002Fzoo.thunlp.org 以获得更多有关信息。\n\n## 引用\n\nBibtex：\n\n```tex\n@techreport{zhong2019openclap,\n  title={Open Chinese Language Pre-trained Model Zoo},\n  author={Zhong, Haoxi and Zhang, Zhengyan and Liu, Zhiyuan and Sun, Maosong},\n  year={2019},\n  url = \"https:\u002F\u002Fgithub.com\u002Fthunlp\u002Fopenclap\",\n}\n```\n\n## 作者与致谢\n\nHaoxi Zhong（钟皓曦，硕士生）, Zhengyan Zhang（张正彦，本科生）, [Zhiyuan Liu](http:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002F~lzy\u002F)（刘知远，副教授）, [Maosong Sun](http:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002Fsite2\u002Findex.php\u002Fzh\u002Fpeople?id=16)（孙茂松，教授）.\n\n感谢[幂律智能](http:\u002F\u002Fpowerlaw.ai\u002F)对本项目的大力支持与帮助。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_OpenCLaP_readme_2722178e6211.png\" height=\"120px\">\n","# OpenCLaP：多领域开源中文预训练语言模型仓库\n\n## 目录\n* [项目简介](#项目简介)\n* [模型概览](#模型概览)\n* [使用方式](#使用方式)\n* [项目网站](#项目网站)\n* [作者与致谢](#作者与致谢)\n\n## 项目简介\n\nOpenCLaP（Open **C**hinese **La**nguage **P**re-trained Model Zoo）是由清华大学人工智能研究院自然语言处理与社会人文计算研究中心推出的一个多领域中文预训练模型仓库。预训练语言模型通过在大规模文本上进行预训练，可以作为下游自然语言处理任务的模型参数或者模型输入以提高模型的整体性能。该模型仓库具有如下几个特点：\n\n- 多领域。我们目前训练出了基于法律文本和百度百科的预训练模型，以提供多样化的可选择模型。\n- 能力强。我们使用了当前主流的 BERT 模型作为预训练的神经网络结构，并支持最大 512 长度的文本输入来适配更加多样的任务需求。\n- 持续更新。我们将在近期加入更多的预训练模型，如增加更多样的训练语料，使用最新的全词覆盖（Whole Word Masking）训练策略等。\n\n## 模型概览\n\n以下是我们目前公开发布的模型概览：\n\n| 名称         | 基础模型  | 数据来源                            | 训练数据大小 | 词表大小 | 模型大小 | 下载地址 |\n| ------------ | --------- | ----------------------------------- | ------------ | -------- | -------- | -------- |\n| 民事文书 BERT | bert-base | 全部民事文书                        | 2654 万篇文书 | 22554    | 370MB | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip)     |\n| 刑事文书 BERT | bert-base | 全部刑事文书                        | 663 万篇文书  | 22554  | 370MB  | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fxs.zip)     |\n| 百度百科 BERT | bert-base | [百度百科](http:\u002F\u002Fbaike.baidu.com\u002F) | 903 万篇词条  | 22166  | 367MB  | [点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fbaike.zip)     \n\n## 使用方式\n\n我们提供的模型可以被开源项目 [pytorch-pretrained-BERT](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-pretrained-BERT) 直接使用。以民事文书 BERT 为例，具体使用方法分为两步：\n\n* 首先使用脚本下载我们的模型\n\n```\nwget https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip\nunzip ms.zip\n```\n\n* 在运行时指定使用我们的模型 `--bert_model $model_folder` 来进行使用\n\n## 项目网站\n\n请访问 http:\u002F\u002Fzoo.thunlp.org 以获得更多有关信息。\n\n## 引用\n\nBibtex：\n\n```tex\n@techreport{zhong2019openclap,\n  title={Open Chinese Language Pre-trained Model Zoo},\n  author={Zhong, Haoxi and Zhang, Zhengyan and Liu, Zhiyuan and Sun, Maosong},\n  year={2019},\n  url = \"https:\u002F\u002Fgithub.com\u002Fthunlp\u002Fopenclap\",\n}\n```\n\n## 作者与致谢\n\nHaoxi Zhong（钟皓曦，硕士生）, Zhengyan Zhang（张正彦，本科生）, [Zhiyuan Liu](http:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002F~lzy\u002F)（刘知远，副教授）, [Maosong Sun](http:\u002F\u002Fnlp.csai.tsinghua.edu.cn\u002Fsite2\u002Findex.php\u002Fzh\u002Fpeople?id=16)（孙茂松，教授）.\n\n感谢 [幂律智能](http:\u002F\u002Fpowerlaw.ai\u002F) 对本项目的大力支持与帮助。\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_OpenCLaP_readme_2722178e6211.png\" height=\"120px\">","# OpenCLaP 快速上手指南\n\nOpenCLaP（Open Chinese Language Pre-trained Model Zoo）是由清华大学推出的多领域中文预训练模型仓库。本指南将帮助您快速下载并部署其中的模型。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **编程语言**：Python 3.6+\n- **深度学习框架**：PyTorch\n- **依赖库**：`pytorch-pretrained-bert`\n- **存储空间**：每个模型约 370MB，请预留足够磁盘空间\n- **网络建议**：推荐使用国内网络环境以加速下载（模型托管于阿里云 OSS）\n\n## 安装步骤\n\n### 1. 安装依赖库\n首先确保已安装 `pytorch-pretrained-bert` 库：\n\n```bash\npip install pytorch-pretrained-bert\n```\n\n### 2. 下载模型文件\n根据您的需求选择对应的模型进行下载。以下以**民事文书 BERT**为例：\n\n```bash\nwget https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fms.zip\nunzip ms.zip\n```\n\n> **其他模型下载地址：**\n> - 刑事文书 BERT：[点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fxs.zip)\n> - 百度百科 BERT：[点我下载](https:\u002F\u002Fthunlp.oss-cn-qingdao.aliyuncs.com\u002Fbert\u002Fbaike.zip)\n\n## 基本使用\n\n下载并解压后，您可以直接在 Python 脚本中加载本地模型。以下示例展示如何加载词表与模型：\n\n```python\nfrom pytorch_pretrained_bert import BertTokenizer, BertModel\n\n# 指定模型文件夹路径\nmodel_path = '.\u002Fbert-ms\u002F' \n\n# 初始化分词器\ntokenizer = BertTokenizer.from_pretrained(model_path)\n\n# 初始化预训练模型\nmodel = BertModel.from_pretrained(model_path)\n\n# 设置模型为评估模式\nmodel.eval()\n```\n\n加载完成后，即可将模型用于下游自然语言处理任务。更多详细信息请访问项目网站：[http:\u002F\u002Fzoo.thunlp.org](http:\u002F\u002Fzoo.thunlp.org)。","某法律科技初创团队正在开发智能文书分析系统，核心需求是从海量民事判决书中自动提取案由、争议焦点及判决结果等关键信息。\n\n### 没有 OpenCLaP 时\n- 通用中文预训练模型缺乏法律领域知识，导致专业术语识别错误率居高不下。\n- 团队需自行清洗百万级法律文书进行预训练，数据获取与人工标注成本极高。\n- 现有模型对长文本处理能力有限，无法完整覆盖复杂判决书中的逻辑链条。\n- 从零搭建基座模型占用大量 GPU 资源，项目初期有限的预算难以支撑。\n\n### 使用 OpenCLaP 后\n- 直接使用 OpenCLaP 提供的民事文书 BERT，内置了针对法律文本优化的语义理解能力。\n- 无需重复造轮子，下载即插即用，将模型准备时间从数周缩短至小时级。\n- 支持最大 512 长度输入，能够更准确地关联长文档中的前后文信息与上下文依赖。\n- 依托清华大学研究院的权威数据，在保持低成本的同时显著提升下游任务的预测精度。\n\nOpenCLaP 凭借领域专属的预训练能力，让法律垂直领域的 AI 应用落地变得更快更准。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fthunlp_OpenCLaP_36de7002.png","thunlp","THUNLP","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fthunlp_13da7b2e.png","Natural Language Processing Lab at Tsinghua University",null,"thunlp@gmail.com","http:\u002F\u002Fnlp.csai.tsinghua.edu.cn","https:\u002F\u002Fgithub.com\u002Fthunlp",984,147,"2026-02-14T15:29:37","MIT","未说明",{"notes":89,"python":87,"dependencies":90},"需通过 wget 和 unzip 命令下载模型文件（约 370MB），兼容 pytorch-pretrained-BERT 库，支持最大 512 长度文本输入",[91,92],"pytorch-pretrained-BERT","torch",[15],"2026-03-27T02:49:30.150509","2026-04-06T05:17:05.934110",[97,102,107,112,117,122,127,132],{"id":98,"question_zh":99,"answer_zh":100,"source_url":101},2929,"可以开源训练语料吗？","不可以。由于法律预训练语料涉及个人隐私，我们无法发布该数据集。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F15",{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},2930,"微调时遇到参数名不匹配报错怎么办？","这是因为 LayerNorm 参数名不一致（项目提供的是 weight 和 bias，而某些库使用 gamma 和 beta）。请进行参数名映射匹配即可解决。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F12",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},2931,"为什么基于中文字符预训练而不先进行中文分词？","基于字符的模型词表较小且不会有未登录词（OOV）问题。建议参考相关论文分析分词与字符的效果差异（https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.05526.pdf）。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F6",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},2932,"如何训练其他案件类型（如行政、赔偿）的预训练模型？","需要针对这类特定数据进行微调（fine-tune），或者重新进行预训练。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F8",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},2933,"Next Sentence Prediction (NSP) 是如何分割上下句的？长度有限制吗？","英文用句号分割，中文模型通常也用句号。长度没有限制，只要不超过 max_len 即可。注意 RoBERTa 验证过 NSP 作用不大，后续模型很少采用此策略。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F16",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},2934,"有计划将民事文书和刑事文书结合起来训练吗？","暂时没有。因为民事数据量远大于刑事数据，预训练时民事数据会占主导。目前涵盖刑法、民法、刑诉、民诉、商法和行政法。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F5",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},2935,"保存词汇表时出现“索引不连续”警告如何处理？","词汇表中包含特殊空格，旧版包可能将其视为空字符。建议编写自己的 tokenizer 或直接忽略该警告，维护者后续会移除这些空格。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F1",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},2936,"预训练使用了什么样的硬件环境和参数设置？","硬件为 1080 TI*8，耗时约 2 周，使用原始 BERT 训练参数。","https:\u002F\u002Fgithub.com\u002Fthunlp\u002FOpenCLaP\u002Fissues\u002F11",[]]