[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-t-davidson--hate-speech-and-offensive-language":3,"tool-t-davidson--hate-speech-and-offensive-language":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":91,"forks":92,"last_commit_at":93,"license":94,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":102,"github_topics":105,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":120,"updated_at":121,"faqs":122,"releases":153},5415,"t-davidson\u002Fhate-speech-and-offensive-language","hate-speech-and-offensive-language","Repository for the paper \"Automated Hate Speech Detection and the Problem of Offensive Language\", ICWSM 2017","hate-speech-and-offensive-language 是一个专注于自动化仇恨言论检测的开源项目，源自 2017 年 ICWSM 会议的同名学术论文。它核心解决了网络内容审核中的一大难题：如何精准区分“仇恨言论”与一般的“冒犯性语言”。许多系统容易将两者混淆，而该项目通过构建专门的标注数据集和分类词典，帮助算法更准确地识别针对特定群体的恶意攻击，而非仅仅过滤粗俗用语。\n\n该项目主要面向人工智能研究人员、数据科学家以及从事内容安全开发的工程师。其独特亮点在于提供了经过人工标注的高质量数据集（包含 CSV 和 Pickle 格式），以及复现论文分析结果的完整代码流程。此外，项目还公开了专门生成的词汇表，旨在提升分类器在复杂语境下的判断精度。需要注意的是，由于数据本身包含大量种族歧视、性别歧视等真实负面内容，使用者需具备相应的心理承受能力和伦理意识。虽然该仓库目前已停止主动维护且基于较旧的 Python 2.7 环境，但它依然是研究网络仇恨言论、探索偏见问题的重要基准资源，适合用于学术参考或作为新模型的训练基础。","# Automated Hate Speech Detection and the Problem of Offensive Language\nRepository for Thomas Davidson, Dana Warmsley, Michael Macy, and Ingmar Weber. 2017. \"Automated Hate Speech Detection and the Problem of Offensive Language.\" ICWSM. You read the paper [here](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FICWSM\u002Farticle\u002Fview\u002F14955).\n\n\n# NOTE: This repository is no longer actively maintained. Please do not post issues regarding the compatibility of the existing code with new versions of Python or the packages used. I will not accept any pull requests. If you plan to use this data or code in your research, please review the [issues](https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues), as several Github users have suggested changes or improvements to the codebase.\n\n## 2019 NEWS\nWe have a new paper on racial bias in this dataset and others, you can read it [here](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.12516)\n\n\n***WARNING: The data, lexicons, and notebooks all contain content that is racist, sexist, homophobic, and offensive in many other ways.***\n\nYou can find our labeled data in the `data` directory. We have included them as a pickle file (Python 2.7) and as a CSV. You will also find a notebook in the `src` directory containing Python 2.7 code to replicate our analyses in the paper and a lexicon in the `lexicons` directory that we generated to try to more accurately classify hate speech. The `classifier` directory contains a script, instructions, and the necessary files to run our classifier on new data, a test case is provided.\n\n\n***Please cite our paper in any published work that uses any of these resources.***\n~~~\n@inproceedings{hateoffensive,\n  title = {Automated Hate Speech Detection and the Problem of Offensive Language},\n  author = {Davidson, Thomas and Warmsley, Dana and Macy, Michael and Weber, Ingmar}, \n  booktitle = {Proceedings of the 11th International AAAI Conference on Web and Social Media},\n  series = {ICWSM '17},\n  year = {2017},\n  location = {Montreal, Canada},\n  pages = {512-515}\n  }\n~~~\n\n***Contact***\nWe would also appreciate it if you could fill out this short [form](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSdrPNlfVBlqxun2tivzAtsZaOoPC5YYMocn-xscCgeRakLXHg\u002Fviewform?usp=pp_url&entry.1506871634&entry.147453066&entry.1390333885&entry.516829772) if you are interested in using our data so we can keep track of how these data are used and get in contact with researchers working on similar problems.\n\nIf you have any questions please contact `thomas dot davidson at rutgers  dot edu`.\n","# 自动化仇恨言论检测与冒犯性语言问题\n托马斯·戴维森、达娜·沃姆斯利、迈克尔·梅西和英格玛·韦伯的项目仓库。2017年，“自动化仇恨言论检测与冒犯性语言问题”。ICWSM。您可以[此处](https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FICWSM\u002Farticle\u002Fview\u002F14955)阅读论文。\n\n\n# 注意：本仓库已不再积极维护。请勿提交关于现有代码与新版Python或所用软件包兼容性的议题。我将不会接受任何拉取请求。如果您计划在研究中使用这些数据或代码，请查看[议题](https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues)，因为多位GitHub用户已提出对代码库的修改或改进建议。\n\n## 2019年最新消息\n我们发表了一篇关于该数据集及其他数据集中种族偏见的新论文，您可[在此](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.12516)阅读。\n\n\n***警告：数据、词典和笔记本均包含种族主义、性别歧视、恐同以及其他多种冒犯性内容。***\n\n您可以在`data`目录中找到我们的标注数据。我们以Python 2.7的pickle文件和CSV格式提供了这些数据。此外，在`src`目录中还有一个包含Python 2.7代码的笔记本，用于复现论文中的分析；在`lexicons`目录中则有一个我们为更准确地分类仇恨言论而生成的词典。`classifier`目录中包含一个脚本、使用说明以及运行分类器处理新数据所需的文件，并提供了一个测试案例。\n\n\n***请在使用这些资源的任何已发表成果中引用我们的论文。***\n~~~\n@inproceedings{hateoffensive,\n  title = {自动化仇恨言论检测与冒犯性语言问题},\n  author = {戴维森, 托马斯; 沃姆斯利, 达娜; 麦西, 迈克尔; 韦伯, 英格玛}, \n  booktitle = {第11届国际AAAI网络与社交媒体会议论文集},\n  series = {ICWSM '17},\n  year = {2017},\n  location = {加拿大蒙特利尔},\n  pages = {512-515}\n  }\n~~~\n\n***联系方式***\n如果您有意使用我们的数据，也请您填写这份简短的[表格](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSdrPNlfVBlqxun2tivzAtsZaOoPC5YYMocn-xscCgeRakLXHg\u002Fviewform?usp=pp_url&entry.1506871634&entry.147453066&entry.1390333885&entry.516829772)，以便我们跟踪这些数据的使用情况，并与从事类似研究的学者取得联系。\n\n如有任何问题，请联系`thomas dot davidson at rutgers dot edu`。","# hate-speech-and-offensive-language 快速上手指南\n\n> **⚠️ 重要提示**：本项目已停止维护。代码基于 Python 2.7 编写，不再兼容新版 Python 或依赖库。作者明确表示不再接受 Issue 或 Pull Request。如需用于研究，请务必查阅项目 Issues 中社区提供的修复建议。\n>\n> **⚠️ 内容警告**：数据集、词典及笔记中包含种族主义、性别歧视、恐同及其他冒犯性内容，请谨慎使用。\n\n## 环境准备\n\n由于该项目严格依赖 **Python 2.7** 环境，现代开发环境需单独配置。\n\n*   **操作系统**：Linux \u002F macOS \u002F Windows (需配置 Python 2.7 环境)\n*   **Python 版本**：Python 2.7 (必须)\n*   **核心依赖**：\n    *   `pickle` (Python 2 内置)\n    *   `pandas` (适用于 Python 2.7 的旧版本)\n    *   `scikit-learn` (适用于 Python 2.7 的旧版本)\n    *   `jupyter` (用于运行 `.ipynb` 笔记)\n\n**国内加速建议**：\n在安装 Python 包时，建议使用清华或阿里镜像源以提升下载速度。\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \u003Cpackage_name>\n```\n\n## 安装步骤\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language.git\n    cd hate-speech-and-offensive-language\n    ```\n\n2.  **配置 Python 2.7 环境**\n    推荐使用 `conda` 创建隔离环境（假设已安装 Anaconda\u002FMiniconda）：\n    ```bash\n    conda create -n hate_speech_py2 python=2.7\n    conda activate hate_speech_py2\n    ```\n\n3.  **安装依赖包**\n    由于项目未提供 `requirements.txt`，需手动安装兼容 Python 2.7 的旧版科学计算库：\n    ```bash\n    pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple pandas==0.24.2 scikit-learn==0.20.3 jupyter==1.0.0\n    ```\n\n## 基本使用\n\n项目提供了标注数据、分析笔记和分类器脚本。以下是最基础的数据加载与查看示例。\n\n### 1. 加载标注数据\n数据位于 `data` 目录，支持 CSV 和 Pickle (Python 2.7) 格式。推荐使用 CSV 以避免序列化兼容问题。\n\n在 Python 2.7 环境中执行：\n\n```python\nimport pandas as pd\n\n# 读取 CSV 格式数据\ndf = pd.read_csv('data\u002Flabeled_data.csv')\n\n# 查看前几行数据\nprint(df.head())\n\n# 数据列说明：\n# count: 标注人数\n# hate_speech: 被标记为仇恨言论的数量\n# offensive_language: 被标记为冒犯性语言的数量\n# neither: 两者都不是的数量\n# class: 最终分类 (0: hate speech, 1: offensive language, 2: neither)\n# tweet: 推文内容\n```\n\n### 2. 复现论文分析\n项目 `src` 目录下包含完整的 Jupyter Notebook，用于复现论文中的分析结果。\n\n启动 Jupyter Notebook：\n```bash\njupyter notebook\n```\n在浏览器中打开 `src` 目录下的 `.ipynb` 文件，按顺序运行单元格即可。\n\n### 3. 运行分类器\n`classifier` 目录包含用于新数据分类的脚本。\n\n*   查看使用说明和测试案例：\n    ```bash\n    cat classifier\u002FREADME\n    ```\n*   运行测试案例（具体命令请参考该目录下的说明文档，通常涉及调用 Python 脚本并传入测试文本）。\n\n---\n**引用说明**：若在研究中使用此资源，请务必引用原论文：\n> Davidson, T., Warmsley, D., Macy, M., & Weber, I. (2017). Automated Hate Speech Detection and the Problem of Offensive Language. *ICWSM '17*.","某中型社交平台的社区运营团队正面临用户举报量激增的困境，急需优化对仇恨言论和冒犯性内容的自动审核流程。\n\n### 没有 hate-speech-and-offensive-language 时\n- **规则僵化导致误杀**：仅依赖关键词黑名单，无法区分“群体攻击”与“个人辱骂”，常将激烈的辩论误判为仇恨言论。\n- **人工审核负荷过重**：由于缺乏精准的预分类模型，审核员需逐条阅读大量模棱两可的争议内容，响应速度严重滞后。\n- **缺乏学术基准支撑**：团队自行构建的训练数据规模小且偏差大，导致模型难以识别隐晦的种族或性别歧视表达。\n- **定义界限模糊**：内部对“冒犯性语言”与“仇恨言论”缺乏统一的数据化定义标准，导致处理结果前后不一致。\n\n### 使用 hate-speech-and-offensive-language 后\n- **细粒度精准识别**：利用其标注数据集训练出的模型，能有效区分仇恨言论、一般冒犯性语言及非冒犯内容，大幅降低误报率。\n- **自动化分流提效**：系统可自动标记高置信度的仇恨内容进行拦截，仅将边缘案例推送到人工队列，审核效率提升数倍。\n- **引入权威数据基准**：直接复用 ICWSM 论文中的高质量标注数据和词库，让模型快速具备识别复杂歧视语境的能力。\n- **标准化分类体系**：采纳该工具明确的三级分类标准（仇恨、冒犯、无问题），统一了全平台的 content moderation 执行尺度。\n\nhate-speech-and-offensive-language 通过提供权威的学术数据集和分类范式，帮助平台从粗糙的关键词过滤升级为精细化的语义理解，显著平衡了社区安全与言论自由的边界。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ft-davidson_hate-speech-and-offensive-language_4fe4cb3d.png","t-davidson","Tom Davidson","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ft-davidson_f06eac01.jpg","Computational Sociologist","Rutgers University","New Brunswick, NJ",null,"thomasrdavidson","thomasrdavidson.com","https:\u002F\u002Fgithub.com\u002Ft-davidson",[83,87],{"name":84,"color":85,"percentage":86},"Jupyter Notebook","#DA5B0B",96.1,{"name":88,"color":89,"percentage":90},"Python","#3572A5",3.9,838,329,"2026-04-05T13:22:04","MIT",4,"","未说明",{"notes":99,"python":100,"dependencies":101},"该仓库已不再维护，不接受新的 Issue 或 Pull Request。代码和数据包含种族主义、性别歧视等冒犯性内容。数据提供为 Python 2.7 的 pickle 文件和 CSV 格式。建议在用于研究前查看 Issues 中社区提出的改进建议。","2.7",[],[35,103,104,16,14],"音频","其他",[106,107,108,109,110,111,112,113,114,115,116,117,118,119],"hatespeech","offensive","nlp","icwsm","twitter","abuse","offensive-language","hate-speech","natural-language-processing","dataset","labeled-data","classifier","machine-learning","computational-social-science","2026-03-27T02:49:30.150509","2026-04-08T14:46:05.110413",[123,128,133,138,143,148],{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},24577,"运行分类器时出现 'encoding' 是无效关键字参数的错误，如何解决？","这是一个 Python 版本兼容性问题。该错误通常发生在 Python 2 环境中，因为 `open()` 函数在 Python 2 中不支持 `encoding` 参数。请确保使用 Python 3.6 来运行代码，问题即可解决。","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F7",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},24578,"加载 pickle 模型文件（如 final_tfidf.pkl）时出现 AttributeError 或版本警告怎么办？","这通常是由于 scikit-learn 或 NLTK 的版本不匹配导致的。提供的 pickle 文件是在旧版本（如 0.18）下保存的，而在新版本（如 0.19+）中加载会报错或产生警告。\n解决方案：不要直接使用提供的 pickle 文件，而是运行仓库中的 Notebook 脚本重新训练分类器并生成新的模型文件。此外，确保已下载正确的 NLTK 数据模块（例如运行 `nltk.download()` 获取必要的资源）。","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F6",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},24579,"代码中的 tokenize 和 basic_tokenize 函数生成的标记列表全是单个字符，如何修复？","这是正则表达式的问题。原代码使用了 `[^a-zA-Z]*`（星号），导致分割逻辑错误。请将代码中的星号 `*` 替换为加号 `+`。\n修改前：`tweet = \" \".join(re.split(\"[^a-zA-Z]*\", tweet.lower())).strip()`\n修改后：`tweet = \" \".join(re.split(\"[^a-zA-Z]+\", tweet.lower())).strip()`\n对 `basic_tokenize` 函数也需进行相同的修改。","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F14",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},24580,"在使用 Keras 训练该数据集时，某些类别的结果很差，如何处理数据不平衡问题？","这是一个高难度的预测问题，且类别（特别是仇恨言论和冒犯性言论）难以区分。针对数据不平衡，建议采取以下措施：\n1. 在 sklearn 中使用 `class_weight` 参数来补偿类别不平衡，你可以在 Keras 中实现类似的加权逻辑。\n2. 考虑使用 `imbalanced-learn` 模块来处理不平衡数据。\n3. 参考引用了该项目的其他研究论文，许多作者使用神经网络改进了性能。","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F8",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},24581,"导入 textstat 模块时提示缺少 'repoze.lru' 模块，或者运行时报错，如何解决？","这通常是由于 `textstat` 库的新版本与项目代码不兼容导致的。维护者已经合并了相关的 Pull Request 来修复此问题。请拉取（pull）仓库的最新版本代码，问题应该已经解决。如果仍然遇到类似问题，可以尝试检查 `textstat` 的版本兼容性或使用项目中指定的依赖版本。","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F4",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},24582,"README 中提供的研究论文链接无法打开，正确的链接是什么？","原始链接已失效。正确的论文链接是：https:\u002F\u002Fojs.aaai.org\u002Findex.php\u002FICWSM\u002Farticle\u002Fview\u002F14955","https:\u002F\u002Fgithub.com\u002Ft-davidson\u002Fhate-speech-and-offensive-language\u002Fissues\u002F16",[]]