[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-TobiasLee--Text-Classification":3,"tool-TobiasLee--Text-Classification":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":76,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":92,"env_deps":93,"category_tags":98,"github_topics":99,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":105,"updated_at":106,"faqs":107,"releases":143},6433,"TobiasLee\u002FText-Classification","Text-Classification","Implementation of papers for text classification task on DBpedia","Text-Classification 是一个基于 TensorFlow 实现的开源项目，专注于文本分类任务。它集成了多篇学术界前沿论文中的经典模型代码，旨在帮助开发者快速复现和验证先进的文本分类算法，解决从基础卷积神经网络到复杂注意力机制等多种场景下的分类难题。\n\n该项目非常适合人工智能研究人员、算法工程师以及希望深入理解 NLP 模型原理的开发者使用。无论是进行学术研究对比，还是为企业应用构建高性能分类器，Text-Classification 都提供了丰富的参考实现。其核心亮点在于涵盖了多种主流架构，包括著名的\"Attention Is All You Need\"（Transformer 前身）、分层注意力网络（HAN）、独立循环神经网络（IndRNN）以及对抗训练方法等。项目在 DBpedia 数据集上的测试表现优异，部分模型准确率超过 98%。此外，代码库已针对新版 TensorFlow 进行了预处理流程的优化，虽然默认参数未经过精细调优，但开放的源码结构允许用户根据具体需求灵活修改内核，是学习和实践深度学习文本分类的优质起点。","# Text-Classification\nImplement some state-of-the-art text classification models with TensorFlow.\n\n## Requirement\n\n- Python3\n- TensorFlow >= 1.4\n\nNote: Original code is written in TensorFlow 1.4, while the `VocabularyProcessor` is depreciated, updated code changes to use `tf.keras.preprocessing.text` to do preprocessing. The **new** preprocessing function is named `data_preprocessing_v2`\n\n## Dataset\n\nYou can load the data with\n\n```python\ndbpedia = tf.contrib.learn.datasets.load_dataset('dbpedia', test_with_fake_data=FLAGS.test_with_fake_data)\n```\n\nOr download it from [Baidu Yun](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hz4Oh9A4udLzFjudyVDazw).\n\n## Attention is All Your Need\n\nPaper: [Attention Is All You Need](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725)\n\nSee multi_head.py\n\nUse self-attention where **Query = Key = Value = sentence after word embedding**\n\nMultihead Attention module is implemented by [Kyubyong](https:\u002F\u002Fgithub.com\u002FKyubyong\u002Ftransformer)\n\n## IndRNN for Text Classification\n\nPaper: [Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.04831)\n\nIndRNNCell is implemented by [batzener](https:\u002F\u002Fgithub.com\u002Fbatzner\u002Findrnn)\n\n## Attention-Based Bidirection LSTM for Text Classification\n\nPaper: [Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP16-2034)  \n\nSee attn_bi_lstm.py\n\n## Hierarchical Attention Networks for Text Classification\n\nPaper: [Hierarchical Attention Networks for Document Classification](http:\u002F\u002Faclweb.org\u002Fanthology\u002FN16-1174)\n\nSee attn_lstm_hierarchical.py\n\nAttention module is implemented by [ilivans\u002Ftf-rnn-attention ](https:\u002F\u002Fgithub.com\u002Filivans\u002Ftf-rnn-attention).\n\n## Adversarial Training Methods For Supervised Text Classification\n\nPaper: [Adversarial Training Methods For Semi-Supervised Text Classification](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725)\n\nSee: adversrial_abblstm.py\n\n\n## Convolutional Neural Networks for Sentence Classification\n\nPaper: [Convolutional Neural Networks for Sentence Classification](http:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)\n\nSee: cnn.py\n\n\n## RMDL: Random Multimodel Deep Learning for Classification\n\nPaper: [RMDL: Random Multimodel Deep Learning for Classification](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01890)\n\nSee: RMDL.py\nSee: [RMDL Github](https:\u002F\u002Fgithub.com\u002Fkk7nc\u002FRMDL)\n\n\n\n\n**Note**: The parameters are not fine-tuned, you can modify the kernel as you want.\n## Performance\n\n| Model                               | Test Accuracy | Notes                   |\n| ----------------------------------- | ------------- | ----------------------- |\n| Attention-based Bi-LSTM             | 98.23 %       |                         |\n| HAN                                 | 89.15%        | 1080Ti 10 epochs 12 min |\n| Adversarial Attention-based Bi-LSTM | 98.5%         | AWS p2 2 hours          |\n| IndRNN                              | 98.39%        | 1080Ti 10 epochs 10 min |\n| Attention is All Your Need          | 97.81%        | 1080Ti 15 epochs 8 min  |\n| RMDL                                | 98.91%        | 2X Tesla Xp (3 RDLs)    |\n| CNN                                 | 98.37%        |   |\n\n## Welcome To Contribute\n\nIf you have any models implemented with great performance, you're welcome to contribute. Also, I'm glad to help if you have any problems with the project,  feel free to raise a issue.\n\n\n\n","# 文本分类\n使用 TensorFlow 实现一些最先进的文本分类模型。\n\n## 需求\n\n- Python3\n- TensorFlow >= 1.4\n\n注意：原始代码是用 TensorFlow 1.4 编写的，但由于 `VocabularyProcessor` 已被弃用，更新后的代码改用 `tf.keras.preprocessing.text` 进行预处理。**新**的预处理函数名为 `data_preprocessing_v2`。\n\n## 数据集\n\n你可以通过以下方式加载数据：\n\n```python\ndbpedia = tf.contrib.learn.datasets.load_dataset('dbpedia', test_with_fake_data=FLAGS.test_with_fake_data)\n```\n\n或者从 [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hz4Oh9A4udLzFjudyVDazw) 下载。\n\n## 注意力就是你需要的一切\n\n论文：[Attention Is All You Need](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725)\n\n请参阅 `multi_head.py` 文件。\n\n在该实现中，使用自注意力机制，其中 **Query = Key = Value = 经过词嵌入后的句子**。\n\n多头注意力模块由 [Kyubyong](https:\u002F\u002Fgithub.com\u002FKyubyong\u002Ftransformer) 实现。\n\n## IndRNN 用于文本分类\n\n论文：[独立循环神经网络（IndRNN）：构建更长、更深的 RNN](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.04831)\n\nIndRNNCell 由 [batzener](https:\u002F\u002Fgithub.com\u002Fbatzner\u002Findrnn) 实现。\n\n## 基于注意力的双向 LSTM 用于文本分类\n\n论文：[基于注意力的双向长短时记忆网络用于关系分类](http:\u002F\u002Fwww.aclweb.org\u002Fanthology\u002FP16-2034)\n\n请参阅 `attn_bi_lstm.py` 文件。\n\n## 层次化注意力网络用于文本分类\n\n论文：[用于文档分类的层次化注意力网络](http:\u002F\u002Faclweb.org\u002Fanthology\u002FN16-1174)\n\n请参阅 `attn_lstm_hierarchical.py` 文件。\n\n注意力模块由 [ilivans\u002Ftf-rnn-attention](https:\u002F\u002Fgithub.com\u002Filivans\u002Ftf-rnn-attention) 实现。\n\n## 有监督文本分类的对抗训练方法\n\n论文：[半监督文本分类的对抗训练方法](http:\u002F\u002Farxiv.org\u002Fabs\u002F1605.07725)\n\n请参阅 `adversrial_abblstm.py` 文件。\n\n## 用于句子分类的卷积神经网络\n\n论文：[用于句子分类的卷积神经网络](http:\u002F\u002Farxiv.org\u002Fabs\u002F1408.5882)\n\n请参阅 `cnn.py` 文件。\n\n## RMDL：用于分类的随机多模型深度学习\n\n论文：[RMDL：用于分类的随机多模型深度学习](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.01890)\n\n请参阅 `RMDL.py` 文件。\n\n更多信息请访问 [RMDL GitHub 仓库](https:\u002F\u002Fgithub.com\u002Fkk7nc\u002FRMDL)。\n\n**注意**：这些参数并未经过精细调优，你可以根据需要修改超参数。\n\n## 性能\n\n| 模型                               | 测试准确率 | 备注                   |\n| ----------------------------------- | ------------ | ----------------------- |\n| 基于注意力的双向 LSTM             | 98.23%       |                         |\n| HAN                                 | 89.15%       | 1080Ti，10轮，12分钟   |\n| 对抗性基于注意力的双向 LSTM       | 98.5%        | AWS p2，2小时          |\n| IndRNN                              | 98.39%       | 1080Ti，10轮，10分钟   |\n| 注意力就是你需要的一切            | 97.81%       | 1080Ti，15轮，8分钟    |\n| RMDL                                | 98.91%       | 2X Tesla Xp（3个 RDL）  |\n| CNN                                 | 98.37%       |   |\n\n## 欢迎贡献\n\n如果你实现了性能优异的模型，欢迎提交贡献。此外，如果在项目中遇到任何问题，我也很乐意提供帮助，请随时提出 issue。","# Text-Classification 快速上手指南\n\n本指南帮助开发者快速使用基于 TensorFlow 的先进文本分类模型库。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：支持 Python 3 的 Linux、macOS 或 Windows 系统\n*   **Python 版本**：Python 3.x\n*   **深度学习框架**：TensorFlow >= 1.4\n    *   *注意*：原始代码基于 TensorFlow 1.4 编写。由于 `VocabularyProcessor` 已被弃用，更新后的代码改用 `tf.keras.preprocessing.text` 进行预处理（新函数名为 `data_preprocessing_v2`）。\n\n## 安装步骤\n\n1.  **克隆项目代码**\n    将仓库克隆到本地：\n    ```bash\n    git clone \u003Crepository_url>\n    cd Text-Classification\n    ```\n\n2.  **安装依赖**\n    确保已安装 TensorFlow 1.4 或更高版本。推荐使用国内镜像源加速安装：\n    ```bash\n    pip install tensorflow>=1.4 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *(注：若需其他特定依赖，请根据项目根目录下的 `requirements.txt` 进行安装)*\n\n3.  **获取数据集**\n    本项目支持自动加载 DBPedia 数据集，也提供百度网盘下载链接以应对网络限制。\n\n    *   **方式一：代码自动加载**\n        在代码中通过以下语句加载（支持假数据测试）：\n        ```python\n        dbpedia = tf.contrib.learn.datasets.load_dataset('dbpedia', test_with_fake_data=FLAGS.test_with_fake_data)\n        ```\n\n    *   **方式二：手动下载（推荐国内用户）**\n        访问 [百度网盘链接](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1hz4Oh9A4udLzFjudyVDazw) 下载数据，并放置于项目指定的数据目录中。\n\n## 基本使用\n\n本项目实现了多种 SOTA 模型，您可以根据需求选择对应的脚本运行。以下以 **CNN (卷积神经网络)** 模型为例展示最简使用流程：\n\n1.  **选择模型脚本**\n    根据下表选择对应的 `.py` 文件：\n\n    | 模型名称 | 对应脚本文件 | 论文参考 |\n    | :--- | :--- | :--- |\n    | CNN | `cnn.py` | Convolutional Neural Networks for Sentence Classification |\n    | Attention Bi-LSTM | `attn_bi_lstm.py` | Attention-Based Bidirectional LSTM |\n    | HAN (层级注意力) | `attn_lstm_hierarchical.py` | Hierarchical Attention Networks |\n    | Transformer | `multi_head.py` | Attention Is All You Need |\n    | IndRNN | (需引入 IndRNNCell) | Independently Recurrent Neural Network |\n    | RMDL | `RMDL.py` | Random Multimodel Deep Learning |\n    | 对抗训练 Bi-LSTM | `adversrial_abblstm.py` | Adversarial Training Methods |\n\n2.  **运行模型**\n    直接在终端运行选定的脚本。参数未进行精细调优，您可以直接运行或修改内核参数：\n\n    ```bash\n    python cnn.py\n    ```\n\n    若要使用更新后的预处理函数（兼容新版 TensorFlow），请确保代码中调用的是 `data_preprocessing_v2`。\n\n3.  **查看结果**\n    程序运行结束后，终端将输出测试集准确率（Test Accuracy）。参考性能如下：\n    *   **RMDL**: ~98.91%\n    *   **Adversarial Attention-based Bi-LSTM**: ~98.5%\n    *   **IndRNN**: ~98.39%\n    *   **CNN**: ~98.37%\n\n> **提示**：所有模型参数均未针对特定任务进行微调，欢迎根据实际业务场景修改代码中的超参数以获得更佳效果。","某电商公司的数据团队需要每天处理数万条用户评论，将其自动归类为“产品质量”、“物流速度”或“售后服务”等类别，以便快速生成运营报告。\n\n### 没有 Text-Classification 时\n- 依赖人工逐条阅读并打标，耗时费力且无法应对海量数据爆发，导致反馈滞后数天。\n- 尝试使用简单的关键词匹配规则，无法识别反讽或复杂语境（如“物流快但东西坏了”），分类准确率极低。\n- 自行从零研发深度学习模型，需耗费数周复现论文算法，且在 TensorFlow 版本兼容和预处理环节频繁报错。\n- 缺乏统一的基准测试框架，难以对比不同模型（如 CNN、Bi-LSTM、Transformer）在特定业务数据上的真实性能差异。\n\n### 使用 Text-Classification 后\n- 直接调用内置的 DBpedia 数据集加载接口与 `data_preprocessing_v2` 函数，半天内即可完成数据清洗与模型训练流水线搭建。\n- 灵活切换 IndRNN、Attention-based Bi-LSTM 或 RMDL 等多种 SOTA 模型架构，轻松捕捉长文本依赖与细微语义，准确率提升至 98% 以上。\n- 利用项目中已调试好的多头注意力机制与对抗训练模块，显著增强了模型对噪声数据和未知表达的鲁棒性。\n- 参考官方提供的性能对照表，迅速选定最适合当前算力环境（如单卡 1080Ti）的高性价比模型，将训练时间从数小时压缩至十分钟级。\n\nText-Classification 通过提供开箱即用的前沿算法实现与标准化流程，让团队从繁琐的底层代码复现中解放出来，专注于业务逻辑优化与高价值决策。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FTobiasLee_Text-Classification_76a47bc2.png","TobiasLee","Lei Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FTobiasLee_e7f05c31.jpg","PhD Student@HKU\r\nPrev. Master @PKU\r\n",null,"Hong Kong","_TobiasLee","https:\u002F\u002Flilei-nlp.github.io","https:\u002F\u002Fgithub.com\u002FTobiasLee",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,735,192,"2026-02-13T11:58:13","Apache-2.0","","非必需，但性能测试中使用了 NVIDIA 1080Ti, Tesla Xp, AWS p2 实例","未说明",{"notes":94,"python":95,"dependencies":96},"原始代码基于 TensorFlow 1.4 编写，其中 VocabularyProcessor 已弃用；更新后的代码使用 tf.keras.preprocessing.text 进行预处理（新函数名为 data_preprocessing_v2）。数据集可通过 tf.contrib.learn 加载或从百度网盘下载。参数未经过精细调整，用户可根据需要修改。","Python 3",[97],"TensorFlow>=1.4",[14],[100,101,102,103,104],"text-classification","attention","tensorflow","lstm","cnn","2026-03-27T02:49:30.150509","2026-04-11T08:10:50.789561",[108,113,118,123,128,133,138],{"id":109,"question_zh":110,"answer_zh":111,"source_url":112},29105,"运行代码时出现 'NameError: name 'FLAGS' is not defined' 错误，或者找不到数据集文件（如 train.csv），该如何加载数据？","该错误通常是因为缺少数据集。解决方法有两种：\n1. 使用 TensorFlow API 自动下载：移除代码中的 `, test_with_fake_data=FLAGS.test_with_fake_data` 参数，然后运行 `dbpedia = tf.contrib.learn.datasets.load_dataset('dbpedia')`，这会在当前目录创建 `.\u002Fdbpedia_data` 文件夹并包含数据文件。\n2. 手动下载：维护者曾提供 Google Drive 链接下载数据集，如果原链接失效，请检查项目 README 或寻找替代的数据集源。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F10",{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},29106,"使用的 DBPedia 数据集是哪个版本的？","维护者表示不确定具体版本号，因为该数据集最初是通过旧的 TensorFlow API 下载的。建议查阅 TensorFlow 1.4 的遗留文档以获取相关版本信息。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F20",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},29107,"在对抗训练（Adversarial Training）代码中，为什么计算未扰动 loss 时 `reuse=False`，而计算扰动后 loss 时 `reuse=True`？","这是为了共享权重。在计算加上扰动后的 loss 时，需要重新使用之前已经定义过的网络权重来进行计算，因此必须设置 `reuse=True`。如果不复用，TensorFlow 会尝试创建新的变量导致错误或逻辑不一致。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F15",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},29108,"使用自定义数据集（非 DBPedia）时，验证集和测试集的准确率均为 0，但使用 DBPedia 数据集正常，原因是什么？","这通常归因于数据预处理过程。由于模型在 DBPedia 数据集上表现正常，说明模型本身无误。对于其他语言（如阿拉伯语）或特定格式的数据集，用户需要检查并修改预处理代码（例如分词、编码处理等），确保输入数据格式与模型预期一致。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F13",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},29109,"训练时遇到 'ValueError: Cannot feed value of shape...' 形状不匹配错误，或者标签值出现异常（如 -2147483648 或 NaN），如何解决？","这类问题通常由数据洗牌（shuffle）操作引起，可能导致标签数据（data_Y）变为 NaN 或形状错乱。维护者已修复此问题，解决方案是更改数据洗牌方式，使用 sklearn 库中的 `shuffle()` 函数来代替原有的实现。此外，也请检查输入数据文件的列是否正确，确保没有喂入错误的列。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},29110,"运行 cnn.py 或其他模型时程序崩溃，报错 'SIGSEGV' (exit code 139) 或注意力机制（Attention）实现有问题怎么办？","1. 对于 SIGSEGV 崩溃：通常与环境或硬件有关，请提供具体的运行环境和硬件信息以便排查。\n2. 对于注意力模块问题：维护者已根据原始仓库更新了注意力模块的实现。如果遇到准确率异常或实现疑问，请拉取最新代码尝试新的注意力模块实现。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F16",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},29111,"如何获取注意力向量（attention vector\u002Falpha）并在训练过程中查看？","用户需要在代码中修改注意力权重的变量名以便访问。例如，将计算 softmax 后的结果赋值给 `self.alpha`：\n`self.alpha = tf.nn.softmax(tf.matmul(tf.reshape(M, [-1, self.hidden_size]), tf.reshape(W, [-1, 1])))`\n修改后，即可在训练步骤中打印或提取 `self.alpha` 来观察每个词的注意力权重分布。","https:\u002F\u002Fgithub.com\u002FTobiasLee\u002FText-Classification\u002Fissues\u002F3",[]]