[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-huggingface--torchMoji":3,"tool-huggingface--torchMoji":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":72,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":88,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":100,"github_topics":101,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":145},9858,"huggingface\u002FtorchMoji","torchMoji","😇A pyTorch implementation of the DeepMoji model: state-of-the-art deep learning model for analyzing sentiment, emotion, sarcasm etc","torchMoji 是一个基于 PyTorch 框架开源的情感分析模型，它是著名的 DeepMoji 模型的复现版本。该工具的核心能力在于理解文本中蕴含的复杂情绪，不仅能识别常规的正面或负面情感，还能精准捕捉讽刺、幽默等细微的语气变化。\n\n它主要解决了传统自然语言处理模型难以准确解读非正式网络用语和隐含情感的问题。通过迁移学习技术，torchMoji 在多种情绪相关的文本建模任务中都能达到业界领先的性能表现。其独特的技术亮点在于训练数据极为庞大——模型学习了 12 亿条带有表情符号的推文，从而深刻掌握了人类如何利用语言表达情绪，并能将文本转化为高维的情感特征向量。\n\ntorchMoji 非常适合 AI 研究人员、开发者以及数据科学家使用。研究人员可以利用它复现论文结果或探索情感计算的新方向；开发者则能轻松调用预训练模型，为聊天机器人、社交媒体监控或内容推荐系统添加强大的情感理解功能。虽然普通用户无法直接操作代码，但可以通过其在线演示体验其分析效果。对于希望深入理解文本情感细微差别的团队来说，torchMoji 是一个高效且可靠的技术基石。","### ------ Update September 2018 ------\nIt's been a year since TorchMoji and DeepMoji were released. We're trying to understand how it's being used such that we can make improvements and design better models in the future. \n\nYou can help us achieve this by answering this [4-question Google Form](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSe1h4NSQD30YM8dsbJQEnki-02_9KVQD34qgP9to0bwAHBvBA\u002Fviewform \"DeepMoji Google Form\"). Thanks for your support!\n\n# 😇 TorchMoji\n\n> **Read our blog post about the implementation process [here](https:\u002F\u002Fmedium.com\u002Fhuggingface\u002Funderstanding-emotions-from-keras-to-pytorch-3ccb61d5a983).**\n\nTorchMoji is a [pyTorch](http:\u002F\u002Fpytorch.org\u002F) implementation of the [DeepMoji](https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji) model developped by Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan and Sune Lehmann.\n\nThis model trained on 1.2 billion tweets with emojis to understand how language is used to express emotions. Through transfer learning the model can obtain state-of-the-art performance on many emotion-related text modeling tasks.\n\nTry the online demo of DeepMoji on this 🤗 [Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FPendrokar\u002FDeepMoji)! See the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524), [blog post](https:\u002F\u002Fmedium.com\u002F@bjarkefelbo\u002Fwhat-can-we-learn-from-emojis-6beb165a5ea0) or [FAQ](https:\u002F\u002Fwww.media.mit.edu\u002Fprojects\u002Fdeepmoji\u002Foverview\u002F) for more details.\n\n## Overview\n* [torchmoji\u002F](torchmoji) contains all the underlying code needed to convert a dataset to the vocabulary and use the model.\n* [examples\u002F](examples) contains short code snippets showing how to convert a dataset to the vocabulary, load up the model and run it on that dataset.\n* [scripts\u002F](scripts) contains code for processing and analysing datasets to reproduce results in the paper.\n* [model\u002F](model) contains the pretrained model and vocabulary.\n* [data\u002F](data) contains raw and processed datasets that we include in this repository for testing.\n* [tests\u002F](tests) contains unit tests for the codebase.\n\nTo start out with, have a look inside the [examples\u002F](examples) directory. See [score_texts_emojis.py](examples\u002Fscore_texts_emojis.py) for how to use DeepMoji to extract emoji predictions, [encode_texts.py](examples\u002Fencode_texts.py) for how to convert text into 2304-dimensional emotional feature vectors or [finetune_youtube_last.py](examples\u002Ffinetune_youtube_last.py) for how to use the model for transfer learning on a new dataset.\n\nPlease consider citing the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524) of DeepMoji if you use the model or code (see below for citation).\n\n## Installation\n\nWe assume that you're using [Python 2.7-3.5](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) with [pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstalling\u002F) installed.\n\nFirst you need to install [pyTorch (version 0.2+)](http:\u002F\u002Fpytorch.org\u002F), currently by:\n```bash\nconda install pytorch -c pytorch\n```\nAt the present stage the model can't make efficient use of CUDA. See details in the [Hugging Face blog post](https:\u002F\u002Fmedium.com\u002Fhuggingface\u002Funderstanding-emotions-from-keras-to-pytorch-3ccb61d5a983).\n\nWhen pyTorch is installed, run the following in the root directory to install the remaining dependencies:\n\n```bash\npip install -e .\n```\nThis will install the following dependencies:\n* [scikit-learn](https:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn)\n* [text-unidecode](https:\u002F\u002Fgithub.com\u002Fkmike\u002Ftext-unidecode)\n* [emoji](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002Femoji)\n\nThen, run the download script to downloads the pretrained torchMoji weights (~85MB) from [here](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fq8lax9ary32c7t9\u002Fpytorch_model.bin?dl=0) and put them in the model\u002F directory:\n\n```bash\npython scripts\u002Fdownload_weights.py\n```\n\n## Testing\nTo run the tests, install [nose](http:\u002F\u002Fnose.readthedocs.io\u002Fen\u002Flatest\u002F). After installing, navigate to the [tests\u002F](tests) directory and run:\n\n```bash\ncd tests\nnosetests -v\n```\n\nBy default, this will also run finetuning tests. These tests train the model for one epoch and then check the resulting accuracy, which may take several minutes to finish. If you'd prefer to exclude those, run the following instead:\n\n```bash\ncd tests\nnosetests -v -a '!slow'\n```\n\n## Disclaimer\nThis code has been tested to work with Python 2.7 and 3.5 on Ubuntu 16.04 and macOS Sierra machines. It has not been optimized for efficiency, but should be fast enough for most purposes. We do not give any guarantees that there are no bugs - use the code on your own responsibility!\n\n## Contributions\nWe welcome pull requests if you feel like something could be improved. You can also greatly help us by telling us how you felt when writing your most recent tweets. Just click [here](http:\u002F\u002Fdeepmoji.mit.edu\u002Fcontribute\u002F) to contribute.\n\n## License\nThis code and the pretrained model is licensed under the MIT license.\n\n## Benchmark datasets\nThe benchmark datasets are uploaded to this repository for convenience purposes only. They were not released by us and we do not claim any rights on them. Use the datasets at your responsibility and make sure you fulfill the licenses that they were released with. If you use any of the benchmark datasets please consider citing the original authors.\n\n## Citation\n```\n@inproceedings{felbo2017,\n  title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},\n  author={Felbo, Bjarke and Mislove, Alan and S{\\o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},\n  booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},\n  year={2017}\n}\n```\n","### ------ 2018年9月更新 ------\n自TorchMoji和DeepMoji发布以来，已经过去了一年。我们正努力了解这些工具的使用情况，以便在未来进行改进并设计出更好的模型。\n\n您可以通过填写这份[4题谷歌表单](https:\u002F\u002Fdocs.google.com\u002Fforms\u002Fd\u002Fe\u002F1FAIpQLSe1h4NSQD30YM8dsbJQEnki-02_9KVQD34qgP9to0bwAHBvBA\u002Fviewform \"DeepMoji Google Form\")来帮助我们实现这一目标。感谢您的支持！\n\n# 😇 TorchMoji\n\n> **请阅读我们的博客文章，了解实现过程 [这里](https:\u002F\u002Fmedium.com\u002Fhuggingface\u002Funderstanding-emotions-from-keras-to-pytorch-3ccb61d5a983)。**\n\nTorchMoji是Bjarke Felbo、Alan Mislove、Anders Søgaard、Iyad Rahwan和Sune Lehmann开发的[DeepMoji](https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji)模型的[pyTorch](http:\u002F\u002Fpytorch.org\u002F)实现。\n\n该模型基于12亿条带有表情符号的推文进行训练，旨在理解语言如何用于表达情感。通过迁移学习，该模型在许多与情感相关的文本建模任务中都能达到最先进的性能水平。\n\n您可以在🤗 [Space](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002FPendrokar\u002FDeepMoji)上试用DeepMoji的在线演示！更多详情请参阅[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524)、[博客文章](https:\u002F\u002Fmedium.com\u002F@bjarkefelbo\u002Fwhat-can-we-learn-from-emojis-6beb165a5ea0)或[常见问题解答](https:\u002F\u002Fwww.media.mit.edu\u002Fprojects\u002Fdeepmoji\u002Foverview\u002F)。\n\n## 概述\n* [torchmoji\u002F](torchmoji) 包含将数据集转换为词汇表以及使用模型所需的所有底层代码。\n* [examples\u002F](examples) 包含简短的代码片段，展示如何将数据集转换为词汇表、加载模型并在该数据集上运行。\n* [scripts\u002F](scripts) 包含用于处理和分析数据集的代码，以复现论文中的结果。\n* [model\u002F](model) 包含预训练模型和词汇表。\n* [data\u002F](data) 包含我们在此仓库中包含的用于测试的原始及处理后的数据集。\n* [tests\u002F](tests) 包含代码库的单元测试。\n\n首先，请查看[examples\u002F](examples)目录。您可以参考[score_texts_emojis.py](examples\u002Fscore_texts_emojis.py)了解如何使用DeepMoji提取表情符号预测结果；参考[encode_texts.py](examples\u002Fencode_texts.py)了解如何将文本转换为2304维的情感特征向量；或者参考[finetune_youtube_last.py](examples\u002Ffinetune_youtube_last.py)了解如何在新数据集上使用该模型进行迁移学习。\n\n如果您使用了该模型或代码，请考虑引用DeepMoji的[论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524)（引用格式见下文）。\n\n## 安装\n\n我们假设您正在使用已安装[pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstalling\u002F)的[Python 2.7–3.5](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)。\n\n首先需要安装[pyTorch（版本0.2及以上）](http:\u002F\u002Fpytorch.org\u002F)，目前可通过以下命令安装：\n```bash\nconda install pytorch -c pytorch\n```\n现阶段该模型尚无法高效利用CUDA。详情请参阅[Hugging Face博客文章](https:\u002F\u002Fmedium.com\u002Fhuggingface\u002Funderstanding-emotions-from-keras-to-pytorch-3ccb61d5a983)。\n\n安装完pyTorch后，在根目录下运行以下命令以安装其余依赖项：\n\n```bash\npip install -e .\n```\n\n这将安装以下依赖项：\n* [scikit-learn](https:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn)\n* [text-unidecode](https:\u002F\u002Fgithub.com\u002Fkmike\u002Ftext-unidecode)\n* [emoji](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002Femoji)\n\n然后，运行下载脚本从[这里](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fq8lax9ary32c7t9\u002Fpytorch_model.bin?dl=0)下载预训练的TorchMoji权重（约85MB），并将其放入model\u002F目录中：\n\n```bash\npython scripts\u002Fdownload_weights.py\n```\n\n## 测试\n要运行测试，需先安装[nose](http:\u002F\u002Fnose.readthedocs.io\u002Fen\u002Flatest\u002F)。安装完成后，进入[tests\u002F](tests)目录并运行：\n\n```bash\ncd tests\nnosetests -v\n```\n\n默认情况下，此命令还会运行微调测试。这些测试会训练模型一个周期，然后检查最终的准确率，可能需要几分钟才能完成。如果您希望排除这些测试，可以改用以下命令：\n\n```bash\ncd tests\nnosetests -v -a '!slow'\n```\n\n## 免责声明\n此代码已在Ubuntu 16.04和macOS Sierra机器上的Python 2.7和3.5环境中测试过。它尚未针对效率进行优化，但对大多数用途来说应该足够快。我们不保证代码中不存在任何错误——请自行承担使用风险！\n\n## 贡献\n如果您认为某些方面可以改进，欢迎提交Pull Request。此外，您也可以通过告诉我们撰写最近推文时的感受来帮助我们。只需点击[这里](http:\u002F\u002Fdeepmoji.mit.edu\u002Fcontribute\u002F)即可参与贡献。\n\n## 许可证\n本代码及预训练模型采用MIT许可证授权。\n\n## 基准数据集\n基准数据集仅出于方便目的上传至本仓库。它们并非由我们发布，我们也未对其主张任何权利。请自行承担使用这些数据集的风险，并确保遵守其发布的许可协议。如果您使用了任何基准数据集，请考虑引用其原始作者。\n\n## 引用\n```\n@inproceedings{felbo2017,\n  title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},\n  author={Felbo, Bjarke and Mislove, Alan and S{\\o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},\n  booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},\n  year={2017}\n}\n```","# TorchMoji 快速上手指南\n\nTorchMoji 是一个基于 PyTorch 实现的深度学习模型，通过在 12 亿条带表情符号的推文上进行训练，能够精准理解语言中的情感表达。它支持情感分析、情绪检测及迁移学习等任务。\n\n## 环境准备\n\n*   **操作系统**：推荐 Ubuntu 16.04 或 macOS Sierra（其他 Linux 发行版通常也可用）。\n*   **Python 版本**：Python 2.7 至 3.5。\n*   **核心依赖**：\n    *   PyTorch (版本 0.2+)\n    *   pip (包管理工具)\n    *   conda (推荐用于安装 PyTorch)\n\n> **注意**：当前版本对 CUDA 加速的支持尚未优化，主要在 CPU 上运行，但对于大多数测试和中等规模任务速度足够。\n\n## 安装步骤\n\n### 1. 安装 PyTorch\n使用 conda 安装指定版本的 PyTorch：\n```bash\nconda install pytorch -c pytorch\n```\n*(注：若国内下载缓慢，可尝试配置清华或中科大 conda 镜像源)*\n\n### 2. 安装项目依赖\n进入项目根目录，通过 pip 安装剩余依赖（包括 scikit-learn, text-unidecode, emoji）：\n```bash\npip install -e .\n```\n\n### 3. 下载预训练模型权重\n运行脚本下载约 85MB 的预训练权重文件至 `model\u002F` 目录：\n```bash\npython scripts\u002Fdownload_weights.py\n```\n*(注：该脚本默认从 Dropbox 下载，若网络受阻，需手动下载 [pytorch_model.bin](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fq8lax9ary32c7t9\u002Fpytorch_model.bin?dl=0) 并放入 `model\u002F` 文件夹)*\n\n## 基本使用\n\n安装完成后，可参考 `examples\u002F` 目录下的脚本进行快速体验。以下是三种最常用的场景：\n\n### 场景一：预测文本对应的表情符号\n提取文本最可能对应的情感表情：\n```bash\npython examples\u002Fscore_texts_emojis.py\n```\n\n### 场景二：生成情感特征向量\n将文本转换为 2304 维的情感特征向量，用于后续机器学习任务：\n```bash\npython examples\u002Fencode_texts.py\n```\n\n### 场景三：迁移学习（微调模型）\n在新数据集上对模型进行微调，以适应特定领域的情感分析任务：\n```bash\npython examples\u002Ffinetune_youtube_last.py\n```\n\n建议直接查看上述脚本源码以了解具体的输入数据格式和 API 调用方式。","某电商公司的数据团队需要每日处理数万条包含大量网络用语和表情符号的用户评论，以精准识别潜在的客户情绪危机。\n\n### 没有 torchMoji 时\n- 传统情感分析模型无法理解\"😭\"、\"🔥\"等表情符号的深层含义，常将带有反讽语气的负面评论误判为正面反馈。\n- 面对\"笑死我了\"这类具有歧义的网络流行语，规则引擎难以区分是真正的开心还是表达无奈，导致情绪标签准确率低下。\n- 团队需耗费大量人力手动标注训练数据来适配新出现的网络梗，模型迭代周期长且维护成本高昂。\n- 缺乏细粒度的情绪维度，只能输出简单的“正\u002F负”二分结果，无法洞察用户具体的愤怒、悲伤或惊喜程度。\n\n### 使用 torchMoji 后\n- torchMoji 基于 12 亿条推文训练，能精准解读表情符号与文本的组合语义，有效识别反讽和隐含情绪，大幅降低误判率。\n- 借助迁移学习能力，torchMoji 无需重新训练即可直接理解最新的网络用语和上下文语境，显著提升对复杂表达的解析精度。\n- 利用预训练模型直接提取 2304 维情感特征向量，团队可跳过繁琐的数据标注阶段，快速将模型部署到生产环境。\n- 输出结果涵盖多种具体情绪类别（如喜悦、悲伤、愤怒等），帮助产品团队更细致地定位用户痛点并制定针对性策略。\n\ntorchMoji 通过深度理解表情与语言的组合艺术，将粗糙的情感分类升级为高精度的情绪洞察，让机器真正读懂人类文字背后的温度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fhuggingface_torchMoji_2f19941a.png","huggingface","Hugging Face","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fhuggingface_90da21a4.png","The AI community building the future.",null,"https:\u002F\u002Fhuggingface.co\u002F","https:\u002F\u002Fgithub.com\u002Fhuggingface",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,921,188,"2026-03-22T01:54:06","MIT","Linux (Ubuntu 16.04), macOS (Sierra)","非必需。README 明确指出当前模型无法有效利用 CUDA 加速，建议使用 CPU 运行。","未说明（但提到微调测试可能需要几分钟，且需处理大规模数据，建议具备充足内存）",{"notes":92,"python":93,"dependencies":94},"该工具仅在 Ubuntu 16.04 和 macOS Sierra 上经过测试。安装 PyTorch 后需运行脚本下载约 85MB 的预训练权重文件。代码未经过效率优化，但在大多数用途下速度足够。Windows 系统未提及支持。","2.7 - 3.5",[95,96,97,98,99],"pytorch>=0.2","scikit-learn","text-unidecode","emoji","nose",[14,35],[102,103,104,105,106],"machine-learning","deep-learning","natural-language-processing","pytorch","python","2026-03-27T02:49:30.150509","2026-04-20T07:17:16.586349",[110,115,120,125,130,135,140],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},44267,"如何在 Python 3 中修复 'raw_input' 未定义的错误？","在 Python 3 中，需要将代码中的 `raw_input()` 函数调用更改为 `input()`。这通常出现在 `scripts\u002Fdownload_weights` 等脚本中。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F1",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},44268,"在没有 CUDA 的 CPU 环境下运行时出现张量类型不匹配错误怎么办？","该错误通常发生在 `attlayer.py` 文件中。如果代码尝试将索引转换为 CUDA 张量而输入数据仍在 CPU 上，会导致运算失败。解决方法是注释掉 `attlayer.py` 第 54 和 55 行，防止 `idxes` 被转换为 CUDA 张量，从而使其保持与输入数据相同的设备状态。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F2",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},44269,"从头训练模型时注意力权重初始化有问题导致无法收敛怎么办？","注意力权重默认可能初始化为极大的随机值（高达 10^38），导致从头训练失败。原 Keras 实现使用的是 -0.05 到 0.05 之间的均匀分布。该问题已在提交 aa5818ae8dc4493749f2e4c08c273620a4e26446 中修复，建议更新代码或使用预训练模型以避免此问题。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F11",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},44270,"在 Google Colab 上运行时报错 'ValueError: too many values to unpack' 如何解决？","这是因为 Google Colab 默认提供的 PyTorch 版本（如 1.1）与该库不兼容。解决方法是将 PyTorch 降级到 1.0.1 版本，即可正常运行 `text_emojize.py` 或进行编码操作。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F24",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},44271,"运行 text_emojize.py 时出现 AssertionError 错误是什么原因？","当输入的句子列表中包含换行符 (`\\n`)、制表符 (`\\t`) 等特殊字符时，会导致分词器断言失败并崩溃。建议在预处理阶段添加异常处理逻辑，过滤或清理包含此类特殊字符的行。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F36",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},44272,"如何将输出结果中的 Emoji ID 转换为实际的 Emoji 符号或 Unicode？","可以参考 `examples\u002Ftext_emojize.py` 文件中第 60 行开始的示例代码。如果需要获取 Emoji 的文本描述而不是图形符号，可以跳过第 63 行（即不调用 `emoji.emojize...`），直接输出对应的文本标签。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F35",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},44273,"微调超过 2 个类别时出现 RuntimeError (LongTensor vs FloatTensor) 怎么办？","该错误提示目标变量类型不匹配（期望 LongTensor 但找到 FloatTensor），通常与 PyTorch 版本兼容性或损失函数设置有关。用户报告在 PyTorch 0.3.0 环境下遇到此问题，可能需要检查 CrossEntropyLoss 的使用方式或根据 Pull Request 中的修改调整代码以适配新版本 PyTorch。","https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji\u002Fissues\u002F6",[]]