[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-bfelbo--DeepMoji":3,"tool-bfelbo--DeepMoji":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":75,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":93,"env_deps":94,"category_tags":104,"github_topics":105,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":155},4212,"bfelbo\u002FDeepMoji","DeepMoji","State-of-the-art deep learning model for analyzing sentiment, emotion, sarcasm etc.","DeepMoji 是一款基于深度学习的情感分析模型，专为理解文本中微妙的情绪、讽刺及情感色彩而设计。它通过在 12 亿条带有表情符号的推文上进行训练，学会了像人类一样通过语境解读情绪，从而在各类情感相关任务中达到了业界领先的性能。\n\n该工具主要解决了传统分析方法难以捕捉网络语言中隐含语气（如反讽或复杂情感）的痛点。其核心技术亮点在于“迁移学习”：利用海量表情符号数据预训练模型，使其能够轻松适配到新的数据集上，只需少量微调即可实现高精度预测。此外，它还能将文本转化为 2304 维的情感特征向量，为深度语义分析提供可能。\n\nDeepMoji 非常适合 AI 研究人员、自然语言处理开发者以及数据科学家使用。无论是需要构建情感分类系统、分析社交媒体舆情，还是探索语言与情绪关联的研究项目，它都能提供强大的底层支持。需要注意的是，原始代码基于 Python 2 和 Keras 框架，若需在现代环境中运行，建议参考社区提供的 PyTorch 版本（torchMoji）或对代码进行适当调整。尽管在线演示服务已停止，但其开源代码依然具备极高的研究与实用价值。","### ------ Update September 2023 ------\n\nThe online demo is no longer available as it's not possible for us to renew the certificate. The code in this repo still works, but you might have to make some changes for it to work in Python 3 (see the open PRs). You can also check out the PyTorch version of this algorithm called [torchMoji](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji) made by HuggingFace.\n\n# DeepMoji\n\n[![DeepMoji Youtube](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbfelbo_DeepMoji_readme_3a87c1ade839.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=u_JwYxtjzUs)  \n*(click image for video demonstration)*\n  \nDeepMoji is a model trained on 1.2 billion tweets with emojis to understand how language is used to express emotions. Through transfer learning the model can obtain state-of-the-art performance on many emotion-related text modeling tasks.\n  \nSee the [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524) or [blog post](https:\u002F\u002Fmedium.com\u002F@bjarkefelbo\u002Fwhat-can-we-learn-from-emojis-6beb165a5ea0) for more details.\n\n## Overview\n* [deepmoji\u002F](deepmoji) contains all the underlying code needed to convert a dataset to our vocabulary and use our model.\n* [examples\u002F](examples) contains short code snippets showing how to convert a dataset to our vocabulary, load up the model and run it on that dataset.\n* [scripts\u002F](scripts) contains code for processing and analysing datasets to reproduce results in the paper.\n* [model\u002F](model) contains the pretrained model and vocabulary.\n* [data\u002F](data) contains raw and processed datasets that we include in this repository for testing.\n* [tests\u002F](tests) contains unit tests for the codebase.\n  \nTo start out with, have a look inside the [examples\u002F](examples) directory. See [score_texts_emojis.py](examples\u002Fscore_texts_emojis.py) for how to use DeepMoji to extract emoji predictions, [encode_texts.py](examples\u002Fencode_texts.py) for how to convert text into 2304-dimensional emotional feature vectors or [finetune_youtube_last.py](examples\u002Ffinetune_youtube_last.py) for how to use the model for transfer learning on a new dataset.\n\nPlease consider citing our [paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524) if you use our model or code (see below for citation).\n\n## Frameworks\n\nThis code is based on Keras, which requires either Theano or Tensorflow as the backend. If you would rather use pyTorch there's an implementation available [here](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji), which has kindly been provided by Thomas Wolf.\n\n## Installation\n\nWe assume that you're using [Python 2.7](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) with [pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstalling\u002F) installed. As a backend you need to install either [Theano (version 0.9+)](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Finstall.html) or  [Tensorflow (version 1.3+)](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002F). Once that's done you need to run the following inside the root directory to install the remaining dependencies:\n  \n```bash\npip install -e .\n```\nThis will install the following dependencies:\n* [Keras](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fkeras) (the library was tested on version 2.0.5 but anything above 2.0.0 should work)\n* [scikit-learn](https:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn)\n* [h5py](https:\u002F\u002Fgithub.com\u002Fh5py\u002Fh5py)\n* [text-unidecode](https:\u002F\u002Fgithub.com\u002Fkmike\u002Ftext-unidecode)\n* [emoji](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002Femoji)\n\nEnsure that Keras uses your chosen backend. You can find the instructions [here](https:\u002F\u002Fkeras.io\u002Fbackend\u002F), under the *Switching from one backend to another* section.\n\nRun the included script, which downloads the pretrained DeepMoji weights (~85MB) from [here](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fxqarafsl6a8f9ny\u002Fdeepmoji_weights.hdf5?dl=0) and places them in the model\u002F directory:\n\n```bash\npython scripts\u002Fdownload_weights.py\n```\n\n## Testing\nTo run the tests, install [nose](http:\u002F\u002Fnose.readthedocs.io\u002Fen\u002Flatest\u002F). After installing, navigate to the [tests\u002F](tests) directory and run:\n\n```bash\nnosetests -v\n```\n\nBy default, this will also run finetuning tests. These tests train the model for one epoch and then check the resulting accuracy, which may take several minutes to finish. If you'd prefer to exclude those, run the following instead: \n\n```bash\nnosetests -v -a '!slow'\n```\n\n## Disclaimer \nThis code has been tested to work with Python 2.7 on an Ubuntu 16.04 machine. It has not been optimized for efficiency, but should be fast enough for most purposes. We do not give any guarantees that there are no bugs - use the code on your own responsibility!\n\n## Contributions\nWe welcome pull requests if you feel like something could be improved. You can also greatly help us by telling us how you felt when writing your most recent tweets. Just click [here](http:\u002F\u002Fdeepmoji.mit.edu\u002Fcontribute\u002F) to contribute.\n\n## License\nThis code and the pretrained model is licensed under the MIT license. \n\n## Benchmark datasets\nThe benchmark datasets are uploaded to this repository for convenience purposes only. They were not released by us and we do not claim any rights on them. Use the datasets at your responsibility and make sure you fulfill the licenses that they were released with. If you use any of the benchmark datasets please consider citing the original authors.\n\n## Twitter dataset\nWe sadly cannot release our large Twitter dataset of tweets with emojis due to licensing restrictions.\n\n## Citation\n```\n@inproceedings{felbo2017,\n  title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},\n  author={Felbo, Bjarke and Mislove, Alan and S{\\o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},\n  booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},\n  year={2017}\n}\n```\n","### ------ 2023年9月更新 ------\n\n在线演示已不可用，因为我们无法续期证书。此仓库中的代码仍然有效，但可能需要进行一些修改才能在 Python 3 中运行（请参阅已打开的 PR）。你也可以查看由 HuggingFace 开发的该算法的 PyTorch 版本 [torchMoji](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji)。\n\n# DeepMoji\n\n[![DeepMoji YouTube](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbfelbo_DeepMoji_readme_3a87c1ade839.jpg)](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=u_JwYxtjzUs)  \n*（点击图片观看视频演示）*\n\nDeepMoji 是一个基于 12 亿条带表情符号的推文训练的模型，用于理解语言如何表达情感。通过迁移学习，该模型在许多与情感相关的文本建模任务上都能达到最先进的性能。\n\n更多详情请参阅 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524) 或 [博客文章](https:\u002F\u002Fmedium.com\u002F@bjarkefelbo\u002Fwhat-can-we-learn-from-emojis-6beb165a5ea0)。\n\n## 概述\n* [deepmoji\u002F](deepmoji) 包含将数据集转换为我们的词汇表并使用我们模型所需的所有底层代码。\n* [examples\u002F](examples) 包含简短的代码片段，展示如何将数据集转换为我们的词汇表、加载模型并在该数据集上运行。\n* [scripts\u002F](scripts) 包含用于处理和分析数据集以复现论文中结果的代码。\n* [model\u002F](model) 包含预训练模型和词汇表。\n* [data\u002F](data) 包含我们在此仓库中包含的用于测试的原始及处理后的数据集。\n* [tests\u002F](tests) 包含代码库的单元测试。\n\n首先，请查看 [examples\u002F](examples) 目录。请参阅 [score_texts_emojis.py](examples\u002Fscore_texts_emojis.py) 了解如何使用 DeepMoji 提取表情符号预测，[encode_texts.py](examples\u002Fencode_texts.py) 介绍如何将文本转换为 2304 维的情感特征向量，或 [finetune_youtube_last.py](examples\u002Ffinetune_youtube_last.py) 说明如何在新数据集上使用该模型进行迁移学习。\n\n如果你使用我们的模型或代码，请考虑引用我们的 [论文](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.00524)（引用信息见下文）。\n\n## 框架\n此代码基于 Keras，后者需要 Theano 或 Tensorflow 作为后端。如果你更倾向于使用 PyTorch，HuggingFace 的 Thomas Wolf 已经提供了一个实现版本，可在 [这里](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji) 找到。\n\n## 安装\n我们假设你正在使用 [Python 2.7](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) 并已安装 [pip](https:\u002F\u002Fpip.pypa.io\u002Fen\u002Fstable\u002Finstalling\u002F)。作为后端，你需要安装 [Theano（版本 0.9+）](http:\u002F\u002Fdeeplearning.net\u002Fsoftware\u002Ftheano\u002Finstall.html) 或 [Tensorflow（版本 1.3+）](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002F)。完成这些步骤后，在根目录下运行以下命令以安装其余依赖项：\n\n```bash\npip install -e .\n```\n\n这将安装以下依赖项：\n* [Keras](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Fkeras)（该库已在 2.0.5 版本上测试过，但 2.0.0 以上版本应该都可以工作）\n* [scikit-learn](https:\u002F\u002Fgithub.com\u002Fscikit-learn\u002Fscikit-learn)\n* [h5py](https:\u002F\u002Fgithub.com\u002Fh5py\u002Fh5py)\n* [text-unidecode](https:\u002F\u002Fgithub.com\u002Fkmike\u002Ftext-unidecode)\n* [emoji](https:\u002F\u002Fgithub.com\u002Fcarpedm20\u002Femoji)\n\n请确保 Keras 使用你选择的后端。相关说明可在 [这里](https:\u002F\u002Fkeras.io\u002Fbackend\u002F) 的“从一个后端切换到另一个后端”部分找到。\n\n运行附带的脚本，它会从 [这里](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fxqarafsl6a8f9ny\u002Fdeepmoji_weights.hdf5?dl=0) 下载预训练的 DeepMoji 权重（约 85MB），并将其放置在 model\u002F 目录中：\n\n```bash\npython scripts\u002Fdownload_weights.py\n```\n\n## 测试\n要运行测试，需先安装 [nose](http:\u002F\u002Fnose.readthedocs.io\u002Fen\u002Flatest\u002F)。安装完成后，导航至 [tests\u002F](tests) 目录并运行：\n\n```bash\nnosetests -v\n```\n\n默认情况下，这也会运行微调测试。这些测试会训练模型一个 epoch，然后检查最终的准确率，整个过程可能需要几分钟。如果你想排除这些测试，可以运行以下命令：\n\n```bash\nnosetests -v -a '!slow'\n```\n\n## 免责声明\n此代码已在 Ubuntu 16.04 机器上的 Python 2.7 环境中测试通过。它并未针对效率进行优化，但对于大多数用途来说速度应该足够快。我们不保证代码中不存在任何 bug——请自行承担使用风险！\n\n## 贡献\n我们欢迎任何希望改进代码的拉取请求。你也可以通过告诉我们撰写最近几条推文时的感受来帮助我们。只需点击 [这里](http:\u002F\u002Fdeepmoji.mit.edu\u002Fcontribute\u002F) 即可贡献。\n\n## 许可证\n此代码及预训练模型采用 MIT 许可证授权。\n\n## 基准数据集\n基准数据集仅出于方便目的上传至此仓库。它们并非由我们发布，我们也并不声称对其拥有任何权利。请自行承担使用这些数据集的风险，并确保遵守其发布的许可协议。如果你使用了任何基准数据集，请考虑引用其原始作者。\n\n## Twitter 数据集\n遗憾的是，由于许可限制，我们无法公开包含表情符号的大规模 Twitter 数据集。\n\n## 引用\n```\n@inproceedings{felbo2017,\n  title={Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm},\n  author={Felbo, Bjarke and Mislove, Alan and S{\\o}gaard, Anders and Rahwan, Iyad and Lehmann, Sune},\n  booktitle={Conference on Empirical Methods in Natural Language Processing (EMNLP)},\n  year={2017}\n}\n```","# DeepMoji 快速上手指南\n\nDeepMoji 是一个基于 12 亿条带表情符号的推文训练而成的模型，擅长理解语言中的情感表达。通过迁移学习，该模型在多种情感相关的文本建模任务中可达到业界领先（SOTA）的性能。\n\n> **注意**：官方在线演示已停止服务。原始代码基于 Python 2.7 和 Keras (Theano\u002FTensorFlow 后端)。如果您希望使用 Python 3 或 PyTorch 版本，推荐使用 HuggingFace 提供的 [torchMoji](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002FtorchMoji)。以下指南基于原始仓库内容。\n\n## 环境准备\n\n本工具已在 **Ubuntu 16.04** + **Python 2.7** 环境下测试通过。请确保满足以下前置条件：\n\n*   **操作系统**: Linux (推荐 Ubuntu 16.04)\n*   **Python 版本**: Python 2.7\n*   **包管理工具**: pip\n*   **深度学习后端** (二选一):\n    *   Theano (版本 0.9+)\n    *   TensorFlow (版本 1.3+)\n*   **Keras**: 需配置为使用上述选定的后端。\n\n## 安装步骤\n\n1.  **安装基础依赖与后端**\n    请先根据官方文档安装 Theano 或 TensorFlow，并配置 Keras 使用对应的后端。\n\n2.  **安装项目依赖**\n    在项目根目录下运行以下命令，将自动安装 Keras, scikit-learn, h5py 等所需库：\n    ```bash\n    pip install -e .\n    ```\n\n3.  **下载预训练模型权重**\n    运行以下脚本下载预训练权重文件 (~85MB) 并放置到 `model\u002F` 目录：\n    ```bash\n    python scripts\u002Fdownload_weights.py\n    ```\n    *(注：如果下载速度慢，可手动从 [Dropbox 链接](https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fxqarafsl6a8f9ny\u002Fdeepmoji_weights.hdf5?dl=0) 下载 `deepmoji_weights.hdf5` 文件并放入 `model\u002F` 文件夹)*\n\n## 基本使用\n\n安装完成后，您可以参考 `examples\u002F` 目录中的脚本进行使用。以下是三种最常用的场景：\n\n*   **预测文本对应的表情符号概率**\n    ```bash\n    python examples\u002Fscore_texts_emojis.py\n    ```\n\n*   **将文本转换为 2304 维的情感特征向量**\n    ```bash\n    python examples\u002Fencode_texts.py\n    ```\n\n*   **在新数据集上进行迁移学习（微调）**\n    ```bash\n    python examples\u002Ffinetune_youtube_last.py\n    ```\n\n建议直接查看上述脚本源码以了解具体的输入数据格式和 API 调用方式。","某电商公司的客服团队每天需处理数万条用户评论，急需自动识别其中的讽刺、愤怒或喜悦情绪以优先处理高风险客诉。\n\n### 没有 DeepMoji 时\n- 传统情感分析模型只能简单区分“正面”或“负面”，完全无法识别用户用“这服务真是‘太棒’了”这类反话表达的讽刺意味。\n- 面对带有强烈情绪色彩的网络用语和表情符号，规则引擎往往失效，导致大量隐含愤怒的评论被误判为中性。\n- 人工复核成本极高，客服人员必须逐条阅读海量数据才能筛选出真正的紧急舆情，响应速度严重滞后。\n- 缺乏细粒度的情绪维度（如悲伤、惊讶），难以针对不同情绪类型的用户制定差异化的安抚策略。\n\n### 使用 DeepMoji 后\n- DeepMoji 基于 12 亿条推文训练，能精准捕捉上下文中的讽刺语气，将原本被误判的“反话”正确标记为负面情绪。\n- 模型天然理解表情符号与文本的组合含义，能敏锐识别出夹杂\"😡\"或\"🙄\"的隐蔽愤怒表达，大幅降低漏报率。\n- 系统可自动生成 2304 维情绪特征向量，实现毫秒级批量处理，让团队能实时锁定并优先介入高危客诉。\n- 输出结果涵盖多种具体情绪类别，帮助运营团队针对“失望”或“焦虑”等不同心理状态推送定制化的解决方案。\n\nDeepMoji 将通过迁移学习获得的深层语义理解能力转化为实际生产力，让机器真正读懂人类文字背后的复杂情感。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fbfelbo_DeepMoji_3a87c1ad.jpg","bfelbo","Bjarke Felbo","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fbfelbo_2d07e595.png","MIT, YCombinator, Forbes 30 under 30. Love diving into ML algorithms 🤓",null,"https:\u002F\u002Fbfelbo.com\u002F","https:\u002F\u002Fgithub.com\u002Fbfelbo",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,1552,310,"2026-03-30T05:37:36","MIT",5,"Linux (Ubuntu 16.04)","未说明",{"notes":95,"python":96,"dependencies":97},"该工具基于 Python 2.7 开发，在 Python 3 中运行可能需要修改代码（参考仓库中的 PR）。官方测试环境为 Ubuntu 16.04。需手动运行脚本下载约 85MB 的预训练权重文件。若需 PyTorch 版本或使用 Python 3，建议使用 HuggingFace 提供的 torchMoji 项目。","2.7",[98,99,100,101,102,103],"Keras>=2.0.0","Theano>=0.9 或 Tensorflow>=1.3","scikit-learn","h5py","text-unidecode","emoji",[13,26,15,14],[106,107,108,109,110,111,112,113,114,115,116],"machine-learning","deep-learning","natural-language-processing","python","ai","keras","neural-networks","nlp","sentiment-analysis","tensorflow","text-classification","2026-03-27T02:49:30.150509","2026-04-06T14:03:49.028190",[120,125,130,135,140,145,150],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},19191,"运行 encode_texts.py 或 score_texts_emojis.py 时出现 IndexError: index out of bounds 错误怎么办？","这通常是因为数据集中包含仅由非 ASCII 字符（非英文单词）组成的句子。这些单词被移除后，句子变为空并被忽略，导致 tokenized 列表长度与原始句子列表长度不一致。解决方案是确保数据集中只包含英文句子，或者在预处理时过滤掉处理后为空的句子。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F26",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},19192,"如何使用 DeepMoji 进行微调以预测自定义的情感标签（如愤怒、悲伤等）？","可以使用 `finetune_youtube_last.py` 中的原理进行微调。加载预训练模型时使用 `deepmoji_transfer`（它不加载 softmax 层权重），然后使用 `model.fit()` 训练新的 softmax 层。如果需加载所有权重（包括自定义的 softmax），应直接使用 `deepmoji_architecture()` 定义架构，并调用 `load_specific_weights(exclude_names=[])` 或 Keras 的 `model.load_weights()`。注意检查最终 softmax 层的权重是否正确加载。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F54",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},19193,"训练 DeepMoji 模型大约需要多长时间？","具体的训练时间取决于硬件配置和数据量。由于使用了大量的推文数据并进行了动态类别重平衡（dynamic class rebalancing），单纯的“轮数”（epochs）并不能准确反映训练进度。维护者建议参考实际的总耗时而非轮数作为规划依据。如有需要，可以考虑使用多块 GPU 并行训练以加速过程。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F21",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},19194,"Demo 页面中显示的“单词情感影响高亮”是如何计算的？","高亮效果是通过计算移除某个单词前后预测概率的差值得到的。具体实现是将阴影区间设定为该差值的一个范围。这个范围是手动调整的，通过尝试几个句子观察视觉效果来确定。可以通过批量运行预测来加速长句子的计算过程。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F60",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},19195,"能否扩展 DeepMoji 支持超过默认的 64 种表情符号（Emoji）？","目前不支持直接扩展。默认模型选取了频率最高的前 64 种表情符号，因为它们占据了使用量的绝大部分。如果需要支持更多表情符号，必须使用包含更多种类表情符号的数据集重新训练一个新的模型。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F33",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},19196,"如何在非英语数据集（如中文）上训练新模型？需要重新训练整个网络吗？","首先需要构建对应语言（如中文）的带有表情符号的数据集，并建立相应的词汇表。不需要完全从头训练整个网络，可以冻结网络的部分层级（freeze parts of the network），然后使用 `model.fit()` 对剩余部分进行训练。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F2",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},19197,"运行 download_weights.py 时提示找不到 'model\u002Fdeepmoji_weights.hdf5' 文件怎么办？","如果自动下载脚本失败，可以手动下载权重文件。请访问 Dropbox 链接 (https:\u002F\u002Fwww.dropbox.com\u002Fs\u002Fxqarafsl6a8f9ny\u002Fdeepmoji_weights.hdf5?dl=0#) 下载 `deepmoji_weights.hdf5` 文件，并将其手动放置在项目根目录下的 `~\u002Fmodel` 文件夹中（确保目录结构正确）。","https:\u002F\u002Fgithub.com\u002Fbfelbo\u002FDeepMoji\u002Fissues\u002F51",[]]