[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-BeastByteAI--scikit-llm":3,"similar-BeastByteAI--scikit-llm":183},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":15,"owner_name":16,"owner_avatar_url":17,"owner_bio":18,"owner_company":19,"owner_location":19,"owner_email":19,"owner_twitter":19,"owner_website":20,"owner_url":21,"languages":22,"stars":27,"forks":28,"last_commit_at":29,"license":30,"difficulty_score":31,"env_os":32,"env_gpu":33,"env_ram":32,"env_deps":34,"category_tags":39,"github_topics":42,"view_count":31,"oss_zip_url":19,"oss_zip_packed_at":19,"status":48,"created_at":49,"updated_at":50,"faqs":51,"releases":82},1487,"BeastByteAI\u002Fscikit-llm","scikit-llm","Seamlessly integrate LLMs into scikit-learn.","scikit-llm 是一款旨在无缝连接大型语言模型（LLM）与经典机器学习库 scikit-learn 的开源工具。它让开发者能够像调用传统机器学习算法一样，轻松将 ChatGPT 等强大模型的文本处理能力融入现有的数据分析流程中，从而显著提升文本分类、聚类等任务的效果。\n\n在传统机器学习中，处理复杂语义或非结构化文本往往需要繁琐的特征工程，且效果受限。scikit-llm 通过封装零样本（Zero-Shot）学习等先进能力，解决了这一痛点。用户无需深入钻研大模型的底层 API 或提示词工程细节，只需几行代码即可实例化模型并进行训练与预测，极大地降低了将前沿 AI 技术应用于实际项目的门槛。\n\n这款工具特别适合熟悉 Python 和 scikit-learn 生态的数据科学家、机器学习工程师以及科研人员。如果你希望在不重构现有代码架构的前提下，快速为大模型赋能，或者需要在小样本场景下实现高精度的文本分析，scikit-llm 将是理想的选择。其核心亮点在于完美兼容 scikit-learn 的标准接口（如 fit 和 predict），使得大模型能够直接嵌入到包括管道（Pipelin","scikit-llm 是一款旨在无缝连接大型语言模型（LLM）与经典机器学习库 scikit-learn 的开源工具。它让开发者能够像调用传统机器学习算法一样，轻松将 ChatGPT 等强大模型的文本处理能力融入现有的数据分析流程中，从而显著提升文本分类、聚类等任务的效果。\n\n在传统机器学习中，处理复杂语义或非结构化文本往往需要繁琐的特征工程，且效果受限。scikit-llm 通过封装零样本（Zero-Shot）学习等先进能力，解决了这一痛点。用户无需深入钻研大模型的底层 API 或提示词工程细节，只需几行代码即可实例化模型并进行训练与预测，极大地降低了将前沿 AI 技术应用于实际项目的门槛。\n\n这款工具特别适合熟悉 Python 和 scikit-learn 生态的数据科学家、机器学习工程师以及科研人员。如果你希望在不重构现有代码架构的前提下，快速为大模型赋能，或者需要在小样本场景下实现高精度的文本分析，scikit-llm 将是理想的选择。其核心亮点在于完美兼容 scikit-learn 的标准接口（如 fit 和 predict），使得大模型能够直接嵌入到包括管道（Pipeline）、网格搜索（GridSearch）在内的成熟工作流中，实现了传统统计学习与生成式 AI 的高效协同。","\u003Cdiv align=\"center\">\n  \u003Cimg alt=\"logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002F55e2fb9dd55673ec05281e0247de6202\u002Fraw\u002F41063fcd620d9091662fc6473f9331a7651b4465\u002Fscikit-llm.svg\" height = \"250\">\n\u003C\u002Fdiv>\n\n# Scikit-LLM: Scikit-Learn Meets Large Language Models\n\nSeamlessly integrate powerful language models like ChatGPT into scikit-learn for enhanced text analysis tasks.\n\n## Installation 💾\n\n```bash\npip install scikit-llm\n```\n\n## Support us 🤝\n\nYou can support the project in the following ways:\n\n- ⭐ Star Scikit-LLM on GitHub (click the star button in the top right corner)\n- 💡 Provide your feedback or propose ideas in the [issues](https:\u002F\u002Fgithub.com\u002Firyna-kondr\u002Fscikit-llm\u002Fissues) section or [Discord](https:\u002F\u002Fdiscord.gg\u002FYDAbwuWK7V)\n- 📰 Post about Scikit-LLM on LinkedIn or other platforms\n- 🔗 Check out our other projects: \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbeastbyteai\u002Fagent_dingo\">Dingo\u003C\u002Fa>, \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fbeastbyteai\u002Fagent_dingo\">Falcon\u003C\u002Fa>\n\n\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOKUA1\u002Fagent_dingo\">\n  \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" >\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fding_h_light.svg\">\n  \u003Cimg alt=\"Logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" height = \"65\">\n\u003C\u002Fpicture>\n\u003C\u002Fa> \u003Cbr>\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOKUA1\u002Ffalcon\">\n  \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Ffalcon_h_dark.svg\" >\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Ffalcon_h_light.svg\">\n  \u003Cimg alt=\"Logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" height = \"65\">\n\u003C\u002Fpicture>\n\u003C\u002Fa>\n\n## Quick Start & Documentation 📚\n\nQuick start example of zero-shot text classification using GPT:\n\n```python\n# Import the necessary modules\nfrom skllm.datasets import get_classification_dataset\nfrom skllm.config import SKLLMConfig\nfrom skllm.models.gpt.classification.zero_shot import ZeroShotGPTClassifier\n\n# Configure the credentials\nSKLLMConfig.set_openai_key(\"\u003CYOUR_KEY>\")\nSKLLMConfig.set_openai_org(\"\u003CYOUR_ORGANIZATION_ID>\")\n\n# Load a demo dataset\nX, y = get_classification_dataset() # labels: positive, negative, neutral\n\n# Initialize the model and make the predictions\nclf = ZeroShotGPTClassifier(model=\"gpt-4\")\nclf.fit(X,y)\nclf.predict(X)\n```\n\nFor more information please refer to the **[documentation](https:\u002F\u002Fskllm.beastbyte.ai)**.\n\n## Citation\n\nYou can cite Scikit-LLM using the following BibTeX:\n\n```\n@software{ScikitLLM,\n  author = {Iryna Kondrashchenko and Oleh Kostromin},\n  year = {2023},\n  publisher = {beastbyte.ai},\n  address = {Linz, Austria},\n  title = {Scikit-LLM: Scikit-Learn Meets Large Language Models},\n  url = {https:\u002F\u002Fgithub.com\u002Firyna-kondr\u002Fscikit-llm }\n}\n```\n","\u003Cdiv align=\"center\">\n  \u003Cimg alt=\"logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002F55e2fb9dd55673ec05281e0247de6202\u002Fraw\u002F41063fcd620d9091662fc6473f9331a7651b4465\u002Fscikit-llm.svg\" height = \"250\">\n\u003C\u002Fdiv>\n\n# Scikit-LLM：Scikit-Learn 遇见大型语言模型\n\n将 ChatGPT 等强大的语言模型无缝集成到 scikit-learn 中，以增强文本分析任务。\n\n## 安装 💾\n\n```bash\npip install scikit-llm\n```\n\n## 支持我们 🤝\n\n您可以通过以下方式支持本项目：\n\n- ⭐ 在 GitHub 上为 Scikit-LLM 点赞（点击右上角的星标按钮）\n- 💡 在 [issues](https:\u002F\u002Fgithub.com\u002Firyna-kondr\u002Fscikit-llm\u002Fissues) 栏或 [Discord](https:\u002F\u002Fdiscord.gg\u002FYDAbwuWK7V) 中提供反馈或提出建议\n- 📰 在 LinkedIn 或其他平台上分享关于 Scikit-LLM 的内容\n- 🔗 查看我们的其他项目：[Dingo](https:\u002F\u002Fgithub.com\u002Fbeastbyteai\u002Fagent_dingo)、[Falcon](https:\u002F\u002Fgithub.com\u002Fbeastbyteai\u002Fagent_dingo)\n\n\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOKUA1\u002Fagent_dingo\">\n  \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" >\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fding_h_light.svg\">\n  \u003Cimg alt=\"Logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" height = \"65\">\n\u003C\u002Fpicture>\n\u003C\u002Fa> \u003Cbr>\u003Cbr>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FOKUA1\u002Ffalcon\">\n  \u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Ffalcon_h_dark.svg\" >\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Ffalcon_h_light.svg\">\n  \u003Cimg alt=\"Logo\" src=\"https:\u002F\u002Fgist.githubusercontent.com\u002FOKUA1\u002Fce2167df8e441ce34a9fbc8578b86543\u002Fraw\u002Ff740c391ec37eaf2f80d5b46f1fa2a989dd45932\u002Fdingo_h_dark.svg\" height = \"65\">\n\u003C\u002Fpicture>\n\u003C\u002Fa>\n\n## 快速入门与文档 📚\n\n使用 GPT 进行零样本文本分类的快速入门示例：\n\n```python\n# 导入必要的模块\nfrom skllm.datasets import get_classification_dataset\nfrom skllm.config import SKLLMConfig\nfrom skllm.models.gpt.classification.zero_shot import ZeroShotGPTClassifier\n\n# 配置认证信息\nSKLLMConfig.set_openai_key(\"\u003CYOUR_KEY>\")\nSKLLMConfig.set_openai_org(\"\u003CYOUR_ORGANIZATION_ID>\")\n\n# 加载演示数据集\nX, y = get_classification_dataset() # 标签：正面、负面、中性\n\n# 初始化模型并进行预测\nclf = ZeroShotGPTClassifier(model=\"gpt-4\")\nclf.fit(X,y)\nclf.predict(X)\n```\n\n更多信息请参阅 **[文档](https:\u002F\u002Fskllm.beastbyte.ai)**。\n\n## 引用\n\n您可以使用以下 BibTeX 格式引用 Scikit-LLM：\n\n```\n@software{ScikitLLM,\n  author = {Iryna Kondrashchenko and Oleh Kostromin},\n  year = {2023},\n  publisher = {beastbyte.ai},\n  address = {Linz, Austria},\n  title = {Scikit-LLM：Scikit-Learn 遇见大型语言模型},\n  url = {https:\u002F\u002Fgithub.com\u002Firyna-kondr\u002Fscikit-llm }\n}\n```","# Scikit-LLM 快速上手指南\n\nScikit-LLM 是一个将大型语言模型（如 ChatGPT）无缝集成到 Scikit-Learn 生态中的开源工具，旨在增强文本分析任务的能力。\n\n## 环境准备\n\n*   **系统要求**：支持 Windows、macOS 或 Linux。\n*   **Python 版本**：建议 Python 3.8 及以上版本。\n*   **前置依赖**：\n    *   已安装 `scikit-learn` 基础环境。\n    *   拥有 OpenAI API Key 及 Organization ID（用于调用 GPT 模型）。\n\n## 安装步骤\n\n使用 pip 直接安装官方发布版本：\n\n```bash\npip install scikit-llm\n```\n\n> **提示**：如果下载速度较慢，可以使用国内镜像源加速安装：\n> ```bash\n> pip install scikit-llm -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 基本使用\n\n以下是一个最简单的零样本（Zero-Shot）文本分类示例，展示如何使用 GPT-4 对文本进行情感分析。\n\n1.  **配置密钥**：设置你的 OpenAI 凭证。\n2.  **加载数据**：使用内置演示数据集或自定义数据。\n3.  **训练与预测**：初始化分类器并执行预测。\n\n```python\n# 导入必要的模块\nfrom skllm.datasets import get_classification_dataset\nfrom skllm.config import SKLLMConfig\nfrom skllm.models.gpt.classification.zero_shot import ZeroShotGPTClassifier\n\n# 配置 OpenAI 凭证\nSKLLMConfig.set_openai_key(\"\u003CYOUR_KEY>\")\nSKLLMConfig.set_openai_org(\"\u003CYOUR_ORGANIZATION_ID>\")\n\n# 加载演示数据集 (标签包含：positive, negative, neutral)\nX, y = get_classification_dataset() \n\n# 初始化模型并进行预测\nclf = ZeroShotGPTClassifier(model=\"gpt-4\")\nclf.fit(X, y)\npredictions = clf.predict(X)\n\nprint(predictions)\n```\n\n更多高级用法和详细文档请访问：[Scikit-LLM 官方文档](https:\u002F\u002Fskllm.beastbyte.ai)","某电商数据团队需要快速构建一个能理解复杂语义的用户评论情感分析系统，以支持新产品线的上线决策。\n\n### 没有 scikit-llm 时\n- **特征工程繁琐**：团队需花费数天时间手动设计 TF-IDF 或 Word2Vec 特征，难以捕捉评论中的讽刺、双关等深层语义。\n- **冷启动困难**：面对新出现的网络流行语或特定领域术语，传统模型因缺乏训练数据而无法识别，必须重新收集并标注大量样本。\n- **开发流程割裂**：调用大语言模型（LLM）需要编写独立的 API 请求代码，无法直接复用现有的 scikit-learn 流水线（Pipeline）和交叉验证工具，导致代码维护成本极高。\n- **迭代周期漫长**：每次调整分类逻辑都需要修改提示词工程代码并重构数据处理模块，从想法到验证往往需要数周时间。\n\n### 使用 scikit-llm 后\n- **零样本即时生效**：利用 `ZeroShotGPTClassifier`，无需任何训练数据即可直接理解“虽然包装破损但味道惊艳”这类复杂语义，准确率显著提升。\n- **无缝集成生态**：scikit-llm 将 GPT-4 等模型封装为标准 Estimator，团队可直接将其嵌入现有的 `Pipeline` 中，复用网格搜索（GridSearch）进行超参数调优。\n- **极低代码成本**：仅需几行代码配置 Key 并初始化模型，即可替换掉原本数百行的特征提取与 API 调用逻辑，开发效率提升十倍。\n- **灵活适应变化**：面对新术语只需微调提示词标签，无需重新训练模型，实现了从“周级”到“分钟级”的策略迭代。\n\nscikit-llm 的核心价值在于打破了传统机器学习与大语言模型之间的壁垒，让开发者能用熟悉的 scikit-learn 语法直接驾驭 LLM 的强大语义理解能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FBeastByteAI_scikit-llm_f426c604.png","BeastByteAI","BeastByte.AI","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FBeastByteAI_e8564f85.png","",null,"https:\u002F\u002Fbeastbyte.ai","https:\u002F\u002Fgithub.com\u002FBeastByteAI",[23],{"name":24,"color":25,"percentage":26},"Python","#3572A5",100,3487,282,"2026-04-03T17:17:10","MIT",2,"未说明","非必需（主要依赖云端 API，如 OpenAI）",{"notes":35,"python":32,"dependencies":36},"该工具主要通过 API 调用大型语言模型（如 ChatGPT），因此本地无需高性能 GPU 或大显存。使用前必须配置 OpenAI API Key 和组织 ID。具体 Python 版本和其他底层依赖请参考官方文档或安装时的自动解析结果。",[37,38],"scikit-learn","openai",[40,41],"开发框架","语言模型",[43,44,45,46,37,47],"chatgpt","deep-learning","llm","machine-learning","transformers","ready","2026-03-27T02:49:30.150509","2026-04-06T05:16:22.121585",[52,57,62,67,72,77],{"id":53,"question_zh":54,"answer_zh":55,"source_url":56},9525,"scikit-llm 是否支持 Azure OpenAI 服务？","库正在逐步增加对 Azure OpenAI 服务的支持。目前对于使用 Azure AD 认证（azure_ad）的场景可能尚不完全支持或存在限制，但维护者已计划在未来的修复版本中 addressing 此问题。建议关注官方更新以获取最新的 Azure 集成状态。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F22",{"id":58,"question_zh":59,"answer_zh":60,"source_url":61},9520,"使用 GPTVectorizer().fit_transform(X) 时总是返回 RuntimeError 错误怎么办？","该错误通常是因为未正确配置 OpenAI API Key 或模型 ID。请确保在运行代码前已正确设置 API Key（例如通过 `SKLLMConfig.set_openai_key()`）并指定了有效的模型 ID。检查环境变量或配置文件是否正确加载，重试后通常可解决问题。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F13",{"id":63,"question_zh":64,"answer_zh":65,"source_url":66},9521,"如何在 Google Colab 中成功安装并使用 gpt4all？","如果在 Colab 中遇到 'gpt4all is not installed' 的错误，即使已运行安装命令，请尝试将 gpt4all 的安装命令（`pip install scikit-llm[gpt4all]` 或单独安装 gpt4all）放在所有其他导入语句和其他安装命令之前。确保在一个全新的 Colab 实例中测试，以避免环境冲突。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F32",{"id":68,"question_zh":69,"answer_zh":70,"source_url":71},9522,"scikit-llm 是否支持命名实体识别（NER）任务？","是的，库已增加了对 NER 任务的支持（通过 PR #103 解决）。此外，用户也可以考虑使用外部专用库如 `llmner` (https:\u002F\u002Fgithub.com\u002Fplncmm\u002Fllmner) 来处理命名实体识别任务，其接口可能与 scikit-llm 的多标签分类方法类似。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F62",{"id":73,"question_zh":74,"answer_zh":75,"source_url":76},9523,"在安装 scikit-llm[gpt4all] 时遇到 'Failed building wheel for annoy' 错误如何解决？","此错误通常是由于本地环境缺少 C++ 编译器或构建工具导致的（特别是在 Windows 上），并非 scikit-llm 的直接问题。建议先尝试单独运行 `pip install annoy` 确认是否为环境问题。如果是，请安装对应的构建工具（如 Visual Studio Build Tools）。维护者表示未来可能会将 annoy 设为可选依赖，默认使用 sklearn 的 KNN。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F40",{"id":78,"question_zh":79,"answer_zh":80,"source_url":81},9524,"如何将训练好的 scikit-llm 模型保存并在后续加载进行预测？","可以使用 Python 标准的 `pickle` 模块来保存和加载模型。示例代码如下：\n```python\nimport pickle\nfrom skllm.config import SKLLMConfig\nimport os\n\n# 保存模型\npickle.dump(clf, open(\"model.pkl\", \"wb\"))\n\n# 加载模型并预测（需先重新设置 API Key）\nSKLLMConfig.set_openai_key(os.getenv(\"OPENAI_API_KEY\"))\nclf_loaded = pickle.load(open(\"model.pkl\", \"rb\"))\npredictions = clf_loaded.predict([\"文本 1\", \"文本 2\"])\n```\n注意：加载模型后必须重新设置 OpenAI API Key 才能正常进行预测。","https:\u002F\u002Fgithub.com\u002FBeastByteAI\u002Fscikit-llm\u002Fissues\u002F4",[83,88,93,98,103,108,113,118,123,128,133,138,143,148,153,158,163,168,173,178],{"id":84,"version":85,"summary_zh":86,"released_at":87},106185,"v1.4.3","## Changes\r\n\r\n- Fix prompt typo templates.py (#125)\r\n- Remove debug print statement and bump to v1.4.3 (#129)\r\n\r\n## 🧹 Maintenance\r\n\r\n- Bump peter-evans\u002Fcreate-pull-request from 6 to 7 (#116)\r\n","2026-01-21T13:57:20",{"id":89,"version":90,"summary_zh":91,"released_at":92},106186,"v1.4.2","## Changes\r\n\r\n## 🚀 Features\r\n\r\n- Added model constants file and standardize model name usage (#124)\r\n- Added Anthropic API support (#118)\r\n- Added support for reasoning models\u002Fgpt-5","2025-09-20T19:36:52",{"id":94,"version":95,"summary_zh":96,"released_at":97},106187,"v1.4.1","## Changes\r\n\r\n- Fixed labels extraction for multi-label classifiers (#117)\r\n","2024-11-09T20:57:52",{"id":99,"version":100,"summary_zh":101,"released_at":102},106188,"v1.4.0","## Changes\r\n\r\n- Replaced gpt4all with llama-cpp-python (#110)\r\n","2024-08-04T20:11:49",{"id":104,"version":105,"summary_zh":106,"released_at":107},106189,"v1.3.1","## Changes\r\n\r\n- Added gpt-4o-mini to the list of tunable models (#108)\r\n","2024-07-24T19:12:25",{"id":109,"version":110,"summary_zh":111,"released_at":112},106190,"v1.3.0","## Changes\r\n\r\n- Chain of thought classifier (#106)\r\n","2024-07-06T21:35:32",{"id":114,"version":115,"summary_zh":116,"released_at":117},106191,"v1.2.0","## Changes\r\n\r\n- Added NER task (#103)\r\n- Added multi-threading (#101)\r\n- Adjusted attributes in OpenAI mixin (#95)\r\n","2024-06-25T18:04:31",{"id":119,"version":120,"summary_zh":121,"released_at":122},106192,"v1.1.0","## Changes\r\n\r\n- Updated default models (#94)\r\n- Added Gemini support [Vertex backend] (#94)\r\n- Added custom URL support [GPT backend] (#94)\r\n- Added embedding support for Azure [GPT backend] (#94)\r\n- Added optional distance metric for KNN in DynamicFewShotGPTClassifier (#92)\r\n\r\n## 🧹 Maintenance\r\n\r\n- Bump actions\u002Fcheckout from 3 to 4 (#72)\r\n","2024-05-25T08:26:32",{"id":124,"version":125,"summary_zh":126,"released_at":127},106193,"v1.0.0","## Changes\r\n\r\n- Major code refactoring\r\n- New documentation\r\n","2023-12-25T18:09:28",{"id":129,"version":130,"summary_zh":131,"released_at":132},106194,"v0.4.2","## Changes\r\n\r\n- OpenAI version is temporarily set to \u003C1.0 in order to avoid compatibility issues\r\n","2023-11-09T11:22:13",{"id":134,"version":135,"summary_zh":136,"released_at":137},106195,"v0.4.1","## Changes\r\n\r\n- fix gpt prediction function (#59)\r\n","2023-08-24T08:36:07",{"id":139,"version":140,"summary_zh":141,"released_at":142},106196,"v0.4.0","## Changes\r\n\r\n- Added sklearn memory index (DynamicFewShot) (#57)\r\n\r\n## 🚀 Features\r\n\r\n- gpt\\_tuning (#58)\r\n","2023-08-23T19:09:25",{"id":144,"version":145,"summary_zh":146,"released_at":147},106197,"v0.3.4","## Changes\r\n\r\n- Make annoy an optional dependency (#53)\r\n","2023-08-15T14:56:08",{"id":149,"version":150,"summary_zh":151,"released_at":152},106198,"v0.3.3","## Changes\r\n\r\n- Fixed azure\\_ad authentication (#52)\r\n","2023-08-13T12:57:04",{"id":154,"version":155,"summary_zh":156,"released_at":157},106199,"v0.3.2","## Changes\r\n\r\n* Removed unnecessary `vertexai` dependency\r\n","2023-08-12T17:44:42",{"id":159,"version":160,"summary_zh":161,"released_at":162},106200,"v0.3.1","## Changes\r\n\r\n- Added support of `gpt4all>=1.0` (#43)\r\n","2023-07-30T11:24:41",{"id":164,"version":165,"summary_zh":166,"released_at":167},106201,"v0.3.0","\r\n## Changes\r\n\r\n- Added Google PaLM  support (#38)\r\n- Added Azure OpenAI  support (#38)\r\n- Reworked GPTTranslator prompt (#36)\r\n- Added focused summarizer (#35)\r\n","2023-07-04T20:17:57",{"id":169,"version":170,"summary_zh":171,"released_at":172},106202,"v0.2.0","## Changes\r\n\r\n- Added dynamic few shot classifier (#33)\r\n- Added docstrings (#25)\r\n- Added `default_label` argument and functionality to classifiers (#27)\r\n","2023-06-11T19:19:03",{"id":174,"version":175,"summary_zh":176,"released_at":177},106203,"v0.1.1","## Changes\r\n\r\n- Improved multi-label classifier compatibility with gpt4all (#28)\r\n","2023-06-04T11:52:26",{"id":179,"version":180,"summary_zh":181,"released_at":182},106204,"v0.1.0","## Changes\r\n\r\n- Added initial gpt4all support (#21)\r\n- Added GPTTranslator (#20)\r\n- Added few-shot multiclass classifier (#19)\r\n- Added prompt templates + builders (#18)\r\n- Added some unit tests (#12)\r\n- Added release drafter and pull request labeler (#6)\r\n- Added pre-commit (#5)\r\n","2023-05-30T12:54:24",[184,195,203,211,219,232],{"id":185,"name":186,"github_repo":187,"description_zh":188,"stars":189,"difficulty_score":190,"last_commit_at":191,"category_tags":192,"status":48},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[40,193,194],"图像","Agent",{"id":196,"name":197,"github_repo":198,"description_zh":199,"stars":200,"difficulty_score":31,"last_commit_at":201,"category_tags":202,"status":48},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,"2026-04-05T11:33:21",[40,194,41],{"id":204,"name":205,"github_repo":206,"description_zh":207,"stars":208,"difficulty_score":31,"last_commit_at":209,"category_tags":210,"status":48},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[40,193,194],{"id":212,"name":213,"github_repo":214,"description_zh":215,"stars":216,"difficulty_score":31,"last_commit_at":217,"category_tags":218,"status":48},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[40,41],{"id":220,"name":221,"github_repo":222,"description_zh":223,"stars":224,"difficulty_score":31,"last_commit_at":225,"category_tags":226,"status":48},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[193,227,228,229,194,230,41,40,231],"数据工具","视频","插件","其他","音频",{"id":233,"name":234,"github_repo":235,"description_zh":236,"stars":237,"difficulty_score":190,"last_commit_at":238,"category_tags":239,"status":48},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[194,193,40,41,230]]