[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pharmapsychotic--clip-interrogator":3,"tool-pharmapsychotic--clip-interrogator":62},[4,18,28,37,45,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},10095,"AutoGPT","Significant-Gravitas\u002FAutoGPT","AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台，核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点，让用户只需设定目标，AI 即可自主规划步骤、调用工具并持续运行直至完成任务。\n\n无论是开发者、研究人员，还是希望提升工作效率的普通用户，都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体；研究人员能基于开源架构探索多智能体协作机制；而非技术背景用户也可直接选用预置的智能体模板，立即投入实际工作场景。\n\nAutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑，每个块负责单一动作，灵活且易于调试。同时，平台支持本地自托管与云端部署两种模式，兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本，即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛，让人人都能成为 AI 的创造者与受益者。",183572,"2026-04-20T04:47:55",[13,36,27,14,15],"语言模型",{"id":38,"name":39,"github_repo":40,"description_zh":41,"stars":42,"difficulty_score":10,"last_commit_at":43,"category_tags":44,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":24,"last_commit_at":51,"category_tags":52,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,36],{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":74,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":106,"github_topics":107,"view_count":24,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":110,"updated_at":111,"faqs":112,"releases":148},9957,"pharmapsychotic\u002Fclip-interrogator","clip-interrogator","Image to prompt with BLIP and CLIP","clip-interrogator 是一款智能提示词生成工具，旨在帮助用户通过分析现有图片，反向推导出能生成类似风格图像的高质量文本提示词（Prompt）。它巧妙结合了 OpenAI 的 CLIP 模型与 Salesforce 的 BLIP 模型：利用 BLIP 识别图像中的具体内容和细节描述，再借助 CLIP 从海量标签库中筛选出最匹配的艺术风格、媒介和修饰词，最终组合成优化的提示语。\n\n这一工具有效解决了用户在面对精美画作时“不知如何用文字描述”的痛点，极大地降低了使用 Stable Diffusion 等文生图模型的门槛，让用户能轻松复刻或创作具有特定风格的艺术作品。无论是希望快速获得灵感的设计师、需要精确控制输出效果的 AI 艺术家，还是想要探索图像语义的研究人员，都能从中受益。此外，它也提供了 Python 库版本，方便开发者将其集成到自定义工作流中。\n\n技术亮点方面，clip-interrogator 支持多种预训练的 CLIP 模型以适应不同版本的 Stable Diffusion，并针对显存有限的设备提供了低资源模式，确保在普通显卡上也能流畅运行。作为 Stable D","clip-interrogator 是一款智能提示词生成工具，旨在帮助用户通过分析现有图片，反向推导出能生成类似风格图像的高质量文本提示词（Prompt）。它巧妙结合了 OpenAI 的 CLIP 模型与 Salesforce 的 BLIP 模型：利用 BLIP 识别图像中的具体内容和细节描述，再借助 CLIP 从海量标签库中筛选出最匹配的艺术风格、媒介和修饰词，最终组合成优化的提示语。\n\n这一工具有效解决了用户在面对精美画作时“不知如何用文字描述”的痛点，极大地降低了使用 Stable Diffusion 等文生图模型的门槛，让用户能轻松复刻或创作具有特定风格的艺术作品。无论是希望快速获得灵感的设计师、需要精确控制输出效果的 AI 艺术家，还是想要探索图像语义的研究人员，都能从中受益。此外，它也提供了 Python 库版本，方便开发者将其集成到自定义工作流中。\n\n技术亮点方面，clip-interrogator 支持多种预训练的 CLIP 模型以适应不同版本的 Stable Diffusion，并针对显存有限的设备提供了低资源模式，确保在普通显卡上也能流畅运行。作为 Stable Diffusion Web UI 的扩展插件，它让逆向工程图像提示词变得像上传图片一样简单直观。","# clip-interrogator\n\n*Want to figure out what a good prompt might be to create new images like an existing one? The **CLIP Interrogator** is here to get you answers!*\n\n## Run it!\n\n🆕 Now available as a [Stable Diffusion Web UI Extension](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator-ext)! 🆕\n\n\u003Cbr>\n\nRun Version 2 on Colab, HuggingFace, and Replicate!\n\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Fclip_interrogator.ipynb) [![Generic badge](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-Open%20in%20Spaces-blue.svg)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fpharma\u002FCLIP-Interrogator) [![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpharmapsychotic_clip-interrogator_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fpharmapsychotic\u002Fclip-interrogator) [![Lambda](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%CE%BB-Lambda-blue)](https:\u002F\u002Fcloud.lambdalabs.com\u002Fdemos\u002Fml\u002FCLIP-Interrogator)\n\n\u003Cbr>\n\n\nVersion 1 still available in Colab for comparing different CLIP models \n\n[![Open In Colab](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fv1\u002Fclip_interrogator.ipynb) \n\n\n## About\n\nThe **CLIP Interrogator** is a prompt engineering tool that combines OpenAI's [CLIP](https:\u002F\u002Fopenai.com\u002Fblog\u002Fclip\u002F) and Salesforce's [BLIP](https:\u002F\u002Fblog.salesforceairesearch.com\u002Fblip-bootstrapping-language-image-pretraining\u002F) to optimize text prompts to match a given image. Use the resulting prompts with text-to-image models like [Stable Diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion) on [DreamStudio](https:\u002F\u002Fbeta.dreamstudio.ai\u002F) to create cool art!\n\n\n## Using as a library\n\nCreate and activate a Python virtual environment\n```bash\npython3 -m venv ci_env\n(for linux  ) source ci_env\u002Fbin\u002Factivate\n(for windows) .\\ci_env\\Scripts\\activate\n```\n\nInstall with PIP\n```\n# install torch with GPU support for example:\npip3 install torch torchvision --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu117\n\n# install clip-interrogator\npip install clip-interrogator==0.5.4\n\n# or for very latest WIP with BLIP2 support\n#pip install clip-interrogator==0.6.0\n```\n\nYou can then use it in your script\n```python\nfrom PIL import Image\nfrom clip_interrogator import Config, Interrogator\nimage = Image.open(image_path).convert('RGB')\nci = Interrogator(Config(clip_model_name=\"ViT-L-14\u002Fopenai\"))\nprint(ci.interrogate(image))\n```\n\nCLIP Interrogator uses OpenCLIP which supports many different pretrained CLIP models. For the best prompts for \nStable Diffusion 1.X use `ViT-L-14\u002Fopenai` for clip_model_name. For Stable Diffusion 2.0 use `ViT-H-14\u002Flaion2b_s32b_b79k`\n\n## Configuration\n\nThe `Config` object lets you configure CLIP Interrogator's processing. \n* `clip_model_name`: which of the OpenCLIP pretrained CLIP models to use\n* `cache_path`: path where to save precomputed text embeddings\n* `download_cache`: when True will download the precomputed embeddings from huggingface\n* `chunk_size`: batch size for CLIP, use smaller for lower VRAM\n* `quiet`: when True no progress bars or text output will be displayed\n\nOn systems with low VRAM you can call `config.apply_low_vram_defaults()` to reduce the amount of VRAM needed (at the cost of some speed and quality). The default settings use about 6.3GB of VRAM and the low VRAM settings use about 2.7GB.\n\nSee the [run_cli.py](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Frun_cli.py) and [run_gradio.py](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Frun_gradio.py) for more examples on using Config and Interrogator classes.\n\n\n## Ranking against your own list of terms (requires version 0.6.0)\n\n```python\nfrom clip_interrogator import Config, Interrogator, LabelTable, load_list\nfrom PIL import Image\n\nci = Interrogator(Config(blip_model_type=None))\nimage = Image.open(image_path).convert('RGB')\ntable = LabelTable(load_list('terms.txt'), 'terms', ci)\nbest_match = table.rank(ci.image_to_features(image), top_count=1)[0]\nprint(best_match)\n```\n","# clip-interrogator\n\n*想弄清楚什么样的提示词才能生成与现有图片相似的新图片吗？**CLIP Interrogator** 就能帮你找到答案！*\n\n## 运行它！\n\n🆕 现已作为 [Stable Diffusion Web UI 扩展](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator-ext) 提供！🆕\n\n\u003Cbr>\n\n在 Colab、HuggingFace 和 Replicate 上运行版本 2！\n\n[![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Fclip_interrogator.ipynb) [![通用徽章](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F🤗-在 Spaces 中打开-blue.svg)](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fpharma\u002FCLIP-Interrogator) [![Replicate](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpharmapsychotic_clip-interrogator_readme_7dacf1cc5d87.png)](https:\u002F\u002Freplicate.com\u002Fpharmapsychotic\u002Fclip-interrogator) [![Lambda](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%CE%BB-Lambda-blue.svg)](https:\u002F\u002Fcloud.lambdalabs.com\u002Fdemos\u002Fml\u002FCLIP-Interrogator)\n\n\u003Cbr>\n\n\n版本 1 仍在 Colab 中可用，可用于比较不同的 CLIP 模型\n\n[![在 Colab 中打开](https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg)](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fv1\u002Fclip_interrogator.ipynb) \n\n\n## 关于\n\n**CLIP Interrogator** 是一款提示词工程工具，它结合了 OpenAI 的 [CLIP](https:\u002F\u002Fopenai.com\u002Fblog\u002Fclip\u002F) 和 Salesforce 的 [BLIP](https:\u002F\u002Fblog.salesforceairesearch.com\u002Fblip-bootstrapping-language-image-pretraining\u002F)，以优化文本提示词，使其与给定的图像相匹配。你可以将生成的提示词与像 [Stable Diffusion](https:\u002F\u002Fgithub.com\u002FCompVis\u002Fstable-diffusion) 这样的文生图模型一起使用，在 [DreamStudio](https:\u002F\u002Fbeta.dreamstudio.ai\u002F) 上创作出酷炫的艺术作品！\n\n\n## 作为库使用\n\n创建并激活一个 Python 虚拟环境\n```bash\npython3 -m venv ci_env\n（Linux） source ci_env\u002Fbin\u002Factivate\n（Windows） .\\ci_env\\Scripts\\activate\n```\n\n通过 PIP 安装\n```\n# 例如安装支持 GPU 的 PyTorch：\npip3 install torch torchvision --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu117\n\n# 安装 clip-interrogator\npip install clip-interrogator==0.5.4\n\n# 或者安装最新开发版，支持 BLIP2\n# pip install clip-interrogator==0.6.0\n```\n\n然后你可以在脚本中使用它：\n```python\nfrom PIL import Image\nfrom clip_interrogator import Config, Interrogator\nimage = Image.open(image_path).convert('RGB')\nci = Interrogator(Config(clip_model_name=\"ViT-L-14\u002Fopenai\"))\nprint(ci.interrogate(image))\n```\n\nCLIP Interrogator 使用 OpenCLIP，后者支持许多不同的预训练 CLIP 模型。对于 Stable Diffusion 1.X，建议将 `clip_model_name` 设置为 `ViT-L-14\u002Fopenai` 以获得最佳提示词；而对于 Stable Diffusion 2.0，则应使用 `ViT-H-14\u002Flaion2b_s32b_b79k`。\n\n## 配置\n\n`Config` 对象允许你配置 CLIP Interrogator 的处理方式。\n* `clip_model_name`：选择要使用的 OpenCLIP 预训练 CLIP 模型\n* `cache_path`：保存预计算文本嵌入的路径\n* `download_cache`：如果设置为 True，则会从 Hugging Face 下载预计算的嵌入\n* `chunk_size`：CLIP 的批处理大小，显存较少时可调小\n* `quiet`：如果设置为 True，将不会显示进度条或文本输出\n\n在显存较低的系统上，可以调用 `config.apply_low_vram_defaults()` 来减少所需的显存量（尽管这可能会牺牲一些速度和质量）。默认设置大约需要 6.3GB 显存，而低显存设置则只需约 2.7GB。\n\n更多关于如何使用 `Config` 和 `Interrogator` 类的示例，请参阅 [run_cli.py](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Frun_cli.py) 和 [run_gradio.py](https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fmain\u002Frun_gradio.py)。\n\n\n## 根据自定义术语列表进行排名（需版本 0.6.0）\n\n```python\nfrom clip_interrogator import Config, Interrogator, LabelTable, load_list\nfrom PIL import Image\n\nci = Interrogator(Config(blip_model_type=None))\nimage = Image.open(image_path).convert('RGB')\ntable = LabelTable(load_list('terms.txt'), 'terms', ci)\nbest_match = table.rank(ci.image_to_features(image), top_count=1)[0]\nprint(best_match)\n```","# CLIP Interrogator 快速上手指南\n\nCLIP Interrogator 是一款提示词工程工具，结合了 OpenAI 的 **CLIP** 和 Salesforce 的 **BLIP** 模型。它能分析现有图片并生成匹配的描述性提示词（Prompt），帮助你在 Stable Diffusion 等文生图模型中复现类似风格的图像。\n\n## 环境准备\n\n*   **操作系统**: Linux, Windows, macOS\n*   **Python 版本**: 建议 Python 3.8+\n*   **硬件要求**:\n    *   **推荐**: 拥有 NVIDIA GPU 的设备（显存建议 6GB 以上以获得最佳体验）。\n    *   **低显存模式**: 若显存较低（如 2-4GB），可通过配置开启低显存模式（约需 2.7GB 显存），但速度和精度会有所降低。\n*   **前置依赖**: 需要安装支持 GPU 的 PyTorch 版本。\n\n## 安装步骤\n\n### 1. 创建并激活虚拟环境\n建议在隔离的虚拟环境中运行，以避免依赖冲突。\n\n```bash\npython3 -m venv ci_env\n# Linux\u002FmacOS\nsource ci_env\u002Fbin\u002Factivate\n# Windows\n.\\ci_env\\Scripts\\activate\n```\n\n### 2. 安装 PyTorch (GPU 版)\n请根据你的 CUDA 版本安装对应的 PyTorch。以下示例为 CUDA 11.7 版本：\n\n```bash\npip3 install torch torchvision --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu117\n```\n> **国内加速提示**: 如果下载缓慢，可使用清华大学或阿里云镜像源替代官方源。例如：\n> `pip3 install torch torchvision --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcu117 -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n### 3. 安装 clip-interrogator\n安装稳定版本（0.5.4）：\n\n```bash\npip install clip-interrogator==0.5.4\n```\n\n如需体验最新功能（包含 BLIP2 支持），可安装开发版：\n```bash\n# pip install clip-interrogator==0.6.0\n```\n\n## 基本使用\n\n以下是最简单的 Python 脚本示例，用于读取图片并生成提示词。\n\n### 代码示例\n\n```python\nfrom PIL import Image\nfrom clip_interrogator import Config, Interrogator\n\n# 加载图片并转换为 RGB 模式\nimage_path = 'your_image.jpg'  # 替换为你的图片路径\nimage = Image.open(image_path).convert('RGB')\n\n# 初始化配置\n# 对于 Stable Diffusion 1.X，推荐使用 \"ViT-L-14\u002Fopenai\"\n# 对于 Stable Diffusion 2.0，推荐使用 \"ViT-H-14\u002Flaion2b_s32b_b79k\"\nconfig = Config(clip_model_name=\"ViT-L-14\u002Fopenai\")\n\n# 可选：低显存设备启用此设置（牺牲少量速度和质量以节省显存）\n# config.apply_low_vram_defaults()\n\n# 创建分析器并执行分析\nci = Interrogator(config)\nprompt = ci.interrogate(image)\n\nprint(prompt)\n```\n\n### 模型选择建议\n*   **Stable Diffusion 1.x 用户**: 设置 `clip_model_name=\"ViT-L-14\u002Fopenai\"`\n*   **Stable Diffusion 2.0+ 用户**: 设置 `clip_model_name=\"ViT-H-14\u002Flaion2b_s32b_b79k\"`\n\n运行上述脚本后，终端将输出优化后的英文提示词，可直接复制用于文生图任务。","一位数字艺术家在浏览 Pinterest 时偶然发现了一张风格独特的概念图，希望能用 Stable Diffusion 复现类似的画面，却苦于无法准确描述其艺术风格。\n\n### 没有 clip-interrogator 时\n- **提示词构思困难**：只能凭感觉猜测“赛博朋克”、“霓虹灯”等宽泛词汇，难以精准捕捉画面中微妙的光影和材质细节。\n- **试错成本高昂**：需要手动编写数十版不同的提示词进行反复生成测试，耗费数小时甚至更久才能接近原图效果。\n- **风格还原度低**：由于缺乏对特定艺术家风格或渲染引擎的专业术语描述，生成的图像往往形似而神不似，丢失了原作的独特韵味。\n- **创意灵感受阻**：在面对复杂构图时，容易陷入思维定势，无法挖掘出图像背后潜在的深层语义标签来丰富创作维度。\n\n### 使用 clip-interrogator 后\n- **自动反向工程**：只需上传参考图，clip-interrogator 结合 BLIP 和 CLIP 模型，瞬间输出包含具体艺术家名字、渲染风格及细节描述的精准提示词。\n- **效率显著提升**：将原本数小时的盲目试错过程缩短为几秒钟的自动化分析，让艺术家能立即进入微调与创作阶段。\n- **风格精准复刻**：生成的提示词能准确识别并列出如\"Greg Rutkowski 风格”、\"Octane 渲染”等专业术语，确保生成图像高度还原原作质感。\n- **激发创作灵感**：工具提供的意外标签（如特定的色彩理论或构图技巧）为艺术家提供了新的修饰思路，拓展了二次创作的可能性。\n\nclip-interrogator 通过将视觉信息高效转化为高质量文本提示，彻底解决了“看图写话”的难题，让灵感复现变得简单可控。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpharmapsychotic_clip-interrogator_1066b359.png","pharmapsychotic","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpharmapsychotic_0136fbd2.png","coder, aspiring generative artist",null,"IL, USA","https:\u002F\u002Fpharmapsychotic.com","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",72.4,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",27.6,2953,434,"2026-04-18T16:02:36","MIT","Linux, Windows","非绝对必需但推荐用于加速；默认设置需约 6.3GB 显存，低显存模式（config.apply_low_vram_defaults()）需约 2.7GB 显存；示例安装命令指定 CUDA 11.7 (cu117)","未说明",{"notes":98,"python":99,"dependencies":100},"该工具结合了 OpenAI 的 CLIP 和 Salesforce 的 BLIP 模型。对于显存较低的系统，可调用 config.apply_low_vram_defaults() 将显存需求从约 6.3GB 降至 2.7GB，但会牺牲部分速度和质量。针对 Stable Diffusion 1.X 建议使用 'ViT-L-14\u002Fopenai' 模型，针对 2.0 建议使用 'ViT-H-14\u002Flaion2b_s32b_b79k'。首次运行可能需要下载预计算的文本嵌入或模型文件。","未说明 (需支持 python3 -m venv)",[101,102,65,103,104,105],"torch","torchvision","Pillow (PIL)","OpenCLIP","BLIP",[27,14],[108,109],"clip","pytorch","2026-03-27T02:49:30.150509","2026-04-20T12:54:35.325782",[113,118,123,128,133,138,143],{"id":114,"question_zh":115,"answer_zh":116,"source_url":117},44710,"加载 BLIP 模型时出现 'PytorchStreamReader failed reading zip archive' 错误怎么办？","这通常是因为大型模型文件下载不完整或已损坏。解决方法是强制重新下载模型文件。可以在初始化 Interrogator 时添加特定参数来触发重新下载，例如：\n`ci = Interrogator(Config(clip_model_name=\"ViT-L-14\u002Fopenai\", blip_model_type=\"base\", device=\"cuda\", blip_max_length=24))`\n此外，请确保显存充足（该过程可能需要超过 6GB 显存），并检查网络连接以防下载中途断开。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F33",{"id":119,"question_zh":120,"answer_zh":121,"source_url":122},44711,"如何在本地计算机（Linux）上安装 clip-interrogator 及解决依赖问题？","在 Linux 上安装时，如果遇到构建 tokenizer 相关的错误（如 'error: can't find Rust compiler'），说明系统缺少 Rust 编译器。你需要安装 Rust 工具链。\n推荐方法是使用 rustup 安装：\n`curl --proto '=https' --tlsv1.2 -sSf https:\u002F\u002Fsh.rustup.rs | sh`\n或者通过系统包管理器安装（如 `sudo apt install rustc`）。安装完成后确保其在 PATH 中，然后重新运行 pip 安装命令。最新版本已切换到专用的 `blip-ci` 包，减少了部分依赖问题。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F36",{"id":124,"question_zh":125,"answer_zh":126,"source_url":127},44712,"更新后出现 'FileNotFoundError' 或 subprocess 相关错误，如何修复？","这通常是由于 CUDA 工具包或 PyTorch 版本不匹配导致的。建议完全卸载并重新安装 CUDA 工具和 PyTorch。\n安装后，可以通过以下 Python 代码验证 PyTorch 是否正确启用了 CUDA 支持：\n```python\nimport torch\nprint(torch.cuda.is_available())\n```\n如果返回 False，请检查你的 PyTorch 版本是否与系统中的 CUDA 版本兼容，并重新安装带有 CUDA 支持的 PyTorch 版本。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F21",{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},44713,"遇到 'The size of tensor a must match the size of tensor b' 维度不匹配错误如何解决？","这个错误通常是因为 `transformers` 库的版本冲突引起的（例如 auto1111 webui 和 dreambooth 扩展使用了不同版本的 transformers）。\n解决方案是升级 `clip-interrogator` 到最新版本，新版通常能更好地处理依赖兼容性。尝试运行：\n`pip install --upgrade clip-interrogator`\n有用户反馈从 0.5.4 升级到 0.6.0 版本后解决了该问题。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F62",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},44714,"在 Google Colab 中运行时出现 'CUDA out of memory' (显存不足) 错误怎么办？","当 PyTorch 分配的显存超过 GPU 总容量时会报此错。在 Colab 中，可以尝试以下方法：\n1. 重启运行时环境以释放被占用的显存。\n2. 检查是否有其他进程占用了显存。\n3. 如果可能，减小批处理大小或使用更小的模型变体。\n4. 确保没有在其他单元格中重复加载大型模型。\n注意：Colab 免费版的显存有限，复杂任务可能需要升级到付费版或使用本地高显存显卡。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F60",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},44715,"安装时遇到 'ModuleNotFoundError: No module named pip' 或 setuptools 相关错误？","这表示你的 Linux 系统（如 Debian）缺少 pip 或相关的构建工具。\n可以通过以下命令安装必要的包：\n`sudo apt install python3-pip`\n如果使用的是 poetry 但报错，建议直接使用 pip 进行安装，或者先确保系统层面的 pip 和 setuptools 已正确安装。对于某些构建错误，可能还需要安装 `python3-dev` 和 `build-essential`。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F32",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},44716,"如何启用 OpenCLIP 模型？","项目已经支持 OpenCLIP 模型。维护者已完成相关功能的开发。你可以查看包含新 OpenCLIP 模型测试版本的 Colab 笔记本以获取使用方法：\nhttps:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fblob\u002Fopen-clip\u002Fclip_interrogator.ipynb\n在本地使用时，请确保安装了最新版本的库，并在配置中指定相应的 OpenCLIP 模型名称。","https:\u002F\u002Fgithub.com\u002Fpharmapsychotic\u002Fclip-interrogator\u002Fissues\u002F5",[149,154],{"id":150,"version":151,"summary_zh":152,"released_at":153},352169,"v0.6.0","* 支持更多字幕模型。除了 blip-base 和 blip-large 之外，现在还新增了 blip2-2.7b（15.5GB）、blip2-flan-t5-xl（15.77GB）以及 git-large-coco（1.58GB）。示例请参见 run_gradio.py。\n* 新增公开的 LabelTable 类以及 list_caption_models、list_clip_models、load_list 等函数。\n* 请参阅 README，了解如何使用 LabelTable 对您自己的术语列表进行排序的示例。\n","2023-03-20T03:46:54",{"id":155,"version":156,"summary_zh":157,"released_at":158},352170,"v0.5.4","* 改进了低显存支持。请在 `Config` 对象上使用新的 `apply_low_vram_defaults` 方法。\n* 改进了 safetensors 缓存文件的下载。\n* 废弃了对 `.pkl` 缓存文件的支持，转而采用 safetensors 格式。","2023-02-20T22:40:44"]