[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-yurijmikhalevich--rclip":3,"tool-yurijmikhalevich--rclip":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,2,"2026-04-10T11:39:34",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":76,"owner_email":78,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":99,"forks":100,"last_commit_at":101,"license":102,"difficulty_score":103,"env_os":104,"env_gpu":105,"env_ram":106,"env_deps":107,"category_tags":114,"github_topics":115,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":122,"updated_at":123,"faqs":124,"releases":159},4965,"yurijmikhalevich\u002Frclip","rclip","AI-Powered Command-Line Photo Search Tool","rclip 是一款基于人工智能的命令行照片搜索工具，它利用 OpenAI 强大的 CLIP 神经网络，让用户能够像使用搜索引擎一样，通过自然语言描述快速查找本地图片。无论是输入“夕阳下的海滩”这样的文字，还是提供一张参考图片甚至网络链接，rclip 都能精准匹配并找出语义最相似的照片。\n\n传统文件管理往往依赖文件名或文件夹分类，难以应对海量且命名随意的个人图库。rclip 解决了这一痛点，无需手动打标签，即可实现“以图搜图”或“文图混合搜索”。更独特的是，它支持复杂的组合查询，例如搜索“像这张照片但要是夜晚场景”（图片 + 文字），或者“斑马但去掉条纹”（概念相减），极大地拓展了检索的灵活性。\n\n这款工具特别适合熟悉终端操作的开发者、数据研究人员以及拥有大量素材库的设计师使用。虽然初次运行时需要索引图片特征（耗时取决于硬件性能与图片数量），但一旦建立索引，后续搜索将非常高效。rclip 提供了跨平台安装方案，覆盖 Linux、macOS 和 Windows，让技术用户能以极简的方式管理庞大的视觉资产，体验智能检索带来的便利。","# rclip - AI-Powered Command-Line Photo Search Tool\n\u003C!-- ALL-CONTRIBUTORS-BADGE:START - Do not remove or modify this section -->\n[![All Contributors](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fall_contributors-6-orange.svg?style=flat-square)](#contributors-)\n\u003C!-- ALL-CONTRIBUTORS-BADGE:END -->\n\n[[Blog]](https:\u002F\u002Fmikhalevi.ch\u002Frclip-an-ai-powered-command-line-photo-search-tool\u002F) [[Demo on YouTube]](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tAJHXOkHidw) [[Paper]](https:\u002F\u002Fwww.thinkmind.org\u002Findex.php?view=article&articleid=content_2023_1_20_60011)\n\n\u003Cdiv align=\"center\">\n  \u003Cimg alt=\"rclip logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_d5f67ad30755.png\" width=\"600px\" \u002F>\n\u003C\u002Fdiv>\n\n**rclip** is a command-line photo search tool powered by the awesome OpenAI's [CLIP](https:\u002F\u002Fgithub.com\u002Fopenai\u002FCLIP) neural network.\n\n## Installation\n\n### Linux\n\n```bash\nsudo snap install rclip\n```\n\n\u003Cdetails>\n  \u003Csummary>Alternative options (AppImage and \u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  If your Linux distribution doesn't support [snap](https:\u002F\u002Fsnapcraft.io\u002Frclip), you can use one of the alternative installation options:\n\n  #### AppImage (self-contained x86_64 executable)\n\n  On Linux x86_64, you can install **rclip** as a self-contained executable.\n\n  1. Download the AppImage from the latest [release](https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases).\n\n  2. Execute the following commands:\n\n  ```bash\n  chmod +x \u003Cdownloaded AppImage filename>\n  sudo mv \u003Cdownloaded AppImage filename> \u002Fusr\u002Flocal\u002Fbin\u002Frclip\n  ```\n\n  #### Using \u003Ccode>pip\u003C\u002Fcode>\n\n  ```bash\n  pip install --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu rclip\n  ```\n\u003C\u002Fdetails>\n\n### macOS\n\n```bash\nbrew install yurijmikhalevich\u002Ftap\u002Frclip\n```\n\n**Note:** We only support and provide prebuilt bottles for Apple Silicon (arm64). You may try building brew rclip for Intel-based Macs yourself or try an alternative installation option below.\n\n\u003Cdetails>\n  \u003Csummary>Alternative option (\u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  ```bash\n  pip install rclip\n  ```\n\u003C\u002Fdetails>\n\n### Windows\n\n1. Download the \"*.msi\" from the latest [release](https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases).\n2. Install **rclip** by running the installer.\n\n\u003Cdetails>\n  \u003Csummary>Alternative option (\u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  ```bash\n  pip install rclip\n  ```\n\u003C\u002Fdetails>\n\n## Usage\n\n```bash\ncd photos && rclip \"search query\"\n```\n\n\u003Cimg alt=\"rclip usage demo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_705baaf06e8b.gif\" width=\"640px\" \u002F>\n\nWhen you run **rclip** for the first time in a particular directory, it will extract features from the photos, which takes time. How long it will take depends on your CPU and the number of pictures you will search through. It took about a day to process 73 thousand photos on my NAS, which runs an old-ish Intel Celeron J3455, 7 minutes to index 50 thousand images on my MacBook with an M1 Max CPU, and three hours to process 1.28 million images on the same MacBook.\n\nFor a detailed demonstration, watch the video: https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tAJHXOkHidw.\n\n### Similar image search\n\nYou can use another image as a query by passing a file path or even an URL to the image file, and **rclip** will find the images most similar to the one you used as a query. If you are referencing a local image via a relative path, you **must** prefix it with `.\u002F`. For example:\n\n```bash\ncd photos && rclip .\u002Fcat.jpg\n\n# or use URL\ncd photos && rclip https:\u002F\u002Fraw.githubusercontent.com\u002Fyurijmikhalevich\u002Frclip\u002Fmain\u002Ftests\u002Fe2e\u002Fimages\u002Fcat.jpg\n```\n\nCheck this video out for the image-to-image search demo: https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=1YQZKeCBxWM.\n\n### Combining multiple queries\n\nYou can add and subtract image and text queries from each other; here are a few usage examples:\n\n```bash\ncd photos && rclip horse + stripes\ncd photos && rclip apple - fruit\ncd photos && rclip \".\u002Fnew york city.jpg\" + night\ncd photos && rclip \"2:golden retriever\" + \".\u002Fswimming pool.jpg\"\ncd photos && rclip \".\u002Fracing car.jpg\" - \"2:sports car\" + \"2:snow\"\n```\n\nIf you want to see how these queries perform when executed on the 1.28 million images ImageNet-1k dataset, check out the demo on YouTube: https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=MsTgYdOpgcQ.\n\n### How do I preview the results?\n\nIf you are using either one of [iTerm2](https:\u002F\u002Fiterm2.com\u002F), [Konsole](https:\u002F\u002Fkonsole.kde.org\u002F) (version 22.04 and higher), [wezterm](https:\u002F\u002Fwezfurlong.org\u002Fwezterm\u002F), [Mintty](https:\u002F\u002Fmintty.github.io\u002F), or [mlterm](https:\u002F\u002Fmlterm.sourceforge.net\u002F) all you need to do is pass `--preview` (or `-p`) argument to **rclip**:\n\n```bash\nrclip -p kitty\n```\n\n\u003Cdetails>\n  \u003Csummary>Using a different terminal or viewer\u003C\u002Fsummary>\n\n  If you are using any other terminal or want to view the results in your viewer of choice, you can pass the output of **rclip** to it. For example, on Linux, the command from below will open top-5 results for \"kitty\" in your default image viewer:\n\n  ```bash\n  rclip -f -t 5 kitty | xargs -d '\\n' -n 1 xdg-open\n  ```\n\n  The `-f` param or `--filepath-only` makes **rclip** print the file paths only, without scores or the header, which makes it ideal to use together with a custom viewer as in the example.\n  \n  I prefer to use **feh**'s thumbnail mode to preview multiple results:\n\n  ```bash\n  rclip -f -t 5 kitty | feh -f - -t\n  ```\n\u003C\u002Fdetails>\n\n### Can I use **rclip** to copy images matching a certain query?\n\nYes, you can pipe **rclip**'s output to another tool to copy the images. For example, to copy top 3 images matching the \"search query\" to `\u002Fpath\u002Fto\u002Fdestination` on macOS, Linux, or WSL you can do:\n\n```sh\nrclip -f -t 3 \"search query\" | xargs -I {} cp {} \u002Fpath\u002Fto\u002Fdestination\n```\n\n### How does **rclip** update the index?\n\nWhen you run **rclip** in a directory that has already been processed, it will\nonly index the new images added since the last run and remove the deleted images\nfrom its index. This makes consecutive runs much faster.\n\nIf you know that no new images were added or deleted since the last run, you can\nuse the `--no-indexing` (or `-n`) argument to skip the indexing step altogether\nand speed up the search even more.\n\n```bash\nrclip -n cat\n```\n\n## Get help\n\nhttps:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fdiscussions\u002Fnew\u002Fchoose\n\n## Contributing\n\nThis repository follows the [Conventional Commits](https:\u002F\u002Fwww.conventionalcommits.org\u002Fen\u002Fv1.0.0\u002F) standard.\n\n### Running locally from the source code\n\nTo run **rclip** locally from the source code, you must have [Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) and [Poetry](https:\u002F\u002Fpython-poetry.org\u002F) installed.\n\nThen do:\n```bash\n# clone the source code repository\ngit clone git@github.com:yurijmikhalevich\u002Frclip.git\n\n# install dependencies and rclip\ncd rclip\npoetry install\n\n# activate the new poetry environment\npoetry shell\n```\n\nIf the poetry environment is active, you can use **rclip** locally, as described in the [Usage](#usage) section above.\n\n## Contributors ✨\n\nThanks go to these wonderful people and organizations ([emoji key](https:\u002F\u002Fallcontributors.org\u002Fdocs\u002Fen\u002Femoji-key)):\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:START - Do not remove or modify this section -->\n\u003C!-- prettier-ignore-start -->\n\u003C!-- markdownlint-disable -->\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Framayer\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_771207e00806.png\" width=\"100px;\" alt=\"ramayer\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>ramayer\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=ramayer\" title=\"Code\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fwww.caphyon.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_79dac67f3372.png\" width=\"100px;\" alt=\"Caphyon\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Caphyon\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"#infra-Caphyon\" title=\"Infrastructure (Hosting, Build-Tools, etc)\">🚇\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"http:\u002F\u002Fabidkhan484.github.io\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_1c30a49d799a.png\" width=\"100px;\" alt=\"AbId KhAn\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>AbId KhAn\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=abidkhan484\" title=\"Code\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fcl4r1ty.dev\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_321d39e832cd.png\" width=\"100px;\" alt=\"Ben\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Ben\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=Cl4r1ty-1\" title=\"Code\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Ftechtracer.pages.dev\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_886194a96b6d.png\" width=\"100px;\" alt=\"Tanmay Chaudhari\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Tanmay Chaudhari\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=tanmayc07\" title=\"Code\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"http:\u002F\u002Fleoauri.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_7859fe7408d4.png\" width=\"100px;\" alt=\"Leo Auri\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Leo Auri\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=leoauri\" title=\"Code\">💻\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003C!-- markdownlint-restore -->\n\u003C!-- prettier-ignore-end -->\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:END -->\n\nThanks to [Caphyon](https:\u002F\u002Fgithub.com\u002FCaphyon) and Advanced Installer team for generously supplying **rclip** project with the Professional Advanced Installer license for creating the Windows installer.\n\nThis project follows the [all-contributors](https:\u002F\u002Fgithub.com\u002Fall-contributors\u002Fall-contributors) specification. Contributions of any kind are welcome!\n\n## License\n\nMIT\n","# rclip - 基于 AI 的命令行照片搜索工具\n\u003C!-- ALL-CONTRIBUTORS-BADGE:START - Do not remove or modify this section -->\n[![All Contributors](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fall_contributors-6-orange.svg?style=flat-square)](#contributors-)\n\u003C!-- ALL-CONTRIBUTORS-BADGE:END -->\n\n[[博客]](https:\u002F\u002Fmikhalevi.ch\u002Frclip-an-ai-powered-command-line-photo-search-tool\u002F) [[YouTube 演示]](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tAJHXOkHidw) [[论文]](https:\u002F\u002Fwww.thinkmind.org\u002Findex.php?view=article&articleid=content_2023_1_20_60011)\n\n\u003Cdiv align=\"center\">\n  \u003Cimg alt=\"rclip logo\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_d5f67ad30755.png\" width=\"600px\" \u002F>\n\u003C\u002Fdiv>\n\n**rclip** 是一款由强大的 OpenAI [CLIP](https:\u002F\u002Fgithub.com\u002Fopenai\u002FCLIP) 神经网络驱动的命令行照片搜索工具。\n\n## 安装\n\n### Linux\n\n```bash\nsudo snap install rclip\n```\n\n\u003Cdetails>\n  \u003Csummary>替代方案（AppImage 和 \u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  如果您的 Linux 发行版不支持 [snap](https:\u002F\u002Fsnapcraft.io\u002Frclip)，您可以使用以下替代安装方式：\n\n  #### AppImage（自包含 x86_64 可执行文件）\n\n  在 Linux x86_64 上，您可以将 **rclip** 作为自包含的可执行文件进行安装。\n\n  1. 从最新的 [release](https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases) 下载 AppImage 文件。\n\n  2. 执行以下命令：\n\n  ```bash\n  chmod +x \u003C下载的 AppImage 文件名>\n  sudo mv \u003C下载的 AppImage 文件名> \u002Fusr\u002Flocal\u002Fbin\u002Frclip\n  ```\n\n  #### 使用 \u003Ccode>pip\u003C\u002Fcode>\n\n  ```bash\n  pip install --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu rclip\n  ```\n\u003C\u002Fdetails>\n\n### macOS\n\n```bash\nbrew install yurijmikhalevich\u002Ftap\u002Frclip\n```\n\n**注意：** 我们仅支持并提供适用于 Apple Silicon (arm64) 的预编译二进制包。您也可以尝试自行为基于 Intel 的 Mac 构建 brew rclip，或使用下面的替代安装方式。\n\n\u003Cdetails>\n  \u003Csummary>替代方案 (\u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  ```bash\n  pip install rclip\n  ```\n\u003C\u002Fdetails>\n\n### Windows\n\n1. 从最新的 [release](https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases) 下载 \"*.msi\" 文件。\n2. 运行安装程序以安装 **rclip**。\n\n\u003Cdetails>\n  \u003Csummary>替代方案 (\u003Ccode>pip\u003C\u002Fcode>)\u003C\u002Fsummary>\n\n  ```bash\n  pip install rclip\n  ```\n\u003C\u002Fdetails>\n\n## 使用\n\n```bash\ncd photos && rclip \"搜索查询\"\n```\n\n\u003Cimg alt=\"rclip 使用演示\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_705baaf06e8b.gif\" width=\"640px\" \u002F>\n\n当您首次在某个目录中运行 **rclip** 时，它会提取照片的特征，这需要一些时间。所需时间取决于您的 CPU 性能以及要搜索的照片数量。在我的 NAS 上处理 7.3 万张照片大约花费了一天时间，该设备搭载的是较旧的 Intel Celeron J3455 处理器；而在我的配备 M1 Max CPU 的 MacBook 上，索引 5 万张图片仅需 7 分钟；同样在这台 MacBook 上，处理 128 万张图片则耗时约三小时。\n\n有关详细演示，请观看视频：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=tAJHXOkHidw。\n\n### 相似图片搜索\n\n您可以通过传递文件路径甚至图片文件的 URL 来使用另一张图片作为查询，**rclip** 将找到与您提供的查询图片最相似的图片。如果您通过相对路径引用本地图片，**必须**在其前面加上 `.\u002F`。例如：\n\n```bash\ncd photos && rclip .\u002Fcat.jpg\n\n# 或者使用 URL\ncd photos && rclip https:\u002F\u002Fraw.githubusercontent.com\u002Fyurijmikhalevich\u002Frclip\u002Fmain\u002Ftests\u002Fe2e\u002Fimages\u002Fcat.jpg\n```\n\n请观看此视频以了解图片到图片的搜索演示：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=1YQZKeCBxWM。\n\n### 组合多个查询\n\n您可以对图像和文本查询进行加减操作，以下是一些使用示例：\n\n```bash\ncd photos && rclip horse + stripes\ncd photos && rclip apple - fruit\ncd photos && rclip \".\u002Fnew york city.jpg\" + night\ncd photos && rclip \"2:golden retriever\" + \".\u002Fswimming pool.jpg\"\ncd photos && rclip \".\u002Fracing car.jpg\" - \"2:sports car\" + \"2:snow\"\n```\n\n如果您想查看这些查询在 ImageNet-1k 数据集的 128 万张图片上执行的效果，请观看 YouTube 上的演示：https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=MsTgYdOpgcQ。\n\n### 如何预览结果？\n\n如果您使用的是 [iTerm2](https:\u002F\u002Fiterm2.com\u002F)、[Konsole](https:\u002F\u002Fkonsole.kde.org\u002F)（版本 22.04 及以上）、[wezterm](https:\u002F\u002Fwezfurlong.org\u002Fwezterm\u002F)、[Mintty](https:\u002F\u002Fmintty.github.io\u002F) 或 [mlterm](https:\u002F\u002Fmlterm.sourceforge.net\u002F) 中的任意一个，只需向 **rclip** 传递 `--preview`（或 `-p`）参数即可：\n\n```bash\nrclip -p kitty\n```\n\n\u003Cdetails>\n  \u003Csummary>使用其他终端或查看器\u003C\u002Fsummary>\n\n  如果您使用的是其他终端，或者希望在自己选择的查看器中查看结果，可以将 **rclip** 的输出传递给该查看器。例如，在 Linux 上，以下命令会在您的默认图片查看器中打开“kitty”查询的前 5 张结果：\n\n  ```bash\n  rclip -f -t 5 kitty | xargs -d '\\n' -n 1 xdg-open\n  ```\n\n  参数 `-f` 或 `--filepath-only` 会使 **rclip** 只打印文件路径，而不显示分数或标题，这使其非常适合与自定义查看器配合使用，如上述示例所示。\n  \n  我更喜欢使用 **feh** 的缩略图模式来预览多个结果：\n\n  ```bash\n  rclip -f -t 5 kitty | feh -f - -t\n  ```\n\u003C\u002Fdetails>\n\n### 我能否使用 **rclip** 复制符合特定查询的照片？\n\n是的，您可以将 **rclip** 的输出通过管道传递给其他工具来复制图片。例如，在 macOS、Linux 或 WSL 上，要将匹配“搜索查询”的前 3 张图片复制到 `\u002Fpath\u002Fto\u002Fdestination`，您可以这样做：\n\n```sh\nrclip -f -t 3 \"搜索查询\" | xargs -I {} cp {} \u002Fpath\u002Fto\u002Fdestination\n```\n\n### **rclip** 如何更新索引？\n\n当您在已处理过的目录中运行 **rclip** 时，它只会索引自上次运行以来新增的照片，并从索引中移除已删除的照片。这使得后续运行速度更快。\n\n如果您确定自上次运行以来没有新增或删除照片，可以使用 `--no-indexing`（或 `-n`）参数来完全跳过索引步骤，从而进一步加快搜索速度。\n\n```bash\nrclip -n cat\n```\n\n## 获取帮助\n\nhttps:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fdiscussions\u002Fnew\u002Fchoose\n\n## 贡献\n\n本仓库遵循 [Conventional Commits](https:\u002F\u002Fwww.conventionalcommits.org\u002Fen\u002Fv1.0.0\u002F) 标准。\n\n### 从源代码本地运行\n\n要从源代码本地运行 **rclip**, 您需要安装 [Python](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F) 和 [Poetry](https:\u002F\u002Fpython-poetry.org\u002F)。\n\n然后执行：\n```bash\n# 克隆源代码仓库\ngit clone git@github.com:yurijmikhalevich\u002Frclip.git\n\n# 安装依赖和 rclip\ncd rclip\npoetry install\n\n# 激活新的 poetry 环境\npoetry shell\n```\n\n如果 poetry 环境已激活，您可以按照上面的 [使用方法](#usage) 部分所述，在本地使用 **rclip**。\n\n## 贡献者 ✨\n\n感谢以下优秀的人士和组织（[emoji key](https:\u002F\u002Fallcontributors.org\u002Fdocs\u002Fen\u002Femoji-key)）：\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:START - 请勿删除或修改此部分 -->\n\u003C!-- prettier-ignore-start -->\n\u003C!-- markdownlint-disable -->\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Framayer\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_771207e00806.png\" width=\"100px;\" alt=\"ramayer\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>ramayer\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=ramayer\" title=\"代码\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fwww.caphyon.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_79dac67f3372.png\" width=\"100px;\" alt=\"Caphyon\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Caphyon\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"#infra-Caphyon\" title=\"基础设施（托管、构建工具等）\">🚇\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"http:\u002F\u002Fabidkhan484.github.io\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_1c30a49d799a.png\" width=\"100px;\" alt=\"AbId KhAn\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>AbId KhAn\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=abidkhan484\" title=\"代码\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Fcl4r1ty.dev\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_321d39e832cd.png\" width=\"100px;\" alt=\"Ben\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Ben\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=Cl4r1ty-1\" title=\"代码\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"https:\u002F\u002Ftechtracer.pages.dev\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_886194a96b6d.png\" width=\"100px;\" alt=\"Tanmay Chaudhari\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Tanmay Chaudhari\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=tanmayc07\" title=\"代码\">💻\u003C\u002Fa>\u003C\u002Ftd>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"14.28%\">\u003Ca href=\"http:\u002F\u002Fleoauri.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_readme_7859fe7408d4.png\" width=\"100px;\" alt=\"Leo Auri\"\u002F>\u003Cbr \u002F>\u003Csub>\u003Cb>Leo Auri\u003C\u002Fb>\u003C\u002Fsub>\u003C\u002Fa>\u003Cbr \u002F>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcommits?author=leoauri\" title=\"代码\">💻\u003C\u002Fa>\u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n\u003C!-- markdownlint-restore -->\n\u003C!-- prettier-ignore-end -->\n\n\u003C!-- ALL-CONTRIBUTORS-LIST:END -->\n\n特别感谢 [Caphyon](https:\u002F\u002Fgithub.com\u002FCaphyon) 和 Advanced Installer 团队，他们慷慨地为 **rclip** 项目提供了 Professional Advanced Installer 许可证，用于制作 Windows 安装程序。\n\n本项目遵循 [all-contributors](https:\u002F\u002Fgithub.com\u002Fall-contributors\u002Fall-contributors) 规范。欢迎任何形式的贡献！\n\n## 许可证\n\nMIT","# rclip 快速上手指南\n\nrclip 是一款基于 OpenAI CLIP 神经网络的命令行照片搜索工具，支持通过自然语言描述或图片来检索本地相册。\n\n## 环境准备\n\n- **操作系统**：Linux、macOS (推荐 Apple Silicon)、Windows\n- **前置依赖**：\n  - Linux: 需支持 `snap`，或使用 `pip`\u002FAppImage\n  - macOS: 需安装 `Homebrew` (推荐) 或 `pip`\n  - Windows: 直接运行安装包或使用 `pip`\n  - Python 环境（若使用 pip 安装）\n\n> **注意**：首次运行时会提取图片特征，耗时取决于图片数量和 CPU 性能。后续运行仅索引新增图片，速度极快。\n\n## 安装步骤\n\n### Linux\n\n**推荐方式 (Snap):**\n```bash\nsudo snap install rclip\n```\n\n**备选方式 (pip):**\n```bash\npip install --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu rclip\n```\n\n### macOS\n\n**推荐方式 (Homebrew - 仅限 Apple Silicon):**\n```bash\nbrew install yurijmikhalevich\u002Ftap\u002Frclip\n```\n\n**备选方式 (pip - 适用于 Intel Mac 或其他情况):**\n```bash\npip install rclip\n```\n\n### Windows\n\n1. 前往 [Releases 页面](https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases) 下载最新的 `.msi` 安装包。\n2. 运行安装程序完成安装。\n\n**备选方式 (pip):**\n```bash\npip install rclip\n```\n\n## 基本使用\n\n进入包含照片的目录，直接输入搜索关键词即可：\n\n```bash\ncd photos && rclip \"search query\"\n```\n\n**更多实用示例：**\n\n- **以图搜图**（本地图片需加 `.\u002F` 前缀）：\n  ```bash\n  rclip .\u002Fcat.jpg\n  ```\n- **组合搜索**（添加或排除概念）：\n  ```bash\n  rclip horse + stripes       # 搜索带条纹的马\n  rclip apple - fruit         # 搜索苹果但排除水果类概念\n  rclip \".\u002Fnew york city.jpg\" + night # 基于图片并增加“夜晚”概念\n  ```\n- **预览结果**（需终端支持如 iTerm2, wezterm 等）：\n  ```bash\n  rclip -p kitty\n  ```\n- **跳过索引**（当确认无新图片时加速搜索）：\n  ```bash\n  rclip -n cat\n  ```","一位拥有数万张旅行照片的摄影师需要在本地海量图库中快速筛选特定构图或氛围的素材，以完成紧急的商业提案。\n\n### 没有 rclip 时\n- 只能依赖文件名或手动添加的标签搜索，若当初未规范命名（如 `IMG_2034.jpg`），根本找不到“夕阳下的海滩”这类语义内容。\n- 寻找相似构图时，必须肉眼逐张翻阅成千上万张照片，耗时数小时且极易遗漏最佳选项。\n- 无法进行组合筛选，例如想找“像这张参考图但要是夜晚场景”的照片，完全无法通过传统方式实现。\n- 跨设备整理照片时，缺乏智能索引，导致大量优质素材长期沉睡在硬盘深处无法被复用。\n\n### 使用 rclip 后\n- 直接使用自然语言搜索（如 `rclip \"sunset beach\"`），rclip 利用 CLIP 模型理解语义，瞬间定位所有相关画面，无需预先打标签。\n- 支持以图搜图，只需提供一张参考照路径，rclip 即可毫秒级返回图库中视觉特征最相似的所有照片。\n- 能够执行复杂的加减法查询（如 `rclip \".\u002Freference.jpg\" + night - crowd`），精准提取“类似参考图且是夜晚、无人群”的特定素材。\n- 首次运行后自动建立本地向量索引，后续在终端即可随时调用，将原本数小时的翻找工作压缩至秒级响应。\n\nrclip 将非结构化的图片库转化为可语义交互的智能资产，让摄影师从繁琐的文件管理中解放出来，专注于创意本身。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fyurijmikhalevich_rclip_d5f67ad3.png","yurijmikhalevich","Yurij Mikhalevich","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fyurijmikhalevich_dc7bffc0.jpg",null,"Makes magic at @QAWolf 🐺","yurij@mikhalevi.ch","theyurij","mikhalevi.ch","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich",[83,87,91,95],{"name":84,"color":85,"percentage":86},"Python","#3572A5",93.6,{"name":88,"color":89,"percentage":90},"Shell","#89e051",3.1,{"name":92,"color":93,"percentage":94},"Makefile","#427819",1.7,{"name":96,"color":97,"percentage":98},"PowerShell","#012456",1.6,912,71,"2026-04-06T03:44:14","MIT",1,"Linux, macOS, Windows","未说明 (支持 CPU 模式，安装命令中包含 --extra-index-url ...\u002Fcpu 选项，且在 Intel Celeron 和 Apple Silicon 上均有运行测试)","未说明",{"notes":108,"python":109,"dependencies":110},"首次运行在特定目录时会提取照片特征，耗时取决于 CPU 性能和图片数量（例如：M1 Max 处理 5 万张图约 7 分钟）。支持通过 pip 安装 CPU 版本。macOS 预构建包仅支持 Apple Silicon (arm64)，Intel Mac 需自行构建或使用 pip 安装。支持多种终端预览图片，也可管道输出至其他查看器。","未说明 (源码运行需安装 Python 和 Poetry)",[111,112,113],"CLIP (OpenAI)","torch","poetry (开发依赖)",[15],[116,117,118,119,120,121],"artificial-intelligence","photography","computer-vision","python","hacktoberfest","image-search","2026-03-27T02:49:30.150509","2026-04-11T17:00:06.113933",[125,130,135,140,145,150,155],{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},22555,"在 Windows 上使用 Unicode 文件路径时，重定向输出到文件或管道报错怎么办？","这是一个已知的 Bug，已在 rclip 2.0.11 版本中修复。请运行以下命令升级：\npip install --upgrade rclip\n或者如果您使用的是其他包管理器，请确保升级到 v2.0.11 或更高版本。","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F95",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},22556,"在 macOS 上通过 Homebrew 安装后运行 rclip 出现 'ModuleNotFoundError: No module named torch' 错误如何解决？","该问题是由于 Homebrew 版本的依赖项配置问题导致的，已在后续版本中修复。请运行以下命令更新并升级：\nbrew update && brew upgrade\n维护者已将 Homebrew 版的 rclip 迁移到独立的 pytorch 和 torchvision 版本以避免此类冲突。","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F98",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},22557,"在 Windows 根目录（如 Y:\\）运行 rclip 查询不到任何结果怎么办？","这是一个已知问题，当从磁盘根目录运行时会返回空结果。请在非根目录（子文件夹）中运行 rclip，或者升级到 rclip 2.1.6 及以上版本，该版本已修复此问题。\n下载地址：https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Freleases\u002Ftag\u002Fv2.1.6","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F235",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},22558,"如何在 Jupyter Notebook 或 Google Colab 中使用 rclip？","直接在 Notebook 中运行 !rclip 命令可能会因终端宽度检测问题报错（ValueError: invalid width -2）。推荐两种方法：\n1. 尽量在终端中使用 rclip，因为图像预览等功能在 Notebook 中不可用。\n2. 如果必须在 Notebook 中使用，可以将其作为库导入（注意 API 可能随版本变化）：\n   from rclip.main import init_rclip\n   DATASET_DIR = '.\u002Fpath\u002Fto\u002Fimages' # 需手动指定图片目录，__file__ 在 Notebook 中无效\n   BATCH_SIZE = 256\n   DEVICE = 'cpu'\n   _, model, rclipDB = init_rclip(DATASET_DIR, BATCH_SIZE, DEVICE)\n   此方法需先安装：pip install --extra-index-url https:\u002F\u002Fdownload.pytorch.org\u002Fwhl\u002Fcpu rclip","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F105",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},22559,"在 Synology NAS (DSM 7) 上运行出现 'APPRUN_ERROR: Permission denied' 错误如何解决？","该权限问题已在 rclip 1.2.5 版本中修复。请将 rclip 升级到 1.2.5 或更高版本即可在 DSM 7.1.1+ 上正常运行。","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F30",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},22560,"Snap 版本提示权限错误且无法访问符号链接指向的目录怎么办？","Snap 版本对目录访问有严格限制。如果遇到权限错误，建议尝试使用 AppImage 版本，它通常具有更灵活的访问权限。\n下载 AppImage 版本：https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip?tab=readme-ov-file#appimage-self-contained-x86_64-executable\n此外，相关错误提示信息改进已在 rclip 2.0.10 中发布，会同时显示符号链接路径和解析后的路径。","https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fissues\u002F200",{"id":156,"question_zh":157,"answer_zh":158,"source_url":139},22561,"rclip 索引大量图片（如 7 万 +）在低配机器上非常慢是否正常？","是的，这是正常现象。根据用户反馈，在 Intel J3455 处理器上索引 7.3 万张图片大约需要一天时间。一旦索引完成，后续的查询速度会很快。对于配置较低的机器（如 Intel J5040），首次索引可能需要更长时间，请耐心等待完成。",[160,165,170,175,180,185,190,195,200,205,210,215,220,225,230,235,240,245,250,255],{"id":161,"version":162,"summary_zh":163,"released_at":164},136277,"v2.1.6","## 变更内容\n* 繁琐任务：将 `setup-node`、`setup-python`、`checkout`、`upload-artifact` 和 `download-artifact` 动作升级到最新版本，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F248 中完成。\n* 修复（Windows）：在 Windows 系统中，如果在根目录下使用 rclip（例如 `Y:\\`），rclip 应该能够正确显示结果，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F251 中完成。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.5...v2.1.6","2026-04-06T03:41:20",{"id":166,"version":167,"summary_zh":168,"released_at":169},136278,"v2.1.6a1","**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.5...v2.1.6a1","2026-03-30T06:59:42",{"id":171,"version":172,"summary_zh":173,"released_at":174},136279,"v2.1.5","## 变更内容\n* ci(brew): 由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F246 中提交，修改 generate_formula.py 脚本，使其在获取 wheel 信息时忽略来自 Core Brew Tap 的包。\n* ci(windows): 由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F245 中提交，升级 Advanced Installer 版本。\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.4...v2.1.5","2026-03-29T10:22:56",{"id":176,"version":177,"summary_zh":178,"released_at":179},136280,"v2.1.5a2","**完整更新日志**: https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.4...v2.1.5a2","2026-03-29T09:47:27",{"id":181,"version":182,"summary_zh":183,"released_at":184},136281,"v2.1.4","## 变更内容\n* 修复(ci)：由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F243 中构建的 AppImage\n* ci(brew)：修复 Homebrew formula 生成器，以匹配 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F244 中对 tap 的修复\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.3...v2.1.4","2026-03-29T03:50:36",{"id":186,"version":187,"summary_zh":188,"released_at":189},136282,"v2.1.4a1","## 变更内容\n* 修复(brew)：添加 libheif 依赖，以修复 Homebrew 构建问题，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F224 中完成\n* 文档(README)：在 README 中说明 rclip 如何更新索引，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F229 中完成\n* 杂项：更新依赖项，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F236 中完成\n* 杂项：将 torch 更新至 2.10.0 版本，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F237 中完成\n* 杂项：添加对 Python 3.13 的支持，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F238 中完成\n* 杂项：添加对 Python 3.14 的支持，并将 rawpy 升级至 0.26.1 版本，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F239 中完成\n* 修复(model)：始终将文本模型加载到正确的设备上，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F241 中完成\n* 杂项：升级依赖项，由 yurijmikhalevich 在 https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fpull\u002F242 中完成\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002Fyurijmikhalevich\u002Frclip\u002Fcompare\u002Fv2.1.0...v2.1.4a1","2026-03-22T04:29:27",{"id":191,"version":192,"summary_zh":193,"released_at":194},136283,"v2.1.0","- 发布：v2.1.0\n- 文档：添加 leoauri 为代码贡献者 (#223)\n- 功能：新增 HEIC 图像格式支持 (#222)","2025-10-25T23:06:03",{"id":196,"version":197,"summary_zh":198,"released_at":199},136284,"v2.0.11","- 发布：v2.0.11\n- 修复：检测到 Unicode 字符时出现重复输出 (#217)","2025-10-14T10:30:31",{"id":201,"version":202,"summary_zh":203,"released_at":204},136285,"v2.0.9","- 发布：v2.0.9\n- 文档：添加 Cl4r1ty-1 为代码贡献者 (#213)\n- 修复：在 Unicode 文件路径下重定向输出时出现的错误 (#211)\n- 杂项：移除对 macOS 13 的提及 (#210)\n- 杂项：弃用基于 Intel 的 Mac 机型 (#208)","2025-10-12T12:19:04",{"id":206,"version":207,"summary_zh":208,"released_at":209},136286,"v2.0.8","- 发布：v2.0.8\n- 杂项：将 `open-clip-torch` 更新至 3.1.0 (#205)","2025-09-09T12:27:04",{"id":211,"version":212,"summary_zh":213,"released_at":214},136287,"v2.0.7","- release: v2.0.7\n- chore: bump dependencies (#202)","2025-08-25T09:49:29",{"id":216,"version":217,"summary_zh":218,"released_at":219},136288,"v2.0.6","- release: v2.0.6\n- fix(snap): detect symlink-related permission errors when running rclip installed with snap and suggest how to fix them to the user (#199)","2025-08-18T12:10:50",{"id":221,"version":222,"summary_zh":223,"released_at":224},136289,"v2.0.6a3","- release: v2.0.6a3","2025-08-18T11:15:16",{"id":226,"version":227,"summary_zh":228,"released_at":229},136290,"v2.0.5","- release: v2.0.5\n- release: v2.0.4\n- chore: update dependencies (#192)\n- fix: nightly rclip test on macos-13 (#191)\n- chore(PULL_REQUEST_TEMPLATE): wholistic → holistic\n- chore: add the ruff commit to .git-blame-ignore-revs","2025-04-14T07:22:35",{"id":231,"version":232,"summary_zh":233,"released_at":234},136291,"v2.0.3","- release: v2.0.3\n- chore: switch from `pycodestyle` to `ruff` + install `pyright` from `pypi` (#188)\n- chore: update dependencies (#187)\n- chore: add PR template to help contributors (#186)\n- ci: update brew before running daily tests to account for any system package updates (#185)\n- chore: e2e test latest stable release every day (#172)\n- ci: quickfix the branch-tag collision on the brew tap repo (#184)\n- ci: ubuntu-20.04 → ubuntu-22.04","2025-03-07T08:25:49",{"id":236,"version":237,"summary_zh":238,"released_at":239},136292,"v2.0.2","- release: v2.0.2\n- test: make e2e test assertion support relative paths (#183)","2025-03-02T14:57:25",{"id":241,"version":242,"summary_zh":243,"released_at":244},136293,"v2.0.1","- release: v2.0.1\n- fix: subtract arg helper string (#182)\n- fix(ci): brew rclip build failure due to the ZIP error (#180)","2025-02-26T05:39:06",{"id":246,"version":247,"summary_zh":248,"released_at":249},136294,"v2.0.0","- release: v2.0.0\n- ci: enable prerelease windows build testing (#179)\n- ci: simplify snap build steps (#178)\n- ci: test snap and appimage e2e prerelease (#177)\n- ci: test pypi build on multiple target OSes (#176)\n- ci: introduce the \"Test system rclip\" action (#175)\n- chore: bump release action versions (#174)\n- chore: update jinja2 to make dependabot happy (#171)\n- test: enable running e2e tests on system rclip (#170)\n- fix: typo in test names, seach → search (#169)\n- test: add tests for ARW and CR2 images (#168)\n- feat: enable brew releases with raw support (#166)\n- fix: address `open_clip` and `torch` warnings, switch to quickgelu model (#164)\n- fix(brew): port the latest formula fixes from the tap repo (#163)\n- release: v1.11.1a26\n- chore: update rawpy to 0.24.0 to support Python 3.13 (#158)\n- release: v1.11.1a25 (#156)\n- chore: update brew python dependency to 3.13\n- fix: AppImage build (#154)\n- chore: speedup snap release by building amd64 snapp locally (#153)\n- chore: update numpy to 2.1.3 (#152)\n- BREAKING CHANGE: drop Python 3.9 support because some libraries, like the latest numpy don't support it anymore (#151)\n- chore: update torch & torchvision to the latest versions (__should__ support Python 3.13 and help with the brew build) (#150)","2025-02-23T07:12:59",{"id":251,"version":252,"summary_zh":253,"released_at":254},136295,"v1.11.1a25","- release: v1.11.1a25\n- chore: update brew python dependency to 3.13\n- fix: AppImage build (#154)\n- chore: speedup snap release by building amd64 snapp locally (#153)\n- chore: update numpy to 2.1.3 (#152)\n- BREAKING CHANGE: drop Python 3.9 support because some libraries, like the latest numpy don't support it anymore (#151)\n- chore: update torch & torchvision to the latest versions (__should__ support Python 3.13 and help with the brew build) (#150)","2024-12-15T12:27:53",{"id":256,"version":257,"summary_zh":258,"released_at":259},136296,"v1.11.1a12","- release: v1.11.1a12","2024-11-30T17:26:48"]