[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"tool-superlinked--superlinked":3,"similar-superlinked--superlinked":78},{"id":4,"github_repo":5,"name":6,"description_en":7,"description_zh":8,"ai_summary_zh":9,"readme_en":10,"readme_zh":11,"quickstart_zh":12,"use_case_zh":13,"hero_image_url":14,"owner_login":6,"owner_name":15,"owner_avatar_url":16,"owner_bio":17,"owner_company":7,"owner_location":7,"owner_email":7,"owner_twitter":6,"owner_website":18,"owner_url":19,"languages":20,"stars":29,"forks":30,"last_commit_at":31,"license":32,"difficulty_score":33,"env_os":34,"env_gpu":34,"env_ram":34,"env_deps":35,"category_tags":40,"github_topics":7,"view_count":43,"oss_zip_url":7,"oss_zip_packed_at":7,"status":44,"created_at":45,"updated_at":46,"faqs":47,"releases":77},6457,"superlinked\u002Fsuperlinked","superlinked",null,"Superlinked 是一个专为构建高性能 AI 搜索应用而设计的开源框架，旨在帮助开发者打造既适合人类用户也适配 AI 智能体的搜索系统。它核心解决了传统向量搜索中“元数据与语义理解割裂”的难题，通过将结构化元数据与非结构化文本共同编码为丰富的多模态嵌入，让推荐系统、检索增强生成（RAG）及数据分析不再局限于基础的语义匹配。\n\n值得注意的是，Superlinked 团队发现生产环境中最大的瓶颈在于大规模推理效率，因此该项目已演进并重点推出了\"Superlinked 推理引擎（SIE）”。这是一个专为小规模模型设计的开源推理服务器和生产集群，致力于打通从原型验证到生产级部署的最后一步，确保嵌入模型能高效、稳定地运行。\n\nSuperlinked 非常适合后端工程师、AI 应用开发者以及数据科学家使用。其技术亮点在于提供了简洁的 Python API，允许用户通过定义模式（Schema）和相似度空间，快速在内存中搭建起包含索引、查询和执行流程的完整搜索链路，极大地降低了开发高复杂度 AI 搜索功能的门槛。无论是需要构建精准的电影评论检索，还是复杂的商业推荐系统，Superlinked 都","Superlinked 是一个专为构建高性能 AI 搜索应用而设计的开源框架，旨在帮助开发者打造既适合人类用户也适配 AI 智能体的搜索系统。它核心解决了传统向量搜索中“元数据与语义理解割裂”的难题，通过将结构化元数据与非结构化文本共同编码为丰富的多模态嵌入，让推荐系统、检索增强生成（RAG）及数据分析不再局限于基础的语义匹配。\n\n值得注意的是，Superlinked 团队发现生产环境中最大的瓶颈在于大规模推理效率，因此该项目已演进并重点推出了\"Superlinked 推理引擎（SIE）”。这是一个专为小规模模型设计的开源推理服务器和生产集群，致力于打通从原型验证到生产级部署的最后一步，确保嵌入模型能高效、稳定地运行。\n\nSuperlinked 非常适合后端工程师、AI 应用开发者以及数据科学家使用。其技术亮点在于提供了简洁的 Python API，允许用户通过定义模式（Schema）和相似度空间，快速在内存中搭建起包含索引、查询和执行流程的完整搜索链路，极大地降低了开发高复杂度 AI 搜索功能的门槛。无论是需要构建精准的电影评论检索，还是复杂的商业推荐系统，Superlinked 都能提供强有力的底层支持。","\u003C!-- ── DEPRECATION NOTICE ── -->\n\n\u003Cdiv align=\"center\">\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\n\u003Cp align=\"center\">\n\u003Cpicture>\n  \u003Csource srcset=\"https:\u002F\u002Fcdn.prod.website-files.com\u002F65dce6831bf9f730421e2915\u002F66ef0317ed8616151ee1d451_superlinked_logo_white.png\"\n          media=\"(prefers-color-scheme: dark)\">\n  \u003Cimg width=\"280\"\n       src=\"https:\u002F\u002Fcdn.prod.website-files.com\u002F65dce6831bf9f730421e2915\u002F65dce6831bf9f730421e2929_superlinked_logo.svg\"\n       alt=\"Superlinked logo\">\n\u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch2 align=\"center\">Superlinked has evolved and this repo is deprecated\u003C\u002Fh2>\n\n\u003Cp align=\"center\">\nSuperlinked helped developers build better vector search by encoding metadata alongside unstructured data into rich, multi-modal embeddings, powering recommendations, RAG, and analytics beyond naive semantic search.\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\nBut the biggest pain point in production was always \u003Cstrong>inference\u003C\u002Fstrong>, running embedding models efficiently at scale. That was the real blocker between a prototype and a production-grade system. So we went all-in on solving it.\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n\u003Cstrong>Superlinked Inference Engine (SIE)\u003C\u002Fstrong> is the result, an Open-source inference server and production cluster for small models\n\u003C\u002Fp>\n\n\u003Cbr>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%E2%9A%A1_Go_to_SIE_%E2%86%92-Superlinked_Inference_Engine-F5C518?style=for-the-badge&logoColor=black\" alt=\"Go to SIE\" height=\"45\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\">https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cbr>\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003C\u002Fdiv>\n\n---\n\n\u003Cbr>\n\n\u003C!-- ── HERO block ── -->\n\u003Cdiv align=\"center\">\n\n\n\u003C!-- Primary CTA -->\n\u003Cp>\n  \u003Ca href=\"https:\u002F\u002Flinks.superlinked.com\u002Fdeep_wiki_repo\" style=\"text-decoration:none;display:inline-block\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat%20with%20our%20AI%20docs-%E2%86%92-72A1FF?style=for-the-badge&logo=readthedocs&logoColor=white\"\n         alt=\"chat with our AI docs\" width=\"200\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- Secondary badges -->\n\u003Cp style=\"margin:6px 0;text-decoration:none\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.superlinked.com\u002F\"                     style=\"text-decoration:none;display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-orange?logo=readthedocs\"                                        alt=\"Docs\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdeepwiki.com\u002Fsuperlinked\u002Fsuperlinked\"      style=\"text-decoration:none;display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg\"                                                       alt=\"DeepWiki\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuperlinked\u002F\"             style=\"text-decoration:none;display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsuperlinked\"                                             alt=\"PyPI\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fstargazers\" style=\"text-decoration:none;display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsuperlinked\u002Fsuperlinked?style=social\" alt=\"Stars\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fsuperlinked\u002Fsuperlinked\" style=\"display:inline-block\" alt=\"Last commit\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fsuperlinked\u002Fsuperlinked\"     style=\"display:inline-block\" alt=\"License\">\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Cem>Build high-performance \u003Cb> AI search \u003C\u002Fb> applications for both humans and agents. \u003C\u002Fem>\n\u003C\u002Fp>\n\n## Quickstart\n```python\n%pip install superlinked\n```\n```python\nfrom superlinked import framework as sl  \n  \n# Define schema for movie reviews  \nclass Review(sl.Schema):  \n    id: sl.IdField  \n    text: sl.String  \n  \nreview = Review()  \nspace = sl.TextSimilaritySpace(text=review.text, model=\"all-MiniLM-L6-v2\")  \nindex = sl.Index(space)  \nquery = sl.Query(index).find(review).similar(space, sl.Param(\"search\")).select_all()  \n  \n# Setup and run  \nsource = sl.InMemorySource(review)  \napp = sl.InMemoryExecutor(sources=[source], indices=[index]).run()  \n  \n# Add data and search  \nsource.put([  \n    {\"id\": \"1\", \"text\": \"Amazing acting and great story\"},  \n    {\"id\": \"2\", \"text\": \"Boring plot with bad acting\"}  \n])  \n  \nresult = app.query(query, search=\"excellent performance\")  \nprint(sl.PandasConverter.to_pandas(result))\n\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>Table&nbsp;of&nbsp;Contents\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n- [Table of Contents](#table-of-contents)\n- [Quickstart](#quickstart)\n- [Overview](#overview)\n- [Hands on tutorials](#hands-on-tutorials)\n- [Use-cases](#use-cases)\n- [Experiment in a notebook](#experiment-in-a-notebook)\n    - [Install the superlinked library](#install-the-superlinked-library)\n    - [Run the example:](#run-the-example)\n- [Run in production](#run-in-production)\n  - [Supported Vector Databases](#supported-vector-databases)\n- [Logging](#logging)\n- [Resources](#resources)\n- [Support](#support)\n\n\u003C\u002Fdetails>\n\n## Overview\n\n- **WHY**: Improve your vector search relevance by encoding metadata together with your unstructured data into vectors.\n- **WHAT**: A framework and a self-hostable REST API server that connects your data, vector database and backend services.\n- **HOW**: Construct custom data & query embedding models from pre-trained encoders from `sentence-transformers`, `open-clip` and custom encoders for numbers, timestamps and categorical data. See the [tutorials](#hands-on-tutorials) and [use-case](#use-cases) notebooks below for examples.\n\nIf you like what we do, give us a star! ⭐\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsuperlinked_superlinked_readme_7b688fc51747.png)\n\n\n## Hands-on Tutorials\n\n| Level | What you'll build & learn | Try it now |\n|-------|---------------------------|------------|\n| **Start here** | Embed text · images · numbers · categories · time · events. | Text embedding&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Ftext_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Image embedding&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fimage_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Numeric (min-max)&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnumber_embedding_minmax.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Numeric (similar)&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnumber_embedding_similar.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Categorical&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcategorical_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Recency embedding&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Frecency_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Event effects&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fevent_effects.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **Build & extend** | Combine spaces or add custom \u002F optional schemas. | Combine embeddings&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcombine_multiple_embeddings.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Custom space&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcustom_space.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Optional fields&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Foptional_schema_fields.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **Optimise relevance** | Real-time updates & query-time personalisation. | Dynamic parameters&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fdynamic_parameters.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Query-time weights&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquery_time_weights.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Query result&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquery_result.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **Search & filter** | NL search + hard filters. | NL query&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnatural_language_querying.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Hard filtering&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fhard_filtering.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Query options&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquerying_options.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>Vector parts&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Faccessing_stored_vector_parts.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **Analyse & export** | Sample embeddings offline. | Vector sampler&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fvector_sampler.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **Go multi-modal** | Unified text + image space. | Multimodal search&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fimage_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n\n\n> 💡 **Want even more?** Browse the complete list of features & concepts in our docs →  \n> \u003Chttps:\u002F\u002Fdocs.superlinked.com\u002Fconcepts\u002Foverview>\n\n\n## Experiment in a notebook\n\nLet's build an e-commerce product search that understands product descriptions and ratings:\n\n#### Run the notebook example:\n\n>First run will take a minute to download the embedding model.  \n\n```python\n%pip install superlinked\n```\n```python\nimport json\nimport os\n\nfrom superlinked import framework as sl\n\n\nclass Product(sl.Schema):\n    id: sl.IdField\n    description: sl.String\n    rating: sl.Integer\n\n\nproduct = Product()\n\ndescription_space = sl.TextSimilaritySpace(\n    text=product.description, model=\"Alibaba-NLP\u002Fgte-large-en-v1.5\"\n)\nrating_space = sl.NumberSpace(\n    number=product.rating, min_value=1, max_value=5, mode=sl.Mode.MAXIMUM\n)\nindex = sl.Index([description_space, rating_space], fields=[product.rating])\n\n\n# Define your query and parameters to set them directly at query-time\n# or let an LLM fill them in for you using the `natural_language_query` param.\n# Don't forget to set your OpenAI API key to unlock this feature.\nquery = (\n    sl.Query(\n        index,\n        weights={\n            description_space: sl.Param(\"description_weight\"),\n            rating_space: sl.Param(\"rating_weight\"),\n        },\n    )\n    .find(product)\n    .similar(\n        description_space,\n        sl.Param(\n            \"description_query\",\n            description=\"The text in the user's query that refers to product descriptions.\",\n        ),\n    )\n    .limit(sl.Param(\"limit\"))\n    .with_natural_query(\n        sl.Param(\"natural_language_query\"),\n        sl.OpenAIClientConfig(api_key=os.environ[\"OPEN_AI_API_KEY\"], model=\"gpt-4o\")\n    )\n)\n\n# Run the app in-memory (server & Apache Spark executors available too!).\nsource = sl.InMemorySource(product)\nexecutor = sl.InMemoryExecutor(sources=[source], indices=[index])\napp = executor.run()\n\n\n# Ingest data into the system - index updates and other processing happens automatically.\nsource.put([\n    {\n        \"id\": 1,\n        \"description\": \"Budget toothbrush in black color. Just what you need.\",\n        \"rating\": 1,\n    },\n    {\n        \"id\": 2,\n        \"description\": \"High-end toothbrush created with no compromises.\",\n        \"rating\": 5,\n    },\n    {\n        \"id\": 3,\n        \"description\": \"A toothbrush created for the smart 21st century man.\",\n        \"rating\": 3,\n    },\n])\n\nresult = app.query(query, natural_query=\"best toothbrushes\", limit=1)\n\n# Examine the extracted parameters from your query\nprint(json.dumps(result.metadata, indent=2))\n\n# The result is the 5-star rated product.\nsl.PandasConverter.to_pandas(result)\n```\n\n## Use-cases\n\nDive deeper with our notebooks into how each use-case benefits from the Superlinked framework.\n\n- **RAG**: [HR Knowledgebase](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Frag_hr_knowledgebase.ipynb)\n- **Semantic Search**: [Movies](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fsemantic_search_netflix_titles.ipynb), [Business News](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fsemantic_search_news.ipynb), [Product Images & Descriptions](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fimage_search_e_commerce.ipynb)\n- **Recommendation Systems**: [E-commerce](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Frecommendations_e_commerce.ipynb)\n- **Analytics**: [User Acquisition](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fanalytics_user_acquisition.ipynb), [Keyword expansion](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fanalytics_keyword_expansion_ads.ipynb)\n\nYou can check a full list of examples [here](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Ftree\u002Fmain\u002Fnotebook).\n\n\n## Run in production\n\nWith a single command you can run Superlinked as a REST API Server locally or in your cloud with [Superlinked Server](https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuperlinked-server). Get data ingestion and query APIs, embedding model inference and deep vector database integrations for free!\n\nUnify your evaluation, ingestion and serving stacks with a single declarative python codebase. Superlinked enables this by letting you define your data schema, vector indexes and the compute DAG that links them all at once and then choose the right executor for the task - in-memory or server.\n\nIf you are interested in learning more about running at scale, [Book a demo](https:\u002F\u002Flinks.superlinked.com\u002Fsl-repo-readme-form) for early access to our managed cloud.\n\n### Supported Vector Databases\n\nSuperlinked stores *your vectors* in *your vector database*, with deep integrations for:\n\n- [Redis](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fredis)\n- [MongoDB](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fmongodb)\n- [Qdrant](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fqdrant)\n- [TopK](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Ftopk)\n- [Which one should we support next?](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fdiscussions\u002F41)\n\nCurious about vector database pros & cons in general? Our community [compared 44 Vector Databases on 30+ features](https:\u002F\u002Fsuperlinked.com\u002Fvector-db-comparison\u002F).\n\n## Logging\n\nThe Superlinked framework logs include contextual information, such as the process ID and package scope. Personally Identifiable Information (PII) is filtered out by default but can be exposed with the `SUPERLINKED_EXPOSE_PII` environment variable to `true`.\n\n## Resources\n\n- [Vector DB Comparison](https:\u002F\u002Fsuperlinked.com\u002Fvector-db-comparison\u002F): Open-source collaborative comparison of vector databases by Superlinked.\n- [VectorHub](https:\u002F\u002Fsuperlinked.com\u002Fvectorhub\u002F): VectorHub is a free and open-sourced learning hub for people interested in adding vector retrieval to their ML stack\n\n\n## Support\n\nNeed help? We're here to support you:\n- Report a bug by creating an [issue](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002Fnew?assignees=kembala&labels=bug&projects=&template=bug_report.md&title=)\n- Request a new feature [here](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002Fnew?assignees=kembala&labels=enhancement&projects=&template=feature_request.md&title=)\n- Start a [discussion](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fdiscussions\u002Fnew\u002Fchoose) about your ideas or questions\n\nPlease create separate issues\u002Fdiscussions for each topic to help us better address your feedback. Thank you for contributing!\n","\u003C!-- ── 已弃用通知 ── -->\n\n\u003Cdiv align=\"center\">\n\n\u003Ctable>\n\u003Ctr>\n\u003Ctd>\n\n\u003Cp align=\"center\">\n\u003Cpicture>\n  \u003Csource srcset=\"https:\u002F\u002Fcdn.prod.website-files.com\u002F65dce6831bf9f730421e2915\u002F66ef0317ed8616151ee1d451_superlinked_logo_white.png\"\n          media=\"(prefers-color-scheme: dark)\">\n  \u003Cimg width=\"280\"\n       src=\"https:\u002F\u002Fcdn.prod.website-files.com\u002F65dce6831bf9f730421e2915\u002F65dce6831bf9f730421e2929_superlinked_logo.svg\"\n       alt=\"Superlinked logo\">\n\u003C\u002Fpicture>\n\u003C\u002Fp>\n\n\u003Ch2 align=\"center\">Superlinked 已经演进，本仓库现已弃用\u003C\u002Fh2>\n\n\u003Cp align=\"center\">\nSuperlinked 通过将元数据与非结构化数据一同编码为丰富的多模态嵌入向量，帮助开发者构建更高效的向量搜索系统，从而支持推荐、RAG 和分析等功能，超越了单纯的语义搜索。\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n然而，在生产环境中最大的痛点始终是\u003Cstrong>推理\u003C\u002Fstrong>——如何高效地大规模运行嵌入模型。这正是原型系统迈向生产级系统的真正瓶颈。因此，我们全力以赴解决了这一问题。\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n\u003Cstrong>Superlinked 推理引擎（SIE）\u003C\u002Fstrong>就是我们的成果，它是一款面向小型模型的开源推理服务器和生产集群。\n\u003C\u002Fp>\n\n\u003Cbr>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F%E2%9A%A1_Go_to_SIE_%E2%86%92-Superlinked_Inference_Engine-F5C518?style=for-the-badge&logoColor=black\" alt=\"前往 SIE\" height=\"45\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\">https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cbr>\n\n\u003C\u002Ftd>\n\u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003C\u002Fdiv>\n\n---\n\n\u003Cbr>\n\n\u003C!-- ── 主视觉区块 ── -->\n\u003Cdiv align=\"center\">\n\n\n\u003C!-- 主要行动号召 -->\n\u003Cp>\n  \u003Ca href=\"https:\u002F\u002Flinks.superlinked.com\u002Fdeep_wiki_repo\" style=\"text-decoration:none;display:inline-block\">\n    \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat%20with%20our%20AI%20docs-%E2%86%92-72A1FF?style=for-the-badge&logo=readthedocs&logoColor=white\"\n         alt=\"与我们的 AI 文档聊天\" width=\"200\">\n  \u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003C!-- 次要徽章 -->\n\u003Cp style=\"margin:6px 0;text-decoration:none\">\n  \u003Ca href=\"https:\u002F\u002Fdocs.superlinked.com\u002F\"                     style=\"text-decoration:none;display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FDocs-orange?logo=readthedocs\"                                        alt=\"文档\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fdeepwiki.com\u002Fsuperlinked\u002Fsuperlinked\"      style=\"text-decoration:none\"display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg\"                                                       alt=\"DeepWiki\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuperlinked\u002F\"             style=\"text-decoration:none&display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fsuperlinked\"                                             alt=\"PyPI\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fstargazers\" style=\"text-decoration:none&display:inline-block\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002Fsuperlinked\u002Fsuperlinked?style=social\" alt=\"星标\">\u003C\u002Fa>\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flast-commit\u002Fsuperlinked\u002Fsuperlinked\" style=\"display:inline-block\" alt=\"最近一次提交\">\n  \u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002Fsuperlinked\u002Fsuperlinked\"     style=\"display:inline-block\" alt=\"许可证\">\n\u003C\u002Fp>\n\n\u003C\u002Fdiv>\n\n\u003Cp align=\"center\">\n  \u003Cem>为人类和智能体构建高性能的\u003Cb>AI 搜索\u003C\u002Fb>应用。\u003C\u002Fem>\n\u003C\u002Fp>\n\n## 快速入门\n```python\n%pip install superlinked\n```\n```python\nfrom superlinked import framework as sl  \n  \n# 定义电影评论的模式  \nclass Review(sl.Schema):  \n    id: sl.IdField  \n    text: sl.String  \n  \nreview = Review()  \nspace = sl.TextSimilaritySpace(text=review.text, model=\"all-MiniLM-L6-v2\")  \nindex = sl.Index(space)  \nquery = sl.Query(index).find(review).similar(space, sl.Param(\"search\")).select_all()  \n  \n# 设置并运行  \nsource = sl.InMemorySource(review)  \napp = sl.InMemoryExecutor(sources=[source], indices=[index]).run()  \n  \n# 添加数据并搜索  \nsource.put([  \n    {\"id\": \"1\", \"text\": \"精彩的表演和出色的故事\"},  \n    {\"id\": \"2\", \"text\": \"乏味的情节和糟糕的演技\"}  \n])  \n  \nresult = app.query(query, search=\"卓越的表演\")  \nprint(sl.PandasConverter.to_pandas(result))\n\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cstrong>目录\u003C\u002Fstrong>\u003C\u002Fsummary>\n\n- [目录](#table-of-contents)\n- [快速入门](#quickstart)\n- [概述](#overview)\n- [动手教程](#hands-on-tutorials)\n- [用例](#use-cases)\n- [在笔记本中实验](#experiment-in-a-notebook)\n    - [安装 Superlinked 库](#install-the-superlinked-library)\n    - [运行示例：](#run-the-example)\n- [生产环境部署](#run-in-production)\n  - [支持的向量数据库](#supported-vector-databases)\n- [日志记录](#logging)\n- [资源](#resources)\n- [支持](#support)\n\n\u003C\u002Fdetails>\n\n## 概述\n\n- **为什么**：通过将元数据与您的非结构化数据一起编码为向量，提升向量搜索的相关性。\n- **是什么**：一个框架和可自托管的 REST API 服务器，用于连接您的数据、向量数据库和后端服务。\n- **如何**：您可以基于 `sentence-transformers`、`open-clip` 中的预训练编码器，以及针对数字、时间戳和分类数据的自定义编码器，构建自定义的数据和查询嵌入模型。请参阅下方的[教程](#hands-on-tutorials)和[用例](#use-cases)笔记本以获取示例。\n\n如果您喜欢我们的工作，请给我们点个赞！⭐\n\n![](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsuperlinked_superlinked_readme_7b688fc51747.png)\n\n## 动手教程\n\n| 等级 | 你将构建和学习的内容 | 立即尝试 |\n|-------|---------------------------|------------|\n| **从这里开始** | 嵌入文本 · 图像 · 数字 · 分类 · 时间 · 事件。 | 文本嵌入&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Ftext_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>图像嵌入&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fimage_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>数值（最小-最大）&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnumber_embedding_minmax.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>数值（相似度）&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnumber_embedding_similar.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>分类&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcategorical_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>最近性嵌入&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Frecency_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>事件效应&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fevent_effects.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **构建与扩展** | 组合空间或添加自定义\u002F可选模式。 | 组合嵌入&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcombine_multiple_embeddings.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>自定义空间&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fcustom_space.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>可选字段&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Foptional_schema_fields.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **优化相关性** | 实时更新与查询时个性化。 | 动态参数&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fdynamic_parameters.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>查询时权重&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquery_time_weights.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>查询结果&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquery_result.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **搜索与筛选** | 自然语言搜索 + 硬性筛选。 | 自然语言查询&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fnatural_language_querying.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>硬性筛选&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fhard_filtering.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>查询选项&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fquerying_options.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa>\u003Cbr>向量部分&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Faccessing_stored_vector_parts.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **分析与导出** | 离线抽取嵌入样本。 | 向量采样器&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fvector_sampler.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n| **迈向多模态** | 统一的文本+图像空间。 | 多模态搜索&nbsp;\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Ffeature\u002Fimage_embedding.ipynb\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Colab\">\u003C\u002Fa> |\n\n\n> 💡 **还想了解更多？** 浏览我们文档中完整的功能与概念列表 →  \n> \u003Chttps:\u002F\u002Fdocs.superlinked.com\u002Fconcepts\u002Foverview>\n\n\n## 在笔记本中实验\n\n让我们构建一个能够理解产品描述和评分的电商产品搜索：\n\n#### 运行笔记本示例：\n\n>首次运行需要一分钟下载嵌入模型。  \n\n```python\n%pip install superlinked\n```\n```python\nimport json\nimport os\n\nfrom superlinked import framework as sl\n\n\nclass Product(sl.Schema):\n    id: sl.IdField\n    description: sl.String\n    rating: sl.Integer\n\n\nproduct = Product()\n\ndescription_space = sl.TextSimilaritySpace(\n    text=product.description, model=\"Alibaba-NLP\u002Fgte-large-en-v1.5\"\n)\nrating_space = sl.NumberSpace(\n    number=product.rating, min_value=1, max_value=5, mode=sl.Mode.MAXIMUM\n)\nindex = sl.Index([description_space, rating_space], fields=[product.rating])\n\n\n# 定义你的查询和参数，以便在查询时直接设置，\n# 或者让 LLM 使用 `natural_language_query` 参数为你填写。\n# 别忘了设置你的 OpenAI API 密钥以解锁此功能。\nquery = (\n    sl.Query(\n        index,\n        weights={\n            description_space: sl.Param(\"description_weight\"),\n            rating_space: sl.Param(\"rating_weight\"),\n        },\n    )\n    .find(product)\n    .similar(\n        description_space,\n        sl.Param(\n            \"description_query\",\n            description=\"用户查询中与产品描述相关的文本。\",\n        ),\n    )\n    .limit(sl.Param(\"limit\"))\n    .with_natural_query(\n        sl.Param(\"natural_language_query\"),\n        sl.OpenAIClientConfig(api_key=os.environ[\"OPEN_AI_API_KEY\"], model=\"gpt-4o\")\n    )\n)\n\n# 在内存中运行应用（也可使用服务器和 Apache Spark 执行器！）。\nsource = sl.InMemorySource(product)\nexecutor = sl.InMemoryExecutor(sources=[source], indices=[index])\napp = executor.run()\n\n# 将数据摄入系统——索引更新及其他处理会自动进行。\nsource.put([\n    {\n        \"id\": 1,\n        \"description\": \"黑色预算型牙刷。正是您所需要的。\",\n        \"rating\": 1,\n    },\n    {\n        \"id\": 2,\n        \"description\": \"毫不妥协打造的高端牙刷。\",\n        \"rating\": 5,\n    },\n    {\n        \"id\": 3,\n        \"description\": \"专为聪明的21世纪男士设计的牙刷。\",\n        \"rating\": 3,\n    },\n])\n\nresult = app.query(query, natural_query=\"最好的牙刷\", limit=1)\n\n# 检查从查询中提取的参数\nprint(json.dumps(result.metadata, indent=2))\n\n# 结果是那款五星级评价的产品。\nsl.PandasConverter.to_pandas(result)\n```\n\n## 使用场景\n\n通过我们的笔记本深入探讨每个使用场景如何受益于 Superlinked 框架。\n\n- **RAG**：[HR 知识库](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Frag_hr_knowledgebase.ipynb)\n- **语义搜索**：[电影](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fsemantic_search_netflix_titles.ipynb)、[商业新闻](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fsemantic_search_news.ipynb)、[产品图片与描述](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fimage_search_e_commerce.ipynb)\n- **推荐系统**：[电子商务](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Frecommendations_e_commerce.ipynb)\n- **分析**：[用户获取](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fanalytics_user_acquisition.ipynb)、[关键词扩展](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fsuperlinked\u002Fsuperlinked\u002Fblob\u002Fmain\u002Fnotebook\u002Fanalytics_keyword_expansion_ads.ipynb)\n\n您可以在此处查看完整的示例列表：[GitHub](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Ftree\u002Fmain\u002Fnotebook)。\n\n## 在生产环境中运行\n\n只需一条命令，您就可以在本地或云端以 REST API 服务器的形式运行 Superlinked，使用 [Superlinked Server](https:\u002F\u002Fpypi.org\u002Fproject\u002Fsuperlinked-server)。免费获得数据摄入和查询 API、嵌入模型推理以及深度向量数据库集成！\n\n通过单一的声明式 Python 代码库，统一您的评估、摄入和推理堆栈。Superlinked 让您一次性定义数据模式、向量索引以及连接它们的计算 DAG，然后根据任务选择合适的执行器——内存中或服务器端。\n\n如果您有兴趣了解如何大规模运行，请[预约演示](https:\u002F\u002Flinks.superlinked.com\u002Fsl-repo-readme-form)，以提前访问我们的托管云服务。\n\n### 支持的向量数据库\n\nSuperlinked 将*您的向量*存储在*您的向量数据库*中，并与以下数据库深度集成：\n\n- [Redis](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fredis)\n- [MongoDB](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fmongodb)\n- [Qdrant](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Fqdrant)\n- [TopK](https:\u002F\u002Fdocs.superlinked.com\u002Frun-in-production\u002Findex-1\u002Ftopk)\n- [我们接下来应该支持哪一种？](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fdiscussions\u002F41)\n\n对向量数据库的优缺点感到好奇吗？我们的社区已经[对比了44种向量数据库的30多项功能](https:\u002F\u002Fsuperlinked.com\u002Fvector-db-comparison\u002F)。\n\n## 日志记录\n\nSuperlinked 框架的日志包含上下文信息，例如进程 ID 和包作用域。个人身份信息 (PII) 默认会被过滤掉，但可以通过将 `SUPERLINKED_EXPOSE_PII` 环境变量设置为 `true` 来显示。\n\n## 资源\n\n- [向量数据库对比](https:\u002F\u002Fsuperlinked.com\u002Fvector-db-comparison\u002F)：由 Superlinked 维护的开源协作式向量数据库比较。\n- [VectorHub](https:\u002F\u002Fsuperlinked.com\u002Fvectorhub\u002F)：VectorHub 是一个免费且开源的学习平台，面向希望在其机器学习堆栈中加入向量检索功能的人士。\n\n## 支持\n\n需要帮助吗？我们随时为您提供支持：\n- 如发现错误，请创建[问题](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002Fnew?assignees=kembala&labels=bug&projects=&template=bug_report.md&title=)。\n- 如需新功能，请在此处提交请求[这里](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002Fnew?assignees=kembala&labels=enhancement&projects=&template=feature_request.md&title=)。\n- 如有想法或疑问，可发起[讨论](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fdiscussions\u002Fnew\u002Fchoose)。\n\n请为每个主题创建单独的问题或讨论，以便我们更好地处理您的反馈。感谢您的贡献！","# Superlinked 快速上手指南\n\n> **⚠️ 重要提示**：原 `superlinked` 仓库已弃用。团队已全面转向专注于解决生产环境推理瓶颈的新项目：**Superlinked Inference Engine (SIE)**。\n> *   新项目地址：[https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie](https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsie)\n> *   本指南基于原框架的核心逻辑，适用于理解其多模态向量搜索构建理念及快速原型开发。\n\nSuperlinked 是一个用于构建高性能 AI 搜索应用的框架。它允许开发者将元数据（如数字、时间、类别）与非结构化数据（文本、图像）一起编码为丰富的多模态嵌入向量，从而超越简单的语义搜索，实现更精准的推荐、RAG 和分析应用。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL 推荐)\n*   **Python 版本**：Python 3.8 或更高版本\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   网络连接（首次运行需下载预训练的 Embedding 模型，如 `sentence-transformers`）\n\n## 安装步骤\n\n使用 pip 直接安装 Superlinked 库。国内开发者若遇到下载速度慢的问题，建议使用国内镜像源加速。\n\n**标准安装：**\n```bash\npip install superlinked\n```\n\n**使用国内镜像源加速安装（推荐）：**\n```bash\npip install superlinked -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n以下是一个最简单的示例，演示如何定义电影评论的数据结构，构建文本相似度空间，并在内存中执行搜索。\n\n### 代码示例\n\n```python\n%pip install superlinked\n```\n\n```python\nfrom superlinked import framework as sl  \n  \n# 1. 定义数据模式 (Schema)\nclass Review(sl.Schema):  \n    id: sl.IdField  \n    text: sl.String  \n  \nreview = Review()  \n\n# 2. 定义相似度空间 (Space) 和索引 (Index)\n# 使用预训练模型 all-MiniLM-L6-v2 处理文本\nspace = sl.TextSimilaritySpace(text=review.text, model=\"all-MiniLM-L6-v2\")  \nindex = sl.Index(space)  \n\n# 3. 构建查询对象\n# 查找与搜索参数相似的记录\nquery = sl.Query(index).find(review).similar(space, sl.Param(\"search\")).select_all()  \n  \n# 4. 设置并运行执行器 (Executor)\nsource = sl.InMemorySource(review)  \napp = sl.InMemoryExecutor(sources=[source], indices=[index]).run()  \n  \n# 5. 添加测试数据\nsource.put([  \n    {\"id\": \"1\", \"text\": \"Amazing acting and great story\"},  \n    {\"id\": \"2\", \"text\": \"Boring plot with bad acting\"}  \n])  \n  \n# 6. 执行搜索并输出结果\nresult = app.query(query, search=\"excellent performance\")  \nprint(sl.PandasConverter.to_pandas(result))\n```\n\n### 核心概念简述\n*   **Schema**: 定义数据的结构（类似数据库表结构）。\n*   **Space**: 定义特定字段的嵌入方式（如文本相似度、数值范围、时间远近等）。\n*   **Index**: 将多个 Space 组合在一起建立索引。\n*   **Executor**: 负责加载数据、运行模型并处理查询的执行引擎。\n\n您可以直接在 Jupyter Notebook 或 Python 脚本中运行上述代码，首次运行时会自动下载所需的嵌入模型。","某电商初创团队正在构建一个支持自然语言搜索和个性化推荐的商品检索系统，希望用户能通过“找一件适合海边度假的红色连衣裙”这类复杂描述快速定位商品。\n\n### 没有 superlinked 时\n- **语义理解浅层**：传统关键词匹配无法理解“海边度假”与“轻盈、透气”等隐含属性的关联，导致搜索结果相关性低。\n- **多模态数据割裂**：商品图片特征、文本描述和用户行为日志分散存储，难以融合成统一的向量表示，限制了推荐精度。\n- **原型落地困难**：虽然能用开源模型跑出 Demo，但缺乏高效推理引擎，一旦数据量上万，查询延迟从毫秒级飙升至秒级，无法上线。\n- **开发维护成本高**：团队需自行拼接编码、索引和检索模块，每次调整模型或数据结构都要重写大量胶水代码。\n\n### 使用 superlinked 后\n- **深度语义融合**：superlinked 将商品文本、图像元数据共同编码为多模态 Embedding，精准捕捉“海边度假”背后的风格与功能需求。\n- **统一向量空间**：自动把结构化标签（如颜色、材质）与非结构化描述融入同一向量空间，显著提升混合检索的准确率。\n- **生产级推理性能**：内置的高效推理服务让大规模向量计算在低延迟下运行，轻松支撑百万级商品库的实时查询。\n- **极简开发流程**：通过声明式 Schema 定义数据结构，几行代码即可完成从数据注入到相似性搜索的全流程，迭代效率提升数倍。\n\nsuperlinked 帮助团队跨越了从算法原型到高并发生产系统的鸿沟，让复杂的 AI 搜索应用得以快速落地并创造商业价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsuperlinked_superlinked_0062930f.png","Superlinked","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsuperlinked_edc09a6d.png","Compute tooling for vector-powered apps.","superlinked.com","https:\u002F\u002Fgithub.com\u002Fsuperlinked",[21,25],{"name":22,"color":23,"percentage":24},"Jupyter Notebook","#DA5B0B",85.9,{"name":26,"color":27,"percentage":28},"Python","#3572A5",14.1,3,0,"2026-04-07T16:24:38","Apache-2.0",1,"未说明",{"notes":36,"python":34,"dependencies":37},"该仓库已弃用，官方建议迁移至新的 'Superlinked Inference Engine (SIE)'。当前版本支持通过 PyPI 安装，示例代码显示其可在内存中运行（InMemoryExecutor），也支持连接外部向量数据库。首次运行时需要下载嵌入模型（如 all-MiniLM-L6-v2 或 gte-large-en-v1.5）。具体系统资源需求取决于所选用的嵌入模型大小及数据量。",[6,38,39],"sentence-transformers","open-clip",[41,42],"开发框架","数据工具",2,"ready","2026-03-27T02:49:30.150509","2026-04-11T08:01:37.471429",[48,53,58,63,68,73],{"id":49,"question_zh":50,"answer_zh":51,"source_url":52},29227,"使用 InMemoryExecutor 时，数据是仅存储在内存中还是会持久化到 Qdrant？","InMemoryExecutor 并不意味着底层向量数据库仅将数据存储在内存中，它指示的是交互方式和运行位置。如果配置了正确的 QdrantVectorDatabase，InMemoryExecutor 会将结果存储在其中。若要永久存储嵌入（embeddings），可以配置应用程序使用 sl.InMemorySource 和 sl.InMemoryExecutor，或者使用 superlinked-server 包运行 REST 应用程序。","https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002F24",{"id":54,"question_zh":55,"answer_zh":56,"source_url":57},29228,"如何在使用 Superlinked 时自定义 OpenAI 的基础 URL（例如使用 Ollama 或其他兼容端点）？","虽然框架可能硬编码了默认 URL，但可以通过配置支持自定义端点。关键在于使用的模型必须支持“工具（tools）”功能。例如，qwen\u002Fqwen-2.5-72b-instruct:free 不支持工具会导致失败，而 mistralai\u002Fmistral-small-3.1-24b-instruct:free 则可以使用。如果您能通过 instructor 库使用自己的 OpenAI 客户端发送请求，可以将该配置整合到 Superlinked 框架中。代码示例中需指定 base_url 参数：OpenAI(base_url=\"您的地址\", api_key=\"您的密钥\")。","https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002F40",{"id":59,"question_zh":60,"answer_zh":61,"source_url":62},29229,"如何为 Qdrant 向量数据库连接指定自定义的集合名称（collection_name），而不是默认的 'default'？","可以通过设置环境变量 APP_ID 来指定集合名称。在命令行启动服务器时使用：APP_ID=\u003C您的集合名称> APP_MODULE_PATH=superlinked_app python -m superlinked.server。如果在 Python 脚本或 Notebook 中使用，需在导入前设置环境变量：import os; os.environ[\"APP_ID\"] = \"\u003C您的集合名称>\"。这样即可加载到指定的集合而非默认的 'default'。","https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002F31",{"id":64,"question_zh":65,"answer_zh":66,"source_url":67},29230,"Recency Space（时间最近性空间）在开源版本中有哪些局限性及变通方案？","Recency Space 在开源版本中的支持较弱。变通方案包括：1. 使用数字空间（number space）并将日期表示为数字字段（如 YYYYMMDD），以便进行范围查询（注意字符串字段不支持 \u003C> 查询）；2. 对于特定用例，可尝试使用 SIMILAR 模式或 MIN\u002FMAX 模式；3. 理论上可以使用原生 Recency Space，但需要在关键时刻更新其中的值（即重新摄入时间戳字段），如果数据量不大，甚至可以每天更新。若急需该功能且数据量大，建议联系团队使用云服务。","https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002F43",{"id":69,"question_zh":70,"answer_zh":71,"source_url":72},29231,"如何在 Superlinked 中集成 LiteLLM 以支持更多种类的 LLM？","由于 openai-python 库存在限制，可以通过 LiteLLM 来扩展支持的模型。具体做法是利用 LiteLLM 的 Simple Proxy 功能（参考文档：https:\u002F\u002Fdocs.litellm.ai\u002Fdocs\u002Fsimple_proxy），将其作为代理层来统一不同模型的接口，从而在 Superlinked 的自然语言查询功能中使用更多类型的 LLM。","https:\u002F\u002Fgithub.com\u002Fsuperlinked\u002Fsuperlinked\u002Fissues\u002F41",{"id":74,"question_zh":75,"answer_zh":76,"source_url":57},29232,"为什么在使用某些本地或替代 OpenAI 模型时会收到 'Input should be a valid string' 或 'Provider returned error' 错误？","这通常是因为所选模型不支持 Superlinked 所需的“工具（tools）”调用功能。例如，使用 qwen\u002Fqwen-2.5-72b-instruct:free 会因不支持工具而失败；使用某些 Mistral 模型也可能因 tool_choice 参数格式问题报错。解决方法是更换为明确支持工具调用的模型，实测 mistralai\u002Fmistral-small-3.1-24b-instruct:free 可以正常工作。",[],[79,89,97,106,114,123],{"id":80,"name":81,"github_repo":82,"description_zh":83,"stars":84,"difficulty_score":29,"last_commit_at":85,"category_tags":86,"status":44},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,"2026-04-06T06:32:30",[87,41,88,42],"Agent","图像",{"id":90,"name":91,"github_repo":92,"description_zh":93,"stars":94,"difficulty_score":29,"last_commit_at":95,"category_tags":96,"status":44},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[41,88,87],{"id":98,"name":99,"github_repo":100,"description_zh":101,"stars":102,"difficulty_score":43,"last_commit_at":103,"category_tags":104,"status":44},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,"2026-04-10T23:33:47",[41,87,105],"语言模型",{"id":107,"name":108,"github_repo":109,"description_zh":110,"stars":111,"difficulty_score":43,"last_commit_at":112,"category_tags":113,"status":44},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[41,88,87],{"id":115,"name":116,"github_repo":117,"description_zh":118,"stars":119,"difficulty_score":43,"last_commit_at":120,"category_tags":121,"status":44},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[122,87,88,41],"插件",{"id":124,"name":125,"github_repo":126,"description_zh":127,"stars":128,"difficulty_score":43,"last_commit_at":129,"category_tags":130,"status":44},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[122,41]]