[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-deepmind--limit":3,"tool-google-deepmind--limit":65},[4,18,32,41,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[15,16,27,28,13,29,30,14,31],"视频","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":38,"last_commit_at":39,"category_tags":40,"status":17},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[30,16,29],{"id":42,"name":43,"github_repo":44,"description_zh":45,"stars":46,"difficulty_score":38,"last_commit_at":47,"category_tags":48,"status":17},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[29,15,16,14],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":10,"last_commit_at":55,"category_tags":56,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[13,15,14,30,29],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":17},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75832,"2026-04-17T21:58:25",[30,15,14,29],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":24,"env_os":96,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":80,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":104,"updated_at":105,"faqs":106,"releases":135},9002,"google-deepmind\u002Flimit","limit","On the Theoretical Limitations of Embedding-Based Retrieval","LIMIT 是一个专为评估嵌入模型（Embedding Models）理论极限而设计的开源数据集与测试框架。当前主流的基于单向量嵌入的检索技术虽然广泛应用，但其能力边界尚不清晰。LIMIT 基于严格的数学理论构建，证明了对于任意给定的嵌入维度，总存在某些文档组合无法被任何查询正确检索到。该项目通过实例化这一理论，创建了包含特定查询、文档及相关性标注的数据集，旨在对现有模型进行“压力测试”。\n\n实验结果表明，即使是当前最先进的嵌入模型，在 LIMIT 数据集上也表现挣扎，这揭示了单向量嵌入范式存在的根本性局限。对于从事信息检索、自然语言处理的研究人员和开发者而言，LIMIT 提供了宝贵的基准工具，帮助大家客观认识模型能力的短板，从而推动更鲁棒的检索算法研发。其独特亮点在于将抽象的理论证明转化为可执行的评测数据，并兼容主流的 MTEB 评估框架与 Huggingface 数据集库，便于快速复现与集成。无论是希望深入理解嵌入机制的学者，还是致力于优化检索系统的工程师，都能从中获得关键洞察。","# On the Theoretical Limitations of Embedding-based Retrieval\n\nThis repository contains the official resources for the paper \"[On the Theoretical Limitations of Embedding-based Retrieval](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.21038)\".\nThis work introduces the **LIMIT** dataset,\ndesigned to stress-test embedding models based on theoretical principles.\nWe show that for any given embedding dimension `d`,\nthere exists a combination of documents that cannot be returned by any query.\nWe use this theory to instantiate the dataset LIMIT,\nfinding that even state-of-the-art models struggle: highlighting a fundamental\nlimitation of the current single-vector embedding paradigm.\n\n![LIMIT Dataset Concept](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_limit_readme_dc1af95212a7.png)\n\n## Overview\n\n* [Data](#data)\n* [Code](#code)\n* [Evaluation](#evaluation)\n* [Citation](#citation)\n* [License and disclaimer](#license-and-disclaimer)\n\n## Data\n\nThe datasets used in our experiments are available in the `data\u002F` directory of this repository, formatted in [MTEB](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb) style (i.e. json lines).\n\nEach dataset contains:\n\n- A `queries.json` file containing a line for each of the 1000 queries, each with an `_id` and the `text` field.\n- A `corpus.json` file containing a line for each of the 50k (or 46 if using the `small` version) documents, each with an `_id`, `text` and empty `title` field.\n- A `qrels.json` file containing rows for each of the 2000 relevant query->doc mappings, mapping `query-id` of the queries into the `corpus-id` in the documents, with `score` indicating relevance.\n\n* **Full Dataset (`limit`):** The complete dataset, containing 50k documents.\n  * [Link to `data\u002Flimit`](.\u002Fdata\u002Flimit)\n\n* **Small Sample (`limit-small`):** A smaller version with only the 46 documents relevant to the queries.\n  * [Link to `data\u002Flimit-small`](.\u002Fdata\u002Flimit-small)\n\n## Code\n\nWe provide code to generate the LIMIT style datasets,\nas well as to run the free embedding experiment in the `code\u002F` folder.\n\n* **Dataset Generation:** To generate the dataset from scratch, you can use the Jupyter notebook located at `code\u002Fgenerate_limit_dataset.ipynb`. This contains all necessary steps and dependencies.\n  * [Link to `code\u002Fgenerate_limit_dataset.ipynb`](.\u002Fcode\u002Fgenerate_limit_dataset.ipynb)\n\n* **Free Embedding Experiments:** The script to run the free embedding experiments can be found in `code\u002Ffree_embedding_experiment.py`.\n  * [Link to `code\u002Ffree_embedding_experiment.py`](.\u002Fcode\u002Ffree_embedding_experiment.py)\n\nIf you use the free embedding code,\nyou'll need to install the following requirements.\n\n### Installation\n\nWe recommend using the [`uv` package manager](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F).\n\n```bash\n# Create a virtual environment\nuv venv\nsource .venv\u002Fbin\u002Factivate\n\n# Install dependencies\nuv pip install -r https:\u002F\u002Fraw.githubusercontent.com\u002Fgoogle-deepmind\u002Flimit\u002Frefs\u002Fheads\u002Fmain\u002Fcode\u002Frequirements.txt\n```\n\n## Loading with Huggingface Datasets\nYou can also load the data using the `datasets` library from Huggingface ([LIMIT](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Forionweller\u002FLIMIT), [LIMIT-small](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Forionweller\u002FLIMIT-small)):\n```python\nfrom datasets import load_dataset\nds = load_dataset(\"orionweller\u002FLIMIT-small\", \"corpus\") # also available: queries, test (contains qrels).\n```\n\n## Evaluation\n\nEvaluation was done using the [MTEB framework](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb). You can reproduce this **only on the [v2.0.0 branch](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb\u002Ftree\u002Fw_limit)** (soon to be `main`). Note that the v2.0.0 branch is changing rapidly, so **please install the version pinned in the requirements** until it becomes main. An example is:\n\n```python\nimport mteb\nfrom sentence_transformers import SentenceTransformer\n\n# load the model using MTEB\nmodel_name = \"sentence-transformers\u002Fall-MiniLM-L6-v2\"\nmodel = mteb.get_model(model_name) # will default to SentenceTransformers(model_name) if not implemented in MTEB\n# or using SentenceTransformers\nmodel = SentenceTransformer(model_name)\n\n# select the desired tasks and evaluate\ntasks = mteb.get_tasks(tasks=[\"LIMITSmallRetrieval\"]) # or use LIMITRetrieval for the full dataset\nresults = mteb.evaluate(model, tasks=tasks)\n```\n\nPlease see their Github for more details.\n\n## Citation\n\nIf you use this work, please cite the paper as:\n\n```bibtex\n@article{weller2025theoretical,\n  title={On the Theoretical Limitations of Embedding-Based Retrieval},\n  author={Weller, Orion and Boratko, Michael and Naim, Iftekhar and Lee, Jinhyuk},\n  journal={arXiv preprint arXiv:2508.21038},\n  year={2025}\n}\n```\n\n## License and disclaimer\n\nCopyright 2025 Google LLC\n\nAll software is licensed under the Apache License, Version 2.0 (Apache 2.0);\nyou may not use this file except in compliance with the Apache 2.0 license.\nYou may obtain a copy of the Apache 2.0 license at:\nhttps:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\nAll other materials are licensed under the Creative Commons Attribution 4.0\nInternational License (CC-BY). You may obtain a copy of the CC-BY license at:\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode\n\nUnless required by applicable law or agreed to in writing, all software and\nmaterials distributed here under the Apache 2.0 or CC-BY licenses are\ndistributed on an \"AS IS\" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND,\neither express or implied. See the licenses for the specific language governing\npermissions and limitations under those licenses.\n\nThis is not an official Google product.\n","# 关于基于嵌入的检索的理论局限性\n\n本仓库包含论文《关于基于嵌入的检索的理论局限性》（[arXiv:2508.21038](https:\u002F\u002Farxiv.org\u002Fabs\u002F2508.21038)）的官方资源。\n这项工作引入了 **LIMIT** 数据集，\n旨在基于理论原理对嵌入模型进行压力测试。\n我们证明，对于任意给定的嵌入维度 `d`，\n都存在一组文档，无法被任何查询检索到。\n我们利用这一理论构建了 LIMIT 数据集，\n发现即使是当前最先进的模型也难以应对，从而凸显了当前单向量嵌入范式的根本性局限。\n\n![LIMIT 数据集概念图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_limit_readme_dc1af95212a7.png)\n\n## 概览\n\n* [数据](#data)\n* [代码](#code)\n* [评估](#evaluation)\n* [引用](#citation)\n* [许可与免责声明](#license-and-disclaimer)\n\n## 数据\n\n我们在实验中使用的数据集位于本仓库的 `data\u002F` 目录下，格式符合 [MTEB](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb) 标准（即 JSON Lines 格式）。\n\n每个数据集包含：\n\n- 一个 `queries.json` 文件，每行对应一个查询，共 1000 条，每条包含 `_id` 和 `text` 字段。\n- 一个 `corpus.json` 文件，每行对应一篇文档，共 50,000 篇（或使用 `small` 版本时为 46 篇），每篇包含 `_id`、`text` 和空的 `title` 字段。\n- 一个 `qrels.json` 文件，每行对应一个相关查询-文档映射，共 2000 条，将查询的 `query-id` 映射到文档的 `corpus-id`，其中 `score` 表示相关性。\n\n* **完整数据集 (`limit`):** 包含 50,000 篇文档的完整数据集。\n  * [指向 `data\u002Flimit`](.\u002Fdata\u002Flimit)\n\n* **小样本 (`limit-small`):** 只包含与查询相关的 46 篇文档的小版本。\n  * [指向 `data\u002Flimit-small`](.\u002Fdata\u002Flimit-small)\n\n## 代码\n\n我们在 `code\u002F` 文件夹中提供了生成 LIMIT 风格数据集以及运行免费嵌入实验的代码。\n\n* **数据集生成:** 若要从头开始生成数据集，可以使用位于 `code\u002Fgenerate_limit_dataset.ipynb` 的 Jupyter 笔记本。该笔记本包含了所有必要的步骤和依赖项。\n  * [指向 `code\u002Fgenerate_limit_dataset.ipynb`](.\u002Fcode\u002Fgenerate_limit_dataset.ipynb)\n\n* **免费嵌入实验:** 运行免费嵌入实验的脚本位于 `code\u002Ffree_embedding_experiment.py`。\n  * [指向 `code\u002Ffree_embedding_experiment.py`](.\u002Fcode\u002Ffree_embedding_experiment.py)\n\n如果您使用免费嵌入代码，需要安装以下依赖项。\n\n### 安装\n\n我们推荐使用 [`uv` 包管理器](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F)。\n\n```bash\n# 创建虚拟环境\nuv venv\nsource .venv\u002Fbin\u002Factivate\n\n# 安装依赖\nuv pip install -r https:\u002F\u002Fraw.githubusercontent.com\u002Fgoogle-deepmind\u002Flimit\u002Frefs\u002Fheads\u002Fmain\u002Fcode\u002Frequirements.txt\n```\n\n## 使用 Hugging Face Datasets 加载\n您也可以使用 Hugging Face 的 `datasets` 库加载数据（[LIMIT](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Forionweller\u002FLIMIT)，[LIMIT-small](https:\u002F\u002Fhuggingface.co\u002Fdatasets\u002Forionweller\u002FLIMIT-small))：\n```python\nfrom datasets import load_dataset\nds = load_dataset(\"orionweller\u002FLIMIT-small\", \"corpus\") # 还有 queries 和 test（包含 qrels）可选。\n```\n\n## 评估\n\n评估使用了 [MTEB 框架](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb)。您只能在 [v2.0.0 分支](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb\u002Ftree\u002Fw_limit)（即将成为 `main` 分支）上复现此评估。请注意，v2.0.0 分支正在快速更新，因此请在它成为主分支之前，安装需求文件中锁定的版本。示例如下：\n\n```python\nimport mteb\nfrom sentence_transformers import SentenceTransformer\n\n# 使用 MTEB 加载模型\nmodel_name = \"sentence-transformers\u002Fall-MiniLM-L6-v2\"\nmodel = mteb.get_model(model_name) # 如果 MTEB 中未实现，则默认使用 SentenceTransformers(model_name)\n# 或直接使用 SentenceTransformers\nmodel = SentenceTransformer(model_name)\n\n# 选择所需任务并进行评估\ntasks = mteb.get_tasks(tasks=[\"LIMITSmallRetrieval\"]) # 对于完整数据集，可使用 LIMITRetrieval\nresults = mteb.evaluate(model, tasks=tasks)\n```\n\n更多详情请参阅他们的 GitHub 页面。\n\n## 引用\n\n如果您使用了本工作，请按以下方式引用论文：\n\n```bibtex\n@article{weller2025theoretical,\n  title={On the Theoretical Limitations of Embedding-Based Retrieval},\n  author={Weller, Orion and Boratko, Michael and Naim, Iftekhar and Lee, Jinhyuk},\n  journal={arXiv preprint arXiv:2508.21038},\n  year={2025}\n}\n```\n\n## 许可与免责声明\n\n版权所有 © 2025 Google LLC\n\n所有软件均采用 Apache License, Version 2.0（Apache 2.0）许可；除非符合 Apache 2.0 许可条款，否则不得使用本文件。您可以在以下网址获取 Apache 2.0 许可协议：\nhttps:\u002F\u002Fwww.apache.org\u002Flicenses\u002FLICENSE-2.0\n\n其他所有材料均采用 Creative Commons Attribution 4.0 国际许可（CC-BY）。您可以在以下网址获取 CC-BY 许可协议：\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode\n\n除非适用法律另有规定或以书面形式达成一致，否则在此处根据 Apache 2.0 或 CC-BY 许可分发的所有软件和材料均“按原样”提供，不附带任何形式的明示或默示保证或条件。具体权限和限制请参阅相应许可协议中的语言表述。\n\n本项目并非 Google 官方产品。","# LIMIT 数据集快速上手指南\n\nLIMIT 是一个用于压力测试嵌入模型（Embedding Models）理论极限的数据集。它基于理论证明构建，旨在揭示当前单向量嵌入范式在特定文档组合下无法被任何查询检索到的根本局限性。\n\n## 环境准备\n\n*   **系统要求**：Linux, macOS 或 Windows (需支持 Python 虚拟环境)\n*   **Python 版本**：推荐 Python 3.8+\n*   **前置依赖**：\n    *   推荐使用 [`uv`](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002Fgetting-started\u002Finstallation\u002F) 包管理器以获得更快的安装体验。\n    *   若不使用 `uv`，需确保已安装 `pip` 和 `venv`。\n*   **网络提示**：由于依赖项托管在 GitHub 和 PyPI，国内用户建议配置 pip 国内镜像源（如清华源、阿里源）以加速下载。\n\n## 安装步骤\n\n### 方法一：使用 uv 推荐安装（首选）\n\n1.  **创建并激活虚拟环境**\n    ```bash\n    uv venv\n    source .venv\u002Fbin\u002Factivate  # Windows 用户请使用: .venv\\Scripts\\activate\n    ```\n\n2.  **安装依赖**\n    直接安装项目指定的 requirements 文件：\n    ```bash\n    uv pip install -r https:\u002F\u002Fraw.githubusercontent.com\u002Fgoogle-deepmind\u002Flimit\u002Frefs\u002Fheads\u002Fmain\u002Fcode\u002Frequirements.txt\n    ```\n    *(注：若下载速度慢，可先下载该 requirements.txt 文件到本地，修改为国内镜像源后再运行 `uv pip install -r requirements.txt`)*\n\n### 方法二：使用 Hugging Face Datasets 加载（无需克隆代码库）\n\n如果你仅需使用数据进行评估，可直接通过 `datasets` 库加载，无需手动下载文件：\n\n```bash\npip install datasets\n# 建议配置镜像：export HF_ENDPOINT=https:\u002F\u002Fhf-mirror.com\n```\n\n## 基本使用\n\n### 场景 A：通过 Hugging Face 加载数据（最简便）\n\n这是获取数据集并进行测试的最快方式。以下示例展示如何加载小型测试集（`LIMIT-small`）：\n\n```python\nfrom datasets import load_dataset\n\n# 加载语料库 (corpus)\n# 可选分割：\"corpus\", \"queries\", \"test\" (包含 qrels)\nds = load_dataset(\"orionweller\u002FLIMIT-small\", \"corpus\")\n\n# 查看数据结构\nprint(ds)\n```\n\n如需使用完整数据集（50k 文档），将名称改为 `\"orionweller\u002FLIMIT\"`。\n\n### 场景 B：使用 MTEB 框架进行评估\n\nLIMIT 集成在 [MTEB](https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb) 基准测试框架中。**注意**：目前需在 MTEB 的 `v2.0.0` 分支（或包含 `w_limit` 的特定版本）上运行。\n\n```python\nimport mteb\nfrom sentence_transformers import SentenceTransformer\n\n# 1. 加载模型\nmodel_name = \"sentence-transformers\u002Fall-MiniLM-L6-v2\"\n# 使用 MTEB 加载器（若模型未内置，会自动回退到 SentenceTransformer）\nmodel = mteb.get_model(model_name)\n\n# 2. 选择任务\n# 使用 \"LIMITSmallRetrieval\" 测试小样本，或 \"LIMITRetrieval\" 测试全量数据\ntasks = mteb.get_tasks(tasks=[\"LIMITSmallRetrieval\"])\n\n# 3. 执行评估\nresults = mteb.evaluate(model, tasks=tasks)\n\n# 打印结果\nprint(results)\n```\n\n### 场景 C：从头生成数据集（进阶）\n\n如果你需要研究数据生成逻辑，可以克隆仓库并运行 Jupyter Notebook：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Flimit.git\ncd limit\n# 确保已按“安装步骤”安装依赖\n# 打开并运行 code\u002Fgenerate_limit_dataset.ipynb\n```\n\n---\n*注：本工具相关软件遵循 Apache 2.0 许可证，数据材料遵循 CC-BY 4.0 许可证。*","某大型法律科技公司的算法团队正在优化其案例检索系统，试图通过向量嵌入技术提升律师查找相似判例的准确率。\n\n### 没有 limit 时\n- 团队盲目信任主流嵌入模型，误以为增加向量维度就能无限提升检索效果，导致在硬件扩容上浪费大量预算。\n- 在常规测试集上表现优异的模型，上线后却频繁出现“明明有相关文档却完全搜不到”的诡异失效现象，且无法从理论上解释原因。\n- 缺乏针对性的压力测试数据，难以发现单向量嵌入范式在处理特定逻辑组合文档时的根本性缺陷，系统存在隐蔽的召回盲区。\n- 研发方向陷入瓶颈，只能在现有架构上反复微调参数，却无法意识到这是当前技术路线的理论天花板而非工程问题。\n\n### 使用 limit 后\n- 利用 limit 数据集提供的理论构造样本，团队迅速复现了检索失效场景，证实了特定文档组合在任何查询下都不可被召回的数学必然性。\n- 清晰量化了当前模型的理論局限，帮助团队及时止损，停止了对单一向量维度扩充的无效投入，转而探索多向量或混合检索架构。\n- 通过 limit 生成的对抗性数据作为新的基准测试，精准定位了模型在复杂逻辑关系下的弱点，为后续架构升级提供了明确的改进靶点。\n- 将学术理论转化为工程实践依据，让团队在与管理层沟通技术债时拥有了无可辩驳的数据支撑，推动了技术栈的果断重构。\n\nlimit 不仅是一个数据集，更是一把揭示当前嵌入检索技术理论天花板的标尺，帮助开发者从盲目优化转向架构革新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-deepmind_limit_7c7c6d86.png","google-deepmind","Google DeepMind","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-deepmind_06b1dd17.png","",null,"https:\u002F\u002Fwww.deepmind.com\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind",[84,88],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",74.7,{"name":89,"color":90,"percentage":91},"Python","#3572A5",25.3,646,50,"2026-04-11T16:25:10","Apache-2.0","未说明",{"notes":98,"python":96,"dependencies":99},"1. 推荐使用 `uv` 包管理器创建虚拟环境并安装依赖。2. 评估实验必须使用 MTEB 框架的 v2.0.0 分支（具体为 `w_limit` 分支），不能使用主分支，且需安装 requirements 中锁定的特定版本。3. 数据集可通过 Huggingface `datasets` 库直接加载，或从本地 `data\u002F` 目录加载 MTEB 格式的 JSON 文件。4. 提供用于从头生成数据集的 Jupyter Notebook。",[100,101,102],"mteb (特定 v2.0.0 分支版本)","sentence-transformers","datasets (Huggingface)",[16,29],"2026-03-27T02:49:30.150509","2026-04-18T17:04:01.021402",[107,112,117,122,127,131],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},40377,"为什么无法复现论文中报告的评估结果（如 Recall@K 指标不一致）？","这通常是由于依赖包版本不匹配导致的，特别是对于基于 Mistral 的检索模型（如 e5-mistral, GritLM）。请尝试使用以下特定版本组合：gritlm==1.0.2 和 transformers==4.47.0。如果使用的是 standalone 评估框架，确保使用了完全正确的提示词（prompts）。此外，检查 sentence-transformers 和 gritlm 的版本也很关键，不同版本间的内部更新可能导致结果差异。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Flimit\u002Fissues\u002F10",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},40378,"如何在 MTEB 基准测试中使用 LIMIT 数据集？","LIMIT 数据集不在 MTEB 的主分支中，必须安装特定的分支才能使用。请运行以下命令安装：pip install git+https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb.git@w_limit。或者，你可以克隆 mteb 仓库，切换到 w_limit 分支 (git checkout w_limit)，然后在该分支目录下执行 pip install . 进行安装。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Flimit\u002Fissues\u002F5",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},40379,"如何复现论文中提到的 Gemini-2.5-Pro 在零样本设置下 100% 正确的结果？","复现该结果不需要复杂的提示词模板或特殊的思维预算（thinking budget）。方法是直接复制 corpus.jsonl 和 queries.jsonl 文件的内容（位于 data\u002Flimit-small 目录），然后要求 Gemini 以类似 qrels.jsonl 的格式输出相关文档。通过这种直接的上下文输入方式，模型能够在一次前向传播中正确处理所有查询。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Flimit\u002Fissues\u002F7",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},40380,"在哪里可以找到论文中报告的具体性能数值（表格形式）？","论文中所有的性能图表数据均以表格形式提供在附录（Appendix）中。请查阅论文的附录部分，那里包含了不同模型在各个实验设置下的具体数值，可用于基准测试结果的可复现性检查。","https:\u002F\u002Fgithub.com\u002Fgoogle-deepmind\u002Flimit\u002Fissues\u002F9",{"id":128,"question_zh":129,"answer_zh":130,"source_url":111},40381,"使用 e5-mistral 或 GritLM 模型时遇到运行错误或结果异常怎么办？","这些问题通常不是模型本身的问题，而是框架支持版本的兼容性问题。强烈建议固定依赖版本：尝试使用 transformers==4.47.0 或 transformers==4.53.0，并配合 gritlm==1.0.2。避免使用过新或过旧的 transformers 版本，因为 Mistral 架构的模型对版本非常敏感。",{"id":132,"question_zh":133,"answer_zh":134,"source_url":116},40382,"安装 MTEB 的 w_limit 分支后仍然找不到 LIMIT 数据集怎么办？","请确认你确实成功切换到了 w_limit 分支。如果你是通过 git 克隆的方式，请执行 'git checkout w_limit' 确保当前分支正确，然后再运行 'pip install .'。如果直接使用 pip 安装链接，请确保链接末尾准确包含 '@w_limit'，即 'git+https:\u002F\u002Fgithub.com\u002Fembeddings-benchmark\u002Fmteb.git@w_limit'。",[]]