[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-IntelLabs--RAG-FiT":3,"tool-IntelLabs--RAG-FiT":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",151918,2,"2026-04-12T11:33:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":77,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":10,"env_os":75,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":100,"github_topics":102,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":111,"updated_at":112,"faqs":113,"releases":146},6852,"IntelLabs\u002FRAG-FiT","RAG-FiT","Framework for enhancing LLMs for RAG tasks using fine-tuning.","RAG-FiT 是一个专为提升大语言模型（LLM）检索增强生成（RAG）能力而设计的开源框架。它核心解决了通用大模型在利用外部信息时往往不够精准的问题，通过基于特制 RAG 数据集的微调，显著增强模型对检索内容的理解与整合能力。\n\n该工具非常适合 AI 研究人员和开发者使用，尤其是那些希望快速原型化 RAG 方案、探索不同检索配置或需要定制化训练流程的技术团队。RAG-FiT 将复杂的工作流模块化为四大核心环节：数据集构建、高效训练、推理预测及多维评估。其独特亮点在于支持参数高效微调（PEFT），大幅降低训练成本；同时提供高度灵活的配置系统（基于 Hydra），允许用户通过配置文件轻松管理从数据清洗、检索排序到提示词生成的全流程。此外，它还内置了丰富的 RAG 专用评估指标，不仅能衡量最终输出质量，还能深入分析检索结果、推理逻辑及引用准确性，帮助使用者科学量化模型性能的提升。","\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIntelLabs_RAG-FiT_readme_e2a139b4b634.png\" width=\"400\"\u002F>\n\u003C\u002Fdiv>\n\n----------\n\n**RAG-FiT** is a library designed to improve LLMs ability to use external information by fine-tuning models on\nspecially created RAG-augmented datasets. The library helps create the data for training, given a RAG technique, helps\neasily train models using parameter-efficient finetuning (PEFT), and finally can help users measure the improved\nperformance using various, RAG-specific metrics. The library is modular, workflows are customizable using configuration\nfiles. Formerly called *RAG Foundry*.\n\nComments, suggestions, issues and pull-requests are welcomed! ❤️\n\n### Installation\nClone and run:\n\n```sh\npip install -e .\n```\n\nOptional packages can be installed:\n```sh\npip install -e .[haystack]\npip install -e .[deepeval]\n```\n\n### Quick Start\n\nFor a simple, end-to-end example, see the [PubmedQA Tutorial](.\u002Fdocs\u002Fpubmed.md).\n\n## Overview\n\nThe RAG-FiT framework facilitates fast prototyping and experimentation with various RAG settings and configurations,\nincluding data selection and filtering, processing, retrieval, ranking, query manipulation, prompt generation, training,\ninference, output processing and evaluation. The library is comprised of 4 modules: dataset creation, training,\ninference and evaluation.\n\n* **Dataset Creation**: The processing module creates datasets, persisting RAG interactions, to be used for RAG training\nand inference. RAG interactions include dataset loading, columns normalization, data aggregation (fewshot creation),\ninformation retrieval using external tools and frameworks, API integration, template-based prompt creation and any other\nform of pre-processing. The data is saved in a consistent, model-independent, input-output format, along with all other\nfields and metadata. See [Processing.md](docs\u002Fprocessing.md).\n\n* **Training**: using PEFT for efficient training and TRL (e.g. supervised FT) users can train any model on the augmented\ndatasets. Training is done on the completions. Models can be pushed to HF Hub. See [Training.md](docs\u002Ftraining.md).\n\n* **Inference**: generating predictions using the augmented datasets with trained or untrained LLMs. See [Inference.md](docs\u002Finference.md).\n\n* **Evaluation**: running evaluation on the generated output from the inference module. Users can provide a list of\nmetrics to run; custom metrics can be implemented easily. Current metrics include EM, F1, ROUGE, BERTScore, Deepeval,\nRAGAS, HF `evaluate` and classification. Metrics can be *local*—run on each example, or *global*—run on the entire\ndataset, e.g. recall. Metrics can utilize any feature in the dataset, like retrieval results, reasoning,\ncitations and attributions, not just the input and output texts. See [Evaluation.md](docs\u002Fevaluation.md).\n\n\n## Running\nThe 4 modules are represented as scripts: `processing.py`, `training.py`, `inference.py` and `evaluation.py` at the top\nlevel. Every call has the form `python SCRIPT options...`.\n\nThe library utilizes the [Hydra](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Fintro\u002F) configuration tool; it enables the use of hierarchical\nconfigurations, easily overridden of values in the CLI and the ability to run multiple jobs remotely (e.g. integrations with\nSLURM and Ray). It represents a *configuration-as-code* approach, as it can instantiate python classes according to\nconfiguration (the `_target_` keyword indicates the python class to use in a given context).\n\nThere are default configurations for each module in the [configs](.\u002Fconfigs\u002F) folder. A configuration file can be\noverridden like so:\n\n```sh\npython processing -cp configs\u002Fpaper -cn processing-asqa-retrieval\n```\n\nIndividual keywords can be overridden as well:\n```sh\npython processing -cp configs\u002Fpaper -cn processing-asqa-retrieval   \\\n       output_path=\u002Fstore\u002Fdata\u002Fhere                                 \\\n       cache=true\n```\n\nFor a complete set of configurations, **reproducing the experimentation in the paper with the ASQA dataset**, see the\nconfigurations in the [Paper](.\u002Fconfigs\u002Fpaper) folder.\n\n## Citation\n\nPlease cite our paper if it helps your research: [RAG Foundry: A Framework for Enhancing LLMs for Retrieval Augmented Generation](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.02545).\n\n```BibTex\n@article{fleischerRAGFoundryFramework2024,\n  title =        {{RAG} {Foundry}: {A} {Framework} for {Enhancing} {LLMs} for {Retrieval} {Augmented} {Generation}},\n  author =       {Fleischer, Daniel and Berchansky, Moshe and Wasserblat, Moshe and Izsak, Peter},\n  year =         2024,\n  note =         {arXiv:2408.02545 [cs]},\n  annote =       {Comment: 10 pages},\n  url =          {http:\u002F\u002Farxiv.org\u002Fabs\u002F2408.02545},\n  publisher =    {arXiv},\n}\n```\n\n## License\n\nThe code is licensed under the [Apache 2.0 License](LICENSE).\n\n## Disclaimer\n\nThis is not an official Intel product.","\u003Cdiv align=\"center\">\n    \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIntelLabs_RAG-FiT_readme_e2a139b4b634.png\" width=\"400\"\u002F>\n\u003C\u002Fdiv>\n\n----------\n\n**RAG-FiT** 是一个库，旨在通过在专门构建的 RAG 增强数据集上微调模型，来提升大语言模型利用外部信息的能力。该库可以根据给定的 RAG 技术帮助创建训练数据，支持使用参数高效微调（PEFT）轻松训练模型，并最终帮助用户使用各种专为 RAG 设计的指标来衡量性能提升。该库具有模块化设计，可通过配置文件自定义工作流。此前名为 *RAG Foundry*。\n\n欢迎提出评论、建议、问题和拉取请求！❤️\n\n### 安装\n克隆并运行：\n\n```sh\npip install -e .\n```\n\n也可以安装可选包：\n```sh\npip install -e .[haystack]\npip install -e .[deepeval]\n```\n\n### 快速入门\n\n如需一个简单、端到端的示例，请参阅 [PubmedQA 教程](.\u002Fdocs\u002Fpubmed.md)。\n\n## 概述\n\nRAG-FiT 框架能够快速原型化和实验各种 RAG 设置与配置，包括数据选择与过滤、处理、检索、排序、查询改写、提示生成、训练、推理、输出处理以及评估。该库由四个模块组成：数据集创建、训练、推理和评估。\n\n* **数据集创建**：处理模块负责创建数据集，持久化 RAG 交互过程，以便用于 RAG 训练和推理。RAG 交互包括加载数据、列归一化、数据聚合（少样本生成）、使用外部工具和框架进行信息检索、API 集成、基于模板的提示生成以及其他形式的预处理。数据会以一致的、模型无关的输入-输出格式保存，并附带所有其他字段和元数据。详情请参阅 [Processing.md](docs\u002Fprocessing.md)。\n\n* **训练**：利用 PEFT 进行高效训练，结合 TRL（例如监督式微调），用户可以对任何模型在增强的数据集上进行训练。训练基于完成序列进行。训练好的模型可以上传至 Hugging Face Hub。详情请参阅 [Training.md](docs\u002Ftraining.md)。\n\n* **推理**：使用增强的数据集，借助已训练或未训练的语言模型生成预测。详情请参阅 [Inference.md](docs\u002Finference.md)。\n\n* **评估**：对推理模块生成的输出进行评估。用户可以提供要运行的指标列表；自定义指标也可轻松实现。当前支持的指标包括 EM、F1、ROUGE、BERTScore、Deepeval、RAGAS、HF `evaluate` 以及分类指标。这些指标可以是 *局部的*——针对每个样本单独计算，也可以是 *全局的*——针对整个数据集计算，例如召回率。评估指标可以利用数据集中任意特征，如检索结果、推理过程、引用和归属信息等，而不仅限于输入和输出文本。详情请参阅 [Evaluation.md](docs\u002Fevaluation.md)。\n\n## 运行\n四个模块分别以脚本形式呈现：顶层目录下的 `processing.py`、`training.py`、`inference.py` 和 `evaluation.py`。每次调用的格式均为 `python SCRIPT options...`。\n\n该库使用 [Hydra](https:\u002F\u002Fhydra.cc\u002Fdocs\u002Fintro\u002F) 配置工具；它支持分层配置、在命令行中轻松覆盖配置值，以及远程运行多个任务（例如与 SLURM 和 Ray 的集成）。它采用“配置即代码”的方法，能够根据配置实例化 Python 类（`_target_` 关键字指定了在特定上下文中使用的 Python 类）。\n\n每个模块在 [configs](.\u002Fconfigs\u002F) 文件夹中都有默认配置。可以通过以下方式覆盖配置文件：\n\n```sh\npython processing -cp configs\u002Fpaper -cn processing-asqa-retrieval\n```\n\n也可以单独覆盖某些参数：\n```sh\npython processing -cp configs\u002Fpaper -cn processing-asqa-retrieval   \\\n       output_path=\u002Fstore\u002Fdata\u002Fhere                                 \\\n       cache=true\n```\n\n如需完整的配置集合，特别是为了复现论文中使用 ASQA 数据集的实验，请参阅 [Paper](.\u002Fconfigs\u002Fpaper) 文件夹中的配置。\n\n## 引用\n如果本文对您的研究有所帮助，请引用我们的论文：[RAG Foundry: 用于增强 LLMs 检索增强生成能力的框架](https:\u002F\u002Farxiv.org\u002Fabs\u002F2408.02545)。\n\n```BibTex\n@article{fleischerRAGFoundryFramework2024,\n  title =        {{RAG} {Foundry}: {A} {Framework} for {Enhancing} {LLMs} for {Retrieval} {Augmented} {Generation}},\n  author =       {Fleischer, Daniel and Berchansky, Moshe and Wasserblat, Moshe and Izsak, Peter},\n  year =         2024,\n  note =         {arXiv:2408.02545 [cs]},\n  annote =       {注释：10页},\n  url =          {http:\u002F\u002Farxiv.org\u002Fabs\u002F2408.02545},\n  publisher =    {arXiv},\n}\n```\n\n## 许可证\n代码采用 [Apache 2.0 许可证](LICENSE) 许可。\n\n## 免责声明\n本项目并非英特尔官方产品。","# RAG-FiT 快速上手指南\n\nRAG-FiT 是一个专为提升大语言模型（LLM）利用外部信息能力而设计的库。它通过基于特制的 RAG 增强数据集对模型进行微调，支持数据创建、参数高效微调（PEFT）、推理及多维度评估的全流程工作流。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux 或 macOS（Windows 用户建议使用 WSL2）。\n*   **Python 版本**：推荐 Python 3.9 或更高版本。\n*   **前置依赖**：\n    *   `git`：用于克隆代码库。\n    *   `pip`：Python 包管理工具。\n    *   GPU 环境（可选但推荐）：若需进行模型训练，建议安装适配的 CUDA 驱动及 PyTorch GPU 版本。\n\n## 安装步骤\n\n### 1. 克隆仓库\n首先从 GitHub 克隆项目代码：\n\n```sh\ngit clone https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT.git\ncd RAG-FiT\n```\n\n### 2. 安装核心库\n使用可编辑模式安装基础包：\n\n```sh\npip install -e .\n```\n\n### 3. 安装可选组件（按需）\n根据您的需求，可以选择安装特定的集成包：\n\n*   **Haystack 集成**（用于检索流程）：\n    ```sh\n    pip install -e .[haystack]\n    ```\n*   **DeepEval 集成**（用于高级评估指标）：\n    ```sh\n    pip install -e .[deepeval]\n    ```\n\n> **提示**：国内开发者若遇到下载缓慢问题，可使用清华或阿里镜像源加速安装：\n> `pip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n## 基本使用\n\nRAG-FiT 的工作流由四个核心模块组成：**数据处理**、**训练**、**推理**和**评估**。所有操作均通过命令行脚本配合 [Hydra](https:\u002F\u002Fhydra.cc\u002F) 配置文件完成。\n\n### 1. 配置管理\n库中提供了默认配置文件，位于 `configs\u002F` 目录。您可以直接使用现有配置或通过命令行覆盖特定参数。\n\n### 2. 运行数据处理 (Dataset Creation)\n构建包含 RAG 交互信息（如检索结果、Prompt 模板等）的数据集：\n\n```sh\npython processing.py -cp configs\u002Fpaper -cn processing-asqa-retrieval\n```\n\n如需自定义输出路径或开启缓存，可通过命令行参数覆盖：\n\n```sh\npython processing.py -cp configs\u002Fpaper -cn processing-asqa-retrieval \\\n       output_path=\u002Fstore\u002Fdata\u002Fhere \\\n       cache=true\n```\n\n### 3. 运行模型训练 (Training)\n使用生成的增强数据集，结合 PEFT（参数高效微调）技术训练模型：\n\n```sh\npython training.py -cp configs\u002Fpaper -cn training-config-example\n```\n*(注：请将 `training-config-example` 替换为实际存在的训练配置文件名)*\n\n### 4. 运行推理 (Inference)\n使用训练好的模型（或原始模型）生成预测结果：\n\n```sh\npython inference.py -cp configs\u002Fpaper -cn inference-config-example\n```\n\n### 5. 运行评估 (Evaluation)\n对推理结果进行评估，支持 EM、F1、ROUGE、BERTScore、RAGAS 等多种指标：\n\n```sh\npython evaluation.py -cp configs\u002Fpaper -cn evaluation-config-example\n```\n\n### 完整示例参考\n对于端到端的完整演示，建议参考官方提供的 **PubmedQA 教程**：\n*   文档路径：`.\u002Fdocs\u002Fpubmed.md`\n*   复现论文实验配置：查看 `.\u002Fconfigs\u002Fpaper` 文件夹中的 ASQA 数据集相关配置。","某医疗科技团队正在构建一个基于最新医学文献的智能问答系统，旨在让医生能通过自然语言快速查询复杂的临床指南。\n\n### 没有 RAG-FiT 时\n- **模型“幻觉”严重**：通用大模型在缺乏微调的情况下，经常忽略检索到的专业文献，凭固有知识编造错误的用药建议。\n- **数据准备繁琐**：人工构建包含“问题 - 检索片段 - 标准答案”的训练数据集耗时极长，且难以统一格式以适配不同的检索策略。\n- **训练成本高昂**：直接全量微调大模型需要昂贵的算力资源，团队难以在有限预算下进行多次实验迭代。\n- **评估维度单一**：仅靠人工抽查或简单的文本相似度无法量化模型是否真正利用了外部证据，难以发现深层的逻辑错误。\n\n### 使用 RAG-FiT 后\n- **显著降低幻觉**：利用 RAG-FiT 生成的增强数据集对模型进行参数高效微调（PEFT），使模型学会严格依据检索到的医学文献作答，准确性大幅提升。\n- **自动化数据流水线**：通过配置即可自动完成从文献加载、检索增强到提示词构建的全流程，快速生成高质量的训练数据。\n- **低成本快速迭代**：借助内置的 PEFT 支持，团队能在单张消费级显卡上高效完成模型训练，并将优化后的模型直接推送至 Hugging Face。\n- **全方位效果量化**：利用集成的 RAGAS 和 Deepeval 等专用指标，不仅能评估答案质量，还能精确衡量模型对检索内容的引用率和归因能力。\n\nRAG-FiT 通过标准化的数据构建与高效微调流程，将原本需要数周的研发周期缩短至几天，让垂直领域的专业问答系统落地变得触手可及。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIntelLabs_RAG-FiT_e65bc888.png","IntelLabs","Intel Labs","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FIntelLabs_82a828bb.png","",null,"https:\u002F\u002Fwww.intel.com\u002Flabs","https:\u002F\u002Fgithub.com\u002FIntelLabs",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,769,61,"2026-04-02T07:16:30","Apache-2.0","未说明",{"notes":90,"python":88,"dependencies":91},"该工具基于 Hydra 进行配置管理，支持通过配置文件自定义工作流。虽然 README 未明确列出具体硬件指标，但由于涉及大语言模型（LLM）的微调（PEFT）和推理，实际运行通常需要 NVIDIA GPU 及较大的显存。支持安装可选包以集成 Haystack 检索框架或 Deepeval 评估工具。",[92,93,94,95,96,97,98,99],"hydra-core","TRL","PEFT","transformers","haystack (可选)","deepeval (可选)","RAGAS","evaluate",[101,35,14],"其他",[103,104,105,106,107,108,109,110],"evaluation","fine-tuning","information-retrieval","llm","nlp","question-answering","rag","semantic-search","2026-03-27T02:49:30.150509","2026-04-12T20:18:42.375734",[114,119,124,129,134,138,142],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},30912,"如何调整基础模型或自定义 LoRA 的目标模块？","在使用 LoRA 时，`target_modules` 中指定的模块必须存在于您使用的 LLM 中。例如，`qkv_proj` 是 Phi-3 模型中的模块，如果您使用其他模型，需要根据该模型的架构调整此配置。请检查您的模型结构并相应修改 `target_modules` 列表。","https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fissues\u002F3",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},30913,"运行处理脚本时出现错误，提示找不到 Qdrant 服务器或连接失败，如何解决？","该错误通常是因为库无法在提供的 URL 找到 Qdrant 服务器。如果您想复现论文中的实验，需要拥有一个维基百科语料库索引。您可以使用 fastRAG 库中的脚本创建索引，或者使用其他框架构建语料库。此外，默认设置下 Qdrant 不需要认证；如果您使用的是远程服务并遇到 403 错误，需要在配置中设置 API Key。","https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fissues\u002F4",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},30914,"使用自定义数据集时训练无法启动，应该运行哪个脚本？","如果您想要进行模型训练，必须运行 `training.py` 模块，而不是 `processing.py`。`processing.py` 仅用于数据处理和检索增强流程的构建，不包含训练逻辑。请确保使用正确的入口脚本。","https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fissues\u002F5",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},30915,"Qdrant 索引显示为空（indexed_vectors_count: 0），导致检索不到数据，怎么办？","Qdrant 是一个向量数据库，必须先向其写入数据才能进行检索。出现空索引说明尚未导入语料库。您需要先执行索引构建步骤将数据存入 Qdrant。如果需要一个不使用外部语料库的简单示例，可以参考 Pubmed 教程。","https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fissues\u002F6",{"id":135,"question_zh":136,"answer_zh":137,"source_url":118},30916,"如何处理数据增强后正样本键（positive key）为空的问题？","如果在数据增强后发现正样本键为空，这通常是不正常的。请检查您的数据加载和预处理步骤。虽然用户提到只更改了 qdrant.yaml 中的 URL 为内存模式（`:memory:`），但这不应导致源数据为空。建议检查原始数据集加载器（如 HFLoader）是否正确读取了数据，以及 `docs_key` 配置是否与数据集中的实际键名匹配。",{"id":139,"question_zh":140,"answer_zh":141,"source_url":123},30917,"如何在 Qdrant 配置中设置 API Key 以解决 403 禁止访问错误？","当您将 URL 更改为远程 Qdrant 服务地址并收到 403 错误时，说明需要身份验证。虽然默认本地运行不需要认证，但远程服务通常需要。请在您的 `qdrant.yaml` 配置文件或初始化参数中添加 API Key 设置。具体参数名称需参考 Qdrant 官方文档或 Haystack QdrantDocumentStore 的参数定义（通常为 `api_key`）。",{"id":143,"question_zh":144,"answer_zh":145,"source_url":118},30918,"该项目支持哪些模型，是否支持自定义模型？","该库支持 Hugging Face 格式的模型。您可以通过修改配置文件中的 `model_name_or_path` 来加载不同的预训练模型（例如 `microsoft\u002FPhi-3-mini-128k-instruct`）。对于自定义模型，只要其兼容 Hugging Face Transformers 接口，并且您正确配置了 LoRA 的 `target_modules` 以匹配模型架构，即可使用。",[147,152,157,162,167],{"id":148,"version":149,"summary_zh":150,"released_at":151},222711,"v1.5.0","## 变更内容\n* 由 @danielfleischer 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fpull\u002F14 中添加的新功能\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fcompare\u002Fv1.2.0...v1.5.0","2024-11-12T13:54:34",{"id":153,"version":154,"summary_zh":155,"released_at":156},222712,"v1.2.0","## 变更内容\n* 项目重命名，由 @danielfleischer 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fpull\u002F13 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAG-FiT\u002Fcompare\u002Fv1.1.2...v1.2.0","2024-10-06T10:23:16",{"id":158,"version":159,"summary_zh":160,"released_at":161},222713,"v1.1.2","## 变更内容\n* 打包及可选依赖，由 @danielfleischer 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fpull\u002F11 中完成\n* 使用 Ruff 进行代码格式化，由 @danielfleischer 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fpull\u002F12 中完成\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fcompare\u002Fv1.1.1...v1.1.2","2024-09-11T09:57:49",{"id":163,"version":164,"summary_zh":165,"released_at":166},222714,"v1.1.1","## 变更内容\n* @peteriz 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fpull\u002F7 中添加了 vllm 后端用于推理\n* @danielfleischer 在 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fpull\u002F9 中实现了用于合并数据集的全局步进功能\n* @dependabot 将 nltk 从 3.8.1 升级至 3.9，详见 https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fpull\u002F10\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FIntelLabs\u002FRAGFoundry\u002Fcompare\u002Fv1.0.0...v1.1.1","2024-08-19T12:33:57",{"id":168,"version":169,"summary_zh":170,"released_at":171},222715,"v1.0.0","## 变更内容\n* 我们新增了基于 Phi-3 和 PubmedQA 的快速入门教程。\n* 自定义步骤（包括加载步骤和输出步骤）现在可以禁用缓存功能。\n* 输出步骤增加了更多的命名选项。\n* 修复了一些小问题和错别字。\n* 将 haystack-ai 从 2.1.2 升级至 2.3.1。\n* 将 torch 从 2.1.2 升级至 2.2.0。","2024-08-13T10:25:37"]