[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-run-llama--rags":3,"tool-run-llama--rags":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":23,"env_os":96,"env_gpu":96,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":104,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":146},2233,"run-llama\u002Frags","rags","Build ChatGPT over your data, all with natural language","RAGs 是一款基于 Streamlit 构建的开源应用，旨在让用户仅通过自然语言指令，即可快速搭建专属的检索增强生成（RAG）管道。它解决了传统 RAG 系统配置复杂、门槛高的问题，用户无需编写代码，只需描述数据来源（如本地文件或网页）及任务需求，系统便能自动初始化包含向量检索、摘要生成等组件的智能代理。\n\n该工具特别适合希望快速验证想法的开发者、数据科学家以及需要构建私有知识库问答系统的技术团队。其核心亮点在于引入了“构建者代理”概念：用户先用对话方式定义任务，随后可在配置界面直观地查看并微调由 AI 自动生成的参数（如检索数量、分块大小、模型选择等），最后直接在聊天界面中向数据提问。RAGs 支持灵活切换多种大语言模型（如 OpenAI、Anthropic）和嵌入模型，既保留了自动化带来的便捷，又提供了手动调整的高级自由度，让构建定制化 AI 助手变得简单高效。","# RAGs\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fassets\u002F4858925\u002Fa6204550-b3d1-4cde-b308-8d944e5d3058\n\n\n\nRAGs is a Streamlit app that lets you create a RAG pipeline from a data source using natural language.\n\nYou get to do the following:\n1. Describe your task (e.g. \"load this web page\") and the parameters you want from your RAG systems (e.g. \"i want to retrieve X number of docs\")\n2. Go into the config view and view\u002Falter generated parameters (top-k, summarization, etc.) as needed.\n3. Query the RAG agent over data with your questions.\n\nThis project is inspired by [GPTs](https:\u002F\u002Fopenai.com\u002Fblog\u002Fintroducing-gpts), launched by OpenAI.\n\n## Installation and Setup \n\nClone this project, go into the `rags` project folder. We recommend creating a virtual env for dependencies (`python3 -m venv .venv`).\n\n```\npoetry install --with dev\n```\n\nBy default, we use OpenAI for both the builder agent as well as the generated RAG agent.\nAdd `.streamlit\u002Fsecrets.toml` in the home folder.\n\nThen put the following:\n```\nopenai_key = \"\u003Copenai_key>\"\n```\n\n\nThen run the app from the \"home page\" file.\n\n```\n\nstreamlit run 1_🏠_Home.py\n\n```\n\n**NOTE**: If you've upgraded the version of RAGs, and you're running into issues on launch, you may need to delete the `cache` folder in your home directory (we may have introduced breaking changes in the stored data structure between versions).\n\n## Detailed Overview\n\nThe app contains the following sections, corresponding to the steps listed above.\n\n### 1. 🏠 Home Page\nThis is the section where you build a RAG pipeline by instructing the \"builder agent\". Typically to setup a RAG pipeline you need the following components:\n1. Describe the dataset. Currently we support either **a single local file** or a **web page**. We're open to suggestions here! \n2. Describe the task. Concretely this description will be used to initialize the \"system prompt\" of the LLM powering the RAG pipeline.\n3. Define the typical parameters for a RAG setup. See the below section for the list of parameters.\n\n### 2. ⚙️ RAG Config\n\nThis section contains the RAG parameters, generated by the \"builder agent\" in the previous section. In this section, you have a UI showcasing the generated parameters and have full freedom to manually edit\u002Fchange them as necessary.\n\nCurrently the set of parameters is as follows:\n- System Prompt\n- Include Summarization: whether to also add a summarization tool (instead of only doing top-k retrieval.)\n- Top-K\n- Chunk Size\n- Embed Model\n- LLM \n\nIf you manually change parameters, you can press the \"Update Agent\" button in order to update the agent.\n\n```{tip}\nIf you don't see the `Update Agent` button, that's because you haven't created the agent yet. Please go to the previous \"Home\" page and complete the setup process.\n```\n\nWe can always add more parameters to make this more \"advanced\" 🛠️, but thought this would be a good place to start.\n\n### 3. Generated RAG Agent\n\nOnce your RAG agent is created, you have access to this page.\n\nThis is a standard chatbot interface where you can query the RAG agent and it will answer questions over your data.\n\nIt will be able to pick the right RAG tools (either top-k vector search or optionally summarization) in order to fulfill the query.\n\n\n## Supported LLMs and Embeddings\n\n### Builder Agent\n\nBy default the builder agent uses OpenAI. This is defined in the `core\u002Fbuilder_config.py` file.\n\nYou can customize this to whatever LLM you want (an example is provided for Anthropic).\n\nNote that GPT-4 variants will give the most reliable results in terms of actually constructing an agent (we couldn't get Claude to work).\n\n### Generated RAG Agent\n\nYou can set the configuration either through natural language or manually for both the embedding model and LLM.\n\n- **LLM**: We support the following LLMs, but you need to explicitly specify the ID to the builder agent.\n    - OpenAI: ID is \"openai:\u003Cmodel_name>\" e.g. \"openai:gpt-4-1106-preview\"\n    - Anthropic: ID is \"anthropic:\u003Cmodel_name>\" e.g. \"anthropic:claude-2\"\n    - Replicate: ID is \"replicate:\u003Cmodel_name>\"\n    - HuggingFace: ID is \"local:\u003Cmodel_name>\" e.g. \"local:BAAI\u002Fbge-small-en\"\n- **Embeddings**: Supports text-embedding-ada-002 by default, but also supports Hugging Face models. To use a hugging face model simply prepend with local, e.g. local:BAAI\u002Fbge-small-en.\n\n\n## Resources\n\nRunning into issues? Please file a GitHub issue or join our [Discord](https:\u002F\u002Fdiscord.gg\u002FdGcwcsnxhU).\n\nThis app was built with [LlamaIndex Python](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index).\n\nSee our launch blog post [here](https:\u002F\u002Fblog.llamaindex.ai\u002Fintroducing-rags-your-personalized-chatgpt-experience-over-your-data-2b9d140769b1).\n","# RAGs\n\n\n\nhttps:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fassets\u002F4858925\u002Fa6204550-b3d1-4cde-b308-8d944e5d3058\n\n\n\nRAGs 是一款 Streamlit 应用，允许您使用自然语言从数据源创建 RAG 流程。\n\n您可以执行以下操作：\n1. 描述您的任务（例如“加载此网页”）以及您希望从 RAG 系统中获取的参数（例如“我想检索 X 条文档”）。\n2. 进入配置视图，根据需要查看或修改生成的参数（如 top-k、摘要生成等）。\n3. 使用您的问题向 RAG 代理查询数据。\n\n该项目灵感来源于 OpenAI 推出的 [GPTs](https:\u002F\u002Fopenai.com\u002Fblog\u002Fintroducing-gpts)。\n\n## 安装与设置\n\n克隆本项目，进入 `rags` 项目文件夹。我们建议为依赖项创建一个虚拟环境（`python3 -m venv .venv`）。\n\n```\npoetry install --with dev\n```\n\n默认情况下，我们同时使用 OpenAI 作为构建代理和生成的 RAG 代理。在主目录下创建 `.streamlit\u002Fsecrets.toml` 文件。\n\n然后添加以下内容：\n```\nopenai_key = \"\u003Copenai_key>\"\n```\n\n\n接着从“主页”文件运行应用。\n\n```\n\nstreamlit run 1_🏠_Home.py\n\n```\n\n**注意**：如果您升级了 RAGs 的版本，并且在启动时遇到问题，可能需要删除主目录中的 `cache` 文件夹（我们可能在不同版本之间对存储的数据结构进行了破坏性更改）。\n\n## 详细概述\n\n该应用包含以下几个部分，分别对应上述步骤。\n\n### 1. 🏠 主页\n这是您通过指示“构建代理”来构建 RAG 流程的部分。通常，要设置 RAG 流程，您需要以下组件：\n1. 描述数据集。目前我们支持 **单个本地文件** 或 **网页**。我们也欢迎您的建议！\n2. 描述任务。具体来说，此描述将用于初始化驱动 RAG 流程的 LLM 的“系统提示”。\n3. 定义 RAG 设置的典型参数。有关参数列表，请参阅下文。\n\n### 2. ⚙️ RAG 配置\n\n本节包含由上一节中的“构建代理”生成的 RAG 参数。在此部分，您将看到一个展示生成参数的用户界面，并可以自由地根据需要手动编辑或更改这些参数。\n\n当前的参数集如下：\n- 系统提示\n- 是否包含摘要生成：是否同时添加摘要工具（而不仅仅是进行 top-k 检索）。\n- Top-K\n- 分块大小\n- 嵌入模型\n- LLM\n\n如果您手动更改了参数，可以点击“更新代理”按钮以更新代理。\n\n```{tip}\n如果您没有看到“更新代理”按钮，那是因为您尚未创建代理。请返回之前的“主页”并完成设置过程。\n```\n\n我们随时可以添加更多参数以使其更加“高级”🛠️，但认为这是一个不错的起点。\n\n### 3. 生成的 RAG 代理\n\n一旦您的 RAG 代理创建完毕，您就可以访问此页面。\n\n这是一个标准的聊天机器人界面，您可以在其中向 RAG 代理提问，它会根据您的数据回答问题。\n\n它能够选择合适的 RAG 工具（无论是 top-k 向量搜索还是可选的摘要生成），以满足您的查询需求。\n\n\n## 支持的 LLM 和嵌入模型\n\n### 构建代理\n\n默认情况下，构建代理使用 OpenAI。这在 `core\u002Fbuilder_config.py` 文件中定义。您可以将其自定义为您想要的任何 LLM（Anthropic 提供了一个示例）。\n\n请注意，GPT-4 系列在实际构建代理方面效果最为可靠（我们未能使 Claude 正常工作）。\n\n### 生成的 RAG 代理\n\n您可以通过自然语言或手动方式为嵌入模型和 LLM 设置配置。\n\n- **LLM**：我们支持以下 LLM，但您需要明确指定 ID 给构建代理。\n    - OpenAI：ID 为 “openai:\u003Cmodel_name>”，例如 “openai:gpt-4-1106-preview”\n    - Anthropic：ID 为 “anthropic:\u003Cmodel_name>”，例如 “anthropic:claude-2”\n    - Replicate：ID 为 “replicate:\u003Cmodel_name>”\n    - HuggingFace：ID 为 “local:\u003Cmodel_name>”，例如 “local:BAAI\u002Fbge-small-en”\n- **嵌入模型**：默认支持 text-embedding-ada-002，但也支持 Hugging Face 模型。要使用 Hugging Face 模型，只需在其前面加上 “local”，例如 local:BAAI\u002Fbge-small-en。\n\n\n## 资源\n\n遇到问题？请提交 GitHub 问题或加入我们的 [Discord](https:\u002F\u002Fdiscord.gg\u002FdGcwcsnxhU)。\n\n此应用基于 [LlamaIndex Python](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index) 构建。\n\n请参阅我们的发布博客文章 [这里](https:\u002F\u002Fblog.llamaindex.ai\u002Fintroducing-rags-your-personalized-chatgpt-experience-over-your-data-2b9d140769b1)。","# RAGs 快速上手指南\n\nRAGs 是一个基于 Streamlit 的应用，允许你通过自然语言指令快速构建针对特定数据源的 RAG（检索增强生成）流水线。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：推荐 Python 3.9 或更高版本\n- **前置依赖**：\n  - Git（用于克隆项目）\n  - Poetry（用于依赖管理）\n  - OpenAI API Key（默认使用 OpenAI 模型）\n\n> **提示**：国内开发者若无法直接访问 PyPI 或 GitHub，建议配置国内镜像源（如清华源、阿里源）加速依赖下载，并使用代理工具解决网络问题。\n\n## 安装步骤\n\n1. **克隆项目并进入目录**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags.git\n   cd rags\n   ```\n\n2. **创建虚拟环境**\n   ```bash\n   python3 -m venv .venv\n   source .venv\u002Fbin\u002Factivate  # Windows 用户请使用: .venv\\Scripts\\activate\n   ```\n\n3. **安装依赖**\n   ```bash\n   poetry install --with dev\n   ```\n   > *注：若未安装 Poetry，请先运行 `curl -sSL https:\u002F\u002Finstall.python-poetry.org | python3 -` 进行安装。*\n\n4. **配置 API Key**\n   在项目根目录下创建 `.streamlit` 文件夹，并在其中新建 `secrets.toml` 文件：\n   ```bash\n   mkdir -p .streamlit\n   touch .streamlit\u002Fsecrets.toml\n   ```\n   编辑 `.streamlit\u002Fsecrets.toml`，填入你的 OpenAI Key：\n   ```toml\n   openai_key = \"\u003Cyour_openai_key>\"\n   ```\n\n## 基本使用\n\n1. **启动应用**\n   在终端运行以下命令启动 Streamlit 服务：\n   ```bash\n   streamlit run 1_🏠_Home.py\n   ```\n   浏览器将自动打开本地页面（通常为 `http:\u002F\u002Flocalhost:8501`）。\n\n2. **构建 RAG 流水线（Home Page）**\n   - **描述数据源**：输入本地文件路径或网页 URL（目前支持单个本地文件或网页）。\n   - **描述任务**：用自然语言说明需求（例如：“加载这个网页并回答相关问题”），系统将据此生成 System Prompt。\n   - **定义参数**：简要说明期望的检索行为（例如：“我想检索前 3 个文档”）。\n   - 点击提交，等待\"Builder Agent\"自动生成配置。\n\n3. **调整配置（可选）**\n   切换到 **⚙️ RAG Config** 页面，查看或手动修改生成的参数（如 Top-K、Chunk Size、模型选择等）。如有修改，点击 **Update Agent** 按钮生效。\n\n4. **开始问答**\n   进入 **Generated RAG Agent** 页面，在聊天框中输入问题。系统将自动调用检索工具（向量搜索或摘要生成）并基于你的数据返回答案。\n\n> **注意**：若升级版本后启动报错，请尝试删除用户主目录下的 `cache` 文件夹以清除旧版缓存数据。","某初创公司的产品分析师需要快速构建一个能回答内部技术文档问答的智能助手，以便团队高效检索分散在 Wiki 网页和本地 PDF 中的架构规范。\n\n### 没有 rags 时\n- **开发门槛高**：分析师必须手动编写 Python 代码来串联数据加载、文本分块、向量化及大模型调用等复杂流程，耗时数天。\n- **参数调优困难**：调整检索数量（Top-K）或分块大小（Chunk Size）等关键参数需要反复修改代码并重新运行脚本，试错成本极高。\n- **灵活度不足**：一旦数据源从本地文件切换为在线网页，或需要增加摘要功能，就必须重构整个数据处理管道。\n- **依赖专业开发**：非技术背景的领域专家无法独立定制专属知识库机器人，必须排队等待工程师排期支持。\n\n### 使用 rags 后\n- **自然语言构建**：分析师只需输入“加载这个 Wiki 页面并回答架构问题”，rags 即可自动完成全流程搭建，将部署时间缩短至几分钟。\n- **可视化即时调优**：在配置界面可直接查看并手动微调系统提示词、Top-K 值及是否启用摘要，无需触碰一行代码即可验证效果。\n- **动态适应场景**：通过对话随时更改数据源类型或切换底层大模型（如从 OpenAI 切至 Anthropic），rags 会自动更新代理配置。\n- **赋能业务人员**：产品经理和运营人员也能利用自然语言指令，自主为不同项目快速生成专用的数据问答机器人。\n\nrags 通过将复杂的 RAG 流水线构建过程转化为自然语言交互，让非开发人员也能零代码门槛地拥有定制化企业级知识助手。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Frun-llama_rags_7d8c60db.png","run-llama","LlamaIndex","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Frun-llama_725504c7.png","",null,"llama_index","https:\u002F\u002Fllamaindex.ai","https:\u002F\u002Fgithub.com\u002Frun-llama",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.8,{"name":89,"color":90,"percentage":91},"Makefile","#427819",0.2,6532,662,"2026-04-04T19:08:14","MIT","未说明",{"notes":98,"python":99,"dependencies":100},"默认使用 OpenAI API，需在 ~\u002F.streamlit\u002Fsecrets.toml 中配置 openai_key。支持通过自然语言或手动配置切换 LLM（OpenAI, Anthropic, Replicate, HuggingFace）和嵌入模型。若升级版本后启动失败，需删除主目录下的 cache 文件夹。主要依赖管理工具为 Poetry。","3.x (建议使用虚拟环境)",[101,80,102],"streamlit","poetry",[26,13,15],[105,106,107,108,109,110,111,112,101],"agent","chatbot","chatgpt","gpts","llamaindex","llm","openai","rag","2026-03-27T02:49:30.150509","2026-04-06T07:12:42.908493",[116,121,126,131,136,141],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},10264,"什么是 RAG，为什么需要它？","RAG（检索增强生成）是一种结合检索系统和生成模型的技术。它允许模型在生成回答之前先从外部知识库中检索相关信息，从而提高回答的准确性和相关性，减少幻觉。具体优势需参考项目文档或相关技术文章。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F35",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},10265,"如何配置以支持 Azure OpenAI 端点？","可以使用 LlamaIndex 内置的 Azure OpenAI 集成。你需要导入相应的模块：\nfrom llama_index.llms import AzureOpenAI\n具体配置方法可以参考 LlamaIndex 官方文档中关于 Azure OpenAI 的部分：https:\u002F\u002Fdocs.llamaindex.ai\u002Fen\u002Fstable\u002Fexamples\u002Fllm\u002Fazure_openai.html","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F55",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},10266,"Agent 创建后无法回答关于 PDF 文件的问题怎么办？","这通常是由于文件名包含空格导致的解析错误。请尝试将 PDF 文件重命名为不含空格的友好名称（例如：llama2_paper.pdf），然后重新上传或刷新 Agent 配置。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F9",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},10267,"运行时报错提示找不到 .streamlit\u002Fsecrets.toml 文件，应该放在哪里？","这里的 'home folder' 指的是项目的根目录（即 'rags' 文件夹）。你需要在该目录下创建 .streamlit 文件夹，并将 secrets.toml 文件放置其中。完整路径应为：rags\u002F.streamlit\u002Fsecrets.toml。此外，如果配置无误仍报错，可能是 OpenAI API 服务暂时不可用。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F5",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},10268,"更新 Agent 时勾选“包含摘要”选项导致报错或 Agent 被删除如何解决？","该问题在最新版本中已修复。如果仍然遇到类似情况，请确保：1. 已正确加载 OpenAI API Key；2. 修改配置后确实点击了“更新代理（Update Agent）”按钮。如果界面状态刷新后重置，可以尝试直接在对话中指令 Agent：“Please 'Include Summarization' for this agent.”","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F53",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},10269,"安装依赖后运行 streamlit 提示 'command not found' 怎么办？","如果你使用 Poetry 管理依赖，streamlit 命令可能未添加到系统 PATH 中。请尝试使用 'poetry run streamlit run ...' 来启动应用，或者激活 Poetry 虚拟环境后再运行 streamlit 命令。","https:\u002F\u002Fgithub.com\u002Frun-llama\u002Frags\u002Fissues\u002F43",[]]