[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-logan-markewich--llama_index_starter_pack":3,"tool-logan-markewich--llama_index_starter_pack":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",150037,2,"2026-04-10T23:33:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":75,"owner_url":80,"languages":81,"stars":109,"forks":110,"last_commit_at":111,"license":112,"difficulty_score":113,"env_os":114,"env_gpu":115,"env_ram":115,"env_deps":116,"category_tags":124,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":125,"updated_at":126,"faqs":127,"releases":157},5001,"logan-markewich\u002Fllama_index_starter_pack","llama_index_starter_pack","This repository provides very basic flask, streamlit, and docker examples for the llama_index (fka gpt_index) package","llama_index_starter_pack 是一个专为 Llama Index 库设计的快速启动工具包，旨在帮助开发者零门槛构建基于大语言模型的应用原型。它解决了从零搭建演示环境时配置繁琐、依赖复杂的问题，让用户能迅速将想法转化为可运行的代码实例，非常适合需要向团队展示概念验证（POC）的开发者或技术研究人员。\n\n该工具包提供了多种主流技术栈的示例，包括结合 React 前端的 Flask 后端应用，以及三个功能各异的 Streamlit 演示：基础的向量索引问答、基于本地 SQL 数据库的 Text2SQL 智能查询，以及从文档中提取术语定义的知识库构建。其独特亮点在于不仅涵盖了文件上传、索引管理及并发锁机制等后端核心逻辑，还预置了 Docker 配置文件，支持一键容器化部署，极大降低了环境配置难度。无论是想快速上手 Llama Index 的 Python 开发者，还是希望探索 AI 应用边界的工程师，都能通过此工具包获得清晰的技术参考和实用的起步代码。","# llama_index_starter_pack\nThis repository provides very basic flask, [Streamlit](https:\u002F\u002Fllama-index.streamlit.app\u002F), and docker examples for the [llama_index](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index) package.\n\nIf you need to quickly create a POC to impress your boss, start here!\n\nIf you are having trouble with dependencies, I dump my entire env into `requirements_full.txt`, but otherwise, use the base `requirements.txt`.\n\nThe basic demo includes the classic \"Paul Graham Essay\" from the original llama_index repo. Some good starting questions are\n- What did the author do growing up?\n- Tell me more about interleaf\n\n\n## Local Setup\n```\nconda create --name llama_index python=3.11\npip install -r requirements.txt\n```\n\n\n## What is included?\nThere are two main example folders\n- flask_react (runs three services on localhost:5601\u002F5602\u002F3000)\n  - `sh launch_app.sh `\n  - creates a simple api that loads the text from the documents folder (if any), also launches the react frontend\n  - the \"\u002Fquery\" endpoint accepts requests that contain a \"text\" parameter, which is used to query the index\n  - the \"\u002Fupload\" endpoint is a POST endpoint that inserts an attached text file into the index\n  - the index is managed by a seperate server using locks, since inserting a document is a mutable operation and flask is multithreaded\n  - I strongly recommend using a tool like [Postman](https:\u002F\u002Fwww.postman.com\u002Fdownloads\u002F) to test the api - there are example screenshots using postman in the `postman_examples` folder\n  - react_frontend\n    - A basic frontend using react, which calls the flask_api to insert, view, and query a VectorStoreIndex\n    - The scope for a frontend is basically limitless - this is intended to give a small taste of what's possible for users less familiar with python\n\n\n![react_frontend screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogan-markewich_llama_index_starter_pack_readme_db01ed674c79.png)\n\n\n- streamlit_vector (runs on localhost:8501)\n  - `streamlit run streamlit_demo.py`\n  - creates a simple UI using streamlit and VectorStoreIndex\n  - loads text from the documents folder (using `st.cache_resource`, so it only loads once)\n  - provides an input text-box and a button to run the query\n  - the string response is displayed after it finishes\n\n- streamlit_sql_sandbox (runs on localhost:8501)\n  - `streamlit run streamlit_demo.py`\n  - creates a streamlit app using a local SQL database about restaurant inspections in San Francisco ([data sample](https:\u002F\u002Fdocs.google.com\u002Fspreadsheets\u002Fd\u002F1Ag5DBIviYiuRrt2yr3nXmbPFV-FOg5fDH5SM3ZEDnpw\u002Fedit#gid=780513932))\n  - The \"Setup\" tab allows you to configure various LLM and LLama Index settings\n  - The \"\"Single-Shot Query\" tab demos some basic Text2SQL capabilities using only Llama Index\n  - The \"\"Agent + Chat History\" tab uses a llamaindex agent, and uses the SQL index from Llama Index as a tool during conversations.\n\n- streamlit_term_definition (runs on localhost:8501)\n  - `streamlit run streamlit_demo.py`\n  - creates a small app that allows users to extract terms\u002Fdefinitions from documents and query against the extracted information\n  - pre-loaded with information from the NYC Wikipedia page\n  - supports reading text from image uploads\n  - allows users to configure LLM settings\n  - users can build their own knowledge base of terms\u002Fdefinitions\n  - query against these terms as they are added\n\n## Docker\nEach example contains a `Dockerfile`. You can run `docker build -t my_tag_name .` to build a python3.11-slim docker image inside your desired folder. It ends up being about 600MB-900MB depending on the example.\n\nInside the `Dockerfile`, certain ports are exposed based on which ports the examples need.\n\nWhen running the image, be sure to include the -p option to access the proper ports (8501, 5601, or 3000).\n\n\n## Contributing\n\nI welcome any suggestions or PRs, or more examples!\n","# llama_index_starter_pack\n此仓库提供了针对 [llama_index](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index) 包的非常基础的 Flask、[Streamlit](https:\u002F\u002Fllama-index.streamlit.app\u002F) 和 Docker 示例。\n\n如果你需要快速搭建一个 POC 来给老板留下深刻印象，就从这里开始吧！\n\n如果在依赖安装上遇到问题，我已将完整的环境导出到 `requirements_full.txt` 中；否则，请使用基础的 `requirements.txt`。\n\n基础演示包含了来自原始 llama_index 仓库的经典“Paul Graham 论文”。一些不错的初始问题包括：\n- 作者小时候都做了些什么？\n- 能多介绍一下 interleaf 吗？\n\n\n## 本地设置\n```\nconda create --name llama_index python=3.11\npip install -r requirements.txt\n```\n\n\n## 包含哪些内容？\n主要有两个示例文件夹：\n- flask_react（在 localhost:5601\u002F5602\u002F3000 上运行三个服务）\n  - `sh launch_app.sh`\n  - 创建一个简单的 API，从 documents 文件夹加载文本（如果有），同时启动 React 前端。\n  - “\u002Fquery” 端点接受包含 “text” 参数的请求，该参数用于查询索引。\n  - “\u002Fupload” 端点是一个 POST 端点，用于将附带的文本文件插入索引中。\n  - 索引由一个独立的服务管理，并使用锁机制，因为插入文档是可变操作，而 Flask 是多线程的。\n  - 强烈建议使用 [Postman](https:\u002F\u002Fwww.postman.com\u002Fdownloads\u002F) 等工具来测试 API——`postman_examples` 文件夹中有使用 Postman 的示例截图。\n  - react_frontend\n    - 一个基于 React 的简单前端，调用 Flask API 来插入、查看和查询 VectorStoreIndex。\n    - 前端的扩展空间几乎是无限的——此处旨在为不熟悉 Python 的用户提供一个初步的体验。\n\n\n![react_frontend 截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogan-markewich_llama_index_starter_pack_readme_db01ed674c79.png)\n\n\n- streamlit_vector（在 localhost:8501 上运行）\n  - `streamlit run streamlit_demo.py`\n  - 使用 Streamlit 和 VectorStoreIndex 构建了一个简单的 UI。\n  - 从 documents 文件夹加载文本（使用 `st.cache_resource`，因此只加载一次）。\n  - 提供一个输入框和一个按钮来执行查询。\n  - 查询完成后会显示字符串响应。\n\n- streamlit_sql_sandbox（在 localhost:8501 上运行）\n  - `streamlit run streamlit_demo.py`\n  - 构建了一个 Streamlit 应用程序，使用关于旧金山餐厅检查的本地 SQL 数据库（[数据样本](https:\u002F\u002Fdocs.google.com\u002Fspreadsheets\u002Fd\u002F1Ag5DBIviYiuRrt2yr3nXmbPFV-FOg5fDH5SM3ZEDnpw\u002Fedit#gid=780513932)）。\n  - “Setup” 选项卡允许配置各种 LLM 和 Llama Index 设置。\n  - “Single-Shot Query” 选项卡仅使用 Llama Index 演示了一些基本的 Text2SQL 功能。\n  - “Agent + Chat History” 选项卡则使用 Llama Index 代理，并将 Llama Index 中的 SQL 索引作为对话中的工具。\n\n- streamlit_term_definition（在 localhost:8501 上运行）\n  - `streamlit run streamlit_demo.py`\n  - 创建了一个小型应用，允许用户从文档中提取术语\u002F定义，并对提取的信息进行查询。\n  - 预先加载了纽约市维基百科页面的相关信息。\n  - 支持读取上传图片中的文本。\n  - 允许用户配置 LLM 设置。\n  - 用户可以构建自己的术语\u002F定义知识库，并随着添加的内容进行查询。\n\n## Docker\n每个示例都包含一个 `Dockerfile`。你可以运行 `docker build -t my_tag_name .` 在目标文件夹内构建一个 python3.11-slim 的 Docker 镜像。最终镜像大小约为 600MB 至 900MB，具体取决于示例。\n\n在 `Dockerfile` 中，根据示例所需的端口暴露了相应的端口。\n\n运行镜像时，请务必使用 `-p` 选项以访问正确的端口（8501、5601 或 3000）。\n\n\n## 贡献\n\n欢迎提出任何建议或 PR，也欢迎提供更多示例！","# llama_index_starter_pack 快速上手指南\n\n`llama_index_starter_pack` 是一个专为快速构建 LlamaIndex 概念验证（POC）设计的开源工具包。它提供了基于 Flask+React、Streamlit 以及 Docker 的多种示例，帮助开发者快速搭建文档问答、SQL 查询及术语提取等应用。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL2 推荐)\n*   **Python 版本**：3.11 (官方示例基于此版本)\n*   **包管理工具**：推荐使用 `conda` 进行环境隔离，或使用 `pip`\n*   **可选工具**：\n    *   **Docker**：用于容器化部署\n    *   **Postman**：用于测试 Flask API 接口\n    *   **Node.js**：仅在使用 `flask_react` 示例时需要（用于运行前端）\n\n> **国内加速建议**：\n> 安装依赖时，建议使用国内镜像源以提升下载速度：\n> ```bash\n> pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n### 1. 克隆项目\n首先获取源代码：\n```bash\ngit clone \u003Crepository_url>\ncd llama_index_starter_pack\n```\n\n### 2. 创建虚拟环境\n推荐使用 conda 创建独立的 Python 3.11 环境：\n```bash\nconda create --name llama_index python=3.11\nconda activate llama_index\n```\n\n### 3. 安装依赖\n根据需求选择安装基础依赖或完整依赖：\n*   **基础安装**（推荐，体积更小）：\n    ```bash\n    pip install -r requirements.txt\n    ```\n*   **完整安装**（若遇到依赖缺失问题，使用此文件）：\n    ```bash\n    pip install -r requirements_full.txt\n    ```\n\n## 基本使用\n\n本工具包包含多个示例文件夹，以下是两种最常用场景的快速启动方式。\n\n### 场景一：使用 Streamlit 快速构建对话界面\n这是最简单的上手方式，无需配置前端，直接运行即可体验向量检索功能。\n\n1.  **进入示例目录**：\n    ```bash\n    cd streamlit_vector\n    ```\n2.  **启动应用**：\n    ```bash\n    streamlit run streamlit_demo.py\n    ```\n3.  **使用方法**：\n    *   浏览器自动打开 `http:\u002F\u002Flocalhost:8501`。\n    *   系统会自动加载 `documents` 文件夹下的文本（默认包含 \"Paul Graham Essay\"）。\n    *   在输入框中输入问题（例如：`What did the author do growing up?`），点击按钮即可查看 AI 基于文档生成的回答。\n\n> **其他 Streamlit 示例**：\n> *   `streamlit_sql_sandbox`：演示基于本地 SQL 数据库的 Text-to-SQL 查询。\n> *   `streamlit_term_definition`：演示从文档中提取术语定义并建立知识库。\n> *   启动命令同上，只需切换目录即可。\n\n### 场景二：使用 Flask + React 构建全栈应用\n适合需要自定义前后端交互或测试 API 的开发者。\n\n1.  **进入示例目录**：\n    ```bash\n    cd flask_react\n    ```\n2.  **一键启动服务**：\n    运行脚本将同时启动后端 API 服务和前端 React 界面：\n    ```bash\n    sh launch_app.sh\n    ```\n3.  **访问服务**：\n    *   **前端界面**：访问 `http:\u002F\u002Flocalhost:3000`\n    *   **后端 API**：运行在 `localhost:5601` 和 `localhost:5602`\n4.  **API 测试**：\n    *   `\u002Fquery` (GET): 传入 `text` 参数进行检索。\n    *   `\u002Fupload` (POST): 上传文本文件以更新索引。\n    *   建议使用 `postman_examples` 文件夹中的配置配合 Postman 进行测试。\n\n### 场景三：使用 Docker 部署\n如果您希望避免本地环境配置问题，可以使用 Docker。\n\n1.  **进入任意示例文件夹**（如 `streamlit_vector`）。\n2.  **构建镜像**：\n    ```bash\n    docker build -t my_llama_app .\n    ```\n3.  **运行容器**：\n    注意通过 `-p` 映射端口（Streamlit 默认为 8501，Flask 为 5601\u002F3000）：\n    ```bash\n    docker run -p 8501:8501 my_llama_app\n    ```","某初创公司的数据分析师需要在一天内向管理层演示一个基于内部文档的智能问答原型，以验证检索增强生成（RAG）技术的可行性。\n\n### 没有 llama_index_starter_pack 时\n- **环境配置耗时**：需手动解决 LlamaIndex 复杂的依赖冲突，往往花费数小时安装库而非编写业务逻辑。\n- **前端开发受阻**：为了展示效果，必须额外搭建 React 或 Flask 后端及前端界面，偏离了验证核心算法的初衷。\n- **缺乏标准示例**：面对陌生的向量索引和 SQL 查询功能，找不到可立即运行的参考代码，难以快速上手。\n- **部署流程繁琐**：将本地脚本转化为可演示的服务需要手动编写 Dockerfile 并配置端口映射，容易出错。\n\n### 使用 llama_index_starter_pack 后\n- **一键启动环境**：直接利用预置的 `requirements.txt` 或完整环境包，几分钟内即可在本地跑通包含“保罗·格雷厄姆文章”的标准 Demo。\n- **现成交互界面**：直接运行 Streamlit 或 Flask+React 示例，立刻获得具备文件上传、术语提取及 Text2SQL 功能的可视化 UI。\n- **场景化代码参考**：内置的餐厅检查数据库 SQL 沙盒和术语定义提取器，为处理特定业务数据提供了清晰的修改模板。\n- **容器化就绪**：每个示例均包含优化好的 Dockerfile，只需一条命令即可构建镜像并暴露端口，方便在任何机器上演示。\n\nllama_index_starter_pack 通过提供“开箱即用”的全栈示例，将原本需要数天的原型开发工作压缩至几小时，让开发者能专注于业务逻辑验证而非基础设施搭建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flogan-markewich_llama_index_starter_pack_db01ed67.png","logan-markewich","Logan","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flogan-markewich_a0bf0d77.png",null,"LlamaIndex","Saskatoon, Saskatchewan","logan.markewich@live.com","LoganMarkewich","https:\u002F\u002Fgithub.com\u002Flogan-markewich",[82,86,90,94,98,102,106],{"name":83,"color":84,"percentage":85},"Python","#3572A5",61.3,{"name":87,"color":88,"percentage":89},"TypeScript","#3178c6",21.6,{"name":91,"color":92,"percentage":93},"SCSS","#c6538c",11,{"name":95,"color":96,"percentage":97},"HTML","#e34c26",3.2,{"name":99,"color":100,"percentage":101},"Dockerfile","#384d54",1.5,{"name":103,"color":104,"percentage":105},"Shell","#89e051",0.7,{"name":107,"color":108,"percentage":105},"CSS","#663399",632,187,"2026-04-06T13:56:25","MIT",4,"Linux, macOS, Windows","未说明",{"notes":117,"python":118,"dependencies":119},"建议使用 conda 创建名为 'llama_index' 的虚拟环境。若遇到依赖问题，可使用提供的 requirements_full.txt 安装完整依赖包。Docker 镜像大小约为 600MB-900MB。Flask+React 示例需占用端口 5601、5602 和 3000；Streamlit 示例需占用端口 8501。","3.11",[120,121,122,123],"flask","streamlit","llama_index","react (frontend)",[35,14],"2026-03-27T02:49:30.150509","2026-04-11T18:45:05.051896",[128,133,138,143,148,153],{"id":129,"question_zh":130,"answer_zh":131,"source_url":132},22731,"在 Windows 上运行 Flask 示例时遇到 'OSError: [WinError 10049] The requested address is not valid in its context' 错误，如何解决？","这是因为 BaseManager 默认绑定的空字符串地址在 Windows 上无效。请修改代码中的 BaseManager 初始化部分，将主机地址从空字符串 '' 改为 '127.0.0.1'。例如：将 `BaseManager(('', 5602), b'password')` 修改为 `BaseManager(('127.0.0.1', 5602), b'password')`。另外，也可以尝试在 flask_demo.py 中将 host 参数从 \"0.0.0.0\" 改为 \"localhost\" 或直接移除 host 参数。","https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fissues\u002F4",{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},22732,"Q&A 过程中似乎存在缓存问题，删除文件并重启后仍返回旧文件的回答，如何修复？","这是一个已知问题，已在最近的更新中修复。请克隆仓库的最新版本代码即可解决该问题。具体的修复提交可以参考：https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fcommit\u002Fb1e1f7c54f97c021f5a85248d467f3323f661d1a","https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fissues\u002F7",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},22733,"OpenAI API Key 配置无效，报错 'Incorrect API key provided' 但确认密钥正确，怎么办？","如果环境变量配置不起作用，建议尝试以下步骤：1. 删除整个仓库并重新克隆，以排除本地配置干扰；2. 暂时将 API Key 直接硬编码到 index_server.py 脚本中进行测试；3. 运行一个简单的测试脚本来验证环境是否正常（导入 os 设置 OPENAI_API_KEY，然后实例化 GPTSimpleVectorIndex）；4. 如果以上都不行，彻底删除虚拟环境（venv）并使用 poetry 或其他工具重新创建环境。","https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fissues\u002F10",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},22734,"使用 conda 或 mamba 安装依赖时，提示找不到特定版本的 langchain 或 llama-index 包，如何解决？","requirements.txt 中指定的某些旧版本包可能在当前的 conda 通道中已不存在或不兼容。建议尝试更新 llama-index 的版本号，或者直接使用 pip 在虚拟环境中安装依赖，而不是通过 conda\u002Fmamba 解析 requirements.txt 文件。","https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fissues\u002F22",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},22735,"无法启动 Flask 后端服务 (index_server.py)，安装依赖后仍报错，如何排查？","此类问题通常与环境配置有关。建议尝试更换一台机器或在干净的环境中重试。如果问题依旧，请检查 Python 版本是否与项目要求一致（如 python=3.11），并尝试完全重置环境：删除现有的虚拟环境，重新创建，并确保所有依赖项都正确安装。维护者曾建议录制操作视频以便复现，这通常意味着问题可能出在特定的系统配置或操作步骤遗漏上。","https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fissues\u002F23",{"id":154,"question_zh":155,"answer_zh":156,"source_url":147},22736,"Streamlit 应用中遇到 'CacheKeyNotFoundError' 运行时错误，该如何处理？","该错误通常发生在 Streamlit 的缓存机制无法找到预期的缓存结果时。虽然具体上下文被截断，但通用的解决方法包括：清除 Streamlit 的缓存（通常在侧边栏点击 'Clear cache' 或重启应用时加上 --clear_cache 标志），或者检查导致缓存生成的函数（如 ImageReader 加载部分）是否发生了变更或抛出了未捕获的异常，导致缓存键生成失败。",[158,163,168,173,178,183,188,193,197,202],{"id":159,"version":160,"summary_zh":161,"released_at":162},136442,"v0.8.0","这件事早就该做了！我一直在看到大家给这个仓库加星，于是我就承担起了主要工作，将其升级到 llama-index 的最新版本：\n- 更新了依赖项，以利用 llama-index 的模块化依赖结构；\n- 将 Streamlit 的用法更新为使用 `st.chat_message()`；\n- 进一步优化了 Streamlit 的用法，突出显示流式输出。","2024-08-28T03:19:20",{"id":164,"version":165,"summary_zh":166,"released_at":167},136443,"v0.7.0","将所有 llama-index 的使用更新为使用库版本 v0.6.13。","2023-05-29T22:33:59",{"id":169,"version":170,"summary_zh":171,"released_at":172},136444,"v0.6.0","新增了一个演示！\r\n\r\n看看如何利用 Llama Index 和 Streamlit 从文本中提取术语和定义、构建属于你自己的知识库，并对其进行查询。请前往 `streamlit_term_definition` 演示文件夹查看新代码。\n\n完整的教程请参见[这里](https:\u002F\u002Fgpt-index.readthedocs.io\u002Fen\u002Flatest\u002Fguides\u002Ftutorials\u002Fterms_definitions_tutorial.html)！\r\n\r\n此外，Hugging Face 上的托管演示[在这里](https:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fllamaindex\u002Fllama_index_term_definition_demo)！","2023-04-07T04:34:12",{"id":174,"version":175,"summary_zh":176,"released_at":177},136445,"v0.5.2","本次更新将所有 Llama Index 的用法迁移至与 0.5.x 版本中引入的新接口和对象相匹配的模式。\n\n此外，自述文件现在还链接到了由 Hugging Face Spaces 提供支持的 Streamlit 演示托管版本！\n\nhttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fllamaindex\u002Fllama_index_sql_sandbox\n\nhttps:\u002F\u002Fhuggingface.co\u002Fspaces\u002Fllamaindex\u002Fllama_index_vector_demo","2023-04-02T03:31:56",{"id":179,"version":180,"summary_zh":181,"released_at":182},136446,"v0.5.1","仅来自社区的几处 bug 修复：\n- @leo4stone 修复了 TypeScript 查询 API 调用中的一个小 bug！（感谢 @Lufffya 的协助调试！）https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fpull\u002F6\n- @ZhangBohan 修复了使用 pickle 时的一个小 bug https:\u002F\u002Fgithub.com\u002Flogan-markewich\u002Fllama_index_starter_pack\u002Fpull\u002F8\n","2023-03-31T04:01:11",{"id":184,"version":185,"summary_zh":186,"released_at":187},136447,"v0.5.0","全新演示上线！Streamlit SQL 沙箱来了！\n\nLlama Index 中的 SQL 索引是一项强大的功能，而这个演示仅仅触及了它的冰山一角。\n\n该演示使用了一个包含三张表的示例数据库，分别记录旧金山餐厅的业务详情、卫生检查结果以及违规记录。借助 Llama Index 工具包，您的大语言模型能够理解这套 SQL 数据库，并跨多张表构建查询。\n\n此演示提供以下功能：\n- 配置您的大语言模型参数\n- 为 SQL 表配置上下文描述\n- 配置 LangChain 工具的描述\n- 测试 Llama Index 的 Text2SQL 能力\n- 在 LangChain 中测试由 Llama Index 提供支持的自定义 SQL 代理\u002F工具！\n\n目前还有一些待完成的工作，但未来我计划集成 [GuardRails](https:\u002F\u002Fgithub.com\u002FShreyaR\u002Fguardrails)，以确保生成的 SQL 语句有效 💪🏻\n\n![image](https:\u002F\u002Fuser-images.githubusercontent.com\u002F22285038\u002F228049421-51b8dceb-0d52-4068-814f-afa18342c568.png)","2023-03-27T19:45:39",{"id":189,"version":190,"summary_zh":191,"released_at":192},136448,"v0.4.1","本次发布新增了一个使用现有 Flask API 示例的 React 前端示例。\n\n虽然 LlamaIndex 前端的扩展空间无限，但该前端目前包含以下功能：\n- 将文档上传至 GPTSimpleVectorIndex 索引\n- 查看索引中已包含哪些文档\n- 对索引进行查询\n- 查看查询响应的来源及相似度！\n- 支持 Docker！","2023-03-19T04:18:10",{"id":194,"version":195,"summary_zh":75,"released_at":196},136449,"v0.3.0.post1","2023-03-09T04:55:06",{"id":198,"version":199,"summary_zh":200,"released_at":201},136450,"v0.3.0","新的仓库结构旨在方便未来的示例，同时 Flask 示例也进行了几项酷炫的更新！\n\n- Flask 示例现在包含一个 `upload` 端点。\n- Flask 示例为首页请求启用了独立的服务器，并使用锁机制来确保数据插入的安全性（记住，Flask 是多线程的！）。\n- 附带了针对 Flask API 的 Postman 示例。","2023-03-09T04:52:03",{"id":203,"version":204,"summary_zh":205,"released_at":206},136451,"v0.2.0","（几乎）初始版本。包含一些有用的起点，可用于启动 llama_index 应用程序的开发：\n- Flask 示例\n- Streamlit 示例（附带实时部署链接，感谢 @tylerjrichards！）\n- Dockerfile 示例","2023-03-06T19:44:47"]