[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ragapp--ragapp":3,"tool-ragapp--ragapp":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":67,"owner_name":67,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":77,"owner_email":77,"owner_twitter":77,"owner_website":77,"owner_url":78,"languages":79,"stars":107,"forks":108,"last_commit_at":109,"license":110,"difficulty_score":23,"env_os":111,"env_gpu":112,"env_ram":113,"env_deps":114,"category_tags":124,"github_topics":125,"view_count":23,"oss_zip_url":77,"oss_zip_packed_at":77,"status":16,"created_at":132,"updated_at":133,"faqs":134,"releases":165},3699,"ragapp\u002Fragapp","ragapp","The easiest way to use Agentic RAG in any enterprise","ragapp 是一款旨在让企业轻松落地“代理式检索增强生成（Agentic RAG）”的开源工具。它解决了传统 RAG 系统配置复杂、部署门槛高以及难以在私有云环境中安全运行的痛点。通过提供类似 OpenAI 自定义 GPTs 的简易配置体验，ragapp 让用户无需深厚的底层架构知识，即可快速构建基于自有数据的智能问答应用。\n\n这款工具特别适合希望将 AI 能力集成到内部系统的企业开发者、运维工程师以及技术团队。其核心亮点在于兼顾了易用性与数据主权：一方面，它基于强大的 LlamaIndex 框架开发，支持接入 OpenAI、Gemini 等云端模型，也能通过 Ollama 运行本地模型；另一方面，它原生支持 Docker 和 Kubernetes 部署，允许企业将完整的应用程序托管在自己的云基础设施中，确保数据不出域。此外，ragapp 内置了直观的管理后台和聊天界面，并预留了与 API 网关集成的认证接口，方便企业根据现有安全策略进行权限管控。无论是想快速验证概念的原型开发，还是构建生产级的企业内部知识库，ragapp 都提供了一个灵活且高效的解决方案。","\u003Cp align=\"center\">\u003Cimg alt=\"Logo - RAGapp\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_32628e3be935.png\">\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>The easiest way to use Agentic RAG in any enterprise.\u003C\u002Fstrong>\u003C\u002Fp>\n\n\u003Cp align=\"center\">As simple to configure as \u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpts\" target=\"_blank\">OpenAI's custom GPTs\u003C\u002Fa>, but deployable in your own cloud infrastructure using Docker. Built using \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index\">LlamaIndex\u003C\u002Fa>.\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#get-started\">\u003Cstrong>Get Started\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#endpoints\">\u003Cstrong>Endpoints\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#deployment\">\u003Cstrong>Deployment\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#contact\">\u003Cstrong>Contact\u003C\u002Fstrong>\u003C\u002Fa> \n\u003C\u002Fp>\n\n\u003Cbr\u002F>\n\u003Cimg alt=\"Screenshot\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_f6d39bd1093a.png\">\n\n## Get Started\n\nTo run, start a docker container with our image:\n\n```shell\ndocker run -p 8000:8000 ragapp\u002Fragapp\n```\n\nThen, access the Admin UI at http:\u002F\u002Flocalhost:8000\u002Fadmin to configure your RAGapp.\n\nYou can use hosted AI models from OpenAI or Gemini, and local models using [Ollama](https:\u002F\u002Follama.com\u002F).\n\n> _Note_: To avoid [running into any errors](https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F22), we recommend using the latest version of Docker and (if needed) Docker Compose.\n\n## Endpoints\n\nThe docker container exposes the following endpoints:\n\n- Admin UI: http:\u002F\u002Flocalhost:8000\u002Fadmin\n- Chat UI: http:\u002F\u002Flocalhost:8000\n- API: http:\u002F\u002Flocalhost:8000\u002Fdocs\n\n> _Note_: The Chat UI and API are only functional if the RAGapp is configured.\n\n## Security\n\n### Authentication\n\nJust the RAGapp container doesn't come with any authentication layer by design. This is the task\nof an API Gateway routing the traffic to RAGapp.\nThis step heavily depends on your cloud provider and the services you use.\nFor a pure Docker Compose environment, you can look at our [RAGapp with management UI](.\u002Fdeployments\u002Fmultiple-ragapps) deployment.\n\n### Authorization\n\nLater versions of RAGapp will support restricting access based on access tokens forwarded from an API Gateway or similar.\n\n## Deployment\n\n### Using Docker Compose\n\nYou can easily deploy RAGapp to your own infrastructure with one of these Docker Compose deployments:\n\n1. [RAGapp with Ollama and Qdrant](.\u002Fdeployments\u002Fsingle)\n2. [Multiple RAGapps with a management UI](.\u002Fdeployments\u002Fmultiple-ragapps)\n\n### Kubernetes\n\nIt's easy to deploy RAGapp in your own cloud infrastructure. Customized K8S deployment descriptors are coming soon.\n\n## Development\n\n### RAGApp:\n\n> _Important_: Parts of this project's source code is dynamically retrieved from the [create-llama](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama) project. Before committing changes, make sure to update the source code by calling `make build-frontends`.\n\nMove to [src\u002Fragapp](src\u002Fragapp) directory and start with these commands:\n\n```shell\nexport ENVIRONMENT=dev\npoetry install --no-root\nmake build-frontends\nmake dev\n```\n\nThen, to check out the admin UI, go to http:\u002F\u002Flocalhost:3000\u002Fadmin.\n\n> _Note_: Make sure you have [Poetry](https:\u002F\u002Fpython-poetry.org\u002F) installed.\n\n## Contact\n\nQuestions, feature requests or found a bug? [Open an issue](https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002Fnew\u002Fchoose) or reach out to [marcusschiesser](https:\u002F\u002Fgithub.com\u002Fmarcusschiesser).\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_91868405b680.png)](https:\u002F\u002Fstar-history.com\u002F#ragapp\u002Fragapp&Date)\n","\u003Cp align=\"center\">\u003Cimg alt=\"Logo - RAGapp\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_32628e3be935.png\">\u003C\u002Fp>\n\n\u003Cp align=\"center\">\u003Cstrong>在任何企业中使用代理式 RAG 的最简单方式。\u003C\u002Fstrong>\u003C\u002Fp>\n\n\u003Cp align=\"center\">配置起来就像 \u003Ca href=\"https:\u002F\u002Fopenai.com\u002Findex\u002Fintroducing-gpts\" target=\"_blank\">OpenAI 的自定义 GPT\u003C\u002Fa> 一样简单，但可以使用 Docker 部署在您自己的云基础设施中。基于 \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fllama_index\">LlamaIndex\u003C\u002Fa> 构建。\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"#get-started\">\u003Cstrong>开始使用\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#endpoints\">\u003Cstrong>端点\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#deployment\">\u003Cstrong>部署\u003C\u002Fstrong>\u003C\u002Fa> ·\n  \u003Ca href=\"#contact\">\u003Cstrong>联系我们\u003C\u002Fstrong>\u003C\u002Fa> \n\u003C\u002Fp>\n\n\u003Cbr\u002F>\n\u003Cimg alt=\"截图\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_f6d39bd1093a.png\">\n\n## 开始使用\n\n要运行，请使用我们的镜像启动一个 Docker 容器：\n\n```shell\ndocker run -p 8000:8000 ragapp\u002Fragapp\n```\n\n然后，访问 http:\u002F\u002Flocalhost:8000\u002Fadmin 中的管理界面来配置您的 RAGapp。\n\n您可以使用 OpenAI 或 Gemini 的托管 AI 模型，也可以使用 [Ollama](https:\u002F\u002Follama.com\u002F) 提供的本地模型。\n\n> _注意_: 为了避免 [遇到任何错误](https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F22)，我们建议使用最新版本的 Docker 和（如果需要）Docker Compose。\n\n## 端点\n\nDocker 容器暴露以下端点：\n\n- 管理界面：http:\u002F\u002Flocalhost:8000\u002Fadmin\n- 聊天界面：http:\u002F\u002Flocalhost:8000\n- API：http:\u002F\u002Flocalhost:8000\u002Fdocs\n\n> _注意_: 聊天界面和 API 只有在 RAGapp 已经配置的情况下才会正常工作。\n\n## 安全性\n\n### 认证\n\nRAGapp 容器本身默认不包含任何认证层。这部分功能应由将流量路由到 RAGapp 的 API 网关来实现。这一步骤高度依赖于您的云服务提供商以及所使用的具体服务。对于纯 Docker Compose 环境，您可以参考我们的 [带有管理界面的 RAGapp](.\u002Fdeployments\u002Fmultiple-ragapps) 部署方案。\n\n### 授权\n\nRAGapp 的后续版本将支持根据从 API 网关或其他类似系统传递而来的访问令牌来限制访问权限。\n\n## 部署\n\n### 使用 Docker Compose\n\n您可以通过以下几种 Docker Compose 部署方式轻松地将 RAGapp 部署到您自己的基础设施中：\n\n1. [带有 Ollama 和 Qdrant 的 RAGapp](.\u002Fdeployments\u002Fsingle)\n2. [多个带有管理界面的 RAGapp](.\u002Fdeployments\u002Fmultiple-ragapps)\n\n### Kubernetes\n\n在您自己的云基础设施中部署 RAGapp 也非常容易。定制化的 K8S 部署描述文件即将推出。\n\n## 开发\n\n### RAGApp:\n\n> _重要_: 本项目的部分源代码是从 [create-llama](https:\u002F\u002Fgithub.com\u002Frun-llama\u002Fcreate-llama) 项目动态获取的。在提交更改之前，请务必通过运行 `make build-frontends` 来更新源代码。\n\n进入 [src\u002Fragapp](src\u002Fragapp) 目录，并执行以下命令：\n\n```shell\nexport ENVIRONMENT=dev\npoetry install --no-root\nmake build-frontends\nmake dev\n```\n\n然后，访问 http:\u002F\u002Flocalhost:3000\u002Fadmin 即可查看管理界面。\n\n> _注意_: 请确保已安装 [Poetry](https:\u002F\u002Fpython-poetry.org\u002F)。\n\n## 联系我们\n\n有任何问题、功能需求或发现 bug 吗？请 [新建一个 issue](https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002Fnew\u002Fchoose) 或联系 [marcusschiesser](https:\u002F\u002Fgithub.com\u002Fmarcusschiesser)。\n\n## 星标历史\n\n[![星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_readme_91868405b680.png)](https:\u002F\u002Fstar-history.com\u002F#ragapp\u002Fragapp&Date)","# RAGapp 快速上手指南\n\nRAGapp 是企业级 Agentic RAG（代理检索增强生成）的最简解决方案。它拥有类似 OpenAI 自定义 GPT 的简易配置体验，同时支持通过 Docker 部署在私有云基础设施中。本项目基于 LlamaIndex 构建。\n\n## 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**：Linux、macOS 或 Windows（需安装 WSL2）。\n*   **Docker**：必须安装最新版本的 Docker 和 Docker Compose，以避免潜在的兼容性错误。\n    *   国内用户建议使用 [Docker 国内镜像加速器](https:\u002F\u002Fdashboard.docker.com.cn\u002F) 配置。\n*   **可选模型源**：\n    *   **云端模型**：需准备 OpenAI API Key 或 Google Gemini API Key。\n    *   **本地模型**：如需在本地运行大模型，请预先安装 [Ollama](https:\u002F\u002Follama.com\u002F)（国内用户可参考相关镜像站或离线安装包）。\n\n## 安装步骤\n\n使用 Docker 一键启动 RAGapp 容器：\n\n```shell\ndocker run -p 8000:8000 ragapp\u002Fragapp\n```\n\n> **提示**：如果拉取镜像速度较慢，请检查是否已配置 Docker 镜像加速地址。\n\n## 基本使用\n\n1.  **访问管理后台**\n    容器启动后，在浏览器中打开以下地址进入配置界面：\n    http:\u002F\u002Flocalhost:8000\u002Fadmin\n\n2.  **配置 RAG 应用**\n    在 Admin UI 中完成以下设置：\n    *   选择 AI 模型提供商（OpenAI、Gemini 或通过 Ollama 连接的本地模型）。\n    *   上传知识库文档或配置数据源。\n    *   保存配置。\n\n3.  **开始对话**\n    配置完成后，即可通过以下方式使用：\n    *   **聊天界面**：访问 http:\u002F\u002Flocalhost:8000 进行对话测试。\n    *   **API 调用**：访问 http:\u002F\u002Flocalhost:8000\u002Fdocs 查看 Swagger API 文档并进行集成开发。\n\n> **注意**：若未完成 Admin UI 中的配置，聊天界面和 API 将无法正常工作。","某中型金融科技公司的合规团队急需构建一个内部知识库助手，以便员工能快速查询复杂的监管文档和内部政策，同时确保数据不出内网。\n\n### 没有 ragapp 时\n- **开发门槛高**：团队需手动搭建基于 LlamaIndex 的复杂后端，编写大量代码处理文档加载、切片及向量存储，耗时数周才能产出原型。\n- **部署运维难**：缺乏标准化的容器化方案，将 AI 应用迁移至公司私有云时，常因环境依赖冲突导致服务不稳定，且难以集成现有的 API 网关鉴权。\n- **模型切换僵化**：若想从测试用的本地 Ollama 模型切换到生产级的 OpenAI 或 Gemini 模型，需要修改核心代码并重新构建镜像，灵活性极差。\n- **缺乏管理界面**：非技术人员无法自行配置知识源或调整检索参数，每次更新文档都需开发人员介入，响应业务需求缓慢。\n\n### 使用 ragapp 后\n- **开箱即用**：通过一条 Docker 命令即可启动服务，利用内置的 Admin UI 像配置 Custom GPTs 一样简单上传文档并设定规则，半天内完成上线。\n- **原生私有化部署**：直接在公司内部的 Docker 或 Kubernetes 环境中运行，天然支持通过 API 网关统一接管认证与授权，完美满足金融级数据安全要求。\n- **灵活模型适配**：在管理界面中可一键切换托管模型（OpenAI\u002FGemini）或本地模型（Ollama），无需触碰代码即可根据成本与性能需求动态调整。\n- **自助式运营**：合规人员可直接通过 Web 界面更新监管文件或调整检索策略，大幅减少对开发资源的依赖，实现知识库的实时迭代。\n\nragapp 将原本需要全栈团队数周开发的 Agentic RAG 系统，简化为可通过 Docker 一键部署且具备可视化管理的企业级应用，极大降低了私有化 AI 落地的门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fragapp_ragapp_f6d39bd1.png","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fragapp_b583295a.png","",null,"https:\u002F\u002Fgithub.com\u002Fragapp",[80,84,88,92,95,99,103],{"name":81,"color":82,"percentage":83},"TypeScript","#3178c6",54.6,{"name":85,"color":86,"percentage":87},"Python","#3572A5",42.1,{"name":89,"color":90,"percentage":91},"CSS","#663399",0.9,{"name":93,"color":94,"percentage":91},"Shell","#89e051",{"name":96,"color":97,"percentage":98},"Makefile","#427819",0.6,{"name":100,"color":101,"percentage":102},"Dockerfile","#384d54",0.5,{"name":104,"color":105,"percentage":106},"JavaScript","#f1e05a",0.4,4423,479,"2026-04-01T21:28:49","Apache-2.0","Linux, macOS, Windows","非必需（支持使用 OpenAI\u002FGemini 托管模型或本地 Ollama 模型；若本地运行大模型，具体 GPU 需求取决于所选模型）","未说明",{"notes":115,"python":116,"dependencies":117},"1. 推荐使用最新版本的 Docker 和 Docker Compose 以避免错误。\n2. 默认部署不包含认证层，需通过 API 网关处理。\n3. 支持通过 Docker Compose 一键部署包含 Ollama 和 Qdrant 的完整环境。\n4. 开发模式下需执行 `make build-frontends` 动态获取前端代码。","未说明（开发环境需安装 Poetry 管理依赖）",[118,119,120,121,122,123],"Docker","Docker Compose","LlamaIndex","Ollama (可选)","Poetry (仅开发)","Qdrant (可选)",[13,26,14,15],[126,127,128,129,130,131],"agentic","agents","ai","docker","llamaindex","rag","2026-03-27T02:49:30.150509","2026-04-06T06:44:22.524083",[135,140,145,150,155,160],{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},16943,"自定义提示词（Custom Prompt）设置后不生效怎么办？","这是一个已知问题，已在 v0.0.9 版本中修复。如果您遇到更新提示词后查询结果无变化的情况，请将 RAGapp 升级到 v0.0.9 或更高版本。升级后，您在管理界面输入的自定义提示词将正常影响 AI 的回答。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F32",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},16944,"本地 Ollama 响应太慢导致请求超时，如何增加超时时间？","从 v0.0.9 版本开始，RAGapp 支持配置超时时间。您可以直接在管理界面或通过环境变量调整超时设置，以适应本地大模型较慢的推理速度。请确保您使用的是 v0.0.9 或更新版本的镜像。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F29",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},16940,"在 Docker 中运行 RAGapp 时无法连接到本地 Ollama 模型怎么办？","这是因为 Docker 容器默认无法访问宿主机的 localhost。解决方法如下：\n1. 确保已安装所需模型，例如：`ollama run qwen2:latest`\n2. 拉取必要的嵌入模型：`ollama pull nomic-embed-text` 和 `ollama pull jina\u002Fjina-embeddings-v2-base-de`\n3. 使用 host 网络模式启动 Docker 容器，并指定 Ollama 地址：\n   `docker run --network=host -p 8000:8000 -e OLLAMA_BASE_URL=http:\u002F\u002F127.0.0.1:11434\u002F ragapp\u002Fragapp`\n注意：在 Linux 上不要使用 `host.docker.internal`，直接使用 `127.0.0.1` 配合 `--network=host` 参数即可。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F78",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},16941,"如何配置 Azure OpenAI 作为 RAGapp 的模型提供商？","最新版本的 RAGapp 已经内置了对 Azure OpenAI 的支持。只需运行以下命令即可启动包含该功能的容器：\n`docker run -p 8000:8000 ragapp\u002Fragapp:latest`\n启动后，您可以在管理界面中选择 Azure OpenAI 进行配置。如果您需要修改代理配置或环境变量，请确保不使用仅针对 Ollama 优化的 docker-compose 文件，或者手动调整其中的维度参数（如将 768 改为 1536）以适配您的模型。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F16",{"id":156,"question_zh":157,"answer_zh":158,"source_url":159},16942,"聊天对话一直卡在 'Orchestrator'（协调器）步骤不动怎么办？","这通常是因为自定义代理（Agent）的名称包含了非法字符。OpenAI API 要求工具函数名称必须匹配正则表达式 `^[a-zA-Z0-9_-]+$`（仅允许字母、数字、下划线和连字符）。\n请检查您在管理界面创建的代理名称（如 researcher, analyst 等），确保它们不包含空格或特殊符号。该问题已在主分支修复并将发布新版本，临时解决方法是重命名代理以符合命名规范。此外，请注意多代理模式目前仅支持支持函数调用的模型（如 OpenAI, Groq, Gemini）。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F215",{"id":161,"question_zh":162,"answer_zh":163,"source_url":164},16945,"上传的文件无法被识别或在源文件中无法打开预览怎么办？","如果文档作为来源返回但无法在前端打开，或者 PDF 无法在侧边栏预览，这通常是由于环境中的容器或镜像损坏导致的。\n解决方法：\n1. 清理当前损坏的容器和镜像。\n2. 重新构建或拉取最新的镜像。\n3. 重新启动服务。\n执行完清理和重建操作后，文件上传和预览功能通常能恢复正常。","https:\u002F\u002Fgithub.com\u002Fragapp\u002Fragapp\u002Fissues\u002F223",[166,171,176,181,186,191,196,201,206,211,216,221,226,231,236,241,246,250,255,260],{"id":167,"version":168,"summary_zh":169,"released_at":170},99205,"v0.1.5","# ragbox\n\n## 0.1.5\n\n### 补丁更新\n\n- 7b9c24e：修复显示代码块时的UI崩溃问题\n\n## 0.1.4\n\n### 补丁更新\n\n- 3af2d6e：修复在多部署模式下无法显示文档文件的问题\n- 3af2d6e：支持使用LlamaParse上传更多文件格式\n\n## 0.1.3\n\n### 补丁更新\n\n- cb3a9ad：添加智能体模板和新工具（DocumentGenerator和CodeGenerator）\n- df326d7：修复智能体名称作为工具时包含特殊字符的问题\n- 5b917e6：直接使用智能体的输出\n- e4d7a91：将llama_index升级至0.11.11版本\n\n## 0.1.2\n\n### 补丁更新\n\n- 9785b77：添加最新的groq模型，并使用原始模型名称\n- 6e084a9：支持在聊天界面中添加跟踪脚本\n- 56858cc：避免每次上传文件时都触发索引构建（若上传多个文件）\n- 947f865：修复无法使用查询引擎的问题\n- ea2af1b：修复单部署模式下配置缺失的问题\n\n## 0.1.1\n\n### 补丁更新\n\n- 982e22a：使用包含角色、背景故事和目标的系统提示模板\n- 8c9fac2：修复多智能体模式下图像生成器无法正常工作的问题\n\n## 0.1.0\n\n### 小幅改动\n\n- 8e73b74：添加对多智能体的支持\n\n### 补丁更新\n\n- b96763e：修复使用LlamaCloud时遇到的问题\n\n## 0.0.24\n\n### 补丁更新\n\n- 6cc4d2d：添加引用和后续问题配置选项\n\n## 0.0.23\n\n### 补丁更新\n\n- 9f3c8a9：添加对域名和https部署的支持\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971：修复使用LlamaParse时文件上传中断的问题\n- 870c038：添加RAGapp用户和管理员身份验证功能（使用Keycloak）\n- 0886008：为Azure使用的API版本添加UI配置\n- 410bd09：在聊天API中增加每用户聊天消息数量限制\n- cf584e5：新增选择自定义Ollama嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认rag_app标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：添加管理应用\n- fd340ad：添加对gpt-4o-mini模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：添加Cohere重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：添加Groq提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：添加Mistral AI提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将llama-index版本升级至0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：添加对LlamaCloud的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将create-llama版本升级至0.1.17\n- c7cbb6e：添加对T-Systems提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为OpenAI提供商添加嵌入模型和基础API配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将create-llama版本升级至0.1.13\n- 1ceec37：添加图像生成器工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：添加OpenAPI工具配置\n- 969374e：添加e2b代码解释器\n- 4cfe656：将create-llama版本升级至0.1.11\n- 4f178a6：在表单失去焦点时自动提交，并明确了启动和i","2024-11-04T06:50:13",{"id":172,"version":173,"summary_zh":174,"released_at":175},99206,"v0.1.4","# ragbox\n\n## 0.1.4\n\n### 补丁更新\n\n- 3af2d6e：修复在多部署模式下无法显示文档文件的问题\n- 3af2d6e：支持使用 LlamaParse 上传更多文件格式\n\n## 0.1.3\n\n### 补丁更新\n\n- cb3a9ad：添加代理模板和新工具（DocumentGenerator 和 CodeGenerator）\n- df326d7：修复代理名称作为工具时包含特殊字符的问题\n- 5b917e6：直接使用代理的输出\n- e4d7a91：将 llama_index 升级至 0.11.11 版本\n\n## 0.1.2\n\n### 补丁更新\n\n- 9785b77：添加最新的 groq 模型，并使用原始模型名称\n- 6e084a9：支持在聊天界面中添加跟踪脚本\n- 56858cc：避免每次上传文件时都触发索引构建（若上传多个文件）\n- 947f865：修复无法使用查询引擎的问题\n- ea2af1b：修复单部署中缺少配置的问题\n\n## 0.1.1\n\n### 补丁更新\n\n- 982e22a：使用包含角色、背景故事和目标的系统提示模板\n- 8c9fac2：修复多代理模式下图像生成器无法正常工作的问题\n\n## 0.1.0\n\n### 小幅改动\n\n- 8e73b74：添加对多代理的支持\n\n### 补丁更新\n\n- b96763e：修复使用 LlamaCloud 时遇到的问题\n\n## 0.0.24\n\n### 补丁更新\n\n- 6cc4d2d：添加引用和后续问题配置\n\n## 0.0.23\n\n### 补丁更新\n\n- 9f3c8a9：添加对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971：修复使用 LlamaParse 时文件上传中断的问题\n- 870c038：添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中增加速率限制（每个用户每分钟的聊天消息数）\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认 rag_app 标签模板中的斜线路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：添加管理应用\n- fd340ad：添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成器工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在焦点丢失时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a：修复不显示的问题","2024-11-01T06:22:59",{"id":177,"version":178,"summary_zh":179,"released_at":180},99207,"v0.1.3","# ragbox\n\n## 0.1.3\n\n### 补丁变更\n\n- cb3a9ad：添加代理模板和新工具（DocumentGenerator 和 CodeGenerator）\n- df326d7：修复代理名称包含特殊字符时的问题\n- 5b917e6：直接使用代理的输出\n- e4d7a91：将 llama_index 升级至 0.11.11 版本\n\n## 0.1.2\n\n### 补丁变更\n\n- 9785b77：添加最新的 groq 模型，并使用原始模型名称\n- 6e084a9：支持在聊天界面中添加跟踪脚本\n- 56858cc：避免每次上传文件时都触发索引构建（当上传多个文件时）\n- 947f865：修复无法使用查询引擎的问题\n- ea2af1b：修复单次部署中缺少配置的问题\n\n## 0.1.1\n\n### 补丁变更\n\n- 982e22a：使用包含角色、背景故事和目标的系统提示模板\n- 8c9fac2：修复多代理模式下图像生成器无法正常工作的问题\n\n## 0.1.0\n\n### 小幅变更\n\n- 8e73b74：增加对多代理的支持\n\n### 补丁变更\n\n- b96763e：修复使用 LlamaCloud 时的问题\n\n## 0.0.24\n\n### 补丁变更\n\n- 6cc4d2d：添加引用和后续问题配置\n\n## 0.0.23\n\n### 补丁变更\n\n- 9f3c8a9：添加对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁变更\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁变更\n\n- 7355971：修复使用 LlamaParse 时文件上传失败的问题\n- 870c038：添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中添加速率限制（每个用户每分钟的聊天消息数）\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁变更\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁变更\n\n- 98ef118：添加管理应用\n- fd340ad：添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁变更\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁变更\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁变更\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁变更\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁变更\n\n- 6c7f7aa：添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁变更\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁变更\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁变更\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成器工具\n\n## 0.0.10\n\n### 补丁变更\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在焦点丢失时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁变更\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama Parse 添加新配置\n- 8803c69：修复系统提示不起作用的问题","2024-10-25T07:12:22",{"id":182,"version":183,"summary_zh":184,"released_at":185},99208,"v0.1.2","# ragbox\n\n## 0.1.2\n\n### 补丁变更\n\n- 9785b77：添加最新的 Groq 模型，并使用原始模型名称\n- 6e084a9：支持在聊天界面中添加跟踪脚本\n- 56858cc：避免每次上传文件时都触发索引（如果上传了多个文件）\n- 947f865：修复无法使用查询引擎的问题\n- ea2af1b：修复单次部署中缺少配置的问题\n\n## 0.1.1\n\n### 补丁变更\n\n- 982e22a：使用包含角色、背景故事和目标的系统提示模板\n- 8c9fac2：修复多智能体模式下图像生成器无法正常工作的问题\n\n## 0.1.0\n\n### 小幅变更\n\n- 8e73b74：增加对多智能体的支持\n\n### 补丁变更\n\n- b96763e：修复使用 LlamaCloud 时出现的问题\n\n## 0.0.24\n\n### 补丁变更\n\n- 6cc4d2d：添加引用和后续问题配置\n\n## 0.0.23\n\n### 补丁变更\n\n- 9f3c8a9：增加对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁变更\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁变更\n\n- 7355971：修复使用 LlamaParse 时文件上传功能损坏的问题\n- 870c038：添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中添加速率限制（每个用户可发送的聊天消息数量）\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁变更\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁变更\n\n- 98ef118：添加管理应用\n- fd340ad：增加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁变更\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁变更\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁变更\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁变更\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁变更\n\n- 6c7f7aa：增加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁变更\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：增加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁变更\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁变更\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成器工具\n\n## 0.0.10\n\n### 补丁变更\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在失去焦点时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁变更\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama Parse 添加新配置\n- 8803c69：修复系统提示不生效的问题，并改进 Azure OpenAI 的验证\n- f7dc582：将 create-llama 版本升级至 0.1.10\n- fef1d1a：为 Ollama 请求添加超时配置\n- e559534：添加对话开场问题配置\n\n## 0.0.8\n\n### 补丁变更\n\n- 50537ff：增加对 Azure OpenAI Pro 的支持","2024-09-23T10:34:46",{"id":187,"version":188,"summary_zh":189,"released_at":190},99209,"v0.1.1","# ragbox\n\n## 0.1.1\n\n### 补丁更新\n\n- 982e22a：使用包含角色、背景故事和目标的系统提示模板\n- 8c9fac2：修复多智能体模式下图像生成器无法正常工作的问题\n\n## 0.1.0\n\n### 小幅改进\n\n- 8e73b74：新增对多智能体的支持\n\n### 补丁更新\n\n- b96763e：修复使用 LlamaCloud 时出现的问题\n\n## 0.0.24\n\n### 补丁更新\n\n- 6cc4d2d：新增引用和后续问题配置\n\n## 0.0.23\n\n### 补丁更新\n\n- 9f3c8a9：新增对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971：修复使用 LlamaParse 时文件上传失败的问题\n- 870c038：新增 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中添加每用户聊天消息数量限制\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：新增管理应用\n- fd340ad：新增对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：新增 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：新增 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：新增 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：新增对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：新增对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：新增图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：新增 OpenAPI 工具配置\n- 969374e：新增 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在焦点丢失时自动提交表单，明确启动流程并优化文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama Parse 添加新配置\n- 8803c69：修复系统提示不生效的问题，并改进 Azure OpenAI 的验证\n- f7dc582：将 create-llama 版本升级至 0.1.10\n- fef1d1a：新增 Ollama 请求的超时配置\n- e559534：新增对话开场问题配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff：新增对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486：修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2：新增对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7：新增对智能体和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b：新增对多…","2024-09-20T10:19:42",{"id":192,"version":193,"summary_zh":194,"released_at":195},99210,"v0.1","# ragbox\n\n## 0.1.0\n\n### 小幅改动\n\n- 8e73b74: 添加多智能体支持\n\n### 补丁更新\n\n- b96763e: 修复使用 LlamaCloud 时的问题\n\n## 0.0.24\n\n### 补丁更新\n\n- 6cc4d2d: 添加引用和下一轮问题配置\n\n## 0.0.23\n\n### 补丁更新\n\n- 9f3c8a9: 添加对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f: 使用卷实现应用持久化\n- e12d8b5: 修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971: 修复使用 LlamaParse 时文件上传失败的问题\n- 870c038: 添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008: 为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09: 向聊天 API 添加限流功能（每个用户聊天消息数量限制）\n- cf584e5: 增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64: 移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118: 添加管理应用\n- fd340ad: 添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838: 添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6: 添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163: 添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f: 将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa: 添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e: 将 create-llama 版本升级至 0.1.17\n- c7cbb6e: 添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e: 为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e: 为表单添加加载状态\n- 0342480: 在系统提示中添加自定义工具提示\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37: 将 create-llama 版本升级至 0.1.13\n- 1ceec37: 添加图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656: 添加 OpenAPI 工具配置\n- 969374e: 添加 e2b 代码解释器\n- 4cfe656: 将 create-llama 版本升级至 0.1.11\n- 4f178a6: 在焦点丢失时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a: 修复文件查看器不显示的问题\n- 67c3ac5: 修复切换提供商时聊天配置丢失的问题\n- 9dd1704: 为 Llama Parse 添加新配置\n- 8803c69: 修复系统提示不起作用的问题，并改进 Azure OpenAI 的验证\n- f7dc582: 将 create-llama 版本升级至 0.1.10\n- fef1d1a: 为 Ollama 请求添加超时配置\n- e559534: 添加对话开场问题配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff: 添加对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486: 修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2: 添加对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7: 添加对智能体和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b: 添加对多个模型提供商的支持（从 Gemini 开始）\n\n## 0.0.3\n\n### 补丁更新\n\n- 2d00a14: 使用 ChromaDB 向量存储（基于文件）\n- 2d00a14: 将 create-llama 升级至 0.1.","2024-09-17T10:25:02",{"id":197,"version":198,"summary_zh":199,"released_at":200},99211,"v0.0.23","# ragbox\n\n## 0.0.23\n\n### 补丁更新\n\n- 9f3c8a9: 添加对域名和 HTTPS 部署的支持\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f: 使用卷来实现应用持久化\n- e12d8b5: 修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971: 修复使用 LlamaParse 时文件上传失败的问题\n- 870c038: 添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008: 为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09: 向聊天 API 添加限流功能（每个用户每分钟的聊天消息数量）\n- cf584e5: 增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64: 移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118: 添加管理应用\n- fd340ad: 添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838: 添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6: 添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163: 添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f: 将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa: 添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e: 将 create-llama 版本升级至 0.1.17\n- c7cbb6e: 添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e: 为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e: 为表单添加加载状态\n- 0342480: 在系统提示中添加自定义工具提示\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37: 将 create-llama 版本升级至 0.1.13\n- 1ceec37: 添加图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656: 添加 OpenAPI 工具配置\n- 969374e: 添加 e2b 代码解释器\n- 4cfe656: 将 create-llama 版本升级至 0.1.11\n- 4f178a6: 在失去焦点时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a: 修复文件查看器不显示的问题\n- 67c3ac5: 修复切换提供商时聊天配置丢失的问题\n- 9dd1704: 为 Llama Parse 添加新配置\n- 8803c69: 修复系统提示不起作用的问题，并改进 Azure OpenAI 的验证\n- f7dc582: 将 create-llama 版本升级至 0.1.10\n- fef1d1a: 为 Ollama 请求添加超时配置\n- e559534: 添加对话开场问题的配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff: 添加对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486: 修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2: 添加对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7: 添加对代理和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b: 添加对多个模型提供商的支持（首先支持 Gemini）\n\n## 0.0.3\n\n### 补丁更新\n\n- 2d00a14: 使用 ChromaDB 向量存储（基于文件）\n- 2d00a14: 将 create-llama 升级至 0.1.4\n\n## 0.0.2\n\n### 补丁更新\n\n- 548aab3: 更改默认系统提示\n- f1f9b8c: RAG 配置完成后显示聊天界面\n\n## 0.0.1\n\n### 补丁更新\n\n- 0ba8c06: 初始发布","2024-09-09T06:55:50",{"id":202,"version":203,"summary_zh":204,"released_at":205},99212,"v0.0.22","# ragbox\n\n## 0.0.22\n\n### 补丁更新\n\n- fb7e94f：使用卷来实现应用持久化\n- e12d8b5：修复数据源未显示的问题\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971：修复了使用 LlamaParse 时文件上传失败的问题\n- 870c038：添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中添加每用户聊天消息数量的限流功能\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：添加管理应用\n- fd340ad：添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在失去焦点时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama Parse 添加新配置\n- 8803c69：修复系统提示不生效的问题，并改进 Azure OpenAI 的验证\n- f7dc582：将 create-llama 版本升级至 0.1.10\n- fef1d1a：为 Ollama 请求添加超时配置\n- e559534：添加对话开场问题的配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff：添加对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486：修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2：添加对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7：添加对代理和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b：添加对多个模型提供商的支持（从 Gemini 开始）\n\n## 0.0.3\n\n### 补丁更新\n\n- 2d00a14：使用 ChromaDB 向量存储（基于文件）\n- 2d00a14：将 create-llama 升级至 0.1.4\n\n## 0.0.2\n\n### 补丁更新\n\n- 548aab3：更改默认系统提示\n- f1f9b8c：RAG 配置完成后显示聊天界面\n\n## 0.0.1\n\n### 补丁更新\n\n- 0ba8c06：首次发布","2024-08-28T04:51:38",{"id":207,"version":208,"summary_zh":209,"released_at":210},99213,"v0.0.21","# ragbox\n\n## 0.0.21\n\n### 补丁更新\n\n- 7355971：修复了使用 LlamaParse 时文件上传失败的问题\n- 870c038：添加 RAGapp 用户和管理员身份验证（使用 Keycloak）\n- 0886008：为 Azure 使用的 API 版本添加 UI 配置\n- 410bd09：在聊天 API 中添加限流功能（每位用户每分钟的聊天消息数量）\n- cf584e5：增加选择自定义 Ollama 嵌入模型的功能\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：添加管理应用\n- fd340ad：添加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：添加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：添加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：将自定义工具提示添加到系统提示中\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在失去焦点时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama Parse 添加新配置\n- 8803c69：修复系统提示不生效的问题，并改进 Azure OpenAI 的验证\n- f7dc582：将 create-llama 版本升级至 0.1.10\n- fef1d1a：为 Ollama 请求添加超时配置\n- e559534：添加对话开场问题配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff：添加对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486：修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2：添加对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7：添加对代理和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b：添加对多个模型提供商的支持（从 Gemini 开始）\n\n## 0.0.3\n\n### 补丁更新\n\n- 2d00a14：使用 ChromaDB 向量存储（基于文件）\n- 2d00a14：将 create-llama 升级至 0.1.4\n\n## 0.0.2\n\n### 补丁更新\n\n- 548aab3：更改默认系统提示\n- f1f9b8c：RAG 配置完成后显示聊天界面\n\n## 0.0.1\n\n### 补丁更新\n\n- 0ba8c06：首次发布","2024-08-22T08:33:47",{"id":212,"version":213,"summary_zh":214,"released_at":215},99214,"v0.0.20","# ragbox\n\n## 0.0.20\n\n### 补丁更新\n\n- e91ff64：移除默认 rag_app 标签模板中的条纹路径\n\n## 0.0.19\n\n### 补丁更新\n\n- 98ef118：添加管理应用\n- fd340ad：增加对 gpt-4o-mini 模型的支持\n\n## 0.0.18\n\n### 补丁更新\n\n- 8910838：添加 Cohere 重排序器，以提升检索效果\n\n## 0.0.17\n\n### 补丁更新\n\n- ec84dd6：添加 Groq 提供商\n\n## 0.0.16\n\n### 补丁更新\n\n- ade3163：添加 Mistral AI 提供商\n\n## 0.0.15\n\n### 补丁更新\n\n- b7b1f7f：将 llama-index 版本升级至 0.10.53\n\n## 0.0.14\n\n### 补丁更新\n\n- 6c7f7aa：增加对 LlamaCloud 的支持\n\n## 0.0.13\n\n### 补丁更新\n\n- c7cbb6e：将 create-llama 版本升级至 0.1.17\n- c7cbb6e：增加对 T-Systems 提供商的支持\n\n## 0.0.12\n\n### 补丁更新\n\n- d901b4e：为 OpenAI 提供商添加嵌入模型和基础 API 配置\n- debfe4e：为表单添加加载状态\n- 0342480：在系统提示中添加自定义工具提示\n\n## 0.0.11\n\n### 补丁更新\n\n- 1ceec37：将 create-llama 版本升级至 0.1.13\n- 1ceec37：添加图像生成工具\n\n## 0.0.10\n\n### 补丁更新\n\n- 4cfe656：添加 OpenAPI 工具配置\n- 969374e：添加 e2b 代码解释器\n- 4cfe656：将 create-llama 版本升级至 0.1.11\n- 4f178a6：在失去焦点时自动提交表单，明确启动流程并改进文件上传的用户体验。\n\n## 0.0.9\n\n### 补丁更新\n\n- fef1d1a：修复文件查看器不显示的问题\n- 67c3ac5：修复切换提供商时聊天配置丢失的问题\n- 9dd1704：为 Llama parse 添加新配置\n- 8803c69：修复系统提示未生效的问题，并改进 Azure OpenAI 的验证\n- f7dc582：将 create-llama 版本升级至 0.1.10\n- fef1d1a：为 Ollama 请求添加超时配置\n- e559534：添加对话开场问题配置\n\n## 0.0.8\n\n### 补丁更新\n\n- 50537ff：增加对 Azure OpenAI 提供商的支持\n\n## 0.0.7\n\n### 补丁更新\n\n- 856c486：修复从本地 Ollama 获取模型的问题\n\n## 0.0.6\n\n### 补丁更新\n\n- f643ee2：增加对 Ollama 提供商的支持\n\n## 0.0.5\n\n### 补丁更新\n\n- 56e75d7：增加对代理和工具（DuckDuckGo 和维基百科）的支持\n\n## 0.0.4\n\n### 补丁更新\n\n- 275a96b：增加对多个模型提供商的支持（从 Gemini 开始）\n\n## 0.0.3\n\n### 补丁更新\n\n- 2d00a14：使用 ChromaDB 向量存储（基于文件）\n- 2d00a14：将 create-llama 升级至 0.1.4\n\n## 0.0.2\n\n### 补丁更新\n\n- 548aab3：更改默认系统提示\n- f1f9b8c：RAG 配置完成后显示聊天界面\n\n## 0.0.1\n\n### 补丁更新\n\n- 0ba8c06：首次发布","2024-08-05T15:17:34",{"id":217,"version":218,"summary_zh":219,"released_at":220},99215,"v0.0.19","# ragbox\n\n## 0.0.19\n\n### Patch Changes\n\n- 98ef118: Add manager app\n- fd340ad: Add support for gpt-4o-mini model\n\n## 0.0.18\n\n### Patch Changes\n\n- 8910838: Add Cohere reranker for improved retrieval results\n\n## 0.0.17\n\n### Patch Changes\n\n- ec84dd6: Add Groq provider\n\n## 0.0.16\n\n### Patch Changes\n\n- ade3163: Add Mistral AI provider\n\n## 0.0.15\n\n### Patch Changes\n\n- b7b1f7f: Bump llama-index version to 0.10.53\n\n## 0.0.14\n\n### Patch Changes\n\n- 6c7f7aa: Add support for LlamaCloud\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-08-04T20:37:12",{"id":222,"version":223,"summary_zh":224,"released_at":225},99216,"v0.0.18","# ragbox\n\n## 0.0.18\n\n### Patch Changes\n\n- 8910838: Add Cohere reranker for improved retrieval results\n\n## 0.0.17\n\n### Patch Changes\n\n- ec84dd6: Add Groq provider\n\n## 0.0.16\n\n### Patch Changes\n\n- ade3163: Add Mistral AI provider\n\n## 0.0.15\n\n### Patch Changes\n\n- b7b1f7f: Bump llama-index version to 0.10.53\n\n## 0.0.14\n\n### Patch Changes\n\n- 6c7f7aa: Add support for LlamaCloud\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-17T12:52:28",{"id":227,"version":228,"summary_zh":229,"released_at":230},99217,"v0.0.17","# ragbox\n\n## 0.0.17\n\n### Patch Changes\n\n- ec84dd6: Add Groq provider\n\n## 0.0.16\n\n### Patch Changes\n\n- ade3163: Add Mistral AI provider\n\n## 0.0.15\n\n### Patch Changes\n\n- b7b1f7f: Bump llama-index version to 0.10.53\n\n## 0.0.14\n\n### Patch Changes\n\n- 6c7f7aa: Add support for LlamaCloud\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-15T21:22:41",{"id":232,"version":233,"summary_zh":234,"released_at":235},99218,"v0.0.16","# ragbox\n\n## 0.0.16\n\n### Patch Changes\n\n- ade3163: Add Mistral AI provider\n\n## 0.0.15\n\n### Patch Changes\n\n- b7b1f7f: Bump llama-index version to 0.10.53\n\n## 0.0.14\n\n### Patch Changes\n\n- 6c7f7aa: Add support for LlamaCloud\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-11T12:16:31",{"id":237,"version":238,"summary_zh":239,"released_at":240},99223,"v0.0.11","# ragbox\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-06-24T14:40:20",{"id":242,"version":243,"summary_zh":244,"released_at":245},99219,"v0.0.15","# ragbox\n\n## 0.0.14\n\n### Patch Changes\n\n- 6c7f7aa: Add support for LlamaCloud\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-09T08:13:35",{"id":247,"version":248,"summary_zh":244,"released_at":249},99220,"v0.0.14","2024-07-05T09:44:04",{"id":251,"version":252,"summary_zh":253,"released_at":254},99221,"v0.0.13","# ragbox\n\n## 0.0.13\n\n### Patch Changes\n\n- c7cbb6e: Bump create-llama version to 0.1.17\n- c7cbb6e: Add support for T-Systems provider\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-04T15:21:10",{"id":256,"version":257,"summary_zh":258,"released_at":259},99222,"v0.0.12","# ragbox\n\n## 0.0.12\n\n### Patch Changes\n\n- d901b4e: Add embedding model and base api config for OpenAI provider\n- debfe4e: Add loading state to forms\n- 0342480: Add custom tool prompt to system prompt\n\n## 0.0.11\n\n### Patch Changes\n\n- 1ceec37: Bump create-llama version to 0.1.13\n- 1ceec37: Add image generator tool\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-07-03T12:51:50",{"id":261,"version":262,"summary_zh":263,"released_at":264},99224,"v0.0.10","# ragbox\n\n## 0.0.10\n\n### Patch Changes\n\n- 4cfe656: Add OpenAPI tool config\n- 969374e: Add e2b code interpreter\n- 4cfe656: Bump create-llama version to 0.1.11\n- 4f178a6: Auto-submit forms on focus lost, clarified start up and improved UX for uploading files.\n\n## 0.0.9\n\n### Patch Changes\n\n- fef1d1a: Fix not showing file viewer\n- 67c3ac5: Fix the issue with losing chat config when switching providers\n- 9dd1704: Add a new config for Llama parse\n- 8803c69: Fix system prompt not working and improved Azure OpenAI validation\n- f7dc582: Bump create-llama version to 0.1.10\n- fef1d1a: Add timeout config for Ollama requests\n- e559534: Add config for conversation starter questions\n\n## 0.0.8\n\n### Patch Changes\n\n- 50537ff: Add support for Azure OpenAI provider\n\n## 0.0.7\n\n### Patch Changes\n\n- 856c486: Fix fetching Ollama models from local Ollama\n\n## 0.0.6\n\n### Patch Changes\n\n- f643ee2: Add support for Ollama provider\n\n## 0.0.5\n\n### Patch Changes\n\n- 56e75d7: Add support for agent and tools (duckduckgo & wikipedia)\n\n## 0.0.4\n\n### Patch Changes\n\n- 275a96b: Add support for multiple model providers (starting with Gemini)\n\n## 0.0.3\n\n### Patch Changes\n\n- 2d00a14: Use ChromaDB vector storage (file based)\n- 2d00a14: Bump create-llama to 0.1.4\n\n## 0.0.2\n\n### Patch Changes\n\n- 548aab3: Change the default system prompt\n- f1f9b8c: Show chat UI once RAG is configured\n\n## 0.0.1\n\n### Patch Changes\n\n- 0ba8c06: Initial release\n","2024-06-20T14:28:05"]