[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-felladrin--MiniSearch":3,"tool-felladrin--MiniSearch":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":78,"owner_twitter":78,"owner_website":81,"owner_url":82,"languages":83,"stars":108,"forks":109,"last_commit_at":110,"license":111,"difficulty_score":23,"env_os":112,"env_gpu":113,"env_ram":113,"env_deps":114,"category_tags":117,"github_topics":118,"view_count":23,"oss_zip_url":78,"oss_zip_packed_at":78,"status":16,"created_at":139,"updated_at":140,"faqs":141,"releases":167},1333,"felladrin\u002FMiniSearch","MiniSearch","Minimalist web-searching platform with an AI assistant that runs directly from your browser. Uses WebLLM, Wllama and SearXNG. Demo: https:\u002F\u002Ffelladrin-minisearch.hf.space","MiniSearch 是一款极简的网页搜索+AI 助手，全部运算都在浏览器里完成，无需把数据上传到云端。它把 SearXNG 的隐私搜索和 WebLLM\u002FWllama 本地大模型打包在一起，点开就能用，不追踪、不插广告、不留痕。  \n对担心隐私泄露的普通用户，MiniSearch 让你像用 Google 一样搜索，却不必交出任何个人信息；对开发者或研究人员，它提供 Docker 一键部署，还能接入自己的 OpenAI-Compatible API，把推理成本留在本地或私有服务器。  \n界面干净，手机和桌面都能跑，支持把地址栏设成默认搜索引擎，也支持 Raycast 快捷启动。想进一步定制，可以换模型、调参数、加密码，甚至把实例分享给团队而不暴露 API Key。  \n一句话：如果你既想享受 AI 搜索的便利，又想守住数据主权，MiniSearch 值得一试。","# MiniSearch\n\nA minimalist web-searching app with an AI assistant that runs directly from your browser.\n\nLive demo: https:\u002F\u002Ffelladrin-minisearch.hf.space\n\n## Screenshot\n\n![MiniSearch Screenshot](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelladrin_MiniSearch_readme_04efacb1af11.png)\n\n## Features\n\n- **Privacy-focused**: [No tracking, no ads, no data collection](https:\u002F\u002Fdocs.searxng.org\u002Fown-instance.html#how-does-searxng-protect-privacy)\n- **Easy to use**: Minimalist yet intuitive interface for all users\n- **Cross-platform**: Models run inside the browser, both on desktop and mobile\n- **Integrated**: Search from the browser address bar by setting it as the default search engine\n- **Efficient**: Models are loaded and cached only when needed\n- **Customizable**: Tweakable settings for search results and text generation\n- **Open-source**: [The code is available for inspection and contribution at GitHub](https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch)\n\n## Prerequisites\n\n- [Docker](https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F)\n\n## Getting started\n\nHere are the easiest ways to get started with MiniSearch. Pick the one that suits you best.\n\n**Option 1** - Use [MiniSearch's Docker Image](https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fpkgs\u002Fcontainer\u002Fminisearch) by running in your terminal:\n\n```bash\ndocker run -p 7860:7860 ghcr.io\u002Ffelladrin\u002Fminisearch:main\n```\n\n**Option 2** - Add MiniSearch's Docker Image to your existing Docker Compose file:\n\n```yaml\nservices:\n  minisearch:\n    image: ghcr.io\u002Ffelladrin\u002Fminisearch:main\n    ports:\n      - \"7860:7860\"\n```\n\n**Option 3** - Build from source by [downloading the repository files](https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Farchive\u002Frefs\u002Fheads\u002Fmain.zip) and running:\n\n```bash\ndocker compose -f docker-compose.production.yml up --build\n```\n\nOnce the container is running, open http:\u002F\u002Flocalhost:7860 in your browser and start searching!\n\n## Frequently asked questions [![Ask DeepWiki](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Ffelladrin\u002FMiniSearch)\n\n\u003Cdetails>\n  \u003Csummary>How do I search via the browser's address bar?\u003C\u002Fsummary>\n  \u003Cp>\n    You can set MiniSearch as your browser's address-bar search engine using the pattern \u003Ccode>http:\u002F\u002Flocalhost:7860\u002F?q=%s\u003C\u002Fcode>, in which your search term replaces \u003Ccode>%s\u003C\u002Fcode>.\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>How do I search via Raycast?\u003C\u002Fsummary>\n  \u003Cp>\n    You can add \u003Ca href=\"https:\u002F\u002Fray.so\u002Fquicklinks\u002Fshared?quicklinks=%7B%22link%22:%22https:%5C\u002F%5C\u002Ffelladrin-minisearch.hf.space%5C\u002F?q%3D%7BQuery%7D%22,%22name%22:%22MiniSearch%22%7D\" target=\"_blank\">this Quicklink\u003C\u002Fa> to Raycast, so typing your query will open MiniSearch with the search results. You can also edit it to point to your own domain.\n  \u003C\u002Fp>\n  \u003Cimg width=\"744\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelladrin_MiniSearch_readme_b64d6014690f.png\">\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Can I use custom models via OpenAI-Compatible API?\u003C\u002Fsummary>\n  \u003Cp>\n    Yes! For this, open the Menu and change the \"AI Processing Location\" to \u003Ccode>Remote server (API)\u003C\u002Fcode>. Then configure the Base URL, and optionally set an API Key and a Model to use.\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>How do I restrict the access to my MiniSearch instance via password?\u003C\u002Fsummary>\n  \u003Cp>\n    Create a \u003Ccode>.env\u003C\u002Fcode> file and set a value for \u003Ccode>ACCESS_KEYS\u003C\u002Fcode>. Then reset the MiniSearch docker container.\n  \u003C\u002Fp>\n  \u003Cp>\n    For example, if you to set the password to \u003Ccode>PepperoniPizza\u003C\u002Fcode>, then this is what you should add to your \u003Ccode>.env\u003C\u002Fcode>:\u003Cbr\u002F>\n    \u003Ccode>ACCESS_KEYS=\"PepperoniPizza\"\u003C\u002Fcode>\n  \u003C\u002Fp>\n  \u003Cp>\n    You can find more examples in the \u003Ccode>.env.example\u003C\u002Fcode> file.\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>I want to serve MiniSearch to other users, allowing them to use my own OpenAI-Compatible API key, but without revealing it to them. Is it possible?\u003C\u002Fsummary>\n  \u003Cp>Yes! In MiniSearch, we call this text-generation feature \"Internal OpenAI-Compatible API\". To use this it:\u003C\u002Fp>\n  \u003Col>\n    \u003Cli>Set up your OpenAI-Compatible API endpoint by configuring the following environment variables in your \u003Ccode>.env\u003C\u002Fcode> file:\n      \u003Cul>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_BASE_URL\u003C\u002Fcode>: The base URL for your API\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_KEY\u003C\u002Fcode>: Your API access key\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_MODEL\u003C\u002Fcode>: The model to use\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_NAME\u003C\u002Fcode>: The name to display in the UI\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Fli>\n    \u003Cli>Restart MiniSearch server.\u003C\u002Fli>\n    \u003Cli>In the MiniSearch menu, select the new option (named as per your \u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_NAME\u003C\u002Fcode> setting) from the \"AI Processing Location\" dropdown.\u003C\u002Fli>\n  \u003C\u002Fol>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>How can I contribute to the development of this tool?\u003C\u002Fsummary>\n  \u003Cp>We welcome contributions! Please read our \u003Ca href=\".github\u002FCONTRIBUTING.md\">Contributing Guidelines\u003C\u002Fa> for detailed information on how to get started.\u003C\u002Fp>\n  \u003Cp>Quick start:\u003C\u002Fp>\n  \u003Col>\n    \u003Cli>Fork this repository and clone it\u003C\u002Fli>\n    \u003Cli>Start the development server: \u003Ccode>docker compose up\u003C\u002Fcode>\u003C\u002Fli>\n    \u003Cli>Make your changes and test them\u003C\u002Fli>\n    \u003Cli>Push to your fork and open a pull request\u003C\u002Fli>\n  \u003C\u002Fol>\n  \u003Cp>All contributions are welcome! 🎉\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>Where can I find more information?\u003C\u002Fsummary>\n  \u003Cul>\n    \u003Cli>\u003Ca href=\".github\u002FCONTRIBUTING.md\">Contributing Guidelines\u003C\u002Fa> - How to contribute to MiniSearch\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\".github\u002FCODE_OF_CONDUCT.md\">Code of Conduct\u003C\u002Fa> - Our community guidelines\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\".github\u002FSECURITY.md\">Security Policy\u003C\u002Fa> - How to report security vulnerabilities\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"docs\u002F\">Documentation\u003C\u002Fa> - Detailed project documentation\u003C\u002Fli>\n  \u003C\u002Ful>\n\u003C\u002Fdetails>\n","# MiniSearch\n\n一款极简的网页搜索应用，内置AI助手，直接在浏览器中运行。\n\n在线演示：https:\u002F\u002Ffelladrin-minisearch.hf.space\n\n## 截图\n\n![MiniSearch 截图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelladrin_MiniSearch_readme_04efacb1af11.png)\n\n## 功能\n\n- **注重隐私**：[不追踪、无广告、不收集数据](https:\u002F\u002Fdocs.searxng.org\u002Fown-instance.html#how-does-searxng-protect-privacy)\n- **易于使用**：极简却直观的界面，适合所有用户\n- **跨平台**：模型在浏览器内运行，无论桌面端还是移动端均可使用\n- **集成化**：通过将MiniSearch设为默认搜索引擎，即可从浏览器地址栏直接搜索\n- **高效**：模型仅在需要时加载并缓存\n- **可定制**：可调整搜索结果与文本生成的相关设置\n- **开源**：[代码已在GitHub上公开，欢迎查看与贡献](https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch)\n\n## 先决条件\n\n- [Docker](https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F)\n\n## 快速入门\n\n以下是开始使用MiniSearch的最简单方法，请选择最适合您的方式。\n\n**选项1** - 使用MiniSearch的Docker镜像，只需在终端运行：\n\n```bash\ndocker run -p 7860:7860 ghcr.io\u002Ffelladrin\u002Fminisearch:main\n```\n\n**选项2** - 将MiniSearch的Docker镜像添加到您现有的Docker Compose文件中：\n\n```yaml\nservices:\n  minisearch:\n    image: ghcr.io\u002Ffelladrin\u002Fminisearch:main\n    ports:\n      - \"7860:7860\"\n```\n\n**选项3** - 从源码构建，先下载仓库文件（[链接](https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Farchive\u002Frefs\u002Fheads\u002Fmain.zip)），然后运行：\n\n```bash\ndocker compose -f docker-compose.production.yml up --build\n```\n\n容器启动后，在浏览器中打开http:\u002F\u002Flocalhost:7860，即可开始搜索！\n\n## 常见问题 [![向DeepWiki提问](https:\u002F\u002Fdeepwiki.com\u002Fbadge.svg)](https:\u002F\u002Fdeepwiki.com\u002Ffelladrin\u002FMiniSearch)\n\n\u003Cdetails>\n  \u003Csummary>如何通过浏览器地址栏进行搜索？\u003C\u002Fsummary>\n  \u003Cp>\n    您可以将MiniSearch设为浏览器地址栏的搜索引擎，使用模式：\u003Ccode>http:\u002F\u002Flocalhost:7860\u002F?q=%s\u003C\u002Fcode>,其中您的搜索词将替换\u003Ccode>%s\u003C\u002Fcode>。\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>如何通过Raycast进行搜索？\u003C\u002Fsummary>\n  \u003Cp>\n    您可以将\u003Ca href=\"https:\u002F\u002Fray.so\u002Fquicklinks\u002Fshared?quicklinks=%7B%22link%22:%22https:%5C\u002F%5C\u002Ffelladrin-minisearch.hf.space%5C\u002F?q%3D%7BQuery%7D%22,%22name%22:%22MiniSearch%22%7D\" target=\"_blank\">此快捷链接\u003C\u002Fa>添加到Raycast，输入查询后即可打开MiniSearch并显示搜索结果。您也可以将其修改为指向自己的域名。\n  \u003C\u002Fp>\n  \u003Cimg width=\"744\" alt=\"image\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelladrin_MiniSearch_readme_b64d6014690f.png\">\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>能否通过OpenAI兼容API使用自定义模型？\u003C\u002Fsummary>\n  \u003Cp>\n    可以！为此，请打开菜单，将“AI处理位置”改为\u003Ccode>远程服务器（API）\u003C\u002Fcode>。随后配置基础URL，并可选地设置API密钥和要使用的模型。\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>如何通过密码限制对MiniSearch实例的访问？\u003C\u002Fsummary>\n  \u003Cp>\n    创建一个\u003Ccode>.env\u003C\u002Fcode>文件，并为\u003Ccode>ACCESS_KEYS\u003C\u002Fcode>设置值。随后重置MiniSearch的Docker容器。\n  \u003C\u002Fp>\n  \u003Cp>\n    例如，若您想将密码设为\u003Ccode>PepperoniPizza\u003C\u002Fcode>,则应在\u003Ccode>.env\u003C\u002Fcode>中添加如下内容：\u003Cbr\u002F>\n    \u003Ccode>ACCESS_KEYS=\"PepperoniPizza\"\u003C\u002Fcode>\n  \u003C\u002Fp>\n  \u003Cp>\n    更多示例请参阅\u003Ccode>.env.example\u003C\u002Fcode>文件。\n  \u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>我想将自己的MiniSearch实例提供给其他用户使用，允许他们使用我的OpenAI兼容API密钥，但又不想让他们知道密钥本身。这可行吗？\u003C\u002Fsummary>\n  \u003Cp>当然！在MiniSearch中，我们把这一文本生成功能称为“内部OpenAI兼容API”。要使用它，需：\u003C\u002Fp>\n  \u003Col>\n    \u003Cli>在\u003Ccode>.env\u003C\u002Fcode>文件中配置以下环境变量，以搭建您的OpenAI兼容API端点：\n      \u003Cul>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_BASE_URL\u003C\u002Fcode>：您的API基础URL\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_KEY\u003C\u002Fcode>：您的API访问密钥\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_MODEL\u003C\u002Fcode>：要使用的模型\u003C\u002Fli>\n        \u003Cli>\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_NAME\u003C\u002Fcode>：在UI中显示的名称\u003C\u002Fli>\n      \u003C\u002Ful>\n    \u003C\u002Fli>\n    \u003Cli>重启MiniSearch服务器。\u003C\u002Fli>\n    \u003Cli>在MiniSearch菜单中，从“AI处理位置”下拉菜单中选择新选项（名称根据您设置的\u003Ccode>INTERNAL_OPENAI_COMPATIBLE_API_NAME\u003C\u002Fcode>命名）。\u003C\u002Fli>\n  \u003C\u002Fol>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>我该如何为这款工具的开发贡献力量？\u003C\u002Fsummary>\n  \u003Cp>我们非常欢迎贡献！请阅读我们的\u003Ca href=\".github\u002FCONTRIBUTING.md\">贡献指南\u003C\u002Fa>，了解详细的入门信息。\u003C\u002Fp>\n  \u003Cp>快速入门：\u003C\u002Fp>\n  \u003Col>\n    \u003Cli> Fork本仓库并克隆\u003C\u002Fli>\n    \u003Cli>启动开发服务器：\u003Ccode>docker compose up\u003C\u002Fcode>\u003C\u002Fli>\n    \u003Cli>进行修改并测试\u003C\u002Fli>\n    \u003Cli>推送到您的fork并提交pull request\u003C\u002Fli>\n  \u003C\u002Fol>\n  \u003Cp>所有贡献均受欢迎！🎉\u003C\u002Fp>\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n  \u003Csummary>在哪里可以找到更多信息？\u003C\u002Fsummary>\n  \u003Cul>\n    \u003Cli>\u003Ca href=\".github\u002FCONTRIBUTING.md\">贡献指南\u003C\u002Fa>——如何为MiniSearch贡献力量\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\".github\u002FCODE_OF_CONDUCT.md\">行为准则\u003C\u002Fa>——我们的社区规范\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\".github\u002FSECURITY.md\">安全政策\u003C\u002Fa>——如何报告安全漏洞\u003C\u002Fli>\n    \u003Cli>\u003Ca href=\"docs\u002F\">文档\u003C\u002Fa>——项目的详细说明\u003C\u002Fli>\n  \u003C\u002Ful>\n\u003C\u002Fdetails>","# MiniSearch 快速上手指南\n\n## 环境准备\n- **操作系统**：Windows \u002F macOS \u002F Linux 均可  \n- **前置依赖**：安装 [Docker](https:\u002F\u002Fdocs.docker.com\u002Fget-docker\u002F)（国内用户可使用 [DaoCloud 镜像](https:\u002F\u002Fget.daocloud.io\u002F#install-docker) 加速）\n\n## 安装步骤（任选其一）\n\n### 方案 1：一行命令启动（推荐）\n```bash\ndocker run -p 7860:7860 ghcr.io\u002Ffelladrin\u002Fminisearch:main\n```\n\n### 方案 2：Docker Compose（已有项目）\n在 `docker-compose.yml` 追加：\n```yaml\nservices:\n  minisearch:\n    image: ghcr.io\u002Ffelladrin\u002Fminisearch:main\n    ports:\n      - \"7860:7860\"\n```\n然后执行：\n```bash\ndocker compose up -d\n```\n\n### 方案 3：源码构建\n```bash\n# 下载源码\ngit clone https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch.git\ncd MiniSearch\n\n# 构建并启动\ndocker compose -f docker-compose.production.yml up --build\n```\n\n## 基本使用\n1. 容器启动后，浏览器访问 [http:\u002F\u002Flocalhost:7860](http:\u002F\u002Flocalhost:7860)  \n2. 在输入框键入问题 → 回车，即可同时获得搜索结果与 AI 回答  \n3. 想更快？把浏览器地址栏搜索引擎设为：  \n   ```\n   http:\u002F\u002Flocalhost:7860\u002F?q=%s\n   ```\n   以后直接在地址栏输入关键词即可搜索。","张工是一名独立开发者，正在咖啡馆里赶一个紧急的副业项目：用 React + Vite 做一个“极简番茄钟”网页，需要快速查资料、生成示例代码并验证思路，但公共 Wi-Fi 不稳定，且他极度在意隐私。\n\n### 没有 MiniSearch 时\n- 打开 Google\u002FBing，广告和追踪脚本让老旧 MacBook 风扇狂转，页面加载 5 秒以上，打断思路  \n- 搜索“vite react typescript template”后，还得跳三四个博客才能找到可复制的代码片段，来回切换标签页，时间被切碎  \n- 想确认“番茄钟 25 分钟科学依据”，结果前 10 条都是付费课程广告，真正论文藏在第 3 页，浪费 8 分钟  \n- 用在线 AI 助手（如 ChatGPT Web）需要登录、授权、同意隐私条款，，且公共网络下明文传输，心里不踏实  \n- 浏览器地址栏默认搜索引擎无法自定义，每次都得先打开搜索引擎主页再输入关键词，步骤冗余\n\n### 使用 MiniSearch 后\n- 浏览器地址栏直接设成 `http:\u002F\u002Flocalhost:7860\u002F?q=%s`，输入关键词瞬间返回无广告结果，本地模型推理，风扇安静  \n- 搜索结果右侧即时出现 AI 生成的“最小可运行示例”，一键复制即可粘贴到 VS Code，无需再开新标签  \n- 搜索同一关键词时，MiniSearch 自动总结 3 篇权威论文摘要，并给出 PDF 直链，2 分钟完成资料收集  \n- 所有推理在浏览器 WebLLM 里完成，零登录、零上传，公共 Wi-Fi 下也敢放心用  \n- 地址栏即搜即得，减少 3 次点击，番茄钟原型从“查资料”到“跑起来”缩短到 15 分钟\n\nMiniSearch 把搜索、AI 问答和隐私保护装进浏览器，让独立开发者在碎片场景里也能高效、安心地“写完就跑”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffelladrin_MiniSearch_04efacb1.png","felladrin","Victor Nogueira","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffelladrin_c7ebaf7a.jpg",null,"@globalnetx","João Pessoa, Paraíba, Brazil","https:\u002F\u002Ffelladrin.com","https:\u002F\u002Fgithub.com\u002Ffelladrin",[84,88,92,96,100,104],{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",94.7,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",4.2,{"name":93,"color":94,"percentage":95},"Dockerfile","#384d54",0.7,{"name":97,"color":98,"percentage":99},"HTML","#e34c26",0.3,{"name":101,"color":102,"percentage":103},"CSS","#663399",0.1,{"name":105,"color":106,"percentage":107},"Shell","#89e051",0,554,57,"2026-04-04T05:25:34","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":115,"python":113,"dependencies":116},"仅需安装 Docker 即可运行；所有 AI 模型均在浏览器内运行，无需本地 GPU；可通过配置 .env 文件接入远程 OpenAI-Compatible API；支持通过 Docker Compose 一键启动；默认端口 7860。",[],[15,26,54,14,13],[119,120,121,122,123,124,125,126,127,128,129,130,131,132,133,134,135,136,137,138],"ai","artificial-intelligence","generative-ai","gpu-accelerated","information-retrieval","llm","llm-inference","question-answering","retrieval-augmented-generation","searxng","web-llm","webapp","wllama","perplexity-ai","rag","perplexity","web-search","ai-search-engine","metasearch","metasearch-engine","2026-03-27T02:49:30.150509","2026-04-06T06:44:09.778948",[142,147,152,157,162],{"id":143,"question_zh":144,"answer_zh":145,"source_url":146},6092,"如何像官方 Demo 一样把 AI 服务器预配置好，让用户无法修改？","目前 MiniSearch 没有“锁定配置”的内建开关。官方 Demo 的做法是：\n1. 在 docker-compose.production.yml 里把环境变量 `OLLAMA_BASE_URL` 指向你的 Ollama 实例（如 `http:\u002F\u002Fhost.docker.internal:11434`）。\n2. 前端仍允许用户切换，但你可以自行修改 `src\u002Fclient\u002Fcomponents\u002FSettingsModal.tsx`，把“AI Provider”选择框隐藏或禁用，然后重新构建镜像。\n3. 重新打包：`docker compose -f docker-compose.production.yml up --build`。\n目前社区做法是自建镜像并锁定 UI，官方暂无一键参数。","https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fissues\u002F692",{"id":148,"question_zh":149,"answer_zh":150,"source_url":151},6093,"通过公网域名访问 MiniSearch 时，浏览器无法连接到局域网里的 Ollama，怎么办？","这是典型的 CORS\u002FOrigin 限制问题。解决步骤：\n1. 在运行 Ollama 的机器上设置环境变量：\n   ```bash\n   export OLLAMA_ORIGINS=https:\u002F\u002F你的域名\n   ```\n   或一次性启动：\n   ```bash\n   OLLAMA_ORIGINS=https:\u002F\u002F你的域名 ollama serve\n   ```\n2. 如果你用 Cloudflare Tunnel，确保 Tunnel 指向的是 MiniSearch 容器端口（默认 7860），而不是 Ollama 端口；浏览器端会通过 MiniSearch 后端反向代理到局域网 Ollama，从而绕过浏览器同源限制。\n3. 重启 Ollama 后再访问即可。","https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fissues\u002F686",{"id":153,"question_zh":154,"answer_zh":155,"source_url":156},6094,"图片搜索一直转圈或报 504，如何排查？","图片搜索最耗资源，常见原因与对策：\n1. 反向代理（Nginx Proxy Manager、Cloudflare 等）默认 90 秒超时 → 把超时调到 300 秒。\n2. 服务器内存不足 → 官方 Demo 用 2 vCPU + 18 GB RAM；抓取 15 张图约占用 150 MB，确保可用内存充足。\n3. 个别图片源连接慢 → 升级到最新镜像，已加入 1 秒超时，会自动丢弃慢速连接。\n4. 临时测试可把“Search Results Limit”调小，看是否立即返回，排除总量过大问题。","https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fissues\u002F904",{"id":158,"question_zh":159,"answer_zh":160,"source_url":161},6095,"Docker 部署后，如何持久化配置或数据？","MiniSearch 本身无状态，所有代码在镜像内，每次启动都会重新编译，因此官方镜像没有把 `\u002Fhome\u002Fuser\u002Fapp` 做成卷。\n如果你确实需要持久化：\n1. 自行 fork 仓库，把需要持久化的文件（如 `.env`、自定义模型列表等）放到独立目录，并在 `docker-compose.yml` 里加卷映射：\n   ```yaml\n   volumes:\n     - .\u002Fmyconfig:\u002Fapp\u002Fconfig\n   ```\n2. 修改 Dockerfile，把配置文件路径指到卷目录。\n3. 重新构建镜像。官方镜像因 Hugging Face Spaces 限制未内置持久化，需自行扩展。","https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fissues\u002F677",{"id":163,"question_zh":164,"answer_zh":165,"source_url":166},6096,"运行 `docker compose up` 时出现 `EACCES: permission denied, mkdir '\u002Fhome\u002Fuser\u002Fapp\u002Fnode_modules'` 怎么办？","这是宿主机目录权限导致容器内无法写入。解决：\n1. 删除已创建的 `node_modules` 卷或目录：\n   ```bash\n   sudo rm -rf node_modules\n   ```\n2. 确保当前用户对项目目录有读写权限：\n   ```bash\n   sudo chown -R $USER:$USER .\n   ```\n3. 重新启动：\n   ```bash\n   docker compose -f docker-compose.production.yml up --build\n   ```\n若仍报错，可临时在 compose 文件中加入 `user: \"$(id -u):$(id -g)\"` 以匹配宿主机 UID\u002FGID。","https:\u002F\u002Fgithub.com\u002Ffelladrin\u002FMiniSearch\u002Fissues\u002F623",[]]