[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nashsu--FreeAskInternet":3,"tool-nashsu--FreeAskInternet":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",147882,2,"2026-04-09T11:32:47",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":73,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":32,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":105,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":147},5966,"nashsu\u002FFreeAskInternet","FreeAskInternet","FreeAskInternet is a completely free, PRIVATE and LOCALLY running search aggregator & answer generate using MULTI LLMs, without GPU needed. The user can ask a question and the system will  make a multi engine search and combine the search result to LLM and generate the answer based on search results. It's all FREE to use. ","FreeAskInternet 是一款完全免费、注重隐私且可在本地运行的智能搜索问答工具。它无需依赖昂贵的 GPU 硬件或付费 API 密钥，即可在普通电脑上实现类似 Perplexity.ai 的“搜索 + 生成”体验。\n\n该工具主要解决了用户在使用 AI 搜索时面临的费用高昂、数据隐私担忧以及硬件门槛过高等痛点。用户提出问题后，系统会自动调用本地部署的 SearXNG 引擎进行多源搜索，抓取相关内容并整合发送给大语言模型（如 ChatGPT-3.5、Kimi、Qwen、智谱 AI 或本地 Ollama 模型），最终基于实时搜索结果生成准确答案。\n\nFreeAskInternet 非常适合注重数据隐私的普通用户、希望低成本部署 AI 应用的开发者，以及需要在无联网或受限环境下进行研究的人员。其独特亮点在于“零成本”与“全本地化”：整个流程均在用户设备内部完成，支持通过 Docker Compose 一键部署，并兼容多种主流大模型接口。无论是网页端还是移动端，都能提供流畅的交互体验，让每个人都能轻松拥有私有的智能搜索助手。","# FreeAskInternet\n\n## 🎉🎉🎉 Yeah we have a logo now! 🎉🎉🎉\n\n![lgoo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_a42482d88b8c.png)\n\n> Running www.perplexity.ai like app complete FREE, LOCAL, PRIVATE and NO GPU NEED on any computer\n> [!IMPORTANT]  \n> **If you are unable to use this project normally, it is most likely due to issues with your internet connection or your IP, you need free internet connection to use this project normally. 如果您无法正常使用此项目，很可能是由于您的 IP 存在问题，或者你不能自由访问互联网。**\n\n## What is FreeAskInternet\n\nFreeAskInternet is a completely free, private and locally running search aggregator & answer generate using LLM, Without GPU needed. The user can ask a question and the system will use searxng to make a multi engine search and combine the search result to the ChatGPT3.5 LLM and generate the answer based on search results. All process running locally and  No GPU or OpenAI or Google API keys are needed.\n\n## Features\n\n- 🈚️ Completely FREE (no need for any API keys)\n- 💻 Completely LOCAL (no GPU need, any computer can run )\n- 🔐 Completely PRIVATE (all thing running locally, using custom llm)\n- 👻 Runs WITHOUT LLM Hardware (NO GPU NEED!)\n- 🤩 Using Free ChatGPT3.5 \u002F Qwen \u002F Kimi \u002F ZhipuAI(GLM) API (NO API keys need! Thx OpenAI)\n- 🐵 Custom LLM(ollama,llama.cpp) support, Yes we love ollama!\n- 🚀 Fast and easy to deploy with Docker Compose\n- 🌐 Web and Mobile friendly interface, designed for Web Search enhanced AI Chat, allowing for easy access from any device.\n\n## Screenshots\n\n1. index:\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_434d64367f49.png)\n\n2. Search based AI Chat:\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_609f9625a63a.png)\n\n3. Multi LLM models and custom LLM like ollama support:\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_d187856f684d.png)\n\n## How It Works?\n\n1. System get user input question in FreeAskInternet UI interface( running locally), and call searxng (running locally) to make search on multi search engine.\n2. crawl search result links content and pass to ChatGPT3.5 \u002F Kimi \u002F Qwen \u002F ZhipuAI \u002F ollama (by using custom llm), ask LLM to answer user question based on this contents as references.\n3. Stream the answer to Chat UI.\n4. We support custom LLM setting, so theoretically infinite llm support.\n\n## Status\n\nThis project is still in its very early days. Expect some bugs.\n\n### Run the latest release\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet.git\ncd .\u002FFreeAskInternet\ndocker-compose up -d \n```\n\n🎉 You should now be able to open the web interface on http:\u002F\u002Flocalhost:3000. Nothing else is exposed by default.( For old web interface, accessing  http:\u002F\u002Flocalhost:3030)\n\n## How to get and set Kimi \u002F Qwen \u002F ZhipuAI Token?\n\nHow to get Token?\n\nWe are using [https:\u002F\u002Fgithub.com\u002FLLM-Red-Team](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team) projects to provide those service, you can reference to their readme.\n\nReference : [https:\u002F\u002Fgithub.com\u002FLLM-Red-Team\u002Fkimi-free-api](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team\u002Fkimi-free-api)\n\n![setting token](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_b59d6192398b.png)\n\n## How to using custom LLM like ollama? (Yes we love ollama)\n\n1. start ollama serve\n\n```bash\nexport OLLAMA_HOST=0.0.0.0\nollama serve\n```\n\n2. set ollama url in setting:\nYou MUST using your computer's ip address, not localhost\u002F127.0.0.1, because in docker you can't access this address.\nThe model name is the model you want to serve by ollama.\n![setting custom llm url](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_d48870756b40.png)\n\nollama model Reference : [https:\u002F\u002Follama.com\u002Flibrary](https:\u002F\u002Follama.com\u002Flibrary)\n\n### How to update to latest\n\n```bash\ncd .\u002FFreeAskInternet\ngit pull\ndocker compose down\ndocker compose rm backend\ndocker compose rm free_ask_internet_ui\ndocker image rm nashsu\u002Ffree_ask_internet\ndocker image rm nashsu\u002Ffree_ask_internet_ui\ndocker-compose up -d\n```\n\n## Credits\n\n- ChatGPT-Next-Web : [https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web](https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web)\n- FreeGPT35: [https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35](https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35)\n- Kimi\\Qwen\\ZhipuAI [https:\u002F\u002Fgithub.com\u002FLLM-Red-Team](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team)\n- searxng: [https:\u002F\u002Fgithub.com\u002Fsearxng\u002Fsearxng](https:\u002F\u002Fgithub.com\u002Fsearxng\u002Fsearxng)\n\n## Special thanks to our logo designer\n\n[AdlerMurcus](https:\u002F\u002Fgithub.com\u002FAdlerMurcus)\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAdlerMurcus\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_fe5cfe0df1d6.png\" width=\"100\" height=\"100\" class=\"avatar avatar-user width-full border color-bg-default\"\u002F>\n\u003C\u002Fa>\n\n## License\n\nApache-2.0 license\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_7ed9be359496.png)](https:\u002F\u002Fstar-history.com\u002F#nashsu\u002FFreeAskInternet&Date)\n","# 免费Ask互联网\n\n## 🎉🎉🎉 哇，我们现在有 logo 了！🎉🎉🎉\n\n![lgoo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_a42482d88b8c.png)\n\n> 在任何电脑上无需 GPU，即可完全免费、本地化、私密地运行类似 www.perplexity.ai 的应用\n> [!IMPORTANT]  \n> **如果您无法正常使用该项目，很可能是由于您的 IP 地址存在问题，或者您无法自由访问互联网。**\n\n## 什么是 FreeAskInternet？\n\nFreeAskInternet 是一个完全免费、私密且可在本地运行的搜索聚合与基于 LLM 的答案生成工具，无需 GPU 支持。用户可以提出问题，系统会通过 searxng 进行多引擎搜索，并将搜索结果传递给 ChatGPT3.5 LLM，结合搜索结果生成答案。整个流程完全在本地运行，无需 GPU、OpenAI 或 Google API 密钥。\n\n## 特性\n\n- 🈚️ 完全免费（无需任何 API 密钥）\n- 💻 完全本地化（无需 GPU，任何电脑均可运行）\n- 🔐 完全私密（所有操作均在本地进行，使用自定义 LLM）\n- 👻 无需 LLM 硬件即可运行（无需 GPU！）\n- 🤩 使用免费的 ChatGPT3.5 \u002F Qwen \u002F Kimi \u002F ZhipuAI(GLM) API（无需 API 密钥！感谢 OpenAI）\n- 🐵 支持自定义 LLM（ollama, llama.cpp），是的，我们热爱 ollama！\n- 🚀 使用 Docker Compose 快速且轻松部署\n- 🌐 友好的 Web 和移动端界面，专为增强型 AI 聊天设计，方便从任何设备访问。\n\n## 截图\n\n1. 首页：\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_434d64367f49.png)\n\n2. 基于搜索的 AI 聊天：\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_609f9625a63a.png)\n\n3. 多个 LLM 模型及对 ollama 等自定义 LLM 的支持：\n\n![index](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_d187856f684d.png)\n\n## 工作原理？\n\n1. 系统在本地运行的 FreeAskInternet UI 界面中获取用户输入的问题，并调用本地运行的 searxng 在多个搜索引擎上进行搜索。\n2. 抓取搜索结果中的链接内容，并将其传递给 ChatGPT3.5 \u002F Kimi \u002F Qwen \u002F ZhipuAI \u002F ollama（通过使用自定义 LLM），请求 LLM 根据这些内容作为参考回答用户问题。\n3. 将答案流式传输到聊天界面。\n4. 我们支持自定义 LLM 设置，因此理论上可以支持无限种 LLM。\n\n## 当前状态\n\n该项目仍处于非常早期阶段。请做好遇到一些 bug 的准备。\n\n### 运行最新版本\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet.git\ncd .\u002FFreeAskInternet\ndocker-compose up -d \n```\n\n🎉 现在您应该能够在 http:\u002F\u002Flocalhost:3000 打开网页界面。默认情况下不会暴露其他端口。（旧版网页界面可通过 http:\u002F\u002Flocalhost:3030 访问）\n\n## 如何获取并设置 Kimi \u002F Qwen \u002F ZhipuAI Token？\n\n如何获取 Token？\n\n我们使用 [https:\u002F\u002Fgithub.com\u002FLLM-Red-Team](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team) 项目来提供这些服务，您可以参考他们的 README 文件。\n\n参考链接：[https:\u002F\u002Fgithub.com\u002FLLM-Red-Team\u002Fkimi-free-api](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team\u002Fkimi-free-api)\n\n![设置 token](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_b59d6192398b.png)\n\n## 如何使用 ollama 等自定义 LLM？（是的，我们热爱 ollama）\n\n1. 启动 ollama 服务\n\n```bash\nexport OLLAMA_HOST=0.0.0.0\nollama serve\n```\n\n2. 在设置中配置 ollama URL：\n您必须使用您电脑的 IP 地址，而不是 localhost\u002F127.0.0.1，因为在 Docker 中无法访问该地址。\n模型名称是您希望通过 ollama 提供的服务模型。\n![设置自定义 LLM URL](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_d48870756b40.png)\n\nollama 模型参考：[https:\u002F\u002Follama.com\u002Flibrary](https:\u002F\u002Follama.com\u002Flibrary)\n\n### 如何更新到最新版本\n\n```bash\ncd .\u002FFreeAskInternet\ngit pull\ndocker compose down\ndocker compose rm backend\ndocker compose rm free_ask_internet_ui\ndocker image rm nashsu\u002Ffree_ask_internet\ndocker image rm nashsu\u002Ffree_ask_internet_ui\ndocker-compose up -d\n```\n\n## 致谢\n\n- ChatGPT-Next-Web：[https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web](https:\u002F\u002Fgithub.com\u002FChatGPTNextWeb\u002FChatGPT-Next-Web)\n- FreeGPT35：[https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35](https:\u002F\u002Fgithub.com\u002Fmissuo\u002FFreeGPT35)\n- Kimi\u002FQwen\u002FZhipuAI：[https:\u002F\u002Fgithub.com\u002FLLM-Red-Team](https:\u002F\u002Fgithub.com\u002FLLM-Red-Team)\n- searxng：[https:\u002F\u002Fgithub.com\u002Fsearxng\u002Fsearxng](https:\u002F\u002Fgithub.com\u002Fsearxng\u002Fsearxng)\n\n## 特别感谢我们的 logo 设计师\n\n[AdlerMurcus](https:\u002F\u002Fgithub.com\u002FAdlerMurcus)\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FAdlerMurcus\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_fe5cfe0df1d6.png\" width=\"100\" height=\"100\" class=\"avatar avatar-user width-full border color-bg-default\"\u002F>\n\u003C\u002Fa>\n\n## 许可证\n\nApache-2.0 许可证\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_readme_7ed9be359496.png)](https:\u002F\u002Fstar-history.com\u002F#nashsu\u002FFreeAskInternet&Date)","# FreeAskInternet 快速上手指南\n\nFreeAskInternet 是一个完全免费、本地运行且无需 GPU 的搜索聚合与答案生成工具。它类似 Perplexity.ai，通过 SearXNG 进行多引擎搜索，并结合大语言模型（如 ChatGPT-3.5、Kimi、Qwen、智谱 AI 或本地 Ollama）生成基于搜索结果的回答。所有过程均在本地完成，无需 API Key。\n\n> **注意**：本项目依赖自由的互联网连接。如果无法正常使用，请检查您的网络连接或 IP 状态。\n\n## 环境准备\n\n*   **操作系统**：支持 Windows、macOS 或 Linux（任何能运行 Docker 的计算机）。\n*   **核心依赖**：\n    *   [Docker](https:\u002F\u002Fwww.docker.com\u002F)\n    *   [Docker Compose](https:\u002F\u002Fdocs.docker.com\u002Fcompose\u002F)\n*   **硬件要求**：无需独立显卡（GPU），普通 CPU 即可运行。\n*   **网络要求**：需要能够访问外部搜索引擎及大模型服务接口。\n\n## 安装步骤\n\n使用 Docker Compose 一键部署是最简单的方式。请在终端执行以下命令：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet.git\ncd .\u002FFreeAskInternet\ndocker-compose up -d \n```\n\n等待容器启动完成后，即可在浏览器中访问：\n*   **新版界面**：http:\u002F\u002Flocalhost:3000\n*   **旧版界面**（如需）：http:\u002F\u002Flocalhost:3030\n\n## 基本使用\n\n### 1. 直接使用内置免费模型\n启动后，系统默认集成了免费的 ChatGPT-3.5、Kimi、Qwen（通义千问）、ZhipuAI（智谱）等模型接口（由 LLM-Red-Team 项目提供支持，通常无需额外配置 Token 即可试用，具体视服务稳定性而定）。\n\n1.  打开浏览器访问 `http:\u002F\u002Flocalhost:3000`。\n2.  在设置中选择可用的模型（如 `gpt-3.5-turbo`, `kimi`, `qwen` 等）。\n3.  在对话框输入问题，系统将自动搜索并生成带引用的回答。\n\n### 2. 配置自定义模型 (以 Ollama 为例)\n如果您希望使用本地运行的 Ollama 模型，请按以下步骤操作：\n\n**第一步：启动 Ollama 服务**\n确保 Ollama 监听所有网络接口（因为 Docker 容器无法直接访问 `localhost` 或 `127.0.0.1`）：\n\n```bash\nexport OLLAMA_HOST=0.0.0.0\nollama serve\n```\n\n**第二步：获取本机 IP 地址**\n查询您计算机的局域网 IP 地址（例如 `192.168.1.5`），**不要**使用 `127.0.0.1`。\n\n**第三步：在 FreeAskInternet 中配置**\n1.  进入 Web 界面的设置页面。\n2.  找到自定义 LLM 设置项。\n3.  **API URL** 填入：`http:\u002F\u002F\u003C您的本机 IP>:11434` (例如 `http:\u002F\u002F192.168.1.5:11434`)。\n4.  **Model Name** 填入您在 Ollama 中已拉取的模型名称（例如 `llama3`, `qwen:7b` 等）。\n5.  保存设置并开始对话。\n\n### 3. 更新项目\n如需升级到最新版本，请执行以下命令：\n\n```bash\ncd .\u002FFreeAskInternet\ngit pull\ndocker compose down\ndocker compose rm backend\ndocker compose rm free_ask_internet_ui\ndocker image rm nashsu\u002Ffree_ask_internet\ndocker image rm nashsu\u002Ffree_ask_internet_ui\ndocker-compose up -d\n```","一名独立开发者需要在无预算且无法访问外网 API 的情况下，快速调研\"2024 年前端性能优化最新方案”以解决项目卡顿问题。\n\n### 没有 FreeAskInternet 时\n- **高昂成本门槛**：获取实时资讯通常需订阅 Perplexity Pro 或购买 OpenAI API 密钥，对个人开发者是一笔额外开支。\n- **隐私与部署顾虑**：担心代码上下文或敏感查询泄露给云端大厂，且本地电脑若无高端 GPU，难以运行具备联网能力的私有模型。\n- **信息搜集低效**：需手动在多个搜索引擎间切换、逐个打开链接阅读，再人工总结碎片化信息，耗时极长。\n- **网络环境受限**：直接调用国外大模型服务常因网络波动或 IP 限制而失败，导致工作流频繁中断。\n\n### 使用 FreeAskInternet 后\n- **零成本即时启动**：通过 Docker Compose 一键部署，直接利用免费的 Kimi、Qwen 或 ChatGPT-3.5 接口，无需任何 API Key 或付费订阅。\n- **完全本地私有化**：所有搜索聚合与答案生成过程均在本地完成，数据不出境，且普通 CPU 电脑即可流畅运行，无需昂贵显卡。\n- **自动化深度研报**：输入问题后，FreeAskInternet 自动调用 SearXNG 多引擎检索、抓取内容并由 LLM 整合成结构化答案，秒级输出结论。\n- **网络适应性更强**：内置灵活的代理与多模型支持机制，有效规避单一服务不可用的风险，确保调研任务稳定交付。\n\nFreeAskInternet 让每位开发者都能在本地私密环境中，零成本拥有媲美商业版的实时联网 AI 研究助理。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnashsu_FreeAskInternet_434d6436.png","nashsu","nash_su","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnashsu_e1abdf94.jpg","e\u002Facc - AI创业者，大部分INTJ，偶尔ENTJ。前OpenCSG联合创始人，前 IterCast\u002FLinuxCast 创始人，马拉松爱好者。",null,"Xi'an","nash.yong@gmail.com","https:\u002F\u002Fwww.nashsu.com","https:\u002F\u002Fgithub.com\u002Fnashsu",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",98.6,{"name":87,"color":88,"percentage":89},"Dockerfile","#384d54",1.4,8726,914,"2026-04-08T16:45:51","Apache-2.0","Linux, macOS, Windows","不需要 GPU","未说明",{"notes":98,"python":96,"dependencies":99},"该项目主要通过 Docker Compose 部署，无需本地安装 Python 环境。支持多种免费 LLM API（如 ChatGPT-3.5, Kimi, Qwen, ZhipuAI）或本地自定义模型（如 Ollama）。若使用 Ollama 作为自定义模型，需确保在宿主机运行 Ollama 服务并配置正确的局域网 IP 地址（不能使用 localhost），以便 Docker 容器内可以访问。项目运行需要正常的互联网连接以进行搜索引擎聚合及调用免费 API。",[100,101,102,103,104],"Docker","Docker Compose","searxng","ollama (可选)","llama.cpp (可选)",[35,13],"2026-03-27T02:49:30.150509","2026-04-10T02:43:02.919131",[109,114,119,124,129,134,139,143],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},27055,"如何配置自定义模型或非标准的 OpenAI 接口？","如果使用的接口不是标准的 OpenAI API（例如某些 one-api 接口），需要在接口地址末尾添加 `\u002Fv1\u002F` 后缀。此外，新版已支持 Kimi、Qwen、智谱 GLM 等自定义 LLM，建议更新到最新版本并在设置中配置。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F64",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},27056,"本地部署或国内服务器部署时出现 \"network error\" 或无法连接怎么办？","本地部署通常需要配置代理才能访问外部服务。如果是 Docker 部署，请检查 backend 容器日志是否有访问 searxng 服务的 403 错误。建议将项目部署在国外服务器，或在容器环境变量中正确配置 `HTTPS_PROXY` 和 `HTTP_PROXY`。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F5",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},27057,"为什么部署后搜索失败或没有查询结果？","这通常是因为服务器 IP 被搜索引擎封锁。VPS（云服务器）的 IP 大部分会被禁，只有家庭正常 IP 才有可能正常使用。解决方案包括：1. 更换为家庭宽带 IP 部署；2. 更新到最新版本尝试更多模型支持；3. 检查是否配置了有效的梯子代理。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F42",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},27058,"如何在 Docker 中完整部署该项目及相关组件？","可以使用以下 Docker 命令组合部署：\n1. 创建网络：`docker network create my_network`\n2. 运行 Aurora：`docker run -d --restart always --network my_network --name aurora -p 8080:8080 ghcr.io\u002Faurora-develop\u002Faurora:latest`\n3. 运行后端：`docker run -d --name backend --network my_network -p 8000:8000 --restart on-failure docker.io\u002Fduriancat\u002Ffree_ask_internet:1.0`\n4. 运行前端（可选）：配置 `BASE_URL` 指向后端地址。\n5. 运行 SearXNG：注意挂载配置文件并设置重启策略。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F35",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},27059,"如何修改回答输出的语言（例如改为英文）？","请更新到最新版本。新版增加了 UI 界面，允许用户直接在设置中选择响应语言（Response Language），同时也支持自定义 LLM 设置，无需手动修改代码或配置文件。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F33",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},27060,"在 Docker 中配置代理仍然无法访问 OpenAI 或其他服务怎么办？","仅在后端增加 `HTTPS_PROXY` 可能不够。需要针对各服务分别配置：\n1. `backend` 服务：增加 `HTTPS_PROXY` 环境变量。\n2. `llm-*` 相关服务：同时增加 `HTTPS_PROXY` 和 `HTTP_PROXY` 环境变量。\n3. `searxng` 服务：修改挂载的 `.\u002Fsearxng\u002Fsettings.yml` 文件，在 `outgoing` 部分配置 `proxies`。\n如果仍无效，建议检查服务器本身是否能通过该代理访问目标网站。","https:\u002F\u002Fgithub.com\u002Fnashsu\u002FFreeAskInternet\u002Fissues\u002F25",{"id":140,"question_zh":141,"answer_zh":142,"source_url":123},27061,"部署后出现 \"Error refreshing session ID\" 错误或迟迟无返回是什么原因？","这通常是因为使用的 VPS IP 地址已被服务方封锁。大部分云服务商（VPS）的 IP 段都被限制，只有家庭正常 IP 才可能正常使用。建议尝试更换网络环境（如使用家庭宽带部署），或更新最新版以尝试支持更多的模型接口来绕过限制。",{"id":144,"question_zh":145,"answer_zh":146,"source_url":128},27062,"升级后出现只有链接没有内容，或者搜索功能失效的情况如何解决？","这是旧版本已知问题。作者已发布新版本彻底解决了该问题，新版本不仅修复了 GPT-3.5 的问题，还增加了对 Kimi、Qwen、智谱 GLM 以及自定义 LLM 的支持。请直接拉取最新镜像（如 `duriancat\u002Ffree_ask_internet:latest`）重新部署即可。",[]]