[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-pixegami--rag-tutorial-v2":3,"tool-pixegami--rag-tutorial-v2":64},[4,17,27,35,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[13,14,15,43],"视频",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":23,"last_commit_at":50,"category_tags":51,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":23,"last_commit_at":58,"category_tags":59,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,60,43,61,15,62,26,13,63],"数据工具","插件","其他","音频",{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":71,"owner_location":79,"owner_email":71,"owner_twitter":71,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":71,"difficulty_score":90,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":96,"github_topics":71,"view_count":23,"oss_zip_url":71,"oss_zip_packed_at":71,"status":97,"created_at":98,"updated_at":99,"faqs":100,"releases":130},4159,"pixegami\u002Frag-tutorial-v2","rag-tutorial-v2","An Improved Langchain RAG Tutorial (v2) with local LLMs, database updates, and testing.","rag-tutorial-v2 是一个升级版的 LangChain RAG（检索增强生成）实战教程，旨在帮助开发者构建更稳健的本地化 AI 问答系统。针对传统 RAG 示例中常见的模型依赖云端、数据更新困难以及缺乏验证机制等痛点，该项目提供了一套完整的解决方案。它支持在本地部署大语言模型，有效保护数据隐私并降低运行成本；同时引入了动态数据库更新流程，确保知识库能随时同步最新信息，避免回答过时。此外，教程还包含了系统的测试环节，帮助用户量化评估生成效果，提升系统可靠性。\n\n这套资源特别适合具有一定编程基础的 AI 开发者、技术研究人员或希望深入理解 RAG 架构的学习者使用。如果你正计划从零搭建一个私有化的知识问答助手，或者想优化现有的 RAG 应用流程，rag-tutorial-v2 提供了清晰的代码指引和最佳实践。其核心亮点在于将理论转化为可落地的工程步骤，不仅涵盖了本地模型的集成技巧，还展示了如何维护向量数据库的实时性以及如何科学地测试系统性能，是进入企业级 RAG 开发的优质入门指南。","# rag-tutorial-v2\n",null,"# rag-tutorial-v2 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n- **操作系统**：Linux (Ubuntu 20.04+), macOS, 或 Windows (WSL2 推荐)\n- **Python 版本**：Python 3.9 - 3.11\n- **包管理器**：pip 或 conda\n- **硬件建议**：若需本地运行大模型，建议具备 NVIDIA GPU (显存 8GB+)；若仅调用 API，普通 CPU 即可。\n\n## 安装步骤\n\n1. 克隆项目仓库：\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fyour-org\u002Frag-tutorial-v2.git\n   cd rag-tutorial-v2\n   ```\n\n2. 创建并激活虚拟环境（推荐使用 conda 或 venv）：\n   ```bash\n   python -m venv venv\n   source venv\u002Fbin\u002Factivate  # Windows 用户请使用: venv\\Scripts\\activate\n   ```\n\n3. 安装依赖包（国内用户推荐使用清华镜像源加速）：\n   ```bash\n   pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n   ```\n\n4. 配置环境变量：\n   复制示例配置文件并根据实际情况修改（如填入 LLM API Key）：\n   ```bash\n   cp .env.example .env\n   ```\n   编辑 `.env` 文件，填入必要的密钥信息。\n\n## 基本使用\n\n完成安装后，您可以运行最简单的示例来体验 RAG 流程：\n\n1. 准备测试数据（可选，若项目中已包含示例数据可跳过）：\n   ```bash\n   python scripts\u002Fload_data.py --path .\u002Fdata\u002Fsample_docs\n   ```\n\n2. 启动问答服务：\n   ```bash\n   python main.py --query \"什么是检索增强生成？\"\n   ```\n\n3. 或者启动交互式命令行界面：\n   ```bash\n   python cli.py\n   ```\n   进入交互模式后，直接输入问题即可获取基于文档的回答。","某初创法律科技团队正试图构建一个内部智能问答系统，帮助律师快速检索并总结海量的历史案件卷宗与最新法规文档。\n\n### 没有 rag-tutorial-v2 时\n- **数据更新滞后**：传统静态索引无法实时同步新录入的案件文档，律师查询时经常得到过时的法律依据，存在合规风险。\n- **依赖昂贵云服务**：直接调用云端大模型处理敏感案情数据，不仅 API 成本高昂，更让团队对数据隐私泄露忧心忡忡。\n- **缺乏验证机制**：生成的回答准确率完全“靠运气”，没有自动化测试流程来评估检索质量，导致上线前不敢贸然交付。\n- **本地部署困难**：自行搭建本地大模型环境时，常因显存优化不足或向量数据库配置复杂而反复失败，开发周期被无限拉长。\n\n### 使用 rag-tutorial-v2 后\n- **动态知识库同步**：利用其内置的数据库更新机制，新上传的判决书能分钟级融入检索库，确保律师随时获取最新判例支持。\n- **私有化安全运行**：通过集成本地大模型（Local LLMs），所有案情分析均在本地服务器完成，彻底杜绝数据外传，同时大幅降低运营成本。\n- **自动化质量保障**：借助自带的测试框架，团队可定期自动评估回答的准确性与相关性，快速定位并修复检索偏差，建立交付信心。\n- **开箱即用架构**：基于改进后的 LangChain 流程，开发人员无需深究底层配置即可快速启动本地 RAG 服务，将原型开发时间从数周缩短至几天。\n\nrag-tutorial-v2 通过提供一套包含本地模型、动态更新及自动化测试的完整解决方案，让企业能以低成本、高安全感的方式快速落地生产级知识问答系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fpixegami_rag-tutorial-v2_7eadb75e.png","pixegami","Pixegami","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fpixegami_fa9f40be.png","I make tech projects and tutorials 🛠️ Tech Stack: Python | NextJS | AWS | GenAI","Sydney, Australia","https:\u002F\u002Fwww.youtube.com\u002Fc\u002Fpixegami\u002F","https:\u002F\u002Fgithub.com\u002Fpixegami",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,939,605,"2026-04-05T13:54:16",5,"","未说明",{"notes":94,"python":92,"dependencies":95},"提供的 README 内容为空，无法提取具体的运行环境需求、依赖库或特殊说明。请补充完整的文档内容以便进行分析。",[],[26,13],"ready_partial","2026-03-27T02:49:30.150509","2026-04-06T11:56:41.167388",[101,106,111,116,121,126],{"id":102,"question_zh":103,"answer_zh":104,"source_url":105},18946,"为什么嵌入（Embedding）功能无法工作，返回的源数据为空？","这是因为在运行嵌入功能之前，必须先执行数据库填充步骤。请确保先运行 `populate_database` 脚本，之后嵌入功能才能正常工作并返回正确的源数据。","https:\u002F\u002Fgithub.com\u002Fpixegami\u002Frag-tutorial-v2\u002Fissues\u002F2",{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},18947,"如何在项目中正确使用 OpenAI Embeddings？我的代码直接调用了 client.embeddings.create 但报错了。","`get_embedding_function` 应该返回一个嵌入类或函数对象，而不是直接执行嵌入创建逻辑。你不需要手动调用 `client.embeddings.create`。建议直接使用 LangChain 提供的辅助类：\n\n```python\nfrom langchain_openai import OpenAIEmbeddings\n\ndef get_embedding_function():\n    return OpenAIEmbeddings(model=\"text-embedding-3-large\")\n```\n\n同时，记得在 `query_data.py` 中更新 `embedding_function` 变量以匹配该模型配置。","https:\u002F\u002Fgithub.com\u002Fpixegami\u002Frag-tutorial-v2\u002Fissues\u002F1",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},18948,"项目依赖中缺少 `langchain_community` 导致 Ollama 模型或嵌入函数无法使用怎么办？","这是一个已知的依赖缺失问题。`langchain_community` 包对于使用 Ollama 模型和某些嵌入函数是必需的，但未包含在默认的 `requirements.txt` 中。你需要手动安装它：\n\n```bash\npip install langchain_community\n```\n\n或者等待维护者合并相关的 Pull Request 来修复此问题。","https:\u002F\u002Fgithub.com\u002Fpixegami\u002Frag-tutorial-v2\u002Fissues\u002F12",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},18949,"如何在 query_data.py 中将模型从 Ollama 切换为 AWS Bedrock？","虽然 Issue 中没有直接的最终代码确认，但根据提问者的尝试和 LangChain 的标准用法，你需要将 `Ollama` 实例替换为 `BedrockLLM` 实例。注意 `model_id` 参数应指定具体的 Bedrock 模型 ID（如 `amazon.titan-text-express-v1` 用于生成，而非 embed 模型）。示例代码如下：\n\n```python\nfrom langchain_aws import BedrockLLM\n\n# 初始化 Bedrock 模型\nmodel = BedrockLLM(model_id=\"amazon.titan-text-express-v1\")\nresponse_text = model.invoke(prompt)\n```\n\n请确保已配置好 AWS 凭证（通过环境变量或 AWS CLI），并安装了 `langchain-aws` 包。","https:\u002F\u002Fgithub.com\u002Fpixegami\u002Frag-tutorial-v2\u002Fissues\u002F13",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},18950,"如何为 RAG 应用添加基本的 AI 合规性披露（如欧盟 AI 法案要求）？","可以在生成回复后追加一段免责声明文本。例如，在获取模型响应后，格式化输出如下：\n\n```python\nresponse_text = model.invoke(prompt)\nformatted = f\"{response_text}\\n\\n---\\n_此回复由 AI 生成（通过 LangChain RAG 调用 OpenAI GPT）。内容可能包含不准确之处。_\"\n```\n\n此外，建议创建一个 `AI_COMPLIANCE.md` 文档记录系统目的、使用的模型、风险类别及局限性，并添加基础的审计日志记录查询和响应长度以便追踪。","https:\u002F\u002Fgithub.com\u002Fpixegami\u002Frag-tutorial-v2\u002Fissues\u002F36",{"id":127,"question_zh":128,"answer_zh":129,"source_url":110},18951,"在使用 OpenAI Embeddings 时，应该选择哪个模型版本？","推荐使用 `text-embedding-3-large` 或 `text-embedding-3-small` 模型。在代码中配置时，只需在初始化 `OpenAIEmbeddings` 时指定 model 参数即可：\n\n```python\nembeddings = OpenAIEmbeddings(model=\"text-embedding-3-large\")\n```\n\n请确保在 `query_data.py` 和 `populate_database.py` 中使用相同的模型配置以保持一致性。",[]]