[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-supabase-community--database-build":3,"tool-supabase-community--database-build":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":104,"forks":105,"last_commit_at":106,"license":107,"difficulty_score":108,"env_os":109,"env_gpu":110,"env_ram":111,"env_deps":112,"category_tags":123,"github_topics":124,"view_count":23,"oss_zip_url":79,"oss_zip_packed_at":79,"status":16,"created_at":130,"updated_at":131,"faqs":132,"releases":162},3286,"supabase-community\u002Fdatabase-build","database-build","In-browser Postgres sandbox with AI assistance (formerly postgres.new)","database.build 是一款创新的浏览器端 PostgreSQL 沙盒工具，旨在让用户无需配置服务器即可瞬间创建无限个数据库实例。它巧妙解决了传统数据库开发中环境搭建繁琐、依赖远程容器或复杂代理的痛点，让数据实验和原型设计变得像打开网页一样简单。\n\n这款工具特别适合开发者、数据分析师以及需要快速验证想法的技术人员使用。无论是进行临时的数据查询测试、导入 CSV 生成报表，还是利用 AI 辅助构建图表与数据库架构图，database.build 都能提供流畅的体验。其核心亮点在于完全基于浏览器运行：通过 PGlite 技术（Postgres 的 WebAssembly 版本），所有查询均在本地执行，无需远程后端，数据则持久化存储于浏览器的 IndexedDB 中。此外，每个数据库都集成了大语言模型（LLM），支持拖拽导入数据、自动生成报告等智能化操作。作为一个开源项目，它不仅保留了完整的 Postgres 功能，还探索了将本地数据库部署至云端的可能性，是学习与高效开发的理想助手。","# database.build ([formerly postgres.new](#why-rename-postgresnew))\n\nIn-browser Postgres sandbox with AI assistance.\n\n![github-repo-hero](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupabase-community_database-build_readme_248d58024548.png)\n\nWith [database.build](https:\u002F\u002Fdatabase.build), you can instantly spin up an unlimited number of Postgres databases that run directly in your browser (and soon, deploy them to S3).\n\nEach database is paired with a large language model (LLM) which opens the door to some interesting use cases:\n\n- Drag-and-drop CSV import (generate table on the fly)\n- Generate and export reports\n- Generate charts\n- Build database diagrams\n\n## How it works\n\nAll queries in database.build run directly in your browser. There’s no remote Postgres container or WebSocket proxy.\n\nHow is this possible? [PGlite](https:\u002F\u002Fpglite.dev\u002F), a WASM version of Postgres that can run directly in your browser. Every database that you create spins up a new instance of PGlite that exposes a fully-functional Postgres database. Data is stored in IndexedDB so that changes persist after refresh.\n\n## Monorepo\n\nThis is a monorepo split into the following projects:\n\n- [Web](.\u002Fapps\u002Fweb\u002F): The primary web app built with Next.js\n- [Browser proxy](.\u002Fapps\u002Fbrowser-proxy\u002F): Proxies Postgres TCP connections back to the browser using [pg-gateway](https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fpg-gateway) and Web Sockets\n- [Deploy worker](.\u002Fapps\u002Fdeploy-worker\u002F): Deploys in-browser databases to database platforms (currently Supabase is supported)\n\n### Setup\n\nFrom the monorepo root:\n\n1. Install dependencies\n\n   ```shell\n   npm i\n   ```\n\n2. Start local Supabase stack:\n   ```shell\n   npx supabase start\n   ```\n3. Store local Supabase URL\u002Fanon key in `.\u002Fapps\u002Fweb\u002F.env.local`:\n   ```shell\n   npx supabase status -o env \\\n     --override-name api.url=NEXT_PUBLIC_SUPABASE_URL \\\n     --override-name auth.anon_key=NEXT_PUBLIC_SUPABASE_ANON_KEY |\n       grep NEXT_PUBLIC >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n4. Create an [OpenAI API key](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys) and save to `.\u002Fapps\u002Fweb\u002F.env.local`:\n   ```shell\n   echo 'OPENAI_API_KEY=\"\u003Copenai-api-key>\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n5. Store local KV (Redis) vars. Use these exact values:\n\n   ```shell\n   echo 'KV_REST_API_URL=\"http:\u002F\u002Flocalhost:8080\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   echo 'KV_REST_API_TOKEN=\"local_token\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n\n6. Start local Redis containers (used for rate limiting). Serves an API on port 8080:\n\n   ```shell\n   docker compose -f .\u002Fapps\u002Fweb\u002Fdocker-compose.yml up -d\n   ```\n\n7. Fill in the remaining variables for each app as seen in:\n\n   - `.\u002Fapps\u002Fweb\u002F.env.example`\n   - `.\u002Fapps\u002Fbrowser-proxy\u002F.env.example`\n   - `.\u002Fapps\u002Fdeploy-worker\u002F.env.example`\n\n### Development\n\nFrom the monorepo root:\n\n```shell\nnpm run dev\n```\n\n_**Important:** This command uses `turbo` under the hood which understands the relationship between dependencies in the monorepo and automatically builds them accordingly (ie. `.\u002Fpackages\u002F*`). If you by-pass `turbo`, you will have to manually build each `.\u002Fpackages\u002F*` before each `.\u002Fapp\u002F*` can use them._\n\n## Why rename postgres.new?\n\nThis project is not an official Postgres project and we don’t want to mislead anyone! We’re renaming to database.build because, well, that’s what this does. This will still be 100% Postgres-focused, just with a different URL.\n\n## Video\n\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupabase-community_database-build_readme_88ea5d3ccfb3.png)](https:\u002F\u002Fyoutu.be\u002FooWaPVvljlU)\n\n## License\n\nApache 2.0\n","# database.build（前身为 postgres.new）(#为什么重命名postgresnew)\n\n带有 AI 辅助的浏览器内 Postgres 沙盒。\n\n![github-repo-hero](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupabase-community_database-build_readme_248d58024548.png)\n\n借助 [database.build](https:\u002F\u002Fdatabase.build)，您可以立即启动无限数量的 Postgres 数据库，这些数据库直接在您的浏览器中运行（不久还将支持部署到 S3）。\n\n每个数据库都配有一个大型语言模型 (LLM)，这为一些有趣的用例打开了大门：\n\n- 拖放式 CSV 导入（即时生成表）\n- 生成并导出报表\n- 生成图表\n- 构建数据库关系图\n\n## 工作原理\n\ndatabase.build 中的所有查询都直接在您的浏览器中执行。没有远程的 Postgres 容器或 WebSocket 代理。\n\n这是如何实现的呢？通过 [PGlite](https:\u002F\u002Fpglite.dev\u002F)——一个可以在浏览器中直接运行的 WASM 版本的 Postgres。您创建的每一个数据库都会启动一个新的 PGlite 实例，该实例暴露了一个功能齐全的 Postgres 数据库。数据存储在 IndexedDB 中，因此即使刷新页面，更改也会保留。\n\n## 单体仓库\n\n这是一个单体仓库，拆分为以下项目：\n\n- [Web](.\u002Fapps\u002Fweb\u002F)：使用 Next.js 构建的主要 Web 应用程序\n- [浏览器代理](.\u002Fapps\u002Fbrowser-proxy\u002F)：使用 [pg-gateway](https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fpg-gateway) 和 WebSockets 将 Postgres TCP 连接代理回浏览器\n- [部署 Worker](.\u002Fapps\u002Fdeploy-worker\u002F)：将浏览器内的数据库部署到数据库平台（目前支持 Supabase）\n\n### 设置\n\n从单体仓库根目录开始：\n\n1. 安装依赖项\n\n   ```shell\n   npm i\n   ```\n\n2. 启动本地 Supabase 堆栈：\n   ```shell\n   npx supabase start\n   ```\n3. 将本地 Supabase URL\u002F匿名密钥存储到 `.\u002Fapps\u002Fweb\u002F.env.local` 中：\n   ```shell\n   npx supabase status -o env \\\n     --override-name api.url=NEXT_PUBLIC_SUPABASE_URL \\\n     --override-name auth.anon_key=NEXT_PUBLIC_SUPABASE_ANON_KEY |\n       grep NEXT_PUBLIC >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n4. 创建一个 [OpenAI API 密钥](https:\u002F\u002Fplatform.openai.com\u002Fapi-keys)，并保存到 `.\u002Fapps\u002Fweb\u002F.env.local` 中：\n   ```shell\n   echo 'OPENAI_API_KEY=\"\u003Copenai-api-key>\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n5. 存储本地 KV（Redis）变量。请使用以下确切值：\n\n   ```shell\n   echo 'KV_REST_API_URL=\"http:\u002F\u002Flocalhost:8080\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   echo 'KV_REST_API_TOKEN=\"local_token\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n   ```\n6. 启动本地 Redis 容器（用于限流）。它在端口 8080 上提供 API：\n\n   ```shell\n   docker compose -f .\u002Fapps\u002Fweb\u002Fdocker-compose.yml up -d\n   ```\n7. 根据以下文件填写各个应用的剩余变量：\n\n   - `.\u002Fapps\u002Fweb\u002F.env.example`\n   - `.\u002Fapps\u002Fbrowser-proxy\u002F.env.example`\n   - `.\u002Fapps\u002Fdeploy-worker\u002F.env.example`\n\n### 开发\n\n从单体仓库根目录开始：\n\n```shell\nnpm run dev\n```\n\n_**重要提示：** 此命令底层使用了 `turbo`，它可以理解单体仓库中各依赖项之间的关系，并自动相应地构建它们（即 `.\u002Fpackages\u002F*`）。如果您绕过 `turbo`，则需要在每个 `.\u002Fapp\u002F*` 使用之前手动构建每个 `.\u002Fpackages\u002F*`。_\n\n## 为什么要把 postgres.new 重命名为 database.build？\n\n该项目并非官方的 Postgres 项目，我们也不希望误导任何人！我们将更名为 database.build，因为这就是它的用途。它仍将 100% 专注于 Postgres，只是 URL 不同而已。\n\n## 视频\n\n[![image](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupabase-community_database-build_readme_88ea5d3ccfb3.png)](https:\u002F\u002Fyoutu.be\u002FooWaPVvljlU)\n\n## 许可证\n\nApache 2.0","# database.build 快速上手指南\n\ndatabase.build 是一个基于浏览器的 Postgres 沙盒环境，集成了 AI 辅助功能。它利用 PGlite（Postgres 的 WASM 版本）直接在浏览器中运行完整的 Postgres 实例，数据持久化存储在 IndexedDB 中，无需远程容器或 WebSocket 代理。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Windows, macOS 或 Linux\n*   **Node.js**：建议安装 LTS 版本 (v18+)\n*   **Docker & Docker Compose**：用于运行本地 Supabase 栈和 Redis 容器\n*   **Supabase CLI**：用于管理本地数据库服务\n*   **OpenAI API Key**：用于启用 AI 辅助功能（如生成图表、报告等）\n\n## 安装步骤\n\n本项目采用 Monorepo 结构，请在项目根目录下执行以下操作：\n\n1.  **安装依赖**\n    ```shell\n    npm i\n    ```\n\n2.  **启动本地 Supabase 服务**\n    ```shell\n    npx supabase start\n    ```\n\n3.  **配置 Supabase 环境变量**\n    将本地 Supabase 的 URL 和匿名密钥写入 `.\u002Fapps\u002Fweb\u002F.env.local`：\n    ```shell\n    npx supabase status -o env \\\n      --override-name api.url=NEXT_PUBLIC_SUPABASE_URL \\\n      --override-name auth.anon_key=NEXT_PUBLIC_SUPABASE_ANON_KEY |\n        grep NEXT_PUBLIC >> .\u002Fapps\u002Fweb\u002F.env.local\n    ```\n\n4.  **配置 OpenAI API Key**\n    替换 `\u003Copenai-api-key>` 为您的实际密钥：\n    ```shell\n    echo 'OPENAI_API_KEY=\"\u003Copenai-api-key>\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n    ```\n\n5.  **配置本地 KV (Redis) 变量**\n    使用以下固定值进行配置：\n    ```shell\n    echo 'KV_REST_API_URL=\"http:\u002F\u002Flocalhost:8080\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n    echo 'KV_REST_API_TOKEN=\"local_token\"' >> .\u002Fapps\u002Fweb\u002F.env.local\n    ```\n\n6.  **启动本地 Redis 容器**\n    用于速率限制，服务将监听 8080 端口：\n    ```shell\n    docker compose -f .\u002Fapps\u002Fweb\u002Fdocker-compose.yml up -d\n    ```\n\n7.  **完善其他配置**\n    检查并填写以下文件中剩余的环境变量（参考对应的 `.env.example`）：\n    *   `.\u002Fapps\u002Fweb\u002F.env.local`\n    *   `.\u002Fapps\u002Fbrowser-proxy\u002F.env.local`\n    *   `.\u002Fapps\u002Fdeploy-worker\u002F.env.local`\n\n## 基本使用\n\n完成上述配置后，即可启动开发服务器。\n\n1.  **启动开发环境**\n    在项目根目录运行：\n    ```shell\n    npm run dev\n    ```\n    > **注意**：该命令底层使用 `turbo` 构建工具，它会自动处理 Monorepo 中各包（`.\u002Fpackages\u002F*`）之间的依赖关系和构建顺序。请勿跳过此命令直接构建子应用，否则可能导致依赖缺失。\n\n2.  **访问应用**\n    启动成功后，通常在浏览器访问 `http:\u002F\u002Flocalhost:3000`（具体端口视终端输出而定）。\n\n3.  **核心功能体验**\n    *   **创建数据库**：页面加载后会自动在浏览器内初始化一个全新的 Postgres 实例。\n    *   **导入数据**：尝试拖拽 CSV 文件到界面，系统将自动建表并导入数据。\n    *   **AI 交互**：利用集成的 LLM 生成 SQL 查询、导出数据报告、绘制图表或生成数据库架构图。","一位数据分析师急需在浏览器中快速验证一份新获取的销售 CSV 数据，并立即生成可视化图表向团队汇报。\n\n### 没有 database-build 时\n- **环境配置繁琐**：必须先在本地安装 Docker 或配置复杂的 PostgreSQL 服务，耗时数小时才能搭建好测试环境。\n- **数据处理割裂**：需要手动编写 SQL 建表语句，再将 CSV 数据清洗后导入，过程容易出错且无法即时反馈。\n- **依赖外部资源**：若在公司受限网络环境下，无法连接远程数据库实例，导致工作完全停滞。\n- **可视化门槛高**：查询出数据后，还需复制到其他 BI 工具或编写 Python 脚本才能生成图表，流程冗长。\n- **现场演示困难**：无法在会议中实时根据听众需求修改数据结构或查询逻辑，缺乏互动性。\n\n### 使用 database-build 后\n- **秒级启动环境**：直接在浏览器打开即可运行完整的 Postgres 实例，无需任何本地安装或服务器配置。\n- **智能一键导入**：拖拽 CSV 文件上传，内置 AI 自动识别字段类型并生成表结构，数据瞬间就绪。\n- **纯本地运行**：基于 PGlite 技术，所有计算在浏览器内完成，断网环境下也能流畅处理敏感数据。\n- **AI 辅助分析**：直接用自然语言让 AI 生成复杂查询语句、统计报表甚至直接渲染出动态图表。\n- **实时交互演示**：在会议中随时调整数据模型或查询条件，结果即时刷新，极大提升沟通效率。\n\ndatabase-build 将原本需要数小时的环境搭建与数据预处理工作，压缩为浏览器内的分钟级即时操作，彻底打破了数据分析的本地环境壁垒。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fsupabase-community_database-build_248d5802.png","supabase-community","Supabase Community","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fsupabase-community_4670cace.jpg","Client libraries and more maintained and supported by the Supabase Community. Rust, Golang, C#, Flutter, Postgres extensions.",null,"supa_community","supabase.com","https:\u002F\u002Fgithub.com\u002Fsupabase-community",[84,88,92,96,100],{"name":85,"color":86,"percentage":87},"TypeScript","#3178c6",87.6,{"name":89,"color":90,"percentage":91},"JavaScript","#f1e05a",7.6,{"name":93,"color":94,"percentage":95},"CSS","#663399",3.6,{"name":97,"color":98,"percentage":99},"PLpgSQL","#336790",1.2,{"name":101,"color":102,"percentage":103},"Dockerfile","#384d54",0.1,2933,271,"2026-04-03T12:10:48","Apache-2.0",4,"Linux, macOS, Windows","不需要 GPU","未说明（浏览器端运行，取决于 PGlite 实例数量及数据量）",{"notes":113,"python":114,"dependencies":115},"该项目主要基于浏览器运行（使用 WASM 技术的 PGlite），无需本地安装 Postgres 服务器。开发环境需要安装 Node.js、npm、Docker（用于运行本地 Redis 和 Supabase 栈）。需要配置 OpenAI API Key 以使用 AI 功能。项目采用 Monorepo 结构，建议使用 `npm run dev` (基于 turbo) 进行开发，以便自动处理包依赖构建。","未说明",[116,117,118,119,120,121,122],"Node.js\u002Fnpm","Next.js","PGlite","pg-gateway","Supabase CLI","Docker","Redis",[53,26,15,13,14],[125,126,127,128,129],"ai","browser","llm","pglite","postgres","2026-03-27T02:49:30.150509","2026-04-06T11:30:51.700422",[133,138,143,148,153,158],{"id":134,"question_zh":135,"answer_zh":136,"source_url":137},15099,"在 Windows、WSL 或 Docker 中运行 'npm install' 时遇到 glibc 相关错误怎么办？","该错误源于底层依赖 `pganalyze\u002Fpg_query` 的 glibc 兼容性问题，特别是在非 Linux 原生环境（如 Windows WSL 或特定 Docker 容器）中。\n建议解决方案：\n1. 尝试使用更新的 Node.js 版本或特定的 Docker 镜像（基于较新的 Ubuntu 版本）。\n2. 社区有用户反馈使用 AI 编程助手（如 Cursor）自动修复了部分依赖配置错误后运行成功。\n3. 如果是 Apple Silicon (M1\u002FM2) Mac 用户遇到类似问题，请确保拉取的是适配 arm64 架构的依赖版本。\n4. 关注 `pganalyze\u002Fpg_query` 仓库的相关 Issue（如 #298, #299），查看是否有针对您操作系统的具体补丁或变通方案。","https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fdatabase-build\u002Fissues\u002F151",{"id":139,"question_zh":140,"answer_zh":141,"source_url":142},15096,"如何在本地运行该项目时解决 GitHub OAuth 环境变量未设置的问题？","要在本地运行，您需要创建一个 GitHub OAuth 应用以允许用户通过 GitHub 登录。步骤如下：\n1. 在 https:\u002F\u002Fgithub.com\u002Fsettings\u002Fdevelopers 创建一个新的 OAuth App。\n2. 名称和主页 URL 可随意填写（仅用于显示）。\n3. 回调 URL (Callback URL) 应指向本地 Supabase 网关的 auth 回调路由，例如：`http:\u002F\u002Flocalhost:54321\u002Fauth\u002Fv1\u002Fcallback`。\n4. 创建后，在项目根目录创建 `.env.local` 文件（参考 `.env.example`），并填入生成的 Client ID、Secret 和重定向 URI：\n```\nSUPABASE_AUTH_GITHUB_CLIENT_ID=您的 github-client-id\nSUPABASE_AUTH_GITHUB_SECRET=您的 github-secret\nSUPABASE_AUTH_GITHUB_REDIRECT_URI=http:\u002F\u002Flocalhost:54321\u002Fauth\u002Fv1\u002Fcallback\n```\n注意：如果您遇到此错误，请检查是否已将 `env.example` 复制为 `env.local`。","https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fdatabase-build\u002Fissues\u002F72",{"id":144,"question_zh":145,"answer_zh":146,"source_url":147},15097,"从 postgres.new 导出数据库并导入到 database.build 时出现 'n.map is not a function' 或其他解析错误怎么办？","这是一个已知的导入逻辑 Bug，通常在升级依赖项 (PGlite) 后引入。维护者已在 `postgres-new` 仓库的 PR #127 中修复了该问题。\n解决方案：\n1. 该修复已合并到生产环境，请尝试重新导入。\n2. 如果问题依旧，可能是特定的数据库导出文件触发了边缘情况。维护者建议检查控制台错误，该问题通常与导入时的数据处理有关，而非多标签页操作导致。\n3. 确保您使用的是最新版本的 database.build 或 postgres.new，因为旧版本可能存在此导入缺陷。","https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fdatabase-build\u002Fissues\u002F114",{"id":149,"question_zh":150,"answer_zh":151,"source_url":152},15098,"访问 postgres.new 或 database.build 时出现连接超时 (ERR_CONNECTION_TIMED_OUT) 如何解决？","如果遇到网站无法访问或连接超时，首先请检查您的网络连接。\n1. 确认您的互联网连接正常。\n2. 检查是否处于防火墙、公司网络或代理之后，这些设置可能会阻止访问。\n3. 尝试切换网络环境（如从 Wi-Fi 切换到手机热点）测试是否恢复。\n多数情况下，这是本地网络配置或临时网络波动导致的，而非服务端故障。","https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fdatabase-build\u002Fissues\u002F92",{"id":154,"question_zh":155,"answer_zh":156,"source_url":157},15100,"加载之前的对话或数据库时导致网站崩溃并显示 'Parse error at token: SELECT' 错误？","此问题是由导入数据库时的解析 Bug 引起的，特别是当数据库包含特定的 SQL 结构（如嵌入数据或复杂的 SELECT 语句）时。\n解决方法：\n1. 该问题已在 `postgres-new` 仓库的 PR #127 中修复。\n2. 如果您有导出的数据库文件，请尝试在修复后的版本（或生产环境更新后）重新导入。\n3. 避免直接在界面上加载导致崩溃的旧会话，而是通过“导入”功能重新加载数据库备份文件。\n4. 维护者确认修复后，导入功能已恢复正常，之前的崩溃现象应不再出现。","https:\u002F\u002Fgithub.com\u002Fsupabase-community\u002Fdatabase-build\u002Fissues\u002F94",{"id":159,"question_zh":160,"answer_zh":161,"source_url":137},15101,"修改依赖包版本（如改为 13.3.2）后安装失败且 NPM 页面显示不支持该版本？","如果您手动修改 `package.json` 中的版本号（例如改为 `13.3.2`）却收到错误，且 NPM 页面未列出该版本，说明该版本可能尚未发布或已被弃用。\n建议：\n1. 不要随意锁定未在 NPM 上正式发布的版本号。\n2. 运行 `npm view \u003Cpackage-name> versions` 查看可用的所有版本。\n3. 如果是为了解决 glibc 或其他兼容性 bug，请等待维护者发布官方修复版本，或使用 `npm install \u003Cpackage>@latest` 获取最新稳定版。\n4. 清除 `node_modules` 和 `package-lock.json` 后重新运行 `npm install` 以排除缓存干扰。",[]]