[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-defog-ai--sqlcoder":3,"tool-defog-ai--sqlcoder":64},[4,17,25,39,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":10,"last_commit_at":23,"category_tags":24,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":26,"name":27,"github_repo":28,"description_zh":29,"stars":30,"difficulty_score":10,"last_commit_at":31,"category_tags":32,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[33,34,35,36,14,37,15,13,38],"图像","数据工具","视频","插件","其他","音频",{"id":40,"name":41,"github_repo":42,"description_zh":43,"stars":44,"difficulty_score":45,"last_commit_at":46,"category_tags":47,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[14,33,13,15,37],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":45,"last_commit_at":54,"category_tags":55,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[15,33,13,37],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":45,"last_commit_at":62,"category_tags":63,"status":16},2181,"OpenHands","OpenHands\u002FOpenHands","OpenHands 是一个专注于 AI 驱动开发的开源平台，旨在让智能体（Agent）像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点，通过自动化流程显著提升开发速度。\n\n无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员，还是需要快速原型验证的技术团队，都能从中受益。OpenHands 提供了灵活多样的使用方式：既可以通过命令行（CLI）或本地图形界面在个人电脑上轻松上手，体验类似 Devin 的流畅交互；也能利用其强大的 Python SDK 自定义智能体逻辑，甚至在云端大规模部署上千个智能体并行工作。\n\n其核心技术亮点在于模块化的软件智能体 SDK，这不仅构成了平台的引擎，还支持高度可组合的开发模式。此外，OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩，证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能，支持与 Slack、Jira 等工具集成，并提供细粒度的权限管理，适合从个人开发者到大型企业的各类用户场景。",70612,"2026-04-05T11:12:22",[15,14,13,36],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":102,"forks":103,"last_commit_at":104,"license":105,"difficulty_score":45,"env_os":106,"env_gpu":107,"env_ram":108,"env_deps":109,"category_tags":116,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":155},2055,"defog-ai\u002Fsqlcoder","sqlcoder","SoTA LLM for converting natural language questions to SQL queries","sqlcoder 是由 Defog 推出的一系列开源大语言模型，专为将自然语言问题自动转化为精准的 SQL 查询语句而设计。它主要解决了非技术人员难以直接编写复杂数据库查询的痛点，让用户只需像日常对话一样提问，即可获取所需数据，大幅降低了数据分析的门槛。\n\n这款工具非常适合开发者、数据分析师以及希望集成智能查询功能的研究人员使用。其核心亮点在于卓越的性能表现：在针对未见过的数据库架构测试中，sqlcoder 的准确率不仅显著超越了各类主流开源模型，甚至在多项指标上优于 GPT-4 和 GPT-4 Turbo。特别是在处理日期计算、多表连接（Join）及复杂比率统计等高难度任务时，表现尤为出色。\n\n技术层面，sqlcoder 基于超过 20,000 个人工精心策划的问题进行训练，涵盖了多种数据库模式，确保了模型在面对全新数据结构时仍具备强大的泛化能力。项目完全开源，模型权重采用宽松的许可协议，支持商业应用及二次微调。用户既可以通过简单的命令行启动本地服务直连数据库，也能利用 Hugging Face 提供的权重结合 transformers 库灵活部署，是实现自然语言到 SQL 转换的高","sqlcoder 是由 Defog 推出的一系列开源大语言模型，专为将自然语言问题自动转化为精准的 SQL 查询语句而设计。它主要解决了非技术人员难以直接编写复杂数据库查询的痛点，让用户只需像日常对话一样提问，即可获取所需数据，大幅降低了数据分析的门槛。\n\n这款工具非常适合开发者、数据分析师以及希望集成智能查询功能的研究人员使用。其核心亮点在于卓越的性能表现：在针对未见过的数据库架构测试中，sqlcoder 的准确率不仅显著超越了各类主流开源模型，甚至在多项指标上优于 GPT-4 和 GPT-4 Turbo。特别是在处理日期计算、多表连接（Join）及复杂比率统计等高难度任务时，表现尤为出色。\n\n技术层面，sqlcoder 基于超过 20,000 个人工精心策划的问题进行训练，涵盖了多种数据库模式，确保了模型在面对全新数据结构时仍具备强大的泛化能力。项目完全开源，模型权重采用宽松的许可协议，支持商业应用及二次微调。用户既可以通过简单的命令行启动本地服务直连数据库，也能利用 Hugging Face 提供的权重结合 transformers 库灵活部署，是实现自然语言到 SQL 转换的高性价比选择。","# Defog SQLCoder\nDefog's SQLCoder is a family of state-of-the-art LLMs for converting natural language questions to SQL queries.\n\n[Interactive Demo](https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo\u002F) | [🤗 HF Repo](https:\u002F\u002Fhuggingface.co\u002Fdefog\u002Fllama-3-sqlcoder-8b) | [♾️ Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1z4rmOEiFkxkMiecAWeTUlPl0OmKgfEu7?usp=sharing) | [🐦 Twitter](https:\u002F\u002Ftwitter.com\u002Fdefogdata)\n\n## TL;DR\nSQLCoder is a family of large language models that outperforms `gpt-4` and `gpt-4-turbo` for natural language to SQL generation tasks on our [sql-eval](https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsql-eval) framework, and significantly outperform all popular open-source models.\n\n![Percentage of correctly generated SQL queries on novel schemas not seen in training (n = 200), with 4 beams (2)](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdefog-ai_sqlcoder_readme_05f4dcfcd9a9.png)\n\n\n## Installing SQLCoder\nIf running on a device with an NVIDIA GPU with more than 16GB VRAM (best performance)\n`pip install \"sqlcoder[transformers]\"`\n\nIf running on Apple Silicon (less good performance, because of quantization and lack of beam search)\n`CMAKE_ARGS=\"-DLLAMA_METAL=on\" pip install \"sqlcoder[llama-cpp]\"`\n\nIf running on a non-apple silicon computer without GPU access, please run this on Linux\u002FIntel Mac\n`CMAKE_ARGS=\"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\" pip install \"sqlcoder[llama-cpp]\"`\n\nAnd run this on Windows\n```bash\n$env:CMAKE_ARGS = \"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\"\npip install \"sqlcoder[llama-cpp]\"\n```\n\nSQLCoder has not been tested on other platforms yet. Contributions for testing on other platforms are very welcome!\n\n## Running SQLCoder\nIn your terminal, run\n`sqlcoder launch`\n\nWith this, you will be able to connect straight to your database, so you can add your metadata and query it visually.\n\n## License\nThe code in this repo (what little there is of it) is Apache-2 licensed. The model weights have a `CC BY-SA 4.0` license. The TL;DR is that you can use and modify the model for any purpose – including commercial use. However, if you modify the weights (for example, by fine-tuning), you must open-source your modified weights under the same license terms.\n\n## Training\nDefog was trained on more than 20,000 human-curated questions. These questions were based on 10 different schemas. None of the schemas in the training data were included in our evaluation framework. \n\nYou can read more about our [training approach](https:\u002F\u002Fdefog.ai\u002Fblog\u002Fopen-sourcing-sqlcoder2-7b\u002F) and [evaluation framework](https:\u002F\u002Fdefog.ai\u002Fblog\u002Fopen-sourcing-sqleval\u002F).\n\n## Results by question category\nWe classified each generated question into one of 6 categories. The table displays the percentage of questions answered correctly by each model, broken down by category.\n|                | date | group_by | order_by | ratio | join | where |\n| -------------- | ---- | -------- | -------- | ----- | ---- | ----- |\n| sqlcoder-70b   | 96   | 91.4     | 97.1     | 85.7  | 97.1 | 91.4  |\n| sqlcoder-7b-2  | 96   | 91.4     | 94.3     | 91.4  | 94.3 | 77.1  |\n| sqlcoder-34b   | 80   | 94.3     | 85.7     | 77.1  | 85.7 | 80    |\n| gpt-4          | 72   | 94.3     | 97.1     | 80    | 91.4 | 80    |\n| gpt-4-turbo    | 76   | 91.4     | 91.4     | 62.8  | 88.6 | 77.1  |\n| natural-sql-7b | 56   | 88.6     | 85.7     | 60    | 88.6 | 80    |\n| sqlcoder-7b    | 64   | 82.9     | 74.3     | 54.3  | 74.3 | 74.3  |\n| gpt-3.5        | 72   | 77.1     | 82.8     | 34.3  | 65.7 | 71.4  |\n| claude-2       | 52   | 71.4     | 74.3     | 57.1  | 65.7 | 62.9  |\n\n## Using SQLCoder\nYou can use SQLCoder via the `transformers` library by downloading our model weights from the Hugging Face repo. We have added sample code for [inference](.\u002Finference.py) on a [sample database schema](.\u002Fmetadata.sql). \n```bash\npython inference.py -q \"Question about the sample database goes here\"\n\n# Sample question:\n# Do we get more revenue from customers in New York compared to customers in San Francisco? Give me the total revenue for each city, and the difference between the two.\n```\n\nYou can also use a demo on our website [here](https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo)\n\n## Hardware Requirements\nSQLCoder-34B has been tested on a 4xA10 GPU with `float16` weights. You can also load an 8-bit and 4-bit quantized version of the model on consumer GPUs with 20GB or more of memory – like RTX 4090, RTX 3090, and Apple M2 Pro, M2 Max, or M2 Ultra Chips with 20GB or more of memory.\n\n## Todo\n\n- [x] Open-source the v1 model weights\n- [x] Train the model on more data, with higher data variance\n- [ ] Tune the model further with Reward Modelling and RLHF\n- [ ] Pretrain a model from scratch that specializes in SQL analysis\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdefog-ai_sqlcoder_readme_e46b3b09fa08.png)](https:\u002F\u002Fstar-history.com\u002F#defog-ai\u002Fsqlcoder&Date)\n","# Defog SQLCoder\nDefog 的 SQLCoder 是一系列最先进的大型語言模型，用於將自然語言問題轉換為 SQL 查詢。\n\n[互動演示](https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo\u002F) | [🤗 HF 倉庫](https:\u002F\u002Fhuggingface.co\u002Fdefog\u002Fllama-3-sqlcoder-8b) | [♾️ Colab](https:\u002F\u002Fcolab.research.google.com\u002Fdrive\u002F1z4rmOEiFkxkMiecAWeTUlPl0OmKgfEu7?usp=sharing) | [🐦 Twitter](https:\u002F\u002Ftwitter.com\u002Fdefogdata)\n\n## 縮短版\nSQLCoder 是一系列大型語言模型，在我們的 [sql-eval](https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsql-eval) 框架上進行的自然語言到 SQL 生成任務中，其表現優於 `gpt-4` 和 `gpt-4-turbo`，並且顯著超越所有流行的開源模型。\n\n![在訓練中未見過的新模式上正確生成的 SQL 查詢百分比（n = 200），使用 4 條光束（2）](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdefog-ai_sqlcoder_readme_05f4dcfcd9a9.png)\n\n\n## 安裝 SQLCoder\n如果在具備超過 16GB VRAM 的 NVIDIA GPU 的設備上運行（性能最佳）\n`pip install \"sqlcoder[transformers]\"`\n\n如果在 Apple Silicon 上運行（性能較差，因為量化和缺乏束搜索）\n`CMAKE_ARGS=\"-DLLAMA_METAL=on\" pip install \"sqlcoder[llama-cpp]\"`\n\n如果在沒有 GPU 存取權限的非 Apple Silicon 計算機上運行，請在 Linux\u002FIntel Mac 上執行以下命令：\n`CMAKE_ARGS=\"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\" pip install \"sqlcoder[llama-cpp]\"`\n\n而在 Windows 上則執行：\n```bash\n$env:CMAKE_ARGS = \"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\"\npip install \"sqlcoder[llama-cpp]\"\n```\n\n目前尚未在其他平台上測試 SQLCoder。歡迎大家貢獻力量，協助在其他平台上的測試！\n\n## 運行 SQLCoder\n在您的終端中，運行：\n`sqlcoder launch`\n\n這樣您就可以直接連接到您的資料庫，添加元數據並以視覺化方式查詢資料。\n\n## 授權條款\n此倉庫中的程式碼（雖然不多）採用 Apache-2 許可證。模型權重則採用 `CC BY-SA 4.0` 許可證。簡而言之，您可以將該模型用於任何目的，包括商業用途。然而，如果您修改了權重（例如通過微調），則必須根據相同的許可條款公開您修改後的權重。\n\n## 訓練\nDefog 使用超過 20,000 個由人類精心挑選的問題進行訓練。這些問題基於 10 個不同的資料模式。訓練資料中的任何模式均未包含在我們的評估框架中。\n\n您可以閱讀更多關於我們的 [訓練方法](https:\u002F\u002Fdefog.ai\u002Fblog\u002Fopen-sourcing-sqlcoder2-7b\u002F) 和 [評估框架](https:\u002F\u002Fdefog.ai\u002Fblog\u002Fopen-sourcing-sqleval\u002F) 的資訊。\n\n## 按問題類別的結果\n我們將每個生成的問題分為 6 個類別。下表顯示了各模型按類別正確回答問題的百分比。\n|                | 日期 | 分組 | 排序 | 比例 | 連接 | 條件 |\n| -------------- | ---- | -------- | -------- | ----- | ---- | ----- |\n| sqlcoder-70b   | 96   | 91.4     | 97.1     | 85.7  | 97.1 | 91.4  |\n| sqlcoder-7b-2  | 96   | 91.4     | 94.3     | 91.4  | 94.3 | 77.1  |\n| sqlcoder-34b   | 80   | 94.3     | 85.7     | 77.1  | 85.7 | 80    |\n| gpt-4          | 72   | 94.3     | 97.1     | 80    | 91.4 | 80    |\n| gpt-4-turbo    | 76   | 91.4     | 91.4     | 62.8  | 88.6 | 77.1  |\n| natural-sql-7b | 56   | 88.6     | 85.7     | 60    | 88.6 | 80    |\n| sqlcoder-7b    | 64   | 82.9     | 74.3     | 54.3  | 74.3 | 74.3  |\n| gpt-3.5        | 72   | 77.1     | 82.8     | 34.3  | 65.7 | 71.4  |\n| claude-2       | 52   | 71.4     | 74.3     | 57.1  | 65.7 | 62.9  |\n\n## 使用 SQLCoder\n您可以通過 `transformers` 庫使用 SQLCoder，從 Hugging Face 倉庫下載我們的模型權重。我們已添加了針對 [推論](.\u002Finference.py) 的示例代碼，並提供了一個 [示例資料庫模式](.\u002Fmetadata.sql)。\n```bash\npython inference.py -q \"這裡輸入關於示例資料庫的問題\"\n\n# 示例問題：\n# 我們從紐約客戶獲得的收入是否高於舊金山客戶？請給出每個城市的總收入，以及兩者之間的差額。\n```\n\n您也可以在我們的網站上使用演示 [這裡](https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo)。\n\n## 硬體需求\nSQLCoder-34B 已在配備 `float16` 權重的 4xA10 GPU 上進行測試。您也可以在具有 20GB 或以上記憶體的消費級 GPU 上載入該模型的 8 位和 4 位量化版本——例如 RTX 4090、RTX 3090，以及具有 20GB 或以上記憶體的 Apple M2 Pro、M2 Max 或 M2 Ultra 晶片。\n\n## 待辦事項\n\n- [x] 開源 v1 模型權重\n- [x] 使用更多且更具多樣性的數據來訓練模型\n- [ ] 進一步透過獎勵建模和 RLHF 對模型進行調優\n- [ ] 從頭開始預訓練一個專門用於 SQL 分析的模型\n\n## 星星歷史\n\n[![星星歷史圖](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdefog-ai_sqlcoder_readme_e46b3b09fa08.png)](https:\u002F\u002Fstar-history.com\u002F#defog-ai\u002Fsqlcoder&Date)","# SQLCoder 快速上手指南\n\nSQLCoder 是 Defog 推出的一系列大语言模型，专为将自然语言问题转换为 SQL 查询而设计。它在多项基准测试中表现优于 GPT-4 及主流开源模型。\n\n## 环境准备\n\n### 系统要求\n- **高性能推荐**：配备 NVIDIA GPU 且显存大于 16GB 的设备（最佳性能）。\n- **Apple Silicon**：Mac M1\u002FM2\u002FM3 系列芯片（因量化和缺乏束搜索支持，性能略低）。\n- **无 GPU 环境**：Linux 或 Intel Mac，需安装 OpenBLAS；Windows 用户需配置相应环境变量。\n\n### 前置依赖\n- Python 环境\n- pip 包管理工具\n- (可选) CUDA 驱动（针对 NVIDIA GPU 用户）\n\n## 安装步骤\n\n请根据您的硬件环境选择对应的安装命令：\n\n**场景 1：NVIDIA GPU (显存 > 16GB)**\n```bash\npip install \"sqlcoder[transformers]\"\n```\n\n**场景 2：Apple Silicon (M1\u002FM2\u002FM3)**\n```bash\nCMAKE_ARGS=\"-DLLAMA_METAL=on\" pip install \"sqlcoder[llama-cpp]\"\n```\n\n**场景 3：Linux \u002F Intel Mac (无 GPU)**\n```bash\nCMAKE_ARGS=\"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\" pip install \"sqlcoder[llama-cpp]\"\n```\n\n**场景 4：Windows (无 GPU)**\n```bash\n$env:CMAKE_ARGS = \"-DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS\"\npip install \"sqlcoder[llama-cpp]\"\n```\n\n> **提示**：国内用户若下载缓慢，可配置 pip 国内镜像源（如清华源）：\n> `pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple \"sqlcoder[...]\"`\n\n## 基本使用\n\n### 方式一：启动交互式界面\n安装完成后，在终端运行以下命令启动本地服务。您可以直接连接数据库，可视化地添加元数据并执行查询。\n\n```bash\nsqlcoder launch\n```\n\n### 方式二：命令行推理\n您可以直接使用提供的脚本对示例数据库进行问答测试。\n\n```bash\npython inference.py -q \"Question about the sample database goes here\"\n```\n\n**示例问题：**\n```bash\npython inference.py -q \"Do we get more revenue from customers in New York compared to customers in San Francisco? Give me the total revenue for each city, and the difference between the two.\"\n```\n\n### 方式三：在线体验\n无需本地部署，可直接访问官方交互式 Demo 进行测试：\n[https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo\u002F](https:\u002F\u002Fdefog.ai\u002Fsqlcoder-demo\u002F)","某电商公司的数据分析师需要快速响应运营团队关于“纽约与旧金山客户营收对比”的临时查询需求，但受限于复杂的数据库架构和紧张的排期，传统取数流程显得捉襟见肘。\n\n### 没有 sqlcoder 时\n- **沟通成本高昂**：分析师需反复与业务方确认指标口径，再将自然语言需求手动转化为复杂的 SQL 代码，耗时且易产生理解偏差。\n- **技术门槛限制**：非技术背景的运营人员无法直接获取数据，必须依赖分析师排期，导致简单的数据验证也需要等待数小时甚至数天。\n- **错误率高企**：在处理多表关联（Join）或复杂日期筛选时，人工编写的 SQL 容易出现语法错误或逻辑漏洞，需多次返工调试。\n- **资源浪费严重**：资深分析师的大量时间被消耗在编写基础查询语句上，无法专注于深度的数据洞察与策略建议。\n\n### 使用 sqlcoder 后\n- **即时生成查询**：运营人员直接用自然语言提问\"Compare revenue from New York vs San Francisco customers\"，sqlcoder 瞬间生成准确的高效 SQL 语句。\n- **赋能业务自助**：借助 sqlcoder 的高精度转换能力（尤其在 Join 和聚合运算上超越 GPT-4），业务方可通过简单界面自助获取数据，打破取数瓶颈。\n- **逻辑精准可靠**：sqlcoder 基于两万多条人工 curated 数据训练，能精准处理复杂的分组（Group By）和比率计算，大幅减少因手写代码导致的逻辑错误。\n- **释放核心生产力**：分析师从繁琐的写代码工作中解脱出来，转而利用节省的时间进行数据趋势分析和商业价值挖掘。\n\nsqlcoder 通过将自然语言无缝转化为高精度 SQL 查询，彻底消除了业务需求与技术实现之间的壁垒，让数据获取变得像对话一样简单高效。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdefog-ai_sqlcoder_05f4dcfc.png","defog-ai","Defog.ai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdefog-ai_3d75b05f.png","LLMs for data analysis",null,"founders@defog.ai","defogdata","https:\u002F\u002Fdefog.ai","https:\u002F\u002Fgithub.com\u002Fdefog-ai",[86,90,94,98],{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",82.4,{"name":91,"color":92,"percentage":93},"HTML","#e34c26",10.3,{"name":95,"color":96,"percentage":97},"Python","#3572A5",7.2,{"name":99,"color":100,"percentage":101},"JavaScript","#f1e05a",0,4003,276,"2026-04-03T22:57:57","Apache-2.0","Linux, macOS, Windows","NVIDIA GPU (推荐 16GB+ VRAM，如 A10, RTX 4090, RTX 3090)；Apple Silicon (M2 Pro\u002FMax\u002FUltra 需 20GB+ 统一内存)。支持浮点 16、8-bit 和 4-bit 量化版本。","未说明 (模型加载依赖显存\u002F统一内存，消费级显卡需 20GB+ 内存以运行量化版本)",{"notes":110,"python":111,"dependencies":112},"在 NVIDIA GPU 上安装需使用 'sqlcoder[transformers]'；在 Apple Silicon 上需设置 CMAKE_ARGS 启用 Metal 支持；在无 GPU 的 Linux\u002FIntel Mac\u002FWindows 上需启用 OpenBLAS 支持。模型权重采用 CC BY-SA 4.0 协议，修改后需开源。","未说明",[113,114,115],"transformers","llama-cpp-python","OpenBLAS",[15],"2026-03-27T02:49:30.150509","2026-04-06T06:54:21.664476",[120,125,130,135,140,145,150],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},9360,"如何将 sqlcoder2 模型转换为 TensorRT (trt) 模型以加速推理？","建议使用 TensorRT-LLM，这是专为大语言模型（LLM）设计的 TensorRT 扩展。由于 sqlcoder 基于 Llama2 架构，您可以参考 NVIDIA 官方提供的示例进行转换和部署：https:\u002F\u002Fgithub.com\u002FNVIDIA\u002FTensorRT-LLM\u002F","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F42",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},9361,"运行模型时无法生成结果或输出为空，如何解决？","这通常是因为 Prompt 格式不完整。需要在 Prompt 末尾添加特定的结束部分。推荐的完整 Prompt 结构如下：\n\n# Task\nGenerate a SQL query to answer the question `...`\n\n# Database Schema\n...\n\n# SQL\nGiven the question, here is the sql:\n\n您可以参考官方最佳实践文档：https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsql-eval\u002Fblob\u002Fmain\u002Fprompts\u002Fprompt.md","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F50",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},9362,"为什么在 .py 文件中运行推理比在 .ipynb (Jupyter) 中慢很多？","主要原因有两点：\n1. **时间统计差异**：.py 脚本的运行时间通常包含了模型加载时间，而 Jupyter 中往往只计算生成时间。排除加载时间后，两者耗时应一致。\n2. **结束 Token 设置错误**：sqlcoder 和 sqlcoder2 的结束 token 不同。如果在 `inference.py` 中硬编码了错误的 eos_token_id，会导致生成异常缓慢。请检查代码，将：\n`eos_token_id = tokenizer.convert_tokens_to_ids([\"```\"])[0]`\n修改为：\n`eos_token_id = tokenizer.eos_token_id`\n以确保使用正确的结束符。","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F31",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},9363,"如何处理超出输入 Token 限制（如 2048 tokens）的大型数据库 Schema？","当数据库 Schema 过大导致超出模型的上下文窗口限制时，推荐使用剪枝（Pruning）策略。可以使用 `sql-eval` 仓库中提供的工具来自动筛选相关的表和列，从而减少输入长度。具体实现参考：https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsql-eval\u002Fblob\u002Fmain\u002Futils\u002Fpruning.py","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F15",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},9364,"模型对域外查询（Out-of-domain queries）总是强行生成 SQL，如何让它识别并拒绝回答？","可以通过调整生成参数来提高确定性，从而更好地控制模型行为。建议将 `temperature` 设置为一个极小的值（例如 0.0001），这能消除随机性并使响应具有确定性。虽然某些部署环境（如 SageMaker）要求 temperature 必须为正数，但接近 0 的值效果相同。结合更精准的 Prompt 指令，可以有效减少模型在无相关列时胡乱生成 SQL 的情况。","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F66",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},9365,"sqlcoder 是否兼容 LangChain 或 Vanna 等基于 RAG（检索增强生成）的框架？","是的，sqlcoder 完全兼容基于相似度的 RAG 框架。模型本身并不强制要求输入所有表信息。在训练数据中，每个样本通常只包含特定的相关表。在实际使用中，您可以先通过 RAG 框架检索出相关的表结构，然后仅将这些相关信息构建到 Prompt 中传给 sqlcoder。相关的表选择信息通常存储在 `~\u002F.defog\u002Fselected_tables.json` 等配置中。","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F96",{"id":151,"question_zh":152,"answer_zh":153,"source_url":154},9366,"对于拥有数万列的巨大数据库，有没有自动化生成列描述、NER 和连接关系的方法？","目前官方推荐的做法是结合 RAG 系统来动态选择正确的表和列组合，而不是试图一次性将所有元数据放入上下文。虽然手动生成所有列的描述和关系非常繁琐，但可以通过构建检索系统，仅在查询时提取最相关的元数据片段来解决此问题。","https:\u002F\u002Fgithub.com\u002Fdefog-ai\u002Fsqlcoder\u002Fissues\u002F73",[]]