DAIL-SQL
DAIL-SQL 是一个专为优化大语言模型(LLM)在“文本转 SQL"任务中表现而设计的高效开源框架。它主要解决了如何将自然语言问题精准转化为可执行数据库查询语句的难题,特别是在少样本(few-shot)场景下,如何以最低的 Token 消耗实现最高的准确率。
该工具非常适合从事数据工程、数据库开发的研究人员和技术开发者使用。通过系统性地评估提示词工程策略,DAIL-SQL 创新地将数据库结构知识编码为 SQL 语句,并基于“骨架相似度”智能筛选示例,同时剔除跨领域冗余信息以提升效率。其核心技术亮点在于极致的性能表现:在著名的 Spider 基准测试中,仅用约 1600 个 Token 即可让 GPT-4 达到 86.2% 的执行准确率;若结合自一致性投票机制,准确率更可提升至 86.6%,曾稳居榜单首位。对于希望低成本、高精度地构建自然语言数据库交互应用的团队,DAIL-SQL 提供了一套经过验证的成熟解决方案。
使用场景
某电商数据团队需要让非技术出身的运营人员通过自然语言查询复杂的销售数据库,以快速生成日报和临时分析报表。
没有 DAIL-SQL 时
- 查询准确率低:直接使用基础 Prompt 调用大模型,面对多表关联和嵌套查询时,生成的 SQL 语句经常报错或逻辑错误,准确率难以超过 70%。
- Token 消耗巨大:为了提升效果不得不堆砌大量示例,导致每次请求输入过长,不仅响应速度慢,还大幅推高了 API 调用成本。
- 泛化能力弱:模型难以理解不同问法背后的相同意图,一旦运营人员的提问方式稍作变化,生成的 SQL 骨架就完全失效。
- 维护成本高:开发人员需要花费大量时间手动编写和调试特定的 Prompt 模板,且每次数据库结构变更都需要重新调整策略。
使用 DAIL-SQL 后
- 执行准确率飙升:利用基于 SQL 骨架相似度的示例选择策略,DAIL-SQL 在复杂查询场景下的执行准确率提升至 86.6%,大幅减少人工复核工作。
- 极致节省 Token:通过去除跨域冗余知识并优化示例组织,每个问题仅需约 1600 tokens,在保证高精度的同时将推理成本降低了数倍。
- 意图识别更稳健:模型能精准捕捉自然语言与 SQL 结构间的映射关系,即使运营人员变换提问措辞,也能稳定输出正确的查询逻辑。
- 部署流程标准化:提供了一套完整的从数据预处理到自一致性投票的自动化流水线,团队只需配置少量参数即可适配新的业务数据库。
DAIL-SQL 通过系统化的提示工程优化,以极低的 Token 成本实现了业界领先的 Text-to-SQL 转化精度,让自然语言查数真正具备生产级可靠性。
运行环境要求
- Linux
未说明 (主要依赖外部 LLM API,如 GPT-4,本地无需 GPU)
未说明 (启动 Stanford CoreNLP 服务器需分配至少 4GB 内存)

快速开始
DAIL-SQL
DAIL-SQL 是一种高效优化大型语言模型在文本到 SQL 任务中利用率的方法。它在测试中使用 GPT-4 在 Spider 榜单上取得了 86.2% 的优异成绩,证明了其优越性。值得注意的是,在 Spider-dev 数据集中,每道题仅需约 1600 个 token。此外,通过 GPT-4 的自洽投票机制,我们在 Spider-test 上进一步取得了 86.6% 的更高分数。
高大伟、王海斌、李亚亮、孙秀宇、钱一辰、丁博林和周景仁。 大型语言模型赋能的文本到 SQL:基准评估。 CoRR abs/2308.15363 (2023)。
论文链接:arXiv
概述
为了系统深入地理解文本到 SQL 的提示工程,我们基于实证方法评估了先前研究中的多种策略。首先,我们在零样本场景下比较了不同 LLM 对几种典型问题表示的效果,并分析了各自的优缺点。随后,我们探讨了少样本场景下的示例选择与组织策略。在示例选择方面,我们对比了不同的选择策略,并进一步验证了 LLM 能够从问题与 SQL 框架之间的映射关系中学习的假设。在示例组织方面,我们研究了展示完整信息、仅展示 SQL 查询或问题-SQL 对三种方式的可行性。
最后,我们的综合解决方案 DAIL-SQL 以 86.6% 的执行准确率刷新了 Spider 榜单,荣登榜首。与以往的方案相比,DAIL-SQL 将结构知识编码为 SQL 语句,依据示例的骨架相似性进行选择,并移除示例中的跨领域知识以提高 token 利用效率。
环境搭建
要搭建环境,您需要下载 stanford-cornlp,并将其解压到 ./third_party 文件夹中。接下来,启动 coreNLP 服务器:
apt install default-jre
apt install default-jdk
cd third_party/stanford-corenlp-full-2018-10-05
nohup java -mx4g -cp "*" edu.stanford.nlp.pipeline.StanfordCoreNLPServer &
cd ../../
此外,还需设置 Python 环境:
conda create -n DAIL-SQL python=3.8
conda activate DAIL-SQL
python -m pip install --upgrade pip
pip install -r requirements.txt
python nltk_downloader.py
数据准备
您需要将 Spider 下载到 ./dataset/spider 文件夹中。
运行
数据预处理
python data_preprocess.py
提示生成
选择基于掩码问题相似性的示例:
python generate_question.py \
--data_type spider \
--split test \
--tokenizer gpt-3.5-turbo \
--max_seq_len 4096 \
--prompt_repr SQL \
--k_shot 9 \
--example_type QA \
--selector_type EUCDISQUESTIONMASK
同时考虑问题相似性和查询相似性的示例选择:
python generate_question.py \
--data_type spider \
--split test \
--tokenizer gpt-3.5-turbo \
--max_seq_len 4096 \
--selector_type EUCDISMASKPRESKLSIMTHR \
--pre_test_result [your_pre_generated_queries_file] \
--prompt_repr SQL \
--k_shot 9 \
--example_type QA
调用 LLM
不采用投票机制:
python ask_llm.py \
--openai_api_key [your_openai_api_key] \
--model gpt-4 \
--question [prompt_dir]
采用自洽投票机制:
python ask_llm.py \
--openai_api_key [your_openai_api_key] \
--model gpt-4 \
--question [prompt_dir] \
--n 5 \
--db_dir ./dataset/spider/database \
--temperature 1.0
示例运行
bash run_dail_sql_mini.sh [your_openai_api_key]
实验
在本工作中,我们系统性地研究了基于 LLM 的文本到 SQL 方法中的提示工程,涵盖了五种问题表示、两种提示组件、四种示例选择以及三种示例组织方式,并在四款 LLM 上进行了实验。这项研究有助于识别适合的问题表示形式,以及如何利用 LLM 的上下文学习能力来提升文本到 SQL 任务的表现。我们展示了在 Spider 训练集上的实验结果。在此,我们以 Graphix 作为初步模型,预先生成 SQL 查询以获取查询相似性。评估指标请参考 Test Suites。
问题表示
我们在零样本场景下评估了从其他研究中总结出的五种问题表示,并使用了 GPT-4、GPT-3.5-TURBO、TEXT-DAVINCI-003 和 Vicuna-33B 四款 LLM。结果表明,代码表示提示和 OpenAI 展示提示更为优选。


我们还研究了外键和“无解释”规则的影响。结果显示,外键和“无解释”规则对文本到 SQL 任务均有积极作用。




示例选择
随后,我们在少样本场景下研究不同示例选择方法的效果。我们强调,在示例选择中应同时考虑问题相似性和查询相似性,正如DAIL-SQL所做的那样。
| 少样本 | 选择方式 | 问题 相似性 |
查询 相似性 |
GPT-4 | GPT-3.5-TURBO | TEXT-DAVINCI-003 | Vicuna-33B | ||||
| EM | EX | EM | EX | EM | EX | EM | EX | ||||
| 0-shot | - | - | - | 22.1 | 72.3 | 34.6 | 74.4 | 31.7 | 71.7 | 6.9 | 43.7 |
| 1-shot | 随机 | 0.23 | 0.47 | 41.7 | 77.4 | 45.9 | 73.9 | 38.2 | 70.6 | 14.4 | 47.9 |
| 基于问题相似性的选择 | 0.39 | 0.65 | 53.3 | 78.8 | 51.9 | 74.3 | 44.1 | 72.3 | 16.5 | 48.5 | |
| 掩码式问题相似性选择 | 0.57 | 0.80 | 58.2 | 79.1 | 57.4 | 76.0 | 47.9 | 75.0 | 21.4 | 48.7 | |
| DAIL选择 | 0.56 | 0.95 | 62.1 | 80.2 | 59.5 | 75.5 | 51.9 | 76.9 | 22.8 | 49.2 | |
| 3-shot | 随机 | 0.23 | 0.48 | 48.9 | 79.4 | 49.0 | 73.6 | 41.7 | 71.6 | 16.8 | 46.9 |
| 基于问题相似性的选择 | 0.37 | 0.63 | 56.3 | 79.2 | 53.8 | 74.7 | 52.2 | 74.1 | 21.1 | 47.1 | |
| 掩码式问题相似性选择 | 0.54 | 0.78 | 66.1 | 81.5 | 61.1 | 77.3 | 59.7 | 77.0 | 27.7 | 52.3 | |
| DAIL选择 | 0.53 | 0.94 | 69.1 | 81.7 | 63.9 | 77.8 | 64.4 | 79.5 | 30.7 | 53.6 | |
| 5-shot | 随机 | 0.23 | 0.48 | 51.6 | 79.5 | 52.9 | 75.7 | 49.0 | 72.1 | - | - |
| 基于问题相似性的选择 | 0.36 | 0.61 | 58.2 | 79.9 | 55.9 | 75.1 | 54.8 | 73.2 | - | - | |
| 掩码式问题相似性选择 | 0.52 | 0.77 | 66.8 | 82.0 | 62.3 | 77.9 | 64.7 | 78.6 | - | - | |
| DAIL选择 | 0.52 | 0.94 | 71.9 | 82.4 | 66.7 | 78.1 | 67.7 | 80.5 | - | - | |
示例组织方式
最后,我们考察了DAIL-SQL中的示例组织方式,即在示例中不包含与成本相关的数据库模式信息,而仅向大语言模型展示问题和查询对。在分析中,我们将DAIL-SQL的组织方式与全信息组织和仅SQL组织进行了对比,发现DAIL组织对于强大的大语言模型而言是一种高效且有效的方法。
![]() GPT-4 |
![]() GPT-3.5-TURBO |
![]() TEXT-DAVINCI-003 |
![]() Vicuna-33B |
DAIL-SQL的评估
在评估过程中,我们以GPT-4本身作为获取查询相似性的初步模型。相关命令见run_dail_sql.sh和run_dail_sql_with_sc.sh。
| 方法 | 开发集EM | 开发集EX | 测试集EM | 测试集EX |
|---|---|---|---|---|
| DAIL-SQL+GPT-4 | 70.0 | 83.1 | 66.5 | 86.2 |
| DAIL-SQL+GPT-4+自一致性 | 68.7 | 83.6 | 66.0 | 86.6 |
Bibtex
若DAIL-SQL对您有所帮助,请考虑引用它。谢谢!:)
@article{dail_sql,
author = {Dawei Gao and
Haibin Wang and
Yaliang Li and
Xiuyu Sun and
Yichen Qian and
Bolin Ding and
Jingren Zhou},
title = {大型语言模型赋能的Text-to-SQL:基准评估},
journal = {CoRR},
volume = {abs/2308.15363},
year = {2023}
}
致谢
模式链接部分的代码灵感来源于RAT-SQL。
自一致性投票部分的代码灵感来源于C3SQL。
常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器



