PromptPapers
PromptPapers 是一个专注于预训练语言模型提示学习(Prompt-based Tuning)的精选论文清单。在传统的微调方法中,模型通常需要额外的分类器来处理特定任务,而提示学习则通过巧妙设计输入模板,直接利用模型原有的预训练能力完成分类或回归,从而实现了不同任务的统一与更高效的知识迁移。
PromptPapers 旨在解决研究人员在面对海量学术文献时难以快速捕捉前沿动态的痛点。它系统性地梳理了该领域的必读论文,涵盖从基础理论、试点工作、深度分析到具体改进方案等多个维度,并持续更新以反映最新的研究趋势。此外,项目还建立了清晰的标签体系,帮助用户根据模型架构、模板类型或任务场景快速定位所需内容。
这一资源特别适合自然语言处理领域的研究人员、算法工程师以及希望深入理解大模型适配技术的开发者使用。无论是刚入门探索提示学习的新手,还是寻求灵感的专业学者,都能从中获得宝贵的参考。值得一提的是,PromptPapers 由清华大学 NLP 实验室团队维护,不仅提供了高质量的文献索引,还与开源工具 OpenPrompt 形成互补,为理论研究与工程实践搭建了便捷的桥梁,极大地降低了学习与复现的门槛。
使用场景
某 NLP 实验室的研究团队正致力于利用提示学习(Prompt-learning)优化预训练语言模型,以解决少样本场景下的文本分类难题。
没有 PromptPapers 时
- 文献检索低效:研究人员需在 arXiv、Google Scholar 等多个平台手动搜索"prompt tuning"、"prefix tuning"等关键词,耗时数天仍难以覆盖最新成果。
- 技术脉络模糊:面对海量论文,难以区分哪些是奠基性工作(Pilot Work),哪些是针对特定任务的改进(Improvements),导致实验选型缺乏理论支撑。
- 复现门槛过高:找到论文后,往往发现缺少统一的代码框架或关键超参数说明,团队成员需反复阅读正文甚至联系作者才能理清实现细节。
- 前沿动态滞后:由于缺乏集中更新机制,团队容易错过社区刚发布的 SOTA 方法,导致研究起点落后于国际同行。
使用 PromptPapers 后
- 一站式获取资源:团队直接访问 PromptPapers,瞬间获取按“概述”、“基础”、“分析”等类别整理的 60+ 篇必读论文,且每篇均附带 PDF 链接与项目地址。
- 清晰的技术图谱:借助仓库定义的标签体系(如 Continuous_Template、Generation),研究者能快速定位适合少样本分类的连续提示模板方法,迅速锁定核心参考文献。
- 无缝衔接实战:通过列表中关联的 OpenPrompt 工具包链接,团队可直接复用成熟的开源框架进行实验,将原本需要一周的环境搭建与代码调试缩短至半天。
- 实时同步前沿:订阅仓库更新后,团队能第一时间掌握社区新提交的 PR 和最新论文,确保实验方案始终基于当前最先进的研究成果。
PromptPapers 将分散的学术碎片整合为结构化的知识导航,极大地压缩了从理论调研到代码落地的周期,让研发团队能专注于核心算法创新而非信息搜集。
运行环境要求
未说明
未说明

快速开始
PromptPapers
我们发布了一个开源的提示学习工具包,请查看 OpenPrompt!
我们强烈鼓励希望向社区推广其优秀工作的研究人员提交 pull request 来更新论文信息!(详见 贡献说明)
预训练模型的有效适配可以从不同角度进行探索。提示学习更侧重于训练过程的组织和不同任务的统一,而参数高效微调方法则从对预训练模型的具体优化方面提供了另一种思路。请参阅 DeltaPapers!
目录
关于基于提示的预训练语言模型微调的必读论文。该论文列表主要由 Ning Ding 和 Shengding Hu 维护。关注本仓库以获取最新更新!
简介
这是一个关于大规模预训练语言模型 基于提示的微调 的论文列表。与使用显式分类器的传统微调不同,基于提示的微调直接利用预训练模型来执行用于分类或回归的预训练任务。
关键词约定
该工作的缩写。
该工作中采用的提示学习关键特征。
该工作主要探索的任务类型。
该工作主要探讨的提示学习方法特性。
论文
概述
本节收录了综述近期自然语言处理领域中大型(预训练)模型发展趋势的论文。
OpenPrompt:一个用于提示学习的开源框架。 预印本。
Ding Ning, Hu Shengding, Zhao Weilin, Chen Yulin, Liu Zhiyuan, Zheng Haitao, Sun Maoson [pdf] [项目], 2021年11月
预训练模型:过去、现在与未来。 预印本。
Han Xu, Zhang Zhengyan, Ding Ning, Gu Yuxian, Liu Xiao, Huo Yuqi, Qiu Jiezhong, Yao Yuan, Zhang Ao, Zhang Liang, Han Wentao, Huang Minlie, Jin Qin, Lan Yanyan, Liu Yang, Liu Zhiyuan, Lu Zhiwu, Qiu Xipeng, Song Ruihua, Tang Jie, Wen Ji-Rong, Yuan Jinhui, Zhao Wayne Xin, Zhu Jun. [pdf], 2021年6月
预训练、提示与预测:自然语言处理中提示方法的系统性综述。 预印本。
Liu Pengfei, Yuan Weizhe, Fu Jinlan, Jiang Zhengbao, Hayashi Hiroaki, Neubig Graham. [pdf] [项目], 2021年7月
自然语言处理的范式转变。 机器智能研究。
Sun Tianxiang, Liu Xiangyang, Qiu Xipeng, Huang Xuanjing [pdf] [项目], 2021年9月
先导工作
本节收录了可能推动提示学习范式普及的先导性工作。
面向自然语言处理的参数高效迁移学习。 ICML 2019。
Houlsby Neil, Giurgiu Andrei, Jastrzebski Stanislaw, Morrone Bruna, de Laroussilhe Quentin, Gesmundo Andrea, Attariyan Mona, Gelly Sylvain. [pdf], [项目], 2019年6月
用统一的文本到文本变换器探索迁移学习的极限。 JMLR。
Raffel Colin, Shazeer Noam, Roberts Adam, Lee Katherine, Narang Sharan, Matena Michael, Zhou Yanqi, Li Wei, Liu Peter J. [pdf], [项目]. 2019年10月。
语言模型是知识库吗? EMNLP 2019。
Petroni Fabio, Rocktaschel Tim, Lewis Patrick, Bakhtin Anton, Wu Yuxiang, Miller Alexander H., Riedel Sebastian. [pdf], [项目] , 2019年9月
我们如何知道语言模型掌握了什么? TACL 2020。
Jiang Zhengbao, Xu Frank F., Araki Jun, Neubig Graham. [pdf], [项目], 2019年11月
语言模型是少样本学习者。 NeurIPS 2020。
Brown Tom B., Mann Benjamin, Ryder Nick, Subbiah Melanie, Kaplan Jared, Dhariwal Prafulla, Neelakantan Arvind, Shyam Pranav, Sastry Girish, Askell Amanda, Agarwal Sandhini, Herbert-Voss Ariel, Krueger Gretchen, Henighan Tom, Child Rewon, Ramesh Aditya, Ziegler Daniel M., Wu Jeffrey, Winter Clemens, Hesse Christopher, Chen Mark, Sigler Eric, Litwin Mateusz, Gray Scott, Chess Benjamin, Clark Jack, Berner Christopher, McCandlish Sam, Radford Alec, Sutskever Ilya, Amodei Dario. [pdf], [网站], 2020年5月
AdaPrompt:基于提示的自然语言处理自适应模型训练
Chen Yulong, Liu Yang, Dong Li, Wang Shuohang, Zhu Chenguang, Zeng Michael, Zhang Yue [pdf], 2022年2月
基础研究
本节收录了关于提示微调基本方面的探索,例如模板、表述器、训练范式等。
利用完形填空问题进行少样本文本分类和自然语言推理。 EACL 2021。
不仅仅是规模重要:小型语言模型也是少样本学习者。 NAACL 2021。
Autoprompt:通过自动生成的提示从语言模型中提取知识。 预印本。
泰勒·辛,雅萨曼·拉泽吉,罗伯特·L·洛根四世,埃里克·华莱士,萨米尔·辛格。 [pdf], [website], 2020.10
自动识别可用作少样本文本分类标签的词语。 COLING 2020。
使预训练语言模型成为更好的少样本学习者。 ACL 2021。
前缀调优:优化用于生成的连续提示。ACL 2021。
大型语言模型的提示编程:超越少样本范式。 预印本。
拉里娅·雷诺兹,凯尔·麦克唐奈尔。 [pdf], 2021.2
改进并简化模式利用训练。 预印本。
德里克·谭,拉凯什·R·梅农,莫希特·班萨尔,沙尚克·斯里瓦斯塔瓦,科林·拉菲尔。 [pdf], 2021.3
GPT也懂。 预印本。
参数高效提示调优中的规模效应。 预印本。
学会提问:用软提示混合物查询语言模型。 NAACL 2021。
事实探针是[MASK]:学习与学会回忆。 NAACL 2021。
减少提示和参数:使用语言模型进行简单的少样本学习。 预印本。
罗伯特·L·洛根四世,伊万娜·巴拉泽维奇,埃里克·华莱士,法比奥·佩特罗尼,萨米尔·辛格,塞巴斯蒂安·里德尔。 [pdf], 2021.6
WARP:词级对抗性重编程。 ACL 2021。
PTR:用于文本分类的基于规则的提示调优。 预印本。
韩旭,赵伟林,丁宁,刘志远,孙茂松。 [pdf], 2021.5
NSP-BERT:通过原始预训练任务——下一句预测——实现基于提示的零样本学习者
微调后的语言模型是零样本学习者。
贾森·韦伊,马尔滕·博斯马,文森特·Y·赵,凯尔文·古,亚当斯·韦伊·于,布赖恩·莱斯特,南·杜,安德鲁·M·戴,阮国·乐。 [pdf], 2021.9
PPT:用于少样本学习的预训练提示调优
顾宇贤*,韩旭*,刘志远,黄敏列。 [pdf], 2021.9
可微分提示使预训练语言模型成为更好的少样本学习者。 ICLR 2022。
多任务提示训练实现零样本任务泛化。
维克多·桑、阿尔伯特·韦布森、科林·拉菲尔、斯蒂芬·H·巴赫、林唐·苏塔维卡、扎伊德·阿拉亚菲、安托万·沙芬、阿诺·斯蒂格勒、泰文·勒·斯考、阿伦·拉贾、马南·戴、M·赛富尔·巴里、徐灿文、乌尔米什·塔克尔、沙尼亚·夏尔马·夏尔马、埃丽莎·什切赫拉、金泰云、古尼扬·查布拉尼、尼哈尔·纳亚克、德巴焦蒂·达塔、乔纳森·张、姜天健、王瀚、马泰奥·马尼卡、沈晟、郑欣勇、哈尔希特·潘迪、瑞秋·鲍登、托马斯·王、特里沙拉·尼拉杰、乔斯·罗曾、阿比什特·夏尔马、安德烈亚·桑蒂利、蒂博·费夫里、杰森·艾伦·弗里斯、瑞安·蒂汉、斯特拉·比德曼、Leo Gao、塔莉·贝尔斯、托马斯·沃尔夫、亚历山大·M·拉什。 [pdf], 2021年10月
P-Tuning v2:提示调优在不同规模和任务上均可与微调相媲美。 ACL 2022。
面向语言模型即服务的黑盒调优。 ICML 2022。
预训练语言模型的黑盒提示学习。 预印本。
刁世哲、李雪纯、林勇、黄志超、张彤 [pdf], 2022年1月
用符号语言绑定语言模型。 预印本。
程周俊*、谢天宝*、史鹏、李成祖、拉胡尔·纳德卡尼、胡宇诗、熊才明、德拉戈米尔·拉德夫、玛丽·奥斯滕多夫、卢克·泽特洛莫耶、诺亚·A·史密斯、余涛 [pdf], [项目], [网站], 2022年10月
用于增强ChatGPT提示工程的提示模式目录。
朱尔斯·怀特、付秋晨、萨姆·海斯、迈克尔·桑德伯恩、卡洛斯·奥莱亚、亨利·吉尔伯特、阿什拉夫·埃尔纳沙尔、杰西·斯宾塞-史密斯、道格拉斯·C·施密特 [pdf], 2023年2月
分析
本节包含对提示学习方法的分析,包括但不限于提示学习为何有效、提示学习方法的各种特性以及提示学习方法的局限性。
什么构成 GPT-3 的良好上下文示例? 预印本。
刘嘉昌、沈丁翰、张一哲、比尔·多兰、劳伦斯·卡林、陈伟柱。[pdf] 2021年1月
一个提示相当于多少个数据点? NAACL 2021。
表面形式竞争——为什么概率最高的答案并不总是正确的。 预印本。预印本。
自然指令:基于自然语言指令的新任务泛化基准测试。 预印本。
奇妙有序的提示及其发现:克服少样本提示顺序敏感性。 预印本。
姚璐、马克斯·巴托洛、阿拉斯泰尔·摩尔、塞巴斯蒂安·里德尔、蓬图斯·斯滕内托普。[pdf] 2021年4月
元微调语言模型以更好地回答提示。 预印本。
钟瑞琪、克里斯蒂·李*、郑章*、丹·克莱因。[pdf] 2021年4月
使用语言模型实现真正的少样本学习。 预印本。
预训练语言模型为何有助于下游任务?头部与提示微调的分析。 预印本。
科林·魏、桑·迈克尔·谢、滕宇·马 [pdf],2021年6月
基于提示的模型真的理解其提示的含义吗? 预印本。
避免少样本提示微调中的推理启发式。 预印本。
普拉塞提亚·阿吉·乌塔马、纳菲塞·萨达特·穆萨维、维克托·桑、伊琳娜·古列维奇。[pdf],2021年9月
迈向参数高效的迁移学习统一视角。 预印本。
何俊贤、周春婷、马学哲、泰勒·伯格-柯克帕特里克、格雷厄姆·诺比格。[pdf],2021年10月
通过提示微调探索低维内在任务子空间。 预印本。
秦宇佳、王晓志、苏宇生、林彦凯、丁宁、刘志远、李娟子、侯磊、李鹏、孙茂松、周杰 [pdf]
探索基于提示的学习范式的普遍脆弱性。 NAACL 2022 的研究成果。
重新思考演示的作用: 是什么让上下文学习奏效? Arxiv 2022。
徐世文、吕欣希、阿里·霍尔茨曼、米凯尔·阿特切、迈克·刘易斯、汉娜内·哈吉希尔齐、卢克·泽特勒莫耶 [pdf],[项目]
参数高效的提示微调使神经文本检索器具备泛化与校准能力。 预印本。
忽略先前提示:针对语言模型的攻击技术。 2022年 NeurIPS 机器学习安全研讨会最佳论文奖。
改进方法
本节介绍了基础提示调优方法的改进,包括但不限于利用额外资源提升性能、弥补前人工作的不足,或以非常规方式开展提示调优。
使用前校准:提升语言模型的小样本性能。 预印本。
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh. [pdf], [项目], 2021年2月
基于高效(软)Q学习的文本生成。 预印本。
Han Guo, Bowen Tan, Zhengzhong Liu, Eric P. Xing, Zhiting Hu. [pdf], 2021年6月
知识型提示调优:将知识融入提示释义器以进行文本分类。 预印本。
Hu Shengding, Ding Ning, Wang Huadong, Liu Zhiyuan, Li Juanzi, Sun Maosong. [pdf], [项目], 2021年8月
用于小样本文本分类的噪声信道语言模型提示方法。 预印本。
Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer. [pdf], 2021年8月
通过在数据集和提示集合上进行元调优,使语言模型适应零样本学习。
Zhong Ruiqi, Kristy Lee* Zhang Zheng*, Dan Klein. [pdf], 2021年9月
重新审视语言模型的小样本学习中的自训练方法。 预印本。
Chen Yiming, Zhang Yan, Zhang Chen, Lee Grandee, Cheng Ran, Li Haizhou. [pdf], 2021年10月
LiST:轻量级自训练助力高效的小样本学习者。 预印本。
Wang Yaqing, Mukherjee Subhabrata, Liu Xiaodong, Gao Jing, Awadallah Ahmed Hassan, Gao Jianfeng. [pdf], 2021年10月
基于原型的释义器用于基于提示的小样本调优。 ACL 2022。
Cui Ganqu, Hu Shengding, Ding Ning, Huang Longtao, Liu Zhiyuan. [pdf], [项目], 2022年3月
BBTv2:纯黑盒优化在小样本学习中可与梯度下降相媲美。 预印本。
Sun Tianxiang, He Zhengfu, Qian Hong, Huang Xuanjing, Qiu Xipeng [pdf] [项目], 2022年5月
专项应用
本节介绍针对各类自然语言处理任务设计的提示学习方法。
大声思考:动态上下文生成提升GPT-2的零样本推理性能。 预印本。
Betz Gregor, Richardson Kyle, Voigt Christian. [pdf] 2021年3月
GPT3Mix:利用大规模语言模型进行文本增强。 预印本。
Yoo Kang Min, Park Dongju, Kang Jaewook, Lee Sang-Woo, Park Woomyeong. [pdf] 2021年4月
受限语言模型实现小样本语义解析。 预印本。
Shin Richard, Lin Christopher H., Thomson Sam, Chen Charles, Roy Subhro, Platanios Emmanouil Antonios, Pauls Adam, Klein Dan, Eisner Jason, Van Durme Benjamin. [pdf] 2021年4月
标签释义与蕴含关系推理用于高效的零样本及小样本关系抽取。 EMNLP 2021。
Sainz Oscar, Lopez de Lacalle Oier, Labaka Gorka, Barrena Ander, Agirre Eneko. [pdf], 2021年4月
PADA:一种基于提示的自回归方法,用于适应未见领域 预印本。
用于细粒度实体类型的提示学习。 预印本。
Ding Ning, Chen Yulin, Han Xu, Xu Guangwei, Xie Pengjun, Zheng Hai-Tao, Liu Zhiyuan, Li Juanzi, Kim Hong-Gee [pdf],2021年8月
KnowPrompt:面向关系抽取的知识感知提示调优与协同优化。 WWW 2022。
Chen Xiang, Xie Xin, Zhang Ningyu, Yan Jiahuan, Deng Shumin, Tan Chuanqi, Huang Fei, Si Luo, Chen Huajun.. [pdf], [项目], 2021年9月
探索基于提示的小样本学习在具身对话生成中的应用。 预印本。
Zheng Chujie, Huang Minlie. [pdf], 2021年9月
SentiPrompt:情感知识增强的提示调优用于基于方面的 sentiment 分析。 预印本。
Li Chengxi, Gao Feiyu, Bu Jiajun, Xu Lu, Chen Xiang, Gu Yu, Shao Zirui, Zheng Qi, Zhang Ningyu, Wang Yongpan, Yu Zhi. [pdf] 2021年9月
无需模板的提示微调用于少样本命名实体识别。 预印本。
Ma Ruotian*, Zhou Xin*, Gui Tao, Tan Yiding, Zhang Qi, Huang Xuanjing. [pdf], 2021年9月
为视觉-语言模型学习提示方法。 预印本。
Zhou Kaiyang, Yang Jingkang, Loy Chen Change, Liu Ziwei. [pdf], 2021年9月
CPT:面向预训练视觉-语言模型的多彩提示微调。 预印本。
Yao Yuan*, Zhang Ao*, Zhang Zhengyan, Liu Zhiyuan, Chua Tat-Seng, Sun Maosong. [pdf], 2021年10月
MSP:多阶段提示机制以提升预训练语言模型的翻译能力。 预印本。
Tan Zhixing, Zhang Xiangwen, Wang Shuo, Liu Yang. [pdf], 2021年10月
小样本机器人:基于提示的学习应用于对话系统。 预印本。
Madotto Andrea, Lin Zhaojiang, Winata Genta Indra, Fung Pascale [pdf], 2021年10月
用于文本生成的控制前缀。 预印本。
Clive Jordan, Cao Kris, Rei Marek. [pdf], 2021年10月
提示微调在低资源语义解析中的强大作用。 预印本。
Schucher Nathan, Reddy Siva, de Vries Harm. [pdf], 2021年10月
一个好的提示胜过数百万参数?视觉-语言模型的低资源提示学习。
Jin Woojeong, Cheng Yu, Shen Yelong, Chen Weizhu, Ren Xiang. [pdf]
LightNER:一种轻量级生成框架,结合提示引导的注意力机制用于低资源命名实体识别。 COLING 2022。
Chen Xiang, Li Lei, Deng Shumin, Tan Chuanqi, Xu Changliang, Huang Fei, Si Luo, Chen Huajun, Zhang Ningyu. [pdf], [项目], 2021年8月
UnifiedSKG:利用文本到文本语言模型实现结构化知识对齐与多任务处理。
Xie Tianbao*, Wu Chen Henry*, Shi Peng, Zhong Ruiqi, Scholak Torsten, Yasunaga Michihiro, Wu Chien-Sheng, Zhong Ming, Yin Pengcheng, Wang Sida I., Zhong Victor, Wang Bailin, Li Chengzu, Boyle Connor, Ni Ansong, Yao Ziyu, Radev Dragomir, Xiong Caiming, Kong Lingpeng, Zhang Rui, Smith Noah A., Zettlemoyer Luke, Yu Tao.[pdf], [项目], [网站], 2022年1月
本体增强的提示微调用于少样本学习。 WWW 2022。
Ye Hongbin, Zhang Ningyu, Deng Shumin, Chen Xiang, Chen Hui, Xiong Feiyu, Chen Xi, Chen Huajun. [pdf], 2022年1月
为持续学习而学习提示方法。 CVPR 2022。
Wang Zifeng, Zhang Zizhao, Lee Chen-Yu, Zhang Han, Sun Ruoxi, Ren Xiaoqi, Su Guolong, Perot Vincent, Dy Jennifer, Pfister Tomas. [pdf], [项目], 2021年12月
关系抽取如开卷考试:检索增强型提示微调。 SIGIR 2022。
Chen Xiang, Li Lei, Zhang Ningyu, Tan Chuanqi, Huang Fei, Si Luo, Chen Huajun. [pdf], [项目], 2022年5月
良好的视觉引导带来更优秀的抽取器:用于多模态实体与关系抽取的层次化视觉前缀。 NAACL 2022发现。
Chen Xiang, Zhang Ningyu, Li Lei, Yao Yunzhi, Deng Shumin, Tan Chuanqi, Huang Fei, Si Luo, Chen Huajun. [pdf], [项目], 2022年5月
思维链提示激发大型语言模型的推理能力。 2022年预印本。
Wei Jason, Wang Xuezhi, Schuurmans Dale, Bosma Maarten, Chi Ed, Le Quoc, Zhou Denny. [pdf]
自洽性提升语言模型中的思维链推理。 2022年预印本。
Wang Xuezhi, Wei Jason, Schuurmans Dale, Le Quoc, Chi Ed, Narang Sharan, Chowdhery Aakanksha, Zhou Denny. [pdf]
大型语言模型是零样本推理者。 2022年预印本。
Kojima Takeshi, Gu Shixiang Shane, Reid Machel, Matsuo Yutaka, Iwasawa Yusuke. [pdf]
由简入繁的提示机制使大型语言模型具备复杂推理能力。 2022年预印本。
Zhou Denny, Schärli Nathanael, Hou Le, Wei Jason, Scales Nathan, Wang Xuezhi, Schuurmans Dale, Bousquet Olivier, Le Quoc, Chi Ed. [pdf]
助产术式提示:通过递归解释实现逻辑一致的推理。 2022年预印本。
Jung Jaehun, Qin Lianhui, Welleck Sean, Brahman Faeze, Bhagavatula Chandra, Le Bras Ronan, Choi Yejin [pdf]
关于提升语言模型推理能力的进展。 预印本 2022年。
李一飞、林泽奇、张世卓、傅强、陈贝、楼建光、陈伟柱 [pdf]
学习为组合性零样本学习构建软提示。 预印本 2022年。
将知识与记忆解耦:检索增强型提示学习。 NeurIPS 2022。
探索大型语言模型中的长度泛化能力。 预印本 2022年。
塞姆·阿尼尔、吴宇怀、安德斯·安德烈森、艾托尔·莱科维茨、韦丹特·米斯拉、维奈·拉马塞什、安布罗斯·斯隆、盖伊·古尔-阿里、伊桑·戴尔、贝赫南·内沙布尔 [pdf]
问我任何问题:一种简单的语言模型提示策略。 预印本 2022年。
西姆兰·阿罗拉、阿瓦尼卡·纳拉扬、梅伊·F·陈、劳雷尔·奥尔、尼尔·古哈、库什·巴蒂亚、伊内斯·查米、弗雷德里克·萨拉、克里斯托弗·雷 [pdf]
衡量并缩小语言模型中的组合性差距 预印本 2022年。
奥菲尔·普雷斯、穆鲁·张、塞文·闵、路德维希·施密特、诺亚·A·史密斯、迈克·刘易斯 [pdf]
RLPrompt:利用强化学习优化离散文本提示 预印本 2022年。
邓明凯、王建宇、谢承平、王怡涵、郭汉、舒天民、宋萌、埃里克·P·邢、胡志婷 [pdf]
基于语言模型提示的推理:综述 预印本 2022年。
乔硕飞、欧义欣、张宁宇、陈翔、姚云志、邓淑敏、谭传奇、黄飞、陈华军 [pdf]
贡献
其他贡献者
我们感谢 秦宇佳、冯夏冲、司成磊、谢天宝、穆赫塔沙姆·奥布洛库洛夫 对论文的推荐。
如何为本文献列表做贡献
- 首先,思考该工作应属于哪个类别。
- 其次,使用与其他条目相同的格式来描述该工作。请注意,标题和作者列表之间应留有空行,并注意缩进。
- 然后,添加关键词标签。附上论文的PDF链接。如果是arXiv上的论文,我们更倾向于使用 /abs/ 格式,而非 /pdf/ 格式。
即使你弄错了也没关系,我们会帮你修正。 只要贡献你的优秀工作,就能在这里得到推广!
如果你推荐的作品并非出自你自己,你将会被列入贡献者名单(请务必在其他贡献者部分提供你的信息)。
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。