awesome-machine-learning-in-compilers
awesome-machine-learning-in-compilers 是一个精心整理的开源资源库,专注于汇聚机器学习在编译器与系统优化领域的前沿成果。它解决了该交叉学科研究资料分散、入门门槛高的问题,将海量的学术论文、数据集、软件工具及行业会议信息进行了系统化分类与整合。
这份清单涵盖了从基础的综述文章到具体的迭代编译、指令级优化、并行任务调度,再到如今热门的大语言模型(LLM)与编译器协同等细分方向。无论是希望快速了解领域全貌的初学者,还是正在寻找特定算法实现或基准测试数据的研究人员与编译器开发者,都能在这里高效定位所需资源。
其独特亮点在于不仅收录了经典的传统机器学习应用案例,还持续更新包括“深度学习编译器”及"LLM 与新编译器栈”在内的最新技术趋势,确保了内容的前瞻性与实用性。对于致力于提升代码执行效率、探索自动调优技术或从事相关学术研究的专业人士而言,awesome-machine-learning-in-compilers 是一份不可或缺的权威导航指南,帮助大家站在巨人的肩膀上推动系统性能优化的边界。
使用场景
某高性能计算团队正在为新一代 AI 芯片开发定制化编译器,急需通过自动调优技术挖掘硬件极致性能。
没有 awesome-machine-learning-in-compilers 时
- 文献检索如大海捞针:团队成员需手动在各大会议(如 CGO、ASPLOS)和期刊中筛选“机器学习用于编译优化”的论文,耗时数周仍难以覆盖关键成果。
- 技术路线盲目试错:缺乏对迭代编译、指令级优化等细分领域的系统认知,导致在“搜索空间构建”等核心问题上重复造轮子,甚至选错算法方向。
- 数据与工具链断裂:找不到权威的基准测试集(Benchmarks)和开源数据集,无法复现前沿论文效果,模型训练因缺乏高质量数据而停滞。
- 领域知识更新滞后:错过关于大语言模型(LLM)与编译器协同的最新综述,未能及时将生成式 AI 引入代码表示学习,错失架构升级窗口。
使用 awesome-machine-learning-in-compilers 后
- 核心资源一键直达:直接获取按“自动调优”、“并行映射”等场景分类的精选论文列表,半天内即可锁定如 SRTuner 等最适合当前芯片特性的顶会方案。
- 研发路径清晰明确:借助分类清晰的综述文章,快速理解不同优化策略的适用边界,避免了在无效搜索空间上的算力浪费,决策效率提升显著。
- 实验环境快速搭建:利用列表中提供的专用数据集和工具链接,迅速复现基准测试,将模型从理论验证到实际部署的周期从数月缩短至数周。
- 前沿技术无缝衔接:通过追踪列表中持续更新的"LLM 与编译器协同”等最新研究,成功引入基于程序表示学习的新型优化器,大幅提升了代码生成质量。
awesome-machine-learning-in-compilers 将原本分散孤立的学术资源转化为结构化的工程导航图,让编译器研发团队能站在巨人肩膀上加速创新。
运行环境要求
未说明
未说明

快速开始
用于编译器和程序优化的优秀机器学习资源
这是一份精心整理的列表,汇集了将机器学习技术应用于编译器和程序优化领域的优秀研究论文、数据集和工具。
目录
论文
综述
编译器优化中的机器学习 - 郑 Wang 和 Michael O'Boyle,IEEE 会刊,2018年
基于机器学习的编译器自动调优综述 - Amir H. Ashouri、William Killian、John Cavazos、Gianluca Palermo 和 Cristina Silvano,ACM 计算综述 (CSUR),2018年
针对大型代码与自然性的机器学习综述 - Miltiadis Allamanis、Earl T. Barr、Premkumar Devanbu 和 Charles Sutton,ACM 计算综述 (CSUR),2018年
面向系统问题的机器学习分类法 - Martin Maas,IEEE Micro,2020年
深度学习编译器:全面综述 - Mingzhen Li、Yi Liu、Xiaoyan Liu、Qingxiao Sun、Xin You、Hailong Yang、Zhongzhi Luan、Lin Gan、Guangwen Yang、Depei Qian,IEEE 并行与分布式系统汇刊,2021年
新型编译器栈:LLMs 与编译器协同作用的综述 - Shuoming Zhang、Jiacheng Zhao、Qiuchu Yu、Chunwei Xia、郑 Wang、Xiaobing Feng、Huimin Cui,CCF 高性能计算汇刊,2026年
迭代编译与编译器选项调优
迈向高效的编译器自动调优:利用协同搜索空间 - 潘浩林、魏元宇、邢明杰、吴延军、赵晨。CGO 2025。
SRTuner:通过揭示协同关系实现有效的编译优化定制 - 朴成贤、萨拉尔·拉蒂菲、朴勇俊、阿曼德·贝赫鲁齐、全炳洙、斯科特·马尔克。CGO 2022。
基于度量学习和协同过滤的迭代编译优化 - 刘洪志、罗杰、李颖、吴忠海。ACM TACO 2022。
贝叶斯优化优于随机搜索用于机器学习超参数调优:对2020年黑盒优化挑战赛的分析 - 瑞安·特纳、大卫·埃里克森、迈克尔·麦考特、尤哈·基利、埃罗·拉克索宁、许振、伊莎贝尔·盖永。arXiv 2021。
Bliss:利用多样化轻量级学习模型池对复杂应用进行自动调优 - RB Roy、T Patel、V Gadepally、D Tiwari。PLDI 2021。
通过贝叶斯优化实现高效的编译器自动调优 - 陈俊杰、徐宁欣、陈沛琪、张宏宇。ICSE 2021。
针对LLVM/Polly可组合循环优化变换的定制蒙特卡洛树搜索 - 郜在勋、普拉桑纳·巴拉普拉卡什、迈克尔·克鲁泽、吴兴富、保罗·霍夫兰、玛丽·霍尔。Arxiv.org,2021。
基本块重排序的改进 - 安迪·纽厄尔和谢尔盖·普皮列夫。IEEE计算机汇刊,2020。
基于深度强化学习的静态神经网络编译优化 - 拉希姆·马马德利、阿里·詹内萨里、费利克斯·沃尔夫。LLVM HPC研讨会,2020。
循环变换的自动调优搜索空间 - 微克·克鲁泽、哈尔·芬克尔、吴兴富。LLVM HPC研讨会,2020。
用于编译器优化自动调优的协同过滤方法 - 斯特凡诺·切雷达、詹卢卡·帕莱尔莫、保罗·克雷莫内西和斯特凡诺·多尼。LCTES 2020。
Autophase:利用深度强化学习进行高层次综合中的编译阶段排序。阿米尔·哈吉-阿里、黄启静、威廉·摩西、约翰·向、伊恩·斯托伊卡、克尔斯泰·阿萨诺维奇、约翰·瓦夫日涅克。MLSys 2020。
FuncyTuner:使用逐循环编译对科学应用进行自动调优 - 王涛、尼基尔·贾因、戴维·贝金赛尔、戴维·博梅、弗兰克·穆勒、托德·甘布林。ICPP 2019。
Micomp:利用优化子序列和机器学习缓解编译阶段顺序问题 - 阿米尔·H·阿舒里、安德烈亚·比尼奥利、詹卢卡·帕莱尔莫、克里斯蒂娜·西尔瓦诺、萨米尔·库尔卡尼和约翰·卡瓦佐斯。ACM体系结构与代码优化汇刊(TACO)2017。
多面体模型中并行化的迭代调度优化 - 斯特凡·甘瑟、阿明·格罗斯林格、诺伯特·齐格蒙德、斯文·阿佩尔和克里斯蒂安·伦高。ACM体系结构与代码优化汇刊(TACO),2017。
学习如何对程序进行超级优化 - 鲁迪·布内尔、阿尔班·德斯梅松、M·帕万·库马尔、菲利普·H.S. 托尔、普什米特·科利姆。ICLR 2017。
编译器启发式规则的持续学习 - 米凯莱·塔塔拉和斯特凡诺·克雷斯皮·雷吉齐。ACM体系结构与代码优化汇刊(TACO),2013。
利用机器学习缓解编译优化阶段顺序问题 - 萨米尔·库尔卡尼和约翰·卡瓦佐斯。OOPSLA 2012。
不同建模技术在迭代编译中的评估 - 朴恩静、萨米尔·库尔卡尼和约翰·卡瓦佐斯。CASES 2011。
在1000个数据集上评估迭代优化 - 杨辰、黄渊杰、利文·埃克豪特、格里戈里·福尔辛、梁鹏、奥利维尔·特马姆和吴承勇。PLDI 2010。
多面体模型中的迭代优化:第二部分,多维时间 - 路易斯-诺埃尔·普谢、塞德里克·巴斯图尔、阿尔贝·科恩和约翰·卡瓦佐斯。PLDI 2008。
Cole:编译优化层次探索 - 肯尼思·霍斯特和利文·埃克豪特。CGO 2008。
MILEPOST GCC:基于机器学习的研究型编译器 - 格里戈里·福尔辛、库比蒂诺·米兰达、奥利维尔·特马姆、米尔恰·纳莫拉鲁、埃拉德·约姆-托夫、阿亚尔·扎克斯、比尔哈·门德尔松等人,2008。
启发式优化阶段顺序搜索算法的评估 - J. W. 戴维森、加里·S·泰森、D. B. 韦利和P. A. 库尔卡尼。CGO 2007。
利用性能计数器快速选择优秀的编译优化 - 约翰·卡瓦佐斯、格里戈里·福尔辛、费利克斯·阿加科夫、埃德温·博尼利亚、迈克尔·FP·奥博伊尔和奥利维尔·特马姆。CGO 2007。
利用机器学习聚焦迭代优化 - 费利克斯·阿加科夫、埃德温·博尼利亚、约翰·卡瓦佐斯、比约恩·弗兰克、格里戈里·福尔辛、迈克尔·FP·奥博伊尔、约翰·汤姆森、马克·图桑和克里斯托弗·K.I. 威廉姆斯。CGO 2006。
使用逻辑回归进行特定方法的动态编译 - 约翰·卡瓦佐斯和迈克尔·FP·奥博伊尔。OOPSLA 2005。
利用监督分类预测展开因子 - 马克·斯蒂芬森和萨曼·阿马拉辛格。CGO 2005。
高效优化阶段序列的快速搜索 - 普拉萨德·库尔卡尼、斯蒂芬·海因斯、杰森·希瑟、戴维·韦利、杰克·戴维森和道格拉斯·琼斯。PLDI 2004。
指令级优化
VEGA:利用预训练的Transformer模型自动生成编译器后端 - 钟明、吕芳、王璐琳、邱磊、王莹莹、刘颖、崔慧敏、冯晓兵、薛静玲。CGO 2025。
RL4ReAl:用于寄存器分配的强化学习 - S. VenkataKeerthy、Siddharth Jain、Anilava Kundu、Rohit Aggarwal、Albert Cohen、Ramakrishna Upadrasta。CC 2023。
强化学习辅助的局部性和向量化循环分布 - Shalini Jain、S. VenkataKeerthy、Rohit Aggarwal、Tharun Kumar Dangeti、Dibyendu Das、Ramakrishna Upadrasta。LLVM HPC Workshop 2022。
利用强化学习发现更快的矩阵乘法算法 - Fawzi、Alhussein、Matej Balog、Aja Huang、Thomas Hubert、Bernardino Romera-Paredes、Mohammadamin Barekatain、Alexander Novikov等。Nature 2022。
面向多面体优化的强化学习环境 - Alexander Brauckmann、Andrés Goens、Jeronimo Castrillon。PACT,2021。
用于深度学习代码优化的AI驱动编译器技术 - Sanket Tavarageri、Gagandeep Goyal、Sasikanth Avancha、Bharat Kaul、Ramakrishna Upadrasta。Arxiv.org,2021。
VeGen:面向SIMD及更广泛应用的向量化器生成器 - Yishen Chen、Charith Mendis、Michael Carbin、Saman Amarasinghe。ASPLOS 2021。
基于深度学习的混合图着色算法用于寄存器分配 - Dibyendu Das、Shahid Asghar Ahmad、Kumar Venkataramanan。LLVM HPC Workshop,2020。
NeuroVectorizer:基于深度强化学习的端到端向量化 - Ameer Haj-Ali、Nesreen K. Ahmed、Ted Willke、Yakun Sophia Shao、Krste Asanovic、Ion Stoica。CGO 2020。
释放学习的力量:一种增强型基于学习的动态二进制翻译方法 - Song Changheng、Wang Wenwen、Pen-Chung Yew、Antonia Zhai、Zhang Weihua。USENIX ATC 2019。
使用模仿学习实现编译器自动向量化 - Charith Mendis、Cambridge Yang、Yewen Pu、Saman P. Amarasinghe、Michael Carbin。NeurIPS 2019。
针对二进制翻译中实际优化决策的多目标探索 - Sunghyun Park、Youfeng Wu、Janghaeng Lee、Amir Aupov、Scott Mahlke。ACM Transactions on Embedded Computing Systems (TECS),2019。
利用机器学习自动构建内联启发式规则 - Sameer Kulkarni、John Cavazos、Christian Wimmer、Douglas Simon。CGO 2013。
内联启发式规则的自动调优 - John Cavazos和Michael O'Boyle。SC 2005。
诱导启发式规则以决定是否进行调度 - John Cavazos和J. Eliot B. Moss。PLDI 2003。
元优化:用机器学习改进编译器启发式规则 - Mark Stephenson、Saman Amarasinghe、Martin Martin、Una-May O'Reilly。PLDI 2003。
学习调度直线代码 - J. Eliot B. Moss、Paul E. Utgoff、John Cavazos、Doina Precup、Darko Stefanovic、Carla E. Brodley、David Scheeff。NeurIPS 1998。
自动调优与设计空间探索
[推理编译器:LLM引导的高效模型推理优化](NeurIPS 2025) - Annabelle Sujun Tang、Christopher Priebe、Rohan Mahapatra、Lianhui Qin、Hadi Esmaeilzadeh。
[Compiler-R1:基于强化学习的智能编译器自动调优](NeurIPS 2025) - Haolin Pan、Hongyu Lin、Haoran Luo、Yang Liu、Kaichun Yao、Libo Zhang、Mingjie Xing、Yanjun Wu。
[pyATF:基于约束的Python自动调优工具](CC 2025) - Richard Schulze、Sergei Gorlatch、Ari Rasch。
[IntelliGen:面向张量程序的指令级自动调优,结合单调性内存优化](CGO 2025) - Zixuan Ma、Haojie Wang、Jingze Xing、Shuhong Huang、Liyan Zheng、Chen Zhang、Huanqi Cao、Kezhao Huang、Mingshu Zhai、Shizhi Tang、Penghan Wang、Jidong Zhai。
[面向张量计算的GPU内核加速自动调优](ICS 2024) - Chendi Li、Yufan Xu、Sina Mahdipour Saravani、P. Sadayappan。
[通过自动化发现与优化揭示编译器启发式规则](CGO 2024) - Volker Seeker、Chris Cummins、Murray Cole、Björn Franke、Kim Hazelwood、Hugh Leather。
[用于内核调度的液滴搜索算法](ACM TACO 2024) - Michael Canesche、Vanderson M. Rosario、Edson Borin、Fernando Magno Quintão Pereira。
[BaCO:一种快速且可移植的贝叶斯编译器优化框架](ASPLOS 2024) - Erik Hellsten、Artur Souza、Johannes Lenfers、Rubens Lacouture、Olivia Hsu、Adel Ejjeh、Fredrik Kjolstad、Michel Steuwer、Kunle Olukotun、Luigi Nardi。
[(反/再)组合的系统化表达:基于MDH的调度方法](CC 2023) - Ari Rasch、Richard Schulze、Denys Shabalin、Anne Elster、Sergei Gorlatch、Mary Hall。
[卷积的自动调优比你想象的更简单](ACM TACO 2022) - Nicolas Tollenaere、Guillaume Iooss、Stéphane Pouget、Hugo Brunie、Christophe Guillon、Albert Cohen、P. Sadayappan、Fabrice Rastello。
[迁移调优:复用自动调度以高效生成张量程序代码](PACT 2022) - Perry Gibson、Jose Cano。
[Glimpse:面向神经网络编译的硬件规范数学嵌入](DAC 2022) - Byung Hoon Ahn、Sean Kinzer、Hadi Esmaeilzadeh。
[深度学习编译器的一次性调优器](CC 2022) - Jaehun Ryu、Eunhyeok Park、Hyojin Sung。
[多遍机器学习编译器的灵活自动调优方法](PACT 2021) - Phitchaya Mangpo Phothilimthana、Amit Sabne、Nikhil Sarda、Karthik Srinivasa Murthy、Yanqi Zhou、Christof Angermueller、Mike Burrows、Sudip Roy、Ketan Mandke、Rezsa Farahani、Yu Emma Wang、Berkin Ilbeyi、Blake Hechtman、Bjarke Roune、Shen Wang、Yuanzhong Xu、Samuel J. Kaufman。
[TASO:通过图替换的自动生成优化深度学习计算](PACT 2021) - Zhihao Jia、Oded Padon、James Thomas、Todd Warszawski、Matei Zaharia、Alex Aiken。
[用于深度神经网络工作负载吞吐量优化的价值学习](MLSys 2021) - Benoit Steiner、Chris Cummins、Horace He、Hugh Leather。
[DynaTune:深度神经网络编译中的动态张量程序优化](ICLR 2021) - Minjia Zhang、Menghao Li、Chi Wang、Mingqin Li。
[利用进化图强化学习优化内存布局](ICLR 2021) - Shauharda Khadka、Estelle Aflalo、Mattias Mardar、Avrech Ben-David、Santiago Miret、Shie Mannor、Tamir Hazan、Hanlin Tang、Somdeb Majumdar。
[GPTune:面向百亿亿级应用的多任务学习自动调优](PPoPP 2021) - Yang Liu、Wissam M. Sid-Lakhdar、Osni Marques、Xinran Zhu、Chang Meng、James W. Demmel、Xiaoye S. Li。
[ApproxTuner:用于自适应近似的编译器与运行时系统](PPoPP 2021) - Hashim Sharif、Yifan Zhao、Maria Kotsifakou、Akash Kothari、Ben Schreiber、Elizabeth Wang、Yasmin Sarita、Nathan Zhao、Keyur Joshi、Vikram S. Adve、Sasa Misailovic、Sarita Adve。
[通过自动调优框架(ATF)高效调优具有相互依赖调优参数的并行程序](ACM TACO 2021) - Ari Rasch、Richard Schulze、Michel Steuwer、Sergei Gorlatch。
[变色龙:用于加速深度神经网络编译的自适应代码优化](ICLR 2020) - Byung Hoon Ahn、Prannoy Pilligundla、Amir Yazdanbakhsh、Hadi Esmaeilzadeh。
[Ansor:为深度学习生成高性能张量程序](OSDI 2020) - Lianmin Zheng、Chengfan Jia、Minmin Sun、Zhao Wu、Cody Hao Yu、Ameer Haj-Ali、Yida Wang、Jun Yang、Danyang Zhuo、Koushik Sen、Joseph E. Gonzalez、Ion Stoica。
[基于模式的GPU图处理算法自动调优器](PPoPP 2019) - Ke Meng、Jiajia Li、Guangming Tan、Ninghui Sun。
[FBNet:通过可微架构搜索实现硬件感知的高效卷积网络设计](CVPR 2019) - Bichen Wu、Xiaoliang Dai、Peizhao Zhang、Yanghan Wang、Fei Sun、Yiming Wu、Yuandong Tian、Peter Vajda、Yangqing Jia、Kurt Keutzer。
[TVM:面向深度学习的自动化端到端优化编译器](OSDI 2018) - Tianqi Chen、Thierry Moreau、Ziheng Jiang、Lianmin Zheng、Eddie Yan、Haichen Shen、Meghan Cowan等。
[BOAT:使用结构化贝叶斯优化构建自动调优器](WWW 2017) - Valentin Dalibard、Michael Schaarschmidt、Eiko Yoneki。
[Cobayn:基于贝叶斯网络的编译器自动调优框架](TACO 2016) - Amir H. Ashouri、Giovanni Mariani、Gianluca Palermo、Eunjung Park、John Cavazos、Cristina Silvano。
[针对输入敏感性的自动调优算法选择](PLDI 2015) - Yufei Ding、Jason Ansel、Kalyan Veeramachaneni、Xipeng Shen、Una-May O'Reilly、Saman Amarasinghe。
[Fast:基于最优解空间模型的快速模板自动调优框架](TACO 2015) - Yulong Luo、Guangming Tan、Zeyao Mo、Ninghui Sun。
[使用回归树优化GPU性能与功耗](SC 2015) - Wenhao Jia、Elba Garza、Kelly A. Shaw、Margaret Martonosi。
[基于强化学习的多核系统应用间及应用内热优化,以提升寿命](DAC 2014) - Anup K Das、Rishad Ahmed Shafik、Geoff V Merrett、Bashir M Al-Hashimi、Akash Kumar、Bharadwaj Veeravalli。
[Opentuner:可扩展的程序自动调优框架](PACT 2014) - Jason Ansel、Shoaib Kamil、Kalyan Veeramachaneni、Jonathan Ragan-Kelley、Jeffrey Bosboom、Una-May O'Reilly、Saman Amarasinghe。
[用自动调优驯服并行I/O复杂度](SC 2013) - Babak Behzad、Huong Vu Thanh Luu、Joseph Huchette、Surendra Byna、Ruth Aydt、Quincey Koziol、Marc Snir。
[面向并行代码的多目标自动调优框架](SC 2012) - Herbert Jordan、Peter Thoman、Juan J. Durillo、Simone Pellegrini、Philipp Gschwandtner、Thomas Fahringer、Hans Moritsch。
[基于赌徒问题的图优化,应用于库性能调优](ICML 2009) - Frédéric De Mesmay、Arpad Rimmel、Yevgen Voronenko、Markus Püschel。
[结合模型与指导性经验搜索,优化多层次内存层次结构](CGO 2005) - Chun Chen、Jacqueline Chame、Mary Hall。
[主动协调:迈向自动化性能调优](SC 2002) - Cristian Tapus、I-Hsin Chung、Jeffrey K. Hollingsworth。
并行性映射与任务调度
用于源代码分类的卷积神经网络模型探索 - Francesco Barchi、Emanuele Parisi、Gianvito Urgese、Elisa Ficarra 和 Andrea Acquaviva。《人工智能工程应用》,2021年1月。
自动驾驶:谷歌的工作负载自动伸缩 - Krzysztof Rzadca、Pawel Findeisen、Jacek Swiderski、Przemyslaw Zych、Przemyslaw Broniek、Jarek Kusmierek、Pawel Nowak、Beata Strack、Piotr Witusowski、Steven Hand、John Wilkes。EuroSys 2020。幻灯片
利用机器学习建模和优化 NUMA 效应与预取 - Isaac Sánchez Barrera、David Black-Schaffer、Marc Casas、Miquel Moretó、Anastasiia Stupnikova 和 Mihail Popov。ICS 2020。
Poise:利用机器学习平衡 GPU 中线程级并行性和内存系统性能 - Saumay Dublish、Vijay Nagarajan 和 Nigel Tophama。HPCA 2019。
NUMA 架构中的数据与线程放置:基于统计学习的方法 - Nicolas Denoyelle、Brice Goglin、Emmanuel Jeannot 和 Thomas Ropars。ICPP 2019。
使用深度学习和 LLVM-IR 在异构平台上进行代码映射 - Francesco Barchi、Gianvito Urgese、Enrico Macii 和 Andrea Acquaviva。DAC 2019。
嵌入式异构系统上 OpenCL 程序的适应性优化 - Ben Taylor、Vicent Sanz Marco 和 Zheng Wang。LCTES 2017。
通过内存感知的任务共置提升 Spark 应用程序吞吐量:专家混合方法 - Vicent Sanz Marco、Ben Taylor、Barry Porter 和 Zheng Wang。Middleware 2017。
CPU/GPU 异构平台上 OpenCL 程序的智能多任务调度 - Yuan Wen、Zheng Wang 和 Michael FP O'Boyle。HiPC 2015。
Quasar:资源高效且面向 QoS 的集群管理 - Christina Delimitrou 和 Christos Kozyrakis。ASPLOS 2014。
面向基于 GPU 的异构系统的数据并行程序到 OpenCL 的自动且可移植映射 - Zheng Wang、Dominik Grewe 和 Michael O'Boyle。ACM 架构与代码优化汇刊(TACO),2014年。
集成基于性能剖析的并行性检测与基于机器学习的映射 - Zheng Wang、Georgios Tournavitis、Björn Franke 和 Michael FP O'Boyle。ACM 架构与代码优化汇刊(TACO),2014年。
异构架构上的可移植性能 - Phitchaya Mangpo Phothilimthana、Jason Ansel、Jonathan Ragan-Kelley、Saman Amarasinghe。ASPLOS 2013。
在外部工作负载存在时的智能自适应并行性映射 - Murali Krishna Emani、Zheng Wang 和 Michael O'Boyle。CGO 2013。
面向多核的流式并行性划分:基于机器学习的方法 - Zheng Wang 和 Michael O'Boyle。PACT 2010。
Qilin:通过适应性映射在异构多处理器上挖掘并行性 - Chi-Keung Luk、Sunpyo Hong 和 Hyesoon Kim。MICRO 2009。
将并行性映射到多核:基于机器学习的方法 - Zheng Wang 和 Michael O'Boyle。PPoPP 2009。
领域特定优化
Seer: 用于不规则问题的预测性运行时内核选择 - Ryan Swann, Muhammad Osama, Karthik Sangaiah, Jalal Mahmud. CGO 2024
基于概率程序的张量程序优化 - Junru Shao, Xiyou Zhou, Siyuan Feng, Bohan Hou, Ruihang Lai, Hongyi Jin, Wuwei Lin, Masahiro Masuda, Cody Hao Yu, Tianqi Chen. NeurIPS 2022
moTuner: 一种基于编译器的混合精度算子自动调优方法 - Zewei Mo, Zejia Lin, Xianwei Zhang, Yutong Lu. CF 2022
Collage: 深度学习后端的自动化集成 - Byungsoo Jeon, Sunghyun Park, Peiyuan Liao, Sheng Xu, Tianqi Chen, Zhihao Jia. PACT 2022
使用门控连续逻辑网络学习非线性循环不变式 - J. Yao, G. Ryan, J. Wong, S. Jana 和 R. Gu。PLDI 2020。
面向 C++ 服务器工作负载的学习型内存分配 - Maas、Martin、David G. Andersen、Michael Isard、Mohammad Mahdi Javanmard、Kathryn S. McKinley 和 Colin Raffel。ASPLOS 2020。演示视频
弥合深度学习与稀疏矩阵格式选择之间的鸿沟 - Yue Zhao、Jiajia Li、Chunhua Liao 和 Xipeng Shen。PPoPP 2018。
Camel: 面向移动Web交互的智能自适应能耗优化 - Jie Ren、Y. Lu、Petteri Nurmi、Xiaoming Wang、Miao Ma、Ling Gao、Zhanyong Tang、Jie Zheng 和 Zheng Wang。INFOCOM 2020。
利用遗传算法优化排序 - Xiaoming Li、Maria Jesus Garzaran 和 David Padua。CGO 2005。
语言与编译
QiMeng-Xpiler: 基于神经符号方法为深度学习系统转编译张量程序 - Shouyang Dong、Yuanbo Wen、Jun Bi、Di Huang、Jiaming Guo、Jianxing Xu、Ruibai Xu、Xinkai Song、Yifan Hao、Ling Li、Xuehai Zhou、Tianshi Chen、Qi Guo、Yunji Chen,OSDI 2025。
(去/重)组合数据并行计算:通过多维同态映射实现 - Ari Rasch,TOPLAS 2024。
Halide: 用于优化图像处理流水线中并行性、局部性和重计算的语言及编译器 - Jonathan Ragan-Kelley、Connelly Barnes、Andrew Adams、Sylvain Paris、Frédo Durand 和 Saman Amarasinghe,PLDI 2013。
PetaBricks: 用于算法选择的语言及编译器 - Jason Ansel、Cy Chan、Yee Lok Wong、Marek Olszewski、Qin Zhao、Alan Edelman 和 Saman Amarasinghe。PLDI 2009。
以函数式方式实现高性能:将高性能优化表示为重写策略的函数式珍珠 - Bastian Hagedorn、Johannes Lenfers、Thomas K{\oe}hler、Xueying Qin、Sergei Gorlatch 和 Michel Steuwer。ACM 编程语言会议论文集 2020。
代码大小缩减
利用子集和归一化值预测学习编译器优化顺序 - 梁友伟、凯文·斯通、阿里·沙梅利、克里斯·卡明斯、穆斯塔法·埃尔侯希、郭嘉东、贝努瓦·施泰纳、杨晓萌、谢鹏涛、休·莱瑟、田元东。ICML 2023。
POSET-RL:基于强化学习的阶段排序以优化代码大小和执行时间 - 沙利尼·贾因、亚沙斯·安达卢里、S·文卡塔基尔蒂、拉马克里什纳·乌帕德拉斯塔。ISPASS 2022。
探索用于代码大小缩减的优化序列空间:见解与工具 - 安德森·法乌斯蒂诺·达·席尔瓦、贝尔纳多·N·B·德·利马、费尔南多·马格诺·昆塔奥·佩雷拉。CC 2021。代码与数据
利用机器学习预测动态编译器中复制启发式对代码大小的影响 - 拉斐尔·莫萨内尔、大卫·利奥波尔德塞德尔、卢卡斯·施塔德勒、汉斯彼得·莫斯恩博克。MPLR 2021。
ANGHABENCH:包含一百万个可编译C基准测试的套件,用于代码大小缩减 - 安德森·法乌斯蒂诺·达·席尔瓦、布鲁诺·孔德·金德、若泽·韦斯利·德·索萨·马加良埃斯、杰罗尼莫·努内斯·罗沙、布雷诺·坎波斯·费雷拉·吉马良斯、费尔南多·马格诺·昆塔奥·佩雷拉。CGO 2021。代码与数据
强化学习引导的软件精简 - 农咸黎文、阿希什·盖哈尼、阿里耶·古尔芬克尔、苏斯米特·贾、豪尔赫·A·纳瓦斯。MLSys 2019。
利用遗传算法优化以减少代码空间 - 凯斯·D·库珀、菲利普·J·希埃尔克、德维卡·苏布拉马尼安。LCTES 1999。
成本与性能模型
TLP:基于深度学习的张量程序调优成本模型 - 翟毅、张宇、刘硕、楚晓萌、彭杰、季建民、张燕勇,ASPLOS,2023年。
Performance-Detective:自动推导廉价且准确的性能模型 - 拉里萨·施密德、马尔钦·科皮克、亚历山德鲁·卡洛图伊、多米尼克·韦尔勒、安德烈亚斯·赖特、迈克尔·塞尔策、安妮·科齐奥莱克、托斯滕·霍夫勒,ICS,2022年。
基于神经网络的任务迁移性能预测——面向S-NUCA众核架构 - 马丁·拉普、阿努杰·帕塔尼亚、图莉卡·米特拉、约格·亨克尔,IEEE计算机汇刊,2021年。
基于深度学习的自动代码优化成本模型 - 里亚德·巴格达迪、马西尼萨·梅鲁瓦尼、穆罕默德-希查姆·莱盖塔斯、卡迈勒·阿卜杜斯、塔哈·阿尔鲍伊、卡里玛·贝纳奇巴、萨曼·阿马拉辛格,MLSys 2021。
利用深度学习进行代码结构比较分析以预测性能 - 内森·皮诺、塔雷克·拉马丹、坦齐玛·Z·伊斯兰、蔡斯·菲尔普斯、贾亚拉曼·J·蒂亚加拉詹,ISPASS 2021。
从污染程序中提取纯净性能模型 - 马尔钦·科皮克、亚历山德鲁·卡洛图伊、托比亚斯·格罗瑟、尼古拉斯·维基、费利克斯·沃尔夫、托斯滕·霍夫勒。PPoPP 2021。
PMEvo:通过进化优化实现对乱序处理器端口映射的可移植推断 - 法比安·里特、塞巴斯蒂安·哈克。PLDI 2020。
用于性能调优中经验建模的主动学习方法 - 张洁鹏、孙静伟、周文举、孙广忠。IPDPS 2020。
使用树搜索和随机程序学习优化Halide - 安德鲁·亚当斯、卡里玛·马、卢克·安德森、里亚德·巴格达迪、李祖茂、迈克尔·加尔比、贝努瓦·施泰纳、史蒂文·约翰逊、凯文·法塔哈利安、弗雷多·杜兰、乔纳森·拉根-凯利。ACM图形学汇刊,2019年。
Ithemal:利用深度神经网络实现准确、可移植且快速的基本块吞吐量估计 - 查里思·门迪斯、亚历克斯·伦达、萨曼·阿马拉辛格和迈克尔·卡宾。ICML 2019。
Absinthe:学习解析型性能模型,一次性融合并分块模板代码 - 托比亚斯·吉西、托比亚斯·格罗瑟和托斯滕·霍夫勒。PACT 2019。
通过分析公开数据集预测新工作负载或CPU性能 - 王宇、维克多·李、顾延伟和戴维·布鲁克斯。ACM体系结构与代码优化汇刊(TACO),2019年。
自动创建分块大小选择模型 - 幸富智文、拉克什米纳拉亚南·雷加纳拉亚南、桑杰·拉乔帕迪耶、查尔斯·安德森、亚历山大·E·艾肯伯格和凯文·奥布莱恩。CGO 2010。
面向编译器优化的微架构敏感经验模型 - 卡皮尔·瓦斯瓦尼、马修·J·塔祖塔维尔、Y·N·斯里坎特和P·J·约瑟夫。CGO 2007。
用于程序优化的精确静态估算器 - 蒂姆·A·瓦格纳、万斯·马弗里克、苏珊·L·格雷厄姆和迈克尔·A·哈里森。PLDI 1994。
学习型程序表示
性能嵌入:一种基于相似性的迁移调优方法用于性能优化 - L Trümper, T Ben-Nun, P Schaad, A Calotoiu, T Hoefler. ICS 2023.
利用图对齐的表示学习改进跨平台二进制分析 - Geunwoo Kim, Sanghyun Hong, Michael Franz, Dokyung Song. ISSTA 2022。
用于预测性编译的程序表示:21世纪初现状 - Anderson Faustino da Silva, Edson Borin, Fernando Magno Quintao Pereira, Nilton Luiz Queiroz Junior and Otavio Oliveira Napoli。JCL 2022。代码与数据
基于深度学习的比较代码结构分析用于性能预测 - DNathan Pinnow, Tarek Ramadan, Tanzima Z. Islam, Chase Phelps, Jayaraman J. Thiagarajan。ISPASS 2021。
GraphCodeBERT:使用数据流预训练代码表示 - Daya Guo, Shuo Ren, Shuai Lu, Zhangyin Feng, Duyu Tang, Shujie LIU, Long Zhou, Nan Duan, Alexey Svyatkovskiy, Shengyu Fu, Michele Tufano, Shao Kun Deng, Colin Clement, Dawn Drain, Neel Sundaresan, Jian Yin, Daxin Jiang, Ming Zhou。ICLR 2021。
CodeBERT:面向编程和自然语言的预训练模型 - Zhangyin Feng, Daya Guo, Duyu Tang, Nan Duan, Xiaocheng Feng, Ming Gong, Linjun Shou, Bing Qin, Ting Liu, Daxin Jiang, Ming Zhou。EMNLP 2020。
IR2VEC:基于LLVM IR的可扩展程序嵌入 - S. VenkataKeerthy, Rohit Aggarwal, Shalini Jain, Maunendra Sankar Desarkar, Ramakrishna Upadrasta 和 Y. N. Srikant。TACO 2020。
通过多关系图学习进行深度程序结构建模 - Guixin Ye, Zhanyong Tang, Huanting Wang, Jianbin Fang, Songfang Huang 和 Zheng Wang。PACT 2020。
源代码的全局关系模型 - Vincent J. Hellendoorn, Charles Sutton, Rishabh Singh, Petros Maniatis, David Bieber,ICLR 2020。(数据与代码)
使用图区间神经网络学习语义程序嵌入 - Yu Wang, Ke Wang, Fengjuan Gao, 和 Linzhang Wang。OOPSLA 2020。
Flow2Vec:基于值流的精确代码嵌入 - Yulei Sui, Xiao Cheng, Guanqin Zhang 和 Haoyu Wang。OOPSLA 2020。
MISIM:端到端神经代码相似度系统 - Fangke Ye, Shengtian Zhou, Anand Venkat, Ryan Marcus, Nesime Tatbul, Jesmin Jahan Tithi, Paul Petersen, Timothy Mattson, Tim Kraska, Pradeep Dubey, Vivek Sarkar 和 Justin Gottschlich 。arXiv 2020。
混合、精确的语义程序嵌入 - Ke Wang 和 Zhendong Su。PLDI 2020。
LambdaNet:使用图神经网络的概率类型推断 - Jiayi Wei, Maruth Goyal, Greg Durrett, 和 Isil Dillig。ICLR 2020。
基于编译器的图表示用于代码的深度学习模型 - Alexander Brauckmann, Andrés Goens, Sebastian Ertel, 和 Jeronimo Castrillon。CC 2020。
使用图进行生成式代码建模 - Marc Brockschmidt, Miltos Allamanis, Alexander L. Gaunt, 和 Oleksandr Polozov。ICLR 2019。
code2seq:从代码的结构化表示中生成序列 - Uri Alon, Shaked Brody, Omer Levy, 和 Eran Yahav。ICLR 2019。
code2vec:学习代码的分布式表示 - Uri Alon, Meital Zilberstein, Omer Levy, 和 Eran Yahav。POPL 2019。
COSET:评估神经程序嵌入的基准 - Ke Wang, Mihai Christodorescu。arXiv 2019。
用图表示程序的学习 - Miltiadis Allamanis, Marc Brockschmidt, 和 Mahmoud Khademi。ICLR 2018。
神经代码理解:代码语义的可学习表示 - Tal Ben-Nun, Alice Shoshana Jakobovits, 和 Torsten Hoefler。NeurIPS 2018。
优化启发式算法的端到端深度学习 - Chris Cummins, Pavlos Petoumenos, Zheng Wang, 和 Hugh Leather(幻灯片)。PACT 2017。
语义感知的程序采样 - Pratiksha Thaker, Daniel Tarlow, 和 Marc Brockschmidt。NeurIPS 2017。
DeepCoder:学习编写程序 - Matej Balog, Alexander L. Gaunt, Marc Brockschmidt, Sebastian Nowozin, 和 Daniel Tarlow。ICLR 2017。
针对编程语言处理的树状结构卷积神经网络 - Lili Mou, Ge Li, Lu Zhang, Tao Wang, 和 Zhi Jin。AAAI 2016。
用于源代码极端摘要的卷积注意力网络 - Miltos Allamanis, Hao Peng, 和 Charles Sutton。ICML 2016。
自然源代码的结构化生成模型 - Chris Maddison 和 Daniel Tarlow。ICML 2014。
利用基于图的程序表征进行预测建模 - Eunjung Park, John Cavazos, 和 Marco A. Alvarez。CGO 2011。
基于机器学习的优化编译中的自动特征生成 - Hugh Leather, Edwin Bonilla, 和 Michael O'Boyle。CGO 2009。
基于游戏的框架用于比较程序分类器和规避者 - Thais Damasio, Michael Canesche, Vinicius Pacheco, Anderson Faustino da Silva, Marcus Botacin 和 Fernando Magno Quintao Pereira。CGO 2023。代码与数据
用于编译器和系统优化的机器学习
DFA-Net:一种特定于编译器的神经架构,用于在数据流分析中实现稳健泛化 - Alexander Brauckmann, Anderson Faustino da Silva, Gabriel Synnaeve, Michael FP O’Boyle, Jeronimo Castrillon, Hugh Leather。CC 2025。
使用编译器引导的大语言模型进行还原分析,以实现以输入为中心的代码优化 - Xiangwei Wang, Xinning Hui, Chunhua Liao, Xipeng Shen。PLDI 2025。
提升部署时预测模型的鲁棒性,用于代码分析和优化 - Huanting Wang, Patrick Lenihan, Zheng Wang。CGO 2025。(代码)
MLIR变换方言——你的编译器比你想象的更强大 - Martin Paul Lücke, Oleksandr Zinenko, William S. Moses, Michel Steuwer, Albert Cohen。Arxiv 2024。
元大语言模型编译器:编译器优化的基础模型 - Chris Cummins, Volker Seeker, Dejan Grubisic, Baptiste Roziere, Jonas Gehring, Gabriel Synnaeve, Hugh Leather。Arxiv 2024。
接下来的700项基于机器学习的编译器优化 - S. VenkataKeerthy, Siddharth Jain, Umesh Kalvakuntla, Pranav Sai Gorantla, Rajiv S Chitale, Eugene Brevdo, Albert Cohen, Mircea Trofin, Ramakrishna Upadrasta。CC 2024。
BenchPress:深度主动基准生成器 - Foivos Tsimpourlas, Pavlos Petoumenos, Min Xu, Chris Cummins, Kim Hazelwood, Ajitha Rajan, Hugh Leather。PACT 2022(代码)
自动化强化学习架构设计用于代码优化 - Huanting Wang, Zhanyong Tang, Cheng Zhang, Jiaqi Zhao, Chris Cummins, Hugh Leather, Zheng Wang。CC 2022(代码)
学习语义表示以验证硬件设计 - Shobha Vasudevan, Wenjie (Joe) Jiang, David Bieber, Rishabh Singh, hamid shojaei, C. Richard Ho, Charles Sutton。NeurIPS 2021。
MLIR中的可组合与模块化代码生成:一种结构化且可重定向的张量编译器构建方法 - Nicolas Vasilache, Oleksandr Zinenko, Aart J.C. Bik, Mahesh Ravishankar, Thomas Raoux, Alexander Belyaev, Matthias Springer, Tobias Gysi, Diego Caballero, Stephan Herhut, Stella Laurenzo, Albert Cohen。arXiV 2022。
基于深度NLP的协同进化,用于从自然语言合成代码分析 - Zifan Nan, Hui Guan, Xipeng Shen, Chunhua Liao。CC 2021。
MLGO:一个由机器学习指导的编译器优化框架 - Mircea Trofin, Yundi Qian, Eugene Brevdo, Zinan Lin, Krzysztof Choromanski, David Li。arXiv。代码
更好地理解黑盒自动调优:存储系统的比较分析 - Zhen Cao, Vasily Tarasov, Sachin Tiwari, 和 Erez Zadok。ATC 2018。
为预测建模合成基准 - Chris Cummins, Pavlos Petoumenos, Zheng Wang, 和 Hugh Leather(幻灯片)。CGO 2017。
利用主动学习最小化迭代编译的成本 - William Ogilvie, Pavlos Petoumenos, Zheng Wang, 和 Hugh Leather。CGO 2017。
VESPA:用于二进制优化的静态剖析 - Angelica Aparecida Moreira, Guilherme Ottoni, 和 Fernando Magno Quintao Pereira。OOPSLA 2021。代码与数据
在异构多核系统中通过程序输入的统计回归映射计算 - Junio Cezar Ribeiro Da Silva, Lorena Leao, Vinicius Petrucci, Abdoulaye Gamatie 和 Fernando Magno Quintao Pereira。TECS 2021。
内存/缓存建模/分析
利用深度强化学习优化内存映射 - 王鹏明、米基塔·萨扎诺维奇、贝尔金·伊尔贝伊、皮查亚·芒坡·波提林塔纳、马尼什·普罗希特、韩杨泰、银武、王妙森、科斯敏·帕杜拉鲁、爱德华·勒昂、安东·热尔诺夫、朱利安·施里特维瑟、托马斯·于贝尔、罗伯特·通、保拉·库里洛维茨、基兰·米兰、奥里奥尔·维尼亚尔斯、丹尼尔·J·曼科维茨。arXiv 2023。
学习内存访问模式 - 米拉德·哈舍米、凯文·斯韦斯基、杰米·A·史密斯、格兰特·艾尔斯、海纳·利茨、张继川、克里斯托斯·科齐拉基斯、帕尔塔萨拉蒂·兰加纳坦。ICML 2018
静态度量隐式存储操作 - 费尔南多·马格诺·昆塔奥·佩雷拉、吉尔赫梅·维埃拉·莱奥巴斯和阿卜杜拉耶·加马蒂。TACO 2019。代码与数据
书籍
利用机器学习对编译器进行自动调优 - 阿米尔·H·阿舒里、詹卢卡·帕莱尔莫、约翰·卡瓦佐斯和克里斯蒂娜·西尔瓦诺。Springer 2018。
软件自动调优——从概念到最先进成果 - K Naono、K Teranishi、J Cavazos 和 R Suda。Springer 2010。
报告与教程
- 陈天奇等,MLC:机器学习编译器(GitHub)。OcotoML 2022。
- 萨曼·阿马拉辛格,编译器2.0:利用机器学习现代化编译器技术。LCTES 2020。
- 阿米尔·阿舒里,利用机器学习进行编译器自动调优:最新综述 (幻灯片)。米兰理工大学 2018年。
软件
- PROM - 一个Python工具包,用于帮助识别部署后机器学习模型的误预测(论文)。
- ML-Compiler-Bridge - 用于连接编译器与机器学习模型的库,以实现基于机器学习的编译器优化(论文)。
- Supersonic - 自动化强化学习架构设计(论文)。
- CompilerGym - 用于编译器优化的强化学习环境(论文)。
- CodeBert - 面向编程语言的预训练深度神经网络模型(论文)。
- IR2Vec - 基于LLVM IR的程序嵌入,用于机器学习(论文)。
- programl - LLVM和XLA IR的程序表示,用于机器学习(论文)。
- NeuroVectorizer - 使用深度强化学习(RL)预测最佳向量化编译器指令(论文)。
- TVM - 开源深度学习编译器栈,适用于CPU、GPU及专用加速器(论文;幻灯片)。
- MLC-LLM - 一个面向大型语言模型的机器学习编译器及高性能部署引擎(参考技术:论文、论文以及TVM)。
- clgen - 使用LSTM生成基准测试用例(论文;幻灯片)。
- COBAYN - 利用贝叶斯网络进行编译器自动调优(论文)。
- OpenTuner - 用于构建领域特定多目标程序自动调优框架(论文;幻灯片)。
- ONNX-MLIR - ONNX模型在MLIR编译器基础设施中的表示与参考降级(论文)。
- IREE - 一个可重定向的基于MLIR的机器学习编译器及运行时工具包。
基准测试与数据集
- TenSet:用于机器学习张量编译器的大规模程序性能数据集 - 包含六个常用硬件平台的张量程序性能记录的数据集(论文)。
- 阿尔伯塔大学为 SPEC CPU® 2017 基准测试套件提供的工作负载 - SPEC CPU2017 基准测试套件的附加工作负载。
- Project CodeNet - 用 50 多种编程语言编写的代码样本,并附有代码大小、内存占用、CPU 运行时间及状态(通过/错误类型)等标注信息。
- CodeXGLUE - 用于代码理解和生成的机器学习基准数据集(论文)。
- ANGHABENCH - 包含一百万个可编译 C 语言基准测试的套件(论文)。
- BHive - 用于验证 x86-64 基本块性能模型的基准测试套件和测量框架(论文)。
- cBench - 32 个 C 语言基准测试,附带数据集和驱动脚本。
- PolyBench - 30 个模板计算和线性代数基准测试,附带数据集和驱动脚本。另请参阅:GPU 版本、预计算数据集(论文)。
- DeepDataFlow - 46.9 万个 LLVM-IR 文件以及 86 亿条用于分类的数据流分析标签(论文)。
- devmap - 650 个 OpenCL 基准测试特征及 CPU/GPU 分类标签(论文;演示文稿)。
会议
ACM SIGPLAN 编程语言设计与实现会议,PLDI
编程语言与操作系统架构支持会议,ASPLOS
ACM SIGPLAN 并行编程原理与实践研讨会,PPoPP
国际代码生成与优化研讨会,CGO
国际并行架构与编译技术会议,PACT
面向对象编程、系统、语言及应用会议,OOPSLA
国际编译器构造会议,CC
国际超级计算会议,ICS
国际高性能与嵌入式架构及编译器会议,HiPEAC
国际嵌入式系统语言、编译器与工具会议,LCTES
国际计算前沿会议,CF
国际并行与分布式处理研讨会,IPDPS
国际高性能计算、网络、存储与分析大会,SC
机器学习与编程语言研讨会,MAPL
并行计算语言与编译器会议,LCPC
国际学习表示会议,ICLR
机器学习与系统会议,MLSys
期刊
如何贡献
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。