Instruction-Tuning-Papers

GitHub
767 23 非常简单 1 次阅读 2周前语言模型
AI 解读 由 AI 自动生成,仅供参考

Instruction-Tuning-Papers 是一份专注于“指令微调”(Instruction-Tuning)领域的精选论文阅读清单。随着大语言模型的发展,如何让模型更好地理解并执行人类的自然语言指令成为关键挑战。该资源梳理了从 Natural-Instruction、FLAN 到 T0 等里程碑式的研究成果,旨在帮助读者系统掌握这一技术趋势。

它主要解决了研究人员和开发者在面对海量文献时难以快速捕捉核心进展的痛点。通过汇集跨任务泛化、零样本学习以及基于人类反馈的微调等关键方向的经典论文,Instruction-Tuning-Papers 清晰地展示了如何训练模型遵循包含提示、示例及约束在内的复杂指令,从而显著提升其在多任务处理及未见任务上的泛化能力。

这份清单特别适合 AI 研究人员、算法工程师以及对大模型前沿技术感兴趣的学习者使用。其独特亮点在于不仅收录了基础理论,还涵盖了如 Super-NaturalInstructions(覆盖 1600+ 任务)和生物医学领域专用微调等垂直应用研究,为探索指令微调的广度与深度提供了极具价值的导航。无论是希望入门该领域的新手,还是寻求最新灵感的资深专家,都能从中获得清晰的学术脉络与技术洞察。

使用场景

某初创公司的算法团队正致力于开发一款能同时处理医疗咨询、法律条文解读及通用客服的多任务大语言模型,急需寻找最优的指令微调(Instruction-Tuning)方案以提升模型的泛化能力。

没有 Instruction-Tuning-Papers 时

  • 文献检索耗时巨大:研究人员需在 arXiv、ACL Anthology 等多个平台手动搜索"Instruction Tuning"、"Zero-shot"等关键词,耗费数周时间筛选高质量论文。
  • 技术演进脉络模糊:难以理清从 Natural-Instruction 到 FLAN、T0 再到 RLHF 的技术迭代逻辑,容易在过时的方法上浪费实验资源。
  • 领域适配盲目试错:缺乏像 In-BoXBART 这样针对生物医学等垂直领域的专项研究指引,导致模型在专业场景下表现不佳且调试无方向。
  • 关键实现细节缺失:即使找到论文,也常因遗漏相关的代码库或数据集链接(如 Super-NaturalInstructions),导致复现成本极高。

使用 Instruction-Tuning-Papers 后

  • 一站式获取核心资源:团队直接利用该清单锁定了从 2021 年至今的顶会必读论文,将文献调研周期从数周压缩至两天。
  • 清晰把握技术路线:通过按时间排序的经典工作(如 Wei 等人的 Zero-shot learners 研究),快速确立了“多任务提示训练 + 人类反馈”的技术路线图。
  • 精准定位垂直方案:迅速发现并采纳了针对特定领域的微调策略,显著提升了模型在医疗和法律任务上的指令遵循能力。
  • 高效复现与落地:借助列表中提供的论文直链及相关数据资源,团队成功复现了 SOTA 基线,加速了模型迭代进程。

Instruction-Tuning-Papers 通过系统化梳理指令微调领域的关键成果,帮助研发团队从茫茫文献中快速提炼出可落地的技术路径,极大降低了多任务大模型的探索门槛与试错成本。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库是一个论文列表合集,用于整理和追踪指令微调(Instruction Tuning)领域的相关研究论文。它不包含可执行的代码、模型权重或训练脚本,因此没有具体的操作系统、GPU、内存、Python 版本或依赖库等运行环境需求。用户只需通过浏览器阅读或通过 Git 克隆仓库即可查看内容。
python未说明
Instruction-Tuning-Papers hero image

快速开始

指令微调论文

这一趋势始于 Natrural-Instruction(ACL 2022)、FLAN(ICLR 2022)和 T0(ICLR 2022)。

什么是指令微调?其目标是教会语言模型遵循自然语言指令(包括提示、正面或负面示例以及约束条件等),从而在训练任务上实现更好的多任务学习,并在未见过的任务上表现出更强的泛化能力。

论文

  1. 通过自然语言众包指令实现跨任务泛化

    Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi [论文] 2021年4月

  2. 微调后的语言模型是零样本学习者

    Jason Wei, Maarten Bosma, Vincent Y. Zhao, Kelvin Guu, Adams Wei Yu, Brian Lester, Nan Du, Andrew M. Dai, Quoc V. Le [论文] 2021年9月

  3. 多任务提示训练实现零样本任务泛化

    Victor Sanh, Albert Webson, Colin Raffel, Stephen H. Bach, Lintang Sutawika, Zaid Alyafeai, Antoine Chaffin, Arnaud Stiegler, Teven Le Scao, Arun Raja, Manan Dey, M Saiful Bari, Canwen Xu, Urmish Thakker, Shanya Sharma Sharma, Eliza Szczechla, Taewoon Kim, Gunjan Chhablani, Nihal Nayak, Debajyoti Datta, Jonathan Chang, Mike Tian-Jian Jiang, Han Wang, Matteo Manica, Sheng Shen, Zheng Xin Yong, Harshit Pandey, Rachel Bawden, Thomas Wang, Trishala Neeraj, Jos Rozen, Abheesht Sharma, Andrea Santilli, Thibault Fevry, Jason Alan Fries, Ryan Teehan, Tali Bers, Stella Biderman, Leo Gao, Thomas Wolf, Alexander M. Rush [论文] 2021年10月

  4. ZeroPrompt:将基于提示的预训练扩展到1,000个任务,提升零样本泛化能力

    Hanwei Xu, Yujun Chen, Yulun Du, Nan Shao, Yanggang Wang, Haiyu Li, Zhilin Yang [论文] 2022年1月

  5. UnifiedSKG:利用文本到文本语言模型统一并多任务处理结构化知识对齐

    Tianbao Xie, Chen Henry Wu, Peng Shi, Ruiqi Zhong, Torsten Scholak, Michihiro Yasunaga, Chien-Sheng Wu, Ming Zhong, Pengcheng Yin, Sida I. Wang, Victor Zhong, Bailin Wang, Chengzu Li, Connor Boyle, Ansong Ni, Ziyu Yao, Dragomir Radev, Caiming Xiong, Lingpeng Kong, Rui Zhang, Noah A. Smith, Luke Zettlemoyer, Tao Yu [论文] 2022年1月

  6. 通过人类反馈训练语言模型遵循指令

    Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike, Ryan Lowe [论文] 2022年3月

  7. Super-NaturalInstructions:通过1600多个NLP任务上的声明式指令实现泛化

    Yizhong Wang, Swaroop Mishra, Pegah Alipoormolabashi, Yeganeh Kordi, Amirreza Mirzaei, Anjana Arunkumar, Arjun Ashok, Arut Selvan Dhanasekaran, Atharva Naik, David Stap, Eshaan Pathak, Giannis Karamanolakis, Haizhi Gary Lai, Ishan Purohit, Ishani Mondal, Jacob Anderson, Kirby Kuznia, Krima Doshi, Maitreya Patel, Kuntal Kumar Pal, Mehrad Moradshahi, Mihir Parmar, Mirali Purohit, Neeraj Varshney, Phani Rohitha Kaza, Pulkit Verma, Ravsehaj Singh Puri, Rushang Karia, Shailaja Keyur Sampat, Savan Doshi, Siddhartha Mishra, Sujan Reddy, Sumanta Patro, Tanay Dixit, Xudong Shen, Chitta Baral, Yejin Choi, Noah A. Smith, Hannaneh Hajishirzi, Daniel Khashabi [论文] 2022年4月

  8. In-BoXBART:将指令引入生物医学多任务学习

    Mihir Parmar, Swaroop Mishra, Mirali Purohit, Man Luo, M. Hassan Murad, Chitta Baral [论文] 2022年4月

  9. 通过检索增强实现无监督跨任务泛化

    Bill Yuchen Lin, Kangmin Tan, Chris Miller, Beiwen Tian, Xiang Ren [论文] 2022年4月

  10. 用于零样本任务泛化的提示一致性

    Chunting Zhou, Junxian He, Xuezhe Ma, Taylor Berg-Kirkpatrick, Graham Neubig [论文] 2022年5月

  11. 指令归纳:从少量示例到自然语言任务描述

    Or Honovich, Uri Shaham, Samuel R. Bowman, Omer Levy [论文] 2022年5月

  12. InstructDial:通过指令微调提升对话中的零样本和少样本泛化能力

    Prakhar Gupta, Cathy Jiao, Yi-Ting Yeh, Shikib Mehri, Maxine Eskenazi, Jeffrey P. Bigham [论文] 2022年5月

  13. 重新结构化预训练

    Weizhe Yuan, Pengfei Liu [论文] 2022年6月

  14. 通过统一模式提示提升任务泛化能力

    Wanjun Zhong, Yifan Gao, Ning Ding, Zhiyuan Liu, Ming Zhou, Jiahai Wang, Jian Yin, Nan Duan [论文] 2022年8月

  15. 扩展指令微调的语言模型

    Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Yunxuan Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Alex Castro-Ros, Marie Pellat, Kevin Robinson, Dasha Valter, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei [论文] 2022年10月

  16. 猜指令!翻转学习使语言模型成为更强大的零样本学习者

    Seonghyeon Ye, Doyoung Kim, Joel Jang, Joongbo Shin, Minjoon Seo [论文] 2022年10月

  17. 软提示检索增强零样本任务泛化

    Seonghyeon Ye, Joel Jang, Doyoung Kim, Yongrae Jo, Minjoon Seo [论文] 2022年10月

  18. Zemi:从多个任务中学习零样本半参数语言模型

    Zhenhailong Wang, Xiaoman Pan, Dian Yu, Dong Yu, Jianshu Chen, Heng Ji [论文] 2022年10月

  19. 利用未标注数据学习指令以实现零样本跨任务泛化

    Yuxian Gu, Pei Ke, Xiaoyan Zhu, Minlie Huang [论文] 2022年10月

  20. 通过多任务微调实现跨语言泛化

    Niklas Muennighoff, Thomas Wang, Lintang Sutawika, Adam Roberts, Stella Biderman, Teven Le Scao, M Saiful Bari, Sheng Shen, Zheng-Xin Yong, Hailey Schoelkopf, Xiangru Tang, Dragomir Radev, Alham Fikri Aji, Khalid Almubarak, Samuel Albanie, Zaid Alyafeai, Albert Webson, Edward Raff, Colin Raffel [论文] 2022年11月

  21. 基于指令的任务感知检索

    浅井明里、蒂莫·希克、帕特里克·刘易斯、陈熙伦、戈蒂耶·伊扎卡尔、塞巴斯蒂安·里德尔、汉娜内·哈吉希尔齐、叶文涛 [论文] 2022年11月

  22. UnifiedABSA:基于多任务指令微调的统一ABS A框架

    王增志、夏锐、俞建飞 [论文] 2022年11月

  23. 非自然指令:几乎无需人工即可微调语言模型

    奥尔·霍诺维奇、托马斯·西亚洛姆、奥默·列维、蒂莫·希克 [论文] 2022年12月

  24. 通过组合式任务配置提升统一表格到文本模型的跨任务泛化能力

    陈继凡、张宇浩、刘兰、董睿、陈鑫驰、吴柏廷、王威廉、黄志恒 [论文] 2022年12月

  25. Self-Instruct:利用自动生成的指令对齐语言模型

    王一中、科迪·叶加内、米什拉·斯瓦鲁普、刘艾丽莎、史密斯·诺亚·A、卡沙比·丹尼尔、哈吉希尔齐·汉娜内 [论文] 2022年12月

  26. 一个嵌入器,适用于任何任务:指令微调后的文本嵌入

    苏洪金、史伟嘉、笠井纯悟、王一中、胡宇诗、奥斯滕多夫·玛丽、叶文涛、史密斯·诺亚·A、泽特勒莫耶·卢克、余涛 [论文] 2022年12月

  27. HINT:用于高效零样本泛化的超网络指令微调

    伊维森·哈米什、巴吉亚·阿克希塔、王一中、哈吉希尔齐·汉娜内、彼得斯·马修 [论文] 2022年12月

  28. MultiInstruct:通过指令微调提升多模态零样本学习效果

    许志扬、沈颖、黄立夫 [论文] 2022年12月

  29. OPT-IML:从泛化的视角扩展语言模型指令元学习

    艾耶尔·斯里尼瓦桑、林西·维多利亚、帕苏努鲁·拉马克桑特、米哈伊洛夫·托多尔、西米格·丹尼尔、于平、舒斯特·库尔特、王天陆、刘庆、考拉·普尼特·辛格、李贤、欧霍罗·布赖恩、佩雷拉·加布里埃尔、王杰夫、德万·克里斯托弗、切利基尔马兹·阿斯莉、泽特勒莫耶·卢克、斯托亚诺夫·韦斯 [论文] 2022年12月

  30. 利用跨任务最近邻进行数据高效的微调

    伊维森·哈米什、史密斯·诺亚·A、哈吉希尔齐·汉娜内、达西吉·普拉迪普 [论文]

  31. Flan语料集:为有效指令微调设计数据与方法

    朗普雷·谢恩、侯磊、武图、韦布森·阿尔伯特、钟亨元、泰义、周登尼、黎国荣、佐夫·巴雷特、魏贾森、罗伯茨·亚当 [论文] 2023年1月

  32. 探索训练专家级语言模型而非指令微调的优势

    张乔尔、金承恩、叶成贤、金度永、洛格斯瓦兰·拉贾努根、李文泰、李京载、徐敏俊 [论文] 2023年2月

  33. GPTScore:随心所欲地评估

    傅锦兰、吴锡强、蒋正宝、刘鹏飞 [论文] 2023年2月

  34. 在预训练阶段添加指令:控制语言模型毒性问题的有效途径

    普拉布莫耶·施里迈、帕特瓦里·莫斯塔法、肖伊比·穆罕默德、卡坦扎罗·布莱恩 [论文] 2023年2月

  35. 事后诸葛亮让语言模型更好地遵循指令

    张天军、刘方晨、王贾斯汀、阿贝尔·皮特、冈萨雷斯·约瑟夫·E [论文] 2023年2月

  36. 上下文指令学习

    叶成贤、黄贤彬、杨素熙、尹炯九、金艺润、徐敏俊 [论文] 2023年2月

  37. 探究指令数据规模对大型语言模型的影响:基于真实场景的实证研究

    姬云杰、邓勇、龚燕、彭毅平、牛强、张磊、马宝昌、李向刚 [论文] 2023年3月

  38. 使用指令微调的语言模型实现统一文本结构化

    倪宣帆、李丕吉、李华阳 [论文] 2023年3月

  39. 使用GPT-4进行指令微调

    彭宝林、李春元、何鹏程、加利·米歇尔、高建峰 [论文] 2023年4月

  40. ChatPLUG:面向数字人的互联网增强型指令微调开放域生成式对话系统

    田俊峰、陈和红、徐国海、严明、高星、张建海、李晨亮、刘佳怡、徐文深、徐海洋、钱奇、王伟、叶庆豪、张继静、张济、黄飞、周景仁 [论文] 2023年4月

  41. 迈向更优秀的中文指令遵循语言模型:探讨训练数据与评估的影响

    姬云杰、龚燕、邓勇、彭毅平、牛强、马宝昌、李向刚 [论文] 2023年4月

  42. 中文开放指令通用模型:初步发布

    张革、石业民、刘瑞波、袁瑞斌、李义智、董思伟、舒宇、李兆群、王泽坤、林成华、黄文浩、付杰 [论文] 2023年4月

  43. 从零到英雄:考察符号任务在指令微调中的作用

    刘茜、周凡、蒋正宝、窦隆旭、林敏 [论文] 2023年4月

  44. InstructUIE:用于统一信息抽取的多任务指令微调

    王晓、周伟康、祖灿、夏韩、陈天泽、张渊森、郑锐、叶俊杰、张琪、桂涛、康继华、杨景胜、李思源、杜春赛 [论文] 2023年4月

  45. 针对指令遵循型大型语言模型,在中文指令数据上进行全参数与LoRA微调的对比研究

    孙向辉、姬云杰、马宝昌、李向刚 [论文] 2023年4月

  46. LongForm:通过语料抽取优化长文本生成的指令微调

    科克萨尔·阿卜杜拉提夫、蒂莫·希克、安娜·科尔霍宁、许策·欣里希 [论文] 2023年4月

  47. WizardLM:赋能大型语言模型以遵循复杂指令

    徐灿、孙庆丰、郑凯、耿秀波、赵璞、冯家展、陶崇阳、江大新 [论文] 2023年4月

  48. 使用指令微调的预训练语言模型进行AMR解析

    李英淑、阿斯图迪略·费尔南德斯·拉蒙、弗洛里安·拉杜、纳西姆·塔希拉、鲁科斯·萨利姆 [论文] 2023年4月

  49. 基于自然语言指令的可控文本生成

王春树 周,于晨 伊莉诺·蒋,伊森·威尔科克斯,瑞安·科特雷尔,姆林玛雅·萨昌 [论文] 2023年4月

  1. LaMini-LM:基于大规模指令的多样化蒸馏模型集合

    吴明浩,阿卜杜勒·瓦希德,张驰宇,穆罕默德·阿卜杜勒-马吉德,阿尔哈姆·菲克里·阿吉 [论文] 2023年4月

  2. 视觉指令微调

    刘海天,李春元,吴庆阳,李永宰 [论文] 2023年4月

  3. TABLET:面向表格数据的指令学习

    迪伦·斯莱克,萨米尔·辛格 [论文] 2023年4月

  4. LLaMA-Adapter V2:参数高效的视觉指令模型

    高鹏,韩佳明,张仁睿,林子怡,耿世杰,周傲俊,张伟,陆攀,何聪辉,岳向宇,李洪生,乔宇 [论文] 2023年4月

  5. LINGO:通过视觉去偏置自然语言指令以支持任务多样性

    安贾娜·阿伦库马尔,舒巴姆·夏尔马,拉基·阿格拉瓦尔,斯里拉姆·钱德拉塞卡兰,克里斯·布莱恩 [论文] 2023年4月

  6. 基于指令微调的大语言模型与潜在扩散模型的文本到音频生成

    迪潘韦·戈沙尔,纳沃尼尔·马朱姆达尔,安布吉·梅里什,索贾尼亚·波里亚 [论文] 2023年4月

  7. 斯拉夫语族语言中上下文学习的资源与少量样本学习者

    米哈尔·斯特凡尼克,马雷克·卡德尔奇克,皮奥特尔·格拉马茨基,彼得·索伊卡 [论文] 2023年4月

  8. 基于生成驱动的对比自训练法用于指令微调GPT的零样本文本分类

    张若鸿,王耀贤,杨一鸣 [论文] 2023年4月

  9. 指令微调过程中对语言模型的投毒攻击

    亚历山大·万,埃里克·华莱士,沈晟,丹·克莱因 [论文] 2023年5月

  10. Panda LLM:开源中文指令遵循大型语言模型的训练数据与评估

    焦方凯,丁博生,罗天泽,莫展峰 [论文] 2023年5月

  11. 通过逐步指令提升跨任务泛化能力

    吴洋,赵燕燕,李仲阳,秦冰,熊凯 [论文] 2023年5月

  12. 迈向联邦GPT:联邦指令微调

    张建义,赛义德·瓦希迪安,马丁·库奥,李春元,张睿毅,王国银,陈怡然 [论文] 2023年5月

  13. STORYWARS:协作式故事理解与生成的数据集及指令微调基线

    杜雨伦,莉迪娅·奇尔顿 [论文] 2023年5月

  14. COEDIT:基于特定任务指令微调的文本编辑

    维普尔·拉赫贾,德鲁夫·库马尔,瑞安·库,姜东烨 [论文] 2023年5月

  15. 通过对齐指令任务,大型语言模型可作为零样本关系抽取器

    张凯,贝尔纳尔·希门尼斯·古铁雷斯,苏宇 [论文] 2023年5月

  16. Otter:一种具有上下文指令微调的多模态模型

    李博,张源汉,陈梁宇,王景浩,杨京康,刘子威 [论文] 2023年5月

  17. 推荐即指令遵循:一种由大型语言模型赋能的推荐方法

    张俊杰,谢若冰,侯玉鹏,赵文轩,林乐宇,温继荣 [论文] 2023年5月

  18. 或许仅需0.5%的数据:低训练数据指令微调的初步探索

    陈浩,张一鸣,张琪,杨翰涛,胡晓梦,马学涛,杨一帆,赵俊博 [论文] 2023年5月

  19. Dynosaur:一种用于指令微调数据整理的动态增长范式

    殷达,刘晓,殷凡,钟明,赫里蒂克·班萨尔,韩家伟,常凯威 [论文] 2023年5月

  20. CoT合集:通过思维链微调提升语言模型的零样本与少样本学习能力

    金承恩,朱世俊,金度英,张乔尔,叶成贤,申载敏,徐珉俊 [论文] 2023年5月

  21. LLM-Blender:利用成对排序与生成融合集成大型语言模型

    江东富,任翔,林宇辰 [论文] 2023年6月

  22. InstructZero:针对黑盒大型语言模型的高效指令优化

    陈立昌,陈久海,汤姆·戈德斯坦,黄恒,周天义 [论文] 2023年6月

  23. M3IT:迈向多模态多语言指令微调的大规模数据集

    李磊,尹宇伟,李世诚,陈亮,王培义,任书怀,李牧凯,杨亚峥,徐晶晶,孙旭,孔令鹏,刘琦 [论文] 2023年6月

星级历史

星级历史图表

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

144.7k|★★☆☆☆|今天
开发框架Agent语言模型

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|2天前
语言模型图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|3天前
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|2天前
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|4天前
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

75.1k|★★★☆☆|今天
语言模型图像开发框架