Awesome-Story-Generation

GitHub
601 29 非常简单 3 次阅读 2天前语言模型
AI 解读 由 AI 自动生成,仅供参考

Awesome-Story-Generation 是一个专注于大语言模型(LLM)时代的开源项目,旨在系统性地收集并整理关于故事生成与叙事创作的顶尖学术论文。在大模型引发技术范式转移的背景下,它解决了研究人员和开发者难以从海量文献中快速定位最新、最相关研究成果的痛点,提供了一份按时间排序且持续更新的权威指南。

该项目特别适合人工智能领域的研究人员、算法工程师以及对自动化创作感兴趣的技术爱好者使用。其核心亮点在于精细化的分类体系,将复杂的研究方向梳理为“规划与写作”、“多智能体协作”、“多模态融合”、“可控性优化”及“个性化创作”等关键板块。无论是想探索如何让 AI 写出逻辑更严密的长篇小说,还是研究如何评估故事质量,用户都能在此找到对应的前沿论文、代码资源及数据集。通过汇聚全球智慧,Awesome-Story-Generation 成为了连接理论创新与技术实践的桥梁,助力社区共同推动智能叙事技术的发展。

使用场景

一位独立游戏开发者正试图利用大语言模型为其奇幻 RPG 游戏自动生成连贯且富有创意的长篇支线任务剧情。

没有 Awesome-Story-Generation 时

  • 文献检索如大海捞针:在 arXiv 和各类会议中手动筛选关于“故事生成”的论文,难以区分哪些是过时的前大模型时代研究,哪些是真正基于 LLM 的最新成果。
  • 缺乏系统性方法论:面对长文本生成中常见的逻辑断裂和人设崩塌问题,找不到针对"Plan And Write(规划与写作)”或“多智能体协作”的具体技术路径,只能盲目调整提示词。
  • 评估标准模糊:不清楚如何量化评估生成故事的质量,缺乏权威的评估指标和数据集参考,导致迭代优化全靠主观感觉。
  • 错失前沿控制技巧:不知道如何实现更精细的故事控制(如特定风格迁移或情节约束),生成的内容往往千篇一律,无法满足游戏设计的个性化需求。

使用 Awesome-Story-Generation 后

  • 精准锁定前沿资源:直接获取按时间排序的专属 LLM 时代论文列表,迅速定位到如"Dynamic Hierarchical Outlining"等解决长文逻辑的最新技术,节省数周调研时间。
  • 引入成熟架构方案:参考"Multi Agent"和"Better Storytelling"分类下的论文,快速搭建起包含“规划者 - 撰写者 - 批评者”的多智能体工作流,显著提升剧情连贯性。
  • 建立科学评估体系:利用"Evaluation"板块提供的最新综述和指标,建立起客观的故事质量打分机制,让剧情优化过程有据可依。
  • 实现高度可控创作:借鉴"More Controllable"领域的研究成果,成功让 AI 根据预设的游戏世界观和角色弧光生成定制化剧情,大幅提升了玩家的沉浸感。

Awesome-Story-Generation 将分散的学术智慧转化为可落地的工程指南,帮助开发者从“盲目试错”跃迁至“站在巨人肩膀上创新”。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库(Awesome-Story-Generation)是一个论文和资源列表,而非具体的可执行代码工具或模型框架。它主要收集了关于大语言模型(LLM)时代故事生成的研究论文、数据集和相关资源链接。因此,README 中未包含任何操作系统、GPU、内存、Python 版本或依赖库的安装需求。用户若需运行列表中提到的具体论文代码(如 HAMLET, MoPS 等),需前往各论文对应的独立代码仓库查看具体的环境配置要求。
python未说明
Awesome-Story-Generation hero image

快速开始

超棒的故事生成

Yingpeng MaYan Ma 贡献

🔥 认识到大型语言模型带来的范式转变,我们现在专注于与LLM相关的研究。

对于那些对LLM时代之前的研究感兴趣的人,可以在旧版本中找到归档版本(该归档版本已不再维护)。

目录

简介

本仓库收集了LLM时代关于故事生成/讲故事的优秀论文。

论文按时间顺序排列(最新的在前)。

感谢大家的点赞! 我们会持续更新最新的研究成果。干杯!🍻

您的贡献非常重要!请通过提交issue或pull request来帮助我们保持这份列表的最新和准确,以纠正任何错误或补充遗漏的论文。

联系方式:mayingpeng33 [AT] gmail [DOT] com

论文

例如:ACL-20XX 标题 [论文] [代码] .. [作者]

概述

  • ArXiv-2024 什么构成一个好的故事?我们如何衡量它?故事评估的全面综述 [论文] [Dingyi Yang, Qin Jin]
  • CHI-2024 生成式AI辅助写作的价值、好处与担忧 [论文] [Zhuoyan Li, Chen Liang, Jing Peng, Ming Yin] [主要讨论ChatGPT,未涉及其他模型]
  • ArXiv-2024 Weaver:用于创意写作的基础模型 [论文] [Tiannan Wang, Jiamin Chen, Qingrui Jia, Shuai Wang, Ruoyu Fang, ... , Yuchen Eleanor Jiang, Wangchunshu Zhou] [专注于写作能力的基础模型]
  • Neurocomputing-2023 基于结构化知识增强的开放世界故事生成:全面综述 [论文] [Yuxin Wang, Jieru Lin, Zhiwei Yu, Wei Hu, Börje F. Karlsson]
  • EMNLP Findings-2023 NLP模型擅长追踪思维吗?叙事理解的概述 [论文] [Lixing Zhu, Runcong Zhao, Lin Gui, Yulan He]

规划与写作

  • ArXiv-2025 学习推理以进行长篇故事生成 [论文] [Alexander Gurung, Mirella Lapata]
  • NAACL-2025 利用动态层次大纲与记忆增强生成长篇故事 [论文] [Qianyue Wang, Jinwu Hu, Zhengping Li, Yufeng Wang, daiyuan li, Yu Hu, Mingkui Tan]
  • EMNLP-2024 集体评论家助力创意故事生成 [论文] [Minwook Bae, Hyounghun Kim]
  • ACL-2024 Ex3:通过提取、提炼与扩展实现自动小说写作 [论文] [Lei Huang, Jiaming Guo, Guanhua He, Xishan Zhang, Rui Zhang, Shaohui Peng, Shaoli Liu, Tianshi Chen]
  • ACL Workshop-2025 通过答案集编程引导并多样化基于LLM的故事生成 [论文] [Phoebe J. Wang, Max Kreminski]
  • NAACL-2025 书写之路:大型语言模型指导下的提纲式文本生成 [论文] [Yukyung Lee, Soonwon Ka, Bokyung Son, Pilsung Kang, Jaewook Kang]
  • EACL-2024 创作悬疑故事:利用大型语言模型进行迭代式规划 [论文] [Kaige Xie, Mark Riedl] [提示工程]
  • ArXiv-2023 EIPE-text:评估引导的迭代式计划提取,用于长篇叙事文本生成 [论文] [Wang You, Wenshan Wu, Yaobo Liang, Shaoguang Mao, Chenfei Wu, Maosong Cao, Yuzhe Cai, Yiduo Guo, Yan Xia, Furu Wei, Nan Duan] [提示工程]

多智能体

  • ICLR-2026 HAMLET:用于实时具身戏剧表演的分层自适应多智能体框架 [江书凡、陈思舟、张驰、张晓雷、李学龙]
  • ArXiv-2025 面向约束长文本生成的认知写作视角 [论文] [万凯阳、穆洪林、郝睿、罗浩然、顾天乐、陈秀英]
  • ICLR-2025 Agent's Room:通过多步协作进行叙事生成 [论文] [芳汀·于奥、雷纳尔德·金·安普拉约、珍妮玛丽亚·帕洛马基、爱丽丝·肖莎娜·雅各博维茨、伊丽莎白·克拉克、米雷拉·拉帕塔]
  • ACL-2024 IBSEN:导演-演员智能体协作,用于可控且交互式的戏剧剧本生成 [论文] [韩森宇、陈璐、林丽敏、徐正山、余凯]
  • EMNLP Findings-2024 HoLLMwood:通过角色扮演释放大语言模型在编剧中的创造力 [论文] [陈静、朱欣宇、杨成、石楚凡、奚亚东、张宇翔、王俊杰、蒲家树、张荣生、杨宇久、冯田]
  • FDG-2024 StoryVerse:基于LLM的角色模拟与叙事规划,实现动态情节的共同创作 [论文] [王毅、周倩、大卫·莱多] [虚拟角色]
  • IJCAI-2024 AutoAgents:自动智能体生成框架 [论文] [陈光耀、董思伟、舒宇、张戈、贾瓦德·塞塞、博尔耶·F·卡尔松、傅杰、史叶民] [提示工程]

多模态

  • ArXiv-2024 SEED-Story:基于大语言模型的多模态长篇故事生成 [论文] [杨帅、葛雨莹、李洋、陈宇康、葛一骁、单颖、陈迎聪]
  • CVPR-2023 Make-A-Story:视觉记忆条件下的连贯故事生成 [论文] [坦齐拉·拉赫曼、李欣颖、任健、谢尔盖·图利亚科夫、什韦塔·马哈詹、列昂尼德·西格尔]

更好的叙事

  • ArXiv-2025 所有故事都是一个故事:情感弧线引导的程序化游戏关卡生成 [论文] [温云格、黄晨亮、周航宇、曾卓、路易斯·陈明、朱利安·托格利乌斯、蒂莫西·梅里诺、萨姆·厄尔]
  • ArXiv-2025 寻找有缺陷的小说:通过情节漏洞检测评估语言模型的复杂推理能力 [论文] [卡比尔·阿胡贾、梅拉妮·斯克拉、尤莉娅·茨维特科娃]
  • ArXiv-2025 为长篇故事生成而学习推理 [论文] [亚历山大·古隆、米雷拉·拉帕塔]
  • ArXiv-2024 MLD-EA:通过引入情感和行动来检查并完善叙事连贯性 [论文] [张锦明、龙云飞]
  • EMNLP Findings-2024 SWAG:以行动为导向的故事叙述 [论文] [泽山·帕特尔、卡里姆·埃尔-里法伊、乔纳森·裴、李天乐] [强化学习 / SFT]
  • EMNLP Findings-2023 改进长篇故事规划中的节奏控制 [论文] [王义辰、杨凯文、刘晓明、丹·克莱因] [故事节奏]
  • ArXiv-2023 端到端故事剧情生成器 [论文] [朱汉林、安德鲁·科恩、王丹青、杨凯文、杨晓梦、焦建涛、田元东] [SFT]
  • EMNLP Findings-2023 GROVE:一种基于证据森林的检索增强型复杂故事生成框架 [论文] [文志华、田志良、吴伟、杨宇鑫、施燕琪、黄振、李东升] [RAG]

更具可控性

  • ArXiv-2025 SCORE:用于AI叙事的故事连贯性与检索增强 [论文] [Yi Qiang, He Yangfan, Wang Jianhui, Song Xinyuan, Qian Shiyao, Zhang Miao, Sun Li, Shi Tianyu]
  • AIIDE-2024 NarrativeGenie:利用大型语言模型生成叙事片段与动态叙事 [论文] [Kumaran Vikram, Rowe Jonathan, Lester James]
  • ArXiv-2024 构建叙事结局:基于SSM Mamba的零样本学习用于短篇小说结尾生成 [论文] [Sharma Divyam, Santhanam Divya]
  • ACL-2024 MoPS:用于开放式自动故事生成的模块化故事前提合成 [论文] [代码] [Ma Yan, Qiao Yu, Liu Pengfei]
  • ArXiv-2024 多类型AI驱动的故事创作 [论文] [Soares de Lima Edirlei, Neggers Margot M. E., Furtado Antonio L.]
  • NAACL-2024 回到起点:生成具有相关终点的叙事 [论文] [代码] [Brei Anneliese, Zhao Chao, Chaturvedi Snigdha] [SFT / 提示工程]
  • COLM-2024 文本越长,需求越大:推理时训练助力长文本生成 [论文] [Wang Y., Ma D., Cai D.] [LoRA]
  • ICLR-2024 RLCD:基于对比蒸馏的强化学习用于语言模型对齐 [论文] [Yang Kevin, Klein Dan, Celikyilmaz Asli, Peng Nanyun, Tian Yuandong] [强化学习]
  • ArXiv-2023 RecurrentGPT:交互式生成(任意长度)文本 [论文] [代码] [Zhou Wangchunshu, Jiang Yuchen Eleanor, Cui Peng, Wang Tiannan, Xiao Zhenxin, Hou Yifan, Cotterell Ryan, Sachan Mrinmaya] [提示工程]

更具个性化

  • ArXiv-2025 STORY2GAME:在互动式小说游戏中生成(几乎)一切 [论文] [Zhou Eric, Basavatia Shreyas, Siam Moontashir, Chen Zexin, Riedl Mark O.] [游戏]
  • ICLR-2025 R^2:基于LLM的小说到剧本生成框架,结合因果剧情图 [论文] [Lin Zefeng, Xiao Yi, Mo Zhiqiang, Zhang Qifan, Wang Jie, Chen Jiayang, Zhang Jiajing, Zhang Hui, Liu Zhengyi, Fang Xianyong, Xu Xiaohua]
  • ArXiv-2025 迈向增强沉浸感与自主性的基于LLM的互动戏剧 [论文] [Wu Hongqiu, Wu Weiqi, Xu Tianyang, Zhang Jiameng, Zhao Hai]
  • ArXiv-2025 拼贴式小说生成:以你喜爱的作家风格创作同人小说 [论文] [Han Xueran, Liu Yuhan, Li Mingzhe, Liu Wei, Hu Sen, Yan Rui, Xu Zhiqiang, Chen Xiuying] [风格]
  • ArXiv-2025 这是谁的故事?通过推断作者风格实现故事生成的个性化 [论文] [Ashok Kumar Nischal, Pham Chau Minh, Iyyer Mohit, Lan Andrew]
  • EMNLP-2024 MirrorStories:通过大型语言模型的个性化叙事生成反映多样性 [论文] [Yunusov Sarfaroz, Sidat Hamza, Emami Ali]
  • ArXiv-2024 CAT-LLM:以文本风格定义为提示,实现中文文章风格迁移的大型语言模型应用 [论文] [Tao Zhen, Xi Dinghao, Li Zhiyu, Tang Liumin, Xu Wei] [风格]
  • ArXiv-2023 学习生成任意写作风格的文本 [论文] [Khan Aleem, Wang Andrew, Hager Sophia, Andrews Nicholas] [风格]

评估

  • ICCV AISTORY Workshop-2025 Re:Verse -- 您的多模态语言模型能读懂漫画吗? [论文] [Aaditya Baranwal, Madhav Kataria, Naitik Agrawal, Yogesh S Rawat, Shruti Vyas]
  • ArXiv-2025 CoKe:基于关键词推理链的可定制细粒度故事评估 [论文] [Brihi Joshi, Sriram Venkatapathy, Mohit Bansal, Nanyun Peng, Haw-Shiuan Chang]
  • ArXiv-2025 LongEval:基于规划范式的长文本生成综合分析 [论文] [Siwei Wu, Yizhi Li, Xingwei Qu, Rishi Ravikumar, Yucheng Li, Tyler Loakman, Shanghaoran Quan, Xiaoyong Wei, Riza Batista-Navarro, Chenghua Lin]
  • ArXiv-2025 AI中的回声:量化大语言模型输出中情节多样性的不足 [论文] [Weijia Xu, Nebojsa Jojic, Sudha Rao, Chris Brockett, Bill Dolan]
  • ArXiv-2024 人类与大型语言模型在创意短篇小说生成方面的评估 [论文] [Mete Ismayilzada, Claire Stevenson, Lonneke van der Plas]
  • ArXiv-2024 CS4:通过控制故事写作约束的数量自动衡量大型语言模型的创造力 [论文] [Anirudh Atmakuru, Jatin Nainani, Rohith Siddhartha Reddy Bheemreddy, Anirudh Lakkaraju, Zonghai Yao, Hamed Zamani, Haw-Shiuan Chang]
  • COLING-2025 小型语言模型在短篇创意写作方面可超越人类:小型语言模型与人类及大型语言模型的比较研究 [论文] [Guillermo Marco, Luz Rello, Julio Gonzalo]
  • NAACL-2025 FACTTRACK:故事大纲中的时间感知世界状态追踪 [论文] [Zhiheng Lyu, Kevin Yang, Lingpeng Kong, Daniel Klein]
  • EMNLP-2024 大型语言模型能否生成达到人类水平的叙事? [论文] [Yufei Tian, Tenghao Huang, Miri Liu, Derek Jiang, Alexander Spangher, Muhao Chen, Jonathan May, Nanyun Peng]
  • EMNLP-2024 STORYSUMM:评估故事摘要的忠实性 [论文] [Melanie Subbiah, Faisal Ladhak, Akankshya Mishra, Griffin Adams, Lydia B. Chilton, Kathleen McKeown]
  • ArXiv-2024 Pron vs Prompt:大型语言模型是否已能在创意文本写作上挑战世界级小说家? [论文] [Guillermo Marco, Julio Gonzalo, Ramón del Castillo, María Teresa Mateo Girona]
  • EMNLP-2024 衡量语言模型的心理深度 [论文] [Fabrice Harel-Canada, Hanyu Zhou, Sreya Muppalla, Zeynep Yildiz, Miryung Kim, Amit Sahai, Nanyun Peng]
  • TACL-2024 语言模型会喜欢自己的故事吗?通过提示引导大型语言模型进行自动故事评估 [论文] [Cyril Chhun, Fabian M. Suchanek, Chloé Clavel]
  • TACL-2024 解读潜台词:与作家共同评估大型语言模型的短篇小说摘要能力 [论文] [Melanie Subbiah, Sean Zhang, Lydia B. Chilton, Kathleen McKeown]
  • EMNLP Findings-2023 模型联盟:对大型语言模型创意写作能力的全面评估 [论文] [Carlos Gómez-Rodríguez, Paul Williams]
  • EMNLP-2024 用于开放式文本生成评估的个性化对齐学习 [论文] [Danqing Wang, Kevin Yang, Hanlin Zhu, Xiaomeng Yang, Andrew Cohen, Lei Li, Yuandong Tian]
  • ICLR-2024 BooookScore:大语言模型时代下书本级摘要的系统性探索[论文][Yapei Chang, Kyle Lo, Tanya Goyal, Mohit Iyyer]
  • TMLR-2024 TIGERScore:迈向所有文本生成任务的可解释性评估指标[论文][Dongfu Jiang, Yishan Li, Ge Zhang, Wenhao Huang, Bill Yuchen Lin, Wenhu Chen]
  • CHI-2023 艺术还是人工?大型语言模型与创造力的虚假承诺 [论文] [Tuhin Chakrabarty, Philippe Laban, Divyansh Agarwal, Smaranda Muresan, Chien-Sheng Wu]
  • ACL-2023 HAUSER:迈向比喻生成的全面自动化评估 [论文] [Qianyu He, Yikai Zhang, Jiaqing Liang, Yuncheng Huang, Yanghua Xiao, Yunwen Chen]
  • ACL-2023 大型语言模型能否替代人工评估? [论文] [Cheng-Han Chiang, Hung-yi Lee]
  • EMNLP Findings-2023 DeltaScore:通过差异化扰动评估故事生成 [论文] [Zhuohan Xie, Miao Li, Trevor Cohn, Jey Han Lau]
  • EMNLP-2022 StoryER:通过排名、评分和推理实现故事的自动评估 [论文] [Hong Chen, Duc Minh Vo, Hiroya Takamura, Yusuke Miyao, Hideki Nakayama]
  • COLING-2022 人类标准与自动指标:故事生成评估的基准测试 [论文] [Cyril Chhun, Pierre Colombo, Chloé Clavel, Fabian M. Suchanek]
  • TACL-2022 LOT:一个以故事为中心的基准,用于评估中文长文本理解和生成 [论文] [Jian Guan, Zhuoer Feng, Yamei Chen, Ruilin He, Xiaoxi Mao, Changjie Fan, Minlie Huang]
  • ACL-2021 Openmeva:开放式故事生成评估指标的基准测试 [论文] [Jian Guan, Zhexin Zhang, Zhuoer Feng, Zitao Liu, Wenbiao Ding, Xiaoxi Mao, Changjie Fan, Minlie Huang]
  • EMNLP-2020 Union:一种未引用的开放式故事生成评估指标 [论文] [代码] [Jian Guan, Minlie Huang]

数据集

  • EMNLP Findings-2024 BookWorm:用于人物描述与分析的数据集 [论文] [Argyrios Papoudakis, Mirella Lapata, Frank Keller]
  • EMNLP Workshop-2025 GPT-WritingPrompts数据集:短篇小说中人物刻画的比较分析 [论文] [Xi Yu Huang, Krishnapriya Vishnubhotla, Frank Rudzicz]
  • NAACL Findings-2025 CollabStory:多大语言模型协作生成故事及作者身份分析 [论文] [Saranya Venkatraman, Nafis Irtiza Tripto, Dongwon Lee]
  • ACL Findings-2024 大型语言模型表现不足:理解侦探叙事中的复杂关系 [论文] [Runcong Zhao, Qinglin Zhu, Hainiu Xu, Jiazheng Li, Yuxiang Zhou, Yulan He, Lin Gui]
  • LREC-COLING-2024 CLAUSE-ATLAS:用于扩展计算文学分析的叙事信息语料库 [论文] [Enrica Troiano, Piek T.J.M. Vossen]
  • LREC-COLING-2024 反思与共鸣:双智能体合作推进基于LLM的故事标注 [论文] [Yuetian Chen, Mei Si]
  • LREC-COLING-2024 CMDAG:带有注释依据作为思维链的中文隐喻数据集,用于提升隐喻生成能力 [论文] [Yujie Shao, Xinrong Yao, Xingwei Qu, Chenghua Lin, Shi Wang, Stephen W. Huang, Ge Zhang, Jie Fu]
  • ArXiv-2023 STONYBOOK:用于大规模小说分析的系统与资源 [论文] [Charuta Pethe, Allen Kim, Rajesh Prabhakar, Tanzir Pial, Steven Skiena]
  • ACL-2023 StoryWars:用于协作式故事理解和生成的数据集及指令微调基线 [论文] [Yulun Du, Lydia Chilton]
  • NAACL-2022 用于理解和生成道德故事的语料库 [论文] [Jian Guan, Ziqi Liu, Minlie Huang]
  • EVAL4NLP-2021 StoryDB:广泛的多语言叙事数据集 [论文] [Alexey Tikhonov, Igor Samenko, Ivan P. Yamshchikov]
  • ACL-2022 SummScreen:用于摘要式剧本摘要生成的数据集 [论文] [数据] [Mingda Chen, Zewei Chu, Sam Wiseman, Kevin Gimpel]
  • ArXiv-2021 TVStoryGen:用于生成包含人物描述的故事的数据集 [论文] [Mingda Chen, Kevin Gimpel]
  • EMNLP-2020 STORIUM:人机协作式故事生成的数据集与评估平台 [论文] [Nader Akoury, Shufan Wang, Josh Whiting, Stephen Hood, Nanyun Peng, Mohit Iyyer]
  • NAACL-2016 用于更深入理解常识性故事的语料库及完形填空评估 [论文] [Nasrin Mostafazadeh, Nathanael Chambers, Xiaodong He, Devi Parikh, Dhruv Batra, Lucy Vanderwende, Pushmeet Kohli, James Allen]

公开资源

  • 理解故事领域的AI 是一篇综述博客,深入探讨了人工智能在故事生成领域的应用,揭示其潜力以及面临的挑战。
  • ROC Stories 汇集了10万则五句故事和3,742则故事完形填空测试题,捕捉了日常事件之间丰富的因果与时间顺序常识联系,非常适合用于故事生成任务。
  • CommonGen 通过整合众包和现有说明语料库而开发,包含3.5万个不同概念集合中的7.9万条常识性描述。
  • CMU电影概要语料库 提供了包含电影剧情概要及相关元数据的数据集访问权限。
  • 科幻电视剧剧情概要与事件 是一个收集自Fandom.com维基的长期(80集以上)科幻电视剧剧情梗概的合集。

Star History Chart

相似工具推荐

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架

PaddleOCR

PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来,转换成计算机可读取的结构化数据,让机器真正“看懂”图文内容。 面对海量纸质或电子文档,PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域,它扮演着连接图像与大型语言模型(LLM)的桥梁角色,能将视觉信息直接转化为文本输入,助力智能问答、文档分析等应用场景落地。 PaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显:不仅支持全球 100 多种语言的识别,还能在 Windows、Linux、macOS 等多个系统上运行,并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目,PaddleOCR 既能满足快速集成的需求,也能支撑前沿的视觉语言研究,是处理文字识别任务的理想选择。

74.9k|★★★☆☆|今天
语言模型图像开发框架

OpenHands

OpenHands 是一个专注于 AI 驱动开发的开源平台,旨在让智能体(Agent)像人类开发者一样理解、编写和调试代码。它解决了传统编程中重复性劳动多、环境配置复杂以及人机协作效率低等痛点,通过自动化流程显著提升开发速度。 无论是希望提升编码效率的软件工程师、探索智能体技术的研究人员,还是需要快速原型验证的技术团队,都能从中受益。OpenHands 提供了灵活多样的使用方式:既可以通过命令行(CLI)或本地图形界面在个人电脑上轻松上手,体验类似 Devin 的流畅交互;也能利用其强大的 Python SDK 自定义智能体逻辑,甚至在云端大规模部署上千个智能体并行工作。 其核心技术亮点在于模块化的软件智能体 SDK,这不仅构成了平台的引擎,还支持高度可组合的开发模式。此外,OpenHands 在 SWE-bench 基准测试中取得了 77.6% 的优异成绩,证明了其解决真实世界软件工程问题的能力。平台还具备完善的企业级功能,支持与 Slack、Jira 等工具集成,并提供细粒度的权限管理,适合从个人开发者到大型企业的各类用户场景。

70.6k|★★★☆☆|今天
语言模型Agent开发框架