[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-tmylla--Awesome-LLM4Cybersecurity":3,"tool-tmylla--Awesome-LLM4Cybersecurity":65},[4,17,27,35,48,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",157379,2,"2026-04-15T23:32:42",[13,14,15],"开发框架","Agent","语言模型","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,3,"2026-04-06T11:19:32",[15,26,14,13],"图像",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":10,"last_commit_at":33,"category_tags":34,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,"2026-04-10T11:13:16",[26,43,44,45,14,46,15,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":54,"last_commit_at":55,"category_tags":56,"status":16},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[15,43,46],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":54,"last_commit_at":63,"category_tags":64,"status":16},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[46,26,43,13],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":82,"stars":85,"forks":86,"last_commit_at":87,"license":82,"difficulty_score":54,"env_os":88,"env_gpu":89,"env_ram":89,"env_deps":90,"category_tags":93,"github_topics":82,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":94,"updated_at":95,"faqs":96,"releases":126},7973,"tmylla\u002FAwesome-LLM4Cybersecurity","Awesome-LLM4Cybersecurity","An overview of LLMs for cybersecurity.","Awesome-LLM4Cybersecurity 是一个专注于大语言模型（LLM）与网络安全交叉领域的系统性文献综述资源库。它旨在解决该领域研究论文爆发式增长导致的信息碎片化问题，帮助从业者快速梳理从基础构建到前沿应用的完整知识脉络。\n\n该项目不仅收录了超过 612 篇高质量学术论文，还将其科学地划分为 11 个核心研究方向，涵盖安全评估基准、领域模型微调、漏洞检测与修复、威胁情报分析，以及 LLM 辅助的攻防对抗等关键场景。其独特的技术亮点在于持续动态更新机制，定期纳入最新研究成果，并清晰标注了各细分领域的热度趋势与未来发展方向（如智能体安全应用）。\n\n无论是希望追踪学术前沿的研究人员、寻求技术落地的安全工程师，还是对 AI 安全感兴趣的开发者，都能在这里找到极具价值的参考指引。通过结构化的分类与深度的整理，Awesome-LLM4Cybersecurity 让探索\"AI+ 安全”的复杂世界变得高效而清晰。","\u003Ca name=\"top\">\u003C\u002Fa>\n## \u003Cdiv align=\"center\">When LLMs Meet Cybersecurity: A Systematic Literature Review\u003Cdiv>\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.03644\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=Paper&message=Arxiv:LLM4Cybersecurity&color=red&logo=arxiv\">\u003C\u002Fa> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPapers-612+-blue\"> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FUpdated-2026.02.09-green\"> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FCategories-11+-orange\">\n\u003C\u002Fdiv>\n\n\n\u003Cdiv align=\"center\">\n\n### 🔍 Explore 612+ Papers Across 11 Research Categories\n\n**📊 RQ1: Domain LLMs** | **🎯 RQ2: Applications** | **🤖 RQ3: Future Directions**\n\n\u003C\u002Fdiv>\n\n\n\n\n## Updates\n\n📆[2026-02-09] We have updated the related papers up to **2026\u002F01\u002F31**, with *80* new papers added (2025.08.31-2026.01.31).\n\n📆[2025-11-17] We have updated the related papers up to **2025\u002F08\u002F31**, with *176* new papers added (2025.03.01-2025.08.31).\n\n📆[2025-03-03] We have updated the related papers up to **2025\u002F02\u002F28**, with *33* new papers added (2025.01.01-2025.02.28).\n\n📆[2025-01-21] We have updated the related papers up to **2024\u002F12\u002F31**, with *74* new papers added (2024.09.01-2024.12.31).\n\n📆[2025-01-08] We have included **the publication venues** for each paper.\n\n📆[2024-09-21] We have updated the related papers up to **2024\u002F08\u002F31**, with *75* new papers added (2024.06.01-2024.08.31).\n\n\n\u003C\u002Fdetails>\n\n\n## Brief Introduction\n\n\n#### 📊 Paper Distribution by Research Question\n\n| RQ | Category | Papers | Percentage | Trend |\n|:---:|----------|--------|:----------:|:-------:|\n| **RQ1** | 📊 [Evaluation Benchmarks](LITERATURES.md#cybersecurity-evaluation-benchmarks) | 41 | 6.7% | 📊 Stable |\n| | 🔧 [Fine-tuned LLMs](LITERATURES.md#fine-tuned-domain-llms-for-cybersecurity) | 32 | 5.2% | 📊 Stable |\n| **RQ2** | 🛡️ [LLM Assisted Defense](LITERATURES.md#llm-assisted-defense) | 113 | 18.5% | 📈 Growing |\n| | 🐛 [Vulnerability Detection](LITERATURES.md#vulnerability-detection) | 94 | 15.4% | 📈 Growing |\n| | ⚔️ [LLM Assisted Attack](LITERATURES.md#llm-assisted-attack) | 83 | 13.6% | 🔥 Hot |\n| | 🔨 [Program\u002FVulnerability Repair](LITERATURES.md#program-or-vulnerability-repair) | 66 | 10.8% | 📊 Stable |\n| | 📦 [Others](LITERATURES.md#others) | 56 | 9.2% | 📊 Stable |\n| | 🎯 [Threat Intelligence](LITERATURES.md#threat-intelligence) | 46 | 7.5% | 📊 Stable |\n| | 🔍 [FUZZ](LITERATURES.md#fuzz) | 25 | 4.1% | 📊 Stable |\n| | ⚠️ [Insecure Code Generation](LITERATURES.md#insecure-code-generation) | 31 | 5.1% | 🚫 Unmaintained |\n| **RQ3** | 🤖 [Agent4Cybersecurity](LITERATURES.md#further-research-agent4cybersecurity) | 56 | 9.2% | 🚀 Emerging |\n\n---\n\n## 📜 Literatures\n\n**👉 [View Full Literature Review →](LITERATURES.md)**\n\nThe complete literature review with 612+ papers has been moved to a separate file for better readability.\n\n### Quick Links by Research Question:\n\n- **[RQ1: Domain LLMs Construction](LITERATURES.md#-rq1-how-to-construct-cybersecurity-oriented-domain-llmss-73-papers)**\n  - [Cybersecurity Evaluation Benchmarks](LITERATURES.md#cybersecurity-evaluation-benchmarks) (41 papers)\n  - [Fine-tuned Domain LLMs](LITERATURES.md#fine-tuned-domain-llms-for-cybersecurity) (32 papers)\n\n- **[RQ2: LLM Applications in Cybersecurity](LITERATURES.md#-rq2-what-are-the-potential-applications-of-llms-in-cybersecurity-514-papers)**\n  - [Threat Intelligence](LITERATURES.md#threat-intelligence) (46 papers)\n  - [FUZZ](LITERATURES.md#fuzz) (25 papers)\n  - [Vulnerability Detection](LITERATURES.md#vulnerability-detection) (94 papers)\n  - [Program\u002FVulnerability Repair](LITERATURES.md#program-or-vulnerability-repair) (66 papers)\n  - [Insecure Code Generation](LITERATURES.md#insecure-code-generation) (31 papers)\n  - [LLM Assisted Defense](LITERATURES.md#llm-assisted-defense) (113 papers)\n  - [LLM Assisted Attack](LITERATURES.md#llm-assisted-attack) (83 papers)\n  - [Others](LITERATURES.md#others) (56 papers)\n\n- **[RQ3: Future Research Directions](LITERATURES.md#-rq3-what-are-further-research-directions-about-the-application-of-llms-in-cybersecurity-56-papers)**\n  - [Agent4Cybersecurity](LITERATURES.md#further-research-agent4cybersecurity) (56 papers)\n\n\n## BibTeX\n```\n@article{zhang2025llms,\n  title={When llms meet cybersecurity: A systematic literature review},\n  author={Zhang, Jie and Bu, Haoyu and Wen, Hui and Liu, Yongji and Fei, Haiqiang and Xi, Rongrong and Li, Lun and Yang, Yun and Zhu, Hongsong and Meng, Dan},\n  journal={Cybersecurity},\n  volume={8},\n  number={1},\n  pages={1--41},\n  year={2025},\n  publisher={SpringerOpen}\n}\n```\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftmylla_Awesome-LLM4Cybersecurity_readme_a1fedcd41c7f.png)](https:\u002F\u002Fwww.star-history.com\u002F#tmylla\u002FAwesome-LLM4Cybersecurity&type=date&legend=top-left)","\u003Ca name=\"top\">\u003C\u002Fa>\n## \u003Cdiv align=\"center\">当大模型遇上网络安全：系统性文献综述\u003Cdiv>\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2405.03644\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fstatic\u002Fv1?label=论文&message=Arxiv:LLM4Cybersecurity&color=red&logo=arxiv\">\u003C\u002Fa> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F论文-612+-blue\"> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F更新-2026.02.09-green\"> &ensp;\n\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F类别-11+-orange\">\n\u003C\u002Fdiv>\n\n\n\u003Cdiv align=\"center\">\n\n### 🔍 探索11个研究类别中的612+篇论文\n\n**📊 RQ1：领域大模型** | **🎯 RQ2：应用** | **🤖 RQ3：未来方向**\n\n\u003C\u002Fdiv>\n\n\n\n\n## 更新记录\n\n📆[2026-02-09] 我们已将相关论文更新至**2026年1月31日**，新增*80*篇论文（2025.08.31-2026.01.31）。\n\n📆[2025-11-17] 我们已将相关论文更新至**2025年8月31日**，新增*176*篇论文（2025.03.01-2025.08.31）。\n\n📆[2025-03-03] 我们已将相关论文更新至**2025年2月28日**，新增*33*篇论文（2025.01.01-2025.02.28）。\n\n📆[2025-01-21] 我们已将相关论文更新至**2024年12月31日**，新增*74*篇论文（2024.09.01-2024.12.31）。\n\n📆[2025-01-08] 我们为每篇论文添加了**发表期刊或会议信息**。\n\n📆[2024-09-21] 我们已将相关论文更新至**2024年8月31日**，新增*75*篇论文（2024.06.01-2024.08.31）。\n\n\u003C\u002Fdetails>\n\n\n## 简介\n\n\n#### 📊 按研究问题划分的论文分布\n\n| RQ | 类别 | 论文数 | 百分比 | 趋势 |\n|:---:|----------|--------|:----------:|:-------:|\n| **RQ1** | 📊 [评估基准](LITERATURES.md#cybersecurity-evaluation-benchmarks) | 41 | 6.7% | 📊 稳定 |\n| | 🔧 [微调后的领域大模型](LITERATURES.md#fine-tuned-domain-llms-for-cybersecurity) | 32 | 5.2% | 📊 稳定 |\n| **RQ2** | 🛡️ [大模型辅助防御](LITERATURES.md#llm-assisted-defense) | 113 | 18.5% | 📈 增长 |\n| | 🐛 [漏洞检测](LITERATURES.md#vulnerability-detection) | 94 | 15.4% | 📈 增长 |\n| | ⚔️ [大模型辅助攻击](LITERATURES.md#llm-assisted-attack) | 83 | 13.6% | 🔥 热门 |\n| | 🔨 [程序\u002F漏洞修复](LITERATURES.md#program-or-vulnerability-repair) | 66 | 10.8% | 📊 稳定 |\n| | 📦 [其他](LITERATURES.md#others) | 56 | 9.2% | 📊 稳定 |\n| | 🎯 [威胁情报](LITERATURES.md#threat-intelligence) | 46 | 7.5% | 📊 稳定 |\n| | 🔍 [FUZZ](LITERATURES.md#fuzz) | 25 | 4.1% | 📊 稳定 |\n| | ⚠️ [不安全代码生成](LITERATURES.md#insecure-code-generation) | 31 | 5.1% | 🚫 已停止维护 |\n| **RQ3** | 🤖 [Agent4Cybersecurity](LITERATURES.md#further-research-agent4cybersecurity) | 56 | 9.2% | 🚀 新兴 |\n\n---\n\n## 📜 文献综述\n\n**👉 [查看完整文献综述 →](LITERATURES.md)**\n\n包含612+篇论文的完整文献综述已被移至单独文件，以提高可读性。\n\n### 按研究问题快速链接：\n\n- **[RQ1：构建领域大模型](LITERATURES.md#-rq1-how-to-construct-cybersecurity-oriented-domain-llmss-73-papers)**\n  - [网络安全评估基准](LITERATURES.md#cybersecurity-evaluation-benchmarks)（41篇）\n  - [微调后的领域大模型](LITERATURES.md#fine-tuned-domain-llms-for-cybersecurity)（32篇）\n\n- **[RQ2：大模型在网络安全中的应用](LITERATURES.md#-rq2-what-are-the-potential-applications-of-llms-in-cybersecurity-514-papers)**\n  - [威胁情报](LITERATURES.md#threat-intelligence)（46篇）\n  - [FUZZ](LITERATURES.md#fuzz)（25篇）\n  - [漏洞检测](LITERATURES.md#vulnerability-detection)（94篇）\n  - [程序\u002F漏洞修复](LITERATURES.md#program-or-vulnerability-repair)（66篇）\n  - [不安全代码生成](LITERATURES.md#insecure-code-generation)（31篇）\n  - [大模型辅助防御](LITERATURES.md#llm-assisted-defense)（113篇）\n  - [大模型辅助攻击](LITERATURES.md#llm-assisted-attack)（83篇）\n  - [其他](LITERATURES.md#others)（56篇）\n\n- **[RQ3：未来研究方向](LITERATURES.md#-rq3-what-are-further-research-directions-about-the-application-of-llms-in-cybersecurity-56-papers)**\n  - [Agent4Cybersecurity](LITERATURES.md#further-research-agent4cybersecurity)（56篇）\n\n\n## BibTeX\n```\n@article{zhang2025llms,\n  title={当大模型遇上网络安全：系统性文献综述},\n  author={Zhang, Jie and Bu, Haoyu and Wen, Hui and Liu, Yongji and Fei, Haiqiang and Xi, Rongrong and Li, Lun and Yang, Yun and Zhu, Hongsong and Meng, Dan},\n  journal={网络安全},\n  volume={8},\n  number={1},\n  pages={1--41},\n  year={2025},\n  publisher={SpringerOpen}\n}\n```\n\n## 星标历史\n\n[![星标历史图](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftmylla_Awesome-LLM4Cybersecurity_readme_a1fedcd41c7f.png)](https:\u002F\u002Fwww.star-history.com\u002F#tmylla\u002FAwesome-LLM4Cybersecurity&type=date&legend=top-left)","# Awesome-LLM4Cybersecurity 快速上手指南\n\nAwesome-LLM4Cybersecurity 是一个系统性的文献综述项目，汇集了 612+ 篇关于大语言模型（LLM）在网络安全领域应用的学术论文。本项目主要作为知识索引库，帮助研究人员和开发者快速定位相关研究、基准测试及应用方向。\n\n## 环境准备\n\n本项目为文献列表资源库，**无需安装任何软件依赖或配置运行环境**。\n\n*   **系统要求**：任意操作系统（Windows, macOS, Linux）。\n*   **前置依赖**：\n    *   现代 Web 浏览器（用于在线阅读整理后的文献列表）。\n    *   Git（可选，用于克隆仓库到本地）。\n    *   Markdown 阅读器（可选，用于本地查看 `.md` 文件）。\n\n## 安装步骤\n\n你可以通过以下两种方式获取文献列表：\n\n### 方式一：在线浏览（推荐）\n直接访问项目维护的完整文献列表页面，无需下载：\n*   **完整文献综述**: [点击查看 LITERATURES.md](https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fblob\u002Fmain\u002FLITERATURES.md)\n\n### 方式二：本地克隆\n如果你希望离线查看或贡献内容，请使用 Git 克隆仓库：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity.git\ncd Awesome-LLM4Cybersecurity\n```\n\n> **提示**：国内用户若遇到克隆速度慢的问题，可使用 Gitee 镜像（如有）或通过代理加速，或直接下载 ZIP 压缩包。\n\n## 基本使用\n\n本项目核心在于通过分类索引快速查找论文。所有论文已按三个核心研究问题（RQ）分类整理在 `LITERATURES.md` 文件中。\n\n### 1. 查找特定领域的论文\n打开 `LITERATURES.md` 文件，根据以下三大方向定位你需要的内容：\n\n*   **RQ1: 领域大模型构建 (Domain LLMs)**\n    *   查找 **评估基准 (Evaluation Benchmarks)**：包含 41 篇论文，用于测试 LLM 在安全领域的性能。\n    *   查找 **微调模型 (Fine-tuned LLMs)**：包含 32 篇论文，介绍如何训练专用于网络安全的 LLM。\n\n*   **RQ2: 网络安全中的应用 (Applications)**\n    *   **LLM 辅助防御 (LLM Assisted Defense)**：113 篇论文（增长趋势📈），涵盖入侵检测、日志分析等。\n    *   **漏洞检测 (Vulnerability Detection)**：94 篇论文（增长趋势📈），利用 LLM 发现代码漏洞。\n    *   **LLM 辅助攻击 (LLM Assisted Attack)**：83 篇论文（热门🔥），研究攻击者如何利用 LLM 生成恶意载荷。\n    *   **程序\u002F漏洞修复 (Program\u002FVulnerability Repair)**：66 篇论文，自动化修补代码。\n    *   其他方向包括：威胁情报、模糊测试 (FUZZ)、不安全代码生成分析等。\n\n*   **RQ3: 未来研究方向 (Future Directions)**\n    *   **Agent4Cybersecurity**：56 篇论文（新兴🚀），探索自主智能体在安全运维中的应用。\n\n### 2. 引用论文\n如果你在研究中使用了该综述列表，请在参考文献中引用原始论文：\n\n```bibtex\n@article{zhang2025llms,\n  title={When llms meet cybersecurity: A systematic literature review},\n  author={Zhang, Jie and Bu, Haoyu and Wen, Hui and Liu, Yongji and Fei, Haiqiang and Xi, Rongrong and Li, Lun and Yang, Yun and Zhu, Hongsong and Meng, Dan},\n  journal={Cybersecurity},\n  volume={8},\n  number={1},\n  pages={1--41},\n  year={2025},\n  publisher={SpringerOpen}\n}\n```\n\n### 3. 追踪更新\n项目定期更新（最近一次更新至 2026 年 2 月 9 日，新增 80 篇论文）。建议定期 Pull 最新代码或关注仓库 Star History 以获取最新研究动态。","某金融科技公司安全研究团队正急需构建一套基于大模型的自动化漏洞检测系统，以应对日益复杂的代码审计需求。\n\n### 没有 Awesome-LLM4Cybersecurity 时\n- **文献检索如大海捞针**：研究人员需在 arXiv、IEEE 等多个平台手动搜索，耗时数周仍难以穷尽\"LLM 辅助防御”或“漏洞检测”领域的最新成果。\n- **技术选型缺乏依据**：面对数百篇论文，无法快速区分哪些是成熟的微调模型（Fine-tuned LLMs），哪些仅是理论探讨，导致项目起步阶段方向模糊。\n- **忽视前沿趋势**：容易错过如\"Agent4Cybersecurity\"等新兴研究方向，使得构建的系统架构在立项时便已落后于学术界最新进展。\n- **重复造轮子风险高**：因不了解现有的评估基准（Evaluation Benchmarks），团队可能花费大量精力开发已被验证效果不佳的算法。\n\n### 使用 Awesome-LLM4Cybersecurity 后\n- **一站式获取核心资源**：直接通过分类索引锁定 94 篇“漏洞检测”和 113 篇\"LLM 辅助防御”相关论文，将调研周期从数周缩短至几天。\n- **精准定位落地方案**：利用清晰的标签体系，快速筛选出带有具体发表 venue 且经过验证的微调模型，为技术栈选型提供坚实支撑。\n- **紧跟学术前沿脉搏**：通过查看\"Agent4Cybersecurity\"等 Emerging 类别的最新更新（截至 2026 年 1 月），确保系统架构融入多智能体协作等先进理念。\n- **规避无效研发路径**：参考已有的 41 篇评估基准论文，直接复用成熟的测试数据集与评价指标，显著降低试错成本。\n\nAwesome-LLM4Cybersecurity 将分散的学术智慧转化为结构化的工程指南，让安全团队能站在巨人的肩膀上快速构建下一代智能防御体系。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ftmylla_Awesome-LLM4Cybersecurity_18ffaadd.png","tmylla","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ftmylla_8d79d177.png","Let there be light.","University of Chinese Academy of Sciences","Beijing, China","tmylla@163.com",null,"tmylla.github.io","https:\u002F\u002Fgithub.com\u002Ftmylla",1285,133,"2026-04-15T19:29:43","","未说明",{"notes":91,"python":89,"dependencies":92},"该项目是一个系统文献综述（Awesome List），主要包含论文列表、分类统计及相关链接，并非可执行的软件工具或代码库，因此无需特定的操作系统、GPU、内存或 Python 环境依赖。用户只需通过浏览器查看 Markdown 文件或访问提供的 Arxiv 论文链接即可使用。",[],[15,46],"2026-03-27T02:49:30.150509","2026-04-16T08:20:13.868852",[97,102,107,112,117,122],{"id":98,"question_zh":99,"answer_zh":100,"source_url":101},35699,"如何查看这些论文发表的会议或期刊信息？","维护者已于 2025 年 1 月 8 日在列表中补充了每篇论文的发表 venue（会议\u002F期刊）。此外，维护者计划添加标签以突显顶级会议论文，方便用户快速筛选高质量文章。","https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fissues\u002F2",{"id":103,"question_zh":104,"answer_zh":105,"source_url":106},35700,"项目中的词云和统计图表是如何生成的？有相关代码吗？","目前未提供生成词云和图表的源代码。这些可视化内容是使用 ECharts 或 PPT 等工具手动制作的。如果用户希望生成类似的图表，建议使用 GPT 或 Claude 等生成式 AI 工具辅助实现。","https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fissues\u002F3",{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},35701,"我想提交一篇关于 LLM 与网络安全的新论文，流程是怎样的？","用户可以在 Issue 中提供论文标题、arXiv 链接（或 DOI）、官方仓库链接以及简短摘要。维护者会审核内容的相关性，若符合主题（如合成数据生成、模糊测试、威胁情报等），便会将其收录到仓库列表中并更新分类。","https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fissues\u002F7",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},35702,"有没有关于利用 LLM 进行模糊测试驱动生成（Fuzz Driver Generation）的推荐论文？","有的。推荐论文《Prompt Fuzzing for Fuzz Driver Generation》（arXiv:2312.17677）已被收录。该论文提出了 PromptFuzz 框架，通过指令性程序生成、错误程序验证和覆盖率引导的提示突变等技术，生成的模糊测试驱动在分支覆盖率上比 OSS-Fuzz 和 Hopper 高出约 1.6 倍，并发现了 30 个已确认的新漏洞。","https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fissues\u002F9",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},35703,"是否有将大语言模型应用于网络威胁情报（CTI）的研究成果？","是的，项目已收录相关研究。例如论文《Cyber Defense Reinvented: Large Language Models as Threat Intelligence Copilots》（arXiv:2502.20791）探讨了 LLM 作为威胁情报副驾驶的应用，该工作已被添加到列表的相应部分。","https:\u002F\u002Fgithub.com\u002Ftmylla\u002FAwesome-LLM4Cybersecurity\u002Fissues\u002F6",{"id":123,"question_zh":124,"answer_zh":125,"source_url":111},35704,"ELTEX 框架在网络安全领域有什么具体应用？","ELTEX 是一个用于领域驱动合成数据生成的框架。在网络安全领域，它被用于区块链相关的网络攻击检测。通过从社交媒体提取早期信号并生成高质量的合成训练数据，ELTEX 帮助微调后的轻量级模型（如 Gemma-2B）在特定领域达到了媲美 GPT-4 的性能。相关数据集已在 Hugging Face 发布。",[]]