[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Orchestra-Research--AI-Research-SKILLs":3,"tool-Orchestra-Research--AI-Research-SKILLs":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",146793,2,"2026-04-08T23:32:35",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":106,"forks":107,"last_commit_at":108,"license":109,"difficulty_score":10,"env_os":110,"env_gpu":111,"env_ram":112,"env_deps":113,"category_tags":124,"github_topics":126,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":141,"updated_at":142,"faqs":143,"releases":179},5742,"Orchestra-Research\u002FAI-Research-SKILLs","AI-Research-SKILLs","Comprehensive open-source library of AI research and engineering skills for any AI model. Package the skills and your claude code\u002Fcodex\u002Fgemini agent will be an AI research agent with full horsepower. Maintained by Orchestra Research.","AI-Research-SKILLs 是一个专为赋能 AI 智能体而设计的开源技能库，旨在让 Claude、Codex 或 Gemini 等模型化身具备全栈能力的\"AI 科研助手”。它解决了当前 AI 研究中科研人员耗费大量时间调试基础设施、难以独立覆盖从创意构思到论文撰写全流程的痛点。通过提供 87 项涵盖 22 个专业领域的标准化技能，该工具让智能体能够自主执行文献调研、实验设计、模型训练、评估验证乃至最终的科学论文写作。\n\n这套工具特别适合 AI 研究人员、机器学习工程师以及希望构建自动化科研工作流的开发者使用。其核心亮点在于独特的“双循环”自主研究架构：外层循环负责统筹整个科研生命周期，内层则灵活调用具体的领域专家技能。这些技能不仅覆盖了模型架构、微调、分布式训练等硬核工程环节，还包含了安全性对齐、机械可解释性等前沿方向。所有技能文档均源自官方仓库、真实 GitHub 议题及经过生产环境验证的工作流，确保了极高的专业度与实用性。借助 AI-Research-SKILLs，用户可以将繁琐的工程实现交给智能体，从而更专注于科学假设的探索与创新。","# AI Research `Skills` Library\n\n> **The most comprehensive open-source skills library enabling AI agents to autonomously conduct AI research — from idea to paper**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_2ea48654aca5.gif\" alt=\"AI Research Skills Demo\" width=\"700\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\" alt=\"License: MIT\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@orchestra-research\u002Fai-research-skills\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F@orchestra-research\u002Fai-research-skills.svg\" alt=\"npm version\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002Fai-research-skills\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FBlog-Read%20More-orange.svg\" alt=\"Blog Post\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Forchestrarese-efu1990\u002Fshared_invite\u002Fzt-3iu6gr8io-zJvpkZTPToEviQ9KFZvNSg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSlack-Join%20Community-4A154B.svg?logo=slack\" alt=\"Slack\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fx.com\u002Forch_research\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-Follow-1DA1F2.svg?logo=x\" alt=\"Twitter\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Forchestra-research\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-Follow-0A66C2.svg?logo=linkedin\" alt=\"LinkedIn\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\n### **87 Skills Powering AI Research in 2026**\n\n\u003C\u002Fdiv>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>View All 22 Categories\u003C\u002Fb>\u003C\u002Fsummary>\n\n\u003Cdiv align=\"center\">\n\n| | | |\n|:---:|:---:|:---:|\n| **Autoresearch** (1) | **Ideation** (2) | **ML Paper Writing** (2) |\n| **Model Architecture** (5) | **Fine-Tuning** (4) | **Post-Training** (8) |\n| **Distributed Training** (6) | **Optimization** (6) | **Inference** (4) |\n| **Tokenization** (2) | **Data Processing** (2) | **Evaluation** (3) |\n| **Safety & Alignment** (4) | **Agents** (4) | **RAG** (5) |\n| **Multimodal** (7) | **Prompt Engineering** (4) | **MLOps** (3) |\n| **Observability** (2) | **Infrastructure** (3) | **Mech Interp** (4) |\n| **Emerging Techniques** (6) | | |\n\n\u003C\u002Fdiv>\n\n\u003C\u002Fdetails>\n\n---\n\n## Table of Contents\n\n- [Our Mission](#our-mission)\n- [Path Towards AI Research Agent](#path-towards-ai-research-agent)\n- [Available AI Research Engineering Skills](#available-ai-research-engineering-skills)\n- [Demos](#demos)\n- [Skill Structure](#skill-structure)\n- [Roadmap](#roadmap)\n- [Repository Structure](#repository-structure)\n- [Use Cases](#use-cases)\n- [Contributors](#contributors)\n- [Citation](#citation)\n- [Community](#community)\n\n\n## Our Mission\n\nWe enable AI agents to **autonomously conduct AI research** — from literature survey and idea generation through experiment execution to paper writing. The library provides both the **research orchestration layer** (autoresearch, ideation, paper writing) and the **engineering skills** (training, evaluation, deployment) needed at each stage.\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_f7990d407d61.png\" alt=\"AI Research Agent System\" width=\"50%\">\n  \u003Cbr>\n  \u003Cem>System diagram of an AI research agent\u003C\u002Fem>\n\u003C\u002Fp>\n\n## Path Towards AI Research Agent\n\nModern AI research requires mastering dozens of specialized tools and frameworks.\nAI Researchers spend more time debugging infrastructure than testing hypotheses — slowing the pace of scientific discovery.\nWe provide a comprehensive skills library that enables AI agents to autonomously conduct the full research lifecycle — from brainstorming ideas to writing the paper.\n  - Autonomous Research - The **autoresearch** skill orchestrates the entire research workflow using a two-loop architecture, routing to domain skills as needed\n  - Specialized Expertise - Each domain skill provides deep, production-ready knowledge of a specific framework (Megatron-LM, vLLM, TRL, etc.)\n  - End-to-End Coverage - 87 skills spanning the full AI research lifecycle, from ideation and literature survey to experiments and paper writing\n  - Research-Grade Quality - Documentation sourced from official repos, real GitHub issues, and battle-tested production workflows\n\n## Available AI Research Engineering Skills\n\n**Quality over quantity**: Each skill provides comprehensive, expert-level guidance with real code examples, troubleshooting guides, and production-ready workflows.\n\n### 📦 Quick Install (Recommended)\n\n**For humans** — interactive installer with one command:\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n**For AI agents** — point your agent to the welcome doc and it handles the rest:\n\n```\nRead https:\u002F\u002Fwww.orchestra-research.com\u002Fai-research-skills\u002Fwelcome.md and follow the instructions to install and use AI Research Skills.\n```\n\nThis installs all 87 skills, loads the **autoresearch** orchestration layer, and starts autonomous research.\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>What the installer does\u003C\u002Fb>\u003C\u002Fsummary>\n\n- **Auto-detects** your installed coding agents\n- **Installs** skills to `~\u002F.orchestra\u002Fskills\u002F` with symlinks to each agent (falls back to copy on Windows)\n- **Offers** everything, quickstart bundle, by category, or individual skills\n- **Updates** installed skills with latest versions\n- **Uninstalls** all or selected skills\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>CLI Commands\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\n# Interactive installer (recommended)\nnpx @orchestra-research\u002Fai-research-skills\n\n# Direct commands\nnpx @orchestra-research\u002Fai-research-skills list      # View installed skills\nnpx @orchestra-research\u002Fai-research-skills update    # Update installed skills\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Claude Code Marketplace (Alternative)\u003C\u002Fb>\u003C\u002Fsummary>\n\nInstall skill categories directly using the **Claude Code CLI**:\n\n```bash\n# Add the marketplace\n\u002Fplugin marketplace add orchestra-research\u002FAI-research-SKILLs\n\n# Install by category (22 categories available)\n\u002Fplugin install fine-tuning@ai-research-skills        # Axolotl, LLaMA-Factory, PEFT, Unsloth\n\u002Fplugin install post-training@ai-research-skills      # TRL, GRPO, OpenRLHF, SimPO, verl, slime, miles, torchforge\n\u002Fplugin install inference-serving@ai-research-skills  # vLLM, TensorRT-LLM, llama.cpp, SGLang\n\u002Fplugin install distributed-training@ai-research-skills\n\u002Fplugin install optimization@ai-research-skills\n```\n\n\u003C\u002Fdetails>\n\n### All 22 Categories (87 Skills)\n\n| Category | Skills | Included |\n|----------|--------|----------|\n| **Autoresearch** | **1** | **Autonomous research orchestration — central layer that manages the full lifecycle and routes to all other skills** |\n| Ideation | 2 | Research Brainstorming, Creative Thinking |\n| ML Paper Writing | 2 | ML Paper Writing (LaTeX templates, citation verification), Academic Plotting |\n| Model Architecture | 5 | LitGPT, Mamba, NanoGPT, RWKV, TorchTitan |\n| Tokenization | 2 | HuggingFace Tokenizers, SentencePiece |\n| Fine-Tuning | 4 | Axolotl, LLaMA-Factory, PEFT, Unsloth |\n| Mech Interp | 4 | TransformerLens, SAELens, pyvene, nnsight |\n| Data Processing | 2 | NeMo Curator, Ray Data |\n| Post-Training | 8 | TRL, GRPO, OpenRLHF, SimPO, verl, slime, miles, torchforge |\n| Safety | 4 | Constitutional AI, LlamaGuard, NeMo Guardrails, Prompt Guard |\n| Distributed | 6 | DeepSpeed, FSDP, Accelerate, Megatron-Core, Lightning, Ray Train |\n| Infrastructure | 3 | Modal, Lambda Labs, SkyPilot |\n| Optimization | 6 | Flash Attention, bitsandbytes, GPTQ, AWQ, HQQ, GGUF |\n| Evaluation | 3 | lm-eval-harness, BigCode, NeMo Evaluator |\n| Inference | 4 | vLLM, TensorRT-LLM, llama.cpp, SGLang |\n| MLOps | 3 | W&B, MLflow, TensorBoard |\n| Agents | 4 | LangChain, LlamaIndex, CrewAI, AutoGPT |\n| RAG | 5 | Chroma, FAISS, Pinecone, Qdrant, Sentence Transformers |\n| Prompt Eng | 4 | DSPy, Instructor, Guidance, Outlines |\n| Observability | 2 | LangSmith, Phoenix |\n| Multimodal | 7 | CLIP, Whisper, LLaVA, BLIP-2, SAM, Stable Diffusion, AudioCraft |\n| Emerging | 6 | MoE, Model Merging, Long Context, Speculative Decoding, Distillation, Pruning |\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>View All 87 Skills in Details\u003C\u002Fb>\u003C\u002Fsummary>\n\n### 🔬 Autoresearch (1 skill) — Central Orchestration Layer\n- **[Autoresearch](0-autoresearch-skill\u002F)** - Autonomous research orchestration using a two-loop architecture (inner optimization + outer synthesis). Manages the full lifecycle from literature survey to paper writing, routing to all domain-specific skills. Supports Claude Code \u002Floop and OpenClaw heartbeat for continuous operation (390 lines + 3 refs)\n\n### 🏗️ Model Architecture (5 skills)\n- **[LitGPT](01-model-architecture\u002Flitgpt\u002F)** - Lightning AI's 20+ clean LLM implementations with production training recipes (462 lines + 4 refs)\n- **[Mamba](01-model-architecture\u002Fmamba\u002F)** - State-space models with O(n) complexity, 5× faster than Transformers (253 lines + 3 refs)\n- **[RWKV](01-model-architecture\u002Frwkv\u002F)** - RNN+Transformer hybrid, infinite context, Linux Foundation project (253 lines + 3 refs)\n- **[NanoGPT](01-model-architecture\u002Fnanogpt\u002F)** - Educational GPT in ~300 lines by Karpathy (283 lines + 3 refs)\n- **[TorchTitan](01-model-architecture\u002Ftorchtitan\u002F)** - PyTorch-native distributed training for Llama 3.1 with 4D parallelism\n\n### 🔤 Tokenization (2 skills)\n- **[HuggingFace Tokenizers](02-tokenization\u002Fhuggingface-tokenizers\u002F)** - Rust-based, \u003C20s\u002FGB, BPE\u002FWordPiece\u002FUnigram algorithms (486 lines + 4 refs)\n- **[SentencePiece](02-tokenization\u002Fsentencepiece\u002F)** - Language-independent, 50k sentences\u002Fsec, used by T5\u002FALBERT (228 lines + 2 refs)\n\n### 🎯 Fine-Tuning (4 skills)\n- **[Axolotl](03-fine-tuning\u002Faxolotl\u002F)** - YAML-based fine-tuning with 100+ models (156 lines + 4 refs)\n- **[LLaMA-Factory](03-fine-tuning\u002Fllama-factory\u002F)** - WebUI no-code fine-tuning (78 lines + 5 refs)\n- **[Unsloth](03-fine-tuning\u002Funsloth\u002F)** - 2x faster QLoRA fine-tuning (75 lines + 4 refs)\n- **[PEFT](03-fine-tuning\u002Fpeft\u002F)** - Parameter-efficient fine-tuning with LoRA, QLoRA, DoRA, 25+ methods (431 lines + 2 refs)\n\n### 🔬 Mechanistic Interpretability (4 skills)\n- **[TransformerLens](04-mechanistic-interpretability\u002Ftransformer-lens\u002F)** - Neel Nanda's library for mech interp with HookPoints, activation caching (346 lines + 3 refs)\n- **[SAELens](04-mechanistic-interpretability\u002Fsaelens\u002F)** - Sparse Autoencoder training and analysis for feature discovery (386 lines + 3 refs)\n- **[pyvene](04-mechanistic-interpretability\u002Fpyvene\u002F)** - Stanford's causal intervention library with declarative configs (473 lines + 3 refs)\n- **[nnsight](04-mechanistic-interpretability\u002Fnnsight\u002F)** - Remote interpretability via NDIF, run experiments on 70B+ models (436 lines + 3 refs)\n\n\n### 📊 Data Processing (2 skills)\n- **[Ray Data](05-data-processing\u002Fray-data\u002F)** - Distributed ML data processing, streaming execution, GPU support (318 lines + 2 refs)\n- **[NeMo Curator](05-data-processing\u002Fnemo-curator\u002F)** - GPU-accelerated data curation, 16× faster deduplication (375 lines + 2 refs)\n\n### 🎓 Post-Training (8 skills)\n- **[TRL Fine-Tuning](06-post-training\u002Ftrl-fine-tuning\u002F)** - Transformer Reinforcement Learning (447 lines + 4 refs)\n- **[GRPO-RL-Training](06-post-training\u002Fgrpo-rl-training\u002F)** (TRL) - Group Relative Policy Optimization with TRL (569 lines, **gold standard**)\n- **[OpenRLHF](06-post-training\u002Fopenrlhf\u002F)** - Full RLHF pipeline with Ray + vLLM (241 lines + 4 refs)\n- **[SimPO](06-post-training\u002Fsimpo\u002F)** - Simple Preference Optimization, no reference model needed (211 lines + 3 refs)\n- **[verl](06-post-training\u002Fverl\u002F)** - ByteDance's HybridFlow RL framework, FSDP\u002FMegatron + vLLM\u002FSGLang backends (389 lines + 2 refs)\n- **[slime](06-post-training\u002Fslime\u002F)** - THUDM's Megatron+SGLang framework powering GLM-4.x models (464 lines + 2 refs)\n- **[miles](06-post-training\u002Fmiles\u002F)** - Enterprise fork of slime with FP8, INT4, speculative RL for MoE training (315 lines + 2 refs)\n- **[torchforge](06-post-training\u002Ftorchforge\u002F)** - Meta's PyTorch-native RL with Monarch+TorchTitan+vLLM (380 lines + 2 refs)\n\n### 🛡️ Safety & Alignment (4 skills)\n- **[Constitutional AI](07-safety-alignment\u002Fconstitutional-ai\u002F)** - AI-driven self-improvement via principles (282 lines)\n- **[LlamaGuard](07-safety-alignment\u002Fllamaguard\u002F)** - Safety classifier for LLM inputs\u002Foutputs (329 lines)\n- **[NeMo Guardrails](07-safety-alignment\u002Fnemo-guardrails\u002F)** - Programmable guardrails with Colang (289 lines)\n- **[Prompt Guard](07-safety-alignment\u002Fprompt-guard\u002F)** - Meta's 86M prompt injection & jailbreak detector, 99%+ TPR, \u003C2ms GPU (313 lines)\n\n### ⚡ Distributed Training (6 skills)\n- **[Megatron-Core](08-distributed-training\u002Fmegatron-core\u002F)** - NVIDIA's framework for training 2B-462B param models with 47% MFU on H100 (359 lines + 4 refs)\n- **[DeepSpeed](08-distributed-training\u002Fdeepspeed\u002F)** - Microsoft's ZeRO optimization (137 lines + 9 refs)\n- **[PyTorch FSDP2](08-distributed-training\u002Fpytorch-fsdp2\u002F)** - Fully Sharded Data Parallel v2 with `fully_shard` and DTensor (231 lines + 12 refs)\n- **[Accelerate](08-distributed-training\u002Faccelerate\u002F)** - HuggingFace's 4-line distributed training API (324 lines + 3 refs)\n- **[PyTorch Lightning](08-distributed-training\u002Fpytorch-lightning\u002F)** - High-level training framework with Trainer class (339 lines + 3 refs)\n- **[Ray Train](08-distributed-training\u002Fray-train\u002F)** - Multi-node orchestration and hyperparameter tuning (399 lines + 1 ref)\n\n### 🚀 Optimization (6 skills)\n- **[Flash Attention](10-optimization\u002Fflash-attention\u002F)** - 2-4x faster attention with memory efficiency (359 lines + 2 refs)\n- **[bitsandbytes](10-optimization\u002Fbitsandbytes\u002F)** - 8-bit\u002F4-bit quantization for 50-75% memory reduction (403 lines + 3 refs)\n- **[GPTQ](10-optimization\u002Fgptq\u002F)** - 4-bit post-training quantization, 4× memory reduction, \u003C2% accuracy loss (443 lines + 3 refs)\n- **[AWQ](10-optimization\u002Fawq\u002F)** - Activation-aware weight quantization, 4-bit with minimal accuracy loss (310 lines + 2 refs)\n- **[HQQ](10-optimization\u002Fhqq\u002F)** - Half-Quadratic Quantization, no calibration data needed, multi-backend (370 lines + 2 refs)\n- **[GGUF](10-optimization\u002Fgguf\u002F)** - llama.cpp quantization format, K-quant methods, CPU\u002FMetal inference (380 lines + 2 refs)\n\n### 📊 Evaluation (3 skills)\n- **[lm-evaluation-harness](11-evaluation\u002Flm-evaluation-harness\u002F)** - EleutherAI's standard for benchmarking LLMs across 60+ tasks (482 lines + 4 refs)\n- **[BigCode Evaluation Harness](11-evaluation\u002Fbigcode-evaluation-harness\u002F)** - Code model benchmarking with HumanEval, MBPP, MultiPL-E, pass@k metrics (406 lines + 3 refs)\n- **[NeMo Evaluator](11-evaluation\u002Fnemo-evaluator\u002F)** - NVIDIA's enterprise platform for 100+ benchmarks across 18+ harnesses with multi-backend execution (454 lines + 4 refs)\n\n### ☁️ Infrastructure (3 skills)\n- **[Modal](09-infrastructure\u002Fmodal\u002F)** - Serverless GPU cloud with Python-native API, T4-H200 on-demand (342 lines + 2 refs)\n- **[SkyPilot](09-infrastructure\u002Fskypilot\u002F)** - Multi-cloud orchestration across 20+ providers with spot recovery (390 lines + 2 refs)\n- **[Lambda Labs](09-infrastructure\u002Flambda-labs\u002F)** - Reserved\u002Fon-demand GPU cloud with H100\u002FA100, persistent filesystems (390 lines + 2 refs)\n\n### 🔥 Inference & Serving (4 skills)\n- **[vLLM](12-inference-serving\u002Fvllm\u002F)** - High-throughput LLM serving with PagedAttention (356 lines + 4 refs, **production-ready**)\n- **[TensorRT-LLM](12-inference-serving\u002Ftensorrt-llm\u002F)** - NVIDIA's fastest inference, 24k tok\u002Fs, FP8\u002FINT4 quantization (180 lines + 3 refs)\n- **[llama.cpp](12-inference-serving\u002Fllama-cpp\u002F)** - CPU\u002FApple Silicon inference, GGUF quantization (251 lines + 3 refs)\n- **[SGLang](12-inference-serving\u002Fsglang\u002F)** - Structured generation with RadixAttention, 5-10× faster for agents (435 lines + 3 refs)\n\n### 🤖 Agents (4 skills)\n- **[LangChain](14-agents\u002Flangchain\u002F)** - Most popular agent framework, 500+ integrations, ReAct pattern (658 lines + 3 refs, **production-ready**)\n- **[LlamaIndex](14-agents\u002Fllamaindex\u002F)** - Data framework for LLM apps, 300+ connectors, RAG-focused (535 lines + 3 refs)\n- **[CrewAI](14-agents\u002Fcrewai\u002F)** - Multi-agent orchestration, role-based collaboration, autonomous workflows (498 lines + 3 refs)\n- **[AutoGPT](14-agents\u002Fautogpt\u002F)** - Autonomous AI agent platform, visual workflow builder, continuous execution (400 lines + 2 refs)\n\n### 🔍 RAG (5 skills)\n- **[Chroma](15-rag\u002Fchroma\u002F)** - Open-source embedding database, local\u002Fcloud, 24k stars (385 lines + 1 ref)\n- **[FAISS](15-rag\u002Ffaiss\u002F)** - Facebook's similarity search, billion-scale, GPU acceleration (295 lines)\n- **[Sentence Transformers](15-rag\u002Fsentence-transformers\u002F)** - 5000+ embedding models, multilingual, 15k stars (370 lines)\n- **[Pinecone](15-rag\u002Fpinecone\u002F)** - Managed vector database, auto-scaling, \u003C100ms latency (410 lines)\n- **[Qdrant](15-rag\u002Fqdrant\u002F)** - High-performance vector search, Rust-powered, hybrid search with filtering (493 lines + 2 refs)\n\n### 🎨 Multimodal (7 skills)\n- **[CLIP](18-multimodal\u002Fclip\u002F)** - OpenAI's vision-language model, zero-shot classification, 25k stars (320 lines)\n- **[Whisper](18-multimodal\u002Fwhisper\u002F)** - Robust speech recognition, 99 languages, 73k stars (395 lines)\n- **[LLaVA](18-multimodal\u002Fllava\u002F)** - Vision-language assistant, image chat, GPT-4V level (360 lines)\n- **[Stable Diffusion](18-multimodal\u002Fstable-diffusion\u002F)** - Text-to-image generation via HuggingFace Diffusers, SDXL, ControlNet (380 lines + 2 refs)\n- **[Segment Anything](18-multimodal\u002Fsegment-anything\u002F)** - Meta's SAM for zero-shot image segmentation with points\u002Fboxes (500 lines + 2 refs)\n- **[BLIP-2](18-multimodal\u002Fblip-2\u002F)** - Vision-language pretraining with Q-Former, image captioning, VQA (500 lines + 2 refs)\n- **[AudioCraft](18-multimodal\u002Faudiocraft\u002F)** - Meta's MusicGen\u002FAudioGen for text-to-music and text-to-sound (470 lines + 2 refs)\n\n### 🎯 Prompt Engineering (4 skills)\n- **[DSPy](16-prompt-engineering\u002Fdspy\u002F)** - Declarative prompt programming with optimizers, Stanford NLP, 22k stars (438 lines + 3 refs)\n- **[Instructor](16-prompt-engineering\u002Finstructor\u002F)** - Structured LLM outputs with Pydantic validation, 15k stars (726 lines + 3 refs)\n- **[Guidance](16-prompt-engineering\u002Fguidance\u002F)** - Constrained generation with regex\u002Fgrammars, Microsoft Research, 18k stars (485 lines + 3 refs)\n- **[Outlines](16-prompt-engineering\u002Foutlines\u002F)** - Structured text with FSM, zero-overhead, 8k stars (601 lines + 3 refs)\n\n### 📊 MLOps (3 skills)\n- **[Weights & Biases](13-mlops\u002Fweights-and-biases\u002F)** - Experiment tracking, sweeps, artifacts, model registry (427 lines + 3 refs)\n- **[MLflow](13-mlops\u002Fmlflow\u002F)** - Model registry, tracking, deployment, autologging (514 lines + 3 refs)\n- **[TensorBoard](13-mlops\u002Ftensorboard\u002F)** - Visualization, profiling, embeddings, scalars\u002Fimages (538 lines + 3 refs)\n\n### 👁️ Observability (2 skills)\n- **[LangSmith](17-observability\u002Flangsmith\u002F)** - LLM observability, tracing, evaluation, monitoring for AI apps (422 lines + 2 refs)\n- **[Phoenix](17-observability\u002Fphoenix\u002F)** - Open-source AI observability with OpenTelemetry tracing and LLM evaluation (380 lines + 2 refs)\n\n### 🔬 Emerging Techniques (6 skills)\n- **[MoE Training](19-emerging-techniques\u002Fmoe-training\u002F)** - Mixture of Experts training with DeepSpeed, Mixtral 8x7B, 5× cost reduction (515 lines + 3 refs)\n- **[Model Merging](19-emerging-techniques\u002Fmodel-merging\u002F)** - Combine models with TIES, DARE, SLERP using mergekit (528 lines + 3 refs)\n- **[Long Context](19-emerging-techniques\u002Flong-context\u002F)** - Extend context windows with RoPE, YaRN, ALiBi, 32k-128k tokens (624 lines + 3 refs)\n- **[Speculative Decoding](19-emerging-techniques\u002Fspeculative-decoding\u002F)** - 1.5-3.6× faster inference with Medusa, Lookahead (379 lines)\n- **[Knowledge Distillation](19-emerging-techniques\u002Fknowledge-distillation\u002F)** - Compress models 70B→7B with MiniLLM, temperature scaling (424 lines)\n- **[Model Pruning](19-emerging-techniques\u002Fmodel-pruning\u002F)** - 50% sparsity with Wanda, SparseGPT, \u003C1% accuracy loss (417 lines)\n\n### 📝 ML Paper Writing (2 skills)\n- **[ML Paper Writing](20-ml-paper-writing\u002F)** - Write publication-ready papers for NeurIPS, ICML, ICLR, ACL, AAAI, COLM with LaTeX templates, citation verification, and writing best practices (532 lines + 5 refs)\n- **[Academic Plotting](20-ml-paper-writing\u002Facademic-plotting\u002F)** - Generate publication-quality figures for ML papers: architecture diagrams via Gemini AI and data-driven charts via matplotlib\u002Fseaborn with venue-specific styling (479 lines + 3 refs)\n\n### 💡 Ideation (2 skills)\n- **[Research Brainstorming](21-research-ideation\u002Fbrainstorming-research-ideas\u002F)** - Structured ideation frameworks for discovering high-impact research directions with 10 complementary lenses (384 lines)\n- **[Creative Thinking](21-research-ideation\u002Fcreative-thinking-for-research\u002F)** - Cognitive science frameworks (bisociation, structure-mapping, constraint manipulation) for genuinely novel research ideas (366 lines)\n\n\n\u003C\u002Fdetails>\n\n## Demos\n\nAll 87 skills in this repo are automatically synced to [Orchestra Research](https:\u002F\u002Fwww.orchestra-research.com\u002Fresearch-skills), where you can add them to your projects with one click and use them with AI research agents.\n\n**See skills in action → [demos\u002F](demos\u002FREADME.md)**\n\nWe maintain a curated collection of demo repositories showing how to use skills for real AI research tasks:\n\n| Demo | Skills Used | What It Does |\n|------|-------------|--------------|\n| **[Norm Heterogeneity → LoRA Brittleness](demos\u002Fautoresearch-norm-heterogeneity\u002F)** | Autoresearch, ML Paper Writing, Ideation | Agent autonomously discovered norm heterogeneity predicts fine-tuning difficulty (r=-0.99), pivoting from a null result on ETF overlaps |\n| **[RL Algorithm Brain Scan](demos\u002Fautoresearch-rl-brain-scan\u002F)** | Autoresearch, GRPO, TRL, SAELens, TransformerLens, ML Paper Writing | Agent found DPO is a rank-1 perturbation (95.6% recovery from one SVD direction) while online RL is distributed and structure-preserving |\n| **[NeMo Eval: GPQA Benchmark](https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FNemo-Eval-Skill-Demo)** | NeMo Evaluator | Compare Llama 8B\u002F70B\u002F405B on graduate-level science questions |\n| **[LoRA Without Regret Reproduction](https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002FLLM-with-Orchestra)** | GRPO, TRL | Reproduce SFT + GRPO RL experiments via prompting |\n| **[Layer-Wise Quantization Experiment](https:\u002F\u002Fgithub.com\u002FAmberLJC\u002Fllama-quantization-experiment)** | llama.cpp, GGUF | Investigate optimal layer precision allocation—early layers at Q8 achieve 1.9× compression with 1.3% perplexity loss |\n| **[Cross-Lingual Alignment Analysis](https:\u002F\u002Fgithub.com\u002FAmberLJC\u002Ffaiss-demo)** | FAISS | Quantify how well multilingual embeddings align semantic concepts across 8 languages using FAISS similarity search |\n| **[Scientific Plotting Demo](demos\u002Fscientific-plotting-demo\u002F)** | Academic Plotting | Generate publication-quality figures for the Andes QoE-aware LLM serving paper — Gemini AI architecture diagrams + matplotlib data charts (CDF, multi-panel grids, bar charts) |\n\n**Featured Demos**: Two papers produced entirely by AI agents using the **autoresearch** skill. The [Norm Heterogeneity paper](demos\u002Fautoresearch-norm-heterogeneity\u002F) demonstrates autonomous research pivoting — the agent refuted its own hypothesis and discovered a stronger finding. The [RL Brain Scan paper](demos\u002Fautoresearch-rl-brain-scan\u002F) demonstrates multi-skill orchestration — the agent trained RL models, analyzed internals with interpretability tools, and synthesized the insight that \"DPO is rank-1 alignment.\" Both papers written end-to-end by the agent.\n\n## Skill Structure\n\nEach skill follows a battle-tested format for maximum usefulness:\n\n```\nskill-name\u002F\n├── SKILL.md                    # Quick reference (50-150 lines)\n│   ├── Metadata (name, description, version)\n│   ├── When to use this skill\n│   ├── Quick patterns & examples\n│   └── Links to references\n│\n├── references\u002F                 # Deep documentation (300KB+)\n│   ├── README.md              # From GitHub\u002Fofficial docs\n│   ├── api.md                 # API reference\n│   ├── tutorials.md           # Step-by-step guides\n│   ├── issues.md              # Real GitHub issues & solutions\n│   ├── releases.md            # Version history & breaking changes\n│   └── file_structure.md      # Codebase navigation\n│\n├── scripts\u002F                    # Helper scripts (optional)\n└── assets\u002F                     # Templates & examples (optional)\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Quality Standards\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 300KB+ documentation from official sources\n- Real GitHub issues & solutions (when available)\n- Code examples with language detection\n- Version history & breaking changes\n- Links to official docs\n\n\u003C\u002Fdetails>\n\n## Roadmap\n\nWe're building towards 80 comprehensive skills across the full AI research lifecycle. See our [detailed roadmap](docs\u002FROADMAP.md) for the complete development plan.\n\n[View Full Roadmap →](docs\u002FROADMAP.md)\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>View Detailed Statistics\u003C\u002Fb>\u003C\u002Fsummary>\n\n| Metric | Current | Target |\n|--------|---------|--------|\n| **Skills** | **87** (high-quality, standardized YAML) | 80 ✅ |\n| **Avg Lines\u002FSkill** | **420 lines** (focused + progressive disclosure) | 200-600 lines |\n| **Documentation** | **~130,000 lines** total (SKILL.md + references) | 100,000+ lines |\n| **Gold Standard Skills** | **65** with comprehensive references | 50+ |\n| **Contributors** | 1 | 100+ |\n| **Coverage** | Architecture, Tokenization, Fine-Tuning, Mechanistic Interpretability, Data Processing, Post-Training, Safety, Distributed, Optimization, Evaluation, Infrastructure, Inference, Agents, RAG, Multimodal, Prompt Engineering, MLOps, Observability, ML Paper Writing, Ideation, Autoresearch | Full Lifecycle ✅ |\n\n**Recent Progress**: npm package `@orchestra-research\u002Fai-research-skills` for one-command installation across all coding agents\n\n**Philosophy**: Quality > Quantity. Following [Anthropic official best practices](anthropic_official_docs\u002Fbest_practices.md) - each skill provides 200-500 lines of focused, actionable guidance with progressive disclosure.\n\n\u003C\u002Fdetails>\n\n\n\n## Repository Structure\n\n```\nclaude-ai-research-skills\u002F\n├── README.md                    ← You are here\n├── CONTRIBUTING.md              ← Contribution guide\n├── demos\u002F                       ← Curated demo gallery (links to demo repos)\n├── docs\u002F\n├── 0-autoresearch-skill\u002F        (1 skill ✓ - Autonomous research orchestration)\n├── 01-model-architecture\u002F       (5 skills ✓ - LitGPT, Mamba, RWKV, NanoGPT, TorchTitan)\n├── 02-tokenization\u002F             (2 skills ✓ - HuggingFace Tokenizers, SentencePiece)\n├── 03-fine-tuning\u002F              (4 skills ✓ - Axolotl, LLaMA-Factory, Unsloth, PEFT)\n├── 04-mechanistic-interpretability\u002F (4 skills ✓ - TransformerLens, SAELens, pyvene, nnsight)\n├── 05-data-processing\u002F          (2 skills ✓ - Ray Data, NeMo Curator)\n├── 06-post-training\u002F            (8 skills ✓ - TRL, GRPO, OpenRLHF, SimPO, verl, slime, miles, torchforge)\n├── 07-safety-alignment\u002F         (4 skills ✓ - Constitutional AI, LlamaGuard, NeMo Guardrails, Prompt Guard)\n├── 08-distributed-training\u002F     (6 skills ✓ - Megatron-Core, DeepSpeed, FSDP, Accelerate, Lightning, Ray Train)\n├── 09-infrastructure\u002F           (3 skills ✓ - Modal, SkyPilot, Lambda Labs)\n├── 10-optimization\u002F             (6 skills ✓ - Flash Attention, bitsandbytes, GPTQ, AWQ, HQQ, GGUF)\n├── 11-evaluation\u002F               (3 skills ✓ - lm-evaluation-harness, BigCode, NeMo Evaluator)\n├── 12-inference-serving\u002F        (4 skills ✓ - vLLM, TensorRT-LLM, llama.cpp, SGLang)\n├── 13-mlops\u002F                    (3 skills ✓ - Weights & Biases, MLflow, TensorBoard)\n├── 14-agents\u002F                   (4 skills ✓ - LangChain, LlamaIndex, CrewAI, AutoGPT)\n├── 15-rag\u002F                      (5 skills ✓ - Chroma, FAISS, Sentence Transformers, Pinecone, Qdrant)\n├── 16-prompt-engineering\u002F       (4 skills ✓ - DSPy, Instructor, Guidance, Outlines)\n├── 17-observability\u002F            (2 skills ✓ - LangSmith, Phoenix)\n├── 18-multimodal\u002F               (7 skills ✓ - CLIP, Whisper, LLaVA, Stable Diffusion, SAM, BLIP-2, AudioCraft)\n├── 19-emerging-techniques\u002F      (6 skills ✓ - MoE, Model Merging, Long Context, Speculative Decoding, Distillation, Pruning)\n├── 20-ml-paper-writing\u002F         (2 skills ✓ - ML Paper Writing with LaTeX templates, Academic Plotting)\n├── 21-research-ideation\u002F                 (2 skills ✓ - Research Brainstorming, Creative Thinking)\n└── packages\u002Fai-research-skills\u002F (npm package for one-command installation)\n```\n\n## Use Cases\n\n### For Researchers\n\"I need to fine-tune Llama 3 with custom data\"\n→ **03-fine-tuning\u002Faxolotl\u002F** - YAML configs, 100+ model support\n\n### For ML Engineers\n\"How do I optimize inference latency?\"\n→ **12-inference-serving\u002Fvllm\u002F** - PagedAttention, batching\n\n### For Students\n\"I want to learn how transformers work\"\n→ **01-model-architecture\u002Flitgpt\u002F** - Clean implementations\n\n### For Teams\n\"We need to scale training to 100 GPUs\"\n→ **08-distributed-training\u002Fdeepspeed\u002F** - ZeRO stages, 3D parallelism\n\n## License\n\nMIT License - See [LICENSE](LICENSE) for details.\n\n**Note**: Individual skills may reference libraries with different licenses. Please check each project's license before use.\n\n## Citation\n\nIf you use AI Research Skills in your work or find it helpful for a publication, we'd appreciate a citation:\n\n**BibTeX**\n```bibtex\n@software{ai_research_skills,\n  title     = {AI Research Skills Library},\n  author    = {{Orchestra Research}},\n  year      = {2025},\n  url       = {https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs},\n  note      = {Open-source skills library enabling AI agents to autonomously conduct AI research}\n}\n```\n\n**APA**\n> Orchestra Research. (2025). *AI Research Skills Library* [Computer software]. https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\n\n**Chicago**\n> Orchestra Research. \"AI Research Skills Library.\" GitHub, 2025. https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs.\n\n**IEEE**\n> Orchestra Research, \"AI Research Skills Library,\" 2025. [Online]. Available: https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\n\n> **Tip**: You can also click **\"Cite this repository\"** in the GitHub sidebar for auto-formatted citations.\n\n## Acknowledgments\n\nBuilt with:\n- **[Claude Code](https:\u002F\u002Fwww.claude.com\u002Fproduct\u002Fclaude-code)** - AI pair programming\n- **[Skill Seeker](https:\u002F\u002Fgithub.com\u002Fyusufkaraaslan\u002FSkill_Seekers)** - Automated doc scraping\n- **Open Source AI Community** - For amazing tools and docs\n\nSpecial thanks to:\n- EleutherAI, HuggingFace, NVIDIA, Lightning AI, Meta AI, Anthropic\n- All researchers who maintain excellent documentation\n \n## Contributors\n\nThanks to all the people who have contributed to the AI Research Skills Library:\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_2d3e0f7ff747.png\" \u002F>\n\u003C\u002Fa> \n\nWe welcome contributions from the AI research community! See [CONTRIBUTING.md](CONTRIBUTING.md) for detailed guidelines on:\n\n- Adding new skills\n- Improving existing skills\n- Quality standards and best practices\n- Submission process\n\n## Recent Updates\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>March 2026 - v1.4.0 🔬 Autoresearch & 86 Skills — Full Research Lifecycle\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🔬 **NEW SKILL**: **Autoresearch** — autonomous research orchestration using a two-loop architecture (inner optimization loop + outer synthesis loop)\n- 🧠 Manages the full research lifecycle: literature survey → ideation → experiments → synthesis → paper writing\n- 🔄 Routes to all 86 domain skills automatically — agents don't need to know which skill to use\n- ⏰ Mandatory `\u002Floop` (Claude Code) and cron job (OpenClaw) for continuous autonomous operation\n- 📊 Generates research presentations (HTML\u002FPDF) with optimization trajectory plots for human review\n- 📝 Findings.md as persistent project memory across sessions with \"Lessons and Constraints\" tracking\n- 🗂️ Structured workspace: research-state.yaml, findings.md, research-log.md, literature\u002F, experiments\u002F, src\u002F, data\u002F, to_human\u002F\n- 📄 **Two demo papers produced by autoresearch**: [Norm Heterogeneity → LoRA Brittleness](demos\u002Fautoresearch-norm-heterogeneity\u002F) and [RL Algorithm Brain Scan](demos\u002Fautoresearch-rl-brain-scan\u002F)\n- 🚀 WELCOME.md for cold-start agent bootstrap — one URL to go from zero to autonomous research\n- 📦 npm v1.4.x with Windows symlink fallback, all 22 categories installable\n- 📊 **87 total skills** across **22 categories** — complete research lifecycle coverage\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>February 2026 - v0.15.0 🛡️ Prompt Guard & 83 Skills\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🛡️ **NEW SKILL**: Prompt Guard - Meta's 86M prompt injection & jailbreak detector\n- ⚡ 99%+ TPR, \u003C1% FPR, \u003C2ms GPU latency, multilingual (8 languages)\n- 🔒 3 workflows: user input filtering, third-party data filtering, batch RAG processing\n- 📊 **83 total skills** across 20 categories\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>January 2026 - v0.14.0 📦 npm Package & 82 Skills\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📦 **NEW**: `npx @orchestra-research\u002Fai-research-skills` - One-command installation for all coding agents\n- 🤖 **Supported agents**: Claude Code, OpenCode, Cursor, Codex, Gemini CLI, Qwen Code\n- ✨ Interactive installer with category\u002Findividual skill selection\n- 🔄 Update installed skills, selective uninstall\n- 📊 **82 total skills** (5 new post-training skills: verl, slime, miles, torchforge + TorchTitan)\n- 🏗️ Megatron-Core moved to Distributed Training category\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>January 2026 - v0.13.0 📝 ML Paper Writing & Demos Gallery\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📝 **NEW CATEGORY**: ML Paper Writing (20th category, 77th skill)\n- 🎯 Write publication-ready papers for NeurIPS, ICML, ICLR, ACL, AAAI, COLM\n- 📚 Writing philosophy from top researchers (Neel Nanda, Farquhar, Gopen & Swan, Lipton, Perez)\n- 🔬 Citation verification workflow - never hallucinate references\n- 📄 LaTeX templates for 6 major conferences\n- 🎪 **NEW**: Curated demos gallery (`demos\u002F`) showcasing skills in action\n- 🔗 Demo repos: NeMo Evaluator benchmark, LoRA Without Regret reproduction\n- 📖 936-line comprehensive SKILL.md with 4 workflows\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>January 2026 - v0.12.0 📊 NeMo Evaluator SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📊 **NEW SKILL**: NeMo Evaluator SDK for enterprise LLM benchmarking\n- 🔧 NVIDIA's evaluation platform with 100+ benchmarks from 18+ harnesses (MMLU, HumanEval, GSM8K, safety, VLM)\n- ⚡ Multi-backend execution: local Docker, Slurm HPC, Lepton cloud\n- 📦 Container-first architecture for reproducible evaluation\n- 📝 454 lines SKILL.md + 4 comprehensive reference files (~48KB documentation)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>December 2025 - v0.11.0 🔬 Mechanistic Interpretability\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🔬 **NEW CATEGORY**: Mechanistic Interpretability (4 skills)\n- 🔍 TransformerLens skill: Neel Nanda's library for mech interp with HookPoints, activation caching, circuit analysis\n- 🧠 SAELens skill: Sparse Autoencoder training and analysis for feature discovery, monosemanticity research\n- ⚡ pyvene skill: Stanford's causal intervention library with declarative configs, DAS, activation patching\n- 🌐 nnsight skill: Remote interpretability via NDIF, run experiments on 70B+ models without local GPUs\n- 📝 ~6,500 new lines of documentation across 16 files\n- **76 total skills** (filling the missing 04 category slot)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 25, 2025 - v0.10.0 🎉 70 Skills Complete!\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎉 **ROADMAP COMPLETE**: Reached 70-skill milestone!\n- 🚀 Added 4 skills: Lambda Labs, Segment Anything (SAM), BLIP-2, AudioCraft\n- ☁️ Lambda Labs skill: Reserved\u002Fon-demand GPU cloud with H100\u002FA100, persistent filesystems, 1-Click Clusters\n- 🖼️ SAM skill: Meta's Segment Anything for zero-shot image segmentation with points\u002Fboxes\u002Fmasks\n- 👁️ BLIP-2 skill: Vision-language pretraining with Q-Former, image captioning, VQA\n- 🎵 AudioCraft skill: Meta's MusicGen\u002FAudioGen for text-to-music and text-to-sound generation\n- 📝 ~10,000 new lines of documentation across 12 files\n- **70 total skills** (100% roadmap complete!)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 25, 2025 - v0.9.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 Added 2 infrastructure skills: Modal, SkyPilot\n- ☁️ Modal skill: Serverless GPU cloud with Python-native API, T4-H200 on-demand, auto-scaling\n- 🌐 SkyPilot skill: Multi-cloud orchestration across 20+ providers with spot recovery\n- ✨ New Infrastructure category (2 skills - serverless GPU and multi-cloud orchestration)\n- 📝 ~2,500 new lines of documentation across 6 files\n- **66 total skills** (94% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 25, 2025 - v0.8.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 Added 5 high-priority skills: HQQ, GGUF, Phoenix, AutoGPT, Stable Diffusion\n- ⚡ HQQ skill: Half-Quadratic Quantization without calibration data, multi-backend support\n- 📦 GGUF skill: llama.cpp quantization format, K-quant methods, CPU\u002FMetal inference\n- 👁️ Phoenix skill: Open-source AI observability with OpenTelemetry tracing and LLM evaluation\n- 🤖 AutoGPT skill: Autonomous AI agent platform with visual workflow builder\n- 🎨 Stable Diffusion skill: Text-to-image generation via Diffusers, SDXL, ControlNet, LoRA\n- 📝 ~9,000 new lines of documentation across 15 files\n- **64 total skills** (91% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 25, 2025 - v0.7.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 Added 5 high-priority skills: PEFT, CrewAI, Qdrant, AWQ, LangSmith\n- ✨ New Observability category with LangSmith for LLM tracing and evaluation\n- 🎯 PEFT skill: Parameter-efficient fine-tuning with LoRA, QLoRA, DoRA, 25+ methods\n- 🤖 CrewAI skill: Multi-agent orchestration with role-based collaboration\n- 🔍 Qdrant skill: High-performance Rust vector search with hybrid filtering\n- ⚡ AWQ skill: Activation-aware 4-bit quantization with minimal accuracy loss\n- 📝 ~8,000 new lines of documentation across 15 files\n- **59 total skills** (84% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 15, 2025 - v0.6.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📊 Added 3 comprehensive MLOps skills: Weights & Biases, MLflow, TensorBoard\n- ✨ New MLOps category (3 skills - experiment tracking, model registry, visualization)\n- 📝 ~10,000 new lines of documentation across 13 files\n- 🔧 Comprehensive coverage: experiment tracking, hyperparameter sweeps, model registry, profiling, embeddings visualization\n- **54 total skills** (77% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 12, 2025 - v0.5.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎯 Added 4 comprehensive prompt engineering skills: DSPy, Instructor, Guidance, Outlines\n- ✨ New Prompt Engineering category (4 skills - DSPy, Instructor, Guidance, Outlines)\n- 📝 ~10,000 new lines of documentation across 16 files\n- 🔧 Comprehensive coverage: declarative programming, structured outputs, constrained generation, FSM-based generation\n- **47 total skills** (67% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 9, 2025 - v0.4.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🤖 Added 11 comprehensive skills: LangChain, LlamaIndex, Chroma, FAISS, Sentence Transformers, Pinecone, CLIP, Whisper, LLaVA\n- ✨ New Agents category (2 skills - LangChain, LlamaIndex)\n- 🔍 New RAG category (4 skills - Chroma, FAISS, Sentence Transformers, Pinecone)\n- 🎨 New Multimodal category (3 skills - CLIP, Whisper, LLaVA)\n- 📝 ~15,000 new lines of documentation\n- **43 total skills** (61% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 8, 2025 - v0.3.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 Added 8 comprehensive skills: TensorRT-LLM, llama.cpp, SGLang, GPTQ, HuggingFace Tokenizers, SentencePiece, Ray Data, NeMo Curator\n- ⚡ Completed Inference & Serving category (4\u002F4 skills)\n- 🔤 New Tokenization category (2 skills)\n- 📊 New Data Processing category (2 skills)\n- 📝 9,617 new lines of documentation across 30 files\n- **32 total skills** (45% towards 70-skill target)\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 6, 2025 - v0.2.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- Added 10 skills from GitHub (Megatron-Core, Lightning, Ray Train, etc.)\n- Improved skill structure with comprehensive references\n- Created strategic roadmap to 70 skills\n- Added contribution guidelines\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>November 3, 2025 - v0.1.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎉 Initial release with 5 fine-tuning skills\n\n\u003C\u002Fdetails>\n\n## Community\n\nJoin our community to stay updated, ask questions, and connect with other AI researchers:\n\n- **[SkillEvolve Meta-Skill](https:\u002F\u002Fgithub.com\u002FSkill-Evolve\u002Fmeta-skill)** - Connect your agent to the collective intelligence of the community. Captures techniques discovered during sessions and shares them back as curated skills.\n- **[Slack Community](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Forchestrarese-efu1990\u002Fshared_invite\u002Fzt-3iu6gr8io-zJvpkZTPToEviQ9KFZvNSg)** - Chat with the team and other users\n- **[Twitter\u002FX](https:\u002F\u002Fx.com\u002Forch_research)** - Follow for updates and announcements\n- **[LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Forchestra-research\u002F)** - Connect professionally\n\n## Star History\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#orchestra-research\u002FAI-research-SKILLs&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png\" \u002F>\n   \u003Cimg alt=\"Star History Chart\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>\n","# AI 研究 `技能` 库\n\n> **最全面的开源技能库，使 AI 代理能够自主开展 AI 研究——从创意到论文撰写**\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_2ea48654aca5.gif\" alt=\"AI 研究技能演示\" width=\"700\">\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg\" alt=\"许可证：MIT\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.npmjs.com\u002Fpackage\u002F@orchestra-research\u002Fai-research-skills\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fnpm\u002Fv\u002F@orchestra-research\u002Fai-research-skills.svg\" alt=\"npm 版本\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002Fai-research-skills\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002F博客-阅读更多-orange.svg\" alt=\"博客文章\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fjoin.slack.com\u002Ft\u002Forchestrarese-efu1990\u002Fshared_invite\u002Fzt-3iu6gr8io-zJvpkZTPToEviQ9KFZvNSg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FSlack-加入社区-4A154B.svg?logo=slack\" alt=\"Slack\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fx.com\u002Forch_research\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FTwitter-关注-1DA1F2.svg?logo=x\" alt=\"Twitter\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Forchestra-research\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLinkedIn-关注-0A66C2.svg?logo=linkedin\" alt=\"LinkedIn\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n\u003Cdiv align=\"center\">\n\n### **87 项技能助力 2026 年的 AI 研究**\n\n\u003C\u002Fdiv>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>查看全部 22 个类别\u003C\u002Fb>\u003C\u002Fsummary>\n\n\u003Cdiv align=\"center\">\n\n| | | |\n|:---:|:---:|:---:|\n| **自动研究** (1) | **构思** (2) | **ML 论文写作** (2) |\n| **模型架构** (5) | **微调** (4) | **训练后处理** (8) |\n| **分布式训练** (6) | **优化** (6) | **推理** (4) |\n| **分词** (2) | **数据处理** (2) | **评估** (3) |\n| **安全与对齐** (4) | **智能体** (4) | **RAG** (5) |\n| **多模态** (7) | **提示工程** (4) | **MLOps** (3) |\n| **可观测性** (2) | **基础设施** (3) | **机制解释** (4) |\n| **新兴技术** (6) | | |\n\n\u003C\u002Fdiv>\n\n\u003C\u002Fdetails>\n\n---\n\n## 目录\n\n- [我们的使命](#our-mission)\n- [迈向 AI 研究代理之路](#path-towards-ai-research-agent)\n- [可用的 AI 研究工程技能](#available-ai-research-engineering-skills)\n- [演示](#demos)\n- [技能结构](#skill-structure)\n- [路线图](#roadmap)\n- [仓库结构](#repository-structure)\n- [用例](#use-cases)\n- [贡献者](#contributors)\n- [引用](#citation)\n- [社区](#community)\n\n\n## 我们的使命\n\n我们赋能 AI 代理，使其能够**自主进行 AI 研究**——从文献综述和创意生成，到实验执行，再到论文撰写。该库既提供**研究编排层**（自动研究、构思、论文写作），也提供每个阶段所需的**工程技能**（训练、评估、部署）。\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_f7990d407d61.png\" alt=\"AI 研究代理系统\" width=\"50%\">\n  \u003Cbr>\n  \u003Cem>AI 研究代理系统示意图\u003C\u002Fem>\n\u003C\u002Fp>\n\n## 迈向 AI 研究代理之路\n\n现代 AI 研究需要掌握数十种专业工具和框架。研究人员往往花费大量时间调试基础设施，而非验证假设，这大大拖慢了科学发现的速度。我们提供的全面技能库，使 AI 代理能够自主完成整个研究周期——从头脑风暴到论文撰写。\n  - 自主研究——**自动研究**技能采用双环架构编排整个研究流程，并根据需要路由至各领域技能。\n  - 专业知识——每项领域技能都提供针对特定框架（Megatron-LM、vLLM、TRL 等）的深入且可投入生产的知识。\n  - 全链路覆盖——87 项技能覆盖完整的 AI 研究生命周期，从构思和文献综述，到实验设计和论文撰写。\n  - 研究级质量——文档源自官方仓库、真实的 GitHub 问题以及经过实战检验的生产流程。\n\n## 可用的 AI 研究工程技能\n\n**质量胜于数量**：每项技能都提供全面、专家级别的指导，包含真实代码示例、故障排除指南和可直接用于生产的流程。\n\n### 📦 快速安装（推荐）\n\n**供人类使用**——只需一条命令即可完成交互式安装：\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n**供 AI 代理使用**——只需让代理阅读欢迎文档，其余步骤将自动完成：\n\n```\n请阅读 https:\u002F\u002Fwww.orchestra-research.com\u002Fai-research-skills\u002Fwelcome.md，并按照说明安装和使用 AI 研究技能。\n```\n\n此操作将安装全部 87 项技能，加载**自动研究**编排层，并启动自主研究。\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>安装程序的功能\u003C\u002Fb>\u003C\u002Fsummary>\n\n- **自动检测**您已安装的编码代理\n- **将技能安装至**`~\u002F.orchestra\u002Fskills\u002F`，并为每个代理创建符号链接（Windows 上则回退为复制）\n- **提供**完整包、快速入门包、按类别或单独技能的选项\n- **更新**已安装的技能至最新版本\n- **卸载**所有或选定的技能\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>CLI 命令\u003C\u002Fb>\u003C\u002Fsummary>\n\n```bash\n# 推荐的交互式安装程序\nnpx @orchestra-research\u002Fai-research-skills\n\n# 直接命令\nnpx @orchestra-research\u002Fai-research-skills list      # 查看已安装的技能\nnpx @orchestra-research\u002Fai-research-skills update    # 更新已安装的技能\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>Claude Code Marketplace（替代方案）\u003C\u002Fb>\u003C\u002Fsummary>\n\n使用 **Claude Code CLI** 直接安装技能类别：\n\n```bash\n# 添加市场\n\u002Fplugin marketplace add orchestra-research\u002FAI-research-SKILLs\n\n# 按类别安装（共 22 个类别可供选择）\n\u002Fplugin install fine-tuning@ai-research-skills        # Axolotl、LLaMA-Factory、PEFT、Unsloth\n\u002Fplugin install post-training@ai-research-skills      # TRL、GRPO、OpenRLHF、SimPO、verl、slime、miles、torchforge\n\u002Fplugin install inference-serving@ai-research-skills  # vLLM、TensorRT-LLM、llama.cpp、SGLang\n\u002Fplugin install distributed-training@ai-research-skills\n\u002Fplugin install optimization@ai-research-skills\n```\n\n\u003C\u002Fdetails>\n\n### 所有 22 个类别（87 项技能）\n\n| 类别 | 技能 | 包含内容 |\n|----------|--------|----------|\n| **自动研究** | **1** | **自主研究编排——管理全生命周期并路由至所有其他技能的核心层** |\n| 构思 | 2 | 研究头脑风暴、创造性思维 |\n| 机器学习论文写作 | 2 | 机器学习论文写作（LaTeX模板、引用验证）、学术绘图 |\n| 模型架构 | 5 | LitGPT、Mamba、NanoGPT、RWKV、TorchTitan |\n| 分词 | 2 | HuggingFace分词器、SentencePiece |\n| 微调 | 4 | Axolotl、LLaMA-Factory、PEFT、Unsloth |\n| 机制解释 | 4 | TransformerLens、SAELens、pyvene、nnsight |\n| 数据处理 | 2 | NeMo Curator、Ray Data |\n| 训练后优化 | 8 | TRL、GRPO、OpenRLHF、SimPO、verl、slime、miles、torchforge |\n| 安全性 | 4 | 宪法AI、LlamaGuard、NeMo Guardrails、Prompt Guard |\n| 分布式训练 | 6 | DeepSpeed、FSDP、Accelerate、Megatron-Core、Lightning、Ray Train |\n| 基础设施 | 3 | Modal、Lambda Labs、SkyPilot |\n| 优化 | 6 | Flash Attention、bitsandbytes、GPTQ、AWQ、HQQ、GGUF |\n| 评估 | 3 | lm-eval-harness、BigCode、NeMo Evaluator |\n| 推理 | 4 | vLLM、TensorRT-LLM、llama.cpp、SGLang |\n| MLOps | 3 | W&B、MLflow、TensorBoard |\n| 代理 | 4 | LangChain、LlamaIndex、CrewAI、AutoGPT |\n| RAG | 5 | Chroma、FAISS、Pinecone、Qdrant、Sentence Transformers |\n| 提示工程 | 4 | DSPy、Instructor、Guidance、Outlines |\n| 可观测性 | 2 | LangSmith、Phoenix |\n| 多模态 | 7 | CLIP、Whisper、LLaVA、BLIP-2、SAM、Stable Diffusion、AudioCraft |\n| 新兴技术 | 6 | MoE、模型融合、长上下文、推测解码、蒸馏、剪枝 |\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>查看全部87项技能详情\u003C\u002Fb>\u003C\u002Fsummary>\n\n### 🔬 自动研究（1项技能）——核心编排层\n- **[Autoresearch](0-autoresearch-skill\u002F)** - 使用双环架构（内部优化+外部综合）的自主研究编排。管理从文献综述到论文写作的完整生命周期，并将任务路由至所有领域特定技能。支持Claude Code \u002Floop和OpenClaw心跳机制以实现持续运行（390行 + 3篇参考文献）\n\n### 🏗️ 模型架构（5项技能）\n- **[LitGPT](01-model-architecture\u002Flitgpt\u002F)** - Lightning AI提供的20余种干净的LLM实现及生产级训练配方（462行 + 4篇参考文献）\n- **[Mamba](01-model-architecture\u002Fmamba\u002F)** - 状态空间模型，复杂度为O(n)，速度是Transformer的5倍（253行 + 3篇参考文献）\n- **[RWKV](01-model-architecture\u002Frwkv\u002F)** - RNN+Transformer混合模型，支持无限上下文，属于Linux基金会项目（253行 + 3篇参考文献）\n- **[NanoGPT](01-model-architecture\u002Fnanogpt\u002F)** - Karpathy用约300行代码实现的教育版GPT（283行 + 3篇参考文献）\n- **[TorchTitan](01-model-architecture\u002Ftorchtitan\u002F)** - PyTorch原生分布式训练框架，适用于Llama 3.1，支持4D并行化\n\n### 🔤 分词（2项技能）\n- **[HuggingFace Tokenizers](02-tokenization\u002Fhuggingface-tokenizers\u002F)** - 基于Rust的分词工具，处理速度小于20秒\u002FGB，支持BPE\u002FWordPiece\u002FUnigram等算法（486行 + 4篇参考文献）\n- **[SentencePiece](02-tokenization\u002Fsentencepiece\u002F)** - 语言无关的分词工具，每秒可处理5万条句子，被T5\u002FALBERT等模型使用（228行 + 2篇参考文献）\n\n### 🎯 微调（4项技能）\n- **[Axolotl](03-fine-tuning\u002Faxolotl\u002F)** - 基于YAML的微调工具，支持100多种模型（156行 + 4篇参考文献）\n- **[LLaMA-Factory](03-fine-tuning\u002Fllama-factory\u002F)** - 提供WebUI的无代码微调工具（78行 + 5篇参考文献）\n- **[Unsloth](03-fine-tuning\u002Funsloth\u002F)** - QLoRA微调速度提升2倍（75行 + 4篇参考文献）\n- **[PEFT](03-fine-tuning\u002Fpeft\u002F)** - 参数高效微调方法，包括LoRA、QLoRA、DoRA等25种以上技术（431行 + 2篇参考文献）\n\n### 🔬 机制解释（4项技能）\n- **[TransformerLens](04-mechanistic-interpretability\u002Ftransformer-lens\u002F)** - Neel Nanda开发的用于机制解释的库，配备HookPoints和激活缓存功能（346行 + 3篇参考文献）\n- **[SAELens](04-mechanistic-interpretability\u002Fsaelens\u002F)** - 用于特征发现的稀疏自编码器训练与分析工具（386行 + 3篇参考文献）\n- **[pyvene](04-mechanistic-interpretability\u002Fpyvene\u002F)** - 斯坦福大学开发的因果干预库，支持声明式配置（473行 + 3篇参考文献）\n- **[nnsight](04-mechanistic-interpretability\u002Fnnsight\u002F)** - 通过NDIF实现远程解释能力，可在70B+参数模型上运行实验（436行 + 3篇参考文献）\n\n\n### 📊 数据处理（2项技能）\n- **[Ray Data](05-data-processing\u002Fray-data\u002F)** - 分布式机器学习数据处理框架，支持流式执行和GPU加速（318行 + 2篇参考文献）\n- **[NeMo Curator](05-data-processing\u002Fnemo-curator\u002F)** - GPU加速的数据整理工具，去重速度提升16倍（375行 + 2篇参考文献）\n\n### 🎓 训练后优化（8项技能）\n- **[TRL微调](06-post-training\u002Ftrl-fine-tuning\u002F)** - 变换器强化学习框架（447行 + 4篇参考文献）\n- **[GRPO-RL训练](06-post-training\u002Fgrpo-rl-training\u002F)**（TRL） - 基于TRL的群体相对策略优化（569行，**黄金标准**）\n- **[OpenRLHF](06-post-training\u002Fopenrlhf\u002F)** - 结合Ray和vLLM的完整RLHF流水线（241行 + 4篇参考文献）\n- **[SimPO](06-post-training\u002Fsimpo\u002F)** - 简单偏好优化，无需参考模型（211行 + 3篇参考文献）\n- **[verl](06-post-training\u002Fverl\u002F)** - 字节跳动的HybridFlow RL框架，后端支持FSDP\u002FMegatron以及vLLM\u002FSGLang（389行 + 2篇参考文献）\n- **[slime](06-post-training\u002Fslime\u002F)** - THUDM基于Megatron+SGLang的框架，驱动GLM-4.x系列模型（464行 + 2篇参考文献）\n- **[miles](06-post-training\u002Fmiles\u002F)** - slime的企业级分支，支持FP8、INT4以及针对MoE训练的推测式强化学习（315行 + 2篇参考文献）\n- **[torchforge](06-post-training\u002Ftorchforge\u002F)** - Meta基于PyTorch的原生强化学习框架，结合Monarch、TorchTitan和vLLM（380行 + 2篇参考文献）\n\n### 🛡️ 安全与对齐（4项技能）\n- **[宪法AI](07-safety-alignment\u002Fconstitutional-ai\u002F)** - 基于原则的AI自我改进方法（282行）\n- **[LlamaGuard](07-safety-alignment\u002Fllamaguard\u002F)** - 用于LLM输入输出的安全分类器（329行）\n- **[NeMo Guardrails](07-safety-alignment\u002Fnemo-guardrails\u002F)** - 基于Colang语言的可编程护栏系统（289行）\n- **[Prompt Guard](07-safety-alignment\u002Fprompt-guard\u002F)** - Meta开发的8600万规模提示注入与越狱检测器，TPR超过99%，GPU响应时间小于2毫秒（313行）\n\n### ⚡ 分布式训练（6项技能）\n- **[Megatron-Core](08-distributed-training\u002Fmegatron-core\u002F)** - NVIDIA用于训练2B至462B参数模型的框架，在H100上可达到47%的MFU（359行 + 4篇参考文献）\n- **[DeepSpeed](08-distributed-training\u002Fdeepspeed\u002F)** - Microsoft的ZeRO优化技术（137行 + 9篇参考文献）\n- **[PyTorch FSDP2](08-distributed-training\u002Fpytorch-fsdp2\u002F)** - 全量分片数据并行v2版本，支持`fully_shard`和DTensor功能（231行 + 12篇参考文献）\n- **[Accelerate](08-distributed-training\u002Faccelerate\u002F)** - HuggingFace提供的4行代码分布式训练API（324行 + 3篇参考文献）\n- **[PyTorch Lightning](08-distributed-training\u002Fpytorch-lightning\u002F)** - 高层次训练框架，包含Trainer类（339行 + 3篇参考文献）\n- **[Ray Train](08-distributed-training\u002Fray-train\u002F)** - 多节点任务编排与超参数调优工具（399行 + 1篇参考文献）\n\n### 🚀 优化（6项技能）\n- **[Flash Attention](10-optimization\u002Fflash-attention\u002F)** - 更快且内存高效的注意力机制，速度提升2-4倍（359行代码 + 2篇参考文献）\n- **[bitsandbytes](10-optimization\u002Fbitsandbytes\u002F)** - 8位\u002F4位量化，可减少50%-75%的内存占用（403行代码 + 3篇参考文献）\n- **[GPTQ](10-optimization\u002Fgptq\u002F)** - 4位训练后量化，内存占用减少4倍，精度损失不到2%（443行代码 + 3篇参考文献）\n- **[AWQ](10-optimization\u002Fawq\u002F)** - 激活值感知的权重量化，4位量化时精度损失极小（310行代码 + 2篇参考文献）\n- **[HQQ](10-optimization\u002Fhqq\u002F)** - 半二次量化，无需校准数据，支持多后端（370行代码 + 2篇参考文献）\n- **[GGUF](10-optimization\u002Fgguf\u002F)** - llama.cpp使用的量化格式，提供K-quant方法，支持CPU\u002FMetal推理（380行代码 + 2篇参考文献）\n\n### 📊 评估（3项技能）\n- **[lm-evaluation-harness](11-evaluation\u002Flm-evaluation-harness\u002F)** - EleutherAI用于LLM基准测试的标准工具，覆盖60+任务（482行代码 + 4篇参考文献）\n- **[BigCode Evaluation Harness](11-evaluation\u002Fbigcode-evaluation-harness\u002F)** - 针对代码模型的基准测试工具，包含HumanEval、MBPP、MultiPL-E等数据集及pass@k指标（406行代码 + 3篇参考文献）\n- **[NeMo Evaluator](11-evaluation\u002Fnemo-evaluator\u002F)** - NVIDIA的企业级平台，支持18+种基准测试框架下的100+项评测，并可在多后端执行（454行代码 + 4篇参考文献）\n\n### ☁️ 基础设施（3项技能）\n- **[Modal](09-infrastructure\u002Fmodal\u002F)** - 无服务器GPU云服务，提供原生Python API，按需使用T4-H200 GPU（342行代码 + 2篇参考文献）\n- **[SkyPilot](09-infrastructure\u002Fskypilot\u002F)** - 跨20+云服务商的多云编排工具，支持竞价实例恢复功能（390行代码 + 2篇参考文献）\n- **[Lambda Labs](09-infrastructure\u002Flambda-labs\u002F)** - 提供预留或按需GPU资源的云服务，配备H100\u002FA100 GPU及持久化文件系统（390行代码 + 2篇参考文献）\n\n### 🔥 推理与服务（4项技能）\n- **[vLLM](12-inference-serving\u002Fvllm\u002F)** - 高吞吐量的LLM推理服务框架，采用分页注意力机制（356行代码 + 4篇参考文献，**已生产就绪**）\n- **[TensorRT-LLM](12-inference-serving\u002Ftensorrt-llm\u002F)** - NVIDIA提供的最快速推理方案，可达24k tokens\u002Fs，支持FP8\u002FINT4量化（180行代码 + 3篇参考文献）\n- **[llama.cpp](12-inference-serving\u002Fllama-cpp\u002F)** - 支持CPU\u002FApple Silicon设备上的推理，采用GGUF量化格式（251行代码 + 3篇参考文献）\n- **[SGLang](12-inference-serving\u002Fsglang\u002F)** - 基于RadixAttention的结构化生成框架，适用于智能体场景时速度提升5-10倍（435行代码 + 3篇参考文献）\n\n### 🤖 智能体（4项技能）\n- **[LangChain](14-agents\u002Flangchain\u002F)** - 最流行的智能体开发框架，拥有500+集成组件及ReAct模式（658行代码 + 3篇参考文献，**已生产就绪**）\n- **[LlamaIndex](14-agents\u002Fllamaindex\u002F)** - 面向LLM应用的数据框架，提供300+连接器，专注于RAG技术（535行代码 + 3篇参考文献）\n- **[CrewAI](14-agents\u002Fcrewai\u002F)** - 多智能体协同工作平台，支持角色分工协作及自动化流程（498行代码 + 3篇参考文献）\n- **[AutoGPT](14-agents\u002Fautogpt\u002F)** - 自主型AI智能体平台，提供可视化工作流构建工具及持续执行功能（400行代码 + 2篇参考文献）\n\n### 🔍 RAG（5项技能）\n- **[Chroma](15-rag\u002Fchroma\u002F)** - 开源嵌入数据库，支持本地和云端部署，获2.4万颗星（385行代码 + 1篇参考文献）\n- **[FAISS](15-rag\u002Ffaiss\u002F)** - Facebook推出的相似度搜索库，可处理数十亿级别的数据并支持GPU加速（295行代码）\n- **[Sentence Transformers](15-rag\u002Fsentence-transformers\u002F)** - 提供5000+种嵌入模型，支持多语言，获1.5万颗星（370行代码）\n- **[Pinecone](15-rag\u002Fpinecone\u002F)** - 托管式向量数据库，具备自动扩展能力，延迟低于100毫秒（410行代码）\n- **[Qdrant](15-rag\u002Fqdrant\u002F)** - 高性能向量检索引擎，基于Rust开发，支持混合搜索及过滤功能（493行代码 + 2篇参考文献）\n\n### 🎨 多模态（7项技能）\n- **[CLIP](18-multimodal\u002Fclip\u002F)** - OpenAI推出的视觉-语言模型，支持零样本分类，获2.5万颗星（320行代码）\n- **[Whisper](18-multimodal\u002Fwhisper\u002F)** - 强大的语音识别模型，支持99种语言，获7.3万颗星（395行代码）\n- **[LLaVA](18-multimodal\u002Fllava\u002F)** - 视觉-语言助手，支持图像聊天，性能接近GPT-4V水平（360行代码）\n- **[Stable Diffusion](18-multimodal\u002Fstable-diffusion\u002F)** - 通过HuggingFace Diffusers实现文生图功能，支持SDXL、ControlNet等模型（380行代码 + 2篇参考文献）\n- **[Segment Anything](18-multimodal\u002Fsegment-anything\u002F)** - Meta推出的SAM模型，支持基于点或框的零样本图像分割（500行代码 + 2篇参考文献）\n- **[BLIP-2](18-multimodal\u002Fblip-2\u002F)** - 视觉-语言预训练模型，结合Q-Former进行图像描述及VQA任务（500行代码 + 2篇参考文献）\n- **[AudioCraft](18-multimodal\u002Faudiocraft\u002F)** - Meta推出的MusicGen\u002FAudioGen模型，支持文生音乐及文生声音功能（470行代码 + 2篇参考文献）\n\n### 🎯 提示工程（4项技能）\n- **[DSPy](16-prompt-engineering\u002Fdspy\u002F)** - 声明式提示编程工具，内置优化器，由斯坦福NLP团队开发，获2.2万颗星（438行代码 + 3篇参考文献）\n- **[Instructor](16-prompt-engineering\u002Finstructor\u002F)** - 通过Pydantic验证确保LLM输出结构化的工具，获1.5万颗星（726行代码 + 3篇参考文献）\n- **[Guidance](16-prompt-engineering\u002Fguidance\u002F)** - 使用正则表达式或语法约束生成内容的工具，由微软研究院开发，获1.8万颗星（485行代码 + 3篇参考文献）\n- **[Outlines](16-prompt-engineering\u002Foutlines\u002F)** - 基于有限状态机的结构化文本生成工具，开销极低，获8千颗星（601行代码 + 3篇参考文献）\n\n### 📊 MLOps（3项技能）\n- **[Weights & Biases](13-mlops\u002Fweights-and-biases\u002F)** - 用于实验跟踪、超参数调优、模型资产管理和模型注册表的工具（427行代码 + 3篇参考文献）\n- **[MLflow](13-mlops\u002Fmlflow\u002F)** - 提供模型注册、跟踪、部署及自动日志记录功能（514行代码 + 3篇参考文献）\n- **[TensorBoard](13-mlops\u002Ftensorboard\u002F)** - 用于可视化、性能分析、嵌入展示及标量\u002F图像监控的工具（538行代码 + 3篇参考文献）\n\n### 👁️ 可观测性（2项技能）\n- **[LangSmith](17-observability\u002Flangsmith\u002F)** - 面向AI应用的LLM可观测性工具，提供追踪、评估和监控功能（422行代码 + 2篇参考文献）\n- **[Phoenix](17-observability\u002Fphoenix\u002F)** - 开源AI可观测性平台，集成OpenTelemetry追踪与LLM评估功能（380行代码 + 2篇参考文献）\n\n### 🔬 新兴技术（6项技能）\n- **[MoE训练](19-emerging-techniques\u002Fmoe-training\u002F)** - 使用DeepSpeed进行专家混合模型训练，如Mixtral 8x7B，可将成本降低5倍（515行代码 + 3篇参考文献）\n- **[模型合并](19-emerging-techniques\u002Fmodel-merging\u002F)** - 使用TIES、DARE、SLERP等方法通过mergekit合并模型（528行代码 + 3篇参考文献）\n- **[长上下文](19-emerging-techniques\u002Flong-context\u002F)** - 通过RoPE、YaRN、ALiBi等技术扩展上下文窗口，支持32k-128k个token（624行代码 + 3篇参考文献）\n- **[推测解码](19-emerging-techniques\u002Fspeculative-decoding\u002F)** - 利用Medusa、Lookahead等技术使推理速度提升1.5-3.6倍（379行代码）\n- **[知识蒸馏](19-emerging-techniques\u002Fknowledge-distillation\u002F)** - 使用MiniLLM和温度缩放等方法将70B模型压缩至7B（424行代码）\n- **[模型剪枝](19-emerging-techniques\u002Fmodel-pruning\u002F)** - 通过Wanda、SparseGPT等方法实现50%稀疏化，精度损失不到1%（417行代码）\n\n### 📝 机器学习论文写作（2项技能）\n- **[ML 论文写作](20-ml-paper-writing\u002F)** - 使用 LaTeX 模板、引用验证和写作最佳实践，撰写适用于 NeurIPS、ICML、ICLR、ACL、AAAI、COLM 等会议的出版级论文（532 行 + 5 篇参考文献）\n- **[学术绘图](20-ml-paper-writing\u002Facademic-plotting\u002F)** - 为机器学习论文生成出版质量的图表：通过 Gemini AI 绘制架构图，借助 matplotlib\u002Fseaborn 制作数据驱动的图表，并应用特定会议的样式（479 行 + 3 篇参考文献）\n\n### 💡 创意构思（2项技能）\n- **[研究头脑风暴](21-research-ideation\u002Fbrainstorming-research-ideas\u002F)** - 提供结构化的创意框架，结合 10 种互补视角，帮助发现具有高影响力的研究方向（384 行）\n- **[创造性思维](21-research-ideation\u002Fcreative-thinking-for-research\u002F)** - 运用认知科学框架（双联思维、结构映射、约束操控），激发真正新颖的研究想法（366 行）\n\n\n\u003C\u002Fdetails>\n\n## 演示\n\n本仓库中的 87 项技能已自动同步至 [Orchestra Research](https:\u002F\u002Fwww.orchestra-research.com\u002Fresearch-skills)，您可一键将其添加到项目中，并与 AI 研究代理协同使用。\n\n**查看技能实际应用 → [demos\u002F](demos\u002FREADME.md)**\n\n我们维护了一系列精选的演示仓库，展示如何将这些技能应用于真实的 AI 研究任务：\n\n| 演示 | 使用的技能 | 功能 |\n|------|-------------|--------------|\n| **[归一化异质性 → LoRA 脆弱性](demos\u002Fautoresearch-norm-heterogeneity\u002F)** | 自动研究、ML 论文写作、创意构思 | 代理自主发现归一化异质性可预测微调难度（r=-0.99），并在 ETF 重叠这一无效结果的基础上进行了研究方向的调整 |\n| **[强化学习算法脑部扫描](demos\u002Fautoresearch-rl-brain-scan\u002F)** | 自动研究、GRPO、TRL、SAELens、TransformerLens、ML 论文写作 | 代理发现 DPO 是一种秩-1 的扰动（从一个 SVD 方向即可恢复 95.6%），而在线强化学习则是分布式的且保持结构不变的 |\n| **[NeMo 评估：GPQA 基准测试](https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FNemo-Eval-Skill-Demo)** | NeMo 评估器 | 对 Llama 8B、70B 和 405B 在研究生级别科学问题上的表现进行比较 |\n| **[无后悔 LoRA 复现](https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002FLLM-with-Orchestra)** | GRPO、TRL | 通过提示工程复现 SFT + GRPO RL 实验 |\n| **[逐层量化实验](https:\u002F\u002Fgithub.com\u002FAmberLJC\u002Fllama-quantization-experiment)** | llama.cpp、GGUF | 探究最优的层精度分配——早期层采用 Q8 格式可实现 1.9 倍压缩，同时仅损失 1.3% 的困惑度 |\n| **[跨语言对齐分析](https:\u002F\u002Fgithub.com\u002FAmberLJC\u002Ffaiss-demo)** | FAISS | 使用 FAISS 相似度搜索量化多语言嵌入在 8 种语言之间对语义概念的对齐程度 |\n| **[科学绘图演示](demos\u002Fscientific-plotting-demo\u002F)** | 学术绘图 | 为关于安第斯地区 QoE 感知型 LLM 服务的论文生成出版质量的图表——Gemini AI 架构图 + matplotlib 数据图表（CDF、多面板网格、柱状图） |\n\n**重点演示**：两篇完全由 AI 代理使用 **autoresearch** 技能生成的论文。其中，《归一化异质性》论文展示了自主研究方向的调整——代理推翻了自身假设并发现了更有力的结论。而《强化学习脑部扫描》论文则体现了多技能的协同运作——代理训练了强化学习模型，利用可解释性工具分析其内部机制，并得出“DPO 是一种秩-1 对齐”的洞察。这两篇论文均由代理端到端完成。\n\n## 技能结构\n\n每项技能均遵循经过实战检验的格式，以确保最大实用性：\n\n```\n技能名称\u002F\n├── SKILL.md                    # 快速参考（50–150 行）\n│   ├── 元数据（名称、描述、版本）\n│   ├── 何时使用此技能\n│   ├── 快速模式与示例\n│   └── 参考文献链接\n│\n├── references\u002F                 # 深度文档（300KB+）\n│   ├── README.md              # 来自 GitHub 官方文档\n│   ├── api.md                 # API 参考\n│   ├── tutorials.md           # 分步指南\n│   ├── issues.md              # 真实的 GitHub 问题及解决方案\n│   ├── releases.md            # 版本历史及破坏性变更\n│   └── file_structure.md      # 代码库导航\n│\n├── scripts\u002F                    # 辅助脚本（可选）\n└── assets\u002F                     # 模板与示例（可选）\n```\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>质量标准\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 来自官方来源的 300KB+ 文档\n- 真实的 GitHub 问题及解决方案（如有）\n- 包含语言检测的代码示例\n- 版本历史及破坏性变更\n- 官方文档链接\n\n\u003C\u002Fdetails>\n\n## 路线图\n\n我们正致力于构建覆盖整个 AI 研究生命周期的 80 项全面技能。完整的开发计划请参阅我们的 [详细路线图](docs\u002FROADMAP.md)。\n\n[查看完整路线图 →](docs\u002FROADMAP.md)\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>详细统计数据\u003C\u002Fb>\u003C\u002Fsummary>\n\n| 指标 | 当前 | 目标 |\n|--------|---------|--------|\n| **技能数量** | **87**（高质量、标准化 YAML） | 80 ✅ |\n| **平均每项技能行数** | **420 行**（聚焦且逐步展开） | 200–600 行 |\n| **文档总量** | 总计约 **130,000 行**（SKILL.md + 参考文献） | 100,000+ 行 |\n| **黄金标准技能** | **65** 项具备全面参考文献 | 50+ |\n| **贡献者数量** | 1 | 100+ |\n| **覆盖范围** | 架构、分词、微调、机制性可解释性、数据处理、后训练、安全、分布式计算、优化、评估、基础设施、推理、智能体、RAG、多模态、提示工程、MLOps、可观ability、ML 论文写作、创意构思、自动研究 | 全生命周期 ✅ |\n\n**近期进展**：npm 包 `@orchestra-research\u002Fai-research-skills` 实现了所有编码代理的一键安装。\n\n**理念**：质量胜于数量。遵循 [Anthropic 官方最佳实践](anthropic_official_docs\u002Fbest_practices.md)，每项技能提供 200–500 行聚焦且可操作的指导，并采用逐步展开的方式呈现。\n\n\u003C\u002Fdetails>\n\n## 仓库结构\n\n```\nclaude-ai-research-skills\u002F\n├── README.md                    ← 您当前所在\n├── CONTRIBUTING.md              ← 贡献指南\n├── demos\u002F                       ← 精选演示画廊（指向演示仓库的链接）\n├── docs\u002F\n├── 0-autoresearch-skill\u002F        (1项技能 ✓ - 自主研究编排)\n├── 01-model-architecture\u002F       (5项技能 ✓ - LitGPT、Mamba、RWKV、NanoGPT、TorchTitan)\n├── 02-tokenization\u002F             (2项技能 ✓ - HuggingFace Tokenizers、SentencePiece)\n├── 03-fine-tuning\u002F              (4项技能 ✓ - Axolotl、LLaMA-Factory、Unsloth、PEFT)\n├── 04-mechanistic-interpretability\u002F (4项技能 ✓ - TransformerLens、SAELens、pyvene、nnsight)\n├── 05-data-processing\u002F          (2项技能 ✓ - Ray Data、NeMo Curator)\n├── 06-post-training\u002F            (8项技能 ✓ - TRL、GRPO、OpenRLHF、SimPO、verl、slime、miles、torchforge)\n├── 07-safety-alignment\u002F         (4项技能 ✓ - 宪法AI、LlamaGuard、NeMo Guardrails、Prompt Guard)\n├── 08-distributed-training\u002F     (6项技能 ✓ - Megatron-Core、DeepSpeed、FSDP、Accelerate、Lightning、Ray Train)\n├── 09-infrastructure\u002F           (3项技能 ✓ - Modal、SkyPilot、Lambda Labs)\n├── 10-optimization\u002F             (6项技能 ✓ - Flash Attention、bitsandbytes、GPTQ、AWQ、HQQ、GGUF)\n├── 11-evaluation\u002F               (3项技能 ✓ - lm-evaluation-harness、BigCode、NeMo Evaluator)\n├── 12-inference-serving\u002F        (4项技能 ✓ - vLLM、TensorRT-LLM、llama.cpp、SGLang)\n├── 13-mlops\u002F                    (3项技能 ✓ - Weights & Biases、MLflow、TensorBoard)\n├── 14-agents\u002F                   (4项技能 ✓ - LangChain、LlamaIndex、CrewAI、AutoGPT)\n├── 15-rag\u002F                      (5项技能 ✓ - Chroma、FAISS、Sentence Transformers、Pinecone、Qdrant)\n├── 16-prompt-engineering\u002F       (4项技能 ✓ - DSPy、Instructor、Guidance、Outlines)\n├── 17-observability\u002F            (2项技能 ✓ - LangSmith、Phoenix)\n├── 18-multimodal\u002F               (7项技能 ✓ - CLIP、Whisper、LLaVA、Stable Diffusion、SAM、BLIP-2、AudioCraft)\n├── 19-emerging-techniques\u002F      (6项技能 ✓ - MoE、模型合并、长上下文、推测解码、蒸馏、剪枝)\n├── 20-ml-paper-writing\u002F         (2项技能 ✓ - 使用LaTeX模板撰写机器学习论文、学术绘图)\n├── 21-research-ideation\u002F                 (2项技能 ✓ - 研究头脑风暴、创造性思维)\n└── packages\u002Fai-research-skills\u002F (用于一键安装的npm包)\n```\n\n## 使用场景\n\n### 对于研究人员\n“我需要用自定义数据微调Llama 3”\n→ **03-fine-tuning\u002Faxolotl\u002F** - YAML配置文件，支持100多种模型\n\n### 对于机器学习工程师\n“如何优化推理延迟？”\n→ **12-inference-serving\u002Fvllm\u002F** - 分页注意力机制、批处理\n\n### 对于学生\n“我想了解Transformer的工作原理”\n→ **01-model-architecture\u002Flitgpt\u002F** - 清晰的实现代码\n\n### 对于团队\n“我们需要将训练扩展到100个GPU”\n→ **08-distributed-training\u002Fdeepspeed\u002F** - ZeRO阶段、3D并行化\n\n## 许可证\n\nMIT许可证 - 详情请参阅 [LICENSE](LICENSE)。\n\n**注意**: 各项技能可能引用了不同许可证的库。请在使用前查看每个项目的许可证。\n\n## 引用\n\n如果您在工作中使用了AI Research Skills，或发现它对您的出版物有所帮助，我们非常感谢您的引用：\n\n**BibTeX**\n```bibtex\n@software{ai_research_skills,\n  title     = {AI Research Skills Library},\n  author    = {{Orchestra Research}},\n  year      = {2025},\n  url       = {https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs},\n  note      = {开源技能库，使AI智能体能够自主进行AI研究}\n}\n```\n\n**APA**\n> Orchestra Research. (2025). *AI Research Skills Library* [计算机软件]. https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\n\n**Chicago**\n> Orchestra Research. \"AI Research Skills Library.\" GitHub, 2025. https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs.\n\n**IEEE**\n> Orchestra Research, \"AI Research Skills Library,\" 2025. [在线]. 可用地址: https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\n\n> **提示**: 您也可以点击GitHub侧边栏中的“引用此仓库”以获取自动格式化的引用。\n\n## 致谢\n\n构建过程中使用了：\n- **[Claude Code](https:\u002F\u002Fwww.claude.com\u002Fproduct\u002Fclaude-code)** - AI配对编程\n- **[Skill Seeker](https:\u002F\u002Fgithub.com\u002Fyusufkaraaslan\u002FSkill_Seekers)** - 自动文档抓取\n- **开源AI社区** - 提供了出色的工具和文档\n\n特别感谢：\n- EleutherAI、HuggingFace、NVIDIA、Lightning AI、Meta AI、Anthropic\n- 所有维护优秀文档的研究人员\n\n## 贡献者\n\n感谢所有为AI Research Skills Library做出贡献的人：\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Forchestra-research\u002FAI-research-SKILLs\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_2d3e0f7ff747.png\" \u002F>\n\u003C\u002Fa> \n\n我们欢迎来自AI研究社区的贡献！请参阅 [CONTRIBUTING.md](CONTRIBUTING.md) 以获取详细指南，内容包括：\n\n- 添加新技能\n- 改进现有技能\n- 质量标准和最佳实践\n- 提交流程\n\n## 最新更新\n\n\u003Cdetails open>\n\u003Csummary>\u003Cb>2026年3月 - v1.4.0 🔬 自主研究与86项技能 — 全面覆盖研究生命周期\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🔬 **新增技能**: **Autoresearch** — 基于双环架构的自主研究编排（内层优化环 + 外层综合环）\n- 🧠 能够管理完整的研究生命周期：文献综述 → 创意构思 → 实验 → 综合 → 论文写作\n- 🔄 自动路由至所有86项领域技能 — 智能体无需知道该使用哪项技能\n- ⏰ 必须配备`\u002Floop`（Claude Code）和cron作业（OpenClaw），以实现持续的自主运行\n- 📊 生成研究汇报（HTML\u002FPDF），附带优化轨迹图，供人类审阅\n- 📝 Findings.md作为跨会话的持久项目记忆，记录“经验教训与限制条件”\n- 🗂️ 结构化工作空间：research-state.yaml、findings.md、research-log.md、literature\u002F、experiments\u002F、src\u002F、data\u002F、to_human\u002F\n- 📄 **由autoresearch生成的两篇演示论文**: [范数异质性 → LoRA脆性](demos\u002Fautoresearch-norm-heterogeneity\u002F) 和 [强化学习算法脑部扫描](demos\u002Fautoresearch-rl-brain-scan\u002F)\n- 🚀 WELCOME.md用于冷启动代理的引导 — 一个URL即可从零开始实现自主研究\n- 📦 npm v1.4.x版本，包含Windows符号链接回退功能，所有22个类别均可安装\n- 📊 **总计87项技能**，覆盖**22个类别** — 完整覆盖研究生命周期\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2026年2月 - v0.15.0 🛡️ Prompt Guard与83项技能\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🛡️ **新增技能**: Prompt Guard - Meta开发的8600万参数规模的提示注入与越狱检测器\n- ⚡ TPR超过99%，FPR低于1%，GPU延迟小于2毫秒，支持多语言（8种语言）\n- 🔒 包括三种工作流：用户输入过滤、第三方数据过滤以及批量RAG处理\n- 📊 **总计83项技能**，涵盖20个类别\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2026年1月 - v0.14.0 📦 npm包与82项技能\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📦 **新增**: `npx @orchestra-research\u002Fai-research-skills` - 一键安装所有编码代理\n- 🤖 **支持的代理**: Claude Code、OpenCode、Cursor、Codex、Gemini CLI、Qwen Code\n- ✨ 带有类别\u002F单个技能选择的交互式安装程序\n- 🔄 更新已安装的技能，可选择性卸载\n- 📊 **共82项技能**（5项训练后新增技能：verl、slime、miles、torchforge + TorchTitan）\n- 🏗️ Megatron-Core 已移至分布式训练类别\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2026年1月 - v0.13.0 📝 机器学习论文写作与演示图库\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📝 **新类别**: 机器学习论文写作（第20类，第77项技能）\n- 🎯 为 NeurIPS、ICML、ICLR、ACL、AAAI、COLM 等会议撰写可直接投稿的论文\n- 📚 来自顶尖研究者的写作理念（Neel Nanda、Farquhar、Gopen & Swan、Lipton、Perez）\n- 🔬 引用验证工作流——绝不凭空捏造参考文献\n- 📄 适用于6大主要会议的LaTeX模板\n- 🎪 **新增**: 精选演示图库（`demos\u002F`），展示技能的实际应用\n- 🔗 演示仓库：NeMo Evaluator 基准测试、LoRA Without Regret 复现\n- 📖 936行全面的 SKILL.md 文件，包含4个工作流程\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2026年1月 - v0.12.0 📊 NeMo Evaluator SDK\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📊 **新技能**: NeMo Evaluator SDK，用于企业级LLM基准测试\n- 🔧 NVIDIA 的评估平台，包含来自18+测试框架的100+项基准测试（MMLU、HumanEval、GSM8K、安全性、VLM）\n- ⚡ 支持多后端执行：本地Docker、Slurm HPC、Lepton云\n- 📦 以容器为中心的架构，确保评估结果可复现\n- 📝 454行的 SKILL.md 文件 + 4份综合参考文档（约48KB文档）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年12月 - v0.11.0 🔬 机制可解释性\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🔬 **新类别**: 机制可解释性（4项技能）\n- 🔍 TransformerLens 技能：Neel Nanda 的库，用于通过HookPoints、激活缓存和电路分析进行机制可解释性研究\n- 🧠 SAELens 技能：稀疏自编码器的训练与分析，用于特征发现和单义性研究\n- ⚡ pyvene 技能：斯坦福大学的因果干预库，提供声明式配置、DAS和激活修补功能\n- 🌐 nnsight 技能：通过NDIF实现远程可解释性，在无需本地GPU的情况下对70B+模型进行实验\n- 📝 在16个文件中新增约6,500行文档\n- **共76项技能**（填补了缺失的04类别位置）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月25日 - v0.10.0 🎉 70项技能全部完成！\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎉 **路线图已完成**: 达到70项技能里程碑！\n- 🚀 新增4项技能：Lambda Labs、Segment Anything (SAM)、BLIP-2、AudioCraft\n- ☁️ Lambda Labs 技能：预留\u002F按需GPU云，配备H100\u002FA100显卡、持久化文件系统和一键集群\n- 🖼️ SAM 技能：Meta的Segment Anything，可通过点\u002F框\u002F掩码实现零样本图像分割\n- 👁️ BLIP-2 技能：结合Q-Former的视觉-语言预训练，支持图像描述和VQA任务\n- 🎵 AudioCraft 技能：Meta的MusicGen\u002FAudioGen，用于文本转音乐和文本转声音生成\n- 📝 在12个文件中新增约10,000行文档\n- **共70项技能**（100%完成路线图！）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月25日 - v0.9.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 新增2项基础设施技能：Modal、SkyPilot\n- ☁️ Modal 技能：无服务器GPU云，提供Python原生API，可按需使用T4-H200，并具备自动扩展功能\n- 🌐 SkyPilot 技能：跨20多家服务商的多云编排，支持竞价实例恢复\n- ✨ 新增基础设施类别（2项技能——无服务器GPU和多云编排）\n- 📝 在6个文件中新增约2,500行文档\n- **共66项技能**（距离70项技能目标还有94%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月25日 - v0.8.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 新增5项高优先级技能：HQQ、GGUF、Phoenix、AutoGPT、Stable Diffusion\n- ⚡ HQQ 技能：无需校准数据的半二次量化，支持多后端\n- 📦 GGUF 技能：llama.cpp量化格式，K-quant方法，支持CPU\u002FMetal推理\n- 👁️ Phoenix 技能：开源AI可观测性工具，结合OpenTelemetry追踪和LLM评估\n- 🤖 AutoGPT 技能：自主AI代理平台，配备可视化工作流构建器\n- 🎨 Stable Diffusion 技能：通过Diffusers、SDXL、ControlNet和LoRA实现文生图\n- 📝 在15个文件中新增约9,000行文档\n- **共64项技能**（距离70项技能目标还有91%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月25日 - v0.7.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 新增5项高优先级技能：PEFT、CrewAI、Qdrant、AWQ、LangSmith\n- ✨ 新增可观测性类别，其中LangSmith用于LLM追踪和评估\n- 🎯 PEFT 技能：参数高效微调技术，包括LoRA、QLoRA、DoRA等25+种方法\n- 🤖 CrewAI 技能：基于角色协作的多智能体编排\n- 🔍 Qdrant 技能：高性能Rust向量检索，支持混合过滤\n- ⚡ AWQ 技能：感知激活的4位量化，精度损失极小\n- 📝 在15个文件中新增约8,000行文档\n- **共59项技能**（距离70项技能目标还有84%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月15日 - v0.6.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 📊 新增3项全面的MLOps技能：Weights & Biases、MLflow、TensorBoard\n- ✨ 新增MLOps类别（3项技能——实验跟踪、模型注册、可视化）\n- 📝 在13个文件中新增约10,000行文档\n- 🔧 全面覆盖：实验跟踪、超参数搜索、模型注册、性能分析、嵌入可视化\n- **共54项技能**（距离70项技能目标还有77%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月12日 - v0.5.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎯 新增4项全面的提示工程技能：DSPy、Instructor、Guidance、Outlines\n- ✨ 新增提示工程类别（4项技能——DSPy、Instructor、Guidance、Outlines）\n- 📝 在16个文件中新增约10,000行文档\n- 🔧 全面覆盖：声明式编程、结构化输出、约束生成以及基于FSM的生成\n- **共47项技能**（距离70项技能目标还有67%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月9日 - v0.4.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🤖 新增11项全面技能：LangChain、LlamaIndex、Chroma、FAISS、Sentence Transformers、Pinecone、CLIP、Whisper、LLaVA\n- ✨ 新增代理类别（2项技能——LangChain、LlamaIndex）\n- 🔍 新增RAG类别（4项技能——Chroma、FAISS、Sentence Transformers、Pinecone）\n- 🎨 新增多模态类别（3项技能——CLIP、Whisper、LLaVA）\n- 📝 新增约15,000行文档\n- **共43项技能**（距离70项技能目标还有61%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月8日 - v0.3.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🚀 新增8项全面技能：TensorRT-LLM、llama.cpp、SGLang、GPTQ、HuggingFace Tokenizers、SentencePiece、Ray Data、NeMo Curator\n- ⚡ 完成了推理与服务类别（4\u002F4项技能）\n- 🔤 新增分词类别（2项技能）\n- 📊 新增数据处理类别（2项技能）\n- 📝 在30个文件中新增9,617行文档\n- **共32项技能**（距离70项技能目标还有45%）\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月6日 - v0.2.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 新增来自 GitHub 的 10 项技能（Megatron-Core、Lightning、Ray Train 等）\n- 完善了技能结构，并提供了全面的参考文献\n- 制定了包含 70 项技能的战略路线图\n- 添加了贡献指南\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>\u003Cb>2025年11月3日 - v0.1.0\u003C\u002Fb>\u003C\u002Fsummary>\n\n- 🎉 初始发布，包含 5 项微调技能\n\n\u003C\u002Fdetails>\n\n\n\n## 社区\n\n加入我们的社区，及时获取最新动态、提问并与其他 AI 研究人员交流：\n\n- **[SkillEvolve 元技能](https:\u002F\u002Fgithub.com\u002FSkill-Evolve\u002Fmeta-skill)** - 将您的智能体连接到社区的集体智慧。它会记录在会话中发现的技术，并将其整理为精选技能后共享。\n- **[Slack 社区](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Forchestrarese-efu1990\u002Fshared_invite\u002Fzt-3iu6gr8io-zJvpkZTPToEviQ9KFZvNSg)** - 与团队及其他用户交流\n- **[Twitter\u002FX](https:\u002F\u002Fx.com\u002Forch_research)** - 关注以获取最新资讯和公告\n- **[LinkedIn](https:\u002F\u002Fwww.linkedin.com\u002Fcompany\u002Forchestra-research\u002F)** - 进行专业联系\n\n## 星标历史\n\n\u003Ca href=\"https:\u002F\u002Fstar-history.com\u002F#orchestra-research\u002FAI-research-SKILLs&Date\">\n \u003Cpicture>\n   \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png&theme=dark\" \u002F>\n   \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png\" \u002F>\n   \u003Cimg alt=\"星标历史图表\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_readme_5dcd994dd7e3.png\" \u002F>\n \u003C\u002Fpicture>\n\u003C\u002Fa>","# AI-Research-SKILLs 快速上手指南\n\nAI-Research-SKILLs 是一个全面的开源技能库，旨在赋能 AI Agent 自主完成从文献调研、创意生成、实验执行到论文撰写的全流程 AI 研究任务。该库包含 87 项专业技能，覆盖 22 个核心领域（如微调、分布式训练、推理优化等）。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (Windows 下部分功能可能通过复制而非软链接实现)。\n*   **Node.js**：需安装 Node.js (推荐 LTS 版本)，因为安装工具基于 `npx` 运行。\n*   **AI 编码助手**：推荐使用支持 MCP 或插件系统的 AI 编程助手（如 Claude Code、Cursor 等），以便 Agent 能直接调用这些技能。\n*   **网络环境**：由于需要从 npm 仓库和 GitHub 拉取资源，国内用户建议配置合适的网络代理或使用国内镜像源加速 Node 包下载。\n\n## 安装步骤\n\n本项目提供交互式安装器，可自动检测已安装的编码助手并部署技能。\n\n### 方式一：交互式安装（推荐）\n\n这是最简单的安装方式，适用于人类开发者初始化环境。在终端运行以下命令：\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n**安装器将自动执行以下操作：**\n1.  自动检测系统中已安装的 AI 编码助手。\n2.  将所有 87 项技能安装至 `~\u002F.orchestra\u002Fskills\u002F` 目录，并为每个助手创建软链接（Windows 下为复制）。\n3.  提供多种安装选项：安装全部技能、快速启动包、按类别安装或单独安装特定技能。\n4.  支持后续的技能更新与卸载管理。\n\n### 方式二：通过 Claude Code Marketplace 安装\n\n如果您主要使用 **Claude Code CLI**，可以直接通过插件市场按需安装特定类别的技能：\n\n```bash\n# 添加 Orchestra Research 市场源\n\u002Fplugin marketplace add orchestra-research\u002FAI-research-SKILLs\n\n# 按类别安装示例\n\u002Fplugin install fine-tuning@ai-research-skills        # 安装微调类技能 (Axolotl, LLaMA-Factory 等)\n\u002Fplugin install post-training@ai-research-skills      # 安装后训练类技能 (TRL, GRPO, OpenRLHF 等)\n\u002Fplugin install inference-serving@ai-research-skills  # 安装推理服务类技能 (vLLM, TensorRT-LLM 等)\n```\n\n### 常用管理命令\n\n```bash\n# 查看已安装的技能列表\nnpx @orchestra-research\u002Fai-research-skills list\n\n# 更新已安装的技能到最新版本\nnpx @orchestra-research\u002Fai-research-skills update\n```\n\n## 基本使用\n\n安装完成后，AI Agent 即可调用这些技能自主开展研究工作。\n\n### 1. 启动自主研究模式\n\n对于 AI Agent，只需引导其阅读欢迎文档即可自动加载所有技能并开始工作。您可以在对话中发送以下指令：\n\n```text\nRead https:\u002F\u002Fwww.orchestra-research.com\u002Fai-research-skills\u002Fwelcome.md and follow the instructions to install and use AI Research Skills.\n```\n\n这将激活 **Autoresearch**（自主研究编排层），该层采用双循环架构（内部优化 + 外部综合），能够根据研究阶段自动路由到具体的领域技能（如文献综述、代码实现、实验运行、论文写作）。\n\n### 2. 调用特定领域技能\n\n您也可以直接在项目中请求 Agent 使用特定技能解决具体问题。例如，要求进行模型微调或推理优化：\n\n*   **微调示例**：\n    > \"使用 `Axolotl` 技能帮我配置一个基于 Llama-3 的 QLoRA 微调任务，数据集格式为 Alpaca。\"\n    \n*   **推理优化示例**：\n    > \"调用 `vLLM` 技能，生成用于高并发推理服务的 Docker 部署脚本，并启用 PagedAttention。\"\n\n*   **机械可解释性示例**：\n    > \"利用 `TransformerLens` 技能，分析模型在特定提示词下的注意力头激活情况。\"\n\n### 3. 技能覆盖范围\n\n系统内置的 87 项技能涵盖以下关键领域，Agent 可根据任务需求自动匹配：\n\n*   **核心编排**: Autoresearch (全流程自动化)\n*   **模型架构**: LitGPT, Mamba, RWKV, NanoGPT, TorchTitan\n*   **训练与微调**: Axolotl, LLaMA-Factory, Unsloth, PEFT\n*   **后训练 (RLHF)**: TRL, GRPO, OpenRLHF, SimPO, verl\n*   **推理与服务**: vLLM, TensorRT-LLM, llama.cpp, SGLang\n*   **分布式训练**: DeepSpeed, FSDP, Megatron-Core\n*   **其他领域**: 数据清洗、安全对齐、RAG、多模态处理、MLOps 等共 22 个大类。\n\n通过上述步骤，您即可快速搭建起一个具备专业 AI 研究能力的智能体环境。","某初创实验室的算法团队正试图复现一篇最新的分布式大模型训练论文，并在此基础上进行微调实验以验证新假设。\n\n### 没有 AI-Research-SKILLs 时\n- 研究人员需花费数天手动查阅 Megatron-LM、vLLM 等框架的官方文档及 GitHub Issues，排查环境配置与算子兼容性问题。\n- 在从“想法”到“实验”的转化中，因缺乏标准化的工程模板，导致代码重构频繁，难以快速搭建可复现的分布式训练流水线。\n- 团队精力被基础设施调试大量占用，原本用于验证核心假设和设计创新实验的时间被严重压缩，研发周期被迫拉长。\n- 实验结果记录分散，缺乏统一的评估与观测技能支持，导致最终撰写技术报告时数据追溯困难，逻辑链条断裂。\n\n### 使用 AI-Research-SKILLs 后\n- AI 代理直接调用内置的“分布式训练”与“微调”技能包，自动匹配生产级代码模板，瞬间完成复杂框架的环境部署与接口对接。\n- 通过\"Autoresearch\"技能编排，系统自主将文献调研转化为可执行代码，实现了从创意构思到实验运行的端到端自动化闭环。\n- 研究人员只需关注高阶策略，AI-Research-SKILLs 接管了繁琐的工程实现，使假设验证效率提升数倍，加速科学发现进程。\n- 依托内置的“评估”与“可观测性”技能，实验数据自动归档并生成结构化分析，为高质量论文写作提供了坚实的数据支撑。\n\nAI-Research-SKILLs 将科研人员从重复的基础设施调试中解放出来，真正赋予 AI 代理独立执行从灵感萌芽到论文产出全生命周期研究的能力。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOrchestra-Research_AI-Research-SKILLs_99088a05.png","Orchestra-Research","Orchestra Research","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOrchestra-Research_bea54753.png","",null,"https:\u002F\u002Fgithub.com\u002FOrchestra-Research",[79,83,86,90,94,98,102],{"name":80,"color":81,"percentage":82},"TeX","#3D6117",62.8,{"name":84,"color":76,"percentage":85},"BibTeX Style",18.7,{"name":87,"color":88,"percentage":89},"JavaScript","#f1e05a",9.9,{"name":91,"color":92,"percentage":93},"TypeScript","#3178c6",5.3,{"name":95,"color":96,"percentage":97},"Python","#3572A5",2.1,{"name":99,"color":100,"percentage":101},"HTML","#e34c26",1,{"name":103,"color":104,"percentage":105},"Makefile","#427819",0.1,6402,499,"2026-04-08T19:46:43","MIT","Linux, macOS, Windows","未说明 (具体需求取决于所选用的技能模块，如分布式训练或大模型推理通常需要 NVIDIA GPU)","未说明",{"notes":114,"python":112,"dependencies":115},"该工具是一个包含 87 个技能的库，通过 npx 命令安装。它本身不强制特定的硬件配置，但具体的技能（如分布式训练、后训练、推理等）依赖底层框架（如 DeepSpeed, vLLM, Megatron-Core 等），因此实际运行环境需求需根据用户选择调用的具体技能而定。安装器支持自动检测编码代理，并在 Windows 上使用文件复制而非符号链接。",[116,117,118,119,120,121,122,123],"npx (Node.js)","Megatron-LM","vLLM","TRL","DeepSpeed","PyTorch","HuggingFace Transformers","Ray",[125,13,14,35,15],"其他",[127,128,129,130,131,132,133,134,135,136,137,138,139,140],"ai","ai-research","claude","claude-code","claude-skills","codex","gemini","gpt-5","grpo","huggingface","machine-leanring","megatron","skills","vllm","2026-03-27T02:49:30.150509","2026-04-09T10:24:48.369611",[144,149,154,159,164,169,174],{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},26055,"如何将 A-Evolve 技能归类到仓库中？","建议将 A-Evolve 放置在 `14-agents\u002F` 目录下，而不是创建新的顶级类别或放在 `16-prompt-engineering\u002F` 中。理由是 `14-agents\u002F` 包含 AutoGPT、CrewAI 等代理框架，A-Evolve 作为优化这些代理的工具，能形成完整的“代理生命周期”类别。而 `16-prompt-engineering\u002F` 主要关注结构化输出和提示控制，A-Evolve 操作的是更高层级的代理工作空间（提示 + 技能 + 记忆 + 工具），因此更适合归入代理框架类。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F44",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},26056,"ray-data 和 ray-train 技能的 YAML frontmatter 无效怎么办？","这是因为依赖项中包含未加引号的括号值导致 YAML 解析失败。解决方法是将依赖项字符串用双引号括起来，例如将 `dependencies: [ray[data], pyarrow, pandas]` 修改为 `dependencies: [\"ray[data]\", pyarrow, pandas]`。该问题已在 PR #13 中修复。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F12",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},26057,"是否支持 OpenCode？如何安装？","是的，从 npm 包 v1.1.0 版本开始已全面支持 OpenCode。安装时运行 `npx @orchestra-research\u002Fai-research-skills`，安装程序会自动检测 `~\u002F.config\u002Fopencode` 路径下的 OpenCode 安装，并将所有 AI 研究技能安装到其技能目录中。它可以与 Claude Code、Cursor 等其他代理无缝共存。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F10",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},26058,"这些技能是否适用于 Clawdbot？","虽然尚未进行广泛测试，但理论上应该适用。您可以尝试直接提示 Clawdbot 使用这些技能进行 AI 研究。目前官方已添加了对 Clawdbot 的支持。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F8",{"id":165,"question_zh":166,"answer_zh":167,"source_url":168},26059,"如何通过 Claude Marketplace 安装单个技能？","首先需要通过命令 `\u002Fplugin marketplace add zechenzhangAGI\u002FAI-research-SKILLs` 将市场添加到 Claude Code。之后可以使用 CLI 直接安装单个技能，例如：`\u002Fplugin install serving-llms-vllm@ai-research-skills`、`\u002Fplugin install grpo-rl-training@ai-research-skills` 或 `\u002Fplugin install langchain@ai-research-skills`。仓库目前提供约 70 个技能，涵盖模型架构、微调、数据处理、安全等多个类别。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F1",{"id":170,"question_zh":171,"answer_zh":172,"source_url":173},26060,"如何在本地项目中安装技能而不是全局安装？","现已支持本地项目安装。许多主流编码代理支持将技能安装在本地，用户可以根据不同项目的需求安装不同的技能。该功能已通过相关 PR 修复并上线。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F21",{"id":175,"question_zh":176,"answer_zh":177,"source_url":178},26061,"在 Windows PowerShell 上使用 npx 安装失败怎么办？","在 Windows 上安装失败通常是因为系统不识别 `cp` 命令。临时解决方案是使用 Git Bash 运行安装程序。根本解决办法是将安装脚本中的 `cp -r` shell 调用替换为 Node.js 原生的 `fs.cpSync` 方法，以实现跨平台兼容。","https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Fissues\u002F15",[180,185,190,195,200,205,210,215],{"id":181,"version":182,"summary_zh":183,"released_at":184},163463,"v1.4.0","## 新增内容\n\n**Autoresearch** — 一项核心编排技能，使 AI 代理能够自主开展端到端的研究项目。\n\n### Autoresearch 技能\n- **双环架构**：内环（快速实验，可量化结果）+ 外环（综合、反思、决策方向）\n- **自动路由至所有 85 种领域技能** — 代理无需知道该使用哪种技能\n- **持续自主运行**：强制执行 `\u002Floop 10m`（Claude Code）或 cron 任务（OpenClaw）\n- **研究汇报**：生成包含优化轨迹图的 HTML\u002FPDF 进度报告\n- **项目记忆**：`findings.md` 中的“经验与限制”可在不同会话间持久化知识\n- **结构化工作空间**：包括 `research-state.yaml`、`findings.md`、`research-log.md`、`literature\u002F`、`experiments\u002F`、`src\u002F`、`data\u002F` 和 `to_human\u002F`\n- **兼容任何计算资源**：本地 GPU、集群作业提交、云端环境或仅 CPU 环境均可运行\n\n### 演示论文（由 autoresearch 生成）\n- **[归一化异质性 → LoRA 脆弱性](https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Ftree\u002Fmain\u002Fdemos\u002Fautoresearch-norm-heterogeneity)**：代理从 ETF 重叠性研究的无结果转向发现归一化协方差作为因果预测因子（r=-0.99）\n- **[强化学习算法脑部扫描](https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-Research-SKILLs\u002Ftree\u002Fmain\u002Fdemos\u002Fautoresearch-rl-brain-scan)**：代理发现 DPO 是一种秩 1 的扰动，协调 GRPO\u002FTRL + SAELens\u002FTransformerLens + 论文撰写工作\n\n### 其他改进\n- **WELCOME.md**：冷启动引导 — 一个 URL 即可从零开始实现自主研究\n- **对代理友好的安装路径**：在 `npx` 命令旁附上“阅读 WELCOME.md 并按说明操作”\n- **Windows 支持**：当开发者模式不可用时，符号链接将回退为复制操作\n- **研究创意构思**（21-research-ideation）已加入 npm 安装包分类\n- **共 86 种技能**，覆盖 **22 个类别** — 完整覆盖研究全生命周期\n\n## 安装 \u002F 更新\n\n```bash\n# 供人类使用 — 交互式安装程序\nnpx @orchestra-research\u002Fai-research-skills\n\n# 供 AI 代理使用 — 直接指向欢迎文档\n请阅读 https:\u002F\u002Fwww.orchestra-research.com\u002Fai-research-skills\u002Fwelcome.md\n\n# 一条命令即可安装所有内容\nnpx @orchestra-research\u002Fai-research-skills install --all\n```","2026-03-16T20:28:59",{"id":186,"version":187,"summary_zh":188,"released_at":189},163464,"v1.3.6","## 新增功能\n\n- **本地项目安装**（`--local` 标志）：按项目而非全局安装技能。不同项目可以拥有不同的技能集。技能会被复制到项目内的代理目录中，从而可以提交到版本控制系统以供团队共享。\n- **本地代理路径配置**：例如，Cursor 在本地使用 `.cursor\u002Frules\u002F` 目录。\n- **锁定文件跟踪**：通过 `.orchestra-skills.json` 文件跟踪本地安装情况。\n- **交互式菜单**：新增“安装到项目（本地）”选项。\n- **OIDC 受信发布**：切换为纯 OIDC 认证进行 npm 发布（无需令牌），并提供 `--provenance` 参数以增强供应链安全。\n\n## 安装 \u002F 更新\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n## 本地安装\n\n```bash\n# 将技能安装到当前项目\nnpx @orchestra-research\u002Fai-research-skills install --local\n\n# 列出本地已安装的技能\nnpx @orchestra-research\u002Fai-research-skills list --local\n```","2026-02-08T21:30:59",{"id":191,"version":192,"summary_zh":193,"released_at":194},163465,"v1.2.0","## 新增功能\n\n- **OpenClaw 支持**：自动检测并安装技能到 `~\u002F.openclaw\u002Fskills\u002F`\n- **共享 `.agents\u002F` 目录**：安装到 `~\u002F.agents\u002Fskills\u002F`，这是一个多个智能体共享的公共文件夹\n- 现在共支持 **8 个智能体**：Claude Code、OpenCode、OpenClaw、Cursor、Codex、Gemini CLI、Qwen Code，以及共享的 `.agents\u002F`\n\n## 安装 \u002F 更新\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```","2026-02-06T06:30:54",{"id":196,"version":197,"summary_zh":198,"released_at":199},163466,"v1.1.0","## 🎉 新功能\n\n### OpenCode 支持\n新增对 [OpenCode](https:\u002F\u002Fopencode.ai) 的支持——这款全新的 AI 编码助手！\n\n- ✅ 自动检测 `~\u002F.config\u002Fopencode` 目录下的 OpenCode 安装\n- ✅ 将技能安装到 OpenCode 的技能目录中\n- ✅ 可与其他智能体（Claude Code、Cursor 等）协同工作\n\n### 变更\n- 将 OpenCode 加入到支持的智能体列表中\n- 软件包更新至 v1.1.0\n- 优化了文档，使其更准确地反映当前支持的智能体\n- 现在支持 **6 智能体**：Claude Code、OpenCode、Cursor、Codex、Gemini CLI、Qwen Code\n\n### 安装\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n安装程序会自动检测 OpenCode 并完成技能安装！\n\n---\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-research-SKILLs\u002Fcompare\u002Fv1.0.3...v1.1.0\n\n关闭 #10","2026-01-31T23:06:34",{"id":201,"version":202,"summary_zh":203,"released_at":204},163467,"v0.15.0","## 新增内容\n\n### 🏢 官方 Orchestra 研究组织\n- 仓库已迁移至 [Orchestra-Research](https:\u002F\u002Fgithub.com\u002FOrchestra-Research) 组织\n- 所有链接已更新为新组织地址\n- GitHub 自动重定向旧 URL\n\n### 🎬 宣传视频与演示 GIF\n- 在 README 页眉中添加了动态演示 GIF\n- 使用 Remotion 制作了展示安装流程的宣传视频\n- 采用苹果风格设计，搭配简洁流畅的动画效果\n\n### 📦 npm 包 v1.0.3\n- 更新仓库 URL 至 Orchestra-Research 组织\n- 包名：`npx @orchestra-research\u002Fai-research-skills`\n\n---\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FOrchestra-Research\u002FAI-research-SKILLs\u002Fcompare\u002Fv0.14.0...v0.15.0","2026-01-29T20:33:27",{"id":206,"version":207,"summary_zh":208,"released_at":209},163468,"v0.14.0","## 📦 适用于所有编码助手的 npm 包\n\n只需一条命令，即可将 AI 研究技能安装到**任何编码助手**：\n\n```bash\nnpx @orchestra-research\u002Fai-research-skills\n```\n\n### 支持的助手\n- Claude Code\n- Cursor  \n- Codex (OpenAI)\n- Gemini CLI\n- Qwen Code\n\n### 功能特性\n- **交互式安装程序**：按类别、快速入门或单独选择技能进行安装\n- **自动检测**：可自动识别已安装的编码助手\n- **更新**：仅更新已安装的技能至最新版本\n- **卸载**：可移除全部技能或选择性地卸载特定技能\n\n---\n\n## 🎯 最新动态\n\n### npm 包\n- `@orchestra-research\u002Fai-research-skills` v1.0.2 已发布至 npm\n- 技能存储在 `~\u002F.orchestra\u002Fskills\u002F` 目录下，并为每个助手创建符号链接\n- 可与 Claude Code 市场并行使用（作为替代方法）\n\n### 总技能数 82 项（新增 1 项）\n- **TorchTitan** 新增至模型架构分类——基于 PyTorch 的原生分布式训练工具，适用于 Llama 3.1 模型\n- **Megatron-Core** 已移至分布式训练分类，该分类现包含 6 项技能\n- **后训练优化** 确认为 8 项技能：TRL、GRPO、OpenRLHF、SimPO、verl、slime、miles 和 torchforge\n\n### 文档更新\n- 更新 README，明确以 npm 作为主要安装方式\n- 保留 Claude Code 市场作为备选方案\n- 校正了所有技能数量\n\n---\n\n## 📊 数据统计\n\n| 指标         | 数值   |\n|--------------|--------|\n| 总技能数     | 82     |\n| 分类数量     | 20     |\n| 支持的助手数 | 5      |\n| npm 包版本   | v1.0.2 |\n\n---\n\n## 快速入门\n\n```bash\n# 安装到所有检测到的助手\nnpx @orchestra-research\u002Fai-research-skills\n\n# 或使用 CLI 命令\nnpx @orchestra-research\u002Fai-research-skills list\nnpx @orchestra-research\u002Fai-research-skills update\n```\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FAI-research-SKILLs\u002Fcompare\u002Fv0.13.0...v0.14.0","2026-01-29T06:05:12",{"id":211,"version":212,"summary_zh":213,"released_at":214},163469,"v0.13.0","# 77项技能，助你引爆AI研究代理🚀\n\n最全面的开源AI研究工程技能库——现新增**ML论文写作**功能及**精选演示图库**。\n\n## 🆕 新增内容\n\n### 📝 ML论文写作技能（第20类！）\n**通过提示你的AI代理，撰写可直接投稿顶级ML会议的论文。**\n\n- 针对 **NeurIPS、ICML、ICLR、ACL、AAAI、COLM**\n- 写作理念源自 **Neel Nanda、Sebastian Farquhar、Gopen & Swan、Zachary Lipton、Ethan Perez**\n- **引用验证工作流**——你的代理绝不会“幻觉”出不存在的参考文献\n- 适用于6大会议的**LaTeX模板**（开箱即用）\n- 4种完整工作流：代码库→论文、引用管理、模板应用、会议格式转换\n\n### 🎪 精选演示图库\n**亲眼见证技能的实际效果与真实成果。**\n\n| 演示 | 功能描述 |\n|------|----------|\n| [NeMo Eval: GPQA基准测试](https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FNemo-Eval-Skill-Demo) | 比较Llama 8B\u002F70B\u002F405B在研究生级别科学任务上的表现 |\n| [LoRA无悔版](https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002FLLM-with-Orchestra) | 仅需简单提示代理，即可复现ML论文中的实验结果 |\n\n---\n\n## 📊 数据概览\n\n| 指标 | 数值 |\n|--------|-------|\n| **总技能数** | 77 |\n| **类别数量** | 20 |\n| **文档行数** | ~12万 |\n| **LaTeX模板** | 6个会议 |\n\n## 🏆 亮点\n\n- **模型架构**：LitGPT、Mamba、NanoGPT、RWKV、Megatron-Core\n- **微调工具**：Axolotl、LLaMA-Factory、Unsloth、PEFT\n- **后训练方法**：TRL、GRPO、OpenRLHF、SimPO\n- **推理框架**：vLLM、TensorRT-LLM、llama.cpp、SGLang\n- **可解释性工具**：TransformerLens、SAELens、NNSight、pyvene\n- **还有50+项……**\n\n---\n\n## 🚀 快速入门\n\n```bash\n# 添加至Claude Code市场\n\u002Fplugin marketplace add zechenzhangAGI\u002FAI-research-SKILLs\n\n# 安装某一类别\n\u002Fplugin install fine-tuning@ai-research-skills\n\u002Fplugin install post-training@ai-research-skills\n\u002Fplugin install ml-paper-writing@ai-research-skills\n```\n\n---\n\n## 🔗 相关链接\n\n- [📖 完整文档](https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FAI-research-SKILLs)\n- [🎪 演示图库](https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FAI-research-SKILLs\u002Ftree\u002Fmain\u002Fdemos)\n- [🎥 视频：用AI代理复现论文](https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=X0DoLYfXl5I)\n- [📝 博客：使用Orchestra进行LLM微调](https:\u002F\u002Fwww.orchestra-research.com\u002Fperspectives\u002FLLM-with-Orchestra)\n\n---\n\n**如果你觉得这个项目有用，请给它点个星⭐吧！**","2026-01-23T02:19:07",{"id":216,"version":217,"summary_zh":218,"released_at":219},163470,"v0.10.0","# 🎉 v0.10.0 - 70项技能已就绪！\n\nAI研究工程技能库现已达成70项技能的里程碑！\n\n## 🆕 本次发布的新技能\n\n- **Lambda Labs** - 预留\u002F按需GPU云，配备H100\u002FA100显卡、持久化文件系统及一键式集群\n- **Segment Anything (SAM)** - Meta推出的零样本图像分割工具，支持通过点、框或掩码进行操作\n- **BLIP-2** - 基于Q-Former的视觉-语言预训练模型，可用于图像字幕生成与视觉问答\n- **AudioCraft** - Meta推出的MusicGen\u002FAudioGen，实现文本到音乐和文本到声音的生成\n\n## 📊 技能库统计\n\n- 涵盖18个类别，共计70项技能\n- 约115,000行文档\n- 58项金标准技能，附有详尽参考文献\n- 完整覆盖AI研究全生命周期\n\n## 📦 类别概览\n\n| 类别 | 数量 | 亮点 |\n|----------|-------|------------|\n| 模型架构 | 5 | Megatron-Core、LitGPT、Mamba |\n| 微调 | 4 | Axolotl、PEFT、Unsloth |\n| 分布式训练 | 5 | DeepSpeed、FSDP、Ray Train |\n| 基础设施 | 3 | Modal、SkyPilot、Lambda Labs |\n| 优化技术 | 6 | Flash Attention、GPTQ、AWQ |\n| 推理与服务 | 4 | vLLM、TensorRT-LLM、SGLang |\n| 代理 | 4 | LangChain、LlamaIndex、CrewAI |\n| RAG | 5 | Chroma、FAISS、Pinecone、Qdrant |\n| 多模态 | 7 | CLIP、Whisper、LLaVA、SAM、BLIP-2、AudioCraft |\n| 新兴技术 | 6 | MoE、模型融合、长上下文处理 |\n\n## ⚠️ 预发布说明\n\n本版本为预发布版。各项技能功能完备，但仍在生产环境中接受实战检验。欢迎反馈！\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FzechenzhangAGI\u002FAI-research-SKILLs\u002Fcommits\u002Fv0.10.0","2025-11-25T23:31:02"]