[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-Imbad0202--academic-research-skills":3,"tool-Imbad0202--academic-research-skills":65},[4,18,32,41,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[15,16,27,28,13,29,30,14,31],"视频","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":38,"last_commit_at":39,"category_tags":40,"status":17},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[30,16,29],{"id":42,"name":43,"github_repo":44,"description_zh":45,"stars":46,"difficulty_score":38,"last_commit_at":47,"category_tags":48,"status":17},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[29,15,16,14],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":10,"last_commit_at":55,"category_tags":56,"status":17},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[13,15,14,30,29],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":17},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75916,"2026-04-19T10:54:02",[30,15,14,29],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":79,"owner_location":79,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":24,"env_os":94,"env_gpu":95,"env_ram":94,"env_deps":96,"category_tags":102,"github_topics":103,"view_count":24,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":144},9735,"Imbad0202\u002Facademic-research-skills","academic-research-skills","Academic Research Skills for Claude Code: research → write → review → revise → finalize","academic-research-skills 是一套专为 Claude Code 设计的学术科研辅助技能包，覆盖从文献调研、初稿撰写、逻辑审查到最终定稿的全流程。它并非旨在替代研究者自动完成论文，而是作为智能副驾，承担查找参考文献、格式化引用、验证数据一致性等繁琐工作，让使用者能专注于核心思考，如定义研究问题、选择方法论及阐述核心观点。\n\n该工具主要解决了完全自动化 AI 科研中常见的幻觉、方法捏造及逻辑漏洞等痛点，坚持“人在回路”的理念，确保学术严谨性。它特别适合高校研究人员、研究生及需要撰写高质量学术论文的学者使用。\n\n其技术亮点包括：由 13 个智能体组成的深度调研团队，支持苏格拉底式引导与 PRISMA 系统综述；独特的“风格校准”功能可学习用户过往文风，避免机器生成感；内置多重完整性检查门控，能有效识别并阻断 AI 常见的研究失败模式；同时集成 Semantic Scholar API 进行引文核实，并利用多模型交叉验证提升结果可靠性。通过人机协作，academic-research-skills 致力于提升学术写作的质量与效率，而非单纯追求自动化速度。","# Academic Research Skills for Claude Code\n\n[![Version](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-v3.3.6-blue)](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Freleases\u002Ftag\u002Fv3.3.6)\n[![License: CC BY-NC 4.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-CC%20BY--NC%204.0-lightgrey)](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F)\n[![Sponsor](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fsponsor-Buy%20Me%20a%20Coffee-orange?logo=buy-me-a-coffee)](https:\u002F\u002Fbuymeacoffee.com\u002Fcrucify020v)\n\n[繁體中文版](README.zh-TW.md)\n\nA comprehensive suite of Claude Code skills for academic research, covering the full pipeline from research to publication.\n\n> **AI is your copilot, not the pilot.** This tool won't write your paper for you. It handles the grunt work — hunting down references, formatting citations, verifying data, checking logical consistency — so you can focus on the parts that actually require your brain: defining the question, choosing the method, interpreting what the data means, and writing the sentence after \"I argue that.\"\n>\n> Unlike a humanizer, this tool doesn't help you hide the fact that you used AI. It helps you write better. Style Calibration learns your voice from past work. Writing Quality Check catches the patterns that make prose feel machine-generated. The goal is quality, not cheating.\n\n### Why human-in-the-loop, not full automation?\n\nLu et al. (2026, *Nature* 651:914-919) built **The AI Scientist** — the first fully autonomous AI research system to publish a paper through blind peer review at a top-tier ML venue (ICLR 2025 workshop, score 6.33\u002F10 vs workshop average 4.87). Their Limitations section enumerates the failure modes that any fully-autonomous AI research pipeline inherits: implementation bugs, hallucinated results, shortcut reliance, bug-as-insight reframing, methodology fabrication, frame-lock, citation hallucinations.\n\nARS is built on the premise that **a human researcher augmented by AI avoids these failure modes better than either alone**. Stage 2.5 and Stage 4.5 integrity gates run a 7-mode blocking checklist (see [`academic-pipeline\u002Freferences\u002Fai_research_failure_modes.md`](academic-pipeline\u002Freferences\u002Fai_research_failure_modes.md)); the reviewer offers an opt-in calibration mode that measures its own FNR\u002FFPR against a user-supplied gold set.\n\nv3.3 was inspired by [**PaperOrchestra**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.05018) (Song, Song, Pfister & Yoon, 2026, Google): Semantic Scholar API verification, anti-leakage protocol, VLM figure verification, and score trajectory tracking.\n\n---\n\n## Architecture & pipeline\n\n**👉 [docs\u002FARCHITECTURE.md](docs\u002FARCHITECTURE.md)** — the full pipeline view: flow diagram, stage-by-stage matrix, data-access flow, skill dependency graph, quality gates, and mode list.\n\nThe architecture doc supersedes the sprawling pipeline description that used to live here. Everything about *what runs in which stage* now lives in one place.\n\n## Setup & installation\n\n**👉 [docs\u002FSETUP.md](docs\u002FSETUP.md)** — install Claude Code, set up API keys, optional Pandoc\u002Ftectonic for DOCX\u002FPDF, cross-model verification (`ARS_CROSS_MODEL`), and four installation methods including claude.ai Project import.\n\n## Performance & cost\n\n**👉 [docs\u002FPERFORMANCE.md](docs\u002FPERFORMANCE.md)** — per-mode token budgets, full-pipeline estimate (~$4–6 for a 15k-word paper), and recommended Claude Code settings (Skip Permissions; Agent Team optional).\n\n## Guides & articles\n\n- [Academic Writing Shouldn't Be a Solo Act](https:\u002F\u002Fopen.substack.com\u002Fpub\u002Fedwardwu223235\u002Fp\u002Facademic-writing-shouldnt-be-a-solo?r=4dczl&utm_medium=ios) — full pipeline walkthrough (English)\n- [學術寫作不該是一個人的事：一套開源 AI 協作工具如何改變研究者的工作流](https:\u002F\u002Fopen.substack.com\u002Fpub\u002Fedwardwu223235\u002Fp\u002Fai?r=4dczl&utm_medium=ios) — 完整使用指南（繁體中文）\n\n---\n\n## Features at a glance\n\n- **Deep Research** — 13-agent research team with Socratic guided mode, PRISMA systematic review, intent detection, dialogue health monitoring, optional cross-model DA, Semantic Scholar API verification.\n- **Academic Paper** — 12-agent paper writing with Style Calibration, Writing Quality Check, LaTeX hardening, visualization, revision coaching, citation conversion, anti-leakage protocol, and VLM figure verification.\n- **Academic Paper Reviewer** — 7-agent multi-perspective peer review with 0–100 quality rubrics (EIC + 3 dynamic reviewers + Devil's Advocate), concession threshold protocol, attack intensity preservation, optional cross-model DA critique \u002F calibration, R&R traceability matrix, read-only constraint.\n- **Academic Pipeline** — 10-stage pipeline orchestrator with adaptive checkpoints, claim verification, Material Passport, optional `repro_lock`, optional cross-model integrity verification, mid-conversation reinforcement, and score trajectory tracking.\n- **Data Access Level Metadata** (v3.3.2+) — every skill declares `data_access_level` (`raw` \u002F `redacted` \u002F `verified_only`); enforced by `scripts\u002Fcheck_data_access_level.py`. Pattern adapted from Anthropic's automated-w2s-researcher (2026). See [`shared\u002Fground_truth_isolation_pattern.md`](shared\u002Fground_truth_isolation_pattern.md).\n- **Task Type Annotation** (v3.3.2+) — every skill declares `task_type` (`open-ended` or `outcome-gradable`). All current ARS skills are `open-ended`.\n- **Benchmark Report Schema** (v3.3.5+) — JSON Schema + lint for honest benchmark comparisons. See [`shared\u002Fbenchmark_report_pattern.md`](shared\u002Fbenchmark_report_pattern.md).\n- **Artifact Reproducibility Lockfile** (v3.3.5+) — optional `repro_lock` sub-block on Material Passport. **Configuration documentation, not replay guarantee** — LLM outputs are not byte-reproducible. See [`shared\u002Fartifact_reproducibility_pattern.md`](shared\u002Fartifact_reproducibility_pattern.md).\n\n---\n\n## Showcase: real pipeline output\n\nSee the complete artifacts from a real 10-stage pipeline run — peer review reports, integrity verification reports, and the final paper:\n\n**[Browse all pipeline artifacts →](examples\u002Fshowcase\u002F)**\n\n| Artifact | Description |\n|---|---|\n| [Final Paper (EN)](examples\u002Fshowcase\u002Ffull_paper_apa7.pdf) | APA 7.0 formatted, LaTeX-compiled |\n| [Final Paper (ZH)](examples\u002Fshowcase\u002Ffull_paper_zh_apa7.pdf) | Chinese version, APA 7.0 |\n| [Integrity Report — Pre-Review](examples\u002Fshowcase\u002Fintegrity_report_stage2.5.pdf) | Stage 2.5: caught 15 fabricated refs + 3 statistical errors |\n| [Integrity Report — Final](examples\u002Fshowcase\u002Fintegrity_report_stage4.5.pdf) | Stage 4.5: zero regressions confirmed |\n| [Peer Review Round 1](examples\u002Fshowcase\u002Fstage3_review_report.pdf) | EIC + 3 Reviewers + Devil's Advocate |\n| [Re-Review](examples\u002Fshowcase\u002Fstage3prime_rereview_report.pdf) | Verification after revisions |\n| [Peer Review Round 2](examples\u002Fshowcase\u002Fstage3_review_report_r2.pdf) | Follow-up review |\n| [Response to Reviewers](examples\u002Fshowcase\u002Fresponse_to_reviewers_r2.pdf) | Point-by-point author response |\n| [Post-Publication Audit Report](examples\u002Fshowcase\u002Fpost_publication_audit_2026-03-09.pdf) | Independent full-reference audit: found 21\u002F68 issues missed by 3 rounds of integrity checks |\n\n---\n\n## Companion: Experiment Agent\n\nIf your research involves running experiments (code or human studies) before writing, the [Experiment Agent](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Fexperiment-agent) skill fills the gap between ARS Stage 1 (RESEARCH) and Stage 2 (WRITE).\n\n```\nARS Stage 1 RESEARCH  →  RQ Brief + Methodology Blueprint\n        ↓\n  experiment-agent     →  run\u002Fmanage experiments → validate results\n        ↓\nARS Stage 2 WRITE     →  write paper with verified experiment results\n```\n\n**What it does**: executes code experiments (Python, R, etc.) with real-time monitoring, manages human study protocols with IRB ethics checklist, interprets statistics with 11-type fallacy detection, and verifies reproducibility.\n\n**How to use together**: pause the ARS pipeline after Stage 1, run experiments in a separate experiment-agent session, then bring the results (with Material Passport) back to ARS Stage 2. ARS requires zero modification. See the [experiment-agent README](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Fexperiment-agent) for setup instructions.\n\n---\n\n## Usage\n\n### Quick Start\n\n```\n# Start a full research pipeline\nYou: \"I want to write a research paper on AI's impact on higher education QA\"\n\n# Start with Socratic guidance\nYou: \"Guide my research on AI in educational evaluation\"\n\n# Write a paper with guided planning\nYou: \"Guide me through writing a paper on demographic decline\"\n\n# Review an existing paper\nYou: \"Review this paper\" (then provide the paper)\n\n# Check pipeline status\nYou: \"status\"\n```\n\n### Individual Skills\n\n#### Deep Research (7 modes)\n\n```\n\"Research the impact of AI on higher education\"       → full mode\n\"Give me a quick brief on X\"                          → quick mode\n\"Do a systematic review on X with PRISMA\"             → systematic-review mode\n\"Guide my research on X\"                              → socratic mode (guided)\n\"Fact-check these claims\"                             → fact-check mode\n\"Do a literature review on X\"                         → lit-review mode\n\"Review this paper's research quality\"                → review mode\n```\n\n#### Academic Paper (10 modes)\n\n```\n\"Write a paper on X\"                                  → full mode\n\"Guide me through writing a paper\"                    → plan mode (guided)\n\"Build a paper outline\"                               → outline-only mode\n\"I have a draft, here are reviewer comments\"          → revision mode\n\"Parse these reviewer comments into a roadmap\"        → revision-coach mode\n\"Write an abstract for this paper\"                    → abstract-only mode\n\"Turn this into a literature review paper\"            → lit-review mode\n\"Convert to LaTeX\" \u002F \"Convert citations to IEEE\"      → format-convert mode\n\"Check citations\"                                     → citation-check mode\n\"Generate an AI disclosure statement for NeurIPS\"     → disclosure mode\n```\n\n#### Academic Paper Reviewer (6 modes)\n\n```\n\"Review this paper\"                                   → full mode (EIC + R1\u002FR2\u002FR3 + Devil's Advocate)\n\"Quick assessment of this paper\"                      → quick mode\n\"Guide me to improve this paper\"                      → guided mode\n\"Check the methodology\"                               → methodology-focus mode\n\"Verify the revisions\"                                → re-review mode\n\"Calibrate this reviewer against my gold set\"         → calibration mode\n```\n\n#### Academic Pipeline (Orchestrator)\n\n```\n\"I want to write a complete research paper\"           → full pipeline from Stage 1\n\"I already have a paper, review it\"                   → mid-entry at Stage 2.5 (integrity first)\n\"I received reviewer comments\"                        → mid-entry at Stage 4\n```\n\n> Pipeline ends with **Stage 6: Process Summary** — auto-generates a paper creation process record with 6-dimension Collaboration Quality Evaluation (1–100 scoring).\n\n### Supported Languages\n\n- **Traditional Chinese** (繁體中文) — default when user writes in Chinese\n- **English** — default when user writes in English\n- Bilingual abstracts (Chinese + English) for academic papers\n\n> **Using a different language?** Socratic mode (deep-research) and Plan mode (academic-paper) use **intent-based activation** — they detect the meaning of your request, not specific keywords. This means they work in **any language** without modification.\n>\n> However, the general `Trigger Keywords` section (which determines whether the skill is activated at all) still lists English and Traditional Chinese keywords. If you find the skill isn't activating reliably in your language, you can add your language's keywords to the `### Trigger Keywords` section in each `SKILL.md` file to improve matching confidence.\n\n### Supported Citation Formats\n\n- APA 7.0 (default, including Chinese citation rules)\n- Chicago (Notes & Author-Date)\n- MLA\n- IEEE\n- Vancouver\n\n### Supported Paper Structures\n\n- IMRaD (empirical research)\n- Thematic Literature Review\n- Theoretical Analysis\n- Case Study\n- Policy Brief\n- Conference Paper\n\n---\n\n## Skill Details\n\nPer-agent responsibilities and per-stage artifacts now live in [`docs\u002FARCHITECTURE.md`](docs\u002FARCHITECTURE.md). Version numbers are anchored here so release metadata stays in one place.\n\n### Deep Research (v2.8)\n\n13-agent research team. Modes: full, quick, review, lit-review, fact-check, socratic, systematic-review. Full agent roster and artifacts: see ARCHITECTURE.md §3.\n\n### Academic Paper (v3.0)\n\n12-agent paper writing pipeline. Modes: full, plan, outline-only, revision, revision-coach, abstract-only, lit-review, format-convert, citation-check, disclosure. Output: MD + DOCX (via Pandoc when available) + LaTeX (APA 7.0 `apa7` class \u002F IEEE \u002F Chicago) → PDF via tectonic. Full agent roster and per-phase responsibilities: see ARCHITECTURE.md §3.\n\n### Academic Paper Reviewer (v1.8)\n\n7-agent multi-perspective review with **0-100 quality rubrics**. Modes: full, re-review, quick, methodology-focus, guided, calibration. **Decision mapping:** ≥80 Accept, 65-79 Minor Revision, 50-64 Major Revision, \u003C50 Reject. First-round review team vs. narrow re-review team boundary: see ARCHITECTURE.md §3 Stage 3 \u002F Stage 3'.\n\n### Academic Pipeline (v3.2)\n\n10-stage orchestrator with integrity verification, two-stage review, Socratic coaching, and collaboration evaluation. Pipeline guarantees: every stage requires user confirmation checkpoint; integrity verification (Stage 2.5 + 4.5) cannot be skipped; R&R Traceability Matrix (Schema 11) independently verifies author revision claims. Stage-by-stage matrix with agents, artifacts, and gates: see ARCHITECTURE.md §3.\n\n---\n\n## v3.0 Optimizations: What We Discovered About AI's Structural Limits\n\n### What happened\n\nWhile using ARS to write a reflection article about AI in higher education, I ran into three structural problems that no amount of prompt engineering could fix:\n\n1. **Frame-lock**: I asked the AI to run a devil's advocate debate against its own thesis. It did — four rounds, each more refined than the last. But every round stayed inside the frame I'd set. The DA attacked arguments, never premises. It never asked \"are we even discussing the right question?\" This is the same pattern that caused the 31% citation error rate in v2.7's stress test: the verifying AI and the generating AI share the same cognitive frame.\n\n2. **Sycophancy under pushback**: Every time I challenged the DA's attacks, it conceded too quickly. It retracted findings faster than it launched them. The model's training rewards conversational harmony — so \"the user pushed back\" was treated as evidence that the attack was wrong, when often it just meant the user was persistent.\n\n3. **Intent misdetection**: The Socratic Mentor kept trying to converge and produce deliverables (\"Want me to write this up?\") when I was still exploring. It couldn't distinguish \"the user wants a deep philosophical discussion\" from \"the user wants an RQ brief.\" Both look like engagement, but they need opposite AI behaviors.\n\n### What we changed (v3.0)\n\n**Devil's Advocate — Concession Threshold Protocol** (`deep-research` + `academic-paper-reviewer`)\n- DA must now score every rebuttal on a 1-5 scale before responding\n- Concession only allowed at score ≥4 (rebuttal directly addresses core attack with evidence)\n- Score ≤3: hold position and restate the original attack\n- Anti-sycophancy rules: no consecutive concessions, concession rate tracking, frame-lock detection after each checkpoint\n\n**Socratic Mentor — Intent Detection Layer** (`deep-research`)\n- Classifies user intent as exploratory vs. goal-oriented at dialogue start and every 3 turns\n- Exploratory mode: disables auto-convergence, raises max rounds to 60, prohibits \"want me to summarize?\" prompts\n- Goal-oriented mode: standard convergence behavior\n- Anti-premature-closure rules: in exploratory mode, the user decides when to stop\n\n**Socratic Mentor — Dialogue Health Indicator** (`deep-research`)\n- Silent self-assessment every 5 turns on three dimensions: persistent agreement, conflict avoidance, premature convergence\n- Auto-injects challenging questions when agreement pattern detected\n- Invisible to user (to prevent gaming), but log available for post-session review\n\n### Why this matters\n\nThese optimizations don't solve AI's structural limits — they make the limits visible and manageable. The DA will still eventually concede if pushed hard enough. The Socratic Mentor will still have some convergence bias. But now there are explicit checkpoints that slow down the sycophancy, force the DA to justify concessions, and prevent the Mentor from wrapping up before the user is ready.\n\nThe deeper lesson: AI literacy isn't about learning to use AI as a tool, following ethics rules, or fearing AI risks. It's about engaging AI deeply enough to discover its structural limits yourself — and your own thinking limits in the process.\n\n---\n\n## License\n\nThis work is licensed under [CC-BY-NC 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F).\n\n**You are free to:**\n- Share — copy and redistribute the material\n- Adapt — remix, transform, and build upon the material\n\n**Under the following terms:**\n- **Attribution** — You must give appropriate credit\n- **NonCommercial** — You may not use the material for commercial purposes\n\n**Attribution format:**\n```\nBased on Academic Research Skills by Cheng-I Wu\nhttps:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\n```\n\n---\n\n## Contributors\n\n**Cheng-I Wu** (吳政宜) — Author and maintainer\n\n**[aspi6246](https:\u002F\u002Fgithub.com\u002Faspi6246)** — Contributor. The v3.1 optimization was inspired by patterns from [Claude-Code-Skills-for-Academics](https:\u002F\u002Fgithub.com\u002Faspi6246\u002FClaude-Code-Skills-for-Academics): read-only constraint pattern, anti-pattern codification as first-class design, cognitive framework approach (teaching \"how to think\" not just procedures), and lean skill size philosophy.\n\n**[mchesbro1](https:\u002F\u002Fgithub.com\u002Fmchesbro1)** — Contributor. Originally proposed and drafted the IS Basket of 8 journals for `academic-paper-reviewer\u002Freferences\u002Ftop_journals_by_field.md` ([Issue #5](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F5)).\n\n**[cloudenochcsis](https:\u002F\u002Fgithub.com\u002Fcloudenochcsis)** — Contributor. Extended the IS section from the *Basket of 8* to the full *Senior Scholars' Basket of 11* — adding *Decision Support Systems*, *Information & Management*, and *Information and Organization* ([Issue #7](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F7), [PR #8](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fpull\u002F8)). Sourced from the [AIS Senior Scholars' List of Premier Journals](https:\u002F\u002Faisnet.org\u002Fpage\u002FSeniorScholarListofPremierJournals).\n\n---\n\n## Changelog\n\n### v3.3.6 (2026-04-15) — README Streamlining + ARCHITECTURE doc\n\n- Added `docs\u002FARCHITECTURE.md` as the single source of truth for pipeline structure (flow, matrix, data-access, dependency graph, quality gates, modes). Merged into main via PR #18.\n- Added `docs\u002FSETUP.md` (prerequisites, API keys, Pandoc\u002Ftectonic, cross-model verification, installation methods) and `docs\u002FPERFORMANCE.md` (token budgets, recommended Claude Code settings). README links to both instead of inlining them.\n- Streamlined README: removed the ASCII pipeline diagram and 16-point key-feature list (superseded by ARCHITECTURE.md); Skill Details section now anchors version numbers and points readers to ARCHITECTURE.md §3 for per-agent rosters.\n- Note: no functional change to any skill. Pure documentation reorganization. Suite version bumped to `3.3.6`.\n\n### v3.3.5 (2026-04-15)\n- Added `benchmark_report.schema.json` + `repro_lock` optional block on Material Passport. Both ship with pattern docs, lints, and examples. First formal Python dev dep manifest (`requirements-dev.txt`).\n\n### v3.3.4 (2026-04-15) — README Changelog Sync Patch\n\n- Synced the embedded changelog sections in `README.md` and `README.zh-TW.md` so they include the missing `v3.3.3` and `v3.3.2` release summaries.\n- Extended `scripts\u002Fcheck_spec_consistency.py` so future README changelog drift fails CI.\n### v3.3.3 (2026-04-15) — Release Prep + Lint Hardening\n\n- Hardened SKILL frontmatter linting: missing closing `---` fences now fail cleanly instead of being parsed as valid YAML.\n- Frontmatter that parses as valid YAML but not as a mapping now reports a readable error instead of crashing.\n- Fixed the broken showcase link for the post-publication audit report in both READMEs.\n- Added README relative-link validation to the spec consistency check so dead links fail CI.\n- Aligned the DOCX output contract across the docs: direct `.docx` generation is Pandoc-dependent, with Markdown + conversion instructions as fallback.\n- Prepared the `v3.3.3` release: suite version bump, `academic-paper` -> v3.0.2, `academic-pipeline` -> v3.2.2.\n\n### v3.3.2 (2026-04-15) — Data Access Levels + Task Type Metadata\n\n- Added `metadata.data_access_level` to all top-level `SKILL.md` files with enforced vocabulary: `raw`, `redacted`, `verified_only`.\n- Added `metadata.task_type` to all top-level `SKILL.md` files with enforced vocabulary: `open-ended`, `outcome-gradable`.\n- Added lint scripts and unit tests for both metadata fields, wired into the GitHub Actions spec consistency workflow.\n- Added `shared\u002Fground_truth_isolation_pattern.md` and linked the new vocabulary from `shared\u002Fhandoff_schemas.md`.\n\n### v3.3.1 (2026-04-14) — Spec Consistency Patch\n\n- Synced README, `.claude\u002FCLAUDE.md`, `MODE_REGISTRY.md`, and `SKILL.md` files to the current mode counts and published skill versions.\n- Corrected cross-model wording: integrity sample checks and independent DA critique are implemented today; sixth-reviewer peer review remains planned.\n- Clarified adaptive checkpoint semantics so SLIM checkpoints still wait for explicit user confirmation.\n- Reaffirmed that Stage 2.5 and Stage 4.5 integrity gates cannot be skipped.\n- Added a lightweight spec consistency check and GitHub Actions workflow to catch future drift.\n\n### v3.3 (2026-04-09) — PaperOrchestra-Inspired Enhancements\n\nIntegrates techniques from [PaperOrchestra](https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.05018) (Song, Song, Pfister & Yoon, 2026, Google).\n\n- **Semantic Scholar API Verification** — Tier 0 programmatic reference existence check via S2 API. Levenshtein >= 0.70 title matching, DOI mismatch detection, bibliography deduplication via S2 IDs. Graceful degradation if API unavailable.\n- **Anti-Leakage Protocol** — Knowledge Isolation Directive prioritizes session materials over LLM parametric memory. Flags `[MATERIAL GAP]` for missing content instead of filling from memory. Reduces Mode 5\u002F6 failure risk.\n- **VLM Figure Verification** (optional) — Closed-loop verification of rendered figures using vision-capable LLM. 10-point checklist, max 2 refinement iterations.\n- **Score Trajectory Protocol** — Per-dimension rubric score delta tracking across revision rounds (7 dimensions). Detects regressions (delta \u003C -3) and triggers mandatory checkpoint.\n- **Stage 2 Parallelization** — Visualization and argument building can run in parallel after outline completion.\n- New versions: deep-research v2.8, academic-paper v3.0, academic-pipeline v3.2\n\n### v3.2 (2026-04-09) — Lu 2026 Nature Integration\n\nIntegrates insights from Lu et al. (2026, *Nature* 651:914-919) — the first end-to-end autonomous AI research system to pass blind peer review.\n\n- **7-mode AI Research Failure Mode Checklist** — blocks pipeline at Stage 2.5\u002F4.5 on suspected implementation bugs, hallucinated results, shortcut reliance, bug-as-insight, methodology fabrication, frame-lock. Extends existing 5-type citation hallucination taxonomy.\n- **Reviewer Calibration Mode** (academic-paper-reviewer v1.8) — opt-in FNR\u002FFPR\u002Fbalanced-accuracy measurement against user-supplied gold set. 5× ensembling, cross-model default-on, session-scoped confidence disclosure.\n- **Disclosure Mode** (academic-paper v2.9) — venue-specific AI-usage statement generator. v1 covers ICLR, NeurIPS, Nature, Science, ACL, EMNLP.\n- **Early-Stopping Criterion** (academic-pipeline v3.1) — convergence check + budget transparency at pipeline start.\n- **Fidelity-Originality Mode Spectrum** — classifies all modes across 3 skills per Lu 2026 Fig 1c.\n- New versions: academic-paper v2.9, academic-paper-reviewer v1.8, academic-pipeline v3.1\n\n### v3.1.1 (2026-04-09) — IS Senior Scholars' Basket of 11\n\nExternal contributions: [@mchesbro1](https:\u002F\u002Fgithub.com\u002Fmchesbro1) originally proposed and drafted the IS Basket of 8 journals ([Issue #5](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F5)); [@cloudenochcsis](https:\u002F\u002Fgithub.com\u002Fcloudenochcsis) extended it to the full Senior Scholars' Basket of 11 ([Issue #7](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F7), [PR #8](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fpull\u002F8)). Updated `academic-paper-reviewer\u002Freferences\u002Ftop_journals_by_field.md` Section 7, adding *Decision Support Systems*, *Information & Management*, and *Information and Organization*. Source: [AIS Senior Scholars' List of Premier Journals](https:\u002F\u002Faisnet.org\u002Fpage\u002FSeniorScholarListofPremierJournals).\n\n### v3.1 (2026-04-06) — Anti-Context-Rot + Cognitive Frameworks + Lean Size\n\nInspired by patterns from [aspi6246\u002FClaude-Code-Skills-for-Academics](https:\u002F\u002Fgithub.com\u002Faspi6246\u002FClaude-Code-Skills-for-Academics).\n\n**Wave 1: Anti-Context-Rot Anchors**\n- 29 explicit Anti-Patterns across all 4 skills (7-8 per skill, tabular format with \"Why It Fails\" + \"Correct Behavior\")\n- 22 IRON RULE markers on critical rules that must not be violated even in long conversations\n- Read-only constraint on academic-paper-reviewer (reviewers cannot modify the manuscript)\n\n**Wave 2: Traceability + Cognitive Frameworks + Reinforcement**\n- R&R Traceability Matrix (Schema 11): adds \"Author's Claim\" and \"Verified?\" columns to re-review output, enabling independent verification of revision claims\n- 3 cognitive framework reference files teaching agents \"how to think\" not just \"what to do\":\n  - `argumentation_reasoning_framework.md` — Toulmin model, Bradford Hill causal reasoning, inference to best explanation, epistemic status classification\n  - `review_quality_thinking.md` — three lenses (internal validity, external validity, contribution), common reviewer traps, calibration questions\n  - `writing_judgment_framework.md` — clarity test, reader's journey, discipline-specific voice, revision decision matrix\n- Mid-conversation reinforcement protocol: stage-specific IRON RULE + Anti-Pattern reminders at every pipeline transition\n- Self-check questions at every FULL checkpoint (citation integrity, sycophantic concession, quality trajectory, scope discipline, completeness)\n\n**Wave 3: Lean Skill Size**\n- SKILL.md total size reduced from 142KB to 85KB (−40%) by extracting detailed protocols to `references\u002F` files\n- ~15 new reference files created (re-review protocol, guided mode, systematic review, process summary, external review, etc.)\n- All IRON RULE markers preserved in SKILL.md; detailed content loaded on demand\n- New versions: deep-research v2.7, academic-paper v2.8, academic-paper-reviewer v1.7, academic-pipeline v3.0\n\n### v3.0 (2026-04-03) — Anti-Sycophancy + Intent Detection + Dialogue Health\n- **Devil's Advocate Concession Threshold** (deep-research + academic-paper-reviewer): DA must score rebuttals 1-5 before responding. Concession only at ≥4. No consecutive concessions. Concession rate tracking. Frame-lock detection after each checkpoint.\n- **Attack Intensity Preservation** (academic-paper-reviewer): DA does not soften under pushback. Rebuttal assessment protocol with explicit deflection detection. Anti-sycophancy rules prevent persistent pushback from being treated as valid evidence.\n- **Intent Detection Layer** (deep-research socratic): Classifies user intent as exploratory vs. goal-oriented. Exploratory mode disables auto-convergence, raises max rounds, prohibits premature closure. Re-assesses every 3 turns.\n- **Dialogue Health Indicator** (deep-research socratic): Silent self-check every 5 turns for persistent agreement, conflict avoidance, premature convergence. Auto-injects challenges when agreement pattern detected.\n- **Cross-Model Verification Protocol** (shared, optional): Use GPT-5.4 Pro or Gemini 3.1 Pro for integrity verification sample cross-checks and independent DA critique. Sixth-reviewer peer review remains planned, not yet implemented. Activated by setting `ARS_CROSS_MODEL` env var — without it, everything works as before. See `shared\u002Fcross_model_verification.md` for full setup guide, API patterns, and cost estimates.\n- **AI Self-Reflection Report** (academic-pipeline Stage 6): Post-pipeline self-assessment of AI behavioral patterns — DA concession rate, checkpoint skip rate, health alerts, sycophancy risk rating (LOW\u002FMEDIUM\u002FHIGH), frame-lock incidents, convergence pattern analysis. Includes irony caveat: \"this self-reflection is itself produced by the same AI that may have been sycophantic.\"\n- Origin: Discovered through a 4-round dialectic experiment where the DA conceded too quickly, the Socratic Mentor tried to converge prematurely, and the entire debate stayed locked in a frame the human set.\n- Versions: deep-research v2.5, academic-paper-reviewer v1.5, academic-pipeline v2.8\n\n### v2.9 (2026-03-27) — Style Calibration + Writing Quality Check\n- **Style Calibration** (academic-paper intake Step 10, optional): Provide 3+ past papers and the pipeline learns your writing voice — sentence rhythm, vocabulary preferences, citation integration style. Applied as a soft guide during drafting; discipline conventions always take priority. Priority system: discipline norms (hard) > journal conventions (strong) > personal style (soft). See `shared\u002Fstyle_calibration_protocol.md`\n- **Writing Quality Check** (`academic-paper\u002Freferences\u002Fwriting_quality_check.md`): Writing quality checklist applied during draft self-review. 5 categories: AI high-frequency term warnings (25 terms), punctuation pattern control (em dash ≤3), throat-clearing opener detection, structural pattern warnings (Rule of Three, uniform paragraphs, synonym cycling), and burstiness checks (sentence length variation). These are good writing rules — not detection evasion\n- **Style Profile** carried through academic-pipeline Material Passport (Schema 10 in `shared\u002Fhandoff_schemas.md`)\n- **deep-research** report compiler also consumes both features optionally\n- Versions: academic-paper v2.5, deep-research v2.4, academic-pipeline v2.7\n\n### v2.8 (2026-03-22) — SCR Loop Phase 1: State-Challenge-Reflect\n- **Socratic Mentor Agent** (deep-research + academic-paper): SCR (State-Challenge-Reflect) protocol integration\n  - **Commitment Gates**: Collect user predictions before presenting evidence at each layer\u002Fchapter transition\n  - **Certainty-Triggered Contradiction**: Detect high-confidence language (\"obviously\", \"clearly\") and introduce counterpoints\n  - **Adaptive Intensity**: Track commitment accuracy, dynamically adjust challenge frequency\n  - **Self-Calibration Signal (S5)**: New convergence signal tracking user's self-calibration growth across dialogue\n  - **SCR Switch**: Users can say \"skip the predictions\" to disable or \"turn predictions back on\" to re-enable mid-dialogue; Socratic questioning continues normally\n- `deep-research\u002Freferences\u002Fsocratic_questioning_framework.md`: SCR Overlay Protocol mapping SCR phases to Socratic functions\n- Added `CHANGELOG.md`\n\n### v2.7 (2026-03-09) — Integrity Verification v2.0: Anti-Hallucination Overhaul\n- **integrity_verification_agent v2.0**: Anti-Hallucination Mandate (no AI memory verification), eliminated gray-zone classifications (VERIFIED\u002FNOT_FOUND\u002FMISMATCH only), mandatory WebSearch audit trail for every reference, Stage 4.5 fresh independent verification, Gray-Zone Prevention Rule\n- **Known Hallucination Patterns**: 5-type taxonomy (TF\u002FPAC\u002FIH\u002FPH\u002FSH) from GPTZero × NeurIPS 2025 study, 5 compound deception patterns, real-world case study, literature statistics\n- **Post-publication audit**: Full WebSearch verification of all 68 references found 21 issues (31% error rate) that passed 3 rounds of integrity checks — proving the necessity of external verification\n- **Paper corrections**: Removed 4 fabricated references, fixed 6 author errors, corrected 7 metadata errors, fixed 2 format issues\n\n### v2.6.2 (2026-03-09) — Intent-Based Mode Activation\n- **deep-research**: Socratic mode now uses **intent-based activation** instead of keyword matching. Works in any language — detects meaning (e.g., \"user wants guided thinking\") rather than matching specific strings.\n- **academic-paper**: Plan mode now uses **intent-based activation**. Detects intent signals like \"user is uncertain how to start\" or \"user wants step-by-step guidance\" in any language.\n- Both modes now have a **default rule**: when intent is ambiguous, prefer `socratic`\u002F`plan` over `full` — safer to guide first.\n- Two-layer architecture: Layer 1 (skill activation) uses bilingual keywords for matching confidence; Layer 2 (mode routing) uses language-agnostic intent signals.\n\n### v2.6.1 (2026-03-09) — Bilingual Trigger Keywords\n- **deep-research**: Added Traditional Chinese trigger keywords for general activation and Socratic mode.\n- **academic-paper**: Added Traditional Chinese trigger keywords and Plan Mode trigger section.\n- Both mode selection guides now include bilingual examples and Chinese-specific misselection scenarios.\n\n### v2.6 \u002F v2.4 \u002F v1.4 (2026-03-08) — 15+ Improvements\n- **deep-research v2.3**: New systematic-review \u002F PRISMA mode (7th); 3 new agents (risk_of_bias, meta_analysis, monitoring); PRISMA protocol\u002Freport templates; Socratic convergence criteria (4 signals + auto-end); Quick Mode Selection Guide\n- **academic-paper v2.4**: 2 new agents (visualization, revision_coach); revision tracking template with 4 status types; citation format conversion (APA↔Chicago↔MLA↔IEEE↔Vancouver); statistical visualization standards; Socratic convergence criteria; revision recovery example; **LaTeX output hardening** — mandatory `apa7` document class, text justification fix (`ragged2e` + `etoolbox`), table column width formula, bilingual abstract centering, standardized font stack (Times New Roman + Source Han Serif TC VF + Courier New), PDF via tectonic only\n- **academic-paper-reviewer v1.4**: Quality rubrics with 0-100 scoring and behavioral indicators; decision mapping (≥80 Accept, 65-79 Minor, 50-64 Major, \u003C50 Reject); Quick Mode Selection Guide\n- **academic-pipeline v2.6**: Adaptive checkpoint system (FULL\u002FSLIM\u002FMANDATORY); Phase E Claim Verification in integrity checks; Material Passport for mid-entry provenance; cross-skill mode advisor (14 scenarios); team collaboration protocol; enhanced handoff schemas (9 schemas); integrity failure recovery example\n\n### v2.4 \u002F v1.3 (2026-03-08)\n- **academic-pipeline v2.4**: New Stage 6 PROCESS SUMMARY — auto-generates structured paper creation process record (MD → LaTeX → PDF, bilingual); mandatory final chapter: **Collaboration Quality Evaluation** with 6 dimensions scored 1–100 (Direction Setting, Intellectual Contribution, Quality Gatekeeping, Iteration Discipline, Delegation Efficiency, Meta-Learning), honest feedback, and improvement recommendations; pipeline expanded from 9 to 10 stages\n\n### v2.3 \u002F v1.3 (2026-03-08)\n- **academic-pipeline v2.3**: Stage 5 FINALIZE now prompts for formatting style (APA 7.0 \u002F Chicago \u002F IEEE); PDF must compile from LaTeX via `tectonic` (no HTML-to-PDF); APA 7.0 uses `apa7` document class (`man` mode) with XeCJK for bilingual CJK support; font stack: Times New Roman + Source Han Serif TC VF + Courier New\n\n### v2.2 \u002F v1.3 (2025-03-05)\n- **Cross-Agent Quality Alignment**: unified definitions (peer-reviewed, currency rule, CRITICAL severity, source tier) across all agents\n- **deep-research v2.2**: synthesis anti-patterns, Socratic auto-end conditions, DOI+WebSearch verification, enhanced ethics integrity check, mode transition matrix\n- **academic-paper v2.2**: 4-level argument scoring, plagiarism screening, 2 new failure paths (F11 Desk-Reject Recovery, F12 Conference-to-Journal), Plan→Full mode conversion\n- **academic-paper-reviewer v1.3**: DA vs R3 role boundaries, CRITICAL finding criteria, consensus classification (4\u002F3\u002FSPLIT\u002FDA-CRITICAL), confidence score weighting, Asian & Regional Journals reference\n- **academic-pipeline v2.2**: checkpoint confirmation semantics, mode switching matrix, failure fallback matrix, state ownership protocol, material version control\n\n### v2.0.1 (2026-03)\n- **Simplify 4 SKILL.md** (-371 lines, -16.5%): remove cross-skill duplication, inline templates → file references, redundant routing tables, duplicate mode selection sections\n- Fix revision loop cap contradiction between academic-paper and academic-pipeline\n\n### v2.0 (2026-02)\n- **academic-pipeline v2.0**: 5→9 stages, mandatory integrity verification, two-stage review, Socratic revision coaching, reproducibility guarantees\n- **academic-paper-reviewer v1.1**: +Devil's Advocate Reviewer (7th agent), +re-review mode (verification), +post-review Socratic coaching\n- New agent: `integrity_verification_agent` — 100% reference\u002Fdata verification with audit trail\n- New agent: `devils_advocate_reviewer_agent` — 8-dimension thesis challenger\n- Output order: MD → DOCX via Pandoc when available (else instructions) → ask LaTeX → confirm → PDF\n\n### v1.0 (2026-02)\n- Initial release\n- deep-research v2.0 (10 agents, 6 modes including socratic)\n- academic-paper v2.0 (10 agents, 8 modes including plan)\n- academic-paper-reviewer v1.0 (6 agents, 4 modes including guided)\n- academic-pipeline v1.0 (orchestrator)\n","# 针对 Claude Code 的学术研究技能\n\n[![版本](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fversion-v3.3.6-blue)](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Freleases\u002Ftag\u002Fv3.3.6)\n[![许可证：CC BY-NC 4.0](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-CC%20BY--NC%204.0-lightgrey)](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F)\n[![赞助](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fsponsor-Buy%20Me%20a%20Coffee-orange?logo=buy-me-a-coffee)](https:\u002F\u002Fbuymeacoffee.com\u002Fcrucify020v)\n\n[繁體中文版](README.zh-TW.md)\n\n一套全面的 Claude Code 学术研究技能，覆盖从研究到发表的完整流程。\n\n> **AI 是你的副驾驶，而不是主驾驶。** 这个工具不会替你写论文。它会处理那些繁琐的工作——查找参考文献、格式化引用、验证数据、检查逻辑一致性——这样你就可以专注于真正需要动脑的部分：明确研究问题、选择研究方法、解读数据含义，以及写出“我认为……”之后的那一句。\n>\n> 与那些试图掩盖你使用了 AI 的工具不同，这个工具帮助你写出更好的文章。风格校准功能会根据你过去的作品学习你的写作风格；写作质量检查则能捕捉那些让文字显得机械化重复的模式。我们的目标是提升论文质量，而不是作弊。\n\n### 为什么采用人机协作而非完全自动化？\n\nLu 等人（2026，《自然》第 651 期：914–919）构建了 **AI 科学家**——首个通过盲审在顶级机器学习会议（ICLR 2025 工作坊，评分 6.33\u002F10，而工坊平均分为 4.87）上发表论文的完全自主 AI 研究系统。他们在局限性部分列举了任何完全自主的 AI 研究流程都会面临的失败模式：实现中的错误、幻觉式的结果、依赖捷径、将 bug 重新包装成洞见、捏造方法论、思维定势、引用幻觉等。\n\nARS 的设计基于这样一个前提：**由 AI 增强的人类研究人员比单独依靠 AI 或单独依靠人类更能避免这些失败模式**。在第 2.5 阶段和第 4.5 阶段设置了完整性检查点，运行一个包含 7 种故障模式的阻断清单（详见 [`academic-pipeline\u002Freferences\u002Fai_research_failure_modes.md`](academic-pipeline\u002Freferences\u002Fai_research_failure_modes.md)）；评审者还提供了一个可选的校准模式，可以根据用户提供的黄金标准集来衡量其假阴性率和假阳性率。\n\nv3.3 的灵感来源于 [**PaperOrchestra**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.05018)（Song、Song、Pfister 和 Yoon，2026，Google）：包括 Semantic Scholar API 验证、防泄漏协议、VLM 图表验证以及分数轨迹追踪等功能。\n\n---\n\n## 架构与流程\n\n**👉 [docs\u002FARCHITECTURE.md](docs\u002FARCHITECTURE.md)** — 完整的流程视图：流程图、各阶段矩阵、数据访问流程、技能依赖图、质量检查点以及模式列表。\n\n该架构文档取代了此前此处冗长的流程描述。关于 *哪些技能在哪个阶段运行* 的所有信息现在都集中在一个地方。\n\n## 设置与安装\n\n**👉 [docs\u002FSETUP.md](docs\u002FSETUP.md)** — 安装 Claude Code、设置 API 密钥、可选的 Pandoc\u002Ftectonic 用于 DOCX\u002FPDF 转换、跨模型验证（`ARS_CROSS_MODEL`），以及四种安装方式，包括从 claude.ai 导入项目。\n\n## 性能与成本\n\n**👉 [docs\u002FPERFORMANCE.md](docs\u002FPERFORMANCE.md)** — 各模式的 token 预算、全流程估算（一篇 1.5 万字的论文大约需花费 4–6 美元），以及推荐的 Claude Code 设置（跳过权限检查；代理团队为可选项）。\n\n## 指南与文章\n\n- [学术写作不应该是单打独斗](https:\u002F\u002Fopen.substack.com\u002Fpub\u002Fedwardwu223235\u002Fp\u002Facademic-writing-shouldnt-be-a-solo?r=4dczl&utm_medium=ios) — 全流程讲解（英文）\n- [學術寫作不該是一個人的事：一套開源 AI 協作工具如何改變研究者的工作流](https:\u002F\u002Fopen.substack.com\u002Fpub\u002Fedwardwu223235\u002Fp\u002Fai?r=4dczl&utm_medium=ios) — 完整使用指南（繁體中文）\n\n---\n\n## 功能概览\n\n- **深度研究** — 13 个代理组成的科研团队，配备苏格拉底式引导模式、PRISMA 系统综述、意图检测、对话健康监测、可选的跨模型 DA、Semantic Scholar API 验证。\n- **学术论文撰写** — 12 个代理协同完成论文写作，具备风格校准、写作质量检查、LaTeX 加固、可视化、修改指导、引用转换、防泄漏协议以及 VLM 图表验证等功能。\n- **学术论文评审** — 7 个代理组成的多视角同行评审，采用 0–100 分的质量评分标准（主编 + 3 名动态评审员 + 反方意见者），设有让步阈值协议、攻击强度保持机制、可选的跨模型 DA 评论\u002F校准、R&R 追溯矩阵以及只读约束。\n- **学术流程编排器** — 10 阶段的流程编排系统，具备适应性检查点、主张验证、材料护照、可选的 `repro_lock`、可选的跨模型完整性验证、对话中强化机制以及分数轨迹追踪功能。\n- **数据访问级别元数据**（v3.3.2+）— 每项技能都会声明 `data_access_level`（`raw` \u002F `redacted` \u002F `verified_only`）；由 `scripts\u002Fcheck_data_access_level.py` 强制执行。这一模式借鉴自 Anthropic 的自动化 w2s 研究者（2026）。详情请参阅 [`shared\u002Fground_truth_isolation_pattern.md`](shared\u002Fground_truth_isolation_pattern.md)。\n- **任务类型标注**（v3.3.2+）— 每项技能都会声明 `task_type`（`开放式` 或 `可评分型`）。目前 ARS 中的所有技能均为 `开放式`。\n- **基准报告模式**（v3.3.5+）— JSON Schema + lint，用于进行诚实的基准比较。详情请参阅 [`shared\u002Fbenchmark_report_pattern.md`](shared\u002Fbenchmark_report_pattern.md)。\n- **成果可复现锁文件**（v3.3.5+）— 材料护照上可选的 `repro_lock` 子模块。**配置文档，而非重现保证** — LLM 的输出无法实现逐字节的复现。详情请参阅 [`shared\u002Fartifact_reproducibility_pattern.md`](shared\u002Fartifact_reproducibility_pattern.md)。\n\n---\n\n## 展示：真实流程输出\n\n查看一次真实的10个阶段流程运行所产生的完整成果——同行评审报告、完整性验证报告以及最终论文：\n\n**[浏览所有流程成果 →](examples\u002Fshowcase\u002F)**\n\n| 成果 | 描述 |\n|---|---|\n| [最终论文（英文）](examples\u002Fshowcase\u002Ffull_paper_apa7.pdf) | APA 7.0 格式，由 LaTeX 编译生成 |\n| [最终论文（中文）](examples\u002Fshowcase\u002Ffull_paper_zh_apa7.pdf) | 中文版，APA 7.0 格式 |\n| [完整性报告 — 审前](examples\u002Fshowcase\u002Fintegrity_report_stage2.5.pdf) | 阶段 2.5：检测出 15 条伪造引用 + 3 处统计错误 |\n| [完整性报告 — 最终](examples\u002Fshowcase\u002Fintegrity_report_stage4.5.pdf) | 阶段 4.5：确认无任何抄袭行为 |\n| [第一轮同行评审](examples\u002Fshowcase\u002Fstage3_review_report.pdf) | 主编 + 3 位审稿人 + 反方辩手 |\n| [复审](examples\u002Fshowcase\u002Fstage3prime_rereview_report.pdf) | 修改后的验证性审查 |\n| [第二轮同行评审](examples\u002Fshowcase\u002Fstage3_review_report_r2.pdf) | 后续跟进评审 |\n| [对审稿人的回复](examples\u002Fshowcase\u002Fresponse_to_reviewers_r2.pdf) | 作者逐条回应 |\n| [出版后审计报告](examples\u002Fshowcase\u002Fpost_publication_audit_2026-03-09.pdf) | 独立的全参考文献审计：发现 3 轮完整性检查遗漏了 21 处问题 |\n\n---\n\n## 伴侣工具：实验代理\n\n如果你的研究需要在写作之前进行实验（无论是代码实验还是人类研究），那么 [实验代理](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Fexperiment-agent) 技能可以填补 ARS 流程第 1 阶段（研究）与第 2 阶段（写作）之间的空白。\n\n```\nARS 第 1 阶段 研究  →  研究问题简报 + 方法论蓝图\n        ↓\n  实验代理     →  执行\u002F管理实验 → 验证结果\n        ↓\nARS 第 2 阶段 写作     →  携验证过的实验结果撰写论文\n```\n\n**功能说明**：实时监控并执行代码实验（Python、R 等）；使用 IRB 伦理检查清单管理人类研究方案；通过 11 种谬误检测来解读统计数据；并验证实验的可重复性。\n\n**使用方法**：在 ARS 流程的第 1 阶段结束后暂停，开启一个独立的实验代理会话来运行实验，随后将实验结果（连同材料护照）带回 ARS 的第 2 阶段。ARS 无需任何修改。请参阅 [实验代理的 README](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Fexperiment-agent) 获取设置说明。\n\n---\n\n## 使用方法\n\n### 快速入门\n\n```\n# 启动完整研究流程\n你： “我想写一篇关于人工智能对高等教育质量保障影响的研究论文”\n\n# 从苏格拉底式引导开始\n你： “指导我研究人工智能在教育评估中的应用”\n\n# 在引导下撰写论文\n你： “指导我完成一篇关于人口减少问题的论文”\n\n# 审阅现有论文\n你： “审阅这篇论文”（随后提供论文）\n\n# 查询流程状态\n你： “状态”\n```\n\n### 单项技能\n\n#### 深度研究（7 种模式）\n\n```\n“研究人工智能对高等教育的影响”       → 全模式\n“给我一个关于 X 的快速简报”          → 快速模式\n“用 PRISMA 做 X 的系统综述”             → 系统综述模式\n“指导我研究 X”                              → 苏格拉底模式（引导式）\n“核实这些说法的真实性”                             → 事实核查模式\n“做 X 的文献综述”                         → 文献综述模式\n“评估这篇论文的研究质量”                → 评审模式\n```\n\n#### 学术论文写作（10 种模式）\n\n```\n“写一篇关于 X 的论文”                                  → 全模式\n“指导我完成论文写作”                    → 计划模式（引导式）\n“构建论文提纲”                               → 提纲模式\n“我已有草稿，这是审稿人的意见”          → 修改模式\n“将这些审稿意见整理成改进路线图”        → 修改辅导模式\n“为这篇论文撰写摘要”                    → 摘要模式\n“将其改写成文献综述论文”            → 文献综述模式\n“转换为 LaTeX 格式” \u002F “将引文转为 IEEE 格式”      → 格式转换模式\n“检查引文”                                     → 引文检查模式\n“为 NeurIPS 会议生成 AI 信息披露声明”     → 信息披露模式\n```\n\n#### 学术论文审稿人（6 种模式）\n\n```\n“审阅这篇论文”                                   → 全模式（主编 + R1\u002FR2\u002FR3 + 反方辩手）\n“快速评估这篇论文”                      → 快速模式\n“指导我改进这篇论文”                      → 引导模式\n“检查方法学部分”                               → 方法学重点模式\n“验证修改内容”                                → 复审模式\n“根据我的黄金标准校准这位审稿人”         → 校准模式\n```\n\n#### 学术论文流程（协调器）\n\n```\n“我想完成一篇完整的学术论文”           → 从第 1 阶段开始的全流程\n“我已经有一篇论文，帮我审阅一下”                   → 从中途第 2.5 阶段进入（先进行完整性检查）\n“我收到了审稿人的意见”                        → 从中途第 4 阶段进入\n```\n\n> 流程最后会进入 **第 6 阶段：过程总结** — 自动生成一份包含 6 维协作质量评估（1–100 分制评分）的论文创作过程记录。\n\n### 支持的语言\n\n- **繁体中文** — 当用户以中文书写时默认使用\n- **英语** — 当用户以英语书写时默认使用\n- 学术论文支持中英双语摘要\n\n> **使用其他语言？** 苏格拉底模式（深度研究）和计划模式（学术论文）采用 **基于意图的激活机制** —— 它们会识别你的请求含义，而非特定关键词。这意味着它们可以在 **任何语言** 下正常工作，无需修改。\n>\n> 然而，用于决定是否触发技能的一般 `触发关键词` 部分仍然列出了英语和繁体中文关键词。如果你发现技能在你的语言中无法可靠触发，可以将你所在语言的关键词添加到每个 `SKILL.md` 文件中的 `### 触发关键词` 部分，以提高匹配的置信度。\n\n### 支持的引用格式\n\n- APA 7.0（默认，包括中文引用规则）\n- 芝加哥格式（注释与作者-日期）\n- MLA\n- IEEE\n- 温哥华格式\n\n### 支持的论文结构\n\n- IMRaD（实证研究）\n- 主题式文献综述\n- 理论分析\n- 案例研究\n- 政策简报\n- 会议论文\n\n---\n\n## 技能详情\n\n各代理的职责及各阶段的成果现存放于 [`docs\u002FARCHITECTURE.md`](docs\u002FARCHITECTURE.md)。版本号也在此处固定，以便发布元数据集中管理。\n\n### 深度研究（v2.8）\n\n由 13 名研究人员组成的团队。模式包括：全模式、快速模式、评审模式、文献综述模式、事实核查模式、苏格拉底模式、系统综述模式。完整的代理名单及成果，请参阅 ARCHITECTURE.md 第 3 节。\n\n### 学术论文写作（v3.0）\n\n由12个智能体组成的论文写作流水线。模式包括：完整模式、计划模式、仅提纲模式、修订模式、修订指导模式、仅摘要模式、文献综述模式、格式转换模式、引用检查模式、披露模式。输出格式：MD + DOCX（在可用时通过Pandoc转换）+ LaTeX（APA 7.0 `apa7` 类 \u002F IEEE \u002F 芝加哥风格）→ 通过Tectonic生成PDF。完整智能体名单及各阶段职责：参见ARCHITECTURE.md 第3节。\n\n### 学术论文评审（v1.8）\n\n由7个智能体组成的多视角评审，采用**0-100分质量评分标准**。模式包括：完整模式、复审模式、快速模式、方法论聚焦模式、引导模式、校准模式。**决策映射**：≥80分接受，65-79分小修，50-64分大修，\u003C50分拒绝。初轮评审团队与狭义复审团队的界限：参见ARCHITECTURE.md 第3节第3阶段\u002F3'阶段。\n\n### 学术流程（v3.2）\n\n10个阶段的协调器，具备完整性验证、两阶段评审、苏格拉底式辅导和协作评估功能。流程保障：每个阶段均设有用户确认检查点；完整性验证阶段（第2.5和4.5阶段）不可跳过；R&R可追溯矩阵（方案11）独立验证作者的修订声明。各阶段的智能体、产出物及关卡矩阵：参见ARCHITECTURE.md 第3节。\n\n---\n\n## v3.0优化：我们对AI结构性局限的发现\n\n### 发生了什么\n\n在使用ARS撰写关于高等教育中AI的反思文章时，我遇到了三个无论怎样进行提示工程都无法解决的结构性问题：\n\n1. **框架锁定**：我要求AI就其自身论点展开“反方辩论”。它确实进行了——四轮辩论，每一轮都比上一轮更加精细。然而，每一回合始终局限于我设定的框架内。反方只攻击论点，从未质疑前提。它从未提出“我们讨论的问题是否正确？”这一根本性问题。这与v2.7压力测试中31%引用错误率出现的原因如出一辙：验证AI和生成AI共享同一认知框架。\n\n2. **面对反驳时的阿谀奉承**：每当我对反方的论点提出质疑时，它总是过于迅速地让步。它的撤回速度远远快于提出新观点的速度。模型训练过程中更倾向于对话中的和谐氛围——因此，“用户提出了反对意见”往往被解读为该论点本身存在问题，而实际上这只是表明用户坚持己见而已。\n\n3. **意图误判**：苏格拉底导师在我仍在深入探讨时，不断试图收敛并产出成果（“需要我帮你总结一下吗？”）。它无法区分“用户希望进行深刻的哲学讨论”与“用户想要一个简短的研究问题陈述”。这两种情况在外表上都很相似，但所需的AI行为却截然相反。\n\n### 我们做了哪些改变（v3.0）\n\n**反方辩论——让步阈值协议**（`deep-research` + `academic-paper-reviewer`）\n- 反方现在必须在回应之前，先对每一次反驳打1-5分\n- 只有当反驳直接针对核心论点且有证据支持时（得分≥4），才允许让步\n- 得分≤3：坚持原有立场并重申最初的论点\n- 反阿谀奉承规则：禁止连续让步，追踪让步频率，并在每次检查点后检测框架锁定现象。\n\n**苏格拉底导师——意图识别层**（`deep-research`）\n- 在对话开始时以及每三轮之后，将用户的意图分类为探索型或目标导向型\n- 探索模式：禁用自动收敛功能，将最大轮数提高至60轮，禁止发出“需要我帮你总结一下吗？”的提示\n- 目标导向模式：采用标准的收敛行为\n- 防止过早结束规则：在探索模式下，由用户决定何时停止。\n\n**苏格拉底导师——对话健康指标**（`deep-research`）\n- 每隔5轮进行一次自我评估，从三个方面考察：持续一致、回避冲突、过早收敛\n- 当检测到一致性模式时，会自动插入具有挑战性的提问\n- 对用户不可见（以防止被操纵），但日志可供会话结束后查阅。\n\n### 这些改变的意义\n\n这些优化并不能消除AI的结构性局限，而是让这些局限变得可见且可控。即使受到强烈挑战，反方最终仍会做出让步。苏格拉底导师也依然存在一定的收敛倾向。但现在有了明确的检查点，能够减缓阿谀奉承的现象，迫使反方为自己的让步提供合理依据，并防止导师在用户尚未准备好的情况下草草收尾。\n\n更深层次的启示是：AI素养并非仅仅在于学会如何使用AI工具、遵守伦理规范或担忧AI带来的风险。真正的AI素养在于深入与AI互动，从而亲自发现它的结构性局限——同时也在这一过程中认识到自身的思维局限。\n\n---\n\n## 许可证\n\n本作品采用[CC-BY-NC 4.0](https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby-nc\u002F4.0\u002F)许可协议授权。\n\n**您可以自由地：**\n- 分享——复制并重新分发本材料\n- 改编——混编、转换并在此基础上创作新作品\n\n**但需遵守以下条件：**\n- **署名**——您必须适当注明出处\n- **非商业性使用**——您不得将本材料用于商业目的\n\n**署名格式：**\n```\n基于吴政宜的学术研究技能\nhttps:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\n```\n\n---\n\n## 贡献者\n\n**Cheng-I Wu**（吴政宜）——作者兼维护者\n\n**[aspi6246](https:\u002F\u002Fgithub.com\u002Faspi6246)**——贡献者。v3.1的优化灵感来源于[Claude-Code-Skills-for-Academics](https:\u002F\u002Fgithub.com\u002Faspi6246\u002FClaude-Code-Skills-for-Academics)中的模式：只读约束模式、将反模式正式纳入设计考量、采用认知框架方法（教授“思考方式”而非单纯的操作步骤）以及精简技能规模的理念。\n\n**[mchesbro1](https:\u002F\u002Fgithub.com\u002Fmchesbro1)**——贡献者。最初提出并起草了`academic-paper-reviewer\u002Freferences\u002Ftop_journals_by_field.md`中的8种期刊清单（[Issue #5](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F5)）。\n\n**[cloudenochcsis](https:\u002F\u002Fgithub.com\u002Fcloudenochcsis)**——贡献者。将8种期刊的清单扩展为完整的11种“资深学者精选期刊”——新增《决策支持系统》、《信息与管理》以及《信息与组织》（[Issue #7](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F7)，[PR #8](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fpull\u002F8)）。资料来源于[AIS资深学者顶级期刊列表](https:\u002F\u002Faisnet.org\u002Fpage\u002FSeniorScholarListofPremierJournals)。\n\n---\n\n## 更改记录\n\n### v3.3.6（2026-04-15）— README 精简与 ARCHITECTURE 文档\n\n- 新增 `docs\u002FARCHITECTURE.md`，作为管道结构（流程、矩阵、数据访问、依赖图、质量关卡、模式）的唯一权威文档。通过 PR #18 合并至主分支。\n- 新增 `docs\u002FSETUP.md`（先决条件、API 密钥、Pandoc\u002Ftectonic、跨模型验证、安装方法）和 `docs\u002FPERFORMANCE.md`（token 预算、推荐的 Claude Code 设置）。README 现已链接至这两份文档，而非将其内嵌其中。\n- 精简 README：移除了 ASCII 管道图和 16 条关键特性列表（已被 ARCHITECTURE.md 取代）；“技能详情”部分现固定版本号，并引导读者前往 ARCHITECTURE.md §3 查看各代理的清单。\n- 注意：所有技能的功能未作任何更改。此次仅为文档重组。套件版本提升至 `3.3.6`。\n\n### v3.3.5（2026-04-15）\n\n- 新增 `benchmark_report.schema.json` 和 Material Passport 上的可选 `repro_lock` 块。两者均附带模式文档、语法检查及示例。首次正式引入 Python 开发依赖清单（`requirements-dev.txt`）。\n\n### v3.3.4（2026-04-15）— README 更改日志同步补丁\n\n- 同步了 `README.md` 和 `README.zh-TW.md` 中嵌入的更改日志部分，使其包含缺失的 `v3.3.3` 和 `v3.3.2` 发布摘要。\n- 扩展了 `scripts\u002Fcheck_spec_consistency.py`，以确保未来 README 更改日志出现偏差时会触发 CI 失败。\n\n### v3.3.3（2026-04-15）— 发布准备 + 语法检查强化\n\n- 强化了 SKILL 前言部分的语法检查：缺少结束的 `---` 分隔符现在会直接报错，而不会被解析为有效 YAML。\n- 对于虽能解析为有效 YAML 但并非映射类型的前言内容，将输出可读性错误信息，而非直接崩溃。\n- 修复了两个 README 中发布后审计报告展示链接的错误。\n- 在规范一致性检查中加入了 README 相对链接验证，确保死链会触发 CI 失败。\n- 统一了文档的 DOCX 输出协议：直接生成 `.docx` 文件依赖 Pandoc，Markdown 加转换说明则作为备用方案。\n- 准备了 `v3.3.3` 版本的发布工作：套件版本提升，`academic-paper` 升级至 v3.0.2，`academic-pipeline` 升级至 v3.2.2。\n\n### v3.3.2（2026-04-15）— 数据访问级别 + 任务类型元数据\n\n- 在所有顶级 `SKILL.md` 文件中新增了 `metadata.data_access_level` 元数据，并强制使用以下词汇：`raw`、`redacted`、`verified_only`。\n- 在所有顶级 `SKILL.md` 文件中新增了 `metadata.task_type` 元数据，并强制使用以下词汇：`open-ended`、`outcome-gradable`。\n- 为这两个元数据字段添加了语法检查脚本和单元测试，并将其集成到 GitHub Actions 的规范一致性工作流中。\n- 新增了 `shared\u002Fground_truth_isolation_pattern.md`，并将新词汇从 `shared\u002Fhandoff_schemas.md` 中链接进来。\n\n### v3.3.1（2026-04-14）— 规范一致性补丁\n\n- 同步了 README、`.claude\u002FCLAUDE.md`、`MODE_REGISTRY.md` 和 `SKILL.md` 文件中的模式数量及已发布的技能版本。\n- 修正了跨模型表述：完整性样本检查和独立 DA 评审已于今日实施；第六位评审员的同行评审仍处于计划阶段。\n- 明确了自适应检查点语义，确保 SLIM 检查点仍需等待用户明确确认。\n- 重申 Stage 2.5 和 Stage 4.5 的完整性关卡不可跳过。\n- 添加了一项轻量级的规范一致性检查及 GitHub Actions 工作流，以防止未来的偏差。\n\n### v3.3（2026-04-09）— 受 PaperOrchestra 启发的增强功能\n\n整合了来自 [PaperOrchestra](https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.05018)（Song、Song、Pfister & Yoon，2026，Google）的技术。\n\n- **Semantic Scholar API 核实** — 通过 S2 API 进行 0 级程序化参考文献存在性检查。标题 Levenshtein 匹配度 ≥ 0.70，DOI 不匹配检测，以及基于 S2 ID 的参考文献去重。若 API 不可用，则优雅降级。\n- **防泄漏协议** — 知识隔离指令优先考虑会话材料而非 LLM 参数记忆。对于缺失内容，会标记 `[MATERIAL GAP]` 而非从记忆中填补。从而降低 Mode 5\u002F6 失败的风险。\n- **VLM 图像核实**（可选） — 使用具备视觉能力的 LLM 对渲染图像进行闭环核实。包含 10 项检查清单，最多允许 2 次迭代优化。\n- **评分轨迹协议** — 在各轮修订中跟踪每个维度的评分变化（共 7 个维度）。若发现退步（评分变化 \u003C -3），则会触发强制性检查点。\n- **Stage 2 并行化** — 提纲完成后，可视化与论证构建可并行进行。\n- 新版本：deep-research v2.8，academic-paper v3.0，academic-pipeline v3.2。\n\n### v3.2（2026-04-09）— 整合 Lu 2026 Nature 论文成果\n\n整合了 Lu 等人（2026，《Nature》651:914–919）的研究洞见——这是首个通过盲审的端到端自主 AI 研究系统。\n\n- **7 种 AI 研究失败模式检查表** — 在疑似实现错误、幻觉结果、依赖捷径、将错误视为洞见、捏造方法论或陷入框架锁定时，会在 Stage 2.5\u002F4.5 阻断管道。扩展了现有的 5 类引用幻觉分类法。\n- **评审校准模式**（academic-paper-reviewer v1.8） — 用户可选择针对其提供的黄金数据集测量 FNR\u002FFPR\u002F平衡准确率。采用 5 次集成、跨模型默认开启，并在会话范围内披露置信度。\n- **披露模式**（academic-paper v2.9） — 针对不同会议生成特定的 AI 使用声明。v1 支持 ICLR、NeurIPS、Nature、Science、ACL 和 EMNLP。\n- **提前停止准则**（academic-pipeline v3.1） — 在管道启动时进行收敛性检查并公开预算透明度。\n- **保真度-原创性模式谱系** — 根据 Lu 2026 Fig 1c，将所有模式按 3 个技能类别进行分类。\n- 新版本：academic-paper v2.9，academic-paper-reviewer v1.8，academic-pipeline v3.1。\n\n### v3.1.1（2026-04-09）— IS 资深学者精选期刊篮子（11 篇）\n\n外部贡献：[@mchesbro1](https:\u002F\u002Fgithub.com\u002Fmchesbro1) 最初提出并起草了 IS 篮子中的 8 篇期刊（[Issue #5](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F5)）；[@cloudenochcsis](https:\u002F\u002Fgithub.com\u002Fcloudenochcsis) 将其扩展至完整的资深学者精选期刊篮子（11 篇）（[Issue #7](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F7)，[PR #8](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fpull\u002F8)）。更新了 `academic-paper-reviewer\u002Freferences\u002Ftop_journals_by_field.md` 第 7 节，新增了 *Decision Support Systems*、*Information & Management* 和 *Information and Organization*。资料来源：[AIS 资深学者首选期刊列表](https:\u002F\u002Faisnet.org\u002Fpage\u002FSeniorScholarListofPremierJournals)。\n\n### v3.1 (2026-04-06) — 抗情境漂移 + 认知框架 + 精简规模\n\n灵感源自 [aspi6246\u002FClaude-Code-Skills-for-Academics](https:\u002F\u002Fgithub.com\u002Faspi6246\u002FClaude-Code-Skills-for-Academics) 中的模式。\n\n**第一波：抗情境漂移锚点**\n- 涵盖全部4项技能的29个明确反模式（每项技能7–8个，以表格形式呈现“为何失效”与“正确行为”）\n- 22条铁律标记，用于标识在长时间对话中也绝不能违背的关键规则\n- 学术论文审稿人角色设置为只读约束（审稿人不可修改稿件）\n\n**第二波：可追溯性 + 认知框架 + 强化机制**\n- R&R 可追溯性矩阵（模式11）：在复审输出中新增“作者主张”和“已验证？”列，便于独立验证修订主张\n- 3份认知框架参考文件，教导智能体“如何思考”而非仅“做什么”：\n  - `argumentation_reasoning_framework.md` — 图尔敏模型、布拉德福德·希尔因果推理、最佳解释推理、认识论地位分类\n  - `review_quality_thinking.md` — 三重视角（内部效度、外部效度、贡献度）、常见审稿陷阱、校准问题\n  - `writing_judgment_framework.md` — 清晰度测试、读者旅程、学科特定语态、修订决策矩阵\n- 对话中期强化协议：在每个流程节点转换时，按阶段提醒铁律与反模式\n- 在每个完整检查点设置自检问题（引用完整性、溜须拍马式让步、质量轨迹、范围与学科匹配、内容完整性）\n\n**第三波：精简技能规模**\n- SKILL.md 总大小由142KB降至85KB（减少40%），通过将详细协议提取至 `references\u002F` 文件实现\n- 新增约15份参考文件（复审协议、引导模式、系统综述、流程摘要、外部评审等）\n- SKILL.md 中保留所有铁律标记；详细内容按需加载\n- 新版本：深度研究v2.7、学术论文v2.8、学术论文审稿人v1.7、学术流程v3.0\n\n### v3.0 (2026-04-03) — 反溜须拍马 + 意图识别 + 对话健康度\n- **反方论证让步阈值**（深度研究 + 学术论文审稿人）：反方必须先对反驳打1–5分再作回应。仅当评分≥4时才可让步。不得连续让步。全程追踪让步率。每次检查点后检测框架锁定状态。\n- **攻击强度保持**（学术论文审稿人）：反方在受到反驳时不会软化。配备明确偏转检测的反驳评估协议。反溜须拍马规则防止持续施压被视为有效证据。\n- **意图识别层**（深度研究苏格拉底式）：将用户意图划分为探索型与目标导向型。探索模式下禁用自动收敛，提高最大轮次限制，并禁止过早结束。每3轮重新评估一次。\n- **对话健康度指标**（深度研究苏格拉底式）：每5轮进行一次自我检查，监测是否存在持续一致、回避冲突或过早收敛的情况。一旦检测到一致倾向，会自动引入挑战。\n- **跨模型验证协议**（共享，可选）：使用GPT-5.4 Pro或Gemini 3.1 Pro进行样本交叉核验及独立的反方批判。第六位审稿人的同行评审仍在计划中，尚未实施。通过设置 `ARS_CROSS_MODEL` 环境变量启用——未设置时，一切照旧。完整设置指南、API模式及成本估算见 `shared\u002Fcross_model_verification.md`。\n- **AI自我反思报告**（学术流程第6阶段）：流程结束后对AI行为模式的自我评估——反方让步率、检查点跳过率、健康警报、溜须拍马风险评级（低\u002F中\u002F高）、框架锁定事件、收敛模式分析。附带讽刺说明：“本次自我反思本身即由可能曾有溜须拍马行为的同一AI生成。”\n- 背景：源于一次四轮辩证实验，其中反方过快让步，苏格拉底导师试图过早收敛，整个辩论始终被人类设定的框架所束缚。\n- 版本：深度研究v2.5、学术论文审稿人v1.5、学术流程v2.8\n\n### v2.9 (2026-03-27) — 文风校准 + 写作质量检查\n- **文风校准**（学术论文录入第10步，可选）：提供3篇以上过往论文，流程将学习用户的写作风格——句式节奏、词汇偏好、引文整合方式。在校稿过程中作为柔性指导应用；学科规范始终优先。优先级体系：学科规范（硬性）>期刊规范（强性）>个人风格（柔性）。详情参见 `shared\u002Fstyle_calibration_protocol.md`。\n- **写作质量检查**（`academic-paper\u002Freferences\u002Fwriting_quality_check.md`）：在草稿自审时应用的写作质量检查清单。包含5大类：AI高频词警告（25个术语）、标点符号模式控制（破折号≤3个）、清嗓子式开头检测、结构模式警告（三段法则、段落统一、同义词循环）以及句长变化检测。这些都是良好写作规范，而非规避检测的手段。\n- **文风档案**贯穿学术流程物料护照（见 `shared\u002Fhandoff_schemas.md` 中的模式10）。\n- **深度研究**报告编译器也可选择性地使用这两项功能。\n- 版本：学术论文v2.5、深度研究v2.4、学术流程v2.7\n\n### v2.8 (2026-03-22) — SCR循环第一阶段：陈述-质疑-反思\n- **苏格拉底导师代理**（深度研究 + 学术论文）：集成SCR（陈述-质疑-反思）协议\n  - **承诺关卡**：在每一层\u002F章节过渡时，在展示证据前收集用户的预测\n  - **确定性触发的矛盾**：检测高自信用语（如“显然”、“清楚地”），并适时提出反证\n  - **强度自适应**：跟踪承诺准确率，动态调整质疑频率\n  - **自我校准信号（S5）**：新增一种收敛信号，用于追踪用户在整个对话中的自我校准成长\n  - **SCR开关**：用户可在对话中途说“跳过预测”来关闭该功能，或“重新开启预测”来恢复；苏格拉底式提问则照常进行\n- `deep-research\u002Freferences\u002Fsocratic_questioning_framework.md`：SCR叠加协议，将SCR各阶段映射至苏格拉底式提问的功能\n- 新增 `CHANGELOG.md`\n\n### v2.7 (2026-03-09) — 完整性验证 v2.0：反幻觉全面升级\n- **integrity_verification_agent v2.0**：反幻觉强制执行（无需AI记忆验证），取消灰色地带分类（仅保留VERIFIED\u002FNOT_FOUND\u002FMISMATCH），每条引用必须附带WebSearch审计追踪，新增4.5阶段的独立复核，以及灰色地带预防规则。\n- **已知幻觉模式**：结合GPTZero与NeurIPS 2025研究提出的5类分类法（TF\u002FPAC\u002FIH\u002FPH\u002FSH）、5种复合欺骗模式、真实案例分析及文献统计。\n- **发表后审计**：对所有68篇参考文献进行全面WebSearch核查，发现21处问题（错误率31%），这些问题此前已通过三轮完整性检查——证明了外部验证的必要性。\n- **论文更正**：删除4篇伪造的参考文献，修正6处作者错误，纠正7处元数据错误，修复2处格式问题。\n\n### v2.6.2 (2026-03-09) — 基于意图的模式激活\n- **deep-research**：苏格拉底模式现采用**基于意图的激活机制**，而非关键词匹配。支持任意语言——系统会识别语义含义（如“用户希望获得引导式思考”），而非单纯匹配特定字符串。\n- **academic-paper**：计划模式现同样采用**基于意图的激活机制**。无论何种语言，系统都能检测到用户的意图信号，例如“用户不确定如何开始”或“用户需要分步指导”。\n- 两种模式现均设有**默认规则**：当意图模糊时，优先选择`socratic`\u002F`plan`模式而非`full`模式——这样更安全，先进行引导。\n- 采用两层架构：第一层（技能激活）使用双语关键词以提高匹配置信度；第二层（模式路由）则利用与语言无关的意图信号。\n\n### v2.6.1 (2026-03-09) — 双语触发关键词\n- **deep-research**：新增繁体中文触发关键词，用于通用激活及苏格拉底模式。\n- **academic-paper**：新增繁体中文触发关键词，并增设计划模式触发部分。\n- 两种模式选择指南现均包含双语示例及针对中文用户的误选场景说明。\n\n### v2.6 \u002F v2.4 \u002F v1.4 (2026-03-08) — 15项以上改进\n- **deep-research v2.3**：新增系统综述\u002FPRISMA模式（第7种）；新增3个代理（risk_of_bias、meta_analysis、monitoring）；提供PRISMA协议和报告模板；引入苏格拉底模式收敛标准（4种信号+自动结束）；推出快速模式选择指南。\n- **academic-paper v2.4**：新增2个代理（visualization、revision_coach）；提供包含4种状态类型的修订跟踪模板；支持APA↔Chicago↔MLA↔IEEE↔Vancouver等不同引用格式之间的转换；制定统计可视化标准；引入苏格拉底模式收敛标准；提供修订恢复示例；并对**LaTeX输出进行加固**——强制使用`apa7`文档类，修复文本两端对齐问题（`ragged2e` + `etoolbox`），优化表格列宽公式，实现双语摘要居中，统一字体栈为Times New Roman + Source Han Serif TC VF + Courier New，且PDF仅通过tectonic生成。\n- **academic-paper-reviewer v1.4**：引入质量评分细则，采用0–100分制并辅以行为指标；制定决策映射（≥80分接受，65–79分轻微修改，50–64分重大修改，\u003C50分拒绝）；提供快速模式选择指南。\n- **academic-pipeline v2.6**：引入自适应检查点系统（FULL\u002FSLIM\u002FMANDATORY）；在完整性检查中加入E阶段的主张验证；为中途引入的材料提供材料护照以追溯来源；新增跨技能模式顾问（14种场景）；制定团队协作协议；优化交接方案（共9种）；并提供完整性失败恢复示例。\n\n### v2.4 \u002F v1.3 (2026-03-08)\n- **academic-pipeline v2.4**：新增第6阶段PROCESS SUMMARY——自动生成结构化的论文创作流程记录（MD → LaTeX → PDF，双语）；强制要求撰写最后一章：**协作质量评估**，从方向设定、智力贡献、质量把关、迭代纪律、授权效率及元学习六个维度分别打分1–100分，同时提供坦诚反馈及改进建议；管道流程由此前的9个阶段扩展至10个。\n\n### v2.3 \u002F v1.3 (2026-03-08)\n- **academic-pipeline v2.3**：第5阶段FINALIZE现会提示用户选择格式风格（APA 7.0 \u002F Chicago \u002F IEEE）；PDF必须通过`tectonic`从LaTeX编译生成（禁止使用HTML转PDF）；APA 7.0需使用`apa7`文档类（`man`模式），并搭配XeCJK以支持双语CJK字符；字体栈为Times New Roman + Source Han Serif TC VF + Courier New。\n\n### v2.2 \u002F v1.3 (2025-03-05)\n- **跨代理质量对齐**：在所有代理中统一定义（同行评审、时效性规则、CRITICAL严重程度、来源等级）。\n- **deep-research v2.2**：新增综合反模式、苏格拉底模式自动结束条件、DOI+WebSearch验证、强化伦理完整性检查以及模式转换矩阵。\n- **academic-paper v2.2**：引入4级论证评分体系、剽窃筛查功能，并新增两条失败处理路径（F11案头驳回恢复、F12会议转期刊）；支持从计划模式转换至完整模式。\n- **academic-paper-reviewer v1.3**：明确DA与R3角色边界，制定CRITICAL发现标准，引入共识分类机制（4\u002F3\u002FSPLIT\u002FDA-CRITICAL），调整置信度评分权重，并纳入亚洲及区域期刊作为参考。\n- **academic-pipeline v2.2**：完善检查点确认语义、模式切换矩阵、失败回退矩阵、状态归属协议以及材料版本控制机制。\n\n### v2.0.1 (2026-03)\n- **简化4个SKILL.md文件**（减少371行，降幅16.5%）：移除跨技能重复内容，将内联模板改为文件引用，清理冗余路由表及重复的模式选择章节。\n- 修复academic-paper与academic-pipeline之间关于修订循环上限的矛盾。\n\n### v2.0 (2026-02)\n- **academic-pipeline v2.0**：流程由5个阶段增至9个，强制执行完整性验证，实行两阶段评审，提供苏格拉底式修订辅导，并确保结果可重复性。\n- **academic-paper-reviewer v1.1**：新增“魔鬼代言人审稿人”（第7个代理），增加复审模式（验证用途），并在审稿后提供苏格拉底式辅导。\n- 新增代理：`integrity_verification_agent`——负责100%的引用\u002F数据验证，并附带审计追踪。\n- 新增代理：`devils_advocate_reviewer_agent`——具备8维度论点挑战能力。\n- 输出顺序：优先通过Pandoc将MD转换为DOCX（若不可用则提供操作说明），随后请求LaTeX编译，确认无误后再生成PDF。\n\n### v1.0 (2026-02)\n- 初始发布版本。\n- deep-research v2.0（10个代理，6种模式，包括苏格拉底模式）。\n- academic-paper v2.0（10个代理，8种模式，包括计划模式）。\n- academic-paper-reviewer v1.0（6个代理，4种模式，包括引导式模式）。\n- academic-pipeline v1.0（协调器）。","# Academic Research Skills 快速上手指南\n\n**Academic Research Skills (ARS)** 是一套专为 Claude Code 设计的学术研究工作流工具集。它并非全自动代写工具，而是作为“副驾驶”协助研究者完成文献检索、数据验证、逻辑一致性检查、格式调整及同行评审模拟等繁琐工作，让研究者专注于核心观点的构建与阐释。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求和前置依赖：\n\n*   **操作系统**：macOS, Linux 或 Windows (WSL2 推荐)。\n*   **核心运行时**：\n    *   [Node.js](https:\u002F\u002Fnodejs.org\u002F) (v18 或更高版本)\n    *   [Claude Code](https:\u002F\u002Fclaude.ai\u002Fcode) (需已安装并配置好 API Key)\n*   **可选依赖**（用于文档生成与转换）：\n    *   `pandoc`：用于 DOCX\u002FPDF 格式转换。\n    *   `tectonic` 或 `texlive`：用于 LaTeX 编译。\n*   **API 密钥**：\n    *   Anthropic API Key (用于 Claude Code)。\n    *   Semantic Scholar API Key (可选，用于增强文献验证)。\n\n> **注意**：本工具强调“人在回路”（Human-in-the-loop），旨在辅助而非替代研究者的判断。请勿将其用于直接生成未经审核的学术论文以规避学术道德审查。\n\n## 安装步骤\n\n你可以通过以下任一方式将 ARS 集成到本地环境中：\n\n### 方法一：通过 Claude Code 项目导入（推荐）\n\n如果你使用 `claude.ai` 网页版或支持项目导入的客户端：\n\n1.  访问仓库 releases 页面或直接克隆源码。\n2.  在 Claude Code 中创建新项目，并将 ARS 的技能文件目录导入。\n\n### 方法二：命令行手动安装\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills.git\n    cd academic-research-skills\n    ```\n\n2.  **安装依赖**\n    ```bash\n    npm install\n    ```\n\n3.  **配置环境变量**\n    复制示例配置文件并根据需要修改：\n    ```bash\n    cp .env.example .env\n    ```\n    编辑 `.env` 文件，填入你的 `ANTHROPIC_API_KEY` 和其他可选密钥。\n\n4.  **验证安装**\n    运行数据访问级别检查脚本以确保环境正常：\n    ```bash\n    python scripts\u002Fcheck_data_access_level.py\n    ```\n\n5.  **启动 Claude Code**\n    在当前目录下启动 Claude Code，它将自动加载 ARS 技能定义：\n    ```bash\n    claude\n    ```\n\n> **国内用户提示**：如果克隆速度较慢，可使用国内镜像源加速：\n> ```bash\n> git clone https:\u002F\u002Fgitee.com\u002Fmirror\u002Facademic-research-skills.git # 假设有镜像，否则建议使用代理\n> # 或者配置 npm 淘宝镜像\n> npm config set registry https:\u002F\u002Fregistry.npmmirror.com\n> ```\n\n## 基本使用\n\n安装完成后，直接在 Claude Code 对话中调用即可。ARS 会根据你的自然语言指令自动激活相应的技能模式（如深度研究、论文写作、同行评审等）。\n\n### 1. 启动完整研究流程\n从头开始一个新的研究课题：\n```text\nI want to write a research paper on AI's impact on higher education QA\n```\n*(中文示例：我想写一篇关于人工智能对高等教育质量保证影响的研究论文)*\n\n### 2. 苏格拉底式引导研究\n让 AI 通过提问引导你明确研究思路：\n```text\nGuide my research on AI in educational evaluation\n```\n*(中文示例：引导我进行关于人工智能在教育评估方面的研究)*\n\n### 3. 论文写作与大纲构建\n辅助撰写论文或生成大纲：\n```text\nGuide me through writing a paper on demographic decline\n```\n*(中文示例：引导我完成一篇关于人口减少的论文写作)*\n\n```text\nBuild a paper outline\n```\n\n### 4. 模拟同行评审\n对已有草稿进行多视角评审：\n```text\nReview this paper\n```\n*(随后粘贴或上传你的论文内容)*\n\n### 5. 查看流水线状态\n检查当前研究流水线的进度：\n```text\nstatus\n```\n\n### 常用技能模式速查\n\n| 技能类别 | 指令示例 | 功能描述 |\n| :--- | :--- | :--- |\n| **Deep Research** | `\"Do a systematic review on X with PRISMA\"` | 执行 PRISMA 标准的系统综述 |\n| | `\"Fact-check these claims\"` | 事实核查模式 |\n| **Academic Paper** | `\"Convert citations to IEEE\"` | 转换引用格式为 IEEE |\n| | `\"Generate an AI disclosure statement\"` | 生成 AI 使用披露声明 |\n| **Reviewer** | `\"Calibrate this reviewer against my gold set\"` | 校准评审标准（需提供金标数据集） |\n\n### 语言支持\n*   **默认行为**：当你使用中文提问时，系统将默认输出繁体中文（可配置）；使用英文提问则输出英文。\n*   **跨语言兼容**：核心的“苏格拉底引导模式”和“规划模式”基于意图识别，支持任意语言输入，无需特定关键词触发。\n\n---\n*更多详细架构说明、性能估算及完整案例展示，请参阅项目根目录下的 `docs\u002FARCHITECTURE.md` 和 `examples\u002Fshowcase\u002F`。*","博士生李明正在准备一篇关于“大语言模型在医疗诊断中偏差”的综述论文，面临从海量文献筛选到最终定稿的巨大压力。\n\n### 没有 academic-research-skills 时\n- **文献大海捞针**：手动在多个数据库检索并筛选上百篇文献，耗时数天且容易遗漏关键研究，难以严格执行 PRISMA 系统 review 标准。\n- **引用格式混乱**：不同来源的参考文献格式不一，手动调整 BibTeX 或 EndNote 条目极易出错，导致反复返工修改。\n- **逻辑与事实风险**：高强度写作下容易出现论证逻辑断层，甚至因疲劳而无意中引入“幻觉”数据或错误的因果推断。\n- **风格割裂感**：若借助普通 AI 润色，文章常带有明显的机器生成痕迹，缺乏个人学术声音，难以通过审稿人的\"AI 检测”直觉。\n\n### 使用 academic-research-skills 后\n- **自动化深度调研**：调用内置的 13 智能体团队自动执行 Socratic 引导式检索与意图识别，快速完成符合 PRISMA 标准的文献筛选与交叉验证。\n- **零误差引文管理**：工具自动追踪并格式化所有引用，结合 Semantic Scholar API 实时核验元数据，确保参考文献准确无误。\n- **多重完整性门禁**：在写作流程的关键节点（如 Stage 2.5 和 4.5）自动运行 7 模式检查清单，拦截逻辑不一致、方法论捏造及引用幻觉等常见错误。\n- **个性化风格校准**：通过\"Style Calibration\"功能学习李明过往论文的写作语调，在提升表达质量的同时保留其独特的学术声音，避免机器味。\n\nacademic-research-skills 将研究者从繁琐的机械劳动中解放出来，让人类专家专注于核心观点的构建与深度解读，真正实现\"AI 为副驾驶，人类为主驾”的高效科研协作。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FImbad0202_academic-research-skills_4fb97675.png","Imbad0202","Edward Cheng-I Wu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FImbad0202_857d92d2.png",null,"https:\u002F\u002Fgithub.com\u002FImbad0202",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",89.7,{"name":87,"color":88,"percentage":89},"TeX","#3D6117",10.3,3103,359,"2026-04-19T11:14:26","NOASSERTION","未说明","不需要本地 GPU",{"notes":97,"python":94,"dependencies":98},"该工具是基于 Claude Code 的技能套件，主要依赖云端 API 而非本地计算资源。需要配置 Claude API 密钥。可选安装 Pandoc 或 Tectonic 用于生成 DOCX\u002FPDF 文档。无本地 Python 环境、GPU 或特定内存大小要求，运行成本主要为 API Token 消耗（预估一篇 1.5 万字论文约 4-6 美元）。",[99,100,101],"Claude Code","Pandoc (可选)","Tectonic (可选)",[16,29],[104,105,106,107,108,109,110,111],"academic-writing","ai-research","claude","claude-code","literature-review","peer-review","prompt-engineering","academic-pipeline","2026-03-27T02:49:30.150509","2026-04-20T04:06:32.729626",[115,120,125,130,135,140],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},43722,"如何登录和使用该工具？必须使用 API Key 吗？","不一定需要 API Key。该工具作为技能集运行在 Claude Code 中，支持多种登录方式：\n1. **Claude 订阅用户（Pro\u002FMax\u002FTeam\u002FEnterprise）**：直接运行 `claude` 命令并跟随登录提示，无需 API Key。\n2. **Anthropic API Key 用户**：设置环境变量 `ANTHROPIC_API_KEY`，按用量付费。\n3. **Web 端用户**：可在 claude.ai 上创建 Project，通过 GitHub 集成导入该仓库的核心技能目录，无需安装 Claude Code 即可使用。","https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F11",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},43723,"是否支持仅使用 GPT 模型运行？","该工具无法作为原生技能包直接安装在 GPT 环境中，因为它是专为仅运行 Claude 模型的 Claude Code 构建的。但是，其核心的代理提示词（Agent prompts）是框架无关的。如果你希望在终端获得类似的代理体验，可以使用 OpenAI Codex CLI 进行 DIY 配置，但这需要手动移植提示词逻辑，而非直接安装使用。","https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F23",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},43724,"ARS_CROSS_MODEL 环境变量可以设置为其他模型（如 MiniMax）吗？","目前官方支持的模型包括 `gpt-5.4-pro`（推荐）、`gpt-5.4` 和 `gemini-3.1-pro-preview`。MiniMax 尚未正式支持，但技术上可行，因为其 API 兼容 OpenAI 格式。若要添加支持，需修改 `shared\u002Fcross_model_verification.md` 文件以适配 MiniMax 所需的额外 `group_id` 参数，并验证其识别引用幻觉的能力。欢迎提交 PR 贡献代码。","https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F10",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},43725,"如何使用“风格校准”（Style Calibration）功能？需要手动开启计划模式吗？","不需要手动激活计划模式，技能会自动检测你的意图。风格校准位于学术论文流程的第 10 步（intake interview）：\n1. **自动触发**：当流程到达该步骤时，系统会询问你是否有过往论文样本。回答“是”并上传文件，系统将构建你的风格配置文件（Style Profile）。\n2. **主动触发**：在提问时直接提供样本，例如：“写一篇关于 [主题] 的论文。以下是我的过往论文用于风格校准：[文件]”。\n注意：如果单独使用 deep-research 技能，无法触发此功能，因为它依赖主流程传递风格配置。","https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F3",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},43726,"如何向顶级期刊列表（top_journals_by_field.md）中添加新的期刊分类（如信息系统领域）？","如果你没有直接提交 PR 的权限，可以通过以下方式贡献：\n1. Fork 仓库并在本地修改 `top_journals_by_field.md` 文件，添加新的期刊表格（包含期刊名、出版社、影响因子范围及审稿偏好）。\n2. 在 Issue 中粘贴具体的修改内容或 Diff 代码。\n3. 维护者会将内容直接合并到主分支，并在提交信息中注明贡献者姓名。例如，信息系统领域的“八大期刊”（Basket of 8）或“资深学者十一大期刊”（Basket of 11）均是通过此方式添加的。","https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fissues\u002F5",{"id":141,"question_zh":142,"answer_zh":143,"source_url":134},43727,"是否有去除 AI 生成文本痕迹的功能？","目前工作流主要专注于学术研究辅助，尚未内置专门的“去 AI 化”技能。虽然社区有类似 humanizer 的工具，但它们可能不完全适用于学术写作场景。建议关注后续更新，或通过自定义提示词在现有流程中尝试调整语气，但需注意保持学术严谨性。",[145,150,155,160,165,170,175,180,185],{"id":146,"version":147,"summary_zh":148,"released_at":149},351142,"v3.3.4","## 摘要\n- 同步 `README.md` 和 `README.zh-TW.md` 中嵌入的变更日志部分，使其包含 `v3.3.3` 和 `v3.3.2`\n- 扩展 `scripts\u002Fcheck_spec_consistency.py`，以便未来 README 变更日志出现偏差时能触发 CI 测试失败\n\n## 原因\n`v3.3.3` 版本的发布元数据已经发布，但 README 中嵌入的变更日志摘要仍然停留在 `v3.3.1`。\n\n## 验证\n- `python scripts\u002Fcheck_spec_consistency.py`","2026-04-15T06:58:06",{"id":151,"version":152,"summary_zh":153,"released_at":154},351143,"v3.3.2","# v3.3.2 — data_access_level 元数据\n\n**发布日期:** 2026-04-15\n\n## 新增内容\n\n在每个顶级 SKILL.md 文件中添加了一个声明式的 `data_access_level` 字段。取值如下：\n\n- `raw` — 使用未经验证的数据源\n- `redacted` — 在已脱敏的数据上运行\n- `verified_only` — 仅在上游完整性检查通过后执行\n\n这是一项小幅的、非破坏性的新增变更，不会影响现有行为。它为流水线、CI 以及下游工具（例如 agent-council 集成）提供了一种一致的方式来判断哪些技能可以访问何种类型的数据。\n\n## 背景\n\n灵感来源于 Anthropic 的 automated-w2s-researcher (2026) 中的三层隔离模式。ARS 的完整性检查机制已经在实践中实现了类似的分离；此次变更使其变为显式声明，并且可被机器验证。\n\n### `task_type`\n\n一个双值字段：`open-ended` 或 `outcome-gradable`。目前所有 ARS 技能均为 `open-ended`——明确表明 ARS 是为领域性判断工作（如人文社科、QA、政策分析）设计的，而非用于以标量指标定义成功的基准任务。\n\n此字段与 `data_access_level` 搭配使用，使调用方能够全面了解每项技能的安全态势。\n\n## 完整变更日志\n\n- 在 `deep-research`（`raw`）、`academic-paper`（`redacted`）、`academic-paper-reviewer`（`verified_only`）、`academic-pipeline`（`verified_only`）中添加了 `metadata.data_access_level`\n- 新增 lint 工具：`scripts\u002Fcheck_data_access_level.py`，包含 4 个单元测试（包括对格式错误 YAML 的覆盖）\n- 将 lint 工具集成到 CI 流水线中：`.github\u002Fworkflows\u002Fspec-consistency.yml`\n- 文档更新：`shared\u002Fhandoff_schemas.md`、`README.md`、`README.zh-TW.md`、`.claude\u002FCLAUDE.md`\n- 在所有 4 个 SKILL.md 文件中添加了 `metadata.task_type`（全部为 `open-ended`）\n- 新增 lint 工具：`scripts\u002Fcheck_task_type.py`，包含 4 个单元测试，并已集成到 CI 流水线中\n- 在各技能的 README 中新增技能安全态势表格，综合展示 `data_access_level` 和 `task_type`\n\n## 升级说明\n\n无需任何操作——本次变更属于功能扩展，外部用户无需采取任何行动。\n","2026-04-15T06:47:23",{"id":156,"version":157,"summary_zh":158,"released_at":159},351144,"v3.3.3","### 修复\n- `scripts\u002F_skill_lint.py` 现在会拒绝缺少闭合 `---` 分隔符的 SKILL 前置元数据，而不是静默地将文件剩余部分当作 YAML 处理。\n- 当前置元数据能够解析为合法 YAML 但并非映射对象时，`scripts\u002F_skill_lint.py` 现在会报告一条易读的错误信息，而不再抛出 `AttributeError` 导致程序崩溃。\n- 已修正发布后审计报告展示页的链接，该问题同时存在于 `README.md` 和 `README.zh-TW.md` 中。\n- `scripts\u002Fcheck_spec_consistency.py` 现在会验证 README 中的相对 Markdown 链接，以便未来出现死链时能触发 CI 测试失败。\n\n### 变更\n- DOCX 生成规范已在 README、`academic-paper\u002FSKILL.md`、`academic-paper\u002Fagents\u002Fformatter_agent.md`、`academic-pipeline\u002FSKILL.md` 和 `academic-pipeline\u002Fagents\u002Fpipeline_orchestrator_agent.md` 中对齐：直接输出 `.docx` 文件依赖 Pandoc；若无法使用 Pandoc，则以 Markdown 加转换指令作为回退方案。\n- 在两个 lint 测试套件中新增了针对缺失闭合分隔符和非映射 YAML 前置元数据的回归测试。\n- 所有面向发布的文档版本号均已升级至 `3.3.3`；`academic-paper` 版本号小版本递增至 `3.0.2`，`academic-pipeline` 版本号小版本递增至 `3.2.2`。","2026-04-15T06:35:50",{"id":161,"version":162,"summary_zh":163,"released_at":164},351145,"v3.3","## v3.3 — 受 PaperOrchestra 启发的增强功能\n\n整合了来自 [PaperOrchestra](https:\u002F\u002Farxiv.org\u002Fabs\u002F2604.05018)（Song、Song、Pfister 和 Yoon，2026 年，Google）的技术——这是一个多智能体框架，能够从原始研究资料中自主撰写 LaTeX 文稿。\n\n### 新特性\n\n- **Semantic Scholar API 验证** — 通过 S2 API 实现 Tier 0 级别的程序化参考文献存在性检查。采用 Levenshtein 距离 ≥ 0.70 的标题匹配，并检测 DOI 不匹配情况（复合欺骗模式 #5），同时利用 S2 ID 对参考文献列表进行去重。在 API 不可用时可实现优雅降级。\n- **防信息泄露协议** — 知识隔离指令优先使用会话材料而非 LLM 的参数记忆来处理事实性内容。对于缺失的内容会标记 `[MATERIAL GAP]`，而不是直接从记忆中补全。从而降低模式 5\u002F6 失败的风险。\n- **VLM 图表验证**（可选） — 使用具备视觉能力的 LLM 对渲染后的图表进行闭环验证。包含涵盖数据准确性、APA 7.0 标准合规性及视觉质量的 10 项检查清单。最多允许 2 次迭代优化。\n- **评分轨迹协议** — 在各轮修改中跟踪每个维度的评分变化。若出现退步（变化值 \u003C -3），则触发强制性检查点保存。该协议在 v3.2 的提前停止机制基础上，进一步细化到维度级别。\n- **第二阶段并行化指令** — 在提纲完成后，可视化与论证构建可并行进行。\n\n### 模式更新\n\n- 在参考文献源对象中新增 `semantic_scholar_id` 字段（模式 2）\n- 在完整性报告中新增 `score_trajectory` 结构（模式 5），并与 7 个通用评审维度保持一致\n\n### 版本升级\n\n| 技能 | 版本 |\n|-------|---------|\n| 深度研究 | v2.7 → **v2.8** |\n| 学术论文写作 | v2.9 → **v3.0** |\n| 学术论文审稿人 | v1.8（未变） |\n| 学术研究流程 | v3.1 → **v3.2** |\n\n### 新增文件\n\n- `deep-research\u002Freferences\u002Fsemantic_scholar_api_protocol.md`\n- `academic-paper\u002Freferences\u002Fanti_leakage_protocol.md`\n- `academic-paper\u002Freferences\u002Fvlm_figure_verification.md`\n- `academic-pipeline\u002Freferences\u002Fscore_trajectory_protocol.md`\n\n### 完整变更日志\n\n详情请参阅 [CHANGELOG.md](https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fblob\u002Fmain\u002FCHANGELOG.md)。","2026-04-09T14:33:06",{"id":166,"version":167,"summary_zh":168,"released_at":169},351146,"v3.2","整合了 Lu 等人（2026，*Nature* 651:914–919）的研究成果——这是首个通过盲审的端到端自主人工智能研究系统。\n\n### 新增功能\n\n- **7种模式下的AI研究失败模式检查清单** —— 在流程的第2.5\u002F4.5阶段，若怀疑存在实现错误、幻觉结果、依赖捷径、将 bug 视为洞见、方法论造假或框架锁定等问题，则会阻断整个流程。该检查清单扩展了现有的5类引用幻觉分类体系。\n- **审稿人校准模式**（v1.8）—— 用户可选择启用，基于其提供的黄金标准数据集来测量假阴率（FNR）、假阳率（FPR）及平衡准确率。采用5倍集成学习，默认开启跨模型机制，并在单个会话范围内公开置信度信息。\n- **披露模式**（v2.9）—— 针对不同会议或期刊生成特定的AI使用声明。v1版本支持 ICLR、NeurIPS、Nature、Science、ACL 和 EMNLP。\n- **早停准则**（流程v3.1）—— 在流程启动时进行收敛性检查，并确保预算透明。\n- **忠实性-原创性模式谱系**—— 根据Lu 2026图1c中的3项技能维度，对所有模式进行分类。\n- **README位置更新**—— 引用Lu 2026的研究作为外部证据，支持ARS的人机协作理念（英文版与繁体中文版均包含）。\n\n### 版本升级\n- 学术论文模块：v2.8 → v2.9\n- 学术论文审稿人模块：v1.7 → v1.8\n- 学术流程模块：v3.0 → v3.1\n\n完整详情请参阅 [CHANGELOG.md](CHANGELOG.md) 和 [ROADMAP_v3.2.md](ROADMAP_v3.2.md)。","2026-04-09T07:53:07",{"id":171,"version":172,"summary_zh":173,"released_at":174},351147,"v3.1","受 [aspi6246\u002FClaude-Code-Skills-for-Academics](https:\u002F\u002Fgithub.com\u002Faspi6246\u002FClaude-Code-Skills-for-Academics) 中的模式启发。\n\n## 第一波：反上下文漂移锚点\n- 涵盖全部4项技能的29个明确反模式（每项技能7–8个，表格形式）\n- 22处关键规则上的“铁律”标记\n- 学术论文审稿人角色设置为只读约束\n\n## 第二波：可追溯性 + 认知框架 + 强化机制\n- **R&R 可追溯性矩阵**（模式11）：在复审输出中增加“作者主张”与“已验证？”两列\n- 3份认知框架参考文件：\n  - `argumentation_reasoning_framework.md` — 图尔敏模型、布拉德福德·希尔标准、逆向因果推理、认识论地位\n  - `review_quality_thinking.md` — 三重视角、审稿人陷阱、校准问题\n  - `writing_judgment_framework.md` — 清晰度测试、读者阅读路径、学科特定语态\n- 在每个流程阶段转换时实施对话中强化协议\n- 在每个完整检查点设置自我检查问题\n\n## 第三波：精简技能规模\n- SKILL.md 总大小：**142KB → 85KB（−40%）**\n- 新增约15份参考文件（提取详细规程并按需加载）\n- SKILL.md 中所有“铁律”标记均予保留\n\n## 版本信息\n| 技能 | 版本 |\n|-------|---------|\n| 深度研究 | v2.7 |\n| 学术论文 | v2.8 |\n| 学术论文审稿人 | v1.7 |\n| 学术流程 | v3.0 |\n\n## 贡献者\n- 特此感谢 **aspi6246** 对 v3.1 模式的启发性贡献","2026-04-06T08:17:56",{"id":176,"version":177,"summary_zh":178,"released_at":179},351148,"v3.0","## 新增功能\n\n三批优化措施针对在四轮辩证实验中发现的结构化AI局限性：辩论者过早认输、苏格拉底式导师试图过早收敛，以及整场辩论始终困于人类设定的框架内。\n\n### 第一批：反溜须拍马 + 意图识别\n\n- **反方让步阈值协议**（`deep-research` + `academic-paper-reviewer`）：反方必须先为每条反驳打1至5分再作回应。仅当得分≥4时方可让步，且不得连续让步。实时追踪让步频率，并在每个检查点后检测是否陷入框架锁定。\n- **攻击强度保持**（`academic-paper-reviewer`）：反方在面对反驳时不会软化立场。明确识别转移话题的行为。持续施压并不等同于有效反驳。\n- **意图识别层**（`deep-research` 苏格拉底式）：将用户意图分为探索型与目标导向型。探索模式下禁用自动收敛，将最大回合数提升至60轮，并禁止过早结束辩论。每5轮重新评估一次。\n- **对话健康指标**（`deep-research` 苏格拉底式）：每5轮进行一次自我检查，以监测是否存在持续一致、回避冲突或过早收敛的情况。一旦检测到一致倾向，系统会自动引入挑战性问题。\n\n### 第二批：跨模型验证（可选）\n\n- **新增 `shared\u002Fcross_model_verification.md`**：用于将GPT-5.4 Pro或Gemini 3.1 Pro作为独立第二评审者的协议。\n- **完整性验证**：每次调用时随机抽取30%样本由第二模型交叉核验（每次批量处理5个）。\n- **反方代理**：在每个检查点后进行独立的跨模型批判性评估。\n- **激活方式**：通过环境变量 `ARS_CROSS_MODEL` 开启——未设置时无额外开销。\n- **完整设置指南**：包含API使用模式、成本估算（每条流水线约0.60至1.10美元）及优雅降级策略。\n\n### 第三批：AI自我反思\n\n- **AI自我反思报告**（`academic-pipeline` 第6阶段）：流水线结束后生成的自我评估报告，内容包括反方让步率、健康警示、溜须拍马风险评级（低\u002F中\u002F高）、框架锁定事件及收敛模式。\n- 特别说明：该自我反思报告由被评估的同一AI系统生成，存在一定的讽刺意味。\n\n### 为何进行这些改动？\n\n> AI素养并非仅仅在于学会如何使用AI工具、遵守伦理规范或担忧AI带来的风险。它更关键的是深入与AI互动，从而亲自发现其结构性局限，同时也在这一过程中认识到自身思维的局限。\n\n所有改动均经过三次并行的 `\u002Fsimplify` 审核流程（复用性、质量和效率）。\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fcompare\u002Fv2.9...v3.0","2026-04-03T15:24:24",{"id":181,"version":182,"summary_zh":183,"released_at":184},351149,"v2.9","## 新增功能\n\n**风格校准**（学术论文流程第10步，可选）\n- 提供3篇及以上过往论文，流程将学习您的写作风格（句式节奏、词汇偏好、引用整合方式）\n- 在起草过程中作为柔性指导；学科规范始终优先\n- 优先级体系：学科规范（硬性）> 期刊规范（较强）> 个人风格（柔性）\n- 风格档案通过材料护照贯穿整个流程（模式10）\n\n**写作质量检查**（`academic-paper\u002Freferences\u002Fwriting_quality_check.md`）\n- 写作质量检查清单应用于草稿自审和最终定稿阶段\n- 包括5个类别：高频词警告（25个术语）、标点符号使用规范控制（破折号≤3处）、“清喉式”开头检测、结构模式警告、句长变化检查\n- 目的是遵循良好写作规范，而非规避检测\n\n**版本信息**：学术论文v2.5、深度研究v2.4、学术流程v2.7\n\n## 理念\n\n> AI是您的副驾驶，而非主驾驶员。与那些试图掩盖您使用AI痕迹的工具不同，本工具旨在帮助您写出更高质量的文章。我们的目标是提升写作质量，而非作弊。\n\n## 完整变更日志\nhttps:\u002F\u002Fgithub.com\u002FImbad0202\u002Facademic-research-skills\u002Fcompare\u002Fv2.8...v2.9","2026-03-27T10:49:43",{"id":186,"version":187,"summary_zh":188,"released_at":189},351150,"v2.8","## SCR 循环第一阶段：状态-挑战-反思\n\n- **苏格拉底式导师代理**（深度研究 + 学术论文）：SCR（状态-挑战-反思）协议集成\n  - **承诺关卡**：在每一层或章节转换时，在呈现证据之前收集用户的预测\n  - **确定性触发的矛盾**：检测高置信度语言（如“显然”、“清楚地”），并引入反驳观点\n  - **自适应强度**：跟踪承诺的准确性，动态调整挑战频率\n  - **自我校准信号（S5）**：一种新的收敛信号，用于追踪用户在整个对话过程中自我校准的成长\n  - **SCR 切换**：用户可以在对话中途说“跳过预测”以禁用，或说“重新开启预测”以重新启用\n- `deep-research\u002Freferences\u002Fsocratic_questioning_framework.md`：SCR 叠加协议，将 SCR 各阶段映射到苏格拉底式提问的功能\n- 新增了 `CHANGELOG.md`","2026-03-22T06:00:34"]