[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ChaokunHong--MetaScreener":3,"tool-ChaokunHong--MetaScreener":62},[4,18,28,36,45,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":51,"last_commit_at":52,"category_tags":53,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":24,"last_commit_at":60,"category_tags":61,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":79,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":112,"forks":113,"last_commit_at":114,"license":115,"difficulty_score":24,"env_os":116,"env_gpu":117,"env_ram":116,"env_deps":118,"category_tags":128,"github_topics":129,"view_count":24,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":142,"updated_at":143,"faqs":144,"releases":145},9886,"ChaokunHong\u002FMetaScreener","MetaScreener","AI-powered tool for efficient abstract and PDF screening in systematic reviews.","MetaScreener 是一款专为系统综述研究设计的开源 AI 助手，旨在自动化处理文献筛选中繁琐的摘要与全文审查工作。在传统研究中，研究人员往往需要人工阅读成千上万篇文献的标题和摘要，耗时且容易疲劳出错。MetaScreener 通过并行调用多个开源大语言模型（如 DeepSeek、Qwen、Llama 等），对上传的文献数据进行集体“投票”，从而高效判断每篇文献是否符合纳入标准。\n\n该工具特别适合从事医学、社会科学等领域系统综述的研究人员及学术团队使用。其核心亮点在于独特的“多模型集成”架构与“分层共识网络”：它不依赖单一模型的判断，而是结合校准后的置信度评分，将高置信度的文献自动归类，仅将不确定的案例标记出来供人工复核。这种机制不仅大幅降低了漏检风险，还通过主动学习功能，能根据用户的反馈实时优化模型权重。此外，MetaScreener 支持完全可复现的决策流程，确保每一步筛选都有据可查，让科研工作者能以极低的成本实现透明、高效且可靠的文献初筛。","\u003Cp align=\"center\">\n  \u003Cimg src=\"frontend\u002Fpublic\u002Flogo.svg\" alt=\"MetaScreener Logo\" width=\"200\" \u002F>\n  \u003Cp align=\"center\">\n    Open-source multi-LLM ensemble for systematic review screening\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fmetascreener\u002F\">\u003Cimg alt=\"PyPI\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmetascreener?include_prereleases&color=blue\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Fr\u002Fchaokunhong\u002Fmetascreener\">\u003Cimg alt=\"Docker\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-chaokunhong%2Fmetascreener-blue\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\u003Cimg alt=\"License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F\">\u003Cimg alt=\"Python\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11%2B-blue.svg\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## Overview\n\n**MetaScreener** automates the screening phase of systematic reviews using an ensemble of open-source large language models. Instead of relying on a single model, it runs **multiple LLMs in parallel** and aggregates their outputs through a calibrated confidence pipeline — producing transparent, reproducible decisions with uncertainty quantification.\n\n**Key idea:** Upload your search results from PubMed\u002FScopus\u002Fetc., define your review criteria (PICO\u002FPEO\u002FSPIDER), and MetaScreener reads each title & abstract — returning include\u002Fexclude decisions with confidence scores. Uncertain cases are routed to human review.\n\n### Why MetaScreener?\n\n| Feature | Description |\n|---------|-------------|\n| **Multi-LLM Ensemble** | 4+ open-source models vote together — no single point of failure |\n| **Calibrated Confidence** | Post-hoc calibration (Platt\u002FIsotonic) maps raw scores to true probabilities |\n| **Tiered Decisions** | Auto-decide on high-confidence cases, flag uncertain ones for human review |\n| **Element Consensus** | Per-element (P\u002FI\u002FC\u002FO) agreement scoring across models |\n| **Active Learning** | Human feedback loop recalibrates model weights in real time |\n| **Full Reproducibility** | `temperature=0.0`, `seed=42`, audit trail on every decision |\n| **Cost-Effective** | ~$0.003–0.009 per paper using free-tier API providers |\n\n---\n\n## Architecture\n\nMetaScreener uses a **Hierarchical Consensus Network (HCN)** — a 4-layer screening pipeline:\n\n```\n                        ┌──────────────────────────────────┐\n    Upload              │         Layer 1: Inference        │\n  .ris\u002F.bib ──────────▶ │  4+ LLMs run in parallel via API  │\n  .csv\u002F.xlsx            │  (DeepSeek, Qwen, Llama, Kimi…)  │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n    PICO\u002FPEO\u002F           │       Layer 2: Rule Engine        │\n    SPIDER  ──────────▶ │  Hard rules (auto-exclude)        │\n    Criteria            │  Soft rules (score penalties)      │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n                        │     Layer 3: CCA + ECS            │\n                        │  Calibrated Confidence Aggregation │\n                        │  Element Consensus Scoring         │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n                        │    Layer 4: Decision Router        │\n                        │  Tier 0 → Hard-rule exclusion      │\n                        │  Tier 1 → High-confidence auto     │\n                        │  Tier 2 → Moderate auto-decide     │\n                        │  Tier 3 → Human review             │\n                        └──────────────────────────────────┘\n```\n\n---\n\n## Supported Models\n\n15 open-source LLMs via [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002F), organized by capability:\n\n| Tier | Models | Characteristics |\n|------|--------|----------------|\n| **Flagship** | DeepSeek V3, Qwen 3, Kimi K2.5 | Best accuracy, strong medical knowledge |\n| **Strong** | Llama 4 Maverick, GLM 5, MiniMax M2.7, Nous Hermes 4, Nvidia Nemotron, Cogito 671B, AI21 Jamba | Good balance of cost and performance |\n| **Lightweight** | Gemma 3 27B, Mistral Small 4, Phi 4 | Fast and cheap, good for budget screening |\n\n**Recommended presets:**\n\n| Preset | Models | Cost\u002FPaper | Best For |\n|--------|--------|-----------|----------|\n| Balanced | 4 models | ~$0.005 | Most reviews |\n| Precision | 2 thinking + 2 large | ~$0.009 | High-stakes reviews |\n| Budget | 1 anchor + 3 fast | ~$0.003 | Large-scale screening |\n\n---\n\n## Quick Start\n\n### Prerequisites\n\n- **Python 3.11+**\n- **An API key** from [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Fsettings\u002Fkeys) (free sign-up, pay-per-use)\n\n### Option A: Install with pip\n\n```bash\npip install metascreener\n```\n\nThen start the Web UI:\n\n```bash\npython -m metascreener\n# → Open http:\u002F\u002Flocalhost:8000\n```\n\n### Option B: Docker (no Python needed)\n\n```bash\ndocker pull chaokunhong\u002Fmetascreener:latest\n\ndocker run -p 8000:8000 \\\n  -e OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\" \\\n  chaokunhong\u002Fmetascreener\n# → Open http:\u002F\u002Flocalhost:8000\n```\n\n### Option C: From source (for developers)\n\nRequires [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) and [Node.js 18+](https:\u002F\u002Fnodejs.org\u002F).\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener.git\ncd MetaScreener\n\nuv sync --extra dev        # Install Python dependencies\npython run.py              # Start FastAPI + Vite dev servers\n# → Backend: http:\u002F\u002Flocalhost:8000\n# → Frontend: http:\u002F\u002Flocalhost:5173\n```\n\n### Configuration\n\nSet your API key via **one** of these methods:\n\n1. **Web UI** — Go to Settings page and paste your key\n2. **Environment variable:**\n   ```bash\n   export OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\"\n   ```\n\n---\n\n## Web UI Workflow\n\nMetaScreener provides a modern web interface (Vue 3) with a guided step-by-step workflow:\n\n| Step | Page | What It Does |\n|------|------|-------------|\n| 0 | **Criteria** | AI-generated PICO\u002FPEO\u002FSPIDER criteria from your research question |\n| 1 | **Settings** | Select models, adjust thresholds, configure API keys |\n| 2 | **Screening (TA)** | Upload search results → run title\u002Fabstract screening → review decisions |\n| 3 | **Screening (FT)** | Upload PDFs → run full-text screening with intelligent chunking |\n| 4 | **Extraction** | Extract structured data (tables, fields) from included PDFs |\n| 5 | **Quality** | Risk-of-bias assessment (RoB 2 \u002F ROBINS-I \u002F QUADAS-2) |\n| 6 | **Evaluation** | Performance metrics, calibration diagnostics, visualizations |\n| 7 | **History** | Session audit trail with full decision provenance |\n\n### Screening Flow\n\n1. **Upload** your search export (.ris, .bib, .csv, .xlsx)\n2. **Define criteria** — type your research question and let AI generate PICO criteria, or upload existing criteria\n3. **Run screening** — papers are processed one-by-one with real-time progress\n4. **Review** — each paper shows: decision, confidence score, tier, per-element consensus, model agreement\n5. **Override** — disagree with a decision? Override it and the system learns from your feedback\n6. **Export** — download results as CSV, Excel, JSON, or RIS\n\n---\n\n## How It Works\n\n### Layer 1 — Parallel LLM Inference\n\nEach paper is sent to 4+ LLMs simultaneously. Each model returns:\n- **Decision** (include \u002F exclude \u002F uncertain)\n- **Confidence score** (0–1)\n- **Per-element assessment** (population, intervention, comparison, outcome)\n- **Reasoning chain** explaining the decision\n\n### Layer 2 — Semantic Rule Engine\n\nHard rules auto-exclude papers that violate non-negotiable criteria (e.g., wrong language, animal study when humans required). Soft rules apply score penalties for partial matches.\n\n### Layer 3 — Calibrated Confidence Aggregation (CCA)\n\nRaw model scores are **calibrated** using Platt scaling or isotonic regression, then aggregated with tier-weighted blending. The **Element Consensus Score (ECS)** measures per-element agreement across models — if all models agree that Population matches but disagree on Outcome, this is captured precisely.\n\n### Layer 4 — Decision Router\n\nPapers are routed to one of four tiers:\n\n| Tier | Condition | Action |\n|------|-----------|--------|\n| **0** | Hard-rule violation | Auto-exclude |\n| **1** | High ECS (≥0.60) + full model agreement | Auto-decide |\n| **2** | Moderate ECS (≥0.10) + within dissent tolerance | Auto-decide with lower confidence |\n| **3** | Low confidence or high disagreement | Route to human review |\n\n---\n\n## Supported File Formats\n\n| Format | Extension | Source |\n|--------|-----------|--------|\n| RIS | `.ris` | PubMed, Scopus, Web of Science, Ovid, Embase |\n| BibTeX | `.bib` | Google Scholar, Zotero, Mendeley |\n| CSV | `.csv` | Any spreadsheet (must have `title` and `abstract` columns) |\n| Excel | `.xlsx` | Any spreadsheet (must have `title` and `abstract` columns) |\n| PDF | `.pdf` | For full-text screening and data extraction |\n\n---\n\n## Project Structure\n\n```\nMetaScreener\u002F\n├── configs\u002Fmodels.yaml            # Model registry + thresholds (single source of truth)\n├── src\u002Fmetascreener\u002F\n│   ├── api\u002F                       # FastAPI backend + routes\n│   ├── core\u002F                      # Pydantic models, enums, exceptions\n│   ├── io\u002F                        # File readers\u002Fwriters, PDF parser\n│   ├── llm\u002F                       # LLM backends, adapters, parallel runner\n│   ├── criteria\u002F                  # PICO\u002FPEO\u002FSPIDER criteria generator\n│   ├── module1_screening\u002F         # HCN 4-layer screening pipeline\n│   │   ├── layer1\u002F                #   Parallel LLM inference\n│   │   ├── layer2\u002F                #   Semantic rule engine\n│   │   ├── layer3\u002F                #   CCA + ECS aggregation\n│   │   └── layer4\u002F                #   Decision router\n│   ├── module2_extraction\u002F        # PDF data extraction\n│   ├── module3_quality\u002F           # Risk of bias (RoB 2 \u002F ROBINS-I \u002F QUADAS-2)\n│   └── evaluation\u002F                # Metrics, calibration, visualization\n├── frontend\u002F                      # Vue 3 + TypeScript + Vite\n├── tests\u002F                         # Unit + integration tests (all offline)\n├── validation\u002F                    # Reproducibility experiments\n├── docker\u002FDockerfile              # Multi-stage build (slim \u002F full)\n├── run.py                         # Dev server launcher\n└── pyproject.toml\n```\n\n---\n\n## Evaluation Metrics\n\nMetaScreener computes standard systematic review metrics:\n\n- **Sensitivity** (recall) — proportion of relevant studies correctly identified\n- **Specificity** — proportion of irrelevant studies correctly excluded\n- **WSS@95** — Work Saved over Sampling at 95% recall\n- **AUROC** — Area Under Receiver Operating Characteristic curve\n- **Brier Score** — calibration quality (how well confidence matches correctness)\n- **Calibration Curves** — visual diagnostic for model probability calibration\n- **Bootstrap 95% CI** — confidence intervals on all metrics\n\n---\n\n## Development\n\n```bash\n# Install dependencies\nuv sync --extra dev\n\n# Run tests (all offline, no API keys needed)\nuv run pytest\n\n# Lint\nuv run ruff check src\u002F\n\n# Type check\nuv run mypy src\u002F\n\n# Dev server (FastAPI + Vite hot reload)\npython run.py\n```\n\n### Docker Build\n\n```bash\n# Slim build (daily use)\ndocker build -f docker\u002FDockerfile --target slim -t metascreener .\n\n# Full build (reproducibility experiments + visualization extras)\ndocker build -f docker\u002FDockerfile --target full -t metascreener:full .\n```\n\n---\n\n## Reproducibility\n\nMetaScreener is designed for **TRIPOD-LLM compliant** reproducibility:\n\n- `temperature = 0.0` on all LLM calls (deterministic output)\n- `seed = 42` on all stochastic operations\n- Full audit trail: every decision logs model outputs, rule violations, confidence scores, and timestamps\n- Session persistence: all screening sessions saved as JSON for re-analysis\n- Calibration diagnostics: Brier scores, calibration curves, and confidence intervals\n\n---\n\n## Tech Stack\n\n| Component | Technology |\n|-----------|-----------|\n| **Backend** | FastAPI, uvicorn, Pydantic 2 |\n| **Frontend** | Vue 3 (Composition API), TypeScript, Vite, Pinia |\n| **LLM Routing** | LiteLLM → OpenRouter API |\n| **PDF Processing** | PyMuPDF (fitz), Tesseract OCR |\n| **Data Processing** | pandas, NumPy, scikit-learn, SciPy |\n| **Visualization** | Plotly, Chart.js |\n| **Logging** | structlog (structured JSON) |\n| **Testing** | pytest, MockLLMAdapter (fully offline) |\n\n---\n\n## Citation\n\nIf you use MetaScreener in your research, please cite:\n\n```bibtex\n@software{hong2025metascreener,\n  author    = {Hong, Chaokun},\n  title     = {{MetaScreener}: Open-Source Multi-LLM Ensemble for Systematic Review Screening},\n  year      = {2025},\n  url       = {https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener},\n  license   = {Apache-2.0}\n}\n```\n\n---\n\n## License\n\n[Apache License 2.0](LICENSE) — free for academic and commercial use.\n","\u003Cp align=\"center\">\n  \u003Cimg src=\"frontend\u002Fpublic\u002Flogo.svg\" alt=\"MetaScreener Logo\" width=\"200\" \u002F>\n  \u003Cp align=\"center\">\n    面向系统综述筛选的开源多大语言模型集成工具\n  \u003C\u002Fp>\n\u003C\u002Fp>\n\n\u003Cp align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002Fmetascreener\u002F\">\u003Cimg alt=\"PyPI\" src=\"https:\u002F\u002Fimg.shields.io\u002Fpypi\u002Fv\u002Fmetascreener?include_prereleases&color=blue\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fhub.docker.com\u002Fr\u002Fchaokunhong\u002Fmetascreener\">\u003Cimg alt=\"Docker\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fdocker-chaokunhong%2Fmetascreener-blue\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0\">\u003Cimg alt=\"License\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg\">\u003C\u002Fa>\n  \u003Ca href=\"https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F\">\u003Cimg alt=\"Python\" src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.11%2B-blue.svg\">\u003C\u002Fa>\n\u003C\u002Fp>\n\n---\n\n## 概述\n\n**MetaScreener** 利用开源大型语言模型的集成，自动化系统综述的筛选阶段。它不依赖单一模型，而是**并行运行多个大语言模型**，并通过校准后的置信度流水线聚合其输出——生成透明、可重复且带有不确定性量化结果的决策。\n\n**核心理念：** 上传您从 PubMed、Scopus 等数据库获取的检索结果，定义您的综述标准（PICO\u002FPEO\u002FSPIDER），MetaScreener 将逐篇读取标题和摘要，并返回包含\u002F排除的决策及置信度分数。对于不确定的情况，则会转交给人工审核。\n\n### 为什么选择 MetaScreener？\n\n| 特性 | 描述 |\n|---------|-------------|\n| **多大语言模型集成** | 4个以上的开源模型共同投票——不存在单点故障 |\n| **校准后的置信度** | 后处理校准（Platt\u002F等温）将原始得分映射为真实概率 |\n| **分级决策** | 对高置信度案例自动决策，标记不确定案例供人工复核 |\n| **要素共识** | 跨模型对各个要素（P\u002FI\u002FC\u002FO）的一致性评分 |\n| **主动学习** | 通过人工反馈循环实时重新校准模型权重 |\n| **完全可重复性** | `temperature=0.0`，`seed=42`，每项决策均有审计追踪 |\n| **成本效益** | 使用免费层级的 API 提供商，每篇论文约需 $0.003–0.009 |\n\n---\n\n## 架构\n\nMetaScreener 采用**层次化共识网络（HCN）**——一个四层筛选流水线：\n\n```\n                        ┌──────────────────────────────────┐\n    上传              │         第一层：推理        │\n  .ris\u002F.bib ──────────▶ │  4+ 大语言模型通过 API 并行运行  │\n  .csv\u002F.xlsx            │  (DeepSeek, Qwen, Llama, Kimi…)  │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n    PICO\u002FPEO\u002F           │       第二层：规则引擎        │\n    SPIDER  ──────────▶ │  硬性规则（自动排除）        │\n    标准            │  软性规则（打分惩罚）      │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n                        │     第三层：CCA + ECS            │\n                        │  校准后的置信度聚合               │\n                        │  元素共识评分                     │\n                        └──────────────┬───────────────────┘\n                                       ▼\n                        ┌──────────────────────────────────┐\n                        │    第四层：决策路由        │\n                        │  0级 → 硬性规则排除      │\n                        │  1级 → 高置信度自动决定   │\n                        │  2级 → 中等置信度自动决定 │\n                        │  3级 → 人工审核             │\n                        └──────────────────────────────────┘\n```\n\n---\n\n## 支持的模型\n\n通过 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002F) 支持 15 种开源大语言模型，按能力划分如下：\n\n| 层级 | 模型 | 特性 |\n|------|--------|----------------|\n| **旗舰级** | DeepSeek V3、Qwen 3、Kimi K2.5 | 准确率最高，医学知识储备雄厚 |\n| **强效级** | Llama 4 Maverick、GLM 5、MiniMax M2.7、Nous Hermes 4、Nvidia Nemotron、Cogito 671B、AI21 Jamba | 成本与性能平衡良好 |\n| **轻量级** | Gemma 3 27B、Mistral Small 4、Phi 4 | 速度快、成本低，适合预算有限的筛选任务 |\n\n**推荐预设：**\n\n| 预设 | 模型 | 每篇论文成本 | 适用场景 |\n|--------|--------|-----------|----------|\n| 平衡型 | 4个模型 | ~$0.005 | 多数综述 |\n| 精准型 | 2个思考类 + 2个大型模型 | ~$0.009 | 高风险综述 |\n| 经济型 | 1个基准模型 + 3个快速模型 | ~$0.003 | 大规模筛选 |\n\n---\n\n## 快速入门\n\n### 前提条件\n\n- **Python 3.11+**\n- **API 密钥**，来自 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Fsettings\u002Fkeys)（免费注册，按使用付费）\n\n### 方案 A：使用 pip 安装\n\n```bash\npip install metascreener\n```\n\n然后启动 Web UI：\n\n```bash\npython -m metascreener\n# → 打开 http:\u002F\u002Flocalhost:8000\n```\n\n### 方案 B：使用 Docker（无需 Python）\n\n```bash\ndocker pull chaokunhong\u002Fmetascreener:latest\n\ndocker run -p 8000:8000 \\\n  -e OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\" \\\n  chaokunhong\u002Fmetascreener\n# → 打开 http:\u002F\u002Flocalhost:8000\n```\n\n### 方案 C：从源码构建（面向开发者）\n\n需要 [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) 和 [Node.js 18+](https:\u002F\u002Fnodejs.org\u002F)。\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener.git\ncd MetaScreener\n\nuv sync --extra dev        # 安装 Python 依赖\npython run.py              # 启动 FastAPI + Vite 开发服务器\n# → 后端：http:\u002F\u002Flocalhost:8000\n# → 前端：http:\u002F\u002Flocalhost:5173\n```\n\n### 配置\n\n通过以下方法之一设置您的 API 密钥：\n\n1. **Web UI** — 进入设置页面并粘贴您的密钥\n2. **环境变量：**\n   ```bash\n   export OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\"\n   ```\n\n---\n\n## Web UI 工作流程\n\nMetaScreener 提供现代化的 Web 界面（Vue 3），并配有引导式的分步工作流程：\n\n| 步骤 | 页面 | 功能 |\n|------|------|-------------|\n| 0 | **标准** | 根据您的研究问题，由 AI 自动生成 PICO\u002FPEO\u002FSPIDER 标准 |\n| 1 | **设置** | 选择模型、调整阈值、配置 API 密钥 |\n| 2 | **标题摘要筛选** | 上传检索结果 → 运行标题摘要筛选 → 审核决策 |\n| 3 | **全文筛选** | 上传 PDF 文件 → 使用智能分块技术进行全文筛选 |\n| 4 | **数据提取** | 从纳入的 PDF 中提取结构化数据（表格、字段） |\n| 5 | **质量评估** | 偏倚风险评估（RoB 2 \u002F ROBINS-I \u002F QUADAS-2） |\n| 6 | **评估** | 性能指标、校准诊断及可视化 |\n| 7 | **历史记录** | 包含完整决策来源的会话审计轨迹 |\n\n### 筛选流程\n\n1. **上传** 您的检索导出文件（.ris、.bib、.csv、.xlsx）\n2. **定义标准** — 输入您的研究问题，让 AI 生成 PICO 标准，或上传现有标准\n3. **运行筛选** — 文献将逐篇处理，并实时显示进度\n4. **审核** — 每篇文献会显示：决策、置信度分数、层级、各要素的一致性评分、模型一致性\n5. **覆盖** — 如果您不同意某项决策？可直接覆盖，系统会根据您的反馈进行学习\n6. **导出** — 将结果下载为 CSV、Excel、JSON 或 RIS 格式\n\n---\n\n## 工作原理\n\n### 第一层 — 并行大语言模型推理\n\n每篇文献会同时发送至 4 个以上的大语言模型。每个模型会返回：\n- **决策**（纳入 \u002F 排除 \u002F 不确定）\n- **置信度分数**（0–1）\n- **各要素评估**（人群、干预、对照、结局）\n- **推理链** 解释决策依据\n\n### 第二层 — 语义规则引擎\n\n硬性规则会自动排除不符合不可协商标准的文献（例如语言错误、应为人类研究却为动物研究）。柔性规则则会对部分匹配的文献给予扣分。\n\n### 第三层 — 校准置信度聚合（CCA）\n\n原始模型得分会使用 Platt 缩放或等熵回归进行**校准**，随后通过层级加权融合进行聚合。**要素一致性评分（ECS）**用于衡量各模型在各个要素上的一致程度——如果所有模型都认为“人群”匹配，但在“结局”上存在分歧，这一情况会被精准捕捉。\n\n### 第四层 — 决策路由\n\n文献会被路由到四个层级之一：\n\n| 层级 | 条件 | 行动 |\n|------|-----------|--------|\n| **0** | 违反硬性规则 | 自动排除 |\n| **1** | 高 ECS（≥0.60）且所有模型一致 | 自动决策 |\n| **2** | 中等 ECS（≥0.10）且异议在可接受范围内 | 以较低置信度自动决策 |\n| **3** | 置信度低或意见高度不一致 | 转交人工审核 |\n\n---\n\n## 支持的文件格式\n\n| 格式 | 扩展名 | 来源 |\n|--------|-----------|--------|\n| RIS | `.ris` | PubMed、Scopus、Web of Science、Ovid、Embase |\n| BibTeX | `.bib` | Google Scholar、Zotero、Mendeley |\n| CSV | `.csv` | 任何电子表格（需包含 `title` 和 `abstract` 列） |\n| Excel | `.xlsx` | 任何电子表格（需包含 `title` 和 `abstract` 列） |\n| PDF | `.pdf` | 用于全文筛选和数据提取 |\n\n---\n\n## 项目结构\n\n```\nMetaScreener\u002F\n├── configs\u002Fmodels.yaml            # 模型注册表 + 阈值（唯一可信来源）\n├── src\u002Fmetascreener\u002F\n│   ├── api\u002F                       # FastAPI 后端 + 路由\n│   ├── core\u002F                      # Pydantic 模型、枚举、异常\n│   ├── io\u002F                        # 文件读写器、PDF 解析器\n│   ├── llm\u002F                       # 大语言模型后端、适配器、并行运行器\n│   ├── criteria\u002F                  # PICO\u002FPEO\u002FSPIDER 标准生成器\n│   ├── module1_screening\u002F         # HCN 四层筛选流程\n│   │   ├── layer1\u002F                #   并行大语言模型推理\n│   │   ├── layer2\u002F                #   语义规则引擎\n│   │   ├── layer3\u002F                #   CCA + ECS 聚合\n│   │   └── layer4\u002F                #   决策路由\n│   ├── module2_extraction\u002F        # PDF 数据提取\n│   ├── module3_quality\u002F           # 偏倚风险评估（RoB 2 \u002F ROBINS-I \u002F QUADAS-2）\n│   └── evaluation\u002F                # 指标、校准、可视化\n├── frontend\u002F                      # Vue 3 + TypeScript + Vite\n├── tests\u002F                         # 单元测试 + 集成测试（全部离线）\n├── validation\u002F                    # 可重复性实验\n├── docker\u002FDockerfile              # 多阶段构建（精简版 \u002F 完整版）\n├── run.py                         # 开发服务器启动脚本\n└── pyproject.toml\n```\n\n---\n\n## 评估指标\n\nMetaScreener 计算标准的系统综述评估指标：\n\n- **灵敏度**（召回率）— 正确识别的相关研究比例\n- **特异性** — 正确排除的无关研究比例\n- **WSS@95** — 在 95% 召回率下的工作节省量\n- **AUROC** — 受试者工作特征曲线下的面积\n- **布里尔分数** — 校准质量（置信度与正确性的匹配程度）\n- **校准曲线** — 用于诊断模型概率校准的可视化工具\n- **自助法 95% 置信区间** — 所有指标的置信区间\n\n---\n\n## 开发\n\n```bash\n# 安装依赖\nuv sync --extra dev\n\n# 运行测试（全部离线，无需 API 密钥）\nuv run pytest\n\n# 代码检查\nuv run ruff check src\u002F\n\n# 类型检查\nuv run mypy src\u002F\n\n# 开发服务器（FastAPI + Vite 热重载）\npython run.py\n```\n\n### Docker 构建\n\n```bash\n# 精简版构建（日常使用）\ndocker build -f docker\u002FDockerfile --target slim -t metascreener .\n\n# 完整版构建（可重复性实验 + 可视化扩展功能）\ndocker build -f docker\u002FDockerfile --target full -t metascreener:full .\n```\n\n---\n\n## 可重复性\n\nMetaScreener 专为符合 **TRIPOD-LLM 标准** 的可重复性设计：\n\n- 所有大语言模型调用均设置为 `temperature = 0.0`（输出确定性）\n- 所有随机操作均设置为 `seed = 42`\n- 完整审计追踪：每项决策都会记录模型输出、规则违反情况、置信度分数及时间戳\n- 会话持久化：所有筛选会话均以 JSON 格式保存，便于后续分析\n- 校准诊断：包括布里尔分数、校准曲线和置信区间\n\n---\n\n## 技术栈\n\n| 组件 | 技术 |\n|-----------|-----------|\n| **后端** | FastAPI、Uvicorn、Pydantic 2 |\n| **前端** | Vue 3（组合式 API）、TypeScript、Vite、Pinia |\n| **大语言模型路由** | LiteLLM → OpenRouter API |\n| **PDF 处理** | PyMuPDF (fitz)、Tesseract OCR |\n| **数据处理** | pandas、NumPy、scikit-learn、SciPy |\n| **可视化** | Plotly、Chart.js |\n| **日志记录** | structlog（结构化 JSON） |\n| **测试** | pytest、MockLLMAdapter（完全离线） |\n\n---\n\n## 引用\n\n如果您在研究中使用 MetaScreener，请引用以下内容：\n\n```bibtex\n@software{hong2025metascreener,\n  author    = {Hong, Chaokun},\n  title     = {{MetaScreener}: 开源多大语言模型集成系统用于系统综述筛选},\n  year      = {2025},\n  url       = {https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener},\n  license   = {Apache-2.0}\n}\n```\n\n---\n\n## 许可证\n\n[Apache 许可证 2.0](LICENSE) — 免费供学术和商业用途使用。","# MetaScreener 快速上手指南\n\nMetaScreener 是一个开源的多大语言模型（LLM）集成工具，专为系统综述的文献筛选阶段设计。它通过并行运行多个开源模型并聚合结果，提供透明、可复现且带有置信度量化的筛选决策。\n\n## 环境准备\n\n在开始之前，请确保满足以下系统要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：3.11 或更高版本\n*   **API 密钥**：需要 [OpenRouter](https:\u002F\u002Fopenrouter.ai\u002Fsettings\u002Fkeys) 的 API Key（支持按量付费，注册免费）。\n*   **可选依赖**：\n    *   若使用 Docker 方案，需安装 Docker Desktop。\n    *   若从源码开发，需安装 [uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) 和 Node.js 18+。\n\n## 安装步骤\n\n你可以选择以下任意一种方式进行安装：\n\n### 方案 A：使用 pip 安装（推荐）\n\n最简单的方式是通过 PyPI 安装：\n\n```bash\npip install metascreener\n```\n\n### 方案 B：使用 Docker（无需配置 Python 环境）\n\n如果你希望隔离环境或避免依赖冲突，可以使用 Docker：\n\n```bash\ndocker pull chaokunhong\u002Fmetascreener:latest\n```\n\n### 方案 C：从源码安装（开发者适用）\n\n适合需要修改代码或贡献项目的用户：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener.git\ncd MetaScreener\n\nuv sync --extra dev        # 安装 Python 依赖\n# 前端依赖将在启动时自动处理\n```\n\n## 基本使用\n\n安装完成后，你可以通过以下两种方式启动 MetaScreener。\n\n### 1. 启动 Web 界面\n\nMetaScreener 提供现代化的 Web 界面，引导你完成从标准定义到文献筛选的全流程。\n\n**使用 pip 安装的用户：**\n\n```bash\npython -m metascreener\n```\n\n**使用 Docker 的用户：**\n\n请替换 `sk-or-v1-your-key-here` 为你的真实 OpenRouter API Key：\n\n```bash\ndocker run -p 8000:8000 \\\n  -e OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\" \\\n  chaokunhong\u002Fmetascreener\n```\n\n启动成功后，在浏览器中访问：**http:\u002F\u002Flocalhost:8000**\n\n### 2. 配置与运行流程\n\n进入 Web 界面后，按照以下步骤操作：\n\n1.  **配置 API Key**：\n    *   方法一：在网页 \"Settings\" 页面粘贴你的 OpenRouter API Key。\n    *   方法二：在终端设置环境变量（重启服务生效）：\n        ```bash\n        export OPENROUTER_API_KEY=\"sk-or-v1-your-key-here\"\n        ```\n\n2.  **定义筛选标准 (Criteria)**：\n    *   输入你的研究问题，AI 将自动生成 PICO\u002FPEO\u002FSPIDER 筛选标准，或直接上传已有标准。\n\n3.  **上传文献 (Upload)**：\n    *   支持格式：`.ris`, `.bib`, `.csv`, `.xlsx` (来自 PubMed, Scopus, Web of Science 等)。\n    *   确保文件包含 `title` 和 `abstract` 列。\n\n4.  **执行筛选 (Screening)**：\n    *   选择模型预设（如 Balanced, Precision, Budget）。\n    *   点击运行，系统将并行调用多个 LLM 对标题和摘要进行分析。\n    *   实时查看每篇文献的决策（纳入\u002F排除）、置信度分数及模型共识情况。\n\n5.  **人工复核与导出**：\n    *   系统会自动标记低置信度或不确定的案例供人工复核。\n    *   你可以手动修正决策，系统会根据反馈实时调整权重。\n    *   最终结果可导出为 CSV, Excel, JSON 或 RIS 格式。\n\n### 开发者模式启动（仅限源码安装）\n\n如果你选择了方案 C，可以使用以下命令同时启动后端和前端热重载服务：\n\n```bash\npython run.py\n```\n\n*   后端地址：http:\u002F\u002Flocalhost:8000\n*   前端地址：http:\u002F\u002Flocalhost:5173","某高校公共卫生团队正在开展一项关于“间歇性禁食对 2 型糖尿病影响”的系统评价，需从数据库导出的 3,500 篇文献中筛选出符合 PICO 标准的研究。\n\n### 没有 MetaScreener 时\n- **人力消耗巨大**：两名研究员需全职工作两周，逐篇阅读标题和摘要，极易因疲劳产生漏判或误判。\n- **标准执行不一**：不同成员对“随机对照试验”等纳入标准的理解存在细微偏差，导致初筛结果一致性低，后续需反复校准。\n- **黑盒决策难追溯**：若使用单一 AI 辅助，无法得知模型为何排除某篇文献，缺乏不确定性量化，不敢直接采信结果。\n- **异常案例处理僵化**：工具要么全自动化（风险高），要么全人工（效率低），缺乏将“模棱两可”案例自动路由给人工复审的机制。\n\n### 使用 MetaScreener 后\n- **效率提升十倍**：MetaScreener 并行调用 DeepSeek、Qwen 等多个开源模型，仅用数小时即可完成初筛，将高置信度文献自动归类，人工只需复核约 15% 的不确定案例。\n- **多模型共识保准**：通过层级共识网络（HCN）让多个模型对 PICO 各要素独立投票，消除了单模型偏见，确保纳入排除决定基于集体智慧。\n- **决策透明可解释**：系统为每篇文献提供校准后的置信度分数及不确定性的量化指标，研究员可清晰看到哪些文章因“干预措施描述模糊”被标记复审。\n- **动态人机协作**：MetaScreener 自动将 Tier 3 类疑难文献推送给人工，并将专家的反馈实时用于调整模型权重，越用越精准。\n\nMetaScreener 通过多模型集成与校准置信度机制，将系统评价中最耗时的筛选环节转化为高效、透明且可信赖的人机协作流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FChaokunHong_MetaScreener_f1b8c401.png","ChaokunHong","Chaokun Hong","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FChaokunHong_7f96c637.png","DPhil student in Clinical Medicine","University of Oxford","Oxford, UK",null,"https:\u002F\u002Fgithub.com\u002FChaokunHong",[82,86,90,94,98,101,105,109],{"name":83,"color":84,"percentage":85},"Python","#3572A5",80.6,{"name":87,"color":88,"percentage":89},"Vue","#41b883",16.9,{"name":91,"color":92,"percentage":93},"CSS","#663399",1.9,{"name":95,"color":96,"percentage":97},"TypeScript","#3178c6",0.2,{"name":99,"color":100,"percentage":97},"Shell","#89e051",{"name":102,"color":103,"percentage":104},"Dockerfile","#384d54",0.1,{"name":106,"color":107,"percentage":108},"Jinja","#a52a22",0,{"name":110,"color":111,"percentage":108},"HTML","#e34c26",1308,48,"2026-04-11T23:22:42","Apache-2.0","未说明","不需要本地 GPU（通过 API 调用云端 LLM）",{"notes":119,"python":120,"dependencies":121},"该工具基于云端 API（如 OpenRouter）运行，无需本地部署大模型或显卡。支持 Docker 部署或直接通过 pip 安装。开发模式需安装 Node.js 18+ 和 uv 包管理器。","3.11+",[122,123,124,125,126,127],"FastAPI","uvicorn","Pydantic","Vue 3","Node.js 18+","uv",[44,27,14],[130,131,132,133,134,135,136,137,138,139,140,141],"literature-screening","llm","systematic-review","deepseek","pdf-screening","metaanalysis","screening","screening-api","deepseek-llm","llama4scout","mistral","qwen3","2026-03-27T02:49:30.150509","2026-04-20T10:35:03.934867",[],[146,151,156],{"id":147,"version":148,"summary_zh":149,"released_at":150},351946,"v2.0.0a4","## 安装\n\n```bash\npip install metascreener==2.0.0a4\n```\n\n### Docker\n\n```bash\n# 日常使用\ndocker pull chaokunhong\u002Fmetascreener:2.0.0a4\n\n# 完整重现\ndocker pull chaokunhong\u002Fmetascreener:full-2.0.0a4\n```\n\n## 更改内容\n\n- 修复：CI 覆盖率阈值 + 发布工作流前端构建\n- 修复：在 CI 中创建前端占位符 + 使用 PyCharm 指南重写 README\n- 文档：用全面的用户指南和命令参考重写 README\n- 杂项：为 React 前端发布将版本号提升至 2.0.0a4\n- 功能：配置包含前端资源的 PyPI wheel，并更新 Docker 构建\n- 修复：在前端页面中添加导出处理器、可编辑表格和查询失效功能\n- 功能：实现评估、提取和质量页面\n- 功能：添加仪表板和包含四步向导工作流的筛选页面\n- 功能：添加 API 客户端、Zustand 状态管理、WebSocket 钩子以及设置页面\n- 功能：添加布局组件、路由以及玻璃卡片\u002F按钮基础组件\n- 功能：使用 Vite、Tailwind 和 Glass 设计系统初始化 React 前端\n- 测试：为完整筛选工作流添加 API 集成测试\n- 功能：添加提取和质量评估 API 路由\n- 功能：添加带有标签上传和指标计算的评估 API\n- 功能：添加带有文件上传和会话管理的筛选 API\n- 功能：添加带有配置持久化和模型列表的设置 API\n- 功能：添加带有 serve 命令和健康检查端点的 FastAPI 框架\n- 文档：添加 React 前端实施计划（18 项任务，4 个阶段）\n- 文档：添加 React 前端与 FastAPI 的架构设计\n- 向 .metascreener\u002Fsessions 目录中添加了一些新会话\n- 修复：将会话文件加入 Git 版本控制\n- 添加了引导式设计和斜杠命令\n- 修复：将会话文件加入 Git 版本控制\n- 文档：用全面的用户指南和命令参考重写 README\n- 修复（README）：在 Docker Hub 徽章中使用动态徽章\n- 修复（README）：在 PyPI 和 Docker 徽章中显示预发布版本\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener\u002Fcompare\u002Fv2.0.0a3...v2.0.0a4","2026-02-26T05:02:14",{"id":152,"version":153,"summary_zh":154,"released_at":155},351947,"v2.0.0a3","## 安装\n\n```bash\npip install metascreener==2.0.0a3\n```\n\n### Docker\n\n```bash\n# 日常使用\ndocker pull chaokunhong\u002Fmetascreener:2.0.0a3\n\n# 完整重现\ndocker pull chaokunhong\u002Fmetascreener:full-2.0.0a3\n```\n\n## 变更\n\n- chore: 版本升级至 2.0.0a3\n\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener\u002Fcommits\u002Fv2.0.0a3","2026-02-25T12:51:22",{"id":157,"version":158,"summary_zh":159,"released_at":160},351948,"v1.0.0","🎉 首次公开发布 – v1.0.0\n\nMetaScreener 现已向科研界开放。\n\n🔍 功能简介\n- 基于人工智能的系统综述摘要与全文筛选\n- 支持上传 `.ris` 文件或 `.pdf` 文档\n- 可接入自定义的大语言模型 API（如 OpenAI、DeepSeek、Claude 等）\n- 自定义纳入\u002F排除标准\n- 对比大语言模型建议与人工决策\n- 导出筛选结果以供荟萃分析使用\n\n🧠 技术栈：\n- Flask + Gunicorn + nginx（生产服务器）\n- PyMuPDF 用于基于文本的 PDF 解析\n- pytesseract 用于 OCR 降级方案\n- Tailwind CSS 打造简洁美观的用户界面\n- GitHub Webhook 实现自动部署\n\n🌐 部署地址：[https:\u002F\u002Fwww.metascreener.net](https:\u002F\u002Fwww.metascreener.net)\n\n📦 源代码：[https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener](https:\u002F\u002Fgithub.com\u002FChaokunHong\u002FMetaScreener)\n\n---\n\n🛠 后续计划：\n- 添加用户专属筛选日志\n- 构建管理员后台及筛选功能的用户体验\n- 扩展大语言模型提示词模板化功能\n\n专为研究人员打造，由研究人员开发。","2025-05-13T18:34:00"]