[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-K-Dense-AI--agentic-data-scientist":3,"tool-K-Dense-AI--agentic-data-scientist":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":94,"forks":95,"last_commit_at":96,"license":97,"difficulty_score":23,"env_os":98,"env_gpu":98,"env_ram":98,"env_deps":99,"category_tags":106,"github_topics":107,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":111,"updated_at":112,"faqs":113,"releases":114},2917,"K-Dense-AI\u002Fagentic-data-scientist","agentic-data-scientist","An end-to-end Data Scientist","agentic-data-scientist 是一款端到端的开源人工智能框架，旨在模拟专业数据科学家的工作流程，自动处理复杂的数据分析任务。它通过构建自适应的多智能体协作系统，将传统数据分析中繁琐的规划、执行、验证与反思环节自动化，有效解决了人工处理海量数据时效率低、易出错以及难以动态调整分析策略的痛点。\n\n这款工具特别适合数据科学家、研究人员以及希望利用 AI 提升分析效率的开发者使用。用户只需输入自然语言指令并上传数据文件，agentic-data-scientist 即可自主制定详细的分析计划，编写并运行代码，同时在每一步骤中持续验证结果是否符合预期。若发现偏差，它能像人类专家一样自我修正并调整后续方案。\n\n其核心技术亮点在于基于 Google ADK 和 Claude Agent SDK 构建的分层架构，实现了“规划”与“执行”的分离。此外，它还支持通过模型上下文协议（MCP）集成外部工具，并能直接调用 Claude 的高级科学分析技能。无论是进行差异表达分析还是多数据集对比，agentic-data-scientist 都能提供灵活、可靠且可扩展的智能化解决方案，让复杂的数据","agentic-data-scientist 是一款端到端的开源人工智能框架，旨在模拟专业数据科学家的工作流程，自动处理复杂的数据分析任务。它通过构建自适应的多智能体协作系统，将传统数据分析中繁琐的规划、执行、验证与反思环节自动化，有效解决了人工处理海量数据时效率低、易出错以及难以动态调整分析策略的痛点。\n\n这款工具特别适合数据科学家、研究人员以及希望利用 AI 提升分析效率的开发者使用。用户只需输入自然语言指令并上传数据文件，agentic-data-scientist 即可自主制定详细的分析计划，编写并运行代码，同时在每一步骤中持续验证结果是否符合预期。若发现偏差，它能像人类专家一样自我修正并调整后续方案。\n\n其核心技术亮点在于基于 Google ADK 和 Claude Agent SDK 构建的分层架构，实现了“规划”与“执行”的分离。此外，它还支持通过模型上下文协议（MCP）集成外部工具，并能直接调用 Claude 的高级科学分析技能。无论是进行差异表达分析还是多数据集对比，agentic-data-scientist 都能提供灵活、可靠且可扩展的智能化解决方案，让复杂的数据洞察变得更加简单高效。","# Agentic Data Scientist\n\n[![License: MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![PRs Welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fpulls)\n[![Python 3.12](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.12-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![PyPI version](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fagentic-data-scientist.svg?icon=si%3Apython)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fagentic-data-scientist)\n\n## K-Dense Web\n\nFor users requiring access to substantially more powerful capabilities, **K-Dense Web** is available. Visit [k-dense.ai](https:\u002F\u002Fk-dense.ai) to learn more.\n\n**An Adaptive Multi-Agent Framework for Data Science**\n\nAgentic Data Scientist is an open-source framework that uses a sophisticated multi-agent workflow to tackle complex data science tasks. Built on Google's Agent Development Kit (ADK) and Claude Agent SDK, it separates planning from execution, validates work continuously, and adapts its approach based on progress.\n\n## Features\n\n- 🤖 **Adaptive Multi-Agent Workflow**: Iterative planning, execution, validation, and reflection\n- 📋 **Intelligent Planning**: Creates comprehensive analysis plans before starting work\n- 🔄 **Continuous Validation**: Tracks progress against success criteria at every step\n- 🎯 **Self-Correcting**: Reviews and adapts the plan based on discoveries during execution\n- 🔌 **MCP Integration**: Tool access via Model Context Protocol servers\n- 🧠 **Claude Scientific Skills Integration**: Access advanced Claude Skills directly within your workflows\n- 📁 **File Handling**: Simple file upload and management\n- 🛠️ **Extensible**: Customize prompts, agents, and workflows\n- 📦 **Easy Installation**: Available via pip and uvx\n\n## Quick Start\n\n### Prerequisites\n\nBefore using Agentic Data Scientist, you must have:\n\n1. **Claude Code CLI** installed\n   ```bash\n   npm install -g @anthropic-ai\u002Fclaude-code\n   ```\n   Or visit [Claude Code Quickstart](https:\u002F\u002Fcode.claude.com\u002Fdocs\u002Fen\u002Fquickstart)\n\n2. **Required API Keys** configured (see Configuration section below)\n   - OPENROUTER_API_KEY (for planning and review agents)\n   - ANTHROPIC_API_KEY (for coding agent)\n\n### Installation\n\n```bash\n# Install from PyPI\nuv tool install agentic-data-scientist\n\n# Or use with uvx (no installation needed)\nuvx agentic-data-scientist --mode simple \"your query here\"\n```\n\n### Configuration\n\n**API Keys**\n\nYou must configure two API keys:\n\n1. **OpenRouter API Key** (required for planning and review agents):\n   ```bash\n   export OPENROUTER_API_KEY=\"your_key_here\"\n   ```\n   Get your key at: https:\u002F\u002Fopenrouter.ai\u002Fkeys\n\n2. **Anthropic API Key** (required for coding agent):\n   ```bash\n   export ANTHROPIC_API_KEY=\"your_key_here\"\n   ```\n   Get your key at: https:\u002F\u002Fconsole.anthropic.com\u002F\n\nAlternatively, create a `.env` file in your project directory:\n```bash\nOPENROUTER_API_KEY=your_key_here\nANTHROPIC_API_KEY=your_key_here\n```\n\n**Network Access Control** (Optional)\n\nBy default, agents have access to network tools (web search and URL fetching). To disable network access:\n\n```bash\nexport DISABLE_NETWORK_ACCESS=true\n```\n\nThis disables:\n- `fetch_url` tool for ADK agents\n- `WebFetch` and `WebSearch` tools for Claude Code agent\n\nNetwork access is enabled by default. Set to \"true\" or \"1\" to disable.\n\n### Basic Usage\n\n**Important**: You must specify `--mode` to choose your execution strategy. This ensures you're aware of the complexity and API costs.\n\n**Working Directory**: By default, files are saved to `.\u002Fagentic_output\u002F` in your current directory and preserved after completion. Use `--temp-dir` for temporary storage with auto-cleanup.\n\n#### Orchestrated Mode (Full Multi-Agent Workflow)\n\n```bash\n# Complex analysis with planning, execution, and validation\nagentic-data-scientist \"Perform differential expression analysis\" --mode orchestrated --files data.csv\n\n# Multiple files with custom working directory\nagentic-data-scientist \"Compare datasets\" --mode orchestrated -f data1.csv -f data2.csv --working-dir .\u002Fmy_analysis\n\n# Directory upload (recursive)\nagentic-data-scientist \"Analyze all data\" --mode orchestrated --files data_folder\u002F\n```\n\n#### Simple Mode (Direct Coding, No Planning)\n\n```bash\n# Quick coding tasks without planning overhead\nagentic-data-scientist \"Write a Python script to parse CSV files\" --mode simple\n\n# Question answering\nagentic-data-scientist \"Explain how gradient boosting works\" --mode simple\n\n# Fast analysis with temporary directory\nagentic-data-scientist \"Quick data exploration\" --mode simple --files data.csv --temp-dir\n```\n\n#### Additional Options\n\n```bash\n# Custom log file location\nagentic-data-scientist \"Analyze data\" --mode orchestrated --files data.csv --log-file .\u002Fanalysis.log\n\n# Verbose logging for debugging\nagentic-data-scientist \"Debug issue\" --mode simple --files data.csv --verbose\n\n# Keep files (override default preservation)\nagentic-data-scientist \"Generate report\" --mode orchestrated --files data.csv --keep-files\n```\n\n## How It Works\n\nAgentic Data Scientist uses a multi-phase workflow designed to produce high-quality, reliable results:\n\n### Workflow Design Rationale\n\n**Why separate planning from execution?**\n- Thorough analysis of requirements before starting reduces errors and rework\n- Clear success criteria established upfront ensure all requirements are met\n- Plans can be validated and refined before committing resources to implementation\n\n**Why use iterative refinement?**\n- Multiple review loops catch issues early when they're easier to fix\n- Both plans and implementations are validated before proceeding\n- Continuous feedback improves quality at every step\n\n**Why adapt during execution?**\n- Discoveries during implementation often reveal new requirements\n- Rigid plans can't accommodate unexpected insights or challenges\n- Adaptive replanning ensures the final deliverable meets actual needs\n\n**Why continuous validation?**\n- Success criteria tracking provides objective progress measurement\n- Early detection of issues prevents wasted effort\n- Clear visibility into what's been accomplished and what remains\n\n### The Multi-Agent Workflow\n\n```\n┌─────────────────────────────────────────────────────────────┐\n│                     USER QUERY                              │\n└─────────────────────┬───────────────────────────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   PLANNING PHASE             │\n        │  ┌───────────────────────┐   │\n        │  │ Plan Maker            │◄──┤ Iterative refinement\n        │  │ \"What needs to be     │   │ until plan is complete\n        │  │  done?\"               │   │ and validated\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ Plan Reviewer         │   │\n        │  │ \"Is this complete?\"   │───┤\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ Plan Parser           │   │\n        │  │ Structures into       │   │\n        │  │ executable stages     │   │\n        │  └──────────┬────────────┘   │\n        └─────────────┼────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   EXECUTION PHASE            │\n        │   (Repeated for each stage)  │\n        │                              │\n        │  ┌───────────────────────┐   │\n        │  │ Coding Agent          │   │\n        │  │ Implements the stage  │   │  Stage-by-stage\n        │  │ (uses Claude Code)    │   │  implementation with\n        │  └──────────┬────────────┘   │  continuous validation\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ Review Agent          │◄──┤ Iterates until\n        │  │ \"Was this done        │   │ implementation\n        │  │  correctly?\"          │───┤ is approved\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ Criteria Checker      │   │\n        │  │ \"What have we         │   │\n        │  │  accomplished?\"       │   │\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ Stage Reflector       │   │\n        │  │ \"What should we do    │   │\n        │  │  next?\" Adapts plan   │   │\n        │  └──────────┬────────────┘   │\n        └─────────────┼────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   SUMMARY PHASE              │\n        │  ┌───────────────────────┐   │\n        │  │ Summary Agent         │   │\n        │  │ Creates comprehensive │   │\n        │  │ final report          │   │\n        │  └───────────────────────┘   │\n        └──────────────────────────────┘\n```\n\n### Agent Roles\n\nEach agent in the workflow has a specific responsibility:\n\n- **Plan Maker**: \"What needs to be done?\" - Creates comprehensive analysis plans with clear stages and success criteria\n- **Plan Reviewer**: \"Is this plan complete?\" - Validates that plans address all requirements before execution begins\n- **Plan Parser**: Converts natural language plans into structured, executable stages with trackable success criteria\n- **Stage Orchestrator**: Manages the execution cycle - runs stages one at a time, validates progress, and adapts as needed\n- **Coding Agent**: Does the actual implementation work (powered by Claude Code SDK with access to 380+ scientific Skills)\n- **Review Agent**: \"Was this done correctly?\" - Validates implementations against requirements before proceeding\n- **Criteria Checker**: \"What have we accomplished?\" - Objectively tracks progress against success criteria after each stage\n- **Stage Reflector**: \"What should we do next?\" - Analyzes progress and adapts remaining stages based on what's been learned\n- **Summary Agent**: Synthesizes all work into a comprehensive, publication-ready report\n\n## Architecture\n\n```\n┌──────────────────────────────────────────────────────────────┐\n│                    CLI Interface                             │\n├──────────────────────────────────────────────────────────────┤\n│          Agentic Data Scientist Core                         │\n│        (Session & Event Management)                          │\n├──────────────────────────────────────────────────────────────┤\n│               ADK Multi-Agent Workflow                       │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ Planning Loop (Plan Maker → Reviewer → Parser)         │  │\n│  └────────────────────────────────────────────────────────┘  │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ Stage Orchestrator                                     │  |\n│  │   ├─> Implementation Loop (Coding → Review)            │  │\n│  │   ├─> Criteria Checker                                 │  │\n│  │   └─> Stage Reflector                                  │  │\n│  └────────────────────────────────────────────────────────┘  │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ Summary Agent                                          │  │\n│  └────────────────────────────────────────────────────────┘  │\n├──────────────────────────────────────────────────────────────┤\n│                     Tool Layer                               │\n│  • Built-in Tools: Read-only file ops, web fetch             │\n│  • Claude Scientific Skills: 120+ skills                     │\n└──────────────────────────────────────────────────────────────┘\n```\n\n## Configuration\n\n### Environment Variables\n\nCreate a `.env` file:\n\n```bash\n# Required: API keys\nANTHROPIC_API_KEY=your_key_here\nGOOGLE_API_KEY=your_key_here\n\n# Optional: Model configuration\nDEFAULT_MODEL=google\u002Fgemini-2.5-pro\nCODING_MODEL=claude-sonnet-4-5-20250929\n```\n\n### Tools & Skills\n\n**Built-in Tools** (planning\u002Freview agents):\n- **File Operations**: Read-only file access within working directory\n  - `read_file`, `read_media_file`, `list_directory`, `directory_tree`, `search_files`, `get_file_info`\n- **Web Operations**: HTTP fetch for retrieving web content\n  - `fetch_url`\n\n**Claude Scientific Skills** (coding agent):\n- **120+ Scientific Skills** automatically loaded from [claude-scientific-skills](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fclaude-scientific-skills)\n  - Scientific databases: UniProt, PubChem, PDB, KEGG, PubMed, and more\n  - Scientific packages: BioPython, RDKit, PyDESeq2, scanpy, and more\n  - Auto-cloned to `.claude\u002Fskills\u002F` at coding agent startup\n\nAll tools are sandboxed to the working directory for security.\n\n## Documentation\n\n- [Getting Started Guide](docs\u002Fgetting_started.md) - Learn how the workflow operates step by step\n- [API Reference](docs\u002Fapi_reference.md) - Complete API documentation\n- [Tools Configuration](docs\u002Ftools_configuration.md) - Configure tools and skills\n- [Extending](docs\u002Fextending.md) - Customize prompts, agents, and workflows\n\n## Examples\n\n### Orchestrated Mode Use Cases\n\n**Complex Data Analysis**\n```bash\n# Differential expression analysis with multiple files\nagentic-data-scientist \"Perform DEG analysis comparing treatment vs control\" \\\n  --mode orchestrated \\\n  --files treatment_data.csv \\\n  --files control_data.csv\n```\n\n**Multi-Step Workflows**\n```bash\n# Complete analysis pipeline with visualization\nagentic-data-scientist \"Analyze customer churn, create predictive model, and generate report\" \\\n  --mode orchestrated \\\n  --files customers.csv \\\n  --working-dir .\u002Fchurn_analysis\n```\n\n**Directory Processing**\n```bash\n# Process entire dataset directory\nagentic-data-scientist \"Analyze all CSV files and create summary statistics\" \\\n  --mode orchestrated \\\n  --files .\u002Fraw_data\u002F\n```\n\n### Simple Mode Use Cases\n\n**Quick Scripts**\n```bash\n# Generate utility scripts\nagentic-data-scientist \"Write a Python script to merge CSV files by common column\" \\\n  --mode simple\n```\n\n**Code Explanation**\n```bash\n# Technical questions\nagentic-data-scientist \"Explain the difference between Random Forest and Gradient Boosting\" \\\n  --mode simple\n```\n\n**Fast Prototypes**\n```bash\n# Quick analysis with temporary workspace\nagentic-data-scientist \"Create a basic scatter plot from this data\" \\\n  --mode simple \\\n  --files data.csv \\\n  --temp-dir\n```\n\n### Working Directory Examples\n\n```bash\n# Default behavior (.\u002Fagentic_output\u002F with file preservation)\nagentic-data-scientist \"Analyze data\" --mode orchestrated --files data.csv\n\n# Temporary directory (auto-cleanup)\nagentic-data-scientist \"Quick test\" --mode simple --files data.csv --temp-dir\n\n# Custom location\nagentic-data-scientist \"Project analysis\" --mode orchestrated --files data.csv --working-dir .\u002Fmy_project\n\n# Custom location with explicit cleanup\nagentic-data-scientist \"Temporary analysis\" --mode simple --files data.csv --working-dir .\u002Ftemp --keep-files=false\n```\n\n## Development\n\n### Setup\n\n```bash\n# Clone repository\ngit clone https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist.git\ncd agentic-data-scientist\n\n# Install with dev dependencies using uv\nuv sync --extra dev\n\n# Run tests\nuv run pytest tests\u002F\n\n# Format code\nuv run ruff format .\n\n# Lint\nuv run ruff check --fix .\n```\n\n### Project Structure\n\n```\nagentic-data-scientist\u002F\n├── src\u002Fagentic_data_scientist\u002F\n│   ├── core\u002F           # Core API and session management\n│   ├── agents\u002F         # Agent implementations\n│   │   ├── adk\u002F        # ADK multi-agent workflow\n│   │   │   ├── agent.py              # Agent factory\n│   │   │   ├── stage_orchestrator.py # Stage-by-stage execution\n│   │   │   ├── implementation_loop.py# Coding + review loop\n│   │   │   ├── loop_detection.py     # Loop detection agent\n│   │   │   └── review_confirmation.py# Review decision logic\n│   │   └── claude_code\u002F# Claude Code integration\n│   ├── prompts\u002F        # Prompt templates\n│   │   ├── base\u002F       # Agent role prompts\n│   │   └── domain\u002F     # Domain-specific prompts\n│   ├── tools\u002F          # Built-in tools (file ops, web fetch)\n│   └── cli\u002F            # CLI interface\n├── tests\u002F              # Test suite\n└── docs\u002F               # Documentation\n```\n\n## Requirements\n\n- Python 3.12+\n- Node.js (for Claude Code)\n- API keys for Anthropic and OpenRouter\n\n## Contributing\n\nContributions welcome! See [CONTRIBUTING.md](CONTRIBUTING.md) for details.\n\n```bash\n# Fork and clone, then:\nuv sync --extra dev\n# Make changes, add tests\nuv run pytest tests\u002F -v\n# Submit PR\n```\n\n## Release Process\n\nFor maintainers:\n\n1. **Create and push tag:**\n   ```bash\n   .\u002Fscripts\u002Frelease.sh 0.2.0\n   ```\n\n2. **Create GitHub release:**\n   - Go to https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Freleases\u002Fnew?tag=v0.2.0\n   - Click \"Generate release notes\" for automatic changelog\n   - Publish release\n   - Package automatically publishes to PyPI\n\n**One-time PyPI Setup:** Configure [trusted publishing](https:\u002F\u002Fdocs.pypi.org\u002Ftrusted-publishers\u002F) on PyPI with repo `K-Dense-AI\u002Fagentic-data-scientist` and workflow `pypi-publish.yml`.\n\nUse conventional commits (`feat:`, `fix:`, `docs:`, etc.) for clean changelogs.\n\n## Technical Notes\n\n### Context Window Management\n\nThe framework implements aggressive event compression to manage context window usage during long-running analyses:\n\n#### Event Compression Strategy\n\n- **Automatic Compression**: Events are automatically compressed when count exceeds threshold (default: 40 events)\n- **LLM-based Summarization**: Old events are summarized using LLM before removal to preserve critical context\n- **Aggressive Truncation**: Large text content (>10KB) is truncated to prevent token overflow\n- **Direct Event Queue Manipulation**: Uses direct assignment to `session.events` to ensure changes take effect\n\n#### Preventing Token Overflow\n\nThe system employs multiple layers of protection:\n\n- **Callback-based compression**: Triggers automatically after each agent turn\n- **Manual compression**: Triggered at key orchestration points (e.g., after implementation loop)\n- **Hard limit trimming**: Emergency fallback that discards old events if count exceeds maximum\n- **Large text truncation**: Prevents individual events from consuming excessive tokens\n\nThese mechanisms work together to keep the total context under 1M tokens even during complex multi-stage analyses.\n\n## Support\n\n- GitHub Issues: [Report bugs or request features](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fissues)\n- Join our Slack Community: [K-Dense Community](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fk-densecommunity\u002Fshared_invite\u002Fzt-3iajtyls1-EwmkwIZk0g_o74311Tkf5g)\n- Documentation: [Full documentation](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fblob\u002Fmain\u002Fdocs)\n\n## Acknowledgments\n\nBuilt with:\n- [Google Agent Development Kit (ADK)](https:\u002F\u002Fgoogle.github.io\u002Fadk-docs\u002F)\n- [Claude Agent SDK](https:\u002F\u002Fdocs.claude.com\u002Fen\u002Fapi\u002Fagent-sdk)\n- [Model Context Protocol](https:\u002F\u002Fmodelcontextprotocol.io\u002F)\n- [Claude Scientific Skills](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fclaude-scientific-skills)\n\n## License\n\nMIT License - see [LICENSE](LICENSE) for details.\n\nCopyright © 2025 K-Dense Inc. ([k-dense.ai](https:\u002F\u002Fk-dense.ai))\n\n## Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FK-Dense-AI_agentic-data-scientist_readme_bf63b322e05f.png)](https:\u002F\u002Fwww.star-history.com\u002F#K-Dense-AI\u002Fagentic-data-scientist&type=date&legend=top-left)\n","# 智能体数据科学家\n\n[![许可证：MIT](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-yellow.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT)\n[![欢迎提交PR](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fpulls)\n[![Python 3.12](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.12-blue.svg)](https:\u002F\u002Fwww.python.org\u002Fdownloads\u002F)\n[![PyPI版本](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fagentic-data-scientist.svg?icon=si%3Apython)](https:\u002F\u002Fbadge.fury.io\u002Fpy\u002Fagentic-data-scientist)\n\n## K-Dense Web\n\n对于需要访问更强大功能的用户，**K-Dense Web** 已经上线。请访问 [k-dense.ai](https:\u002F\u002Fk-dense.ai) 了解更多信息。\n\n**面向数据科学的自适应多智能体框架**\n\nAgentic Data Scientist 是一个开源框架，采用复杂的多智能体工作流来解决复杂的数据科学任务。它基于 Google 的 Agent Development Kit (ADK) 和 Claude Agent SDK 构建，将规划与执行分离，持续验证工作进展，并根据进度动态调整策略。\n\n## 特性\n\n- 🤖 **自适应多智能体工作流**：迭代式规划、执行、验证和反思\n- 📋 **智能规划**：在开始工作前制定全面的分析计划\n- 🔄 **持续验证**：每一步都对照成功标准跟踪进展\n- 🎯 **自我修正**：根据执行过程中的发现审查并调整计划\n- 🔌 **MCP 集成**：通过 Model Context Protocol 服务器访问工具\n- 🧠 **Claude 科学技能集成**：直接在您的工作流中使用高级 Claude 技能\n- 📁 **文件处理**：简单的文件上传和管理\n- 🛠️ **可扩展**：自定义提示、智能体和工作流\n- 📦 **易于安装**：可通过 pip 和 uvx 安装\n\n## 快速入门\n\n### 前置条件\n\n在使用 Agentic Data Scientist 之前，您必须具备以下条件：\n\n1. 已安装 **Claude Code CLI**\n   ```bash\n   npm install -g @anthropic-ai\u002Fclaude-code\n   ```\n   或访问 [Claude Code 快速入门](https:\u002F\u002Fcode.claude.com\u002Fdocs\u002Fen\u002Fquickstart)\n\n2. 配置好所需的 API 密钥（见下文配置部分）：\n   - OPENROUTER_API_KEY（用于规划和评审智能体）\n   - ANTHROPIC_API_KEY（用于编码智能体）\n\n### 安装\n\n```bash\n# 从 PyPI 安装\nuv tool install agentic-data-scientist\n\n# 或者使用 uvx（无需安装）\nuvx agentic-data-scientist --mode simple \"your query here\"\n```\n\n### 配置\n\n**API 密钥**\n\n您必须配置两个 API 密钥：\n\n1. **OpenRouter API 密钥**（规划和评审智能体所需）：\n   ```bash\n   export OPENROUTER_API_KEY=\"your_key_here\"\n   ```\n   您可以在 https:\u002F\u002Fopenrouter.ai\u002Fkeys 获取密钥。\n\n2. **Anthropic API 密钥**（编码智能体所需）：\n   ```bash\n   export ANTHROPIC_API_KEY=\"your_key_here\"\n   ```\n   您可以在 https:\u002F\u002Fconsole.anthropic.com\u002F 获取密钥。\n\n或者，您也可以在项目目录下创建一个 `.env` 文件：\n```bash\nOPENROUTER_API_KEY=your_key_here\nANTHROPIC_API_KEY=your_key_here\n```\n\n**网络访问控制**（可选）\n\n默认情况下，智能体可以访问网络工具（网页搜索和 URL 获取）。如需禁用网络访问：\n\n```bash\nexport DISABLE_NETWORK_ACCESS=true\n```\n\n这将禁用：\n- ADK 智体的 `fetch_url` 工具\n- Claude Code 智体的 `WebFetch` 和 `WebSearch` 工具\n\n网络访问默认是启用的。设置为“true”或“1”即可禁用。\n\n### 基本用法\n\n**重要提示**：您必须指定 `--mode` 来选择执行策略。这样可以确保您了解任务的复杂性和 API 费用。\n\n**工作目录**：默认情况下，文件会保存到当前目录下的 `.\u002Fagentic_output\u002F` 中，并在完成任务后保留。您可以使用 `--temp-dir` 参数来指定临时存储目录，任务完成后会自动清理。\n\n#### 协调模式（完整多智能体工作流）\n\n```bash\n# 复杂分析，包含规划、执行和验证\nagentic-data-scientist \"进行差异表达分析\" --mode orchestrated --files data.csv\n\n# 多个文件，自定义工作目录\nagentic-data-scientist \"比较数据集\" --mode orchestrated -f data1.csv -f data2.csv --working-dir .\u002Fmy_analysis\n\n# 目录上传（递归）\nagentic-data-scientist \"分析所有数据\" --mode orchestrated --files data_folder\u002F\n```\n\n#### 简单模式（直接编码，无规划）\n\n```bash\n# 无需规划开销的快速编码任务\nagentic-data-scientist \"编写一个 Python 脚本来解析 CSV 文件\" --mode simple\n\n# 问答\nagentic-data-scientist \"解释梯度提升的工作原理\" --mode simple\n\n# 使用临时目录的快速分析\nagentic-data-scientist \"快速数据探索\" --mode simple --files data.csv --temp-dir\n```\n\n#### 其他选项\n\n```bash\n# 自定义日志文件位置\nagentic-data-scientist \"分析数据\" --mode orchestrated --files data.csv --log-file .\u002Fanalysis.log\n\n# 详细日志用于调试\nagentic-data-scientist \"调试问题\" --mode simple --files data.csv --verbose\n\n# 保留文件（覆盖默认保留设置）\nagentic-data-scientist \"生成报告\" --mode orchestrated --files data.csv --keep-files\n```\n\n## 工作原理\n\nAgentic Data Scientist 采用多阶段工作流设计，旨在产出高质量、可靠的结果：\n\n### 工作流设计 rationale\n\n**为什么将规划与执行分开？**\n- 在开始工作前彻底分析需求，可以减少错误和返工\n- 提前明确成功标准，确保满足所有要求\n- 计划可以在投入资源实施之前得到验证和优化\n\n**为什么采用迭代式改进？**\n- 多次评审循环能够在问题还容易修复时及早发现\n- 计划和实施方案都会在继续推进之前得到验证\n- 持续的反馈有助于在每一步提高质量\n\n**为什么要在执行过程中进行调整？**\n- 执行过程中可能会发现新的需求\n- 固定的计划无法应对意外的见解或挑战\n- 自适应的重新规划能够确保最终交付物符合实际需求\n\n**为什么进行持续验证？**\n- 跟踪成功标准可以客观地衡量进展\n- 早期发现问题可以防止浪费精力\n- 清晰地了解已完成的工作和剩余的任务\n\n### 多智能体工作流\n\n```\n┌─────────────────────────────────────────────────────────────┐\n│                     用户查询                              │\n└─────────────────────┬───────────────────────────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   计划阶段             │\n        │  ┌───────────────────────┐   │\n        │  │ 计划制定者            │◄──┤ 迭代式细化\n        │  │ “需要完成什么？”      │   │ 直到计划完整\n        │  │                        │   │ 并通过验证\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ 计划审核者          │   │\n        │  │ “这个计划完整吗？”    │───┤\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ 计划解析者          │   │\n        │  │ 将其结构化为         │   │\n        │  │ 可执行的阶段         │   │\n        │  └──────────┬────────────┘   │\n        └─────────────┼────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   执行阶段              │\n        │   （每个阶段重复进行）    │\n        │                              │\n        │  ┌───────────────────────┐   │\n        │  │ 编码智能体          │   │\n        │  │ 实施该阶段          │   │ 阶段逐个\n        │  │ （使用 Claude Code）  │   │ 实现，并持续验证\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ 审核智能体          │◄──┤ 循环迭代，直至\n        │  │ “这项工作是否正确完成？”│   │ 实现得到批准\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ 标准检查者          │   │\n        │  │ “我们已经完成了什么？”│   │\n        │  │                        │   │\n        │  └──────────┬────────────┘   │\n        │             │                │\n        │  ┌──────────▼────────────┐   │\n        │  │ 阶段反思者          │   │\n        │  │ “接下来我们应该做什么？”调整计划   │   │\n        │  └──────────┬────────────┘   │\n        └─────────────┼────────────────┘\n                      │\n        ┌─────────────▼────────────────┐\n        │   总结阶段              │\n        │  ┌───────────────────────┐   │\n        │  │ 总结智能体          │   │\n        │  │ 创建全面的           │   │\n        │  │ 最终报告            │   │\n        │  └───────────────────────┘   │\n        └──────────────────────────────┘\n```\n\n### 智能体角色\n\n工作流中的每个智能体都有特定的责任：\n\n- **计划制定者**：“需要完成什么？”——创建包含清晰阶段和成功标准的综合分析计划。\n- **计划审核者**：“这个计划完整吗？”——在执行开始前验证计划是否满足所有需求。\n- **计划解析者**：将自然语言计划转换为结构化的可执行阶段，并设定可追踪的成功标准。\n- **阶段协调员**：管理执行周期——按顺序运行各个阶段，验证进展并根据需要调整。\n- **编码智能体**：执行实际的实现工作（由 Claude Code SDK 提供支持，可访问 380 多种科学技能）。\n- **审核智能体**：“这项工作是否正确完成？”——在继续下一步之前验证实施是否符合要求。\n- **标准检查者**：“我们已经完成了什么？”——客观地跟踪每个阶段后的进展与成功标准的对比情况。\n- **阶段反思者**：“接下来我们应该做什么？”——分析进展，并根据已学到的内容调整剩余阶段。\n- **总结智能体**：将所有工作整合成一份全面且可发表的报告。\n\n## 架构\n\n```\n┌──────────────────────────────────────────────────────────────┐\n│                    命令行界面                             │\n├──────────────────────────────────────────────────────────────┤\n│          智能体数据科学家核心                         │\n│        （会话与事件管理）                          │\n├──────────────────────────────────────────────────────────────┤\n│               ADK 多智能体工作流                       │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ 计划循环（计划制定者 → 审核者 → 解析者）         │  │\n│  └────────────────────────────────────────────────────────┘  │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ 阶段协调员                                     │  |\n│  │   ├─> 实施循环（编码 → 审核）            │  │\n│  │   ├─> 标准检查者                                 │  │\n│  │   └─> 阶段反思者                                  │  │\n│  └────────────────────────────────────────────────────────┘  │\n│  ┌────────────────────────────────────────────────────────┐  │\n│  │ 总结智能体                                          │  │\n│  └────────────────────────────────────────────────────────┘  │\n├──────────────────────────────────────────────────────────────┤\n│                     工具层                               │\n│  • 内置工具：只读文件操作、网页抓取             │\n│  • Claude 科学技能：120 多种技能                     │\n└──────────────────────────────────────────────────────────────┘\n```\n\n## 配置\n\n### 环境变量\n\n创建一个 `.env` 文件：\n\n```bash\n# 必需：API 密钥\nANTHROPIC_API_KEY=your_key_here\nGOOGLE_API_KEY=your_key_here\n\n# 可选：模型配置\nDEFAULT_MODEL=google\u002Fgemini-2.5-pro\nCODING_MODEL=claude-sonnet-4-5-20250929\n```\n\n### 工具与技能\n\n**内置工具**（用于计划\u002F审核智能体）：\n- **文件操作**：仅限于工作目录内的只读文件访问\n  - `read_file`, `read_media_file`, `list_directory`, `directory_tree`, `search_files`, `get_file_info`\n- **网络操作**：通过 HTTP 获取网络内容\n  - `fetch_url`\n\n**Claude 科学技能**（用于编码智能体）：\n- **120 多种科学技能** 自动从 [claude-scientific-skills](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fclaude-scientific-skills) 加载\n  - 科学数据库：UniProt、PubChem、PDB、KEGG、PubMed 等\n  - 科学软件包：BioPython、RDKit、PyDESeq2、scanpy 等\n  - 在编码智能体启动时自动克隆至 `.claude\u002Fskills\u002F`\n\n所有工具均被沙盒化到工作目录中以确保安全。\n\n## 文档\n\n- [入门指南](docs\u002Fgetting_started.md) —— 了解工作流如何逐步运作\n- [API 参考](docs\u002Fapi_reference.md) —— 完整的 API 文档\n- [工具配置](docs\u002Ftools_configuration.md) —— 配置工具和技能\n- [扩展](docs\u002Fextending.md) —— 自定义提示词、智能体和工作流\n\n## 示例\n\n### 协调模式用例\n\n**复杂数据分析**\n```bash\n\n# 多文件差异表达分析\nagentic-data-scientist \"执行处理组与对照组的DEG分析\" \\\n  --mode orchestrated \\\n  --files treatment_data.csv \\\n  --files control_data.csv\n```\n\n**多步骤工作流**\n```bash\n# 包含可视化的完整分析流程\nagentic-data-scientist \"分析客户流失、创建预测模型并生成报告\" \\\n  --mode orchestrated \\\n  --files customers.csv \\\n  --working-dir .\u002Fchurn_analysis\n```\n\n**目录处理**\n```bash\n# 处理整个数据集目录\nagentic-data-scientist \"分析所有CSV文件并生成汇总统计信息\" \\\n  --mode orchestrated \\\n  --files .\u002Fraw_data\u002F\n```\n\n### 简单模式用例\n\n**快速脚本**\n```bash\n# 生成实用脚本\nagentic-data-scientist \"编写一个Python脚本，按共同列合并CSV文件\" \\\n  --mode simple\n```\n\n**代码解释**\n```bash\n# 技术性问题\nagentic-data-scientist \"解释随机森林和梯度提升的区别\" \\\n  --mode simple\n```\n\n**快速原型**\n```bash\n# 使用临时工作空间进行快速分析\nagentic-data-scientist \"根据这些数据创建一个基本散点图\" \\\n  --mode simple \\\n  --files data.csv \\\n  --temp-dir\n```\n\n### 工作目录示例\n\n```bash\n# 默认行为（.\u002Fagentic_output\u002F，保留文件）\nagentic-data-scientist \"分析数据\" --mode orchestrated --files data.csv\n\n# 临时目录（自动清理）\nagentic-data-scientist \"快速测试\" --mode simple --files data.csv --temp-dir\n\n# 自定义位置\nagentic-data-scientist \"项目分析\" --mode orchestrated --files data.csv --working-dir .\u002Fmy_project\n\n# 自定义位置并明确清理\nagentic-data-scientist \"临时分析\" --mode simple --files data.csv --working-dir .\u002Ftemp --keep-files=false\n```\n\n## 开发\n\n### 设置\n\n```bash\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist.git\ncd agentic-data-scientist\n\n# 使用uv安装开发依赖\nuv sync --extra dev\n\n# 运行测试\nuv run pytest tests\u002F\n\n# 格式化代码\nuv run ruff format .\n\n# 静态检查\nuv run ruff check --fix .\n```\n\n### 项目结构\n\n```\nagentic-data-scientist\u002F\n├── src\u002Fagentic_data_scientist\u002F\n│   ├── core\u002F           # 核心API和会话管理\n│   ├── agents\u002F         # 代理实现\n│   │   ├── adk\u002F        # ADK多代理工作流\n│   │   │   ├── agent.py              # 代理工厂\n│   │   │   ├── stage_orchestrator.py # 分阶段执行\n│   │   │   ├── implementation_loop.py# 编码+评审循环\n│   │   │   ├── loop_detection.py     # 循环检测代理\n│   │   │   └契review_confirmation.py# 评审决策逻辑\n│   │   └契claude_code\u002F# Claude Code集成\n│   ├── prompts\u002F        # 提示模板\n│   │   ├── base\u002F       # 代理角色提示\n│   │   └契domain\u002F     # 领域特定提示\n│   ├── tools\u002F          # 内置工具（文件操作、网页抓取）\n│   └契cli\u002F            # CLI接口\n├── tests\u002F              # 测试套件\n└契docs\u002F               # 文档\n```\n\n## 要求\n\n- Python 3.12+\n- Node.js（用于Claude Code）\n- Anthropic和OpenRouter的API密钥\n\n## 贡献\n\n欢迎贡献！详情请参阅[CONTRIBUTING.md](CONTRIBUTING.md)。\n\n```bash\n# 分支并克隆后：\nuv sync --extra dev\n# 进行修改，添加测试\nuv run pytest tests\u002F -v\n# 提交PR\n```\n\n## 发布流程\n\n对于维护者：\n\n1. **创建并推送标签：**\n   ```bash\n   .\u002Fscripts\u002Frelease.sh 0.2.0\n   ```\n\n2. **创建GitHub发布：**\n   - 访问https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Freleases\u002Fnew?tag=v0.2.0\n   - 点击“生成发布说明”以自动生成变更日志\n   - 发布版本\n   - 软件包会自动发布到PyPI\n\n**一次性PyPI设置：** 在PyPI上配置[可信发布](https:\u002F\u002Fdocs.pypi.org\u002Ftrusted-publishers\u002F)，关联仓库`K-Dense-AI\u002Fagentic-data-scientist`和工作流`pypi-publish.yml`。\n\n使用规范化的提交信息（`feat:`、`fix:`、`docs:`等）以生成清晰的变更日志。\n\n## 技术注释\n\n### 上下文窗口管理\n\n该框架实施了激进的事件压缩策略，以在长时间运行的分析过程中管理上下文窗口的使用：\n\n#### 事件压缩策略\n\n- **自动压缩**：当事件数量超过阈值时（默认为40个），事件会自动压缩\n- **LLM驱动的摘要**：旧事件会在被移除前由LLM总结，以保留关键上下文\n- **激进截断**：大型文本内容（超过10KB）会被截断，以防止令牌溢出\n- **直接事件队列操作**：通过直接赋值给`session.events`来确保更改生效\n\n#### 防止令牌溢出\n\n系统采用了多层保护机制：\n\n- **基于回调的压缩**：在每个代理回合结束后自动触发\n- **手动压缩**：在关键编排点（例如实现循环之后）触发\n- **硬性限制修剪**：如果事件数量超过最大值，则作为紧急回退措施丢弃旧事件\n- **大文本截断**：防止单个事件占用过多令牌\n\n这些机制协同工作，即使在复杂的多阶段分析中，也能将总上下文保持在100万令牌以内。\n\n## 支持\n\n- GitHub Issues：[报告错误或请求功能](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fissues)\n- 加入我们的Slack社区：[K-Dense社区](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fk-densecommunity\u002Fshared_invite\u002Fzt-3iajtyls1-EwmkwIZk0g_o74311Tkf5g)\n- 文档：[完整文档](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fblob\u002Fmain\u002Fdocs)\n\n## 致谢\n\n基于以下技术构建：\n- [Google Agent Development Kit (ADK)](https:\u002F\u002Fgoogle.github.io\u002Fadk-docs\u002F)\n- [Claude Agent SDK](https:\u002F\u002Fdocs.claude.com\u002Fen\u002Fapi\u002Fagent-sdk)\n- [Model Context Protocol](https:\u002F\u002Fmodelcontextprotocol.io\u002F)\n- [Claude Scientific Skills](https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fclaude-scientific-skills)\n\n## 许可证\n\nMIT许可证 - 详情请参阅[LICENSE](LICENSE)。\n\n版权所有 © 2025 K-Dense Inc. ([k-dense.ai](https:\u002F\u002Fk-dense.ai))\n\n## 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FK-Dense-AI_agentic-data-scientist_readme_bf63b322e05f.png)](https:\u002F\u002Fwww.star-history.com\u002F#K-Dense-AI\u002Fagentic-data-scientist?type=date&legend=top-left)","# Agentic Data Scientist 快速上手指南\n\nAgentic Data Scientist 是一个基于多智能体工作流的开源框架，专为解决复杂的数据科学任务而设计。它利用 Google ADK 和 Claude Agent SDK，将规划与执行分离，并通过持续的验证和自我修正机制确保结果质量。\n\n## 环境准备\n\n在开始使用前，请确保您的系统满足以下要求：\n\n1.  **Python 环境**：支持 Python 3.12+。\n2.  **Claude Code CLI**：必须安装此工具以支持编码智能体。\n    ```bash\n    npm install -g @anthropic-ai\u002Fclaude-code\n    ```\n    *注：如网络受限，请自行配置 npm 镜像源（如 `npm config set registry https:\u002F\u002Fregistry.npmmirror.com`）。*\n3.  **API Keys**：需准备以下两个密钥：\n    *   **OpenRouter API Key**：用于规划（Planning）和审查（Review）智能体。获取地址：https:\u002F\u002Fopenrouter.ai\u002Fkeys\n    *   **Anthropic API Key**：用于编码（Coding）智能体。获取地址：https:\u002F\u002Fconsole.anthropic.com\u002F\n\n## 安装步骤\n\n推荐使用 `uv` 工具进行安装，既快速又方便管理依赖。\n\n**方式一：全局安装（推荐）**\n```bash\nuv tool install agentic-data-scientist\n```\n\n**方式二：免安装运行**\n如果不希望全局安装，可直接使用 `uvx` 运行：\n```bash\nuvx agentic-data-scientist --mode simple \"your query here\"\n```\n\n## 基本使用\n\n### 1. 配置环境变量\n\n在使用前，您需要配置 API 密钥。可以通过导出环境变量或创建 `.env` 文件实现。\n\n**方法 A：临时导出（当前终端会话有效）**\n```bash\nexport OPENROUTER_API_KEY=\"your_openrouter_key_here\"\nexport ANTHROPIC_API_KEY=\"your_anthropic_key_here\"\n```\n\n**方法 B：创建 .env 文件（项目目录内）**\n在项目根目录下创建 `.env` 文件并填入：\n```bash\nOPENROUTER_API_KEY=your_openrouter_key_here\nANTHROPIC_API_KEY=your_anthropic_key_here\n```\n\n*(可选) 禁用网络访问：如果希望禁止智能体访问互联网（如网页搜索），可设置：*\n```bash\nexport DISABLE_NETWORK_ACCESS=true\n```\n\n### 2. 运行示例\n\n该工具提供两种主要模式：**Orchestrated**（完整多智能体工作流，含规划与验证）和 **Simple**（直接编码，无规划开销）。**必须指定 `--mode` 参数。**\n\n#### 场景一：简单任务（Simple Mode）\n适用于快速脚本编写、概念解释或简单的数据分析，无需复杂的规划过程。\n\n```bash\n# 示例：编写一个解析 CSV 的 Python 脚本\nagentic-data-scientist \"Write a Python script to parse CSV files\" --mode simple\n\n# 示例：快速数据探索（使用临时目录，结束后自动清理）\nagentic-data-scientist \"Quick data exploration\" --mode simple --files data.csv --temp-dir\n```\n\n#### 场景二：复杂分析（Orchestrated Mode）\n适用于需要严谨规划、分步执行和持续验证的复杂数据科学任务（如差异表达分析）。\n\n```bash\n# 示例：对单个文件进行复杂的差异表达分析\nagentic-data-scientist \"Perform differential expression analysis\" --mode orchestrated --files data.csv\n\n# 示例：对比多个数据集，并指定输出目录\nagentic-data-scientist \"Compare datasets\" --mode orchestrated -f data1.csv -f data2.csv --working-dir .\u002Fmy_analysis\n\n# 示例：递归分析整个文件夹\nagentic-data-scientist \"Analyze all data\" --mode orchestrated --files data_folder\u002F\n```\n\n#### 常用附加选项\n\n*   `--files` 或 `-f`: 指定输入文件。\n*   `--working-dir`: 指定工作目录（默认保存在 `.\u002Fagentic_output\u002F`）。\n*   `--temp-dir`: 使用临时目录，任务完成后自动清理文件。\n*   `--verbose`: 开启详细日志，便于调试。\n*   `--log-file`: 指定日志文件保存路径。\n\n```bash\n# 示例：带详细日志的分析任务\nagentic-data-scientist \"Debug issue\" --mode simple --files data.csv --verbose\n```\n\n> **提示**：默认情况下，生成的文件会保留在 `.\u002Fagentic_output\u002F` 目录中。如果您希望任务结束后自动清理文件，请添加 `--temp-dir` 参数。","某生物制药公司的数据分析师急需在两天内完成对数千个基因样本的差异表达分析，以支持新药研发的关键决策。\n\n### 没有 agentic-data-scientist 时\n- **流程割裂且耗时**：分析师需手动编写代码进行数据清洗、统计建模和可视化，每个环节出错都需从头调试，往往耗费数天时间。\n- **缺乏动态纠错机制**：一旦预设的分析路径遇到数据异常（如离群值或格式错误），脚本直接报错终止，必须人工介入排查并重新运行。\n- **验证工作繁重**：为了确保结果可靠，分析师需要反复交叉验证中间结果，容易因疲劳导致疏漏，影响最终结论的可信度。\n- **工具切换频繁**：需要在 Jupyter Notebook、终端和文档之间来回切换，上下文不断中断，难以维持连贯的分析思路。\n\n### 使用 agentic-data-scientist 后\n- **全自动端到端执行**：只需输入“执行差异表达分析”并上传数据文件，agentic-data-scientist 自动规划并串联起清洗、建模到绘图的全流程，将数天工作压缩至几小时。\n- **自适应修正计划**：当遇到数据异常时，其内置的多智能体工作流会自动识别问题，动态调整分析策略并继续执行，无需人工干预。\n- **持续进度验证**：系统在每一步骤都会对照成功标准进行自我验证，确保中间结果的准确性，大幅降低了最终报告出错的风险。\n- **统一上下文管理**：agentic-data-scientist 在一个连贯的会话中处理所有任务，自动管理文件与代码状态，让分析师能专注于解读生物学意义而非调试代码。\n\nagentic-data-scientist 通过将繁琐的编码与验证工作转化为自适应的智能协作流程，让数据科学家从“代码工人”回归为真正的“科学决策者”。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FK-Dense-AI_agentic-data-scientist_5f3cf2ea.png","K-Dense-AI","K-Dense","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FK-Dense-AI_c1aa6e33.png","",null,"contact@k-dense.ai","k_dense_ai","www.k-dense.ai","https:\u002F\u002Fgithub.com\u002FK-Dense-AI",[86,90],{"name":87,"color":88,"percentage":89},"Python","#3572A5",99.2,{"name":91,"color":92,"percentage":93},"Shell","#89e051",0.8,596,92,"2026-04-01T02:50:47","MIT","未说明",{"notes":100,"python":101,"dependencies":102},"该工具是一个基于多智能体工作流的框架，主要依赖外部 API 而非本地算力。必须安装 Claude Code CLI (Node.js 环境)。需要配置 OPENROUTER_API_KEY（用于规划和审查）和 ANTHROPIC_API_KEY（用于编码代理）。默认启用网络访问工具，可通过环境变量禁用。通过 pip 或 uvx 安装，无需本地 GPU 或大模型文件下载。","3.12",[103,104,105],"@anthropic-ai\u002Fclaude-code","google-adk","claude-agent-sdk",[51,13,15,54],[108,109,110],"agentic-ai","data-science","machine-learning","2026-03-27T02:49:30.150509","2026-04-06T06:46:15.061153",[],[115,120,125],{"id":116,"version":117,"summary_zh":118,"released_at":119},72282,"v0.2.2","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fcompare\u002Fv0.2.1...v0.2.2","2025-11-21T20:11:41",{"id":121,"version":122,"summary_zh":123,"released_at":124},72283,"v0.2.1","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fcompare\u002Fv0.2.0...v0.2.1","2025-11-21T03:34:45",{"id":126,"version":127,"summary_zh":128,"released_at":129},72284,"v0.2.0","**完整更新日志**: https:\u002F\u002Fgithub.com\u002FK-Dense-AI\u002Fagentic-data-scientist\u002Fcommits\u002Fv0.2.0","2025-11-21T02:39:12"]