EvoScientist

GitHub
2.9k 144 简单 1 次阅读 今天Apache-2.0其他Agent
AI 解读 由 AI 自动生成,仅供参考

EvoScientist 是一款致力于实现“自我进化”的 AI 科研助手,旨在通过自动化流程重塑科学研究模式。它不仅仅是一个执行命令的工具,更像是一位能与人类共同成长的科研伙伴。传统 AI 往往依赖人类步步指令,而 EvoScientist 突破了这一局限,采用“人在环上”(human-on-the-loop)的新范式:AI 能够自主探索课题、生成洞察并迭代优化方案,同时在与人类的协作中内化学术品味与科学判断力,实现能力与记忆库的动态演进。

该工具主要解决了科研过程中重复性探索耗时久、创意发散受限以及人机协作不够深入等痛点,让研究人员能从繁琐的基础工作中解放出来,专注于更高阶的战略决策。EvoScientist 开箱即用,内置了不断进化的智能体技能、工具集和记忆系统,构建了一个鲜活的研究生态。

它特别适合科研人员、高校学者以及希望利用 AI 加速创新的技术开发者使用。其独特亮点在于将"Vibe Research"(直觉式研究)理念工程化,让 AI 在具备严谨逻辑的同时,也能模拟人类的科研直觉,真正形成人机共演、相互成就的新型科研关系。

使用场景

某生物制药公司的算法团队正试图从海量文献中挖掘新型抗癌靶点,但面对指数级增长的论文数据,传统人工筛选效率极低。

没有 EvoScientist 时

  • 信息过载导致遗漏:研究人员每天只能精读几十篇论文,极易错过跨学科的关键隐性关联("Vibe"),导致潜在靶点被埋没。
  • 迭代周期漫长:提出假设、设计实验验证、再调整方向的过程完全依赖人工,一个完整的科研闭环往往需要数周甚至数月。
  • 知识难以沉淀:资深专家的科学直觉和判断标准无法有效传递给新人,团队整体研究水平受限于个人能力,难以形成系统化的“科研品味”。
  • 被动响应模式:团队只能跟随已有热点进行验证性研究,缺乏自主探索未知领域的能力,难以产生原创性突破。

使用 EvoScientist 后

  • 自主捕捉隐性洞察:EvoScientist 像不知疲倦的科研伙伴,自主遍历数万篇文献,敏锐捕捉人类容易忽略的跨领域微弱信号,自动生成高价值假设。
  • 自我进化加速闭环:系统根据反馈自动优化搜索策略和推理逻辑,将“假设 - 验证 - 改进”的循环从数周压缩至数小时,实现全天候不间断探索。
  • 内化科学判断力:EvoScientist 在与人类专家的协作中(Human-on-the-loop),逐渐内化团队的学术偏好与评判标准,使输出结果越来越符合团队的高阶科研直觉。
  • 主动开拓新边界:不再局限于既定方向,EvoScientist 能主动规划探索路径,发现非显而易见的研究蓝海,推动团队从“跟随者”转变为“引领者”。

EvoScientist 通过将 AI 从执行工具升级为具备自我进化能力的“科研搭档”,彻底重构了药物发现的创新速度与深度。

运行环境要求

操作系统
  • Linux
  • macOS
  • Windows
GPU

未说明

内存

未说明

依赖
notes推荐使用 uv 或 conda 进行依赖管理和虚拟环境配置。支持多种通信渠道(如 Telegram, Slack, 微信等),需安装额外的可选依赖。配置 API 密钥可通过交互式向导 (EvoSci onboard) 或环境变量完成。支持多种 LLM 提供商(Anthropic, OpenAI, Google, MiniMax, NVIDIA)。
python3.11+ (且 < 3.14)
uv
conda (可选)
EvoScientist hero image

快速开始

EvoScientist Logo

Typing SVG

英语 | 简体中文

EvoScientist 的目标是通过赋能自我进化的人工智能科学家,实现自主探索、生成洞见并不断迭代改进,从而推动“氛围研究”的发展。它设计得极具观点性,开箱即用,提供一个与代理技能、工具集和记忆库共同成长的动态研究系统。EvoScientist 不再局限于传统的“人机协作”模式,而是采用“人在环路”的范式——人工智能作为科研伙伴,与人类研究人员共同进化,并内化学术品味和科学判断力。

🏆 奖项与认可

ICAIS 2025 奖项
最佳论文与评审奖
最佳论文
由 AI 生成的最佳论文
DeepResearch Bench II 第一名
DeepResearch Bench II 第一名

AstaBench 代码与执行第一名
AstaBench 代码与执行第一名
AstaBench 数据分析第一名
AstaBench 数据分析第一名

⚡ 统一控制,多端呈现

🖥️ CLI / TUI

📱 移动端

✨ 功能

  • 🤖 多智能体团队 — 6个子智能体(计划、研究、代码、调试、分析、写作)协同工作。
  • 🧠 持久化记忆 — 上下文、偏好和发现结果可在不同会话间保留。
  • 🌐 多提供商支持 — Anthropic、OpenAI、Google、MiniMax、NVIDIA — 一套配置即可切换。
  • 📱 多渠道支持 — CLI作为中枢;Telegram、Slack、飞书、微信等 — 一个智能体会话即可覆盖。
  • 🔬 科研工作流 — 数据摄入 → 计划 → 执行 → 评估 → 写作 → 验证。
  • 🔄 代码生成模式 — 更多努力(迭代优化),持续提升代码质量。
  • ⚡ 自适应工具 — 每轮对话仅显示相关工具,减少干扰。
  • ✂️ 上下文编辑 — 根据对话状态动态重写系统提示。
  • 🔌 MCP与技能 — 可随时接入MCP服务器或从GitHub安装技能。

[!TIP] 寻找开箱即用的研究技能?请查看EvoSkills — 基于EvoScientist的引擎和可安装技能,端到端的研究生命周期已全面覆盖。EvoSkills也兼容其他CLI编码智能体。

🔥 新闻

  • [2026年3月26日] 🥇 提交时在[AstaBench数据分析]上排名第一!排行榜 👈
  • [2026年3月25日] 🥇 提交时在[AstaBench代码与执行]上排名第一!排行榜 👈
  • [2026年3月13日] 🚀 EvoScientist正式发布!
  • [2026年3月11日] ⛳ 技术报告已上线!查看 👈
  • [2026年3月6日] 🥇 提交时在[DeepResearch Bench II]上排名第一!排行榜 👈
  • [2025年11月24日] 🏆 在ICAIS 2025 AI科学家赛道上6篇论文全部被接受 — 获得最佳论文奖及AI审稿人评价奖!详情 👈

📖 目录

📦 安装

[!TIP] 需要Python 3.11+< 3.14)。我们推荐使用uvconda进行依赖管理和虚拟环境管理。

🪛 安装uv(如果尚未安装)
curl -LsSf https://astral.sh/uv/install.sh | sh

快速安装

uv tool install EvoScientist

[!NOTE] 若要将现有安装更新至最新版本,请使用uv tool upgrade

uv tool upgrade EvoScientist

或者直接安装到当前环境中:

uv pip install EvoScientist

来自GitHub的最新版本

PyPI发布之前获取最新补丁:

uv pip install git+https://github.com/EvoScientist/EvoScientist.git

开发环境安装

git clone https://github.com/EvoScientist/EvoScientist.git
cd EvoScientist
uv sync --dev

启用pre-commit钩子:

uv run pre-commit install
使用conda
conda create -n EvoSci python=3.11 -y
conda activate EvoSci
pip install -e ".[dev]"
使用PyPi
pip install EvoScientist          # 快速安装
pip install -e ".[dev]"           # 开发安装
可选:渠道依赖

消息渠道集成需要额外的依赖。只需安装您需要的部分:

uv pip install "EvoScientist[telegram]"     # Telegram
uv pip install "EvoScientist[discord]"      # Discord
uv pip install "EvoScientist[slack]"        # Slack
uv pip install "EvoScientist[wechat]"       # WeChat
uv pip install "EvoScientist[qq]"           # QQ
uv pip install "EvoScientist[feishu]"       # Feishu
uv pip install "EvoScientist[all-channels]" # 全部
升级到最新代码库
git pull && uv sync --dev

🔝返回顶部

🔑 配置

配置API密钥最简单的方式是使用交互式向导:

EvoSci onboard

[!TIP] 它会引导您完成提供商选择、密钥验证、模型选择和工作空间模式设置。 支持CLI编码智能体订阅用户的OAuth登录 — 无需API密钥。

onboard

📟 通过环境变量手动配置

至少设置一个LLM提供商的密钥,以及(可选)一个搜索密钥:

# 选择一个LLM提供商
export ANTHROPIC_API_KEY="sk-..."   # Claude  — console.anthropic.com
export OPENAI_API_KEY="sk-..."      # GPT    — platform.openai.com
export GOOGLE_API_KEY="AI..."       # Gemini  — aistudio.google.com/api-keys
export MINIMAX_API_KEY="sk-..."     # MiniMax — platform.minimaxi.com(与Anthropic兼容)
export NVIDIA_API_KEY="nvapi-..."   # NIM    — build.nvidia.com

# 网络搜索(可选)
export TAVILY_API_KEY="tvly-..."    # app.tavily.com

或者使用EvoSci config set将密钥持久化保存在~/.config/evoscientist/config.yaml中。

此外,您也可以复制示例.env文件进行项目级配置:

cp .env.example .env  # 然后填写您的密钥

⚠️ 切勿提交包含真实密钥的.env文件。它已被添加到.gitignore中。

🔝返回顶部

⚡ 快速入门

EvoSci  # 或 EvoScientist — 交互模式(默认为 TUI)

demo

运行 EvoSci -h 查看所有 CLI 选项。

cli 帮助

[!TIP] 需要复制长输出吗?使用 --ui cli 启用经典模式,原生终端的复制功能将正常工作。在 macOS 上,iTerm2 用户还可以按住 ⌥ Option 键并拖动选择内容,然后使用 ⌘+C 进行复制。

常见示例
EvoSci                            # 交互模式(默认为 TUI)
EvoSci -p "your question"        # 单次执行模式
EvoSci --workdir /path/to/project # 在指定目录中打开
EvoSci -m run                     # 每个会话独立的工作空间
EvoSci --ui cli                   # 经典 CLI(轻量级)
EvoSci serve                      # 无界面模式 — 仅通道,无交互式提示
操作审批

默认情况下,Shell 命令(execute 工具)在执行前需要人工审批。若要跳过审批提示:

# 会话级别:通过 CLI 标志自动批准
EvoSci --auto-approve
EvoSci -p "query" --auto-approve

# 持久化设置:在配置中进行设定(适用于所有未来会话)
EvoSci config set auto_approve true

# 或者仅允许特定命令前缀
EvoSci config set shell_allow_list "python,pip,pytest,ruff,git"

在会话期间,您也可以在任何审批提示处回复 3(全部批准),以自动批准该会话剩余的所有操作。

智能体提问

当智能体需要进一步澄清时(例如数据集选择、实验方向等),它会主动向您提问。此功能默认启用。若要禁用:

# 持久化设置:在配置中进行设定
EvoSci config set enable_ask_user false

# 重新启用
EvoSci config set enable_ask_user true
会话内命令
命令 描述
/current 显示当前会话信息
/threads 列出最近的会话
/resume 恢复之前的会话
/delete 删除已保存的会话
/new 开始新的会话
/clear 清除聊天记录
/skills 列出已安装技能
/install-skill <src> 从路径或 GitHub 添加技能
/uninstall-skill <name> 移除已安装技能
/mcp 管理 MCP 服务器
/channel 配置消息通道
/help 显示可用命令
/exit 退出
脚本推理
from EvoScientist import EvoScientist_agent
from langchain_core.messages import HumanMessage
from EvoScientist.utils import format_messages

thread = {"configurable": {"thread_id": "1"}}
last_len = 0

for state in EvoScientist_agent.stream(
    {"messages": [HumanMessage(content="Hi?")]},
    config=thread,
    stream_mode="values",
):
    msgs = state["messages"]
    if len(msgs) > last_len:
        format_messages(msgs[last_len:])
        last_len = len(msgs)

🔝回到顶部

🍪 示例与配方

精心挑选的官方示例、高级用法模式以及社区贡献的配方,帮助您充分利用 EvoScientist。

👉 浏览所有示例与配方

🔝回到顶部

🔌 MCP 集成

通过 MCP 服务器,只需一条命令即可添加外部工具:

# 使用方法
EvoSci mcp add <name> <command> [-- args...]

# 示例
EvoSci mcp add sequential-thinking npx -- -y @modelcontextprotocol/server-sequential-thinking

[!TIP] 关于命令选项、配置字段、工具路由、通配符过滤及故障排除,请参阅 MCP 集成指南

🔝回到顶部

📱 通道

连接消息平台,使其与 CLI 共享同一智能体会话:

# 使用方法
EvoSci channel setup <channel>

# 示例
EvoSci channel setup telegram

多个通道可以同时运行——在配置中用逗号分隔通道名称:

channel_enabled: "telegram,slack,feishu,qq"

此外,您也可以在 CLI 会话中使用 /channel 命令来交互式地启动通道。

[!TIP] 关于各通道的设置指南、能力矩阵、架构细节及故障排除,请参阅 通道集成指南

🔝回到顶部

📚 致谢

本项目基于以下优秀的开源作品:

  • LangChain — 构建智能体和基于大模型应用的框架。
  • DeepAgents — 包含电池的智能体框架。

我们感谢这些作者对开源社区的宝贵贡献。

🔝回到顶部

🎯 ᯓ➤ 路线图

即将推出:

  • 🖥️ 全屏 TUI 和经典 CLI 界面
  • 📻 EvoMemory v1.0 已发布
  • ⚒️ 内置 200 多种预定义技能
  • 🧩 内置研究生命周期技能已发布
  • 👋 人机协作操作审批
  • 🦾 智能体发起的人工澄清
  • 📑 技术报告正在撰写中
  • 🔐 OAuth 登录(CLI 编程智能体订阅用户)
  • 📺 具有工作区 UI 的 Web 应用程序
  • 📹 演示和教程正在制作中
  • 📊 将发布基准测试套件
  • ⏰ 计划为核心系统安排定时任务

敬请期待——更多功能即将上线!

🔝回到顶部

🌍 项目角色

核心贡献者

Xi Zhang
Xi Zhang
Yougang Lyu
Yougang Lyu
Dinos Papakostas
Dinos Papakostas
Yuyue Zhao
Yuyue Zhao
Ziheng Zhang
Ziheng Zhang
Xiaohui Yan
Xiaohui Yan

贡献者

Jan Piotrowski, Wiktor Cupiał, Jakub Kaliski, Jakub Filipiuk, Xinhao Yi, Shuyu Guo, Andreas Sauter, Wenxiang Hu, Jacopo Urbani, Zaiqiao Meng, Jun Luo, Lun Zhou

Xiaoyi DeepResearch Xiaoyi DeepResearch 团队 以及更广泛的开源社区共同为本项目贡献力量。

如有任何疑问或合作机会,请联系:EvoScientist.ai@gmail.com

🔝回到顶部

🤝 贡献

EvoScientist 团队

我们欢迎来自开发者、研究人员以及各类 AI 编码代理的贡献。我们的贡献指南专为人类和 AI 代理设计,涵盖了架构、模式、扩展指南及代码规范等内容,旨在帮助您安全有效地参与贡献。

👥 社区贡献者

⚗️ 加入 EvoScientist 社区,探讨 AI 驱动的研究,分享实验结果,并共同塑造自动化科学发现的未来。

  • Discord — 实时提问、分享成果并与研究人员和开发者协作。

  • 微信 — 与我们的中文研究社区连接。

    微信二维码

每一次贡献都让我们离这样一个未来更近一步:AI 将加速全人类的科学突破。

📈 星标历史

星标历史图表

🔝回到顶部

📝 引用

如果您在研究和应用中发现我们的论文和代码有所帮助,请使用以下 BibTeX 格式引用:

@article{evoscientist2026, 
  title={EvoScientist: 向多智能体进化型 AI 科学家迈进——实现端到端的科学发现}, 
  author={Yougang Lyu 和 Xi Zhang 和 Xinhao Yi 和 Yuyue Zhao 和 Shuyu Guo 和 Wenxiang Hu 和 Jan Piotrowski 和 Jakub Kaliski 和 Jacopo Urbani 和 Zaiqiao Meng 和 Lun Zhou 和 Xiaohui Yan}, 
  journal={arXiv 预印本 arXiv:2603.08127}, 
  year={2026} 
}

🔝回到顶部

📜 许可证

本项目采用 Apache License 2.0 许可协议授权——详情请参阅 LICENSE 文件。

🔝回到顶部

版本历史

v0.0.62026/04/03
v0.0.52026/03/27
v0.0.42026/03/24
v0.0.32026/03/20
v0.0.22026/03/17
v0.0.12026/03/13
v.0.0.1-rc.12026/03/08
v.0.0.1-bate2026/02/24
v0.0.1-alpha.12026/02/09

常见问题

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|昨天
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|2天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

143.9k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.9k|★★☆☆☆|昨天
开发框架图像Agent

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|昨天
语言模型图像Agent

Deep-Live-Cam

Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。

88.9k|★★★☆☆|昨天
开发框架图像Agent