EvoScientist
EvoScientist 是一款致力于实现“自我进化”的 AI 科研助手,旨在通过自动化流程重塑科学研究模式。它不仅仅是一个执行命令的工具,更像是一位能与人类共同成长的科研伙伴。传统 AI 往往依赖人类步步指令,而 EvoScientist 突破了这一局限,采用“人在环上”(human-on-the-loop)的新范式:AI 能够自主探索课题、生成洞察并迭代优化方案,同时在与人类的协作中内化学术品味与科学判断力,实现能力与记忆库的动态演进。
该工具主要解决了科研过程中重复性探索耗时久、创意发散受限以及人机协作不够深入等痛点,让研究人员能从繁琐的基础工作中解放出来,专注于更高阶的战略决策。EvoScientist 开箱即用,内置了不断进化的智能体技能、工具集和记忆系统,构建了一个鲜活的研究生态。
它特别适合科研人员、高校学者以及希望利用 AI 加速创新的技术开发者使用。其独特亮点在于将"Vibe Research"(直觉式研究)理念工程化,让 AI 在具备严谨逻辑的同时,也能模拟人类的科研直觉,真正形成人机共演、相互成就的新型科研关系。
使用场景
某生物制药公司的算法团队正试图从海量文献中挖掘新型抗癌靶点,但面对指数级增长的论文数据,传统人工筛选效率极低。
没有 EvoScientist 时
- 信息过载导致遗漏:研究人员每天只能精读几十篇论文,极易错过跨学科的关键隐性关联("Vibe"),导致潜在靶点被埋没。
- 迭代周期漫长:提出假设、设计实验验证、再调整方向的过程完全依赖人工,一个完整的科研闭环往往需要数周甚至数月。
- 知识难以沉淀:资深专家的科学直觉和判断标准无法有效传递给新人,团队整体研究水平受限于个人能力,难以形成系统化的“科研品味”。
- 被动响应模式:团队只能跟随已有热点进行验证性研究,缺乏自主探索未知领域的能力,难以产生原创性突破。
使用 EvoScientist 后
- 自主捕捉隐性洞察:EvoScientist 像不知疲倦的科研伙伴,自主遍历数万篇文献,敏锐捕捉人类容易忽略的跨领域微弱信号,自动生成高价值假设。
- 自我进化加速闭环:系统根据反馈自动优化搜索策略和推理逻辑,将“假设 - 验证 - 改进”的循环从数周压缩至数小时,实现全天候不间断探索。
- 内化科学判断力:EvoScientist 在与人类专家的协作中(Human-on-the-loop),逐渐内化团队的学术偏好与评判标准,使输出结果越来越符合团队的高阶科研直觉。
- 主动开拓新边界:不再局限于既定方向,EvoScientist 能主动规划探索路径,发现非显而易见的研究蓝海,推动团队从“跟随者”转变为“引领者”。
EvoScientist 通过将 AI 从执行工具升级为具备自我进化能力的“科研搭档”,彻底重构了药物发现的创新速度与深度。
运行环境要求
- Linux
- macOS
- Windows
未说明
未说明

快速开始
英语 | 简体中文
EvoScientist 的目标是通过赋能自我进化的人工智能科学家,实现自主探索、生成洞见并不断迭代改进,从而推动“氛围研究”的发展。它设计得极具观点性,开箱即用,提供一个与代理技能、工具集和记忆库共同成长的动态研究系统。EvoScientist 不再局限于传统的“人机协作”模式,而是采用“人在环路”的范式——人工智能作为科研伙伴,与人类研究人员共同进化,并内化学术品味和科学判断力。
🏆 奖项与认可
最佳论文与评审奖 |
由 AI 生成的最佳论文 |
DeepResearch Bench II 第一名 |
AstaBench 代码与执行第一名 |
AstaBench 数据分析第一名 |
⚡ 统一控制,多端呈现
🖥️ CLI / TUI |
📱 移动端 |
|---|---|
✨ 功能
- 🤖 多智能体团队 — 6个子智能体(计划、研究、代码、调试、分析、写作)协同工作。
- 🧠 持久化记忆 — 上下文、偏好和发现结果可在不同会话间保留。
- 🌐 多提供商支持 — Anthropic、OpenAI、Google、MiniMax、NVIDIA — 一套配置即可切换。
- 📱 多渠道支持 — CLI作为中枢;Telegram、Slack、飞书、微信等 — 一个智能体会话即可覆盖。
- 🔬 科研工作流 — 数据摄入 → 计划 → 执行 → 评估 → 写作 → 验证。
- 🔄 代码生成模式 — 更多努力(迭代优化),持续提升代码质量。
- ⚡ 自适应工具 — 每轮对话仅显示相关工具,减少干扰。
- ✂️ 上下文编辑 — 根据对话状态动态重写系统提示。
- 🔌 MCP与技能 — 可随时接入MCP服务器或从GitHub安装技能。
[!TIP] 寻找开箱即用的研究技能?请查看EvoSkills — 基于EvoScientist的引擎和可安装技能,端到端的研究生命周期已全面覆盖。EvoSkills也兼容其他CLI编码智能体。
🔥 新闻
- [2026年3月26日] 🥇 提交时在[AstaBench数据分析]上排名第一!排行榜 👈
- [2026年3月25日] 🥇 提交时在[AstaBench代码与执行]上排名第一!排行榜 👈
- [2026年3月13日] 🚀 EvoScientist正式发布!
- [2026年3月11日] ⛳ 技术报告已上线!查看 👈
- [2026年3月6日] 🥇 提交时在[DeepResearch Bench II]上排名第一!排行榜 👈
- [2025年11月24日] 🏆 在ICAIS 2025 AI科学家赛道上6篇论文全部被接受 — 获得最佳论文奖及AI审稿人评价奖!详情 👈
📖 目录
📦 安装
[!TIP] 需要Python 3.11+(< 3.14)。我们推荐使用uv或conda进行依赖管理和虚拟环境管理。
🪛 安装uv(如果尚未安装)
curl -LsSf https://astral.sh/uv/install.sh | sh
快速安装
uv tool install EvoScientist
[!NOTE] 若要将现有安装更新至最新版本,请使用
uv tool upgrade:uv tool upgrade EvoScientist
或者直接安装到当前环境中:
uv pip install EvoScientist
来自GitHub的最新版本
在PyPI发布之前获取最新补丁:
uv pip install git+https://github.com/EvoScientist/EvoScientist.git
开发环境安装
git clone https://github.com/EvoScientist/EvoScientist.git
cd EvoScientist
uv sync --dev
启用pre-commit钩子:
uv run pre-commit install
使用conda
conda create -n EvoSci python=3.11 -y
conda activate EvoSci
pip install -e ".[dev]"
使用PyPi
pip install EvoScientist # 快速安装
pip install -e ".[dev]" # 开发安装
可选:渠道依赖
消息渠道集成需要额外的依赖。只需安装您需要的部分:
uv pip install "EvoScientist[telegram]" # Telegram
uv pip install "EvoScientist[discord]" # Discord
uv pip install "EvoScientist[slack]" # Slack
uv pip install "EvoScientist[wechat]" # WeChat
uv pip install "EvoScientist[qq]" # QQ
uv pip install "EvoScientist[feishu]" # Feishu
uv pip install "EvoScientist[all-channels]" # 全部
升级到最新代码库
git pull && uv sync --dev
🔑 配置
配置API密钥最简单的方式是使用交互式向导:
EvoSci onboard
[!TIP] 它会引导您完成提供商选择、密钥验证、模型选择和工作空间模式设置。 支持CLI编码智能体订阅用户的OAuth登录 — 无需API密钥。

📟 通过环境变量手动配置
至少设置一个LLM提供商的密钥,以及(可选)一个搜索密钥:
# 选择一个LLM提供商
export ANTHROPIC_API_KEY="sk-..." # Claude — console.anthropic.com
export OPENAI_API_KEY="sk-..." # GPT — platform.openai.com
export GOOGLE_API_KEY="AI..." # Gemini — aistudio.google.com/api-keys
export MINIMAX_API_KEY="sk-..." # MiniMax — platform.minimaxi.com(与Anthropic兼容)
export NVIDIA_API_KEY="nvapi-..." # NIM — build.nvidia.com
# 网络搜索(可选)
export TAVILY_API_KEY="tvly-..." # app.tavily.com
或者使用EvoSci config set将密钥持久化保存在~/.config/evoscientist/config.yaml中。
此外,您也可以复制示例.env文件进行项目级配置:
cp .env.example .env # 然后填写您的密钥
⚠️ 切勿提交包含真实密钥的
.env文件。它已被添加到.gitignore中。
⚡ 快速入门
EvoSci # 或 EvoScientist — 交互模式(默认为 TUI)

运行
EvoSci -h查看所有 CLI 选项。

[!TIP] 需要复制长输出吗?使用
--ui cli启用经典模式,原生终端的复制功能将正常工作。在 macOS 上,iTerm2 用户还可以按住⌥ Option键并拖动选择内容,然后使用⌘+C进行复制。
常见示例
EvoSci # 交互模式(默认为 TUI)
EvoSci -p "your question" # 单次执行模式
EvoSci --workdir /path/to/project # 在指定目录中打开
EvoSci -m run # 每个会话独立的工作空间
EvoSci --ui cli # 经典 CLI(轻量级)
EvoSci serve # 无界面模式 — 仅通道,无交互式提示
操作审批
默认情况下,Shell 命令(execute 工具)在执行前需要人工审批。若要跳过审批提示:
# 会话级别:通过 CLI 标志自动批准
EvoSci --auto-approve
EvoSci -p "query" --auto-approve
# 持久化设置:在配置中进行设定(适用于所有未来会话)
EvoSci config set auto_approve true
# 或者仅允许特定命令前缀
EvoSci config set shell_allow_list "python,pip,pytest,ruff,git"
在会话期间,您也可以在任何审批提示处回复 3(全部批准),以自动批准该会话剩余的所有操作。
智能体提问
当智能体需要进一步澄清时(例如数据集选择、实验方向等),它会主动向您提问。此功能默认启用。若要禁用:
# 持久化设置:在配置中进行设定
EvoSci config set enable_ask_user false
# 重新启用
EvoSci config set enable_ask_user true
会话内命令
| 命令 | 描述 |
|---|---|
/current |
显示当前会话信息 |
/threads |
列出最近的会话 |
/resume |
恢复之前的会话 |
/delete |
删除已保存的会话 |
/new |
开始新的会话 |
/clear |
清除聊天记录 |
/skills |
列出已安装技能 |
/install-skill <src> |
从路径或 GitHub 添加技能 |
/uninstall-skill <name> |
移除已安装技能 |
/mcp |
管理 MCP 服务器 |
/channel |
配置消息通道 |
/help |
显示可用命令 |
/exit |
退出 |
脚本推理
from EvoScientist import EvoScientist_agent
from langchain_core.messages import HumanMessage
from EvoScientist.utils import format_messages
thread = {"configurable": {"thread_id": "1"}}
last_len = 0
for state in EvoScientist_agent.stream(
{"messages": [HumanMessage(content="Hi?")]},
config=thread,
stream_mode="values",
):
msgs = state["messages"]
if len(msgs) > last_len:
format_messages(msgs[last_len:])
last_len = len(msgs)
🍪 示例与配方
精心挑选的官方示例、高级用法模式以及社区贡献的配方,帮助您充分利用 EvoScientist。
🔌 MCP 集成
通过 MCP 服务器,只需一条命令即可添加外部工具:
# 使用方法
EvoSci mcp add <name> <command> [-- args...]
# 示例
EvoSci mcp add sequential-thinking npx -- -y @modelcontextprotocol/server-sequential-thinking
[!TIP] 关于命令选项、配置字段、工具路由、通配符过滤及故障排除,请参阅 MCP 集成指南。
📱 通道
连接消息平台,使其与 CLI 共享同一智能体会话:
# 使用方法
EvoSci channel setup <channel>
# 示例
EvoSci channel setup telegram
多个通道可以同时运行——在配置中用逗号分隔通道名称:
channel_enabled: "telegram,slack,feishu,qq"
此外,您也可以在 CLI 会话中使用 /channel 命令来交互式地启动通道。
[!TIP] 关于各通道的设置指南、能力矩阵、架构细节及故障排除,请参阅 通道集成指南。
📚 致谢
本项目基于以下优秀的开源作品:
- LangChain — 构建智能体和基于大模型应用的框架。
- DeepAgents — 包含电池的智能体框架。
我们感谢这些作者对开源社区的宝贵贡献。
🎯 ᯓ➤ 路线图
即将推出:
- 🖥️ 全屏 TUI 和经典 CLI 界面
- 📻 EvoMemory v1.0 已发布
- ⚒️ 内置 200 多种预定义技能
- 🧩 内置研究生命周期技能已发布
- 👋 人机协作操作审批
- 🦾 智能体发起的人工澄清
- 📑 技术报告正在撰写中
- 🔐 OAuth 登录(CLI 编程智能体订阅用户)
- 📺 具有工作区 UI 的 Web 应用程序
- 📹 演示和教程正在制作中
- 📊 将发布基准测试套件
- ⏰ 计划为核心系统安排定时任务
敬请期待——更多功能即将上线!
🌍 项目角色
核心贡献者
Xi Zhang |
Yougang Lyu |
Dinos Papakostas |
Yuyue Zhao |
Ziheng Zhang |
Xiaohui Yan |
贡献者
Jan Piotrowski, Wiktor Cupiał, Jakub Kaliski, Jakub Filipiuk, Xinhao Yi, Shuyu Guo, Andreas Sauter, Wenxiang Hu, Jacopo Urbani, Zaiqiao Meng, Jun Luo, Lun Zhou
Xiaoyi DeepResearch 团队 以及更广泛的开源社区共同为本项目贡献力量。
如有任何疑问或合作机会,请联系:EvoScientist.ai@gmail.com
🤝 贡献
我们欢迎来自开发者、研究人员以及各类 AI 编码代理的贡献。我们的贡献指南专为人类和 AI 代理设计,涵盖了架构、模式、扩展指南及代码规范等内容,旨在帮助您安全有效地参与贡献。
👥 社区贡献者
⚗️ 加入 EvoScientist 社区,探讨 AI 驱动的研究,分享实验结果,并共同塑造自动化科学发现的未来。
每一次贡献都让我们离这样一个未来更近一步:AI 将加速全人类的科学突破。
📈 星标历史
📝 引用
如果您在研究和应用中发现我们的论文和代码有所帮助,请使用以下 BibTeX 格式引用:
@article{evoscientist2026,
title={EvoScientist: 向多智能体进化型 AI 科学家迈进——实现端到端的科学发现},
author={Yougang Lyu 和 Xi Zhang 和 Xinhao Yi 和 Yuyue Zhao 和 Shuyu Guo 和 Wenxiang Hu 和 Jan Piotrowski 和 Jakub Kaliski 和 Jacopo Urbani 和 Zaiqiao Meng 和 Lun Zhou 和 Xiaohui Yan},
journal={arXiv 预印本 arXiv:2603.08127},
year={2026}
}
📜 许可证
本项目采用 Apache License 2.0 许可协议授权——详情请参阅 LICENSE 文件。
版本历史
v0.0.62026/04/03v0.0.52026/03/27v0.0.42026/03/24v0.0.32026/03/20v0.0.22026/03/17v0.0.12026/03/13v.0.0.1-rc.12026/03/08v.0.0.1-bate2026/02/24v0.0.1-alpha.12026/02/09常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。


