[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-EvoScientist--EvoScientist":3,"tool-EvoScientist--EvoScientist":61},[4,18,26,36,44,52],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":53,"name":54,"github_repo":55,"description_zh":56,"stars":57,"difficulty_score":10,"last_commit_at":58,"category_tags":59,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,60],"视频",{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":64,"owner_name":64,"owner_avatar_url":72,"owner_bio":73,"owner_company":74,"owner_location":74,"owner_email":75,"owner_twitter":74,"owner_website":76,"owner_url":77,"languages":78,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":32,"env_os":91,"env_gpu":92,"env_ram":92,"env_deps":93,"category_tags":99,"github_topics":101,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":138},5180,"EvoScientist\u002FEvoScientist","EvoScientist","🔬 Harness Vibe Research with Self-evolving AI Scientists","EvoScientist 是一款致力于实现“自我进化”的 AI 科研助手，旨在通过自动化流程重塑科学研究模式。它不仅仅是一个执行命令的工具，更像是一位能与人类共同成长的科研伙伴。传统 AI 往往依赖人类步步指令，而 EvoScientist 突破了这一局限，采用“人在环上”（human-on-the-loop）的新范式：AI 能够自主探索课题、生成洞察并迭代优化方案，同时在与人类的协作中内化学术品味与科学判断力，实现能力与记忆库的动态演进。\n\n该工具主要解决了科研过程中重复性探索耗时久、创意发散受限以及人机协作不够深入等痛点，让研究人员能从繁琐的基础工作中解放出来，专注于更高阶的战略决策。EvoScientist 开箱即用，内置了不断进化的智能体技能、工具集和记忆系统，构建了一个鲜活的研究生态。\n\n它特别适合科研人员、高校学者以及希望利用 AI 加速创新的技术开发者使用。其独特亮点在于将\"Vibe Research\"（直觉式研究）理念工程化，让 AI 在具备严谨逻辑的同时，也能模拟人类的科研直觉，真正形成人机共演、相互成就的新型科研关系。","\u003Cdiv align=\"center\">\n    \u003Cpicture>\n      \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-dark.svg\">\n      \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-light.svg\">\n      \u003Cimg alt=\"EvoScientist Logo\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-dark.svg\" width=\"80%\">\n    \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FEvoScientist\u002F\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-dark.svg\">\n  \u003Cimg alt=\"PyPI v0.0.6\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002FEvoScientist.github.io\u002F\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-dark.svg\">\n  \u003Cimg alt=\"Website\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fdeepagents\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-dark.svg\">\n  \u003Cimg alt=\"Framework DeepAgents\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-dark.svg\">\n  \u003Cimg alt=\"License Apache 2.0\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n---\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_3e6f210adf0d.png\" alt=\"Typing SVG\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n**English | [简体中文](.\u002FREADME.zh-CN.md)**\n\n\u003C\u002Fdiv>\n\n**EvoScientist aims to harness vibe research by enabling self-evolving AI scientists that autonomously explore, generate insights, and iteratively improve.\nIt is designed to be opinionated and ready to use out of the box, offering a living research system that grows alongside evolving agent skills, toolsets, and memory bases.\nMoving beyond traditional human-in-the-loop systems, EvoScientist adopts a human-on-the-loop paradigm, where AI acts as a research buddy that co-evolves with human researchers and internalizes scholarly taste and scientific judgment.**\n\n\u003Ch3>🏆 Awards & Recognition\u003C\u002Fh3>\n\n\u003Ctable>\n  \u003Ctr>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_32dce16eadd5.jpg\" height=\"180\" alt=\"ICAIS 2025 Awards\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>Best Paper & Appraisal Award\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_a96fc3d0ad71.png\" height=\"180\" alt=\"Best Paper\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>AI-Generated Best Paper\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_35de95c12e07.jpg\" height=\"180\" alt=\"DeepResearch Bench II #1\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>#1 on DeepResearch Bench II\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cbr \u002F>\n\n\u003Ctable>\n  \u003Ctr>\n          \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"50%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_50832b1b8573.png\" height=\"180\" alt=\"AstaBench Code & Execution #1\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>#1 on AstaBench Code & Execution\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"50%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_7833ddf755af.png\" height=\"180\" alt=\"AstaBench Data Analysis #1\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>#1 on AstaBench Data Analysis\u003C\u002Fb>\u003C\u002Fsub>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ch3>⚡ Unified Control, Different Surfaces\u003C\u002Fh3>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Cth width=\"75%\">\u003Cp align=\"center\">🖥️ CLI \u002F TUI\u003C\u002Fp>\u003C\u002Fth>\n    \u003Cth width=\"25%\">\u003Cp align=\"center\">📱 Mobile\u003C\u002Fp>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd align=\"center\">\n      \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa40ba429-bb07-4663-b5b1-77aed1a833b9\" autoplay loop muted playsinline width=\"100%\">\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa40ba429-bb07-4663-b5b1-77aed1a833b9\">View demo video\u003C\u002Fa>\n      \u003C\u002Fvideo>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4919e6f4-e434-46c9-98c7-35d7482868a6\" width=\"100%\" autoplay loop muted playsinline>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4919e6f4-e434-46c9-98c7-35d7482868a6\">View mobile demo\u003C\u002Fa>\n      \u003C\u002Fvideo>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## ✨ Features\n- **🤖 Multi-Agent Team** — 6 sub-agents (plan, research, code, debug, analyze, write) working in concert.\n- **🧠 Persistent Memory** — Context, preferences, and findings survive across sessions.\n- **🌐 Multi-Provider** — Anthropic, OpenAI, Google, MiniMax, NVIDIA — one config to switch.\n- **📱 Multi-Channel** — CLI as the hub; Telegram, Slack, Feishu, WeChat, and more — one agent session.\n- **🔬 Scientific Workflow** — Intake → plan → execute → evaluate → write → verify.\n- **🔄 Code Generation Modes** — More Effort (iterative refinement), continuously improving code quality.\n- **⚡ Adaptive Tools** — Per-turn tool selection keeps only relevant tools visible, reducing noise.\n- **✂️ Context Editing** — Dynamic system prompt rewriting based on conversation state.\n- **🔌 MCP & Skills** — Plug in MCP servers or install skills from GitHub on the fly.\n\n> [!TIP]\n> Looking for ready-to-use research skills? Check out [**EvoSkills**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoSkills) — powered by [**EvoScientist**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist)'s engine and installable skills, the entire end-to-end research lifecycle is covered out of the box. [**EvoSkills**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoSkills) are also compatible with other CLI coding agents.\n\n## 🔥 News\n- **[26 Mar 2026]** 🥇 Ranked #1 on [AstaBench Data Analysis](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fhome) at submission time! [**Leaderboard**](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fdata-analysis) 👈\n- **[25 Mar 2026]** 🥇 Ranked #1 on [AstaBench Code & Execution](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fhome) at submission time! [**Leaderboard**](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fcode-execution) 👈\n- **[13 Mar 2026]** 🚀 [**EvoScientist**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist) officially debuts!\n- **[11 Mar 2026]** ⛳ Technical Report is live! [**Check it out**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.08127) 👈\n- **[06 Mar 2026]** 🥇 Ranked #1 on [DeepResearch Bench II](https:\u002F\u002Fagentresearchlab.com\u002Fbenchmarks\u002Fdeepresearch-bench-ii\u002Findex.html#leaderboard) at submission time! [**Leaderboard**](https:\u002F\u002Fagentresearchlab.com\u002Fbenchmarks\u002Fdeepresearch-bench-ii\u002Findex.html#leaderboard) 👈\n- **[24 Nov 2025]** 🏆 6\u002F6 accepted at [ICAIS 2025](https:\u002F\u002Ficais.ai\u002F) AI Scientist Track — Best Paper & AI Reviewer's Appraisal Award! [**Details**](https:\u002F\u002Fairaxiv.com\u002Fpapers\u002F?q=zacharyzhang2022%40gmail.com) 👈\n\n## 📖 Table of Contents\n\n- [📦 Installation](#-installation)\n- [🔑 Configuration](#-configuration)\n- [⚡ Quick Start](#-quick-start)\n- [🍪 Examples & Recipes](#-examples--recipes)\n- [🔌 MCP Integration](#-mcp-integration)\n- [📱 Channels](#-channels)\n- [📚 Acknowledgments](#-acknowledgments)\n- [🎯 Roadmap](#-ᯓ-roadmap)\n- [🌍 Project Roles](#-project-roles)\n- [🤝 Contributing](#-contributing)\n- [📝 Citation](#-citation)\n\n## 📦 Installation\n\n> [!TIP]\n> Requires **Python 3.11+** (**\u003C 3.14**). We recommend [**uv**](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F) or **conda** for dependency management and virtual environments.\n\n\u003Cdetails>\n\u003Csummary> 🪛 Install uv (if you don't have it)\u003C\u002Fsummary>\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n\u003C\u002Fdetails>\n\n### Quick Install\n\n```bash\nuv tool install EvoScientist\n```\n\n> [!NOTE]\n> To update an existing installation to the latest version, use `uv tool upgrade`:\n> ```bash\n> uv tool upgrade EvoScientist\n> ```\n\nOr install into the current environment instead:\n\n```bash\nuv pip install EvoScientist\n```\n\n### Latest from GitHub\n\nTo get the latest patches before a [PyPI](https:\u002F\u002Fpypi.org\u002Fproject\u002FEvoScientist\u002F) release:\n\n```bash\nuv pip install git+https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist.git\n```\n\n### Development Install\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist.git\ncd EvoScientist\nuv sync --dev\n```\n\nenable pre-commit hooks:\n```bash\nuv run pre-commit install\n```\n\n\u003Cdetails>\n\u003Csummary> Using conda\u003C\u002Fsummary>\n\n```bash\nconda create -n EvoSci python=3.11 -y\nconda activate EvoSci\npip install -e \".[dev]\"\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> Using PyPi\u003C\u002Fsummary>\n\n```bash\npip install EvoScientist          # quick install\npip install -e \".[dev]\"           # development install\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> Optional: Channel dependencies\u003C\u002Fsummary>\n\nMessaging channel integrations require extra dependencies. Install only what you need:\n\n```bash\nuv pip install \"EvoScientist[telegram]\"     # Telegram\nuv pip install \"EvoScientist[discord]\"      # Discord\nuv pip install \"EvoScientist[slack]\"        # Slack\nuv pip install \"EvoScientist[wechat]\"       # WeChat\nuv pip install \"EvoScientist[qq]\"           # QQ\nuv pip install \"EvoScientist[feishu]\"       # Feishu\nuv pip install \"EvoScientist[all-channels]\" # everything\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> Upgrade to the latest code base \u003C\u002Fsummary>\n\n```bash\ngit pull && uv sync --dev\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🔑 Configuration\n\nThe easiest way to configure API keys is the interactive wizard:\n\n```bash\nEvoSci onboard\n```\n\n> [!TIP]\n> It walks you through provider selection, key validation, model choice, and workspace mode.\n> Supports OAuth sign-in for CLI coding agent subscribers — no API key needed.\n\n![onboard](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_6085bc023733.png)\n\n\u003Cdetails>\n\u003Csummary> 📟 Manual configuration via environment variables \u003C\u002Fsummary>\n\nSet at least one LLM provider key and (optionally) a search key:\n\n```bash\n# Pick one LLM provider\nexport ANTHROPIC_API_KEY=\"sk-...\"   # Claude  — console.anthropic.com\nexport OPENAI_API_KEY=\"sk-...\"      # GPT    — platform.openai.com\nexport GOOGLE_API_KEY=\"AI...\"       # Gemini  — aistudio.google.com\u002Fapi-keys\nexport MINIMAX_API_KEY=\"sk-...\"     # MiniMax — platform.minimaxi.com (Anthropic-compatible)\nexport NVIDIA_API_KEY=\"nvapi-...\"   # NIM    — build.nvidia.com\n\n# Web search (optional)\nexport TAVILY_API_KEY=\"tvly-...\"    # app.tavily.com\n```\n\nOr use `EvoSci config set` to persist keys in `~\u002F.config\u002Fevoscientist\u002Fconfig.yaml`.\n\nAlternatively, copy the example `.env` file for project-level configuration:\n\n```bash\ncp .env.example .env  # then fill in your keys\n```\n\n> ⚠️ Never commit `.env` files with real keys. It is already in `.gitignore`.\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## ⚡ Quick Start\n\n```bash\nEvoSci  # or EvoScientist — interactive mode (TUI by default)\n```\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_2632fe85f13b.png)\n\n> Run `EvoSci -h` for all CLI options.\n\n![cli help](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_8833919fc9bf.png)\n\n> [!TIP]\n> Need to copy long outputs? Use `--ui cli` for classic mode where native terminal copy works freely. On macOS, [iTerm2](https:\u002F\u002Fiterm2.com\u002F) users can also hold `⌥ Option` while dragging to select, then `⌘+C`.\n\n\u003Cdetails>\n\u003Csummary>Common examples\u003C\u002Fsummary>\n\n```bash\nEvoSci                            # interactive mode (TUI by default)\nEvoSci -p \"your question\"        # single-shot mode\nEvoSci --workdir \u002Fpath\u002Fto\u002Fproject # open in a specific directory\nEvoSci -m run                     # isolated per-session workspace\nEvoSci --ui cli                   # classic CLI (lightweight)\nEvoSci serve                      # headless mode — channels only, no interactive prompt\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Action Approval\u003C\u002Fsummary>\n\nBy default, shell commands (`execute` tool) require human approval before running. To skip approval prompts:\n\n```bash\n# Per-session: auto-approve via CLI flag\nEvoSci --auto-approve\nEvoSci -p \"query\" --auto-approve\n\n# Persistent: set in config (applies to all future sessions)\nEvoSci config set auto_approve true\n\n# Or allow only specific command prefixes\nEvoSci config set shell_allow_list \"python,pip,pytest,ruff,git\"\n```\n\nDuring a session you can also reply **3** (Approve all) at any approval prompt to auto-approve for the rest of that session.\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Agent Questions\u003C\u002Fsummary>\n\nThe agent can proactively ask you questions when it needs clarification (e.g., dataset choice, experiment direction). This is enabled by default. To disable:\n\n```bash\n# Persistent: set in config\nEvoSci config set enable_ask_user false\n\n# Re-enable\nEvoSci config set enable_ask_user true\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>In-session commands\u003C\u002Fsummary>\n\n| Command | Description |\n| ------- | ----------- |\n| `\u002Fcurrent` | Show current session info |\n| `\u002Fthreads` | List recent sessions |\n| `\u002Fresume` | Resume a previous session |\n| `\u002Fdelete` | Delete a saved session |\n| `\u002Fnew` | Start a new session |\n| `\u002Fclear` | Clear chat history |\n| `\u002Fskills` | List installed skills |\n| `\u002Finstall-skill \u003Csrc>` | Add a skill from path or GitHub |\n| `\u002Funinstall-skill \u003Cname>` | Remove an installed skill |\n| `\u002Fmcp` | Manage MCP servers |\n| `\u002Fchannel` | Configure messaging channels |\n| `\u002Fhelp` | Show available commands |\n| `\u002Fexit` | Quit |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>Script Inference\u003C\u002Fsummary>\n\n```python\nfrom EvoScientist import EvoScientist_agent\nfrom langchain_core.messages import HumanMessage\nfrom EvoScientist.utils import format_messages\n\nthread = {\"configurable\": {\"thread_id\": \"1\"}}\nlast_len = 0\n\nfor state in EvoScientist_agent.stream(\n    {\"messages\": [HumanMessage(content=\"Hi?\")]},\n    config=thread,\n    stream_mode=\"values\",\n):\n    msgs = state[\"messages\"]\n    if len(msgs) > last_len:\n        format_messages(msgs[last_len:])\n        last_len = len(msgs)\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🍪 Examples & Recipes\n\nA curated collection of official examples, advanced usage patterns, and community-contributed recipes to help you get the most out of EvoScientist.\n\n👉 **[Browse all examples & recipes](docs\u002FREADME.md)**\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🔌 MCP Integration\n\nAdd external tools via [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002F) servers with a single command:\n\n```bash\n# Usage\nEvoSci mcp add \u003Cname> \u003Ccommand> [-- args...]\n\n# Example\nEvoSci mcp add sequential-thinking npx -- -y @modelcontextprotocol\u002Fserver-sequential-thinking\n```\n\n> [!TIP]\n> For command options, config fields, tool routing, wildcard filtering, and troubleshooting, see the **[MCP Integration Guide](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Ftree\u002Fmain\u002FEvoScientist\u002Fmcp#model-context-protocol-integration)**.\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 📱 Channels\n\nConnect messaging platforms so they share the same agent session as the CLI:\n\n```bash\n# Usage\nEvoSci channel setup \u003Cchannel>\n\n# Example\nEvoSci channel setup telegram\n```\n\nMultiple channels can run concurrently — comma-separate names in the config:\n\n```yaml\nchannel_enabled: \"telegram,slack,feishu,qq\"\n```\n\nThe channel can also be started interactively with `\u002Fchannel` in the CLI session.\n\n> [!TIP]\n> For per-channel setup guides, capability matrix, architecture details, and troubleshooting, see the **[Channel Integration Guide](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Ftree\u002Fmain\u002FEvoScientist\u002Fchannels#channels)**.\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 📚 Acknowledgments\n\nThis project builds upon the following outstanding open-source works:\n\n- [**LangChain**](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain) — A framework for building agents and LLM-powered applications.\n- [**DeepAgents**](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fdeepagents) — The batteries-included agent harness.\n\nWe thank the authors for their valuable contributions to the open-source community.\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🎯 ᯓ➤ Roadmap\n\nComing soon:\n- [x] 🖥️ Full-screen TUI and classic CLI interfaces\n- [x] 📻 EvoMemory v1.0 shipped\n- [x] ⚒️ 200+ predefined skills built in\n- [x] 🧩 Built-in research-lifecycle skills shipped\n- [x] 👋 Human-in-the-loop action approval\n- [x] 🦾 Agent-initiated human clarification\n- [x] 📑 Technical report on the way\n- [x] 🔐 OAuth sign-in (CLI coding agent subscribers)\n- [ ] 📺 Web app with workspace UI\n- [ ] 📹 Demo and tutorial in the works\n- [ ] 📊 Benchmark suite to be released\n- [ ] ⏰ Scheduled tasks for the core system planned\n\nStay tuned — more features are on the way!\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🌍 Project Roles\n\n#### Core Contributors\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fx-izhang.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_f22ed7f0c5f7.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Xi Zhang\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Xi Zhang\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fyouganglyu.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_8f0847694e67.png\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Yougang Lyu\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Yougang Lyu\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fdin0s.me\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_0f341dbb490d.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Dinos Papakostas\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Dinos Papakostas\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fgo0day.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_b67fabcb9c94.png\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Yuyue Zhao\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Yuyue Zhao\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fmuxincg2004.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_020efc8722df.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Ziheng Zhang\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Ziheng Zhang\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fxiaohuiyan.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_4cdcf7d90e2b.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Xiaohui Yan\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Xiaohui Yan\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n#### Contributors\n\nJan Piotrowski, Wiktor Cupiał, Jakub Kaliski, Jakub Filipiuk, Xinhao Yi, Shuyu Guo, Andreas Sauter, Wenxiang Hu, Jacopo Urbani, Zaiqiao Meng, Jun Luo, Lun Zhou\n\n> \u003Ca href=\"https:\u002F\u002Fxiaoyi.huawei.com\u002Fchat\u002Fresearch\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_b2710b7e71af.webp\" height=\"16\" alt=\"Xiaoyi DeepResearch\" align=\"center\" \u002F>\u003C\u002Fa> [*Xiaoyi DeepResearch*](https:\u002F\u002Fxiaoyi.huawei.com\u002Fchat\u002Fresearch) *Team* and the wider open-source community contribute to this project.\n\nFor any inquiries or collaboration opportunities, please contact: [**EvoScientist.ai@gmail.com**](mailto:evoscientist.ai@gmail.com)\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 🤝 Contributing\n\n\u003Cimg align=\"right\" alt=\"EvoScientist Team\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_d54fd8233aec.png\" width=\"20%\" \u002F>\n\nWe welcome contributions from developers, researchers, and AI coding agents at all levels. Our [Contributing Guidelines](.\u002FCONTRIBUTING.md) are designed for both humans and AI agents — covering architecture, patterns, extension guides, and code standards to help you contribute safely and effectively.\n\n### 👥 Community Contributors\n\n⚗️ Join the EvoScientist community to discuss AI-driven research, share experiment results, and help shape the future of automated scientific discovery.\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FAZ9ZMXkunY) — Ask questions, share findings, and collaborate with researchers and developers in real-time.\n- [WeChat](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fblob\u002Fmain\u002F.github\u002Fassets\u002Fcn_info.md) — Connect with our Chinese-speaking research community.\n\n  \u003Cimg src=\".github\u002Fassets\u002Fwechat_group.jpeg\" alt=\"WeChat QR Code\" width=\"200\"\u002F>\n\nEvery contribution brings us one step closer to a future where AI accelerates scientific breakthroughs for all of humanity.\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_eb0617adbf86.png\" \u002F>\n\u003C\u002Fa>\n\n### 📈 Star History\n\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_46cd5c3e9b8a.png)](https:\u002F\u002Fwww.star-history.com\u002F?repos=EvoScientist%2FEvoScientist&type=date&legend=bottom-right)\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 📝 Citation\n\nIf you find our paper and code useful in your research and applications, please cite using this BibTeX:\n\n```bibtex\n@article{evoscientist2026, \n  title={EvoScientist: Towards Multi-Agent Evolving AI Scientists for End-to-End Scientific Discovery}, \n  author={Yougang Lyu and Xi Zhang and Xinhao Yi and Yuyue Zhao and Shuyu Guo and Wenxiang Hu and Jan Piotrowski and Jakub Kaliski and Jacopo Urbani and Zaiqiao Meng and Lun Zhou and Xiaohui Yan}, \n  journal={arXiv preprint arXiv:2603.08127}, \n  year={2026} \n}\n```\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n\n## 📜 License\n\nThis project is licensed under the Apache License 2.0 - see the [LICENSE](.\u002FLICENSE) file for details.\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝Back to top\u003C\u002Fa>\u003C\u002Fp>\n","\u003Cdiv align=\"center\">\n    \u003Cpicture>\n      \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-dark.svg\">\n      \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-light.svg\">\n      \u003Cimg alt=\"EvoScientist Logo\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Flogo-dark.svg\" width=\"80%\">\n    \u003C\u002Fpicture>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fpypi.org\u002Fproject\u002FEvoScientist\u002F\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-dark.svg\">\n  \u003Cimg alt=\"PyPI v0.0.6\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-pypi-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002FEvoScientist.github.io\u002F\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-dark.svg\">\n  \u003Cimg alt=\"Website\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-website-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fdeepagents\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-dark.svg\">\n  \u003Cimg alt=\"Framework DeepAgents\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-framework-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cpicture>\n  \u003Csource media=\"(prefers-color-scheme: light)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-light.svg\">\n  \u003Csource media=\"(prefers-color-scheme: dark)\" srcset=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-dark.svg\">\n  \u003Cimg alt=\"License Apache 2.0\" src=\"https:\u002F\u002Fraw.githubusercontent.com\u002FEvoScientist\u002FEvoScientist\u002Fmain\u002F.github\u002Fassets\u002Fbadge-license-light.svg\" height=\"28\">\n\u003C\u002Fpicture>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n---\n\n\u003Cdiv align=\"center\">\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_3e6f210adf0d.png\" alt=\"Typing SVG\" \u002F>\u003C\u002Fa>\n\u003C\u002Fdiv>\n\n\u003Cdiv align=\"center\">\n\n**英语 | [简体中文](.\u002FREADME.zh-CN.md)**\n\n\u003C\u002Fdiv>\n\n**EvoScientist 的目标是通过赋能自我进化的人工智能科学家，实现自主探索、生成洞见并不断迭代改进，从而推动“氛围研究”的发展。它设计得极具观点性，开箱即用，提供一个与代理技能、工具集和记忆库共同成长的动态研究系统。EvoScientist 不再局限于传统的“人机协作”模式，而是采用“人在环路”的范式——人工智能作为科研伙伴，与人类研究人员共同进化，并内化学术品味和科学判断力。**\n\n\u003Ch3>🏆 奖项与认可\u003C\u002Fh3>\n\n\u003Ctable>\n  \u003Ctr>\n      \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_32dce16eadd5.jpg\" height=\"180\" alt=\"ICAIS 2025 奖项\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>最佳论文与评审奖\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_a96fc3d0ad71.png\" height=\"180\" alt=\"最佳论文\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>由 AI 生成的最佳论文\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"33%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_35de95c12e07.jpg\" height=\"180\" alt=\"DeepResearch Bench II 第一名\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>DeepResearch Bench II 第一名\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Cbr \u002F>\n\n\u003Ctable>\n  \u003Ctr>\n          \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"50%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_50832b1b8573.png\" height=\"180\" alt=\"AstaBench 代码与执行第一名\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>AstaBench 代码与执行第一名\u003C\u002Fb>\u003C\u002Fsub>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\" valign=\"top\" width=\"50%\">\n      \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_7833ddf755af.png\" height=\"180\" alt=\"AstaBench 数据分析第一名\"\u002F>\n      \u003Cbr \u002F>\n      \u003Csub>\u003Cb>AstaBench 数据分析第一名\u003C\u002Fb>\u003C\u002Fsub>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n\u003Ch3>⚡ 统一控制，多端呈现\u003C\u002Fh3>\n\n\u003Ctable>\n  \u003Ctr>\n    \u003Cth width=\"75%\">\u003Cp align=\"center\">🖥️ CLI \u002F TUI\u003C\u002Fp>\u003C\u002Fth>\n    \u003Cth width=\"25%\">\u003Cp align=\"center\">📱 移动端\u003C\u002Fp>\u003C\u002Fth>\n  \u003C\u002Ftr>\n  \u003Ctr>\n    \u003Ctd align=\"center\">\n      \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa40ba429-bb07-4663-b5b1-77aed1a833b9\" autoplay loop muted playsinline width=\"100%\">\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Fa40ba429-bb07-4663-b5b1-77aed1a833b9\">查看演示视频\u003C\u002Fa>\n      \u003C\u002Fvideo>\n    \u003C\u002Ftd>\n    \u003Ctd align=\"center\">\n      \u003Cvideo src=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4919e6f4-e434-46c9-98c7-35d7482868a6\" width=\"100%\" autoplay loop muted playsinline>\n        \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002F4919e6f4-e434-46c9-98c7-35d7482868a6\">查看移动端演示视频\u003C\u002Fa>\n      \u003C\u002Fvideo>\n    \u003C\u002Ftd>\n  \u003C\u002Ftr>\n\u003C\u002Ftable>\n\n## ✨ 功能\n- **🤖 多智能体团队** — 6个子智能体（计划、研究、代码、调试、分析、写作）协同工作。\n- **🧠 持久化记忆** — 上下文、偏好和发现结果可在不同会话间保留。\n- **🌐 多提供商支持** — Anthropic、OpenAI、Google、MiniMax、NVIDIA — 一套配置即可切换。\n- **📱 多渠道支持** — CLI作为中枢；Telegram、Slack、飞书、微信等 — 一个智能体会话即可覆盖。\n- **🔬 科研工作流** — 数据摄入 → 计划 → 执行 → 评估 → 写作 → 验证。\n- **🔄 代码生成模式** — 更多努力（迭代优化），持续提升代码质量。\n- **⚡ 自适应工具** — 每轮对话仅显示相关工具，减少干扰。\n- **✂️ 上下文编辑** — 根据对话状态动态重写系统提示。\n- **🔌 MCP与技能** — 可随时接入MCP服务器或从GitHub安装技能。\n\n> [!TIP]\n> 寻找开箱即用的研究技能？请查看[**EvoSkills**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoSkills) — 基于[**EvoScientist**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist)的引擎和可安装技能，端到端的研究生命周期已全面覆盖。[**EvoSkills**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoSkills)也兼容其他CLI编码智能体。\n\n## 🔥 新闻\n- **[2026年3月26日]** 🥇 提交时在[AstaBench数据分析]上排名第一！[**排行榜**](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fdata-analysis) 👈\n- **[2026年3月25日]** 🥇 提交时在[AstaBench代码与执行]上排名第一！[**排行榜**](https:\u002F\u002Fallenai-asta-bench-leaderboard.hf.space\u002Fcode-execution) 👈\n- **[2026年3月13日]** 🚀 [**EvoScientist**](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist)正式发布！\n- **[2026年3月11日]** ⛳ 技术报告已上线！[**查看**](https:\u002F\u002Farxiv.org\u002Fabs\u002F2603.08127) 👈\n- **[2026年3月6日]** 🥇 提交时在[DeepResearch Bench II]上排名第一！[**排行榜**](https:\u002F\u002Fagentresearchlab.com\u002Fbenchmarks\u002Fdeepresearch-bench-ii\u002Findex.html#leaderboard) 👈\n- **[2025年11月24日]** 🏆 在[ICAIS 2025](https:\u002F\u002Ficais.ai\u002F) AI科学家赛道上6篇论文全部被接受 — 获得最佳论文奖及AI审稿人评价奖！[**详情**](https:\u002F\u002Fairaxiv.com\u002Fpapers\u002F?q=zacharyzhang2022%40gmail.com) 👈\n\n## 📖 目录\n\n- [📦 安装](#-installation)\n- [🔑 配置](#-configuration)\n- [⚡ 快速入门](#-quick-start)\n- [🍪 示例与配方](#-examples--recipes)\n- [🔌 MCP集成](#-mcp-integration)\n- [📱 渠道](#-channels)\n- [📚 致谢](#-acknowledgments)\n- [🎯 路线图](#-ᯓ-roadmap)\n- [🌍 项目角色](#-project-roles)\n- [🤝 贡献](#-contributing)\n- [📝 引用](#-citation)\n\n## 📦 安装\n\n> [!TIP]\n> 需要**Python 3.11+**（**\u003C 3.14**）。我们推荐使用[**uv**](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F)或**conda**进行依赖管理和虚拟环境管理。\n\n\u003Cdetails>\n\u003Csummary> 🪛 安装uv（如果尚未安装）\u003C\u002Fsummary>\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n\u003C\u002Fdetails>\n\n### 快速安装\n\n```bash\nuv tool install EvoScientist\n```\n\n> [!NOTE]\n> 若要将现有安装更新至最新版本，请使用`uv tool upgrade`：\n> ```bash\n> uv tool upgrade EvoScientist\n> ```\n\n或者直接安装到当前环境中：\n\n```bash\nuv pip install EvoScientist\n```\n\n### 来自GitHub的最新版本\n\n在[PyPI](https:\u002F\u002Fpypi.org\u002Fproject\u002FEvoScientist\u002F)发布之前获取最新补丁：\n\n```bash\nuv pip install git+https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist.git\n```\n\n### 开发环境安装\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist.git\ncd EvoScientist\nuv sync --dev\n```\n\n启用pre-commit钩子：\n```bash\nuv run pre-commit install\n```\n\n\u003Cdetails>\n\u003Csummary> 使用conda\u003C\u002Fsummary>\n\n```bash\nconda create -n EvoSci python=3.11 -y\nconda activate EvoSci\npip install -e \".[dev]\"\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> 使用PyPi\u003C\u002Fsummary>\n\n```bash\npip install EvoScientist          # 快速安装\npip install -e \".[dev]\"           # 开发安装\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> 可选：渠道依赖\u003C\u002Fsummary>\n\n消息渠道集成需要额外的依赖。只需安装您需要的部分：\n\n```bash\nuv pip install \"EvoScientist[telegram]\"     # Telegram\nuv pip install \"EvoScientist[discord]\"      # Discord\nuv pip install \"EvoScientist[slack]\"        # Slack\nuv pip install \"EvoScientist[wechat]\"       # WeChat\nuv pip install \"EvoScientist[qq]\"           # QQ\nuv pip install \"EvoScientist[feishu]\"       # Feishu\nuv pip install \"EvoScientist[all-channels]\" # 全部\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary> 升级到最新代码库 \u003C\u002Fsummary>\n\n```bash\ngit pull && uv sync --dev\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝返回顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🔑 配置\n\n配置API密钥最简单的方式是使用交互式向导：\n\n```bash\nEvoSci onboard\n```\n\n> [!TIP]\n> 它会引导您完成提供商选择、密钥验证、模型选择和工作空间模式设置。\n> 支持CLI编码智能体订阅用户的OAuth登录 — 无需API密钥。\n\n![onboard](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_6085bc023733.png)\n\n\u003Cdetails>\n\u003Csummary> 📟 通过环境变量手动配置 \u003C\u002Fsummary>\n\n至少设置一个LLM提供商的密钥，以及（可选）一个搜索密钥：\n\n```bash\n# 选择一个LLM提供商\nexport ANTHROPIC_API_KEY=\"sk-...\"   # Claude  — console.anthropic.com\nexport OPENAI_API_KEY=\"sk-...\"      # GPT    — platform.openai.com\nexport GOOGLE_API_KEY=\"AI...\"       # Gemini  — aistudio.google.com\u002Fapi-keys\nexport MINIMAX_API_KEY=\"sk-...\"     # MiniMax — platform.minimaxi.com（与Anthropic兼容）\nexport NVIDIA_API_KEY=\"nvapi-...\"   # NIM    — build.nvidia.com\n\n# 网络搜索（可选）\nexport TAVILY_API_KEY=\"tvly-...\"    # app.tavily.com\n```\n\n或者使用`EvoSci config set`将密钥持久化保存在`~\u002F.config\u002Fevoscientist\u002Fconfig.yaml`中。\n\n此外，您也可以复制示例`.env`文件进行项目级配置：\n\n```bash\ncp .env.example .env  # 然后填写您的密钥\n```\n\n> ⚠️ 切勿提交包含真实密钥的`.env`文件。它已被添加到`.gitignore`中。\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝返回顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## ⚡ 快速入门\n\n```bash\nEvoSci  # 或 EvoScientist — 交互模式（默认为 TUI）\n```\n\n![demo](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_2632fe85f13b.png)\n\n> 运行 `EvoSci -h` 查看所有 CLI 选项。\n\n![cli 帮助](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_8833919fc9bf.png)\n\n> [!TIP]\n> 需要复制长输出吗？使用 `--ui cli` 启用经典模式，原生终端的复制功能将正常工作。在 macOS 上，[iTerm2](https:\u002F\u002Fiterm2.com\u002F) 用户还可以按住 `⌥ Option` 键并拖动选择内容，然后使用 `⌘+C` 进行复制。\n\n\u003Cdetails>\n\u003Csummary>常见示例\u003C\u002Fsummary>\n\n```bash\nEvoSci                            # 交互模式（默认为 TUI）\nEvoSci -p \"your question\"        # 单次执行模式\nEvoSci --workdir \u002Fpath\u002Fto\u002Fproject # 在指定目录中打开\nEvoSci -m run                     # 每个会话独立的工作空间\nEvoSci --ui cli                   # 经典 CLI（轻量级）\nEvoSci serve                      # 无界面模式 — 仅通道，无交互式提示\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>操作审批\u003C\u002Fsummary>\n\n默认情况下，Shell 命令（`execute` 工具）在执行前需要人工审批。若要跳过审批提示：\n\n```bash\n# 会话级别：通过 CLI 标志自动批准\nEvoSci --auto-approve\nEvoSci -p \"query\" --auto-approve\n\n# 持久化设置：在配置中进行设定（适用于所有未来会话）\nEvoSci config set auto_approve true\n\n# 或者仅允许特定命令前缀\nEvoSci config set shell_allow_list \"python,pip,pytest,ruff,git\"\n```\n\n在会话期间，您也可以在任何审批提示处回复 **3**（全部批准），以自动批准该会话剩余的所有操作。\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>智能体提问\u003C\u002Fsummary>\n\n当智能体需要进一步澄清时（例如数据集选择、实验方向等），它会主动向您提问。此功能默认启用。若要禁用：\n\n```bash\n# 持久化设置：在配置中进行设定\nEvoSci config set enable_ask_user false\n\n# 重新启用\nEvoSci config set enable_ask_user true\n```\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>会话内命令\u003C\u002Fsummary>\n\n| 命令 | 描述 |\n| ------- | ----------- |\n| `\u002Fcurrent` | 显示当前会话信息 |\n| `\u002Fthreads` | 列出最近的会话 |\n| `\u002Fresume` | 恢复之前的会话 |\n| `\u002Fdelete` | 删除已保存的会话 |\n| `\u002Fnew` | 开始新的会话 |\n| `\u002Fclear` | 清除聊天记录 |\n| `\u002Fskills` | 列出已安装技能 |\n| `\u002Finstall-skill \u003Csrc>` | 从路径或 GitHub 添加技能 |\n| `\u002Funinstall-skill \u003Cname>` | 移除已安装技能 |\n| `\u002Fmcp` | 管理 MCP 服务器 |\n| `\u002Fchannel` | 配置消息通道 |\n| `\u002Fhelp` | 显示可用命令 |\n| `\u002Fexit` | 退出 |\n\n\u003C\u002Fdetails>\n\n\u003Cdetails>\n\u003Csummary>脚本推理\u003C\u002Fsummary>\n\n```python\nfrom EvoScientist import EvoScientist_agent\nfrom langchain_core.messages import HumanMessage\nfrom EvoScientist.utils import format_messages\n\nthread = {\"configurable\": {\"thread_id\": \"1\"}}\nlast_len = 0\n\nfor state in EvoScientist_agent.stream(\n    {\"messages\": [HumanMessage(content=\"Hi?\")]},\n    config=thread,\n    stream_mode=\"values\",\n):\n    msgs = state[\"messages\"]\n    if len(msgs) > last_len:\n        format_messages(msgs[last_len:])\n        last_len = len(msgs)\n```\n\n\u003C\u002Fdetails>\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🍪 示例与配方\n\n精心挑选的官方示例、高级用法模式以及社区贡献的配方，帮助您充分利用 EvoScientist。\n\n👉 **[浏览所有示例与配方](docs\u002FREADME.md)**\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🔌 MCP 集成\n\n通过 [MCP](https:\u002F\u002Fmodelcontextprotocol.io\u002F) 服务器，只需一条命令即可添加外部工具：\n\n```bash\n# 使用方法\nEvoSci mcp add \u003Cname> \u003Ccommand> [-- args...]\n\n# 示例\nEvoSci mcp add sequential-thinking npx -- -y @modelcontextprotocol\u002Fserver-sequential-thinking\n```\n\n> [!TIP]\n> 关于命令选项、配置字段、工具路由、通配符过滤及故障排除，请参阅 **[MCP 集成指南](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Ftree\u002Fmain\u002FEvoScientist\u002Fmcp#model-context-protocol-integration)**。\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 📱 通道\n\n连接消息平台，使其与 CLI 共享同一智能体会话：\n\n```bash\n# 使用方法\nEvoSci channel setup \u003Cchannel>\n\n# 示例\nEvoSci channel setup telegram\n```\n\n多个通道可以同时运行——在配置中用逗号分隔通道名称：\n\n```yaml\nchannel_enabled: \"telegram,slack,feishu,qq\"\n```\n\n此外，您也可以在 CLI 会话中使用 `\u002Fchannel` 命令来交互式地启动通道。\n\n> [!TIP]\n> 关于各通道的设置指南、能力矩阵、架构细节及故障排除，请参阅 **[通道集成指南](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Ftree\u002Fmain\u002FEvoScientist\u002Fchannels#channels)**。\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 📚 致谢\n\n本项目基于以下优秀的开源作品：\n\n- [**LangChain**](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Flangchain) — 构建智能体和基于大模型应用的框架。\n- [**DeepAgents**](https:\u002F\u002Fgithub.com\u002Flangchain-ai\u002Fdeepagents) — 包含电池的智能体框架。\n\n我们感谢这些作者对开源社区的宝贵贡献。\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🎯 ᯓ➤ 路线图\n\n即将推出：\n- [x] 🖥️ 全屏 TUI 和经典 CLI 界面\n- [x] 📻 EvoMemory v1.0 已发布\n- [x] ⚒️ 内置 200 多种预定义技能\n- [x] 🧩 内置研究生命周期技能已发布\n- [x] 👋 人机协作操作审批\n- [x] 🦾 智能体发起的人工澄清\n- [x] 📑 技术报告正在撰写中\n- [x] 🔐 OAuth 登录（CLI 编程智能体订阅用户）\n- [ ] 📺 具有工作区 UI 的 Web 应用程序\n- [ ] 📹 演示和教程正在制作中\n- [ ] 📊 将发布基准测试套件\n- [ ] ⏰ 计划为核心系统安排定时任务\n\n敬请期待——更多功能即将上线！\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🌍 项目角色\n\n### 核心贡献者\n\n\u003Ctable>\n  \u003Ctbody>\n    \u003Ctr>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fx-izhang.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_f22ed7f0c5f7.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Xi Zhang\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Xi Zhang\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fyouganglyu.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_8f0847694e67.png\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Yougang Lyu\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Yougang Lyu\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fdin0s.me\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_0f341dbb490d.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Dinos Papakostas\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Dinos Papakostas\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fgo0day.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_b67fabcb9c94.png\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Yuyue Zhao\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Yuyue Zhao\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fmuxincg2004.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_020efc8722df.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Ziheng Zhang\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Ziheng Zhang\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n      \u003Ctd align=\"center\">\n        \u003Ca href=\"https:\u002F\u002Fxiaohuiyan.github.io\u002F\">\n          \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_4cdcf7d90e2b.jpg\"\n               width=\"100\" height=\"100\"\n               style=\"object-fit: cover; border-radius: 20%;\" alt=\"Xiaohui Yan\"\u002F>\n          \u003Cbr \u002F>\n          \u003Csub>\u003Cb>Xiaohui Yan\u003C\u002Fb>\u003C\u002Fsub>\n        \u003C\u002Fa>\n      \u003C\u002Ftd>\n    \u003C\u002Ftr>\n  \u003C\u002Ftbody>\n\u003C\u002Ftable>\n\n### 贡献者\n\nJan Piotrowski, Wiktor Cupiał, Jakub Kaliski, Jakub Filipiuk, Xinhao Yi, Shuyu Guo, Andreas Sauter, Wenxiang Hu, Jacopo Urbani, Zaiqiao Meng, Jun Luo, Lun Zhou\n\n> \u003Ca href=\"https:\u002F\u002Fxiaoyi.huawei.com\u002Fchat\u002Fresearch\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_b2710b7e71af.webp\" height=\"16\" alt=\"Xiaoyi DeepResearch\" align=\"center\" \u002F>\u003C\u002Fa> [*Xiaoyi DeepResearch*](https:\u002F\u002Fxiaoyi.huawei.com\u002Fchat\u002Fresearch) *团队* 以及更广泛的开源社区共同为本项目贡献力量。\n\n如有任何疑问或合作机会，请联系：[**EvoScientist.ai@gmail.com**](mailto:evoscientist.ai@gmail.com)\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 🤝 贡献\n\n\u003Cimg align=\"right\" alt=\"EvoScientist 团队\" src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_d54fd8233aec.png\" width=\"20%\" \u002F>\n\n我们欢迎来自开发者、研究人员以及各类 AI 编码代理的贡献。我们的[贡献指南](.\u002FCONTRIBUTING.md)专为人类和 AI 代理设计，涵盖了架构、模式、扩展指南及代码规范等内容，旨在帮助您安全有效地参与贡献。\n\n### 👥 社区贡献者\n\n⚗️ 加入 EvoScientist 社区，探讨 AI 驱动的研究，分享实验结果，并共同塑造自动化科学发现的未来。\n\n- [Discord](https:\u002F\u002Fdiscord.gg\u002FAZ9ZMXkunY) — 实时提问、分享成果并与研究人员和开发者协作。\n- [微信](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fblob\u002Fmain\u002F.github\u002Fassets\u002Fcn_info.md) — 与我们的中文研究社区连接。\n\n  \u003Cimg src=\".github\u002Fassets\u002Fwechat_group.jpeg\" alt=\"微信二维码\" width=\"200\"\u002F>\n\n每一次贡献都让我们离这样一个未来更近一步：AI 将加速全人类的科学突破。\n\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fgraphs\u002Fcontributors\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_eb0617adbf86.png\" \u002F>\n\u003C\u002Fa>\n\n### 📈 星标历史\n\n[![星标历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_readme_46cd5c3e9b8a.png)](https:\u002F\u002Fwww.star-history.com\u002F?repos=EvoScientist%2FEvoScientist&type=date&legend=bottom-right)\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 📝 引用\n\n如果您在研究和应用中发现我们的论文和代码有所帮助，请使用以下 BibTeX 格式引用：\n\n```bibtex\n@article{evoscientist2026, \n  title={EvoScientist: 向多智能体进化型 AI 科学家迈进——实现端到端的科学发现}, \n  author={Yougang Lyu 和 Xi Zhang 和 Xinhao Yi 和 Yuyue Zhao 和 Shuyu Guo 和 Wenxiang Hu 和 Jan Piotrowski 和 Jakub Kaliski 和 Jacopo Urbani 和 Zaiqiao Meng 和 Lun Zhou 和 Xiaohui Yan}, \n  journal={arXiv 预印本 arXiv:2603.08127}, \n  year={2026} \n}\n```\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>\n\n## 📜 许可证\n\n本项目采用 Apache License 2.0 许可协议授权——详情请参阅 [LICENSE](.\u002FLICENSE) 文件。\n\n\u003Cp align=\"right\">\u003Ca href=\"#top\">🔝回到顶部\u003C\u002Fa>\u003C\u002Fp>","# EvoScientist 快速上手指南\n\nEvoScientist 是一个旨在实现“自我进化”的 AI 科学家框架。它通过多智能体协作（规划、研究、编码、调试、分析、写作），自主探索问题、生成见解并迭代改进代码。本项目支持多种大模型提供商，并可通过 CLI 或即时通讯工具（如微信、飞书等）进行交互。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows (WSL 推荐)\n*   **Python 版本**：必须为 **Python 3.11+** 且 **\u003C 3.14**\n*   **包管理工具**（推荐）：\n    *   **[uv](https:\u002F\u002Fdocs.astral.sh\u002Fuv\u002F)**：极速 Python 包安装器和管理器（官方强烈推荐）\n    *   或者使用 **conda** \u002F **pip**\n\n### 安装 uv (如果尚未安装)\n\n```bash\ncurl -LsSf https:\u002F\u002Fastral.sh\u002Fuv\u002Finstall.sh | sh\n```\n\n## 安装步骤\n\n您可以选择以下任意一种方式进行安装。\n\n### 方式一：快速安装（推荐）\n\n使用 `uv` 将 EvoScientist 作为全局工具安装：\n\n```bash\nuv tool install EvoScientist\n```\n\n> **提示**：若需升级到最新版本，运行 `uv tool upgrade EvoScientist`。\n\n### 方式二：在当前环境中安装\n\n如果您希望在当前虚拟环境中使用：\n\n```bash\nuv pip install EvoScientist\n```\n\n### 方式三：安装最新开发版\n\n获取 GitHub 上的最新补丁（早于 PyPI 发布）：\n\n```bash\nuv pip install git+https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist.git\n```\n\n### 可选：安装通讯渠道依赖\n\n如果您计划通过 Telegram、微信、飞书等渠道使用，需安装对应额外依赖：\n\n```bash\n# 示例：安装微信支持\nuv pip install \"EvoScientist[wechat]\"\n\n# 示例：安装飞书支持\nuv pip install \"EvoScientist[feishu]\"\n\n# 安装所有渠道支持\nuv pip install \"EvoScientist[all-channels]\"\n```\n\n## 基本使用\n\n### 1. 配置 API Key\n\n最简便的方式是使用交互式向导进行配置，它将引导您选择模型提供商、验证密钥并设置工作区。\n\n```bash\nEvoSci onboard\n```\n\n*   **支持提供商**：Anthropic (Claude), OpenAI (GPT), Google (Gemini), MiniMax, NVIDIA 等。\n*   **免密钥模式**：如果您是 CLI 编码代理的订阅用户，支持 OAuth 登录，无需手动输入 API Key。\n\n#### 手动配置（可选）\n\n如果不使用向导，也可以通过环境变量手动配置：\n\n```bash\n# 选择至少一个 LLM 提供商\nexport ANTHROPIC_API_KEY=\"sk-...\"   # Claude\nexport OPENAI_API_KEY=\"sk-...\"      # GPT\nexport GOOGLE_API_KEY=\"AI...\"       # Gemini\nexport MINIMAX_API_KEY=\"sk-...\"     # MiniMax\nexport NVIDIA_API_KEY=\"nvapi-...\"   # NIM\n\n# Web 搜索工具 (可选)\nexport TAVILY_API_KEY=\"tvly-...\"    # Tavily Search\n```\n\n### 2. 启动研究任务\n\n配置完成后，直接在命令行启动 EvoScientist 并开始您的研究任务。\n\n```bash\nEvoSci run \"请分析最近关于大语言模型推理优化的研究趋势，并生成一份简要报告\"\n```\n\n**工作流程说明：**\n启动后，EvoScientist 将自动调度其内部的 6 个子智能体（规划、研究、编码、调试、分析、写作）协同工作：\n1.  **Intake**: 理解您的需求。\n2.  **Plan**: 制定研究计划。\n3.  **Execute**: 执行搜索、阅读文献或编写代码。\n4.  **Evaluate**: 评估中间结果。\n5.  **Write**: 撰写最终报告或代码。\n6.  **Verify**: 验证结果的准确性。\n\n### 3. 进阶功能提示\n\n*   **持久化记忆**：EvoScientist 会自动保存上下文、偏好和发现，下次会话时可继续利用这些记忆。\n*   **多端同步**：配置好 Channel 后，您可以在手机端的微信或飞书中与同一个 Agent 会话继续交互。\n*   **技能扩展**：可以通过安装 [EvoSkills](https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoSkills) 来扩展特定的科研技能包。","某生物制药公司的算法团队正试图从海量文献中挖掘新型抗癌靶点，但面对指数级增长的论文数据，传统人工筛选效率极低。\n\n### 没有 EvoScientist 时\n- **信息过载导致遗漏**：研究人员每天只能精读几十篇论文，极易错过跨学科的关键隐性关联（\"Vibe\"），导致潜在靶点被埋没。\n- **迭代周期漫长**：提出假设、设计实验验证、再调整方向的过程完全依赖人工，一个完整的科研闭环往往需要数周甚至数月。\n- **知识难以沉淀**：资深专家的科学直觉和判断标准无法有效传递给新人，团队整体研究水平受限于个人能力，难以形成系统化的“科研品味”。\n- **被动响应模式**：团队只能跟随已有热点进行验证性研究，缺乏自主探索未知领域的能力，难以产生原创性突破。\n\n### 使用 EvoScientist 后\n- **自主捕捉隐性洞察**：EvoScientist 像不知疲倦的科研伙伴，自主遍历数万篇文献，敏锐捕捉人类容易忽略的跨领域微弱信号，自动生成高价值假设。\n- **自我进化加速闭环**：系统根据反馈自动优化搜索策略和推理逻辑，将“假设 - 验证 - 改进”的循环从数周压缩至数小时，实现全天候不间断探索。\n- **内化科学判断力**：EvoScientist 在与人类专家的协作中（Human-on-the-loop），逐渐内化团队的学术偏好与评判标准，使输出结果越来越符合团队的高阶科研直觉。\n- **主动开拓新边界**：不再局限于既定方向，EvoScientist 能主动规划探索路径，发现非显而易见的研究蓝海，推动团队从“跟随者”转变为“引领者”。\n\nEvoScientist 通过将 AI 从执行工具升级为具备自我进化能力的“科研搭档”，彻底重构了药物发现的创新速度与深度。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FEvoScientist_EvoScientist_2632fe85.png","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FEvoScientist_9615a0af.png","",null,"EvoScientist.ai@gmail.com","https:\u002F\u002FEvoScientist.ai\u002F","https:\u002F\u002Fgithub.com\u002FEvoScientist",[79,83],{"name":80,"color":81,"percentage":82},"Python","#3572A5",97.6,{"name":84,"color":85,"percentage":86},"HTML","#e34c26",2.4,2923,144,"2026-04-07T12:39:30","Apache-2.0","Linux, macOS, Windows","未说明",{"notes":94,"python":95,"dependencies":96},"推荐使用 uv 或 conda 进行依赖管理和虚拟环境配置。支持多种通信渠道（如 Telegram, Slack, 微信等），需安装额外的可选依赖。配置 API 密钥可通过交互式向导 (EvoSci onboard) 或环境变量完成。支持多种 LLM 提供商（Anthropic, OpenAI, Google, MiniMax, NVIDIA）。","3.11+ (且 \u003C 3.14)",[97,98],"uv","conda (可选)",[100,13],"其他",[102,103,104,105],"ai-agent","ai4science","multi-agent-system","vibe-research","2026-03-27T02:49:30.150509","2026-04-08T02:00:40.937102",[109,114,119,124,129,134],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},23481,"如何更新通过 uv tool 安装的 EvoScientist？","如果运行安装命令提示已安装但未更新，请运行以下命令进行升级：\nuv tool upgrade EvoScientist","https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fissues\u002F104",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},23482,"是否支持使用 Ollama 作为本地 LLM 提供者？如何配置？","EvoScientist 原生支持 Ollama。您可以在初始化配置时选择它，具体方法是运行 onboard 命令并选择 Ollama 选项：\nevosci onboard\n在配置过程中选择 Ollama 即可。","https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fissues\u002F51",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},23483,"Agent 报告文件已创建或命令已执行，但实际文件系统中没有变化，怎么办？","这是一个已知问题，通常发生在 Codex（特别是通过 OAuth 连接时）回退到聊天模式，将命令作为纯文本输出而不是调用工具执行。\n维护者已发布补丁修复此问题，该补丁强制正确使用工具调用。请确保您使用的是最新版本：\nhttps:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist?tab=readme-ov-file#latest-from-github","https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fissues\u002F56",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},23484,"安装过程中默认安装 LaTeX 是否存在安全风险？","是的，当前默认安装脚本通过 `curl ... | sh` 方式拉取并执行远程脚本，存在供应链攻击风险。如果您担心安全性，建议在安装提示出现时选择 'n' 跳过自动安装。\n更安全的替代方案是：\n1. 使用系统包管理器手动安装 LaTeX（如 apt, brew 等），利用签名仓库保证完整性。\n2. 或者等待项目方改进脚本，采用固定版本并校验 SHA256 哈希值的方式。","https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fissues\u002F106",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},23485,"使用内置 ccproxy 进行 Codex OAuth 认证时报错 \"System messages are not allowed\" (400) 如何解决？","这是在使用 Codex OAuth 并通过内置 ccproxy 时的一个已知兼容性问题。该问题导致系统消息被错误发送从而触发 400 错误。\n请尝试以下方法：\n1. 确保已升级到最新版本，维护者正在持续修复此类回调和代理问题。\n2. 如果问题依旧，尝试暂时不使用内置 ccproxy，或直接检查是否有针对 Codex 提供商的特定配置更新。","https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fissues\u002F97",{"id":135,"question_zh":136,"answer_zh":137,"source_url":113},23486,"飞书连接后台报错且更新后仍无法连通，如何处理？","如果遇到飞书连接报错，首先请确保使用的是最新版本。即使提示“已安装”，也可能未获取到最新修复代码。\n请强制执行升级命令：\nuv tool upgrade EvoScientist\n升级后重启服务再次尝试连接。如果仍然报错，请检查日志中具体的 Exception 信息（如 GPU 发现失败等警告通常不影响核心功能，重点关注 RuntimeError 部分）。",[139,144,149,154,159,164,169,174,179],{"id":140,"version":141,"summary_zh":142,"released_at":143},144997,"v0.0.6","# EvoScientist v0.0.6 — 动态上下文管理、OpenRouter 推理修复、更高效代码生成模式、GLM-5.1 与 Telegram 修复\n\n大家好！我们很高兴发布 EvoScientist v0.0.6。本次更新带来了 **动态上下文管理**，包含两个新的 LangChain 中间件（ContextEditing 和 Adaptive Tool Selection）；针对 OpenRouter 的流式推理进行了修复，并扩展了模型支持范围；新增了 **更高效代码生成模式**；为智谱提供的 Zhipu 服务增加了 **GLM-5.1 模型支持**；同时还修复了 **Telegram 频道启动问题**——此外还升级了 ccproxy 至 0.2.7，并进行了一系列使用体验优化。\n\n---\n\n### 🧠 动态上下文管理 — ContextEditing 与 Adaptive Tool Selection\n\n两款新中间件协同工作，确保长时间对话的高效性以及工具路由的精准性 (#127)：\n\n**1. ContextEditingMiddleware** — 在发送给 LLM 之前，自动清除旧的工具输出（替换为 `[cleared]`），从而降低输入 token 成本。该中间件会在模型上下文窗口占用达到 **50%** 时触发，远早于现有的 SummarizationMiddleware（约 85%）。触发阈值会根据模型配置动态计算，对于没有模型配置的提供商（如 OpenRouter、SiliconFlow、Ollama）则采用回退策略。它会保留最近的 5 条工具输出，并始终保留 `think_tool` 的内容（因为反思信息无法重新获取）。\n\n**2. LLMToolSelectorMiddleware** — 当工具数量超过 20 个时（例如在集成 MCP 后），该中间件会利用模型智能地为每次查询仅选择相关的工具。核心工具（`think_tool`、`task`）始终会被包含。此外，流式显示中还新增了一个自适应的 **Adaptive Selected Tools** 面板——只有在工具被实际过滤且选择发生变化时才会显示。\n\n```\n中间件堆栈顺序：\n[框架] SummarizationMiddleware (85%，最外层)\n[可选] AskUserMiddleware\n            ContextEditingMiddleware (50%，清除旧工具输出)\n            ContextOverflowMapperMiddleware (捕获 400 错误)\n            ToolErrorHandlerMiddleware\n            LLMToolSelectorMiddleware (按查询筛选工具)\n            ToolSelectionTrackerMiddleware (记录 UI 所选工具)\n            EvoMemoryMiddleware (注入\u002F提取记忆)\n[框架] AnthropicPromptCachingMiddleware (最内层)\n```\n\n- 将共享的 `disable_thinking()` 工具函数提取至 `middleware\u002Futils.py`——供记忆提取和工具选择模块复用（两者均使用结构化输出，与思考\u002F推理过程存在冲突）。\n- 在 `test_context_editing_middleware.py` 和 `test_tool_selector_middleware.py` 中新增了 22 个测试用例。\n\n---\n\n### 🔧 OpenRouter 流式推理修复与模型扩展\n\n修复了一个显示问题：当使用 OpenRouter 模型时，思考面板会出现在响应文本 **之后**（在 Claude Opus 4.6 的自适应思考功能中尤为明显）。\n\n- `stream\u002Fevents.py` — 现在从 `additional_kwargs[\"reasoning_content\"]` 中提取推理内容（这是 `langchain-openrouter` 存储推理的地方），而不再仅检查内容块。\n- 过滤 OpenRouter 发送的仅包含空白字符的文本片段，然后再进","2026-04-03T16:30:44",{"id":145,"version":146,"summary_zh":147,"released_at":148},144998,"v0.0.5","# EvoScientist v0.0.5 — 上下文重试中间件、OpenAI 中继配置、飞书事件循环修复及紧凑对话\n\n大家好！我们很高兴发布 EvoScientist v0.0.5。本次版本引入了**上下文溢出重试中间件**，可在遇到提供商的上下文限制错误时自动恢复；新增了一个用于 OpenAI 兼容中继的**`use_responses_api` 配置选项**；针对 Linux 系统修复了**飞书 SDK 事件循环隔离问题**；同时还修复了**`\u002Fcompact` 命令中的 thread_id 注入问题**——此外还优化了内置用户体验，并更新了基准测试奖项信息。\n\n---\n\n### 🔄 上下文溢出重试中间件\n\n新增了一款中间件，能够检测提供商特有的上下文限制错误（4xx），并将其映射为标准的 `ContextOverflowError` 错误，从而让 DeepAgents 的 `SummarizationMiddleware` 自动进行摘要生成并重试。\n\n- `middleware\u002Fcontext_overflow.py`（新文件）—— `ContextOverflowMapperMiddleware` 包装同步和异步模型调用；通过模式匹配常见提供商的 8 种错误消息（如 `context_length_exceeded`、`too many tokens`、`max_tokens_exceeded` 等），结合 HTTP 400 状态码的检测来实现。\n- 已在 `EvoScientist.py` 中与现有中间件（Memory、AskUser）一同自动集成。\n- 在 `tests\u002Ftest_context_overflow_middleware.py` 中提供了 112 行的测试套件。\n\n---\n\n### ⚙️ OpenAI 中继的 `use_responses_api` 配置\n\n`langchain-openai` 在设置了推理参数时会自动切换到 Responses API，但这会导致仅支持 Chat Completions 的 OpenAI 兼容中继服务器无法正常工作。为此，我们新增了一个面向用户的配置选项，用于覆盖这一行为。\n\n```bash\nEvoSci config set use_responses_api false\n# 或者使用环境变量：EVOSCIENTIST_USE_RESPONSES_API=false\n```\n\n- `config\u002Fsettings.py` — 新增 `use_responses_api` 字段（可选，默认为 `None`）。\n- `llm\u002Fmodels.py` — 读取环境变量，当设置为 `\"false\"` 时，强制将 `use_responses_api` 设为 `False`，并移除 `reasoning` 关键字参数。\n- `apply_config_to_env()` 将配置文件中的值传播到环境变量中。\n- 提供了 72 行的参数化测试套件，覆盖大小写和空格规范化等场景。\n\n---\n\n### 🔧 飞书 SDK 事件循环隔离（Linux 系统修复）\n\n`lark_oapi.ws.client` 在导入时会捕获主线程的事件循环。但在 Linux\u002FPython 3.12 环境下，由于共享事件循环的问题，当 `nest_asyncio` 的补丁与 SDK 线程交互时，会导致跨线程的 `RuntimeError` 和 `AttributeError`。\n\n- 我们用一个更彻底的修复方案替换了之前的 `Handle._run` Monkey Patch（仅是症状掩盖）：在 SDK 线程中创建一个新的事件循环，并替换模块级别的全局事件循环变量。\n- 这一改动彻底解决了 `RuntimeError: Leaving task … does not match the current task` 和 `AttributeError: 'NoneType' object has no attribute 'select'` 等问题。\n\n---\n\n### 🧵 `\u002Fcompact` 命令中的 thread_id 注入\n\n此前，`\u002Fcompact` 命令（对话摘要）是在 LangGraph 可运行上下文之外执行的，导致 `_get_thread_id()` 失败，最终生成随机的 `session_xxx` 文件名，而非复用真实的 thread_id。\n\n- `cli\u002Fcommands.py` — 在将历史记录传递给 LangGraph 之前，将 `thread_id` 注入到 LangGraph 的 `var_child_runnable_config` 上下文变量中，并在后续正确清理该变量。","2026-03-27T20:55:37",{"id":150,"version":151,"summary_zh":152,"released_at":153},144999,"v0.0.4","# EvoScientist v0.0.4 — @ 文件提及、恢复会话历史、飞书 WebSocket 与 LaTeX 环境配置\n\n大家好！我们很高兴发布 EvoScientist v0.0.4。本次版本更新带来了**`@ 文件`提及支持**，可将文件内容直接注入消息中；在 `\u002Fresume` 命令下显示对话历史；新增针对飞书的 WebSocket 订阅模式；以及在引导向导中增加了 **LaTeX 环境设置步骤**——同时还修复了 `uv tool install` 的兼容性问题和 TUI 斜杠命令补全的 bug。\n\n---\n\n### 📎 `@ 文件`提及 — 将文件内容注入消息\n\n在经典 CLI 和 TUI 中输入 `@文件名`，即可在消息发送给智能体之前，将文件内容直接嵌入到消息中。同时支持 Tab 键自动补全：只需开始输入 `@`，工作区中的匹配文件就会被列出供选择。\n\n- `cli\u002Ffile_mentions.py`（新增）—— 提供 `complete_file_mention()` 用于自动补全候选，`resolve_file_mentions()` 则将 `@路径` 标记扩展为内联文件内容（≤256 KB 直接嵌入；超过此大小的文件则仅引用路径，并附带 `read_file` 提示）\n- **经典 CLI** — 扩展了 `SlashCommandCompleter` 以处理 `@` 前缀；自动补全会就地替换 `@标记`\n- **TUI** — 将 `@ 文件` 补全集成到现有的斜杠命令补全组件中；采用双列显示（文件名 + 类型提示）；在消息发送给智能体之前调用 `resolve_file_mentions`\n- **测试** — 新增 `tests\u002Ftest_file_mentions.py`（共 247 行）\n\n---\n\n### 🕘 `\u002Fresume` 下显示对话历史\n\n现在，在恢复对话时，系统会立即显示最近的 50 条人类与 AI 的消息，方便你快速了解上次中断的位置，无需再面对一片空白的界面。工具消息和系统消息会被过滤掉。如果历史记录超过 50 条，则会显示 `── … N 条更早的消息 ──` 的标题。\n\n- **经典 CLI** — 在加载对话后调用新的辅助函数 `_display_resume_history()`\n- **TUI** — 使用两级对话选择器（`ThreadSelector` 组件），按工作区分组显示对话摘要；选中后会回放历史记录\n\n---\n\n### 🔌 飞书 WebSocket 长连接模式\n\n飞书现支持使用 **WebSocket** 作为事件订阅的替代方案，取代 Webhook。这使得在没有公网 IP、端口转发或隧道的情况下也能运行 EvoScientist，非常适合本地开发以及 NAT\u002F防火墙环境。\n\n- 新增 `feishu_subscription_mode` 配置项：可选值为 `\"webhook\"`（默认）或 `\"websocket\"`\n- WebSocket 模式使用官方的 `lark-oapi` SDK，并通过线程安全的队列桥进行通信\n- 引导向导中新增模式选择步骤，以及针对 WebSocket 模式的 SDK 安装提示\n- CLI 中新增 `--mode webhook|websocket` 标志，用于独立运行 `EvoSci serve`\n- 安装命令：`pip install 'evoscientist[feishu]'`\n- 新增 5 个测试用例，覆盖配置、SDK 缺失错误、消息桥接及清理流程\n\n---\n\n### 📄 引导向导中的 LaTeX 环境设置\n\n在 `EvoSci onboard` 流程中（位于 MCP 服务器之后、频道之前），新增了一个步骤，用于为 `paper-writing` 技能设置 LaTeX 环境。\n\n- 跨平台检测 `pdflatex`、`lat","2026-03-24T22:57:56",{"id":155,"version":156,"summary_zh":157,"released_at":158},145000,"v0.0.3","## EvoScientist v0.0.3 — 语音输入、新提供商、更智能的 TUI\n\nG'Day！我们很高兴地发布 EvoScientist v0.0.3。本次更新在所有消息通道中新增了**语音转文字**功能，引入了两家全新的顶级 LLM 提供商（**MiniMax** 和 **DeepSeek**），还增加了**MCP 服务器浏览器**、带有标签筛选功能的**技能浏览器**，并对 TUI\u002FCLI 的用户体验进行了大幅优化——支持多行输入、显示时间戳、提供更新通知等，使 EvoScientist 更加自然易用、易于扩展，日常使用也更加流畅。\n\n---\n\n### 🎙️ 所有通道均支持语音转文字 (STT)\n\n现在所有 10 个消息通道都支持**语音转文字**功能——您可以通过 Telegram、微信、飞书或其他任何平台发送语音消息，EvoScientist 会在处理之前将其转录为文本。该功能由 [faster-whisper](https:\u002F\u002Fgithub.com\u002FSYSTRAN\u002Ffaster-whisper) 提供支持，并具备自动语言检测能力（中文、英文或自动识别）。\n\n- 可通过 `stt_enabled`、`stt_language`、`stt_model`、`stt_device`、`stt_compute_type` 进行配置\n- 安装命令：`pip install 'EvoScientist[stt]'`\n\n---\n\n### 🧠 新模型与提供商\n\n新增两家顶级提供商，并全面支持引导式接入流程（API 密钥验证、模型选择）：\n\n| 提供商 | 模型 |\n|----------|--------|\n| **MiniMax** | M2.7、M2.7-highspeed、M2.5、M2.5-highspeed —— 通过兼容 Anthropic 的路由实现，支持更高效的思维链推理 |\n| **DeepSeek** | DeepSeek-R1（推理模型）、DeepSeek-V3（对话模型）—— 已修复序列内容问题，确保流式传输稳定可靠 |\n| OpenAI | GPT-5.4 Mini、GPT-5.4 Nano |\n| Volcengine | Doubao Seed 2.0 Pro \u002F Lite \u002F Mini \u002F Code |\n\nTavily 搜索工具现已改为条件加载——无需设置 `TAVILY_API_KEY` 即可启动 EvoScientist。\n\n---\n\n### 🖥️ TUI & CLI 改进\n\n- **多行输入**——按 Shift+Enter 插入换行符；按 Enter 发送。聊天输入框支持自然的多行编辑\n- **时间戳**——每条消息都会显示发送时间\n- **更新检查**——EvoSci 启动时会检查 PyPI，当有新版本可用时会通知您（采用缓存机制，非阻塞式）\n- **双 Ctrl+C 退出**——第一次按下中断代理进程，第二次确认退出（避免误操作导致程序意外退出）\n- **方向键导航**——上下箭头键现在可在输入提示和选择组件中正常工作\n- **Tab 键修复**——在文本框中按下 Tab 键后，光标不再消失\n- **剪贴板读取**——可将系统剪贴板中的文本读取到代理上下文中\n- **命令模块重构**——斜杠命令已从 TUI 中提取出来，独立为一个 `commands\u002F` 模块，并配备 `CommandManager`，供 CLI、TUI 和各消息通道共享\n- **Discord 消息长度**——调整最大消息长度至 2000 字符（即 Discord 的实际限制）\n\n---\n\n### 🔌 `\u002Fevoskills` 技能浏览器与 `\u002Fmcp browse` MCP 浏览器\n\n- **`\u002Fevoskills`**（原名 `\u002Finstall-skills`）——可浏览并安装 EvoSkills 仓库中的技能，支持**基于标签的筛选**。提供完整的交互式 TUI 小部件，包含搜索、标签过滤和批量安装功能\n- **`\u002Fmcp browse`**——浏览 ","2026-03-20T21:11:09",{"id":160,"version":161,"summary_zh":162,"released_at":163},145001,"v0.0.2","## EvoScientist v0.0.2 — OAuth、人机协作与更智能的 TUI\n\n我们很高兴地发布 EvoScientist v0.0.2。此版本进一步深化了“人机协作”理念，新增了 OAuth 认证、更丰富的交互原语、无头服务模式以及对 TUI 的大幅优化——使 EvoScientist 更加易用、更具交互性，并且能够在更广泛的环境中部署。\n\n---\n\n### 🔑 OAuth 支持 — 无需 API 密钥\n\nEvoScientist 现在支持针对 **Claude Pro\u002FMax**（Anthropic）和 **ChatGPT Plus\u002FPro**（OpenAI）的 OAuth 认证，由 [ccproxy](https:\u002F\u002Fgithub.com\u002FCaddyGlow\u002Fccproxy-api) 提供支持。订阅用户无需管理 API 密钥，即可运行完整的科研工作流。\n\n- `anthropic_auth_mode: oauth` — 使用您的 Claude 订阅进行认证\n- `openai_auth_mode: oauth` — 使用您的 ChatGPT 订阅进行认证\n- ccproxy 会由 CLI 自动启动和停止，无需手动管理进程\n- 引导向导将以交互方式帮助您完成两种认证模式的配置\n\n---\n\n### 🤝 人机协作与 `ask_user`\n\n两种相辅相成的交互原语为研究人员提供了有意义的控制点：\n\n- **HITL 行动审批** — 代理会在执行 Shell 命令前暂停；您可以批准、拒绝，或为当前会话选择“全部批准”。该功能适用于 Rich CLI、TUI 和各类消息通道界面。还可配置 `shell_allow_list`，以自动批准可信命令。\n- **`ask_user` 工具** — 当代理遇到歧义时，会主动提出澄清问题：“您指的是 CIFAR-10 数据集还是 ImageNet 数据集？”、“使用 PyTorch 还是 JAX？” CLI 和 TUI 中均提供交互式组件；同时具备通道感知能力，可通过消息总线发送提示。\n\n---\n\n### 🚀 无头服务模式\n\n```bash\nEvoSci serve                   # 轮询通道队列，通过代理处理任务\nEvoSci serve --auto-approve    # 跳过 HITL 提示\nEvoSci serve --no-thinking     # 禁用思考中继\n```\n\n可将 EvoScientist 部署为无头守护进程——仅通过消息通道接收任务，不提供交互式提示。此模式专为服务器环境设计，在这些环境中，研究人员可通过 Telegram、Slack、飞书等平台与系统互动。\n\n---\n\n### 🖥️ TUI 与 CLI 改进\n\n- **`\u002Fcompact`** — 概括对话历史以释放上下文空间，同时保留关键发现\n- **线程选择器** — 内嵌线程选择组件，可在不退出 TUI 的情况下切换会话\n- **流式最终帧** — 所有工具调用的结果都会在生成后展开到一个整洁、持久的最终帧中，避免闪现后再清空的情况\n- **统一差异显示** — `edit_file` 的结果以可读的统一差异格式呈现\n- **Token 使用情况** — 每轮对话都会显示 `[使用量：X 入 · Y 出]`，颜色分别为青色和绿色，同时适用于 CLI 和 TUI\n- **历史自动补全** — TUI 输入框可根据命令历史自动补全\n- **超时恢复** — 当 Shell 超时时，系统会输出可操作的指导信息（如后台执行、查看日志尾部、减少负载），而非直接返回裸露的退出码 124\n\n---\n\n### 🧠 新增模型\n\n| 提供商 | 新增 |\n|----------|-------|\n| Ollama | 一流的接入支持","2026-03-17T02:04:09",{"id":165,"version":166,"summary_zh":167,"released_at":168},145002,"v0.0.1","# EvoScientist v0.0.1 — 自我进化型 AI 科学家首次发布\n\n我们很高兴地宣布 **EvoScientist** 的首个公开版本——一个用于自动化科学实验与发现的多智能体 AI 系统。🔬🚀\n\nEvoScientist 不再局限于传统的“人机协作”模式，而是采用了“人在环路”的范式：AI 作为科研伙伴，与人类研究人员共同进化，并逐步内化学术品味与科学判断力。\n\n---\n\n## ✨ 包含内容\n\n- 🤖 **多智能体团队** — 由 DeepAgents + LangGraph 协调的6个专业子智能体（规划者、研究员、编码员、调试器、分析员、撰稿员）\n- 🧠 **持久化记忆** — 上下文、研究发现及学术品味可在不同会话间持续保留\n- 🌐 **7家大模型提供商** — Anthropic、OpenAI、Google GenAI、NVIDIA、SiliconFlow、OpenRouter、Ollama — 一套配置即可无缝切换\n- 📱 **10种沟通渠道** — CLI 作为中枢；Telegram、Slack、飞书、微信、iMessage 等 — 一个智能体，覆盖所有平台\n- 🔬 **科学工作流** — 数据接入 → 计划制定 → 实验执行 → 结果评估 → 文章撰写 → 结果验证\n- 🔌 **MCP 与技能** — 可随时接入 MCP 服务器或从 GitHub 安装插件式技能\n- 🧬 **EvoSkills 生态系统** — 10项贯穿科研全生命周期的技能，涵盖从创意构思到实验设计、论文写作及知识存储的完整流程\n\n---\n\n## 🚀 快速入门\n\n```bash\npip install EvoScientist\nEvoSci onboard\nEvoSci\n```\n\n---\n\n**人在环路中，AI 在实验室里，科学不断进化。** 🔄\n\n## 变更内容\n* 修复（onboard）：将旧版“文本”值映射至“TUI”，作为 UI 后端默认选项，由 @xiaohuiyan 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F21 中完成\n* 修复\u002Fonboard 渠道自动安装功能，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F22 中完成\n* 修复：渠道无法向用户提问的问题，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F23 中解决\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fcompare\u002Fv.0.0.1-rc.1...v0.0.1","2026-03-13T19:39:38",{"id":170,"version":171,"summary_zh":172,"released_at":173},145003,"v.0.0.1-rc.1","嘎迪，老铁！👋  \nEvoScientist 的首个 RC 版本上线啦——你的自我进化型 AI 科学家刚刚从 Alpha 阶段毕业，正式进军顶级赛场了！🔬  \n特别鸣谢 @EvoScientist\u002Fevoscientist 🚀\n\n## 变更内容\n* feat(models): 增加来自智谱 API 的 glm-5 和 glm-4.7 模型（支持代码规划功能），由 @xiaohuiyan 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F19 中完成。\n\n## 新贡献者\n* @xiaohuiyan 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F19 中完成了首次贡献。\n\n**完整变更日志**: https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fcompare\u002Fv.0.0.1-bate...v.0.0.1-rc.1","2026-03-08T18:24:08",{"id":175,"version":176,"summary_zh":177,"released_at":178},145004,"v.0.0.1-bate","G'day mate! 👋                                                                                                                  \r\nEvoScientist 的首个测试版已发布——你的自我进化型 AI 科学家刚刚学会了一堆新技能。🧪            \n特别感谢 @EvoScientist\u002Fevoscientist 🚀\n\n## 变更内容\n* 添加 `--name\u002F-n` 标志，用于为运行工作区命名，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F5 中实现。\n* 功能（引导）：禁用已配置的 MCP 服务器，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F6 中实现。\n* 为 MCP 工具过滤添加通配符支持，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F7 中实现。\n* 功能\u002F频道统一：实现支持多平台的统一频道架构，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F8 中实现。\n* 功能（频道）：添加支持 Telegram 和 Disco… 的统一频道框架，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F10 中实现。\n* 修复导致代理循环崩溃的工具执行错误，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F11 中实现。\n* 功能\u002F频道：支持 Slack 和 WeChat，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F12 中实现。\n* 添加钉钉和飞书支持，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F13 中实现。\n* 功能（evosci）：将工具错误处理中间件注入子代理，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F14 中实现。\n* 功能\u002F频道：支持电子邮件、QQ 和 Signal，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F15 中实现。\n* 修复（频道）：关键的异步、清理及性能问题，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F16 中实现。\n* 错误修复，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F17 中实现。\n* 使用 uv 进行依赖管理，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F18 中实现。\n\n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fcompare\u002Fv0.0.1-alpha.1...v.0.0.1-bate","2026-02-24T22:54:31",{"id":180,"version":181,"summary_zh":182,"released_at":183},145005,"v0.0.1-alpha.1","G’day mate! 👋  \n**EvoScientist** 的首个 Alpha 版本上线啦——这是一款能够自我进化的 AI 科学家，助力科学发现。🤖  \n特别感谢 @EvoScientist\u002Fevoscientist 🚀  \n## 变更内容\n* 修复：在交互模式下交替发送消息时出现的事件循环已关闭错误，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F2 中完成  \n* 新增：支持 Google GenAI（Gemini），由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F3 中实现  \n* 功能新增：集成 iMessage 通道，并支持思考逻辑与防抖处理，由 @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F1 中完成  \n* 支持 MCP 客户端，由 @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F4 中实现  \n\n## 新贡献者\n* @din0s 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F2 中完成了首次贡献  \n* @MuXinCG2004 在 https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fpull\u002F1 中完成了首次贡献  \n\n**完整变更日志**：https:\u002F\u002Fgithub.com\u002FEvoScientist\u002FEvoScientist\u002Fcommits\u002Fv0.0.1-alpha.1","2026-02-09T15:50:51"]