evo.ninja
evo.ninja 是一款灵活通用的 AI 智能体,能够根据用户提出的具体任务实时调整自身策略。它主要解决了传统 AI 助手在面对复杂、多步骤问题时缺乏针对性专业能力的痛点,通过动态切换不同领域的“专家人格”来高效达成目标。
这款工具非常适合开发者、数据分析师、研究人员以及需要处理跨领域任务的普通用户。无论是需要从文本中提炼报告、分析 CSV 数据洞察趋势、在互联网上检索信息,还是构建复杂的 Python 软件项目,evo.ninja 都能游刃有余地应对。
其核心技术亮点在于独特的“执行循环”机制。在任务处理过程中,evo.ninja 会不断预测最佳下一步骤,并从预设的专家库(如合成器、CSV 分析师、研究员和开发者)中选择最匹配的角色接管任务。同时,它能智能筛选历史对话上下文,仅保留最关键信息用于决策,确保每次行动都精准指向用户目标。这种自适应架构让 evo.ninja 不再是一个单一的聊天机器人,而是一个能随需而变的全能型数字助手。用户既可以通过网页界面直观操作,也能利用命令行工具将其集成到开发工作流中,轻松开启自动化任务之旅。
使用场景
一位数据分析师需要快速完成一份包含网络竞品调研、本地销售 CSV 数据清洗及最终趋势报告生成的复杂任务。
没有 evo.ninja 时
- 工具切换繁琐:需手动在浏览器搜索竞品信息,再切换到 Python 编辑器编写脚本处理 CSV 文件,最后用文档工具撰写报告,上下文频繁断裂。
- 技能门槛限制:若分析师不精通 Python 或特定数据处理库,清洗复杂数据和计算关键指标时极易出错或耗时良久。
- 信息整合困难:网络获取的非结构化文本与本地结构化表格数据难以自动关联,人工复制粘贴容易导致数据不一致。
- 流程中断风险:一旦中间某个环节(如代码报错或搜索关键词不准)卡住,整个任务链条停滞,需人工介入调试。
使用 evo.ninja 后
- 自主角色调度:evo.ninja 自动识别任务阶段,依次调用"Researcher"联网抓取竞品动态,"Csv Analyst"精准提取销售数据,"Synthesizer"汇总生成报告,全程无需人工干预。
- 实时自适应执行:遇到复杂的计算需求时,evo.ninja 自动激活"Developer" persona 编写并运行 Python 代码解决难题,弥补用户技能短板。
- 上下文智能串联:evo.ninja 在执行循环中自动保留关键历史信息,将网络调研结论与本地数据分析结果逻辑互通,确保报告观点有据可依。
- 闭环自动交付:从目标输入到最终报告生成,evo.ninja 持续迭代直到确认任务完成,即使中途出现异常也能自动调整策略继续执行。
evo.ninja 通过动态切换专家角色,将原本割裂的多步骤工作流转化为一个自主闭环的智能代理过程,极大提升了复杂任务的交付效率。
运行环境要求
- 未说明
未说明
未说明

快速开始

Discord | 为这个仓库点赞!
欢迎!
要开始使用 evo.ninja,只需访问我们的网站,或者按照这些设置说明从源代码构建并运行。

需要帮助吗?
加入我们的Discord 社区,获取支持和参与讨论。
如果您有任何问题或遇到困难,请随时创建新 issue 以获得支持。
工作原理
evo.ninja 的特别之处在于,它能够根据当前的任务实时调整自身行为。evo 使用预定义的代理角色,这些角色针对特定领域的任务进行了优化。在每次执行循环中,evo 都会根据当前任务选择最合适的代理角色来完成目标。
代理角色
| 代理 | 专长 |
|---|---|
| 📝合成器 | “读取文本文件,分析并收集其中的数据和信息,生成摘要和报告,并对文本进行分析。” |
| #️⃣ CSV 分析师 | “擅长读取 CSV 文件,搜索数据、提取关键点、计算数值,并从 CSV 文件中得出洞察。” |
| 🌐 研究员 | “在互联网上搜索、理解细节并查找信息。” |
| 💻 开发者 | “架构并构建复杂软件,专注于 Python。” |
执行循环

- 预测下一步: 在每次执行循环中,evo 首先会基于现有信息做出关于最佳下一步的判断。
- 选择最佳代理: 根据这一判断,evo 会选择一个最适合当前任务的代理角色。
- 上下文化聊天记录: 基于第一步的预测和第二步选定的代理角色,整个聊天记录会被“上下文化”,只保留最相关的信息用于最后的评估步骤。
- 评估与执行: 最后一步会对当前情况做最终评估,以确定应调用哪个代理功能来进一步实现用户的目标。
这四个步骤会不断循环执行,直到确认用户的任务已经完成为止。
设置
先决条件
请安装以下工具:
安装
- 克隆仓库
git clone https://github.com/agentcoinorg/evo.ninja - 复制
.env.template文件并重命名为.env。cp .env.template .env - 找到包含
OPENAI_API_KEY=的行,填入您唯一的 OpenAI API 密钥。OPENAI_API_KEY=sk-... - 找到包含
SERP_API_KEY=的行,填入您的唯一 SERP API 密钥。SERP_API_KEY=b071...(详情请参见 https://serpapi.com) - 使用正确的 Node.js 版本
nvm install && nvm use如果是全新的 Node.js 环境,请安装 Yarn:npm install -g yarn - 安装所有依赖并构建项目
yarn && yarn build
现在您已经准备就绪!可以通过命令行界面或用户界面运行 evo。
命令行界面
在终端中运行 evo:
yarn start
参数:
[goal]- 要达成的目标
选项:
-s, --session <name>-./sessions/...目录下的会话名称。-t, --timeout <seconds>- 设置超时时间,超过指定秒数后将终止进程。-d, --debug- 在./sessions/${session}/.evo/...目录下输出调试日志。
会话工作区
当 evo.ninja 命令行界面启动后,会创建一个 ./sessions 目录,其中包含多个命名会话。这是代理的根目录,代理只会读写该目录内的文件。每个会话工作区中都会有一个 .evo/ 目录,用于存放内部日志,其中包括一个 chat.md 文件,提供代理输出的 Markdown 格式版本。使用 --debug 选项可以在该目录中获取原始的调试日志。
用户界面
UI 依赖于 Supabase 数据库。要在本地运行 UI,您需要安装并运行 Docker Desktop。
- 确保您已按照上述安装步骤操作。
- 进入
cd apps/browser。 - 运行
yarn db:start- 这可能需要大约 3 分钟,因为系统会下载 Supabase 所需的所有镜像。 - 根据第 2 步的输出更新
.env.local文件中的值:NEXT_PUBLIC_SUPABASE_URL将显示为API URL。SUPABASE_SERVICE_ROLE_KEY将显示为service_role key。
- 运行 UI:
yarn dev
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
gemini-cli
gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
