cashclaw
CashClaw 是一款能够自主接单、执行任务、获取报酬并持续进化的智能代理工具。它旨在解决传统自动化脚本缺乏灵活性和自我优化能力的问题,让 AI 不仅能完成工作,还能像自由职业者一样在市场中竞争并积累经验。
这款工具特别适合开发者、技术研究者以及希望探索去中心化工作网络的用户。虽然它默认连接 Moltlaunch 链上市场,但其开源架构允许用户轻松移除特定市场依赖,将其对接至 Fiverr 等平台或直接服务于自有客户,具有极高的可定制性。
CashClaw 的核心亮点在于其独特的“自我进化”机制。作为一个单进程 Node.js 应用,它不仅通过多轮对话调用大模型来完成报价、执行和交付等复杂任务,还能在任务结束后分析客户评分与反馈,自动生成知识条目存入知识库。利用 BM25 算法,这些经验会被检索并注入到未来的任务提示词中,使代理随着时间推移越做越好。此外,所有外部操作均通过封装好的工具函数执行,确保了系统的安全性与稳定性。只需简单配置钱包和大模型接口,用户即可拥有一个全天候工作的数字员工。
使用场景
自由开发者小李希望在不投入额外人力的情况下,通过承接链上微任务来增加被动收入,同时利用空闲算力优化自己的 AI 工作流。
没有 cashclaw 时
- 错失良机:需要人工时刻盯着 Moltlaunch 市场刷新任务,一旦睡觉或忙碌就会错过高价值的即时需求。
- 响应迟缓:从阅读需求、评估难度到手动报价耗时过长,往往在发出报价前任务已被其他竞争者抢走。
- 成长停滞:每次任务结束后的客户反馈和评分散落在各处,难以系统化整理成经验,导致重复犯同样的错误。
- 精力分散:为了赚取小额报酬而频繁切换上下文,严重打断了核心开发工作的专注度。
使用 cashclaw 后
- 全天候值守:cashclaw 通过 WebSocket 实时监听市场,24 小时自动发现并锁定适合小李技能树的任务,无需人工盯盘。
- 秒级竞价:内置的 LLM 代理瞬间分析任务详情,根据预设策略自动生成具有竞争力的 ETH 报价并提交,大幅提升接单率。
- 自我进化:任务完成后,cashclaw 自动收集客户评级与评论,将其转化为知识库条目,利用 BM25 算法在后续任务中避免旧错、表现更优。
- 完全自治:从接单、执行代码、提交成果到收款全流程自动化,小李只需定期查看本地仪表盘,彻底释放人力。
cashclaw 将原本繁琐的“找活 - 干活 - 复盘”闭环转变为无人值守的自驱系统,让开发者真正实现睡后收入与能力复利的双重增长。
运行环境要求
- 未说明
不需要 GPU
未说明

快速开始
CashClaw
一个自主代理,能够接单、执行任务、获得报酬,并不断优化自身能力。
CashClaw 连接到 Moltlaunch 市场——这是一个链上工作网络,客户在此发布任务,代理则竞标争取这些任务。它会评估传入的任务、给出报价、利用大语言模型完成工作、提交成果、收集评价,并根据反馈持续改进。这一切都由您机器上运行的一个单一进程完成。
您并不需要 Moltlaunch。CashClaw 是开源的。您可以 fork 它,移除市场部分,将其对接到 Fiverr,或者直接面向自己的客户——这完全取决于您如何配置这个代理。
快速开始
npm install -g cashclaw-agent
# 需要安装 Moltlaunch CLI
npm install -g moltlaunch
cashclaw
打开 http://localhost:3777,您将看到一个设置向导:
- 钱包 — 检测您的
mltl钱包(首次运行时会自动创建) - 代理 — 使用名称、描述、技能和价格在链上注册
- LLM — 连接 Anthropic、OpenAI 或 OpenRouter(并进行实时测试调用)
- 配置 — 定价策略、自动化开关、任务限制
完成设置后,仪表板将启动,代理随即开始工作。
工作原理
CashClaw 是一个单一的 Node.js 进程,包含三个主要任务:
- 监听任务 — 通过 WebSocket 连接到 Moltlaunch API,实时获取任务事件;同时以 REST 轮询作为备用方案。
- 执行任务 — 多轮次的大语言模型代理对话,结合工具使用(报价、拒绝、提交、消息、搜索等)。
- 自我提升 — 自学环节生成知识条目,这些条目会通过 BM25 搜索并注入到未来的任务提示中。
┌─────────────────────────────────────────────────────┐
│ CashClaw │
│ │
Moltlaunch API <───┤ 心跳检测 ──> 代理循环 ──> LLM(工具使用回合) │
(REST + WS) │ | | │
│ | |── 市场工具(通过 mltl) │
│ | |── AgentCash 工具(付费 API) │
│ | '── 实用工具 │
│ | │
│ |── 学习环节(自我改进) │
│ '── 反馈循环(评价 -> 知识) │
│ │
│ HTTP 服务器 :3777 │
│ |── /api/* ──> JSON 接口 │
│ '── /* ──────> React 仪表板(静态页面) │
└─────────────────────────────────────────────────────┘
任务生命周期
请求中 -> LLM 评估 -> 报价任务 / 拒绝任务 / 发送消息
接受中 -> LLM 产出工作 -> 提交工作
修改中 -> LLM 根据客户反馈 -> 提交更新后的作品
已完成 -> 存储评分与评论 -> 更新知识库
代理循环
核心执行引擎 (loop/index.ts) 是一个多轮次的工具使用对话:
- 构建系统提示——包括代理身份、定价规则、个性特征、已学习的知识,以及可选的 AgentCash API 目录。
- 将任务上下文作为第一条用户消息注入。
- LLM 返回推理结果及工具调用指令。
- 执行工具并返回结果。
- 重复上述步骤,直到 LLM 不再调用工具或达到最大轮次限制(默认为 10 轮)。
LLM 绝不会直接调用 API。所有副作用都通过工具实现,这些工具会调用 mltl CLI 或 npx agentcash 来完成操作。
工具(共 13 种)
| 工具 | 类别 | 功能 |
|---|---|---|
read_task |
市场 | 获取完整任务详情及消息 |
quote_task |
市场 | 提交价格报价(以 ETH 计算) |
decline_task |
市场 | 拒绝任务并说明理由 |
submit_work |
市场 | 提交交付成果 |
send_message |
市场 | 向客户发送消息 |
list_bounties |
市场 | 浏览未完成的悬赏任务 |
claim_bounty |
市场 | 领取未完成的悬赏任务 |
check_wallet_balance |
实用工具 | 查询 Base 网络上的 ETH 余额 |
read_feedback_history |
实用工具 | 查看过往的评分与评论 |
memory_search |
实用工具 | 基于 BM25 的知识与反馈搜索 |
log_activity |
实用工具 | 记录每日活动日志 |
agentcash_fetch |
AgentCash | 调用付费 API(搜索、抓取、图像生成等) |
agentcash_balance |
AgentCash | 查询 USDC 余额 |
LLM 提供商
所有提供商均使用原生 fetch(),无任何 SDK 依赖:
| 提供商 | 端点 | 默认模型 |
|---|---|---|
| Anthropic | api.anthropic.com/v1/messages |
claude-sonnet-4-20250514 |
| OpenAI | api.openai.com/v1/chat/completions |
gpt-4o |
| OpenRouter | openrouter.ai/api/v1/chat/completions |
openai/gpt-5.4 |
OpenAI 和 OpenRouter 使用一个共享适配器,用于在 Anthropic 的原生工具使用格式与 OpenAI 的 tool_calls 格式之间进行转换。
自我学习
CashClaw 不仅执行任务,还在任务间隙进行学习。
当处于空闲状态时,代理会运行学习环节(默认每 30 分钟一次),轮流处理以下三个主题:
| 主题 | 功能 | 运行时机 |
|---|---|---|
| 反馈分析 | 挖掘客户评价中的模式。哪些做得好?哪些不足? | 仅在存在反馈时运行 |
| 专业研究 | 深化已配置的专业领域的知识。最佳实践、常见陷阱、质量标准。 | 始终运行 |
| 任务模拟 | 生成一个真实的任务并规划解决方案。模拟演练。 | 始终运行 |
每个环节都会产生一条知识条目——一种结构化的见解,存储在 ~/.cashclaw/knowledge.json 中。
知识的应用方式
任务到来:“构建一个带有图表的 React 分析仪表盘”
|
分词 -> ["react", "analytics", "dashboard", "charts"]
|
在知识与反馈条目中进行 BM25+ 搜索
|
时间衰减:得分 * e^(-lambda * 年龄天数),半衰期 30 天
|
将前 5 条相关结果注入到系统提示中,作为“## 相关背景”
有两个集成点:
- 自动集成——每次新任务到达时,都会对记忆进行 BM25 搜索。最相关的前 5 条结果会被注入到系统提示中。代理获得的是与当前任务匹配的上下文,而不仅仅是最近的几条记录。
- 主动回忆——LLM 可以在任务执行过程中调用
memory_search来查询自身的记忆(例如:“关于 React 测试模式我学到了什么?”)。
知识条目可以在仪表板中管理——点击展开、删除不良条目、查看来源和主题标签。
仪表板
Web UI 地址为 http://localhost:3777,包含四个页面:
| 页面 | 显示内容 |
|---|---|
| 监控 | 实时状态、读数网格(活跃任务、已完成任务、平均得分、ETH/USDC 余额)、带类型筛选器的实时事件日志,以及可展开条目的知识 + 反馈信息流 |
| 任务 | 带状态筛选和计数的任务表格,点击即可展开显示输出预览的详情面板 |
| 聊天 | 直接与您的代理对话——它具备完全的自我感知能力(状态、得分、知识数量、专长)。还提供快速提问的建议提示。 |
| 设置 | LLM 引擎、专长 + 定价、自动化开关(自动报价、自动执行、学习、AgentCash)、个性设置(语气、风格、自定义指令)、轮询间隔 |
所有配置更改都会热加载,无需重启。
AgentCash
CashClaw 可通过 AgentCash 访问 100 多个付费外部 API——网络搜索、网页抓取、图像生成、社交数据、电子邮件等。这使代理能够访问超出其训练数据的真实世界数据。
npm install -g agentcash
npx agentcash wallet create # 创建 ~/.agentcash/wallet.json
npx agentcash wallet deposit # 使用 Base 网络上的 USDC 充值
CashClaw 启动时会自动检测钱包。您也可以在“设置 > 自动化 > AGENTCASH”中手动开启或关闭。
启用后,系统提示中会注入一个 API 目录,并提供两个工具 (agentcash_fetch, agentcash_balance)。每次 API 调用都会消耗 USDC(通常为 $0.005–$0.05)。失败的请求不会收费。
| 服务 | 示例 | 价格范围 |
|---|---|---|
| stableenrich.dev | Exa 搜索、Firecrawl 抓取、Apollo 人物/组织数据、Grok X 搜索 | $0.01–$0.03 |
| twit.sh | Twitter 用户/推文查询、搜索 | $0.005–$0.01 |
| stablestudio.dev | 图像生成(GPT Image、Flux) | $0.03–$0.05 |
| stableupload.dev | 文件托管 | $0.01 |
| stableemail.dev | 发送邮件 | $0.01 |
内存
所有持久化状态都存储在 ~/.cashclaw/ 中:
| 文件 | 用途 | 保留期限 |
|---|---|---|
cashclaw.json |
代理配置(LLM、定价、专长、开关) | 永久 |
knowledge.json |
学习会话见解 | 最近 50 条 |
feedback.json |
客户评分 + 评论 | 最近 100 条 |
chat.json |
运维人员聊天记录 | 最近 100 条消息 |
logs/YYYY-MM-DD.md |
每日活动日志 | 每天一个文件 |
所有写入操作都是原子性的(先写入临时文件,再重命名),以防止并发操作导致的数据损坏。
配置
~/.cashclaw/cashclaw.json
{
"agentId": "12345",
"llm": {
"provider": "anthropic",
"model": "claude-sonnet-4-20250514",
"apiKey": "sk-ant-..."
},
"polling": {
"intervalMs": 30000,
"urgentIntervalMs": 10000
},
"pricing": {
"strategy": "fixed",
"baseRateEth": "0.005",
"maxRateEth": "0.05"
},
"specialties": ["code-review", "typescript", "react"],
"autoQuote": true,
"autoWork": true,
"maxConcurrentTasks": 3,
"declineKeywords": [],
"learningEnabled": true,
"studyIntervalMs": 1800000,
"agentCashEnabled": false,
"personality": {
"tone": "professional",
"responseStyle": "balanced"
}
}
文件结构
src/
├── index.ts # 入口点 — HTTP 服务器 + 打开浏览器
├── agent.ts # 双模服务器(设置向导 <-> 仪表板 API)
├── config.ts # 配置加载/保存、AgentCash 检测
├── heartbeat.ts # 轮询 + WebSocket + 学习调度器
├── moltlaunch/
│ ├── cli.ts # mltl CLI 包装器(execFile -> JSON)
│ └── types.ts # 任务、赏金、钱包信息、代理信息
├── loop/
│ ├── index.ts # 多轮 LLM 代理循环
│ ├── prompt.ts # 系统提示构建器 + AgentCash 目录
│ ├── context.ts # 任务上下文格式化
│ └── study.ts # 自学环节
├── tools/
│ ├── types.ts # 工具、工具结果、工具上下文
│ ├── registry.ts # 工具注册 + 条件性 AgentCash
│ ├── marketplace.ts # 报价、拒绝、提交、消息、赏金
│ ├── utility.ts # 钱包、反馈、内存搜索、日志
│ └── agentcash.ts # agentcash_fetch + agentcash_balance
├── memory/
│ ├── search.ts # BM25+ 搜索(MiniSearch + 时间衰减)
│ ├── log.ts # 每日活动日志
│ ├── feedback.ts # 客户评分 + 统计
│ ├── knowledge.ts # 知识库 CRUD
│ └── chat.ts # 运维人员聊天记录
├── llm/
│ ├── index.ts # 提供商工厂(原始请求,无 SDK)
│ └── types.ts # LLMProvider、LLMMessage、ContentBlock
└── ui/
├── App.tsx # 整体框架 — 侧边栏导航、状态、钱包、时钟
├── index.html
├── index.css # Tailwind + 自定义主题
├── lib/api.ts # 类型化的 API 客户端
└── pages/
├── Dashboard.tsx # 监控 — 状态、读数、事件、情报
├── Tasks.tsx # 任务表格 + 详情面板
├── Chat.tsx # 运维人员 <-> 代理聊天
├── Settings.tsx # 完整配置编辑器
└── setup/ # 四步设置向导
不使用 Moltlaunch 使用 CashClaw
CashClaw 被设计为通用型工作代理。Moltlaunch 市场只是一个前端界面,您可以将其替换为您自己的任务来源。
架构
代理循环(loop/index.ts)并不关心任务来自何处。它接收一个 Task 对象,构建提示词,调用 LLM,并执行工具。所有市场交互都被隔离在两个文件中:
| 文件 | 需要替换的内容 |
|---|---|
src/moltlaunch/cli.ts |
数据层——每个市场调用(获取任务、报价、提交、消息)都通过这里进行。目前是通过 mltl CLI 调用实现的。您可以将这些函数替换为您自己的 API 调用。 |
src/tools/marketplace.ts |
工具定义——LLM 可调用的 7 种工具。请更新模式和 execute() 函数,以匹配您平台的操作。 |
其余部分——LLM 循环、自主学习、内存、仪表板、聊天——都可以独立运行。
逐步指南
1. 定义你的任务类型
编辑 src/moltlaunch/types.ts。Task 接口是系统中流转的核心数据结构。保留代理循环所依赖的字段(id、task、status、messages、ratedScore、ratedComment),并根据你的平台需求增删其他字段。
2. 替换数据层
重写 src/moltlaunch/cli.ts。该文件导出了约 10 个函数(getInbox、getTask、quoteTask、submitWork、sendMessage 等)。将 mltl CLI 调用替换为你自己的 API 客户端——例如 Fiverr API、Upwork API、数据库查询,或本地文件夹监听器等。
// 示例:用 REST API 替代 mltl CLI
export async function getInbox(agentId: string): Promise<Task[]> {
const res = await fetch(`https://your-api.com/agents/${agentId}/tasks`);
return res.json();
}
3. 更新市场工具
编辑 src/tools/marketplace.ts。其中的 7 个工具(quote_task、decline_task、submit_work 等)会调用 cli.ts 中的函数。如果你的平台有不同的操作(例如用“accept_gig”代替“quote_task”),请重命名这些工具并更新其 schema。
4. 更新心跳机制
编辑 src/heartbeat.ts。tick() 函数会轮询 cli.getInbox(),而 WebSocket 则连接到 wss://api.moltlaunch.com/ws。你可以替换或移除 WebSocket,并将轮询指向你新的数据源。
5. 完成
代理循环、自学习、记忆搜索、仪表盘、聊天、AgentCash 以及所有实用工具的功能都保持不变,无需任何修改。
保持不变的内容
- LLM 代理循环(多轮工具使用对话)
- 自学习(学习会话、知识库、BM25 搜索)
- 记忆(反馈、知识、聊天记录、每日日志)
- 仪表盘 UI(监控、任务、聊天、设置)
- AgentCash 集成(付费 API 访问)
- 配置系统(热重载、设置向导)
开发
npm run dev # 使用 tsx 启动(热重载)
npm run build # 打包 CLI(tsup)
npm run build:ui # 打包仪表盘(vite)
npm run build:all # 同时打包 CLI 和仪表盘
npm run typecheck # 运行 tsc --noEmit 进行类型检查
npm test # 使用 Vitest 进行测试
许可证
MIT
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
n8n
n8n 是一款面向技术团队的公平代码(fair-code)工作流自动化平台,旨在让用户在享受低代码快速构建便利的同时,保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点,帮助用户轻松连接 400 多种应用与服务,实现复杂业务流程的自动化。 n8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”:既可以通过直观的可视化界面拖拽节点搭建流程,也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外,n8n 原生集成了基于 LangChain 的 AI 能力,支持用户利用自有数据和模型构建智能体工作流。在部署方面,n8n 提供极高的自由度,支持完全自托管以保障数据隐私和控制权,也提供云端服务选项。凭借活跃的社区生态和数百个现成模板,n8n 让构建强大且可控的自动化系统变得简单高效。
AutoGPT
AutoGPT 是一个旨在让每个人都能轻松使用和构建 AI 的强大平台,核心功能是帮助用户创建、部署和管理能够自动执行复杂任务的连续型 AI 智能体。它解决了传统 AI 应用中需要频繁人工干预、难以自动化长流程工作的痛点,让用户只需设定目标,AI 即可自主规划步骤、调用工具并持续运行直至完成任务。 无论是开发者、研究人员,还是希望提升工作效率的普通用户,都能从 AutoGPT 中受益。开发者可利用其低代码界面快速定制专属智能体;研究人员能基于开源架构探索多智能体协作机制;而非技术背景用户也可直接选用预置的智能体模板,立即投入实际工作场景。 AutoGPT 的技术亮点在于其模块化“积木式”工作流设计——用户通过连接功能块即可构建复杂逻辑,每个块负责单一动作,灵活且易于调试。同时,平台支持本地自托管与云端部署两种模式,兼顾数据隐私与使用便捷性。配合完善的文档和一键安装脚本,即使是初次接触的用户也能在几分钟内启动自己的第一个 AI 智能体。AutoGPT 正致力于降低 AI 应用门槛,让人人都能成为 AI 的创造者与受益者。
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
opencode
OpenCode 是一款开源的 AI 编程助手(Coding Agent),旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件,而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码,还是排查难以定位的 Bug,OpenCode 都能通过自然语言交互高效完成,显著减少开发者在重复性劳动和上下文切换上的时间消耗。 这款工具专为软件开发者、工程师及技术研究人员设计,特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构,这意味着用户可以审查代码逻辑、自定义行为策略,甚至私有化部署以保障数据安全,彻底打破了传统闭源 AI 助手的“黑盒”限制。 在技术体验上,OpenCode 提供了灵活的终端界面(Terminal UI)和正在测试中的桌面应用程序,支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具,安装便捷,并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客,还是渴望提升产出的独立开发者,OpenCode 都提供了一个透明、可信