app-platform

GitHub
1.4k 232 较难 1 次阅读 昨天MITAgent开发框架图像
AI 解读 由 AI 自动生成,仅供参考

AppPlatform 是一款专为大模型应用打造的前沿工程平台,致力于通过声明式编程与低代码配置,简化从概念设计到最终部署的全流程开发工作。它有效解决了传统 AI 应用开发中代码门槛高、多模型协同复杂以及流程编排困难等痛点,让构建具备复杂交互功能的智能应用变得更加高效便捷。

该平台非常适合软件工程师与产品经理协作使用:技术人员可基于其插件化架构和强大的算子调度能力进行深度定制,而产品人员则能利用直观的图形化界面轻松完成应用的创建、编排与调试,无需深究底层代码细节。

AppPlatform 的技术亮点在于其独特的“组件即工具”理念,将函数、RAG 或智能体等统一存储为可复用的标准组件,支持跨项目灵活组合。后端依托 FIT 与 Waterflow 框架实现高效调度,前端则结合 React 与 Elsa 图形引擎提供流畅的可视化体验。无论是快速原型验证还是企业级复杂场景落地,AppPlatform 都能提供一个强大且可扩展的开发环境。

使用场景

某电商公司的产品团队急需上线一个“智能售后助手”,需整合订单查询、退换货政策检索及情感分析多个能力,以应对大促期间激增的用户咨询。

没有 app-platform 时

  • 开发门槛高且协作难:产品经理无法直接参与逻辑构建,必须依赖后端工程师将业务需求转化为复杂的 Python 或 Java 代码,沟通成本极高且迭代缓慢。
  • 多模型串联复杂:若要同时调用订单系统的 API、RAG 知识库和情绪识别模型,工程师需手动编写大量胶水代码处理数据格式转换,调试流程极其繁琐。
  • 复用性差:每次新增类似功能(如售前咨询)时,之前的代码逻辑难以直接复用,导致重复造轮子,无法形成统一的资产沉淀。

使用 app-platform 后

  • 低代码可视化编排:产品经理可直接在 app-platform 的图形界面上拖拽组件,通过声明式配置将订单查询、知识库检索等节点串联,无需深入代码即可独立完成应用原型。
  • 高效调度与调试:利用 app-platform 内置的 Waterflow 引擎,系统自动处理多模型间的数据流转与异常调度,前端实时反馈运行状态,将原本数天的联调时间缩短至小时级。
  • 资产标准化复用:开发完成的“订单查询”或“情感分析”模块自动存入 app-platform 的 Store 模版库,后续新项目可直接引用这些标准化“工具”,快速组合出新的智能体应用。

app-platform 通过低代码编排与标准化资产复用,将 AI 应用交付周期从周级压缩至天级,真正实现了业务人员与技术团队的高效协同。

运行环境要求

操作系统
  • Windows
  • Linux
GPU

未说明

内存

4GB+

依赖
notes后端基于 Java (JDK 17) 和 FIT 框架开发,前端基于 Node.js 20+ 和 React。推荐使用 Docker Compose 一键部署(需约 3 分钟)。若手动编译启动,Windows 用户需安装 PostgreSQL 14+ 并通过 bash 执行初始化脚本(不支持 cmd);后端开发推荐 IntelliJ IDEA,前端推荐 WebStorm 或 VS Code。手动配置时需将 app-platform 的编译产物与 FIT 框架及 ELSA 引擎的编译产物进行目录合并和配置文件修改。
python未说明
JDK 17
Node.js >= 20
Docker
Docker Compose
PostgreSQL >= 14
Maven >= 3.8.8
FIT Framework (v3.5.5)
Waterflow
Elsa Graph Engine
React
app-platform hero image

快速开始

AppPlatform

AppPlatform 是一个前沿的大模型应用工程,旨在通过集成的声明式编程和低代码配置工具,简化 AI 应用的开发过程。本工程为软件工程师和产品经理提供一个强大的、可扩展的环境,以支持从概念到部署的全流程 AI 应用开发。 License JDK Node

核心架构

  1. AppPlatform 后端模块

    AppPlatform 后端基于 FIT 框架,采用插件化式开发,包含应用管理模块和功能扩展模块。其中应用管理模块为 AppPlatform 的核心模块,用于提供创建、管理、调试、运行和维护 AI 应用,该提供一个高效快捷的方式来开发具有复杂交互功能的 AI 应用。功能扩展模块通过组件节点的方式,丰富流程编排的能力,用户可根据需求自由组合,构建出符合业务逻辑的 AI 应用,该模块为组件节点的底层逻辑实现。应用流程运行基于 Waterflow 框架,方便高效地对流程和数据进行组织和处理。

  2. AppPlatform 前端模块

    AppPlatform 前端采用 React 框架进行开发,基于函数式组件构建,通过模块化设计实现了应用开发,应用市场,智能表单和插件管理等核心功能模块。其中应用开发模块为核心模块,提供可视化界面支持AI应用的完整生命周期管理,包含了应用创建,编排,调试,运行,和发布全流程;智能表单模块可通过 Json Schema 自动渲染可交互表单,与 AI 模型服务集成,实现表单填写与实时推理;插件模块支持开发者上传自定义插件扩展应用工程能力,并提供了插件安装和卸载等功能。此外,前端流程编排还基于 Elsa 图形引擎,Elsa 图形引擎是一款基于原生 JS 打造而成的先进图形处理工具。通过统一的数据格式,可以让图形跨平台跨应用进行展示和协作,为用户提供灵活、高性能的图形渲染与交互能力,适用于复杂可视化场景的开发需求。


关键特性

  1. 低代码图形化界面:产品人员可以通过直观的图形界面创建 AI 应用,而无需深入了解底层代码即可进行高效的编辑和调试。同时支持多模型协同运作,使用户能够根据特定的业务需求,将不同的 AI 模型通过编排整合到同一个应用流程中。
  2. 强大的算子与调度平台:通过 FIT 与 Waterflow 框架,AppPlatform 提供了一个高效、可扩展的后端架构,支持 Java、Python 等多种主流编程语言的算子开发,并通过智能调度实现优化的执行效率。
  3. 共享与协作: AppPlatform 的底层包含 Store 模版,用于将所有开发的 AI 应用统一存储,以此支持跨项目的复用和协作。开发者可以根据需要组合这些应用,打造更大的解决方案,或者利用社区提供的工具和模型。在 AppPlatform 中, AI 应用不仅限于传统意义上的 “应用”,它们可以是 “函数”、“RAG”、“智能体”等任何可解释和可执行的组件。这些组件在 Store 中以 “工具” 的形式展现,其元数据不仅提供了必要的解释,还为智能体自动调度这些工具提供了基础。

快速启动

1. 前置条件

名称 规格
CPU 2+ 核心
CPU 架构 x86
内存 4+ GB
软件 安装 Docker & Docker Compose

2. Docker Compose 启动(拉取镜像以及启动服务时间大约 3 minutes)

克隆项目并进入项目根目录,执行以下命令:/ Clone the repository and enter the project root directory, then run the following commands:

# 用户按需配置环境变量,例如模型名称、基础 URL 和 APIKEY等 / Configure environment variables as needed, including model name, base URL and APIKEY
cp docker/.env.example docker/.env
bash docker/deploy.sh

容器全部 Running 后,浏览器打开 http://localhost:8001 体验

如需修改数据库密码,二次启动前需要删除docker/app-platform-tmp目录

后端快速开发测试

本章节给出快速启动之后,本地快速开发测试的方法。

1. 编译代码

1.1. 全量编译(2 minutes 30 seconds) 编写代码,在项目根目录下,执行以下命令编译:

mvn clean install

1.2. 增量编译(10 seconds) 编写代码,在修改的插件目录下,执行以下命令编译:

mvn clean install

2. 一键部署修改

在项目根目录下,执行以下命令快速部署(3 minutes 30 seconds):

bash docker/dev-app-builder.sh

3. 测试

浏览器打开 http://localhost:8001 测试

前端快速开发测试

本章节给出快速启动之后,本地快速开发测试前端的方法。

1. 编译代码

  1. 构建 agent-flow,在项目根目录下,执行以下命令编译:
cd agent-flow
npm install --legacy-peer-deps --force --registry=https://registry.npmmirror.com
npm run build
npm link
cd -

首次的话,需要执行一次,后续有修改再增量构建执行即可。

  1. 全量编译前端(1 minutes 10 seconds) 编写代码,在项目根目录下,执行以下命令编译:
cd frontend
npm install --legacy-peer-deps --force --registry=https://registry.npmmirror.com
npm run build:prod

2. 一键部署修改

在项目根目录下,执行以下命令快速部署(18 seconds):

cd ..
bash docker/dev-frontend.sh

3. 测试

浏览器打开 http://localhost:8001 测试

源码编译启动

安装数据库

Windows 系统

  • 下载并安装 PostgresSQL支持版本 ≥ 14
  • 初始化数据。进入 shell 目录,使用 bash 工具执行 build_win.sh(当前不支持 cmd 执行,待规划):
cd shell
sh build_win.sh ${ip} ${port} ${username} ${password}

其中参数 ip、port、username、password 分别指的是数据库主机地址、数据库端口、数据用户名、数据库密码。该文件会初始化数据库内置数据,以及人工表单功能所需的数据。

Linux 系统

待规划

后端环境配置

开发环境配置

  • 开发环境:IntelliJ IDEA
  • Java 17
  • 代码格式化文件:CodeFormatterFromIdea.xml
  • Maven 配置:推荐版本 Maven 3.8.8+
  • FIT 框架编译产物:参考 FIT 框架环境配置构建编译产物

构建命令

mvn clean install

输出目录

build/

目录调整

需要将输出目录与 FIT 框架的编译产物结合。将输出目录的 plugins 目录下的所有文件复制到框架输出目录的 plugins 下,将 shared 目录下的所有文件复制到框架输出目录的 shared 下。

另外,需要删除 plugins 目录中如下开头的文件(app-platform 仓扩展了这些机制,已经存在对应的实现。否则会由于存在冲突导致启动失败)

fel-tool-discoverer
fel-tool-executor
fel-tool-repository-simple
fel-tool-factory-repository

后端模块基于 FIT 框架,启动方式采用了 FIT 动态插件 方式。

打开框架输出目录的 conf/fitframework.yml 文件,找到如下配置项

fit:
  beans:
    packages:
    - 'modelengine.fitframework'
    - 'modelengine.fit'

配置本地智能表单路径,首先创建目录.\app-builder\smart_form 此目录可根据实际情况修改,然后copy项目中的 example\app-demo\normal-formsmart-form中的所有内容到上述目录,打包template目录内容template.zip 并复制到smart-form 结果如下所示:

app-builder/
├── smart_form/
│   ├── 6befc536-7e6d-48b5-8dcb-1c4d04ca4e92
│   ├── 17b732c9-5272-42a6-a79d-8d0334a8aa19
│   ├── 7958d851-8062-49bd-b21e-d7372991c905
│   ├── b6255699-2e4f-409f-a578-b87b7435e389
│   ├── e85bd769-0212-4305-b56b-01e77faa14ff
│   ├── temporary
│   └── template.zip

加入数据库配置项,修改后的配置项如下所示:

fit:
  beans:
    packages:
    - 'modelengine.fitframework'
    - 'modelengine.fit'
  datasource:
     primary: 'sample-datasource' # 表示所选用的示例数据源。
     instances:
        sample-datasource:
           mode: 'shared' # 表示该数据源的模式,可选共享(shared)或独占(exclusive)模式。
           url: 'jdbc:postgresql://${ip}:${port}/' # 将 ip 换成数据库服务器的 ip 地址,将 port 换成数据库服务器监听的端口。
           username: '${username}' # 将 username 替换为数据库的名称。
           password: '${password}' # 将 password 替换为数据库的密码。
           druid:
              initialSize: ${initialSize} # 将 initialSize 替换为连接池的初始化连接数。
              minIdle: ${midIdle} # 将 minIdle 替换为连接池的最小空闲连接数。
              maxActive: ${maxActive} # 将 maxActive 替换为数据库连接池的最大活动连接数。
              # 可根据具体需求,添加连接池所需配置项。
app-engine:
   resource:
      path: ${localFormPath} # 配置本地的智能表单根路径,win下如 D:\\app-builder\\
   form:
      path-prefix: ${localFormPath} # 配置本地的智能表单根路径,win下如 D:\\app-builder\\


启动命令

在框架输出目录的 bin 目录下执行启动命令

fit start

这里直接使用了 fit 命令,该命令请参考 fit-framework 项目的指导手册

当前,app-platform 使用了 fit 的 3.5.5 版本,因此,如果采用手动编译,需要在 fit-framework 仓库中切换到 v3.5.5 标签处进行编译构建操作。

调试命令

fit debug

这里的调试命令背后使用了 Java 内置的远程调试命令,通过该技术,可以在进程启动之后,在 IDEA 中绑定启动端口进行远程调试。


前端环境配置

  • 开发环境:WebStormVisual Studio Code

  • 环境要求:node.js >= 20

修改代理文件

修改 frontend 目录下的 proxy.config.json 文件,可以修改需要访问的后端地址。如本地后端地址是 http://127.0.0.1:8080 。可以按照如下示例配置:

{
    "/api": {
       "target": "http://127.0.0.1:8080",
       "secure": false,
       "changeOrigin": true,
       "pathRewrite": {
          "^/api": ""
       }
    }
}

前置准备

构建 agent-flow:

cd agent-flow

npm install
npm run build
npm link

cd -

依赖安装

cd frontend/
npm install

打包构建

package.json 中定义了多种打包脚本,这里以 build:single 为例:

npm run build:single

启动命令

npm run start

联调ELSA配置

  • ELSA 框架编译产物:参考 ELSA 的编译构建章节

修改 ELSA 依赖地址

进入目录 app-platform/frontend ,搜索 package.json 文件的 ELSA 依赖地址:

"dependencies": {
    "@fit-elsa/elsa-core": "file:${fitElsaCoreUrl}",
    "@fit-elsa/agent-flow": "file:${fitElsaReactUrl}",

${fitElsaCoreUrl}${fitElsaReactUrl} 分别改成 ELSA 框架编译产物 fit-elsa-corefit-react 的目录地址即可。


快速开始

模型配置

在对话中使用大模型功能,需要对模型进行配置,包括大模型的地址和鉴权信息。 首先在首页的应用市场一栏中找到 模型配置应用,并点击该应用。点击右上角创意灵感开始配置,如下图所示: model_config_inspiration 然后点击回答的 添加模型 按钮,输入模型名称、API Key 和模型地址,并点击确认。此时模型添加成功。

应用创建

在首页的应用开发一栏中点击创建空白应用。如下所示: app_create 输入所要创建的应用名称和简介,并点击 创建按钮,即可创建 AI 应用。接着在跳转后的应用配置页面上,在 大模型 一栏中选择自定义配置的模型。此时即可在对话框进行对话。如下所示: app_chat

文档

您可以从docs目录查看项目的完整文档,文档包含 AppPlatform 的快速入门指南和用户指导手册。

待完善

贡献

欢迎贡献者加入本项目。 请阅读 CONTRIBUTING.md,这将指导您完成分支管理、标签管理、提交规则、代码审查等内容。遵循这些指导有助于项目的高效开发和良好协作。

联系我们

  1. 如果发现问题,可以在该项目的 Issue 模块内提出。

版本历史

v1.3.22026/01/29
v1.3.12025/11/13
v1.3.02025/10/24
v1.2.52025/10/10
v1.2.42025/10/09
v1.2.32025/09/19
v1.2.22025/09/02
v1.2.12025/08/06
v1.2.02025/07/13
v1.1.22025/07/13
v1.1.12025/06/18
v1.1.02025/06/11
v1.0.12025/05/19
v1.0.02025/05/13

常见问题

相似工具推荐

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|今天
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

139k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

107.7k|★★☆☆☆|2天前
开发框架图像Agent

NextChat

NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。

87.6k|★★☆☆☆|今天
开发框架语言模型

ML-For-Beginners

ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。

85k|★★☆☆☆|今天
图像数据工具视频

ragflow

RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。

77.1k|★★★☆☆|昨天
Agent图像开发框架