app-platform
AppPlatform 是一款专为大模型应用打造的前沿工程平台,致力于通过声明式编程与低代码配置,简化从概念设计到最终部署的全流程开发工作。它有效解决了传统 AI 应用开发中代码门槛高、多模型协同复杂以及流程编排困难等痛点,让构建具备复杂交互功能的智能应用变得更加高效便捷。
该平台非常适合软件工程师与产品经理协作使用:技术人员可基于其插件化架构和强大的算子调度能力进行深度定制,而产品人员则能利用直观的图形化界面轻松完成应用的创建、编排与调试,无需深究底层代码细节。
AppPlatform 的技术亮点在于其独特的“组件即工具”理念,将函数、RAG 或智能体等统一存储为可复用的标准组件,支持跨项目灵活组合。后端依托 FIT 与 Waterflow 框架实现高效调度,前端则结合 React 与 Elsa 图形引擎提供流畅的可视化体验。无论是快速原型验证还是企业级复杂场景落地,AppPlatform 都能提供一个强大且可扩展的开发环境。
使用场景
某电商公司的产品团队急需上线一个“智能售后助手”,需整合订单查询、退换货政策检索及情感分析多个能力,以应对大促期间激增的用户咨询。
没有 app-platform 时
- 开发门槛高且协作难:产品经理无法直接参与逻辑构建,必须依赖后端工程师将业务需求转化为复杂的 Python 或 Java 代码,沟通成本极高且迭代缓慢。
- 多模型串联复杂:若要同时调用订单系统的 API、RAG 知识库和情绪识别模型,工程师需手动编写大量胶水代码处理数据格式转换,调试流程极其繁琐。
- 复用性差:每次新增类似功能(如售前咨询)时,之前的代码逻辑难以直接复用,导致重复造轮子,无法形成统一的资产沉淀。
使用 app-platform 后
- 低代码可视化编排:产品经理可直接在 app-platform 的图形界面上拖拽组件,通过声明式配置将订单查询、知识库检索等节点串联,无需深入代码即可独立完成应用原型。
- 高效调度与调试:利用 app-platform 内置的 Waterflow 引擎,系统自动处理多模型间的数据流转与异常调度,前端实时反馈运行状态,将原本数天的联调时间缩短至小时级。
- 资产标准化复用:开发完成的“订单查询”或“情感分析”模块自动存入 app-platform 的 Store 模版库,后续新项目可直接引用这些标准化“工具”,快速组合出新的智能体应用。
app-platform 通过低代码编排与标准化资产复用,将 AI 应用交付周期从周级压缩至天级,真正实现了业务人员与技术团队的高效协同。
运行环境要求
- Windows
- Linux
未说明
4GB+

快速开始
AppPlatform
AppPlatform 是一个前沿的大模型应用工程,旨在通过集成的声明式编程和低代码配置工具,简化 AI 应用的开发过程。本工程为软件工程师和产品经理提供一个强大的、可扩展的环境,以支持从概念到部署的全流程 AI 应用开发。
核心架构
AppPlatform 后端模块
AppPlatform 后端基于 FIT 框架,采用插件化式开发,包含应用管理模块和功能扩展模块。其中应用管理模块为 AppPlatform 的核心模块,用于提供创建、管理、调试、运行和维护 AI 应用,该提供一个高效快捷的方式来开发具有复杂交互功能的 AI 应用。功能扩展模块通过组件节点的方式,丰富流程编排的能力,用户可根据需求自由组合,构建出符合业务逻辑的 AI 应用,该模块为组件节点的底层逻辑实现。应用流程运行基于 Waterflow 框架,方便高效地对流程和数据进行组织和处理。
AppPlatform 前端模块
AppPlatform 前端采用 React 框架进行开发,基于函数式组件构建,通过模块化设计实现了应用开发,应用市场,智能表单和插件管理等核心功能模块。其中应用开发模块为核心模块,提供可视化界面支持AI应用的完整生命周期管理,包含了应用创建,编排,调试,运行,和发布全流程;智能表单模块可通过 Json Schema 自动渲染可交互表单,与 AI 模型服务集成,实现表单填写与实时推理;插件模块支持开发者上传自定义插件扩展应用工程能力,并提供了插件安装和卸载等功能。此外,前端流程编排还基于 Elsa 图形引擎,Elsa 图形引擎是一款基于原生 JS 打造而成的先进图形处理工具。通过统一的数据格式,可以让图形跨平台跨应用进行展示和协作,为用户提供灵活、高性能的图形渲染与交互能力,适用于复杂可视化场景的开发需求。
关键特性
- 低代码图形化界面:产品人员可以通过直观的图形界面创建 AI 应用,而无需深入了解底层代码即可进行高效的编辑和调试。同时支持多模型协同运作,使用户能够根据特定的业务需求,将不同的 AI 模型通过编排整合到同一个应用流程中。
- 强大的算子与调度平台:通过 FIT 与 Waterflow 框架,AppPlatform 提供了一个高效、可扩展的后端架构,支持 Java、Python 等多种主流编程语言的算子开发,并通过智能调度实现优化的执行效率。
- 共享与协作: AppPlatform 的底层包含 Store 模版,用于将所有开发的 AI 应用统一存储,以此支持跨项目的复用和协作。开发者可以根据需要组合这些应用,打造更大的解决方案,或者利用社区提供的工具和模型。在 AppPlatform 中, AI 应用不仅限于传统意义上的 “应用”,它们可以是 “函数”、“RAG”、“智能体”等任何可解释和可执行的组件。这些组件在 Store 中以 “工具” 的形式展现,其元数据不仅提供了必要的解释,还为智能体自动调度这些工具提供了基础。
快速启动
1. 前置条件
| 名称 | 规格 |
|---|---|
| CPU | 2+ 核心 |
| CPU 架构 | x86 |
| 内存 | 4+ GB |
| 软件 | 安装 Docker & Docker Compose |
2. Docker Compose 启动(拉取镜像以及启动服务时间大约 3 minutes)
克隆项目并进入项目根目录,执行以下命令:/ Clone the repository and enter the project root directory, then run the following commands:
# 用户按需配置环境变量,例如模型名称、基础 URL 和 APIKEY等 / Configure environment variables as needed, including model name, base URL and APIKEY
cp docker/.env.example docker/.env
bash docker/deploy.sh
容器全部 Running 后,浏览器打开 http://localhost:8001 体验
如需修改数据库密码,二次启动前需要删除
docker/app-platform-tmp目录
后端快速开发测试
本章节给出快速启动之后,本地快速开发测试的方法。
1. 编译代码
1.1. 全量编译(2 minutes 30 seconds) 编写代码,在项目根目录下,执行以下命令编译:
mvn clean install
1.2. 增量编译(10 seconds) 编写代码,在修改的插件目录下,执行以下命令编译:
mvn clean install
2. 一键部署修改
在项目根目录下,执行以下命令快速部署(3 minutes 30 seconds):
bash docker/dev-app-builder.sh
3. 测试
浏览器打开 http://localhost:8001 测试
前端快速开发测试
本章节给出快速启动之后,本地快速开发测试前端的方法。
1. 编译代码
- 构建
agent-flow,在项目根目录下,执行以下命令编译:
cd agent-flow
npm install --legacy-peer-deps --force --registry=https://registry.npmmirror.com
npm run build
npm link
cd -
首次的话,需要执行一次,后续有修改再增量构建执行即可。
- 全量编译前端(1 minutes 10 seconds) 编写代码,在项目根目录下,执行以下命令编译:
cd frontend
npm install --legacy-peer-deps --force --registry=https://registry.npmmirror.com
npm run build:prod
2. 一键部署修改
在项目根目录下,执行以下命令快速部署(18 seconds):
cd ..
bash docker/dev-frontend.sh
3. 测试
浏览器打开 http://localhost:8001 测试
源码编译启动
安装数据库
Windows 系统
- 下载并安装 PostgresSQL (支持版本 ≥ 14)
- 初始化数据。进入
shell目录,使用bash工具执行build_win.sh(当前不支持cmd执行,待规划):
cd shell
sh build_win.sh ${ip} ${port} ${username} ${password}
其中参数 ip、port、username、password 分别指的是数据库主机地址、数据库端口、数据用户名、数据库密码。该文件会初始化数据库内置数据,以及人工表单功能所需的数据。
Linux 系统
待规划
后端环境配置
开发环境配置
- 开发环境:
IntelliJ IDEA - Java 17
- 代码格式化文件:CodeFormatterFromIdea.xml
Maven配置:推荐版本 Maven 3.8.8+- FIT 框架编译产物:参考 FIT 框架 的
环境配置构建编译产物
构建命令
mvn clean install
输出目录
build/
目录调整
需要将输出目录与 FIT 框架的编译产物结合。将输出目录的 plugins 目录下的所有文件复制到框架输出目录的 plugins 下,将 shared 目录下的所有文件复制到框架输出目录的 shared 下。
另外,需要删除 plugins 目录中如下开头的文件(app-platform 仓扩展了这些机制,已经存在对应的实现。否则会由于存在冲突导致启动失败)
fel-tool-discoverer
fel-tool-executor
fel-tool-repository-simple
fel-tool-factory-repository
打开框架输出目录的 conf/fitframework.yml 文件,找到如下配置项
fit:
beans:
packages:
- 'modelengine.fitframework'
- 'modelengine.fit'
配置本地智能表单路径,首先创建目录.\app-builder\smart_form 此目录可根据实际情况修改,然后copy项目中的
example\app-demo\normal-form及smart-form中的所有内容到上述目录,打包template目录内容template.zip
并复制到smart-form 结果如下所示:
app-builder/
├── smart_form/
│ ├── 6befc536-7e6d-48b5-8dcb-1c4d04ca4e92
│ ├── 17b732c9-5272-42a6-a79d-8d0334a8aa19
│ ├── 7958d851-8062-49bd-b21e-d7372991c905
│ ├── b6255699-2e4f-409f-a578-b87b7435e389
│ ├── e85bd769-0212-4305-b56b-01e77faa14ff
│ ├── temporary
│ └── template.zip
加入数据库配置项,修改后的配置项如下所示:
fit:
beans:
packages:
- 'modelengine.fitframework'
- 'modelengine.fit'
datasource:
primary: 'sample-datasource' # 表示所选用的示例数据源。
instances:
sample-datasource:
mode: 'shared' # 表示该数据源的模式,可选共享(shared)或独占(exclusive)模式。
url: 'jdbc:postgresql://${ip}:${port}/' # 将 ip 换成数据库服务器的 ip 地址,将 port 换成数据库服务器监听的端口。
username: '${username}' # 将 username 替换为数据库的名称。
password: '${password}' # 将 password 替换为数据库的密码。
druid:
initialSize: ${initialSize} # 将 initialSize 替换为连接池的初始化连接数。
minIdle: ${midIdle} # 将 minIdle 替换为连接池的最小空闲连接数。
maxActive: ${maxActive} # 将 maxActive 替换为数据库连接池的最大活动连接数。
# 可根据具体需求,添加连接池所需配置项。
app-engine:
resource:
path: ${localFormPath} # 配置本地的智能表单根路径,win下如 D:\\app-builder\\
form:
path-prefix: ${localFormPath} # 配置本地的智能表单根路径,win下如 D:\\app-builder\\
启动命令
在框架输出目录的 bin 目录下执行启动命令
fit start
这里直接使用了
fit命令,该命令请参考fit-framework项目的指导手册。当前,
app-platform使用了fit的 3.5.5 版本,因此,如果采用手动编译,需要在fit-framework仓库中切换到v3.5.5标签处进行编译构建操作。
调试命令
fit debug
这里的调试命令背后使用了 Java 内置的远程调试命令,通过该技术,可以在进程启动之后,在
IDEA中绑定启动端口进行远程调试。
前端环境配置
开发环境:
WebStorm、Visual Studio Code环境要求:node.js >= 20
修改代理文件
修改 frontend 目录下的 proxy.config.json 文件,可以修改需要访问的后端地址。如本地后端地址是 http://127.0.0.1:8080 。可以按照如下示例配置:
{
"/api": {
"target": "http://127.0.0.1:8080",
"secure": false,
"changeOrigin": true,
"pathRewrite": {
"^/api": ""
}
}
}
前置准备
构建 agent-flow:
cd agent-flow
npm install
npm run build
npm link
cd -
依赖安装
cd frontend/
npm install
打包构建
在 package.json 中定义了多种打包脚本,这里以 build:single 为例:
npm run build:single
启动命令
npm run start
联调ELSA配置
- ELSA 框架编译产物:参考 ELSA 的编译构建章节
修改 ELSA 依赖地址
进入目录 app-platform/frontend ,搜索 package.json 文件的 ELSA 依赖地址:
"dependencies": {
"@fit-elsa/elsa-core": "file:${fitElsaCoreUrl}",
"@fit-elsa/agent-flow": "file:${fitElsaReactUrl}",
将 ${fitElsaCoreUrl} 和 ${fitElsaReactUrl} 分别改成 ELSA 框架编译产物 fit-elsa-core 和 fit-react 的目录地址即可。
快速开始
模型配置
在对话中使用大模型功能,需要对模型进行配置,包括大模型的地址和鉴权信息。
首先在首页的应用市场一栏中找到 模型配置应用,并点击该应用。点击右上角创意灵感 的开始配置,如下图所示:
然后点击回答的 添加模型 按钮,输入模型名称、API Key 和模型地址,并点击确认。此时模型添加成功。
应用创建
在首页的应用开发一栏中点击创建空白应用。如下所示:
输入所要创建的应用名称和简介,并点击 创建按钮,即可创建 AI 应用。接着在跳转后的应用配置页面上,在 大模型 一栏中选择自定义配置的模型。此时即可在对话框进行对话。如下所示:

文档
您可以从docs目录查看项目的完整文档,文档包含 AppPlatform 的快速入门指南和用户指导手册。
待完善
贡献
欢迎贡献者加入本项目。 请阅读 CONTRIBUTING.md,这将指导您完成分支管理、标签管理、提交规则、代码审查等内容。遵循这些指导有助于项目的高效开发和良好协作。
联系我们
- 如果发现问题,可以在该项目的
Issue模块内提出。
版本历史
v1.3.22026/01/29v1.3.12025/11/13v1.3.02025/10/24v1.2.52025/10/10v1.2.42025/10/09v1.2.32025/09/19v1.2.22025/09/02v1.2.12025/08/06v1.2.02025/07/13v1.1.22025/07/13v1.1.12025/06/18v1.1.02025/06/11v1.0.12025/05/19v1.0.02025/05/13常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。