elyra
Elyra 是一款专为人工智能工作流设计的 JupyterLab 扩展工具,旨在将原本侧重于交互式探索的笔记本环境,升级为支持生产级 AI 管道开发的综合平台。它主要解决了数据科学家在从原型设计过渡到实际部署时面临的痛点,例如难以将分散的代码片段整合为可重复执行的批量任务,或缺乏可视化的流程编排能力。
这款软件非常适合 AI 研究人员、数据科学家以及机器学习工程师使用。通过 Elyra,用户无需离开熟悉的 Jupyter 界面,即可利用直观的可视化编辑器拖拽构建复杂的 AI 流水线,并直接将 Notebook、Python 或 R 脚本作为批量作业提交到本地或远程混合环境中运行。其独特的技术亮点包括对混合运行时的原生支持、可复用的代码片段管理、集成化的 Git 版本控制,以及实验性的 Python 脚本调试功能。此外,Elyra 还能结合 AI 助手提供智能代码建议,并自动生成目录以优化大型脚本的导航体验。对于希望在不切换工具链的前提下,提升模型开发效率并实现流程标准化的团队而言,Elyra 是一个实用且强大的选择。
使用场景
某金融数据团队需要在每周固定时间自动运行包含数据清洗、特征工程和模型训练的多个 Jupyter Notebook,并将结果归档。
没有 elyra 时
- 工程师必须手动按顺序逐个打开并执行五个独立的 Notebook,一旦中间步骤报错,整个流程中断且难以快速定位重跑。
- 缺乏可视化的流程视图,新加入的团队成员很难理解各个脚本之间的数据依赖关系和整体执行逻辑。
- 将本地开发好的 Notebook 部署到生产环境时,需要额外编写复杂的 Shell 脚本或 Airflow DAG 文件来调度批处理任务,维护成本极高。
- 代码复用困难,常用的数据预处理逻辑散落在不同文件中,每次新项目都需要重复复制粘贴,容易引入版本不一致的错误。
使用 elyra 后
- 利用可视化管道编辑器(Visual Pipeline Editor),通过拖拽即可将多个 Notebook 和 Python 脚本串联成有向无环图,支持一键提交为批量作业自动运行。
- 管道图清晰展示了节点间的输入输出依赖,任何环节失败均可独立重试,大幅降低了运维排查难度。
- 原生支持将 Notebook 直接作为批处理任务在本地或远程集群(如 Kubernetes)上调度,无需编写额外的胶水代码即可实现从开发到生产的无缝衔接。
- 内置可重用代码片段库,团队可将通用的特征提取函数标准化存储,直接在各个节点中调用,确保了逻辑的一致性和开发效率。
elyra 通过将分散的 Notebook 转化为可编排、可自动化的视觉化 AI 管道,彻底解决了机器学习工作流从实验探索到生产部署的“最后一公里”难题。
运行环境要求
- 未说明 (通常支持 Linux
- macOS
- Windows,只要满足 Node.js 和 Python 环境)
未说明
未说明

快速开始
Elyra
Elyra 是一组以 AI 为中心的 JupyterLab Notebook 扩展。
Elyra 目前包含以下功能:
- 可视化工作流编辑器
- 将 Notebook、Python 或 R 脚本作为批处理作业运行的能力
- 可重用代码片段
- AI 助手集成,用于在 Notebook 单元格中提供 AI 驱动的代码辅助。配置详情请参阅 AI 助手设置指南。
- 混合运行时支持,基于 Jupyter Enterprise Gateway
- 具有本地/远程执行能力的 Python 和 R 脚本编辑器
- 使用自动生成目录的 Python 脚本导航
- Python 脚本集成调试器(实验性)
- 使用自动生成目录的 Notebook 导航
- 语言服务器协议集成
- 使用 Git 集成进行版本控制

Elyra 入门指南 包含更多关于这些功能的详细信息。特定版本的新特性摘要位于 发布页面。
试用 Elyra
使用容器镜像
您也可以通过运行来自 Docker Hub 或 quay.io 的容器镜像来试用 Elyra:
elyra/elyra:latest安装了最新发布的版本。elyra/elyra:x.y.z安装了特定版本。
注意:您还可以从 main 分支构建容器镜像(“开发版”),以试用尚未发布的功能。
要运行其中一个容器镜像,您可以发出以下命令,并指定您选择的标签。
docker run -it -p 8888:8888 elyra/elyra:dev jupyter lab --debug
要使包含您的 Notebooks 的本地目录(例如 ${HOME}/opensource/jupyter-notebooks/)在 Docker 容器中可用,可以使用类似如下的挂载命令:
docker run -it -p 8888:8888 -v ${HOME}/opensource/jupyter-notebooks/:/home/jovyan/work -w /home/jovyan/work elyra/elyra:dev jupyter lab --debug
这些命令应产生类似于下面的输出,您可以在其中找到用于在本地浏览器中访问 Elyra 的 URL。
要访问 Notebook,请在浏览器中打开此文件:
file:///home/jovyan/.local/share/jupyter/runtime/nbserver-6-open.html
或复制并粘贴以下任一 URL:
http://4d17829ecd4c:8888/?token=d690bde267ec75d6f88c64a39825f8b05b919dd084451f82
或 http://127.0.0.1:8888/?token=d690bde267ec75d6f88c64a39825f8b05b919dd084451f82
有关详细信息,请参阅 安装文档。
安装
有关详细信息,请参阅 安装文档。
先决条件:
安装当前版本(适用于 JupyterLab 4.x)
当前版本显示在本页顶部。
从 PyPI 安装
pip3 install --upgrade "elyra[all]"从 conda-forge 安装
conda install -c conda-forge "elyra[all]"
安装旧版本
不同版本的安装说明和 JupyterLab 支持有所不同。请注意,需要构建 JupyterLab 才能使用。安装说明位于特定版本的文档中,可通过选择特定版本进行访问。
Elyra 4.x(JupyterLab 4.2.5+)
从 PyPI 安装
pip3 install --upgrade "elyra[all]"从 conda-forge 安装
conda install -c conda-forge "elyra[all]"
Elyra 3.7 < 4.0(JupyterLab 3.x)
从 PyPI 安装
pip3 install --upgrade "elyra[all]<4.0.0"从 conda-forge 安装
conda install -c conda-forge "elyra[all]<4.0.0"
Elyra 3.1 < 3.7(JupyterLab 3.x)
从 PyPI 安装
pip3 install --upgrade "elyra[all]>=3.1.0" && jupyter lab build从 conda-forge 安装
conda install -c conda-forge "elyra[all]>=3.1.0" && jupyter lab build
Elyra 2.0 < 3.1(JupyterLab 3.x)
从 PyPI 安装
pip3 install --upgrade "elyra>=2.0.1" && jupyter lab build从 conda-forge 安装
conda install -c conda-forge "elyra>=2.0.1" && jupyter lab build
验证安装
运行以下命令以验证安装。请注意,在下面的示例输出中,[version] 占位符代替了实际的版本标识符,该标识符可能会随每次发布而变化。
jupyter server extension list
应输出:
配置目录:/.../.jupyter
配置目录:/.../etc/jupyter
elyra 已启用
- 正在验证 elyra...
elyra 已通过
jupyter_lsp 已启用
- 正在验证 jupyter_lsp...
jupyter_lsp [version] 已通过
jupyter_resource_usage 已启用
- 正在验证 jupyter_resource_usage...
jupyter_resource_usage [version] 已通过
jupyter_server_mathjax 已启用
- 正在验证 jupyter_server_mathjax...
jupyter_server_mathjax 已通过
jupyterlab 已启用
- 正在验证 jupyterlab...
jupyterlab [version] 已通过
jupyterlab_git 已启用
- 正在验证 jupyterlab_git...
jupyterlab_git [version] 已通过
nbclassic 已启用
- 正在验证 nbclassic...
nbclassic 已通过
nbdime 已启用
- 正在验证 nbdime...
nbdime [version] 已通过
配置目录:/.../etc/jupyter
注意:如果您没有看到 Elyra 服务器扩展已启用,可能需要使用 jupyter server extension enable elyra 命令显式启用它。
jupyter labextension list
应输出:
JupyterLab [version]
/.../share/jupyter/labextensions
nbdime-jupyterlab [version] 已启用且正常
@jupyter-server/resource-usage [version] 已启用且正常(Python,jupyter-resource-usage)
@krassowski/jupyterlab-lsp [version] 已启用且正常(Python,jupyterlab_lsp)
@elyra/code-snippet-extension [version] 已启用且正常
@elyra/metadata-extension [version] 已启用且正常
@elyra/pipeline-editor-extension [version] 已启用且正常
@elyra/python-editor-extension [version] 已启用且正常
@elyra/scala-editor-extension [version] 已启用且正常
@elyra/r-editor-extension [version] 已启用且正常
@elyra/theme-extension [version] 已启用且正常
@jupyterlab/git [version] 已启用且正常(Python,jupyterlab-git)
其他内置在 JupyterLab 中的 Lab 扩展
应用程序目录:/.../share/jupyter/lab
启动 Elyra
在确认 Elyra 已成功安装后,可以通过以下命令启动 Elyra:
jupyter lab
获取帮助
我们欢迎您的问题、想法和反馈。请查看《入门指南》中的获取帮助部分,了解您可以用来与我们联系的各种渠道。
参与 Elyra 贡献
如果您有兴趣帮助改进 Elyra,我们鼓励您查看我们的贡献页面、开发工作流程文档,并邀请您参加我们每周的开发者社区会议。
与我们见面!
我们的每日和每周社区会议日程安排可在此处找到。
版本历史
v4.0.02025/08/16v3.15.02023/03/29v3.14.32023/02/21v3.14.22023/01/26v3.14.12022/12/14v3.14.02022/12/14v3.13.02022/11/14v3.12.02022/10/04v3.11.12022/09/01v3.11.02022/08/23v3.10.12022/07/18v3.10.02022/07/07v3.9.12022/06/15v3.9.02022/06/03v3.8.12022/05/25v3.8.02022/05/03v3.7.02022/03/31v3.6.02022/02/09v3.5.32022/02/14常见问题
相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备
Deep-Live-Cam
Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具,用户仅需一张静态照片,即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点,让高质量的数字内容创作变得触手可及。 这款工具不仅适合开发者和技术研究人员探索算法边界,更因其极简的操作逻辑(仅需三步:选脸、选摄像头、启动),广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换,还是制作趣味短视频和直播互动,Deep-Live-Cam 都能提供流畅的支持。 其核心技术亮点在于强大的实时处理能力,支持口型遮罩(Mouth Mask)以保留使用者原始的嘴部动作,确保表情自然精准;同时具备“人脸映射”功能,可同时对画面中的多个主体应用不同面孔。此外,项目内置了严格的内容安全过滤机制,自动拦截涉及裸露、暴力等不当素材,并倡导用户在获得授权及明确标注的前提下合规使用,体现了技术发展与伦理责任的平衡。


