powerbi-modeling-mcp

GitHub
618 118 简单 1 次阅读 今天MITAgent插件
AI 解读 由 AI 自动生成,仅供参考

powerbi-modeling-mcp 是一款基于模型上下文协议(MCP)构建的开源服务器,旨在将 Power BI 的语义建模能力无缝接入 AI 智能体。它解决了传统数据建模中重复性高、操作繁琐的痛点,让开发者能够通过自然语言指令直接创建、修改和管理数据表、列、度量值及关系,甚至执行批量重命名、重构和安全规则设置等大规模操作,将原本耗时数小时的工作缩短至秒级。

该工具特别适合 Power BI 开发者、数据工程师以及希望利用 AI 自动化工作流的技术团队。其独特亮点在于支持 TMDL 和 Power BI 项目文件格式,使 AI 智能体能够自主规划并执行复杂的建模任务;同时具备 DAX 查询验证功能,帮助用户快速测试计算逻辑。此外,它还内置了建模最佳实践评估机制,辅助用户优化模型结构。

需要注意的是,由于底层大模型可能存在不确定性,使用前务必备份模型,并谨慎处理敏感数据。推荐搭配 Visual Studio Code 与 GitHub Copilot 使用,以获得更流畅的开发体验。选择推理能力较强的 AI 模型(如 GPT-5 或 Claude Sonnet 4.5)可显著提升操作准确率。

使用场景

某零售企业的数据分析师正面临季度末紧急任务,需要为覆盖全球 20 个分公司的 Power BI 语义模型统一更新货币换算逻辑并添加新的安全角色。

没有 powerbi-modeling-mcp 时

  • 重复劳动耗时巨大:分析师必须手动打开模型,逐个为上百个度量值编写或修改 DAX 公式,极易因疲劳产生复制粘贴错误。
  • 批量重构风险高:若要统一重命名数百个字段以符合新规范,缺乏事务支持,一旦中途出错很难回滚,可能导致模型损坏。
  • 最佳实践难落地:人工检查模型是否符合性能优化标准(如避免双向过滤)效率极低,往往只能抽样检查,遗留隐患多。
  • 验证流程繁琐:每修改一个关键指标,都需要手动切换界面运行测试查询来验证结果准确性,打断心流且耗时。

使用 powerbi-modeling-mcp 后

  • 自然语言驱动批量变更:分析师只需告诉 AI“为所有销售类度量值添加汇率转换逻辑”,powerbi-modeling-mcp 即可自动在数秒内完成上百个对象的创建与更新。
  • 安全的大规模重构:利用其事务支持能力,一次性执行全模型字段重命名或安全规则部署,若遇错误自动回滚,确保模型始终处于一致状态。
  • 自动合规性检查:AI 代理自动扫描模型并应用建模最佳实践,即时修复潜在的性能瓶颈,无需人工逐页审查。
  • 智能查询验证:直接在对话中让 AI 执行复杂的 DAX 测试查询,实时反馈计算结果是否正确,大幅缩短调试周期。

powerbi-modeling-mcp 将原本需要数天的高风险手工建模工作,转化为分钟级的自动化智能流程,彻底释放了数据专家的生产力。

运行环境要求

操作系统
  • Windows
  • 未明确说明支持 Linux/macOS (主要提供 Windows .exe 和 VSIX 安装包)
GPU

不需要 GPU

内存

未说明

依赖
notes该工具是一个本地 MCP 服务器,用于连接 AI 代理与 Power BI 语义模型。主要通过 Visual Studio Code 扩展安装,或通过 Node.js (npx) 运行,也可下载独立的 Windows .exe 文件运行。它不依赖 Python 或 GPU,但需要访问外部 LLM 服务(如 GPT-5 或 Claude Sonnet 4.5)来处理自然语言请求。首次使用前需备份模型,且部分企业账户需在 GitHub 设置中手动启用 'MCP servers in Copilot' 选项。
python不需要 Python (基于 Node.js 或独立 .exe 运行)
Node.js (使用 npx 安装时必需)
@microsoft/powerbi-modeling-mcp (npm 包)
Visual Studio Code (推荐)
GitHub Copilot 扩展
GitHub Copilot Chat 扩展
powerbi-modeling-mcp hero image

快速开始

✨ Power BI 建模 MCP 服务器

Power BI 建模 MCP 服务器 实现了 MCP 规范,在 AI 代理与 Power BI 语义模型之间建立无缝连接。该项目目前处于公开预览阶段,正式发布前其实施细节可能会发生重大变化。

通过 本地 MCP 服务器Power BI 建模 MCP 服务器 将 Power BI 语义建模能力引入您的 AI 代理中。这使得开发者和 AI 应用程序能够以全新的方式与 Power BI 模型交互,从使用自然语言执行建模变更,到实现自主的 AI 代理开发工作流。

powerbi-modeling-mcp-diagram

💡 您可以做什么?

  • 🔄 使用自然语言构建和修改语义模型 - 向您的 AI 助手说明需求,它将利用此 MCP 服务器创建、更新和管理表、列、度量值、关系等,适用于 Power BI Desktop 和 Fabric 语义模型。

  • ⚡ 大规模批量操作 - AI 应用程序可以同时对数百个对象执行批量建模操作——批量重命名、批量重构、模型翻译或模型安全规则——并提供事务支持和错误处理,从而将耗时数小时的重复性工作缩短至几秒钟。

  • ✅ 应用建模最佳实践 - 轻松评估并针对您的模型实施建模最佳实践。

  • 🤖 代理式开发工作流 - 支持处理 TMDL 和 Power BI 项目文件,使 AI 代理能够自主规划、创建和执行跨语义模型代码库的复杂建模任务。

  • 🔍 查询和验证 DAX - AI 助手可以针对您的模型执行并验证 DAX 查询,帮助您测试度量值、排查计算问题以及探索数据。

📹 观看视频以获取端到端演示

[!警告]

  • 将 AI 代理连接到语义模型时需谨慎。底层的 LLM 可能会产生意外或不准确的结果,从而导致非预期的更改。在执行任何操作之前,请务必备份您的模型。
  • LLM 可能在日志或响应中无意间暴露语义模型中的敏感信息,包括数据或元数据。分享聊天会话时请务必小心。 请参阅数据隐私与 LLM 提供商
  • Power BI 建模 MCP 服务器 仅能执行建模操作,无法修改其他类型的 Power BI 元数据,例如报表页面或语义模型中的图表布局等元素。
  • 您选择的 AI 模型将直接影响所接收响应的质量和相关性。为获得最佳效果,建议选择深度推理模型,如 GPT-5Claude Sonnet 4.5。有关可用模型的更多详细信息,请参阅 GitHub Copilot AI 模型比较

📦 安装

安装此 MCP 服务器最简单的方式是结合使用 Visual Studio Code 扩展GitHub Copilot。不过,您也可以在任何其他 MCP 客户端中手动安装。

Visual Studio Code(推荐)

  1. 安装 Visual Studio Code

  2. 安装 GitHub CopilotGitHub Copilot Chat 扩展。

  3. 安装 Power BI 建模 MCP Visual Studio Code 扩展

    vs code install

  4. 打开 GitHub Copilot chat,确认 powerbi-modeling-mcp 已启用并被选中。

    vscode-mcp-tools

[!注释] 如果您在可用工具列表中未看到 powerbi-modeling-mcp,请确保在 GitHub.com 的 Copilot 设置中启用了 Copilot 中的 MCP 服务器 选项。对于企业账户,此选项默认关闭,需由管理员启用。

mcp-servers-in-copilot-enable

手动安装

此 MCP 服务器也可配置于其他 IDE、CLI 和 MCP 客户端中。

Node Package Executor (NPX)(需要 Node.js

将 JSON 配置添加到您的 MCP 客户端中。Node 将自动从 @microsoft/powerbi-modeling-mcp npm 包下载 MCP 服务器。

{
	"powerbi-modeling-mcp": {
			"type": "stdio",
			"command": "npx",
			"args": [
				"-y",
				"@microsoft/powerbi-modeling-mcp@latest",
				"--start"				
			]
		}	
}

手动下载

  1. 使用以下 URL 下载所需版本的 VSIX 包:
    • 模板:https://marketplace.visualstudio.com/_apis/public/gallery/publishers/analysis-services/vsextensions/powerbi-modeling-mcp/[version]/vspackage?targetPlatform=[platform]
    • 示例(版本 0.1.9,平台 win32-x64):https://marketplace.visualstudio.com/_apis/public/gallery/publishers/analysis-services/vsextensions/powerbi-modeling-mcp/0.1.9/vspackage?targetPlatform=win32-x64
  2. 将下载的 .visx 文件重命名为 .zip
  3. 将内容解压到您选择的文件夹中,例如:C:\MCPServers\PowerBIModelingMCP
  4. 运行 \extension\server\powerbi-modeling-mcp.exe
  5. 从控制台复制 MCP JSON 注册信息,并将其注册到您首选的 MCP 客户端工具中。

以下是一个应在大多数 MCP 客户端中适用的配置示例:

{
	"powerbi-modeling-mcp": {
		"type": "stdio",
		"command": "C:\\MCPServers\\PowerBIModelingMCP\\extension\\server\\powerbi-modeling-mcp.exe",
		"args": [
			"--start"                
		],
		"env": {}			
	}	
}

🚀 开始使用

首先,您必须连接到 Power BI 语义模型,该模型可以位于 Power BI Desktop、Fabric 工作区或 Power BI 项目 (PBIP) 文件中。

  • 对于 Power BI Desktop:

    连接到 Power BI Desktop 中的 '[文件名]'。
    
  • 对于 Fabric 工作区中的语义模型:

    连接到 Fabric 工作区 '[工作区名称]' 中的语义模型 '[语义模型名称]'。
    
  • 对于 Power BI 项目文件:

    打开 PBIP 文件夹 '[PBIP 定义/TMDL 文件夹路径]' 中的语义模型。
    

连接建立后,您可以使用自然语言让 AI 代理进行任何建模更改。要开始使用,可以尝试以下场景之一。

示例场景

场景 提示示例
分析命名规范并批量重命名。 分析我的模型的命名规范,并建议重命名以确保一致性。
分析‘Sales’表的命名规范,并将相同的模式应用到整个模型中。
为整个模型设置描述,用于文档记录。 为所有度量值、列和表添加描述,清晰说明其用途,并用简单易懂的语言解释DAX代码背后的逻辑。
翻译你的语义模型。 为我的模型生成法语翻译,包括表、列和度量值。
将度量值重构为计算组或自定义函数。 将度量值‘Sales Amount 12M Avg’和‘Sales Amount 6M Avg’重构为一个计算组,并新增24个月和3个月的变体。
重构查询以使用语义模型参数。 分析所有表的Power Query代码,识别数据源配置,并创建语义模型参数,以便轻松切换数据源位置。
对比多个模型中的DAX查询性能。 连接到语义模型‘V1’和‘V2’,并将以下DAX查询分别在两个模型上进行性能对比。[DAX查询]
记录你的语义模型 生成一个Markdown文档(.md),为Power BI语义模型提供完整、专业的文档。使用简单的Mermaid图表展示表之间的关系;为每个度量值记录DAX代码及业务逻辑描述,并采用易于理解的业务术语命名;记录行级筛选器;通过分析Power Query代码记录数据源信息。

[!TIP] 上述场景仅为示例。该MCP服务器为您的代理配备了适用于任何类型模型变更的建模工具,只需提供合适的提示和上下文,即可自动化几乎任何建模任务。

确认提示

本MCP服务器支持Elicitation MCP协议,要求用户对以下操作进行批准:

  • 在首次对语义模型进行修改之前。
  • 在首次针对语义模型执行查询之前。

mcp-server-elicitation

[!TIP] 您可以通过使用--skipconfirmation选项来配置MCP,以跳过这些确认步骤。

🛠️ 可用工具

工具名称 功能
connection_operations 连接到 Power BI Desktop 或 Fabric 工作区
database_operations 管理语义模型——连接、创建、更新、列出数据库,导入/导出 TMDL 文件夹,部署到 Fabric
transaction_operations 控制数据库事务(开始、提交、回滚、获取状态)
model_operations 操作整个模型(获取、创建、更新、刷新、获取统计信息、重命名)
table_operations 管理表(创建、更新、删除、获取、列出、刷新、重命名)
column_operations 管理单个表列(创建、更新、删除、获取、列出、重命名)
measure_operations 管理单个 DAX 度量(创建、更新、删除、获取、列出、重命名、在表之间移动)
relationship_operations 处理表之间的关系(创建、更新、删除、启用/禁用、查找)
dax_query_operations 对模型执行、验证和生成 DAX 查询
trace_operations 对语义模型执行跟踪操作,以捕获和分析 Analysis Services 事件。
partition_operations 管理表分区(创建、更新、删除、刷新特定分区)
user_hierarchy_operations 使用用户定义的层次结构(创建、更新、删除级别、重新排序)
calculation_group_operations 管理计算组以及用于时间智能和其他计算的计算项
security_role_operations 配置安全角色和行级安全性 (RLS) 表权限
perspective_operations 管理视角及其成员(针对不同受众的模型筛选视图)
named_expression_operations 使用命名表达式和 Power Query 参数(创建、更新、删除、获取、列出、重命名)
function_operations 管理单个 DAX 用户自定义函数
culture_operations 管理多语言支持的文化设置(创建、更新、删除、获取有效文化名称)
object_translation_operations 处理不同文化和语言之间的模型对象翻译
calendar_operations 管理日历对象和时间智能列组
query_group_operations 组织和管理 Power Query 表达式的查询组

[!NOTE]

  • 本项目目前处于公开预览阶段,在正式发布之前,工具可能会发生重大变化。
  • 您可以请 AI 解释可用的工具,并展示如何使用它们的示例。例如:告诉我使用 powerbi-modeling-mcp 可以做哪些事情,并给出一些示例

▶️ 可用提示

此 MCP 服务器包含内置提示,可帮助您快速上手。在 Visual Studio Code 中,只需在聊天框中输入 / 命令,即可访问可用的 MCP 提示。

vscode-mcp-prompts

提示名称 功能
CreateDAXQuery 根据您的语义模型和自然语言问题创建 DAX 查询。附加 dax_query_instructions_and_examples 资源,为 LLM 提供 DAX 语言上下文。
RunDAXQueryWithMetrics 执行 DAX 查询,可选择清除缓存并仅返回执行指标。
AnalyzeDAXQuery 通过清除缓存后运行 DAX 查询,并查看执行指标来分析查询性能,以发现潜在问题。
ConnectToPowerBIDesktop 搜索与文件名匹配的 Power BI Desktop Analysis Services 实例并连接到该实例。
ConnectToFabric 连接到 Fabric 工作区中的语义模型。
ConnectToPBIP 从 Power BI 项目文件中的语义模型加载 TMDL 定义。附加 powerbi_project_instructions 资源,为 LLM 提供 Power BI 项目 (PBIP) 上下文。

[!NOTE] 部分提示还会附加资源,为 LLM 提供重要上下文。

⚙️ 设置

MCP 服务器支持多个命令行选项和环境变量:

命令行选项 默认值 描述
--start 启动 MCP 服务器;这是与 MCP 客户端注册服务器所必需的。
--readwrite 默认启用,在将编辑应用到语义模型之前会显示确认提示(每个数据库仅一次),从而允许写操作。
--readonly 安全模式,禁止对语义模型进行任何写操作。
--skipconfirmation 自动批准所有写操作,无需确认提示。仅当您确信要执行的操作并且已对语义模型进行了适当备份时,才应使用跳过确认模式。
--compatibility PowerBI 默认情况下,它针对 Power BI 语义模型进行了优化。如果您希望将此 MCP 服务器用于 Analysis Services 数据库,请将设置更改为 Full
--authmode interactive 设置身份验证模式:serviceprincipalinteractive
环境变量名称 默认值 描述
AZURE_CLIENT_ID Microsoft Entra 服务主体的应用程序(客户端)ID。在使用 --authmode serviceprincipal 时必填。
AZURE_TENANT_ID Microsoft Entra 租户(目录)ID。在使用 --authmode serviceprincipal 时必填。
AZURE_CLIENT_SECRET 服务主体的客户端密码。在使用基于密码的身份验证且 --authmode serviceprincipal 时必填。
AZURE_CLIENT_CERTIFICATE_PATH 服务主体的 PFX/PEM 证书文件路径。在使用基于证书的身份验证而非客户端密码且 --authmode serviceprincipal 时必填。
AZURE_CLIENT_CERTIFICATE_PASSWORD 如果证书受密码保护,则为证书文件的密码。仅在使用基于证书的身份验证且 --authmode serviceprincipal 时使用。
PBI_MODELING_MCP_ACCESS_TOKEN 配置后,MCP 服务器会在连接到 Fabric 工作区中的语义模型时使用指定的访问令牌,而不会提示进行身份验证。这在应用程序自行处理身份验证的情况下非常有用。

对于 Visual Studio Code,您可以在 用户设置 中设置命令行选项和环境变量:

打开 Visual Studio Code用户设置,并搜索 @ext:Microsoft.powerbi-modeling-mcp

VS Code 设置

对于手动安装,您可以通过 MCP 服务器注册 JSON 文件中的 args 属性配置命令行选项,并通过 env 属性设置环境变量:

{
"servers": {
		"powerbi-modeling-mcp": {
			"command": "[MCP 服务器文件夹路径]\\powerbi-modeling-mcp.exe",
			"args": [
				"--start"
                , "--skipconfirmation"
			],
			"env": {
				"PBI_MODELING_MCP_ACCESS_TOKEN": "[ACCESS_TOKEN]"
			},
			"type": "stdio"
		}
	}
}

💬 反馈与支持

  • 请查看故障排除指南,以诊断并解决常见问题。
  • 我们正在公开开发此项目。您的反馈对我们非常重要,将帮助我们塑造 Power BI Modeling MCP 服务器的未来。
    • 👉 在公共 GitHub 仓库中提交问题——我们非常期待您的意见!

注意事项与限制

  • 此 MCP 服务器遵循与外部工具执行建模操作相同的规则和行为。有关更多信息,请参阅文档

数据隐私与 LLM 提供商

MCP 服务器在本地运行,并使用您现有的凭据和权限连接到您的语义模型——它不会绕过任何 Power BI 安全控制措施。然而,MCP 服务器检索的数据(元数据、模式或查询结果)会被发送到 MCP 客户端(例如 VS Code),随后可能作为对话上下文的一部分转发给配置的 LLM 提供商。

简而言之:AI 辅助功能不会扩大数据访问范围,但可能会将已访问的数据传输给 LLM 提供商。 治理工作应侧重于贵组织的 AI 数据处理政策以及 LLM 提供商的服务条款,而不应仅仅依赖 Power BI 的安全控制措施。

如果您使用 GitHub Copilot,请参阅GitHub Copilot 模型托管文档,了解数据如何与外部 AI 模型提供商共享的详细信息。

安全性

您的凭据始终通过官方的 Azure Identity SDK 安全地处理——我们绝不会直接存储或管理令牌

MCP 作为一种现象,非常新颖且处于技术前沿。与所有新技术标准一样,请务必进行安全审查,以确保任何与 MCP 服务器集成的系统都符合您所在系统应遵守的所有法规和标准。这不仅包括 Power BI 建模 MCP 服务器,还涵盖您选择实施的任何 MCP 客户端/代理,直至模型提供商。

您应当遵循 Microsoft 针对 MCP 服务器的安全指导,包括启用 Entra ID 身份验证、安全的令牌管理和网络隔离。有关详细信息,请参阅 Microsoft 安全文档

权限与风险

MCP 客户端可以根据用户的 Fabric RBAC 权限调用操作。如果客户端处于自主运行状态或配置不当,可能会执行破坏性操作。在部署之前,您应当审查并应用最小权限的 RBAC 角色,并实施相应的保护措施。然而,某些保护措施(例如用于防止破坏性操作的标志)并未在 MCP 规范中标准化,可能并非所有客户端都支持。

数据收集

本软件可能会收集有关您及您使用本软件的信息,并将其发送至 Microsoft。Microsoft 可能会利用这些信息来提供服务并改进其产品和服务。此外,本软件中的一些功能可能使您和 Microsoft 能够从您的应用程序用户处收集数据。如果您使用这些功能,必须遵守适用法律,包括向您的应用程序用户提供适当的通知,并附上 Microsoft 的隐私声明。有关数据收集和使用的更多信息,请参阅帮助文档和我们的隐私声明。您使用本软件即表示您同意上述做法。

合规责任

此 MCP 服务器可能会被安装、使用,并与第三方客户端和服务共享数据,例如运行在 Microsoft 合规边界之外的第三方 LLM。您有责任确保任何集成均符合适用的组织、监管和合同要求。

第三方组件

此 MCP 服务器可能使用或依赖第三方组件。您有责任审查并遵守任何第三方组件的许可协议及安全状况。

出口管制

使用本软件必须遵守所有适用的出口法律法规,包括美国《出口管理条例》以及当地司法管辖区的相关要求。

无担保 / 责任限制

本软件按“原样”提供,不提供任何形式的明示或默示保证或条件。对于因使用、误用或错误配置本软件而导致的任何损害,Microsoft 概不负责。

行为准则

本项目已采纳 Microsoft 开源行为准则。如需更多信息,请参阅 行为准则常见问题解答 或发送电子邮件至 open@microsoft.com,提出任何其他问题或意见。

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|4天前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|4天前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

148.6k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.1k|★★☆☆☆|昨天
开发框架图像Agent

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|3天前
插件开发框架

LLMs-from-scratch

LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备

90.1k|★★★☆☆|3天前
语言模型图像Agent