tensorflow-federated
TensorFlow Federated 是一个专为去中心化数据设计的开源机器学习框架。它核心解决了数据隐私与孤岛难题,允许在数据保留于本地设备(如手机、传感器)的前提下,协同训练全局模型,无需将敏感原始数据上传至服务器。这种“联邦学习”模式既保障了用户隐私,又实现了多方数据的价值挖掘。
该工具主要面向机器学习开发者与研究人员。对于希望快速落地的开发者,其提供的联邦学习高层接口(FL API)能轻松将现有 TensorFlow 模型转化为联邦训练任务;对于致力于算法创新的研究者,底层的联邦核心接口(FC API)则结合了强类型函数式编程与分布式通信算子,支持灵活构建和实验 novel 算法。此外,它也适用于需要跨机构进行聚合分析但不愿共享原始数据的场景。
TensorFlow Federated 的独特亮点在于其分层架构设计:上层封装了成熟的联邦平均等算法,降低使用门槛;下层提供了声明式的计算表达机制,使同一套逻辑可部署于多样化的运行环境。框架内置单机模拟运行时,方便用户在本地高效验证想法,是探索隐私保护计算的理想起点。
使用场景
某大型医疗联盟希望联合多家医院训练一个疾病预测模型,但受限于患者隐私法规,各医院的病历数据严禁出院或上传至云端。
没有 tensorflow-federated 时
- 数据孤岛难以突破:由于无法集中数据,研究人员只能在各医院本地单独训练模型,导致单个模型因数据量小而准确率低下,无法形成合力。
- 隐私合规风险极高:若强行构建中心服务器收集数据,不仅违反 HIPAA 等隐私法规,还面临巨大的数据泄露法律风险。
- 算法验证成本高昂:研发人员需手动编写复杂的分布式通信代码来模拟联邦学习流程,调试困难且极易出错,新算法从构思到验证周期长达数月。
- 异构数据适配困难:不同医院的设备算力和数据格式差异巨大,缺乏统一框架来屏蔽底层异构性,导致部署方案难以通用。
使用 tensorflow-federated 后
- 实现“数据不动模型动”:利用
tff.learning接口,直接将全局模型下发至各医院本地训练,仅上传加密后的模型参数更新,完美解决隐私合规难题。 - 快速构建高精度全局模型:通过内置的联邦平均算法(Federated Averaging),自动聚合多家医院的局部更新,在数据不出院的前提下显著提升了模型的泛化能力和准确率。
- 高效实验与原型开发:借助单机模拟运行时,开发者可在本地快速复现分布式场景,将新算法的验证周期从数月缩短至几天,大幅降低试错成本。
- 灵活定制联邦策略:通过底层的 Federated Core (FC) API,研究团队能轻松自定义聚合逻辑,灵活适配不同医院的算力限制和数据分布特征。
tensorflow-federated 让医疗机构在不牺牲数据隐私的前提下,成功打破了数据孤岛,实现了安全、高效的协同智能进化。
运行环境要求
未说明
未说明

快速开始
TensorFlow Federated
TensorFlow Federated (TFF) 是一个用于在去中心化数据上进行机器学习及其他计算的开源框架。TFF 的开发旨在促进对 联邦学习 (FL) 的开放研究与实验。联邦学习是一种机器学习方法,其中共享的全局模型由众多参与客户端协作训练,而这些客户端则将其训练数据保留在本地。例如,联邦学习已被用于训练 移动键盘预测模型,且无需将敏感的输入数据上传至服务器。
TFF 使开发者能够在其模型和数据上使用内置的联邦学习算法,同时也可以尝试新的算法。此外,TFF 提供的构建模块还可用于实现非学习类计算,例如对去中心化数据的聚合分析。
TFF 的接口分为两层:
联邦学习 (FL) API
tff.learning层提供了一组高级接口,允许开发者将内置的联邦训练和评估实现应用于其现有的 TensorFlow 模型。联邦核心 (FC) API
系统的核心是一组低级接口,可在强类型函数式编程环境中,通过结合 TensorFlow 和分布式通信算子,简洁地表达新颖的联邦算法。这一层也是我们构建tff.learning的基础。
TFF 允许开发者以声明式的方式表达联邦计算,从而使其能够部署到不同的运行时环境。TFF 自带单机模拟运行时,可用于实验。请参阅教程并亲自试用!
安装
有关如何将 TensorFlow Federated 作为软件包安装或从源代码构建的说明,请参阅 安装文档。
入门
有关如何使用 TensorFlow Federated 的说明,请参阅 入门文档。
贡献
根据您的兴趣,有多种方式可以参与贡献:
如果您对开发新的联邦学习算法感兴趣,最好的起点是研究
tff.learning中联邦平均和评估的实现,并思考对现有实现的扩展(或替代方案)。如果您有新的算法提案,建议先将其项目暂存于research目录中,并附上 Colab 笔记本来展示新功能。您也可以在自己的仓库中开发新算法。我们很乐意在 tensorflow.org/federated 上推荐使用 TFF 的学术论文和/或代码库链接。
如果您对应用联邦学习感兴趣,可以考虑贡献教程、新的联邦数据集,或可供他人用于实验和测试的示例模型;或者编写帮助类,以便他人在搭建模拟环境时使用。
如果您希望帮助我们改善开发者体验,最好的开始方式是研究
tff.learningAPI 背后的实现,并思考如何使代码更加简洁高效。您可以贡献基于 FC API 的辅助类,或为 FC API 本身提出改进建议。如果您希望帮助我们开发用于模拟及其他场景的运行时基础设施,请等待未来的版本发布,届时我们将推出用于贡献模拟基础设施的接口和指南。
请务必阅读 贡献指南,了解具体的贡献方式。
问题
请使用 GitHub Issues 来跟踪请求和 bug。
问答
如有疑问,请在 Stack Overflow 上使用 tensorflow-federated 标签提问。
版本历史
v0.88.02024/09/26v0.87.02024/09/17v0.86.02024/08/20v0.85.02024/08/14v0.84.02024/07/29v0.83.02024/07/16v0.82.02024/06/28v0.81.02024/06/17v0.80.02024/06/08v0.79.02024/05/24v0.78.02024/05/09v0.77.02024/04/26v0.76.02024/04/19v0.75.02024/04/05v0.74.02024/03/20v0.73.02024/03/11v0.72.02024/02/27v0.71.02024/02/13v0.70.02024/02/02v0.69.02024/01/23相似工具推荐
openclaw
OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
markitdown
MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器
LLMs-from-scratch
LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目,旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型(LLM)。它不仅是同名技术著作的官方代码库,更提供了一套完整的实践方案,涵盖模型开发、预训练及微调的全过程。 该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型,却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码,用户能够透彻掌握 Transformer 架构、注意力机制等关键原理,从而真正理解大模型是如何“思考”的。此外,项目还包含了加载大型预训练权重进行微调的代码,帮助用户将理论知识延伸至实际应用。 LLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API,而是渴望探究模型构建细节的技术人员而言,这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计:将复杂的系统工程拆解为清晰的步骤,配合详细的图表与示例,让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础,还是为未来研发更大规模的模型做准备