[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-IBM--federated-learning-lib":3,"tool-IBM--federated-learning-lib":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":93,"forks":94,"last_commit_at":95,"license":96,"difficulty_score":97,"env_os":98,"env_gpu":99,"env_ram":98,"env_deps":100,"category_tags":107,"github_topics":76,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":108,"updated_at":109,"faqs":110,"releases":141},5108,"IBM\u002Ffederated-learning-lib","federated-learning-lib","A library for federated learning (a distributed machine learning process) in an enterprise environment.","federated-learning-lib 是 IBM 推出的一个开源 Python 框架，专为企业级联邦学习场景设计。它允许参与方在数据保留本地的前提下，通过特定的学习协议协同训练模型，从而有效解决数据隐私保护、合规性要求以及大规模数据集中传输困难等核心痛点。\n\n这款工具非常适合机器学习工程师、算法研究人员以及需要在数据中心或边缘设备部署分布式学习方案的开发团队使用。其最大亮点在于高度的灵活性与扩展性：它不依赖特定的机器学习后端，完美支持 Keras、PyTorch 和 TensorFlow 等主流框架；既能处理深度神经网络，也涵盖线性回归、决策树等传统机器学习算法，甚至支持深度强化学习。此外，federated-learning-lib 内置了丰富的模型融合算法库，不仅包含经典的 FedAvg，还集成了 Krum、FedProx 等多种前沿算法，帮助用户根据实际需求优化模型的收敛速度、训练效率及鲁棒性，为联邦学习的项目落地与学术研究提供了坚实可靠的基础设施。","# \u003Cd>\u003C\u002Fd> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIBM_federated-learning-lib_readme_87ee534a971d.png\"> IBM Federated Learning  \n\n## What is it?\n\nIBM federated learning is a Python framework for federated learning (FL) in an enterprise environment. FL is a distributed machine learning process, in which each participant node (or party) retains data locally and interacts with the other participants via a learning protocol. The main drivers behind FL are privacy and confidentiality concerns, regulatory compliance requirements, as well as the practicality of moving data to one central learning location.\n\nIBM federated learning provides a basic fabric for FL, to which advanced features can be added. It is not dependent on any specific machine learning framework and supports different learning topologies, e.g., a shared aggregator, and protocols. It supports Deep Neural Networks (DNNs) as well as classic machine learning techniques such as linear regression and k-means. This comprises supervised and unsupervised approaches as well as reinforcement learning. The figure below shows a typical configuration of an aggregator based federated learning setup supported by IBM federated learning.\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIBM_federated-learning-lib_readme_2b00daef1535.png\" width=\"566\">\n\u003C\u002Fp>\n\nA set of parties own data and each trains a local model. The parties exchange updates with an aggregator using a FL protocol. The aggregator fuses (aggregates) the results from the different parties and ships the consolidated results back to the parties. This can go through multiple rounds until a termination criterion is reached. IBM federated learning supports the configuration of these training scenarios.\n\nThe key design points of IBM federated learning are the ease of use for the machine learning professional, configurability to different computational environments - from data centers to edge devices - and extensibility. It can be extended to work with different machine learning (ML) libraries, learning protocols, and fusion algorithms. This provides a basic fabric on which FL projects can be run and research in FL learning can take place.\n\nIBM federated learning comes with a large library of fusion algorithms for both DNNs and classic ML approaches, consisting of implementations of both common, published fusion algorithms as well as novel ones we have developed.\n\n## Supported functionality\n\nIBM federated learning supports the following machine learning model types:\n\n- Neural networks (any neural network topology supported by Keras, PyTorch and Tensorflow)\n- Decision Tree ID3\n- Linear classifiers\u002Fregressions (with regularizer): logistic regression, linear SVM, ridge regression, Kmeans and Naïve Bayes\n- Deep Reinforcement Learning algorithms including DQN, DDPG, PPO and more\n\nIBM federated learning supports multiple state-of-the-art fusion algorithms to combine model updates coming from multiple parties. Changes in this algorithm may speed up the convergence, reduce training time or improve model robustness.\nFor a particular ML model, you can select multiple types of fusion algorithms:\n\n| *Supported ML Models* | *Supported fusion algorithms* |\n| --- | --- |\n| Neural Networks | Iterative Average |\n|     | FedAvg  [McMahan et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.05629) |\n|     | Gradient Average |\n|     | PFNM  [Yurochkin et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.12022) |\n|     | Krum [Blanchard et al.](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6617-machine-learning-with-adversaries-byzantine-tolerant-gradient-descent.pdf) |\n|     | Coordinate-wise median [Yin et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.01498) |\n|     | Zeno [Xie et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.10032) |\n|     | SPAHM [Yurochkin et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.00218) |\n|     | Fed+ [Yu et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06303) |\n|     | FedProx: [Tian Li et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.06127) |\n|     | Shuffle Iterative Average [Cheng et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.09400)|\n|     | Comparative Elimination [Gupta et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.11769) |\n|     | Adaptive Federated Averaging [Muñoz-González et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.05125) |\n| ID3 Decision Tree | ID3 fusion [Quinlan](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002FBF00116251) |\n| Reinforcement Learning RLLib models | Iterative Average |\n|     | FedAvg [McMahan et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.05629) |\n| Linear classifiers with SGD | Iterative Average |\n| K-means | SPAHM [Yurochkin et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.00218) |\n| Naïve Bayes | Naive Bayes fusion with differential privacy|\n\nWe also support the following fairness techniques that help to mitigate bias in federated learning and can be coupled for multiple types of ML models:\n\n| *Fairness techniques* | *Algorithm types* | *Supported ML models* |\n| --- | --- | --- |\n| Local Reweighing [Abay et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447)| Pre-processing | All ML models |\n| Global Reweighing with Differetial Privacy [Abay et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447)| Pre-processing | All ML models |\n| Federated Prejudice Removal [Abay et al.](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447) | In-processing | Logistic Regression |\n\nIn order to aid orchestration of Federated Learning experiments using the IBMFL library, we also provide a Jupyter Notebook based UI interface, [Experiment Manager Dashboard](experiment_manager\u002FExperiment_Manager_dashboard.ipynb) where users can choose the model, fusion algorithm, number of parties and other (hyper) parameters for a run. This orchestration can be done on the machine where the notebook is hosted, i.e., locally or even across remote machines. The usage guide on how to go about using the dashboard can be found [here](experiment_manager\u002Fusage_guide.md).\n\nIBMFL Multi-Cloud and Hybrid Cloud Orchestrator automates the deployment and monitoring of aggregator and party process using federated learning library docker image on OpenShift clusters which are setup on different cloud data center regions. For more information on how to use OpenShift Orchestrator please refer to [README](openshift_fl\u002FREADME.md).\n\n## How to get started?\n\nClone the repository. The main framework runtime is packaged in a [whl file](federated-learning-lib\u002F).\n\nTry the [set-up guide](setup.md) for a single-node federated learning setup.\n\nTry the [crypto set-up guide](setup-crypto.md) for running federated learning with fully homomorphic encryption (HE).\n\nThere are a number of [examples](examples\u002FREADME.md) with explanation for different federated learning tasks with different model types to get started with.\n\nPlaying with IBM FL via [pre-configured examples](examples\u002Fiter_avg) on popular datasets, e.g, [MNIST](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F), [CIFAR10](https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html), [FEMNIST](https:\u002F\u002Fgithub.com\u002FTalwalkarLab\u002Fleaf\u002Ftree\u002Fmaster\u002Fdata\u002Ffemnist) and [Adult](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FAdult), etc.\n\nTry our experiment manager [here](experiment_manager).\n\nTry IBM FL with OpenShift [here](openshift_fl).\n\n## How does it work?\n\nThere is a [docs folder](.\u002Fdocs) with tutorials and API documentation to learn how to use and extend IBM federated learning. We also have a few [video tutorials](https:\u002F\u002Fibmfl.res.ibm.com\u002Fvid-intro).\n\n- [Web Site](https:\u002F\u002Fibmfl.res.ibm.com\u002F)\n- [Aggregator and party configuration tutorial](docs\u002Ftutorials\u002Fconfigure_fl.md)\n- [API documentation](https:\u002F\u002Fibmfl-api-docs.res.ibm.com\u002F)\n- [Related publications](docs\u002Fpapers.md)\n- [White paper](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.10987)\n\n## How to get in touch?\n\nWe appreciate feedback and questions. Please post issues when you encounter them.\n\nWe have set up a Slack channel for ongoing discussion. Join the IBM federated learning workspace: \u003Chttps:\u002F\u002Fibm-fl.slack.com\u002F>. If the previous link does not work for you, you can also use [this invitation link](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fibm-fl\u002Fshared_invite\u002Fzt-ff0k1xgh-IL9Aq6sW6rNny9gDdnEttQ).\n\n## Citing IBM Federated Learning\n\nIf you use IBM Federated Learning, please cite the following reference paper:\n\n```bibtex\n@article{ibmfl2020ibm,\n  title={IBM Federated Learning: an Enterprise Framework White Paper V0. 1},\n  author={Ludwig, Heiko and Baracaldo, Nathalie and Thomas, Gegi and Zhou, Yi and Anwar, Ali and Rajamoni, Shashank and Ong, Yuya and Radhakrishnan, Jayaram and Verma, Ashish and Sinn, Mathieu and others},\n  journal={arXiv preprint arXiv:2007.10987},\n  year={2020}\n}\n```\n\n## Ongoing effort\n\nThis is an ongoing effort. We plan to update this repo as new functionality is added frequently.\n\n## License\n\nThe distribution of IBM federated learning in this repository is for non-commercial and experimental use under this [license](LICENSE). For commercial use IBM federated learning is available in [IBM CloudPak for Data](https:\u002F\u002Fwww.ibm.com\u002Fproducts\u002Fcloud-pak-for-data?_ga=2.110789637.1485356781.1606942871-1842160356.1605046314) and as a [service](https:\u002F\u002Fdataplatform.cloud.ibm.com\u002Fdocs\u002Fcontent\u002Fwsj\u002Fgetting-started\u002Fwhats-new.html?_ga=2.114396295.1485356781.1606942871-1842160356.1605046314).\n","# \u003Cd>\u003C\u002Fd> \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIBM_federated-learning-lib_readme_87ee534a971d.png\"> IBM 联邦学习  \n\n## 是什么？\n\nIBM 联邦学习是一个用于企业环境中联邦学习（FL）的 Python 框架。联邦学习是一种分布式机器学习过程，其中每个参与节点（或参与方）在其本地保留数据，并通过学习协议与其他参与方进行交互。联邦学习的主要驱动力是隐私和机密性问题、监管合规要求，以及将数据集中到一个中心位置进行学习的实际可行性。\n\nIBM 联邦学习提供了一个联邦学习的基础框架，可以在其上添加高级功能。它不依赖于任何特定的机器学习框架，支持不同的学习拓扑结构，例如共享聚合器，以及多种协议。它既支持深度神经网络（DNN），也支持线性回归和 k-means 等经典机器学习技术。这涵盖了监督学习、无监督学习以及强化学习等多种方法。下图展示了由 IBM 联邦学习支持的基于聚合器的典型联邦学习配置。\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIBM_federated-learning-lib_readme_2b00daef1535.png\" width=\"566\">\n\u003C\u002Fp>\n\n一组参与方各自拥有数据，并在本地训练模型。这些参与方使用联邦学习协议与聚合器交换更新信息。聚合器会融合（聚合）来自不同参与方的结果，并将整合后的结果返回给各参与方。这一过程可以反复进行，直到满足终止条件为止。IBM 联邦学习支持对这些训练场景的配置。\n\nIBM 联邦学习的关键设计点在于：易于机器学习专业人员使用、可配置于不同的计算环境——从数据中心到边缘设备——以及高度可扩展性。它可以扩展以兼容不同的机器学习（ML）库、学习协议和融合算法。这为运行联邦学习项目和开展联邦学习研究提供了基础框架。\n\nIBM 联邦学习自带一个庞大的融合算法库，涵盖深度神经网络和经典机器学习方法，其中包括常见的已发表融合算法以及我们自主研发的新算法。\n\n## 支持的功能\n\nIBM 联邦学习支持以下机器学习模型类型：\n\n- 神经网络（Keras、PyTorch 和 Tensorflow 支持的任意神经网络拓扑）\n- ID3 决策树\n- 带正则化的线性分类器\u002F回归模型：逻辑回归、线性 SVM、岭回归、Kmeans 和朴素贝叶斯\n- 深度强化学习算法，包括 DQN、DDPG、PPO 等\n\nIBM 联邦学习支持多种最先进的融合算法，用于结合来自多个参与方的模型更新。调整这些算法可以加快收敛速度、缩短训练时间或提高模型的鲁棒性。\n对于特定的机器学习模型，您可以选择多种融合算法：\n\n| *支持的机器学习模型* | *支持的融合算法* |\n| --- | --- |\n| 神经网络 | 迭代平均 |\n|     | FedAvg [McMahan 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.05629) |\n|     | 梯度平均 |\n|     | PFNM [Yurochkin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.12022) |\n|     | Krum [Blanchard 等人](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6617-machine-learning-with-adversaries-byzantine-tolerant-gradient-descent.pdf) |\n|     | 坐标中位数 [Yin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.01498) |\n|     | Zeno [Xie 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.10032) |\n|     | SPAHM [Yurochkin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.00218) |\n|     | Fed+ [Yu 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06303) |\n|     | FedProx: [Tian Li 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1812.06127) |\n|     | 洗牌迭代平均 [Cheng 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2105.09400)|\n|     | 比较消除 [Gupta 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.11769) |\n|     | 自适应联邦平均 [Muñoz-González 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.05125) |\n| ID3 决策树 | ID3 融合 [Quinlan](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002FBF00116251) |\n| 强化学习 RLLib 模型 | 迭代平均 |\n|     | FedAvg [McMahan 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1602.05629) |\n| 带 SGD 的线性分类器 | 迭代平均 |\n| K-means | SPAHM [Yurochkin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.00218) |\n| 朴素贝叶斯 | 结合差分隐私的朴素贝叶斯融合 |\n\n我们还支持以下公平性技术，这些技术有助于缓解联邦学习中的偏见，并且可以与多种机器学习模型结合使用：\n\n| *公平性技术* | *算法类型* | *支持的机器学习模型* |\n| --- | --- | --- |\n| 本地重加权 [Abay 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447) | 预处理 | 所有机器学习模型 |\n| 全局重加权结合差分隐私 [Abay 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447) | 预处理 | 所有机器学习模型 |\n| 联邦偏见消除 [Abay 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447) | 处理中 | 逻辑回归 |\n\n为了帮助用户使用 IBMFL 库编排联邦学习实验，我们还提供了一个基于 Jupyter Notebook 的 UI 界面，即 [实验管理仪表板](experiment_manager\u002FExperiment_Manager_dashboard.ipynb)，用户可以在其中选择模型、融合算法、参与方数量以及其他（超）参数来运行实验。这种编排可以在运行笔记本的机器上完成，即本地或跨远程机器。关于如何使用该仪表板的使用指南可以在此处找到 [这里](experiment_manager\u002Fusage_guide.md)。\n\nIBMFL 多云和混合云编排器能够自动化部署和监控使用联邦学习库 Docker 镜像的聚合器和参与方进程，这些进程运行在不同云数据中心区域上搭建的 OpenShift 集群中。有关如何使用 OpenShift 编排器的更多信息，请参阅 [README](openshift_fl\u002FREADME.md)。\n\n## 如何开始？\n\n克隆仓库。主框架运行时被打包在一个 [whl 文件](federated-learning-lib\u002F)中。\n\n尝试 [单节点联邦学习设置指南](setup.md)。\n\n尝试 [加密设置指南](setup-crypto.md)，以使用全同态加密（HE）运行联邦学习。\n\n有许多带有说明的 [示例](examples\u002FREADME.md)，涵盖了不同类型的联邦学习任务和不同的模型类型，可供入门参考。\n\n通过 [预配置示例](examples\u002Fiter_avg)在流行的数据集上玩转 IBM FL，例如 [MNIST](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F)、[CIFAR10](https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html)、[FEMNIST](https:\u002F\u002Fgithub.com\u002FTalwalkarLab\u002Fleaf\u002Ftree\u002Fmaster\u002Fdata\u002Ffemnist) 和 [Adult](https:\u002F\u002Farchive.ics.uci.edu\u002Fml\u002Fdatasets\u002FAdult) 等。\n\n在这里尝试我们的实验管理器 [这里](experiment_manager)。\n\n在这里尝试 IBM FL 与 OpenShift 的结合 [这里](openshift_fl)。\n\n## 它是如何工作的？\n\n我们提供了一个 [docs 文件夹](.\u002Fdocs)，其中包含教程和 API 文档，帮助您学习如何使用和扩展 IBM 联邦学习。此外，我们还准备了几段 [视频教程](https:\u002F\u002Fibmfl.res.ibm.com\u002Fvid-intro)。\n\n- [官方网站](https:\u002F\u002Fibmfl.res.ibm.com\u002F)\n- [聚合器与参与方配置教程](docs\u002Ftutorials\u002Fconfigure_fl.md)\n- [API 文档](https:\u002F\u002Fibmfl-api-docs.res.ibm.com\u002F)\n- [相关论文](docs\u002Fpapers.md)\n- [白皮书](https:\u002F\u002Farxiv.org\u002Fabs\u002F2007.10987)\n\n## 如何联系我们？\n\n我们非常欢迎反馈和问题。如果您遇到任何问题，请提交 Issue。\n\n我们已建立了一个 Slack 频道，用于持续交流。请加入 IBM 联邦学习工作区：[https:\u002F\u002Fibm-fl.slack.com\u002F](https:\u002F\u002Fibm-fl.slack.com\u002F)。如果该链接无法访问，您也可以使用此邀请链接：[https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fibm-fl\u002Fshared_invite\u002Fzt-ff0k1xgh-IL9Aq6sW6rNny9gDdnEttQ](https:\u002F\u002Fjoin.slack.com\u002Ft\u002Fibm-fl\u002Fshared_invite\u002Fzt-ff0k1xgh-IL9Aq6sW6rNny9gDdnEttQ)。\n\n## 引用 IBM 联邦学习\n\n如果您使用了 IBM 联邦学习，请引用以下参考文献：\n\n```bibtex\n@article{ibmfl2020ibm,\n  title={IBM Federated Learning: an Enterprise Framework White Paper V0. 1},\n  author={Ludwig, Heiko and Baracaldo, Nathalie and Thomas, Gegi and Zhou, Yi and Anwar, Ali and Rajamoni, Shashank and Ong, Yuya and Radhakrishnan, Jayaram and Verma, Ashish and Sinn, Mathieu and others},\n  journal={arXiv preprint arXiv:2007.10987},\n  year={2020}\n}\n```\n\n## 持续改进中\n\n本项目仍在持续开发中。随着新功能的不断添加，我们将定期更新此仓库。\n\n## 许可协议\n\n本仓库中分发的 IBM 联邦学习仅供非商业性和实验性用途，遵循此 [许可协议](LICENSE)。如需商业用途，IBM 联邦学习可在 [IBM CloudPak for Data](https:\u002F\u002Fwww.ibm.com\u002Fproducts\u002Fcloud-pak-for-data?_ga=2.110789637.1485356781.1606942871-1842160356.1605046314) 中获得，也可作为一项 [服务](https:\u002F\u002Fdataplatform.cloud.ibm.com\u002Fdocs\u002Fcontent\u002Fwsj\u002Fgetting-started\u002Fwhats-new.html?_ga=2.114396295.1485356781.1606942871-1842160356.1605046314) 使用。","# IBM Federated Learning (IBMFL) 快速上手指南\n\nIBM Federated Learning 是一个专为企业环境设计的 Python 联邦学习框架。它支持分布式机器学习，允许参与节点在本地保留数据，仅通过协议交换模型更新，从而满足隐私保护和合规性要求。该框架不依赖特定的机器学习后端，支持 Keras、PyTorch、TensorFlow 等主流库，涵盖深度学习、经典机器学习（如线性回归、K-means）及强化学习等多种场景。\n\n## 1. 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu\u002FCentOS)、macOS 或 Windows (需配置 WSL)。\n*   **Python 版本**：Python 3.7 或更高版本（推荐 3.8+）。\n*   **前置依赖**：\n    *   `pip` (Python 包管理工具)\n    *   `git` (用于克隆代码库)\n    *   根据您选择的模型后端，可能需要安装 `tensorflow`, `pytorch`, 或 `scikit-learn`。\n\n> **注意**：国内开发者若遇到网络延迟，建议在安装 Python 依赖时使用清华或阿里镜像源（见安装步骤）。\n\n## 2. 安装步骤\n\n### 第一步：克隆仓库\n首先从 GitHub 克隆项目代码：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib.git\ncd federated-learning-lib\n```\n\n### 第二步：安装核心库\n框架的核心运行时打包在 `.whl` 文件中。进入目录并安装：\n\n```bash\npip install federated-learning-lib\u002Fdist\u002F*.whl\n```\n\n> **国内加速建议**：如果默认源下载缓慢，请使用以下命令指定清华镜像源安装：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple federated-learning-lib\u002Fdist\u002F*.whl\n> ```\n\n### 第三步：安装额外依赖（可选）\n根据您的具体任务（如使用 PyTorch 或 TensorFlow），可能需要安装额外的深度学习库。框架本身是通用的，但运行示例通常需要这些后端：\n\n```bash\n# 示例：安装常见的深度学习依赖\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow torch torchvision scikit-learn\n```\n\n## 3. 基本使用\n\nIBMFL 提供了丰富的示例和可视化管理工具。以下是两种最快捷的启动方式。\n\n### 方式一：运行预配置示例 (命令行)\n框架内置了基于 MNIST、CIFAR10 等数据集的示例。以简单的迭代平均（Iterative Average）为例：\n\n1.  进入示例目录：\n    ```bash\n    cd examples\u002Fiter_avg\n    ```\n2.  查看该目录下的 `README.md` 或脚本，通常可以通过运行启动脚本来模拟聚合器（Aggregator）和参与方（Party）：\n    ```bash\n    # 启动聚合器 (在一个终端窗口)\n    python run_aggregator.py\n    \n    # 启动参与方 (在另一个终端窗口)\n    python run_party.py\n    ```\n    *(注：具体脚本文件名请参考 `examples\u002Fiter_avg` 目录下的实际文件)*\n\n### 方式二：使用实验管理仪表盘 (Jupyter Notebook)\nIBMFL 提供了一个基于 Jupyter Notebook 的图形化界面，用于编排实验、选择模型、融合算法及设置超参数。\n\n1.  启动 Jupyter Notebook：\n    ```bash\n    jupyter notebook experiment_manager\u002FExperiment_Manager_dashboard.ipynb\n    ```\n2.  在浏览器打开的界面中：\n    *   选择机器学习模型类型（如 Neural Networks, Linear Regression）。\n    *   选择融合算法（如 FedAvg, Krum, SPAHM）。\n    *   设置参与方数量和其他超参数。\n    *   点击运行即可在本地或远程机器上 orchestrate（编排）联邦学习实验。\n\n### 进阶：加密与云部署\n*   **同态加密**：如需启用完全同态加密（HE），请参考 `setup-crypto.md` 指南进行配置。\n*   **OpenShift 部署**：若需在多云或混合云环境自动化部署，可参考 `openshift_fl\u002FREADME.md` 使用 Docker 镜像在 OpenShift 集群上运行。\n\n---\n*更多详细教程、API 文档及视频指南，请访问官方文档目录 `docs\u002F` 或访问 [IBMFL 官网](https:\u002F\u002Fibmfl.res.ibm.com\u002F)。*","某跨国医疗集团联合三家医院共同训练癌症影像诊断模型，但受限于患者隐私法规，各院数据无法离开本地服务器。\n\n### 没有 federated-learning-lib 时\n- 数据合规风险极高：为满足 GDPR 等法规，团队不得不放弃多中心数据联合训练，导致模型因样本单一而泛化能力差。\n- 开发适配成本巨大：工程师需手动编写复杂的分布式通信代码来协调不同医院的异构环境（从数据中心到边缘设备），极易出错且难以维护。\n- 算法选择受限：缺乏现成的安全聚合机制，无法有效防御恶意节点攻击或处理数据分布不均（Non-IID）问题，模型收敛缓慢甚至失效。\n- 框架绑定严重：若某家医院仅支持 PyTorch 而另一家使用 TensorFlow，传统方案难以在同一流程中兼容多种深度学习框架。\n\n### 使用 federated-learning-lib 后\n- 隐私与合规无忧：各医院数据始终保留在本地，仅通过联邦学习协议交换加密的模型更新参数，完美契合监管要求并实现了高质量联合建模。\n- 部署效率显著提升：利用其内置的企业级架构，快速配置了“聚合器 - 参与方”拓扑，无缝对接从云端到边缘的各种计算环境，大幅降低开发门槛。\n- 模型鲁棒性增强：直接调用库中集成的 FedProx、Krum 等先进融合算法，有效解决了数据异构难题并抵御了潜在的攻击，加速了模型收敛。\n- 技术栈灵活兼容：无需统一底层框架，成功让基于 Keras、PyTorch 和 Tensorflow 的不同本地模型在同一联邦网络中协同训练。\n\nfederated-learning-lib 通过在不移动原始数据的前提下打通了孤岛间的智能协作，让企业在严守隐私红线的基础上释放了分布式数据的最大价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FIBM_federated-learning-lib_9838fe85.png","IBM","International Business Machines","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FIBM_251be740.jpg","Open Source @ IBM",null,"ibmdeveloper","https:\u002F\u002Fwww.ibm.com\u002Fopensource\u002F","https:\u002F\u002Fgithub.com\u002FIBM",[81,85,89],{"name":82,"color":83,"percentage":84},"Python","#3572A5",99.5,{"name":86,"color":87,"percentage":88},"Dockerfile","#384d54",0.3,{"name":90,"color":91,"percentage":92},"Shell","#89e051",0.2,532,140,"2026-03-31T14:43:57","NOASSERTION",4,"未说明","未说明 (支持深度学习框架如 PyTorch\u002FTensorFlow，具体取决于所选模型)",{"notes":101,"python":98,"dependencies":102},"该工具是一个企业级联邦学习框架，不依赖特定的机器学习框架，但需自行安装对应的后端库（如 PyTorch 或 TensorFlow）。支持从数据中心到边缘设备的多种计算环境。提供基于 Jupyter Notebook 的实验管理界面。支持完全同态加密（HE）配置。商业使用需通过 IBM CloudPak for Data 或服务获取，仓库版本仅限非商业和实验用途。",[103,104,105,106],"Keras","PyTorch","TensorFlow","RLLib",[14],"2026-03-27T02:49:30.150509","2026-04-08T00:51:25.681007",[111,116,121,126,131,136],{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},23208,"安装时遇到 numpy 版本冲突错误（如 federated-learning-lib 需要 numpy==1.17.4，而 gym 需要 >=1.18.0）如何解决？","这是一个已知的依赖冲突问题。维护者已在新版本的 WHL 文件中移除了对特定 numpy 版本的严格限制。请尝试下载并安装最新版本的 WHL 文件，通常可以解决此问题。如果仍然报错，建议检查是否使用了过时的安装包。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F112",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},23209,"如何在不同机器（如两台笔记本电脑）之间配置聚合器（Aggregator）和参与方（Party）的连接？","如果在不同系统间配置 IP 地址后仍无法建立连接或出现注册错误，推荐使用 Docker 来部署环境。使用 Docker 可以简化网络配置，帮助聚合器和参与方成功建立安全连接并进行通信训练。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F29",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},23210,"运行代码时出现 'AttributeError: Party object has no attribute \"connection\"' 错误怎么办？","该问题通常是由于使用了旧版本的代码或 Notebook 导致的。解决方案是从主分支（main branch）拉取最新的代码，并运行更新后的 Notebook 示例，这将修复该属性缺失的问题。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F102",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},23211,"在 Python 3.6 和 TensorFlow 2.1.0 环境下安装 WHL 文件失败怎么办？","维护者确认已测试过 TF 2.1.0 与 Python 3.6.0 及 3.7.9 的兼容性。如果遇到安装错误，通常是因为 numpy 版本依赖冲突。请确保拉取并安装了移除 numpy 版本限制的最新版 WHL 文件后再试。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F93",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},23212,"如何配置热启动（warm start）模式并提供初始模型？","用户可以通过外部脚本拟合模型，将其序列化为 .pickle 文件，并在聚合器的 YAML 配置文件中指定该模型文件的路径。注意：如果在加载模型后遇到 'coef_' 属性不存在的错误，可能是框架加载机制的问题，建议加入官方 Slack 社区获取针对该特定错误的最新修复方案或变通方法。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F60",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},23213,"运行 XGBoost 联邦学习教程时出现配置错误或初始化失败如何处理？","此类错误常因配置文件缺失（如 log_config.yaml）或参数传递不当引起。请确保所有必需的 YAML 配置文件存在于正确路径，且 Party 初始化时传入的配置字典（config_dict）格式正确。如果问题持续，建议检查 ibmfl 库的版本是否与教程匹配，或查看是否有更新的配置示例。","https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F83",[142,147,152,157,162,167,172,177,182,187],{"id":143,"version":144,"summary_zh":145,"released_at":146},136892,"v2.0.1","# 版本 2.0.1\n\nIBMFL 2.0.1 修复了一个 numpy 版本兼容性问题。","2023-08-01T20:53:06",{"id":148,"version":149,"summary_zh":150,"released_at":151},136893,"v2.0.0","# 版本 2.0.0\nIBMFL 2.0.0 大幅简化了运行环境的搭建方式，并新增了法定人数检查功能、增强了 Docker 支持，同时修复了一些 bug。\n\n## 破坏性变更：\n* 新增 `quickstart.md`、`setup.md` 和 `setup_crypto.md` 文件，用于虚拟环境的搭建。\n* 提供新的安装说明，以支持 Mac M1\u002FM2 用户，请参阅 `setup.md`。\n* 移除 `requirement.txt` 文件。\n\n## 改进\n* 引入新的法定人数检查机制，以减少聚合器的等待时间，详情请参阅[更新后的教程](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fblob\u002Fmain\u002Fdocs\u002Ftutorials\u002Fquorum_rejoin.md)。\n* 新增使用 _完全同态加密_ 进行训练的 CLI 示例。\n* 为 _完全同态加密_ 提供 Docker 支持。\n* 新增在 OpenShift 上运行的 FHE 示例。\n* 将 Scikit-learn 的支持版本升级至 1.0.2。\n* 改进了 README 文件。\n* 改进了教程。\n\n## Bug 修复\n* 修复了日志、示例和笔记本中的少量拼写错误。\n","2023-07-19T23:07:04",{"id":153,"version":154,"summary_zh":155,"released_at":156},136894,"v1.1.0","# 版本 1.1.0\nIBMFL 1.1.0 包含新的**加密功能**、新的融合算法、改进以及错误修复。\n\n## 新功能\n* **与全同态加密（FHE）集成**\n* 新的鲁棒融合算法 [自适应联邦平均](https:\u002F\u002Farxiv.org\u002Fabs\u002F1909.05125)\n* [新教程](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fblob\u002Fv1.1.0\u002Fsetup-crypto.md)，介绍如何在 IBM FL 中使用加密技术（FHE）\n* 新的 Jupyter 笔记本，演示如何在 IBM FL 中为 [TensorFlow](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Ftree\u002Fmain\u002FNotebooks\u002Fcrypto_fhe_tensorflow)、[PyTorch](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Ftree\u002Fmain\u002FNotebooks\u002Fcrypto_fhe_pytorch) 和 [Scikit-learn](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Ftree\u002Fmain\u002FNotebooks\u002Fcrypto_fhe_sklearn) 使用 FHE\n\n## 变更\n* 支持更高版本的 Skorch、PyTorch 和强化学习库\n* 改进了 README 文件\n* 改进了教程\n\n## 错误修复\n* 对联邦平均融合算法进行了小幅修复，使其能够与数据生成器配合使用\n* 修复了负均方根误差（nrmse）和负均方误差（nmse）指标计算错误\n* 修复了与 OpenShift 相关的问题","2022-11-22T00:41:49",{"id":158,"version":159,"summary_zh":160,"released_at":161},136895,"v1.0.7","# 版本 1.0.7\nIBMFL 1.0.7 包含新功能、改进和错误修复。\n## 变更\n* 重新组织示例，以更好地帮助最终用户\n* 新增关于如何添加新融合算法的教程\n* 改进了 README 文件\n* 对 PyTorch 模型的指定方式进行了内部调整。此更改支持新的优化器，详情请参阅[该教程](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fblob\u002Fmain\u002Fdocs\u002Ftutorials\u002FCreate_my_customized_nn_models.md)\n## 新功能\n* 新的融合算法，用于训练 ([Doc2Vec](https:\u002F\u002Farxiv.org\u002Fpdf\u002F2008.13298.pdf)) 模型。\n* 新的鲁棒融合算法（[比较消除法](https:\u002F\u002Farxiv.org\u002Fabs\u002F2108.11769)），用于训练鲁棒的神经网络模型。\n* 新的 PubSub 连接类型。它取代了之前版本中基于 RabbitMQ 的连接类型。\n* 新增关于如何向 IBM FL 添加新融合算法的教程\n* 新的 Jupyter 笔记本，用于演示法定人数和重新加入支持\n* 新的 Jupyter 笔记本，用于演示如何训练 PyTorch 模型\n## 错误修复\n* 对迭代平均融合算法进行了小幅修复。\n* 修复了聚合器端的内存泄漏问题。现在，随着全局轮次的增加，内存使用量保持稳定。","2022-03-16T20:24:16",{"id":163,"version":164,"summary_zh":165,"released_at":166},136896,"v1.0.6","# 版本 1.0.6\nIBMFL 1.0.6 引入了多项新功能，并进行了改进和错误修复。\n## 变更\n* 支持 Python 3.8。\n* 增强了 PFNM 聚合算法的法定人数支持。\n* 对 FedAvgPlus 聚合算法（此前称为 Fed+）进行了增强。\n* 优化了库依赖关系。\n* 重构了实验管理器的 Python Notebook 仪表板。\n* 实验管理器仪表板现支持自定义数据集。\n* 无破坏性变更。\n## 新功能\n* OpenShift 编排器支持多云集群，详见新的 `openshift_fl` 文件夹。\n* 新的 Shuffle 聚合算法（参见论文：https:\u002F\u002Farxiv.org\u002Fpdf\u002F2105.09400.pdf）。\n* Fed+ 聚合算法的两种变体，包括 Coordinate-median+ 和 Geometric-median+（请参阅新示例）。\n* 针对 PyTorch 模型和 CIFAR10 数据集的新 Fed+ 示例。\n* 支持通过 `generate_data.py -d \u003Ccustom_dataset_name>` 加载并拆分 CSV 格式的自定义数据集。\n## 错误修复\n* 修复了聚合方和参与方在加载公平性数据集时的问题。\n* 更正了 Fed+ 超参数 `rho` 的初始化。\n* 修复了 Adult 数据集示例中 id3_dt 的默认数据路径问题。\n* 其他一些小的修复。","2023-08-01T22:14:49",{"id":168,"version":169,"summary_zh":170,"released_at":171},136897,"v1.0.5","# 发布 1.0.5\nIBMFL 1.0.5 包含多项改进以及一个新的实验运行器，可帮助更轻松地编排实验。\n\n## 变更\n* 支持 Python 3.7\n* 新增 Runner 模块，用于在本地和远程机器上编排 IBMFL 实验。\n* 改进了示例代码，以支持更多融合模型与数据集的组合。\n* 更新了 MNIST 示例，使其在归一化后下载并保存原始 MNIST 数据集。新版本确保所有内置的 MNIST 数据处理程序都假定提供的数据集已进行归一化。\n* 无破坏性变更。\n\n## 新功能\n* 改进了 Keras 模型 API，支持收集预训练和后训练指标。\n* 提升了参与方的指标处理能力。\n* 新增 Runner 模块，可通过命令行或 Python 脚本在远程机器上编排实验。相关示例请参阅 [Experiment Manager](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Ftree\u002Fmain\u002Frunner\u002Fexp_manager)。\n\n## 错误修复\n* 修复了 Windows 和 Linux 机器上的 Ray 库依赖问题。\n* 修复了 PyTorch 模型中的错误——[issue59](https:\u002F\u002Fgithub.com\u002FIBM\u002Ffederated-learning-lib\u002Fissues\u002F59)。","2023-08-01T22:20:23",{"id":173,"version":174,"summary_zh":175,"released_at":176},136898,"v1.0.4","# 版本 1.0.4\n### 变更\n* 为训练公平的联邦学习模型新增了多种偏置缓解方法。\n* 修复了 TensorFlow 2.1 模型封装中的 bug。\n* 支持基于多个指标的提前终止。\n* API 无变化。\n\n### 新功能\n* 支持以下偏置缓解方法：[Abay 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2012.02447)\n   - 局部重加权\n   - 带有差分隐私的全局重加权\n   - 联邦预处理去偏\n* 新增联邦学习算法 FedProx：[Tian Li 等人](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1812.06127.pdf)。\n","2023-08-01T22:22:09",{"id":178,"version":179,"summary_zh":180,"released_at":181},136899,"v1.0.3","# 版本 1.0.3\n### 主要特性\n* 支持 TensorFlow 2.1.0。\n* 支持 PyTorch 1.4.0。\n* 所有神经网络机器学习库均支持 GPU 训练。\n* 新的联邦学习算法：Fed+  [Yu 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F2009.06303)。\n\n## 亮点\n* 支持两种流行的机器学习框架：PyTorch 1.4.0 和 TensorFlow 2.1.0。\n* 新增[教程](..\u002F..\u002Ftree\u002Fmain\u002Fdocs\u002Ftutorials\u002FCreate_my_customized_nn_models.md)和示例（[PyTorch](..\u002F..\u002Ftree\u002Fmain\u002Fexamples\u002Fpytorch_classifier)、[TensorFlow](..\u002F..\u002Ftree\u002Fmain\u002Fexamples\u002Ftf_classifier)），演示如何使用 PyTorch 和 TensorFlow 模型进行训练。\n","2023-08-01T22:22:20",{"id":183,"version":184,"summary_zh":185,"released_at":186},136900,"v1.0.2","# 版本 1.0.2\nIBMFL 1.0.2 是一个次要版本，包含多项改进和新功能，例如设置聚合法定人数、允许参与方重新加入以及启用使用 GPU 的 Keras 训练。\n## 变更\n* 改进了日志记录，提供了更清晰的日志信息。\n* TensorFlow 版本要求更改为 `1.15.0`。\n* Scikit-learn 版本要求更改为 `0.23.1`。\n* API 没有变化。\n* 没有破坏性变更。\n## 新功能\n* 法定人数：在聚合器配置文件中指定法定人数百分比和最大超时时间，以提高对可能出现连接故障的参与方的灵活性。\n* 重新加入：退出的参与方可以重新加入训练过程。\n* GPU 支持：为 `KerasFLModel` 启用使用一个或多个 GPU 进行训练（请参阅我们的新教程）。\n## 错误修复\n* 修复了在非独立同分布（Non-IID）数据分布下，Scikit-learn 多分类模型训练中可能出现的特征维度不匹配问题。\n* 修复了由于 `pickle` 和 `joblib` 导致的 Scikit-learn 模型保存与加载不一致的问题。","2023-08-01T22:22:28",{"id":188,"version":189,"summary_zh":190,"released_at":191},136901,"v1.0.1","# 发布版本 1.0.1\n\n## 主要特性\n* 支持多种类型的机器学习模型以联邦学习方式进行训练。\n* 提供多种最先进的聚合算法，适用于各类联邦学习应用场景。\n* 基于 Flask 的连接模块，便于参与方与聚合器之间的通信。\n* 强大的配置能力，方便测试和切换聚合策略。\n* 丰富的示例，展示如何使用 IBM FL。\n* IBM FL 的分步快速入门教程。\n\n## 亮点\n* 支持的机器学习模型类型：\n   - 神经网络（支持 Keras 支持的任意神经网络拓扑）\n   - ID3 决策树\n   - 带正则化的线性分类器\u002F回归模型：逻辑回归、线性 SVM、岭回归、KMeans 和朴素贝叶斯\n   - 深度强化学习算法，包括 DQN、DDPG、PPO 等\n* 支持的聚合算法：\n   - 迭代平均法\n   - FedAvg [McMahan 等人](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1602.05629.pdf)\n   - 梯度平均法\n   - 概率联邦神经匹配（PFNM）[Yurochkin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1905.12022)\n   - Krum [Blanchard 等人](https:\u002F\u002Fpapers.nips.cc\u002Fpaper\u002F6617-machine-learning-with-adversaries-byzantine-tolerant-gradient-descent.pdf)\n   - 协调中位数 [Yin 等人](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1803.01498.pdf)\n   - Zeno [Xie 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1805.10032)\n   - 基于异构匹配的统计参数聚合（SPAHM）[Yurochkin 等人](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.00218)\n   - 针对决策树的 ID3 聚合 [Quinlan](https:\u002F\u002Flink.springer.com\u002Farticle\u002F10.1007\u002FBF00116251)\n   - 带差分隐私的朴素贝叶斯聚合","2020-08-28T18:19:45"]