[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-MLReef--mlreef":3,"tool-MLReef--mlreef":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160015,2,"2026-04-18T11:30:52",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":75,"owner_website":77,"owner_url":78,"languages":79,"stars":119,"forks":120,"last_commit_at":121,"license":122,"difficulty_score":123,"env_os":124,"env_gpu":124,"env_ram":124,"env_deps":125,"category_tags":128,"github_topics":130,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":144,"updated_at":145,"faqs":146,"releases":147},9163,"MLReef\u002Fmlreef","mlreef","The collaboration workspace for Machine Learning","MLReef 是一款专为机器学习打造的开源协作平台，旨在帮助团队高效地合作、复现并分享机器学习项目。它主要解决了机器学习开发流程中数据管理混乱、实验难以追踪以及部署环境不一致等痛点，让从数据处理到模型上线的全生命周期更加流畅。\n\n这款工具非常适合机器学习开发者、数据科学家以及科研研究人员使用。无论是需要管理大规模数据集的团队，还是希望规范实验记录的个人研究者，都能从中受益。\n\nMLReef 的核心亮点在于其四大功能模块：首先是全面版本化的数据管理基础设施，支持通过 Git 或 Git LFS 对数据进行并发处理和历史追溯；其次是代码发布功能，能将脚本容器化并版本控制，确保在数据管道中不可变且稳定地运行；第三是强大的实验管理器，可轻松追踪实验环境、参数及结果；最后提供灵活的 ML-Ops 解决方案，支持在 Kubernetes、云端或裸金属服务器上编排和运行深度学习任务。虽然官方已停止更新此仓库并将重心转移至 GitLab，但其设计理念仍为构建高效的机器学习工作流提供了宝贵参考。","\u003Cdiv align=\"center\">\n\n\u003Ca href=\"https:\u002F\u002Fmlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_e83d49c6147b.png\" width=\"250px\">\u003C\u002Fa>\n\n\n**The collaboration platform for Machine Learning**\n\n**MLReef is an open source ML-Ops platform that helps you collaborate, reproduce and share your Machine Learning work with thousands of other users.**\n   \n **IMPORTANT: We are no longer supporting and updating this repository. We are still actively working on this project but on our main repo at GitLab**. \n\n\u003C\u002Fdiv>\n\n---\n### MLReef\nMLReef is a ML\u002FDL development platform containing four main sections:\n\n- [Data-Management](#data-management) - Fully versioned data hosting and processing infrastructure\n- [Publishing code repositories](#publishing-code) - Containerized and versioned script repositories for immutable use in data pipelines\n- [Experiment Manager](#experiment-manager) - Experiment tracking, environments and results\n- [ML-Ops](#ml-ops) - Pipelines & Orchestration solution for ML\u002FDL jobs (K8s \u002F Cloud \u002F bare-metal)  \n\n---\n\u003Cdiv align=\"center\">\n\n**[Sign up](https:\u002F\u002Fmlreef.com\u002Fregister)  &  [start experimenting](https:\u002F\u002Fdocs.mlreef.com\u002F) in minutes.**  \n\n\u003C\u002Fdiv>\n\n---\n\nTo find out more about how MLReef can streamline your Machine Learning Development Lifecycle visit [our homepage](https:\u002F\u002Fwww.mlreef.com)\n\n## Data Management\n\n\u003Ca href=\"https:\u002F\u002Fwww.mlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_02df8d6cee10.gif\" width=\"75%\">\u003C\u002Fa>\n\n* Host your data using git \u002F git LFS repositories.\n    * Work concurrently on data \n    * Fully versioned or LFS version control\n    * Full view on data processing and visualization history\n* Connect your external storage to MLReef and use your data directly in pipelines\n* Data set management (access, history, pipelines)\n\n## Publishing Code\n\n**Adding your params via argparse...**\n\n```python\n# Example params for a ResNet50 script\ndef process_arguments(args):\n    parser = argparse.ArgumentParser(description='ResNet50')\n    parser.add_argument('--input-path', action='store', help='path to directory of images')\n    parser.add_argument('--output-path', action='store', default='.', help='path to output metrics')\n    parser.add_argument('--height', action='store', default=224, help='height of images (int)')\n    parser.add_argument('--width', action='store', default=224,help='width of images (int)')\n    parser.add_argument('--channels', action='store', default=3, help='channels of images: 1 = grayscale, 3 = RGB ,'\n                                                                      '4=RGBA (int)')\n    parser.add_argument('--use-pretrained', action='store', default=True, help='use pretrained ResNet50 weights (bool)')\n    parser.add_argument('--epochs', action='store',default=5, help='number of epochs for training')\n    parser.add_argument('--batch-size', action='store', default=32, help='batch size fed to the neural network (int)')\n    parser.add_argument('--validation-split', action='store', default=.25, help='fraction of images to be used for '\n                                                                                'validation (float)')\n    parser.add_argument('--class-mode', action='store', default='binary', help='\"categorical\", \"binary\", \"sparse\",'\n                                                                                    ' \"input\", or None')\n    parser.add_argument('--learning-rate', action='store', default=0.0001,\n                        help='learning rate of Adam Optimizer (float)'\n                             '')\n    parser.add_argument('--loss', action='store', default='sparse_categorical_crossentropy', help='loss function used to'\n                                                                                           ' compile model')\n    params = vars(parser.parse_args(args))\n    return params\n```\n**...and publishing your scripts gets you the following:**\n\n* Containerization of your scripts\n    * Always working scripts including easy hyperparameter access in pipelines\n    * Execution environment (including specific packages & versions)\n    * Hyper-parameters\n        * ArgParser for command line parameters with currently used values\n        * Explicit parameters dictionary\n        * Input validation and guides\n* Multiple containers based on version and code branches\n\n## Experiment Manager\n\n* Complete experiment setup log\n    * Full source control info including non-committed local changes\n    * Execution environment (including specific packages & versions)\n    * Hyper-parameters\n* Full experiment output automatic capture\n    * Artifacts storage and standard-output logs\n    * Performance metrics on individual experiments and comparative graphs for all experiments\n    * Detailed view on logs and outputs generated\n* Extensive platform support and integrations\n    * Supported all python based ML\u002FDL frameworks, for example: [PyTorch](https:\u002F\u002Fpytorch.org\u002F), [Tensorflow](https:\u002F\u002Fwww.tensorflow.org\u002F), [Keras](https:\u002F\u002Fkeras.io\u002F) or [Scikit-Learn](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Findex.html)\n\n## ML-Ops\n\n* Concurrent computing pipelining\n* Governance and control\n    * Access and user management\n    * Single permission management \n    * Resource management\n* Model management\n\nMLReef Architecture\n--------------------\n\nThe MLReef ML components within the ML life cycle:\n\n* Data Storage components based currently on Git and Git LFS.\n* Model development based on working modules (published by the community or your team), data management, data processing \u002F data visualization \u002F experiment pipeline on hosted or on-prem and model management.\n* ML-Ops orchestration, experiment and workflow reproducibility, and scalability.\n\n\u003Ca>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_f8f3c4f0e840.jpg\" width=\"75%\">\u003C\u002Fa>\n\n\nWhy MLReef?\n--------------------\n\nMLReef is our solution to a problem we share with countless other researchers and developers in the machine learning\u002Fdeep learning universe: Training production-grade deep learning models is a tangled process. MLReef tracks and controls the process by associating code version control, research projects, performance metrics, and model provenance. \n\nWe designed MLReef on best data science practices combined with the knowleged gained from DevOps and a deep focus on collaboration. \n\n* Use it on a daily basis to boost collaboration and visibility in your team\n* Create a job in the cloud from any code repository with a click of a button\n* Automate processes and create pipelines to collect your experimentation logs, outputs, and data\n* Make you ML life cycle transparent by cataloging it all on the MLReef platform\n\n\u003Ca href=\"https:\u002F\u002Fwww.mlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_8803ce847e49.png\" width=\"100%\">\u003C\u002Fa>\n\n\nGetting Started as a Developer\n--------------------\n- Please read the [Contribution Guidelines](CONTRIBUTE.md) carefully\n- clone the [mlreef git repository](https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef) to your local machine\n- read the [architecture document](https:\u002F\u002Fdocs.mlreef.com\u002F99-development\u002Farchitecture.md)\n\n**To start developing, continue with the [developer guide](developer_guide.md)**\n\n### Canonical source\n\nThe canonical source of MLReef where all development takes place is hosted on [gitLab.com\u002Fmlreef\u002Fmlreef](http:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef).\n\nLicense\n--------------------\nMIT License (see the [License](LICENSE.md) for more information)\n\nDocumentation, Community and Support\n--------------------\nMore information in the [official documentation](http:\u002F\u002Fdoc.mlreef.com) and on [Youtube](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCTRuKZs136dOtzG95f79TKA).\n\nFor examples and use cases, check these use cases or start the tutorial after registring: \n* [Recommending netflix movies and tv shows](https:\u002F\u002Fmlreef.com\u002Ferikaml\u002Frecommending-netflix-movies-and-tv-shows)\n* [Recognizing handwritten digits](https:\u002F\u002Fmlreef.com\u002Ferikaml\u002Frecognize-handwritten-digits)\n* [Painting like Monet](https:\u002F\u002Fmlreef.com\u002FAkane\u002Fpainting-like-monet)\n\nIf you have any questions: post on our [Slack channel](https:\u002F\u002Fapp.slack.com\u002Fclient\u002FTSQQH4MT6\u002FCSF2J5UPK), or tag your questions on stackoverflow with 'mlreef' tag.\n\nFor feature requests or bug reports, please use [GitLab issues](https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef\u002F-\u002Fissues).\n\nAdditionally, you can always reach out to us via hello@mlreef.com\n\nContributing\n--------------------\n\n**Merge Requests are always welcomed** :heart: See more details in the MLReef [Contribution Guidelines](CONTRIBUTE.md).\n","\u003Cdiv align=\"center\">\n\n\u003Ca href=\"https:\u002F\u002Fmlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_e83d49c6147b.png\" width=\"250px\">\u003C\u002Fa>\n\n\n**机器学习协作平台**\n\n**MLReef 是一个开源的 ML-Ops 平台，帮助您与数千名其他用户协作、复现并分享您的机器学习工作。**\n   \n **重要提示：我们不再维护和更新此仓库。目前我们仍在积极开发该项目，但已在 GitLab 的主仓库中进行。**\n\n\u003C\u002Fdiv>\n\n---\n### MLReef\nMLReef 是一个用于机器学习\u002F深度学习开发的平台，包含四个主要部分：\n\n- [数据管理](#data-management) - 完全版本化的数据托管和处理基础设施\n- [代码仓库发布](#publishing-code) - 容器化且版本化的脚本仓库，可在数据管道中以不可变方式使用\n- [实验管理器](#experiment-manager) - 实验跟踪、环境及结果\n- [ML-Ops](#ml-ops) - 适用于机器学习\u002F深度学习任务的流水线与编排解决方案（K8s \u002F 云 \u002F 裸金属）  \n\n---\n\u003Cdiv align=\"center\">\n\n**[注册](https:\u002F\u002Fmlreef.com\u002Fregister) 并在几分钟内开始实验。**  \n\n\u003C\u002Fdiv>\n\n---\n\n如需了解更多关于 MLReef 如何简化您的机器学习开发生命周期，请访问 [我们的主页](https:\u002F\u002Fwww.mlreef.com)\n\n## 数据管理\n\n\u003Ca href=\"https:\u002F\u002Fwww.mlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_02df8d6cee10.gif\" width=\"75%\">\u003C\u002Fa>\n\n* 使用 git \u002F git LFS 仓库托管您的数据。\n    * 可并发地对数据进行操作\n    * 完全版本控制或 LFS 版本控制\n    * 全面查看数据处理和可视化的历史记录\n* 将您的外部存储连接到 MLReef，并直接在流水线中使用数据\n* 数据集管理（访问权限、历史记录、流水线）\n\n## 代码发布\n\n**通过 argparse 添加参数...**\n\n```python\n# ResNet50 脚本的示例参数\ndef process_arguments(args):\n    parser = argparse.ArgumentParser(description='ResNet50')\n    parser.add_argument('--input-path', action='store', help='图片目录路径')\n    parser.add_argument('--output-path', action='store', default='.', help='输出指标保存路径')\n    parser.add_argument('--height', action='store', default=224, help='图片高度（整数）')\n    parser.add_argument('--width', action='store', default=224, help='图片宽度（整数）')\n    parser.add_argument('--channels', action='store', default=3, help='图片通道数：1 = 灰度，3 = RGB，'\n                                                                      '4=RGBA（整数）')\n    parser.add_argument('--use-pretrained', action='store', default=True, help='是否使用预训练的 ResNet50 权重（布尔值）')\n    parser.add_argument('--epochs', action='store',default=5, help='训练轮数')\n    parser.add_argument('--batch-size', action='store', default=32, help='输入神经网络的批次大小（整数）')\n    parser.add_argument('--validation-split', action='store', default=.25, help='用于验证的图片比例（浮点数）')\n    parser.add_argument('--class-mode', action='store', default='binary', help='\"categorical\"、\"binary\"、\"sparse\"、'\n                                                                                    ' \"input\" 或 None')\n    parser.add_argument('--learning-rate', action='store', default=0.0001,\n                        help='Adam 优化器的学习率（浮点数）'\n                             '')\n    parser.add_argument('--loss', action='store', default='sparse_categorical_crossentropy', help='用于模型编译的损失函数')\n    params = vars(parser.parse_args(args))\n    return params\n```\n**...而发布您的脚本将为您带来以下优势：**\n\n* 您的脚本将被容器化\n    * 始终可用的脚本，可在流水线中轻松访问超参数\n    * 执行环境（包括特定的包和版本）\n    * 超参数\n        * 用于命令行参数的 ArgParser，显示当前使用的值\n        * 显式参数字典\n        * 输入验证和使用指南\n* 基于版本和代码分支的多个容器\n\n## 实验管理器\n\n* 完整的实验设置日志\n    * 包含未提交的本地更改在内的完整源码控制信息\n    * 执行环境（包括特定的包和版本）\n    * 超参数\n* 自动捕获完整的实验输出\n    * 存储实验产物和标准输出日志\n    * 单个实验的性能指标以及所有实验的对比图表\n    * 对日志和输出的详细视图\n* 广泛的平台支持和集成\n    * 支持所有基于 Python 的机器学习\u002F深度学习框架，例如：[PyTorch](https:\u002F\u002Fpytorch.org\u002F)、[TensorFlow](https:\u002F\u002Fwww.tensorflow.org\u002F)、[Keras](https:\u002F\u002Fkeras.io\u002F) 或 [Scikit-Learn](https:\u002F\u002Fscikit-learn.org\u002Fstable\u002Findex.html)\n\n## ML-Ops\n\n* 并发计算流水线\n* 治理与控制\n    * 访问与用户管理\n    * 统一权限管理\n    * 资源管理\n* 模型管理\n\nMLReef 架构\n--------------------\n\nMLReef 在机器学习生命周期中的组件：\n\n* 数据存储组件目前基于 Git 和 Git LFS。\n* 模型开发基于可复用模块（由社区或团队发布）、数据管理、数据处理\u002F数据可视化\u002F实验流水线，支持托管或本地部署环境，以及模型管理。\n* ML-Ops 编排、实验与工作流的可重复性，以及可扩展性。\n\n\u003Ca>\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_f8f3c4f0e840.jpg\" width=\"75%\">\u003C\u002Fa>\n\n\n为什么选择 MLReef？\n--------------------\n\nMLReef 是我们针对机器学习\u002F深度学习领域中无数研究者和开发者共同面临问题的解决方案：训练生产级深度学习模型的过程复杂且难以梳理。MLReef 通过将代码版本控制、研究项目、性能指标和模型溯源关联起来，实现对整个流程的跟踪与管控。\n\n我们结合最佳的数据科学实践、DevOps 知识以及对协作的深度关注，设计了 MLReef。\n\n* 每天使用它来提升团队协作效率和透明度\n* 只需点击一下按钮，即可从任何代码仓库创建云端任务\n* 自动化流程并构建流水线，以收集实验日志、输出结果和数据\n* 将您的机器学习生命周期全面记录在 MLReef 平台上，使其更加透明\n\n\u003Ca href=\"https:\u002F\u002Fwww.mlreef.com\">\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_readme_8803ce847e49.png\" width=\"100%\">\u003C\u002Fa>\n\n\n开发者入门\n--------------------\n- 请仔细阅读 [贡献指南](CONTRIBUTE.md)\n- 克隆 [mlreef Git 仓库](https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef) 到本地\n- 阅读 [架构文档](https:\u002F\u002Fdocs.mlreef.com\u002F99-development\u002Farchitecture.md)\n\n**要开始开发，请继续阅读 [开发者指南](developer_guide.md)**\n\n### 标准源码库\n\nMLReef 的标准源码库，所有开发工作都在此进行，托管于 [gitLab.com\u002Fmlreef\u002Fmlreef](http:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef)。\n\n许可证\n--------------------\nMIT 许可证（更多信息请参阅 [LICENSE.md](LICENSE.md)）\n\n文档、社区与支持\n--------------------\n更多信息请访问 [官方文档](http:\u002F\u002Fdoc.mlreef.com) 和 [YouTube 频道](https:\u002F\u002Fwww.youtube.com\u002Fchannel\u002FUCTRuKZs136dOtzG95f79TKA)。\n\n如需示例和用例，请查看以下案例或注册后开始教程：\n* [Netflix 电影和电视剧推荐](https:\u002F\u002Fmlreef.com\u002Ferikaml\u002Frecommending-netflix-movies-and-tv-shows)\n* [手写数字识别](https:\u002F\u002Fmlreef.com\u002Ferikaml\u002Frecognize-handwritten-digits)\n* [模仿莫奈风格作画](https:\u002F\u002Fmlreef.com\u002FAkane\u002Fpainting-like-monet)\n\n如有疑问，请在我们的 [Slack 频道](https:\u002F\u002Fapp.slack.com\u002Fclient\u002FTSQQH4MT6\u002FCSF2J5UPK) 发帖，或在 Stack Overflow 上使用 'mlreef' 标签提问。\n\n功能请求或错误报告，请使用 [GitLab 问题](https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef\u002F-\u002Fissues)。\n\n此外，您也可以随时通过 hello@mlreef.com 联系我们。\n\n贡献\n--------------------\n\n**欢迎提交合并请求** :heart: 更多详情请参阅 MLReef 的 [贡献指南](CONTRIBUTE.md)。","# MLReef 快速上手指南\n\n> **重要提示**：根据官方说明，本 GitHub 仓库已停止维护和更新。所有开发工作已迁移至 **GitLab**。请开发者前往 [GitLab 主仓库](https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef) 获取最新代码和文档。\n\nMLReef 是一个开源的机器学习运维（MLOps）协作平台，旨在帮助团队进行数据版本管理、代码容器化、实验追踪及流水线编排。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu\u002FCentOS), macOS 或 Windows (需配合 WSL2)。\n*   **核心依赖**：\n    *   `Git`：用于代码和数据版本控制。\n    *   `Git LFS`：用于大文件（数据集、模型权重）的版本管理。\n    *   `Docker`：用于脚本容器化和环境隔离。\n    *   `Python 3.6+`：主要开发语言。\n*   **账户准备**：建议先在 [MLReef 官网](https:\u002F\u002Fmlreef.com\u002Fregister) 注册账号以便使用云端功能（如需自部署，需参考架构文档配置 Kubernetes 等基础设施）。\n\n## 安装步骤\n\n由于开发重心已转移，请直接从 GitLab 克隆源代码：\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgitlab.com\u002Fmlreef\u002Fmlreef.git\n    cd mlreef\n    ```\n\n2.  **阅读开发指南**\n    在本地运行前，强烈建议阅读官方的架构文档和开发者指南，以了解具体的依赖安装脚本（通常涉及 Docker Compose 或 Helm Chart 配置）：\n    *   [架构文档](https:\u002F\u002Fdocs.mlreef.com\u002F99-development\u002Farchitecture.md)\n    *   [开发者指南](developer_guide.md) (位于克隆后的根目录)\n\n3.  **安装依赖**\n    根据项目内部的 `requirements.txt` 或 `Dockerfile` 安装 Python 依赖（具体命令请参考上述开发者指南，通常如下）：\n    ```bash\n    pip install -r requirements.txt\n    ```\n\n## 基本使用\n\nMLReef 的核心工作流是将您的机器学习脚本参数化并发布到平台，从而实现自动化的实验管理和流水线执行。\n\n### 1. 参数化您的脚本\n为了让 MLReef 能够自动捕捉超参数并生成容器，您需要使用 `argparse` 定义脚本参数。\n\n**示例 (`train.py`)：**\n```python\nimport argparse\n\ndef process_arguments(args):\n    parser = argparse.ArgumentParser(description='ResNet50 Training')\n    parser.add_argument('--input-path', action='store', help='path to directory of images')\n    parser.add_argument('--output-path', action='store', default='.', help='path to output metrics')\n    parser.add_argument('--epochs', action='store', default=5, help='number of epochs for training')\n    parser.add_argument('--batch-size', action='store', default=32, help='batch size fed to the neural network (int)')\n    parser.add_argument('--learning-rate', action='store', default=0.0001, help='learning rate of Adam Optimizer (float)')\n    \n    params = vars(parser.parse_args(args))\n    return params\n\nif __name__ == \"__main__\":\n    config = process_arguments(None)\n    # 在此处添加您的训练逻辑\n    print(f\"Starting training with epochs: {config['epochs']}\")\n```\n\n### 2. 数据管理\n将您的数据集托管在 Git 或 Git LFS 仓库中，或者连接外部存储。\n*   **版本控制**：利用 Git LFS 管理大型数据集，确保数据处理历史可追溯。\n*   **流水线集成**：在 MLReef 平台中直接引用这些数据路径作为输入。\n\n### 3. 运行实验\n完成代码提交后，您可以通过以下方式启动实验：\n\n*   **云端一键运行**：登录 MLReef Web 界面，关联您的代码仓库，点击按钮即可在云端创建任务。平台会自动：\n    *   构建包含特定依赖包的 Docker 容器。\n    *   捕获完整的实验日志、输出工件（Artifacts）和性能指标。\n    *   记录未提交的本地更改和确切的环境版本。\n*   **本地\u002F自部署运行**：如果您配置了本地 Orchestrator，可以通过命令行触发流水线，系统会自动处理并发计算和资源调度。\n\n### 4. 查看结果\n实验完成后，在 MLReef 仪表板中查看：\n*   不同实验的对比图表。\n*   详细的标准输出日志。\n*   生成的模型文件和评估指标。\n\n---\n*更多高级用例（如电影推荐、手写数字识别、风格迁移）请参考 [官方文档](http:\u002F\u002Fdoc.mlreef.com) 或访问 [MLReef 官网](https:\u002F\u002Fwww.mlreef.com)。*","某医疗影像初创团队的算法工程师正在协作开发基于 ResNet50 的肺结节检测模型，需频繁迭代数据版本并复现实验结果。\n\n### 没有 mlreef 时\n- 数据集散落在个人硬盘或云盘中，缺乏统一版本控制，团队成员常因使用错误的数据版本导致模型训练无效。\n- 代码依赖本地环境配置，超参数通过硬编码或分散的配置文件管理，他人难以复现特定的实验设置。\n- 实验记录依靠手工整理的 Excel 表格，无法自动关联代码版本、数据版本与最终的模型指标，追溯问题极其困难。\n- 从开发到部署的流程割裂，将脚本转化为可运行的流水线需要大量手动运维工作，效率低下。\n\n### 使用 mlreef 后\n- 利用 Git LFS 托管医疗影像数据，实现数据的全量版本化管理，团队可随时回溯任意历史数据集并确保多人并发协作不冲突。\n- 通过 argparse 标准化参数接口并发布脚本，mlreef 自动将其容器化，确保超参数在流水线中可灵活调用且环境始终一致。\n- 实验管理器自动追踪每次训练的代码快照、数据版本及评估指标，一键即可复现任何历史最佳模型的开发环境。\n- 内置的 ML-Ops 编排方案直接将容器化脚本转化为 K8s 或云端流水线，大幅缩短了从代码提交到模型产出的周期。\n\nmlreef 通过打通数据、代码与实验的全链路版本管理，让医疗 AI 研发从混乱的手工操作转变为可复现、可协作的标准化工程流程。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FMLReef_mlreef_02df8d6c.gif","MLReef","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FMLReef_06270a31.png","Your entire Machine Learning life cycle in one platform.",null,"hello@mlreef.com","https:\u002F\u002Fmlreef.com","https:\u002F\u002Fgithub.com\u002FMLReef",[80,84,88,92,96,100,104,108,112,116],{"name":81,"color":82,"percentage":83},"Kotlin","#A97BFF",46.6,{"name":85,"color":86,"percentage":87},"JavaScript","#f1e05a",36,{"name":89,"color":90,"percentage":91},"Python","#3572A5",4.3,{"name":93,"color":94,"percentage":95},"SCSS","#c6538c",3.8,{"name":97,"color":98,"percentage":99},"Shell","#89e051",3.2,{"name":101,"color":102,"percentage":103},"Ruby","#701516",2.6,{"name":105,"color":106,"percentage":107},"TypeScript","#3178c6",1.5,{"name":109,"color":110,"percentage":111},"ANTLR","#9DC3FF",0.7,{"name":113,"color":114,"percentage":115},"CSS","#663399",0.5,{"name":117,"color":118,"percentage":115},"Dockerfile","#384d54",1460,306,"2026-04-16T16:52:46","NOASSERTION",4,"未说明",{"notes":126,"python":124,"dependencies":127},"该项目已停止在此仓库更新和维护，主要开发工作已迁移至 GitLab (gitlab.com\u002Fmlreef\u002Fmlreef)。MLReef 是一个基于 Kubernetes、云或裸机部署的 ML-Ops 平台，支持 PyTorch、Tensorflow、Keras 和 Scikit-Learn 等主流框架。具体运行环境需求（如操作系统、硬件配置、Python 版本及依赖库）需参考其官方文档或迁移后的 GitLab 仓库中的开发者指南。",[124],[129,16,14],"其他",[131,132,133,134,135,136,137,138,139,140,141,142,143],"mlops","mlops-environment","artificial-intelligence","machine-learning","machine-learning-algorithms","deep-learning","deeplearning","models","tensorflow","pytorch","data-science","mxnet","reproducibility","2026-03-27T02:49:30.150509","2026-04-19T03:05:11.653560",[],[]]