[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-likedan--Awesome-CoreML-Models":3,"tool-likedan--Awesome-CoreML-Models":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":80,"owner_url":81,"languages":82,"stars":87,"forks":88,"last_commit_at":89,"license":90,"difficulty_score":91,"env_os":92,"env_gpu":93,"env_ram":94,"env_deps":95,"category_tags":99,"github_topics":100,"view_count":23,"oss_zip_url":80,"oss_zip_packed_at":80,"status":16,"created_at":121,"updated_at":122,"faqs":123,"releases":164},2510,"likedan\u002FAwesome-CoreML-Models","Awesome-CoreML-Models","Largest list of models for Core ML (for iOS 11+)","Awesome-CoreML-Models 是一个专为苹果生态系统打造的开源资源库，汇集了目前规模最大的 Core ML 格式机器学习模型集合。自 iOS 11 引入 Core ML 框架以来，开发者虽然能便捷地在应用中集成人工智能功能，但寻找高质量、现成可用的预训练模型往往耗时费力。Awesome-CoreML-Models 正是为了解决这一痛点而生，它通过精心整理和策展，提供了一站式的模型下载与参考指南，极大地降低了移动端 AI 开发的门槛。\n\n这个资源库主要面向 iOS、macOS、tvOS 和 watchOS 的应用开发者，同时也适合希望快速验证想法的研究人员或对移动端 AI 感兴趣的技术爱好者。无论你是想实现图像中的文字识别、人体姿态估计，还是进行场景分类、物体检测（如 YOLO、MobileNet、ResNet 等经典模型），都能在这里找到对应的 Core ML 版本及其演示代码和参考文献。此外，项目还贴心地集成了如 Netron 等可视化工具，帮助用户更直观地理解模型结构。\n\nAwesome-CoreML-Models 的最大亮点在于其“开箱即用”的便利性和社区的活跃性。","Awesome-CoreML-Models 是一个专为苹果生态系统打造的开源资源库，汇集了目前规模最大的 Core ML 格式机器学习模型集合。自 iOS 11 引入 Core ML 框架以来，开发者虽然能便捷地在应用中集成人工智能功能，但寻找高质量、现成可用的预训练模型往往耗时费力。Awesome-CoreML-Models 正是为了解决这一痛点而生，它通过精心整理和策展，提供了一站式的模型下载与参考指南，极大地降低了移动端 AI 开发的门槛。\n\n这个资源库主要面向 iOS、macOS、tvOS 和 watchOS 的应用开发者，同时也适合希望快速验证想法的研究人员或对移动端 AI 感兴趣的技术爱好者。无论你是想实现图像中的文字识别、人体姿态估计，还是进行场景分类、物体检测（如 YOLO、MobileNet、ResNet 等经典模型），都能在这里找到对应的 Core ML 版本及其演示代码和参考文献。此外，项目还贴心地集成了如 Netron 等可视化工具，帮助用户更直观地理解模型结构。\n\nAwesome-CoreML-Models 的最大亮点在于其“开箱即用”的便利性和社区的活跃性。它不仅节省了开发者自行转换和调试模型的时间，还通过开放的 Pull Request 机制鼓励社区贡献新模型，确保资源库持续更新和丰富。对于希望在苹果设备上高效落地机器学习功能的团队或个人而言，这是一个不可或缺的高效辅助工具，能让开发者将更多精力集中在应用逻辑与创新体验上，而非底层模型的准备工作中。","\n\n\u003C!--\nTitle: Awesome Core ML Models\nDescription: A curated list of machine learning models in Core ML format.\nAuthor: Kedan Li\n-->\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flikedan_Awesome-CoreML-Models_readme_e92d763c2cdd.png\" width=\"329\" height=\"295\"\u002F>\n\u003C\u002Fp>\n\n\nSince iOS 11, Apple released Core ML framework to help developers integrate machine learning models into applications. [The official documentation](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Fcoreml)\n\nWe've put up the largest collection of machine learning models in Core ML format, to help  iOS, macOS, tvOS, and watchOS developers experiment with machine learning techniques.\n\nIf you've converted a Core ML model, feel free to submit a [pull request](https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fcompare).\n\nRecently, we've included visualization tools. And here's one [Netron](https:\u002F\u002Flutzroeder.github.io\u002FNetron).\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n[![PRs Welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)](http:\u002F\u002Fmakeapullrequest.com)\n\n# Models\n\n## Image - Metadata\u002FText\n*Models that take image data as input and output useful information about the image.*\n* **TextDetection** - Detecting text using Vision built-in model in real-time. [Download]() | [Demo](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FTextDetection-CoreML) | [Reference](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Fvision)\n* **PhotoAssessment** - Photo Assessment using Core ML and Metal. [Download](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FPhotoAssessment\u002Fblob\u002Fmaster\u002FPhotoAssessment-Sample\u002FSources\u002FNIMANasnet.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FPhotoAssessment) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.05424)\n* **PoseEstimation** - Estimating human pose from a picture for mobile. [Download](https:\u002F\u002Fgithub.com\u002FedvardHua\u002FPoseEstimationForMobile\u002Ftree\u002Fmaster\u002Frelease) | [Demo](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FPoseEstimation-CoreML) | [Reference](https:\u002F\u002Fgithub.com\u002FedvardHua\u002FPoseEstimationForMobile)\n* **MobileNet** - Detects the dominant objects present in an image. [Download](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML\u002Fraw\u002Fmaster\u002FMobileNet.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861)\n* **Places CNN** - Detects the scene of an image from 205 categories such as bedroom, forest, coast etc. [Download](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML\u002Fraw\u002Fmaster\u002FMobileNet.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fchenyi1989\u002FCoreMLDemo) | [Reference](http:\u002F\u002Fplaces.csail.mit.edu\u002Findex.html)\n* **Inception v3** - Detects the dominant objects present in an image. [Download](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FCore-ML-Sample\u002Fblob\u002Fmaster\u002FCoreMLSample\u002FInceptionv3.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FCore-ML-Sample\u002F) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567)\n* **ResNet50** - Detects the dominant objects present in an image. [Download](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples\u002Fblob\u002Fmaster\u002FCoreML-samples\u002FResnet50.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n* **VGG16** - Detects the dominant objects present in an image. [Download](https:\u002F\u002Fdocs-assets.developer.apple.com\u002Fcoreml\u002Fmodels\u002FVGG16.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Falaphao\u002FCoreMLExample) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556)\n* **Car Recognition** - Predict the brand & model of a car. [Download](https:\u002F\u002Fgithub.com\u002Flikedan\u002FCore-ML-Car-Recognition\u002Fblob\u002Fmaster\u002FConvert\u002FCarRecognition.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples) | [Reference](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fdatasets\u002Fcomp_cars\u002Findex.html)\n* **YOLO** - Recognize what the objects are inside a given image and where they are in the image. [Download](https:\u002F\u002Fgithub.com\u002Fhollance\u002FYOLO-CoreML-MPSNNGraph\u002Fblob\u002Fmaster\u002FTinyYOLO-CoreML\u002FTinyYOLO-CoreML\u002FTinyYOLO.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fhollance\u002FYOLO-CoreML-MPSNNGraph) | [Reference](http:\u002F\u002Fmachinethink.net\u002Fblog\u002Fobject-detection-with-yolo)\n* **AgeNet** - Predict a person's age from one's portrait. [Download](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mT1J3T1BEeWx4TWc\u002Fview?usp=sharing) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [Reference](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_agegender\u002F)\n* **GenderNet** - Predict a person's gender from one's portrait. [Download](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mYkNsZHlyc2ZuaFk\u002Fview?usp=sharing) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [Reference](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_agegender\u002F)\n* **MNIST** - Predict handwritten (drawn) digits from images. [Download](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FMNIST-CoreML\u002Fraw\u002Fmaster\u002FMNISTPrediction\u002FMNIST.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FMNIST-CoreML) | [Reference](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F)\n* **EmotionNet** - Predict a person's emotion from one's portrait. [Download](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mTlYtRGdXNFlpWDQ\u002Fview?usp=sharing) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [Reference](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_emotions\u002F)\n* **SentimentVision** - Predict positive or negative sentiments from images. [Download](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B1ghKa_MYL6mZ0dITW5uZlgyNTg) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentVisionDemo) | [Reference](http:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0262885617300355?via%3Dihub)\n* **Food101** - Predict the type of foods from images. [Download](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B5TjkH3njRqnVjBPZGRZbkNITjA) | [Demo](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FFood101-CoreML) | [Reference](http:\u002F\u002Fvisiir.lip6.fr\u002Fexplore)\n* **Oxford102** - Detect the type of flowers from images. [Download](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6meDBHT2NaZGxkNzQ\u002Fview?usp=sharing) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFlowersVisionDemo) | [Reference](http:\u002F\u002Fjimgoo.com\u002Fflower-power\u002F)\n* **FlickrStyle** - Detect the artistic style of images. [Download](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6meDBHT2NaZGxkNzQ\u002Fview?usp=sharing) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FStylesVisionDemo) | [Reference](http:\u002F\u002Fsergeykarayev.com\u002Ffiles\u002F1311.3715v3.pdf)\n* **RN1015k500** - Predict the location where a picture was taken. [Download](https:\u002F\u002Fs3.amazonaws.com\u002Faws-bigdata-blog\u002Fartifacts\u002FRN1015k500\u002FRN1015k500.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fawslabs\u002FMXNet2CoreML_iOS_sample_app) | [Reference](https:\u002F\u002Faws.amazon.com\u002Fblogs\u002Fai\u002Festimating-the-location-of-images-using-mxnet-and-multimedia-commons-dataset-on-aws-ec2)\n* **Nudity** - Classifies an image either as NSFW (nude) or SFW (not nude)\n [Download](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B5TjkH3njRqncDJpdDB1Tkl2S2s) | [Demo](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FNudity-CoreML) | [Reference](https:\u002F\u002Fgithub.com\u002Fyahoo\u002Fopen_nsfw)\n* **TextRecognition (ML Kit)** - Recognizing text using ML Kit built-in model in real-time. [Download]() | [Demo](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FTextRecognition-MLKit) | [Reference](https:\u002F\u002Ffirebase.google.com\u002Fdocs\u002Fml-kit\u002Fios\u002Frecognize-text)\n* **ImageSegmentation** - Segment the pixels of a camera frame or image into a predefined set of classes. [Download](https:\u002F\u002Fdeveloper.apple.com\u002Fmachine-learning\u002Fmodels\u002F) | [Demo](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FImageSegmentation-CoreML) | [Reference](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fdeeplab)\n* **DepthPrediction** - Predict the depth from a single image. [Download](https:\u002F\u002Fdeveloper.apple.com\u002Fmachine-learning\u002Fmodels\u002F) | [Demo](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FDepthPrediction-CoreML) | [Reference](https:\u002F\u002Fgithub.com\u002Firo-cp\u002FFCRN-DepthPrediction)\n\n## Image - Image\n*Models that transform images.*\n* **HED** - Detect nested edges from a color image. [Download](https:\u002F\u002Fgithub.com\u002Fs1ddok\u002FHED-CoreML\u002Fblob\u002Fmaster\u002FHED-CoreML\u002FModels\u002FHED_so.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fs1ddok\u002FHED-CoreML) | [Reference](http:\u002F\u002Fdl.acm.org\u002Fcitation.cfm?id=2654889)\n* **AnimeScale2x** - Process a bicubic-scaled anime-style artwork [Download](https:\u002F\u002Fgithub.com\u002Fimxieyi\u002Fwaifu2x-ios\u002Fblob\u002Fmaster\u002Fwaifu2x\u002Fmodels\u002Fanime_noise0_model.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fimxieyi\u002Fwaifu2x-ios) | [Reference](https:\u002F\u002Farxiv.org\u002Fabs\u002F1501.00092)\n\n## Text - Metadata\u002FText\n*Models that process text data*\n* **Sentiment Polarity** - Predict positive or negative sentiments from sentences. [Download](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentCoreMLDemo\u002Fraw\u002Fmaster\u002FSentimentPolarity\u002FResources\u002FSentimentPolarity.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentCoreMLDemo) | [Reference](http:\u002F\u002Fboston.lti.cs.cmu.edu\u002Fclasses\u002F95-865-K\u002FHW\u002FHW3\u002F)\n* **DocumentClassification** - Classify news articles into 1 of 5 categories. [Download](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier\u002Fblob\u002Fmaster\u002FSources\u002FDocumentClassification.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier) | [Reference](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier\u002F)\n* **iMessage Spam Detection** - Detect whether a message is spam. [Download](https:\u002F\u002Fgithub.com\u002Fgkswamy98\u002Fimessage-spam-detection\u002Fblob\u002Fmaster\u002FMessageClassifier.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fgkswamy98\u002Fimessage-spam-detection\u002Ftree\u002Fmaster) | [Reference](http:\u002F\u002Fwww.dt.fee.unicamp.br\u002F~tiago\u002Fsmsspamcollection\u002F)\n* **NamesDT** - Gender Classification using DecisionTreeClassifier [Download](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FNamesCoreMLDemo\u002Fblob\u002Fmaster\u002FNames\u002FResources\u002FNamesDT.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FNamesCoreMLDemo) | [Reference](http:\u002F\u002Fnlpforhackers.io\u002F)\n* **Personality Detection** - Predict personality based on user documents (sentences). [Download](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002Ftree\u002Fmaster\u002Fios_app\u002FProfilerSA\u002FML%20Models) | [Demo](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002F) | [Reference](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002Fblob\u002Fmaster\u002Fdissertation-v6.pdf)\n* **BERT for Question answering** - Swift Core ML 3 implementation of BERT for Question answering [Download](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers\u002Fblob\u002Fmaster\u002FResources\u002FBERTSQUADFP16.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers#-bert) | [Reference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-transformers#run_squadpy-fine-tuning-on-squad-for-question-answering)\n* **GPT-2** - OpenAI GPT-2 Text generation (Core ML 3) [Download](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers\u002Fblob\u002Fmaster\u002FResources\u002Fgpt2-512.mlmodel) | [Demo](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers#-gpt-2) | [Reference](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-transformers)\n## Miscellaneous\n* **Exermote** - Predicts the exercise, when iPhone is worn on right upper arm. [Download](https:\u002F\u002Fgithub.com\u002FLausbert\u002FExermote\u002Ftree\u002Fmaster\u002FExermoteInference) | [Demo](https:\u002F\u002Fgithub.com\u002FLausbert\u002FExermote\u002Ftree\u002Fmaster\u002FExermoteInference) | [Reference](http:\u002F\u002Flausbert.com\u002F2017\u002F08\u002F03\u002Fexermote\u002F)\n* **GestureAI** - Recommend an artist based on given location and genre. [Download](https:\u002F\u002Fgoo.gl\u002FavdMjD) | [Demo](https:\u002F\u002Fgithub.com\u002Fakimach\u002FGestureAI-CoreML-iOS) | [Reference](https:\u002F\u002Fgithub.com\u002Fakimach\u002FGestureAI-iOS\u002Ftree\u002Fmaster\u002FGestureAI)\n* **Artists Recommendation** - Recommend an artist based on given location and genre. [Download](https:\u002F\u002Fgithub.com\u002Fagnosticdev\u002FBlog-Examples\u002Fblob\u002Fmaster\u002FUsingCoreMLtoCreateASongRecommendationEngine\u002FArtist.mlmodel) | [Demo]() | [Reference](https:\u002F\u002Fwww.agnosticdev.com\u002Fblog-entry\u002Fpython\u002Fusing-scikit-learn-and-coreml-create-music-recommendation-engine)\n* **ChordSuggester** - Predicts the most likely next chord based on the entered Chord Progression. [Download](https:\u002F\u002Fgithub.com\u002Fcarlosmbe\u002FMac-CoreML-Chord-Suggester\u002Fblob\u002Fmain\u002FMLChordSuggester.mlpackage.zip) | [Demo](https:\u002F\u002Fgithub.com\u002Fcarlosmbe\u002FMac-CoreML-Chord-Suggester\u002Ftree\u002Fmain) | [Reference](https:\u002F\u002Fmedium.com\u002F@huanlui\u002Fchordsuggester-i-3a1261d4ea9e)\n\n## Speech Processing\n* **Streaming ASR** – Real-time streaming speech recognition engine for iOS. Uses Fast Conformer + CTC, runs fully on device.  \n  [Download](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS\u002Freleases) | [Demo](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS) | [Reference](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS)\n* **Keyword Spotting (KWS)** – On-device keyword spotting engine using lightweight CRNN architecture, optimized for mobile devices.  \n  [Download](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS\u002Freleases) | [Demo](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS) | [Reference](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS)\n\n# Visualization Tools\n*Tools that help visualize CoreML Models*\n* [Netron](https:\u002F\u002Flutzroeder.github.io\u002FNetron)\n\n# Supported formats\n*List of model formats that could be converted to Core ML with examples*\n* [Caffe](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.caffe.convert.html)\n* [Keras](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.keras.convert.html)\n* [XGBoost](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.xgboost.convert.html)\n* [Scikit-learn](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.sklearn.convert.html)\n* [MXNet](https:\u002F\u002Faws.amazon.com\u002Fblogs\u002Fai\u002Fbring-machine-learning-to-ios-apps-using-apache-mxnet-and-apple-core-ml\u002F)\n* [LibSVM](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.libsvm.convert.html)\n* [Torch7](https:\u002F\u002Fgithub.com\u002Fprisma-ai\u002Ftorch2coreml)\n\n# The Gold\n*Collections of machine learning models that could be converted to Core ML*\n\n* [Caffe Model Zoo](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe\u002Fwiki\u002FModel-Zoo) - Big list of models in Caffe format.\n* [TensorFlow Models](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels) - Models for TensorFlow.\n* [TensorFlow Slim Models](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002FREADME.md) - Another collection of TensorFlow Models.\n* [MXNet Model Zoo](https:\u002F\u002Fmxnet.incubator.apache.org\u002Fmodel_zoo\u002F) - Collection of MXNet models.\n\n*Individual machine learning models that could be converted to Core ML. We'll keep adjusting the list as they become converted.*\n* [LaMem](https:\u002F\u002Fgithub.com\u002FMiyainNYC\u002FVisual-Memorability-through-Caffe) Score the memorability of pictures.\n* [ILGnet](https:\u002F\u002Fgithub.com\u002FBestiVictory\u002FILGnet) The aesthetic evaluation of images.\n* [Colorization](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization) Automatic colorization using deep neural networks.\n* [Illustration2Vec](https:\u002F\u002Fgithub.com\u002Frezoo\u002Fillustration2vec) Estimating a set of tags and extracting semantic feature vectors from given illustrations.\n* [CTPN](https:\u002F\u002Fgithub.com\u002Ftianzhi0549\u002FCTPN) Detecting text in natural image.\n* [Image Analogy](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy) Find semantically-meaningful dense correspondences between two input images.\n* [iLID](https:\u002F\u002Fgithub.com\u002Ftwerkmeister\u002FiLID) Automatic spoken language identification.\n* [Fashion Detection](https:\u002F\u002Fgithub.com\u002Fliuziwei7\u002Ffashion-detection) Cloth detection from images.\n* [Saliency](https:\u002F\u002Fgithub.com\u002Fimatge-upc\u002Fsaliency-2016-cvpr) The prediction of salient areas in images has been traditionally addressed with hand-crafted features.\n* [Face Detection](https:\u002F\u002Fgithub.com\u002FDolotovEvgeniy\u002FDeepPyramid) Detect face from image.\n* [mtcnn](https:\u002F\u002Fgithub.com\u002FCongWeilin\u002Fmtcnn-caffe) Joint Face Detection and Alignment.\n* [deephorizon](https:\u002F\u002Fgithub.com\u002Fscottworkman\u002Fdeephorizon) Single image horizon line estimation.\n\n# Contributing and License\n* [See the guide](https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fblob\u002Fmaster\u002F.github\u002FCONTRIBUTING.md)\n* Distributed under the MIT license. See LICENSE for more information.\n","\u003C!--\n标题: 令人惊叹的 Core ML 模型\n描述：精选的 Core ML 格式机器学习模型列表。\n作者：李克丹\n-->\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flikedan_Awesome-CoreML-Models_readme_e92d763c2cdd.png\" width=\"329\" height=\"295\"\u002F>\n\u003C\u002Fp>\n\n\n自 iOS 11 以来，苹果发布了 Core ML 框架，以帮助开发者将机器学习模型集成到应用程序中。[官方文档](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Fcoreml)\n\n我们整理了目前最大的 Core ML 格式机器学习模型集合，旨在帮助 iOS、macOS、tvOS 和 watchOS 开发者尝试各种机器学习技术。\n\n如果您已经将模型转换为 Core ML 格式，欢迎提交 [pull request](https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fcompare)。\n\n最近，我们还添加了可视化工具。这里有一个 [Netron](https:\u002F\u002Flutzroeder.github.io\u002FNetron)。\n\n[![Awesome](https:\u002F\u002Fcdn.rawgit.com\u002Fsindresorhus\u002Fawesome\u002Fd7305f38d29fed78fa85652e3a63e154dd8e8829\u002Fmedia\u002Fbadge.svg)](https:\u002F\u002Fgithub.com\u002Fsindresorhus\u002Fawesome)\n[![欢迎 Pull Requests](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPRs-welcome-brightgreen.svg)](http:\u002F\u002Fmakeapullrequest.com)\n\n# 模型\n\n## 图像 - 元数据\u002F文本\n* 以图像数据为输入，输出关于图像的有用信息的模型。\n* **TextDetection** - 使用 Vision 内置模型实时检测文本。[下载]() | [演示](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FTextDetection-CoreML) | [参考](https:\u002F\u002Fdeveloper.apple.com\u002Fdocumentation\u002Fvision)\n* **PhotoAssessment** - 使用 Core ML 和 Metal 进行照片评估。[下载](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FPhotoAssessment\u002Fblob\u002Fmaster\u002FPhotoAssessment-Sample\u002FSources\u002FNIMANasnet.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FPhotoAssessment) | [参考](https:\u002F\u002Farxiv.org\u002Fabs\u002F1709.05424)\n* **PoseEstimation** - 从图片中估计人体姿态，适用于移动端。[下载](https:\u002F\u002Fgithub.com\u002FedvardHua\u002FPoseEstimationForMobile\u002Ftree\u002Fmaster\u002Frelease) | [演示](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FPoseEstimation-CoreML) | [参考](https:\u002F\u002Fgithub.com\u002FedvardHua\u002FPoseEstimationForMobile)\n* **MobileNet** - 检测图像中占主导地位的对象。[下载](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML\u002Fraw\u002Fmaster\u002FMobileNet.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML) | [参考](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.04861)\n* **Places CNN** - 从 205 个类别中检测图像场景，如卧室、森林、海岸等。[下载](https:\u002F\u002Fgithub.com\u002Fhollance\u002FMobileNet-CoreML\u002Fraw\u002Fmaster\u002FMobileNet.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fchenyi1989\u002FCoreMLDemo) | [参考](http:\u002F\u002Fplaces.csail.mit.edu\u002Findex.html)\n* **Inception v3** - 检测图像中占主导地位的对象。[下载](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FCore-ML-Sample\u002Fblob\u002Fmaster\u002FCoreMLSample\u002FInceptionv3.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fyulingtianxia\u002FCore-ML-Sample\u002F) | [参考](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.00567)\n* **ResNet50** - 检测图像中占主导地位的对象。[下载](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples\u002Fblob\u002Fmaster\u002FCoreML-samples\u002FResnet50.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples) | [参考](https:\u002F\u002Farxiv.org\u002Fabs\u002F1512.03385)\n* **VGG16** - 检测图像中占主导地位的对象。[下载](https:\u002F\u002Fdocs-assets.developer.apple.com\u002Fcoreml\u002Fmodels\u002FVGG16.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Falaphao\u002FCoreMLExample) | [参考](https:\u002F\u002Farxiv.org\u002Fabs\u002F1409.1556)\n* **Car Recognition** - 预测汽车的品牌和型号。[下载](https:\u002F\u002Fgithub.com\u002Flikedan\u002FCore-ML-Car-Recognition\u002Fblob\u002Fmaster\u002FConvert\u002FCarRecognition.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fytakzk\u002FCoreML-samples) | [参考](http:\u002F\u002Fmmlab.ie.cuhk.edu.hk\u002Fdatasets\u002Fcomp_cars\u002Findex.html)\n* **YOLO** - 识别给定图像中的物体及其在图像中的位置。[下载](https:\u002F\u002Fgithub.com\u002Fhollance\u002FYOLO-CoreML-MPSNNGraph\u002Fblob\u002Fmaster\u002FTinyYOLO-CoreML\u002FTinyYOLO-CoreML\u002FTinyYOLO.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fhollance\u002FYOLO-CoreML-MPSNNGraph) | [参考](http:\u002F\u002Fmachinethink.net\u002Fblog\u002Fobject-detection-with-yolo)\n* **AgeNet** - 根据肖像预测年龄。[下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mT1J3T1BEeWx4TWc\u002Fview?usp=sharing) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [参考](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_agegender\u002F)\n* **GenderNet** - 根据肖像预测性别。[下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mYkNsZHlyc2ZuaFk\u002Fview?usp=sharing) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [参考](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_agegender\u002F)\n* **MNIST** - 根据图像预测手写（绘制）数字。[下载](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FMNIST-CoreML\u002Fraw\u002Fmaster\u002FMNISTPrediction\u002FMNIST.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FMNIST-CoreML) | [参考](http:\u002F\u002Fyann.lecun.com\u002Fexdb\u002Fmnist\u002F)\n* **EmotionNet** - 根据肖像预测情绪。[下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6mTlYtRGdXNFlpWDQ\u002Fview?usp=sharing) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFacesVisionDemo) | [参考](http:\u002F\u002Fwww.openu.ac.il\u002Fhome\u002Fhassner\u002Fprojects\u002Fcnn_emotions\u002F)\n* **SentimentVision** - 根据图像预测正面或负面情感。[下载](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B1ghKa_MYL6mZ0dITW5uZlgyNTg) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentVisionDemo) | [参考](http:\u002F\u002Fwww.sciencedirect.com\u002Fscience\u002Farticle\u002Fpii\u002FS0262885617300355?via%3Dihub)\n* **Food101** - 根据图像预测食物类型。[下载](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B5TjkH3njRqnVjBPZGRZbkNITjA) | [演示](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FFood101-CoreML) | [参考](http:\u002F\u002Fvisiir.lip6.fr\u002Fexplore)\n* **Oxford102** - 根据图像检测花卉类型。[下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6meDBHT2NaZGxkNzQ\u002Fview?usp=sharing) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FFlowersVisionDemo) | [参考](http:\u002F\u002Fjimgoo.com\u002Fflower-power\u002F)\n* **FlickrStyle** - 检测图像的艺术风格。[下载](https:\u002F\u002Fdrive.google.com\u002Ffile\u002Fd\u002F0B1ghKa_MYL6meDBHT2NaZGxkNzQ\u002Fview?usp=sharing) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FStylesVisionDemo) | [参考](http:\u002F\u002Fsergeykarayev.com\u002Ffiles\u002F1311.3715v3.pdf)\n* **RN1015k500** - 预测照片的拍摄地点。[下载](https:\u002F\u002Fs3.amazonaws.com\u002Faws-bigdata-blog\u002Fartifacts\u002FRN1015k500\u002FRN1015k500.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fawslabs\u002FMXNet2CoreML_iOS_sample_app) | [参考](https:\u002F\u002Faws.amazon.com\u002Fblogs\u002Fai\u002Festimating-the-location-of-images-using-mxnet-and-multimedia-commons-dataset-on-aws-ec2)\n* **Nudity** - 将图像分类为 NSFW（裸露）或 SFW（非裸露）\n [下载](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B5TjkH3njRqncDJpdDB1Tkl2S2s) | [演示](https:\u002F\u002Fgithub.com\u002Fph1ps\u002FNudity-CoreML) | [参考](https:\u002F\u002Fgithub.com\u002Fyahoo\u002Fopen_nsfw)\n* **TextRecognition (ML Kit)** - 使用 ML Kit 内置模型实时识别文本。[下载]() | [演示](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FTextRecognition-MLKit) | [参考](https:\u002F\u002Ffirebase.google.com\u002Fdocs\u002Fml-kit\u002Fios\u002Frecognize-text)\n* **ImageSegmentation** - 将摄像头画面或图像的像素分割成预定义的类别。[下载](https:\u002F\u002Fdeveloper.apple.com\u002Fmachine-learning\u002Fmodels\u002F) | [演示](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FImageSegmentation-CoreML) | [参考](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fdeeplab)\n* **DepthPrediction** - 从单张图像预测深度。[下载](https:\u002F\u002Fdeveloper.apple.com\u002Fmachine-learning\u002Fmodels\u002F) | [演示](https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FDepthPrediction-CoreML) | [参考](https:\u002F\u002Fgithub.com\u002Firo-cp\u002FFCRN-DepthPrediction)\n\n## 图像 - 图像\n*用于处理图像的模型*\n* **HED** - 从彩色图像中检测嵌套边缘。[下载](https:\u002F\u002Fgithub.com\u002Fs1ddok\u002FHED-CoreML\u002Fblob\u002Fmaster\u002FHED-CoreML\u002FModels\u002FHED_so.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fs1ddok\u002FHED-CoreML) | [参考文献](http:\u002F\u002Fdl.acm.org\u002Fcitation.cfm?id=2654889)\n* **AnimeScale2x** - 处理双三次缩放的动漫风格艺术作品。[下载](https:\u002F\u002Fgithub.com\u002Fimxieyi\u002Fwaifu2x-ios\u002Fblob\u002Fmaster\u002Fwaifu2x\u002Fmodels\u002Fanime_noise0_model.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fimxieyi\u002Fwaifu2x-ios) | [参考文献](https:\u002F\u002Farxiv.org\u002Fabs\u002F1501.00092)\n\n## 文本 - 元数据\u002F文本\n*用于处理文本数据的模型*\n* **情感极性** - 预测句子中的正面或负面情感。[下载](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentCoreMLDemo\u002Fraw\u002Fmaster\u002FSentimentPolarity\u002FResources\u002FSentimentPolarity.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FSentimentCoreMLDemo) | [参考文献](http:\u002F\u002Fboston.lti.cs.cmu.edu\u002Fclasses\u002F95-865-K\u002FHW\u002FHW3\u002F)\n* **文档分类** - 将新闻文章分类为5个类别之一。[下载](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier\u002Fblob\u002Fmaster\u002FSources\u002FDocumentClassification.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier) | [参考文献](https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier\u002F)\n* **iMessage垃圾信息检测** - 检测消息是否为垃圾信息。[下载](https:\u002F\u002Fgithub.com\u002Fgkswamy98\u002Fimessage-spam-detection\u002Fblob\u002Fmaster\u002FMessageClassifier.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fgkswamy98\u002Fimessage-spam-detection\u002Ftree\u002Fmaster) | [参考文献](http:\u002F\u002Fwww.dt.fee.unicamp.br\u002F~tiago\u002Fsmsspamcollection\u002F)\n* **NamesDT** - 使用决策树分类器进行性别分类。[下载](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FNamesCoreMLDemo\u002Fblob\u002Fmaster\u002FNames\u002FResources\u002FNamesDT.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fcocoa-ai\u002FNamesCoreMLDemo) | [参考文献](http:\u002F\u002Fnlpforhackers.io\u002F)\n* **人格检测** - 根据用户文档（句子）预测人格特征。[下载](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002Ftree\u002Fmaster\u002Fios_app\u002FProfilerSA\u002FML%20Models) | [演示](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002F) | [参考文献](https:\u002F\u002Fgithub.com\u002Fnovinfard\u002Fprofiler-sentiment-analysis\u002Fblob\u002Fmaster\u002Fdissertation-v6.pdf)\n* **BERT问答系统** - BERT问答系统的Swift Core ML 3实现。[下载](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers\u002Fblob\u002Fmaster\u002FResources\u002FBERTSQUADFP16.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers#-bert) | [参考文献](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-transformers#run_squadpy-fine-tuning-on-squad-for-question-answering)\n* **GPT-2** - OpenAI GPT-2文本生成（Core ML 3）。[下载](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers\u002Fblob\u002Fmaster\u002FResources\u002Fgpt2-512.mlmodel) | [演示](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fswift-coreml-transformers#-gpt-2) | [参考文献](https:\u002F\u002Fgithub.com\u002Fhuggingface\u002Fpytorch-transformers)\n## 其他\n* **Exermote** - 当iPhone佩戴在右上臂时，预测正在进行的运动。[下载](https:\u002F\u002Fgithub.com\u002FLausbert\u002FExermote\u002Ftree\u002Fmaster\u002FExermoteInference) | [演示](https:\u002F\u002Fgithub.com\u002FLausbert\u002FExermote\u002Ftree\u002Fmaster\u002FExermoteInference) | [参考文献](http:\u002F\u002Flausbert.com\u002F2017\u002F08\u002F03\u002Fexermote\u002F)\n* **GestureAI** - 根据给定的位置和音乐类型推荐艺术家。[下载](https:\u002F\u002Fgoo.gl\u002FavdMjD) | [演示](https:\u002F\u002Fgithub.com\u002Fakimach\u002FGestureAI-CoreML-iOS) | [参考文献](https:\u002F\u002Fgithub.com\u002Fakimach\u002FGestureAI-iOS\u002Ftree\u002Fmaster\u002FGestureAI)\n* **艺术家推荐** - 根据给定的位置和音乐类型推荐艺术家。[下载](https:\u002F\u002Fgithub.com\u002Fagnosticdev\u002FBlog-Examples\u002Fblob\u002Fmaster\u002FUsingCoreMLtoCreateASongRecommendationEngine\u002FArtist.mlmodel) | [演示]() | [参考文献](https:\u002F\u002Fwww.agnosticdev.com\u002Fblog-entry\u002Fpython\u002Fusing-scikit-learn-and-coreml-create-music-recommendation-engine)\n* **和弦建议器** - 根据输入的和弦进行预测最可能的下一个和弦。[下载](https:\u002F\u002Fgithub.com\u002Fcarlosmbe\u002FMac-CoreML-Chord-Suggester\u002Fblob\u002Fmain\u002FMLChordSuggester.mlpackage.zip) | [演示](https:\u002F\u002Fgithub.com\u002Fcarlosmbe\u002FMac-CoreML-Chord-Suggester\u002Ftree\u002Fmain) | [参考文献](https:\u002F\u002Fmedium.com\u002F@huanlui\u002Fchordsuggester-i-3a1261d4ea9e)\n\n## 语音处理\n* **流式ASR** – 适用于iOS的实时流式语音识别引擎。采用Fast Conformer + CTC架构，完全在设备端运行。  \n  [下载](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS\u002Freleases) | [演示](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS) | [参考文献](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuStreamingASR-iOS)\n* **关键词检测（KWS）** – 基于轻量级CRNN架构的设备端关键词检测引擎，专为移动设备优化。  \n  [下载](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS\u002Freleases) | [演示](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS) | [参考文献](https:\u002F\u002Fgithub.com\u002FOtosaku\u002FOtosakuKWS-iOS)\n\n# 可视化工具\n*帮助可视化CoreML模型的工具*\n* [Netron](https:\u002F\u002Flutzroeder.github.io\u002FNetron)\n\n# 支持的格式\n*可转换为Core ML的模型格式列表及示例*\n* [Caffe](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.caffe.convert.html)\n* [Keras](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.keras.convert.html)\n* [XGBoost](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.xgboost.convert.html)\n* [Scikit-learn](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.sklearn.convert.html)\n* [MXNet](https:\u002F\u002Faws.amazon.com\u002Fblogs\u002Fai\u002Fbring-machine-learning-to-ios-apps-using-apache-mxnet-and-apple-core-ml\u002F)\n* [LibSVM](https:\u002F\u002Fapple.github.io\u002Fcoremltools\u002Fgenerated\u002Fcoremltools.converters.libsvm.convert.html)\n* [Torch7](https:\u002F\u002Fgithub.com\u002Fprisma-ai\u002Ftorch2coreml)\n\n# 黄金\n* 可转换为 Core ML 的机器学习模型集合*\n\n* [Caffe Model Zoo](https:\u002F\u002Fgithub.com\u002FBVLC\u002Fcaffe\u002Fwiki\u002FModel-Zoo) - 包含大量 Caffe 格式模型的列表。\n* [TensorFlow Models](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels) - TensorFlow 模型集合。\n* [TensorFlow Slim Models](https:\u002F\u002Fgithub.com\u002Ftensorflow\u002Fmodels\u002Ftree\u002Fmaster\u002Fresearch\u002Fslim\u002FREADME.md) - 另一个 TensorFlow 模型集合。\n* [MXNet Model Zoo](https:\u002F\u002Fmxnet.incubator.apache.org\u002Fmodel_zoo\u002F) - MXNet 模型集合。\n\n*可转换为 Core ML 的单个机器学习模型。我们会根据模型的转换进度不断更新此列表。*\n* [LaMem](https:\u002F\u002Fgithub.com\u002FMiyainNYC\u002FVisual-Memorability-through-Caffe) 用于评估图片的记忆度。\n* [ILGnet](https:\u002F\u002Fgithub.com\u002FBestiVictory\u002FILGnet) 用于图像美学评价。\n* [Colorization](https:\u002F\u002Fgithub.com\u002Frichzhang\u002Fcolorization) 使用深度神经网络实现自动上色。\n* [Illustration2Vec](https:\u002F\u002Fgithub.com\u002Frezoo\u002Fillustration2vec) 从给定插图中估计一组标签并提取语义特征向量。\n* [CTPN](https:\u002F\u002Fgithub.com\u002Ftianzhi0549\u002FCTPN) 用于自然场景图像中的文本检测。\n* [Image Analogy](https:\u002F\u002Fgithub.com\u002Fmsracver\u002FDeep-Image-Analogy) 在两张输入图像之间找到语义上有意义的密集对应关系。\n* [iLID](https:\u002F\u002Fgithub.com\u002Ftwerkmeister\u002FiLID) 用于自动语音语言识别。\n* [Fashion Detection](https:\u002F\u002Fgithub.com\u002Fliuziwei7\u002Ffashion-detection) 从图像中检测服装。\n* [Saliency](https:\u002F\u002Fgithub.com\u002Fimatge-upc\u002Fsaliency-2016-cvpr) 传统上，图像显著区域的预测是通过手工设计的特征来实现的。\n* [Face Detection](https:\u002F\u002Fgithub.com\u002FDolotovEvgeniy\u002FDeepPyramid) 用于从图像中检测人脸。\n* [mtcnn](https:\u002F\u002Fgithub.com\u002FCongWeilin\u002Fmtcnn-caffe) 用于联合人脸检测与对齐。\n* [deephorizon](https:\u002F\u002Fgithub.com\u002Fscottworkman\u002Fdeephorizon) 用于从单张图像中估计地平线位置。\n\n# 贡献与许可\n* [参阅贡献指南](https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fblob\u002Fmaster\u002F.github\u002FCONTRIBUTING.md)\n* 本项目采用 MIT 许可证开源。更多信息请参阅 LICENSE 文件。","# Awesome-CoreML-Models 快速上手指南\n\n**Awesome-CoreML-Models** 是一个精选的 Core ML 格式机器学习模型集合，旨在帮助 iOS、macOS、tvOS 和 watchOS 开发者轻松将机器学习能力集成到应用中。本指南将帮助你快速获取并使用这些预训练模型。\n\n## 环境准备\n\n在使用这些模型之前，请确保你的开发环境满足以下要求：\n\n*   **操作系统**：macOS（用于开发和模型转换\u002F测试）。\n*   **开发工具**：Xcode 10 或更高版本（建议最新版以支持最新的 Core ML 特性）。\n*   **目标平台**：\n    *   iOS 11+\n    *   macOS 10.13+\n    *   tvOS 11+\n    *   watchOS 4+\n*   **编程语言**：Swift 或 Objective-C。\n*   **可选工具**：\n    *   [Netron](https:\u002F\u002Flutzroeder.github.io\u002FNetron)：用于可视化查看 `.mlmodel` 文件的结构和输入输出层。\n    *   Python & `coremltools`：如果你需要自行转换模型，需安装 Apple 的 coremltools 库。\n\n## 安装步骤\n\n由于这是一个模型资源列表而非单一的代码库，\"安装\"主要指获取模型文件并将其集成到你的 Xcode 项目中。\n\n### 1. 获取模型文件\n\n浏览 [Awesome-CoreML-Models GitHub 仓库](https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models)，根据需求选择模型类别（如图像分类、文本分析等），点击对应模型的 **Download** 链接下载 `.mlmodel` 或 `.mlpackage` 文件。\n\n> **提示**：部分模型托管在 Google Drive 或 AWS S3，国内开发者可能需要使用网络加速工具才能顺利下载。\n\n### 2. 集成到 Xcode 项目\n\n1.  打开你的 Xcode 项目。\n2.  将下载好的 `.mlmodel` 文件直接拖入 Xcode 的项目导航栏（Project Navigator）中。\n3.  在弹出的对话框中，确保勾选你的应用 Target，并点击 **Finish**。\n4.  Xcode 会自动编译该模型，并在项目导航栏中生成一个对应的 Swift 类（例如 `Resnet50.swift`），该类包含了模型的输入输出接口定义。\n\n## 基本使用\n\n以下以使用 **MobileNet**（图像物体识别）为例，展示如何在 Swift 代码中加载模型并进行预测。\n\n### 1. 导入模型类\n\nXcode 自动生成模型类后，你无需额外 import 特殊库，只需确保在文件中导入 CoreML 框架（通常默认已包含）：\n\n```swift\nimport CoreML\nimport Vision \u002F\u002F 如果使用 Vision 框架辅助处理图像\n```\n\n### 2. 加载模型并执行预测\n\n假设你已经将 `MobileNet.mlmodel` 加入项目，Xcode 生成了 `MobileNet` 类。\n\n```swift\nimport UIKit\nimport CoreML\n\nclass ViewController: UIViewController {\n\n    override func viewDidLoad() {\n        super.viewDidLoad()\n        runPrediction()\n    }\n\n    func runPrediction() {\n        \u002F\u002F 1. 初始化模型\n        guard let model = try? MobileNet(configuration: MLModelConfiguration()) else {\n            print(\"无法加载模型\")\n            return\n        }\n\n        \u002F\u002F 2. 准备输入数据\n        \u002F\u002F 注意：不同模型对输入图像的大小和格式要求不同，请参考模型文档或 Netron 查看输入层要求\n        \u002F\u002F 这里假设我们有一个 UIImage 需要转换\n        guard let image = UIImage(named: \"test_image.jpg\"),\n              let pixelBuffer = image.pixelBuffer(width: 224, height: 224) else {\n            print(\"图像处理失败\")\n            return\n        }\n\n        \u002F\u002F 3. 创建模型输入对象\n        let input = MobileNetInput(image: pixelBuffer)\n\n        \u002F\u002F 4. 执行预测\n        do {\n            let output = try model.prediction(input: input)\n            \n            \u002F\u002F 5. 处理结果\n            \u002F\u002F MobileNet 输出通常包含概率最高的类别标签和置信度\n            if let topLabel = output.classLabelProbs.keys.max(by: { output.classLabelProbs[$0]! \u003C output.classLabelProbs[$1]! }) {\n                let confidence = output.classLabelProbs[topLabel]!\n                print(\"识别结果: \\(topLabel), 置信度: \\(confidence)\")\n            }\n        } catch {\n            print(\"预测出错: \\(error.localizedDescription)\")\n        }\n    }\n}\n\n\u002F\u002F 辅助扩展：将 UIImage 转换为 CVPixelBuffer\nextension UIImage {\n    func pixelBuffer(width: Int, height: Int) -> CVPixelBuffer? {\n        let attrs = [kCVPixelBufferCGImageCompatibilityKey: kCFBooleanTrue,\n                     kCVPixelBufferCGBitmapContextCompatibilityKey: kCFBooleanTrue] as CFDictionary\n        var pixelBuffer: CVPixelBuffer?\n        let status = CVPixelBufferCreate(kCFAllocatorDefault, width, height,\n                                         kCVPixelFormatType_32ARGB, attrs, &pixelBuffer)\n        guard status == kCVReturnSuccess, let buffer = pixelBuffer else { return nil }\n        \n        CVPixelBufferLockBaseAddress(buffer, [])\n        let pixelData = CVPixelBufferGetBaseAddress(buffer)\n        \n        let rgbColorSpace = CGColorSpaceCreateDeviceRGB()\n        guard let context = CGContext(data: pixelData, width: width, height: height,\n                                      bitsPerComponent: 8, bytesPerRow: CVPixelBufferGetBytesPerRow(buffer),\n                                      space: rgbColorSpace, bitmapInfo: CGImageAlphaInfo.noneSkipFirst.rawValue) else { return nil }\n        \n        context.translateBy(x: 0, y: CGFloat(height))\n        context.scaleBy(x: 1.0, y: -1.0)\n        \n        UIGraphicsPushContext(context)\n        self.draw(in: CGRect(x: 0, y: 0, width: width, height: height))\n        UIGraphicsPopContext()\n        CVPixelBufferUnlockBaseAddress(buffer, [])\n        \n        return buffer\n    }\n}\n```\n\n### 3. 使用 Vision 框架（推荐）\n\n对于图像类模型，Apple 推荐结合 `Vision` 框架使用，它可以自动处理图像预处理、旋转和缩放。\n\n```swift\nimport Vision\n\nfunc performVisionRequest(on image: UIImage) {\n    guard let model = try? VNCoreMLModel(for: MobileNet().model) else { return }\n    \n    let request = VNCoreMLRequest(model: model) { (request, error) in\n        if let results = request.results as? [VNClassificationObservation],\n           let topResult = results.first {\n            print(\"Vision 识别结果: \\(topResult.identifier), 置信度: \\(topResult.confidence)\")\n        }\n    }\n    \n    guard let ciImage = CIImage(image: image) else { return }\n    let handler = VNImageRequestHandler(ciImage: ciImage, options: [:])\n    \n    DispatchQueue.global(qos: .userInitiated).async {\n        try? handler.perform([request])\n    }\n}\n```\n\n通过以上步骤，你可以快速将 Awesome-CoreML-Models 中的任何模型集成到你的应用中。对于文本或其他非图像模型，请直接使用生成的 Swift 类进行数据输入和结果读取，无需经过 Vision 框架。","某 iOS 独立开发者计划开发一款名为“智拍助手”的摄影辅助应用，旨在通过实时分析取景画面，自动识别场景类型（如海滩、森林）并评估照片美学质量，从而指导用户拍出更好看的照片。\n\n### 没有 Awesome-CoreML-Models 时\n- **模型转换门槛高**：开发者需自行寻找通用的 TensorFlow 或 PyTorch 模型，并花费大量时间研究如何将其转换为 Apple 专有的 Core ML (.mlmodel) 格式，过程中常遇到算子不支持导致的报错。\n- **缺乏现成场景分类器**：要实现“识别海滩或森林”的功能，需要从头训练或微调复杂的 Places CNN 模型，数据收集和训练成本极高，且难以保证在移动端的运行效率。\n- **美学评估实现困难**：照片质量评分算法涉及复杂的主观特征提取，若无现成模型，开发者很难在短时间内构建出准确的 PhotoAssessment 模型，导致核心功能延期。\n- **调试与验证耗时**：缺乏可视化的模型结构参考，开发者在集成模型后若出现推理错误，难以快速定位是模型结构问题还是代码调用问题。\n\n### 使用 Awesome-CoreML-Models 后\n- **即拿即用，零转换成本**：直接在列表中找到已预转换好的 Places CNN 和 PhotoAssessment 模型文件，下载即可拖入 Xcode 工程，省去了繁琐的格式转换和环境配置环节。\n- **快速集成场景识别**：利用现成的 Places CNN 模型，几行代码即可实现对 205 种场景（如卧室、海岸）的高精度分类，立即赋予应用“懂场景”的能力。\n- **轻松添加美学评分**：直接集成社区验证过的 PhotoAssessment 模型，结合 Metal 加速，迅速实现照片美学打分功能，提升了应用的专业度和用户粘性。\n- **结构清晰，便于调试**：借助仓库推荐的 Netron 等可视化工具，开发者可直观查看模型输入输出节点，大幅缩短了集成调试周期，确保功能稳定上线。\n\nAwesome-CoreML-Models 通过提供丰富且开箱即用的预训练模型资源，将 iOS 开发者集成机器学习功能的周期从数周缩短至数小时，极大地降低了移动端 AI 应用的开发门槛。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Flikedan_Awesome-CoreML-Models_e92d763c.png","likedan","Kedan Li","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Flikedan_c6d186f4.jpg","Co-founder @ Revery.AI \r\nVirtual Dressing Room for Fashion E-Commerce, powered by state-of-the-art AI",null,"https:\u002F\u002Fgithub.com\u002Flikedan",[83],{"name":84,"color":85,"percentage":86},"Python","#3572A5",100,6978,506,"2026-04-02T14:20:19","MIT",1,"iOS, macOS, tvOS, watchOS","未说明（Core ML 自动利用 Apple 设备的 GPU\u002FNeural Engine，无需特定 NVIDIA\u002FCUDA 配置）","未说明（取决于具体模型和设备性能）",{"notes":96,"python":97,"dependencies":98},"该项目是一个 Core ML 模型集合列表，而非单一可执行软件。主要面向 Apple 生态系统开发者，模型需集成到 iOS (11+)、macOS、tvOS 或 watchOS 应用中运行。部分模型可能需要 Xcode 和 Swift\u002FObjective-C 开发环境。文中提到的 Netron 为独立的模型可视化工具。","未说明",[],[13,26],[101,102,103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120],"coreml","coreml-model","apple","machine-learning","curated-list","coreml-framework","coreml-models","coremltools","awesome-list","models","model","download","awesome","core-ml","ml","caffe","caffemodel","tensorflow-models","ios","ios11","2026-03-27T02:49:30.150509","2026-04-06T08:42:13.822781",[124,129,134,139,144,149,154,159],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},11572,"如何将 TensorFlow 模型转换为 CoreML 模型？","有几种方法可以实现：\n1. 使用苹果官方工具 **CoreML Tools** (参见: https:\u002F\u002Fpypi.python.org\u002Fpypi\u002Fcoremltools)。\n2. 尝试使用 tf-coreml (https:\u002F\u002Fgithub.com\u002Ftf-coreml\u002Ftf-coreml)，但请注意它存在一些局限性。\n3. 作为替代方案，可以使用适用于 iOS 的 TensorFlow Lite (https:\u002F\u002Fwww.tensorflow.org\u002Fmobile\u002Fios_build)。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F18",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},11573,"为什么 coreml.store 网站无法访问或链接失效？","托管该网站的 AWS 账户被暂停或遇到 reclaim 问题，导致网站暂时下线。维护者正在尝试修复此问题。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F29",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},11574,"如何优化 CoreML 模型的输入类型以提升性能？","建议将模型的输入类型从 `MLMultiArray` 更改为 `CVPixelBuffer`（或在文档中标记为 Image 类型）。这样可以避免在 iOS 应用中进行额外的数据转换，直接接受图像输入，从而提高效率。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F15",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},11575,"是否有用于交通标志检测的 CoreML 模型？","目前该仓库中尚未找到现成的交通标志检测 CoreML 模型文件。虽然有相关的基准测试数据集（如 GTSDB），但需要用户自行训练或转换模型。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F23",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},11576,"如何将风格迁移（Style Transfer）模型转换为 CoreML？","可以将 Fast Style Transfer 等模型转换为 CoreML。需要注意的是，如果模型计算图中存在循环（cycles），转换可能会失败或非常困难。可以参考已有的实现示例，如 https:\u002F\u002Fgithub.com\u002Fmdramos\u002Ffast-style-transfer-coreml。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F21",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},11577,"如何使用 CoreML 进行文档分类？","可以使用基于 BBC 文章训练的文档分类模型，它能将文档分为商业、娱乐、政治、体育和科技五类。可以参考开源框架 DocumentClassifier (https:\u002F\u002Fgithub.com\u002Ftoddkramer\u002FDocumentClassifier) 及其 iOS 演示应用 NewsClassifier。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F19",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},11578,"是否有用于移动端的人体姿态估计（Pose Estimation）CoreML 模型？","有的。可以使用基于 AI Challenger 数据集训练的模型，支持单人姿态估计。相关实现参考 PoseEstimationForMobile (https:\u002F\u002Fgithub.com\u002FedvardHua\u002FPoseEstimationForMobile)，iOS 演示项目参考 PoseEstimation-CoreML (https:\u002F\u002Fgithub.com\u002Ftucan9389\u002FPoseEstimation-CoreML)。输出通常为 Heatmap 数组。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F27",{"id":160,"question_zh":161,"answer_zh":162,"source_url":163},11579,"是否有用于检测图像内容安全性（NSFW）的 CoreML 模型？","有的。基于 Yahoo 的 OpenNSFW 数据集训练的模型可用于检测图像中的裸露内容。模型会返回 NSFW（不安全）和 SFW（安全）的评分，开发者可以根据需求设定阈值（例如 NSFW > 70% 视为不安全）。模型较大，通常托管在 Google Drive 等外部链接上。","https:\u002F\u002Fgithub.com\u002Flikedan\u002FAwesome-CoreML-Models\u002Fissues\u002F16",[]]