[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-imfing--keras-flask-deploy-webapp":3,"tool-imfing--keras-flask-deploy-webapp":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",144730,2,"2026-04-07T23:26:32",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":77,"owner_location":78,"owner_email":77,"owner_twitter":79,"owner_website":80,"owner_url":81,"languages":82,"stars":103,"forks":104,"last_commit_at":105,"license":106,"difficulty_score":32,"env_os":107,"env_gpu":108,"env_ram":109,"env_deps":110,"category_tags":119,"github_topics":120,"view_count":32,"oss_zip_url":77,"oss_zip_packed_at":77,"status":17,"created_at":126,"updated_at":127,"faqs":128,"releases":159},5445,"imfing\u002Fkeras-flask-deploy-webapp","keras-flask-deploy-webapp",":smiley_cat: Pretty & simple image classifier app template. Deploy your own trained model or pre-trained model (VGG, ResNet, Densenet) to a web app using Flask in 10 minutes.","keras-flask-deploy-webapp 是一个专为图像分类模型设计的轻量级 Web 应用模板，旨在帮助开发者在 10 分钟内将训练好的 Keras 模型（如 VGG、ResNet、DenseNet 等）部署为可视化的网页服务。它解决了机器学习模型从本地实验到在线演示过程中环境配置复杂、前端开发耗时等痛点，让用户无需深入掌握 Web 开发细节即可快速构建交互界面。\n\n该工具特别适合 AI 研究人员、深度学习开发者以及需要快速展示模型效果的学生或工程师使用。无论是使用自己训练的 `.h5` 模型文件，还是调用官方预训练模型，只需简单配置即可运行。其技术亮点包括默认支持 TensorFlow 2.x 与 tf.keras，采用原生 JavaScript、HTML 和 CSS 构建无依赖的前端，确保页面简洁且对移动端友好；同时支持图片拖拽上传功能，交互体验流畅。此外，项目提供完善的 Docker 支持，既可直接拉取预构建镜像一键启动，也支持本地快速构建部署。如果你希望跳过繁琐的前后端联调，专注于模型本身的验证与展示，keras-flask-deploy-webapp 是一个高效、灵","keras-flask-deploy-webapp 是一个专为图像分类模型设计的轻量级 Web 应用模板，旨在帮助开发者在 10 分钟内将训练好的 Keras 模型（如 VGG、ResNet、DenseNet 等）部署为可视化的网页服务。它解决了机器学习模型从本地实验到在线演示过程中环境配置复杂、前端开发耗时等痛点，让用户无需深入掌握 Web 开发细节即可快速构建交互界面。\n\n该工具特别适合 AI 研究人员、深度学习开发者以及需要快速展示模型效果的学生或工程师使用。无论是使用自己训练的 `.h5` 模型文件，还是调用官方预训练模型，只需简单配置即可运行。其技术亮点包括默认支持 TensorFlow 2.x 与 tf.keras，采用原生 JavaScript、HTML 和 CSS 构建无依赖的前端，确保页面简洁且对移动端友好；同时支持图片拖拽上传功能，交互体验流畅。此外，项目提供完善的 Docker 支持，既可直接拉取预构建镜像一键启动，也支持本地快速构建部署。如果你希望跳过繁琐的前后端联调，专注于模型本身的验证与展示，keras-flask-deploy-webapp 是一个高效、灵活且易于定制的理想选择。","# Deploy Keras Model with Flask as Web App in 10 Minutes\n\n[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9%2B-green.svg)]()\n![Contributions Welcome](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg?style=flat)\n\nA minimal and customizable repo to deploy your image models as web app easily.\n\n## Getting Started\n\n- Quick run with Docker:\n  ```bash\n  docker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:latest\n  ```\n- Go to http:\u002F\u002Flocalhost:5000 and enjoy :tada:\n\nScreenshot:\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_955ebd28819e.png\" height=\"420px\" alt=\"\">\n\u003C\u002Fp>\n\n## New Features :fire:\n\n- Enhanced, mobile-friendly UI\n- Support image drag-and-drop\n- Use vanilla JavaScript, HTML and CSS. No jQuery or Bootstrap\n- Switch to TensorFlow 2.x and [tf.keras](https:\u002F\u002Fwww.tensorflow.org\u002Fguide\u002Fkeras) by default\n- Upgrade Docker base image to Python 3.11\n\n\u003Cp float=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_a69653460a25.png\" height=\"330px\" alt=\"\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_38cfd02828fa.png\" height=\"330px\" alt=\"\">\n\u003C\u002Fp>\n\n------------------\n\n## Run with Docker\n\n#### Use prebuilt image\n\n```\n$ docker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:latest\n```\n\n#### Build locally\n\nWith **[Docker](https:\u002F\u002Fwww.docker.com)**, you can quickly build and run the entire application in minutes :whale:\n\n```shell\n# 1. First, clone the repo\n$ git clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\n$ cd keras-flask-deploy-webapp\n\n# 2. Build Docker image\n$ docker build -t keras_flask_app .\n\n# 3. Run!\n$ docker run -it --rm -p 5000:5000 keras_flask_app\n```\n\nOpen http:\u002F\u002Flocalhost:5000 and wait till the webpage is loaded.\n\n## Local Installation\n\nIt's easy to install and run it on your computer.\n\n```shell\n# 1. First, clone the repo\n$ git clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\n$ cd keras-flask-deploy-webapp\n\n# 2. Install Python packages\n$ pip install -r requirements.txt\n\n# 3. Run!\n$ python app.py\n```\n\nOpen http:\u002F\u002Flocalhost:5000 and have fun. :smiley:\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_4cd4f66b336a.gif\" height=\"480px\" alt=\"\">\n\u003C\u002Fp>\n\n------------------\n\n## Customization\n\nIt's also easy to customize and include your models in this app.\n\n> **Note**\n> Also consider [gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio) or [streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit) to create complicated web apps for ML models.\n\n\u003Cdetails>\n \u003Csummary>Details\u003C\u002Fsummary>\n\n### Use your own model\n\nPlace your trained `.h5` file saved by `model.save()` under models directory.\n\nCheck the [commented code](https:\u002F\u002Fgithub.com\u002Fmtobeiyf\u002Fkeras-flask-deploy-webapp\u002Fblob\u002Fmaster\u002Fapp.py#L37) in app.py.\n\n### Use other pre-trained model\n\nSee [Keras applications](https:\u002F\u002Fkeras.io\u002Fapplications\u002F) for more available models such as DenseNet, MobilNet, NASNet, etc.\n\nCheck [this section](https:\u002F\u002Fgithub.com\u002Fmtobeiyf\u002Fkeras-flask-deploy-webapp\u002Fblob\u002Fmaster\u002Fapp.py#L26) in app.py.\n\n### UI Modification\n\nModify files in `templates` and `static` directory.\n\n`index.html` for the UI and `main.js` for all the behaviors.\n\n\u003C\u002Fdetails>\n\n## More Resources\n\n[Building a simple Keras + deep learning REST API](https:\u002F\u002Fblog.keras.io\u002Fbuilding-a-simple-keras-deep-learning-rest-api.html)\n","# 在10分钟内使用Flask将Keras模型部署为Web应用\n\n[![](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.9%2B-green.svg)]()\n![欢迎贡献](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fcontributions-welcome-brightgreen.svg?style=flat)\n\n一个极简且可定制的仓库，帮助你轻松地将图像模型部署为Web应用。\n\n## 快速开始\n\n- 使用Docker快速运行：\n  ```bash\n  docker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:latest\n  ```\n- 打开 http:\u002F\u002Flocalhost:5000，尽情体验吧 :tada:\n\n截图：\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_955ebd28819e.png\" height=\"420px\" alt=\"\">\n\u003C\u002Fp>\n\n## 新特性 :fire:\n\n- 更强大的移动端友好界面\n- 支持图片拖拽上传\n- 使用原生JavaScript、HTML和CSS，无需jQuery或Bootstrap\n- 默认切换到TensorFlow 2.x和[tf.keras](https:\u002F\u002Fwww.tensorflow.org\u002Fguide\u002Fkeras)\n- 将Docker基础镜像升级至Python 3.11\n\n\u003Cp float=\"left\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_a69653460a25.png\" height=\"330px\" alt=\"\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_38cfd02828fa.png\" height=\"330px\" alt=\"\">\n\u003C\u002Fp>\n\n------------------\n\n## 使用Docker运行\n\n#### 使用预构建镜像\n\n```\n$ docker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:latest\n```\n\n#### 在本地构建\n\n借助**Docker**，你可以在几分钟内快速构建并运行整个应用 :whale:\n\n```shell\n# 1. 首先克隆仓库\n$ git clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\n$ cd keras-flask-deploy-webapp\n\n# 2. 构建Docker镜像\n$ docker build -t keras_flask_app .\n\n# 3. 运行！\n$ docker run -it --rm -p 5000:5000 keras_flask_app\n```\n\n打开 http:\u002F\u002Flocalhost:5000，等待页面加载完成即可。\n\n## 本地安装\n\n在你的电脑上安装并运行也非常简单。\n\n```shell\n# 1. 首先克隆仓库\n$ git clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\n$ cd keras-flask-deploy-webapp\n\n# 2. 安装Python依赖\n$ pip install -r requirements.txt\n\n# 3. 运行！\n$ python app.py\n```\n\n打开 http:\u002F\u002Flocalhost:5000，尽情享受吧。 :smiley:\n\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_readme_4cd4f66b336a.gif\" height=\"480px\" alt=\"\">\n\u003C\u002Fp>\n\n------------------\n\n## 自定义\n\n你也可以轻松自定义并在此应用中集成自己的模型。\n\n> **注意**\n> 如果需要创建更复杂的机器学习模型Web应用，也可以考虑使用[Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio)或[Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)。\n\n\u003Cdetails>\n \u003Csummary>详细信息\u003C\u002Fsummary>\n\n### 使用你自己的模型\n\n将通过`model.save()`保存的`.h5`模型文件放置在`models`目录下。\n\n请参考`app.py`中的[注释代码](https:\u002F\u002Fgithub.com\u002Fmtobeiyf\u002Fkeras-flask-deploy-webapp\u002Fblob\u002Fmaster\u002Fapp.py#L37)。\n\n### 使用其他预训练模型\n\n可以查看[Keras官方应用](https:\u002F\u002Fkeras.io\u002Fapplications\u002F)，获取更多可用模型，如DenseNet、MobileNet、NASNet等。\n\n请参考`app.py`中的[这一部分](https:\u002F\u002Fgithub.com\u002Fmtobeiyf\u002Fkeras-flask-deploy-webapp\u002Fblob\u002Fmaster\u002Fapp.py#L26)。\n\n### 修改UI\n\n你可以修改`templates`和`static`目录下的文件。\n\n`index.html`用于定义界面，`main.js`则负责所有交互逻辑。\n\n\u003C\u002Fdetails>\n\n## 更多资源\n\n[构建简单的Keras深度学习REST API](https:\u002F\u002Fblog.keras.io\u002Fbuilding-a-simple-keras-deep-learning-rest-api.html)","# keras-flask-deploy-webapp 快速上手指南\n\n本指南帮助你在 10 分钟内将 Keras 图像模型部署为 Flask Web 应用。\n\n## 环境准备\n\n- **操作系统**：Linux \u002F macOS \u002F Windows\n- **Python 版本**：3.9 或更高（推荐 3.11）\n- **前置依赖**：\n  - 方案 A（推荐）：安装 [Docker](https:\u002F\u002Fwww.docker.com\u002F)\n  - 方案 B：安装 Python 及 pip，并具备 Git 客户端\n\n## 安装步骤\n\n你可以选择使用 Docker 快速运行，或在本地环境中安装。\n\n### 方案一：使用 Docker（推荐）\n\n无需配置本地 Python 环境，一键启动。\n\n**1. 直接运行预构建镜像**\n```bash\ndocker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:latest\n```\n\n**2. 或者本地构建镜像**\n```shell\n# 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\ncd keras-flask-deploy-webapp\n\n# 构建镜像\ndocker build -t keras_flask_app .\n\n# 运行容器\ndocker run -it --rm -p 5000:5000 keras_flask_app\n```\n\n### 方案二：本地安装\n\n适合需要修改代码或集成自定义模型的场景。\n\n```shell\n# 1. 克隆仓库\ngit clone https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp.git\ncd keras-flask-deploy-webapp\n\n# 2. 安装依赖\n# 国内用户建议使用清华源加速安装\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n\n# 3. 启动应用\npython app.py\n```\n\n## 基本使用\n\n1. **访问应用**\n   在浏览器中打开以下地址：\n   ```\n   http:\u002F\u002Flocalhost:5000\n   ```\n\n2. **测试功能**\n   - 页面加载完成后，支持拖拽上传图片或直接点击上传。\n   - 系统会自动调用内置的 Keras 模型进行预测并返回结果。\n\n3. **替换自定义模型**\n   - 将你训练好的 `.h5` 模型文件（通过 `model.save()` 生成）放入项目根目录下的 `models` 文件夹。\n   - 修改 `app.py` 中第 37 行附近的代码以加载你的模型。\n   - 重启应用即可生效。\n\n> **提示**：如需开发更复杂的机器学习 Web 应用，也可参考 [Gradio](https:\u002F\u002Fgithub.com\u002Fgradio-app\u002Fgradio) 或 [Streamlit](https:\u002F\u002Fgithub.com\u002Fstreamlit\u002Fstreamlit)。","一家小型农业科技公司的算法工程师刚刚训练好一个能识别作物病害的 Keras 模型，急需向田间地头的农技员展示演示效果以争取下一轮融资。\n\n### 没有 keras-flask-deploy-webapp 时\n- **前端开发耗时过长**：工程师需要从零编写 HTML、CSS 和 JavaScript 代码来构建上传界面，甚至还要处理移动端适配问题，严重挤占核心业务时间。\n- **部署流程复杂繁琐**：将模型集成到 Web 服务涉及复杂的 Flask 路由配置、静态文件管理及依赖环境搭建，容易因版本冲突导致部署失败。\n- **交互体验粗糙**：自行开发的简易页面往往缺乏拖拽上传、实时加载动画等现代交互细节，导致演示时给投资人留下“技术不成熟”的印象。\n- **迭代验证周期长**：每次更新模型都需要重新修改后端逻辑并重启服务，无法在几分钟内快速验证新模型的效果。\n\n### 使用 keras-flask-deploy-webapp 后\n- **极速上线演示**：只需将训练好的 `.h5` 模型文件放入指定目录，利用 Docker 一条命令即可在 10 分钟内启动一个美观且功能完备的 Web 应用。\n- **开箱即用的现代化 UI**：直接获得支持拖拽上传、移动端友好的精美界面，无需编写任何前端代码，大幅提升演示的专业度。\n- **灵活定制与兼容**：基于标准的 Flask 和 TensorFlow 2.x 架构，可轻松替换为 ResNet 或 DenseNet 等预训练模型，也能按需修改模板文件。\n- **环境隔离稳定运行**：通过容器化部署避免了本地环境依赖冲突，确保在任何设备上都能稳定运行，让团队专注于模型优化而非运维调试。\n\nkeras-flask-deploy-webapp 将原本需要数天的前后端联调工作压缩至十分钟，让算法团队能以最快速度将实验室模型转化为可视化的商业价值。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fimfing_keras-flask-deploy-webapp_a6965346.png","imfing","Xin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fimfing_cfa49bbc.jpg","open-source builder and tinkerer | ai stuff @bloomberg",null,"London","_imfing","https:\u002F\u002Fimfing.com","https:\u002F\u002Fgithub.com\u002Fimfing",[83,87,91,95,99],{"name":84,"color":85,"percentage":86},"JavaScript","#f1e05a",29.2,{"name":88,"color":89,"percentage":90},"Python","#3572A5",24.4,{"name":92,"color":93,"percentage":94},"HTML","#e34c26",23,{"name":96,"color":97,"percentage":98},"CSS","#663399",21.7,{"name":100,"color":101,"percentage":102},"Dockerfile","#384d54",1.7,1215,466,"2026-04-07T06:10:44","Apache-2.0","Linux, macOS, Windows","未说明 (基于 TensorFlow 2.x，通常支持 CPU 运行，如需 GPU 加速需自行配置对应环境的 TensorFlow-gpu)","未说明",{"notes":111,"python":112,"dependencies":113},"默认使用 TensorFlow 2.x 和 tf.keras。提供 Docker 部署方式（基础镜像已升级至 Python 3.11）和本地安装两种方式。前端使用原生 JavaScript、HTML 和 CSS，无 jQuery 或 Bootstrap 依赖。用户需将自己训练好的 .h5 模型文件放入 models 目录即可使用。","3.9+",[114,115,116,117,118],"tensorflow>=2.x","flask","keras","numpy","pillow",[14],[116,121,115,122,123,124,125],"tensorflow","deployment","webapp","deep-learning","pre-trained","2026-03-27T02:49:30.150509","2026-04-08T17:32:11.793281",[129,134,139,144,149,154],{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},24716,"如何修改项目以支持目标检测并显示标注后的图像？","需要在后端和前端进行以下修改：\n1. 在 app.py 中（约第 51-52 行），将预测结果转换为 base64 字符串并直接返回，不要渲染模板：\n```python\nannotated_img = u\"data:image\u002Fpng;base64,\" + base64.b64encode(open('uploads\u002Fannotated.jpg', \"rb\").read()).decode(\"ascii\")\nreturn annotated_img\n```\n2. 在 index.html 中（约第 24 行），添加一个用于显示结果的 img 标签：\n```html\n\u003Cimg id=\"result-image\" src=\"\" \u002F>\n```\n3. 在 main.js 中（约第 48 行），修改回调函数以设置图片源：\n```js\n$('#result-image').attr(\"src\", data);\n```\n注意：如果修改后不生效，可能是浏览器缓存问题，请尝试使用浏览器的无痕模式或清除缓存后重试。","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F13",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},24717,"Docker 容器启动后立即退出或在 M1 Mac 上无法运行怎么办？","这通常是因为基础镜像架构不匹配（如仅支持 amd64）或 TensorFlow 版本过旧导致。解决方案如下：\n1. 维护者已发布支持 amd64 和 arm64 的预构建镜像，可以直接运行而无需自行构建：\n```bash\ndocker run --rm -p 5000:5000 ghcr.io\u002Fimfing\u002Fkeras-flask-deploy-webapp:v0.1.1\n```\n2. 如果必须自行构建，请确保使用更新后的 Dockerfile（参考项目中的 #64 PR），该文件修复了 Arm 架构的兼容性问题。","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F62",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},24718,"如何使用自定义的 .h5 模型（如二分类模型）替换默认模型？","替换模型文件后，需要修改 app.py 中的预测逻辑以适应新的输出格式。确保返回的 `result` 是字符串而不是字典。示例代码如下：\n```python\n@app.route('\u002Fpredict', methods=['GET', 'POST'])\ndef predict():\n    if request.method == 'POST':\n        img = base64_to_pil(request.json)\n        preds = model_predict(img, model)\n        \n        # 根据预测结果确定类别（例如狗或猫）\n        if preds[0][0] > preds[0][1]:\n            result = \"dog\"\n        else:\n            result = \"cat\"\n        \n        return jsonify(result=result)\n    return None\n```\n请根据你的模型输出维度调整判断逻辑。","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F30",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},24719,"修改代码后页面没有反应或显示不出结果，可能是什么原因？","最常见的原因是浏览器缓存了旧的 JavaScript 或 HTML 文件。解决方法：\n1. 打开浏览器的开发者工具（Chrome 快捷键 F12）。\n2. 右键点击刷新按钮，选择“清空缓存并硬性重新加载”。\n3. 或者直接使用浏览器的无痕\u002F隐私模式进行测试。\n4. 如果是对象检测功能，确保在 JS 的 `displayResult` 函数最后移除了 `loading` 类：\n```js\nfunction displayResult(data) { \n  hide(loader); \n  displayImage(data.result, \"image-display\");\n  imageDisplay.classList.remove(\"loading\"); \u002F\u002F 确保移除加载状态类\n}\n```","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F22",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},24720,"在 Docker 中运行时遇到 'greenlet.greenlet size changed' 错误如何解决？","这是由于 gevent 和 greenlet 库之间的二进制不兼容导致的。解决方法：\n1. 该项目已通过 Pull Request #61 修复了此问题，请拉取最新代码。\n2. 如果需要手动修复，可以尝试安装特定版本的 gevent：\n```bash\npip install gevent==1.4\n```\n3. 注意 Python 版本兼容性，某些旧版 gevent 可能需要 Python 3.8 而非 3.10。建议优先使用项目更新后的 Dockerfile 进行构建，其中已处理了依赖版本问题。","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F60",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},24721,"Docker 构建成功但运行时卡在下载默认 Keras 模型步骤，导致服务无响应怎么办？","这是因为容器在启动时试图下载默认模型（如 ResNet50），如果网络受限或超时会导致卡死。建议方案：\n1. 修改 Dockerfile，在下载依赖后、启动应用前，预先下载好所需的模型文件到镜像中，避免运行时下载。\n2. 或者挂载本地包含模型文件的目录到容器中，并修改代码逻辑使其加载本地模型而非从网络下载。\n3. 检查网络连接，确保容器内可以访问模型托管地址（如 GitHub 或 Google Storage）。","https:\u002F\u002Fgithub.com\u002Fimfing\u002Fkeras-flask-deploy-webapp\u002Fissues\u002F4",[]]