[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-swook--GazeML":3,"tool-swook--GazeML":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",159267,2,"2026-04-17T11:29:14",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":76,"owner_twitter":77,"owner_website":78,"owner_url":79,"languages":80,"stars":89,"forks":90,"last_commit_at":91,"license":92,"difficulty_score":93,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":102,"github_topics":75,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":103,"updated_at":104,"faqs":105,"releases":135},8533,"swook\u002FGazeML","GazeML","Gaze Estimation using Deep Learning, a Tensorflow-based framework.","GazeML 是一个基于 TensorFlow 构建的深度学习框架，专注于高性能的视线估计（Gaze Estimation）任务。它的核心目标是让计算机能够通过摄像头捕捉的人眼图像，精准判断用户正在注视屏幕上的哪个位置，从而解决非接触式人机交互中的关键感知难题。\n\n该框架集成了多种前沿算法模型，包括基于眼部区域特征点的 ELG 模型和深度图像视线估计 DPG 模型。这些模型经过重新实现与优化，不仅在无约束环境下表现稳健，还通过精简结构实现了更高效的推理性能。GazeML 提供了完整的数据处理、模型训练及预训练权重下载流程，并附带了可直接调用摄像头的演示程序，方便用户快速验证效果。\n\nGazeML 主要面向计算机视觉领域的研究人员、AI 开发者以及对人机交互技术感兴趣的技术爱好者。对于希望复现学术成果、进行二次开发或构建视线追踪应用的团队来说，它提供了一个扎实且灵活的代码基础。需要注意的是，由于涉及深度学习环境配置与模型训练，普通用户若无相关技术背景，上手难度可能较高。总体而言，GazeML 是探索视线追踪技术不可多得的开源利器。","# GazeML\nA deep learning framework based on Tensorflow for the training of high performance gaze estimation.\n\n*Please note that though this framework may work on various platforms, it has only been tested on an Ubuntu 16.04 system.*\n\n*All implementations are re-implementations of published algorithms and thus provided models should not be considered as reference.*\n\nThis framework currently integrates the following models:\n\n## ELG\n\nEye region Landmarks based Gaze Estimation.\n\n> Seonwook Park, Xucong Zhang, Andreas Bulling, and Otmar Hilliges. \"Learning to find eye region landmarks for remote gaze estimation in unconstrained settings.\" In Proceedings of the 2018 ACM Symposium on Eye Tracking Research & Applications, p. 21. ACM, 2018.\n\n- Project page: https:\u002F\u002Fait.ethz.ch\u002Flandmarks-gaze\n- Video: https:\u002F\u002Fyoutu.be\u002FcLUHKYfZN5s\n\n## DPG\n\nDeep Pictorial Gaze Estimation\n\n> Seonwook Park, Adrian Spurr, and Otmar Hilliges. \"Deep Pictorial Gaze Estimation\". In European Conference on Computer Vision. 2018\n\n- Project page: https:\u002F\u002Fait.ethz.ch\u002Fpictorial-gaze\n\n*To download the MPIIGaze training data, please run `bash get_mpiigaze_hdf.bash`*\n\n*Note: This reimplementation differs from the original proposed implementation and reaches 4.63 degrees in the within-MPIIGaze setting. The changes were made to attain comparable performance and results in a leaner model.*\n\n## Installing dependencies\n\nRun (with `sudo` appended if necessary),\n```\npython3 setup.py install\n```\n\nNote that this can be done within a [virtual environment](https:\u002F\u002Fdocs.python.org\u002F3\u002Ftutorial\u002Fvenv.html). In this case, the sequence of commands would be similar to:\n```\n    mkvirtualenv -p $(which python3) myenv\n    python3 setup.py install\n```\n\nwhen using [virtualenvwrapper](https:\u002F\u002Fvirtualenvwrapper.readthedocs.io\u002Fen\u002Flatest\u002F).\n\n### Tensorflow\nTensorflow is assumed to be installed separately, to allow for usage of [custom wheel files](https:\u002F\u002Fgithub.com\u002Fmind\u002Fwheels) if necessary.\n\nPlease follow the official installation guide for Tensorflow [here](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002F).\n\n## Getting pre-trained weights\nTo acquire the pre-trained weights provided with this repository, please run:\n```\n    bash get_trained_weights.bash\n```\n\n## Running the demo\nTo run the webcam demo, perform the following:\n```\n    cd src\n    python3 elg_demo.py\n```\n\nTo see available options, please run `python3 elg_demo.py --help` instead.\n\n## Structure\n\n* `datasets\u002F` - all data sources required for training\u002Fvalidation\u002Ftesting.\n* `outputs\u002F` - any output for a model will be placed here, including logs, summaries, and checkpoints.\n* `src\u002F` - all source code.\n    * `core\u002F` - base classes\n    * `datasources\u002F` - routines for reading and preprocessing entries for training and testing\n    * `models\u002F` - neural network definitions\n    * `util\u002F` - utility methods\n","# GazeML\n一个基于 TensorFlow 的深度学习框架，用于训练高性能的眼球注视估计模型。\n\n*请注意，尽管该框架可能适用于多种平台，但它目前仅在 Ubuntu 16.04 系统上进行了测试。*\n\n*所有实现均为对已发表算法的重新实现，因此提供的模型不应被视为参考标准。*\n\n当前该框架集成了以下模型：\n\n## ELG\n\n基于眼区关键点的注视估计。\n\n> Seonwook Park, Xucong Zhang, Andreas Bulling 和 Otmar Hilliges. “学习在非约束环境下为远程注视估计寻找眼区关键点”。载于 2018 年 ACM 眼动追踪研究与应用研讨会论文集，第 21 页。ACM，2018 年。\n\n- 项目页面：https:\u002F\u002Fait.ethz.ch\u002Flandmarks-gaze\n- 视频：https:\u002F\u002Fyoutu.be\u002FcLUHKYfZN5s\n\n## DPG\n\n深度图像化注视估计\n\n> Seonwook Park, Adrian Spurr 和 Otmar Hilliges. “深度图像化注视估计”。载于欧洲计算机视觉会议，2018 年。\n\n- 项目页面：https:\u002F\u002Fait.ethz.ch\u002Fpictorial-gaze\n\n*要下载 MPIIGaze 训练数据，请运行 `bash get_mpiigaze_hdf.bash`*\n\n*注：此重实现与原始提出的实现有所不同，在 MPIIGaze 数据集内部验证条件下达到 4.63 度的误差。这些改动旨在获得相当的性能，并使模型更加精简。*\n\n## 安装依赖\n必要时加上 `sudo` 后运行：\n```\npython3 setup.py install\n```\n\n请注意，这也可以在 [虚拟环境](https:\u002F\u002Fdocs.python.org\u002F3\u002Ftutorial\u002Fvenv.html) 中完成。在这种情况下，命令序列类似于：\n```\n    mkvirtualenv -p $(which python3) myenv\n    python3 setup.py install\n```\n\n使用 [virtualenvwrapper](https:\u002F\u002Fvirtualenvwrapper.readthedocs.io\u002Fen\u002Flatest\u002F) 时。\n\n### Tensorflow\n假设 TensorFlow 已单独安装，以便在需要时使用 [自定义 wheel 文件](https:\u002F\u002Fgithub.com\u002Fmind\u002Fwheels)。\n\n请按照 TensorFlow 的官方安装指南进行操作 [这里](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002F)。\n\n## 获取预训练权重\n要获取本仓库提供的预训练权重，请运行：\n```\n    bash get_trained_weights.bash\n```\n\n## 运行演示\n要运行摄像头演示，请执行以下步骤：\n```\n    cd src\n    python3 elg_demo.py\n```\n\n如需查看可用选项，请改用：\n```\n    python3 elg_demo.py --help\n```\n\n## 结构\n\n* `datasets\u002F` - 所有用于训练\u002F验证\u002F测试所需的数据源。\n* `outputs\u002F` - 模型的所有输出文件都将放置于此，包括日志、摘要和检查点。\n* `src\u002F` - 所有源代码。\n    * `core\u002F` - 基础类\n    * `datasources\u002F` - 用于读取和预处理训练及测试数据的例程\n    * `models\u002F` - 神经网络定义\n    * `util\u002F` - 工具方法","# GazeML 快速上手指南\n\nGazeML 是一个基于 TensorFlow 的深度学习框架，专为高性能视线估计（Gaze Estimation）训练而设计。本指南将帮助你快速在本地环境中部署并运行演示。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：推荐 **Ubuntu 16.04**（虽然可能在其他平台运行，但仅在此系统上经过充分测试）。\n- **Python 版本**：Python 3。\n\n### 前置依赖\n1. **TensorFlow**：\n   框架假设已单独安装 TensorFlow，以便灵活使用自定义 wheel 文件。请参考 [TensorFlow 官方安装指南](https:\u002F\u002Fwww.tensorflow.org\u002Finstall\u002F) 进行安装。\n   > **国内加速建议**：安装时可使用清华或阿里镜像源加速下载，例如：\n   > `pip3 install tensorflow -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`\n\n2. **虚拟环境（可选但推荐）**：\n   建议使用 `virtualenv` 或 `virtualenvwrapper` 隔离环境。\n\n## 安装步骤\n\n### 1. 克隆与依赖安装\n你可以选择在虚拟环境中安装。如果使用 `virtualenvwrapper`，操作如下：\n\n```bash\nmkvirtualenv -p $(which python3) myenv\npython3 setup.py install\n```\n\n若不使用虚拟环境，直接运行（必要时添加 `sudo`）：\n\n```bash\npython3 setup.py install\n```\n\n### 2. 获取预训练权重\n下载仓库提供的预训练模型权重：\n\n```bash\nbash get_trained_weights.bash\n```\n\n### 3. 获取训练数据（可选）\n如需下载 MPIIGaze 训练数据以进行重新训练或验证：\n\n```bash\nbash get_mpiigaze_hdf.bash\n```\n\n## 基本使用\n\n安装完成后，即可运行网络摄像头演示程序来体验视线估计功能。\n\n1. 进入源码目录：\n   ```bash\n   cd src\n   ```\n\n2. 启动 ELG 模型演示：\n   ```bash\n   python3 elg_demo.py\n   ```\n\n3. 查看可用参数选项：\n   ```bash\n   python3 elg_demo.py --help\n   ```\n\n> **注意**：本框架集成的模型（如 ELG、DPG）均为已发表算法的重实现，提供的模型仅供参考，不作为原始算法的性能基准。","某无障碍交互实验室正在为渐冻症（ALS）患者开发一套仅靠眼球控制的光标系统，以替代传统鼠标操作。\n\n### 没有 GazeML 时\n- **环境适应性差**：传统算法严重依赖特定光照和头部姿态，患者在家中自然光下或轻微转头时，光标就会剧烈抖动甚至丢失目标。\n- **开发门槛极高**：团队需从零复现复杂的深度学习论文（如 ELG 或 DPG），花费数周时间调试数据预处理和模型架构，难以快速验证想法。\n- **校准过程繁琐**：每次使用前都需要用户长时间注视多个校准点，对于注意力难以集中的重症患者来说，这一过程极其痛苦且成功率低。\n- **硬件依赖性强**：为了获得可用精度，往往被迫绑定昂贵的专用眼动仪，无法在普通笔记本摄像头上运行，限制了工具的普及性。\n\n### 使用 GazeML 后\n- **非受限场景鲁棒性高**：利用 GazeML 集成的 ELG 模型，系统能基于眼部地标特征在“非受限设置”下工作，即使患者头部转动或室内光线变化，光标依然稳定跟随视线。\n- **快速原型落地**：借助 GazeML 提供的 TensorFlow 框架和预训练权重，开发人员只需运行几行命令即可加载高性能模型，将原本数周的算法研发缩短至几天。\n- **免校准或轻校准体验**：得益于深度 pictorial  gaze 估计能力，系统大幅减少了对显式校准的依赖，患者打开软件即可开始操作，显著降低了使用负担。\n- **低成本部署方案**：GazeML 优化后的轻量级模型可直接在普通 USB 摄像头上运行，让患者无需购买昂贵设备，仅用家用电脑就能实现精准的眼控交互。\n\nGazeML 通过提供开箱即用的高性能视线估计框架，将前沿学术成果转化为低门槛、高鲁棒性的实际生产力，真正让技术服务于特殊群体的日常需求。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fswook_GazeML_735bd758.png","swook","Seonwook Park","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fswook_73a5f66e.jpg",null,"seon.wook@swook.net","swookpark","http:\u002F\u002Fwww.swook.net\u002F","https:\u002F\u002Fgithub.com\u002Fswook",[81,85],{"name":82,"color":83,"percentage":84},"Python","#3572A5",99.5,{"name":86,"color":87,"percentage":88},"Shell","#89e051",0.5,578,147,"2026-04-09T22:15:28","MIT",4,"Linux (Ubuntu 16.04)","未说明 (基于 TensorFlow，通常建议 NVIDIA GPU，但文中未明确型号或显存要求)","未说明",{"notes":98,"python":99,"dependencies":100},"该框架仅在 Ubuntu 16.04 系统上经过测试。TensorFlow 需单独安装以支持自定义 wheel 文件。建议使用虚拟环境（如 virtualenv 或 virtualenvwrapper）进行安装。运行前需执行脚本下载 MPIIGaze 训练数据及预训练权重。","Python 3",[101],"TensorFlow",[15,14],"2026-03-27T02:49:30.150509","2026-04-18T00:45:51.012359",[106,111,116,121,126,131],{"id":107,"question_zh":108,"answer_zh":109,"source_url":110},38215,"训练时程序在加载预训练模型后卡住或报错，如何解决？","这通常是因为尝试直接使用原始预训练模型进行微调（fine-tune）导致的。根据社区反馈，原始模型可能无法直接用于微调其他数据集，建议从头开始使用自己的数据进行训练。如果需要微调，需确保数据标注格式与模型要求完全一致，或者参考成功案例确认是否真的实现了微调。","https:\u002F\u002Fgithub.com\u002Fswook\u002FGazeML\u002Fissues\u002F14",{"id":112,"question_zh":113,"answer_zh":114,"source_url":115},38216,"预训练模型使用了多少数据进行训练？演示视频中使用的是什么方法？","维护者回复：训练前使用了约 100 万张图像，训练过程中进行了实时数据增强，因此实际训练集数量不可计数。关于演示视频，使用的是基于特征的方法（SVR），并在 MPIIGaze 数据集上训练；而本仓库的参考实现依赖于眼球中心和半径的估计，准确度相对较低。","https:\u002F\u002Fgithub.com\u002Fswook\u002FGazeML\u002Fissues\u002F13",{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},38217,"运行 elg_demo.py 时出现 'ValueError: could not broadcast input array' 形状不匹配错误怎么办？","该错误通常由视频格式或编码问题引起。常见报错涉及 OpenCV 对 MP4 H264 编码的支持问题。解决方案包括：1. 使用 ffmpeg 将视频转换为其他格式（如 avi 或 webm）；2. 检查输入视频的分辨率是否与模型预期一致（错误信息显示试图将 360 宽度的图像放入 180 宽度的空间）。","https:\u002F\u002Fgithub.com\u002Fswook\u002FGazeML\u002Fissues\u002F34",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},38218,"遇到视频流处理错误或数组形状广播错误，推荐的 TensorFlow 和 OpenCV 版本是什么？","有用户报告在使用较新版本（如 tensorflow-gpu 1.14.0）时遇到视频流和数组形状错误。经过测试，降级到以下版本可能解决问题：tensorflow-gpu 1.9.0 和 opencv 3.4.3。建议尝试此特定版本组合以排除兼容性问题。","https:\u002F\u002Fgithub.com\u002Fswook\u002FGazeML\u002Fissues\u002F28",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},38219,"如何加载模型并对单张图片进行推理（Inference）？有没有简单的调用示例？","官方没有提供类似 `model.predict(image)` 的简单接口。推荐做法是：1. 参考社区实现的简化代码（如 https:\u002F\u002Fgithub.com\u002Fparai\u002Fdms\u002Fblob\u002Fmaster\u002Fmodels\u002Fgaze.py）；2. 或者自行复制模型代码到简单脚本中，使用 `tf.Saver` 加载检查点参数。核心逻辑可见源码 `src\u002Fcore\u002Fcheckpoint_manager.py` 第 47 行附近。","https:\u002F\u002Fgithub.com\u002Fswook\u002FGazeML\u002Fissues\u002F23",{"id":132,"question_zh":133,"answer_zh":134,"source_url":115},38220,"如何使用 MPIIGaze 数据集训练 SVR 模型？该数据集缺少 landmark 标注怎么办？","演示视频中使用的 SVR 方法是基于 MPIIGaze 训练的，但仓库内的参考实现主要关注眼球中心和半径估计。关于如何在缺少 landmark 标注的情况下利用 MPIIGaze 训练 SVR，官方未在该议题中给出具体步骤，建议单独开启议题讨论或参考 MPIIGaze 官方文档获取特征提取方法。",[]]