[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-SkyworkAI--Matrix-Game":3,"tool-SkyworkAI--Matrix-Game":65},[4,18,32,40,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,3,"2026-04-06T03:28:53",[13,14,15,16],"开发框架","图像","Agent","视频","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[14,27,16,28,15,29,30,13,31],"数据工具","插件","其他","语言模型","音频",{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":10,"last_commit_at":38,"category_tags":39,"status":17},3833,"MoneyPrinterTurbo","harry0703\u002FMoneyPrinterTurbo","MoneyPrinterTurbo 是一款利用 AI 大模型技术，帮助用户一键生成高清短视频的开源工具。只需输入一个视频主题或关键词，它就能全自动完成从文案创作、素材匹配、字幕合成到背景音乐搭配的全过程，最终输出完整的竖屏或横屏短视频。\n\n这款工具主要解决了传统视频制作流程繁琐、门槛高以及素材版权复杂等痛点。无论是需要快速产出内容的自媒体创作者，还是希望尝试视频生成的普通用户，无需具备专业的剪辑技能或昂贵的硬件配置（普通电脑即可运行），都能轻松上手。同时，其清晰的 MVC 架构和对多种主流大模型（如 DeepSeek、Moonshot、通义千问等）的广泛支持，也使其成为开发者进行二次开发或技术研究的理想底座。\n\nMoneyPrinterTurbo 的独特亮点在于其高度的灵活性与本地化友好性。它不仅支持中英文双语及多种语音合成，允许用户精细调整字幕样式和画面比例，还特别优化了国内网络环境下的模型接入方案，让用户无需依赖 VPN 即可使用高性能国产大模型。此外，工具提供批量生成模式，可一次性产出多个版本供用户择优，极大地提升了内容创作的效率与质量。",54991,"2026-04-05T12:23:02",[13,30,15,16,14],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":24,"last_commit_at":46,"category_tags":47,"status":17},2179,"oh-my-openagent","code-yeongyu\u002Foh-my-openagent","oh-my-openagent（简称 omo）是一款强大的开源智能体编排框架，前身名为 oh-my-opencode。它致力于打破单一模型供应商的生态壁垒，解决开发者在构建 AI 应用时面临的“厂商锁定”难题。不同于仅依赖特定模型的封闭方案，omo 倡导开放市场理念，支持灵活调度多种主流大模型：利用 Claude、Kimi 或 GLM 进行任务编排，调用 GPT 处理复杂推理，借助 Minimax 提升响应速度，或发挥 Gemini 的创意优势。\n\n这款工具特别适合希望摆脱平台限制、追求极致性能与成本平衡的开发者及研究人员使用。通过统一接口，用户可以轻松组合不同模型的长处，构建更高效、更具适应性的智能体系统。其独特的技术亮点在于“全模型兼容”架构，让用户不再受制于某一家公司的策略变动或定价调整，真正实现对前沿模型资源的自由驾驭。无论是构建自动化编码助手，还是开发多步骤任务处理流程，oh-my-openagent 都能提供灵活且稳健的基础设施支持，助力用户在快速演进的 AI 生态中保持技术主动权。",52290,"2026-04-17T11:33:19",[16,30,13,14,15],{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":17},5295,"tabby","TabbyML\u002Ftabby","Tabby 是一款可私有化部署的开源 AI 编程助手，旨在为开发团队提供 GitHub Copilot 的安全替代方案。它核心解决了代码辅助过程中的数据隐私顾虑与云端依赖问题，让企业能够在完全掌控数据的前提下享受智能代码补全、聊天问答及上下文理解带来的效率提升。\n\n这款工具特别适合注重代码安全的企业开发团队、希望本地化运行大模型的科研机构，以及拥有消费级显卡的个人开发者。Tabby 的最大亮点在于其“开箱即用”的自包含架构，无需配置复杂的数据库或依赖云服务即可快速启动。同时，它对硬件十分友好，支持在普通的消费级 GPU 上流畅运行，大幅降低了部署门槛。此外，Tabby 提供了标准的 OpenAPI 接口，能轻松集成到现有的云 IDE 或内部开发流程中，并支持通过 REST API 接入自定义文档以增强知识上下文。从代码自动补全到基于 Git 仓库的智能问答，Tabby 致力于成为开发者身边懂业务、守安全的智能伙伴。",33308,"2026-04-07T20:23:18",[13,30,15,14,16],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":62,"last_commit_at":63,"category_tags":64,"status":17},6525,"generative-models","Stability-AI\u002Fgenerative-models","Generative Models 是 Stability AI 推出的开源项目，核心亮点在于最新发布的 Stable Video 4D 2.0（SV4D 2.0）。这是一个先进的视频转 4D 扩散模型，旨在解决从单一视角视频中生成高保真、多视角动态 3D 资产的技术难题。传统方法往往难以处理物体自遮挡或背景杂乱的情况，且生成的动态细节容易模糊，而 SV4D 2.0 通过改进的架构，显著提升了运动中的画面锐度与时空一致性，无需依赖额外的多视角参考图即可稳健地合成新颖视角的视频。\n\n该项目特别适合计算机视觉研究人员、AI 开发者以及从事 3D 内容创作的设计师使用。对于研究者，它提供了探索 4D 生成前沿的完整代码与训练权重；对于开发者，其支持自动回归生成长视频及低显存优化选项，便于集成与调试；对于设计师，它能将简单的物体运动视频快速转化为可用于游戏或影视的多视角 4D 素材。技术层面，SV4D 2.0 支持一次性生成 12 帧视频对应 4 个相机视角（或 5 帧对应 8 视角），分辨率达 576x576，并能更好地泛化至真实世界场景。用户只需准备一段白底或经简单抠图处理的物体运动视频，",27078,4,"2026-04-10T22:08:34",[16,29],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":80,"owner_email":80,"owner_twitter":80,"owner_website":81,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":95,"difficulty_score":96,"env_os":97,"env_gpu":98,"env_ram":98,"env_deps":99,"category_tags":102,"github_topics":103,"view_count":24,"oss_zip_url":80,"oss_zip_packed_at":80,"status":17,"created_at":112,"updated_at":113,"faqs":114,"releases":143},8494,"SkyworkAI\u002FMatrix-Game","Matrix-Game","Matrix-Game 3.0: Real-Time and Streaming Interactive World Model with Long-Horizon Memory","Matrix-Game 是由 Skywork AI 推出的一系列开源世界模型，旨在构建能够理解并模拟现实世界动态的智能系统。最新版本 Matrix-Game 3.0 实现了实时、流式交互能力，并具备长时程记忆机制，让 AI 不仅能生成连贯的长视频内容，还能在长时间互动中记住上下文信息，做出更符合逻辑的反应。\n\n传统视频生成模型往往缺乏对时间连续性和用户交互的深度支持，而 Matrix-Game 通过引入流式架构与记忆模块，有效解决了长序列生成中的不一致问题和交互滞后难题。这使得它在游戏开发、虚拟助手、沉浸式叙事等场景中表现出色。\n\n该工具特别适合研究人员探索世界建模前沿技术，也面向开发者提供完整代码实现，便于二次开发与集成应用。设计师可利用其快速原型验证互动体验，普通用户则能通过示例感受未来人机交互的可能性。\n\n其核心技术亮点包括：支持实时输入响应的流式推理架构、可跨分钟级甚至小时级保持上下文一致性的长时记忆机制，以及从 1.0 到 3.0 持续迭代的开放生态。项目采用 MIT 许可证，鼓励社区共建共享，推动世界模型技术普惠化发展。","\u003Cp align=\"center\">\n\u003Ch1 align=\"center\">Matrix-Game\u003C\u002Fh1>\n\u003Ch3 align=\"center\">Skywork AI\u003C\u002Fh3>\n\u003C\u002Fp>\n\n## 🔥🔥🔥 News!!\n* March 27, 2026: 🔥 We released [Matrix-Game-3.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-3). This  is a real-time and streaming interactive world model with long-horizon Memory.\n* Aug 12, 2025: 🔥 We released [Matrix-Game-2.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-2). This is an interactive world foundation model for real-time long video generation.\n* May 12, 2025: 🔥 We released [Matrix-Game-1.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-1). The first open-source release of Skywork AI's Matrix-Game series world models.\n\n\n## 📝 Overview\n\n**Matrix-Game** is a series of open-source world models launched by Skywork AI.\n\nThis repository provides the official implementations of Matrix-Game-1.0, Matrix-Game-2.0 and Matrix-Game-3.0\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff5387c64-1d18-414a-935f-00a1f6eec8de\n\n\n\n## 📄 License\n\nThis project is licensed under the MIT License - see the [LICENSE](LICENSE) file for details.\n","\u003Cp align=\"center\">\n\u003Ch1 align=\"center\">矩阵游戏\u003C\u002Fh1>\n\u003Ch3 align=\"center\">Skywork AI\u003C\u002Fh3>\n\u003C\u002Fp>\n\n## 🔥🔥🔥 新闻！！\n* 2026年3月27日：🔥 我们发布了[Matrix-Game-3.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-3)。这是一个具有长时记忆的实时流式交互世界模型。\n* 2025年8月12日：🔥 我们发布了[Matrix-Game-2.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-2)。这是一个用于实时长视频生成的交互式世界基础模型。\n* 2025年5月12日：🔥 我们发布了[Matrix-Game-1.0](https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Ftree\u002Fmain\u002FMatrix-Game-1)。这是Skywork AI矩阵游戏系列世界模型的首次开源发布。\n\n\n## 📝 概述\n\n**Matrix-Game** 是由Skywork AI推出的一系列开源世界模型。\n\n本仓库提供了Matrix-Game-1.0、Matrix-Game-2.0和Matrix-Game-3.0的官方实现。\n\nhttps:\u002F\u002Fgithub.com\u002Fuser-attachments\u002Fassets\u002Ff5387c64-1d18-414a-935f-00a1f6eec8de\n\n\n\n## 📄 许可证\n\n本项目采用MIT许可证授权——详情请参阅[LICENSE](LICENSE)文件。","# Matrix-Game 快速上手指南\n\nMatrix-Game 是由 Skywork AI 推出的一系列开源世界模型，涵盖从基础视频生成到具备长时记忆的实时流式交互世界模型（最新为 Matrix-Game-3.0）。本指南将帮助您快速搭建环境并运行模型。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**: Linux (推荐 Ubuntu 20.04\u002F22.04) 或 macOS\n*   **Python 版本**: Python 3.9 或更高版本\n*   **GPU 支持**: 推荐使用 NVIDIA GPU，并安装对应的 CUDA 驱动 (CUDA 11.8 或 12.1+)\n*   **前置依赖**:\n    *   Git\n    *   pip (包管理工具)\n    *   FFmpeg (用于视频处理)\n\n> **提示**：国内开发者建议使用国内镜像源加速 Python 包下载，例如阿里云或清华大学镜像源。\n\n## 安装步骤\n\n### 1. 克隆项目仓库\n\n首先，从 GitHub 克隆 Matrix-Game 源代码。您可以根据需要选择特定版本（此处以最新的 3.0 版本为例）：\n\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game.git\ncd Matrix-Game\u002FMatrix-Game-3\n```\n\n### 2. 创建虚拟环境\n\n建议创建一个独立的 Python 虚拟环境以避免依赖冲突：\n\n```bash\npython -m venv venv\nsource venv\u002Fbin\u002Factivate  # Windows 用户请使用: venv\\Scripts\\activate\n```\n\n### 3. 安装依赖库\n\n使用 pip 安装所需依赖。**国内用户推荐添加镜像源参数以加速下载**：\n\n```bash\npip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n如果项目中包含可编辑安装的本地包，请执行：\n\n```bash\npip install -e . -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n## 基本使用\n\n安装完成后，您可以使用提供的脚本进行简单的推理测试。以下是一个生成短视频或启动交互会话的最简示例。\n\n### 运行推理示例\n\n假设您想使用预训练权重生成一段视频，可以使用如下命令（具体参数请参考各版本目录下的 `examples` 文件夹）：\n\n```bash\npython infer.py --config configs\u002Fmatrix_game_3.yaml --prompt \"A futuristic city with flying cars\" --output_dir .\u002Foutputs\n```\n\n### 启动交互式世界模型 (Matrix-Game-3.0)\n\n对于支持实时流式交互的版本，可以启动服务进行互动：\n\n```bash\npython app.py --model_path checkpoints\u002Fmatrix-game-3.0 --port 8080\n```\n\n启动后，在浏览器中访问 `http:\u002F\u002Flocalhost:8080` 即可体验实时交互功能。\n\n> **注意**：首次运行时，脚本可能会自动下载预训练模型权重。如果下载缓慢，请检查项目文档中是否提供了具体的国内网盘链接或手动下载路径。","某独立游戏开发团队正在制作一款开放世界 RPG，需要构建一个能根据玩家行为实时演化且记忆长周期剧情互动的动态虚拟世界。\n\n### 没有 Matrix-Game 时\n- **剧情割裂严重**：NPC 无法记住玩家长时间前的关键抉择，导致后续对话逻辑矛盾，沉浸感瞬间崩塌。\n- **交互响应延迟**：传统生成模型需离线渲染或长时间推理，无法支持玩家操作后的毫秒级画面与剧情反馈。\n- **内容生产瓶颈**：为覆盖多分支剧情，美术和编剧需手动制作海量静态素材，成本高昂且难以穷尽所有可能性。\n- **世界缺乏连贯性**：场景切换或时间流逝后，环境状态（如天气、建筑损毁）无法保持连续演变，显得生硬虚假。\n\n### 使用 Matrix-Game 后\n- **长程记忆精准**：Matrix-Game 的长时域记忆机制让 NPC 能清晰回溯数小时前的玩家行为，并据此动态调整态度与任务线。\n- **实时流式互动**：依托实时流式架构，玩家每一个细微动作都能触发即时的视频流生成，实现真正的“所见即所得”交互。\n- **无限内容生成**：无需预制所有素材，Matrix-Game 能根据当前情境实时演算出符合逻辑的长视频片段，大幅降低美术资产压力。\n- **世界持续演化**：虚拟世界具备连续性，从白天到黑夜、从和平到战乱，环境状态随时间轴自然流转，逻辑严密自洽。\n\nMatrix-Game 将原本静态、割裂的游戏脚本升级为拥有持久记忆与实时演化能力的鲜活世界，彻底重构了交互式内容的生产范式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FSkyworkAI_Matrix-Game_cb086a1b.png","SkyworkAI","Skywork ","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FSkyworkAI_347e666f.jpg","Transfer knowledge, Unlock creativity.",null,"https:\u002F\u002Fskywork.ai\u002F","https:\u002F\u002Fgithub.com\u002FSkyworkAI",[84,88],{"name":85,"color":86,"percentage":87},"Python","#3572A5",99.7,{"name":89,"color":90,"percentage":91},"Shell","#89e051",0.3,2152,229,"2026-04-16T11:18:46","MIT",5,"","未说明",{"notes":100,"python":98,"dependencies":101},"提供的 README 内容仅包含项目概述、版本发布新闻和许可证信息，未提及具体的运行环境需求（如操作系统、GPU、内存、Python 版本或依赖库）。请查阅各版本子目录（Matrix-Game-1\u002F2\u002F3）中的详细文档以获取具体配置要求。",[],[16],[104,105,106,107,108,109,110,111],"genie","interactive-video","long-sequence","long-video","real-time","video-generation","world-model","long-horizon-memory","2026-03-27T02:49:30.150509","2026-04-18T00:45:42.655434",[115,120,125,130,135,139],{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},38017,"运行推理脚本时遇到报错或卡顿，如何解决？","如果在运行 `inference_streaming.py` 时遇到错误或视频生成卡住，可以尝试注释掉代码第 64 行：`current_vae_decoder.compile(mode=\"max-autotune-no-cudagraphs\")`。这样做可以解决问题，但视频生成速度会稍微变慢（首次指令后可能会快一些，但后续会变慢）。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Fissues\u002F21",{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},38018,"如何正确安装 Flash Attention？版本有什么要求？","该代码需要 Flash Attention 3 (flash-attn3)，与 flash-attn2 不兼容。如果您在安装 Flash Attention 3 时遇到困难，可以尝试修改 `matrixgame\u002Fmodel_variants\u002Fmatrixgame_dit_src\u002Fattention.py` 文件：\n1. 修改导入语句：将 `from flash_attn_interface import flash_attn_varlen_func` 改为 `from flash_attn.flash_attn_interface import flash_attn_varlen_func`。\n2. 修改函数调用：将 `x, _ = flash_attn_varlen_func(...)` 改为 `x = flash_attn_varlen_func(...)`（去掉返回值中的下划线）。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Fissues\u002F10",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},38019,"如何使用自回归模式生成视频？past_frames 和 initial_image 应该如何设置？","若要使用自回归模式（即利用已生成的视频片段作为输入），设置方法如下：\n- **initial_image**：使用生成视频的最后一帧。\n- **past_frames**：使用该最后一帧之前的五帧（即倒数第 6 到第 2 帧）。\n例如，如果帧序列为 [..., -6, -5, -4, -3, -2, -1]，则 [-1] 是 initial_image，[-6, -5, -4, -3, -2] 是 past_frames。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Fissues\u002F12",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},38020,"在使用基础模型（未蒸馏）进行推理时，加载权重报错缺少键值（Missing keys）怎么办？","当尝试加载基础模型权重出现 `RuntimeError: Error(s) in loading state_dict... Missing key(s)...` 错误时，通常是因为模型结构或配置不匹配。请确保您使用的是正确的推理脚本和配置文件。对于特定的命令行路径问题，请检查 `--pretrained_model_path` 参数是否正确指向了包含模型权重的文件夹，并确认配置文件（如 `inference_gta_drive.yaml`）中的路径设置与实际文件位置一致。如果问题依旧，可能需要检查是否混用了蒸馏模型和非蒸馏模型的配置。","https:\u002F\u002Fgithub.com\u002FSkyworkAI\u002FMatrix-Game\u002Fissues\u002F20",{"id":136,"question_zh":137,"answer_zh":138,"source_url":124},38021,"输入图像数据的格式和路径应该如何构造？","输入数据需要符合特定的格式要求。不能直接将资源文件夹（如 `GameWorldScore\u002Fasset\u002Finit_image`）作为输入路径，否则会导致维度不匹配的错误（如 `(129, 192, 336)` 相关的报错）。请参照项目文档或示例脚本中关于条件输入（condition）的处理逻辑，确保输入图像经过正确的预处理（如缩放、归一化）并转换为模型期待的 Tensor 格式。具体处理流程可参考 `inference_bench.py` 中的 `_process_condition` 方法。",{"id":140,"question_zh":141,"answer_zh":142,"source_url":134},38022,"如何在命令行中指定模型路径进行推理？","下载模型文件（如 `Wan2.1_VAE.pth` 和 clip 模型）到指定目录后，运行推理命令时需正确传递参数。示例命令如下：\n`python inference_streaming.py --config_path configs\u002Finference_yaml\u002Finference_gta_drive.yaml --checkpoint_path \u003Cclip 模型文件名> --output_folder outputs --seed 42 --pretrained_model_path .`\n其中 `--pretrained_model_path` 应指向模型所在的当前目录或具体路径。注意：如果遇到配置属性警告（如 `inject_sample_info`），请检查并更新您的 `config.json` 配置文件以匹配当前代码版本。",[]]