[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kuz--DeepMind-Atari-Deep-Q-Learner":3,"tool-kuz--DeepMind-Atari-Deep-Q-Learner":64},[4,17,27,35,48,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,43,44,45,15,46,26,13,47],"数据工具","视频","插件","其他","音频",{"id":49,"name":50,"github_repo":51,"description_zh":52,"stars":53,"difficulty_score":10,"last_commit_at":54,"category_tags":55,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,46],{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74939,"2026-04-05T23:16:38",[26,14,13,46],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":80,"owner_location":81,"owner_email":82,"owner_twitter":83,"owner_website":84,"owner_url":85,"languages":86,"stars":95,"forks":96,"last_commit_at":97,"license":98,"difficulty_score":10,"env_os":99,"env_gpu":100,"env_ram":101,"env_deps":102,"category_tags":116,"github_topics":98,"view_count":10,"oss_zip_url":98,"oss_zip_packed_at":98,"status":16,"created_at":117,"updated_at":118,"faqs":119,"releases":150},600,"kuz\u002FDeepMind-Atari-Deep-Q-Learner","DeepMind-Atari-Deep-Q-Learner","The original code from the DeepMind article + my tweaks","DeepMind-Atari-Deep-Q-Learner 是基于 DeepMind 经典论文《Human-level control through deep reinforcement learning》的开源代码复现项目，采用 Lua 和 Torch 7.0 构建深度 Q 网络（DQN）架构，专门用于在 Atari 游戏环境中训练智能体，以重现论文中实现的“人类级别控制”实验成果。\n\nDeepMind-Atari-Deep-Q-Learner 解决了早期深度强化学习算法落地验证的问题，提供了从环境配置到模型训练的一整套方案。通过内置的安装脚本，用户可以快速部署 Xitari 等依赖，并选择 CPU 或 GPU（CUDA）模式进行训练，后者能显著加速学习过程。\n\n适合对强化学习发展史、神经网络原理感兴趣的研究人员和深度学习爱好者。尽管现有更高效框架已涌现，DeepMind-Atari-Deep-Q-Learner 仍是理解 DQN 算法起源及 Atari 游戏控制任务的宝贵资源。对于希望复现经典实验或探索强化学习基础逻辑的用户来说，DeepMind-Atari-Deep-Q-Lea","DeepMind-Atari-Deep-Q-Learner 是基于 DeepMind 经典论文《Human-level control through deep reinforcement learning》的开源代码复现项目，采用 Lua 和 Torch 7.0 构建深度 Q 网络（DQN）架构，专门用于在 Atari 游戏环境中训练智能体，以重现论文中实现的“人类级别控制”实验成果。\n\nDeepMind-Atari-Deep-Q-Learner 解决了早期深度强化学习算法落地验证的问题，提供了从环境配置到模型训练的一整套方案。通过内置的安装脚本，用户可以快速部署 Xitari 等依赖，并选择 CPU 或 GPU（CUDA）模式进行训练，后者能显著加速学习过程。\n\n适合对强化学习发展史、神经网络原理感兴趣的研究人员和深度学习爱好者。尽管现有更高效框架已涌现，DeepMind-Atari-Deep-Q-Learner 仍是理解 DQN 算法起源及 Atari 游戏控制任务的宝贵资源。对于希望复现经典实验或探索强化学习基础逻辑的用户来说，DeepMind-Atari-Deep-Q-Learner 是一个极具价值的入门与实践平台。","# DeepMind Atari Deep Q Learner\nThis repository hosts the [original code](https:\u002F\u002Fsites.google.com\u002Fa\u002Fdeepmind.com\u002Fdqn\u002F) published along with [the article](http:\u002F\u002Fwww.nature.com\u002Fnature\u002Fjournal\u002Fv518\u002Fn7540\u002Ffull\u002Fnature14236.html) in Nature and my experiments (if any) with it.\n\nDisclaimer\n----------\n  * This codebase is not written by me (only the \"+ my tweaks\" part) and I am not employed by DeepMind.\n  * This implementation is rather old and there are far more efficient algorithms for reinforcement learning available. If you are interested in applying RL to your problem have a look at [Keras-RL](https:\u002F\u002Fgithub.com\u002Fmatthiasplappert\u002Fkeras-rl) or [rllab](https:\u002F\u002Fgithub.com\u002Fopenai\u002Frllab) instead.\n\nDQN 3.0\n-------\n\nTested on Ubuntu 14.04 with nVidia GTX 970:  \n![alt text](https:\u002F\u002Fraw.githubusercontent.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fmaster\u002Fgifs\u002Fbreakout.gif \"Playing Breakout\")  \nMore videos on [YouTube Playlist: Deepmind DQN Playing](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLgOp827qARy0qNyZq5Y6S6vRJO3tb1WcW)\n\nThis project contains the source code of DQN 3.0, a Lua-based deep reinforcement\nlearning architecture, necessary to reproduce the experiments\ndescribed in the paper \"Human-level control through deep reinforcement\nlearning\", Nature 518, 529–533 (26 February 2015) doi:10.1038\u002Fnature14236.\n\nTo replicate the experiment results, a number of dependencies need to be\ninstalled, namely:\n* LuaJIT and Torch 7.0\n* nngraph\n* Xitari (fork of the Arcade Learning Environment (Bellemare et al., 2013))\n* AleWrap (a lua interface to Xitari)\nAn install script for these dependencies is provided.\n\nTwo run scripts are provided: run_cpu and run_gpu. As the names imply,\nthe former trains the DQN network using regular CPUs, while the latter uses\nGPUs (CUDA), which typically results in a significant speed-up.\n\nInstallation instructions\n-------------------------\n\nThe installation requires Linux with apt-get.\n\nNote: In order to run the GPU version of DQN, you should additionally have the\nNVIDIA® CUDA® (version 5.5 or later) toolkit installed prior to the Torch\ninstallation below.\nThis can be downloaded from https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit\nand installation instructions can be found in\nhttp:\u002F\u002Fdocs.nvidia.com\u002Fcuda\u002Fcuda-getting-started-guide-for-linux\n\n\nTo train DQN on Atari games, the following components must be installed:\n* LuaJIT and Torch 7.0\n* nngraph\n* Xitari\n* AleWrap\n\nTo install all of the above in a subdirectory called 'torch', it should be enough to run\n\n    .\u002Finstall_dependencies.sh\n\nfrom the base directory of the package.\n\n\nNote: The above install script will install the following packages via apt-get:\nbuild-essential, gcc, g++, cmake, curl, libreadline-dev, git-core, libjpeg-dev,\nlibpng-dev, ncurses-dev, imagemagick, unzip\n\nTraining DQN on Atari games\n---------------------------\n\nPrior to running DQN on a game, you should copy its ROM in the 'roms' subdirectory.\nIt should then be sufficient to run the script\n\n    .\u002Frun_cpu \u003Cgame name>\n\nOr, if GPU support is enabled,\n\n    .\u002Frun_gpu \u003Cgame name>\n\n\nNote: On a system with more than one GPU, DQN training can be launched on a\nspecified GPU by setting the environment variable GPU_ID, e.g. by\n\n    GPU_ID=2 .\u002Frun_gpu \u003Cgame name>\n\nIf GPU_ID is not specified, the first available GPU (ID 0) will be used by default.\n\nStoring a .gif for a trained network\n------------------------------------\n\nOnce you have a snapshot of a network you can run\n\n\t.\u002Ftest_gpu \u003Cgame name> \u003Csnapshopt filename>\n\nto make it play one game and store the .gif under `gifs`. For example\n\n\t.\u002Ftest_gpu breakout DQN3_0_1_breakout_FULL_Y.t7\n\nOptions\n-------\n\nOptions to DQN are set within run_cpu (respectively, run_gpu). You may,\nfor example, want to change the frequency at which information is output \nto stdout by setting 'prog_freq' to a different value.\n","# DeepMind Atari 深度 Q 学习器\n本仓库托管了发表在《Nature》上的文章所附带的 [原始代码](https:\u002F\u002Fsites.google.com\u002Fa\u002Fdeepmind.com\u002Fdqn\u002F)，以及我对其进行的实验（如果有）。\n\n免责声明\n----------\n  * 此代码库并非由我编写（仅包含\"+我的调整”部分），且我并非 DeepMind 员工。\n  * 该实现版本较旧，目前已有更高效强化学习算法可用。如果您有兴趣将 RL（强化学习）应用于您的问题，请查看 [Keras-RL](https:\u002F\u002Fgithub.com\u002Fmatthiasplappert\u002Fkeras-rl) 或 [rllab](https:\u002F\u002Fgithub.com\u002Fopenai\u002Frllab)。\n\nDQN 3.0\n-------\n\n在 Ubuntu 14.04 配合 nVidia GTX 970 上测试：  \n![alt text](https:\u002F\u002Fraw.githubusercontent.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fmaster\u002Fgifs\u002Fbreakout.gif \"Playing Breakout\")  \n更多视频请访问 [YouTube 播放列表：Deepmind DQN 游戏演示](https:\u002F\u002Fwww.youtube.com\u002Fplaylist?list=PLgOp827qARy0qNyZq5Y6S6vRJO3tb1WcW)\n\n本项目包含 DQN（深度 Q 网络）3.0 的源代码，这是一种基于 Lua 的深度强化学习架构，用于复现论文《通过深度强化学习实现人类水平控制》（Nature 518, 529–533 (2015 年 2 月 26 日) doi:10.1038\u002Fnature14236）中描述的实验。\n\n为了复现实验结果，需要安装以下依赖项：\n* LuaJIT 和 Torch 7.0\n* nngraph\n* Xitari (Arcade Learning Environment（街机学习环境）(Bellemare 等人，2013) 的分支)\n* AleWrap (Xitari 的 Lua 接口)\n已提供这些依赖项的安装脚本。\n\n提供了两个运行脚本：run_cpu 和 run_gpu。顾名思义，前者使用常规 CPU 训练 DQN 网络，而后者使用 GPU（CUDA），通常能带来显著的速度提升。\n\n安装说明\n-------------------------\n\n安装需要 Linux 系统并配备 apt-get。\n\n注意：若要运行 DQN 的 GPU 版本，您需要在下方安装 Torch 之前额外安装 NVIDIA® CUDA®（5.5 版或更高版本）工具包。\n这可从 https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-toolkit 下载，安装说明可在 http:\u002F\u002Fdocs.nvidia.com\u002Fcuda\u002Fcuda-getting-started-guide-for-linux 找到\n\n\n要在 Atari 游戏中训练 DQN，必须安装以下组件：\n* LuaJIT 和 Torch 7.0\n* nngraph\n* Xitari\n* AleWrap\n\n若要在名为 'torch' 的子目录中安装上述所有内容，只需运行\n\n    .\u002Finstall_dependencies.sh\n\n从软件包的根目录执行。\n\n\n注意：上述安装脚本将通过 apt-get 安装以下软件包：\nbuild-essential, gcc, g++, cmake, curl, libreadline-dev, git-core, libjpeg-dev,\nlibpng-dev, ncurses-dev, imagemagick, unzip\n\n在 Atari 游戏中训练 DQN\n---------------------------\n\n在针对某款游戏运行 DQN 之前，应将其 ROM 复制到 'roms' 子目录中。\n然后只需运行脚本\n\n    .\u002Frun_cpu \u003Cgame name>\n\n或者，如果启用了 GPU 支持，\n\n    .\u002Frun_gpu \u003Cgame name>\n\n\n注意：在拥有多个 GPU 的系统上，可以通过设置环境变量 GPU_ID 来在指定的 GPU 上启动 DQN 训练，例如\n\n    GPU_ID=2 .\u002Frun_gpu \u003Cgame name>\n\n如果未指定 GPU_ID，默认将使用第一个可用的 GPU（ID 0）。\n\n存储训练后网络的 .gif 文件\n------------------------------------\n\n一旦获得网络的快照，您可以运行\n\n\t.\u002Ftest_gpu \u003Cgame name> \u003Csnapshopt filename>\n\n让它玩一局游戏并将 .gif 文件存储在 `gifs` 目录下。例如\n\n\t.\u002Ftest_gpu breakout DQN3_0_1_breakout_FULL_Y.t7\n\n选项\n-------\n\nDQN 的选项在 run_cpu（或 run_gpu）中设置。例如，您可以通过将 'prog_freq' 设置为不同的值来更改输出到 stdout 的信息频率。","# DeepMind Atari Deep Q Learner 快速上手指南\n\n本项目复现了 DeepMind 在 Nature 发表的 DQN 论文代码，基于 Lua\u002FTorch 架构。请注意，该实现较为早期，若用于现代研究建议参考 Keras-RL 等更新框架。\n\n## 环境准备\n*   **操作系统**: Linux (官方测试环境为 Ubuntu 14.04)。\n*   **GPU 支持 (可选)**: 需要 NVIDIA® GPU，并预先安装 CUDA Toolkit (版本 5.5 或更高)。\n*   **核心依赖**: LuaJIT, Torch 7.0, nngraph, Xitari (ALE 的 Fork), AleWrap。\n\n## 安装步骤\n1.  **系统工具**: 确保系统已安装 `apt-get`。\n2.  **CUDA 配置**: 若计划使用 GPU 加速，请先完成 CUDA Toolkit 的安装。\n3.  **一键安装依赖**: 在项目根目录下执行以下脚本，将自动安装所需的所有依赖包及编译工具：\n    ```bash\n    .\u002Finstall_dependencies.sh\n    ```\n\n## 基本使用\n1.  **准备数据**: 将 Atari 游戏的 ROM 文件复制到项目目录下的 `roms` 子文件夹中。\n2.  **开始训练**:\n    *   **CPU 模式**:\n        ```bash\n        .\u002Frun_cpu \u003Cgame name>\n        ```\n    *   **GPU 模式** (推荐，速度显著提升):\n        ```bash\n        .\u002Frun_gpu \u003Cgame name>\n        ```\n    *   **指定 GPU 设备** (多卡环境):\n        ```bash\n        GPU_ID=2 .\u002Frun_gpu \u003Cgame name>\n        ```\n3.  **测试与输出**: 加载训练好的网络快照进行游戏演示并保存 GIF：\n    ```bash\n    .\u002Ftest_gpu \u003Cgame name> \u003Csnapshopt filename>\n    ```\n    *(示例：`.\u002Ftest_gpu breakout DQN3_0_1_breakout_FULL_Y.t7`)*","一名人工智能研究生为了撰写关于深度强化学习演进的论文，需要精确复现 2015 年 DeepMind 发表的 DQN 经典实验数据。\n\n### 没有 DeepMind-Atari-Deep-Q-Learner 时\n- 从零搭建环境极其耗时，需手动编译 LuaJIT、Torch 7.0 及 Arcade Learning Environment 等复杂底层依赖。\n- 网上零散的代码片段难以保证与原始论文架构一致，导致复现结果偏差大且调试困难。\n- 缺乏明确的 GPU 加速方案，仅靠 CPU 训练单个游戏往往需要数天，严重拖慢研究进度。\n- 缺少可视化的测试流程，难以快速生成高质量的游戏演示视频用于学术报告展示。\n\n### 使用 DeepMind-Atari-Deep-Q-Learner 后\n- 项目自带依赖安装脚本，一键解决所有环境配置问题，大幅降低入门门槛。\n- 提供 run_gpu 脚本直接调用 CUDA 加速，将训练时间从数天缩短至数小时，显著提升效率。\n- 包含完整的测试命令，可自动生成游戏过程 GIF 文件，方便直接插入论文或 PPT 中。\n- 严格还原论文源码结构，确保实验数据的权威性和可比性，为后续算法优化提供可靠基准。\n\n它为研究人员提供了标准化的复现基线，让人能专注于算法原理分析而非环境搭建。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkuz_DeepMind-Atari-Deep-Q-Learner_a6abe758.png","kuz","Ilya Kuzovkin","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkuz_fe546bcc.jpg","Co-founder and CEO of Imitation Machines. Founder of Neurotech Lab. Fractional CTO of Resonait. PhD in Computational Neuroscience and Machine Learning","Imitation Machines | Resonait | Neurotech Lab","Sydney, Australia | Tartu, Estonia","ilya.kuzovkin@gmail.com","IlyaKuzovkin","www.ilyakuzovkin.com","https:\u002F\u002Fgithub.com\u002Fkuz",[87,91],{"name":88,"color":89,"percentage":90},"Lua","#000080",81.9,{"name":92,"color":93,"percentage":94},"Shell","#89e051",18.1,1827,531,"2026-04-04T05:12:04",null,"Linux","非必需（支持 CPU 模式），若使用 GPU 需 NVIDIA 显卡及 CUDA 5.5+ 工具包，测试于 GTX 970","未说明",{"notes":103,"python":104,"dependencies":105},"1. 核心代码基于 Lua 语言而非 Python；2. 运行游戏前需手动将 Atari ROM 文件放入 roms 目录；3. 提供 CPU 和 GPU 两种运行脚本；4. 代码版本较旧（2015 年），官方建议尝试更新的 RL 库如 Keras-RL。","未说明 (项目基于 Lua\u002FTorch 架构)",[106,107,108,109,110,111,112,113,114,115],"LuaJIT","Torch 7.0","nngraph","Xitari","AleWrap","build-essential","gcc","cmake","libjpeg-dev","libpng-dev",[15,46],"2026-03-27T02:49:30.150509","2026-04-06T08:45:19.181132",[120,125,130,135,140,145],{"id":121,"question_zh":122,"answer_zh":123,"source_url":124},2463,"运行时报错 'module alewrap not found' 如何解决？","此问题通常由环境配置引起。1. 检查 GCC\u002FG++ 版本，旧版 Torch 可能不兼容新版 GCC (7.x)，建议降级至 4.8 或使用 update-alternatives 设置。2. 尝试取消设置相关环境变量后再运行：unset LUA_PATH && unset LUA_CPATH。3. 确保手动安装 Torch 时已复制所有依赖项。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F14",{"id":126,"question_zh":127,"answer_zh":128,"source_url":129},2464,"训练 Breakout 游戏通常需要多长时间？","训练时间取决于硬件配置。在 NVIDIA GTX 970 GPU 上，大约需要 30 小时才能达到仓库主页展示的性能水平。如果在 CPU 上运行，速度会显著变慢。声称 2 小时即可达到专家级别的报告可能与实际标准配置不符。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F8",{"id":131,"question_zh":132,"answer_zh":133,"source_url":134},2465,"如何正确放置 ROM 文件？torch 文件夹为空怎么办？","Breakout 游戏的 ROM 已包含在仓库中，无需额外复制。若需尝试其他游戏，请将对应的 .bin 文件放入 roms 目录。如果 torch 文件夹为空，说明依赖未安装成功，请拉取最新代码并重新运行 .\u002Finstall_dependencies.sh。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F3",{"id":136,"question_zh":137,"answer_zh":138,"source_url":139},2466,"如何在 Docker 环境中运行且关闭屏幕显示？","Docker 环境可能因不支持 Qt 库导致 X11 连接失败（报错 Unable to connect X11 server）。解决方法是注释掉代码中负责显示输出的行，从而禁用屏幕显示过程，仅保存图像或进行后台训练。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F21",{"id":141,"question_zh":142,"answer_zh":143,"source_url":144},2467,"DQN 损失函数中目标值的更新逻辑是如何实现的？","在 mini-batch 训练中，只有观察到的动作 a[j] 对应的 Q 值参与损失计算。代码实现中，除了 target[j][a[j]] 之外的其他动作目标值会被设为零或进行掩码处理，以确保网络只针对实际执行的动作进行优化。具体逻辑可参考 NeuralQLearner.lua 第 216-232 行。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F22",{"id":146,"question_zh":147,"answer_zh":148,"source_url":149},2468,"运行 install_dependencies.sh 时提示 Permission denied 怎么办？","该错误常出现在项目位于外部 USB 磁盘等非本地磁盘时。建议将项目移动到本地硬盘（如 \u002Fhome\u002Fuser\u002Fproject）目录下再运行安装脚本。同时确保对脚本及生成的二进制文件拥有执行权限。","https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner\u002Fissues\u002F15",[]]