[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kristjankorjus--Replicating-DeepMind":3,"tool-kristjankorjus--Replicating-DeepMind":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85092,2,"2026-04-10T11:13:16",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75334,"2026-04-10T23:08:27",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":121,"forks":122,"last_commit_at":123,"license":124,"difficulty_score":125,"env_os":126,"env_gpu":127,"env_ram":126,"env_deps":128,"category_tags":132,"github_topics":80,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":133,"updated_at":134,"faqs":135,"releases":166},6410,"kristjankorjus\u002FReplicating-DeepMind","Replicating-DeepMind","Reproducing the results of \"Playing Atari with Deep Reinforcement Learning\" by DeepMind","Replicating-DeepMind 是一个致力于复现 DeepMind 经典论文《Playing Atari with Deep Reinforcement Learning》实验结果的开源项目。它的核心目标是让开发者能够重现人工智能通过深度强化学习自主掌握雅达利游戏的过程，从而验证并深入理解这一里程碑式的技术原理。\n\n该项目主要解决了顶级 AI 研究成果难以直接复现和学习的痛点。通过将复杂的理论转化为可运行的代码，它为用户提供了直观的实验环境，帮助人们跨越从论文到实践的鸿沟。目前，系统已能在 GPU 集群上运行，虽然训练速度约为原系统的二分之一且尚未集成 RMSprop 优化算法，但智能体已经展现出超越随机猜测的游戏能力。\n\nReplicating-DeepMind 特别适合人工智能研究人员、深度学习开发者以及对强化学习感兴趣的学生使用。对于希望探究 DQN（深度 Q 网络）底层逻辑、进行算法对比实验或寻找基于 Theano 等框架替代实现（如项目中提及的 Nathan Sprague 版本）的专业人士来说，这是一个极具价值的参考范本。此外，项目团队还撰写了科普文章，降低了普通","Replicating-DeepMind 是一个致力于复现 DeepMind 经典论文《Playing Atari with Deep Reinforcement Learning》实验结果的开源项目。它的核心目标是让开发者能够重现人工智能通过深度强化学习自主掌握雅达利游戏的过程，从而验证并深入理解这一里程碑式的技术原理。\n\n该项目主要解决了顶级 AI 研究成果难以直接复现和学习的痛点。通过将复杂的理论转化为可运行的代码，它为用户提供了直观的实验环境，帮助人们跨越从论文到实践的鸿沟。目前，系统已能在 GPU 集群上运行，虽然训练速度约为原系统的二分之一且尚未集成 RMSprop 优化算法，但智能体已经展现出超越随机猜测的游戏能力。\n\nReplicating-DeepMind 特别适合人工智能研究人员、深度学习开发者以及对强化学习感兴趣的学生使用。对于希望探究 DQN（深度 Q 网络）底层逻辑、进行算法对比实验或寻找基于 Theano 等框架替代实现（如项目中提及的 Nathan Sprague 版本）的专业人士来说，这是一个极具价值的参考范本。此外，项目团队还撰写了科普文章，降低了普通技术爱好者理解通用人工智能如何“学会”玩游戏的门槛。","Replicating-DeepMind\n====================\n\nReproducing the results of \"Playing Atari with Deep Reinforcement Learning\" by DeepMind. All the information is in our [Wiki](https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fwiki).\n\n**Progress:** System is up and running on a GPU cluster with cuda-convnet2. It can learn to play better than random but not much better yet :) It is rather fast but still about 2x slower than DeepMind's original system. It does not have RMSprop implemented at the moment which is our next goal. \n\nNote 1: You can also check out a popular science article we wrote about the system to [Robohub](http:\u002F\u002Frobohub.org\u002Fartificial-general-intelligence-that-plays-atari-video-games-how-did-deepmind-do-it\u002F).\n\nNote 2: Nathan Sprague has a implementation based on Theano. It can do fairly well. See [his github](https:\u002F\u002Fgithub.com\u002Fspragunr\u002Fdeep_q_rl) for more details.\n","复现——DeepMind\n====================\n\n复现DeepMind发表的论文《使用深度强化学习玩雅达利游戏》中的实验结果。所有相关信息均在我们的[Wiki](https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fwiki)中。\n\n**进展：** 系统已在配备cuda-convnet2的GPU集群上运行起来。目前它已经能够学会比随机策略更好的玩法，但提升幅度还不大 :) 虽然速度较快，但仍比DeepMind的原始系统慢约两倍。现阶段尚未实现RMSprop优化算法，这是我们接下来的目标。\n\n注1：您也可以阅读我们撰写的一篇面向大众的科普文章，介绍该系统，发表于[Robohub](http:\u002F\u002Frobohub.org\u002Fartificial-general-intelligence-that-plays-atari-video-games-how-did-deepmind-do-it\u002F)。\n\n注2：Nathan Sprague基于Theano实现了一个版本，表现相当不错。更多详情请参阅[他的GitHub仓库](https:\u002F\u002Fgithub.com\u002Fspragunr\u002Fdeep_q_rl)。","# Replicating-DeepMind 快速上手指南\n\n本指南旨在帮助开发者复现 DeepMind 的经典论文《Playing Atari with Deep Reinforcement Learning》中的结果。该项目基于 `cuda-convnet2` 构建，目前支持在 GPU 集群上运行。\n\n> **注意**：根据项目现状，系统已可运行并表现出优于随机策略的能力，但性能约为原 DeepMind 系统的 50%，且尚未实现 RMSprop 优化器。更多技术细节请参阅项目 [Wiki](https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fwiki)。\n\n## 环境准备\n\n### 系统要求\n- **操作系统**：Linux (推荐 Ubuntu)\n- **硬件**：NVIDIA GPU (必须支持 CUDA)\n- **核心框架**：cuda-convnet2\n\n### 前置依赖\n在开始之前，请确保系统已安装以下基础工具：\n- Python 2.7 (该项目为早期项目，主要基于 Python 2)\n- CUDA Toolkit (版本需与 cuda-convnet2 兼容)\n- Git\n- g++ 编译器\n\n## 安装步骤\n\n由于该项目依赖特定的 `cuda-convnet2` 架构，请严格按照以下顺序执行：\n\n1. **克隆项目代码**\n   ```bash\n   git clone https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind.git\n   cd Replicating-DeepMind\n   ```\n\n2. **安装 cuda-convnet2 依赖**\n   该项目强依赖 `cuda-convnet2`。您需要先获取该库并编译：\n   ```bash\n   # 获取 cuda-convnet2 (如果未单独提供子模块，需手动下载对应版本)\n   git clone https:\u002F\u002Fgithub.com\u002Falexkriz\u002Fcuda-convnet2.git\n   \n   # 进入目录并根据 Makefile.config.example 配置您的 CUDA 路径\n   cd cuda-convnet2\n   cp Makefile.config.example Makefile.config\n   # 编辑 Makefile.config 以匹配您的 CUDA 安装路径\n   \n   # 编译\n   make\n   ```\n\n3. **配置 Python 环境**\n   确保 `cuda-convnet2` 的 Python 接口已添加到 `PYTHONPATH`：\n   ```bash\n   export PYTHONPATH=$PYTHONPATH:\u002Fpath\u002Fto\u002Fcuda-convnet2\u002Fpy-netsrc\n   ```\n\n4. **安装其他 Python 依赖**\n   ```bash\n   pip install numpy scipy pil pygame\n   ```\n   *(注：国内用户可使用清华源加速安装：`pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple numpy scipy pil pygame`)*\n\n## 基本使用\n\n完成安装后，您可以启动训练脚本来让 AI 学习玩 Atari 游戏。以下是最简单的运行示例：\n\n```bash\n# 运行主训练脚本 (具体脚本名称请参考项目根目录或 wiki，通常为 run_agent.py 或类似)\npython run_agent.py --rom_path \u002Fpath\u002Fto\u002Fyour\u002Fatari\u002Froms --game breakout\n```\n\n**参数说明：**\n- `--rom_path`: 指向您合法的 Atari ROM 文件目录。\n- `--game`: 指定要训练的游戏名称（例如 `breakout`, `pong` 等）。\n\n**运行预期：**\n启动后，系统将开始在 GPU 上进行强化学习训练。初期表现可能仅略优于随机操作，随着训练步数增加，得分将逐渐提升。您可以通过终端日志监控当前的奖励值和学习进度。","某高校强化学习实验室的研究团队正试图复现 DeepMind 经典的 Atari 游戏 AI 论文，以验证深度 Q 网络（DQN）在视觉输入下的决策能力。\n\n### 没有 Replicating-DeepMind 时\n- **复现门槛极高**：研究人员需从零构建基于 cuda-convnet2 的 GPU 集群环境，配置过程繁琐且极易出错。\n- **算法实现困难**：缺乏现成的参考代码，团队难以准确还原论文中复杂的预处理流程和神经网络架构。\n- **调试周期漫长**：由于没有基准对照，模型训练效果不佳时（如仅略优于随机策略），无法判断是超参数问题还是代码逻辑错误。\n- **算力利用率低**：自研系统运行效率低下，训练速度远慢于预期，严重拖慢了实验迭代进度。\n\n### 使用 Replicating-DeepMind 后\n- **环境快速部署**：直接利用项目提供的成熟配置，迅速在 GPU 集群上跑通系统，大幅降低环境搭建成本。\n- **核心逻辑透明**：通过开源代码清晰理解数据流与网络结构，即使暂未实现 RMSprop 优化器，也能准确把握算法主干。\n- **基准确立清晰**：以项目“优于随机但仍有提升空间”的当前表现为基准，团队能快速定位自身改进方向并验证有效性。\n- **研发效率提升**：虽然速度约为原版的二分之一，但相比从零开发已显著加速，让研究者能将精力集中于算法优化而非工程基建。\n\nReplicating-DeepMind 将高不可攀的顶会成果转化为可运行的代码基座，让学术界能以更低成本站在巨人的肩膀上探索通用人工智能。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkristjankorjus_Replicating-DeepMind_f18df16d.png","kristjankorjus","Kristjan Korjus","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkristjankorjus_d42c08a5.jpg",null,"korjus@gmail.com","https:\u002F\u002Fuk.linkedin.com\u002Fin\u002Fkristjankorjus","https:\u002F\u002Fgithub.com\u002Fkristjankorjus",[85,89,93,97,101,105,109,113,117],{"name":86,"color":87,"percentage":88},"C++","#f34b7d",50.9,{"name":90,"color":91,"percentage":92},"Cuda","#3A4E3A",17.1,{"name":94,"color":95,"percentage":96},"Prolog","#74283c",13.4,{"name":98,"color":99,"percentage":100},"C","#555555",6.8,{"name":102,"color":103,"percentage":104},"Python","#3572A5",5.9,{"name":106,"color":107,"percentage":108},"TeX","#3D6117",5.3,{"name":110,"color":111,"percentage":112},"Makefile","#427819",0.5,{"name":114,"color":115,"percentage":116},"Shell","#89e051",0.1,{"name":118,"color":119,"percentage":120},"MATLAB","#e16737",0,667,204,"2026-03-05T07:28:28","GPL-3.0",5,"未说明","必需 NVIDIA GPU（基于 cuda-convnet2），具体型号和显存大小未说明，CUDA 版本未说明",{"notes":129,"python":126,"dependencies":130},"该项目旨在复现 DeepMind 的 Atari 深度强化学习论文。目前系统已在配备 cuda-convnet2 的 GPU 集群上运行，但尚未实现 RMSprop 优化算法。性能约为原始 DeepMind 系统的 50%。详细文档请参阅项目 Wiki。",[131],"cuda-convnet2",[18],"2026-03-27T02:49:30.150509","2026-04-11T08:12:45.126353",[136,141,146,151,156,161],{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},29027,"这个项目是否完全复制了 DeepMind 的功能并编写了自己的 Atari 游戏代理？","不完全是。项目尝试使用 cuda-convnet2 库复制 DeepMind 的功能，并取得了一些结果，但效果远不如 DeepMind 原版。目前该项目已暂停，因为 DeepMind 已经发布了他们的源代码（链接：https:\u002F\u002Fgithub.com\u002Fkuz\u002FDeepMind-Atari-Deep-Q-Learner）。对于 Atari 游戏代理，本项目和 DeepMind 都使用了 ALE (Arcade Learning Environment)。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F23",{"id":142,"question_zh":143,"answer_zh":144,"source_url":145},29028,"为什么运行时代码中的 epsilon 值一直保持在 0.9 不变？","这是一个已知的 Bug。原因是 `frames_played` 变量当时没有在任何地方进行递增，导致计算 epsilon 时数值不更新。此外，计算 epsilon 的函数中还存在着整数除法的问题。该问题已在后续修复中解决。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F11",{"id":147,"question_zh":148,"answer_zh":149,"source_url":150},29029,"代码中重复调用 predict_rewards 是否是性能瓶颈或逻辑错误？","这实际上是一个重要的逻辑 Bug，而不仅仅是冗余。第二次调用 `predict_rewards([transition['prestate']])` 本应该使用 `transition[\"poststate\"]`。根据 Q-learning 公式 Q(state, action) = immediate_reward(action) + expectedReward(next_state)，必须使用下一个状态（poststate）来计算预期奖励。如果不修正，系统将无法正确学习。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F12",{"id":152,"question_zh":153,"answer_zh":154,"source_url":155},29030,"当记忆库（Memory）达到固定长度（如 100,000 条）并开始覆盖旧数据时，如何正确处理小批量（minibatch）的数据提取？","当内存被覆盖时，直接提取连续帧会导致数据不一致（例如请求第 11 条转换时，其前几帧可能已被新数据覆盖）。解决方案是禁止小批量采样器在内存覆盖区域附近选择转换点。考虑到通常有百万级的转换数据可供挑选，禁止选取极少数受影响的过渡数据对训练影响微乎其微，从而保证了数据的完整性。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F13",{"id":157,"question_zh":158,"answer_zh":159,"source_url":160},29031,"如何将 ALE 和 cuda-convnet2 作为子模块管理，以及如何处理相关的补丁文件？","建议将 cuda-convnet2 添加到 libraries 目录下。关于补丁文件，由于无法保证主库更新后代码仍能正常工作，最佳实践是保留一份包含项目特定修改的 cuda-convnet2 副本，而不是依赖外部更新或动态应用补丁，以确保环境的稳定性和可复现性。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F21",{"id":162,"question_zh":163,"answer_zh":164,"source_url":165},29032,"在哪里可以找到让模拟器运行的安装手册？","安装手册原本存在，维护者已将相关链接添加到了项目的 Wiki 页面中，请查阅项目 Wiki 获取详细的运行指南。","https:\u002F\u002Fgithub.com\u002Fkristjankorjus\u002FReplicating-DeepMind\u002Fissues\u002F1",[]]