[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-fchollet--ARC-AGI":3,"tool-fchollet--ARC-AGI":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,2,"2026-04-05T10:45:23",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",74913,"2026-04-05T10:44:17",[19,13,20,18],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,1,"2026-04-03T21:50:24",[20,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},2234,"scikit-learn","scikit-learn\u002Fscikit-learn","scikit-learn 是一个基于 Python 构建的开源机器学习库，依托于 SciPy、NumPy 等科学计算生态，旨在让机器学习变得简单高效。它提供了一套统一且简洁的接口，涵盖了从数据预处理、特征工程到模型训练、评估及选择的全流程工具，内置了包括线性回归、支持向量机、随机森林、聚类等在内的丰富经典算法。\n\n对于希望快速验证想法或构建原型的数据科学家、研究人员以及 Python 开发者而言，scikit-learn 是不可或缺的基础设施。它有效解决了机器学习入门门槛高、算法实现复杂以及不同模型间调用方式不统一的痛点，让用户无需重复造轮子，只需几行代码即可调用成熟的算法解决分类、回归、聚类等实际问题。\n\n其核心技术亮点在于高度一致的 API 设计风格，所有估算器（Estimator）均遵循相同的调用逻辑，极大地降低了学习成本并提升了代码的可读性与可维护性。此外，它还提供了强大的模型选择与评估工具，如交叉验证和网格搜索，帮助用户系统地优化模型性能。作为一个由全球志愿者共同维护的成熟项目，scikit-learn 以其稳定性、详尽的文档和活跃的社区支持，成为连接理论学习与工业级应用的最",65628,"2026-04-05T10:10:46",[20,18,14],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":10,"last_commit_at":63,"category_tags":64,"status":22},3364,"keras","keras-team\u002Fkeras","Keras 是一个专为人类设计的深度学习框架，旨在让构建和训练神经网络变得简单直观。它解决了开发者在不同深度学习后端之间切换困难、模型开发效率低以及难以兼顾调试便捷性与运行性能的痛点。\n\n无论是刚入门的学生、专注算法的研究人员，还是需要快速落地产品的工程师，都能通过 Keras 轻松上手。它支持计算机视觉、自然语言处理、音频分析及时间序列预测等多种任务。\n\nKeras 3 的核心亮点在于其独特的“多后端”架构。用户只需编写一套代码，即可灵活选择 TensorFlow、JAX、PyTorch 或 OpenVINO 作为底层运行引擎。这一特性不仅保留了 Keras 一贯的高层易用性，还允许开发者根据需求自由选择：利用 JAX 或 PyTorch 的即时执行模式进行高效调试，或切换至速度最快的后端以获得最高 350% 的性能提升。此外，Keras 具备强大的扩展能力，能无缝从本地笔记本电脑扩展至大规模 GPU 或 TPU 集群，是连接原型开发与生产部署的理想桥梁。",63927,"2026-04-04T15:24:37",[20,14,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":71,"readme_en":72,"readme_zh":73,"quickstart_zh":74,"use_case_zh":75,"hero_image_url":76,"owner_login":77,"owner_name":78,"owner_avatar_url":79,"owner_bio":80,"owner_company":80,"owner_location":80,"owner_email":81,"owner_twitter":80,"owner_website":82,"owner_url":83,"languages":84,"stars":97,"forks":98,"last_commit_at":99,"license":100,"difficulty_score":46,"env_os":101,"env_gpu":101,"env_ram":101,"env_deps":102,"category_tags":105,"github_topics":106,"view_count":10,"oss_zip_url":80,"oss_zip_packed_at":80,"status":22,"created_at":111,"updated_at":112,"faqs":113,"releases":143},3102,"fchollet\u002FARC-AGI","ARC-AGI","The Abstraction and Reasoning Corpus","ARC-AGI（抽象与推理语料库）是一个旨在衡量和推动通用人工智能（AGI）发展的基准测试平台。它通过一系列基于网格的逻辑谜题，挑战系统像人类一样具备“流体智力”，即在面对全新问题时，仅凭少量示例就能抽象出核心规律并推导出正确答案的能力。\n\n该项目主要解决了当前 AI 过度依赖海量数据训练、缺乏真正泛化推理能力的痛点。与传统机器学习任务不同，ARC-AGI 要求解题者在从未见过具体任务的情况下，利用有限的演示样本（通常仅 3 组），精准推断出输入到输出的变换逻辑，并构建出完全匹配的输出网格。这种机制更接近人类的学习方式，而非单纯的模式记忆。\n\nARC-AGI 非常适合 AI 研究人员、算法开发者以及对认知科学感兴趣的教育者使用。研究者可用其评估新算法的泛化边界，开发者则能借此探索少样本学习（Few-shot Learning）和程序合成的前沿技术。其独特亮点在于将复杂的智能测试转化为直观的视觉逻辑游戏，并提供了一套标准的训练与评估数据集，严格区分两者以防止过拟合，确保了对智能水平评估的公正性与科学性。无论是希望突破现有模型局限的极客，还是想亲身体验高难度逻辑挑战的人类用户，都能从中获得","ARC-AGI（抽象与推理语料库）是一个旨在衡量和推动通用人工智能（AGI）发展的基准测试平台。它通过一系列基于网格的逻辑谜题，挑战系统像人类一样具备“流体智力”，即在面对全新问题时，仅凭少量示例就能抽象出核心规律并推导出正确答案的能力。\n\n该项目主要解决了当前 AI 过度依赖海量数据训练、缺乏真正泛化推理能力的痛点。与传统机器学习任务不同，ARC-AGI 要求解题者在从未见过具体任务的情况下，利用有限的演示样本（通常仅 3 组），精准推断出输入到输出的变换逻辑，并构建出完全匹配的输出网格。这种机制更接近人类的学习方式，而非单纯的模式记忆。\n\nARC-AGI 非常适合 AI 研究人员、算法开发者以及对认知科学感兴趣的教育者使用。研究者可用其评估新算法的泛化边界，开发者则能借此探索少样本学习（Few-shot Learning）和程序合成的前沿技术。其独特亮点在于将复杂的智能测试转化为直观的视觉逻辑游戏，并提供了一套标准的训练与评估数据集，严格区分两者以防止过拟合，确保了对智能水平评估的公正性与科学性。无论是希望突破现有模型局限的极客，还是想亲身体验高难度逻辑挑战的人类用户，都能从中获得深刻洞察。","# Abstraction and Reasoning Corpus for Artificial General Intelligence v1 (ARC-AGI-1)\n\nThis repository contains the ARC-AGI-1 task data, as well as a browser-based interface for humans to try their hand at solving the tasks manually.\n\nSee also the [ARC-AGI-2 repository](https:\u002F\u002Fgithub.com\u002Farcprize\u002FARC-AGI-2).\n\n*\"ARC can be seen as a general artificial intelligence benchmark, as a program synthesis benchmark, or as a psychometric intelligence test. It is targeted at both humans and artificially intelligent systems that aim at emulating a human-like form of general fluid intelligence.\"*\n\nA complete description of the dataset, its goals, and its underlying logic, can be found in: [On the Measure of Intelligence](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.01547).\n\nAs a reminder, a test-taker is said to solve a task when, upon seeing the task for the first time, they are able to produce the correct output grid for *all* test inputs in the task (this includes picking the dimensions of the output grid). For each test input, the test-taker is allowed 3 trials (this holds for all test-takers, either humans or AI).\n\n\n## Task file format\n\nThe `data` directory contains two subdirectories:\n\n- `data\u002Ftraining`: contains the task files for training (400 tasks). Use these to prototype your algorithm or to train your algorithm to acquire ARC-relevant cognitive priors.\n- `data\u002Fevaluation`: contains the task files for evaluation (400 tasks). Use these to evaluate your final algorithm. To ensure fair evaluation results, do not leak information from the evaluation set into your algorithm (e.g. by looking at the evaluation tasks yourself during development, or by repeatedly modifying an algorithm while using its evaluation score as feedback).\n\nThe tasks are stored in JSON format. Each task JSON file contains a dictionary with two fields:\n\n- `\"train\"`: demonstration input\u002Foutput pairs. It is a list of \"pairs\" (typically 3 pairs).\n- `\"test\"`: test input\u002Foutput pairs. It is a list of \"pairs\" (typically 1 pair).\n\nA \"pair\" is a dictionary with two fields:\n\n- `\"input\"`: the input \"grid\" for the pair.\n- `\"output\"`: the output \"grid\" for the pair.\n\nA \"grid\" is a rectangular matrix (list of lists) of integers between 0 and 9 (inclusive). The smallest possible grid size is 1x1 and the largest is 30x30.\n\nWhen looking at a task, a test-taker has access to inputs & outputs of the demonstration pairs, plus the input(s) of the test pair(s). The goal is to construct the output grid(s) corresponding to the test input grid(s), using 3 trials for each test input. \"Constructing the output grid\" involves picking the height and width of the output grid, then filling each cell in the grid with a symbol (integer between 0 and 9, which are visualized as colors). Only *exact* solutions (all cells match the expected answer) can be said to be correct.\n\n\n## Usage of the testing interface\n\nThe testing interface is located at `apps\u002Ftesting_interface.html`. Open it in a web browser (Chrome recommended). It will prompt you to select a task JSON file.\n\nAfter loading a task, you will enter the test space, which looks like this:\n\n![test space](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffchollet_ARC-AGI_readme_5641e9b41f17.png)\n\nOn the left, you will see the input\u002Foutput pairs demonstrating the nature of the task. In the middle, you will see the current test input grid. On the right, you will see the controls you can use to construct the corresponding output grid.\n\nYou have access to the following tools:\n\n### Grid controls\n\n- Resize: input a grid size (e.g. \"10x20\" or \"4x4\") and click \"Resize\". This preserves existing grid content (in the top left corner).\n- Copy from input: copy the input grid to the output grid. This is useful for tasks where the output consists of some modification of the input.\n- Reset grid: fill the grid with 0s.\n\n### Symbol controls\n\n- Edit: select a color (symbol) from the color picking bar, then click on a cell to set its color.\n- Select: click and drag on either the output grid or the input grid to select cells.\n    - After selecting cells on the output grid, you can select a color from the color picking to set the color of the selected cells. This is useful to draw solid rectangles or lines.\n    - After selecting cells on either the input grid or the output grid, you can press C to copy their content. After copying, you can select a cell on the output grid and press \"V\" to paste the copied content. You should select the cell in the top left corner of the zone you want to paste into.\n- Floodfill: click on a cell from the output grid to color all connected cells to the selected color. \"Connected cells\" are contiguous cells with the same color.\n\n### Answer validation\n\nWhen your output grid is ready, click the green \"Submit!\" button to check your answer. We do not enforce the 3-trials rule.\n\nAfter you've obtained the correct answer for the current test input grid, you can switch to the next test input grid for the task using the \"Next test input\" button (if there is any available; most tasks only have one test input).\n\nWhen you're done with a task, use the \"load task\" button to open a new task.\n","# 用于通用人工智能的抽象与推理语料库 v1 (ARC-AGI-1)\n\n本仓库包含 ARC-AGI-1 任务数据，以及一个基于浏览器的界面，供人类手动尝试解决这些任务。\n\n另请参阅 [ARC-AGI-2 仓库](https:\u002F\u002Fgithub.com\u002Farcprize\u002FARC-AGI-2)。\n\n*“ARC 既可被视为通用人工智能基准、程序合成基准，也可被视为心理测量学智力测试。它面向人类以及旨在模拟类人般通用流体智力的人工智能系统。”*\n\n有关该数据集的完整描述、其目标及底层逻辑，请参阅：[论智力的度量](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.01547)。\n\n提醒一下，当应试者首次看到某项任务时，若能为该任务中的*所有*测试输入生成正确的输出网格（包括确定输出网格的尺寸），则视为成功解决该任务。对于每个测试输入，应试者有 3 次尝试机会（无论应试者是人类还是 AI，均适用）。\n\n## 任务文件格式\n\n`data` 目录包含两个子目录：\n\n- `data\u002Ftraining`：包含用于训练的任务文件（共 400 个任务）。可用于算法原型开发或训练算法以获取与 ARC 相关的认知先验。\n- `data\u002Fevaluation`：包含用于评估的任务文件（共 400 个任务）。可用于评估最终算法。为确保评估结果的公平性，切勿将评估集中的信息泄露到您的算法中（例如，在开发过程中自行查看评估任务，或在使用评估分数作为反馈的同时反复修改算法）。\n\n任务以 JSON 格式存储。每个任务的 JSON 文件包含一个字典，其中有两个字段：\n\n- `\"train\"`：演示输入\u002F输出对。这是一个“对”列表（通常为 3 对）。\n- `\"test\"`：测试输入\u002F输出对。这是一个“对”列表（通常为 1 对）。\n\n一个“对”是一个包含两个字段的字典：\n\n- `\"input\"`：该对的输入“网格”。\n- `\"output\"`：该对的输出“网格”。\n\n“网格”是由 0 到 9（含）之间的整数组成的矩形矩阵（列表的列表）。最小的网格尺寸为 1×1，最大的为 30×30。\n\n在查看一项任务时，应试者可以访问演示对的输入和输出，以及测试对的输入。目标是为每个测试输入构建相应的输出网格，每项测试输入有 3 次尝试机会。“构建输出网格”包括确定输出网格的高度和宽度，然后用符号（0 到 9 之间的整数，以颜色表示）填充网格中的每个单元格。只有*完全正确*的解答（所有单元格都与预期答案一致）才被视为正确。\n\n\n## 测试界面的使用方法\n\n测试界面位于 `apps\u002Ftesting_interface.html`。请在网页浏览器中打开它（推荐使用 Chrome）。系统会提示您选择一个任务 JSON 文件。\n\n加载任务后，您将进入测试空间，其外观如下所示：\n\n![测试空间](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffchollet_ARC-AGI_readme_5641e9b41f17.png)\n\n左侧显示演示任务性质的输入\u002F输出对。中间显示当前的测试输入网格。右侧则是用于构建相应输出网格的控件。\n\n您可以使用以下工具：\n\n### 网格控制\n\n- 调整大小：输入网格尺寸（例如“10×20”或“4×4”），然后点击“调整大小”。这会保留现有网格内容（位于左上角）。\n- 从输入复制：将输入网格复制到输出网格。这对于输出是对输入进行某种修改的任务非常有用。\n- 重置网格：将网格全部填满 0。\n\n### 符号控制\n\n- 编辑：从颜色选择栏中选取一种颜色（符号），然后单击某个单元格以设置其颜色。\n- 选择：在输出网格或输入网格上单击并拖动以选择单元格。\n    - 在输出网格上选择单元格后，可以从颜色选择栏中选取一种颜色来设置所选单元格的颜色。这对于绘制实心矩形或线条很有用。\n    - 在输入网格或输出网格上选择单元格后，按 C 键可复制其内容。复制完成后，可在输出网格上选择一个单元格并按 V 键粘贴复制的内容。请务必选择要粘贴区域左上角的单元格。\n- 涂色填充：单击输出网格上的某个单元格，即可将与其相连的所有同色单元格涂成选定的颜色。“相连的单元格”是指具有相同颜色且彼此相邻的单元格。\n\n### 答案验证\n\n当您的输出网格准备就绪时，点击绿色的“提交！”按钮以检查您的答案。我们不强制执行 3 次尝试的规则。\n\n在为当前测试输入网格获得正确答案后，您可以使用“下一个测试输入”按钮切换到该任务的下一个测试输入网格（如果有；大多数任务只有一个测试输入）。\n\n完成一项任务后，使用“加载任务”按钮即可打开新的任务。","# ARC-AGI 快速上手指南\n\nARC-AGI (Abstraction and Reasoning Corpus) 是一个旨在衡量通用人工智能（AGI）抽象与推理能力的基准测试数据集。本指南将帮助您快速获取数据并体验任务求解界面。\n\n## 环境准备\n\n本项目主要包含数据集文件和基于浏览器的交互界面，无需复杂的深度学习框架即可开始探索。\n\n*   **操作系统**：Windows, macOS, 或 Linux\n*   **浏览器**：推荐使用 **Google Chrome** 以获得最佳的界面兼容性\n*   **依赖项**：\n    *   无强制 Python 依赖（若需编程处理数据，建议安装 Python 3.6+）\n    *   可选：`json` 库（Python 内置）用于解析任务文件\n\n## 安装步骤\n\n由于这是一个纯数据与前端工具仓库，只需克隆代码库即可使用。\n\n1.  **克隆仓库**\n    打开终端，执行以下命令获取源代码和数据：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI.git\n    cd ARC-AGI\n    ```\n    *(注：如果访问 GitHub 速度较慢，可使用国内镜像源，例如：`git clone https:\u002F\u002Fgitee.com\u002Fmirrors\u002FARC-AGI.git`，如有可用镜像)*\n\n2.  **验证数据目录**\n    进入项目后，确认 `data` 目录结构如下：\n    *   `data\u002Ftraining`: 包含 400 个训练任务（用于开发算法或建立认知先验）。\n    *   `data\u002Fevaluation`: 包含 400 个评估任务（仅用于最终测试，开发过程中请勿查看答案以防数据泄露）。\n\n## 基本使用\n\n### 方式一：使用浏览器界面手动解题（推荐新手）\n\n这是最直观的体验方式，允许您在网页上手动尝试解决推理任务。\n\n1.  **启动界面**\n    在文件管理器中找到 `apps\u002Ftesting_interface.html` 文件，直接使用 **Chrome 浏览器** 打开它。\n    *   或者在终端运行（取决于系统默认浏览器设置）：\n        ```bash\n        open apps\u002Ftesting_interface.html  # macOS\n        xdg-open apps\u002Ftesting_interface.html # Linux\n        start apps\u002Ftesting_interface.html # Windows\n        ```\n\n2.  **加载任务**\n    *   点击界面上的 **\"Load task\"** 按钮。\n    *   导航至 `data\u002Ftraining` 目录，选择任意一个 `.json` 任务文件（例如 `00d62c1b.json`）并打开。\n\n3.  **解题操作**\n    界面分为三部分：左侧为示例（输入\u002F输出对），中间为当前测试输入，右侧为操作工具栏。\n    *   **调整网格**：在 \"Resize\" 输入框填入尺寸（如 `3x3`），点击 \"Resize\"。\n    *   **绘制内容**：\n        *   使用 **Edit** 模式：选择颜色条中的颜色，点击网格单元格进行绘制。\n        *   使用 **Select** 模式：拖拽选中区域，可批量填色；支持 `C` (复制) 和 `V` (粘贴) 快捷键。\n        *   使用 **Floodfill**：点击单元格填充相连的同色区域。\n    *   **提交答案**：绘制完成后，点击绿色的 **\"Submit!\"** 按钮验证结果。\n\n4.  **切换任务**\n    完成当前测试输入后，若有多个测试用例，点击 \"Next test input\"；全部完成后，点击 \"Load task\" 加载新任务。\n\n### 方式二：编程读取数据（开发者）\n\n若您计划编写算法自动解题，可通过 Python 读取 JSON 数据。\n\n```python\nimport json\nimport os\n\n# 指定任务文件路径\ntask_path = 'data\u002Ftraining\u002F00d62c1b.json'\n\n# 加载数据\nwith open(task_path, 'r') as f:\n    task = json.load(f)\n\n# 数据结构说明\n# task['train']: 训练样本列表 (通常为 3 组 input\u002Foutput 对)\n# task['test']: 测试样本列表 (通常为 1 组 input，需预测 output)\n\ntrain_pairs = task['train']\ntest_inputs = [pair['input'] for pair in task['test']]\n\nprint(f\"训练样本数量：{len(train_pairs)}\")\nprint(f\"测试输入网格维度：{len(test_inputs[0])}x{len(test_inputs[0][0])}\")\nprint(\"第一个训练样本输入:\", train_pairs[0]['input'])\n```\n\n**注意**：每个测试输入仅有 **3 次** 尝试机会（在自动评测场景中严格执行），目标是生成与标准答案完全一致的输出网格（包括尺寸和所有单元格的颜色值 0-9）。","某 AI 实验室团队正在研发具备“类人流体智力”的通用人工智能模型，急需验证其从零学习抽象规律的能力。\n\n### 没有 ARC-AGI 时\n- **评估标准模糊**：团队依赖 ImageNet 等静态数据集，模型仅能记忆特征却无法证明其具备推理新规则的泛化能力。\n- **过拟合风险高**：缺乏严格的“一次见过即需解题”机制，算法容易通过暴力穷举训练数据作弊，掩盖了逻辑推理能力的缺失。\n- **认知先验难构建**：缺少涵盖颜色、形状、数量变化等基础认知任务的标准化语料库，导致模型难以习得人类般的底层逻辑直觉。\n- **人机对比困难**：没有统一的浏览器交互界面，研究人员无法直观地以人类视角尝试解题，难以界定当前 AI 与人类智能的真实差距。\n\n### 使用 ARC-AGI 后\n- **基准测试精准**：利用 400 个训练任务和 400 个保密评估任务，强制模型在仅看示例的情况下推导测试集输出，真实反映其抽象推理水平。\n- **杜绝数据泄露**：严格的“三次试错”规则和独立的评估集设计，确保模型必须掌握核心逻辑而非死记硬背，有效识别伪智能。\n- **加速认知对齐**：基于网格和色彩变化的任务格式，帮助模型快速建立关于对象恒常性、拓扑变换等关键认知先验，缩短研发周期。\n- **直观调试迭代**：通过内置的 Web 测试界面，研究员可手动加载 JSON 任务进行人机对抗测试，快速定位模型在特定逻辑链条上的断裂点。\n\nARC-AGI 将抽象推理能力量化为可执行的代码任务，成为衡量人工智能是否真正迈向通用智能（AGI）的关键试金石。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Ffchollet_ARC-AGI_5641e9b4.png","fchollet","François Chollet","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Ffchollet_3e29281b.png",null,"francois.chollet@gmail.com","https:\u002F\u002Ftwitter.com\u002Ffchollet","https:\u002F\u002Fgithub.com\u002Ffchollet",[85,89,93],{"name":86,"color":87,"percentage":88},"JavaScript","#f1e05a",61.6,{"name":90,"color":91,"percentage":92},"HTML","#e34c26",24.2,{"name":94,"color":95,"percentage":96},"CSS","#663399",14.2,4738,707,"2026-04-03T16:27:31","Apache-2.0","未说明",{"notes":103,"python":101,"dependencies":104},"该工具主要是一个基于浏览器的测试界面（apps\u002Ftesting_interface.html），推荐使用 Chrome 浏览器打开即可运行，无需安装复杂的后端环境或深度学习框架。任务数据以 JSON 格式存储，包含训练集和评估集。用户通过界面手动构建输出网格来解决问题，系统不强制限制尝试次数。",[],[18],[107,108,109,110],"artificial-intelligence","program-synthesis","psychometrics","intelligence-testing","2026-03-27T02:49:30.150509","2026-04-06T05:36:48.986708",[114,119,124,129,134,139],{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},14278,"如何为色盲用户调整 ARC-Interactive 的显示设置？","ARC-Interactive 提供了基础的色盲支持。请在 `Settings`（设置）页面将 `theme`（主题）更改为 `Tol Muted`。这有助于区分不同颜色。如果该主题仍无法满足特定类型的色盲需求（如红色盲、绿色盲等），可以进一步反馈以进行调整。此外，社区也建议在每个单元格中额外显示颜色编号文本以辅助识别。","https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Fissues\u002F107",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},14279,"遇到看似无解或行为不符合训练示例的测试任务（如水流动逻辑错误）该怎么办？","如果发现测试用例的行为在训练集中没有先例，或者看起来像是一个错误（例如水流入孔洞的逻辑不一致），这通常是一个已知的数据问题。维护者通常会修复此类任务。对于特定的水流任务（如 79fb03f4），仔细检查其他训练示例（如 example 4）可能会揭示正确的逻辑（即“半流”过程），从而证明某个特定输出示例是不正确的。如果遇到此类情况，可以报告问题，维护者会发布修复版本。","https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Fissues\u002F100",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},14280,"关于某些论文声称在 ARC 数据集上达到 80% 准确率的真实性如何？","对此类高准确率声明应持怀疑态度。主要疑点包括：不同报告中数据不一致（如从 80% 变为 61.13%）、评估集不透明（使用公开测试集却对比隐藏任务的竞赛结果）、缺乏源代码导致无法复现、以及未说明排除大网格后的影响。目前社区普遍认为，使用深度学习难以在 ARC 这种需要极端泛化能力的任务上取得如此高的成绩，且尚无独立团队成功复现这些结果。","https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Fissues\u002F82",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},14281,"当测试题目存在歧义，多种解释似乎都合理时，应该如何作答？","ARC 的部分题目确实存在固有的歧义，因为提供的证据不足以唯一确定某种逻辑。在这种情况下，测试的一部分就是考察解题者能否在模棱两可时优先选择“更可能”的解决方案。例如，如果所有示例中的连线都连接了不同的边缘，那么优先尝试“仅连接不同边缘”的假设是合理的策略。虽然没有绝对的标准答案，但通过概率优先级排序通常能导向预期结果。","https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Fissues\u002F95",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},14282,"如果发现训练数据中的某个输入打破了整体模式（如翻转或异常），这是错误吗？","不一定。在某些任务中（如 2dee498d），看似打破模式的输入（例如中间块被反转）实际上是设计意图（Working As Intended, WAI）。这种异常本身就是需要被识别的模式的一部分，旨在测试模型是否能处理非均匀性或特定的局部变换，而不是简单的平铺复制。","https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Fissues\u002F30",{"id":140,"question_zh":141,"answer_zh":142,"source_url":123},14283,"如何看待 AGI 系统处理包含人为错误或不完美的世界的能力？","真正的通用人工智能（AGI）应当具备在不完美的世界中导航的能力，包括处理人类制造的数据错误。在某些情况下，即使数据集中存在错误的示例（如错误的输出网格），人类和高级智能体通常也能通过上下文推断出正确逻辑并绕过错误。因此，部分观点认为，能够识别并修正数据中的不一致性也是衡量智能的一个方面，尽管维护者通常会修复明显的标注错误。",[144],{"id":145,"version":146,"summary_zh":147,"released_at":148},81029,"v1.0.2","包含以下小修复：\n\n- 训练任务 b230c067、9edfc990\n- 评估任务 20818e16、9def23fe、05a7bcf2、310f3251、4852f2fa、79fb03f4、c35c1b4c、e6de6e8f、ac0c5833","2024-06-21T04:53:16"]