[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-arcprize--ARC-AGI-2":3,"tool-arcprize--ARC-AGI-2":65},[4,23,32,40,49,57],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":22},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",85267,2,"2026-04-18T11:00:28",[13,14,15,16,17,18,19,20,21],"图像","数据工具","视频","插件","Agent","其他","语言模型","开发框架","音频","ready",{"id":24,"name":25,"github_repo":26,"description_zh":27,"stars":28,"difficulty_score":29,"last_commit_at":30,"category_tags":31,"status":22},5784,"funNLP","fighting41love\u002FfunNLP","funNLP 是一个专为中文自然语言处理（NLP）打造的超级资源库，被誉为\"NLP 民工的乐园”。它并非单一的软件工具，而是一个汇集了海量开源项目、数据集、预训练模型和实用代码的综合性平台。\n\n面对中文 NLP 领域资源分散、入门门槛高以及特定场景数据匮乏的痛点，funNLP 提供了“一站式”解决方案。这里不仅涵盖了分词、命名实体识别、情感分析、文本摘要等基础任务的标准工具，还独特地收录了丰富的垂直领域资源，如法律、医疗、金融行业的专用词库与数据集，甚至包含古诗词生成、歌词创作等趣味应用。其核心亮点在于极高的全面性与实用性，从基础的字典词典到前沿的 BERT、GPT-2 模型代码，再到高质量的标注数据和竞赛方案，应有尽有。\n\n无论是刚刚踏入 NLP 领域的学生、需要快速验证想法的算法工程师，还是从事人工智能研究的学者，都能在这里找到急需的“武器弹药”。对于开发者而言，它能大幅减少寻找数据和复现模型的时间；对于研究者，它提供了丰富的基准测试资源和前沿技术参考。funNLP 以开放共享的精神，极大地降低了中文自然语言处理的开发与研究成本，是中文 AI 社区不可或缺的宝藏仓库。",79857,1,"2026-04-08T20:11:31",[19,14,18],{"id":33,"name":34,"github_repo":35,"description_zh":36,"stars":37,"difficulty_score":29,"last_commit_at":38,"category_tags":39,"status":22},5773,"cs-video-courses","Developer-Y\u002Fcs-video-courses","cs-video-courses 是一个精心整理的计算机科学视频课程清单，旨在为自学者提供系统化的学习路径。它汇集了全球知名高校（如加州大学伯克利分校、新南威尔士大学等）的完整课程录像，涵盖从编程基础、数据结构与算法，到操作系统、分布式系统、数据库等核心领域，并深入延伸至人工智能、机器学习、量子计算及区块链等前沿方向。\n\n面对网络上零散且质量参差不齐的教学资源，cs-video-courses 解决了学习者难以找到成体系、高难度大学级别课程的痛点。该项目严格筛选内容，仅收录真正的大学层级课程，排除了碎片化的简短教程或商业广告，确保用户能接触到严谨的学术内容。\n\n这份清单特别适合希望夯实计算机基础的开发者、需要补充特定领域知识的研究人员，以及渴望像在校生一样系统学习计算机科学的自学者。其独特的技术亮点在于分类极其详尽，不仅包含传统的软件工程与网络安全，还细分了生成式 AI、大语言模型、计算生物学等新兴学科，并直接链接至官方视频播放列表，让用户能一站式获取高质量的教育资源，免费享受世界顶尖大学的课堂体验。",79792,"2026-04-08T22:03:59",[18,13,14,20],{"id":41,"name":42,"github_repo":43,"description_zh":44,"stars":45,"difficulty_score":46,"last_commit_at":47,"category_tags":48,"status":22},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,3,"2026-04-04T04:44:48",[17,13,20,19,18],{"id":50,"name":51,"github_repo":52,"description_zh":53,"stars":54,"difficulty_score":46,"last_commit_at":55,"category_tags":56,"status":22},519,"PaddleOCR","PaddlePaddle\u002FPaddleOCR","PaddleOCR 是一款基于百度飞桨框架开发的高性能开源光学字符识别工具包。它的核心能力是将图片、PDF 等文档中的文字提取出来，转换成计算机可读取的结构化数据，让机器真正“看懂”图文内容。\n\n面对海量纸质或电子文档，PaddleOCR 解决了人工录入效率低、数字化成本高的问题。尤其在人工智能领域，它扮演着连接图像与大型语言模型（LLM）的桥梁角色，能将视觉信息直接转化为文本输入，助力智能问答、文档分析等应用场景落地。\n\nPaddleOCR 适合开发者、算法研究人员以及有文档自动化需求的普通用户。其技术优势十分明显：不仅支持全球 100 多种语言的识别，还能在 Windows、Linux、macOS 等多个系统上运行，并灵活适配 CPU、GPU、NPU 等各类硬件。作为一个轻量级且社区活跃的开源项目，PaddleOCR 既能满足快速集成的需求，也能支撑前沿的视觉语言研究，是处理文字识别任务的理想选择。",75940,"2026-04-19T21:42:30",[19,13,20,18],{"id":58,"name":59,"github_repo":60,"description_zh":61,"stars":62,"difficulty_score":29,"last_commit_at":63,"category_tags":64,"status":22},3215,"awesome-machine-learning","josephmisiti\u002Fawesome-machine-learning","awesome-machine-learning 是一份精心整理的机器学习资源清单，汇集了全球优秀的机器学习框架、库和软件工具。面对机器学习领域技术迭代快、资源分散且难以甄选的痛点，这份清单按编程语言（如 Python、C++、Go 等）和应用场景（如计算机视觉、自然语言处理、深度学习等）进行了系统化分类，帮助使用者快速定位高质量项目。\n\n它特别适合开发者、数据科学家及研究人员使用。无论是初学者寻找入门库，还是资深工程师对比不同语言的技术选型，都能从中获得极具价值的参考。此外，清单还延伸提供了免费书籍、在线课程、行业会议、技术博客及线下聚会等丰富资源，构建了从学习到实践的全链路支持体系。\n\n其独特亮点在于严格的维护标准：明确标记已停止维护或长期未更新的项目，确保推荐内容的时效性与可靠性。作为机器学习领域的“导航图”，awesome-machine-learning 以开源协作的方式持续更新，旨在降低技术探索门槛，让每一位从业者都能高效地站在巨人的肩膀上创新。",72149,"2026-04-03T21:50:24",[20,18],{"id":66,"github_repo":67,"name":68,"description_en":69,"description_zh":70,"ai_summary_zh":70,"readme_en":71,"readme_zh":72,"quickstart_zh":73,"use_case_zh":74,"hero_image_url":75,"owner_login":76,"owner_name":77,"owner_avatar_url":78,"owner_bio":79,"owner_company":69,"owner_location":69,"owner_email":80,"owner_twitter":76,"owner_website":81,"owner_url":82,"languages":69,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":29,"env_os":87,"env_gpu":88,"env_ram":88,"env_deps":89,"category_tags":92,"github_topics":69,"view_count":10,"oss_zip_url":69,"oss_zip_packed_at":69,"status":22,"created_at":93,"updated_at":94,"faqs":95,"releases":96},9000,"arcprize\u002FARC-AGI-2","ARC-AGI-2",null,"ARC-AGI-2 是一个旨在衡量人工智能“通用智力”的基准测试数据集，被视为评估机器是否具备人类般抽象与推理能力的试金石。它通过一系列基于网格图形变换的任务，要求系统从少量示例中归纳出核心规律，并应用于从未见过的新场景，从而解决传统 AI 擅长记忆却弱于灵活推理的难题。\n\n该数据集包含 1000 个公开训练任务和 120 个公开评估任务，此外还设有严格的私有测试集以保障竞赛公平性。每个任务均由输入和输出的数字网格组成，测试者需在仅观看演示样本的情况下，推导出变换逻辑并生成正确的结果网格。这种设计模仿了人类的心理测量智力测试，重点考察流体智力而非特定领域的知识储备。\n\nARC-AGI-2 特别适合 AI 研究人员、算法开发者以及对通用人工智能（AGI）感兴趣的学者使用。其独特的技术亮点在于“少样本学习”机制：系统不能依赖海量数据训练，而必须像人一样具备先验认知能力，从极少的线索中提炼抽象概念。对于希望突破当前大模型局限、探索真正具备泛化能力智能系统的团队来说，这是一个极具挑战且价值非凡的研究工具。","# Abstraction and Reasoning Corpus for Artificial General Intelligence v2 (ARC-AGI-2)\n\nThis repository contains the ARC-AGI-2 task data (ARC-AGI-1 can be found [here](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Farc-agi)).\n\n*\"ARC can be seen as a general artificial intelligence benchmark, as a program synthesis benchmark, or as a psychometric intelligence test. It is targeted at both humans and artificially intelligent systems that aim at emulating a human-like form of general fluid intelligence.\"*\n\nA foundational description of the dataset, its goals, and its underlying logic, can be found in: [On the Measure of Intelligence](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.01547), the [ARC-AGI-2 Presentation](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F1hQrGh5YI6MK3PalQYSQs4CQERrYBQZue8PBLjjHIMgI\u002Fedit?usp=sharing) and [ARC-AGI-2 Technical Report](http:\u002F\u002Farcprize.org\u002Fblog\u002Farc-agi-2-technical-report)\n\n## Dataset composition\n\nARC-AGI-2 contains 1,000 public training tasks and 120 public evaluation tasks.\n\nThe training tasks are intended to demonstrate the task format and the Core Knowledge priors used by ARC-AGI. They can be used for training AI models.\nThe public evaluation tasks are intended for testing AI models that have never seen these tasks before. Average human performance on these tasks in our test sample was 66%.\n\nARC-AGI-2 also features two private test sets not included in the repo:\n\n- A semi-private set intended for testing remotely-hosted commercial models with low leakage probability. It is calibrated to be the same human-facing difficulty as the public evaluation set.\n- A fully-private set intended for testing self-contained models during the ARC Prize competition, with near-zeo leakage probability. It is also calibrated to be the same difficulty.\n\nThis multi-tiered structure allows for both open research and a secure, high-stakes competition.\n\n## Task success criterion\n\nA test-taker is said to solve a task when, upon seeing the task for the first time, they are able to produce the correct output grid for *all* test inputs in the task (this includes picking the dimensions of the output grid). For each test input, the test-taker is allowed 2 trials (this holds for all test-takers, either humans or AI).\n\n## Task file format\n\nThe `data` directory contains two subdirectories:\n\n- `data\u002Ftraining`: contains the task files for training (1000 tasks). Use these to prototype your algorithm or to train your algorithm to acquire ARC-relevant cognitive priors. This set combines tasks from ARC-AGI-1 as well as new tasks.\n- `data\u002Fevaluation`: contains the task files for evaluation (120 tasks). Use these to evaluate your final algorithm. To ensure fair evaluation results, do not leak information from the evaluation set into your algorithm (e.g. by looking at the evaluation tasks yourself during development, or by repeatedly modifying an algorithm while using its evaluation score as feedback). Each task in `evaluation` has been solved by a minimum of 2 people (many tasks were solved by more) in 2 attempts or less in a controlled test.\n\nThe tasks are stored in JSON format. Each task JSON file contains a dictionary with two fields:\n\n- `\"train\"`: demonstration input\u002Foutput pairs. It is a list of \"pairs\" (typically 3 pairs).\n- `\"test\"`: test input\u002Foutput pairs. It is a list of \"pairs\" (typically 1-2 pair).\n\nA \"pair\" is a dictionary with two fields:\n\n- `\"input\"`: the input \"grid\" for the pair.\n- `\"output\"`: the output \"grid\" for the pair.\n\nA \"grid\" is a rectangular matrix (list of lists) of integers between 0 and 9 (inclusive). The smallest possible grid size is 1x1 and the largest is 30x30.\n\nWhen looking at a task, a test-taker has access to inputs & outputs of the demonstration pairs, plus the input(s) of the test pair(s). The goal is to construct the output grid(s) corresponding to the test input grid(s), using 3 trials for each test input. \"Constructing the output grid\" involves picking the height and width of the output grid, then filling each cell in the grid with a symbol (integer between 0 and 9, which are visualized as colors). Only *exact* solutions (all cells match the expected answer) can be said to be correct.\n\n\n## Usage of the testing interface\n\nYou can view tasks on [ARCPrize.org\u002Fplay](https:\u002F\u002Farcprize.org\u002Fplay) or clone the [ARC-AGI-1 testing interface](https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Ftree\u002Fmaster\u002Fapps). Open it in a web browser (Chrome recommended). It will prompt you to select a task JSON file.\n\nAfter loading a task, you will enter the test space, which looks like this:\n\n![test space](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Farcprize_ARC-AGI-2_readme_5641e9b41f17.png)\n\nOn the left, you will see the input\u002Foutput pairs demonstrating the nature of the task. In the middle, you will see the current test input grid. On the right, you will see the controls you can use to construct the corresponding output grid.\n\nYou have access to the following tools:\n\n### Grid controls\n\n- Resize: input a grid size (e.g. \"10x20\" or \"4x4\") and click \"Resize\". This preserves existing grid content (in the top left corner).\n- Copy from input: copy the input grid to the output grid. This is useful for tasks where the output consists of some modification of the input.\n- Reset grid: fill the grid with 0s.\n\n### Symbol controls\n\n- Edit: select a color (symbol) from the color picking bar, then click on a cell to set its color.\n- Select: click and drag on either the output grid or the input grid to select cells.\n    - After selecting cells on the output grid, you can select a color from the color picking to set the color of the selected cells. This is useful to draw solid rectangles or lines.\n    - After selecting cells on either the input grid or the output grid, you can press C to copy their content. After copying, you can select a cell on the output grid and press \"V\" to paste the copied content. You should select the cell in the top left corner of the zone you want to paste into.\n- Floodfill: click on a cell from the output grid to color all connected cells to the selected color. \"Connected cells\" are contiguous cells with the same color.\n\n### Answer validation\n\nWhen your output grid is ready, click the green \"Submit!\" button to check your answer. We do not enforce the 2-trials rule.\n\nAfter you've obtained the correct answer for the current test input grid, you can switch to the next test input grid for the task using the \"Next test input\" button (if there is any available; most tasks only have one test input).\n\nWhen you're done with a task, use the \"load task\" button to open a new task.\n","# 用于通用人工智能的抽象与推理语料库 v2 (ARC-AGI-2)\n\n本仓库包含 ARC-AGI-2 任务数据（ARC-AGI-1 可在此处找到：[https:\u002F\u002Fgithub.com\u002Ffchollet\u002Farc-agi](https:\u002F\u002Fgithub.com\u002Ffchollet\u002Farc-agi)）。\n\n“ARC 既可被视为通用人工智能基准、程序合成基准，也可被视为心理测量学智力测试。它面向人类以及旨在模拟类似人类的广义流体智能的人工智能系统。”\n\n有关该数据集的基础性描述、其目标及其内在逻辑，请参阅：[论智力的度量](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.01547)、[ARC-AGI-2 演示文稿](https:\u002F\u002Fdocs.google.com\u002Fpresentation\u002Fd\u002F1hQrGh5YI6MK3PalQYSQs4CQERrYBQZue8PBLjjHIMgI\u002Fedit?usp=sharing) 和 [ARC-AGI-2 技术报告](http:\u002F\u002Farcprize.org\u002Fblog\u002Farc-agi-2-technical-report)。\n\n## 数据集构成\n\nARC-AGI-2 包含 1,000 个公开训练任务和 120 个公开评估任务。\n\n训练任务旨在展示任务格式以及 ARC-AGI 所使用的核心知识先验。它们可用于训练 AI 模型。\n公开评估任务则用于测试从未见过这些任务的 AI 模型。在我们的测试样本中，人类在这类任务上的平均表现约为 66%。\n\nARC-AGI-2 还包含两个未收录于本仓库的私有测试集：\n\n- 半私有测试集，用于测试远程托管的商业模型，且信息泄露概率较低。其难度与公开评估集相当，面向人类。\n- 完全私有测试集，用于在 ARC 大奖赛期间测试自包含模型，信息泄露几乎为零。其难度同样与上述测试集一致。\n\n这种多层次结构既支持开放式研究，也能够举办安全、高风险的比赛。\n\n## 任务成功标准\n\n当应试者首次看到某项任务时，若能针对该任务中的所有测试输入生成正确的输出网格（包括确定输出网格的尺寸），则视为成功解决该任务。对于每个测试输入，应试者共有两次尝试机会（无论其是人类还是 AI）。\n\n## 任务文件格式\n\n`data` 目录下包含两个子目录：\n\n- `data\u002Ftraining`：包含用于训练的任务文件（共 1,000 个）。可用于算法原型开发或训练算法以习得与 ARC 相关的认知先验。该集合结合了 ARC-AGI-1 中的任务以及新增任务。\n- `data\u002Fevaluation`：包含用于评估的任务文件（共 120 个）。可用于评估最终算法。为确保评估结果的公正性，请勿将评估集中的信息泄露至您的算法中（例如，在开发过程中自行查看评估任务，或反复调整算法并以评估分数作为反馈）。`evaluation` 中的每项任务均已在受控测试环境下由至少 2 人以不超过 2 次尝试成功解决；许多任务甚至被更多人完成。\n\n任务以 JSON 格式存储。每个任务的 JSON 文件包含一个字典，内含两个字段：\n\n- `\"train\"`：演示用输入\u002F输出对。为一个“对”列表（通常 3 组）。\n- `\"test\"`：测试用输入\u002F输出对。为一个“对”列表（通常 1–2 组）。\n\n“对”是一个包含两个字段的字典：\n\n- `\"input\"`：该对的输入“网格”。\n- `\"output\"`：该对的输出“网格”。\n\n“网格”是由 0 至 9 之间的整数（含 0 和 9）组成的矩形矩阵（列表的列表）。最小网格尺寸为 1×1，最大为 30×30。\n\n在查看任务时，应试者可以访问演示对的输入与输出，以及测试对的输入。目标是为每个测试输入构建相应的输出网格，每项测试输入有 3 次尝试机会。“构建输出网格”包括确定输出网格的高度和宽度，然后用符号（0 至 9 之间的整数，以颜色表示）填充网格中的每个单元格。只有完全准确的解答（所有单元格均与预期答案一致）才被视为正确。\n\n## 测试界面使用说明\n\n您可以在 [ARCPrize.org\u002Fplay](https:\u002F\u002Farcprize.org\u002Fplay) 上查看任务，或克隆 [ARC-AGI-1 测试界面](https:\u002F\u002Fgithub.com\u002Ffchollet\u002FARC-AGI\u002Ftree\u002Fmaster\u002Fapps)。请在网页浏览器中打开（推荐使用 Chrome）。系统会提示您选择一个任务 JSON 文件。\n\n加载任务后，您将进入测试空间，界面如下所示：\n\n![测试空间](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Farcprize_ARC-AGI-2_readme_5641e9b41f17.png)\n\n左侧显示演示输入\u002F输出对，帮助您理解任务性质。中间显示当前的测试输入网格。右侧则是用于构建相应输出网格的操作控件。\n\n您可以使用以下工具：\n\n### 网格控制\n- 调整大小：输入所需的网格尺寸（如“10×20”或“4×4”），然后点击“调整大小”。此操作会保留左上角已有的网格内容。\n- 从输入复制：将输入网格的内容复制到输出网格。这在输出是对输入进行某种修改的任务中非常有用。\n- 重置网格：将网格全部填充为 0。\n\n### 符号控制\n- 编辑：从颜色选择栏中选取一种颜色，然后单击某个单元格以设置其颜色。\n- 选择：在输出网格或输入网格上单击并拖动以选择单元格。\n    - 在输出网格上选中单元格后，可以从颜色选择栏中选取一种颜色来设置所选单元格的颜色。这对于绘制实心矩形或线条很有用。\n    - 在输入网格或输出网格上选中单元格后，按下 C 键即可复制其内容。随后在输出网格上选中目标单元格，并按下 V 键即可粘贴复制的内容。请注意，应将粘贴内容放置在目标区域的左上角。\n- 漏斗填充：单击输出网格中的某个单元格，将其及与其相连的同色单元格全部填充为选定的颜色。“相连的单元格”是指颜色相同且彼此相邻的单元格。\n\n### 答案验证\n当您的输出网格准备就绪时，点击绿色的“提交！”按钮以检验答案。我们不强制执行两次尝试的规则。\n\n在为当前测试输入网格获得正确答案后，您可以使用“下一个测试输入”按钮切换到该任务的下一个测试输入网格（如有；大多数任务只有一个测试输入）。\n\n完成一项任务后，使用“加载任务”按钮即可打开新任务。","# ARC-AGI-2 快速上手指南\n\nARC-AGI-2 是一个用于评估人工通用智能（AGI）的抽象与推理数据集。它通过网格变换任务测试系统的核心知识先验和流体智力。本指南帮助开发者快速配置环境并理解数据格式。\n\n## 环境准备\n\n本项目主要为数据集仓库，无需复杂的系统依赖，但建议具备以下环境以便进行数据处理和模型开发：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：推荐 Python 3.8 及以上\n*   **前置依赖**：\n    *   `git`：用于克隆仓库\n    *   `json` 库：Python 标准库，用于解析任务文件\n    *   (可选) `numpy` 或 `torch`：用于构建和训练 AI 模型处理网格数据\n\n> **注意**：国内开发者若遇到 GitHub 克隆速度慢的问题，可使用国内镜像源（如 Gitee 镜像）或配置代理加速。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    使用终端执行以下命令获取最新数据：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Ffchollet\u002Farc-agi-2.git\n    cd arc-agi-2\n    ```\n\n2.  **验证数据结构**\n    进入目录后，确认 `data` 文件夹包含训练和评估子集：\n    ```bash\n    ls data\u002Ftraining | head\n    ls data\u002Fevaluation | head\n    ```\n    *   `data\u002Ftraining`：包含 1,000 个公开训练任务。\n    *   `data\u002Fevaluation`：包含 120 个公开评估任务（请勿在开发过程中泄露此部分数据）。\n\n## 基本使用\n\nARC-AGI-2 的任务以 JSON 格式存储。每个文件包含演示对（train）和测试对（test）。\n\n### 1. 读取任务文件示例\n\n以下 Python 代码展示了如何加载并解析一个任务文件：\n\n```python\nimport json\nimport os\n\n# 指定任务文件路径 (以训练集第一个任务为例)\ntask_path = 'data\u002Ftraining\u002F00d62c1b.json'\n\nwith open(task_path, 'r') as f:\n    task = json.load(f)\n\n# 访问训练演示数据 (通常为 3 组输入输出对)\ntrain_pairs = task['train']\nfirst_demo = train_pairs[0]\ninput_grid = first_demo['input']\noutput_grid = first_demo['output']\n\nprint(f\"输入网格尺寸：{len(input_grid)}x{len(input_grid[0])}\")\nprint(f\"输出网格尺寸：{len(output_grid)}x{len(output_grid[0])}\")\nprint(\"输入网格前几行:\", input_grid[:2])\n```\n\n### 2. 数据格式说明\n\n*   **Grid (网格)**：由 0-9 的整数组成的二维列表（List of Lists），代表不同颜色。\n    *   最小尺寸：1x1\n    *   最大尺寸：30x30\n*   **Task Structure**:\n    *   `\"train\"`: 演示用的输入\u002F输出对列表，用于让模型学习规律。\n    *   `\"test\"`: 测试用的输入列表。**目标**是根据输入生成完全匹配的输出网格（尺寸和内容均需精确匹配）。\n\n### 3. 在线测试与可视化\n\n若需手动测试算法效果或观察任务细节，推荐使用官方提供的 Web 界面：\n\n1.  访问 [ARCPrize.org\u002Fplay](https:\u002F\u002Farcprize.org\u002Fplay)。\n2.  点击加载本地 JSON 任务文件。\n3.  利用界面左侧的演示对理解规律，在右侧网格中绘制答案并提交验证。\n\n> **提示**：在开发算法时，请严格遵守评估规范，不要将 `evaluation` 集的数据用于训练或直接反馈调整参数，以确保评测结果的公正性。","某 AI 实验室团队正在研发具备通用推理能力的新型模型，急需验证其是否能像人类一样通过少量示例掌握抽象规律。\n\n### 没有 ARC-AGI-2 时\n- **评估标准模糊**：团队依赖传统的 NLP 或图像识别基准测试，这些任务多基于统计规律，无法真实反映模型“举一反三”的流体智力水平。\n- **过拟合风险高**：由于缺乏严格隔离的测试集，开发人员容易在调试过程中无意让模型“偷看”测试数据，导致评分虚高但实际泛化能力差。\n- **人类基准缺失**：难以判断模型表现是否接近人类智能，因为缺少经过严格控制的人类解题数据（如平均 66% 的正确率）作为对标参考。\n- **竞赛公平性难保**：若举办高水平算法竞赛，缺乏多层级保密测试集（半私有\u002F全私有），难以防止数据泄露，无法筛选出真正具备原创推理能力的方案。\n\n### 使用 ARC-AGI-2 后\n- **精准度量智力**：利用 120 个公开评估任务及配套的私有测试集，直接检验模型在面对从未见过的逻辑谜题时，能否仅凭 3 个示例推导正确输出。\n- **杜绝数据泄露**：借助其独特的半私有和全私有测试集架构，确保商业模型和参赛算法在完全盲测环境下运行，保证评估结果的真实性与公正性。\n- **确立人类标尺**：直接对比模型得分与人类受试者在相同任务下的表现（2 次尝试内的成功率），清晰量化模型距离“类人通用智能”的真实差距。\n- **规范研发流程**：明确的训练集（1000 题）与评估集界限，迫使团队专注于提取核心认知先验而非死记硬背，引导算法向真正的抽象推理演进。\n\nARC-AGI-2 通过构建严谨的多层级测试体系，将通用人工智能的评估从“记忆力的比拼”转变为对“抽象推理本质”的真实考量。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Farcprize_ARC-AGI-2_5641e9b4.png","arcprize","ARC Prize Foundation","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Farcprize_070405e1.jpg","Home Of ARC Prize Foundation","team@arcprize.org","https:\u002F\u002Farcprize.org\u002F","https:\u002F\u002Fgithub.com\u002Farcprize",691,98,"2026-04-16T12:58:21","Apache-2.0","","未说明",{"notes":90,"python":88,"dependencies":91},"该仓库主要包含 ARC-AGI-2 的任务数据（JSON 格式），而非可直接运行的 AI 模型代码或训练脚本，因此 README 中未列出具体的操作系统、GPU、内存、Python 版本或依赖库要求。用户需自行开发算法来读取 data 目录下的 JSON 文件进行训练或评估。官方提供了一个基于 Web 浏览器的测试界面用于手动解题或验证算法输出，推荐使用 Chrome 浏览器访问本地文件或在线平台。",[],[18],"2026-03-27T02:49:30.150509","2026-04-20T16:37:12.997278",[],[]]