[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-DeepWisdom--AutoDL":3,"tool-DeepWisdom--AutoDL":62},[4,18,26,36,46,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",158594,2,"2026-04-16T23:34:05",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":42,"last_commit_at":43,"category_tags":44,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,45],"插件",{"id":47,"name":48,"github_repo":49,"description_zh":50,"stars":51,"difficulty_score":32,"last_commit_at":52,"category_tags":53,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108322,"2026-04-10T11:39:34",[14,15,13],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":32,"last_commit_at":60,"category_tags":61,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[45,13,15,14],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":76,"owner_email":76,"owner_twitter":76,"owner_website":76,"owner_url":77,"languages":78,"stars":83,"forks":84,"last_commit_at":85,"license":86,"difficulty_score":87,"env_os":88,"env_gpu":89,"env_ram":90,"env_deps":91,"category_tags":98,"github_topics":100,"view_count":32,"oss_zip_url":76,"oss_zip_packed_at":76,"status":17,"created_at":121,"updated_at":122,"faqs":123,"releases":154},8287,"DeepWisdom\u002FAutoDL","AutoDL","Automated Deep Learning without ANY human intervention. 1'st Solution for AutoDL challenge@NeurIPS. ","AutoDL 是一款致力于实现“零人工干预”的自动化深度学习开源框架。作为 NeurIPS AutoDL 挑战赛的冠军方案，它能够自动处理图像、视频、音频、文本及表格数据等多种模态，一站式解决二分类、多分类及多标签分类等复杂任务。\n\n传统深度学习往往需要专家耗费大量精力进行数据清洗、特征工程、模型选型及超参数调优，而 AutoDL 将这些繁琐步骤完全自动化。用户只需准备好数据并启动程序，系统便会智能搜索最优网络结构与参数，最快仅需十秒即可输出高性能分类器，并实时反馈学习效果。这不仅大幅降低了技术门槛，也显著提升了研发效率。\n\n该工具特别适合希望快速验证想法的算法研究人员、缺乏充足调参资源的开发者，以及需要处理多模态数据的企业团队。其核心亮点在于极强的通用性与自适应能力，内置了从传统机器学习模型到 ResNet、BERT 等前沿深度模型的优选库，能灵活应对数据倾斜、小样本及资源受限等现实难题。无论是构建人脸识别、情感分析系统，还是优化推荐引擎，AutoDL 都能让使用者在享受一杯咖啡的时间内，获得具备竞争力的模型成果。","[English](.\u002FREADME_EN.md) | 简体中文\n\n\u003Cp align=\"center\">\n\n[![HitCount](http:\u002F\u002Fhits.dwyl.com\u002FDeepWisdom\u002FAutoDL.svg)](http:\u002F\u002Fhits.dwyl.com\u002FDeepWisdom\u002FAutoDL)\n![GitHub All Releases](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FDeepWisdom\u002FAutoDL\u002Ftotal)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues)\n![GitHub closed issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FDeepWisdom\u002FAutoDL)\n[![GitHub forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fnetwork)\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fstargazers)\n![GitHub release (latest by date)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fdeepwisdom\u002FAutoDL)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fmaster\u002FLICENSE)\n![img](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.5-brightgreen)\n[![img](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-wechat-green)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL#%E5%8A%A0%E5%85%A5%E7%A4%BE%E5%8C%BA)\n\u003C\u002Fp>\n\n\n\n\u003C!-- # NeurIPS AutoDL Challenge 冠军方案 -->\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_a5562971a300.png)\n\n[AutoDL Challenge@NeurIPS](https:\u002F\u002Fautodl.chalearn.org\u002Fneurips2019) 冠军方案，竞赛细节参见 [AutoDL Competition](https:\u002F\u002Fautodl.lri.fr\u002Fcompetitions\u002F162)。\n\n# 1. AutoDL是什么？\n\nAutoDL聚焦于自动进行任意模态（图像、视频、语音、文本、表格数据）多标签分类的通用算法，可以用一套标准算法流解决现实世界的复杂分类问题，解决调数据、特征、模型、超参等烦恼，最短10秒就可以做出性能优异的分类器。本工程在**不同领域的24个离线数据集、15个线上数据集都获得了极为优异的成绩**。AutoDL拥有以下特性：\n\n☕ **全自动**：全自动深度学习\u002F机器学习框架，全流程无需人工干预。数据、特征、模型的所有细节都已调节至最佳，统一解决了资源受限、数据倾斜、小数据、特征工程、模型选型、网络结构优化、超参搜索等问题。**只需要准备数据，开始AutoDL，然后喝一杯咖啡**。\n\n🌌 **通用性**：支持**任意**模态，包括图像、视频、音频、文本和结构化表格数据，支持**任意多标签分类问题**，包括二分类、多分类、多标签分类。它在**不同领域**都获得了极其优异的成绩，如行人识别、行人动作识别、人脸识别、声纹识别、音乐分类、口音分类、语言分类、情感分类、邮件分类、新闻分类、广告优化、推荐系统、搜索引擎、精准营销等等。\n\n👍 **效果出色**：AutoDL竞赛获得压倒性优势的冠军方案，包含对传统机器学习模型和最新深度学习模型支持。模型库包括从LR\u002FSVM\u002FLGB\u002FCGB\u002FXGB到ResNet*\u002FMC3\u002FDNN\u002FThinResnet*\u002FTextCNN\u002FRCNN\u002FGRU\u002FBERT等优选出的冠军模型。\n\n⚡ **极速\u002F实时**：最快只需十秒即可获得极具竞争力的模型性能。结果实时刷新（秒级），无需等待即可获得模型实时效果反馈。\n\n# 2. 目录\n\u003C!-- TOC -->\n\n- [1. AutoDL是什么？](#1-autodl是什么)\n- [2. 目录](#2-目录)\n- [3. 效果](#3-效果)\n- [4. AutoDL竞赛使用说明](#4-autodl竞赛使用说明)\n    - [4.1. 使用效果示例（横轴为对数时间轴，纵轴为AUC）](#41-使用效果示例横轴为对数时间轴纵轴为auc)\n- [5. 安装](#5-安装)\n    - [5.1. pip 安装](#51-pip-安装)\n- [6. 快速上手](#6-快速上手)\n    - [6.1. 快速上手之AutoDL本地效果测试](#61-快速上手之autodl本地效果测试)\n    - [6.2. 快速上手之图像分类](#62-快速上手之图像分类)\n    - [6.3. 快速上手之视频分类](#63-快速上手之视频分类)\n    - [6.4. 快速上手之音频分类](#64-快速上手之音频分类)\n    - [6.5. 快速上手之文本分类](#65-快速上手之文本分类)\n    - [6.6. 快速上手之表格分类](#66-快速上手之表格分类)\n- [7. 可用数据集](#7-可用数据集)\n    - [7.1. (可选) 下载数据集](#71-可选-下载数据集)\n    - [7.2. 公共数据集信息](#72-公共数据集信息)\n- [8. 贡献代码](#8-贡献代码)\n- [9. 加入社区](#9-加入社区)\n- [10. 开源协议](#10-开源协议)\n\n\u003C!-- \u002FTOC -->\n\n\n# 3. 效果\n- **预赛榜单（DeepWisdom总分第一，平均排名1.2，在5个数据集中取得了4项第一）**\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_dc5250b9b506.png)\n\n- **决赛榜单（DeepWisdom总分第一，平均排名1.8，在10个数据集中取得了7项第一）**\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_4412d491bcfe.png)\n\n\n# 4. AutoDL竞赛使用说明\n\n1. 基础环境\n    ```shell script\n    python>=3.5\n    CUDA 10\n    cuDNN 7.5\n    ```\n\n2. clone仓库 \n    ```\n    cd \u003Cpath_to_your_directory>\n    git clone https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL.git\n    ```\n3. 预训练模型准备\n下载模型 [speech_model.h5](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Freleases\u002Fdownload\u002Fopensource\u002Fthin_resnet34.h5) 放至 `AutoDL_sample_code_submission\u002Fat_speech\u002Fpretrained_models\u002F` 目录。\n\n4. 可选：使用与竞赛同步的docker环境 \n    - CPU\n    ```\n    cd path\u002Fto\u002Fautodl\u002F\n    docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:cpu-latest\n    ```\n    - GPU\n    ```\n    nvidia-docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:gpu-latest\n    ```\n5. 数据集准备：使用 `AutoDL_sample_data` 中样例数据集，或批量下载竞赛公开数据集。\n\n6. 进行本地测试\n    ```\n    python run_local_test.py\n    ```\n本地测试完整使用。\n    ```\n    python run_local_test.py -dataset_dir='AutoDL_sample_data\u002Fminiciao' -code_dir='AutoDL_sample_code_submission'\n    ```\n您可在 `AutoDL_scoring_output\u002F` 目录中查看实时学习曲线反馈的HTML页面。\n\n细节可参考 [AutoDL Challenge official starting_kit](https:\u002F\u002Fgithub.com\u002Fzhengying-liu\u002Fautodl_starting_kit_stable).\n\n## 4.1. 使用效果示例（横轴为对数时间轴，纵轴为AUC）\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_56f78878f2dc.png)\n\n可以看出，在五个不同模态的数据集下，AutoDL算法流都获得了极为出色的全时期效果，可以在极短的时间内达到极高的精度。\n\n# 5. 安装 \n\n本仓库在 Python 3.6+, PyTorch 1.3.1 和 TensorFlow 1.15上测试.\n\n你应该在[虚拟环境](https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html) 中安装autodl。\n如果对虚拟环境不熟悉，请看 [用户指导](https:\u002F\u002Fpackaging.python.org\u002Fguides\u002Finstalling-using-pip-and-virtual-environments\u002F).\n\n用合适的Python版本创建虚拟环境，然后激活它。\n\n## 5.1 windows10 安装过程\n### 5.1.1 安装 cuda 10.0 和 cudnn v7.6.2.24\n- [CUDA 10.0下载](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-10.0-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal)\n- [cuDNN下载](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.2 安装 Miniconda3-4.5.4-Windows-x86_64.exe\n- [Miniconda3-4.5.4-Windows-x86_64.exe](https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-4.5.4-Windows-x86_64.exe)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.3 安装 visualcppbuildtools_full.exe\n- [visualcppbuildtools_full.exe](http:\u002F\u002Fgo.microsoft.com\u002Ffwlink\u002F?LinkId=691126)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.4 创建 `start_env.bat` 文件\n\n- 将其移动到安装的 `Miniconda3` 同级目录下\n```bash\ncmd.exe \"\u002FK\" .\\Miniconda3\\Scripts\\activate.bat .\\Miniconda3\n```\n\n### 5.1.5 双击 `start_env.bat` 安装 autodl-gpu\n```bash\nconda install pytorch==1.3.1\nconda install torchvision -c pytorch\npip install autodl-gpu\n```\n## 5.2 Linux安装\n```bash\npip install autodl-gpu\n```\n\n# 6. 快速上手\n## 6.1. 快速上手之AutoDL本地效果测试\n指导参见 [快速上手之AutoDL本地效果测试](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Frun_local_test_tutorial_chn.md)，样例代码参见 [examples\u002Frun_local_test.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_local_test.py)\n\n## 6.2. 快速上手之图像分类\n参见 [快速上手之图像分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fimage_classification_tutorial_chn.md)，样例代码参见 [examples\u002Frun_image_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_image_classification_example.py)\n\n## 6.3. 快速上手之视频分类\n指导参见 [快速上手之视频分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fvideo_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_video_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_video_classification_example.py)\n\n## 6.4. 快速上手之音频分类\n指导参见 [快速上手之音频分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fspeech_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_speech_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_speech_classification_example.py)\n\n## 6.5. 快速上手之文本分类\n指导参见 [快速上手之文本分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Ftext_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_text_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_text_classification_example.py)。\n\n## 6.6. 快速上手之表格分类\n指导参见 [快速上手之表格分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Ftabular_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_tabular_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_tabular_classification_example.py).\n\n\n# 7. 可用数据集\n## 7.1. (可选) 下载数据集\n```bash\npython download_public_datasets.py\n```\n\n## 7.2. 公共数据集信息\n| #   | Name     | Type    | Domain   | Size   | Source      | Data (w\u002Fo test labels) | Test labels       |\n| --- | -------- | ------- | -------- | ------ | ----------- | ---------------------- | ----------------- |\n| 1   | Munster  | Image   | HWR      | 18 MB  | MNIST       | munster.data           | munster.solution  |\n| 2   | City     | Image   | Objects  | 128 MB | Cifar-10    | city.data              | city.solution     |\n| 3   | Chucky   | Image   | Objects  | 128 MB | Cifar-100   | chucky.data            | chucky.solution   |\n| 4   | Pedro    | Image   | People   | 377 MB | PA-100K     | pedro.data             | pedro.solution    |\n| 5   | Decal    | Image   | Aerial   | 73 MB  | NWPU VHR-10 | decal.data             | decal.solution    |\n| 6   | Hammer   | Image   | Medical  | 111 MB | Ham10000    | hammer.data            | hammer.solution   |\n| 7   | Kreatur  | Video   | Action   | 469 MB | KTH         | kreatur.data           | kreatur.solution  |\n| 8   | Kreatur3 | Video   | Action   | 588 MB | KTH         | kreatur3.data          | kreatur3.solution |\n| 9   | Kraut    | Video   | Action   | 1.9 GB | KTH         | kraut.data             | kraut.solution    |\n| 10  | Katze    | Video   | Action   | 1.9 GB | KTH         | katze.data             | katze.solution    |\n| 11  | data01   | Speech  | Speaker  | 1.8 GB | --          | data01.data            | data01.solution   |\n| 12  | data02   | Speech  | Emotion  | 53 MB  | --          | data02.data            | data02.solution   |\n| 13  | data03   | Speech  | Accent   | 1.8 GB | --          | data03.data            | data03.solution   |\n| 14  | data04   | Speech  | Genre    | 469 MB | --          | data04.data            | data04.solution   |\n| 15  | data05   | Speech  | Language | 208 MB | --          | data05.data            | data05.solution   |\n| 16  | O1       | Text    | Comments | 828 KB | --          | O1.data                | O1.solution       |\n| 17  | O2       | Text    | Emotion  | 25 MB  | --          | O2.data                | O2.solution       |\n| 18  | O3       | Text    | News     | 88 MB  | --          | O3.data                | O3.solution       |\n| 19  | O4       | Text    | Spam     | 87 MB  | --          | O4.data                | O4.solution       |\n| 20  | O5       | Text    | News     | 14 MB  | --          | O5.data                | O5.solution       |\n| 21  | Adult    | Tabular | Census   | 2 MB   | Adult       | adult.data             | adult.solution    |\n| 22  | Dilbert  | Tabular | --       | 162 MB | --          | dilbert.data           | dilbert.solution  |\n| 23  | Digits   | Tabular | HWR      | 137 MB | MNIST       | digits.data            | digits.solution   |\n| 24  | Madeline | Tabular | --       | 2.6 MB | --          | madeline.data          | madeline.solution |\n\n\n# 8. 贡献代码 \n\n❤️ 请毫不犹豫参加贡献 [Open an issue](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002Fnew) 或提交 PRs。\n\n# 9. 加入社区\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_6d1bd319f3b8.png\" width = \"500\" height = \"180\" alt=\"AutoDL社区\" align=center \u002F>\n\n# 10. 开源协议 \n[Apache License 2.0](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fmaster\u002FLICENSE)\n","[English](.\u002FREADME_EN.md) | 简体中文\n\n\u003Cp align=\"center\">\n\n[![HitCount](http:\u002F\u002Fhits.dwyl.com\u002FDeepWisdom\u002FAutoDL.svg)](http:\u002F\u002Fhits.dwyl.com\u002FDeepWisdom\u002FAutoDL)\n![GitHub All Releases](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fdownloads\u002FDeepWisdom\u002FAutoDL\u002Ftotal)\n[![GitHub issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues)\n![GitHub closed issues](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fissues-closed\u002FDeepWisdom\u002FAutoDL)\n[![GitHub forks](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fforks\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fnetwork)\n[![GitHub stars](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fstars\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fstargazers)\n![GitHub release (latest by date)](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Fv\u002Frelease\u002Fdeepwisdom\u002FAutoDL)\n[![GitHub license](https:\u002F\u002Fimg.shields.io\u002Fgithub\u002Flicense\u002FDeepWisdom\u002FAutoDL)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fmaster\u002FLICENSE)\n![img](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fpython-3.5-brightgreen)\n[![img](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fchat-wechat-green)](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL#%E5%8A%A0%E5%85%A5%E7%A4%BE%E5%8C%BA)\n\u003C\u002Fp>\n\n\n\n\u003C!-- # NeurIPS AutoDL Challenge 冠军方案 -->\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_a5562971a300.png)\n\n[AutoDL Challenge@NeurIPS](https:\u002F\u002Fautodl.chalearn.org\u002Fneurips2019) 冠军方案，竞赛细节参见 [AutoDL Competition](https:\u002F\u002Fautodl.lri.fr\u002Fcompetitions\u002F162)。\n\n# 1. AutoDL是什么？\n\nAutoDL聚焦于自动进行任意模态（图像、视频、语音、文本、表格数据）多标签分类的通用算法，可以用一套标准算法流解决现实世界的复杂分类问题，解决调数据、特征、模型、超参等烦恼，最短10秒就可以做出性能优异的分类器。本工程在**不同领域的24个离线数据集、15个线上数据集都获得了极为优异的成绩**。AutoDL拥有以下特性：\n\n☕ **全自动**：全自动深度学习\u002F机器学习框架，全流程无需人工干预。数据、特征、模型的所有细节都已调节至最佳，统一解决了资源受限、数据倾斜、小数据、特征工程、模型选型、网络结构优化、超参搜索等问题。**只需要准备数据，开始AutoDL，然后喝一杯咖啡**。\n\n🌌 **通用性**：支持**任意**模态，包括图像、视频、音频、文本和结构化表格数据，支持**任意多标签分类问题**，包括二分类、多分类、多标签分类。它在**不同领域**都获得了极其优异的成绩，如行人识别、行人动作识别、人脸识别、声纹识别、音乐分类、口音分类、语言分类、情感分类、邮件分类、新闻分类、广告优化、推荐系统、搜索引擎、精准营销等等。\n\n👍 **效果出色**：AutoDL竞赛获得压倒性优势的冠军方案，包含对传统机器学习模型和最新深度学习模型支持。模型库包括从LR\u002FSVM\u002FLGB\u002FCGB\u002FXGB到ResNet*\u002FMC3\u002FDNN\u002FThinResnet*\u002FTextCNN\u002FRCNN\u002FGRU\u002FBERT等优选出的冠军模型。\n\n⚡ **极速\u002F实时**：最快只需十秒即可获得极具竞争力的模型性能。结果实时刷新（秒级），无需等待即可获得模型实时效果反馈。\n\n# 2. 目录\n\u003C!-- TOC -->\n\n- [1. AutoDL是什么？](#1-autodl是什么)\n- [2. 目录](#2-目录)\n- [3. 效果](#3-效果)\n- [4. AutoDL竞赛使用说明](#4-autodl竞赛使用说明)\n    - [4.1. 使用效果示例（横轴为对数时间轴，纵轴为AUC）](#41-使用效果示例横轴为对数时间轴纵轴为auc)\n- [5. 安装](#5-安装)\n    - [5.1. pip 安装](#51-pip-安装)\n- [6. 快速上手](#6-快速上手)\n    - [6.1. 快速上手之AutoDL本地效果测试](#61-快速上手之autodl本地效果测试)\n    - [6.2. 快速上手之图像分类](#62-快速上手之图像分类)\n    - [6.3. 快速上手之视频分类](#63-快速上手之视频分类)\n    - [6.4. 快速上手之音频分类](#64-快速上手之音频分类)\n    - [6.5. 快速上手之文本分类](#65-快速上手之文本分类)\n    - [6.6. 快速上手之表格分类](#66-快速上手之表格分类)\n- [7. 可用数据集](#7-可用数据集)\n    - [7.1. (可选) 下载数据集](#71-可选-下载数据集)\n    - [7.2. 公共数据集信息](#72-公共数据集信息)\n- [8. 贡献代码](#8-贡献代码)\n- [9. 加入社区](#9-加入社区)\n- [10. 开源协议](#10-开源协议)\n\n\u003C!-- \u002FTOC -->\n\n\n# 3. 效果\n- **预赛榜单（DeepWisdom总分第一，平均排名1.2，在5个数据集中取得了4项第一）**\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_dc5250b9b506.png)\n\n- **决赛榜单（DeepWisdom总分第一，平均排名1.8，在10个数据集中取得了7项第一）**\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_4412d491bcfe.png)\n\n\n# 4. AutoDL竞赛使用说明\n\n1. 基础环境\n    ```shell script\n    python>=3.5\n    CUDA 10\n    cuDNN 7.5\n    ```\n\n2. clone仓库 \n    ```\n    cd \u003Cpath_to_your_directory>\n    git clone https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL.git\n    ```\n3. 预训练模型准备\n下载模型 [speech_model.h5](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Freleases\u002Fdownload\u002Fopensource\u002Fthin_resnet34.h5) 放至 `AutoDL_sample_code_submission\u002Fat_speech\u002Fpretrained_models\u002F` 目录。\n\n4. 可选：使用与竞赛同步的docker环境 \n    - CPU\n    ```\n    cd path\u002Fto\u002Fautodl\u002F\n    docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:cpu-latest\n    ```\n    - GPU\n    ```\n    nvidia-docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:gpu-latest\n    ```\n5. 数据集准备：使用 `AutoDL_sample_data` 中样例数据集，或批量下载竞赛公开数据集。\n\n6. 进行本地测试\n    ```\n    python run_local_test.py\n    ```\n本地测试完整使用。\n    ```\n    python run_local_test.py -dataset_dir='AutoDL_sample_data\u002Fminiciao' -code_dir='AutoDL_sample_code_submission'\n    ```\n您可在 `AutoDL_scoring_output\u002F` 目录中查看实时学习曲线反馈的HTML页面。\n\n细节可参考 [AutoDL Challenge official starting_kit](https:\u002F\u002Fgithub.com\u002Fzhengying-liu\u002Fautodl_starting_kit_stable).\n\n## 4.1. 使用效果示例（横轴为对数时间轴，纵轴为AUC）\n\n![img](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_56f78878f2dc.png)\n\n可以看出，在五个不同模态的数据集下，AutoDL算法流都获得了极为出色的全时期效果，可以在极短的时间内达到极高的精度。\n\n# 5. 安装 \n\n本仓库在 Python 3.6+, PyTorch 1.3.1 和 TensorFlow 1.15上测试.\n\n你应该在[虚拟环境](https:\u002F\u002Fdocs.python.org\u002F3\u002Flibrary\u002Fvenv.html) 中安装autodl。\n如果对虚拟环境不熟悉，请看 [用户指导](https:\u002F\u002Fpackaging.python.org\u002Fguides\u002Finstalling-using-pip-and-virtual-environments\u002F).\n\n用合适的Python版本创建虚拟环境，然后激活它。\n\n## 5.1 windows10 安装过程\n### 5.1.1 安装 cuda 10.0 和 cudnn v7.6.2.24\n- [CUDA 10.0下载](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-10.0-download-archive?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal)\n- [cuDNN下载](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.2 安装 Miniconda3-4.5.4-Windows-x86_64.exe\n- [Miniconda3-4.5.4-Windows-x86_64.exe](https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002FMiniconda3-4.5.4-Windows-x86_64.exe)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.3 安装 visualcppbuildtools_full.exe\n- [visualcppbuildtools_full.exe](http:\u002F\u002Fgo.microsoft.com\u002Ffwlink\u002F?LinkId=691126)\n- [百度云](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1BDP2gD7s-R0mcwXcFVe5Wg)  提取码：xb9x \n\n### 5.1.4 创建 `start_env.bat` 文件\n\n- 将其移动到安装的 `Miniconda3` 同级目录下\n```bash\ncmd.exe \"\u002FK\" .\\Miniconda3\\Scripts\\activate.bat .\\Miniconda3\n```\n\n### 5.1.5 双击 `start_env.bat` 安装 autodl-gpu\n```bash\nconda install pytorch==1.3.1\nconda install torchvision -c pytorch\npip install autodl-gpu\n```\n## 5.2 Linux安装\n```bash\npip install autodl-gpu\n```\n\n# 6. 快速上手\n## 6.1. 快速上手之AutoDL本地效果测试\n指导参见 [快速上手之AutoDL本地效果测试](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Frun_local_test_tutorial_chn.md)，样例代码参见 [examples\u002Frun_local_test.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_local_test.py)\n\n## 6.2. 快速上手之图像分类\n参见 [快速上手之图像分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fimage_classification_tutorial_chn.md)，样例代码参见 [examples\u002Frun_image_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_image_classification_example.py)\n\n## 6.3. 快速上手之视频分类\n指导参见 [快速上手之视频分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fvideo_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_video_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_video_classification_example.py)\n\n## 6.4. 快速上手之音频分类\n指导参见 [快速上手之音频分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Fspeech_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_speech_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_speech_classification_example.py)\n\n## 6.5. 快速上手之文本分类\n指导参见 [快速上手之文本分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Ftext_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_text_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_text_classification_example.py)。\n\n## 6.6. 快速上手之表格分类\n指导参见 [快速上手之表格分类](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002Ftabular_classification_tutorial_chn.md)，样例代码参见[examples\u002Frun_tabular_classification_example.py](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fpip\u002Fexamples\u002Frun_tabular_classification_example.py).\n\n\n# 7. 可用数据集\n## 7.1. (可选) 下载数据集\n```bash\npython download_public_datasets.py\n```\n\n## 7.2. 公共数据集信息\n| #   | 名称     | 类型    | 领域   | 大小   | 来源      | 数据（不含测试标签） | 测试标签       |\n| --- | -------- | ------- | -------- | ------ | ----------- | ---------------------- | ----------------- |\n| 1   | Munster  | 图像   | 手写字符识别      | 18 MB  | MNIST       | munster.data           | munster.solution  |\n| 2   | City     | 图像   | 物体识别  | 128 MB | Cifar-10    | city.data              | city.solution     |\n| 3   | Chucky   | 图像   | 物体识别  | 128 MB | Cifar-100   | chucky.data            | chucky.solution   |\n| 4   | Pedro    | 图像   | 人物识别   | 377 MB | PA-100K     | pedro.data             | pedro.solution    |\n| 5   | Decal    | 图像   | 航拍图像   | 73 MB  | NWPU VHR-10 | decal.data             | decal.solution    |\n| 6   | Hammer   | 图像   | 医疗图像   | 111 MB | Ham10000    | hammer.data            | hammer.solution   |\n| 7   | Kreatur  | 视频   | 动作识别   | 469 MB | KTH         | kreatur.data           | kreatur.solution  |\n| 8   | Kreatur3 | 视频   | 动作识别   | 588 MB | KTH         | kreatur3.data          | kreatur3.solution |\n| 9   | Kraut    | 视频   | 动作识别   | 1.9 GB | KTH         | kraut.data             | kraut.solution    |\n| 10  | Katze    | 视频   | 动作识别   | 1.9 GB | KTH         | katze.data             | katze.solution    |\n| 11  | data01   | 语音   | 发言人识别 | 1.8 GB | --          | data01.data            | data01.solution   |\n| 12  | data02   | 语音   | 情感识别   | 53 MB  | --          | data02.data            | data02.solution   |\n| 13  | data03   | 语音   | 口音识别   | 1.8 GB | --          | data03.data            | data03.solution   |\n| 14  | data04   | 语音   | 语种识别   | 469 MB | --          | data04.data            | data04.solution   |\n| 15  | data05   | 语音   | 语言识别   | 208 MB | --          | data05.data            | data05.solution   |\n| 16  | O1       | 文本   | 评论   | 828 KB | --          | O1.data                | O1.solution       |\n| 17  | O2       | 文本   | 情感分析   | 25 MB  | --          | O2.data                | O2.solution       |\n| 18  | O3       | 文本   | 新闻   | 88 MB  | --          | O3.data                | O3.solution       |\n| 19  | O4       | 文本   | 垃圾邮件过滤   | 87 MB  | --          | O4.data                | O4.solution       |\n| 20  | O5       | 文本   | 新闻   | 14 MB  | --          | O5.data                | O5.solution       |\n| 21  | Adult    | 表格   | 人口普查   | 2 MB   | Adult       | adult.data             | adult.solution    |\n| 22  | Dilbert  | 表格   | --       | 162 MB | --          | dilbert.data           | dilbert.solution  |\n| 23  | Digits   | 表格   | 手写字符识别      | 137 MB | MNIST       | digits.data            | digits.solution   |\n| 24  | Madeline | 表格   | --       | 2.6 MB | --          | madeline.data          | madeline.solution |\n\n\n# 8. 贡献代码 \n\n❤️ 请毫不犹豫参加贡献 [Open an issue](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002Fnew) 或提交 PRs。\n\n# 9. 加入社区\n\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_readme_6d1bd319f3b8.png\" width = \"500\" height = \"180\" alt=\"AutoDL社区\" align=center \u002F>\n\n# 10. 开源协议 \n[Apache License 2.0](https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fblob\u002Fmaster\u002FLICENSE)","# AutoDL 快速上手指南\n\nAutoDL 是一个全自动深度学习框架，支持图像、视频、音频、文本及表格数据的多标签分类。无需人工干预特征工程或模型选型，最短 10 秒即可构建高性能分类器。\n\n## 1. 环境准备\n\n在开始之前，请确保您的系统满足以下要求：\n\n*   **操作系统**: Linux 或 Windows 10\n*   **Python 版本**: >= 3.5 (推荐 3.6+)\n*   **GPU 环境 (可选但推荐)**:\n    *   CUDA 10.0\n    *   cuDNN 7.5+\n*   **深度学习框架**: 已在 PyTorch 1.3.1 和 TensorFlow 1.15 上测试通过。\n\n> **注意**：建议在虚拟环境（venv 或 conda）中安装以避免依赖冲突。\n\n## 2. 安装步骤\n\n### 方式一：Linux \u002F macOS 直接安装\n如果您已配置好 Python 环境，可直接通过 pip 安装：\n\n```bash\npip install autodl-gpu\n```\n\n### 方式二：Windows 10 完整安装流程\nWindows 用户建议按以下步骤配置环境：\n\n1.  **安装基础依赖**：\n    *   下载并安装 [CUDA 10.0](https:\u002F\u002Fdeveloper.nvidia.com\u002Fcuda-10.0-download-archive) 和 [cuDNN v7.6.2.24](https:\u002F\u002Fdeveloper.nvidia.com\u002Frdp\u002Fcudnn-archive)。\n    *   安装 [Miniconda3](https:\u002F\u002Frepo.anaconda.com\u002Fminiconda\u002F)。\n    *   安装 [Visual C++ Build Tools](http:\u002F\u002Fgo.microsoft.com\u002Ffwlink\u002F?LinkId=691126)。\n\n2.  **创建并激活环境**：\n    在 Miniconda 同级目录下创建 `start_env.bat` 文件，内容如下：\n    ```batch\n    cmd.exe \"\u002FK\" .\\Miniconda3\\Scripts\\activate.bat .\\Miniconda3\n    ```\n    双击运行该脚本激活环境。\n\n3.  **安装 AutoDL**：\n    在激活的命令行中依次执行：\n    ```bash\n    conda install pytorch==1.3.1\n    conda install torchvision -c pytorch\n    pip install autodl-gpu\n    ```\n\n### 方式三：使用 Docker (推荐竞赛复现)\n若希望环境与 NeurIPS AutoDL 竞赛完全一致，可使用官方 Docker 镜像：\n\n*   **CPU 版本**:\n    ```bash\n    docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:cpu-latest\n    ```\n*   **GPU 版本**:\n    ```bash\n    nvidia-docker run -it -v \"$(pwd):\u002Fapp\u002Fcodalab\" -p 8888:8888 evariste\u002Fautodl:gpu-latest\n    ```\n\n## 3. 基本使用\n\nAutoDL 的核心优势在于“一键自动训练”。以下以最通用的**本地测试流程**为例，展示如何对任意模态数据进行分类。\n\n### 第一步：准备数据\n您可以使用官方提供的样例数据集，或准备自己的数据文件夹。\n若需下载公共数据集：\n```bash\npython download_public_datasets.py\n```\n\n### 第二步：运行自动训练\n使用 `run_local_test.py` 脚本启动训练。该脚本会自动识别数据模态（图像\u002F文本\u002F表格等），进行特征工程、模型搜索和超参优化。\n\n```bash\npython run_local_test.py -dataset_dir='AutoDL_sample_data\u002Fminiciao' -code_dir='AutoDL_sample_code_submission'\n```\n\n*   `-dataset_dir`: 指向包含 `.data` 和 `.solution` 文件的数据集目录。\n*   `-code_dir`: 指向提交代码的目录（通常使用默认示例代码即可）。\n\n### 第三步：查看结果\n运行过程中，您可以在 `AutoDL_scoring_output\u002F` 目录下找到生成的 HTML 文件。打开该文件即可查看实时的学习曲线（AUC 随时间变化），无需等待训练结束即可获得性能反馈。\n\n---\n**更多特定模态示例**：\n针对具体任务（如纯图像分类、语音分类等），项目提供了更精简的示例脚本，可参考 `examples\u002F` 目录下的 `run_image_classification_example.py` 或 `run_text_classification_example.py` 等文件。","某电商初创公司的算法团队需要在一天内为新增的“用户评论情感与商品类别”多标签分类任务构建原型，以支持即将到来的促销活动。\n\n### 没有 AutoDL 时\n- **人工调参耗时极长**：数据科学家需花费数天时间手动尝试 ResNet、BERT 等不同架构，并反复调整学习率等超参数，难以在截止日前完成。\n- **多模态处理门槛高**：面对包含文本评论和商品图片的混合数据，团队需分别编写复杂的预处理代码和特征工程脚本，开发成本高昂。\n- **小样本效果难保证**：由于新类目初期标注数据稀缺，传统模型极易过拟合，团队缺乏有效手段在有限数据下训练出泛化能力强的模型。\n- **资源分配低效**：工程师将 80% 的精力耗费在基础模型搭建和调试上，仅剩少量时间用于业务逻辑分析，导致整体产出比低。\n\n### 使用 AutoDL 后\n- **全自动流程秒级启动**：只需导入原始数据并运行 AutoDL，系统自动完成从特征工程、模型选型（如自动匹配 TextCNN 或 GRU）到超参搜索的全过程，10 秒即可输出基准模型。\n- **统一解决多模态难题**：AutoDL 内置通用算法流，无缝处理文本与图像的混合输入，无需人工干预即可针对多标签分类任务生成最优策略。\n- **小数据场景表现优异**：凭借在 NeurIPS 竞赛中验证的冠军方案，AutoDL 能自动应对数据倾斜和小样本问题，直接输出高 AUC 值的鲁棒模型。\n- **实时反馈加速迭代**：团队可实时查看秒级刷新的学习曲线，立即将节省下的时间投入到业务规则优化和营销策略制定中。\n\nAutoDL 将原本需要数周的多模态建模工作压缩至分钟级，让团队真正实现了“准备数据，喝杯咖啡，即可交付”的高效开发模式。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FDeepWisdom_AutoDL_a5562971.png","DeepWisdom","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FDeepWisdom_06ae8752.png","",null,"https:\u002F\u002Fgithub.com\u002FDeepWisdom",[79],{"name":80,"color":81,"percentage":82},"Python","#3572A5",100,1193,217,"2026-04-09T06:46:25","Apache-2.0",4,"Windows, Linux","需要 NVIDIA GPU，CUDA 10.0，cuDNN 7.5 (Windows 安装指南指定 cuDNN v7.6.2.24)","未说明",{"notes":92,"python":93,"dependencies":94},"Windows 用户需额外安装 Visual C++ Build Tools；建议使用虚拟环境（如 conda）进行安装；提供与竞赛同步的 Docker 镜像（CPU\u002FGPU 版本）；需手动下载预训练模型文件（如 speech_model.h5）至指定目录。","3.5+",[95,96,97],"pytorch==1.3.1","tensorflow==1.15","torchvision",[99,13,16,14,15],"其他",[101,102,103,104,105,106,107,108,109,110,111,112,113,114,115,116,117,118,119,120],"autodl","automl","nas","feature-engineering","model-selection","full-automl","artificial-intelligence","lightgbm","resnet","pytorch","tensorflow","python","autodl-challenge","ai","deeplearning","data-science","machine-learning","big-data","multi-label","automated-machine-learning","2026-03-27T02:49:30.150509","2026-04-17T09:48:05.156912",[124,129,134,139,144,149],{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},37110,"AutoDL 支持时间序列分类任务（如音乐节拍检测）吗？","当前仓库暂不支持时间序列任务。虽然公司内部有相关研究但尚未开源。建议您可以参考 FB Prophet 工具，或者尝试先将信号转换为序列数据后再进行处理。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F39",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},37111,"如何修复图像、视频、NLP 或语音任务的预训练模型路径错误？","该问题已修复。图像、视频和语音任务的预训练模型路径，以及 NLP 任务的嵌入数据路径均已正确分配。请确保您使用的是最新版本的代码或安装包。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F31",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},37112,"是否可以在不使用 Docker 的情况下运行 AutoDL？","可以。目前图像、视频、语音和文本任务均已支持在不使用 Docker 的环境下直接运行。请确保您的本地环境已安装必要的依赖库，然后按照文档指示直接执行脚本即可。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F18",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},37113,"AutoDL 是否已经发布到 PyPI，如何通过 pip 安装？","是的，项目已完成 PyPI 注册、构建和测试。您可以直接使用 pip 进行安装。具体命令通常为 `pip install autol`（注：根据上下文推断包名，实际请以官方文档为准），安装后即可使用。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F29",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},37114,"在哪里可以找到 AutoDL 的基础文档？","基础文档已经完成并收录在项目中。您可以访问项目的 docs 目录（https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002F）查看详细的安装指南、API 说明和使用示例。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F19",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},37109,"AutoDL 有新手教程或使用指南吗？","目前可以按照使用说明逐步运行。项目正在打包优化中。基础教程文档已发布，您可以查看 https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Ftree\u002Fpip\u002Fdocs\u002F 获取从数据准备到结果输出的详细步骤。支持的场景包括行人识别、人脸识别、声纹识别、音乐分类、情感分类、推荐系统等。","https:\u002F\u002Fgithub.com\u002FDeepWisdom\u002FAutoDL\u002Fissues\u002F1",[155,159],{"id":156,"version":157,"summary_zh":76,"released_at":158},297610,"v1.0","2020-05-01T08:07:20",{"id":160,"version":161,"summary_zh":76,"released_at":162},297611,"opensource","2020-04-04T05:04:39"]