[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google--learned_optimization":3,"tool-google--learned_optimization":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",143909,2,"2026-04-07T11:33:18",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107888,"2026-04-06T11:32:50",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":76,"owner_company":65,"owner_location":65,"owner_email":77,"owner_twitter":78,"owner_website":79,"owner_url":80,"languages":81,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":105,"github_topics":65,"view_count":32,"oss_zip_url":65,"oss_zip_packed_at":65,"status":17,"created_at":107,"updated_at":108,"faqs":109,"releases":120},5093,"google\u002Flearned_optimization","learned_optimization",null,"learned_optimization 是一个基于 JAX 构建的开源研究代码库，专注于“学习优化器”及更广泛的动态系统元训练。传统深度学习依赖人工设计的优化算法（如 SGD 或 Adam），而 learned_optimization 旨在通过机器学习自动发现更高效、适应性更强的优化策略，从而解决特定任务下人工规则难以达到最优性能的问题。\n\n该项目不仅提供了多种现成的手工设计与学习型优化器实现，还内置了完整的元训练与元测试任务框架。其核心技术亮点在于支持多种外层训练算法，包括进化策略（ES）、扰动估计模拟（PES）以及截断时间反向传播，让研究人员能够灵活探索不同的元学习路径。此外，项目配套了丰富的 Colab 教程笔记，从基础概念介绍到自定义任务构建，再到从零手写一个学习型优化器，帮助用户快速上手。\n\nlearned_optimization 主要面向人工智能领域的研究人员、算法工程师及对元学习感兴趣的高级开发者。如果你希望深入探究如何让模型“学会如何学习”，或者需要在一个灵活的框架中验证新的优化理论，这将是一个极具价值的工具。虽然它并非为普通终端用户设计，但其模块化的设计和详尽的","learned_optimization 是一个基于 JAX 构建的开源研究代码库，专注于“学习优化器”及更广泛的动态系统元训练。传统深度学习依赖人工设计的优化算法（如 SGD 或 Adam），而 learned_optimization 旨在通过机器学习自动发现更高效、适应性更强的优化策略，从而解决特定任务下人工规则难以达到最优性能的问题。\n\n该项目不仅提供了多种现成的手工设计与学习型优化器实现，还内置了完整的元训练与元测试任务框架。其核心技术亮点在于支持多种外层训练算法，包括进化策略（ES）、扰动估计模拟（PES）以及截断时间反向传播，让研究人员能够灵活探索不同的元学习路径。此外，项目配套了丰富的 Colab 教程笔记，从基础概念介绍到自定义任务构建，再到从零手写一个学习型优化器，帮助用户快速上手。\n\nlearned_optimization 主要面向人工智能领域的研究人员、算法工程师及对元学习感兴趣的高级开发者。如果你希望深入探究如何让模型“学会如何学习”，或者需要在一个灵活的框架中验证新的优化理论，这将是一个极具价值的工具。虽然它并非为普通终端用户设计，但其模块化的设计和详尽的文档，使得具备一定深度学习基础的使用者也能轻松开展实验与创新。","# learned\\_optimization: Meta-learning optimizers and more with JAX\n\n[![Documentation Status](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_learned_optimization_readme_13d664e1afd7.png)](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n[![License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n\n*learned\\_optimization* is a research codebase for training, designing, evaluating, and applying learned\noptimizers, and for meta-training of dynamical systems more broadly. It implements hand-designed and learned optimizers, tasks to meta-train and meta-test them, and outer-training algorithms such as ES, PES, and truncated backprop through time.\n\nTo get started see our [documentation](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F).\n\n## Quick Start Colab Notebooks\nOur [documentation](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F) can also be run as colab notebooks! We recommend running these notebooks with a free accelerator (TPU or GPU) in colab (go to `Runtime` -> `Change runtime type`).\n\n### *learned\\_optimization* tutorial sequence\n\n1. Introduction : \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart1_Introduction.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n2. Creating custom tasks: \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart2_CustomTasks.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n3. Truncated Steps: \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart3_Truncation_TruncatedStep.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n4. Gradient estimators: \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart4_GradientEstimators.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n5. Meta training: \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart5_Meta_training_with_GradientLearner.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n9. Custom learned optimizers: \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart6_custom_learned_optimizers.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n\n### Build a learned optimizer from scratch\n\nSimple, self-contained, learned optimizer example that does not depend on the *learned\\_optimization* library:\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002Fno_dependency_learned_optimizer.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n\n\n## Local Installation\nWe strongly recommend using virtualenv to work with this package.\n\n```\npip3 install virtualenv\ngit clone git@github.com:google\u002Flearned_optimization.git\ncd learned_optimization\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install -e .\n```\n\n## Train a learned optimizer example\nTo train a learned optimizer on a simple inner-problem, run the following:\n\n`python3 -m learned_optimization.examples.simple_lopt_train --train_log_dir=\u002Ftmp\u002Flogs_folder --alsologtostderr`\n\nThis will first use tfds to download data, then start running. After a few minutes you should see numbers printed.\n\nA tensorboard can be pointed at this directory for visualization of results. Note this will run very slowly without an accelerator.\n\n## Need help? Have a question?\nFile a github issue! We will do our best to respond promptly.\n\n## Publications which use *learned\\_optimization*\nWrote a paper or blog post that uses *learned\\_optimization*? Add it to the list!\n\n* Vicol, Paul, Luke Metz, and Jascha Sohl-Dickstein. [\"Unbiased gradient estimation in unrolled computation graphs with persistent evolution strategies.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.13835) International Conference on Machine Learning (Best paper award). PMLR, 2021.\n* Metz, Luke*, C. Daniel Freeman*, Samuel S. Schoenholz, and Tal Kachman. [\"Gradients are Not All You Need.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.05803) arXiv preprint arXiv:2111.05803 (2021).\n\n## Development \u002F Running tests\nWe locate test files next to the related source as opposed to in a separate `tests\u002F` folder.\nEach test can be run directly, or with pytest (e.g. `python3 -m pytest learned_optimization\u002Fouter_trainers\u002F`). Pytest can also be used to run all tests with `python3 -m pytest`, but this will take quite some time.\n\nIf something is broken please file an issue and we will take a look!\n\n## Citing *learned\\_optimization*\n\nTo cite this repository:\n\n```\n@inproceedings{metz2022practical,\n  title={Practical tradeoffs between memory, compute, and performance in learned optimizers},\n  author={Metz, Luke and Freeman, C Daniel and Harrison, James and Maheswaranathan, Niru and Sohl-Dickstein, Jascha},\n  booktitle = {Conference on Lifelong Learning Agents (CoLLAs)},\n  year = {2022},\n  url = {http:\u002F\u002Fgithub.com\u002Fgoogle\u002Flearned_optimization},\n}\n```\n\n## Disclaimer\n\n*learned\\_optimization* is not an official Google product.\n","# learned_optimization: 使用 JAX 进行元学习优化器及其他研究\n\n[![文档状态](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_learned_optimization_readme_13d664e1afd7.png)](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F?badge=latest)\n[![许可证](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-Apache_2.0-blue.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FApache-2.0)\n\n*learned_optimization* 是一个用于训练、设计、评估和应用学习型优化器，以及更广泛地对动力系统进行元训练的研究代码库。它实现了手工设计的和学习得到的优化器、用于元训练和元测试的任务，以及诸如 ES、PES 和截断时间反向传播等外层训练算法。\n\n要开始使用，请参阅我们的 [文档](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F)。\n\n## 快速入门 Colab 笔记本\n我们的 [文档](https:\u002F\u002Flearned-optimization.readthedocs.io\u002Fen\u002Flatest\u002F) 也可以作为 Colab 笔记本运行！我们建议在 Colab 中使用免费加速器（TPU 或 GPU）来运行这些笔记本（转到 `Runtime` -> `Change runtime type`）。\n\n### *learned_optimization* 教程系列\n\n1. 简介： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart1_Introduction.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n2. 创建自定义任务： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart2_CustomTasks.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n3. 截断步数： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart3_Truncation_TruncatedStep.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n4. 梯度估计器： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart4_GradientEstimators.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n5. 元训练： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart5_Meta_training_with_GradientLearner.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n9. 自定义学习型优化器： \u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart6_custom_learned_optimizers.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n\n### 从零构建一个学习型优化器\n这是一个简单、自包含的学习型优化器示例，不依赖于 *learned_optimization* 库：\n\u003Ca href=\"https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002Fno_dependency_learned_optimizer.ipynb\" target=\"_parent\">\u003Cimg src=\"https:\u002F\u002Fcolab.research.google.com\u002Fassets\u002Fcolab-badge.svg\" alt=\"Open In Colab\"\u002F>\u003C\u002Fa>\n\n## 本地安装\n我们强烈建议使用 virtualenv 来使用这个包。\n\n```\npip3 install virtualenv\ngit clone git@github.com:google\u002Flearned_optimization.git\ncd learned_optimization\npython3 -m venv env\nsource env\u002Fbin\u002Factivate\npip install -e .\n```\n\n## 训练一个学习型优化器示例\n要在简单的内部问题上训练一个学习型优化器，请运行以下命令：\n\n`python3 -m learned_optimization.examples.simple_lopt_train --train_log_dir=\u002Ftmp\u002Flogs_folder --alsologtostderr`\n\n这将首先使用 tfds 下载数据，然后开始运行。几分钟后您应该会看到打印出的数字。\n\n可以将 TensorBoard 指向该目录以可视化结果。请注意，如果没有加速器，此过程将非常缓慢。\n\n## 需要帮助？有问题吗？\n请提交 GitHub 问题！我们会尽力尽快回复。\n\n## 使用 *learned_optimization* 的出版物\n您是否撰写了一篇使用了 *learned_optimization* 的论文或博客文章？请将其添加到列表中！\n\n* Vicol, Paul, Luke Metz, 和 Jascha Sohl-Dickstein. [\"Unbiased gradient estimation in unrolled computation graphs with persistent evolution strategies.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2112.13835) 国际机器学习会议（最佳论文奖）。PMLR, 2021。\n* Metz, Luke*, C. Daniel Freeman*, Samuel S. Schoenholz, 和 Tal Kachman. [\"Gradients are Not All You Need.\"](https:\u002F\u002Farxiv.org\u002Fabs\u002F2111.05803) arXiv 预印本 arXiv:2111.05803 (2021)。\n\n## 开发 \u002F 运行测试\n我们将测试文件放置在相关源代码旁边，而不是放在单独的 `tests\u002F` 文件夹中。\n每个测试都可以直接运行，或者使用 pytest 运行（例如 `python3 -m pytest learned_optimization\u002Fouter_trainers\u002F`）。也可以使用 `python3 -m pytest` 运行所有测试，但这样会花费相当长的时间。\n\n如果发现任何问题，请提交一个问题，我们会尽快查看！\n\n## 引用 *learned_optimization*\n\n引用本仓库时，请使用以下格式：\n\n```\n@inproceedings{metz2022practical,\n  title={Practical tradeoffs between memory, compute, and performance in learned optimizers},\n  author={Metz, Luke and Freeman, C Daniel and Harrison, James and Maheswaranathan, Niru and Sohl-Dickstein, Jascha},\n  booktitle = {Conference on Lifelong Learning Agents (CoLLAs)},\n  year = {2022},\n  url = {http:\u002F\u002Fgithub.com\u002Fgoogle\u002Flearned_optimization},\n}\n```\n\n## 免责声明\n\n*learned_optimization* 并非 Google 的官方产品。","# learned_optimization 快速上手指南\n\n`learned_optimization` 是一个基于 JAX 的研究代码库，用于训练、设计、评估和应用**学习到的优化器（Learned Optimizers）**，以及更广泛的动态系统元训练。它实现了手工设计和学习到的优化器、元训练\u002F测试任务，以及 ES、PES 和截断时间反向传播等外部训练算法。\n\n## 环境准备\n\n*   **操作系统**: Linux 或 macOS (Windows 用户建议使用 WSL2)\n*   **Python 版本**: 推荐 Python 3.8+\n*   **硬件加速**: 强烈建议配备 **GPU** 或 **TPU**。该库涉及大量矩阵运算和元学习过程，在无加速器环境下运行极慢。\n*   **前置依赖**:\n    *   `git`\n    *   `pip`\n    *   `virtualenv` (推荐用于隔离环境)\n\n> **国内开发者提示**：由于该库深度依赖 JAX 及其底层加速库，安装时若遇到网络问题，可尝试配置国内镜像源（如清华源、阿里源）加速 pip 包下载。但请注意，JAX 的预编译二进制文件（wheels）有时在第三方镜像中更新不及时，若安装失败请切换回官方源。\n\n## 安装步骤\n\n推荐使用虚拟环境进行安装，以避免依赖冲突。\n\n1.  **安装 virtualenv 并克隆仓库**：\n    ```bash\n    pip3 install virtualenv\n    git clone https:\u002F\u002Fgithub.com\u002Fgoogle\u002Flearned_optimization.git\n    cd learned_optimization\n    ```\n\n2.  **创建并激活虚拟环境**：\n    ```bash\n    python3 -m venv env\n    source env\u002Fbin\u002Factivate\n    ```\n    *(Windows 用户使用 `env\\Scripts\\activate`)*\n\n3.  **安装依赖包**：\n    ```bash\n    pip install -e .\n    ```\n    *(如需加速，可在命令前添加 `-i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple`，若遇到 JAX 相关报错请移除该参数重试)*\n\n## 基本使用\n\n### 方式一：通过 Colab 快速体验（推荐）\n\n对于初次接触或希望快速验证功能的开发者，官方提供了一系列完整的 Jupyter Notebook 教程，支持直接在 Google Colab 中运行（需选择 GPU\u002FTPU 运行时）。\n\n**核心教程序列：**\n1.  **入门介绍**: [Part1_Introduction.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart1_Introduction.ipynb)\n2.  **创建自定义任务**: [Part2_CustomTasks.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart2_CustomTasks.ipynb)\n3.  **截断步长 (Truncated Steps)**: [Part3_Truncation_TruncatedStep.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart3_Truncation_TruncatedStep.ipynb)\n4.  **梯度估计器**: [Part4_GradientEstimators.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart4_GradientEstimators.ipynb)\n5.  **元训练 (Meta training)**: [Part5_Meta_training_with_GradientLearner.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart5_Meta_training_with_GradientLearner.ipynb)\n6.  **自定义学习到的优化器**: [Part6_custom_learned_optimizers.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002FPart6_custom_learned_optimizers.ipynb)\n\n**从零构建示例**（不依赖库内部高级封装，适合理解原理）：\n*   [no_dependency_learned_optimizer.ipynb](https:\u002F\u002Fcolab.research.google.com\u002Fgithub\u002Fgoogle\u002Flearned_optimization\u002Fblob\u002Fmain\u002Fdocs\u002Fnotebooks\u002Fno_dependency_learned_optimizer.ipynb)\n\n### 方式二：本地命令行训练示例\n\n安装完成后，您可以直接运行官方提供的示例脚本来训练一个简单的学习到的优化器。\n\n**执行命令：**\n```bash\npython3 -m learned_optimization.examples.simple_lopt_train --train_log_dir=\u002Ftmp\u002Flogs_folder --alsologtostderr\n```\n\n**说明：**\n*   该命令会自动使用 `tfds` 下载所需数据。\n*   运行几分钟后，终端将开始打印训练指标。\n*   日志保存在 `\u002Ftmp\u002Flogs_folder`，可使用 TensorBoard 指向该目录进行可视化：\n    ```bash\n    tensorboard --logdir=\u002Ftmp\u002Flogs_folder\n    ```\n*   **注意**：若无 GPU\u002FTPU 加速，此过程将非常缓慢。","某自动驾驶初创公司的算法团队正在研发一种新型感知模型，需要在资源受限的边缘设备上实现极速收敛，但传统优化器在特定硬件架构下表现不佳。\n\n### 没有 learned_optimization 时\n- 工程师只能依赖 SGD、Adam 等通用手工设计优化器，无法针对自家模型的损失函数曲面特性进行定制，导致训练初期震荡严重。\n- 为寻找最佳超参数组合，团队需耗费数周时间进行网格搜索，且往往陷入局部最优，难以突破精度瓶颈。\n- 面对特殊的硬件延迟约束，缺乏有效手段让优化过程自动感知并适应计算图的非标准行为，模型部署后的推理性能大打折扣。\n- 每次调整网络结构后，原本调优好的优化策略即刻失效，必须重新从头开始繁琐的人工试错流程。\n\n### 使用 learned_optimization 后\n- 利用 JAX 生态，团队通过元学习训练出专属的“学习型优化器”，它能自动捕捉模型梯度特征，使收敛速度提升 40%。\n- 借助内置的截断反向传播和梯度估计器，系统自动探索最优更新规则，消除了人工调参的黑盒过程，显著提高了最终准确率。\n- 将硬件延迟作为元训练目标的一部分，生成的优化器天然适配边缘设备，确保了模型在部署时的实时性与稳定性。\n- 当网络架构发生变更时，只需在新任务分布上进行少量元测试，预训练的学习型优化器即可快速迁移复用，大幅缩短研发周期。\n\nlearned_optimization 的核心价值在于将优化器的设计从“人工经验驱动”转变为“数据驱动自动化”，让模型学会如何更好地训练自己。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle_learned_optimization_74f13a90.png","google","Google","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle_c4bedcda.png","Google ❤️ Open Source","opensource@google.com","GoogleOSS","https:\u002F\u002Fopensource.google\u002F","https:\u002F\u002Fgithub.com\u002Fgoogle",[82,86],{"name":83,"color":84,"percentage":85},"Python","#3572A5",89.1,{"name":87,"color":88,"percentage":89},"Jupyter Notebook","#DA5B0B",10.9,799,70,"2026-04-02T19:22:14","Apache-2.0","Linux, macOS","非必需，但强烈推荐使用 TPU 或 GPU 加速（通过 Google Colab 或本地环境），否则运行速度会非常慢。具体型号、显存及 CUDA 版本未在文档中明确说明。","未说明",{"notes":98,"python":99,"dependencies":100},"该工具基于 JAX 框架。官方强烈建议使用 virtualenv 创建虚拟环境进行安装。虽然可以在无加速器环境下运行，但速度极慢，建议在 Google Colab 中免费使用 TPU 或 GPU，或在本地配置相应的硬件加速环境。训练示例会自动通过 tfds 下载数据。","3.x (文档示例使用 python3，建议 Python 3.8+)",[101,102,103,104],"jax","tensorflow-datasets (tfds)","virtualenv","pytest",[14,106],"其他","2026-03-27T02:49:30.150509","2026-04-07T22:49:35.418979",[110,115],{"id":111,"question_zh":112,"answer_zh":113,"source_url":114},23142,"运行小数据集（如 FashionMNIST）时出现显存或内存爆炸（10GB+）怎么办？","这通常是因为 TensorFlow 和 JAX 同时尝试占用 GPU 资源，或者 JAX 默认预分配了所有显存。解决方案如下：\n1. 禁止 TensorFlow 使用 GPU（仅用其加载数据）：在代码中添加 `tf.config.experimental.set_visible_devices([], \"GPU\")`。\n2. 禁用 JAX 的 GPU 内存预分配行为：设置环境变量 `export XLA_PYTHON_CLIENT_PREALLOCATE=false`。\n3. 或者在运行脚本前限制可见设备：`CUDA_VISIBLE_DEVICES= python pes.py ...`。\n实施后显存占用可从 10GB+ 降至约 700MB。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Flearned_optimization\u002Fissues\u002F50",{"id":116,"question_zh":117,"answer_zh":118,"source_url":119},23143,"README 中提供的 Colab Notebook 链接无法打开或显示“未找到”（Not Found）如何解决？","这是因为项目更新了 Notebook 文件夹的位置，但 README 中的链接未及时同步。维护者已修复该问题，请查看最新的 README 文件或访问仓库中更新后的 notebooks 目录获取正确的链接。如果仍然失效，请直接浏览仓库文件列表寻找 `.ipynb` 文件。","https:\u002F\u002Fgithub.com\u002Fgoogle\u002Flearned_optimization\u002Fissues\u002F3",[]]