[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-google-research--google-research":3,"tool-google-research--google-research":62},[4,18,28,36,45,54],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":24,"last_commit_at":25,"category_tags":26,"status":17},9989,"n8n","n8n-io\u002Fn8n","n8n 是一款面向技术团队的公平代码（fair-code）工作流自动化平台，旨在让用户在享受低代码快速构建便利的同时，保留编写自定义代码的灵活性。它主要解决了传统自动化工具要么过于封闭难以扩展、要么完全依赖手写代码效率低下的痛点，帮助用户轻松连接 400 多种应用与服务，实现复杂业务流程的自动化。\n\nn8n 特别适合开发者、工程师以及具备一定技术背景的业务人员使用。其核心亮点在于“按需编码”：既可以通过直观的可视化界面拖拽节点搭建流程，也能随时插入 JavaScript 或 Python 代码、调用 npm 包来处理复杂逻辑。此外，n8n 原生集成了基于 LangChain 的 AI 能力，支持用户利用自有数据和模型构建智能体工作流。在部署方面，n8n 提供极高的自由度，支持完全自托管以保障数据隐私和控制权，也提供云端服务选项。凭借活跃的社区生态和数百个现成模板，n8n 让构建强大且可控的自动化系统变得简单高效。",184740,2,"2026-04-19T23:22:26",[16,14,13,15,27],"插件",{"id":29,"name":30,"github_repo":31,"description_zh":32,"stars":33,"difficulty_score":10,"last_commit_at":34,"category_tags":35,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":24,"last_commit_at":42,"category_tags":43,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",161147,"2026-04-19T23:31:47",[14,13,44],"语言模型",{"id":46,"name":47,"github_repo":48,"description_zh":49,"stars":50,"difficulty_score":51,"last_commit_at":52,"category_tags":53,"status":17},8272,"opencode","anomalyco\u002Fopencode","OpenCode 是一款开源的 AI 编程助手（Coding Agent），旨在像一位智能搭档一样融入您的开发流程。它不仅仅是一个代码补全插件，而是一个能够理解项目上下文、自主规划任务并执行复杂编码操作的智能体。无论是生成全新功能、重构现有代码，还是排查难以定位的 Bug，OpenCode 都能通过自然语言交互高效完成，显著减少开发者在重复性劳动和上下文切换上的时间消耗。\n\n这款工具专为软件开发者、工程师及技术研究人员设计，特别适合希望利用大模型能力来提升编码效率、加速原型开发或处理遗留代码维护的专业人群。其核心亮点在于完全开源的架构，这意味着用户可以审查代码逻辑、自定义行为策略，甚至私有化部署以保障数据安全，彻底打破了传统闭源 AI 助手的“黑盒”限制。\n\n在技术体验上，OpenCode 提供了灵活的终端界面（Terminal UI）和正在测试中的桌面应用程序，支持 macOS、Windows 及 Linux 全平台。它兼容多种包管理工具，安装便捷，并能无缝集成到现有的开发环境中。无论您是追求极致控制权的资深极客，还是渴望提升产出的独立开发者，OpenCode 都提供了一个透明、可信",144296,1,"2026-04-16T14:50:03",[13,27],{"id":55,"name":56,"github_repo":57,"description_zh":58,"stars":59,"difficulty_score":24,"last_commit_at":60,"category_tags":61,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":65,"owner_name":66,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":76,"owner_url":77,"languages":78,"stars":116,"forks":117,"last_commit_at":118,"license":119,"difficulty_score":120,"env_os":74,"env_gpu":121,"env_ram":121,"env_deps":122,"category_tags":125,"github_topics":127,"view_count":24,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":131,"updated_at":132,"faqs":133,"releases":163},9943,"google-research\u002Fgoogle-research","google-research","Google Research","google-research 是谷歌研究团队对外开放的代码仓库，汇集了其在人工智能、机器学习及数据科学领域的大量前沿研究成果与实验性代码。它主要解决了学术界和工业界在复现顶级论文算法、获取高质量基准数据集以及探索最新技术架构时面临的资源分散难题。通过集中托管从自然语言处理到计算机视觉等多个方向的创新项目，google-research 让全球开发者能够直接接触到谷歌内部的一手技术实现。\n\n这套资源特别适合 AI 研究人员、算法工程师以及高校师生使用。对于希望深入理解大模型原理、尝试新型神经网络结构或需要权威数据集进行训练验证的专业人士来说，这里提供了丰富的素材。其独特的技术亮点在于不仅包含成熟的算法库，还收录了许多处于探索阶段的实验性项目，并统一采用宽松的 Apache 2.0 源代码许可和 CC BY 4.0 数据许可，极大地降低了二次开发与学术引用的门槛。需要注意的是，由于仓库体积庞大，建议用户根据具体研究方向按需下载特定子目录，以便更高效地获取所需内容。作为连接顶尖实验室与开源社区的桥梁，google-research 持续推动着人工智能技术的透明化与普及。","# Google Research\n\nThis repository contains code released by\n[Google Research](https:\u002F\u002Fresearch.google).\n\nAll datasets in this repository are released under the CC BY 4.0 International\nlicense, which can be found here:\nhttps:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode.  All source files in this\nrepository are released under the Apache 2.0 license, the text of which can be\nfound in the LICENSE file.\n\n---\n\nBecause the repo is large, we recommend you download only the subdirectory of\ninterest:\n\n* Use GitHub editor to open the project. To open the editor change the url from\ngithub.com to github.dev in the address bar.\n* In the left navigation panel, right-click on the folder of interest and select\ndownload.\n\nIf you'd like to submit a pull request, you'll need to clone the repository;\nwe recommend making a shallow clone (without history).\n\n```\ngit clone git@github.com:google-research\u002Fgoogle-research.git --depth=1\n```\n\n---\n\n*Disclaimer: This is not an official Google product.*\n\nUpdated in 2023.","# Google Research\n\n本仓库包含由 [Google Research](https:\u002F\u002Fresearch.google) 发布的代码。\n\n本仓库中的所有数据集均采用知识共享署名 4.0 国际许可协议（CC BY 4.0）发布，许可协议文本可在此处查阅：https:\u002F\u002Fcreativecommons.org\u002Flicenses\u002Fby\u002F4.0\u002Flegalcode。本仓库中的所有源代码文件均采用 Apache 2.0 许可协议发布，许可协议全文请参见 LICENSE 文件。\n\n---\n\n由于该仓库体积较大，我们建议您仅下载感兴趣的子目录：\n\n* 使用 GitHub 编辑器打开项目。要打开编辑器，请在地址栏中将网址从 github.com 更改为 github.dev。\n* 在左侧导航面板中，右键单击感兴趣的文件夹并选择“下载”。\n\n如果您希望提交拉取请求，需要先克隆整个仓库；我们建议进行浅克隆（不保留完整历史记录）。\n\n```\ngit clone git@github.com:google-research\u002Fgoogle-research.git --depth=1\n```\n\n---\n\n*免责声明：本项目并非 Google 官方产品。*\n\n更新于 2023 年。","# Google Research 快速上手指南\n\n## 环境准备\n\n*   **系统要求**：支持 Linux、macOS 或 Windows（建议配合 WSL2 使用）。\n*   **前置依赖**：\n    *   Python 3.8 或更高版本。\n    *   Git（用于代码克隆）。\n    *   建议安装 `virtualenv` 或 `conda` 以隔离项目依赖。\n    *   根据具体子项目需求，可能需要安装 TensorFlow、JAX 或 PyTorch 等深度学习框架。\n\n## 安装步骤\n\n由于该仓库体积庞大，官方推荐仅下载感兴趣的子目录，或使用浅克隆（shallow clone）以减少下载时间。国内开发者若遇到网络连接问题，可配置 Git 代理或使用国内代码托管平台的镜像（如有）。\n\n### 方式一：浅克隆整个仓库（推荐用于提交 PR 或需要多个项目）\n\n```bash\ngit clone git@github.com:google-research\u002Fgoogle-research.git --depth=1\n```\n\n### 方式二：仅下载特定子目录（推荐用于单一项目使用）\n\n1.  在浏览器地址栏将 `github.com` 替换为 `github.dev` 打开在线编辑器。\n2.  在左侧导航栏中找到目标文件夹，右键点击并选择 **Download**（下载）。\n3.  解压后即可使用。\n\n### 安装依赖\n\n进入具体子项目目录后，通常需安装其专属依赖。例如：\n\n```bash\ncd google-research\u002F\u003Cproject_name>\npip install -r requirements.txt\n```\n\n> **注意**：不同子项目的依赖文件名称可能不同（如 `requirements.txt`、`setup.py` 等），请以具体目录下的说明为准。\n\n## 基本使用\n\nGoogle Research 包含众多独立项目，每个项目的使用方式各异。以下以典型的脚本运行为例：\n\n1.  进入目标项目目录：\n    ```bash\n    cd google-research\u002F\u003Cproject_name>\n    ```\n\n2.  运行示例脚本（具体参数请参考该项目内部的 README）：\n    ```bash\n    python run_example.py --data_dir=.\u002Fdata --model_type=baseline\n    ```\n\n3.  查看输出结果或生成的模型文件。\n\n> **提示**：请务必阅读具体子项目目录下的 `README.md` 文件，以获取该算法特有的数据预处理、训练及评估指令。","某医疗 AI 初创团队正致力于开发一款能自动识别眼底病变的辅助诊断系统，急需复现顶尖论文中的图像分割算法以验证可行性。\n\n### 没有 google-research 时\n- 研究人员需花费数周时间在海量学术网站中手动搜寻代码，常发现官方未开源或代码缺失关键预处理步骤。\n- 自行复现论文算法时，因缺乏标准的基线实现和超参数配置，导致模型训练收敛困难，实验结果无法与论文对齐。\n- 数据集格式混乱且不统一，团队需编写大量临时脚本进行清洗和转换，极易引入人为错误并拖慢研发进度。\n- 遇到算法瓶颈时，由于缺少经过谷歌验证的参考实现作为调试基准，排查错误如同大海捞针，严重消耗算力资源。\n\n### 使用 google-research 后\n- 团队直接在 google-research 仓库中定位到最新的眼底分割项目，一键获取包含完整训练流程、预训练权重及数据加载器的生产级代码。\n- 依托仓库中标准化的基线实现，研究人员仅需调整少量超参数即可复现论文效果，将算法验证周期从数周缩短至两天。\n- 利用仓库提供的统一数据接口和预处理工具，快速完成了私有医疗数据的格式对齐，确保了输入管道的高效与稳定。\n- 当模型表现异常时，开发者以 google-research 中的官方实现为“黄金标准”进行逐层比对，迅速锁定了自定义模块中的逻辑漏洞。\n\ngoogle-research 通过将前沿研究成果转化为开箱即用的工程资产，让医疗 AI 团队得以跳过繁琐的重复造轮子过程，专注于核心业务价值的创新。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fgoogle-research_google-research_6392e895.png","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fgoogle-research_c23b2adf.png","",null,"https:\u002F\u002Fresearch.google","https:\u002F\u002Fgithub.com\u002Fgoogle-research",[79,83,87,91,95,99,102,106,110,113],{"name":80,"color":81,"percentage":82},"Jupyter Notebook","#DA5B0B",48.4,{"name":84,"color":85,"percentage":86},"Python","#3572A5",45,{"name":88,"color":89,"percentage":90},"C++","#f34b7d",3.1,{"name":92,"color":93,"percentage":94},"JavaScript","#f1e05a",0.8,{"name":96,"color":97,"percentage":98},"Shell","#89e051",0.6,{"name":100,"color":101,"percentage":98},"Java","#b07219",{"name":103,"color":104,"percentage":105},"HTML","#e34c26",0.5,{"name":107,"color":108,"percentage":109},"Starlark","#76d275",0.1,{"name":111,"color":112,"percentage":109},"Rust","#dea584",{"name":114,"color":115,"percentage":109},"TypeScript","#3178c6",37751,8393,"2026-04-19T18:21:18","Apache-2.0",4,"未说明",{"notes":123,"python":121,"dependencies":124},"该仓库包含 Google Research 发布的多个独立项目，README 仅提供通用的下载和克隆指南（如使用浅克隆），未列出统一的具体运行环境、依赖库或硬件需求。用户需进入具体的子目录查看对应项目的独立文档以获取详细配置信息。",[],[13,126,14,15],"其他",[128,129,130],"machine-learning","ai","research","2026-03-27T02:49:30.150509","2026-04-20T10:24:15.029273",[134,139,144,149,154,159],{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},44655,"如何复现 Depth From Video in the Wild 论文中的结果？默认设置下训练效果不佳怎么办？","如果默认设置（batch size=4, learning_rate=0.0002）从头训练的结果与论文差距较大，建议尝试使用经过重构并修复了问题的版本：https:\u002F\u002Fgithub.com\u002FVladimirYugay\u002Fdiw。此外，确保正确加载作者提供的预训练检查点。若遇到恢复检查点失败（如变量名缺失），请检查检查点文件夹中是否包含名为 \"checkpoint\" 的文件，其内容应指向正确的模型路径（例如：model_checkpoint_path:\"path_to_kitti_learned_intrinsics\u002Fmodel-248900\"），并在运行脚本中正确指定 --imagenet_ckpt 参数。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Fissues\u002F46",{"id":140,"question_zh":141,"answer_zh":142,"source_url":143},44656,"使用 ColTran 预训练模型进行灰度图像上色时，为什么输出全是噪点图像？","这通常是因为未正确配置检查点路径或使用了错误的命令。请确保将下载的 checkpoints (coltran_cotran.zip) 解压到独立目录，并将 logdir 参数设置为 colorizer 子目录的路径。推荐使用作者发布的自定义上色脚本 custom_colorize.py，命令示例：python -m custom_colorize --config=coltran\u002Fconfigs\u002Fcolorizer.py --logdir=coltran\u002Fcoltran\u002Fcolorizer --img_dir=\u003C输入图片目录> --store_dir=\u003C输出目录> --mode=colorize。该问题已在后续提交中修复（commit: f753c39）。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Fissues\u002F710",{"id":145,"question_zh":146,"answer_zh":147,"source_url":148},44657,"ColTran 是否有针对单张灰度图像进行推理的脚本？sample.py 是否必须下载 ImageNet 数据集？","官方已发布专门用于单张或批量图像上色的脚本 custom_colorize.py（路径：coltran\u002Fcustom_colorize.py），无需下载 ImageNet 数据集即可进行推理。对于 sample.py，它主要用于采样实验，可能需要数据集支持；若仅需对单张图片上色，请直接使用 custom_colorize.py。使用前需解压检查点文件，并将 logdir 指向 colorizer 子目录。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Fissues\u002F583",{"id":150,"question_zh":151,"answer_zh":152,"source_url":153},44658,"Depth From Video in the Wild 的预训练模型是基于什么分辨率训练的？可以使用其他分辨率进行推理吗？","预训练模型是在 416x128 分辨率下训练的。如果使用其他分辨率进行推理，效果可能会非常差。目前代码库中未提供直接支持其他分辨率的推理脚本，但可以参考 struct2depth 项目的 inference.py 脚本，并将其中的 model.py 替换为本项目的 model.py 以实现兼容。关于更高分辨率的训练，作者未明确说明，但可能受限于 GPU 显存。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Fissues\u002F61",{"id":155,"question_zh":156,"answer_zh":157,"source_url":158},44659,"ColTran 训练时输入是否仅为灰度图像？测试时 Outer Decoder 的输入是什么？","训练和测试时，灰度图像始终作为输入存在。在训练阶段，Outer Decoder 的输入是低分辨率的真实彩色图像（Ground Truth）；而在测试（采样）阶段，Outer Decoder 的输入是其自身前一步的输出（自回归生成）。具体而言，模型通过行注意力和列注意力机制逐像素生成颜色，内层解码器的输入是外层解码器输出与右移后的真实值（训练时）或生成值（测试时）的组合。论文实验中使用了 4 个编码器块（num_encoder_layers=4），而非默认配置的 1。","https:\u002F\u002Fgithub.com\u002Fgoogle-research\u002Fgoogle-research\u002Fissues\u002F641",{"id":160,"question_zh":161,"answer_zh":162,"source_url":143},44660,"如何在 ColTran 中使用自定义数据集进行训练或微调？","项目已支持自定义数据集训练和微调。设置 FLAGS dataset=custom，并将 data_dir 指向包含 RGB 图像的目录。如果使用与论文相同的分辨率，强烈建议进行微调（finetuning），可通过设置 pretrain_dir 参数加载预训练的 ImageNet 检查点（colorizer 或 upsampler）。相关代码更新见 commit: db430ca。",[]]