[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-kmkolasinski--deep-learning-notes":3,"tool-kmkolasinski--deep-learning-notes":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",140436,2,"2026-04-05T23:32:43",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":81,"owner_website":82,"owner_url":82,"languages":83,"stars":92,"forks":93,"last_commit_at":94,"license":81,"difficulty_score":95,"env_os":96,"env_gpu":97,"env_ram":97,"env_deps":98,"category_tags":103,"github_topics":81,"view_count":23,"oss_zip_url":81,"oss_zip_packed_at":81,"status":16,"created_at":104,"updated_at":105,"faqs":106,"releases":137},3053,"kmkolasinski\u002Fdeep-learning-notes","deep-learning-notes","Experiments with Deep Learning","deep-learning-notes 是一个专注于深度学习实验与技术分享的开源项目，旨在记录并复现前沿算法的创新尝试。它主要解决了开发者在探索新型网络结构、优化器及正则化方法时缺乏可参考代码实现的问题，将理论转化为可运行的 TensorFlow 和 Keras 示例。\n\n该项目特别适合深度学习研究人员、算法工程师以及希望深入理解底层机制的进阶开发者使用。其独特的技术亮点包括：对胶囊网络（Capsule Networks）中池化操作的实验性实现；一种基于梯度范数归一化的最大范数优化器（max-normed-optimizer），展示了提升训练稳定性的潜力；以及针对 SELU 激活函数特性的自定义正则化层，帮助模型在训练中保持自归一化属性。此外，项目还提供了基于 tf.data API 实现数据过采样的实用教程，并附带了多场关于深度学习与机器学习的内部研讨会演示文稿。无论是为了验证新想法还是学习特定技术的落地细节，deep-learning-notes 都提供了宝贵的实践资源。","# deep-learning-notes\nExperiments with Deep Learning and other resources:\n\n* [keras-capsule-pooling](keras-capsule-pooling) - an after-hours experiment in which I try to implement Capsule pooling for images. \n* [max-normed-optimizer](max-normed-optimizer) - an experimental implementation of an interesting gradient descent optimizer which normalizes gradients according to their norms. Contains various experiments which show potential power of this method.\n* [selu-regularization](selu-regularization) - a Keras Regularizer Layer which allows for forcing SELU like regularization on  the model weights (Dense and Conv2D versions are provided). Selu was introduced as an activation function with special initialization method, those regularizers can be add to force the weight to preserve self normalizing property during the training.\n* [tf-oversampling](tf-oversampling) - example with how to implement oversampling with tf.data.Dataset API.\n\n# Seminars on Deep Learning and Machine Learning\n\n[Seminars](seminars) - contains a bunch of presentations I have gave at our company. \n\n\n\n","# 深度学习笔记\n深度学习及其他资源的实验：\n\n* [keras-capsule-pooling](keras-capsule-pooling) - 一个业余时间进行的实验，尝试实现用于图像的胶囊池化。\n* [max-normed-optimizer](max-normed-optimizer) - 一种有趣的梯度下降优化器的实验性实现，该优化器会根据梯度的范数对其进行归一化。包含多种实验，展示了该方法的潜在优势。\n* [selu-regularization](selu-regularization) - 一个 Keras 正则化层，可用于对模型权重施加类似 SELU 的正则化效果（提供 Dense 和 Conv2D 版本）。SELU 是一种结合特殊初始化方法的激活函数，这些正则化器可以在训练过程中强制权重保持自归一化特性。\n* [tf-oversampling](tf-oversampling) - 使用 tf.data.Dataset API 实现过采样的示例。\n\n# 深度学习与机器学习研讨会\n\n[研讨会](seminars) - 包含我在公司内部所做的多场演讲。","# deep-learning-notes 快速上手指南\n\n`deep-learning-notes` 是一个包含深度学习实验代码和资源的项目集合，涵盖了胶囊网络池化、最大范数优化器、SELU 正则化以及 TensorFlow 过采样等前沿技术的实现示例。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python 版本**：建议 Python 3.6 及以上\n*   **核心依赖**：\n    *   TensorFlow (适用于 `tf-oversampling` 等模块)\n    *   Keras (适用于 `keras-capsule-pooling`, `selu-regularization` 等模块)\n    *   NumPy, Matplotlib (用于数据处理和可视化)\n\n> **国内加速建议**：\n> 安装依赖时，推荐使用清华或阿里镜像源以提升下载速度：\n> ```bash\n> pip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow keras numpy matplotlib\n> ```\n\n## 安装步骤\n\n1.  **克隆项目仓库**\n    将项目代码拉取到本地：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyour-repo\u002Fdeep-learning-notes.git\n    cd deep-learning-notes\n    ```\n\n2.  **安装依赖包**\n    如果项目根目录包含 `requirements.txt`，请运行：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    若无该文件，请根据您想要运行的具体实验模块，手动安装对应依赖（如上文所述）。\n\n## 基本使用\n\n本项目由多个独立的实验目录组成，请根据您的需求进入相应文件夹运行示例。以下是几个核心模块的使用示例：\n\n### 1. SELU 正则化实验 (`selu-regularization`)\n该模块展示了如何在 Keras 模型中添加自定义正则化层，以强制权重保持自归一化特性。\n\n```python\nfrom selu_regularization import SeluDenseRegularizer\n\n# 在构建 Keras 模型时使用\nmodel.add(Dense(64, activation='selu', kernel_regularizer=SeluDenseRegularizer()))\n```\n\n### 2. TensorFlow 过采样示例 (`tf-oversampling`)\n演示如何使用 `tf.data.Dataset` API 实现数据过采样，适用于处理类别不平衡问题。\n\n```python\nimport tensorflow as tf\nfrom tf_oversampling import create_oversampled_dataset\n\n# 创建过采样后的数据集\ndataset = create_oversampled_dataset(base_dataset, class_weights)\n```\n\n### 3. 最大范数优化器 (`max-normed-optimizer`)\n尝试使用基于梯度范数归一化的实验性优化器进行模型训练。\n\n```python\nfrom max_normed_optimizer import MaxNormedOptimizer\n\noptimizer = MaxNormedOptimizer(learning_rate=0.01)\nmodel.compile(optimizer=optimizer, loss='categorical_crossentropy')\n```\n\n### 4. 查看技术分享资料 (`seminars`)\n项目中的 `seminars` 目录包含了作者在深度学习领域的内部演讲幻灯片，可直接浏览查看相关 PPT 文件以获取理论背景。\n\n```bash\ncd seminars\n# 使用本地浏览器或 PDF 阅读器打开相关文件\n```","某计算机视觉团队正在研发一套高精度工业缺陷检测系统，但在处理微小裂纹和不平衡样本时遇到了模型收敛困难和训练效率低下的瓶颈。\n\n### 没有 deep-learning-notes 时\n- 面对胶囊网络（Capsule Networks）等前沿架构，团队需从零复现复杂的动态路由与池化逻辑，耗时数周且极易出错。\n- 在处理极度不平衡的缺陷数据时，缺乏基于 `tf.data` 的高效过采样实现方案，导致模型对少数类缺陷识别率极低。\n- 尝试引入 SELU 激活函数时，因无法强制权重保持自归一化特性，导致深层网络训练不稳定，梯度经常爆炸或消失。\n- 常规优化器在复杂损失曲面上表现不佳，团队缺少如最大范数优化器（Max-Normed Optimizer）等实验性梯度归一化策略的参考代码。\n- 内部技术分享零散，缺乏系统化的深度学习实验记录与演示文稿，新成员上手成本极高。\n\n### 使用 deep-learning-notes 后\n- 直接复用 `keras-capsule-pooling` 模块，快速集成了胶囊池化功能，显著提升了模型对空间层级特征的捕捉能力。\n- 借鉴 `tf-oversampling` 示例，迅速构建了基于 Dataset API 的过采样流水线，使微小缺陷的召回率提升了 15%。\n- 部署 `selu-regularization` 正则化层，成功强制权重维持自归一化属性，大幅加速了深层网络的收敛速度并稳定了训练过程。\n- 应用 `max-normed-optimizer` 中的实验性优化器，有效解决了梯度范数异常问题，在复杂场景下获得了更优的局部极小值。\n- 利用仓库中的研讨会资料作为内部培训教材，统一了团队对前沿实验方法的理解，缩短了技术验证周期。\n\ndeep-learning-notes 将分散的前沿实验转化为可落地的工程模块，帮助团队在算法创新与工程稳定性之间找到了最佳平衡点。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fkmkolasinski_deep-learning-notes_eae01d4d.png","kmkolasinski","Krzysztof Kolasinski","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fkmkolasinski_a1bd308e.jpg","A bio","Shelfwise \u002F Form.com","Poland",null,"https:\u002F\u002Fgithub.com\u002Fkmkolasinski",[84,88],{"name":85,"color":86,"percentage":87},"Jupyter Notebook","#DA5B0B",99.8,{"name":89,"color":90,"percentage":91},"Python","#3572A5",0.2,1352,267,"2026-03-26T00:17:42",1,"","未说明",{"notes":99,"python":97,"dependencies":100},"该项目主要包含基于 Keras 和 TensorFlow 的深度学习实验代码（如胶囊网络池化、最大范数优化器、SELU 正则化及数据过采样示例）。README 中未明确列出具体的操作系统、硬件配置或 Python 版本要求，实际运行环境需参考各子项目目录内的具体代码实现。",[101,102],"keras","tensorflow",[13,54],"2026-03-27T02:49:30.150509","2026-04-06T08:09:03.041261",[107,112,117,122,127,132],{"id":108,"question_zh":109,"answer_zh":110,"source_url":111},14060,"在 Glow 模型中，变量 y 和 z 的具体含义及生成过程是什么？","y 和 z 是前向流（forward flow）的输出。在多尺度架构中，输入 x 被分割：一半用于增加 z 的维度（通过 FactorOutLayer），另一半作为 y 传递给下一个流（如 squeeze 层）。最终潜在表示通常由 z 和 y 拼接而成。其中，p(y) 旨在保留图像信息（非高斯分布形式），而 p(z) 旨在保留噪声（趋向高斯分布）。","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F17",{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},14061,"Neural ODE 中梯度是如何计算的？是否使用了伴随方法（Adjoint Method）？","是的，使用了伴随方法。在前向模式中，仅使用选定的求解器积分神经网络（`odeint(net, h0, t_steps)`），不计算梯度。在反向模式中，需要计算神经网络相对于输入的雅可比矩阵，利用伴随方法累积梯度。具体步骤包括：定义损失函数生成梯度，将其代入伴随 ODE，并在求解器的每一步计算雅可比 - 向量积（JVP）：`a(t)^T * dNet(h)\u002Fdh`。虽然 `tf.GradientTape` 可以计算梯度，但在 Neural ODE 的标准实现中，为了节省内存，通常采用伴随法而非存储整个计算图。","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F11",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},14062,"如何在 Neural ODE 中实现包含多个时间依赖特征（而不仅仅是时间本身）的模型？","可以通过修改神经网络模块来处理多特征输入。例如，将时间 t 和其他特征 x 分别处理后合并。代码示例如下：\n```python\nclass NNModule(tf.keras.Model):\n    def __init__(self, num_filters):\n        super(NNModule, self).__init__(name=\"Module\")\n        self.dense_1 = keras.layers.Dense(num_filters, activation=\"tanh\")        \n        self.t_dense_1 = keras.layers.Dense(num_filters, activation=lambda x: tf.sin(x))\n\n    def call(self, inputs, **kwargs):\n        t, x = inputs  # 输入包含时间和特征\n        t = tf.tile(tf.reshape(t, [1, 1]), [batch_size, 1])  # 扩展时间维度\n        t1 = self.t_dense_1(t)        \n        h = self.dense_1(x) + t1  # 融合时间编码和特征\n        return h\n```\n这种方法允许模型学习温度变化率如何依赖于太阳能加热、被动冷却等多个动态因素。","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F14",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},14063,"项目中使用的过采样（Oversampling）方法源自哪篇论文或理论依据？","过采样和欠采样是解决类别不平衡问题的常用方法，并非源自单一特定论文，而是机器学习领域的通用技术。建议参考以下资源了解其数学原理和应用：\n1. Marco Altini 的博客关于处理不平衡数据的文章：https:\u002F\u002Fwww.marcoaltini.com\u002Fblog\u002Fdealing-with-imbalanced-data-undersampling-oversampling-and-proper-cross-validation\n2. Kaggle 上的相关教程：https:\u002F\u002Fwww.kaggle.com\u002Fresidentmario\u002Fundersampling-and-oversampling-imbalanced-data","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F7",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},14064,"在 CIFAR-10 上使用 SGD+Momentum 训练时，如何设置学习率并正确绘制验证曲线以获得最佳结果？","为了获得公平且最佳的基准测试结果：\n1. 初始学习率（LR）应设置为 0.01 而不是 0.001，这可以将最终准确率提高约 6%（达到~82%）。\n2. 绘图时务必使用验证集数据（`val_loss` 和 `validation acc`），原代码中误绘了训练数据导致动量法效果看起来较差。\n3. 对于某些归一化实验，使用标准差（STD）归一化可能在 CIFAR-10 上获得最佳分数。","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F3",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},14065,"如何引用该项目中的 Glow 代码？是否有对应的 BibTeX？","如果没有专门的论文引用，可以直接引用该 GitHub 仓库的 URL。维护者表示同意用户在其发表的论文（如 ECCV 会议论文）中引用此代码库。如果在学术工作中使用了此代码，建议在参考文献中列出项目地址或说明代码来源。","https:\u002F\u002Fgithub.com\u002Fkmkolasinski\u002Fdeep-learning-notes\u002Fissues\u002F23",[]]