[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-cthorey--CS231":3,"tool-cthorey--CS231":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,2,"2026-04-08T11:23:26",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":32,"last_commit_at":41,"category_tags":42,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[43,13,15,14],"插件",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[52,15,13,14],"语言模型",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,61],"视频",{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":67,"readme_en":68,"readme_zh":69,"quickstart_zh":70,"use_case_zh":71,"hero_image_url":72,"owner_login":73,"owner_name":74,"owner_avatar_url":75,"owner_bio":74,"owner_company":74,"owner_location":74,"owner_email":74,"owner_twitter":74,"owner_website":74,"owner_url":76,"languages":77,"stars":96,"forks":97,"last_commit_at":98,"license":74,"difficulty_score":32,"env_os":99,"env_gpu":100,"env_ram":100,"env_deps":101,"category_tags":104,"github_topics":74,"view_count":32,"oss_zip_url":74,"oss_zip_packed_at":74,"status":17,"created_at":106,"updated_at":107,"faqs":108,"releases":114},6075,"cthorey\u002FCS231","CS231","My corrections for the Standford class assingments CS231n -  Convolutional Neural Networks for Visual Recognition","CS231 是斯坦福大学热门课程\"CS231n：用于视觉识别的卷积神经网络”的作业修正与参考实现合集。该项目旨在帮助学习者攻克深度学习入门阶段的难点，特别是解决在手动实现反向传播、批归一化（Batch Norm）以及构建卷积神经网络时容易遇到的代码错误与逻辑困惑。\n\n对于正在自学深度学习的学生、开发者或研究人员而言，CS231 是一份极具价值的实践指南。它不仅提供了课程作业的完整解决方案，供用户对照检查自己的代码，还通过两篇配套的技术博客，深入剖析了批归一化的数学推导与卷积网络的具体实现细节。这种“代码 + 原理”的双重讲解方式，能有效帮助用户从理论公式过渡到实际工程落地，真正理解神经网络背后的运作机制。\n\n如果你希望夯实计算机视觉基础，或者在复现经典算法时遭遇瓶颈，CS231 都能提供清晰、准确的参考路径。它不仅是作业答案的集合，更是一座连接学术理论与工程实践的桥梁，适合所有渴望深入理解卷积神经网络核心原理的技术爱好者使用。","# CS231n: Convolutional Neural Networks for Visual Recognition\n\nThese  past  weeks,  I  have  been following  the  Stanford  CS  class\n[CS231n: Convolutional Neural Networks for Visual Recognition](http:\u002F\u002Fcs231n.github.io\u002F). You\ncan find my solutions to the assignment in this repo.\n\nI also wrote two blog posts related to this resolution. \n\n-  One  on  the  implementation   of  batch-norm  that  you  can  find\n  [here](http:\u002F\u002Fcthorey.github.io.\u002Fbackpropagation\u002F).\n- Another on the implementation of a conv-net that you can find [here](http:\u002F\u002Fcthorey.github.io.\u002Fbackprop_conv\u002F).\n\nA big thank  to all the team  from the CS231 Stanford class  who do a\nfantastic work in vulgarizing the knowledge behind neural networks.\n","# CS231n：用于视觉识别的卷积神经网络\n\n过去几周，我一直学习斯坦福大学的计算机科学课程\n[CS231n：用于视觉识别的卷积神经网络](http:\u002F\u002Fcs231n.github.io\u002F)。你可以在这个仓库中找到我对课后作业的解答。\n\n此外，我还撰写了两篇与该课程相关的博客文章：\n\n- 一篇关于批量归一化的实现，你可以在[这里](http:\u002F\u002Fcthorey.github.io.\u002Fbackpropagation\u002F)阅读。\n- 另一篇关于卷积神经网络的实现，你可以在[这里](http:\u002F\u002Fcthorey.github.io.\u002Fbackprop_conv\u002F)查看。\n\n在此向斯坦福大学CS231课程团队的所有成员致以衷心的感谢，他们为普及神经网络背后的知识做出了卓越的努力。","# CS231n 快速上手指南\n\n> **注意**：本仓库（CS231）并非一个可直接安装的软件包或库，而是斯坦福大学 CS231n 课程《卷积神经网络视觉识别》的作业代码实现与学习笔记。以下指南将帮助你搭建运行这些作业代码所需的环境。\n\n## 环境准备\n\n在开始之前，请确保你的系统满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu), macOS 或 Windows (需使用 WSL2)。\n*   **Python 版本**：Python 3.6+ (推荐 Python 3.8 或 3.9，以兼容旧版课程代码)。\n*   **核心依赖**：\n    *   `numpy`\n    *   `matplotlib`\n    *   `jupyter notebook`\n    *   `future`\n    *   `pillow`\n    *   `scipy`\n    *   `torch` \u002F `tensorflow` (视具体作业要求而定，早期作业主要基于纯 NumPy 实现)。\n\n**国内加速建议**：\n推荐使用清华源或阿里源安装 Python 依赖，以提升下载速度。\n\n## 安装步骤\n\n1.  **克隆仓库**\n    获取本项目的源代码：\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fcthorey\u002FCS231.git\n    cd CS231\n    ```\n\n2.  **创建虚拟环境**\n    建议使用 `conda` 或 `venv` 隔离环境。以下是使用 `conda` 的示例：\n    ```bash\n    conda create -n cs231 python=3.8\n    conda activate cs231\n    ```\n\n3.  **安装依赖库**\n    进入项目目录，使用国内镜像源安装所需包：\n    ```bash\n    pip install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n    *注：如果项目中没有 `requirements.txt`，请手动安装核心库：*\n    ```bash\n    pip install numpy matplotlib jupyter future pillow scipy -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n4.  **下载数据集**\n    CS231n 作业通常需要 CIFAR-10 数据集。在项目根目录下运行提供的脚本（如果有），或手动下载：\n    ```bash\n    cd assignment1\n    bash get_datasets.sh\n    ```\n    *若脚本下载缓慢，可手动从 [CIFAR-10 官网](https:\u002F\u002Fwww.cs.toronto.edu\u002F~kriz\u002Fcifar.html) 下载 `cifar-10-python.tar.gz` 并放入 `assignment1\u002Fdatasets` 目录。*\n\n## 基本使用\n\n本项目主要用于学习和完成课程作业。最简单的使用方式是启动 Jupyter Notebook 来运行和编辑作业文件。\n\n1.  **启动 Jupyter Notebook**\n    进入对应的作业目录（例如 `assignment1`）：\n    ```bash\n    cd assignment1\n    jupyter notebook\n    ```\n\n2.  **开始练习**\n    浏览器会自动打开界面。点击 `.ipynb` 文件（如 `knn.ipynb`, `softmax.ipynb` 等），按照单元格中的说明逐步执行代码，完成神经网络的前向传播、反向传播及模型训练实验。\n\n3.  **查看博客解析**\n    作者在 README 中提到了两篇相关技术博客，可作为代码实现的补充阅读：\n    *   Batch-Norm 实现详解：[http:\u002F\u002Fcthorey.github.io.\u002Fbackpropagation\u002F](http:\u002F\u002Fcthorey.github.io.\u002Fbackpropagation\u002F)\n    *   卷积网络实现详解：[http:\u002F\u002Fcthorey.github.io.\u002Fbackprop_conv\u002F](http:\u002F\u002Fcthorey.github.io.\u002Fbackprop_conv\u002F)","一名计算机视觉方向的研究生在自学斯坦福 CS231n 课程时，试图从零实现卷积神经网络以完成图像分类作业，却在反向传播推导中陷入困境。\n\n### 没有 CS231 时\n- 手动推导批量归一化（Batch-Norm）的梯度公式极易出错，花费数天调试仍无法收敛，却不知 bug 藏在哪个矩阵运算中。\n- 对卷积层的反向传播逻辑理解模糊，只能机械地复制课件伪代码，一旦修改网络结构便束手无策。\n- 缺乏高质量的参考实现作为“标准答案”，无法验证自己的前向传播与反向传播是否完全对齐理论。\n- 遇到报错时只能在论坛盲目搜索，难以区分是数学原理错误还是代码实现细节疏漏。\n- 学习过程孤立无援，缺少对核心算法深层机制的直观博客解析，导致知识停留在表面调用。\n\n### 使用 CS231 后\n- 对照 CS231 中经过验证的作业修正代码，迅速定位到批量归一化梯度计算中的转置错误，模型训练立刻恢复正常。\n- 参考作者关于卷积网实现的详细博客，彻底理清了误差项在卷积核间的传递路径，能够自信地自定义网络层。\n- 将 CS231 作为基准测试集，逐行比对数据流形状与数值差异，确保每一步矩阵操作都符合数学预期。\n- 借助仓库中清晰的注释与纠错记录，快速识别出常见的维度不匹配陷阱，大幅缩短调试周期。\n- 通过阅读配套的技术文章，将抽象的反向传播公式转化为可视化的代码逻辑，真正掌握了神经网络的底层原理。\n\nCS231 不仅提供了正确的代码答案，更通过详尽的纠错与解析，将深度学习黑盒变成了透明可懂的学习阶梯。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fcthorey_CS231_d07b506f.png","cthorey",null,"https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fcthorey_c67d5dc0.jpg","https:\u002F\u002Fgithub.com\u002Fcthorey",[78,82,86,90,93],{"name":79,"color":80,"percentage":81},"Jupyter Notebook","#DA5B0B",98.2,{"name":83,"color":84,"percentage":85},"Python","#3572A5",1.7,{"name":87,"color":88,"percentage":89},"Shell","#89e051",0,{"name":91,"color":92,"percentage":89},"TeX","#3D6117",{"name":94,"color":95,"percentage":89},"Emacs Lisp","#c065db",596,280,"2026-03-19T16:32:58","","未说明",{"notes":102,"python":100,"dependencies":103},"README 内容仅表明这是斯坦福 CS231n 课程作业的个人解答仓库及相关博客链接，并未包含任何关于运行环境、依赖库或安装指南的具体技术说明。",[],[15,105],"其他","2026-03-27T02:49:30.150509","2026-04-10T10:32:07.894516",[109],{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},27529,"在 LSTM 反向传播（lstm_step_backward）第 343 行中，使用 `+=` 是错误还是有意为之？","这是有意为之且代码正确。在 LSTM 电路结构中，细胞状态（cell state）存在分支。虽然前向传播中 `next_h = o * np.tanh(next_c)`，但在反向传播时，梯度会流向多个路径，因此需要使用 `+=` 来累加来自不同分支的梯度。具体代码 `dnext_c += o * (1 - np.tanh(next_c)**2) * dnext_h` 是正确的实现。","https:\u002F\u002Fgithub.com\u002Fcthorey\u002FCS231\u002Fissues\u002F1",[]]