[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-nobody132--masr":3,"tool-nobody132--masr":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160411,2,"2026-04-18T23:33:24",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":75,"owner_location":75,"owner_email":75,"owner_twitter":75,"owner_website":75,"owner_url":76,"languages":77,"stars":82,"forks":83,"last_commit_at":84,"license":75,"difficulty_score":10,"env_os":85,"env_gpu":86,"env_ram":85,"env_deps":87,"category_tags":90,"github_topics":92,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":97,"updated_at":98,"faqs":99,"releases":100},9359,"nobody132\u002Fmasr","masr","中文语音识别; Mandarin Automatic Speech Recognition;","masr 是一个专注于中文普通话识别的开源项目，旨在利用端到端深度神经网络技术，将语音信号高效转化为文字。它主要解决了个人开发者在缺乏海量工业级数据的情况下，难以快速搭建和实验中文语音识别模型的痛点，为学术研究和技术验证提供了可靠的基准参考。\n\n该项目特别适合人工智能研究人员、深度学习开发者以及希望探索语音技术的学生使用。如果你需要复现卷积网络在语音领域的应用，或想在自己的硬件上训练专属模型，masr 是理想的入门选择。需要注意的是，由于训练数据规模（约 150 小时）远小于商业系统，其原生识别准确率更适合用于技术探讨，而非直接部署于高要求的商业场景。\n\nmasr 的核心技术亮点在于采用了门控卷积神经网络（Gated Convolutional Network），其架构灵感源自 Facebook 的 Wav2letter，但创新性地使用 GLU（门控线性单元）替代传统的 ReLU 激活函数。这一改进显著提升了模型的收敛速度。在标准测试中，masr 的字错误率（CER）可降至 14%，若结合外部语言模型优化，更能进一步降低至 8%，展现了优秀的可扩展性与研究价值。","# MASR 中文语音识别\n\n**MASR**是一个基于**端到端的深度神经网络**的**中文普通话语音识别**项目。\n\n## 原理\n\nMASR使用的是门控卷积神经网络（Gated Convolutional Network），网络结构类似于Facebook在2016年提出的Wav2letter。但是使用的激活函数不是`ReLU`或者是`HardTanh`，而是`GLU`（门控线性单元）。因此称作门控卷积网络。根据我的实验，使用`GLU`的收敛速度比`HardTanh`要快。如果你想要研究卷积网络用于语音识别的效果，这个项目可以作为一个参考。\n\n**以下用字错误率CER来衡量模型的表现，CER = 编辑距离 \u002F 句子长度，越低越好**\n\n**大致可以理解为 1 - CER 就是识别准确率。**\n\n模型使用AISHELL-1数据集训练，共150小时的录音，覆盖了4000多个汉字。**工业界使用的语音识别系统通常使用至少10倍于本项目的录音数据来训练，同时使用特定场景的语料来训练语言模型**，所以，不要期待本项目可以和工业界的识别效果媲美。这对于Github上任何个人项目来说都不现实，除非有更先进的技术诞生。\n\n*什么叫特定场景的语料训练的语言模型？比如你使用游戏中的语音识别，它更倾向于将你的话识别成你在玩游戏时可能说的话，比如「貂蝉被蓝打死了」。而在其他场景下，「貂蝉被蓝打死了」根本就不是一句通顺的话。不信你和一个只读过三国演义没玩过王者荣耀的人说「貂蝉被蓝打死了」，你确定ta不会反问你：「啥？貂蝉被谁打死了？lan是谁？」*\n\n在单卡GTX 1080Ti上，模型每迭代一个epoch大约需要20分钟。（实验室的CUDA版本较低，不排除更新CUDA版本后会快一些的可能。）\n\n\u003Cimg src=\"images\u002Ftrain.svg\">\n\n上图为验证集的CER随epoch的训练曲线。可以看到，目前验证集CER已经下降到11%。\n\n图中没有显示测试集的表现。测试集的CER稍高一些，在14%。\n\n通过外接语言模型可以将测试集的CER降低到8%。\n\n项目目前提供的预训练模型训练了大约是100个epoch时候的，已经接近最好了。","# MASR 中文语音识别\n\n**MASR** 是一个基于**端到端的深度神经网络**的**中文普通话语音识别**项目。\n\n## 原理\n\nMASR 使用的是门控卷积神经网络（Gated Convolutional Network），网络结构类似于 Facebook 在 2016 年提出的 Wav2letter。但是使用的激活函数不是 `ReLU` 或者 `HardTanh`，而是 `GLU`（门控线性单元）。因此称作门控卷积网络。根据我的实验，使用 `GLU` 的收敛速度比 `HardTanh` 要快。如果你想要研究卷积网络用于语音识别的效果，这个项目可以作为一个参考。\n\n**以下用字错误率 CER 来衡量模型的表现，CER = 编辑距离 \u002F 句子长度，越低越好**\n\n**大致可以理解为 1 - CER 就是识别准确率。**\n\n模型使用 AISHELL-1 数据集训练，共 150 小时的录音，覆盖了 4000 多个汉字。**工业界使用的语音识别系统通常使用至少 10 倍于本项目的录音数据来训练，同时使用特定场景的语料来训练语言模型**，所以，不要期待本项目可以和工业界的识别效果媲美。这对于 Github 上任何个人项目来说都不现实，除非有更先进的技术诞生。\n\n*什么叫特定场景的语料训练的语言模型？比如你使用游戏中的语音识别，它更倾向于将你的话识别成你在玩游戏时可能说的话，比如「貂蝉被蓝打死了」。而在其他场景下，「貂蝉被蓝打死了」根本就不是一句通顺的话。不信你和一个只读过三国演义没玩过王者荣耀的人说「貂蝉被蓝打死了」，你确定 ta 不会反问你：「啥？貂蝉被谁打死了？lan 是谁？」*\n\n在单卡 GTX 1080Ti 上，模型每迭代一个 epoch 大约需要 20 分钟。（实验室的 CUDA 版本较低，不排除更新 CUDA 版本后会快一些的可能。）\n\n\u003Cimg src=\"images\u002Ftrain.svg\">\n\n上图为验证集的 CER 随 epoch 的训练曲线。可以看到，目前验证集 CER 已经下降到 11%。\n\n图中没有显示测试集的表现。测试集的 CER 稍高一些，在 14%。\n\n通过外接语言模型可以将测试集的 CER 降低到 8%。\n\n项目目前提供的预训练模型训练了大约是 100 个 epoch 时候的，已经接近最好了。","# MASR 中文语音识别快速上手指南\n\nMASR 是一个基于端到端深度神经网络（门控卷积网络）的中文普通话语音识别项目。本项目使用 AISHELL-1 数据集训练，适合用于研究卷积网络在语音识别领域的应用及学习相关原理。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux (推荐 Ubuntu) 或 macOS\n*   **硬件要求**：NVIDIA GPU (推荐 GTX 1080Ti 及以上)，单卡训练约需 20 分钟\u002Fepoch\n*   **软件依赖**：\n    *   Python 3.6+\n    *   PyTorch 1.0+\n    *   CUDA (建议更新到较新版本以提升训练速度)\n    *   `sox` (音频处理工具)\n\n**前置依赖安装示例 (Ubuntu):**\n```bash\nsudo apt-get update\nsudo apt-get install -y sox libsox-fmt-all\npip3 install torch torchvision torchaudio\npip3 install soundfile librosa resampy\n```\n\n## 安装步骤\n\n克隆项目代码并安装必要的 Python 依赖包。国内用户建议使用镜像源加速下载。\n\n1.  **克隆仓库**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fyeyupiaoling\u002FMASR.git\n    cd MASR\n    ```\n\n2.  **安装依赖**\n    推荐使用国内镜像源（如清华源或阿里源）安装 `requirements.txt` 中的依赖：\n    ```bash\n    pip3 install -r requirements.txt -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n    ```\n\n3.  **准备数据**\n    下载 AISHELL-1 数据集并解压到项目目录下的 `dataset` 文件夹中（或使用脚本自动下载，视具体版本而定）。确保目录结构符合项目要求。\n\n## 基本使用\n\n以下是使用预训练模型进行语音识别的最简示例。\n\n### 1. 推理测试（使用预训练模型）\n\n假设您已下载好预训练模型文件（通常在 `models\u002F` 目录下），并对一段音频进行测试：\n\n```bash\npython3 infer.py --audio_path=dataset\u002Ftest\u002FBAC009S0764W0121.wav --model_path=models\u002Fbest_model.pth\n```\n\n*   `--audio_path`: 待识别的音频文件路径。\n*   `--model_path`: 预训练模型权重文件路径。\n\n程序将输出识别出的中文文本。\n\n### 2. 开始训练（可选）\n\n如果您希望从头开始训练模型或微调：\n\n```bash\npython3 train.py --data_dir=dataset --save_dir=models\n```\n\n*   训练过程中会实时输出验证集的字符错误率 (CER)。\n*   默认配置下，在单张 GTX 1080Ti 上每个 epoch 大约耗时 20 分钟。\n*   训练约 100 个 epoch 后模型效果趋于最佳（验证集 CER 可降至 11% 左右）。\n\n> **提示**：工业级语音识别通常需要十倍于此的数据量及特定场景的语言模型优化。本项目的测试结果（CER 约 14%）主要用于学术研究和原理验证，若需更高精度，可尝试接入外部语言模型将 CER 进一步降低至 8% 左右。","某初创团队正在开发一款面向老年用户的普通话语音日记应用，需要低成本实现高精度的语音转文字功能。\n\n### 没有 masr 时\n- **高昂的接入成本**：调用商业云 API 需按量付费，对于预算有限的初创项目，长期运营成本难以承受。\n- **隐私数据风险**：用户的私密日记内容必须上传至第三方服务器处理，存在敏感信息泄露的合规隐患。\n- **定制能力缺失**：通用识别引擎无法针对老年人语速慢、口音重的特点进行优化，导致识别错误率居高不下。\n- **离线功能受限**：依赖网络连接才能工作，在网络信号不佳的居家环境中，用户体验经常中断。\n\n### 使用 masr 后\n- **零成本私有部署**：利用 masr 开源的端到端深度神经网络模型，团队可在本地服务器免费运行，彻底消除 API 调用费用。\n- **数据完全可控**：所有语音数据均在本地完成推理，无需出网，从根源上保障了老年用户隐私安全。\n- **场景定向优化**：基于 masr 的门控卷积网络架构，团队可轻松使用特定语料微调模型，显著提升对老年语音特征的识别准确率。\n- **稳定离线运行**：模型轻量化后可嵌入边缘设备，即使无网络环境也能流畅完成语音转写，确保服务连续性。\n\nmasr 让中小开发者得以用极低的门槛构建出安全、定制且离线的专业级中文语音识别系统。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fnobody132_masr_498d66fe.png","nobody132","who","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fnobody132_3a118c86.jpg",null,"https:\u002F\u002Fgithub.com\u002Fnobody132",[78],{"name":79,"color":80,"percentage":81},"Python","#3572A5",100,1968,479,"2026-04-10T14:43:15","未说明","需要 NVIDIA GPU（文中提及 GTX 1080Ti），显存大小未说明，CUDA 版本未说明（文中提及实验室版本较低，更新后可能更快）",{"notes":88,"python":85,"dependencies":89},"项目基于门控卷积神经网络（Gated Convolutional Network）和 GLU 激活函数；使用 AISHELL-1 数据集（150 小时录音）训练；单卡 GTX 1080Ti 上每迭代一个 epoch 约需 20 分钟；预训练模型约为 100 个 epoch 的结果；测试集字错误率（CER）约为 14%，外接语言模型可降至 8%。",[85],[14,91],"音频",[93,94,95,96],"speech-recognition","chinese-speech-recognition","mandarin-chinese","pytorch","2026-03-27T02:49:30.150509","2026-04-19T09:17:58.275209",[],[101],{"id":102,"version":103,"summary_zh":104,"released_at":105},334012,"m1","可以从这里下载预训练模型","2019-07-01T07:24:02"]