[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-OsciiArt--DeepAA":3,"tool-OsciiArt--DeepAA":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",146793,2,"2026-04-08T23:32:35",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,"2026-04-08T11:23:26",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":10,"last_commit_at":59,"category_tags":60,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[35,15,13,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":72,"owner_avatar_url":73,"owner_bio":74,"owner_company":75,"owner_location":76,"owner_email":77,"owner_twitter":75,"owner_website":75,"owner_url":78,"languages":79,"stars":84,"forks":85,"last_commit_at":86,"license":87,"difficulty_score":88,"env_os":89,"env_gpu":90,"env_ram":90,"env_deps":91,"category_tags":102,"github_topics":103,"view_count":32,"oss_zip_url":75,"oss_zip_packed_at":75,"status":17,"created_at":109,"updated_at":110,"faqs":111,"releases":141},5735,"OsciiArt\u002FDeepAA","DeepAA","make ASCII Art by Deep Learning","DeepAA 是一款利用深度学习技术自动生成 ASCII 字符画的开源项目。它通过卷积神经网络（CNN）将普通的灰度线条图像转化为由字符组成的艺术图案，解决了传统方法难以捕捉图像细节与风格、手动制作效率低下的问题，让机器也能展现独特的创意表达。\n\n该项目曾入选 NIPS 2017“机器学习与创意设计”研讨会，其核心亮点在于使用端到端的深度学习模型直接合成高质量的字符画，而非依赖简单的阈值分割或模板匹配。用户只需准备一张灰度图，运行脚本即可在输出目录获得对应的 ASCII 作品，还支持切换轻量级模型以适应不同性能需求。\n\nDeepAA 适合对生成式艺术感兴趣的开发者、研究人员以及希望探索 AI 创意应用的设计师使用。由于项目基于 TensorFlow 和 Keras 构建，并提供了预训练权重与示例代码，具备一定 Python 和深度学习基础的用户可以快速上手实验。虽然官方网页版可供普通用户体验旧版模型效果，但完整功能仍需本地部署。作为早期探索 AI 与艺术结合的代表作之一，DeepAA 为后续相关研究提供了有价值的参考实现。","DeepAA\n====\n\nThis is convolutional neural networks generating ASCII art.\nThis repository is under construction.\n\nThis work is accepted by [NIPS 2017 Workshop, Machine Learning for Creativity and Design](https:\u002F\u002Fnips2017creativity.github.io\u002F)\nThe paper: [ASCII Art Synthesis with Convolutional Networks](https:\u002F\u002Fnips2017creativity.github.io\u002Fdoc\u002FASCII_Art_Synthesis.pdf)\n\n[Web application (using previous version model)](https:\u002F\u002Ftar-bin.github.io\u002FDeepAAonWeb\u002F) (by [tar-bin](https:\u002F\u002Fgithub.com\u002Ftar-bin))\n\n![image sample](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOsciiArt_DeepAA_readme_3649e6dbd838.png)\n\n\n## Change log\n+ 2017\u002F12\u002F2 added light model\n## Requirements\n\n+ TensorFlow (1.3.0)\n+ Keras (2.0.8)\n+ NumPy (1.13.3)\n+ Pillow (4.2.1)\n+ Pandas (0.18.0)\n+ Scikit-learn (0.19.0)\n+ h5py (2.7.1)\n+ model's weight (download it from [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B90WglS_AQWebjBleG5uRXpmbUE) and place it in dir `model`.)\n+ training data (additional, download it from  [here](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1L5n5ICrsXtsWkT-aq2et1FTzp-RH3CeS), extract it and place the extracted directory in dir `data`.)\n)\n\n## How to use\nplease change the line 15 of `output.py `\n\n```\nimage_path = 'sample images\u002Foriginal images\u002F21 original.png' # put the path of the image that you convert.\n```\ninto the path of image file that you use.\nYou should use a grayscale line image.\n\nthen run `output.py `.\nconverted images will be output at `output\u002F `.\n\nYou can select light model by change the line 13, 14  of `output.py ` into\n```\nmodel_path = \"model\u002Fmodel_light.json\"\nweight_path = \"model\u002Fweight_light.hdf5\"\n```\n## License\nThe pre-trained models and the other files we have provided are licensed under the MIT License.\n","DeepAA\n====\n\n这是一个使用卷积神经网络生成 ASCII 艺术的作品。\n本仓库仍在建设中。\n\n该工作已被 [NIPS 2017 创意与设计机器学习研讨会](https:\u002F\u002Fnips2017creativity.github.io\u002F) 接受。\n论文：[使用卷积网络合成 ASCII 艺术](https:\u002F\u002Fnips2017creativity.github.io\u002Fdoc\u002FASCII_Art_Synthesis.pdf)\n\n[Web 应用程序（使用旧版本模型）](https:\u002F\u002Ftar-bin.github.io\u002FDeepAAonWeb\u002F)（由 [tar-bin](https:\u002F\u002Fgithub.com\u002Ftar-bin) 开发）\n\n![图像示例](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOsciiArt_DeepAA_readme_3649e6dbd838.png)\n\n\n## 更新日志\n+ 2017\u002F12\u002F2 添加了轻量级模型\n## 环境要求\n\n+ TensorFlow (1.3.0)\n+ Keras (2.0.8)\n+ NumPy (1.13.3)\n+ Pillow (4.2.1)\n+ Pandas (0.18.0)\n+ Scikit-learn (0.19.0)\n+ h5py (2.7.1)\n+ 模型权重文件（从 [这里](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B90WglS_AQWebjBleG5uRXpmbUE) 下载，并放置于 `model` 目录下）\n+ 训练数据（可选，从 [这里](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1L5n5ICrsXtsWkT-aq2et1FTzp-RH3CeS) 下载，解压后将得到的目录放入 `data` 目录）\n\n## 使用方法\n请修改 `output.py` 文件的第 15 行：\n\n```\nimage_path = 'sample images\u002Foriginal images\u002F21 original.png' # 替换为您要转换的图片路径。\n```\n\n将其改为您所使用的图片文件路径。请注意，输入图片应为灰度线条图。\n\n然后运行 `output.py`，转换后的图片将会输出到 `output\u002F` 目录中。\n\n若要使用轻量级模型，只需将 `output.py` 文件的第 13、14 行修改为：\n\n```\nmodel_path = \"model\u002Fmodel_light.json\"\nweight_path = \"model\u002Fweight_light.hdf5\"\n```\n\n## 许可协议\n我们提供的预训练模型及其他文件均采用 MIT 许可协议授权。","# DeepAA 快速上手指南\n\nDeepAA 是一个基于卷积神经网络（CNN）生成 ASCII 字符画的开源项目。本指南将帮助你快速在本地部署并运行该工具。\n\n## 环境准备\n\n在开始之前，请确保你的系统已安装 **Python**（推荐 Python 3.6+），并准备好以下依赖库。由于原项目指定了较旧的版本，建议创建虚拟环境以避免冲突。\n\n**核心依赖：**\n- TensorFlow (1.3.0)\n- Keras (2.0.8)\n- NumPy (1.13.3)\n- Pillow (4.2.1)\n- Pandas (0.18.0)\n- Scikit-learn (0.19.0)\n- h5py (2.7.1)\n\n> **提示**：国内用户建议使用清华或阿里镜像源加速安装。\n\n## 安装步骤\n\n### 1. 克隆项目\n```bash\ngit clone https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA.git\ncd DeepAA\n```\n\n### 2. 安装 Python 依赖\n使用 pip 安装指定版本的依赖包（推荐使用国内镜像源）：\n\n```bash\npip install -i https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple tensorflow==1.3.0 keras==2.0.8 numpy==1.13.3 pillow==4.2.1 pandas==0.18.0 scikit-learn==0.19.0 h5py==2.7.1\n```\n\n### 3. 下载模型权重\n项目需要预训练的模型权重文件才能运行。\n- **下载地址**：[Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B90WglS_AQWebjBleG5uRXpmbUE)\n- **操作**：下载后，将文件放入项目根目录下的 `model` 文件夹中。\n  > *注：如果无法访问 Google Drive，需自行寻找替代下载源或使用代理。*\n\n### 4. （可选）下载训练数据\n如果你需要重新训练模型，可下载额外数据：\n- **下载地址**：[Google Drive 链接](https:\u002F\u002Fdrive.google.com\u002Fopen?id=1L5n5ICrsXtsWkT-aq2et1FTzp-RH3CeS)\n- **操作**：解压后将目录放入 `data` 文件夹。仅进行图像转换无需此步骤。\n\n## 基本使用\n\n### 1. 配置输入图片\n打开 `output.py` 文件，修改第 15 行，将 `image_path` 设置为你想要转换的图片路径。\n\n```python\nimage_path = 'sample images\u002Foriginal images\u002F21 original.png' # put the path of the image that you convert.\n```\n\n> **注意**：为了获得最佳效果，请使用**灰度线条图**（grayscale line image）。\n\n### 2. 运行转换\n在终端执行以下命令：\n\n```bash\npython output.py\n```\n\n转换生成的 ASCII 字符画图片将保存在 `output\u002F` 目录下。\n\n### 3. 切换轻量级模型（可选）\n如果需要运行速度更快的轻量级模型，请修改 `output.py` 的第 13 和 14 行：\n\n```python\nmodel_path = \"model\u002Fmodel_light.json\"\nweight_path = \"model\u002Fweight_light.hdf5\"\n```\n\n确保你已下载对应的轻量级权重文件（通常在上述模型下载链接中包含，或需单独确认文件名）。","一位独立游戏开发者正在为复古风格的终端界面设计独特的过场动画，需要将大量手绘线稿转换为字符画素材。\n\n### 没有 DeepAA 时\n- 设计师必须手动逐行计算像素密度并匹配对应的 ASCII 字符，处理一张高分辨率线稿耗时数小时。\n- 传统算法仅依据亮度阈值转换，导致生成的字符画线条断裂、细节丢失，缺乏艺术美感。\n- 调整风格需要重新编写复杂的映射规则代码，无法快速迭代不同的视觉效果。\n- 最终产出物往往显得生硬机械，难以还原原画中流畅的笔触和神韵。\n\n### 使用 DeepAA 后\n- 只需将灰度线稿路径配置进 `output.py`，DeepAA 利用卷积神经网络在秒级内自动生成高质量字符画。\n- 基于深度学习模型，DeepAA 能智能理解图像结构，生成的字符排列自然连贯，完美保留原画细节。\n- 通过切换 `model_light.json` 等不同预训练权重，开发者可一键尝试多种艺术风格，极大加速创作流程。\n- 输出结果直接具备专业级的视觉表现力，无需后期人工修补即可集成到游戏引擎中。\n\nDeepAA 将原本繁琐枯燥的手工转译工作转化为高效的自动化创作流程，让开发者能专注于艺术创意而非技术实现。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002FOsciiArt_DeepAA_33bfb16d.png","OsciiArt","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002FOsciiArt_fdfb1aff.png","Ascii Art Artist, learning deep learning.",null,"Japan","spnxxxx@gmail.com","https:\u002F\u002Fgithub.com\u002FOsciiArt",[80],{"name":81,"color":82,"percentage":83},"Python","#3572A5",100,1568,103,"2026-03-29T21:42:05","MIT",4,"","未说明",{"notes":92,"python":93,"dependencies":94},"该项目处于建设中。需手动下载预训练模型权重文件并放置于 `model` 目录；如需训练，还需额外下载数据集并放置于 `data` 目录。运行前需修改 `output.py` 中的图片路径。建议使用灰度线条图像以获得最佳效果。提供了轻量级模型选项，可通过修改代码路径切换。","未说明 (基于 TensorFlow 1.3.0 和 Keras 2.0.8，推测为 Python 2.7 或 3.5\u002F3.6)",[95,96,97,98,99,100,101],"tensorflow==1.3.0","keras==2.0.8","numpy==1.13.3","pillow==4.2.1","pandas==0.18.0","scikit-learn==0.19.0","h5py==2.7.1",[14],[104,105,106,107,108],"deep-learning","keras","tensorflow","ascii-art","python","2026-03-27T02:49:30.150509","2026-04-09T10:18:22.369327",[112,117,122,127,132,137],{"id":113,"question_zh":114,"answer_zh":115,"source_url":116},26016,"如何获取缺失的模型权重文件（weight.hdf5）？","由于文件大小超出 Git LFS 带宽限制，无法直接在仓库中提供。请从以下 Google Drive 链接下载权重文件：https:\u002F\u002Fdrive.google.com\u002Fopen?id=0B90WglS_AQWebjBleG5uRXpmbUE，下载后将其放入项目根目录下的 \"model\" 文件夹中。","https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA\u002Fissues\u002F4",{"id":118,"question_zh":119,"answer_zh":120,"source_url":121},26017,"运行 deepaa_output.py 时出现 'unexpected keyword argument input_dtype' 错误怎么办？","该错误通常由 Keras 版本不兼容引起。该项目是基于 Keras 1.2.0 开发的，较新版本（如 2.x）会导致此错误。请卸载当前版本并安装指定版本：pip install keras==1.2.0。同时确保 TensorFlow 版本为 1.0.1 以保持兼容性。","https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA\u002Fissues\u002F2",{"id":123,"question_zh":124,"answer_zh":125,"source_url":126},26018,"README 中的训练数据链接指向了错误的文件怎么办？","这是一个文档错误，之前的链接确实错误地指向了权重文件。维护者已修复该问题，请查阅最新的 README.md 文件以获取正确的训练数据下载链接和提取说明。","https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA\u002Fissues\u002F7",{"id":128,"question_zh":129,"answer_zh":130,"source_url":131},26019,"DeepAA 生成的 ASCII 艺术应该使用什么字体查看效果最好？","虽然用户尝试了等宽字体，但发现对于某些复杂的生成结果可能不够完美。该项目主要设计用于生成标准的 ASCII 艺术，建议在终端或支持等宽字体的编辑器中查看。如果显示错位，请确保编辑器强制使用了等宽字体（Monospace），因为 ASCII 艺术依赖字符对齐。","https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA\u002Fissues\u002F9",{"id":133,"question_zh":134,"answer_zh":135,"source_url":136},26020,"DeepAA 是用于图像压缩的技术吗？","不是。维护者明确指出，ASCII 艺术的表示能力较弱，很难从生成的 ASCII 艺术中解码还原出原始图像。因此，它不应被视为一种信息压缩方法，而应被视为一种艺术创作形式。","https:\u002F\u002Fgithub.com\u002FOsciiArt\u002FDeepAA\u002Fissues\u002F1",{"id":138,"question_zh":139,"answer_zh":140,"source_url":136},26021,"是否有在线版本可以直接体验 DeepAA 而无需本地部署？","有的。虽然这不是本项目维护者直接开发的，但有一个基于 DeepAA 的网页版可用。你可以访问 https:\u002F\u002Ftar-bin.github.io\u002FDeepAAonWeb\u002F 进行实践和体验。",[]]