[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-dailenson--One-DM":3,"tool-dailenson--One-DM":64},[4,17,27,35,43,56],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":16},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,3,"2026-04-05T11:01:52",[13,14,15],"开发框架","图像","Agent","ready",{"id":18,"name":19,"github_repo":20,"description_zh":21,"stars":22,"difficulty_score":23,"last_commit_at":24,"category_tags":25,"status":16},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",138956,2,"2026-04-05T11:33:21",[13,15,26],"语言模型",{"id":28,"name":29,"github_repo":30,"description_zh":31,"stars":32,"difficulty_score":23,"last_commit_at":33,"category_tags":34,"status":16},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",107662,"2026-04-03T11:11:01",[13,14,15],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":23,"last_commit_at":41,"category_tags":42,"status":16},3704,"NextChat","ChatGPTNextWeb\u002FNextChat","NextChat 是一款轻量且极速的 AI 助手，旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性，以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发，NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。\n\n这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言，它也提供了便捷的自托管方案，支持一键部署到 Vercel 或 Zeabur 等平台。\n\nNextChat 的核心亮点在于其广泛的模型兼容性，原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型，让用户在一个界面即可自由切换不同 AI 能力。此外，它还率先支持 MCP（Model Context Protocol）协议，增强了上下文处理能力。针对企业用户，NextChat 提供专业版解决方案，具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能，满足公司对数据隐私和个性化管理的高标准要求。",87618,"2026-04-05T07:20:52",[13,26],{"id":44,"name":45,"github_repo":46,"description_zh":47,"stars":48,"difficulty_score":23,"last_commit_at":49,"category_tags":50,"status":16},2268,"ML-For-Beginners","microsoft\u002FML-For-Beginners","ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程，旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周，包含 26 节精炼课程和 52 道配套测验，内容涵盖从基础概念到实际应用的完整流程，有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。\n\n无论是希望转型的开发者、需要补充算法背景的研究人员，还是对人工智能充满好奇的普通爱好者，都能从中受益。课程不仅提供了清晰的理论讲解，还强调动手实践，让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持，通过自动化机制提供了包括简体中文在内的 50 多种语言版本，极大地降低了全球不同背景用户的学习门槛。此外，项目采用开源协作模式，社区活跃且内容持续更新，确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路，ML-For-Beginners 将是理想的起点。",84991,"2026-04-05T10:45:23",[14,51,52,53,15,54,26,13,55],"数据工具","视频","插件","其他","音频",{"id":57,"name":58,"github_repo":59,"description_zh":60,"stars":61,"difficulty_score":10,"last_commit_at":62,"category_tags":63,"status":16},3128,"ragflow","infiniflow\u002Fragflow","RAGFlow 是一款领先的开源检索增强生成（RAG）引擎，旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体（Agent）能力相结合，不仅支持从各类文档中高效提取知识，还能让模型基于这些知识进行逻辑推理和任务执行。\n\n在大模型应用中，幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构（如表格、图表及混合排版），显著提升了信息检索的准确度，从而有效减少模型“胡编乱造”的现象，确保回答既有据可依又具备时效性。其内置的智能体机制更进一步，使系统不仅能回答问题，还能自主规划步骤解决复杂问题。\n\n这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统，还是致力于探索大模型在垂直领域落地的创新者，都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口，既降低了非算法背景用户的上手门槛，也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目，它正成为连接通用大模型与行业专有知识之间的重要桥梁。",77062,"2026-04-04T04:44:48",[15,14,13,26,54],{"id":65,"github_repo":66,"name":67,"description_en":68,"description_zh":69,"ai_summary_zh":69,"readme_en":70,"readme_zh":71,"quickstart_zh":72,"use_case_zh":73,"hero_image_url":74,"owner_login":75,"owner_name":76,"owner_avatar_url":77,"owner_bio":78,"owner_company":79,"owner_location":80,"owner_email":81,"owner_twitter":82,"owner_website":83,"owner_url":84,"languages":85,"stars":90,"forks":91,"last_commit_at":92,"license":93,"difficulty_score":10,"env_os":94,"env_gpu":95,"env_ram":96,"env_deps":97,"category_tags":103,"github_topics":104,"view_count":10,"oss_zip_url":82,"oss_zip_packed_at":82,"status":16,"created_at":113,"updated_at":114,"faqs":115,"releases":141},3764,"dailenson\u002FOne-DM","One-DM"," Official Code for ECCV 2024 paper — One-Shot Diffusion Mimicker for Handwritten Text Generation","One-DM 是一款专为手写文本生成设计的开源 AI 模型，源自 ECCV 2024 的研究成果。它的核心能力是“举一反三”：仅需提供一张手写样本作为参考，就能模仿其笔迹风格，生成任意指定内容的文本。\n\n传统的手写生成方法往往需要大量同一样本的参考图才能准确捕捉书写风格，而在仅有一张样本时效果通常不佳。One-DM 巧妙解决了这一痛点，通过引入高频分量增强模块，能够从单张参考图中精准提取笔触特征，同时有效抑制背景噪声干扰。实验证明，即便只使用一张参考图，One-DM 在英文、中文和日文数据集上的表现甚至超越了以往需要 15 倍参考量的主流方法。\n\n这款工具特别适合人工智能研究人员、字体设计师以及需要个性化手写内容生成的开发者使用。无论是为了学术研究中的小样本学习探索，还是设计场景中快速定制专属手写字体，One-DM 都能提供高效支持。目前项目已开源预训练模型和数据集，基于 PyTorch 构建，方便用户快速上手体验这一突破性的单样本模仿技术。","\u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPytorch-1.13-green\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue\">\u003C\u002Fa>\n  \n\u003Ch2 align=\"center\">\u003Ca href=\"\">One-DM:One-Shot Diffusion Mimicker for Handwritten Text Generation\u003C\u002Fa>\u003C\u002Fh2>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.04004\">ArXiv\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fblob\u002Fmain\u002Fassets\u002FPoster__One_DM.pdf\">Poster\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=5LoQ4iuVeak&t=19s\">Video\u003C\u002Fa> \n\u003C\u002Fdiv>\n\u003Cbr>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_0f460da66ccd.png\" style=\"width: 200px; height: 200px; margin: 0 auto;\">\n\u003C\u002Fp>\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green\">\u003C\u002Fa> -->\n\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWechat-blue\">\u003C\u002Fa> \n\u003Ca href=\"https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F718163422\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fzhihu-red\">\u003C\u002Fa>  -->\n\n\u003C!-- [Gang Dai](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=J4naK0MAAAAJ&hl=en), Yifan Zhang, Quhui Ke, Qiangya Guo, Lingyu Kong, Yanming Xu,  [Zheng Ge](https:\u002F\u002Fjoker316701882.github.io\u002F), Liang Zhao, [Jianjian Sun](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=MVZrGkYAAAAJ&hl=en), [Yuang Peng](https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?user=J0ko04IAAAAJ&hl=zh-CN&oi=ao), Chunrui Han, [Xiangyu Zhang](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=yuB-cfoAAAAJ&hl=en) -->\n\n\u003C!-- \u003Cp align=\"center\">\n\u003Cimg src=\"assets\u002Fgot_logo.png\" style=\"width: 200px\" align=center>\n\u003C\u002Fp> -->\n\n## 🌟 Introduction\n- We propose a One-shot Diffusion Mimicker (One-DM) for stylized handwritten text generation, which only requires a single reference sample as style input, and imitates its writing style to generate handwritten text with arbitrary content.\n- Previous state-of-the-art methods struggle to accurately extract a user's handwriting style from a single sample due to their limited ability to learn styles. To address this issue, we introduce the high-frequency components of the reference sample to\n enhance the extraction of handwriting style. The proposed style-enhanced module can effectively capture the writing style patterns and suppress the interference of background noise.\n- Extensive experiments on handwriting datasets in English, Chinese, and Japanese demonstrate that our approach with a single style reference even\noutperforms previous methods with 15x-more references.\n\u003Cdiv style=\"display: flex; flex-direction: column; align-items: center; \">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_d87736ef06ab.png\" style=\"width: 100%;\">\n\u003C\u002Fdiv>\n\u003Cp align=\"center\" style=\"margin-bottom: 10px;\">\nOverview of the proposed One-DM\n\u003C\u002Fp>\n\n## 🌠 News\n- [2025\u002F06\u002F26] 🔥🔥🔥 [DiffBrush](https:\u002F\u002Fgithub.com\u002Fdailenson\u002FDiffBrush), a novel state-of-the-art approach for full-line text generation, is accepted to ICCV 2025.\n- [2024\u002F10\u002F24] We have provided a well-trained One-DM checkpoint on Google Drive and Baidu Drive :)\n- [2024\u002F09\u002F16] This work is reported by [Synced](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F1JdBsjf0hru7iSS7jln02Q) (机器之心).\n- [2024\u002F09\u002F07]🔥🔥🔥 We open-source the first version of One-DM that can generate handwritten words. (Later versions supporting Chinese and Japanese will be released soon.)\n\n\n## 🔨 Requirements\n```\nconda create -n One-DM python=3.8 -y\nconda activate One-DM\n# install all dependencies\nconda env create -f environment.yml\n```\n## ☀️ Datasets\nWe provide English datasets in [Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F108TB-z2ytAZSIEzND94dyufybjpqVyn6) | [Baidu Netdisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F14ESFRk0RaTr98eeLzcr_xw?pwd=4vsv) | [ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FEnglish_data.zip). Please download these datasets, uzip them and move the extracted files to \u002Fdata.\n## 🐳 Model Zoo\n\n\n| Model|Google Drive|Baidu Netdisk|ShiZhi AI|\n|---------------|---------|-----------------------------------------|--------------|\n|Pretrained One-DM|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[Baidu Netdisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FOne-DM-ckpt.pt)\n|Pretrained OCR model|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[Baidu Netdisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002Fvae_HTR138.pth)\n|Pretrained Resnet18|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[Baidu Netdisk](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FRN18_class_10400.pth)\n\n**Note**:\nPlease download these weights, and move them to \u002Fmodel_zoo. (If you cannot access the pre-trained VAE model available on Hugging Face, please refer to the pinned issue for guidance.)\n## 🏋️ Training & Test\n- **training on English dataset**\n```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 train.py \\\n    --feat_model model_zoo\u002FRN18_class_10400.pth \\\n    --log English\n```\n- **finetune on English dataset**\n```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 train_finetune.py \\\n    --one_dm .\u002FSaved\u002FIAM64_scratch\u002FEnglish-timestamp\u002Fmodel\u002Fepoch-ckpt.pt \\\n    --ocr_model .\u002Fmodel_zoo\u002Fvae_HTR138.pth --log English\n ```\n**Note**:\nPlease modify ``timestamp`` and ``epoch`` according to your own path.\n\n- **test on English dataset**\n ```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 test.py \\\n    --one_dm .\u002FSaved\u002FIAM64_finetune\u002FEnglish-timestamp\u002Fmodel\u002Fepoch-ckpt.pt \\\n    --generate_type oov_u --dir .\u002FGenerated\u002FEnglish\n```\n**Note**:\nPlease modify ``timestamp`` and ``epoch`` according to your own path.\n## 📺 Exhibition\n- **Comparisons with industrial image generation methods on handwritten text generation**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_b57e881c08c0.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\n- **Comparisons with industrial image generation methods on Chinese handwriting generation**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_cd0f55969343.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\n- **English handwritten text generation**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_5055548b66b0.png\" style=\"width: 100%\" align=center>\n\u003C\u002Fp>\n\u003C!-- ![online English](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_5055548b66b0.png) -->\n\n- **Chinese and Japanese handwriting generation**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_2cd156b1b846.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\u003C!-- ![offline Chinese](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_2cd156b1b846.png) -->\n\n\n## ❤️ Citation\nIf you find our work inspiring or use our codebase in your research, please cite our work:\n```\n@inproceedings{one-dm2024,\n  title={One-Shot Diffusion Mimicker for Handwritten Text Generation},\n  author={Dai, Gang and Zhang, Yifan and Ke, Quhui and Guo, Qiangya and Huang, Shuangping},\n  booktitle={European Conference on Computer Vision},\n  year={2024}\n}\n```\n\n## ⭐ StarGraph\n[![Star History Chart](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_6bd8b43022c3.png)](https:\u002F\u002Fstar-history.com\u002F#dailenson\u002FOne-DM&Timeline)\n","\u003Ca href=\"\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FPytorch-1.13-green\">\u003C\u002Fa>\n\u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fblob\u002Fmain\u002FLICENSE\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FLicense-MIT-blue\">\u003C\u002Fa>\n  \n\u003Ch2 align=\"center\">\u003Ca href=\"\">One-DM：用于手写文本生成的单样本扩散模仿器\u003C\u002Fa>\u003C\u002Fh2>\n\u003Cdiv align=\"center\">\n  \u003Ca href=\"https:\u002F\u002Farxiv.org\u002Fabs\u002F2409.04004\">ArXiv\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fblob\u002Fmain\u002Fassets\u002FPoster__One_DM.pdf\">海报\u003C\u002Fa> |\n  \u003Ca href=\"https:\u002F\u002Fwww.youtube.com\u002Fwatch?v=5LoQ4iuVeak&t=19s\">视频\u003C\u002Fa> \n\u003C\u002Fdiv>\n\u003Cbr>\n\u003Cp align=\"center\">\n  \u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_0f460da66ccd.png\" style=\"width: 200px; height: 200px; margin: 0 auto;\">\n\u003C\u002Fp>\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0\u002F\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FProject-Page-Green\">\u003C\u002Fa> -->\n\n\u003C!-- \u003Ca href=\"https:\u002F\u002Fgithub.com\u002FUcas-HaoranWei\u002FGOT-OCR2.0\u002Fblob\u002Fmain\u002Fassets\u002Fwechat.jpg\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002FWechat-blue\">\u003C\u002Fa> \n\u003Ca href=\"https:\u002F\u002Fzhuanlan.zhihu.com\u002Fp\u002F718163422\">\u003Cimg src=\"https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Fzhihu-red\">\u003C\u002Fa>  -->\n\n\u003C!-- [戴刚](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=J4naK0MAAAAJ&hl=en), 张一凡, 柯曲辉, 郭强亚, 孔凌宇, 徐燕明,  [葛铮](https:\u002F\u002Fjoker316701882.github.io\u002F), 赵亮, [孙建建](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=MVZrGkYAAAAJ&hl=en), [彭元](https:\u002F\u002Fscholar.google.com.hk\u002Fcitations?user=J0ko04IAAAAJ&hl=zh-CN&oi=ao), 韩春锐, [张翔宇](https:\u002F\u002Fscholar.google.com\u002Fcitations?user=yuB-cfoAAAAJ&hl=en) -->\n\n\u003C!-- \u003Cp align=\"center\">\n\u003Cimg src=\"assets\u002Fgot_logo.png\" style=\"width: 200px\" align=center>\n\u003C\u002Fp> -->\n\n## 🌟 简介\n- 我们提出了一种用于风格化手写文本生成的单样本扩散模仿器（One-DM），该方法仅需一个参考样本作为风格输入，即可模仿其书写风格生成任意内容的手写文本。\n- 以往的最先进方法由于学习风格的能力有限，难以从单个样本中准确提取用户的书写风格。为解决这一问题，我们引入了参考样本的高频成分来增强书写风格的提取。所提出的风格增强模块能够有效捕捉书写风格模式，并抑制背景噪声的干扰。\n- 在英语、中文和日语手写数据集上的大量实验表明，我们的方法仅使用一个风格参考样本，其性能甚至超过了使用15倍以上参考样本的先前方法。\n\u003Cdiv style=\"display: flex; flex-direction: column; align-items: center; \">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_d87736ef06ab.png\" style=\"width: 100%;\">\n\u003C\u002Fdiv>\n\u003Cp align=\"center\" style=\"margin-bottom: 10px;\">\n所提出的One-DM概述\n\u003C\u002Fp>\n\n## 🌠 最新消息\n- [2025\u002F06\u002F26] 🔥🔥🔥 [DiffBrush](https:\u002F\u002Fgithub.com\u002Fdailenson\u002FDiffBrush)，一种用于整行文本生成的新型最先进方法，已被ICCV 2025接收。\n- [2024\u002F10\u002F24] 我们已在Google Drive和百度网盘上提供了训练好的One-DM检查点 :)\n- [2024\u002F09\u002F16] 本工作被[Synced](https:\u002F\u002Fmp.weixin.qq.com\u002Fs\u002F1JdBsjf0hru7iSS7jln02Q)（机器之心）报道。\n- [2024\u002F09\u002F07]🔥🔥🔥 我们开源了首个能够生成手写字词的One-DM版本。（后续支持中文和日语的版本将很快发布。)\n\n\n## 🔨 环境要求\n```\nconda create -n One-DM python=3.8 -y\nconda activate One-DM\n# 安装所有依赖\nconda env create -f environment.yml\n```\n## ☀️ 数据集\n我们提供了英语数据集，可通过[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F108TB-z2ytAZSIEzND94dyufybjpqVyn6) | [百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F14ESFRk0RaTr98eeLzcr_xw?pwd=4vsv) | [ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FEnglish_data.zip)获取。请下载这些数据集，解压后将文件移至\u002Fdata。\n## 🐳 模型库\n\n\n| 模型|Google Drive|百度网盘|ShiZhi AI|\n|---------------|---------|-----------------------------------------|--------------|\n|预训练One-DM|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FOne-DM-ckpt.pt)\n|预训练OCR模型|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002Fvae_HTR138.pth)\n|预训练Resnet18|[Google Drive](https:\u002F\u002Fdrive.google.com\u002Fdrive\u002Ffolders\u002F10KOQ05HeN2kaR2_OCZNl9D_Kh1p8BDaa)|[百度网盘](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F1VwckEw9TN734CirfWvZgiw?pwd=pfl8)|[ShiZhi AI](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FRN18_class_10400.pth)\n\n**注意**：\n请下载这些权重，并将其移动到\u002Fmodel_zoo。（如果您无法访问Hugging Face上提供的预训练VAE模型，请参阅置顶问题以获取指导。）\n## 🏋️ 训练与测试\n- **在英语数据集上训练**\n```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 train.py \\\n    --feat_model model_zoo\u002FRN18_class_10400.pth \\\n    --log English\n```\n- **在英语数据集上微调**\n```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 train_finetune.py \\\n    --one_dm .\u002FSaved\u002FIAM64_scratch\u002FEnglish-timestamp\u002Fmodel\u002Fepoch-ckpt.pt \\\n    --ocr_model .\u002Fmodel_zoo\u002Fvae_HTR138.pth --log English\n ```\n**注意**：\n请根据您自己的路径修改``timestamp``和``epoch``。\n\n- **在英语数据集上测试**\n ```Shell\nCUDA_VISIBLE_DEVICES=0,1,2,3 torchrun --nproc_per_node=4 test.py \\\n    --one_dm .\u002FSaved\u002FIAM64_finetune\u002FEnglish-timestamp\u002Fmodel\u002Fepoch-ckpt.pt \\\n    --generate_type oov_u --dir .\u002FGenerated\u002FEnglish\n```\n**注意**：\n请根据您自己的路径修改``timestamp``和``epoch``。\n## 📺 展示\n- **与工业级图像生成方法在手写文本生成上的对比**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_b57e881c08c0.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\n- **与工业级图像生成方法在中文手写生成上的对比**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_cd0f55969343.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\n- **英语手写文本生成**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_5055548b66b0.png\" style=\"width: 100%\" align=center>\n\u003C\u002Fp>\n\u003C!-- ![online English](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_5055548b66b0.png) -->\n\n- **中文和日语手写生成**\n\u003Cp align=\"center\">\n\u003Cimg src=\"https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_2cd156b1b846.png\" style=\"width: 90%\" align=center>\n\u003C\u002Fp>\n\u003C!-- ![offline Chinese](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_2cd156b1b846.png) -->\n\n\n## ❤️ 引用\n如果您觉得我们的工作富有启发性，或在您的研究中使用了我们的代码库，请引用我们的工作：\n```\n@inproceedings{one-dm2024,\n  title={用于手写文本生成的单样本扩散模仿器},\n  author={戴刚、张一凡、柯曲辉、郭强亚、黄双平},\n  booktitle={欧洲计算机视觉会议},\n  year={2024}\n}\n```\n\n## ⭐ 星图\n[![星级历史图表](https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_readme_6bd8b43022c3.png)](https:\u002F\u002Fstar-history.com\u002F#dailenson\u002FOne-DM&Timeline)","# One-DM 快速上手指南\n\nOne-DM (One-Shot Diffusion Mimicker) 是一个用于手写文本生成的开源项目。它仅需**单张**参考样本即可模仿其书写风格，生成任意内容的个性化手写文本。该项目在英文、中文和日文数据集上均表现出色。\n\n## 环境准备\n\n*   **操作系统**: Linux (推荐 Ubuntu)\n*   **Python 版本**: 3.8\n*   **深度学习框架**: PyTorch 1.13+\n*   **硬件要求**: 支持 CUDA 的 NVIDIA GPU (训练建议多卡，推理单卡即可)\n\n## 安装步骤\n\n### 1. 创建并激活虚拟环境\n使用 Conda 创建名为 `One-DM` 的独立环境：\n\n```bash\nconda create -n One-DM python=3.8 -y\nconda activate One-DM\n```\n\n### 2. 安装依赖\n在项目根目录下执行以下命令安装所有必要依赖：\n\n```bash\nconda env create -f environment.yml\n```\n\n### 3. 下载数据集与预训练模型\n为了获得最佳体验，建议优先使用国内镜像源下载资源。\n\n**数据集 (英文)**\n下载后解压，并将文件夹移动至项目根目录下的 `\u002Fdata` 文件夹中。\n*   **百度网盘**: [点击下载](https:\u002F\u002Fpan.baidu.com\u002Fs\u002F14ESFRk0RaTr98eeLzcr_xw?pwd=4vsv) (提取码: 4vsv)\n*   **始智 AI (ShiZhi)**: [点击下载](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FEnglish_data.zip)\n\n**预训练模型 (Model Zoo)**\n下载以下三个文件，并统一移动至项目根目录下的 `\u002Fmodel_zoo` 文件夹中：\n1.  **One-DM 主模型**: `One-DM-ckpt.pt`\n    *   [始智 AI 下载](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FOne-DM-ckpt.pt)\n2.  **OCR 模型**: `vae_HTR138.pth`\n    *   [始智 AI 下载](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002Fvae_HTR138.pth)\n3.  **ResNet18 特征模型**: `RN18_class_10400.pth`\n    *   [始智 AI 下载](https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Fblob\u002Fmain\u002FRN18_class_10400.pth)\n\n> **注意**: 请确保目录结构如下：\n> ```text\n> One-DM\u002F\n> ├── data\u002F          # 存放解压后的数据集\n> ├── model_zoo\u002F     # 存放下载的 .pth 和 .pt 权重文件\n> ├── train.py\n> ├── test.py\n> └── ...\n> ```\n\n## 基本使用\n\n以下命令演示如何加载预训练模型进行**推理测试**（生成手写文本）。\n\n假设你已经完成了上述“下载预训练模型”步骤，并且模型位于 `.\u002Fmodel_zoo` 目录下。由于官方提供的测试脚本默认指向训练保存的路径（`.\u002FSaved\u002F...`），你需要先确认是否有直接对应的测试权重，或者将下载的 `One-DM-ckpt.pt` 重命名并放置到脚本预期的路径，亦或直接修改命令中的 `--one_dm` 参数路径。\n\n**最简单的推理命令示例：**\n\n请将 `.\u002Fmodel_zoo\u002FOne-DM-ckpt.pt` 替换为你实际下载的模型文件路径。如果官方测试脚本 `test.py` 强依赖特定的目录结构（如包含 epoch 信息的文件夹），建议先将下载的权重文件移动到对应结构或修改代码中的加载逻辑。\n\n若直接使用官方提供的测试命令模板（需调整路径以匹配你下载的模型）：\n\n```bash\nCUDA_VISIBLE_DEVICES=0 torchrun --nproc_per_node=1 test.py \\\n    --one_dm .\u002Fmodel_zoo\u002FOne-DM-ckpt.pt \\\n    --generate_type oov_u \\\n    --dir .\u002FGenerated\u002FEnglish\n```\n\n*注：如果运行报错提示找不到文件路径格式不匹配（因为官方示例中路径包含时间戳和 epoch），请检查 `test.py` 源码，看是否可以直接传入 `.pt` 文件路径，或者按照官方说明将模型放入 `.\u002FSaved\u002FIAM64_finetune\u002FEnglish-[timestamp]\u002Fmodel\u002F` 目录下并命名为 `epoch-ckpt.pt`。*\n\n**生成结果查看：**\n运行成功后，生成的手写文本图片将保存在 `.\u002FGenerated\u002FEnglish` 目录中。\n\n---\n*更多高级用法（如微调训练、多卡训练）请参考项目原始 README 中的 Training & Test 章节。*","某数字档案馆急需将一批百年前的手写家书数字化，并希望保留原作者独特的笔迹风格以制作可交互的纪念册，但原始样本仅存一封残缺信件。\n\n### 没有 One-DM 时\n- **样本门槛极高**：传统算法通常需要同一人 15 份以上的清晰手稿才能提取风格，而档案馆仅有一封孤本，导致项目无法启动。\n- **风格还原失真**：强行使用少量样本训练时，模型难以捕捉高频笔触细节（如运笔力度、墨迹飞白），生成的文字僵硬且带有明显机器感。\n- **噪声干扰严重**：旧信纸上的污渍和折痕会被误认为是笔迹特征，导致生成内容中混杂大量背景噪点，需人工逐帧修图。\n- **多语言支持缺失**：现有方案往往针对单一语言优化，难以同时处理家书中夹杂的英文日期与中文正文，需切换多套系统。\n\n### 使用 One-DM 后\n- **单样本即可启动**：One-DM 凭借“单次扩散模仿”技术，仅需那一封残信作为参考，便能精准提取风格并生成任意新内容的家书。\n- **高频细节完美复刻**：其特有的风格增强模块成功捕捉了原作者的高频运笔特征，生成的字迹连墨色浓淡和连笔习惯都惟妙惟肖。\n- **自动过滤背景噪声**：模型能有效区分纸张污渍与真实笔迹，直接输出干净的手写图像，节省了 90% 的后期修图时间。\n- **跨语言统一风格**：无论是补充中文叙事还是英文落款，One-DM 均能保持笔迹风格高度一致，无需针对不同语言重新训练模型。\n\nOne-DM 通过突破单样本学习的极限，让孤本手迹的“复活”与规模化创作变得低成本且高保真。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fdailenson_One-DM_5055548b.png","dailenson","Gang Dai","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fdailenson_131ff9ff.jpg","Talk is cheap. Show me the code.","Guangdong University of Technology","Guangzhou, China","daigang@gdut.edu.cn",null,"https:\u002F\u002Feedaigang.cn","https:\u002F\u002Fgithub.com\u002Fdailenson",[86],{"name":87,"color":88,"percentage":89},"Python","#3572A5",100,544,57,"2026-04-02T14:51:51","MIT","Linux","需要 NVIDIA GPU，训练示例命令显示需多卡支持 (CUDA_VISIBLE_DEVICES=0,1,2,3)，具体显存大小未说明，依赖 PyTorch 1.13 (通常对应 CUDA 11.6 或 11.7)","未说明",{"notes":98,"python":99,"dependencies":100},"1. 必须使用 conda 创建名为 'One-DM' 的环境并安装依赖。2. 需手动下载英文数据集、预训练 One-DM 模型、OCR 模型及 Resnet18 权重文件，并放置于指定目录 (\u002Fdata 和 \u002Fmodel_zoo)。3. 训练和测试脚本使用 torchrun 启动，示例命令配置为 4 张 GPU 并行运行。4. 目前开源版本主要支持英文手写生成，中文和日文版本即将发布。","3.8",[101,102],"pytorch==1.13","environment.yml 中定义的其他依赖",[26,13,14],[105,106,107,108,109,110,111,112],"diffusion-models","handwritten-text-generation","computer-vision","deep-learning","pytorch-implementation","image-generation","handwriting-imitator","latent-diffusion","2026-03-27T02:49:30.150509","2026-04-06T06:52:15.215305",[116,121,126,131,136],{"id":117,"question_zh":118,"answer_zh":119,"source_url":120},17242,"能否不使用单样本（one-shot），直接利用微调后的模型生成特定作者的手写文本？","是的，这是完全可行的。您可以利用基于 WriterID 的风格嵌入（style embeddings）来替代原有的风格编码器。在对特定作者的数据进行微调后，您将能够基于该特定的 WriterID 条件生成所需的文本图像。","https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fissues\u002F49",{"id":122,"question_zh":123,"answer_zh":124,"source_url":125},17243,"代码中低频特征和高频特征的融合方式与论文描述不一致，具体是如何实现的？","在后续实验中发现，分开融合两种风格能达到更好的性能。因此，代码实现为：先使用 `self.decoder` 融合低频风格，接着使用 `self.fre_decoder` 融合高频风格，而不是像论文初稿描述的那样组合后一起计算。","https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fissues\u002F32",{"id":127,"question_zh":128,"answer_zh":129,"source_url":130},17244,"为什么 train_ddim 中最后返回的 x 需要经过 5 次采样？多步采样比单步公式计算好在哪里？","经过 5 步采样的 x_start 可以得到更准确的内容。直接使用单步公式（x_start = (x - (1 - alpha_hat).sqrt()*predicted_noise) \u002F (alpha_hat.sqrt())）只是一步采样的结果，效果不如多步采样。无论是模型预测 x0 还是噪声，多步采样的效果都优于单步采样。","https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fissues\u002F24",{"id":132,"question_zh":133,"answer_zh":134,"source_url":135},17245,"运行训练脚本时提示找不到 stable-diffusion-v1-5 的 diffusion_pytorch_model.bin 文件怎么办？","由于 HuggingFace 上的原始模型文件可能已变动或下载不完整，维护者已将所需的 stable-diffusion-v1-5 模型文件上传至其他平台。您可以从以下地址下载所需模型文件：https:\u002F\u002Fwisemodel.cn\u002Fmodels\u002FSCUT-MMPR\u002FOne-DM\u002Ffile","https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fissues\u002F22",{"id":137,"question_zh":138,"answer_zh":139,"source_url":140},17246,"论文中提到的 classifier-free guidance 策略在代码库的哪个位置？","这部分代码在整理仓库时被移除了，因为作者个人感觉其对性能提升帮助不大。如果您需要自行添加，可以在 `trainer\u002Ftrainer.py` 的第 52 行附近加入逻辑，用于控制 condition drop 的频率。参考代码位置：https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fblob\u002Fca01eb13e7766eea3e349b2f369ea6f18707e5a5\u002Ftrainer\u002Ftrainer.py#L52","https:\u002F\u002Fgithub.com\u002Fdailenson\u002FOne-DM\u002Fissues\u002F30",[]]