[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-easezyc--deep-transfer-learning":3,"tool-easezyc--deep-transfer-learning":61},[4,18,26,36,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},1381,"everything-claude-code","affaan-m\u002Feverything-claude-code","everything-claude-code 是一套专为 AI 编程助手（如 Claude Code、Codex、Cursor 等）打造的高性能优化系统。它不仅仅是一组配置文件，而是一个经过长期实战打磨的完整框架，旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。\n\n通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能，everything-claude-code 能显著提升 AI 在复杂任务中的表现，帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略，使得模型响应更快、成本更低，同时有效防御潜在的攻击向量。\n\n这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库，还是需要 AI 协助进行安全审计与自动化测试，everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目，它融合了多语言支持与丰富的实战钩子（hooks），让 AI 真正成长为懂上",160784,2,"2026-04-19T11:32:54",[14,13,35],"语言模型",{"id":37,"name":38,"github_repo":39,"description_zh":40,"stars":41,"difficulty_score":32,"last_commit_at":42,"category_tags":43,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",109154,"2026-04-18T11:18:24",[14,15,13],{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":32,"last_commit_at":50,"category_tags":51,"status":17},6121,"gemini-cli","google-gemini\u002Fgemini-cli","gemini-cli 是一款由谷歌推出的开源 AI 命令行工具，它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言，它提供了一条从输入提示词到获取模型响应的最短路径，无需切换窗口即可享受智能辅助。\n\n这款工具主要解决了开发过程中频繁上下文切换的痛点，让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用，还是执行复杂的 Git 操作，gemini-cli 都能通过自然语言指令高效处理。\n\n它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口，具备出色的逻辑推理能力；内置 Google 搜索、文件操作及 Shell 命令执行等实用工具；更独特的是，它支持 MCP（模型上下文协议），允许用户灵活扩展自定义集成，连接如图像生成等外部能力。此外，个人谷歌账号即可享受免费的额度支持，且项目基于 Apache 2.0 协议完全开源，是提升终端工作效率的理想助手。",100752,"2026-04-10T01:20:03",[52,13,15,14],"插件",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":32,"last_commit_at":59,"category_tags":60,"status":17},4721,"markitdown","microsoft\u002Fmarkitdown","MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具，专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片（含 OCR）、音频（含语音转录）、HTML 乃至 YouTube 链接等多种格式的解析，能够精准提取文档中的标题、列表、表格和链接等关键结构信息。\n\n在人工智能应用日益普及的今天，大语言模型（LLM）虽擅长处理文本，却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点，它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式，成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外，它还提供了 MCP（模型上下文协议）服务器，可无缝集成到 Claude Desktop 等 LLM 应用中。\n\n这款工具特别适合开发者、数据科学家及 AI 研究人员使用，尤其是那些需要构建文档检索增强生成（RAG）系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性，但其核心优势在于为机器",93400,"2026-04-06T19:52:38",[52,14],{"id":62,"github_repo":63,"name":64,"description_en":65,"description_zh":66,"ai_summary_zh":66,"readme_en":67,"readme_zh":68,"quickstart_zh":69,"use_case_zh":70,"hero_image_url":71,"owner_login":72,"owner_name":73,"owner_avatar_url":74,"owner_bio":75,"owner_company":76,"owner_location":77,"owner_email":78,"owner_twitter":79,"owner_website":79,"owner_url":80,"languages":81,"stars":86,"forks":87,"last_commit_at":88,"license":89,"difficulty_score":10,"env_os":90,"env_gpu":91,"env_ram":91,"env_deps":92,"category_tags":96,"github_topics":97,"view_count":32,"oss_zip_url":79,"oss_zip_packed_at":79,"status":17,"created_at":101,"updated_at":102,"faqs":103,"releases":139},9848,"easezyc\u002Fdeep-transfer-learning","deep-transfer-learning","A collection of implementations of deep domain adaptation algorithms","deep-transfer-learning 是一个基于 PyTorch 构建的开源库，专注于深度域适应（Domain Adaptation）算法的实现与整合。它主要解决机器学习中的“域偏移”难题：当模型在源数据上训练良好，却因目标数据分布不同而表现不佳时，该工具能帮助模型迁移知识，无需目标域标注数据即可在新场景中保持高精度。\n\n该项目将技术路线清晰划分为单源无监督域适应（SUDA）和多源无监督域适应（MUDA）。除了复现 DDC、DAN、RevGrad 等经典 SUDA 方法外，其独特亮点在于重点提供了较为稀缺的多源域适应（MUDA）深度学习实现，并涵盖了跨域欺诈检测、广告推荐等前沿应用案例。库内还附带了在 Office31 和 OfficeHome 等标准数据集上的详细评测结果，方便用户直观对比各算法性能。\n\ndeep-transfer-learning 非常适合人工智能研究人员、算法工程师及高校学生使用。对于希望快速验证域适应新想法的研究者，或是需要在实际业务中解决数据分布不一致问题的开发者，它提供了一套代码结构清晰、即插即用的解决方案，能有效降低从理论论文到工程落地的门槛。","# Deep Transfer Learning in PyTorch\n[![MIT License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT) \n\nThis is a PyTorch library for deep transfer learning. We divide the code into two\naspects: Single-source Unsupervised Domain Adaptation (SUDA) and Multi-source Unsupervised Domain Adaptation (MUDA). There are many SUDA methods, however I find there is a few MUDA methods with deep learning. Besides, MUDA with deep learning might be a more promising direction for domain adaptation.\n\nHere I have implemented some deep transfer methods as follows:\n* UDA\n    * DDC：Deep Domain Confusion Maximizing for Domain Invariance\n    * DAN: Learning Transferable Features with Deep Adaptation Networks (ICML2015)\n    * Deep Coral: Deep CORAL Correlation Alignment for Deep Domain Adaptation (ECCV2016)\n    * Revgrad: Unsupervised Domain Adaptation by Backpropagation (ICML2015)\n    * MRAN: Multi-representation adaptation network for cross-domain image classification (Neural Network 2019)\n    * DSAN: Deep Subdomain Adaptation Network for Image Classification (IEEE Transactions on Neural Networks and Learning Systems 2020)\n* MUDA\n    * Aligning Domain-specific Distribution and Classifier for Cross-domain Classification from Multiple Sources (AAAI2019)\n* Application\n    * Cross-domain Fraud Detection: Modeling Users’ Behavior Sequences with Hierarchical Explainable Network for Cross-domain Fraud Detection (WWW2020)\n    * Learning to Expand Audience via Meta Hybrid Experts and Critics for Recommendation and Advertising (KDD2021)\n* Survey\n    * [A Comprehensive Survey on Transfer Learning](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02685) (Proc. IEEE)\n\n\n## Results on Office31(UDA)\n| Method | A - W | D - W | W - D | A - D | D - A | W - A | Average |\n|:--------------:|:-----:|:-----:|:-----:|:-----:|:----:|:----:|:-------:|\n| ResNet | 68.4±0.5 | 96.7±0.5 | 99.3±0.1 | 68.9±0.2 | 62.5±0.3 | 60.7±0.3 | 76.1 |\n| DDC | 75.8±0.2 | 95.0±0.2 | 98.2±0.1 | 77.5±0.3 | 67.4±0.4 | 64.0±0.5 | 79.7 |\n| DDC\\* | 78.3±0.4 | 97.1±0.1 | 100.0±0.0 | 81.7±0.9 | 65.2±0.6 | 65.1±0.4 | 81.2 |\n| DAN | 83.8±0.4 | 96.8±0.2 | 99.5±0.1 | 78.4±0.2 | 66.7±0.3 | 62.7±0.2 | 81.3 |\n| DAN\\* | 82.6±0.7 | 97.7±0.1 | 100.0±0.0 | 83.1±0.9 | 66.8±0.3 | 66.6±0.4 | 82.8 |\n| DCORAL\\* | 79.0±0.5 | 98.0±0.2 | 100.0±0.0 | 82.7±0.1 | 65.3±0.3 | 64.5±0.3 | 81.6 |\n| Revgrad | 82.0±0.4 | 96.9±0.2 | 99.1±0.1 | 79.7±0.4 | 68.2±0.4 | 67.4±0.5 | 82.2 |\n| Revgrad\\* | 82.6±0.9 | 97.8±0.2 | 100.0±0.0 | 83.3±0.9 | 66.8±0.1 | 66.1±0.5 | 82.8 |\n| MRAN | 91.4±0.1 | 96.9±0.3 | 99.8±0.2 | 86.4±0.6 | 68.3±0.5 | 70.9±0.6 | 85.6 |\n| DSAN | 93.6±0.2 | 98.4±0.1 | 100.0±0.0 | 90.2±0.7 | 73.5±0.5 | 74.8±0.4 | 88.4 |\n\n> Note that the results without '\\*' comes from [paper](http:\u002F\u002Fise.thss.tsinghua.edu.cn\u002F~mlong\u002Fdoc\u002Fmulti-adversarial-domain-adaptation-aaai18.pdf). The results with '\\*' are run by myself with the code. \n\n## Results on Office31(MUDA)\n| Standards | Method | A,W - D | A,D - W | D,W - A | Average |\n|:--------------:|:--------------:|:-----:|:-----:|:-----:|:-------:|\n| | ResNet | 99.3 | 96.7 | 62.5 | 86.2 |\n|  | DAN | 99.5 | 96.8 | 66.7 | 87.7 |\n| Single Best| DCORAL | 99.7 | 98.0 | 65.3 | 87.7 |\n|  | RevGrad | 99.1 | 96.9 | 68.2 | 88.1 |\n||\n|  | DAN | 99.6 | 97.8 | 67.6 | 88.3 |\n| Source Combine | DCORAL | 99.3 | 98.0 | 67.1 | 88.1 |\n|  | RevGrad | 99.7 | 98.1 | 67.6 | 88.5 |\n||\n| Multi-Source | MFSAN | 99.5 | 98.5 | 72.7 | 90.2 |\n\n## Results on OfficeHome(MUDA)\n| Standards | Method | C,P,R - A | A,P,R - C | A,C,R - P | A,C,P - R | Average |\n|:--------------:|:--------------:|:-----:|:-----:|:-----:|:-----:|:-------:|\n| | ResNet | 65.3 | 49.6 | 79.7 | 75.4 | 67.5 |\n|  | DAN | 64.1 | 50.8 | 78.2 | 75.0 | 67.0 |\n| Single Best | DCORAL | 68.2 | 56.5 | 80.3 | 75.9 | 70.2 |\n|  | RevGrad | 67.9 | 55.9 | 80.4 | 75.8 | 70.0 |\n||\n|  | DAN | 68.5 | 59.4 | 79.0 | 82.5 | 72.4 |\n| Source Combine | DCORAL | 68.1 | 58.6 | 79.5 | 82.7 | 72.2 |\n|  | RevGrad | 68.4 | 59.1 | 79.5 | 82.7 | 72.4 |\n||\n| Multi-Source | MFSAN | 72.1 | 62.0 | 80.3 | 81.8 | 74.1 |\n\n> Note that  (1) Source combine: all source domains are combined together into a traditional single-source v.s. target setting. (2) Single best: among the multiple source domains, we report the best single source transfer results. (3) Multi-source: the results of MUDA methods.\n\n## Note\n> If you find that your accuracy is 100%, the problem might be the dataset folder. Please note that the folder structure required for the data provider to work is:\n```\n-dataset\n    -amazon\n    -webcam\n    -dslr\n```\n\n\n## Contact\nIf you have any problem about this library, please create an Issue or send us an Email at:\n* zhuyongchun18s@ict.ac.cn\n* jindongwang@outlook.com\n\n\n## Reference\nIf you use this repository, please cite the following papers:\n\n```\n@inproceedings{zhu2019aligning,\n  title={Aligning domain-specific distribution and classifier for cross-domain classification from multiple sources},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Deqing},\n  booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},\n  volume={33},\n  pages={5989--5996},\n  year={2019}\n}\n```\n\n```\n@article{zhu2020deep,\n  title={Deep subdomain adaptation network for image classification},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Ke, Guolin and Chen, Jingwu and Bian, Jiang and Xiong, Hui and He, Qing},\n  journal={IEEE transactions on neural networks and learning systems},\n  volume={32},\n  number={4},\n  pages={1713--1722},\n  year={2020},\n  publisher={IEEE}\n}\n```\n\n```\n@article{zhu2019multi,\n  title={Multi-representation adaptation network for cross-domain image classification},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Chen, Jingwu and Shi, Zhiping and Wu, Wenjuan and He, Qing},\n  journal={Neural Networks},\n  volume={119},\n  pages={214--221},\n  year={2019},\n  publisher={Elsevier}\n}\n```\n\n","# PyTorch中的深度迁移学习\n[![MIT License](https:\u002F\u002Fimg.shields.io\u002Fbadge\u002Flicense-MIT-green.svg)](https:\u002F\u002Fopensource.org\u002Flicenses\u002FMIT) \n\n这是一个用于深度迁移学习的PyTorch库。我们将代码分为两个方面：单源无监督域适应（SUDA）和多源无监督域适应（MUDA）。虽然单源无监督域适应的方法很多，但采用深度学习的多源无监督域适应方法却相对较少。此外，结合深度学习的多源域适应可能是域适应领域中一个更有前景的方向。\n\n在此，我实现了一些深度迁移方法，具体如下：\n* UDA\n    * DDC：通过最大化深度域混淆实现域不变性\n    * DAN：利用深度适应网络学习可迁移特征（ICML2015）\n    * Deep Coral：基于深度CORAL的相关对齐用于深度域适应（ECCV2016）\n    * Revgrad：基于反向传播的无监督域适应（ICML2015）\n    * MRAN：用于跨域图像分类的多表示适应网络（Neural Network 2019）\n    * DSAN：用于图像分类的深度子域适应网络（IEEE Transactions on Neural Networks and Learning Systems 2020）\n* MUDA\n    * 针对多源跨域分类的域特定分布与分类器对齐方法（AAAI2019）\n* 应用\n    * 跨域欺诈检测：利用层次化可解释网络建模用户行为序列进行跨域欺诈检测（WWW2020）\n    * 基于元混合专家与评论家的学习以扩展受众群体用于推荐与广告投放（KDD2021）\n* 综述\n    * [迁移学习综合综述](https:\u002F\u002Farxiv.org\u002Fabs\u002F1911.02685)（Proc. IEEE）\n\n\n## Office31数据集上的结果（UDA）\n| 方法 | A - W | D - W | W - D | A - D | D - A | W - A | 平均 |\n|:--------------:|:-----:|:-----:|:-----:|:-----:|:----:|:----:|:-------:|\n| ResNet | 68.4±0.5 | 96.7±0.5 | 99.3±0.1 | 68.9±0.2 | 62.5±0.3 | 60.7±0.3 | 76.1 |\n| DDC | 75.8±0.2 | 95.0±0.2 | 98.2±0.1 | 77.5±0.3 | 67.4±0.4 | 64.0±0.5 | 79.7 |\n| DDC\\* | 78.3±0.4 | 97.1±0.1 | 100.0±0.0 | 81.7±0.9 | 65.2±0.6 | 65.1±0.4 | 81.2 |\n| DAN | 83.8±0.4 | 96.8±0.2 | 99.5±0.1 | 78.4±0.2 | 66.7±0.3 | 62.7±0.2 | 81.3 |\n| DAN\\* | 82.6±0.7 | 97.7±0.1 | 100.0±0.0 | 83.1±0.9 | 66.8±0.3 | 66.6±0.4 | 82.8 |\n| DCORAL\\* | 79.0±0.5 | 98.0±0.2 | 100.0±0.0 | 82.7±0.1 | 65.3±0.3 | 64.5±0.3 | 81.6 |\n| Revgrad | 82.0±0.4 | 96.9±0.2 | 99.1±0.1 | 79.7±0.4 | 68.2±0.4 | 67.4±0.5 | 82.2 |\n| Revgrad\\* | 82.6±0.9 | 97.8±0.2 | 100.0±0.0 | 83.3±0.9 | 66.8±0.1 | 66.1±0.5 | 82.8 |\n| MRAN | 91.4±0.1 | 96.9±0.3 | 99.8±0.2 | 86.4±0.6 | 68.3±0.5 | 70.9±0.6 | 85.6 |\n| DSAN | 93.6±0.2 | 98.4±0.1 | 100.0±0.0 | 90.2±0.7 | 73.5±0.5 | 74.8±0.4 | 88.4 |\n\n> 注意：未带“\\*”的结果来自[论文](http:\u002F\u002Fise.thss.tsinghua.edu.cn\u002F~mlong\u002Fdoc\u002Fmulti-adversarial-domain-adaptation-aaai18.pdf)。带“\\*”的结果是我使用代码运行得到的。\n\n## Office31数据集上的结果（MUDA）\n| 标准 | 方法 | A,W - D | A,D - W | D,W - A | 平均 |\n|:--------------:|:--------------:|:-----:|:-----:|:-----:|:-------:|\n| | ResNet | 99.3 | 96.7 | 62.5 | 86.2 |\n|  | DAN | 99.5 | 96.8 | 66.7 | 87.7 |\n| 单一最佳 | DCORAL | 99.7 | 98.0 | 65.3 | 87.7 |\n|  | RevGrad | 99.1 | 96.9 | 68.2 | 88.1 |\n||\n|  | DAN | 99.6 | 97.8 | 67.6 | 88.3 |\n| 源组合 | DCORAL | 99.3 | 98.0 | 67.1 | 88.1 |\n|  | RevGrad | 99.7 | 98.1 | 67.6 | 88.5 |\n||\n| 多源 | MFSAN | 99.5 | 98.5 | 72.7 | 90.2 |\n\n## OfficeHome数据集上的结果（MUDA）\n| 标准 | 方法 | C,P,R - A | A,P,R - C | A,C,R - P | A,C,P - R | 平均 |\n|:--------------:|:--------------:|:-----:|:-----:|:-----:|:-----:|:-------:|\n| | ResNet | 65.3 | 49.6 | 79.7 | 75.4 | 67.5 |\n|  | DAN | 64.1 | 50.8 | 78.2 | 75.0 | 67.0 |\n| 单一最佳 | DCORAL | 68.2 | 56.5 | 80.3 | 75.9 | 70.2 |\n|  | RevGrad | 67.9 | 55.9 | 80.4 | 75.8 | 70.0 |\n||\n|  | DAN | 68.5 | 59.4 | 79.0 | 82.5 | 72.4 |\n| 源组合 | DCORAL | 68.1 | 58.6 | 79.5 | 82.7 | 72.2 |\n|  | RevGrad | 68.4 | 59.1 | 79.5 | 82.7 | 72.4 |\n||\n| 多源 | MFSAN | 72.1 | 62.0 | 80.3 | 81.8 | 74.1 |\n\n> 注意：(1) 源组合：将所有源域合并为一个传统的单源对目标域的设置。(2) 单一最佳：在多个源域中，报告表现最好的单一源迁移结果。(3) 多源：指MUDA方法的结果。\n\n## 注意事项\n> 如果您发现准确率达到100%，问题可能出在数据集文件夹上。请注意，数据提供者正常工作所需的文件夹结构如下：\n```\n-dataset\n    -amazon\n    -webcam\n    -dslr\n```\n\n\n## 联系方式\n如果您对该库有任何问题，请创建Issue或发送邮件至：\n* zhuyongchun18s@ict.ac.cn\n* jindongwang@outlook.com\n\n\n## 参考文献\n如果您使用本仓库，请引用以下论文：\n\n```\n@inproceedings{zhu2019aligning,\n  title={Aligning domain-specific distribution and classifier for cross-domain classification from multiple sources},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Deqing},\n  booktitle={Proceedings of the AAAI Conference on Artificial Intelligence},\n  volume={33},\n  pages={5989--5996},\n  year={2019}\n}\n```\n\n```\n@article{zhu2020deep,\n  title={Deep subdomain adaptation network for image classification},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Ke, Guolin and Chen, Jingwu and Bian, Jiang and Xiong, Hui and He, Qing},\n  journal={IEEE transactions on neural networks and learning systems},\n  volume={32},\n  number={4},\n  pages={1713--1722},\n  year={2020},\n  publisher={IEEE}\n}\n```\n\n```\n@article{zhu2019multi,\n  title={Multi-representation adaptation network for cross-domain image classification},\n  author={Zhu, Yongchun and Zhuang, Fuzhen and Wang, Jindong and Chen, Jingwu and Shi, Zhiping and Wu, Wenjuan and He, Qing},\n  journal={Neural Networks},\n  volume={119},\n  pages={214--221},\n  year={2019},\n  publisher={Elsevier}\n}\n```","# deep-transfer-learning 快速上手指南\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下要求：\n\n*   **操作系统**：Linux, macOS 或 Windows\n*   **Python**：建议 Python 3.6 及以上版本\n*   **深度学习框架**：PyTorch (建议最新稳定版)\n*   **依赖库**：`torchvision`, `numpy`, `scikit-learn` 等常规科学计算库\n\n> **国内加速建议**：\n> 安装 PyTorch 时，推荐使用清华或中科大镜像源以加快下载速度。\n> 例如使用 pip 安装 PyTorch (CUDA 11.8 示例)：\n> ```bash\n> pip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n> ```\n\n## 安装步骤\n\n本项目为开源代码库，通常通过克隆仓库的方式获取并使用。\n\n1.  **克隆项目代码**\n    ```bash\n    git clone https:\u002F\u002Fgithub.com\u002Fjindongwang\u002Fdeep-transfer-learning.git\n    cd deep-transfer-learning\n    ```\n\n2.  **安装 Python 依赖**\n    进入项目目录后，安装所需的第三方库：\n    ```bash\n    pip install -r requirements.txt\n    ```\n    *(注：如果项目中没有 `requirements.txt` 文件，请手动安装 `torch`, `torchvision`, `numpy`, `scikit-learn`)*\n\n3.  **准备数据集**\n    根据项目说明，数据文件夹结构必须严格符合以下格式，否则可能导致准确率异常（如出现 100% 的错误结果）：\n    ```text\n    - dataset\n        - amazon\n        - webcam\n        - dslr\n    ```\n    请将 Office31 或其他相关数据集下载并解压至上述结构中。\n\n## 基本使用\n\n本项目主要包含单源无监督域适应 (SUDA) 和多源无监督域适应 (MUDA) 两类方法。以下以运行 **DSAN** (SUDA 方法) 和 **MFSAN** (MUDA 方法) 为例。\n\n### 1. 运行单源域适应 (SUDA) 示例\n\n假设我们要运行 DSAN 算法，在 Office31 数据集上进行从 Amazon 到 Webcam 的迁移任务 (A -> W)：\n\n```bash\npython main.py --method DSAN --source amazon --target webcam --dataset office31\n```\n\n*   `--method`: 选择算法名称 (如 DDC, DAN, DeepCoral, Revgrad, MRAN, DSAN)。\n*   `--source`: 源域名称。\n*   `--target`: 目标域名称。\n*   `--dataset`: 数据集名称。\n\n### 2. 运行多源域适应 (MUDA) 示例\n\n假设我们要运行 MFSAN 算法，利用 Amazon 和 DSLR 作为源域，Webcam 作为目标域 (A,D -> W)：\n\n```bash\npython main_muda.py --method MFSAN --sources amazon dslr --target webcam --dataset office31\n```\n\n*   `--sources`: 支持传入多个源域名称，用空格分隔。\n*   其他参数含义同上。\n\n### 3. 查看可用参数\n\n您可以运行以下命令查看完整的参数配置帮助：\n\n```bash\npython main.py --help\n```\n\n---\n*更多详细实验结果及论文引用信息，请参考项目根目录下的 README 原文。如有问题，可通过 Issue 或邮件联系作者。*","某电商风控团队急需将成熟的美区欺诈检测模型迁移至数据稀缺的东南亚新市场，以应对当地激增的异常交易行为。\n\n### 没有 deep-transfer-learning 时\n- **冷启动困境**：由于东南亚地区缺乏足够的标注欺诈样本，直接训练的新模型准确率极低，无法区分正常消费与恶意刷单。\n- **分布差异失效**：美区模型直接套用后，因两地用户支付习惯和设备指纹分布差异巨大，导致误报率飙升，严重干扰正常订单。\n- **研发成本高昂**：团队需耗费数周时间手动清洗数据并尝试重写领域适应算法代码，且难以复现论文中的多源适配效果。\n- **多源整合困难**：面对来自不同渠道的异构数据源，缺乏有效手段进行统一建模，只能孤立处理，浪费了多维度的关联信息。\n\n### 使用 deep-transfer-learning 后\n- **快速跨域迁移**：利用内置的 DSAN 或 MRAN 算法，直接将美区源域知识无监督迁移至东南亚目标域，在零标注数据下显著提升检测精度。\n- **自动对齐分布**：通过 DDC 或 Deep CORAL 模块自动校准两地用户行为特征的分布差异，大幅降低误报率，使模型迅速适应本地场景。\n- **开箱即用高效**：直接调用 PyTorch 封装好的多源无监督域适应（MUDA）接口，将原本数周的算法验证周期缩短至几天内完成。\n- **多源融合增强**：应用 MFSAN 等多源适配方法，有效整合多个历史市场的行为序列特征，构建了泛化能力更强的全局反欺诈模型。\n\ndeep-transfer-learning 通过成熟的深度域适应算法库，帮助团队在低资源场景下打破了数据孤岛，实现了风控模型的低成本、高精度快速落地。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Feasezyc_deep-transfer-learning_3c2d9a41.png","easezyc","Yongchun Zhu","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Feasezyc_e97932b6.jpg","ICT Yongchun Zhu","Institute of Computing Technology, CAS","Beijing, China","1299192934@qq.com",null,"https:\u002F\u002Fgithub.com\u002Feasezyc",[82],{"name":83,"color":84,"percentage":85},"Python","#3572A5",100,958,213,"2026-04-17T21:01:47","MIT","","未说明",{"notes":93,"python":91,"dependencies":94},"该工具是基于 PyTorch 的深度学习迁移学习库。README 中未明确列出具体的操作系统、GPU 型号、内存大小、Python 版本或除 PyTorch 外的其他依赖库版本。使用时需确保数据集文件夹结构正确（例如：dataset\u002Famazon, dataset\u002Fwebcam, dataset\u002Fdslr），否则可能导致准确率异常（如显示 100%）。",[95],"PyTorch",[14],[98,64,99,100],"pytorch","domain-adaptation","transfer-learning","2026-03-27T02:49:30.150509","2026-04-20T07:16:11.051141",[104,109,114,119,124,129,134],{"id":105,"question_zh":106,"answer_zh":107,"source_url":108},44215,"运行 DAN 模型时遇到错误，或者出现 soft-loss 为 0 且准确率为 100% 的异常情况，如何解决？","这通常是因为数据集目录结构不正确导致的。请确保子类别文件夹位于类别文件夹之下（例如：category\u002Fbike, category\u002Fback_pack），而不是直接放在 images 文件夹下。正确的数据集布局应遵循标准的图像分类数据集格式。此外，如果是运行报错，请检查是否下载了错误的预训练模型文件（如误下载了 ResNet18 而非其他指定模型），并确认代码中路径配置正确。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F4",{"id":110,"question_zh":111,"answer_zh":112,"source_url":113},44216,"为什么运行 DSAN 或其他迁移学习模型时，无法复现论文中的准确率，或者训练后期准确率下降？","实验结果记录的是训练过程中最好的那一轮（best epoch），而不是最后一个 epoch 的结果。由于迁移学习训练中可能会出现过拟合或波动，导致后期准确率下降，这是正常现象。建议在训练过程中保存验证集准确率最高的模型权重，以此作为最终结果，不要仅看最后一次迭代的输出。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F14",{"id":115,"question_zh":116,"answer_zh":117,"source_url":118},44217,"如何获取 t-SNE 可视化代码？在生成 t-SNE 图时应该选取多少样本以及使用哪一层特征？","维护者建议在进行 t-SNE 可视化时（例如 A->W 任务），使用全量样本（full samples），并提取全连接层（fc）之后的 256 维特征进行降维可视化。虽然部分用户请求通过邮件获取具体代码，但核心要点是使用高维特征层和完整数据集以获得理想的聚类效果。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F29",{"id":120,"question_zh":121,"answer_zh":122,"source_url":123},44218,"在 MFSAN\u002FDFSAN 训练过程中，数据迭代器（iterator）只调用了一次 next()，是否每个 epoch 只使用了一个 batch 的数据？如果数据量小于迭代次数会报错吗？","代码中使用了 try-except 结构来处理数据迭代。当 target_iter.next() 抛出异常（即当前 epoch 数据遍历完毕）时，会重新初始化迭代器（target_iter = iter(target_train_loader)）并再次获取数据。这意味着在一个 epoch 内，如果源域或目标域数据用完，会自动循环重新开始采样，从而保证能够完成设定的迭代次数（如 15000 次），而不仅仅是使用一个 batch 的数据。这种设计增加了采样的随机性。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F13",{"id":125,"question_zh":126,"answer_zh":127,"source_url":128},44219,"在 PyTorch 1.0 环境下运行 RevGrad (DANN) 无法复现论文结果，可能缺少哪些关键实现细节？","要成功复现 RevGrad\u002FDANN 的结果，需要注意以下四个关键差异：1. 学习率调度策略（learning rate scheduler）需按特定公式衰减；2. 梯度反转层的 lambda 参数需要随训练进程动态调整（lambda schedule）；3. 在平均池化层后需要添加一个瓶颈层（bottleneck layer）；4. 模型前向传播时，需要将源域和目标域的输入拼接（concat）在一起进行处理，而不是分开处理。建议参考 Transfer-Learning-Library 中的 DANN 实现作为修正标准。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F21",{"id":130,"question_zh":131,"answer_zh":132,"source_url":133},44220,"该代码库的许可证是什么？是否可以用于学术研究？","该项目允许用于学术研究。维护者已响应社区建议，意识到添加明确的 LICENSE 文件对于保护作者和用户权益的重要性。用户可以放心地在学术研究中复制、修改和使用该代码，同时建议关注仓库后续更新的正式许可证文件以获取更详细的法律保障信息。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F22",{"id":135,"question_zh":136,"answer_zh":137,"source_url":138},44221,"看不懂英文原版论文，是否有中文版的入门资料或论文推荐？","虽然可能没有直接的论文中文翻译版，但迁移学习方法的核心思想是互通的。建议初学者先阅读王晋东博士编写的《迁移学习入门手册》等中文基础资料。掌握基本概念和术语后，再阅读英文原版论文会更加容易理解。","https:\u002F\u002Fgithub.com\u002Feasezyc\u002Fdeep-transfer-learning\u002Fissues\u002F19",[]]