[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"similar-ngcthuong--Reproducible-Deep-Compressive-Sensing":3,"tool-ngcthuong--Reproducible-Deep-Compressive-Sensing":62},[4,18,26,35,44,53],{"id":5,"name":6,"github_repo":7,"description_zh":8,"stars":9,"difficulty_score":10,"last_commit_at":11,"category_tags":12,"status":17},4358,"openclaw","openclaw\u002Fopenclaw","OpenClaw 是一款专为个人打造的本地化 AI 助手，旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚，能够直接接入你日常使用的各类通讯渠道，包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息，OpenClaw 都能即时响应，甚至支持在 macOS、iOS 和 Android 设备上进行语音交互，并提供实时的画布渲染功能供你操控。\n\n这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地，用户无需依赖云端服务即可享受快速、私密的智能辅助，真正实现了“你的数据，你做主”。其独特的技术亮点在于强大的网关架构，将控制平面与核心助手分离，确保跨平台通信的流畅性与扩展性。\n\nOpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者，以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力（支持 macOS、Linux 及 Windows WSL2），即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你",349277,3,"2026-04-06T06:32:30",[13,14,15,16],"Agent","开发框架","图像","数据工具","ready",{"id":19,"name":20,"github_repo":21,"description_zh":22,"stars":23,"difficulty_score":10,"last_commit_at":24,"category_tags":25,"status":17},3808,"stable-diffusion-webui","AUTOMATIC1111\u002Fstable-diffusion-webui","stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面，旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点，将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。\n\n无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师，还是想要深入探索模型潜力的开发者与研究人员，都能从中获益。其核心亮点在于极高的功能丰富度：不仅支持文生图、图生图、局部重绘（Inpainting）和外绘（Outpainting）等基础模式，还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外，它内置了 GFPGAN 和 CodeFormer 等人脸修复工具，支持多种神经网络放大算法，并允许用户通过插件系统无限扩展能力。即使是显存有限的设备，stable-diffusion-webui 也提供了相应的优化选项，让高质量的 AI 艺术创作变得触手可及。",162132,"2026-04-05T11:01:52",[14,15,13],{"id":27,"name":28,"github_repo":29,"description_zh":30,"stars":31,"difficulty_score":32,"last_commit_at":33,"category_tags":34,"status":17},2271,"ComfyUI","Comfy-Org\u002FComfyUI","ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎，专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式，采用直观的节点式流程图界面，让用户通过连接不同的功能模块即可构建个性化的生成管线。\n\n这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景，也能自由组合模型、调整参数并实时预览效果，轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性，不仅支持 Windows、macOS 和 Linux 全平台，还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构，并率先支持 SDXL、Flux、SD3 等前沿模型。\n\n无论是希望深入探索算法潜力的研究人员和开发者，还是追求极致创作自由度的设计师与资深 AI 绘画爱好者，ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能，使其成为当前最灵活、生态最丰富的开源扩散模型工具之一，帮助用户将创意高效转化为现实。",108111,2,"2026-04-08T11:23:26",[14,15,13],{"id":36,"name":37,"github_repo":38,"description_zh":39,"stars":40,"difficulty_score":10,"last_commit_at":41,"category_tags":42,"status":17},4487,"LLMs-from-scratch","rasbt\u002FLLMs-from-scratch","LLMs-from-scratch 是一个基于 PyTorch 的开源教育项目，旨在引导用户从零开始一步步构建一个类似 ChatGPT 的大型语言模型（LLM）。它不仅是同名技术著作的官方代码库，更提供了一套完整的实践方案，涵盖模型开发、预训练及微调的全过程。\n\n该项目主要解决了大模型领域“黑盒化”的学习痛点。许多开发者虽能调用现成模型，却难以深入理解其内部架构与训练机制。通过亲手编写每一行核心代码，用户能够透彻掌握 Transformer 架构、注意力机制等关键原理，从而真正理解大模型是如何“思考”的。此外，项目还包含了加载大型预训练权重进行微调的代码，帮助用户将理论知识延伸至实际应用。\n\nLLMs-from-scratch 特别适合希望深入底层原理的 AI 开发者、研究人员以及计算机专业的学生。对于不满足于仅使用 API，而是渴望探究模型构建细节的技术人员而言，这是极佳的学习资源。其独特的技术亮点在于“循序渐进”的教学设计：将复杂的系统工程拆解为清晰的步骤，配合详细的图表与示例，让构建一个虽小但功能完备的大模型变得触手可及。无论你是想夯实理论基础，还是为未来研发更大规模的模型做准备",90106,"2026-04-06T11:19:32",[43,15,13,14],"语言模型",{"id":45,"name":46,"github_repo":47,"description_zh":48,"stars":49,"difficulty_score":10,"last_commit_at":50,"category_tags":51,"status":17},4292,"Deep-Live-Cam","hacksider\u002FDeep-Live-Cam","Deep-Live-Cam 是一款专注于实时换脸与视频生成的开源工具，用户仅需一张静态照片，即可通过“一键操作”实现摄像头画面的即时变脸或制作深度伪造视频。它有效解决了传统换脸技术流程繁琐、对硬件配置要求极高以及难以实时预览的痛点，让高质量的数字内容创作变得触手可及。\n\n这款工具不仅适合开发者和技术研究人员探索算法边界，更因其极简的操作逻辑（仅需三步：选脸、选摄像头、启动），广泛适用于普通用户、内容创作者、设计师及直播主播。无论是为了动画角色定制、服装展示模特替换，还是制作趣味短视频和直播互动，Deep-Live-Cam 都能提供流畅的支持。\n\n其核心技术亮点在于强大的实时处理能力，支持口型遮罩（Mouth Mask）以保留使用者原始的嘴部动作，确保表情自然精准；同时具备“人脸映射”功能，可同时对画面中的多个主体应用不同面孔。此外，项目内置了严格的内容安全过滤机制，自动拦截涉及裸露、暴力等不当素材，并倡导用户在获得授权及明确标注的前提下合规使用，体现了技术发展与伦理责任的平衡。",88924,"2026-04-06T03:28:53",[14,15,13,52],"视频",{"id":54,"name":55,"github_repo":56,"description_zh":57,"stars":58,"difficulty_score":59,"last_commit_at":60,"category_tags":61,"status":17},5646,"opencv","opencv\u002Fopencv","OpenCV 是一个功能强大的开源计算机视觉库，被誉为机器视觉领域的“瑞士军刀”。它主要解决让计算机“看懂”图像和视频的核心难题，提供了从基础的图像读取、色彩转换、边缘检测，到复杂的人脸识别、物体追踪、3D 重建及深度学习模型部署等全方位算法支持。无论是处理静态图片还是分析实时视频流，OpenCV 都能高效完成特征提取与模式识别任务。\n\n这款工具特别适合计算机视觉开发者、人工智能研究人员以及机器人工程师使用。对于希望将视觉感知能力集成到应用中的软件工程师，或是需要快速验证算法原型的学术研究者，OpenCV 都是不可或缺的基础设施。虽然普通用户通常不会直接操作代码，但日常生活中使用的扫码支付、美颜相机和自动驾驶系统，背后往往都有它的身影。\n\nOpenCV 的独特亮点在于其卓越的性能与广泛的兼容性。它采用 C++ 编写以确保高速运算，同时提供 Python、Java 等多种语言接口，极大降低了开发门槛。库中内置了数千种优化算法，并支持跨平台运行，能够无缝对接各类硬件加速器。作为社区驱动的项目，OpenCV 拥有活跃的生态系统和丰富的学习资源，持续推动着视觉技术的前沿发展。",86988,1,"2026-04-08T16:06:22",[14,15],{"id":63,"github_repo":64,"name":65,"description_en":66,"description_zh":67,"ai_summary_zh":68,"readme_en":69,"readme_zh":70,"quickstart_zh":71,"use_case_zh":72,"hero_image_url":73,"owner_login":74,"owner_name":75,"owner_avatar_url":76,"owner_bio":77,"owner_company":78,"owner_location":78,"owner_email":79,"owner_twitter":78,"owner_website":80,"owner_url":81,"languages":78,"stars":82,"forks":83,"last_commit_at":84,"license":78,"difficulty_score":85,"env_os":86,"env_gpu":87,"env_ram":88,"env_deps":89,"category_tags":93,"github_topics":78,"view_count":32,"oss_zip_url":78,"oss_zip_packed_at":78,"status":17,"created_at":95,"updated_at":96,"faqs":97,"releases":98},5955,"ngcthuong\u002FReproducible-Deep-Compressive-Sensing","Reproducible-Deep-Compressive-Sensing","Collection of reproducible deep learning for compressive sensing ","Reproducible-Deep-Compressive-Sensing 是一个专注于深度学习压缩感知（DCS）领域的开源代码合集，旨在解决该领域研究复现难、代码分散的问题。它系统性地整理了大量基于深度学习的图像与视频压缩感知算法，涵盖了从采样矩阵类型（如分块或基于帧）、采样尺度（单尺度或多尺度）到不同深度学习平台的多种分类维度。\n\n对于研究人员和开发者而言，这个资源库极具价值。它不仅提供了指向原始论文、DOI 链接的便捷入口，更直接汇总了包括 TCS-NET、TransCS、CASNet 等前沿模型的官方源代码，支持 PyTorch 和 Matlab 等主流框架。其独特亮点在于对技术路线的清晰梳理，既包含基于 Transformer 的混合架构，也涵盖深度展开网络（Deep Unfolding）及非局部神经网络等多种创新方法，甚至涉及单像素成像等特定场景。\n\n通过提供可复现的代码基准，Reproducible-Deep-Compressive-Sensing 极大地降低了新学者进入该领域的门槛，同时也为资深研究者对比算法性能、验证创新思路提供了坚实基础。如果你正在从事计算机视觉、信","Reproducible-Deep-Compressive-Sensing 是一个专注于深度学习压缩感知（DCS）领域的开源代码合集，旨在解决该领域研究复现难、代码分散的问题。它系统性地整理了大量基于深度学习的图像与视频压缩感知算法，涵盖了从采样矩阵类型（如分块或基于帧）、采样尺度（单尺度或多尺度）到不同深度学习平台的多种分类维度。\n\n对于研究人员和开发者而言，这个资源库极具价值。它不仅提供了指向原始论文、DOI 链接的便捷入口，更直接汇总了包括 TCS-NET、TransCS、CASNet 等前沿模型的官方源代码，支持 PyTorch 和 Matlab 等主流框架。其独特亮点在于对技术路线的清晰梳理，既包含基于 Transformer 的混合架构，也涵盖深度展开网络（Deep Unfolding）及非局部神经网络等多种创新方法，甚至涉及单像素成像等特定场景。\n\n通过提供可复现的代码基准，Reproducible-Deep-Compressive-Sensing 极大地降低了新学者进入该领域的门槛，同时也为资深研究者对比算法性能、验证创新思路提供了坚实基础。如果你正在从事计算机视觉、信号处理或医学影像重建等相关工作，希望快速定位并运行经典的 DCS 算法，这将是一个不可或缺的参考工具箱。","# Reproducible Deep Compressive Sensing \nCollection of source code for deep learning-based compressive sensing (DCS). Links for source code, pdf, doi are available. \nRelated works are classified based on the sampling matrix type (frame-based\u002Fblock-based), sampling scale (single scale, multi-scale), and deep learning platform. \n\nCode for other than sampling, reconstruction of image\u002Fvideo are given in the Other section. \n\nP\u002Fs: If you know any source code please let me know. \n\n\n## Block-based DCS\n### Single-Scale Sensing\n* TCS-NET:[[code]](https:\u002F\u002Fgithub.com\u002FICSResearch\u002FTCS-Net)\n  * H. Gan et al., From Patch to Pixel: A Transformer-based Hierarchical Framework for Compressive Image Sensing, TCI 2023\n* TransCS: [[code]](https:\u002F\u002Fgithub.com\u002FICSResearch\u002FTransCS)\n  * M. Shen et al., TransCS: A Transformer-Based Hybrid Architecture for Image Compressed Sensing, IEEE Trans Image Process, 2022. \n* TCS: [[code]](https:\u002F\u002Fgithub.com\u002Fuqmarlonbran\u002FTCS)\n  * M. B. Lorenzana et al., Transfomer compressed sensing via global image tokens, IEEE International Conference on Image Processing, ICIP 2022.\n* IBM_CS: [[code]](https:\u002F\u002Fgithub.com\u002Fbksain\u002FIBM_CS)\n  * B. Lee et al., Information Bottleneck Measurement for Compressed Sensing Image Reconstruction, IEEE Signal Processing Letter 2022. \n* RK-CSNet: [[code]](https:\u002F\u002Fgithub.com\u002Frkteddy\u002FRK-CCSNet) [Pytorch]\n  * R. Zheng et al, \"Runge-Kutta Convolutional Compressed Sensing Network,\" ECCV 2022.\n* TDCN: [[code]](https:\u002F\u002Fgithub.com\u002FUHADS\u002FTDCN) [Pytorch]\n  * R. Lu and K. Ye, \"Tree-structured Dilated Convolutional Networks for Image Compressed Sensing,\" IEEE Access, 2022.\n* MTC-CSNET: [[code]](https:\u002F\u002Fgithub.com\u002FEchoSPLab\u002FMTC-CSNet) [Pytorch]\n  * MTC-CSNet: Marrying Transformer and Convolution for Image Compressed Sensing, 2022. \n* CASNet: [[code]](https:\u002F\u002Fgithub.com\u002FGuaishou74851\u002FCASNet) [Pytorch]\n  * B. Chen and J. Zhang, \"Content-aware Scalable Deep Compressed Sensing,\" IEEE Trans. Image Processing, 2022. \n* NL-CSNet: [[code]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FNL-CSNet-Pytorch) [PyTorch]\n  * W. Cui et al, Image Compressed Sensing Using Non-local Neural Network, Transaction on Multimedia, 2022.\n* MADUN: [[code]](https:\u002F\u002Fgithub.com\u002Fsongjiechong\u002FMADUN-ACMMM2021) [PyTorch]\n  * J. Song et al. Memory-Augmented Deep Unfolding Network for Compressive Sensing (ACM MM 2021)\n* SP_DCS: Single pixel DCS [[code]](https:\u002F\u002Fgithub.com\u002FJeremy-jia2021\u002Fdeep-compressive-sensing) [PyTorch]\n  * Mengyu Jia et al . Single pixel imaging via unsupervised deep compressive sensing with collaborative sparsity in discretized feature space, Journal of Bio photonic, 2022.\n* AMPD-Net:[[Code]](https:\u002F\u002Fgithub.com\u002FZhonghaoZ\u002FAMP-Net_TIP) [PyTorch]\n  * Z. Zhang, Y. Liu, J. Liu, F. Wen, C. Zhu, \"AMP-Net: Denoising based Deep Unfolding for Compressive Image Sensing,\" IEEE Transaction on Image Processing, 2021. \n\n* DRCS-SR [[code]](https:\u002F\u002Fgithub.com\u002FHossamMKasem\u002FDRCS-SR-Deep-Robust-Compressed-Sensing-for-Single-Image-Super-Resolution)\n  * H. Kasem, M. Selim, E. Mohamed, A. Hussein, \"DRCS-SR-Deep-Robust-Compressed-Sensing-for-Single-Image-Super-Resolution,\" IEEE Access, 2020.\n \n* OPINE-Net [[Code]](https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FOPINE-Net) [Pytorch]\n  * Jian Zhang, Chen Zhao, Wen Gao \"Optimization-Inspired Compact Deep Compressive Sensing\", IEEE Journal of Selected Topics in Signal Processing (JSTSP), vol. 14, no. 4, pp. 765-774, May 2020. [pdf]\n\n* DUF-WL1:[[Code]](https:\u002F\u002Fgithub.com\u002Fcyskyvein\u002FDeep-Unfolding-Weighted-L1-Minimization)\n  * J. Zhang, Y. Li, Z. Yu, Z. Gu, Y. Cheng, H. Gong, \"Deep Unfolding With Weighted ℓ₂ Minimization for Compressive Sensing,\" IEEE Internet of Thing Journal, 2020.\n  \n* TGDOF [[Code]](https:\u002F\u002Fgithub.com\u002Fdlut-dimt\u002FTGDOF)[Matlab]\n  * R. Liu, Y. ZHang, S. Cheng, X. Fan, Z. Luo, \"A theoretically guaranteed optimization framework for robust compressive sensing MRI,\" Proceeding of the AAAI Conference on Artifical Intelligence, 2019. \n  \n* DNN-CS-STM32-MCU [[Code]](https:\u002F\u002Fgithub.com\u002Fflasonil\u002FDeep-Neural-Network-for-CS-based-signal-reconstruction-on-STM32-MCU-board) [Tensorflow]\n  * Lab. of Statistical Signal Processing - Deep Neural Network for CS based signal reconstruction on STM32 MCU board\n\n* TIP-CSNet  [[DOI]](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8765626\u002F) [[Code]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FTIP-CSNet)[Matconvnet] [[Code]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FCSNet-Pytorch) [Pytorch]\n  * W. Shi et al., Image Compressed Sensing using Convolutional Neural Network, IEEE Trans. Image Process, 2019. \n  \n* LapCSNet [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.04970) [[Code]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FLapCSNet)[Matconvnet]\n  * Wenxue Cui, Heyao Xu, Xinwei Gao, Shengping Zhang, Feng Jiang, Debin Zhao, \"An efficient deep convolutional laplacian pyramid architecture for CS reconstruction at low sampling ratios,\" 2018. \n  \n* Perceptual-CS [[Code]] (https:\u002F\u002Fgithub.com\u002Fjiang-du\u002FPerceptual-CS) [[DOI]](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-3-030-03338-5_23) [Caffe]\n  * J. Du, X. Xie, C. Wang, and G. Shi, \"Perceptual Compressive Sensing,\" Chinese Conference on Pattern Recognition and Computer Vision (PRCV), pp. 268 - 279, 2018. \n  \n* ISTA-Net [[Code]](https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FISTA-Net) [[PDF]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhang_ISTA-Net_Interpretable_Optimization-Inspired_CVPR_2018_paper.pdf) [Tensorflow]\n  * Z. Jian and G. Bernard, \"ISTA-Net: Interpretable Optimization-Inspired Deep Network for Image Compressive Sensing\", IEEE International Conference on Computer Vision and Pattern Recognition, 2018. \n\n* CSNet [[Code]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FCSNet) [[Code-ReImp]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCSNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07119) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICME.2017.8019428) [Matconvnet] [[Code-ReImp-Pytorch]](https:\u002F\u002Fgithub.com\u002Fliujiawei2333\u002FCompressed-sensing-CSNet)\n  * W. Shi, F. Jaing, S. Zhang, and D. Zhao, \"Deep networks for compressed image sensing\", IEEE International Conference on Multimedia and Expo (ICME), 2017.   \n\n* DeepInv [[Code-ReImp]](https:\u002F\u002Fgithub.com\u002Fy0umu\u002FDeepInverse-Reimplementation) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.03891.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICASSP.2017.7952561) \n  * A. Mousavi, R. G. Baraniuk et al., \"Learning to invert: Signal recovery via Deep Convolutional Networks,\" IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 2017. \n\n* DBCS [[Code]](http:\u002F\u002Fwww.cs.technion.ac.il\u002F~adleram\u002FBCS_DNN_2016.zip) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01519.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FMMSP.2017.8122281) [Matlab]\n  * A. Adler, D.Boublil, and M. Zibulevsky, \"Block-based compressed sensing of images via deep learning,\", IEEE International Workshop on Multimedia Signal Processing (MMSP), 2017.\n\n* DR2Net [[Code]](https:\u002F\u002Fgithub.com\u002Fcoldrainyht\u002Fcaffe_dr2) [[Code]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCaffe-DCS) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.05743) [Caffe]\n  * H. Yao, F. Dai, D. Zhang, Y. Ma, S. Zhang, Y. Zhang, and Q. Tian, \"DR2-net: Deep residual reconstruction network for image compressive sensing\", arXiv:1702.05743, 2017. \n\n* CS-CAE [[Code]](https:\u002F\u002Fgithub.com\u002Fstes\u002Fcompressed_sensing\u002Ftree\u002Fmaster\u002Fcode) [[PDF]](https:\u002F\u002Fgithub.com\u002Fstes\u002Fcompressed_sensing\u002Fblob\u002Fmaster\u002Freport\u002Freport.pdf) [Theanos]\n  * S. Schneider, \"A deep learning approach to compressive sensing with convolutional autoencoders,\" tech. report, 2016. \n\n* ReconNet [[Code]](https:\u002F\u002Fgithub.com\u002FKuldeepKulkarni\u002FReconNet) [[Code]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCaffe-DCS) [[PDF]](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FKulkarni_ReconNet_Non-Iterative_Reconstruction_CVPR_2016_paper.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FCVPR.2016.55) [Caffe]\n  * K. Kulkarni, S. Lohi, P. Turaga, R. Kerviche, A. Ashok, \"ReconNet: Non-Iterative Reconstruction of Images from Compressively Sensed\nMeasurements,\" IEEE International Conference on Computer Vision and Pattern Recognition (CVPR), 2016. \n\n### Multi-Scale Sensing\n* STDIP: [[code]](https:\u002F\u002Fgithub.com\u002Fzhang-chenxu\u002FSTDIP)\n  * Y. Zhong et al, Image Compressed Sensing Reconstruction via Deep Image Prior With Structure-Texture Decomposition, IEEE Signal Processing Letter 2023.\n* AMS-NET: [[code]](https:\u002F\u002Fgithub.com\u002FRedamancyAY\u002FAMS-Net) [Python]\n  * AMS-Net: Adaptive Multi-Scale Network for Image Compressive Sensing, IEEE Transaction on Multimedia, 2022. \n* MS-DCI [[DOI]]() [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.00802) [[Code]](https:\u002F\u002Fgithub.com\u002Fngcthuong\u002FMS-DCI\u002Fblob\u002Fmaster\u002FREADME.md)[Matconvnet]\n  * T. N. Canh et al., Multi-scale Deep Compressive Imaging, arxiv 2020. \n\n* Scalable Compressed Sensing Network (SCSNet) [[DOI]]() [[PDF]]() [[Code]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FSCSNet)[Matconvnet]\n  * W. Shi et al.,  Scalable Convolutional Neural Network for Image Compressed Sensing, CVPR 2019. \n\n* DoC-DCS [[Code]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FDoC-DCS) [[PDF]]( ) [MatcovnNet]\n  * T. N. Canh and B. Jeon, \"Difference of Convolution for Deep Compressive Sensing,\" IEEE International Conference on Imave Processing (ICIP), 2019.\n \n* DCSNet [[Code]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FMS-DCSNet-Release) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.05717) [MatcovnNet]\n  * T. N. Canh and B. Jeon, \"Multi-Scale Deep Compressive Sensing Network,\" IEEE International Conference on Visual Communication and Imave Processing (VCIP), 2018.\n\n* MS-CSNet [[Code]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FMS-CSNet) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICIP.2018.8451352) [MatconvNet]\n  * W. Shi, F. Jiang, S. Liu, D. Zhao, \"Multi-Scale Deep Networks for Image Compressed Sensing,\" IEEE International Conference on Image Processing (ICIP), 2018. \n\n* LAPRAN [[Code]](https:\u002F\u002Fgithub.com\u002FPSCLab-ASU\u002FLAPRAN-PyTorch) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.09388) [PyTorch]\n  * K. Xu, Z. Zhang, and  F. Ren, \"LAPRAN: A Scalable Laplacian Pyramid Reconstructive Adversarial Network for Flexible Compressive Sensing Reconstruction,\" arXiv:1807.09388. \n\n## Adaptive Sensing \n* AMS-NET: [[code]](https:\u002F\u002Fgithub.com\u002FRedamancyAY\u002FAMS-Net) [Python]\n  * AMS-Net: Adaptive Multi-Scale Network for Image Compressive Sensing, IEEE Transaction on Multimedia, 2022. \n* ACSNet [[Code]](https:\u002F\u002Fgithub.com\u002Fjirong0214\u002FACSNet-Code)\n  * L. Zhong, S. Wan and L. Xie, \"Adaptive Compressed Sensing imaging algorithm based on Deep Neural Network\", Journal of Pysics Conference. \n\n## Frame-based DCS\n* DeepFlatCam[[Code]](https:\u002F\u002Fgithub.com\u002Fngcthuong\u002FDeepFlatCam) [[PDF]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCVW_2019\u002Fpapers\u002FLCI\u002FCanh_Deep_Compressive_Sensing_for_Visual_Privacy_Protection_in_FlatCam_Imaging_ICCVW_2019_paper.pdf)\n  * Thuong Nguyen Canh and Hajime Nagahara, \"Deep Compressive Sensing for Visual Privacy Protection in FlatCam Imaging,\" IEEE the International Conference on Computer Vision Workshop, 2019.)\n\n* MD-Recon-Net[[Code]](https:\u002F\u002Fgithub.com\u002FDeep-Imaging-Group\u002FMD-Recon-Net) [[PDF]]()\n  * Maosong Ran, Wenjun Xia, Yongqiang Huang, Zexin Lu, Peng Bao, Yan Liu, Huaiqiang Sun, Jiliu Zhou, and Yi Zhang, \"MD-Recon-Net: a parallel dual-domain convolutional neural network for compressed sensing MRI,\" IEEE Transactions on Radiation and Plasma Medical Sciences, DOI: 10.1109\u002FTRPMS.2020.2991877, online, 2020.\n  \n* CS-MRI-GAN[[Code]](https:\u002F\u002Fgithub.com\u002Fpuneesh00\u002Fcs-mri-gan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.06067)\n  * P. Deora, B. Váudeva, S. Bhattacharya, P. M. Pradhan, \"Structure Preserving Compressive Sensing MRI Reconstruction using Generative Adversarial Networks,\" IEEE Computer Vision and Pattern Recognition Workshop, 2020.\n\n* Tensor-ADMM-Net-CSI[[Code]](https:\u002F\u002Fgithub.com\u002FPhoenix-V\u002Ftensor-admm-net-sci) [Tensorflow]\n  * Jiawei Ma, Xiao-Yang Liu, Zheng Shou, Xin Yuan, \"Deep Tensor ADMM-Net for Snapshot Compressive Imaging,\" IEEE ICCV, Nov. 2019.\n\n* ADMM-CSNet[[Code]](https:\u002F\u002Fgithub.com\u002Fyangyan92\u002FADMM-CSNet)\n  * Yan Yang, Jian Sun, Huibin Li, Zongben Xu, \"ADMM-CSNet: A Deep Learning Approach for Image Compressive Sensing,\" IEEE Transaction on Pattern Recognition and Machine Intelligence, 2019.\n\n* DCS-GAN [[Code]](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdeepmind-research\u002Ftree\u002Fmaster\u002Fcs_gan)[[Pdf]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.06723.pdf) - Available Soon from DeepMind\n  * Yan Wu, Mihaela Rosca, Timothy Lillicrap, Deep Compressive Sensing, Arxiv 2019. \n  \n* F-CSRG [[Code]](https:\u002F\u002Fgithub.com\u002Fsihan-zeng\u002Ff-csrg) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.06913) [Tensorflow]\n  * Shaojie Xu, Sihan Zeng, Justin Romberg, \"Fast Compressive Sensing Recovery Using Generative Models with Structured Latent Variables\n,\" arXiv:1806.10175, 2019.\n\n* L1AE [[Code]](https:\u002F\u002Fgithub.com\u002Fwushanshan\u002FL1AE) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.10175) [Tensorflow]\n  * Shanshan Wu, Alexandros G. Dimakis, Sujay Sanghavi, Felix X. Yu, Daniel Holtmann-Rice, Dmitry Storcheus, Afshin Rostamizadeh, Sanjiv Kumar, \"Learning a Compressed Sensing Measurement Matrix via Gradient Unrolling,\" arXiv:1806.10175, 2018.\n  \n* DIP [[Code]](https:\u002F\u002Fgithub.com\u002Fdavevanveen\u002Fcompsensing_dip) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.06438.pdf) [Torch]\n  * David Van Veen; Ajil Jalal, Eric Price; Sriram Vishwanath; Alexandros G. Dimakis, \"Compressed Sensing with Deep Image Prior and Learned Regularization,\" arXiv:1806.06438, 2018. \n  \n* Deep-ADMM-Net [[Code]](https:\u002F\u002Fgithub.com\u002Fyangyan92\u002FDeep-ADMM-Net) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FTPAMI.2018.2883941) [MatconvNet]\n  * Yan Yang ; Jian Sun ; HUIBIN LI ; Zongben Xu, \"ADMM-CSNet: A Deep Learning Approach for Image Compressive Sensing,\" IEEE Transaction on Pattern Recognition and Machine Intelligence, 2018. \n\n* VAR-MSI [[Code]](https:\u002F\u002Fgithub.com\u002FVLOGroup\u002Fmri-variationalnetwork) [[PDF]] [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1002\u002Fmrm.26977) [Tensorflow]\n  * H. Kerstin et al., \"Learning a variational network for reconstruction of accelerated MRI data,\" Magnetic Resonance in Medicine, vol. 79, no. 6, 2018. \n\n* CSMRI [[Code]](https:\u002F\u002Fgithub.com\u002Fmseitzer\u002Fcsmri-refinement) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.11216) [PyTorch]\n  * M. Seitzer et al., \"Adversarial and Perceptual Refinement Compressed Sensing MRI Reconstruction,\" MICCAI 2018. \n\n* KCS-Net [[Code]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FKCS-Net) [[PDF]](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F324969818_Deep_Learning-Based_Kronecker_Compressive_Imaging) [MatconvNet]\n  * T. N. Canh and B. Jeon, \"Deep Learning-Based Kronecker Compressive Imaging\", IEEE International Conference on Consumer Electronic Asia, 2018\n\n* DAGAN [[Code]](https:\u002F\u002Fgithub.com\u002FnebulaV\u002FDAGAN) [[PDF]](http:\u002F\u002Fdiscovery.ucl.ac.uk\u002F10048154\u002F1\u002F08233175.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FTMI.2017.2785879) [Tensorflow]\n  * G. Yang et al., \"DAGAN: Deep De-Aliasing Generative Adversarial Networks for Fast Compressed Sensing MRI Reconstruction,\" IEEE Transaction on Medical Imaging, vol. 37, no. 6, 2018. \n\n* SADN [[Code]](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FSADN)[[Doi]](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8296620?reload=true) [Matlab]\n  * Qiegen Liu and Henry Leung, Synthesis-analysis deconvolutional network for compressed sensing, IEEE International Conference on Image Processing, 2017. \n* CSGM [[Code]](https:\u002F\u002Fgithub.com\u002FAshishBora\u002Fcsgm) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.03208) [Tensorflow]\n  * A. Bora, A. Jalal, A. G. Dimakis, \"Compressed sensing using Generative Models,\" arXiv:1703.03208, 2017. \n\n* Learned D-AMP [[Code]](https:\u002F\u002Fgithub.com\u002Fricedsp\u002FD-AMP_Toolbox) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.06625) [Tensorflow]\n  * C. A. Metzler et al., \"Learned D-AMP: Principled Neural Network based Compressive Image Recovery,\" Advances in Neural Information Processing Systems, 2017.\n\n* Deep-Ternary [[Code]](https:\u002F\u002Fgithub.com\u002Fnmduc\u002Fdeep-ternary) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.08311) [Tensorflow] \n  * D. M. Nguyen, E. Tsiligianni and N. Deligiannis, \"Deep learning sparse ternary projections for compressed sensing of images,\" IEEE Global Conference on Signal and Information Processing (GlobalSIP), 2017.\n\n* GANCS [[Code]](https:\u002F\u002Fgithub.com\u002Fgongenhao\u002FGANCS) [[PDF]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-018-0233-6) [Tensorflow]\n  * M. Mardani et al., \"Compressed Sensing MRI based on Deep Generative Adversarial Network\", arXiv:1706.00051, 2017.\n\n## Video Compressive Sensing\n* DL-CACTI [[Code]](https:\u002F\u002Fgithub.com\u002Fmq0829\u002FDL-CACTI) [Tensorflow]\n  * M. Qiao, Z. Meng, J. Ma, X. Yuan, \"Deep Learning for Video Compressive Sensing\", APL Photonic 5, 2020.\n\n* DeepVideoCS [[Web]](http:\u002F\u002Fusers.eecs.northwestern.edu\u002F~mif365\u002Fdeep_cs_project.html) [[Code]](https:\u002F\u002Fgithub.com\u002Fmiliadis\u002FDeepVideoCS) [[PDF]](http:\u002F\u002Fusers.eecs.northwestern.edu\u002F~mif365\u002Fpapers\u002FDeep_Video_CS.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.dsp.2017.09.010) [PyTorch]\n  * M. Illiasdis, L. Spinoulas, A. K. Katsaggelos, \"Deep fully-connected networks for video compressive sensing,\" Elsevier Digital Signal Processing, vol. 72, 2018.  \n\n* CSVideoNet [[Code]](https:\u002F\u002Fgithub.com\u002FPSCLab-ASU\u002FCSVideoNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.05203.pdf) [Caffe] [Matlab]\n  * K. Xu and F. Ren, \"SVideoNet: A Recurrent Convolutional Neural Network for Compressive Sensing Video Reconstruction,\" arXiv:162.05203, 2018. \n  \n\n## Other \n* CSNN [[Code]](https:\u002F\u002Fgithub.com\u002Fayonar\u002Fcsnn) [[DOI]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.10136) [Matlab][Tensorflow]\n  * Yonar and Lee et. al., A Compressed Sensing Framework for Efficient Dissection of Neural Circuits.\" (2019) Nature Methods 16, pages126–133.\n\n* LIS-DL [[Code]](https:\u002F\u002Fgithub.com\u002FAbdelrahman-Taha\u002FLIS-DeepLearning) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.10136) [Matlab]\n  * Abdelrahman Taha, Muhammad Alrabeiah, Ahmed Alkhateeb, \"Enabling Large Intelligent Surfaces with Compressive Sensing and Deep Learning,\" arXiv:1904.10136, Apr 2019.   \n\n* VAE-GANs [[Code]](https:\u002F\u002Fgithub.com\u002FMortezaMardani\u002FGAN-Hallucination\u002Ftree\u002Fvae) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.11228.pdf) [Python]\n  * Vineet Edupuganti, Morteza Mardani, Joseph Cheng, Shreyas Vasanawala, John Pauly, \"VAE-GANs for Probabilistic Compressive Image Recovery: Uncertainty Analysis,\" arxiv1901.1128, 2019.   \n\n* Sparse-Gen [[Code]](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fsparse_gen) [[[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.01442) [Tensorflow]\n  * Manik Dhar, Aditya Grover, Stefano Ermon, \"Modeling Sparse Deviations for Compressed Sensing using Generative Models,\" International Conference on Machine Learning (ICML), 2018\n \n* Super-LiDAR [[Code]](https:\u002F\u002Fgithub.com\u002Fnchodosh\u002FSuper-LiDAR) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.08949) [Tensorflow]\n  * Nathaniel Chodosh, Chaoyang Wang, Simon Lucey, \"Deep Convolutional Compressed Sensing for LiDAR Depth Completion,\" arXiv:1803.08949, 2018. \n\n* Unpaired-GANCS [[Code]](https:\u002F\u002Fgithub.com\u002FMortezaMardani\u002FUnpaired-GANCS) [Tensorflow] \n  * Reconstruct under sampled MRI image\n\n* CSGAN [[Code]](https:\u002F\u002Fgithub.com\u002Fpo0ya\u002Fcsgan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01284) [Tensorflow]\n  * M. Kabkab, P. Samangouei, and R. Chellappa, \"Task-Aware Compressed Sensing with Generative Adversarial Networks,\" AAAI Conference on Artificial Intelligence, 2018\n\n* DL-CSI [[Code]](https:\u002F\u002Fgithub.com\u002Fsydney222\u002FPython_CsiNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01215) [Tensorflow][Keras\n  * Chao-Kai Wen, Wan-Ting Shih, and Shi Jin, “Deep learning for massive MIMO CSI feedback,” IEEE Wireless Communications Letters, 2018. \n\n* US-CS [[Code]](https:\u002F\u002Fgithub.com\u002Fdperdios\u002Fus-rawdata-sda) [[PDF]](https:\u002F\u002Finfoscience.epfl.ch\u002Frecord\u002F230991\u002Ffiles\u002Fius2017_sda_preprint.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FULTSYM.2017.8092746) [Tensorflow]\n  * D. Perdios, A. Besson, M. Arditi, and J. Thiran, \"A Deep Learning Approach to Ultrasound Image Recovery\", IEEE International Ultranosics Symposium, 2017. \n\n* DeepIoT [[Code-ReImplement]](https:\u002F\u002Fgithub.com\u002Fpo0ya\u002Fcsgan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01215) [Tensorflow]\n  * Shuochao Yao, Yiran Zhao, Aston Zhang, Lu Su, Tarek Abdelzaher, \"DeepIoT: Compressing Deep Neural Network Structures for Sensing Systems with a Compressor-Critic Framework,\" AAAI Conference on Artificial Intelligence, 2018\n\n* LSTM_CS [[Code]](https:\u002F\u002Fgithub.com\u002Fyscacaca\u002FDeepIoT) [[PDF]](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2017\u002F02\u002FLSTM_CS_TSP.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.110910.1109\u002FTSP.2016.2557301) [Matlab]\n  * H. Palangi, R. Ward, and L. Deng, \"Distributed Compressive Sensing: A Deep Learning Approach,\" IEEE Transaction on Signal Processing, vol. 64, no. 17, 2016.\n\n\n\n  \n\n\n","# 可复现的深度压缩感知\n基于深度学习的压缩感知（DCS）源代码集合。提供了源代码、PDF 和 DOI 的链接。\n相关工作按采样矩阵类型（帧基\u002F块基）、采样尺度（单尺度、多尺度）以及深度学习平台进行分类。\n\n除采样和图像\u002F视频重建之外的其他代码，均列在“Other”部分。\n\n附注：如果您知道任何相关源代码，请告知我。\n\n## 块基 DCS\n### 单尺度感知\n* TCS-NET:[[代码]](https:\u002F\u002Fgithub.com\u002FICSResearch\u002FTCS-Net)\n  * H. Gan 等人，《从块到像素：一种基于 Transformer 的分层框架用于压缩图像感知》，TCI 2023\n* TransCS: [[代码]](https:\u002F\u002Fgithub.com\u002FICSResearch\u002FTransCS)\n  * M. Shen 等人，《TransCS：一种基于 Transformer 的混合架构用于图像压缩感知》，IEEE 图像处理汇刊，2022年。\n* TCS: [[代码]](https:\u002F\u002Fgithub.com\u002Fuqmarlonbran\u002FTCS)\n  * M. B. Lorenzana 等人，《通过全局图像 token 的 Transformer 压缩感知》，IEEE 国际图像处理会议，ICIP 2022。\n* IBM_CS: [[代码]](https:\u002F\u002Fgithub.com\u002Fbksain\u002FIBM_CS)\n  * B. Lee 等人，《信息瓶颈度量在压缩感知图像重建中的应用》，IEEE 信号处理快报，2022年。\n* RK-CSNet: [[代码]](https:\u002F\u002Fgithub.com\u002Frkteddy\u002FRK-CCSNet) [PyTorch]\n  * R. Zheng 等人，“龙格-库塔卷积压缩感知网络”，ECCV 2022。\n* TDCN: [[代码]](https:\u002F\u002Fgithub.com\u002FUHADS\u002FTDCN) [PyTorch]\n  * R. Lu 和 K. Ye，“树状扩张卷积网络用于图像压缩感知”，IEEE Access，2022年。\n* MTC-CSNET: [[代码]](https:\u002F\u002Fgithub.com\u002FEchoSPLab\u002FMTC-CSNet) [PyTorch]\n  * MTC-CSNet：将 Transformer 与卷积结合用于图像压缩感知，2022年。\n* CASNet: [[代码]](https:\u002F\u002Fgithub.com\u002FGuaishou74851\u002FCASNet) [PyTorch]\n  * B. Chen 和 J. Zhang，“内容感知的可扩展深度压缩感知”，IEEE 图像处理汇刊，2022年。\n* NL-CSNet: [[代码]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FNL-CSNet-Pytorch) [PyTorch]\n  * W. Cui 等人，《使用非局部神经网络进行图像压缩感知》，多媒体汇刊，2022年。\n* MADUN: [[代码]](https:\u002F\u002Fgithub.com\u002Fsongjiechong\u002FMADUN-ACMMM2021) [PyTorch]\n  * J. Song 等人，《用于压缩感知的记忆增强深度展开网络》（ACM MM 2021）。\n* SP_DCS：单像素 DCS [[代码]](https:\u002F\u002Fgithub.com\u002FJeremy-jia2021\u002Fdeep-compressive-sensing) [PyTorch]\n  * Mengyu Jia 等人，《基于无监督深度压缩感知的单像素成像，结合离散特征空间中的协同稀疏性》，生物光子学杂志，2022年。\n* AMPD-Net:[[代码]](https:\u002F\u002Fgithub.com\u002FZhonghaoZ\u002FAMP-Net_TIP) [PyTorch]\n  * Z. Zhang、Y. Liu、J. Liu、F. Wen、C. Zhu，“AMP-Net：基于去噪的深度展开用于压缩图像感知”，IEEE 图像处理汇刊，2021年。\n\n* DRCS-SR [[代码]](https:\u002F\u002Fgithub.com\u002FHossamMKasem\u002FDRCS-SR-Deep-Robust-Compressed-Sensing-for-Single-Image-Super-Resolution)\n  * H. Kasem、M. Selim、E. Mohamed、A. Hussein，《DRCS-SR：用于单幅图像超分辨率的深度鲁棒压缩感知》，IEEE Access，2020年。\n \n* OPINE-Net [[代码]](https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FOPINE-Net) [PyTorch]\n  * Jian Zhang、Chen Zhao、Wen Gao，“受优化启发的紧凑型深度压缩感知”，IEEE 信号处理精选主题期刊（JSTSP），第14卷，第4期，第765–774页，2020年5月。[pdf]\n\n* DUF-WL1:[[代码]](https:\u002F\u002Fgithub.com\u002Fcyskyvein\u002FDeep-Unfolding-Weighted-L1-Minimization)\n  * J. Zhang、Y. Li、Z. Yu、Z. Gu、Y. Cheng、H. Gong，“带有加权 ℓ₂ 最小化的深度展开用于压缩感知”，IEEE 物联网期刊，2020年。\n  \n* TGDOF [[代码]](https:\u002F\u002Fgithub.com\u002Fdlut-dimt\u002FTGDOF)[Matlab]\n  * R. Liu、Y. ZHang、S. Cheng、X. Fan、Z. Luo，“一种理论上有保证的鲁棒压缩感知 MRI 优化框架”，AAAI 人工智能会议论文集，2019年。\n  \n* DNN-CS-STM32-MCU [[代码]](https:\u002F\u002Fgithub.com\u002Fflasonil\u002FDeep-Neural-Network-for-CS-based-signal-reconstruction-on-STM32-MCU-board) [Tensorflow]\n  * 统计信号处理实验室——用于在 STM32 MCU 板上进行 CS 基础信号重建的深度神经网络。\n\n* TIP-CSNet  [[DOI]](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8765626\u002F) [[代码]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FTIP-CSNet)[Matconvnet] [[代码]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FCSNet-Pytorch) [PyTorch]\n  * W. Shi 等人，《利用卷积神经网络进行图像压缩感知》，IEEE 图像处理汇刊，2019年。\n  \n* LapCSNet [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1804.04970) [[代码]](https:\u002F\u002Fgithub.com\u002FWenxueCui\u002FLapCSNet)[Matconvnet]\n  * Wenxue Cui、Heyao Xu、Xinwei Gao、Shengping Zhang、Feng Jiang、Debin Zhao，“一种高效的深度卷积拉普拉斯金字塔架构，用于低采样率下的 CS 重建”，2018年。\n  \n* Perceptual-CS [[代码]] (https:\u002F\u002Fgithub.com\u002Fjiang-du\u002FPerceptual-CS) [[DOI]](https:\u002F\u002Flink.springer.com\u002Fchapter\u002F10.1007\u002F978-3-030-03338-5_23) [Caffe]\n  * J. Du、X. Xie、C. Wang 和 G. Shi，“感知压缩感知”，中国模式识别与计算机视觉会议（PRCV），第268–279页，2018年。\n  \n* ISTA-Net [[代码]](https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FISTA-Net) [[PDF]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_cvpr_2018\u002Fpapers\u002FZhang_ISTA-Net_Interpretable_Optimization-Inspired_CVPR_2018_paper.pdf) [Tensorflow]\n  * Z. Jian 和 G. Bernard，“ISTA-Net：一种受优化启发的可解释深度网络，用于图像压缩感知”，IEEE 国际计算机视觉与模式识别会议，2018年。\n  \n* CSNet [[代码]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FCSNet) [[代码重实现]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCSNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1707.07119) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICME.2017.8019428) [Matconvnet] [[代码重实现-PyTorch]](https:\u002F\u002Fgithub.com\u002Fliujiawei2333\u002FCompressed-sensing-CSNet)\n  * W. Shi、F. Jaing、S. Zhang 和 D. Zhao，“用于压缩图像感知的深度网络”，IEEE 国际多媒体与博览会（ICME），2017年。\n   \n* DeepInv [[代码重实现]](https:\u002F\u002Fgithub.com\u002Fy0umu\u002FDeepInverse-Reimplementation) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1701.03891.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICASSP.2017.7952561)\n  * A. Mousavi、R. G. Baraniuk 等人，“学习逆运算：通过深度卷积网络进行信号恢复”，IEEE 国际声学、语音和信号处理会议（ICASSP）2017年。\n  \n* DBCS [[代码]](http:\u002F\u002Fwww.cs.technion.ac.il\u002F~adleram\u002FBCS_DNN_2016.zip) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1606.01519.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FMMSP.2017.8122281) [Matlab]\n  * A. Adler、D. Boublil 和 M. Zibulevsky，“基于块的图像压缩感知，采用深度学习方法”，IEEE 国际多媒体信号处理研讨会（MMSP），2017年。\n\n* DR2Net [[代码]](https:\u002F\u002Fgithub.com\u002Fcoldrainyht\u002Fcaffe_dr2) [[代码]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCaffe-DCS) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1702.05743) [Caffe]\n  * H. Yao, F. Dai, D. Zhang, Y. Ma, S. Zhang, Y. Zhang, 和 Q. Tian，“DR2-net：用于图像压缩感知的深度残差重建网络”，arXiv:1702.05743，2017年。\n\n* CS-CAE [[代码]](https:\u002F\u002Fgithub.com\u002Fstes\u002Fcompressed_sensing\u002Ftree\u002Fmaster\u002Fcode) [[PDF]](https:\u002F\u002Fgithub.com\u002Fstes\u002Fcompressed_sensing\u002Fblob\u002Fmaster\u002Freport\u002Freport.pdf) [Theanos]\n  * S. Schneider，“利用卷积自编码器的压缩感知深度学习方法”，技术报告，2016年。\n\n* ReconNet [[代码]](https:\u002F\u002Fgithub.com\u002FKuldeepKulkarni\u002FReconNet) [[代码]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FCaffe-DCS) [[PDF]](https:\u002F\u002Fwww.cv-foundation.org\u002Fopenaccess\u002Fcontent_cvpr_2016\u002Fpapers\u002FKulkarni_ReconNet_Non-Iterative_Reconstruction_CVPR_2016_paper.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FCVPR.2016.55) [Caffe]\n  * K. Kulkarni、S. Lohi、P. Turaga、R. Kerviche、A. Ashok，“ReconNet：从压缩感知测量中进行非迭代图像重建”，IEEE国际计算机视觉与模式识别会议（CVPR），2016年。\n\n\n\n### 多尺度感知\n* STDIP：[[代码]](https:\u002F\u002Fgithub.com\u002Fzhang-chenxu\u002FSTDIP)\n  * Y. Zhong 等人，《基于结构-纹理分解的深度图像先验的图像压缩感知重建》，IEEE信号处理快报，2023年。\n* AMS-NET：[[代码]](https:\u002F\u002Fgithub.com\u002FRedamancyAY\u002FAMS-Net) [Python]\n  * AMS-Net：用于图像压缩感知的自适应多尺度网络，IEEE多媒体汇刊，2022年。\n* MS-DCI [[DOI]]() [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F2008.00802) [[代码]](https:\u002F\u002Fgithub.com\u002Fngcthuong\u002FMS-DCI\u002Fblob\u002Fmaster\u002FREADME.md)[Matconvnet]\n  * T. N. Canh 等人，《多尺度深度压缩成像》，arXiv，2020年。\n\n* 可扩展压缩感知网络（SCSNet）[[DOI]]() [[PDF]]() [[代码]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FSCSNet)[Matconvnet]\n  * W. Shi 等人，《用于图像压缩感知的可扩展卷积神经网络》，CVPR 2019。\n\n* DoC-DCS [[代码]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FDoC-DCS) [[PDF]]( ) [MatcovnNet]\n  * T. N. Canh 和 B. Jeon，“用于深度压缩感知的卷积差异”，IEEE国际图像处理会议（ICIP），2019年。\n\n* DCSNet [[代码]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FMS-DCSNet-Release) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1809.05717) [MatcovnNet]\n  * T. N. Canh 和 B. Jeon，“多尺度深度压缩感知网络”，IEEE国际视觉通信与图像处理会议（VCIP），2018年。\n\n* MS-CSNet [[代码]](https:\u002F\u002Fgithub.com\u002Fwzhshi\u002FMS-CSNet) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FICIP.2018.8451352) [Matconvnet]\n  * W. Shi、F. Jiang、S. Liu、D. Zhao，“用于图像压缩感知的多尺度深度网络”，IEEE国际图像处理会议（ICIP），2018年。\n\n* LAPRAN [[代码]](https:\u002F\u002Fgithub.com\u002FPSCLab-ASU\u002FLAPRAN-PyTorch) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.09388) [PyTorch]\n  * K. Xu、Z. Zhang 和 F. Ren，“LAPRAN：一种用于灵活压缩感知重建的可扩展拉普拉斯金字塔重建对抗网络”，arXiv:1807.09388。\n\n## 自适应感知\n* AMS-NET：[[代码]](https:\u002F\u002Fgithub.com\u002FRedamancyAY\u002FAMS-Net) [Python]\n  * AMS-Net：用于图像压缩感知的自适应多尺度网络，IEEE多媒体汇刊，2022年。\n* ACSNet [[代码]](https:\u002F\u002Fgithub.com\u002Fjirong0214\u002FACSNet-Code)\n  * L. Zhong、S. Wan 和 L. Xie，“基于深度神经网络的自适应压缩感知成像算法”，物理会议期刊。\n\n## 基于帧的压缩感知\n* DeepFlatCam[[代码]](https:\u002F\u002Fgithub.com\u002Fngcthuong\u002FDeepFlatCam) [[PDF]](http:\u002F\u002Fopenaccess.thecvf.com\u002Fcontent_ICCVW_2019\u002Fpapers\u002FLCI\u002FCanh_Deep_Compressive_Sensing_for_Visual_Privacy_Protection_in_FlatCam_Imaging_ICCVW_2019_paper.pdf)\n  * Thuong Nguyen Canh 和 Hajime Nagahara，“用于FlatCam成像中视觉隐私保护的深度压缩感知”，IEEE国际计算机视觉研讨会，2019年。\n\n* MD-Recon-Net[[代码]](https:\u002F\u002Fgithub.com\u002FDeep-Imaging-Group\u002FMD-Recon-Net) [[PDF]]()\n  * Maosong Ran、Wenjun Xia、Yongqiang Huang、Zexin Lu、Peng Bao、Yan Liu、Huaiqiang Sun、Jiliu Zhou 和 Yi Zhang，“MD-Recon-Net：一种用于压缩感知MRI的并行双域卷积神经网络”，IEEE辐射与等离子体医学科学汇刊，DOI：10.1109\u002FTRPMS.2020.2991877，在线发表，2020年。\n\n* CS-MRI-GAN[[代码]](https:\u002F\u002Fgithub.com\u002Fpuneesh00\u002Fcs-mri-gan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1910.06067)\n  * P. Deora、B. Váudeva、S. Bhattacharya、P. M. Pradhan，“使用生成对抗网络进行结构保持的压缩感知MRI重建”，IEEE计算机视觉与模式识别研讨会，2020年。\n\n* Tensor-ADMM-Net-CSI[[代码]](https:\u002F\u002Fgithub.com\u002FPhoenix-V\u002Ftensor-admm-net-sci) [TensorFlow]\n  * Jiawei Ma、Xiao-Yang Liu、Zheng Shou、Xin Yuan，“用于快照压缩感知成像的深度张量ADMM-Net”，IEEE ICCV，2019年11月。\n\n* ADMM-CSNet[[代码]](https:\u002F\u002Fgithub.com\u002Fyangyan92\u002FADMM-CSNet)\n  * Yan Yang、Jian Sun、Huibin Li、Zongben Xu，“ADMM-CSNet：一种用于图像压缩感知的深度学习方法”，IEEE模式识别与机器智能汇刊，2019年。\n\n* DCS-GAN [[代码]](https:\u002F\u002Fgithub.com\u002Fdeepmind\u002Fdeepmind-research\u002Ftree\u002Fmaster\u002Fcs_gan)[[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1905.06723.pdf) - 即将由DeepMind发布\n  * Yan Wu、Mihaela Rosca、Timothy Lillicrap，深度压缩感知，Arxiv 2019年。\n\n* F-CSRG [[代码]](https:\u002F\u002Fgithub.com\u002Fsihan-zeng\u002Ff-csrg) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1902.06913) [TensorFlow]\n  * Shaojie Xu、Sihan Zeng、Justin Romberg，“利用具有结构化潜在变量的生成模型进行快速压缩感知恢复”，arXiv:1806.10175，2019年。\n\n* L1AE [[代码]](https:\u002F\u002Fgithub.com\u002Fwushanshan\u002FL1AE) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.10175) [TensorFlow]\n  * Shanshan Wu、Alexandros G. Dimakis、Sujay Sanghavi、Felix X. Yu、Daniel Holtmann-Rice、Dmitry Storcheus、Afshin Rostamizadeh、Sanjiv Kumar，“通过梯度展开学习压缩感知测量矩阵”，arXiv:1806.10175，2018年。\n\n* DIP [[代码]](https:\u002F\u002Fgithub.com\u002Fdavevanveen\u002Fcompsensing_dip) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1806.06438.pdf) [Torch]\n  * David Van Veen；Ajil Jalal、Eric Price；Sriram Vishwanath；Alexandros G. Dimakis，“结合深度图像先验和学习正则化的压缩感知”，arXiv:1806.06438，2018年。\n\n* Deep-ADMM-Net [[代码]](https:\u002F\u002Fgithub.com\u002Fyangyan92\u002FDeep-ADMM-Net) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FTPAMI.2018.2883941) [MatconvNet]\n  * Yan Yang；Jian Sun；HUIBIN LI；Zongben Xu，“ADMM-CSNet：一种用于图像压缩感知的深度学习方法”，IEEE模式识别与机器智能汇刊，2018年。\n\n* VAR-MSI [[代码]](https:\u002F\u002Fgithub.com\u002FVLOGroup\u002Fmri-variationalnetwork) [[PDF]] [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1002\u002Fmrm.26977) [TensorFlow]\n  * H. Kerstin 等人，“学习用于加速MRI数据重建的变分网络”，《磁共振医学》杂志，第79卷，第6期，2018年。\n\n* CSMRI [[代码]](https:\u002F\u002Fgithub.com\u002Fmseitzer\u002Fcsmri-refinement) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1806.11216) [PyTorch]\n  * M. Seitzer 等人，“对抗性和感知优化的压缩感知MRI重建”，MICCAI 2018。\n\n* KCS-Net [[代码]](https:\u002F\u002Fgithub.com\u002FAtenaKid\u002FKCS-Net) [[PDF]](https:\u002F\u002Fwww.researchgate.net\u002Fpublication\u002F324969818_Deep_Learning-Based_Kronecker_Compressive_Imaging) [MatconvNet]\n  * T. N. Canh 和 B. Jeon，“基于深度学习的克罗内克压缩成像”，IEEE亚洲消费电子国际会议，2018年。\n\n* DAGAN [[代码]](https:\u002F\u002Fgithub.com\u002FnebulaV\u002FDAGAN) [[PDF]](http:\u002F\u002Fdiscovery.ucl.ac.uk\u002F10048154\u002F1\u002F08233175.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FTMI.2017.2785879) [TensorFlow]\n  * G. Yang 等人，“DAGAN：用于快速压缩感知MRI重建的深度去混叠生成对抗网络”，IEEE医学影像汇刊，第37卷，第6期，2018年。\n\n* SADN [[代码]](https:\u002F\u002Fgithub.com\u002Fyqx7150\u002FSADN)[[DOI]](https:\u002F\u002Fieeexplore.ieee.org\u002Fdocument\u002F8296620?reload=true) [Matlab]\n  * Qiegen Liu 和 Henry Leung，“用于压缩感知的合成-分析反卷积网络”，IEEE国际图像处理会议，2017年。\n\n* CSGM [[代码]](https:\u002F\u002Fgithub.com\u002FAshishBora\u002Fcsgm) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1703.03208) [TensorFlow]\n  * A. Bora、A. Jalal、A. G. Dimakis，“利用生成模型进行压缩感知”，arXiv:1703.03208，2017年。\n\n* Learned D-AMP [[代码]](https:\u002F\u002Fgithub.com\u002Fricedsp\u002FD-AMP_Toolbox) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1704.06625) [TensorFlow]\n  * C. A. Metzler 等人，“学习型D-AMP：基于原则的神经网络图像压缩感知恢复”，神经信息处理系统进展，2017年。\n\n* Deep-Ternary [[代码]](https:\u002F\u002Fgithub.com\u002Fnmduc\u002Fdeep-ternary) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1708.08311) [TensorFlow]\n  * D. M. Nguyen、E. Tsiligianni 和 N. Deligiannis，“用于图像压缩感知的深度学习稀疏三值投影”，IEEE全球信号与信息处理大会（GlobalSIP），2017年。\n\n* GANCS [[代码]](https:\u002F\u002Fgithub.com\u002Fgongenhao\u002FGANCS) [[PDF]](https:\u002F\u002Fwww.nature.com\u002Farticles\u002Fs41592-018-0233-6) [TensorFlow]\n  * M. Mardani 等人，“基于深度生成对抗网络的压缩感知MRI”，arXiv:1706.00051，2017年。\n\n## 视频压缩感知\n* DL-CACTI [[代码]](https:\u002F\u002Fgithub.com\u002Fmq0829\u002FDL-CACTI) [TensorFlow]\n  * M. Qiao、Z. Meng、J. Ma、X. Yuan，“用于视频压缩感知的深度学习”，APL光子学第5期，2020年。\n\n* DeepVideoCS [[网页]](http:\u002F\u002Fusers.eecs.northwestern.edu\u002F~mif365\u002Fdeep_cs_project.html) [[代码]](https:\u002F\u002Fgithub.com\u002Fmiliadis\u002FDeepVideoCS) [[PDF]](http:\u002F\u002Fusers.eecs.northwestern.edu\u002F~mif365\u002Fpapers\u002FDeep_Video_CS.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1016\u002Fj.dsp.2017.09.010) [PyTorch]\n  * M. Illiasdis、L. Spinoulas、A. K. Katsaggelos，“用于视频压缩感知的深度全连接网络”，爱思唯尔数字信号处理杂志，第72卷，2018年。\n\n* CSVideoNet [[代码]](https:\u002F\u002Fgithub.com\u002FPSCLab-ASU\u002FCSVideoNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1612.05203.pdf) [Caffe] [Matlab]\n  * K. Xu 和 F. Ren，“SVideoNet：一种用于压缩感知视频重建的循环卷积神经网络”，arXiv:162.05203，2018年。\n\n## 其他\n* CSNN [[代码]](https:\u002F\u002Fgithub.com\u002Fayonar\u002Fcsnn) [[DOI]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.10136) [Matlab][Tensorflow]\n  * Yonar 和 Lee 等人，\"用于高效解析神经回路的压缩感知框架\"（2019），Nature Methods 16，第126–133页。\n\n* LIS-DL [[代码]](https:\u002F\u002Fgithub.com\u002FAbdelrahman-Taha\u002FLIS-DeepLearning) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1904.10136) [Matlab]\n  * Abdelrahman Taha、Muhammad Alrabeiah、Ahmed Alkhateeb，《利用压缩感知和深度学习实现大型智能表面》，arXiv:1904.10136，2019年4月。\n\n* VAE-GANs [[代码]](https:\u002F\u002Fgithub.com\u002FMortezaMardani\u002FGAN-Hallucination\u002Ftree\u002Fvae) [[PDF]](https:\u002F\u002Farxiv.org\u002Fpdf\u002F1901.11228.pdf) [Python]\n  * Vineet Edupuganti、Morteza Mardani、Joseph Cheng、Shreyas Vasanawala、John Pauly，《用于概率性压缩图像恢复的VAE-GAN：不确定性分析》，arxiv1901.1128，2019年。\n\n* Sparse-Gen [[代码]](https:\u002F\u002Fgithub.com\u002Fermongroup\u002Fsparse_gen) [[[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1807.01442) [Tensorflow]\n  * Manik Dhar、Aditya Grover、Stefano Ermon，《利用生成模型建模稀疏偏差以进行压缩感知》，国际机器学习会议（ICML），2018年。\n\n* Super-LiDAR [[代码]](https:\u002F\u002Fgithub.com\u002Fnchodosh\u002FSuper-LiDAR) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1803.08949) [Tensorflow]\n  * Nathaniel Chodosh、Chaoyang Wang、Simon Lucey，《用于LiDAR深度补全的深度卷积压缩感知》，arXiv:1803.08949，2018年。\n\n* Unpaired-GANCS [[代码]](https:\u002F\u002Fgithub.com\u002FMortezaMardani\u002FUnpaired-GANCS) [Tensorflow] \n  * 用于重建欠采样MRI图像。\n\n* CSGAN [[代码]](https:\u002F\u002Fgithub.com\u002Fpo0ya\u002Fcsgan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1802.01284) [Tensorflow]\n  * M. Kabkab、P. Samangouei 和 R. Chellappa，《基于生成对抗网络的任务感知压缩感知》，AAAI人工智能大会，2018年。\n\n* DL-CSI [[代码]](https:\u002F\u002Fgithub.com\u002Fsydney222\u002FPython_CsiNet) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01215) [Tensorflow][Keras]\n  * Chao-Kai Wen、Wan-Ting Shih 和 Shi Jin，《用于大规模MIMO信道状态信息反馈的深度学习》，IEEE无线通信快报，2018年。\n\n* US-CS [[代码]](https:\u002F\u002Fgithub.com\u002Fdperdios\u002Fus-rawdata-sda) [[PDF]](https:\u002F\u002Finfoscience.epfl.ch\u002Frecord\u002F230991\u002Ffiles\u002Fius2017_sda_preprint.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FULTSYM.2017.8092746) [Tensorflow]\n  * D. Perdios、A. Besson、M. Arditi 和 J. Thiran，《一种用于超声图像恢复的深度学习方法》，IEEE国际超声学研讨会，2017年。\n\n* DeepIoT [[代码重实现]](https:\u002F\u002Fgithub.com\u002Fpo0ya\u002Fcsgan) [[PDF]](https:\u002F\u002Farxiv.org\u002Fabs\u002F1706.01215) [Tensorflow]\n  * Shuochao Yao、Yiran Zhao、Aston Zhang、Lu Su、Tarek Abdelzaher，《DeepIoT：利用压缩-批评者框架压缩传感系统的深度神经网络结构》，AAAI人工智能大会，2018年。\n\n* LSTM_CS [[代码]](https:\u002F\u002Fgithub.com\u002Fyscacaca\u002FDeepIoT) [[PDF]](https:\u002F\u002Fwww.microsoft.com\u002Fen-us\u002Fresearch\u002Fwp-content\u002Fuploads\u002F2017\u002F02\u002FLSTM_CS_TSP.pdf) [[DOI]](https:\u002F\u002Fdoi.org\u002F10.1109\u002FTSP.2016.2557301) [Matlab]\n  * H. Palangi、R. Ward 和 L. Deng，《分布式压缩感知：一种深度学习方法》，IEEE信号处理汇刊，第64卷第17期，2016年。","# Reproducible-Deep-Compressive-Sensing 快速上手指南\n\n本指南旨在帮助开发者快速复现基于深度学习的压缩感知（DCS）算法。由于本项目是一个**代码合集仓库**，包含了多个独立的子项目（如 TCS-NET, ISTA-Net, CSNet 等），每个子项目拥有独立的代码库和环境要求。以下流程以通用的 PyTorch 实现（如 `ISTA-Net` 或 `CSNet` 的 PyTorch 复现版）为例，展示标准的使用路径。\n\n## 环境准备\n\n在开始之前，请确保您的开发环境满足以下基本要求。大多数现代 DCS 模型依赖 Python 和深度学习框架。\n\n*   **操作系统**: Linux (推荐 Ubuntu 18.04\u002F20.04) 或 Windows 10\u002F11\n*   **硬件要求**: NVIDIA GPU (建议显存 ≥ 8GB)，已安装 CUDA Toolkit (版本需与 PyTorch 匹配，通常推荐 11.3 或 11.7)\n*   **软件依赖**:\n    *   Python 3.8 或更高版本\n    *   Git\n    *   PyTorch (主流模型多基于 PyTorch，部分旧模型使用 Matconvnet\u002FCaffe\u002FTensorflow，请以具体子项目 README 为准)\n\n## 安装步骤\n\n由于本仓库是索引列表，您需要先选择并克隆具体的子项目代码。以下以广泛使用的 **ISTA-Net** (PyTorch 版本) 或类似结构的项目为例。\n\n### 1. 克隆具体子项目代码\n不要直接克隆主仓库进行运行，请访问 [Block-based DCS](https:\u002F\u002Fgithub.com\u002FICSResearch\u002FTransCS) 或 [Single-Scale Sensing](https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FISTA-Net) 列表，找到您需要的模型链接。\n\n```bash\n# 示例：克隆 ISTA-Net (请根据实际需求替换为其他模型链接，如 CSNet-Pytorch)\ngit clone https:\u002F\u002Fgithub.com\u002Fjianzhangcs\u002FISTA-Net.git\ncd ISTA-Net\n```\n\n### 2. 创建虚拟环境 (推荐)\n为了避免依赖冲突，建议使用 Conda 创建独立环境。\n\n```bash\nconda create -n dcs_env python=3.8\nconda activate dcs_env\n```\n\n### 3. 安装深度学习框架\n**国内加速方案**：推荐使用清华源或阿里源安装 PyTorch，以获得更快的下载速度。以下命令适用于 CUDA 11.7 环境：\n\n```bash\n# 使用清华源安装 PyTorch\npip install torch torchvision torchaudio --index-url https:\u002F\u002Fpypi.tuna.tsinghua.edu.cn\u002Fsimple\n```\n\n### 4. 安装项目依赖\n进入项目目录，安装该模型特定的依赖包。\n\n```bash\n# 安装 requirements.txt 中列出的依赖\npip install -r requirements.txt\n```\n*注：如果项目中没有 `requirements.txt`，通常只需安装 `numpy`, `scipy`, `matplotlib`, `opencv-python` 和 `pillow`。*\n\n```bash\npip install numpy scipy matplotlib opencv-python pillow\n```\n\n## 基本使用\n\n大多数 DCS 项目遵循“数据准备 -> 训练 -> 测试”的标准流程。以下是基于典型 PyTorch 实现的通用操作示例。\n\n### 1. 准备数据集\n将图像数据集（如 Set11, BSDS500 或 ImageNet 子集）放置在项目指定的目录下。通常需要在代码配置文件中修改数据路径。\n\n```bash\n# 示例：创建数据目录并放入图片 (具体路径请参考各子项目说明)\nmkdir datasets\n# 将您的 .png 或 .jpg 图片放入 datasets\u002Ftrain 或 datasets\u002Ftest 目录\n```\n\n### 2. 训练模型 (Training)\n运行训练脚本。通常需要指定采样率（sampling rate, e.g., 0.1, 0.3）和块大小（block size, e.g., 32）。\n\n```bash\n# 示例命令：启动训练，采样率为 0.1，块大小为 32\npython main.py --phase train --batch_size 64 --lr 0.0001 --sampling_rate 0.1 --block_size 32\n```\n*注意：不同项目的参数名称可能略有不同（如 `--cs_ratio` 代替 `--sampling_rate`），请使用 `python main.py --help` 查看具体帮助信息。*\n\n### 3. 测试与重建 (Testing)\n使用预训练权重或刚刚训练好的模型对图像进行压缩感知重建。\n\n```bash\n# 示例命令：进行测试，加载指定层数的模型权重\npython main.py --phase test --sampling_rate 0.1 --block_size 32 --model_epoch 50\n```\n\n执行完成后，重建后的图像通常会保存在项目根目录下的 `result` 或 `output` 文件夹中。您可以使用以下命令查看结果：\n\n```bash\n# 在 Linux\u002FMac 上预览结果\nls result\u002F\n# 或在 Python 中使用 matplotlib 查看\npython visualize_results.py\n```\n\n---\n**提示**：本仓库中部分老旧模型（如标记为 `[Matlab]`, `[Caffe]`, `[Theanos]` 的项目）可能需要特定的旧版环境或非 Python 运行时。对于此类项目，请务必查阅其对应子仓库的原始 README 文件以获取专属安装指令。","某医疗影像实验室的研究团队正致力于开发一套低剂量 MRI 扫描系统，旨在通过压缩感知技术大幅减少患者扫描时间，同时保证图像重建的清晰度。\n\n### 没有 Reproducible-Deep-Compressive-Sensing 时\n- **复现成本极高**：研究人员需从不同论文作者的私有仓库或邮件中零散索取代码，常因环境依赖缺失或文档不全导致无法运行。\n- **算法对比困难**：由于缺乏统一的分类标准（如基于块\u002F帧、单\u002F多尺度），横向对比 Transformer 架构（如 TransCS）与传统卷积网络（如 CASNet）的性能耗时费力。\n- **基线模型缺失**：从头搭建深度展开网络（如 AMPD-Net）或混合架构需要数周时间，严重拖慢了针对特定 MRI 数据的算法迭代速度。\n- **结果可信度存疑**：自行实现的算法难以确保与原始论文参数一致，导致实验结果无法被同行评审信任。\n\n### 使用 Reproducible-Deep-Compressive-Sensing 后\n- **一键获取资源**：团队直接通过该工具集提供的链接，快速获取了包含代码、PDF 论文及 DOI 的完整资源包，立即在 PyTorch 环境中跑通了 RK-CSNet 等主流模型。\n- **高效选型决策**：利用其清晰的分类体系，团队迅速锁定了适合 MRI 特性的“基于块”且“多尺度”的算法（如 MTC-CSNet），将选型时间从数天缩短至几小时。\n- **加速研发迭代**：直接复用经过验证的高质量基线代码，研究人员只需专注于调整采样矩阵以适应 MRI 硬件，模型优化周期缩短了 60%。\n- **确保科研严谨性**：所有实验均基于官方复现代码进行，保证了数据对比的公平性与结果的可复现性，显著提升了论文发表的成功率。\n\nReproducible-Deep-Compressive-Sensing 通过整合碎片化的前沿成果，将医疗影像算法的研发重心从繁琐的代码复现真正回归到了核心创新上。","https:\u002F\u002Foss.gittoolsai.com\u002Fimages\u002Fngcthuong_Reproducible-Deep-Compressive-Sensing_204076a4.png","ngcthuong","Thuong Nguyen","https:\u002F\u002Foss.gittoolsai.com\u002Favatars\u002Fngcthuong_bab1a53c.jpg","Computational Photography, Image\u002FVideo Coding, Deep Learning ",null,"ngcthuong@skku.edu","https:\u002F\u002Fngcthuong.github.io\u002F","https:\u002F\u002Fgithub.com\u002Fngcthuong",718,157,"2026-03-05T18:05:10",4,"","未说明 (部分子项目基于 PyTorch\u002FTensorFlow\u002FCaffe\u002FMatlab，通常建议配备 NVIDIA GPU 以加速深度学习训练与推理，但具体型号和显存要求未在文档中列出)","未说明",{"notes":90,"python":91,"dependencies":92},"该仓库是一个深度学习压缩感知（DCS）相关工作的代码合集，而非单一工具。它包含了数十个独立的子项目，每个项目使用不同的深度学习框架（如 PyTorch, TensorFlow, Caffe, Matconvnet, Matlab, Theano 等）。因此，没有统一的运行环境需求。用户需根据想要运行的具体子项目（例如 TCS-NET, ISTA-Net, ReconNet 等），前往其对应的独立 GitHub 仓库链接查看具体的环境配置、依赖库版本及硬件要求。","未说明 (部分子项目标注为 Python\u002FPyTorch\u002FTensorflow，暗示需要 Python 环境，但未指定具体版本)",[],[15,94],"其他","2026-03-27T02:49:30.150509","2026-04-10T02:42:01.188392",[],[]]