Neural-Networks-on-Silicon
Neural-Networks-on-Silicon 是由香港科技大学助理教授涂峰斌维护的一份精选论文合集,聚焦于深度学习与计算机体系结构交叉领域的前沿研究,特别是 AI 芯片设计与硬件加速器方向。它最初是神经网络加速器相关论文的整理,现已扩展为涵盖 ISSCC、ISCA、MICRO 等顶级会议中值得关注的 AI 芯片研究成果,帮助读者快速掌握该领域的发展脉络。
这个项目解决了研究人员在海量文献中筛选高质量、高相关性论文的难题,尤其适合关注 AI 硬件架构、芯片设计、边缘计算加速等方向的研究生、工程师和学术人员使用。虽然不提供代码或工具包,但它像一份精心编排的“技术地图”,引导用户深入关键工作,如 DianNao 系列、FPGA 加速优化等经典研究。
独特之处在于其持续更新的会议论文年表(从 2014 至 2026),覆盖芯片设计全流程的重要会议,体现作者对行业趋势的敏锐把握。如果你正在探索如何让神经网络跑得更快、更省电、更贴近传感器,这份清单会是你不错的起点。
使用场景
某AI芯片初创公司的硬件架构师正在为下一代边缘AI加速器设计能效比更高的神经网络计算单元,需快速掌握近十年关键论文的技术演进路径。
没有 Neural-Networks-on-Silicon 时
- 需手动在多个会议官网(如ISCA、ISSCC、MICRO)逐篇搜索“neural accelerator”相关论文,耗时且易遗漏里程碑式工作如DianNao系列。
- 缺乏按年份和会议分类的结构化索引,难以横向对比2015年FPGA与DAC会议上不同团队的架构设计思路差异。
- 不清楚哪些论文被领域专家实际认可,常浪费时间阅读低影响力或方法过时的研究。
- 新人入职后需数周才能建立对AI芯片技术脉络的基本认知,拖慢项目启动节奏。
- 无法快速定位到特定优化方向(如近传感器计算)的关键奠基论文,导致重复造轮子。
使用 Neural-Networks-on-Silicon 后
- 一键访问按年份+顶级会议组织的精选论文库,5分钟内即可拉出2014–2018年所有ASPLOS/MICRO上的神经加速器代表作。
- 通过目录结构直观看到ShiDianNao(2015 ISCA)如何将视觉处理推向传感器端,直接启发当前项目的存算一体设计。
- 所有收录论文均经冯斌图教授筛选,确保是真正推动领域发展的高价值工作,避免踩坑无效方案。
- 新成员通过浏览“My Contributions”和README背景介绍,快速理解行业权威视角下的技术演进逻辑。
- 在设计低功耗模块时,直接参考2015 FPGA与DAC条目下两篇互补论文,融合FPGA灵活性与ASIC能效优势。
Neural-Networks-on-Silicon 将碎片化的顶级会议论文转化为结构化知识地图,让AI芯片开发者用小时而非周月级时间完成关键技术调研。
运行环境要求
未说明
未说明
快速开始
硅基神经网络
涂凤斌博士是香港科技大学集成电路与系统研究所的助理教授及副所长,国家自然科学基金优秀青年科学基金获得者,同时也是 InnoHK 旗下新兴智能系统 AI 芯片中心(ACCESS)的核心教员。有关涂博士的更多信息,请参阅其个人主页。涂博士的主要研究方向为 AI 芯片与系统。这是一个每天都有新想法涌现的激动人心领域,因此他正在持续收集相关主题的研究工作。欢迎加入!
目录
- 我的贡献
- 会议论文
- 2014: ASPLOS, MICRO
- 2015: ISCA, ASPLOS, FPGA, DAC
- 2016: ISSCC, ISCA, MICRO, HPCA, DAC, FPGA, ICCAD, DATE, ASPDAC, VLSI, FPL
- 2017: ISSCC, ISCA, MICRO, HPCA, ASPLOS, DAC, FPGA, ICCAD, DATE, VLSI, FCCM, HotChips
- 2018: ISSCC, ISCA, MICRO, HPCA, ASPLOS, DAC, FPGA, ICCAD, DATE, ASPDAC, VLSI, HotChips
- 2019: ISSCC, ISCA, MICRO, HPCA, ASPLOS, DAC, FPGA, ICCAD, ASPDAC, VLSI, HotChips, ASSCC
- 2020: ISSCC, ISCA, MICRO, HPCA, ASPLOS, DAC, FPGA, ICCAD, VLSI, HotChips
- 2021: ISSCC, ISCA, MICRO, HPCA, ASPLOS, DAC, ICCAD, VLSI, HotChips
- 2022: ISSCC, ISCA, MICRO, HPCA, ASPLOS, HotChips
- 2023: ISSCC, ISCA, MICRO, HPCA, ASPLOS, HotChips
- 2024: ISSCC, ISCA, MICRO, HPCA, ASPLOS, HotChips
- 2025: ISSCC, ISCA, MICRO, HPCA, ASPLOS, HotChips
- 2026: HPCA
我的贡献
我的主要研究兴趣是 AI 芯片与架构。关于我本人及研究工作的更多信息,请访问我的研究主页。
会议论文
这是我收集的一些我感兴趣的与 AI 芯片相关的会议论文。
2014 ASPLOS
- DianNao:面向普适机器学习的小型高吞吐加速器。 (中科院, Inria)
2014 MICRO
- DaDianNao:一种机器学习超级计算机。 (中科院, Inria, 内蒙古大学)
2015 ISCA
- ShiDianNao:将视觉处理推向传感器端。 (中科院, EPFL, Inria)
2015 ASPLOS
- PuDianNao:一种多功能机器学习加速器。 (中科院, 中国科学技术大学, Inria)
2015 FPGA
- 优化基于 FPGA 的深度卷积神经网络加速器设计。 (北京大学, UCLA)
2015 DAC
- Reno: 一种高效率可重构类脑计算加速器设计。(匹兹堡大学、清华大学、旧金山州立大学、空军研究实验室、马萨诸塞大学)
- 面向能效机器学习的可扩展努力分类器。(普渡大学、微软研究院)
- 近阈值计算(NTC)区域下的设计方法学。(AMD)
- 在 NTC 中利用性能瓶颈范式转变的机会性 Turbo 执行。(犹他州立大学)
2016 DAC
- DeepBurning:自动为神经网络家族生成 FPGA 学习加速器。 (中国科学院)
- 硬件生成器:神经网络基础构建模块与地址生成单元(RTL)。
- 编译器:动态控制流(不同模型的配置)与内存中的数据布局。
- 仅报告其框架并描述部分阶段。
- C-Brain:通过自适应数据级并行化驯服 CNN 多样性的深度学习加速器。 (中国科学院)
- 为类脑架构简化深度神经网络。 (仁川国立大学)
- 在深度神经网络中使用随机计算实现动态能耗-精度权衡。 (三星、首尔国立大学、蔚山科学技术院)
- 近似计算范式下 JPEG 硬件的最优设计。 (明尼苏达大学、德州农工大学)
- Perform-ML:通过平台与内容感知定制实现性能优化的机器学习。(莱斯大学、加州大学圣地亚哥分校)
- 用于图像处理应用的基于畴壁运动“自旋忆阻器”的低功耗近似卷积计算单元。(普渡大学)
- 类脑计算的跨层近似:从器件到电路与系统。(普渡大学)
- 基于输入切换的 RRAM 卷积神经网络节能结构。(清华大学)
- 适用于深度学习应用、具有高温变化免疫能力的 2.2 GHz SRAM(28nm 工艺)。(UCLA、贝尔实验室)
2016 ISSCC
- 面向智能物联网系统的 1.42TOPS/W 深度卷积神经网络识别处理器。 (KAIST)
- Eyeriss:一种面向深度卷积神经网络的高能效可重构加速器。 (MIT, NVIDIA)
- 一款集成深度学习核心、支持实时自然用户界面/用户体验的 126.1mW 处理器,适用于低功耗智能眼镜系统。(KAIST)
- 一款 502GOPS、0.984mW 双模式 ADAS SoC,配备用于汽车黑匣子系统意图预测的 RNN-FIS 引擎。(KAIST)
- 一款带 PVT 补偿、适用于微型机器人的 0.55V 1.1mW 人工智能处理器。(KAIST)
- 一款面向 8K 超高清应用、支持 8/10 位 H.265/HEVC 视频解码、处理能力达 4Gpixel/s 的芯片。(早稻田大学)
2016 ISCA
- Cnvlutin:无无效神经元的深度卷积神经网络计算。(多伦多大学,不列颠哥伦比亚大学)
- EIE:压缩深度神经网络上的高效推理引擎。(斯坦福大学,清华大学)
- Minerva:支持低功耗、高精度的深度神经网络加速器。(哈佛大学)
- Eyeriss:面向卷积神经网络的节能数据流空间架构。(麻省理工学院,NVIDIA)
- 提出一个能耗分析框架。
- 提出一种名为“行驻留(Row Stationary)”的节能数据流,该数据流考虑了三级复用。
- Neurocube:具备高密度3D内存的可编程数字神经形态架构。(佐治亚理工学院,SRI国际)
- 提出一种集成于3D DRAM中的架构,逻辑层内含类网格的片上网络(NOC)。
- 详细描述了NOC中的数据移动过程。
- ISAAC:基于交叉开关阵列的原位模拟运算卷积神经网络加速器。(犹他大学,惠普实验室)
- 其后续改进工作已发表于《Newton: Gravitating Towards the Physical Limits of Crossbar Acceleration》(IEEE Micro)。
- 基于ReRAM主存的新型存内计算架构用于神经网络计算。(加州大学圣塔芭芭拉分校,惠普实验室,NVIDIA,清华大学)
- RedEye:用于连续移动视觉的模拟卷积网络图像传感器架构。(莱斯大学)
- Cambricon:面向神经网络的指令集架构。(中国科学院,加州大学圣塔芭芭拉分校)
2016 DATE
- The Neuro Vector Engine:通过灵活性提升可穿戴视觉中卷积网络效率。(埃因霍温理工大学,苏州大学,柏林工业大学)
- 提出一种面向CNN的SIMD加速器。
- 使用逻辑三维计算阵列实现卷积神经网络的高效FPGA加速。(蔚山国立科学技术院,首尔国立大学)
- 计算单元在三个维度组织:Tm, Tr, Tc。
- NEURODSP:面向神经网络的多用途能效优化加速器。(CEA LIST)
- MNSIM:基于忆阻器的神经形态计算系统仿真平台。(清华大学,加州大学圣塔芭芭拉分校,亚利桑那州立大学)
- 用于汽车系统故障检测的FPGA加速人工神经网络。(南洋理工大学,华威大学)
- 面向人工神经网络能效突触存储的8T-6T SRAM混合设计,基于重要性驱动。(普渡大学)
2016 FPGA
- 在嵌入式FPGA平台上深入运行卷积神经网络。 [幻灯片][演示视频](清华大学,微软亚洲研究院)
- 我所见的第一项完整运行CNN全流程(包括CONV和FC层)的工作。
- 指出CONV层以计算为中心,而FC层以内存为中心。
- FPGA无需重新配置资源即可运行VGG16-SVD,但卷积器仅支持k=3。
- 动态精度数据量化具有创新性,但未在硬件上实现。
- 面向大规模卷积神经网络的吞吐量优化OpenCL FPGA加速器。 [幻灯片](亚利桑那州立大学,ARM)
- 在FPGA上为空间分配CONV/POOL/NORM/FC各层资源。
2016 ASPDAC
- FPGA上深度卷积神经网络的设计空间探索。(加州大学戴维斯分校)
- LRADNN:基于低秩近似的高吞吐量、高能效深度神经网络加速器。(香港科技大学,上海交通大学)
- 面向物联网设备的高效嵌入式学习。(普渡大学)
- ACR:为近似计算启用计算复用。(中国科学院)
2016 VLSI
- 一款0.3‐2.6 TOPS/W精度可扩展处理器,用于实时大规模卷积网络。(鲁汶大学)
- 对不同CONV层采用动态精度,并在低精度时降低MAC阵列供电电压。
- 根据ReLU稀疏性避免内存读取与MAC操作。
- 一款1.40mm²、141mW、898GOPS的稀疏神经形态处理器,采用40nm CMOS工艺。(密歇根大学)
- 一款58.6mW实时可编程目标检测器,支持多尺度多目标,在1920x1080视频上以30fps运行,采用可变形部件模型。(麻省理工学院)
- 在标准6T SRAM阵列中实现的机器学习分类器。(普林斯顿大学)
2016 ICCAD
- 面向语音应用的深度神经网络中使用粗粒度稀疏化的高效内存压缩方法。(亚利桑那州立大学)
- Memsqueezer:为嵌入式设备的深度学习加速器重构片上内存子系统架构。(中国科学院)
- Caffeine:面向深度卷积神经网络的统一表示与加速方法。(北京大学,加州大学洛杉矶分校,Falcon)
- 提出一种统一的卷积矩阵乘法表示法,用于在FPGA上加速CONV和FC层。
- 为FC层提出一种权重主导的卷积映射方法,具备良好的数据复用性、DRAM访问突发长度和有效带宽。
- BoostNoC:面向近阈值计算的高能效片上网络架构。(犹他州立大学)
- 面向近似人工神经网络的低功耗近似乘法器设计。(布尔诺理工大学)
- 神经网络设计神经网络:多目标超参数优化。(麦吉尔大学)
2016 MICRO
- 从高层深度神经网络模型到 FPGA。(佐治亚理工学院,英特尔)
- 为 DNN 加速器开发一种宏数据流指令集架构(macro dataflow ISA)。
- 开发可扩展且高度可定制的手工优化模板设计。
- 提供一种模板资源优化搜索算法,协同优化加速器架构与调度策略。
- vDNN:面向可扩展、内存高效神经网络设计的虚拟化深度神经网络。(NVIDIA)
- Stripes:位串行深度神经网络计算。(多伦多大学,不列颠哥伦比亚大学)
- 在神经网络加速器设计中引入串行计算与低精度计算,实现精度与性能之间的权衡。
- 设计一种位串行计算单元,使性能随精度降低呈线性扩展。
- Cambricon-X:面向稀疏神经网络的加速器。(中国科学院)
- NEUTRAMS:在类脑硬件约束下的神经网络变换与协同设计。(清华大学,加州大学圣塔芭芭拉分校)
- 融合层 CNN 加速器。(石溪大学)
- 融合多个 CNN 层(卷积+池化),以减少输入/输出数据的 DRAM 访问。
- 弥合大数据工作负载的 I/O 性能鸿沟:一种基于 NVDIMM 的新方法。(香港理工大学,美国国家科学基金会/佛罗里达大学)
- 用于图像处理与计算机视觉的补丁内存系统。(NVIDIA)
- 超低功耗自动语音识别硬件加速器。(加泰罗尼亚理工大学)
- 用于重用预测的感知机学习。(德州农工大学,英特尔实验室)
- 训练神经网络以预测缓存块的重用情况。
- 云规模加速架构。(微软研究院)
- 通过在线数据聚类与编码降低数据移动能耗。(罗切斯特大学)
- 实时机器人运动规划加速器的微架构。(杜克大学)
- Chameleon:适用于大内存系统的多功能实用近 DRAM 加速架构。(伊利诺伊大学厄巴纳-香槟分校,首尔国立大学)
2016 FPL
- 面向大规模卷积神经网络的高性能 FPGA 加速器。(复旦大学)
- 克服空间型 CNN 加速器中的资源利用率不足问题。(石溪大学)
- 构建多个加速器,每个专用于特定 CNN 层,而非使用单一具有统一分块参数的加速器。
- 在分析服务器中加速循环神经网络:FPGA、CPU、GPU 与 ASIC 的比较。(英特尔)
2016 HPCA
- 用于优化 FPGA 上 OpenCL 应用的性能分析框架。(南洋理工大学,香港科技大学,康奈尔大学)
- TABLA:面向加速统计机器学习的统一模板架构。(佐治亚理工学院)
- 忆阻玻尔兹曼机:用于组合优化与深度学习的硬件加速器。(罗切斯特大学)
2017 FPGA
- 基于 Arria 10 的 OpenCL 深度学习加速器。(英特尔)
- 最低带宽需求:AlexNet 卷积层的所有中间数据均缓存在片上缓冲区中,因此其架构为计算受限型。
- 减少运算量:采用 Winograd 变换。
- 高 DSP 利用率 + 减少计算量 → FPGA 上更高性能 → 效率可与 TitanX 竞争。
- ESE:面向压缩 LSTM 的高效语音识别引擎(基于 FPGA)。(斯坦福大学,DeepPhi,清华大学,NVIDIA)
- FINN:用于快速、可扩展二值化神经网络推理的框架。(赛灵思,挪威科技大学,悉尼大学)
- FPGA 能否在加速下一代深度神经网络方面超越 GPU?(英特尔)
- 使用软件可编程 FPGA 加速二值化卷积神经网络。(康奈尔大学,UCLA,UCSD)
- 提升基于 OpenCL 的 FPGA 加速器在卷积神经网络中的性能。(威斯康星大学麦迪逊分校)
- 在 CPU-FPGA 共享内存系统中对卷积神经网络进行频域加速。(南加州大学)
- 优化 FPGA 加速深度卷积神经网络中的循环操作与数据流。(亚利桑那州立大学)
2017 ISSCC
- 面向智能嵌入式系统的 2.9TOPS/W 深度卷积神经网络 SoC(基于 FD-SOI 28nm 工艺)。(意法半导体)
- DNPU:面向通用深度神经网络的 8.1TOPS/W 可重构 CNN-RNN 处理器。(韩国科学技术院)
- ENVISION:支持子字并行、计算精度-电压-频率可扩展的卷积神经网络处理器(0.26–10TOPS/W,28nm FDSOI)。(鲁汶大学)
- 配备 270KB 片上权重存储的 288µW 可编程深度学习处理器,采用非均匀内存层次结构,适用于移动智能设备。(密歇根大学,CubeWorks)
- 面向物联网应用的 28nm SoC,集成 1.2GHz、568nJ/预测的稀疏深度神经网络引擎,容忍 >0.1 的时序错误率。(哈佛大学)
- 具备深度神经网络声学模型与语音激活电源门控的可扩展语音识别器。(麻省理工学院)
- 0.62mW 超低功耗卷积神经网络人脸识别处理器,与始终开启的 Haar 类人脸检测器 CIS 集成。(韩国科学技术院)
2017 HPCA
- FlexFlow:面向卷积神经网络的灵活数据流加速器架构。(中国科学院)
- PipeLayer:基于 ReRAM 的流水线式深度学习加速器。(匹兹堡大学,南加州大学)
- 面向不同 GPU 微架构的普及化与用户满意的 CNN。(佛罗里达大学)
- CNN 满意度(SoC)是 SoCtime、SoCaccuracy 与能耗的综合指标。
- P-CNN 框架由离线编译与运行时管理组成。
- 离线编译:通常优化运行时间,并为运行时阶段生成调度配置。
- 运行时管理:通过精度调优生成调优表,并在长期执行过程中校准精度+运行时间(选择最佳调优表)。
- 支持以加速器为中心架构的地址转换。(UCLA)
2017 ASPLOS
- Tetris:利用 3D 内存实现可扩展且高效的神经网络加速。(斯坦福大学)
- 将累加操作移至靠近 DRAM 存储体的位置。
- 开发一种混合分区方案,在多个加速器上并行化神经网络计算。
- SC-DCNN:使用随机计算的高度可扩展深度卷积神经网络。(雪城大学,南加州大学,纽约市立学院)
2017 ISCA
- 通过资源分区最大化 CNN 加速器效率。(石溪大学)
- 其 FPL'16 论文的扩展版本。
- 张量处理单元(Tensor Processing Unit, TPU)在数据中心内的性能分析。(Google)
- SCALEDEEP:面向深度网络学习与评估的可扩展计算架构。(普渡大学,英特尔)
- 提出一种完整的系统(服务器节点)架构,重点解决 DNN 训练中的层内与层间异构性挑战。
- SCNN:面向压缩稀疏卷积神经网络的加速器。(NVIDIA、MIT、加州大学伯克利分校、斯坦福大学)
- Scalpel:根据底层硬件并行性定制 DNN 剪枝策略。(密歇根大学,ARM)
- 异步低精度随机梯度下降的理解与优化。(斯坦福大学)
- LogCA:面向硬件加速器的高层性能模型。(AMD,威斯康星大学麦迪逊分校)
- APPROX-NoC:面向片上网络(Network-On-Chip, NoC)架构的数据近似框架。(德州农工大学)
2017 FCCM
- Escher:通过灵活缓冲最小化片外传输的 CNN 加速器。(石溪大学)
- 为高效 FPGA 实现定制神经网络。
- 评估 FPGA 上卷积神经网络的快速算法。
- FP-DNN:基于 RTL-HLS 混合模板自动将深度神经网络映射到 FPGA 的框架。(北京大学、香港科技大学、微软亚洲研究院、UCLA)
- 计算密集部分:基于 RTL 的通用矩阵乘法内核。
- 层特定部分:基于 HLS 的控制逻辑。
- 内存密集部分:多种降低 DRAM 带宽需求的技术。
- FPGA 加速的稠密线性机器学习:精度与收敛性的权衡。
- 使用 DCT 插值实现 Tanh 函数的可配置 FPGA 实现。
2017 DAC
- Deep^3:利用三级并行性实现高效深度学习。(加州大学圣地亚哥分校,莱斯大学)
- 实时计算遇上近似计算:一种弹性深度学习加速器设计,在服务质量(QoS)与结果质量(QoR)之间自适应权衡。(中科院)
- 我不确定所提出的调优场景和方向是否足够合理以找到可行解。
- 探索用于 FPGA 加速深度卷积神经网络的异构算法。(北京大学、香港中文大学、商汤科技)
- 高精度无乘法器深度神经网络的软硬件协同设计。(布朗大学)
- 面向二值权重卷积神经网络的核分解架构。(韩国科学技术院)
- 基于频域计算的节能型卷积神经网络训练加速器设计。(佐治亚理工学院)
- 新型随机计算乘法器及其在深度神经网络中的应用。(蔚山国立科学技术院)
- TIME:面向忆阻器(Memristor)深度神经网络的内存中训练架构。(清华大学,加州大学圣塔芭芭拉分校)
- 面向 RRAM 神经计算系统的容错训练与在线故障检测。(清华大学,杜克大学)
- 自动化生成与优化脉动阵列以实现高吞吐卷积神经网络。(北京大学、UCLA、Falcon)
- 迈向全系统级能效-精度权衡:以近似智能相机系统为例。(普渡大学)
- 协同调节组件级近似参数,以实现系统级能效与精度的权衡。
- 面向近阈值计算(Near Threshold Computing, NTC)的误差传播感知时序松弛。(卡尔斯鲁厄理工学院)
- RESPARC:采用忆阻交叉阵列的可重构节能架构,用于深度脉冲神经网络。(普渡大学)
- 高缺陷率下拯救忆阻器神经形态设计。(匹兹堡大学,惠普实验室,杜克大学)
- Group Scissor:将神经形态计算设计扩展至大型神经网络。(匹兹堡大学,杜克大学)
- 面向老化诱导近似的探索。(卡尔斯鲁厄理工学院,德克萨斯大学奥斯汀分校)
- SABER:面向容错电路设计的近似位选择方法。(明尼苏达大学,德州农工大学)
- 利用迭代训练控制近似计算的质量权衡。(上海交通大学,香港中文大学)
2017 DATE
- DVAFS:通过动态电压-精度-频率缩放(Dynamic-Voltage-Accuracy-Frequency-Scaling)换取计算精度以节省能耗。(鲁汶大学)
- 加速器友好的神经网络训练:学习 RRAM 交叉阵列中的工艺偏差与缺陷。(上海交通大学,匹兹堡大学,Lynmax Research)
- 一种新颖的零权重/激活感知卷积神经网络硬件架构。(首尔国立大学)
- 解决由零值引起的负载不均衡问题。
- 理解精度量化对神经网络精度与能耗的影响。(布朗大学)
- 卷积神经网络 FPGA 加速器的设计空间探索。(三星,蔚山国立科学技术院,首尔国立大学)
- MoDNN:面向深度神经网络的本地分布式移动计算系统。(匹兹堡大学,乔治梅森大学,马里兰大学)
- Chain-NN:用于加速深度卷积神经网络的节能一维链式架构。(早稻田大学)
- LookNN:无需乘法的神经网络。(加州大学圣地亚哥分校)
- 聚类权重并使用查找表(LUT)避免乘法运算。
- 基于位重要性驱动逻辑压缩的节能近似乘法器设计。(纽卡斯尔大学)
- 重塑时序错误恢复能力以应对近阈值计算系统的瓶颈。(犹他州立大学)
2017 VLSI
- 一款 3.43TOPS/W、48.9pJ/像素、50.1nJ/分类、512 个模拟神经元的稀疏编码神经网络芯片,在 40nm CMOS 工艺下支持片上学习与分类。(密歇根大学,英特尔)
- BRein Memory:一款 13 层、4.2K 神经元/0.8M 突触、支持二值/三值重配置的内存中深度神经网络加速器,采用 65nm CMOS 工艺。(北海道大学,东京工业大学,庆应义塾大学)
- 一款 1.06 至 5.09 TOPS/W 可重构混合神经网络处理器,适用于深度学习应用。(清华大学)
- 一款 127mW、1.63TOPS 的稀疏时空认知 SoC,用于视频中的动作分类与运动追踪。(密歇根大学)
2017 ICCAD
- AEP:一种承载误差的神经网络加速器,兼顾能效与模型保护。(匹兹堡大学)
- VoCaM:面向移动端系统的可视化导向卷积神经网络加速。(乔治梅森大学,杜克大学)
- AdaLearner:面向神经网络的自适应分布式移动学习系统。(杜克大学)
- MeDNN:面向大规模 DNN 的增强型分布式移动系统,支持优化划分与部署。(杜克大学)
- TraNNsformer:面向忆阻交叉阵列神经形态系统设计的神经网络变换工具。(普渡大学)
- 一种闭环设计以增强忆阻器神经网络芯片的权重稳定性。(杜克大学)
- 对深度神经网络的故障注入攻击。(香港中文大学)
- ORCHARD:基于近似内存处理的视觉对象识别加速器。(加州大学圣地亚哥分校)
2017 HotChips
- 用于训练深度神经网络(Deep Neural Networks, DNN)的数据流处理芯片。 (Wave Computing)
- Brainwave:数据中心规模下持续神经网络的加速方案。 (Microsoft)
- DNN ENGINE:面向嵌入式大众市场的 16nm 亚微焦耳级深度神经网络推理加速器。 (哈佛大学, ARM)
- DNPU:具备片上立体匹配功能的高能效深度神经网络处理器。 (KAIST)
- 张量处理单元(Tensor Processing Unit, TPU)评估:面向数据中心的深度神经网络加速器。 (Google)
- NVIDIA Volta GPU:面向 GPU 计算的可编程性与性能优化。 (NVIDIA)
- Knights Mill:面向机器学习的英特尔至强融核(Xeon Phi)处理器。 (Intel)
- XPU:面向多样化工作负载的可编程 FPGA 加速器。 (百度)
2017 MICRO
- Bit-Pragmatic 深度神经网络计算。 (NVIDIA, 多伦多大学)
- CirCNN:利用块循环权重矩阵加速并压缩深度神经网络。 (雪城大学, 纽约市立大学, 南加州大学, 加州州立大学, 东北大学)
- DRISA:基于 DRAM 的可重构原位加速器。 (加州大学圣塔芭芭拉分校, 三星)
- 面向机器学习的横向扩展加速。 (佐治亚理工学院, 加州大学圣地亚哥分校)
- 提出 CoSMIC,一个完整的计算栈,包含语言、编译器、系统软件、模板架构和电路生成器,支持大规模可编程学习加速。
- DeftNN:通过突触向量消除与近计算数据分裂解决 GPU 上 DNN 执行瓶颈。 (密歇根大学, 内华达大学)
- 数据移动感知的计算划分。 (宾州州立大学, TOBB 经济技术大学)
- 在众核系统上划分计算任务以实现近数据处理。
2018 ASPDAC
- ReGAN:基于流水线 ReRAM 的生成对抗网络(Generative Adversarial Networks, GAN)加速器。 (匹兹堡大学, 杜克大学)
- 面向增强可扩展性、能效与可编程性的以加速器为中心的深度学习系统。 (浦项科技大学)
- 支持用户自定义 CNN 的架构与算法。 (首尔国立大学, 三星)
- 面向图像超分辨率的 FPGA 卷积神经网络加速器优化。 (西江大学)
- 运行稀疏与低精度神经网络:当算法遇上硬件。 (杜克大学)
2018 ISSCC
- 55nm 时域混合信号类脑加速器,配备随机突触与嵌入式强化学习功能,适用于自主微型机器人。 (佐治亚理工学院)
- 迈向边缘机器学习处理。 (Google)
- QUEST:采用感应耦合技术堆叠于 96MB 3D SRAM 上的 7.49TOPS 多用途对数量化 DNN 推理引擎,基于 40nm CMOS 工艺。 (北海道大学, Ultra Memory, 庆应义塾大学)
- UNPU:支持 1b 至 16b 全可变权重精度的 50.6TOPS/W 统一深度神经网络加速器。 (KAIST)
- 9.02mW 基于 CNN 立体视觉的实时 3D 手势识别处理器,适用于智能移动设备。 (KAIST)
- 始终在线的 3.8μJ/86% CIFAR-10 混合信号二值 CNN 处理器,全内存集成于 28nm CMOS 芯片内。 (斯坦福大学, 鲁汶大学)
- Conv-RAM:面向低功耗 CNN 机器学习应用的高能效 SRAM,内置卷积计算功能。 (麻省理工学院)
- 42pJ/决策、3.12TOPS/W 的片上训练型内存内机器学习分类器。 (伊利诺伊大学厄巴纳-香槟分校)
- 受大脑启发的计算:利用碳纳米管场效应晶体管(FETs)与阻变存储器(RRAM),以超维计算为案例研究。 (斯坦福大学, 加州大学伯克利分校, 麻省理工学院)
- 65nm 1Mb 非易失性存内计算 ReRAM 宏单元,支持亚 16ns 乘加运算,适用于二值 DNN AI 边缘处理器。 (清华大学新竹校区)
- 65nm 4Kb 算法相关存内计算 SRAM 单元宏,支持 2.3ns 和 55.8TOPS/W 全并行乘积累加运算,适用于二值 DNN 边缘处理器。 (清华大学新竹校区, 台积电, 电子科技大学, 亚利桑那州立大学)
- 1μW 语音活动检测器,采用模拟特征提取与数字深度神经网络。 (哥伦比亚大学)
2018 HPCA
- 使忆阻器神经网络加速器更可靠。 (罗切斯特大学)
- 面向无监督 GAN 深度学习加速的高效微架构设计探索。 (佛罗里达大学)
- 压缩 DMA 引擎:利用激活稀疏性加速深度神经网络训练。 (浦项科技大学, NVIDIA, 德州大学奥斯汀分校)
- 原位 AI:面向物联网系统的自主与增量式深度学习。 (佛罗里达大学, 重庆大学, 首都师范大学)
- RC-NVM:为内存数据库启用对称行列内存访问。 (北京大学, 国防科技大学, 杜克大学, 加州大学洛杉矶分校, 宾州州立大学)
- GraphR:利用 ReRAM 加速图处理。 (杜克大学, 南加州大学, 纽约州立大学宾汉姆顿分校)
- GraphP:通过高效数据分区减少基于 PIM 的图处理通信开销。 (清华大学, 南加州大学, 斯坦福大学)
- PM3:面向存内计算的功耗建模与功耗管理。 (北京大学)
2018 ASPLOS
- 弥合神经网络与类脑硬件之间的鸿沟:使用神经网络编译器。 (清华大学, 加州大学圣塔芭芭拉分校)
- MAERI:通过可重构互连实现 DNN 加速器上的灵活数据流映射。 (佐治亚理工学院)
- 更高 PE 利用率:使用增强型归约树(可重构互连)构建任意尺寸的虚拟神经元。
- VIBNN:贝叶斯神经网络的硬件加速。 (雪城大学, 南加州大学)
- 利用动态热能收集技术为智能手机中的移动应用重用能量。 (贵州大学, 佛罗里达大学)
- Potluck:面向计算密集型移动应用的跨应用近似去重。 (耶鲁大学)
2018 VLSI
- STICKER:0.41–62.1 TOPS/W 8bit 神经网络处理器,兼容多稀疏度卷积阵列,并支持全连接层在线调优加速。 (清华大学)
- 2.9TOPS/W 可重构稠密/稀疏矩阵乘法加速器,统一支持 INT8/INT16/FP16 数据通路,基于 14nm Tri-gate CMOS 工艺。 (英特尔)
- 可扩展的多太拉 OPS 深度学习处理器核心,支持 AI 训练与推理。 (IBM)
- 超高效能可重构处理器,支持二值/三值权重深度神经网络,基于 28nm CMOS 工艺。 (清华大学)
- B‐Face:0.2 mW 基于 CNN 的人脸识别处理器,集成人脸对齐功能,适用于移动用户身份识别。 (KAIST)
- 141 uW、2.46 pJ/神经元的二值卷积神经网络自学习语音识别处理器,基于 28nm CMOS 工艺。 (清华大学)
- 混合信号二值卷积神经网络加速器,集成稠密权重存储与乘法运算以减少数据移动。 (普林斯顿大学)
- PhaseMAC:14 TOPS/W 8bit 基于 GRO 的相域 MAC 电路,适用于传感器内计算的深度学习加速器。 (东芝)
2018 FPGA
- C-LSTM:在 FPGA 上利用结构化压缩技术实现高效的 LSTM。(北京大学、雪城大学、纽约市立大学)
- DeltaRNN:一种高能效的循环神经网络加速器。(苏黎世联邦理工学院、BenevolentAI)
- 面向 2D 和 3D CNN 加速的统一模板架构设计。(国防科技大学)
- 为 Intel HARPv2 Xeon+FPGA 平台定制的矩阵乘法框架——深度学习案例研究。(悉尼大学、英特尔)
- 用于在 FPGA 上生成高吞吐量 CNN 实现的框架。(南加州大学)
- Liquid Silicon:基于 RRAM 技术的数据中心可重构架构。(威斯康星大学麦迪逊分校)
2018 ISCA
- RANA:利用刷新优化的嵌入式 DRAM 实现高效神经加速。(清华大学)
- Brainwave:支持实时 AI 的可配置云规模 DNN 处理器。(微软)
- PROMISE:面向机器学习算法的可编程混合信号加速器端到端设计。(伊利诺伊大学厄巴纳-香槟分校)
- 通过利用输入相似性实现 DNN 中的计算复用。(加泰罗尼亚理工大学)
- GANAX:面向生成对抗网络(GAN)的统一 SIMD-MIMD 加速架构。(佐治亚理工学院、IPM、高通、加州大学圣地亚哥分校、伊利诺伊大学厄巴纳-香槟分校)
- SnaPEA:预测性早期激活以减少深度卷积神经网络中的计算量。(加州大学圣地亚哥分校、佐治亚理工学院、高通)
- UCNN:通过权重重复利用实现深度神经网络中的计算复用。(伊利诺伊大学厄巴纳-香槟分校、英伟达)
- 基于异常值感知低精度计算的高能效神经网络加速器。(首尔国立大学)
- 基于预测执行的深度神经网络加速方法。(佛罗里达大学)
- Bit Fusion:面向深度神经网络加速的位级动态可组合架构。(佐治亚理工学院、ARM、加州大学圣地亚哥分校)
- Gist:面向深度神经网络训练的高效数据编码方法。(密歇根大学、微软、多伦多大学)
- DNN 剪枝的阴暗面。(加泰罗尼亚理工大学)
- Neural Cache:在缓存内进行位串行加速的深度神经网络架构。(密歇根大学)
- EVA^2:利用时序冗余提升实时计算机视觉性能。(康奈尔大学)
- Euphrates:面向低功耗移动连续视觉的算法-SoC 协同设计。(罗切斯特大学、佐治亚理工学院、ARM)
- 面向高效脉冲神经网络仿真的特征驱动与空间折叠数字神经元。(浦项科技大学/伯克利、首尔国立大学)
- 空间-时间代数:新皮层计算模型。(威斯康星大学)
- 利用计算复用架构扩展数据中心加速器。(普林斯顿大学)
- 在加速器中增加基于 NVM(非易失性存储器)的存储层,实现计算复用。
- 在忆阻器加速器上实现科学计算。(罗切斯特大学)
2018 DATE
- MATIC:通过容忍错误实现高效低压神经网络加速器。(华盛顿大学)
- 学习容忍由 SRAM 电压缩放引起的错误,在 65nm 流片测试芯片上验证。
- 通过平衡计算负载最大化 LSTM 加速器系统性能。(浦项科技大学)
- 提出稀疏矩阵格式以均衡计算负载,并在 LSTM 上验证。
- CCR:面向稀疏神经网络加速器的简洁卷积规则。(中国科学院)
- 将卷积分解为多个稠密和零核,以节省稀疏性开销。
- Block Convolution:面向 FPGA 上大规模 CNN 推理的内存高效方案。(中国科学院)
- moDNN:面向 GPU 的内存最优 DNN 训练方法。(圣母大学、中国科学院)
- HyperPower:面向神经网络的功耗与内存受限超参数优化。(卡内基梅隆大学、谷歌)
2018 DAC
- Compensated-DNN:通过补偿量化误差实现低功耗低精度深度神经网络。(最佳论文,普渡大学、IBM)
- 提出一种新的定点表示法:带误差补偿的定点数(FPEC):计算位 + 表示量化误差的补偿位。
- 提出一种低开销稀疏补偿方案,用于估计 MAC 设计中的误差。
- 利用原位低精度迁移学习校准模拟神经网络处理器的工艺偏差。(清华大学)
- DPS:面向基于随机计算的深度神经网络的动态精度缩放。(韩国蔚山国立科学技术院)
- DyHard-DNN:通过动态硬件重配置进一步加速 DNN。(弗吉尼亚大学)
- 探索深度学习处理器的可编程性:从架构到张量化。(华盛顿大学)
- LCP:面向 FPGA 上 Inception 和 ResNet 网络加速的层簇并行映射机制。(清华大学)
- 面向二值权重卷积神经网络的核分解架构。(清华大学)
- Ares:用于量化深度神经网络鲁棒性的框架。(哈佛大学)
- ThUnderVolt:通过激进电压降压和时序错误容忍实现高能效深度学习加速器。(纽约大学、印度理工学院坎普尔分校)
- Loom:利用权重与激活精度加速卷积神经网络。(多伦多大学)
- 为二值神经网络并行化 SRAM 阵列并定制位单元。(亚利桑那大学)
- 基于 ReRAM 的类脑计算系统的热感知优化。(西北大学)
- SNrram:基于阻变随机存取存储器(ReRAM)的高效稀疏神经网络计算架构。(清华大学、加州大学圣塔芭芭拉分校)
- Long Live TIME:通过结构化梯度稀疏化提升存内训练引擎寿命。(清华大学、中科院、麻省理工学院)
- 带宽高效的深度学习。(麻省理工学院、斯坦福大学)
- 面向嵌入式视觉应用的深度神经网络与神经网络加速器协同设计。(伯克利大学)
- Sign-Magnitude SC:在随机计算中免费获得 10 倍精度提升的深度神经网络方法。(韩国蔚山国立科学技术院)
- DrAcc:基于 DRAM 的高精度 CNN 推理加速器。(国防科技大学、印第安纳大学、匹兹堡大学)
- 使用多级嵌入式非易失性存储器(eNVM)的片上深度神经网络存储。(哈佛大学)
- VRL-DRAM:通过可变刷新延迟提升 DRAM 性能。(德雷塞尔大学、苏黎世联邦理工学院)
2018 HotChips
- ARM 第一代机器学习处理器。(ARM)
- NVIDIA 深度学习加速器。(英伟达)
- Xilinx 张量处理器:面向 Xilinx FPGA 的推理引擎、网络编译器与运行时系统。(赛灵思)
- Tachyum 云芯片:面向超大规模工作负载、深度机器学习、通用、符号及生物 AI。(Tachyum)
- SMIV:采用 16nm 工艺、具备高效灵活 DNN 加速能力的 SoC,适用于智能物联网设备。(ARM)
- NVIDIA Xavier 系统级芯片。(英伟达)
- Xilinx Project Everest:软硬件可编程引擎。(赛灵思)
2018 ICCAD
- Tetris:为机器学习加速器重新架构卷积神经网络(CNN)计算。 (CAS)
- 3DICT:面向 3D XPoint ReRAM 的可靠且支持 QoS 的移动端存内计算(Process-In-Memory)架构,适用于基于查找的 CNN。 (印第安纳大学布卢明顿分校, 佛罗里达国际大学)
- TGPA:面向低延迟 CNN 推理的 Tile 粒度流水线架构。 (北京大学, 加州大学洛杉矶分校, Falcon)
- NID:在通用 DRAM 中处理二值卷积神经网络。 (韩国科学技术院 KAIST)
- 基于深度 Q 学习的自适应精度 SGD 框架。 (北京大学)
- 使用任意对数底数的对数数据表示法高效硬件加速 CNN。 (罗伯特·博世有限公司 Robert Bosch GmbH)
- C-GOOD:面向设备端深度学习优化的 C 代码生成框架。 (首尔国立大学 SNU)
- 基于混合尺寸交叉开关阵列的 RRAM CNN 加速器,采用重叠映射方法。 (清华大学 THU)
- FCN-Engine:在经典 CNN 处理器中加速反卷积层。 (哈尔滨工业大学 HUT, CAS, 新加坡国立大学 NUS)
- DNNBuilder:用于 FPGA 上构建高性能 DNN 硬件加速器的自动化工具。 (伊利诺伊大学厄巴纳-香槟分校 UIUC)
- DIMA:深度可分离卷积神经网络的存内加速器。 (中佛罗里达大学 Univ. of Central Florida)
- EMAT:面向迁移学习的高效多任务 ReRAM 架构。 (杜克大学 Duke)
- FATE:面向低功耗 DNN 加速器设计的快速准确时序错误预测框架。 (纽约大学 NYU)
- 面向能量受限图像分类任务的自适应神经网络设计。 (卡内基梅隆大学 CMU)
- 面向嵌入式系统的深度神经网络水印技术。 (加州大学洛杉矶分校 UCLA)
- 防御性 Dropout:在对抗攻击下强化深度神经网络。 (东北大学 Northeastern Univ., 波士顿大学 Boston Univ., 佛罗里达国际大学)
- 面向 2.5D 系统中网络设计与优化的跨层方法论。 (波士顿大学, 加州大学圣地亚哥分校 UCSD)
2018 MICRO
- 应对稀疏神经网络中的不规则性:一种软硬件协同方法。 (中国科学技术大学 USTC, CAS)
- Diffy:一种无重复计算的差分深度神经网络加速器。 (多伦多大学 University of Toronto)
- 超越内存墙:面向深度学习的以内存为中心的高性能计算系统案例研究。 (韩国科学技术院 KAIST)
- 面向移动 GPU 的内存友好型长短期记忆网络(LSTM)。 (休斯顿大学, 首都师范大学)
- 一种网络中心化的硬件/算法协同设计,用于加速分布式深度神经网络训练。 (UIUC, THU, SJTU, 英特尔 Intel, UCSD)
- PermDNN:基于置换对角矩阵的高效压缩深度神经网络架构。 (纽约市立大学 City University of New York, 明尼苏达大学, 南加州大学 USC)
- GeneSys:通过硬件中神经网络演化实现持续学习。 (佐治亚理工学院 Georgia Tech)
- 面向能效神经网络训练的存内计算:一种异构方法。 (马德里康普顿斯大学 UCM, UCSD, 加州大学圣克鲁兹分校 UCSC)
- 调度由 CPU 和异构存内计算单元(固定功能逻辑 + 可编程 ARM 核心)提供的计算资源,以优化能效和硬件利用率。
- LerGAN:一种零值消除、低数据移动、基于存内计算的 GAN 架构。 (清华大学 THU, 佛罗里达大学)
- 通过分布式近数据处理实现 Winograd 层的多维并行训练。 (KAIST)
- 将 Winograd 应用于训练,扩展传统数据并行性,新增“Tile 内并行”维度。在此模式下,节点被划分为若干组,权重更新通信仅在组内独立进行。该方法在训练集群中展现出更优的可扩展性,因为总通信量不随节点数量增加而增长。
- SCOPE:面向 DRAM 原位加速器的随机计算引擎。 (加州大学圣塔芭芭拉分校 UCSB, 三星 Samsung)
- Morph:面向 3D CNN 视频理解的灵活加速架构。 (UIUC)
- 多线程可重构粗粒度阵列中的线程间通信。 (以色列理工学院 Technion)
- 面向可重构硬件上动态并行算法加速的架构框架。 (康奈尔大学 Cornell)
2019 ASPDAC
- 一种 N 路组关联架构及稀疏数据组关联负载均衡算法,用于稀疏 CNN 加速器。 (清华大学 THU)
- TNPU:一种高效的卷积神经网络训练加速器架构。 (中科院计算所 ICT)
- NeuralHMC:一种基于 HMC 的高效深度神经网络加速器。 (匹兹堡大学, 杜克大学)
- P3M:一种基于存内计算(PIM)的神经网络模型保护方案,用于深度学习加速器。 (ICT)
- GraphSAR:面向大规模图处理的稀疏感知存内计算架构,基于 ReRAM。 (清华大学, 麻省理工学院 MIT, 伯克利 Berkeley)
2019 ISSCC
- 一款 8nm 旗舰移动 SoC 中的 11.5TOPS/W、1024-MAC 蝴蝶结构双核稀疏感知神经处理单元。 (三星 Samsung)
- 一款符合 ISO26262 标准、面向汽车应用的 20.5TOPS 与 217.3GOPS/mm² 多核 SoC,集成 DNN 加速器与图像信号处理器。 (东芝 Toshiba)
- 一款 879GOPS、243mW、80fps VGA 全视觉 CNN-SLAM 处理器,适用于广域自主探索。 (密歇根大学 Michigan)
- 一款 2.1TFLOPS/W 的移动深度强化学习加速器,配备可转置 PE 阵列与经验压缩机制。 (KAIST)
- 一款 65nm 工艺、0.39 至 140.3TOPS/W、1 至 12 位统一神经网络处理器,采用块循环启用的转置域加速技术,实现 8.1× 更高的 TOPS/mm²,并基于 6T HBST-TRAM 的二维数据复用架构。 (清华大学 THU, 国立清华大学, 东北大学)
- 一款 65nm、236.5nJ/分类的类脑处理器,片上学习仅带来 7.5% 能量开销,采用直接脉冲反馈机制。 (首尔国立大学 SNU)
- LNPU:一款 25.3TFLOPS/W 的稀疏深度神经网络学习处理器,支持细粒度混合精度(FP8-FP16)。 (KAIST)
- 一款 1Mb 多比特 ReRAM 存算一体宏单元,面向基于 CNN 的 AI 边缘处理器,具备 14.6ns 并行 MAC 计算时间。 (国立清华大学)
- Sandwich-RAM:一种基于脉宽调制的高能效存内二值权重网络(BWN)架构。 (东南大学, 博兴电子, 清华大学)
- 一款 Twin-8T SRAM 存算一体宏单元,支持多位 CNN 机器学习。 (国立清华大学, 电子科技大学, 亚利桑那州立大学 ASU, 佐治亚理工学院)
- 一款可重构 RRAM 物理不可克隆函数(PUF),利用后工艺随机源,原生误码率低于 6×10⁻⁶。 (清华大学, 国立清华大学, 佐治亚理工学院)
- 一款 65nm、1.1 至 9.1TOPS/W 的混合数字-模拟计算平台,用于加速基于模型与无模型的群体机器人系统。 (佐治亚理工学院)
- 一款支持位串行整数/浮点运算的计算型 SRAM,用于可编程存内向量加速。 (密歇根大学)
- 一款全数字时域 CNN 引擎,采用双向内存延迟线,面向高能效边缘计算。 (德州大学奥斯汀分校 UT Austin)
2019 HPCA
- HyPar: 面向深度学习加速器阵列的混合并行性(Hybrid Parallelism)设计。 (杜克大学, 南加州大学)
- E-RNN: FPGA 上循环神经网络(Recurrent Neural Networks, RNN)的高效设计优化。 (雪城大学, 东北大学, 佛罗里达国际大学, 南加州大学, 布法罗大学)
- Bit Prudent In-Cache 加速深度卷积神经网络(Deep Convolutional Neural Networks)。 (密歇根大学, 英特尔)
- Shortcut Mining: 在深度卷积神经网络(DCNN)加速器中挖掘跨层捷径复用。 (俄亥俄州立大学)
- NAND-Net: 最小化基于内存计算(In-Memory Processing)的二值神经网络(Binary Neural Networks)的计算复杂度。 (韩国科学技术院)
- Kelp: 面向机器学习平台加速器的服务质量(QoS)保障机制。 (微软, 谷歌, 德克萨斯大学奥斯汀分校)
- Facebook 的机器学习:边缘推理(Inference at the Edge)的理解。 (Facebook)
- The Accelerator Wall: 芯片专用化的极限。 (普林斯顿大学)
2019 ASPLOS
- FA3C: FPGA 加速的深度强化学习(Deep Reinforcement Learning)。 (弘益大学, 首尔国立大学)
- PUMA: 面向机器学习推理的可编程超高效忆阻器(Memristor)加速器。 (普渡大学, 伊利诺伊大学厄巴纳-香槟分校, 惠普)
- FPSA: 面向可重构 ReRAM 神经网络加速器架构的全系统栈解决方案。 (清华大学, 加州大学圣塔芭芭拉分校)
- Bit-Tactical: 利用神经网络中的数值与位稀疏性(Value and Bit Sparsity)的软硬件协同方法。 (多伦多大学, 英伟达)
- TANGRAM: 面向可扩展神经网络加速器的优化粗粒度数据流(Coarse-Grained Dataflow)。 (斯坦福大学)
- Packing Sparse Convolutional Neural Networks for Efficient Systolic Array Implementations: Column Combining Under Joint Optimization. (哈佛大学)
- Split-CNN: 通过拆分卷积神经网络中的窗口操作以优化内存系统。 (IBM, 庆北国立大学)
- HOP: 异构感知的去中心化训练(Heterogeneity-Aware Decentralized Training)。 (南加州大学, 清华大学)
- Astra: 利用可预测性优化深度学习。 (微软)
- ADMM-NN: 使用乘子交替方向法(Alternating Direction Methods of Multipliers)的深度神经网络算法-硬件协同设计框架。 (东北大学, 雪城大学, 纽约州立大学布法罗分校, 南加州大学)
- DeepSigns: 保护深度神经网络所有权的端到端水印框架。 (加州大学圣地亚哥分校)
2019 ISCA
- Sparse ReRAM Engine: 在压缩神经网络中联合探索激活值与权重稀疏性(Activation and Weight Sparsity)。 (台湾国立大学, 中央研究院, Macronix)
- MnnFast: 面向内存增强型神经网络(Memory-Augmented Neural Networks)的快速可扩展系统架构。 (浦项科技大学, 首尔国立大学)
- TIE: 基于张量列车(Tensor Train)的高能效深度神经网络推理引擎。 (罗格斯大学, 南京大学, 南加州大学)
- Accelerating Distributed Reinforcement Learning with In-Switch Computing. (伊利诺伊大学厄巴纳-香槟分校)
- Eager Pruning: 支持深度神经网络快速训练的算法与架构。 (佛罗里达大学)
- Laconic Deep Learning Inference Acceleration. (多伦多大学)
- DeepAttest: 深度神经网络的端到端认证框架。 (加州大学圣地亚哥分校)
- A Stochastic-Computing based Deep Learning Framework using Adiabatic Quantum-Flux-Parametron Superconducting Technology. (东北大学, 横滨国立大学, 南加州大学, 阿尔伯塔大学)
- Fractal Machine Learning Computers. (中科院计算所)
- FloatPIM: 高精度深度神经网络训练的内存内加速(In-Memory Acceleration)。 (加州大学圣地亚哥分校)
- Energy-Efficient Video Processing for Virtual Reality. (伊利诺伊大学厄巴纳-香槟分校, 罗切斯特大学)
- Scalable Interconnects for Reconfigurable Spatial Architectures. (斯坦福大学)
- CoNDA: 通过优化数据移动实现高效的近数据加速器通信。 (卡内基梅隆大学, 苏黎世联邦理工学院)
2019 DAC
- Accuracy vs. Efficiency: 通过 FPGA 实现感知的神经架构搜索(Neural Architecture Search)同时实现精度与效率。 (华东师范大学, 匹兹堡大学, 重庆大学, 加州大学欧文分校, 圣母大学)
- FPGA/DNN Co-Design: 面向边缘物联网智能的高效设计方法论。 (伊利诺伊大学厄巴纳-香槟分校, IBM, Inspirit IoT)
- An Optimized Design Technique of Low-Bit Neural Network Training for Personalization on IoT Devices. (韩国科学技术院)
- ReForm: 面向移动设备的静态与动态资源感知 DNN 重配置框架。 (乔治梅森大学, 克拉克森大学)
- DRIS-3: 基于故障分析的 3D 堆叠存储器中深度神经网络可靠性提升方案。 (成均馆大学)
- ZARA: 基于 3D ReRAM 的生成对抗网络(Generative Adversarial Networks)无零数据流加速器。 (杜克大学)
- BitBlade: 基于位级累加的面积与能效优化、精度可扩展神经网络加速器。 (浦项科技大学)
- X-MANN: 面向内存增强型神经网络的交叉开关架构。 (普渡大学, 英特尔)
- Thermal-Aware Design and Management for Search-based In-Memory Acceleration. (加州大学圣地亚哥分校)
- An Energy-Efficient Network-on-Chip Design using Reinforcement Learning. (乔治华盛顿大学)
- Designing Vertical Processors in Monolithic 3D. (伊利诺伊大学厄巴纳-香槟分校)
2019 MICRO
- Wire-Aware Architecture and Dataflow for CNN Accelerators. (犹他大学)
- ShapeShifter: 在深度学习中实现细粒度数据宽度自适应。 (多伦多大学)
- Simba: 基于多芯片模块(Multi-Chip-Module)架构的深度学习推理扩展方案。 (英伟达)
- ZCOMP: 利用向量扩展减少 DNN 跨层内存占用。 (谷歌, 英特尔)
- Boosting the Performance of CNN Accelerators with Dynamic Fine-Grained Channel Gating. (康奈尔大学)
- SparTen: 面向卷积神经网络的稀疏张量加速器。 (普渡大学)
- EDEN: 利用容错神经网络(Error-Resilient Neural Networks)实现 DNN 推理的近似 DRAM。 (苏黎世联邦理工学院, 卡内基梅隆大学)
- eCNN: 面向边缘推理的基于块结构的高度并行 CNN 加速器。 (国立清华大学)
- TensorDIMM: 面向深度学习嵌入与张量运算的实用近内存处理架构。 (韩国科学技术院)
- Understanding Reuse, Performance, and Hardware Cost of DNN Dataflows: A Data-Centric Approach. (佐治亚理工学院, 英伟达)
- MaxNVM: 通过稀疏编码与错误缓解最大化 DNN 存储密度与推理效率。 (哈佛大学, Facebook)
- Neuron-Level Fuzzy Memoization in RNNs. (加泰罗尼亚理工大学)
- Manna: 内存增强型神经网络加速器。 (普渡大学, 英特尔)
- eAP: 面向自动机处理的可扩展高效内存内加速器。 (弗吉尼亚大学)
- ComputeDRAM: 使用商用 DRAM 实现内存内计算。 (普林斯顿大学)
- ExTensor: 稀疏张量代数加速器。 (伊利诺伊大学厄巴纳-香槟分校, 英伟达)
- Efficient SpMV Operation for Large and Highly Sparse Matrices Using Scalable Multi-Way Merge Parallelization. (卡内基梅隆大学)
- Sparse Tensor Core: 面向现代 GPU 上向量级稀疏神经网络的算法-硬件协同设计。 (加州大学圣塔芭芭拉分校, 阿里巴巴)
- DynaSprint: 带动态效用与热管理的微架构冲刺机制。 (滑铁卢大学, ARM, 杜克大学)
- MEDAL: 面向 DNA 种子算法的可扩展 DIMM 基近数据处理加速器。 (加州大学圣塔芭芭拉分校, 中科院计算所)
- Tigris: 面向点云三维感知的架构与算法。 (罗切斯特大学)
- ASV: 加速立体视觉系统。 (罗切斯特大学)
- Alleviating Irregularity in Graph Analytics Acceleration: a Hardware/Software Co-Design Approach. (加州大学圣塔芭芭拉分校, 中科院计算所)
2019 ICCAD
- Zac:面向嵌入式设备的量化深度神经网络自动优化与部署。(北京大学)
- NAIS:神经架构与实现搜索及其在自动驾驶中的应用。(伊利诺伊大学厄巴纳-香槟分校)
- MAGNet:面向神经网络的模块化加速器生成器。(NVIDIA)
- ReDRAM:一种用于加速批量位级操作的可重构存内处理(Processing-in-DRAM)平台。(亚利桑那州立大学)
- Accelergy:一种面向加速器设计的架构级能耗估算方法。(麻省理工学院)
2019 ASSCC
- 一款每轮训练仅耗电 47.4µJ 的可训练深度卷积神经网络加速器,支持智能设备上的原位个性化。(韩国科学技术院)
- 一款能效达 2.25 TOPS/W、完全集成且支持片上训练的深度 CNN 学习处理器。(台湾国立清华大学)
- 一种稀疏自适应 CNN 处理器,采用面积/性能均衡的 N 路组相联 PE 阵列,并由碰撞感知调度器辅助。(清华大学,东北大学)
- 一款用于无刷新 DSP 应用的 24 Kb 单阱混合 3T 增益单元 eDRAM,在 28nm FD-SOI 工艺中采用体偏置技术。(洛桑联邦理工学院)
2019 VLSI
- 基于 6T SRAM 阵列的高面积效率、抗工艺偏差存内二值神经网络(BNN)计算架构。(浦项科技大学)
- 一款每神经元功耗仅 5.1pJ、推理延迟 127.3us 的 RNN 语音识别处理器,采用 65nm CMOS 工艺并集成 16 个存内计算(Computing-in-Memory)SRAM 宏单元。(清华大学,台湾国立清华大学,清微智能)
- 一款能效达 0.11 pJ/Op、算力范围 0.32–128 TOPS、可扩展多芯片模块(Multi-Chip Module)架构的深度神经网络加速器,采用 16nm 工艺并配备地参考信号传输技术。(NVIDIA)
- SNAP:一款面向非结构化稀疏深度神经网络推理的稀疏神经加速处理器,在 16nm CMOS 工艺下实现 1.67 – 21.55TOPS/W 能效。(密歇根大学,NVIDIA)
- 一款全高清 60 fps 的 CNN 超分辨率处理器,采用基于选择性缓存的层融合技术,专为移动设备设计。(韩国科学技术院)
- 一款能效达 1.32 TOPS/W 的深度神经网络学习处理器,采用基于直接反馈对齐(Direct Feedback Alignment)的异构核心架构。(韩国科学技术院)
- 在低功耗边缘设备中将存内计算(Computing-In-Memory)与感内处理(Processing-In-Sensor)集成到卷积神经网络加速器的设计考量。(台湾国立清华大学,国立中兴大学)
- 基于计算存储器(Computational Memory)的深度神经网络推理与训练。(IBM,洛桑联邦理工学院,苏黎世联邦理工学院等)
- 一款基于三值、位可扩展、能效达 8.80 TOPS/W 的 CNN 加速器 A95,采用多核存内处理架构,突触密度高达 896K/mm²。(瑞萨电子)
- 利用铁电隧道结适度随机电导切换实现存内强化学习。(东芝)
2019 HotChips
- MLPerf:由学术界与工业界合作开发的机器学习基准测试套件。(MLPerf)
- Zion:Facebook 下一代大内存统一训练平台。(Facebook)
- 一种从纳米级到高性能计算均可扩展的统一神经网络计算架构。(华为)
- 大规模深度学习训练——Spring Crest 深度学习加速器。(英特尔)
- Spring Hill——英特尔数据中心推理芯片。(英特尔)
- 晶圆级深度学习。(Cerebras)
- Habana Labs 的 AI 训练扩展方案。(Habana)
- Ouroboros:面向嵌入式设备 TTS 应用的 WaveNet 推理引擎。(阿里巴巴)
- 一款能效达 0.11 pJ/Op、算力范围 0.32–128 TOPS、可扩展多芯片模块架构的深度神经网络加速器,采用高生产率 VLSI 设计方法学。(NVIDIA)
- Xilinx Versal/AI 引擎。(Xilinx)
- 一款面向位可扩展存内计算的可编程嵌入式微处理器。(普林斯顿大学)
2019 FPGA
- Synetgy:面向嵌入式 FPGA 上 ConvNet 加速器的算法-硬件协同设计框架。(清华大学,伯克利,都灵理工大学,Xilinx)
- REQ-YOLO:一种面向 FPGA 的资源感知高效量化框架,适用于目标检测。(北京大学,东北大学)
- FPGA 上神经网络的可重构卷积核。(卡塞尔大学)
- 基于银行均衡稀疏性的 FPGA 上高效高性能稀疏 LSTM 实现。(哈尔滨工业大学,微软,清华大学,北京航空航天大学)
- Cloud-DNN:一个开源框架,用于将 DNN 模型映射至云端 FPGA。(先进数字科学中心,UIUC)
- F5-HD:基于 FPGA 的快速灵活超维计算(Hyperdimensional Computing)刷新框架。(加州大学圣地亚哥分校)
- Xilinx 自适应计算加速平台:Versal 架构。(Xilinx)
2020 ISSCC
- 一款能效 3.4 至 13.3TOPS/W、峰值算力 3.6TOPS 的双核深度学习加速器,适用于 7nm 5G 智能手机 SoC 中的多样化 AI 应用。(联发科)
- 一款 12nm 可编程卷积高效神经处理单元(Neural-Processing-Unit)芯片,峰值算力达 825TOPS。(阿里巴巴)
- STATICA:一款 512 自旋、0.25M 权重的全数字退火处理器,采用近内存“全自旋同步更新”架构,支持组合优化问题中的完整自旋-自旋交互。(东京工业大学,北海道大学,东京大学)
- GANPU:一款能效达 135TFLOPS/W 的多 DNN 训练处理器,专为生成对抗网络(GANs)设计,利用推测性双稀疏性挖掘技术。(韩国科学技术院)
- 一款功耗仅 510nW、工作电压 0.41V 的低内存低计算量关键词识别芯片,采用串行 FFT 的 MFCC 与二值化深度可分离卷积神经网络,基于 28nm CMOS 工艺。(东南大学,EPFL,哥伦比亚大学)
- 一款 65nm、每帧功耗 24.7μJ、平均功耗 12.3mW 的激活相似性感知卷积神经网络视频处理器,采用混合精度、帧间数据复用及混合位宽差分帧数据编解码技术。(清华大学)
- 一款 65nm 存内计算(Computing-in-Memory)CNN 处理器,系统能效达 2.9 至 35.8TOPS/W,采用动态稀疏性性能缩放架构及高效的宏内/宏间数据复用机制。(清华大学,台湾国立清华大学)
- 一款 28nm、64Kb、支持推理与训练的双向转置多比特 6T SRAM 存内计算宏单元,专为 AI 边缘芯片设计。(台湾国立清华大学)
- 一款 7nm FinFET CMOS 工艺下的存内计算 SRAM 宏单元,算力达 351TOPS/W 和 372.4GOPS,适用于机器学习应用。(台积电)
- 一款 22nm、2Mb ReRAM 存内计算宏单元,支持多比特 MAC 运算,能效范围 121–28TOPS/W,适用于微型 AI 边缘设备。(台湾国立清华大学)
- 一款 28nm、64Kb、支持 8 位 MAC 运算的 6T SRAM 存内计算宏单元,专为 AI 边缘芯片设计。(台湾国立清华大学)
- 一款每任务功耗仅 1.5μJ 的路径规划处理器,支持二维/三维微机器人自主导航。(台湾国立清华大学)
- 一款 65nm、能效 8.79TOPS/W、功耗 23.82mW 的混合信号振荡器型 NeuroSLAM 加速器,适用于边缘机器人应用。(佐治亚理工学院)
- CIM-Spin:一款电压范围 0.5 至 1.2V 的可扩展退火处理器,采用数字存内计算自旋算子与寄存器型自旋,用于求解组合优化问题。(台湾国立清华大学)
- 一种面向二维 PE 阵列加速器的计算自适应弹性时钟链技术,具备动态时序增强能力。(西北大学)
- 一款能效达 74 TMACS/W 的 CMOS-RRAM 神经突触核心,支持动态可重构数据流与原位可转置权重,适用于概率图模型。(斯坦福大学,加州大学圣地亚哥分校,清华大学,圣母大学)
- 一款完全集成的模拟 ReRAM 存内计算芯片,能效达 78.4TOPS/W,支持全并行 MAC 运算。(清华大学,台湾国立清华大学)
2020 HPCA
- 基于神经元到内存转换的深度学习加速。(UCSD)
- HyGCN:采用混合架构的图卷积网络(GCN)加速器。(ICT, UCSB)
- SIGMA:面向深度神经网络(DNN)训练的稀疏不规则 GEMM 加速器,配备灵活互连结构。(Georgia Tech)
- PREMA:面向可抢占式神经处理单元(NPUs)的预测性多任务调度算法。(KAIST)
- ALRESCHA:轻量级可重构稀疏计算加速器。(Georgia Tech)
- SpArch:面向稀疏矩阵乘法的高效架构。(MIT, NVIDIA)
- A3:通过近似方法加速神经网络中的注意力机制。(SNU)
- AccPar:面向异构深度学习加速器阵列的张量分区方法。(Duke, USC)
- PIXEL:光子神经网络加速器。(Ohio, George Washington)
- Facebook 基于 DNN 的个性化推荐系统的架构影响分析。(Facebook)
- 通过基于存内计算(PIM)的架构设计实现高效胶囊网络处理。(Houston)
- 只见树木不见森林:边缘数据中端到端 AI 应用性能研究。(UT Austin, Intel)
- 卷积加速器中的通信下界分析。(ICT, THU)
- Fulcrum:面向灵活实用原位加速器的简化控制与访问机制。(Virginia, UCSB, Micron)
- EFLOPS:面向高性能分布式训练平台的算法与系统协同设计。(阿里巴巴)
- ML 驱动设计的实践经验:片上网络(NoC)案例研究。(AMD)
- Tensaurus:支持混合稀疏-稠密张量计算的通用加速器。(Cornell, Intel)
- 面向归纳矩阵算法的脉动-数据流混合架构。(UCLA)
- 面向架构探索的深度强化学习框架:无路由器 NoC 案例研究。(USC, OSU)
- QuickNN:面向 3D 点云的 k-d 树最近邻搜索的内存与性能优化。(Umich, General Motors)
- 轨道边缘计算:太空中的机器推理。(CMU)
- 面向自动机处理的可扩展高效存内互连架构。(Virginia)
- 降低移动设备连接待机能耗的技术。(ETHZ, Cyprus, CMU)
2020 ASPLOS
- Shredder:通过学习噪声分布保护推理隐私。(UCSD)
- DNNGuard:弹性异构 DNN 加速器架构,抵御对抗攻击。(CAS, USC)
- Interstellar:利用 Halide 调度语言分析 DNN 加速器。(Stanford, THU)
- DeepSniffer:基于学习架构提示的 DNN 模型提取框架。(UCSB)
- Prague:高性能、感知异构的异步去中心化训练系统。(USC)
- PatDNN:通过模式化权重剪枝实现在移动设备上的实时 DNN 执行。(College of William and Mary, Northeastern, USC)
- Capuchin:面向深度学习的基于张量的 GPU 内存管理。(HUST, MSRA, USC)
- NeuMMU:为神经处理单元(NPUs)提供高效地址转换的架构支持。(KAIST)
- FlexTensor:面向异构系统的张量计算自动调度探索与优化框架。(PKU)
2020 DAC
- 面向设备端增量学习系统的实用方法:选择性权重更新。
- 基于双向 SRAM 阵列的深度神经网络片上训练加速器。
- 最小化外围电路开销的存内神经网络计算的算法-硬件协同设计。
- 面向鲁棒深度学习推理的自适应浮点编码算法-硬件协同设计。
- 图神经网络的硬件加速。
- 利用数据流稀疏性实现高效的卷积神经网络训练。
- 使用计算存储设备进行低功耗深度神经网络训练加速。
- 基于预测置信度的低复杂度梯度计算以加速 DNN 训练。
- SparseTrain:利用数据流稀疏性实现高效的卷积神经网络训练。
- SCA:支持训练与推理的安全 CNN 加速器。
- STC:面向外部内存访问减少的重要度感知变换编码框架。
2020 FPGA
- AutoDNNchip:通过编译、优化与探索自动生成 DNN 芯片。(Rice, UIUC)
- 在 CPU-FPGA 异构平台上加速 GCN 训练。(USC)
- 使用 FPGA 大规模模拟绝热分岔以求解组合优化问题。(Central Florida)
2020 ISCA
- IBM POWER9 和 z15 处理器上的数据压缩加速器。(IBM)
- 集成于 x86 SoC 的高性能深度学习协处理器,搭配服务器级 CPU。(Centaur)
- Think Fast:用于加速深度学习工作负载的张量流处理器(TSP)。(Groq)
- MLPerf 推理:机器学习推理系统的基准测试方法论。
- 多神经网络加速架构。(SNU)
- SmartExchange:以低成本计算换取高成本内存存储/访问。(Rice, TAMU, UCSB)
- Centaur:面向个性化推荐的基于芯粒(Chiplet)的混合稀疏-稠密加速器。(KAIST)
- DeepRecSys:优化端到端大规模神经推荐推理的系统。(Facebook, Harvard)
- 面向共享内存多处理器集合操作的网内加速架构。(NVIDIA)
- DRQ:面向深度神经网络加速的动态区域量化方法。(SJTU)
- IBM z15 高频大型机分支预测器。(ETHZ)
- Déjà View:面向节能 360° VR 视频流的空间-时间计算复用。(Penn State)
- uGEMM:面向 GEMM 应用的一元计算架构。(Wisconsin)
- Gorgon:从关系数据加速机器学习。(Stanford)
- RecNMP:通过近内存处理(Near-Memory Processing)加速个性化推荐。(Facebook)
- JPEG-ACT:通过基于变换的有损压缩加速深度学习。(UBC)
- 交换数据重排序:一种降低稀疏推理工作负载数据移动能耗的新技术。(Sandia, Rochester)
- Echo:基于编译器的 LSTM RNN 训练 GPU 内存占用缩减。(Toronto, Intel)
2020 HotChips
- Google 训练芯片揭秘:TPUv2 与 TPUv3。(Google)
- 首款晶圆级处理器(及未来)的软件协同设计(Software Co-design)。 (Cerebras)
- Manticore:面向超高能效浮点计算的 4096 核 RISC-V 小芯片架构。 (ETHZ)
- 百度昆仑 – 面向多样化工作负载的人工智能处理器。 (Baidu)
- 含光 800 NPU – 数据中心终极 AI 推理解决方案。 (Alibaba)
- 用于人工智能加速的硅光子学(Silicon Photonics)。 (Lightmatter)
- 玄铁-910:基于 RISC-V 创新云与边缘计算。(Alibaba)
- ARM Cortex-M55 与 Ethos-U55 技术概览:ARM 最强大的终端 AI 处理器。(ARM)
- PGMA:面向无监督学习的可扩展贝叶斯推断加速器。(Harvard)
2020 VLSI
- PNPU:采用随机粗细粒度剪枝与自适应输入/输出/权重跳过的 146.52TOPS/W 深度神经网络学习处理器。 (KAIST)
- 3.0 TFLOPS、0.62V 可扩展处理器核心,实现高计算利用率的 AI 训练与推理。 (IBM)
- 基于 10nm FinFET CMOS 工艺的 617 TOPS/W 全数字二值神经网络加速器。 (Intel)
- 支持多码长、超低延迟(7.8–13.6 pJ/b)的可重构神经网络辅助极化码解码器。 (NTU)
- 面向沉浸式可穿戴设备手部姿态估计的 4.45ms 低延迟 3D 点云神经网络处理器。 (KAIST)
- 基于 16nm 工艺、采用并行吉布斯采样(Gibbs Sampling)的 3mm² 可编程贝叶斯推断加速器,适用于无监督机器感知。 (Harvard)
- 1.03pW/b 超低漏电堆叠电压 SRAM,适用于智能边缘处理器。(Umich)
- Z-PIM:支持全精度可变权重的高能效稀疏感知存内计算(Processing-In-Memory)架构。(KAIST)
2020 MICRO
- SuperNPU:基于超导逻辑器件的极速神经处理单元。 (Kyushu University)
- 印刷式机器学习分类器(Printed Machine Learning Classifiers)。 (UIUC, KIT)
- 基于查找表(Look-Up Table)的高能效缓存支持神经网络加速处理架构。 (PSU, Intel)
- FReaC Cache:末级缓存中的折叠逻辑可重构计算架构。 (UIUC, IBM)
- Newton:DRAM 厂商推出的面向机器学习的存内加速器(Accelerator-in-Memory, AiM)架构。 (Purdue, SK Hynix)
- VR-DANN:通过解码器辅助神经网络加速实现实时视频识别。 (SJTU)
- Procrustes:面向稀疏深度神经网络训练的数据流与加速器架构。 (University of British Columbia, Microsoft)
- Duplo:针对 GPU Tensor Core 优化深度神经网络冗余内存访问。 (Yonsei University, EcoCloud, EPFL)
- DUET:基于双模块架构提升深度神经网络效率。 (UCSB, Alibaba)
- ConfuciuX:使用强化学习为 DNN 加速器自主分配硬件资源。 (GaTech)
- Planaria:通过动态架构分裂实现空间多租户深度神经网络加速。 (UCSD, Bigstream, Kansas, NVIDIA, Google)
- TFE:基于迁移滤波器的高能效引擎,用于压缩与加速卷积神经网络。 (THU, Alibaba)
- MatRaptor:基于行乘积的稀疏-稀疏矩阵乘法加速器。 (Cornell)
- TensorDash:利用稀疏性加速深度神经网络训练。 (Toronto)
- SAVE:面向 CPU 上 DNN 训练与推理的稀疏感知向量引擎。 (UIUC)
- GOBO:量化基于注意力机制的 NLP 模型,实现低延迟与高能效推理。 (Toronto)
- TrainBox:通过系统性平衡操作构建的超大规模神经网络训练服务器架构。 (SNU)
- AWB-GCN:具备运行时负载再平衡能力的图卷积网络加速器。 (Boston et al.)
- Mesorasi:通过延迟聚合提供点云分析的架构支持。 (Rochestor, ARM)
- NCPU:面向资源受限低功耗设备的嵌入式神经 CPU 架构,实现端到端实时性能。 (Northwestern University)
- FlexWatts:面向高能效微处理器的功率与负载感知混合供电网络。(ETHZ, Intel, Technion, NTU)
- AutoScale:使用强化学习优化边缘随机推理的能效。(Facebook)
- CATCAM:具备可扩展存内架构的常数时间可变三元内容寻址存储器(Ternary CAM)。(THU, Southeast University)
- DUAL:使用数字存内计算(Digital-Based Processing In-Memory)加速聚类算法。(UCSD)
- Bit-Exact ECC Recovery (BEER):通过利用 DRAM 数据保持特性确定片上 ECC 函数。(ETHZ)
2020 ICCAD
- ReTransformer:基于 ReRAM 的存内计算架构,用于 Transformer 加速。(Duke)
- 高能效无 XNOR 存内二值神经网络(BNN)加速器,结合输入分布正则化。(POSTECH)
- HyperTune:面向异构系统高效分布式 DNN 训练的动态超参数调优。(UCI, NGD)
- SynergicLearning:基于神经网络的特征提取方法,实现高精度超维学习(Hyperdimensional Learning)。(USC)
- 优化随机计算以实现卷积神经网络低延迟推理。(南京大学)
- HAPI:硬件感知渐进推理(Hardware-Aware Progressive Inference)。(Samsung)
- MobiLattice:配备混合数字/模拟非易失性存内计算模块的深度可分离 DCNN 加速器。(PKU, Duke)
- 面向片上深度强化学习的多核加速器设计。(ICT)
- DRAMA:面向高性能与高能效深度训练系统的近似 DRAM 架构。(庆熙大学, NUS)
- 基于 FPGA、配备高带宽内存的现代 CNN 低批量训练加速器。(ASU, Intel)
2021 ISSCC
- A100 数据中心 GPU 与 Ampere 架构。(NVIDIA)
- 昆仑:面向多样化工作负载的 14nm 高性能 AI 处理器。(百度)
- 一款 12nm 自动驾驶处理器,支持 60.4TOPS 算力、13.8TOPS/W 的 CNN 执行,并采用任务分离的 ASIL D(汽车安全完整性等级 D)控制机制。(瑞萨电子)
- BioAIP:一种可重构生物医学 AI 处理器,支持自适应学习,适用于多种智能健康监测场景。(电子科技大学)
- 一款 0.2 至 3.6TOPS/W 可编程卷积成像 SoC,在传感器内通过电流域三值加权 MAC 运算实现特征提取与感兴趣区域检测。(鲁汶大学)
- 一款 7nm 四核 AI 芯片,支持 25.6TFLOPS 混合 FP8 训练、102.4TOPS INT4 推理及工作负载感知的动态调频。(IBM)
- 一款 28nm 12.1TOPS/W 双模式 CNN 处理器,采用基于有效权重的卷积与基于误差补偿的预测方法。(清华大学)
- 一款 40nm 4.81TFLOPS/W 8 位浮点训练处理器,用于非稀疏神经网络,采用共享指数偏置与 24 路融合乘加树结构。(首尔国立大学)
- PIU:一款 248GOPS/W 基于流式处理的处理器,用于不规则概率推理网络,采用精度可扩展的 Posit 算术(一种新型数值表示法),工艺为 28nm。(鲁汶大学)
- 一款集成于 5nm 旗舰移动 SoC 中的 6K-MAC 特征图稀疏感知神经处理单元。(三星)
- 一款 1/2.3 英寸 1230 万像素背照式堆叠 CMOS 图像传感器,内置 4.97TOPS/W CNN 处理器。(索尼)
- 一款 184μW 实时手势识别系统,采用混合微型分类器,适用于智能可穿戴设备。(南洋理工大学)
- 一款 25mm² 的物联网 SoC,通过贝叶斯语音降噪与基于注意力机制的序列到序列 DNN 语音识别,在 16nm FinFET 工艺下实现 18ms 抗噪语音转文本延迟。(哈佛、塔夫茨、ARM、康奈尔)
- 一款 109nW 背景噪声与工艺偏差容忍的声学特征提取器,基于脉冲域除法能量归一化,适用于常开关键词检测设备。(哥伦比亚大学)
- 一款 148nW 通用事件驱动智能唤醒芯片,用于 AIoT 设备,采用异步脉冲型特征提取器与卷积神经网络。(北京大学)
- 一款基于可扩展存内计算(Computing-in-Memory)的可编程神经网络推理加速器。(普林斯顿大学)
- 一款 2.75 至 75.9TOPS/W 存内计算神经网络处理器,支持集合关联块级零值跳过与乒乓存内计算,同时支持计算与权重更新。(清华大学)
- 一款 65nm 基于 3T 动态模拟 RAM 的存内计算宏单元与 CNN 加速器,具备保留增强、自适应模拟稀疏性与 44TOPS/W 系统能效。(西北大学)
- 一款 5.99 至 691.1TOPS/W 张量列(Tensor-Train)存内计算处理器,采用比特级稀疏优化与可变精度量化。(清华大学、电子科技大学、台湾清华大学)
- 一款 22nm 4Mb 8 位精度 ReRAM(阻变存储器)存内计算宏单元,能效达 11.91 至 195.7TOPS/W,适用于微型 AI 边缘设备。(台湾清华大学、台积电)
- eDRAM-CIM:一种基于可重构嵌入式动态存储器阵列的存内计算设计,实现自适应数据转换器与电荷域计算。(德州大学奥斯汀分校、英特尔)
- 一款 28nm 384kb 6T-SRAM 存内计算宏单元,支持 8 位精度,适用于 AI 边缘芯片。(台湾清华大学、工业技术研究院、台积电)
- 一款全数字 SRAM 型存内计算宏单元,能效达 89TOPS/W,密度达 16.3TOPS/mm²,精度为全精度,工艺为 22nm,适用于机器学习边缘应用。(台积电)
- 一款 20nm 6GB 功能内存 DRAM,基于 HBM2,配备 1.2TFLOPS 可编程计算单元,利用 Bank 级并行性,适用于机器学习应用。(三星)
- 一款 21×21 动态精度位串行计算图加速器,用于通过有限差分法求解偏微分方程。(南洋理工大学)
2021 ASPLOS
- 利用 Gustavson 算法加速稀疏矩阵乘法。(MIT、NVIDIA)
- SIMDRAM:一种利用 DRAM 实现位串行 SIMD 处理的框架。(苏黎世联邦理工学院、卡内基梅隆大学)
- RecSSD:基于固态硬盘的推荐推理近数据处理方案。(哈佛、Facebook、亚利桑那州立大学)
- DiAG:一种受数据流启发的通用处理器架构。(伊利诺伊大学厄巴纳-香槟分校)
- 场景可配置多分辨率推理:重新思考量化。(哈佛、富兰克林与马歇尔学院)
- 防御性近似:利用近似计算保护 CNN 安全。(斯法克斯大学等)
2021 HPCA
- 跨领域加速的计算栈。(加州大学圣地亚哥分校等)
- 面向多 DNN 工作负载的异构数据流加速器。(佐治亚理工、Facebook、NVIDIA)
- SPAGHETTI:面向 FPGA 的高稀疏 GEMM 流式加速器。(西蒙菲莎大学等)
- SpAtten:高效的稀疏注意力架构,采用级联 Token 与头剪枝。(MIT)
- Mix and Match:一种以 FPGA 为中心的深度神经网络量化框架。(东北大学等)
- Tensor Casting:为个性化推荐训练协同设计算法与架构。(韩国科学技术院)
- GradPIM:一种实用的 DRAM 内梯度下降处理架构。(首尔国立大学、延世大学)
- SpaceA:在存内计算加速器上执行稀疏矩阵向量乘法。(加州大学圣塔芭芭拉分校、北京大学)
- Layerweaver:通过逐层调度最大化神经处理单元资源利用率。(成均馆大学、首尔国立大学)
- 深度学习中异构内存系统的高效张量迁移与分配。(马德里康普顿斯大学、微软)
- CSCNN:使用中心对称滤波器的 CNN 加速器算法-硬件协同设计。(乔治华盛顿大学、俄亥俄大学)
- Adapt-NoC:面向异构众核架构的灵活片上网络设计。(乔治华盛顿大学)
- GCNAX:灵活且高能效的图卷积神经网络加速器。(乔治华盛顿大学、俄亥俄大学)
- Ascend:面向无处不在的深度神经网络计算的可扩展统一架构。(华为)
- 大规模深度学习推荐模型训练效率分析。(Facebook)
- Eudoxus:刻画并加速自主机器中的定位任务。(罗切斯特大学等)
- NeuroMeter:面向机器学习加速器的集成功耗、面积与时序建模框架。(加州大学圣塔芭芭拉分校、谷歌)
- 追逐碳足迹:计算环境影响的难以捉摸之处。(哈佛、Facebook)
- FuseKNA:基于融合核卷积的深度神经网络加速器。(清华大学)
- FAFNIR:通过高效近内存智能规约加速稀疏收集操作。(佐治亚理工)
- VIA:面向向量单元的智能暂存器,应用于稀疏矩阵计算。(巴塞罗那超级计算中心等)
- Cheetah:优化并加速同态加密以实现隐私推理。(纽约大学、首尔国立大学、哈佛、Facebook)
- CAPE:内容可寻址处理引擎。(康奈尔大学、宾州州立大学)
- Prodigy:通过硬件-软件协同设计改善数据间接不规则工作负载的内存延迟。(密歇根大学等)
- BRIM:双稳态电阻耦合 Ising 机。(罗切斯特大学)
- 一种用于求解线性系统的模拟预处理器。(桑迪亚国家实验室等)
2021 ISCA
- 三代演进塑造 Google TPUv4i 的十大经验(Google)
- 面向三星旗舰移动 SoC 的稀疏感知与可重构 NPU 架构(Samsung)
- AI 融合的 POWER10 处理器能效提升(IBM)
- 基于商用 DRAM 技术的 PIM(Processing-in-Memory,存内计算)硬件架构与软件栈(Samsung)
- AMD EPYC™ 与 Ryzen™ 处理器家族的 Chiplet(小芯片)技术与设计先驱(AMD)
- RaPiD:超低精度训练与推理的 AI 加速器(IBM)
- REDUCT:就近计算,保持低温!——在多核 CPU 上通过近缓存计算扩展 DNN 推理(Intel)
- 分布式深度学习中的通信算法-架构协同设计(UCSB, TAMU)
- ABC-DIMM:通过 DIMM 间广播缓解基于 DIMM 的近内存处理通信瓶颈(清华大学)
- Sieve:面向大规模并行 k-mer 匹配的可扩展原位 DRAM 加速器设计(弗吉尼亚大学)
- FORMS:基于 ReRAM(阻变存储器)的细粒度极化原位混合信号 DNN 加速器(东北大学等)
- BOSS:面向存储级内存(Storage-Class Memory)的带宽优化搜索加速器(首尔国立大学)
- 利用枚举基数树加速基因组序列比对的种子生成(密歇根大学)
- Aurochs:面向数据流线程的架构(斯坦福大学)
- PipeZK:通过流水线架构加速零知识证明(北京大学等)
- CODIC:支持定制 DRAM 内功能与优化的低成本基底(苏黎世联邦理工学院)
- 在分布式深度学习训练平台中实现计算与通信重叠(佐治亚理工学院)
- CoSA:面向空间加速器的约束优化调度方法(伯克利大学)
- η-LSTM:通过挖掘内存节省与架构设计机会协同设计高效大型 LSTM 训练(华盛顿大学等)
- FlexMiner:面向图模式挖掘的模式感知加速器(麻省理工学院)
- PolyGraph:揭示图处理加速器灵活性的价值(加州大学洛杉矶分校)
- 带数千并发缺失缓存的大规模 FPGA 图处理(洛桑联邦理工学院)
- SPACE:面向个性化推荐的异构内存局部性感知处理(延世大学)
- ELSA:神经网络中高效轻量自注意力机制的软硬件协同设计(首尔国立大学)
- Cambricon-Q:面向高效训练的混合架构(中科院计算所)
- TENET:基于关系中心记法的张量数据流建模框架(北京大学等)
- NASGuard:面向鲁棒神经架构搜索(NAS)网络的新型加速器架构(中科院计算所)
- NASA:使用 NAS 处理器加速神经网络设计(中科院计算所)
- Albireo:通过硅光子学实现卷积神经网络的高能效加速(俄亥俄州立大学等)
- QUAC-TRNG:利用商用 DRAM 芯片四行激活实现高吞吐真随机数生成(苏黎世联邦理工学院)
- NN-Baton:面向多芯片加速器的 DNN 工作负载编排与芯粒粒度探索(清华大学)
- SNAFU:超低功耗、能量最小化的 CGRA(粗粒度可重构阵列)生成框架与架构(卡内基梅隆大学)
- SARA:扩展可重构数据流加速器(斯坦福大学)
- HASCO:面向张量计算的敏捷硬件与软件协同设计(北京大学等)
- SpZip:为不规则应用提供高效数据压缩的架构支持(麻省理工学院)
- 双侧稀疏 Tensor Core(微软)
- RingCNN:利用代数稀疏环张量实现节能的基于 CNN 的计算成像(台湾清华大学)
- GoSPA:一种高能效高性能全局优化的稀疏卷积神经网络加速器(罗格斯大学)
2021 VLSI
- MN-Core —— 深度学习的高效可扩展方案(Preferred Networks)
- CHIMERA:配备 2MB 片上代工厂阻变存储器(ReRAM),用于高效训练与推理的 0.92 TOPS、2.2 TOPS/W 边缘 AI 加速器(斯坦福大学、台积电)
- OmniDRL:采用双模式权重压缩与片上稀疏权重转置器的 29.3 TFLOPS/W 深度强化学习处理器(KAIST)
- DepFiN:面向高分辨率图像处理的 12nm、3.8TOPs 深度优先 CNN 处理器(鲁汶大学)
- PNNPU:基于块状点处理实现常规 DRAM 访问的 11.9 TOPS/W 高速 3D 点云神经网络处理器(KAIST)
- 一款 28nm、276.55TFLOPS/W 的稀疏深度神经网络训练处理器,采用隐式冗余推测与批归一化重构(清华大学)
- 使用异构计算架构与指数计算存内(Exponent-Computing-in-Memory)的 13.7 TFLOPS/W 浮点 DNN 处理器(KAIST)
- PIMCA:28nm 工艺下 3.4Mb 可编程存内计算加速器,用于片上 DNN 推理(亚利桑那州立大学)
- 采用输入相似性优化与基于注意力的输出推测上下文中断机制的 6.54 至 26.03 TOPS/W 存内计算 RNN 处理器(清华大学、台湾清华大学)
- 采用电容式混合信号计算、支持 5 位输入的全行列并行存内计算 SRAM 宏单元(普林斯顿大学)
- HERMES Core —— 14nm CMOS 与 PCM(相变存储器)基础的存内计算核心,采用 300ps/LSB 线性化 CCO ADC 阵列与本地数字处理(IBM)
- 20x28 自旋混合存内退火计算机,采用电压模式模拟自旋算子求解组合优化问题(台湾大学、UCSB)
- 基于 FeFET(铁电场效应晶体管)1T1R 阵列的模拟存内计算,适用于边缘 AI 应用(索尼)
- 面向源跟随器与电荷共享电压传感的 HZO FeFET 局部乘法 & 全局累加阵列,实现高能效可靠存内计算(东京大学)
2021 ICCAD
- Bit-Transformer:将位级稀疏性转化为 ReRAM 加速器更高性能(上海交通大学)
- 面向图卷积网络的基于交叉开关的存内计算加速器架构(宾州州立大学、IBM)
- REREC:面向个性化推荐的 ReRAM 内加速访问感知映射(杜克大学、清华大学)
- 面向 ReRAM 加速器的多任务 BERT 执行高效面积框架(KAIST)
- 面向设备端任务自适应 DNN 训练的收敛监测方法(KAIST)
2021 HotChips
- 在 Esperanto 的 ET-SoC-1 芯片上集成上千个 RISC-V/Tensor 处理器加速机器学习推荐(Esperanto Technologies)
- 燧原科技的 AI 计算芯片(燧原科技)
- Qualcomm Cloud AI 100:12 TOPs/W 可扩展、高性能、低延迟深度学习推理加速器(高通)
- Graphcore Colossus Mk2 IPU(Graphcore)
- 百万核级、多晶圆 AI 集群(Cerebras)
- SambaNova SN10 RDU:通过数据流加速 Software 2.0(SambaNova)
2021 MICRO
- RACER:使用阻性存储器(Resistive Memory)实现位级流水线处理(CMU, UIUC)
- AutoFL:支持异构感知的节能联邦学习(Federated Learning)框架(Soongsil, ASU)
- DarKnight:基于可信硬件(Trusted Hardware)加速隐私与完整性保护的深度学习框架(USC)
- 2-in-1 加速器:通过随机精度切换同时赢得对抗鲁棒性(Adversarial Robustness)与效率优势(Rice)
- F1:用于全同态加密(Fully Homomorphic Encryption)的快速可编程加速器(MIT, Umich)
- Equinox:在定制推理加速器上“免费”训练模型(EPFL)
- PointAcc:高效的点云(Point Cloud)加速器(MIT)
- Noema:面向神经群体模式检测的硬件高效模板匹配引擎(Toronto, NeuroTek)
- SquiggleFilter:便携式病毒检测加速器(Umich)
- EdgeBERT:面向延迟敏感型多任务 NLP 推理的句子级能耗优化方案(Harvard 等)
- HiMA:面向可微分神经计算机(Differentiable Neural Computer)的快速可扩展历史内存访问引擎(Umich)
- FPRaker:用于加速神经网络训练的处理单元(Toronto)
- RecPipe:联合优化推荐质量与性能的模型与硬件协同设计框架(Harvard, Facebook)
- Shift-BNN:通过内存友好型模式检索实现高效的概率贝叶斯神经网络(Bayesian Neural Network)训练(Houston 等)
- 提炼通用深度学习加速中的位级稀疏并行性(ICT, UESTC)
- Sanger:基于可重构架构(Reconfigurable Architecture)实现稀疏注意力机制的协同设计框架(PKU)
- ESCALATE:通过核分解(Kernel Decomposition)提升稀疏 CNN 加速器效率(Duke, USC)
- SparseAdapt:在可重构加速器上运行时控制稀疏线性代数运算(Umich 等)
- Capstan:面向稀疏性的向量 RDA(Stanford, SambaNova)
- I-GCN:通过“岛屿化”(Islandization)增强运行时局部性的图卷积网络(Graph Convolutional Network)加速器(PNNL 等)
2021 DAC
- MAT:面向长序列注意力机制的存内计算(Processing In-Memory)加速
- PIM-Quantifier:用于 mRNA 定量分析的存内计算平台
- 基于中介层(Interposer)的片上网络设计,支持敏捷神经网络处理器芯片定制
- GCiM:面向图构建的近数据处理(Near-Data Processing)加速器
- 面向边缘-云端视频流的智能视频处理架构
- Gemmini:通过全栈集成实现系统性深度学习架构评估
- PixelSieve:从压缩视频流中实现高效活动分析
- TensorLib:面向张量代数的空域加速器生成框架
- 基于小芯片(Chiplet)架构与光互连技术扩展深度学习推理能力
- Dancing along Battery:在移动设备上通过运行时可重构性支持 Transformer 模型
- 设计一款包含 2048 个小芯片、14336 核心的晶圆级处理器
- 利用存内计算加速全同态加密
2022 ISSCC
- 支持 AI 边缘设备相似向量匹配操作的 512Gb 存算一体(In-Memory-Computing)3D NAND 闪存
- 基于 1ynm 工艺、1.25V 电压、8Gb 容量、16Gb/s/pin 的 GDDR6 存内加速器,支持 1TFLOPS MAC 运算及多种激活函数,适用于深度学习应用
- 22nm 工艺、4Mb 容量的 STT-MRAM 数据加密近内存计算宏单元,具备 192GB/s 读取与解密带宽,在 8 位 MAC 操作下能效达 25.1–55.1 TOPS/W,适用于 AI 相关运算
- 40nm 工艺、2M 单元、8 位精度的混合 SLC-MLC PCM 存算一体宏单元,能效达 20.5–65.0 TOPS/W,适用于微型 AI 边缘设备
- 8Mb 无直流电流的二进制转 8 位精度 ReRAM 非易失性存算一体宏单元,采用时空读出技术,在 AI 边缘设备上实现 1286.4 TOPS/W 至 21.6 TOPS/W 能效
- 单模 6T CMOS SRAM 宏单元,配备无保持器负载外设与行分离动态体偏置,实现 2.53fW/bit 漏电流,适用于 AIoT 传感平台
- 5nm 工艺、254 TOPS/W 与 221 TOPS/mm² 的全数字存算一体宏单元,支持宽范围动态电压频率调节(DVFS)及同步 MAC 与写入操作
- 28nm 工艺、1.041Mb/mm² 密度、27.38TOPS/W 能效的有符号 INT8 动态逻辑 ADC-less SRAM 存算一体宏单元,支持可重构位运算,适用于 AI 与嵌入式应用
- 28nm 工艺、1Mb 容量、时域 6T SRAM 存算一体宏单元,延迟 6.6ns,8 位 MAC 操作下实现 1241 GOPS 与 37.01 TOPS/W,适用于 AI 边缘设备
- 多模 8K-MAC 硬件利用率感知神经处理单元,采用统一多精度数据通路,集成于 4nm 旗舰移动 SoC
- 65nm 工艺阵列式神经 CPU 处理器,结合深度学习与通用计算,PE 利用率达 95%,高数据局部性,端到端性能增强
- COMB-MCM:面向可扩展多小芯片模块(Multi-Chiplet-Module)边缘机器学习的边界存算(Computing-on-Memory-Boundary)神经网络处理器,采用双极性质位稀疏优化
- Hiddenite:4K-PE 隐藏网络推理 4D 张量引擎,利用片上模型构建,在 CIFAR-100 与 ImageNet 上实现 34.8 至 16.0 TOPS/W 能效
- 28nm 工艺、29.2TFLOPS/W BF16 与 36.5TOPS/W INT8 可重构数字存算一体处理器,具备统一浮点/整数流水线与位级存内 Booth 乘法,适用于云端深度学习加速
- DIANA:端到端高能效的数字与模拟混合神经网络 SoC
- ARCHON:332.7TOPS/W、5 位精度、抗工艺偏差的模拟 CNN 处理器,配备模拟神经元计算单元与模拟存储器
- 面向边缘 AI 实时视频分析的模拟矩阵处理器
- 0.8V 智能视觉传感器,内置微型卷积神经网络与可编程权重,采用混合模式感内计算(Processing-in-Sensor)技术实现图像分类
- 184QPS/W、64Mb/mm² 密度、3D 逻辑-DRAM 混合键合结构,配备近内存处理引擎,适用于推荐系统
- 28nm 工艺、27.5TOPS/W 能效的近似计算型 Transformer 处理器,具备渐进稀疏预测与乱序计算能力
- 28nm 工艺、15.59μJ/Token 全数字位线转置存算一体稀疏 Transformer 加速器,支持流水线/并行可重构模式
- ReckOn:28nm、亚平方毫米面积、任务无关的脉冲递归神经网络(Spiking Recurrent Neural Network)处理器,支持秒级时间尺度的片上学习
2022 HPCA
- LISA:基于图神经网络(Graph Neural Network, GNN)的空间加速器可移植映射方案
- 模块化芯粒(Chiplet)系统中实现无死锁的向上数据包弹出机制
- FAST:使用随机舍入(Stochastic Rounding)的变精度块浮点(Block Floating Point)DNN 训练方法
- TransPIM:通过软硬件协同设计在内存中加速 Transformer 的架构
- 多个 DNN 在多个加速器核心上的映射优化框架
- ScalaGraph:面向大规模并行图处理的可扩展加速器
- PIMCloud:在具备内存内计算(Processing-in-Memory, PIM)能力的云环境中,支持服务质量(QoS)感知的延迟敏感型应用资源管理
- ANNA:专为近似最近邻搜索(Approximate Nearest Neighbor Search)设计的专用架构
- 利用缓存一致性解耦内存系统实现高效的大规模深度学习训练
- NeuroSync:基于安全高效推测执行的可扩展高精度脑模拟系统
- 在专为贝叶斯神经网络设计的 PIM 中实现高质量不确定性量化
- Griffin:重新思考深度学习架构中的稀疏优化问题
- CANDLES:面向低能耗稀疏神经网络加速的通道感知(Channel-Aware)新型数据流-微架构协同设计
- SPACX:基于硅光子学(Silicon Photonics)的可扩展芯粒加速器,用于 DNN 推理
- RM-SSD:面向大规模推荐推理的存储内计算(In-Storage Computing)方案
- CAMA:在内容可寻址存储器(Content-Addressable Memories)中实现能效与内存效率兼顾的自动机处理
- TNPU:为神经处理单元(Neural Processing Unit)提供无需树结构完整性保护的可信执行支持
- S2TA:利用结构化稀疏性实现移动设备上 CNN 加速的能效优化
- 利用基于交叉开关(Crossbar)的内存内计算架构加速图卷积网络(Graph Convolutional Networks)
- 基于原子数据流(Atomic Dataflow)的图级工作负载编排,用于可扩展 DNN 加速器
- SecNDP:在不可信内存环境下实现安全的近数据处理(Near-Data Processing)
- 面向储备池计算(Reservoir Computing)的稀疏矩阵乘法器直接空间实现
- Hercules:面向超大规模个性化推荐的异构感知推理服务系统
- ReGNN:消除冗余计算的图神经网络加速器
- 并行时间批处理(Parallel Time Batching):稀疏脉冲神经计算的脉动阵列加速
- GCoD:通过专用算法与加速器协同设计加速图卷积网络
- CoopMC:面向马尔可夫链蒙特卡洛(Markov Chain Monte Carlo)加速器的算法-架构协同优化
- 异构芯粒系统的应用定义片上网络:实现视角分析
- Anton 3 上的专用高性能网络
- DarkGates:缓解高性能处理器中“暗硅”(Dark-Silicon)负面影响的混合电源门控架构
2022 ASPLOS
- DOTA:检测并省略弱注意力机制,实现可扩展的 Transformer 加速
- 面向领域优化深度学习加速器的全栈搜索技术
- FINGERS:在图挖掘加速器中挖掘细粒度并行性
- BiSon-e:面向边缘设备窄整数线性代数计算的轻量级高性能加速器
- RecShard:基于统计特征的工业级神经推荐内存优化方案
- AStitch:在现代 SIMT 架构上为内存密集型机器学习训练与推理开启全新的多维优化空间
- NASPipe:通过因果同步并行机制实现高性能、可复现的流水线并行超网训练
- VELTAIR:通过自适应编译与调度实现高性能多租户深度学习服务
- 打破分布式机器学习工作负载中的计算与通信抽象壁垒
- GenStore:面向基因组序列分析的存储内处理系统
- ProSE:蛋白质发现引擎的架构与设计
- REVAMP:面向异构 CGRA(Coarse-Grained Reconfigurable Architecture)实现的系统化框架
- Invisible Bits:在 SRAM 模拟域中隐藏秘密信息
2022 ISCA
- TDGraph:拓扑驱动的高性能流式图处理加速器
- DIMMining:在基于 DIMM 的近内存计算架构上实现高效剪枝与并行图挖掘
- NDMiner:利用近数据处理(Near Data Processing)加速图模式挖掘
- SmartSAGE:使用存储内处理架构训练大规模图神经网络
- 面向大规模分布式图神经网络的超大规模 FPGA 即服务(FPGA-As-A-Service)架构
- Crescent:驯服内存不规则性以加速深度点云分析
- Mozart:面向 AI 及更广泛应用场景的重用暴露数据流处理器
- 面向快速可扩展深度学习推荐模型训练的软硬件协同设计
- IBM Telum 处理器上的 AI 加速器
- 大规模深度推荐模型的数据存储与摄入机制解析
- 级联结构化剪枝:提升稀疏 DNN 加速器的数据复用率
- 在加速稀疏训练中预测并消除冗余计算
- SIMD^2:超越 GEMM 的通用矩阵指令集,用于加速张量计算
- 软件定义的张量流式多处理器,面向大规模机器学习
- 面向分布式 DL 模型训练的网络带宽感知集体调度策略
- 通过多芯片架构提升伊辛机(Ising Machine)容量
- 从(GPU)零开始训练个性化推荐系统:向前看而非向后看
- AMOS:通过硬件抽象实现在空间加速器上自动映射张量计算
- Mokey:为开箱即用的浮点 Transformer 模型启用窄位宽定点推理
- 通过基于梯度的运行时学习剪枝加速注意力机制
2022 HotChips
- Groq 软件定义的横向扩展张量流式多处理器
- Boqueria:具备 1,456 个 RISC-V 核心、2 PetaFLOPs 算力、30 TeraFLOPs/W 能效的内存内推理加速设备
- DOJO:特斯拉 Exa-Scale 计算机的微架构
- DOJO —— 面向机器学习训练的超级计算系统扩展方案
- Cerebras 架构深度解析:首次揭秘深度学习的硬件/软件协同设计
2022 MICRO
- Cambricon-P:支持任意精度计算的位流架构(Bitflow Architecture)
- OverGen:通过领域特定覆盖层生成提升 FPGA 易用性
- big.VLITTLE:面向片上移动系统的按需数据并行加速
- 将点云压缩推向边缘设备
- ROG:面向机器人物联网的高性能、高鲁棒性分布式训练系统
- 面向自主无人机的领域特定 SoC 自动化设计
- GCD2:用于将 DNN 映射到移动 DSP 的全局优化编译器
- Skipper:通过激活检查点与时间跳跃实现高效的脉冲神经网络(SNN)训练
- 深入 Winograd 卷积:面向 4x4 数据块的逐抽头量化,实现高效推理
- HARMONY:面向联邦学习系统的异构感知分层管理架构
- 可适配蝴蝶加速器:通过硬件与算法协同设计加速基于注意力机制的神经网络
- DFX:低延迟多 FPGA 设备,用于加速基于 Transformer 的文本生成
- GenPIP:通过碱基识别与读段映射的紧密集成,在内存中加速基因组分析
- BEACON:支持 CXL 的近内存池可扩展近数据处理加速器,用于基因组分析
- ICE:基于 3D NAND 内存计算的智能认知引擎,用于向量相似性搜索加速
- 稀疏注意力加速:结合内存内剪枝与片上重计算的协同优化方法
- FracDRAM:在商用 DRAM 中实现分数值存储
- pLUTo:通过查找表实现在 DRAM 内的大规模并行计算
- 多层内存内处理
- Flash-Cosmos:利用 NAND 闪存固有计算能力实现闪存内按位运算
- 通过芯粒架构(Chiplet Architectures)扩展超导量子计算机
- 基于敏捷方法开发高性能 RISC-V 处理器
- 以数据为中心的高性能超图处理加速器
- DPU-v2:面向不规则有向无环图的能效执行架构
- 3D-FPIM:基于 3D NAND 闪存原位存内计算单元的极致能效 DNN 加速系统
- DeepBurning-SEG:生成具备段粒度流水线架构的 DNN 加速器
- ANT:利用自适应数值数据类型实现低位宽深度神经网络量化
- Sparseloop:一种稀疏张量加速器建模的分析方法
- Ristretto:面向 CNN 中稀疏压缩流的原子化处理架构
2023 ISSCC
- MetaVRain:133mW 实时超真实 3D-NeRF 处理器,配备 1D-2D 混合神经引擎,适用于移动端元宇宙应用
- 22nm 832KB 混合域浮点 SRAM 存内计算宏单元,能效达 16.2–70.2 TFLOPS/W,适用于高精度 AI 边缘设备
- 28nm 64KB 数字域浮点计算单元与双比特 6T-SRAM 存内计算宏单元,能效达 31.6 TFLOPS/W,适用于浮点 CNN
- 28nm 38–102 TOPS/W 8 位无乘法近似数字 SRAM 存内计算宏单元,用于神经网络推理
- 4nm 基于 SRAM 的数字存内计算宏单元,支持位宽灵活性与 MAC 和权重更新同步操作,能效达 6163 TOPS/W/b,密度达 4790 TOPS/mm²/b
- 28nm 基于水平权重移位与垂直特征移位的分离字线 6T-SRAM 存内计算宏单元,适用于边缘端深度神经网络
- 70.85–86.27 TOPS/W PVT 不敏感 8 位字级模拟存内计算(ACIM),支持后处理松弛
- CV-CIM:28nm 基于 XOR 的相似性感知存内计算宏单元,用于代价体构建
- 22nm Delta-Sigma 存内计算(ΔΣCIM)SRAM 宏单元,输出均值接近零且采用 LSB 优先 ADC,能效达 21.38 TOPS/W,适用于 8 位 MAC 边缘 AI 处理
- CTLE-Ising:基于连续时间锁存器的 1440 自旋伊辛机,支持单次全并行自旋更新与自旋态均衡
- 7nm 机器学习训练处理器,采用波形时钟分布
- 1mW 常开式计算机视觉深度学习神经决策处理器
- MulTCIM:28nm 2.24μJ/Token 注意力令牌位混合稀疏数字存内计算加速器,适用于多模态 Transformer
- 28nm 53.8 TOPS/W 8 位稀疏 Transformer 加速器,配备内存内蝴蝶零跳过器,支持非结构化剪枝神经网络及基于存内计算的局部注意力复用引擎
- 28nm 16.9–300 TOPS/W 存内计算处理器,支持浮点神经网络推理/训练,采用密集存内计算稀疏数字架构
- TensorCIM:28nm 3.7nJ/Gather 与 8.3 TFLOPS/W FP32 数字存内计算张量处理器,适用于 MCM-CIM 架构下的超越神经网络加速
- DynaPlasia:基于 eDRAM 存内计算的可重构空间加速器,配备三模式单元,支持动态资源切换
- 非易失性 AI 边缘处理器,配备 4MB SLC-MLC 混合模式 ReRAM 存内计算宏单元,能效达 51.4–251 TOPS/W
- 40–310 TOPS/W 基于 SRAM 的全数字最高 4 位存内计算多瓦片神经网络加速器,采用 FD-SOI 18nm 工艺,适用于深度学习边缘应用
- 12.4 TOPS/W @ 136 GOPS AI-IoT 片上系统,集成 16 个 RISC-V 核心、2 至 8 位精度可扩展 DNN 加速器及 30% 性能提升的自适应体偏置技术
- 28nm 2D/3D 统一稀疏卷积加速器,配备块级邻域搜索器,适用于大规模体素化点云网络
- 127.8 TOPS/W 任意量化 1 至 8 位精度可扩展通用深度学习加速器,减少存储、逻辑与延迟浪费
- 28nm 11.2 TOPS/W 硬件利用率感知神经网络加速器,支持动态数据流
- C-DNN:24.5–85.8 TOPS/W 互补深度神经网络处理器,采用异构 CNN/SNN 核心架构及基于前向梯度的稀疏性生成
- ANP-I:28nm 1.5pJ/SOP 异步脉冲神经网络处理器,支持亚 0.1μJ/样本片上学习,适用于边缘 AI 应用
- DL-VOPU:能效导向的领域专用深度学习视觉对象处理单元,支持多尺度语义特征提取,适用于移动端目标检测/跟踪
- 0.81mm² 740μW 实时语音增强处理器,采用无乘法器 PE 阵列,适用于 28nm CMOS 助听器
- 12nm 18.1 TFLOPs/W 稀疏 Transformer 处理器,配备基于熵的早退机制、混合精度预测与细粒度功耗管理
2023 HPCA
- SGCN:在深度图卷积网络加速器中利用压缩稀疏特征(Compressed-Sparse Features)
- PhotoFourier:基于光子联合变换相关器(Photonic Joint Transform Correlator)的神经网络加速器
- INCA:以输入驻留数据流(Input-stationary Dataflow)重新思考深度学习加速器设计
- GROW:面向内存高效图卷积神经网络的行驻留稀疏-稠密矩阵乘法(Sparse-Dense GEMM)加速器
- 深度学习训练中逻辑/物理拓扑感知的集体通信机制
- Sibia:支持切片级稀疏性利用的密集 DNN 加速有符号位切片架构(Signed Bit-slice Architecture)
- Baryon:结合压缩与子块划分的高效混合内存管理方案
- iCACHE:基于重要性采样(Importance-Sampling)的缓存机制,用于加速 I/O 密集型 DNN 模型训练
- HIRAC:面向 DNN 应用中稀疏矩阵乘法(SpGEMMs)的分层加速器,采用基于排序的打包策略
- VEGETA:在 CPU 上实现稀疏/稠密矩阵乘法分块加速的垂直集成扩展架构
- ViTCoD:通过专用算法与加速器协同设计加速视觉 Transformer(Vision Transformer)
- 利用领域信息实现深度学习加速器的高效自动化设计
- DIMM-Link:为近内存计算(Near-Memory Processing)启用高效的 DIMM 间通信
- Post0-VR:通过挖掘架构相似性与数据共享,实现现代 VR 的通用真实感渲染
- ParallelNN:基于并行八叉树(Octree)的 3D 点云最近邻搜索加速器
- ViTALiTy:结合低秩与稀疏近似,使用线性泰勒注意力(Linear Taylor Attention)统一加速视觉 Transformer
- CTA:压缩令牌注意力机制(Compressed Token Attention Mechanism)的软硬件协同设计
- HeatViT:面向视觉 Transformer 的硬件高效自适应令牌剪枝方案
- GraNDe:面向图卷积网络的近数据处理架构,支持自适应矩阵映射
- DeFiNES:通过解析建模快速探索 DNN 加速器的深度优先调度空间
- CEGMA:面向图匹配网络的协调弹性图匹配加速方案
- ISOSceles:通过层间流水线加速稀疏 CNN
- OptimStore:利用片上处理(On-Die Processing)优化大规模 DNN 的存储内计算
- MERCURY:通过挖掘输入相似性加速 DNN 训练
- Dalorex:面向内存受限应用的数据本地化程序执行与架构
- eNODE:面向神经常微分方程(Neural ODEs)的能效高、低延迟边缘推理与训练方案
- MoCA:面向多租户深度神经网络的以内存为中心的自适应执行方案
- Mix-GEMM:面向边缘设备混合精度量化 DNN 推理的高效软硬件架构
- FlowGNN:面向实时、工作负载无关的图神经网络推理的数据流架构
- Chimera:面向计算密集型算子融合的有效分析优化框架
- Securator:快速且安全的神经处理单元(Neural Processing Unit)
2023 ASPLOS
- 在大型深度学习模型中通过分解实现通信与依赖计算的重叠
- Heron:自动约束的高性能库生成工具,专为深度学习加速器设计
- TelaMalloc:面向生产级机器学习加速器的高效片上内存分配器
- EVStore:为深度推荐系统中嵌入表(Embedding Tables)扩展提供存储与缓存能力
- WACO:学习工作负载感知的稀疏张量程序格式与调度协同优化
- GRACE:基于可扩展图结构的方法,加速推荐模型推理
- 将超大规模脉冲神经元网络映射至神经形态硬件
- HuffDuff:从稀疏加速器中窃取已剪枝的 DNN 模型
- ABNDP:在近数据处理中协同优化数据访问与负载均衡
- Infinity Stream:可移植且对程序员友好的内存内/近内存融合方案
- Flexagon:面向高效 DNN 处理的多数据流稀疏-稀疏矩阵乘法加速器
- 通过动态反射分块(Dynamic Reflexive Tiling)加速稀疏数据编排
- SPADA:利用自适应数据流加速稀疏矩阵乘法
- SparseTIR:面向深度学习稀疏编译的可组合抽象
- Hidet:面向深度学习张量程序的任务映射编程范式
- 稀疏抽象机(The Sparse Abstract Machine)
- Homunculus:为数据中心网络自动生成高效数据平面机器学习流水线
- TensorIR:自动张量化程序优化的抽象接口
- FLAT:优化数据流以缓解注意力瓶颈
- TLP:基于深度学习的张量程序调优成本模型
- Betty:通过批次级图划分(Batch-Level Graph Partitioning)支持大规模 GNN 训练
- 面向分布式训练的透明传输网络内聚合
- Optimus-CC:结合三维并行与通信压缩,高效训练大型 NLP 模型
- DPACS:通过算法-架构协同设计实现动态神经网络剪枝的硬件加速
- Lucid:非侵入式、可扩展且可解释的深度学习训练任务调度器
- ElasticFlow:面向分布式深度学习的弹性无服务器训练平台
- 超大规模硬件优化的神经架构搜索(Neural Architecture Search)
- MP-Rec:硬件-软件协同设计,支持多路径推荐系统
2023 ISCA
- OliVe:通过硬件友好的“异常值-受害者对”量化(Outlier-Victim Pair Quantization)加速大语言模型
- FACT:采用积极相关性预测的 FFN-Attention 协同优化 Transformer 架构(FFN-Attention Co-optimized Transformer Architecture)
- Mystique:支持精确且可扩展生成生产级 AI 基准测试的系统
- 通过跨层级近内存处理加速个性化推荐
- 理解并缓解深度学习训练系统中的硬件故障
- LAORAM:面向大规模嵌入表训练的前瞻型 ORAM 架构(Look Ahead ORAM Architecture)
- 面向大规模推荐系统的 CPU 性能优化
- SPADE:支持 SpMM 和 SDDMM 的灵活可扩展加速器
- MESA:用于空间架构生成的微架构扩展(Microarchitecture Extensions for Spatial Architecture Generation)
- FDMAX:用于求解偏微分方程的弹性加速器架构
- RSQP:面向加速凸二次优化的问题定制化架构设计
- ECSSD:面向极端分类任务的硬件/数据布局协同设计的存内计算架构(In-Storage-Computing Architecture)
- SAC:面向多芯片 GPU 的共享感知缓存机制(Sharing-Aware Caching)
- SCALO:面向可扩展脑机接口的富加速器分布式系统
- ETTE:基于张量列(Tensor-Train)的高效深度神经网络计算引擎
- TaskFusion:面向多任务自然语言处理的高效迁移学习架构,具备双增量稀疏性(Dual Delta Sparsity)
- 面向分块加速器的层间调度空间定义与探索
- ArchGym:用于机器学习辅助架构设计的开源仿真平台(Open-Source Gymnasium)
- V10:硬件辅助的 NPU 多租户机制,提升资源利用率与公平性
- RAELLA:无需重训练!重塑算术运算以实现高效、低分辨率、低损耗的模拟存内计算(Analog PIM)
- MapZero:结合强化学习与蒙特卡洛树搜索(Monte-Carlo Tree Search),为粗粒度可重构架构(Coarse-grained Reconfigurable Architectures)进行映射优化
- TPU v4:支持光学重构与嵌入硬件加速的机器学习超级计算机
- AMD 超算征程的研究回顾
- MTIA:第一代专为 Meta 推荐系统设计的硅芯片
- 利用共享微指数(Shared Microexponents),少量移位即可大幅提升性能
2023 MICRO
- AuRORA:面向多租户工作负载的虚拟化加速器编排系统
- UNICO:统一的软硬件协同优化框架,用于鲁棒神经网络加速
- Spatula:面向稀疏矩阵分解的硬件加速器
- Eureka:面向单侧非结构化稀疏 DNN 推理的高效张量核心
- RM-STC:受行合并数据流启发的 GPU 稀疏张量核心,实现节能稀疏加速
- Sparse-DySta:面向稀疏多 DNN 工作负载的稀疏感知动态与静态调度
- MAICC:轻量级多核架构,结合缓存内计算(In-Cache Computing),支持多 DNN 并行推理
- SRIM:面向一元计算(Unary Computing)的脉动式随机递增存储架构
- 通过交错梯度顺序提升 NPU 片上内存在 DNN 训练中的数据复用效率
- TT-GNN:通过嵌入重构与硬件优化实现高效的片上图神经网络训练
- Si-Kintsugi:修复有缺陷的多核空间架构,恢复类黄金性能,适用于 AI 应用
- Bucket Getter:基于桶的处理引擎,支持低比特块浮点数(Block Floating Point, BFP)DNN
- ADA-GP:通过自适应梯度预测加速 DNN 训练
- HighLight:利用层次化结构稀疏性实现高效灵活的 DNN 加速
- 利用复数固有特性加速复数值神经网络
- 通过挖掘几何局部性加速点云处理
- HARP:基于硬件的伪分块技术,用于稀疏矩阵乘法加速器
- TeAAL:用于建模稀疏张量加速器的声明式框架
- TileFlow:基于树分析的融合数据流建模框架
2023 HotChips
- SK 海力士领域专用内存(Domain-Specific Memory)驱动的以内存为中心的计算
- 三星 AI 集群系统:结合 HBM-PIM 与基于 CXL 的近内存处理,面向 Transformer 架构的大语言模型
- 具备光学可重构互连与嵌入支持的机器学习超级计算机
- 深入剖析 Cerebras 晶圆级集群
- IBM NorthPole 神经推理机
- Moffett Antoum:面向视觉与大语言模型的深度稀疏 AI 推理片上系统(System-on-Chip)
- Qualcomm® Hexagon™ NPU
2024 ISSCC
- ATOMUS:面向延迟敏感型应用的 5nm 32TFLOPS/128TOPS 机器学习片上系统(System-on-Chip, SoC)
- AMD MI300 模块化小芯片(Chiplet)平台——面向百亿亿次级(Exa-Class)系统的高性能计算与 AI 加速器
- 采用面对面晶圆键合(Face-to-Face Wafer-Bonded)7nm 逻辑工艺、间距小于 10μm 的三维集成原型片上系统,用于增强现实应用,在相同面积下实现最高 40% 能耗降低
- Metis AIPU:面向边缘端低成本、高能效推理的 12nm 15TOPS/W 209.6TOPS 片上系统
- IBM NorthPole:基于 12nm 芯片的神经网络推理架构
- NVE:面向智能设备高分辨率视觉质量增强的 3nm 23.2TOPS/W 12 位数字存内计算(Computing-in-Memory, CIM)神经引擎
- 一款 28nm 74.34TFLOPS/W BF16 异构存内计算加速器,利用去噪相似性优化扩散模型
- 一款 14nm 异构嵌入式 MPU 中支持 16× 性能可调剪枝的 23.9TOPS/W @ 0.8V、130TOPS AI 加速器,适用于实时机器人应用
- 一款 28nm 物理计算单元(Physics Computing Unit),支持新兴物理信息神经网络(Physics-Informed Neural Network)与有限元法(Finite Element Method),用于边缘设备上的实时科学计算
- C-Transformer:面向大语言模型的 2.6 至 18.1μJ/Token 同构 DNN-Transformer/脉冲 Transformer 处理器,具备大小网络架构与隐式权重生成机制
- LSPU:全集成实时 LiDAR-SLAM 片上系统,配备点神经网络分割与多级 kNN 加速
- NeuGPU:采用分段哈希架构的 18.5mJ/Iter 神经图形处理单元(Neural-Graphics Processing Unit),支持即时建模与实时渲染
- Space-Mate:面向移动空间计算的 303.5mW 实时稀疏专家混合(Sparse Mixture-of-Experts)NeRF-SLAM 处理器
- 一款 28nm 83.23TFLOPS/W 基于 POSIT 格式的存内计算宏单元,适用于高精度 AI 应用
- 一款 16nm 96Kb 整数-浮点双模式增益单元存内计算宏单元,能效达 73.3–163.3TOPS/W 和 33.2–91.2TFLOPS/W,适用于 AI 边缘设备
- 一款 22nm 64kb 类闪电混合存内计算宏单元,配备压缩加法树与模拟存储量化器,适用于 Transformer 与 CNN
- 一款 3nm 全数字存内计算宏单元,支持 INT12 x INT12 并行 MAC 架构与代工厂 6T SRAM 存储单元,性能达 32.5 TOPS/W、55.0 TOPS/mm²、3.78 Mb/mm²
- 一款 818–4094 TOPS/W 电容重构存内计算宏单元,统一加速 CNN 与 Transformer
- 一款 28nm 72.12-TFLOPS/W 基于外积的混合域浮点 SRAM 存内计算宏单元,配备对数位宽折叠 ADC
- 一款 28nm 2.4Mb/mm²、6.9–16.3 TOPS/mm² 基于 eDRAM-LUT 的数字存内计算宏单元,支持内存内编码与刷新
- 一款 22nm 16Mb 浮点 ReRAM 存内计算宏单元,能效达 31.2 TFLOPS/W,适用于 AI 边缘设备
- 一款 Flash-SRAM-ADC 融合的“塑性”存内计算宏单元,支持标准 14nm FinFET 工艺下的神经网络学习
2024 HPCA
- 面向 GPU 的带存储级内存(Storage-Class Memory)的高带宽效率 DRAM 缓存
- Gemini:面向大规模 DNN 小芯片加速器的映射与架构协同探索
- STELLAR:基于时空计算的能效高、低延迟脉冲神经网络(Spiking Neural Network, SNN)算法与硬件协同设计
- MIMDRAM:端到端基于 DRAM 的处理系统,支持高吞吐、高能效、程序员透明的多指令多数据(Multiple-Instruction Multiple-Data, MIMD)计算
- 通过解析商用 PIM 技术探索未来存内计算(Processing-in-Memory, PIM)架构路径
- 在真实 DRAM 芯片中实现功能完备布尔逻辑:实验表征与分析
- StreamPIM:在赛道存储器(Racetrack Memory)中进行流式矩阵计算
- SmartDIMM:内存内上层协议加速
- BeaconGNN:基于异步存储内计算的大规模图神经网络(Graph Neural Network, GNN)加速
- Smart-Infinity:在真实系统上使用近存储处理(Near-Storage Processing)加速大型语言模型训练
- FlashGNN:面向 GNN 训练的 SSD 内加速器
- DockerSSD:面向计算型 SSD 的容器化存储内处理与硬件加速
- SPADE:面向自动驾驶的基于稀疏柱体的 3D 目标检测加速器
- Rapper:面向区块链存储平台的参数感知内存内修复加速器
- MOPED:支持灵活维度的高效运动规划引擎
- TALCO:利用回溯指针收敛的基因组序列比对分块方法
- ECO-CHIP:面向可持续超大规模集成电路(VLSI)的小芯片架构碳足迹估算
- Lightening-Transformer:动态操作、光互连的光子 Transformer 加速器
- SACHI:一种稳态感知、全数字、近缓存的 Ising 架构
- BitWave:利用列级比特稀疏性加速深度学习
- LUTein:基于 Radix-4 LUT 的密集-稀疏位切片架构与切片张量处理单元
- FIGNA:基于整数单元的 FP-INT GEMM 加速器设计,在保持数值精度前提下提升性能
- ASADI:利用对角线原位计算加速稀疏注意力
- 基于 LPDDR 的 CXL-PNM 平台,实现总拥有成本(TCO)优化的 GPT 推理
- HotTiles:利用异构加速器架构加速稀疏矩阵乘法(SpMM)
- SPARK:通过高效编码实现可扩展、精度感知的神经网络加速
- 数据移动加速:跨域多加速器链式协作
- RELIEF:通过数据移动感知的加速器调度缓解 SoC 内存压力
2024 ASPLOS
- SpecInfer:基于树结构的推测推理与验证,加速大语言模型服务
- ExeGPT:面向大语言模型推理的约束感知资源调度
- Proteus:支持精度缩放的高吞吐推理服务系统
- SpotServe:在可抢占实例上部署生成式大语言模型
- MAGIS:通过协同图变换与调度实现深度神经网络的内存优化
- 面向边缘加速器的 8 位 Transformer 推理与微调
- Cocco:面向内存容量-通信协同优化的硬件映射联合探索
- Atalanta:一位比特价值“千”个张量值
- Harp:利用准序列特性加速长读段的序列到图映射
- GSCore:通过架构支持 3D 高斯点绘(Gaussian Splatting)实现高效辐射场渲染
- BeeZip:迈向有组织且可扩展的数据压缩架构
- ACES:通过自适应执行流与并发感知缓存优化加速稀疏矩阵乘法
- Explainable-DSE:基于瓶颈分析的敏捷、可解释深度学习加速器软硬件协同设计探索
- AttAcc! 利用存内计算(PIM, Processing-In-Memory)释放批处理 Transformer 生成模型推理潜力
- SpecPIM:通过架构-数据流协同探索,在支持 PIM 的系统上加速推测推理
- PIM-DL:通过算法-系统协同优化拓展商用 DRAM-PIM 在深度学习中的适用性
- NeuPIMs:面向批处理大语言模型推理的 NPU-PIM 异构加速
- FEASTA:面向机器学习稀疏张量代数的灵活高效加速器
- CMC:通过编解码器辅助矩阵压缩加速视频 Transformer
- Tandem Processor:应对神经网络中新兴算子的处理器
- Carat:为无乘法器 GEMM 解锁值级并行性
- ORIANNA:面向基于优化的机器人应用的加速器生成框架
- SmartMem:通过布局转换消除与适配,提升移动端 DNN 执行效率
- Dr. DNA:利用神经元激活分布对抗深度学习中的静默数据损坏
- RECom:通过编译方法加速含海量嵌入列的推荐模型推理
- NDPipe:利用近数据处理(Near-data Processing)实现照片存储中的可扩展推理与持续训练
- Fractal:联合多层级稀疏模式调优以平衡 DNN 剪枝的精度与性能
- 通过即时微内核聚合优化动态形状神经网络在加速器上的执行
- DTC-SpMM:利用 Tensor Core 加速通用稀疏矩阵乘法的桥梁技术
- SoD2:静态优化动态深度神经网络执行
- BVAP:面向带限界重复正则表达式的节能高效自动机处理
- IANUS:基于 NPU-PIM 统一内存系统的集成加速器
- PIM-STM:面向存内计算系统的软件事务内存
- CIM-MLC:面向存算一体(Computing-In-Memory)加速器的多层级编译栈
2024 HotChips
- NVIDIA Blackwell GPU:推动生成式 AI 与加速计算发展
- SambaNova SN40L RDU:突破万亿参数以上规模生成式 AI 计算壁垒
- 微小架构优化对大规模生成式 AI 系统产生巨大影响
- AMD Instinct MI300X 生成式 AI 加速器与平台架构
- 采用光学连接的 AI 计算 ASIC,助力下一代横向扩展架构
- RNGD:张量收缩处理器
- 下一代 AMD Versal AI Edge 系列,面向视觉与汽车应用
- Onyx:面向稀疏张量代数的可编程加速器
- 下一代 MTIA — Meta 的推荐推理加速器
2024 ISCA
- ReAIM:基于 ReRAM 的自适应 Ising 机,用于求解组合优化问题
- Splitwise:利用阶段拆分实现高效生成式大语言模型推理
- 注意鸿沟:张量算法可达的数据移动与运算强度边界
- 支持数据重排序的可重构加速器,实现低成本片上数据流切换
- 晶圆级网络交换机
- PID-Comm:面向商用 DIMM 内处理(Processing-in-DIMMs)的快速灵活集合通信框架
- PreSto:面向推荐模型训练的存储内数据预处理系统
- pSyncPIM:面向全 Bank PIM 架构的稀疏矩阵操作部分同步执行
- NDSearch:通过近数据处理加速基于图遍历的近似最近邻搜索
- 利用近 CXL 内存处理实现高效大规模推荐模型训练
- 在 3D 混合键合架构上挖掘新兴 AI 模型的相似性机遇
- NDPBridge:在近 DRAM Bank 处理架构中实现跨 Bank 协同
- UM-PIM:基于 DRAM 的统一共享内存空间 PIM
- MegIS:利用存储内处理实现高性能低成本宏基因组分析
- 非易失性存内计算(PiM)的纠错机制
- MAD Max 超越单节点:在分布式系统上加速大规模机器学习模型
- Cambricon-D:扩散模型的全网络差分加速
- Flagger:面向大规模跨孤岛联邦学习聚合的协同加速
- Trapezoid:适用于稠密与稀疏矩阵乘法的多功能加速器
- NeuraChip:基于哈希解耦空间架构加速 GNN 计算
- Soter:面向空间加速器的解析式张量架构建模与自动张量程序调优
- ALISA:通过稀疏感知 KV 缓存加速大语言模型推理
- Pre-gated MoE:面向快速可扩展专家混合(Mixture-of-Expert)推理的算法-系统协同设计
- MECLA:通过子矩阵分区缩放实现内存-计算高效的大语言模型加速器
- Tender:通过张量分解与运行时重量化加速大语言模型
- 推荐系统训练的异构加速流水线
- LLMCompass:为大语言模型推理实现高效硬件设计
2024 MICRO
- CamPU:面向深度学习的 3D 空间计算系统的多摄像头处理单元(Multi-Camera Processing Unit)
- AdapTiV:基于符号相似性的图像自适应 Token 合并方法,用于视觉 Transformer 加速
- Fusion-3D:即时 3D 重建与实时渲染的集成加速方案
- 内存系统基准测试、仿真与应用性能分析的混乱现状
- Stellar:面向密集型与稀疏型空间加速器的自动化设计框架
- LUCIE:支持即插即用集成的通用芯粒-中介层(Chiplet-Interposer)设计框架
- SRender:通过感知敏感度的动态精度渲染提升神经辐射场效率
- EMP:通过原语化(Primitivization)实现高效的 4 位矩阵运算单元
- BBS:双向比特级稀疏性加速深度学习
- SCAR:在异构多芯粒模块加速器上调度多模型 AI 工作负载
- SCALE:面向消息传递图神经网络的结构中心加速器
- 在 CXL 内存扩展器中实现低开销的通用近数据处理(Near-Data Processing)
- PIFS-Rec:基于 Fabric 交换机内处理的大规模推荐系统推理架构
- PIM-MMU:用于加速商用存内计算(Processing-in-Memory, PIM)系统数据传输的内存管理单元
- Azul:利用分布式片上内存加速稀疏迭代求解器的加速器
- FloatAP:在关联处理器(Associative Processors)中支持高性能浮点运算
- COMPASS:基于 SRAM 的存内计算脉冲神经网络(SNN)加速器,具备自适应脉冲预测机制
- SOFA:通过跨阶段协同分块实现计算-内存优化的稀疏性加速器
- Leviathan:面向通用近数据计算的统一系统
- TMiner:面向图模式挖掘的顶点级任务调度架构
- PointCIM:面向深度点云分析的存内计算架构
- SambaNova SN40L:通过数据流与专家组合突破 AI 内存墙限制
- Duplex:支持专家混合(Mixture of Experts)、分组查询注意力(Grouped Query Attention)和连续批处理(Continuous Batching)的大语言模型设备
- VGA:可扩展长序列模型推理的硬件加速器
- FuseMax:利用扩展爱因斯坦求和(Extended Einsums)优化注意力加速器设计
- FlashLLM:基于芯粒的闪存内计算架构,支持 70B 大语言模型的端侧推理
- GauSPU:面向实时 SLAM 系统的 3D 高斯泼溅(Gaussian Splatting)处理器
- PyPIM:从微架构设计到 Python 张量全面集成数字存内计算
- 基于流的数据布局策略,支持扩展内存的近数据处理
- FiboCIM:基于斐波那契编码电荷域 SRAM 的存内计算加速器,用于 DNN 推理
- MeMCISA:面向数据库系统的忆阻器使能内存为中心指令集架构(Memristor-enabled Memory-Centric Instruction-Set Architecture)
2025 ISSCC
- 基于形状感知混合架构、早期计算跳过与高斯缓存调度器的 3D GS 处理器,功耗仅 1.78mJ/帧,达 373fps
- IRIS:一款 8.55mJ/帧的空间计算 SoC,支持可交互渲染与表面感知建模,采用 3D 高斯泼溅技术
- 16nm 工艺、216kb 容量、188.4TOPS/W 与 133.5TFLOPS/W 效能的微缩多模式增益单元存内计算宏,适用于边缘 AI 设备
- 接近稀疏性理论极限、复合 AI 模型精度损失 <2-30%、能效达 51.6TFLOPs/W 的全数据路径存内计算宏
- RNGD:5nm 工艺张量收缩处理器,为大语言模型提供高能效推理
- 4nm 旗舰移动 SoC 中集成的生成式 AI 专用神经处理单元,采用扇出型晶圆级封装(Fan-Out Wafer-Level Package)
- SambaNova SN40L:5nm 2.5D 数据流加速器,配备三级内存,支持万亿参数 AI 模型
- T-REX:16nm FinFET 工艺下,每 Token 耗时 68
567μs、能耗 0.413.95μJ,通过减少外部内存访问与增强硬件利用率的 Transformer 加速器 - 28nm 工艺、0.22μJ/Token、感知计算强度的 CNN-Transformer 加速器,采用基于混合注意力的层融合与级联剪枝,用于语义分割
- EdgeDiff:支持混合精度与重排序分组量化,每推理仅 418.4mJ 的多模态少步扩散模型加速器
- Nebula:28nm 工艺、109.8TOPS/W 的 3D 概率神经网络(PNN)加速器,具备自适应分区、多重跳过与块级聚合特性
- MAE:3nm 工艺、0.168mm² 面积、576MAC 的微型自动编码器,采用行优先深度优先调度,面向边缘设备视觉生成 AI
- MEGA.mini:采用新型大/小核架构的通用生成式 AI 处理器,专为 NPU 设计
- BROCA:52.4~559.2mW 功耗的移动社交代理 SoC,配备自适应比特截断单元与声学聚类比特分组
- 88.36TOPS/W 比特级权重压缩大语言模型加速器,支持簇对齐 INT-FP-GEMM 与二维工作流重构
- Slim-Llama:支持二值/三值权重、功耗仅 4.69mW 的十亿参数 Llama 模型大语言模型处理器
- HuMoniX:57.3fps、12.8TFLOPS/W 的文生动作处理器,具备跨迭代输出稀疏性与跨帧关节相似性
- 22nm 工艺、60.81TFLOPS/W 的扩散模型加速器,采用带宽感知内存分区与 BL 分段存内计算,高效支持多任务内容生成
2025 HPCA
- eDKM:面向大语言模型训练阶段的高效精确权重聚类方法
- SoMA:识别、探索并理解面向 DNN 加速器的 DRAM 通信调度空间
- LUT-DLA:以查找表(Lookup Table)为基础的极低比特深度学习加速器
- BitMoD:比特串行混合数据类型大语言模型加速
- FIGLUT:利用查找表实现 FP-INT GEMM 的高能效加速器设计
- MANT:通过数学自适应数值类型实现大语言模型的高效低比特分组量化
- 提升大规模 AI 训练效率:C4 方案实现实时异常检测与通信优化
- 重新审视大规模机器学习研究集群中的可靠性问题
- Anda:通过可变长度分组激活数据格式解锁高效大语言模型推理
- LAD:利用局部性感知解码(Locality Aware Decoding)高效加速大语言模型生成式推理
- VQ-LLM:面向向量量化增强大语言模型推理的高性能代码生成方案
- InstAttention:存储内注意力卸载,实现低成本长上下文大语言模型推理
- PIMnet:面向可扩展存内计算的领域专用高效集体通信网络
- EIGEN:通过异构双层主动中介层网络(Network-on-Active-Interposer)实现高效 3DIC 互连
- PAISE:面向 Transformer 大语言模型的存内计算加速推理调度引擎
- FACIL:面向 SoC-PIM 协同端侧大语言模型推理的灵活 DRAM 地址映射方案
- Lincoln:在消费级设备上实现实时 50~100B 大语言模型推理,采用 LPDDR 接口、支持计算的闪存
- 让每个人都能负担得起大语言模型推理:利用 NDP-DIMM 扩展 GPU 内存
2025 ASPLOS
- DynaX:通过动态 X:M 细粒度结构化剪枝实现稀疏注意力加速(Sparse Attention Acceleration)
- ReCA:面向实时高效协作具身自主智能体的集成加速系统(Integrated Acceleration for Real-Time and Efficient Cooperative Embodied Autonomous Agents)
- Fast On-device LLM Inference with NPUs:利用神经处理单元(NPU)实现设备端大语言模型(LLM)快速推理
- Helix:通过最大流算法在异构 GPU 与网络上部署大语言模型
- FlexSP:通过灵活序列并行(Flexible Sequence Parallelism)加速大语言模型训练
- Spindle:通过波前调度(Wavefront Scheduling)实现多任务大模型的高效分布式训练
- Concerto:面向大规模深度学习的自动通信优化与调度系统
- MoE-Lightning:在内存受限 GPU 上实现高吞吐量专家混合模型(MoE)推理
- FSMoE:面向稀疏专家混合模型(Sparse Mixture-of-Experts Models)的灵活可扩展训练系统
- CoServe:在有限内存下实现专家协作模型(Collaboration-of-Experts, CoE)的高效推理
- Klotski:通过专家感知多批次流水线实现高效的专家混合模型推理
- MoC-System:面向稀疏专家混合模型训练的高效容错系统
- Accelerating LLM Serving for Multi-turn Dialogues with Efficient Resource Management:通过高效资源管理加速多轮对话场景下的大语言模型服务
- COMET:迈向实用化的 W4A4KV4 大语言模型服务
- Past-Future Scheduler for LLM Serving under SLA Guarantees:在服务等级协议(SLA)保障下的大语言模型服务“过去-未来”调度器
- POD-Attention:通过解锁完整的预填充-解码重叠(Prefill-Decode Overlap)加速大语言模型推理
- TAPAS:面向云平台大语言模型推理的热与功耗感知调度器
- PAPI:基于存内计算(Processing-In-Memory)系统的动态并行性挖掘,加速大语言模型解码
- Be CIM or Be Memory: A Dual-mode-aware DNN Compiler for CIM Accelerators:面向存内计算加速器的双模式感知深度神经网络编译器
2025 ISCA
- WSC-LLM:面向晶圆级芯片的大语言模型服务与架构协同探索
- FRED:用于三维并行深度神经网络训练的晶圆级互连架构
- PD Constraint-aware Physical/Logical Topology Co-Design for Network on Wafer:面向晶圆上网络的功耗密度约束感知物理/逻辑拓扑协同设计
- H2-LLM:面向低批次大语言模型推理的异构混合键合硬件-数据流协同探索
- HiPER:面向高效机器人学习控制的层次化组合式处理架构
- Dadu-Corki:面向具身人工智能驱动机器人操作的算法-架构协同设计
- SpecEE:通过推测性早退(Speculative Early Exiting)加速大语言模型推理
- Oaken:通过在线-离线混合 KV 缓存量化实现快速高效的大语言模型服务
- Chimera:面向大语言模型混合并行的通信融合技术
- LUT Tensor Core:基于查找表(LUT)的低位宽大语言模型推理软硬件协同设计
- AiF:利用闪存内处理(In-Flash Processing)加速设备端大语言模型推理
- LIA:通过支持 AMX 的 CPU-GPU 协同计算与 CXL 卸载,在单 GPU 上加速大语言模型推理
- Cramming a Data Center into One Cabinet: A Co-Exploration of Computing and Hardware Architecture of Waferscale Chip:将数据中心压缩进一个机柜:晶圆级芯片的计算与硬件架构协同探索
- Ecco:通过熵感知缓存压缩提升大语言模型的内存带宽与容量
- Hybe:支持百万 Token 上下文窗口的 GPU-NPU 混合系统,实现高效大语言模型推理
- MeshSlice:面向分布式深度神经网络训练的高效二维张量并行
- AIM:面向高性能存内计算(PIM)架构级 IR 压降缓解的软硬件协同设计
- OptiPIM:使用整数线性规划优化存内计算加速
- HeterRAG:面向检索增强生成(Retrieval-augmented Generation)的异构存内计算加速
- ATiM:面向 DRAM 内处理的张量程序自动调优
- Hybrid SLC-MLC RRAM Mixed-Signal Processing-in-Memory Architecture for Transformer Acceleration via Gradient Redistribution:通过梯度重分布实现 Transformer 加速的混合 SLC-MLC RRAM 模拟存内计算架构
- MagiCache:虚拟缓存内计算引擎
- AMALI:面向现代 GPU 上大语言模型推理的精确分析建模
- MicroScopiQ:通过异常值感知微缩放量化加速基础模型
- HYTE:通过静态-动态混合方法实现稀疏加速器的灵活分块
- NUPEA:通过非均匀处理单元访问优化空间数据流架构上的关键负载
- Meta's Second Generation AI Chip: Model-Chip Co-Design and Productionization Experiences:Meta 第二代 AI 芯片:模型-芯片协同设计与量产经验
- Scaling Llama 3 Training with Efficient Parallelism Strategies:通过高效并行策略扩展 Llama 3 训练规模
- Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures:DeepSeek-V3 洞察:AI 架构扩展挑战与硬件反思
- BingoGCN:通过细粒度分区与 SLT 实现可扩展高效的图神经网络(GNN)加速
2025 HotChips
- Memory: (Almost) the Only Thing That Matters:内存:(几乎)唯一重要的事情
- UB-Mesh:华为下一代 AI 超级计算机,采用统一总线互连与 nD 全网格架构
- Corsair - An In-memory Computing Chiplet Architecture for Inference-time Compute Acceleration:Corsair —— 面向推理时计算加速的存内计算芯粒架构
- NVIDIA's GB10 SoC: AI Supercomputer On Your Desk:NVIDIA GB10 SoC:桌面上的 AI 超级计算机
- 4th Gen AMD CDNA™ Generative AI Architecture Powering AMD Instinct™ MI350 Series Accelerators and Platforms:第四代 AMD CDNA™ 生成式 AI 架构,驱动 AMD Instinct™ MI350 系列加速器与平台
- Ironwood : Delivering best in class perf, perf/TCO and perf/Watt for reasoning model training and serving:Ironwood:为推理模型训练与服务提供业界领先的性能、性能/总拥有成本比及性能/瓦特比
2025 MICRO
- Stratum:面向高效 MoE(专家混合模型)服务的系统-硬件协同设计,采用分层单片 3D 堆叠 DRAM。(加州大学圣地亚哥分校、佐治亚理工学院、伊利诺伊大学厄巴纳-香槟分校、伊利诺伊理工学院)
- Kelle:面向边缘计算中高效 LLM(大语言模型)服务的 KV 缓存与 eDRAM 协同设计。(纽约大学)
- LongSight:通过稀疏注意力机制加速大上下文 LLM 的计算使能内存方案。(康奈尔大学)
- ComPASS:面向处理器-PIM(存内计算)协作的兼容性 PIM 协议架构与调度解决方案。(仁荷大学)
- PIM-CCA:集成优化可配置功能单元的高效 PIM 架构。(延世大学、KAIST、汉阳大学)
- 3D-PATH:具备热感知混合键合集成的层次化 LUT(查找表)存内计算加速器。(清华大学、上海交通大学)
- DECA:基于 3D Roofline 模型的近核 LLM 解压缩加速器。(英特尔、UIUC)
- StreamTensor:让张量在面向 LLM 的数据流加速器中流动。(UIUC、Inspirit IoT)
- Chameleon:面向多适配器 LLM 推理环境的自适应缓存与调度。(UIUC、IBM 研究院)
- Coruscant:GPU 内核与稀疏张量核心协同设计,推动非结构化稀疏性在高效 LLM 推理中的应用。(马里兰大学、d-Matrix)
- 通过 PIM 与 PNM 集成加速检索增强语言模型。(延世大学、圣塔克拉拉大学)
- HEAT:面向 Transformer 增强图神经网络的 NPU-NDP 异构架构。(上海交通大学、中国科学院)
- RayN:利用近内存计算加速光线追踪。(不列颠哥伦比亚大学)
- Pimba:面向后 Transformer 大语言模型服务的存内计算加速方案。(KAIST、乌普萨拉大学、佐治亚理工学院)
- GateBleed:利用片上加速器电源门控实现高性能并发动隐蔽攻击于 AI 系统。(北卡罗来纳州立大学、英特尔)
- Athena:在全同态加密下加速量化卷积神经网络。(中国科学院计算技术研究所、电子科技大学)
- ccAI:面向 AI 计算的兼容且保密的系统。(科技大学、香港理工大学、蚂蚁集团、南方科技大学)
- Ironman:利用近内存处理加速隐私保护 AI 中的不经意传输扩展。(北京大学、密码科学技术国家重点实验室、阿里巴巴集团、清华大学)
- S-DMA:通过空间感知预测与维度自适应数据流加速稀疏扩散模型。(东南大学)
- LLM.265:视频编码实为张量编码。(杜克大学、卡内基梅隆大学)
- HLX:统一流水线架构,优化混合 Transformer-Mamba 语言模型性能。(KAIST)
- ORCHES:在协作式 GPU-PIM 异构系统上协调基于测试时计算的 LLM 推理。(佐治亚理工学院)
- NetZIP:面向分布式大模型训练的网内无损压缩算法/硬件协同设计。(UIUC、IBM 研究院)
- 分布式训练效率特性分析:从功耗、性能与热管理视角。(佐治亚理工学院)
- SkipReduce:利用(互连)网络稀疏性加速分布式机器学习。(KAIST、NVIDIA、汉阳大学)
- 在环面网络上优化支持容错的 All-to-All 集体通信。(香港科技大学(广州)、华为)
- AxCore:面向 LLM 推理的量化感知近似 GEMM 单元。(香港科技大学(广州))
- Amove:通过细粒度分组向量化数据类型缓解异常值与显著点,从而加速 LLM。(北京航空航天大学、清华大学)
- MX+:突破微缩格式极限,实现高效大语言模型服务。(首尔国立大学)
- ReGate:在神经处理单元中启用电源门控。(UIUC)
- 在成本效益型解耦数据中心中进行多维 ML 流水线优化。(宾夕法尼亚州立大学、META、IBM、AMD)
- Crane:面向平铺架构上 DNN 推理与训练共支持的层间调度框架。(罗格斯大学、德州农工大学、NVIDIA)
- OASIS:支持 RISCV 张量扩展指令的商用高性能终端 AI 处理器。(北京邮电大学、算能科技)
- ELK:利用深度学习编译器技术探索多核互联 AI 芯片的效率。(UIUC、微软研究院)
- 为机器学习赋能向量架构:用于矩阵乘法的 CAMP 架构。(巴塞罗那超级计算中心、加泰罗尼亚理工大学)
- TAIDL:支持自动生成可扩展测试预言的张量加速器 ISA 定义语言。(UIUC)
- 商用 SRAM 存内计算设备上真实工作负载的特性分析与优化。(康奈尔大学、南加州大学、MIT、GSI 公司)
- SuperMesh:面向加速器的高能效集体通信。(德州农工大学)
- BitL:用于关键路径缩减的混合位串行与并行深度学习加速器。(延世大学、三星电子)
- HiPACK:利用 SIMD 与位级管理实现高效的子 8 位直接卷积。(新加坡国立大学、天津工业大学)
- MCBP:利用位切片支持的稀疏性与重复性实现内存-计算高效的大语言模型推理加速器。(清华大学、上海交通大学)
- PolymorPIC:在基于 RISC-V 的处理器中嵌入多态存内缓存,实现全栈高效 AI 推理。(上海交通大学、上海人工智能实验室)
- MHE-TPE:面向混合精度定点张量处理引擎的多操作数高基数编码器。(中国科学技术大学、华盛顿大学、锐石创芯)
- SMX:通用序列比对加速的异构架构。(巴塞罗那超级计算中心、UPC、康奈尔大学)
2026 HPCA(高性能计算机架构会议)
- Focus:面向高效视觉-语言模型的流式注意力集中架构
- PADE:通过统一执行与阶段融合实现的无预测器稀疏注意力加速器
- HR-DCIM:具备统一低成本迭代纠错机制的高可靠性浮点数字存内计算(Digital CIM)架构
- WATOS:面向晶圆级芯片的大语言模型(LLM)训练策略与架构协同探索
- ELORA:面向多LoRA大语言模型服务的高效LoRA与KV缓存管理方案
- FACE:晶圆上完全重叠的PD调度与多层次架构协同探索
- TEMP:面向晶圆级芯片的内存高效、物理感知张量分区映射框架
- AQPIM:通过存内激活量化打破PIM(存内计算)容量墙以支持大语言模型
- MoEntwine:释放晶圆级芯片在大规模专家并行推理中的潜力
- AUM:通过共享处理器与加速单元提升大语言模型服务效率潜力
- Uni-STC:统一稀疏张量核心(Sparse Tensor Core)
- PIMphony:克服基于PIM的长上下文大语言模型推理系统中的带宽与容量低效问题
- RoMe:面向大语言模型的行粒度访问内存系统
- VAR-Turbo:通过双重冗余释放视觉自回归模型的潜力
- V-Rex:通过动态KV缓存检索实现实时流式视频大语言模型加速
- CoCoTree:面向可扩展存内计算的具备计算能力的集体通信架构
- AutoGNN:端到端硬件驱动的图预处理方法,以增强图神经网络(GNN)性能
- BitDecoding:通过低位KV缓存解锁张量核心在长上下文大语言模型中的应用
- RPU:推理处理单元(Reasoning Processing Unit)
常见问题
相似工具推荐
stable-diffusion-webui
stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。
everything-claude-code
everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上
ComfyUI
ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。
NextChat
NextChat 是一款轻量且极速的 AI 助手,旨在为用户提供流畅、跨平台的大模型交互体验。它完美解决了用户在多设备间切换时难以保持对话连续性,以及面对众多 AI 模型不知如何统一管理的痛点。无论是日常办公、学习辅助还是创意激发,NextChat 都能让用户随时随地通过网页、iOS、Android、Windows、MacOS 或 Linux 端无缝接入智能服务。 这款工具非常适合普通用户、学生、职场人士以及需要私有化部署的企业团队使用。对于开发者而言,它也提供了便捷的自托管方案,支持一键部署到 Vercel 或 Zeabur 等平台。 NextChat 的核心亮点在于其广泛的模型兼容性,原生支持 Claude、DeepSeek、GPT-4 及 Gemini Pro 等主流大模型,让用户在一个界面即可自由切换不同 AI 能力。此外,它还率先支持 MCP(Model Context Protocol)协议,增强了上下文处理能力。针对企业用户,NextChat 提供专业版解决方案,具备品牌定制、细粒度权限控制、内部知识库整合及安全审计等功能,满足公司对数据隐私和个性化管理的高标准要求。
ML-For-Beginners
ML-For-Beginners 是由微软推出的一套系统化机器学习入门课程,旨在帮助零基础用户轻松掌握经典机器学习知识。这套课程将学习路径规划为 12 周,包含 26 节精炼课程和 52 道配套测验,内容涵盖从基础概念到实际应用的完整流程,有效解决了初学者面对庞大知识体系时无从下手、缺乏结构化指导的痛点。 无论是希望转型的开发者、需要补充算法背景的研究人员,还是对人工智能充满好奇的普通爱好者,都能从中受益。课程不仅提供了清晰的理论讲解,还强调动手实践,让用户在循序渐进中建立扎实的技能基础。其独特的亮点在于强大的多语言支持,通过自动化机制提供了包括简体中文在内的 50 多种语言版本,极大地降低了全球不同背景用户的学习门槛。此外,项目采用开源协作模式,社区活跃且内容持续更新,确保学习者能获取前沿且准确的技术资讯。如果你正寻找一条清晰、友好且专业的机器学习入门之路,ML-For-Beginners 将是理想的起点。
ragflow
RAGFlow 是一款领先的开源检索增强生成(RAG)引擎,旨在为大语言模型构建更精准、可靠的上下文层。它巧妙地将前沿的 RAG 技术与智能体(Agent)能力相结合,不仅支持从各类文档中高效提取知识,还能让模型基于这些知识进行逻辑推理和任务执行。 在大模型应用中,幻觉问题和知识滞后是常见痛点。RAGFlow 通过深度解析复杂文档结构(如表格、图表及混合排版),显著提升了信息检索的准确度,从而有效减少模型“胡编乱造”的现象,确保回答既有据可依又具备时效性。其内置的智能体机制更进一步,使系统不仅能回答问题,还能自主规划步骤解决复杂问题。 这款工具特别适合开发者、企业技术团队以及 AI 研究人员使用。无论是希望快速搭建私有知识库问答系统,还是致力于探索大模型在垂直领域落地的创新者,都能从中受益。RAGFlow 提供了可视化的工作流编排界面和灵活的 API 接口,既降低了非算法背景用户的上手门槛,也满足了专业开发者对系统深度定制的需求。作为基于 Apache 2.0 协议开源的项目,它正成为连接通用大模型与行业专有知识之间的重要桥梁。