AI-Chip

GitHub
1.7k 278 非常简单 1 次阅读 4天前开发框架
AI 解读 由 AI 自动生成,仅供参考

AI-Chip 是一份专注于人工智能、机器学习及深度学习领域的集成电路(IC)与知识产权核(IP)全景指南。面对当前 AI 芯片赛道百家争鸣、技术迭代极快的现状,从业者往往难以全面掌握从科技巨头到初创公司的最新硬件动态。AI-Chip 正是为解决这一信息碎片化难题而生,它系统性地梳理并持续更新全球范围内的 AI 处理器资讯。

这份清单不仅涵盖了 Nvidia、Google、Intel、Tesla 等行业领军企业的最新产品(如 Hopper 架构、Tensor 芯片、Dojo 系统等),还敏锐地追踪了 Groq、Cerebras、SambaNova 等新兴独角兽的创新进展。其独特亮点在于极高的时效性与广泛的覆盖面,定期整合 MLPerf 权威基准测试结果,并涉及传统芯片厂商及光计算、存内计算等前沿技术路线的突破。

AI-Chip 非常适合硬件工程师、算法研究人员、系统架构师以及关注半导体行业的投资分析师使用。对于希望深入了解底层算力支撑、进行选型对比或把握技术趋势的专业人士而言,AI-Chip 提供了一站式的参考视野,帮助用户高效洞察全球 AI 算力生态的最新格局。

使用场景

某边缘计算初创公司的硬件选型团队正急需为新一代智能安防摄像头挑选一款兼具低功耗与高算力的 AI 加速芯片,以在三个月内完成原型机开发。

没有 AI-Chip 时

  • 信息搜集效率极低:工程师需手动在数十个厂商官网、新闻稿和技术论坛中碎片化搜索,耗时数天仍难以穷尽所有潜在供应商。
  • 关键参数对比困难:不同厂商的算力单位(TOPS vs GFLOPS)、制程工艺和功耗数据格式不一,缺乏统一视图导致横向评估极易出错。
  • 错失新兴技术机会:由于精力局限于 NVIDIA、Intel 等头部大厂,容易忽略如 Groq、Tenstorrent 或 d-Matrix 等具有独特架构优势的初创公司方案。
  • 基准测试数据滞后:难以快速定位最新的 MLPerf 测试结果,导致选型依据停留在过时的性能数据上,增加项目落地风险。

使用 AI-Chip 后

  • 一站式全景扫描:利用 AI-Chip 整理的全球 IC 与 IP 清单,团队在几小时内即可浏览从云端到边缘端的全产业链玩家,大幅缩短调研周期。
  • 标准化决策支持:借助工具中分类清晰的架构类型与应用场景标签,工程师能快速筛选出符合“低功耗边缘推理”需求的候选名单并进行精准对比。
  • 发现差异化优势:通过关注工具更新的初创企业板块,团队发现了针对特定视觉模型优化的新型芯片,成功构建了更具成本竞争力的技术方案。
  • 实时追踪前沿动态:直接查阅工具链接的最新 MLPerf 基准测试与各厂商(如 Cerebras、SambaNova)的更新日志,确保选型基于当前最权威的性能数据。

AI-Chip 将原本杂乱无章的芯片情报转化为结构化的决策资产,帮助研发团队在激烈的市场竞争中快速锁定最优硬件方案。

运行环境要求

GPU

未说明

内存

未说明

依赖
notes该仓库并非可运行的 AI 软件工具,而是一个关于人工智能芯片(ICs 和 IPs)的行业资讯、厂商列表和技术图谱的汇总清单。它不包含源代码、安装脚本或运行环境需求,主要功能是提供指向各大芯片厂商(如 Nvidia, Intel, Google 等)及初创公司新闻和文档的外部链接。
python未说明
AI-Chip hero image

快速开始

AI芯片(ICs和IPs)


编辑 S.T.(领英)
欢迎访问我的微信公众号 StarryHeavensAbove,获取更多AI芯片相关文章
欢迎访问我的微信公众号 StarryHeavensAbove

最新更新


快捷方式


集成电路供应商英特尔, 高通, 英伟达, 三星, AMD,IBM, 迈威尔
科技巨头与高性能计算供应商谷歌, 亚马逊AWS, 微软, 苹果, 阿里巴巴集团, 腾讯云, 百度, 富士通, 诺基亚, 脸书, 特斯拉
IP供应商ARM, 新思科技, Imagination Technologies, CEVA, 楷登电子, VeriSilicon
初创公司 Cerebras, Graphcore, Tenstorrent, Blaize, Koniku, Adapteva, Mythic, BrainChip, Leepmind, Groq, Kneron, Esperanto Technologies, Gyrfalcon Technology, SambaNova Systems, GreenWaves Technology, Lightelligence, Lightmatter, Hailo,Tachyum,AlphaICs,Syntiant, aiCTX, Flex Logix, Preferred Network, Cornami, Anaflash, Optaylsys, Eta Compute, Achronix, Areanna AI, Neuroblade, Luminous Computing, Efinix, AISTORM, SiMa.ai,Untether AI, GrAI Matter Lab, Rain Neuromorphics, Applied Brain Research, XMOS, DinoPlusAI, Furiosa AI, Perceive, SimpleMachines, Neureality, Analog Inference, Quadric, EdgeQ, Innatera Nanosystems, Ceremorphic, Aspinity, TeraMem, d-Matrix

I. 集成电路供应商


GPU

英伟达携手微软打造超大规模云端人工智能计算机

数以万计的英伟达GPU、NVIDIA Quantum-2 InfiniBand以及完整的英伟达AI软件栈将入驻Azure;英伟达、微软及全球企业将利用该平台实现快速且经济高效的人工智能开发与部署。

深入解析英伟达Hopper架构

在2022年英伟达GTC主题演讲中,英伟达首席执行官黄仁勋发布了基于全新英伟达Hopper GPU架构的NVIDIA H100 Tensor Core GPU。本文将带您深入了解这款全新的H100 GPU,并介绍英伟达Hopper架构GPU的重要新特性。

英伟达发布Grace:用于大型AI系统的高性能Arm服务器CPU

在英伟达又一个繁忙的春季GPU技术大会拉开帷幕之际,这家图形和加速器设计公司今天上午宣布,他们将再次自主研发基于Arm架构的CPU/SoC。这款名为“Grace”的芯片以计算机编程先驱、美国海军少将格蕾丝·霍珀命名,是英伟达进一步垂直整合其硬件产品线的最新尝试——通过提供高性能CPU来补充其常规GPU产品。据英伟达称,该芯片专为大规模神经网络工作负载而设计,预计将于2023年应用于英伟达的产品中。

Mobileye EyeQ

> Mobileye目前正在开发第五代SoC——EyeQ®5——作为视觉中央处理器,用于实现完全自动驾驶(Level 5)车辆的传感器融合,计划于2020年投入道路使用。为满足功耗和性能目标,EyeQ® SoC采用最先进的VLSI工艺节点进行设计,第五代甚至达到了7nm FinFET工艺。

Loihi

英特尔推出Loihi 2、全新Lava软件框架及新合作伙伴,推动神经拟态计算发展

第二代研究芯片采用预量产的Intel 4工艺,规模扩大至100万个神经元。英特尔还推出了开放的软件框架,以加速开发者创新并推动商业化进程。

Habana

英特尔旗下 Habana Labs 推出用于训练和推理的第二代 AI 处理器

今天在 Intel Vision 大会上,英特尔宣布其专注于 AI 深度学习处理器技术的数据中心团队 Habana Labs 推出了用于训练和推理的第二代深度学习处理器:Habana® Gaudi®2 和 Habana® Greco™。这些新处理器填补了行业空白,为客户提供高性能、高能效的深度学习计算选择,适用于数据中心中的训练工作负载和推理部署,同时降低了各规模企业的 AI 入门门槛。

Habana Gaudi 登陆亚马逊 EC2 云平台

创建这一全新训练实例系列的主要动因由 Andy Jassy 在 2020 年的 re:Invent 大会上提出:“为我们的终端客户提供比当前一代基于 GPU 的实例高出 40% 的性价比。”

高通提升骁龙 AI 游戏水平

这家高端移动 SoC 的领导者已将 AI 应用于整个平台。

Qualcomm Cloud AI 100

专为 AI 推理加速而设计的 Qualcomm Cloud AI 100,满足云端的独特需求,包括能效、规模、制程节点进步以及信号处理等,从而帮助数据中心更快速、更高效地在边缘云上运行推理任务。Qualcomm Cloud AI 100 旨在成为日益依赖边缘云基础设施的数据中心的领先解决方案。

三星借助 Exynos 9 系列 9820 处理器为高端移动设备带来端侧 AI 处理能力 > 第四代定制核心与 2.0Gbps LTE Advanced Pro 调制解调器,可支持 AR 和 VR 等丰富移动体验
三星最近发布了“新款 Exynos 9810 搭载 2.9GHz 定制 CPU、业界首款 6CA LTE 调制解调器以及深度学习处理能力,带来高端特性”。

即将发布的 AMD Instinct™ MI 系列加速器 > AMD Instinct™ 加速器从零开始设计,专为数据中心计算的新时代打造,可大幅提升 HPC 和 AI 工作负载性能,推动新发现。AMD Instinct™ 加速器家族能够在任何规模的数据中心提供行业领先的性能,从单服务器解决方案到全球最大的超级计算机。凭借 AMD CDNA™ 2 架构、AMD Infinity Fabric™ 技术以及封装技术方面的创新,最新的 AMD Instinct™ 加速器旨在以百亿亿次级算力推动科学发现,帮助科学家应对我们最紧迫的挑战。

认识 IBM 人工智能单元

这是我们首款完整的片上系统,旨在比通用 CPU 更快、更高效地运行和训练深度学习模型。

IBM Telum 处理器:面向 IBM Z 和 IBM LinuxONE 的下一代微处理器

这款 7nm 微处理器专为满足客户的需求而设计——在不牺牲高吞吐量事务性工作负载响应时间的前提下,从数据中获取基于 AI 的洞察力。

TrueNorth 是 IBM 与 DARPA SyNAPSE 计划合作开发的神经形态 CMOS ASIC。

它是一种片上多核处理器网络架构,包含 4096 个核心,每个核心模拟 256 个可编程硅基“神经元”,总计超过一百万个神经元。相应地,每个神经元又拥有 256 个可编程“突触”,用于传递彼此之间的信号。因此,可编程突触的总数超过 2.68 亿(228)。就基本构建模块而言,其晶体管数量达到 54 亿。由于存储、计算和通信功能都集成在 4096 个神经突触核心中,TrueNorth 避免了冯·诺依曼架构的瓶颈,且非常节能,功耗仅为 70 毫瓦,约为传统微处理器功率密度的十万分之一。维基百科

AI 硬件中心

“IBM 研究院 AI 硬件中心是一个全球性的研究中心,总部位于纽约州奥尔巴尼。该中心致力于开发下一代芯片和系统,以支持 AI 实现其全部潜力所需的强大算力和前所未有的速度。”

数据处理单元

基于业界首款、最具可扩展性且应用最广泛的七代数据基础设施处理器,Marvell的OCTEON™、OCTEON™ Fusion和ARMADA®平台专为无线基础设施、有线运营商网络、企业和云数据中心而优化。

二、科技巨头与高性能计算供应商


谷歌Tensor:关于Pixel 6芯片你需要知道的一切

谷歌发布了其最新的Pixel智能手机,在诸多变化中,对长期影响最大的一项就是这家搜索巨头转而采用自研芯片。

谷歌推出TPU v4 AI芯片

本周在Google I/O线上大会上,谷歌CEO桑达尔·皮查伊在其主题演讲中仅用1分42秒便介绍了公司最新的TPU v4张量处理单元,但这或许是此次活动中最重要、也是最受期待的消息。

Cloud TPU

机器学习已在网络安全、医学诊断等领域带来了商业和科研上的突破。我们打造了张量处理单元(TPU),旨在让每个人都能实现类似的突破。Cloud TPU是专为谷歌旗下产品如翻译、照片、搜索、助理和Gmail等设计的机器学习专用ASIC。以下介绍如何利用TPU和机器学习来加速贵公司的成功,尤其是在大规模场景下。

Edge TPU

如今,人工智能已广泛应用于消费级和企业级场景。随着联网设备的爆炸式增长,以及对隐私/机密性、低延迟和带宽限制的需求日益增加,云端训练的人工智能模型越来越需要在边缘端运行。Edge TPU是谷歌专门打造的用于在边缘运行AI的ASIC,它以小巧的体积和低功耗提供高性能,从而支持高精度AI在边缘部署。

其他参考资料如下:
谷歌TPU3看点

谷歌TPU揭秘

谷歌的神经网络处理器专利

脉动阵列——因谷歌TPU获得新生

我们都应该拥抱脉动阵列吗?

AWS Trainium

AWS Trainium是AWS设计的第二款定制机器学习(ML)芯片,可在云端为深度学习模型训练提供最佳性价比。Trainium拥有最高的性能和最多的TFLOPS算力,能够实现亚马逊EC2中最快速的ML训练,并支持更广泛的ML应用场景。该芯片特别针对图像分类、语义搜索、翻译、语音识别、自然语言处理和推荐引擎等应用中的深度学习训练工作负载进行了优化。

AWS Inferentia。由AWS定制设计的高性能机器学习推理芯片。

AWS Inferentia以极低成本提供高吞吐量、低延迟的推理性能。每颗芯片可提供数百TOPS(每秒万亿次运算)的推理吞吐量,使复杂模型能够快速做出预测。若需更高性能,可将多颗AWS Inferentia芯片组合使用,以实现数千TOPS的吞吐量。AWS Inferentia将可用于Amazon SageMaker、Amazon EC2和Amazon Elastic Inference。

阿里巴巴新款AI芯片每秒可处理近8万张图片

在2019年阿里云飞天大会上,平头哥首次推出了面向云端大规模AI推理的专用AI处理器。含光800是阿里巴巴20年历史上的首款半导体产品。

腾讯发布三款数据中心芯片:用于AI、视频转码和网络

该公司声称,Zixiao AI芯片的性能是同类竞品的两倍,视频转码芯片Canghai的性能提升了30%,而SmartNIC Xuanling则据称性能高出四倍。不过,该公司并未提供外部基准测试结果或具体的产品细节。


百度表示第二代昆仑AI芯片已进入量产

中国科技巨头百度周三表示,已开始量产第二代昆仑人工智能(AI)芯片,以加速其在芯片行业的布局,而中国政府正致力于加强该领域的发展。

富士通正在研发的这款DLU是从零开始设计的,并未基于Sparc或ARM指令集,而是采用了专为深度学习打造的全新指令集和数据格式,这些均是完全自主研发的成果。作为一家在高性能计算工作负载方面拥有丰富经验的日本IT巨头——其K超级计算机便是最佳例证——富士通并不认为HPC与AI架构会趋于融合。相反,该公司坚信这两类架构将走向分化,并各自需要高度专业化的功能。

诺基亚为其5G网络解决方案开发了ReefShark系列芯片。在ReefShark的设计中融入了人工智能技术,将其嵌入基带处理模块,利用增强型深度学习驱动自主认知网络快速、智能地做出响应,从而提升网络优化效果并拓展商业机会。

Facebook正在研发机器学习芯片——The Information报道

The Information周四援引两位知情人士的消息称,Facebook公司(FB.O)正在开发一款用于处理内容推荐等任务的机器学习芯片。

特斯拉AI日的最大亮点并非Optimus机器人,而是Dojo超级计算机

埃隆·马斯克在AI日期间将焦点放在了Optimus人形机器人上,试图吸引观众的关注。然而,尽管这款机器人若能以马斯克所宣称的价格(2万美元)实现大规模量产,确实可能对我们的生活和社会产生深远影响,但此次发布会中另一个部分的内容却具有更为直接且紧迫的影响——那就是关于Dojo超级计算机的最新进展。相比双足行走的机器人,Dojo超级计算机更有可能迅速改变世界。

特斯拉Dojo——独特的封装与芯片设计使其在性能上领先竞争对手一个数量级

特斯拉在其AI日活动中公开了其软硬件基础设施的内部运作机制,其中就包括此前备受期待的Dojo AI训练芯片。特斯拉宣称,其D1 Dojo芯片具备GPU级别的计算能力、CPU级别的灵活性,并配备了网络交换机IO接口。

III. 传统IP供应商


NPU ETHOS-N78

这款ML处理器专为边缘推理场景设计,可提供业界领先的4.6 TOPs性能,同时在移动设备和智能IP摄像头中展现出惊人的3 TOPs/W能效比。

ARM详解“Project Trillium”机器学习处理器架构

Arm推出的第二代高扩展性、高效能NPU——Ethos-N78,能够支持全新的沉浸式应用,其单核性能提升了2.5倍,现可通过多核技术进一步扩展至1到10 TOP/s甚至更高。此外,它还提供了超过90种配置选项,灵活满足不同ML应用场景的需求。

新思科技推出业界性能最高的神经网络处理器IP

全新的DesignWare ARC NPX6 NPU IP为汽车、消费电子及数据中心芯片设计提供高达3,500 TOPS的性能。

AI处理器

无论您希望将智能嵌入掌上设备、消费类产品或工业机器人中,还是通过云端的强大服务器来实现,我们都能帮助您实现愿景。我们凭借PowerVR神经网络加速器(NNA)和GPU,为您的产品注入智能。我们的NC-SDK可实现AI加速在我们的硬件IP上的无缝部署,无论是单独使用还是与其他组件结合。我们的NNA采用可扩展架构,能够以最高效率支持从低功耗物联网设备到高性能RoboTaxi等各类智能边缘和终端设备。

面向实时嵌入式领域的深度学习

一种解决方案是在边缘端提供专用的低功耗深度学习AI处理器,并结合深度神经网络(DNN)图编译器。

Tensilica AI平台

Vivante® NPU IP

VeriSilicon的神经网络处理器(NPU)IP是一款高度可扩展、可编程的计算机视觉与人工智能处理器,支持终端设备、边缘设备及云端设备的AI运算升级。该IP专为满足不同芯片尺寸与功耗预算而设计,是一种经济高效、高质量的神经网络加速引擎解决方案。

IV. 创业公司


Cerebras发布Andromeda——一款拥有1350万核心的AI超级计算机,可为大型语言模型提供近乎完美的线性扩展能力

Andromeda提供超过1 Exaflop的AI算力以及120 Petaflops的密集计算能力,是迄今为止建造的最大规模AI超级计算机之一,且使用极为简便。

Cerebras创下单个设备训练最大AI模型的新纪录

我们宣布了在单个设备上训练过的最大模型。借助Cerebras软件平台(CSoft),客户可以轻松地在单台CS-2系统上训练最先进的GPT语言模型(如GPT-3[i]和GPT-J[ii]),参数规模可达200亿。这些模型只需几分钟即可完成设置,用户仅需几次按键操作就能快速切换不同模型。相比之下,使用GPU集群则需要数月的工程工作。

Cerebras完成F轮融资,再获2.5亿美元,估值达40亿美元

新一轮F轮融资为公司带来了2.5亿美元的资金,使其通过风险投资累计筹集的资金总额达到7.2亿美元。

Cerebras发布晶圆级引擎二号(WSE2):2.6万亿个晶体管,良率100%

两年前,Cerebras曾掀起一场硅片设计革命:推出了一款体积与人头相当的处理器,其占用的12英寸晶圆面积几乎达到了矩形设计所能允许的最大值,采用16nm工艺制造,专注于AI和HPC工作负载。如今,该公司推出了第二代产品,基于台积电7nm工艺打造,核心数量和各项指标均翻倍。

Cerebras CS-1通过比任何其他芯片都更大、更大、更大的方式来解决深度学习AI问题

今天,该公司宣布推出面向最终用户的计算产品Cerebras CS-1,并同时宣布其首位客户——阿贡国家实验室。

Graphcore以晶圆对晶圆技术大幅提升IPU性能

Graphcore发布了第三代智能处理单元(IPU),这是首款采用3D晶圆对晶圆(WoW)技术制造的处理器。

MK2性能基准测试

Graphcore,这家人工智能芯片制造商,在19.5亿美元估值下再融资1.5亿美元

总部位于布里斯托尔的人工智能专用处理器初创公司Graphcore宣布,已再次筹集1.5亿美元资金,用于研发并继续拓展新客户。其估值现已达到19.5亿美元。

解密又一个xPU:Graphcore的IPU 对其IPU架构进行了一些分析。

Graphcore AI芯片:更多分析 更多分析。

深度剖析AI芯片初创公司Graphcore的IPU 在更多信息披露后进行了深入分析。

Tenstorrent以10亿美元估值筹集超过2亿美元,打造可编程高性能AI计算机

多伦多,2021年5月20日 /美通社/ - 开发下一代计算机的硬件初创公司Tenstorrent今日宣布,在最新一轮融资中筹集了超过2亿美元,公司估值达10亿美元。本轮融资由富达管理与研究公司领投,Eclipse Ventures、Epic CG和Moore Capital等机构也参与投资。

与Tenstorrent的对话:CEO Ljubisa Bajic和CTO Jim Keller

汽车AI初创公司Blaize完成7100万美元融资

Blaize(前身为ThinCI)已完成7100万美元的D轮融资。新投资者富兰克林邓普顿以及现有投资者淡马锡领投了本轮融资,同时还有电装及其他新老投资者参与。至此,Blaize的总融资额已达约1.55亿美元。

成立于2014年的加州纽瓦克初创公司Koniku迄今已获得165万美元融资,致力于成为“全球首家神经计算公司”。其理念是:既然大脑是迄今为止最强大的计算机,为何不对其进行逆向工程呢?听起来很简单,对吧?事实上,Koniku正在将生物神经元集成到芯片上,并已取得足够进展,据称阿斯利康已成为其客户。波音公司也已签署意向书,计划将该技术应用于化学物质探测无人机。

Adapteva已从包括移动巨头爱立信在内的投资者处筹集了510万美元资金。《Epiphany-V:一款拥有1024个处理器的64位RISC片上系统》一文详细介绍了Adapteva采用16nm FinFET工艺设计的1024核处理器芯片。

模拟计算时代已经到来!

我们在原型模拟AI处理器中运行ResNet-50。量产版本将在3瓦功耗下实现900-1000帧/秒的处理速度,并保持INT8精度。

Mythic推出功耗降低10倍的模拟AI处理器

模拟AI处理器公司Mythic今日发布了M1076模拟矩阵处理器,旨在提供低功耗的AI处理能力。

BrainChip推出面向边缘端的神经形态处理器

BrainChip今日宣布其Akida神经网络处理器正式商业化。该产品面向各类边缘计算及物联网应用,BrainChip声称自己是首家商业化的神经形态AI芯片生产商,相较于传统方法,可在超低功耗和性能方面带来显著优势。

AI处理器芯片制造商Deep Vision完成3500万美元B轮融资

Tiger Global领投B轮融资,助力Deep Vision在边缘计算应用中扩展视频分析和自然语言处理能力

Groq 在四年前的芯片上演示快速大模型推理

加利福尼亚州山景城——Groq 已将其第一代 AI 推理芯片重新定位为语言处理单元(LPU),并展示了 Meta 的 Llama-2 700 亿参数大型语言模型(LLM)以每用户每秒 240 个标记的速度进行推理。Groq 首席执行官乔纳森·罗斯告诉 EE Times,该公司仅用“几天时间”就在其基于公司第一代 AI 芯片的 10 机架(64 芯片)云端开发系统上成功运行了 Llama-2。该系统采用的是 Groq 四年前发布的初代 AI 芯片。

由前谷歌员工创立的 AI 芯片初创公司 Groq 筹集 3 亿美元,用于支持自动驾驶汽车和数据中心

乔纳森·罗斯离开谷歌后,于 2016 年创办了下一代半导体初创公司 Groq。如今,这家位于加利福尼亚州山景城的企业宣布,在正式进入公众视野之际,已获得由 Tiger Global Management 和亿万富翁投资者丹·桑德海姆旗下 D1 Capital 领投的 3 亿美元融资。

Kneron 完成逾 1000 万美元 A 轮融资,加速边缘 AI 发展

根据本文所述,“Gyrfalcon 提供汽车 AI 芯片技术”

Gyrfalcon Technology Inc.(GTI)自 2017 年 9 月推出其量产版 AI 加速器芯片以来,一直致力于推广适用于各类 AI 的基于矩阵的应用特定芯片。通过授权其专有技术,该公司有信心能够在 18 个月内帮助汽车制造商将极具竞争力的 AI 芯片投入车辆生产,同时显著提升 AI 性能、改善功耗并带来成本优势。

SambaNova 发布全新 AI 芯片,为全栈 AI 平台提供动力

今日,总部位于帕洛阿尔托的 SambaNova Systems 公布了一款新型 AI 芯片 SN40L,该芯片将为其全栈大型语言模型(LLM)平台 SambaNova Suite 提供算力支持,助力企业实现从芯片到模型的全流程——构建并部署定制化的生成式 AI 模型。

SambaNova 以 51 亿美元估值完成 6.76 亿美元融资,加码面向企业的云原生 AI 软件

SambaNova 是一家专注于 AI 硬件及其配套集成系统的初创公司,直到去年 12 月才正式结束三年的隐身期。今天,该公司宣布完成一轮巨额融资,进一步拓展其业务版图。公司已敲定 6.76 亿美元的 D 轮融资,联合创始人兼 CEO 罗德里戈·梁确认,公司估值已达 51 亿美元。

隆重推出 SambaNova Systems DataScale:计算新时代

SambaNova 近几个月来与多家机构紧密合作,已在自然语言处理领域树立了新的行业标杆。这一 NLP 深度学习领域的突破性进展,体现在 SambaNova Systems 数据流优化系统上取得的 GPU 压倒性、打破世界纪录的性能表现中。

NLP 新标杆:超越 GPU

SambaNova 近几个月来与多家机构紧密合作,已在自然语言处理领域树立了新的行业标杆。这一 NLP 深度学习领域的突破性进展,体现在 SambaNova Systems 数据流优化系统上取得的 GPU 压倒性、打破世界纪录的性能表现中。

GreenWaves 展示先进音频演示

Gap9 处理器是针对物联网设备中计算机视觉应用的 Gap8 后继产品,是一款适用于电池供电设备的超低功耗神经网络处理器。GreenWaves 市场营销副总裁马丁·克鲁姆向 EE Times Europe 表示,公司在从 Gap8 在听觉设备市场获得积极反馈后,决定将 Gap9 的重点转向可穿戴音频设备市场。

光学芯片以比 GPU 快 100 倍的速度解决最复杂的数学问题

光学计算初创公司 Lightelligence 展示了一款硅光子学加速器,其运行伊辛问题的速度比典型的 GPU 配置快 100 多倍。

Lightmatter 再次融資,推進光子人工智能芯片發展

Lightmatter 是一間源自麻省理工學院的衍生企業,專注於打造採用矽光子計算引擎的人工智能加速器。近日,該公司宣佈完成B輪融資,額外籌得8,000萬美元。其技術基於專有的矽光子學平台,可在晶片內部操控相干光來快速執行運算,同時大幅降低功耗。

“獨角獸”級AI晶片廠商 Hailo 筹集1.36億美元

以色列AI晶片新創公司 Hailo 在C輪融資中募得1.36億美元,使總融資額達到2.24億美元。據報導,該公司目前已晉升為“獨角獸”企業。

Tachyum推出Prodigy通用處理器

2021年5月11日 — Tachyum今日正式發布全球首款通用處理器Prodigy,該處理器將CPU、GPU和TPU的功能整合於單一晶片之中,構建出均質化架構,並以遠低於競爭對手的成本實現性能的巨大提升。

AlphaICs開始樣品供應其深度學習協處理器

AlphaICs是一家專注於開發面向智慧視覺應用的邊緣AI與學習晶片的新創公司,目前正開始提供其深度學習協處理器Gluon的樣品,該產品同時配備軟體開發套件。

Syntiant:類比深度學習晶片

Syntiant是一家位於加州爾灣的半導體新創公司,由前博通頂尖工程師領軍,團隊兼具創新設計與大規模量產經驗,據公司CEO Kurt Busch表示。

百度投資神經態IC研發商

慕尼黑 — 瑞士新創公司 aiCTX 完成來自百度風投的150萬美元A輪前融資,用於開發其低功耗神經態計算與處理器設計的商業應用,並推動所謂「神經態智能」的實現。該公司主要面向低功耗邊緣計算嵌入式感測處理系統。

Flex Logix有兩條路徑可賺大錢,在AI領域挑戰NVIDIA

這家可程式化晶片公司獲得5,500萬美元的風險投資支持,使其總融資額達到8,200萬美元。

Preferred Networks於2020年春季為新型大型叢集MN-3開發自製深度學習處理器MN-Core

2018年12月12日,日本東京 — Preferred Networks株式會社(總部位於東京,董事長兼首席執行官西川徹)宣布正在開發專用於深度學習的MN-Core(TM)處理器,並將在東京Big Sight舉辦的SEMICON Japan 2018展覽上獨立展出其自主研發的深度學習硬體,包括MN-Core晶片、主機板及伺服器設備。

AI新創公司Cornami披露神經網路晶片細節

隱形新創公司Cornami於週四公開了其用於運行神經網路的全新晶片設計的一些細節。該公司CTO保羅·馬斯特斯表示,這款晶片將最終實現一種早在20世紀70年代就已出現的技術的最佳優勢。

AI晶片新創公司推出全新邊緣計算解決方案

Anaflash公司(位于加州圣何塞)是一家初创企业,开发了一款测试芯片,用于演示在与逻辑兼容的嵌入式闪存中进行的模拟神经计算。

Optalysys推出全球首款商用光学处理系统FT:X 2000

Optalysys公司研发了光学协处理器技术,该技术能够在大幅降低能耗的同时,提供远超传统计算机的处理能力。其首款协处理器基于成熟的衍射光学方案,利用低功率激光光子代替传统的电力及其电子来实现计算。这种固有的并行技术具有高度可扩展性,代表了计算领域的新范式。

低功耗AI初创公司Eta Compute交付首批商用芯片

该公司通过采用新的电源管理方案,放弃了风险较高的脉冲神经网络技术。

Eta Compute推出面向边缘AI的脉冲神经网络芯片

该公司表示,该芯片能够自主学习,并且推理功耗仅为100微瓦级别,这一成果是在Arm TechCon上发布的。

Achronix推出用于AI的7nm FPGA

Achronix凭借全新的高端7nm系列FPGA重返市场,加入了加速深度学习的硅片热潮。该公司旨在利用其创新的AI模块设计、新型片上网络以及GDDR6内存,以低于英特尔和赛灵思等大型竞争对手的成本提供相近的性能。

初创公司采用新型SRAM运行AI

Areanna是深度学习兴起催生的一系列新架构中的最新案例。这种全新的计算方式激发了业内工程师们的想象力,他们渴望成为下一个惠普式的成功典范。

NeuroBlade准备推出推理芯片

NeuroBlade加入了数十家致力于AI芯片研发的初创企业行列。这家以色列公司刚刚完成了由Check Point Software创始人领投、英特尔资本参与的2300万美元A轮融资。

比尔·盖茨刚刚投资了一家利用光技术加速AI的芯片初创公司

Luminous Computing开发了一种光学微芯片,能够在消耗更少能量的情况下,以远超其他半导体的速度运行AI模型。

芯片初创公司Efinix希望在物联网领域推动AI应用

成立六年的Efinix公司在英特尔和赛灵思主导的FPGA技术基础上进行了巧妙创新;该公司希望其节能型芯片能够为物联网领域的嵌入式AI市场注入新的活力。

AIStorm筹集1320万美元用于AI边缘计算芯片

曾任职于Maxim、Micrel和Semtech的高级管理人员David Schie认为这两个市场都已具备颠覆性变革的条件。他与WSI、东芝和Arm的资深人士Robert Barker、Andreas Sibrai和Cesar Matias共同于2011年创立了位于圣何塞的人工智能初创公司AIStorm,该公司致力于开发能够直接处理来自可穿戴设备、手机、汽车设备、智能音箱及其他物联网设备数据的芯片组。

SiMa.ai 完成由 Dell Technologies Capital 领投的 3000 万美元 A 轮融资

加州圣何塞 — (美国商业资讯) — 致力于推动高性能机器学习绿色发展的 SiMa.ai 今日宣布推出其机器学习 SoC (MLSoC) 平台,这是业界首个统一的解决方案,能够在支持传统计算的同时,实现高性能、低功耗、安全可靠的机器学习推理。SiMa.ai 的 MLSoC 每瓦特可提供最高的每秒帧数,成为首个在 ResNet-50 上突破每瓦 1000 帧/秒大关的机器学习平台。在与客户的合作中,该公司通过其自动化软件流程,在广泛的嵌入式边缘应用领域,相比当前的竞品方案,将每瓦帧率提升了 10 至 30 倍。该平台将提供从 5W 功耗下 50 TOPs 到 20W 功耗下 200 TOPs 不等的机器学习解决方案,并首次在业内实现了高性能推理下每瓦 10 TOPs 的性能。

SiMa.ai™ 推出 MLSoC™ — 首个突破每瓦 1000 帧/秒大关、较替代方案提升 10–30 倍的机器学习平台

SiMa.ai 是一家致力于让高性能机器学习走向绿色的公司,今日宣布推出其机器学习 SoC (MLSoC) 平台——这是业界首个能够以高性能、最低功耗、安全可靠的方式支持传统计算的统一机器学习推理解决方案。SiMa.ai 的 MLSoC 每瓦特可提供最高的每秒帧数,成为首个在 ResNet-50 上突破每瓦 1000 帧/秒大关的机器学习平台。在与客户的合作中,该公司通过其自动化软件流程,在广泛的嵌入式边缘应用领域,相比当前的竞品方案,将每瓦帧率提升了 10 至 30 倍。该平台将提供从 5W 功耗下 50 TOPs 到 20W 功耗下 200 TOPs 的机器学习解决方案,首次在业内实现了高性能推理下每瓦 10 TOPs 的性能。

Untether AI 获得 1.25 亿美元用于开发 AI 加速芯片

专注于为 AI 推理工作负载开发定制化芯片的初创公司 Untether AI 今日宣布,已从 Tracker Capital Management 和 Intel Capital 处筹集到 1.25 亿美元。本轮融资超额认购,加拿大养老金计划投资委员会和 Radical Ventures 也参与其中,资金将用于支持客户拓展。

GrAI Matter Labs 发布 NeuronFlow 技术并宣布 GrAIFlow SDK

神经形态计算领域的先驱 GrAI Matter Labs(简称 GML)今日发布了全新的可编程处理器技术 NeuronFlow,并宣布启动其 GrAIFlow 软件开发工具包的早期访问计划。

Rain Neuromorphics 在 Crunchbase 上的信息

我们打造受大脑启发的人工智能处理器。我们的使命是实现类脑规模的智能。

Applied Brain Research 在 Crunchbase 上的信息

ABR 开发全球最先进的神经形态编译器、运行时及库,服务于新兴的神经形态计算领域。

XMOS 将 Xcore 改造成 AIoT“跨界处理器”

EE Times 独家报道!这款新芯片面向物联网设备中的 AI 驱动语音交互——“终端侧最重要的 AI 工作负载”。

XMOS 发布 Xcore.ai,一款专为边缘端 AI 处理设计的强大芯片

最新的 xcore.ai 是一款跨界芯片,旨在在一个设备中同时实现高性能 AI、数字信号处理、控制以及输入输出功能,售价仅从 1 美元起。

我们设计并生产用于数据中心运行的 AI 处理器及其配套软件。我们的独特方法以推理优化为核心,注重性能、能效和易用性;同时,这一方法也使训练更具成本效益。

我们制造高性能 AI 推理协处理器,可无缝集成到各类计算平台中,包括数据中心、服务器、桌面电脑、汽车和机器人。

Corerain 提供超高性能的 AI 加速芯片以及全球首个基于流式引擎的 AI 开发平台。

Perceive 携 Ergo 边缘 AI 芯片悄然问世

专注于设备端计算解决方案的初创公司 Perceive 今日正式公开亮相,推出其首款产品——Ergo 边缘推理处理器。首席执行官 Steve Teig 声称,这款专为安防摄像头、智能家电和智能手机等消费类设备设计的芯片,在同类产品中实现了“突破性”的精度和性能。

SimpleMachines, Inc. 推出首款高性能芯片

在传统芯片制造商努力应对快速发展的 AI 软件生态带来的挑战之际,一家位于圣何塞的初创公司宣布已成功实现硅基原型,并提出了一种全新的、面向未来的芯片架构来解决这些问题。

SimpleMachines, Inc.(SMI)团队汇聚了来自高通、英特尔和 Sun Microsystems 等公司的顶尖研究科学家与行业领袖,打造了首款易于编程的高性能芯片,可加速各类 AI 和机器学习应用。

NeuReality 获得 3500 万美元融资,推进 AI 加速芯片上市

致力于开发 AI 推理加速芯片的初创公司 NeuReality 已完成 3500 万美元的新一轮风险投资。

NeuReality 发布 NR1-P:一款创新的以 AI 为中心的推理平台

NeuReality 正式发布了 NR1-P,这是一款以 AI 为中心的新型推理平台。该公司已开始向客户和合作伙伴展示其以 AI 为中心的平台。通过开发一种基于新型系统级芯片(SoC)的 AI 中心型推理平台,NeuReality 重新定义了当前过时的 AI 系统架构。

NeuReality 获得 800 万美元融资,用于其创新的 AI 推理平台

以色列 AI 硬件初创公司 NeuReality 致力于通过摒弃当前以 CPU 为中心的模式来革新 AI 推理平台。该公司今日正式走出隐身状态,并宣布完成 800 万美元的种子轮融资。

模拟推理初创公司获 1060 万美元融资

该公司由 Khosla Ventures 投资支持,正开发用于边缘 AI 计算的第一代产品。公司在 2018 年 3 月成立后不久便筹集了 450 万美元,此次最新一轮融资使累计融资总额达到 1510 万美元。

Quadric 宣布推出面向设备端 AI 的统一硅硬件与软件平台

美国加利福尼亚州伯林盖姆,2021 年 6 月 22 日——专注于高性能边缘计算的创新企业 Quadric(quadric.io)推出了一款统一的硅硬件与软件平台,释放设备端 AI 的强大潜力。

EdgeQ 公开下一代 5G/AI 芯片更多细节

5G 是当前无线通信技术的一场革命,无论是老牌还是新兴的芯片公司都在争相进入这一竞争激烈但利润丰厚的市场。其中最引人注目的新晋玩家之一便是 EdgeQ,这是一家拥有深厚技术背景、曾与高通合作过的初创公司。我们去年曾报道过该公司完成近 4000 万美元 A 轮融资的消息。

Innatera发布神经形态AI芯片,加速脉冲网络运算

荷兰初创公司Innatera致力于为脉冲神经网络打造神经形态AI加速器,现已生产出首批芯片,对其性能进行了评估,并公布了其架构细节。

Redpine创始人创办AI处理器初创公司

本周低调亮相的AI芯片初创公司Ceremorphic正准备推出一款异构AI处理器,目标应用包括数据中心模型训练、汽车、高性能计算、机器人技术以及其他新兴领域。

Aspinity模拟ML芯片实现电池供电的“始终开启”功能

机器学习(ML)不就是需要海量的计算、数字信号处理等吗?或许并非如此,Aspinity团队认为。该公司持续在模拟技术领域发力。其最新推出的analogML系列产品AML100完全在模拟域运行。因此,它能够将系统“始终开启”状态下的功耗降低95%(说实话,我得反复确认了好几遍才相信这一点)。

TetraMem在2022年林利春季处理器大会上首次公开亮相其模拟存内计算技术,备受瞩目。

独家:AI芯片初创公司d-Matrix获微软支持,融资1.1亿美元

9月6日(路透社)——总部位于硅谷的人工智能芯片初创公司d-Matrix已从包括微软公司(MSFT.O)在内的投资者那里筹集到1.1亿美元,而此时许多芯片公司正苦于融资困难。

d-Matrix AI芯片承诺高效处理Transformer模型

这家初创公司结合了数字存内计算和小芯片技术,用于数据中心级别的推理任务。

AI芯片编译器


1. pytorch/glow
2. TVM:端到端深度学习编译器栈
3. 谷歌TensorFlow XLA
4. 英伟达TensorRT
5. PlaidML
6. nGraph
7. MIT Tiramisu编译器
8. ONNC(开放神经网络编译器)
9. MLIR:多级中间表示
10. 张量代数编译器(taco)
11. Tensor Comprehensions
12. PolyMage Labs
13. OctoML
14. Modular AI

AI芯片基准测试


  1. DAWNBench:端到端深度学习基准与竞赛——图像分类(ImageNet)
  2. Fathom:现代深度学习方法的参考工作负载
  3. MLPerf:广泛的ML基准测试套件,用于衡量ML软件框架、硬件加速器及云平台的性能

您可在此处查看最新的MLPerf结果:训练2.1、HPC 2.0、推理tiny 1.0。点击这里。
您可在此处查看MLPerf推理结果v2.1。点击这里。
您可在此处查看MLPerf训练结果v1.0。点击这里。

  1. AI Matrix
  2. AI-Benchmark
  3. AIIABenchmark
  4. EEMBC MLMark基准测试

参考资料


  1. FPGA与AI处理器:面向一切的DNN和CNN
  2. 12家打造新型AI芯片的硬件初创公司
  3. 深度神经网络硬件架构教程
  4. 神经网络加速器对比
  5. 《2018年AI芯片技术白皮书》。您可从这里下载,或通过Google云端硬盘获取。
  6. “当我们谈论AI芯片时,我们在谈论什么”。 #1, #2, #3, #4
  7. AI芯片论文列表
  8. TPU vs GPU vs Cerebras vs Graphcore:ML硬件的公平对比
笔记本电脑

相似工具推荐

openclaw

OpenClaw 是一款专为个人打造的本地化 AI 助手,旨在让你在自己的设备上拥有完全可控的智能伙伴。它打破了传统 AI 助手局限于特定网页或应用的束缚,能够直接接入你日常使用的各类通讯渠道,包括微信、WhatsApp、Telegram、Discord、iMessage 等数十种平台。无论你在哪个聊天软件中发送消息,OpenClaw 都能即时响应,甚至支持在 macOS、iOS 和 Android 设备上进行语音交互,并提供实时的画布渲染功能供你操控。 这款工具主要解决了用户对数据隐私、响应速度以及“始终在线”体验的需求。通过将 AI 部署在本地,用户无需依赖云端服务即可享受快速、私密的智能辅助,真正实现了“你的数据,你做主”。其独特的技术亮点在于强大的网关架构,将控制平面与核心助手分离,确保跨平台通信的流畅性与扩展性。 OpenClaw 非常适合希望构建个性化工作流的技术爱好者、开发者,以及注重隐私保护且不愿被单一生态绑定的普通用户。只要具备基础的终端操作能力(支持 macOS、Linux 及 Windows WSL2),即可通过简单的命令行引导完成部署。如果你渴望拥有一个懂你

349.3k|★★★☆☆|1周前
Agent开发框架图像

stable-diffusion-webui

stable-diffusion-webui 是一个基于 Gradio 构建的网页版操作界面,旨在让用户能够轻松地在本地运行和使用强大的 Stable Diffusion 图像生成模型。它解决了原始模型依赖命令行、操作门槛高且功能分散的痛点,将复杂的 AI 绘图流程整合进一个直观易用的图形化平台。 无论是希望快速上手的普通创作者、需要精细控制画面细节的设计师,还是想要深入探索模型潜力的开发者与研究人员,都能从中获益。其核心亮点在于极高的功能丰富度:不仅支持文生图、图生图、局部重绘(Inpainting)和外绘(Outpainting)等基础模式,还独创了注意力机制调整、提示词矩阵、负向提示词以及“高清修复”等高级功能。此外,它内置了 GFPGAN 和 CodeFormer 等人脸修复工具,支持多种神经网络放大算法,并允许用户通过插件系统无限扩展能力。即使是显存有限的设备,stable-diffusion-webui 也提供了相应的优化选项,让高质量的 AI 艺术创作变得触手可及。

162.1k|★★★☆☆|1周前
开发框架图像Agent

everything-claude-code

everything-claude-code 是一套专为 AI 编程助手(如 Claude Code、Codex、Cursor 等)打造的高性能优化系统。它不仅仅是一组配置文件,而是一个经过长期实战打磨的完整框架,旨在解决 AI 代理在实际开发中面临的效率低下、记忆丢失、安全隐患及缺乏持续学习能力等核心痛点。 通过引入技能模块化、直觉增强、记忆持久化机制以及内置的安全扫描功能,everything-claude-code 能显著提升 AI 在复杂任务中的表现,帮助开发者构建更稳定、更智能的生产级 AI 代理。其独特的“研究优先”开发理念和针对 Token 消耗的优化策略,使得模型响应更快、成本更低,同时有效防御潜在的攻击向量。 这套工具特别适合软件开发者、AI 研究人员以及希望深度定制 AI 工作流的技术团队使用。无论您是在构建大型代码库,还是需要 AI 协助进行安全审计与自动化测试,everything-claude-code 都能提供强大的底层支持。作为一个曾荣获 Anthropic 黑客大奖的开源项目,它融合了多语言支持与丰富的实战钩子(hooks),让 AI 真正成长为懂上

154.3k|★★☆☆☆|今天
开发框架Agent语言模型

ComfyUI

ComfyUI 是一款功能强大且高度模块化的视觉 AI 引擎,专为设计和执行复杂的 Stable Diffusion 图像生成流程而打造。它摒弃了传统的代码编写模式,采用直观的节点式流程图界面,让用户通过连接不同的功能模块即可构建个性化的生成管线。 这一设计巧妙解决了高级 AI 绘图工作流配置复杂、灵活性不足的痛点。用户无需具备编程背景,也能自由组合模型、调整参数并实时预览效果,轻松实现从基础文生图到多步骤高清修复等各类复杂任务。ComfyUI 拥有极佳的兼容性,不仅支持 Windows、macOS 和 Linux 全平台,还广泛适配 NVIDIA、AMD、Intel 及苹果 Silicon 等多种硬件架构,并率先支持 SDXL、Flux、SD3 等前沿模型。 无论是希望深入探索算法潜力的研究人员和开发者,还是追求极致创作自由度的设计师与资深 AI 绘画爱好者,ComfyUI 都能提供强大的支持。其独特的模块化架构允许社区不断扩展新功能,使其成为当前最灵活、生态最丰富的开源扩散模型工具之一,帮助用户将创意高效转化为现实。

108.3k|★★☆☆☆|4天前
开发框架图像Agent

gemini-cli

gemini-cli 是一款由谷歌推出的开源 AI 命令行工具,它将强大的 Gemini 大模型能力直接集成到用户的终端环境中。对于习惯在命令行工作的开发者而言,它提供了一条从输入提示词到获取模型响应的最短路径,无需切换窗口即可享受智能辅助。 这款工具主要解决了开发过程中频繁上下文切换的痛点,让用户能在熟悉的终端界面内直接完成代码理解、生成、调试以及自动化运维任务。无论是查询大型代码库、根据草图生成应用,还是执行复杂的 Git 操作,gemini-cli 都能通过自然语言指令高效处理。 它特别适合广大软件工程师、DevOps 人员及技术研究人员使用。其核心亮点包括支持高达 100 万 token 的超长上下文窗口,具备出色的逻辑推理能力;内置 Google 搜索、文件操作及 Shell 命令执行等实用工具;更独特的是,它支持 MCP(模型上下文协议),允许用户灵活扩展自定义集成,连接如图像生成等外部能力。此外,个人谷歌账号即可享受免费的额度支持,且项目基于 Apache 2.0 协议完全开源,是提升终端工作效率的理想助手。

100.8k|★★☆☆☆|4天前
插件Agent图像

markitdown

MarkItDown 是一款由微软 AutoGen 团队打造的轻量级 Python 工具,专为将各类文件高效转换为 Markdown 格式而设计。它支持 PDF、Word、Excel、PPT、图片(含 OCR)、音频(含语音转录)、HTML 乃至 YouTube 链接等多种格式的解析,能够精准提取文档中的标题、列表、表格和链接等关键结构信息。 在人工智能应用日益普及的今天,大语言模型(LLM)虽擅长处理文本,却难以直接读取复杂的二进制办公文档。MarkItDown 恰好解决了这一痛点,它将非结构化或半结构化的文件转化为模型“原生理解”且 Token 效率极高的 Markdown 格式,成为连接本地文件与 AI 分析 pipeline 的理想桥梁。此外,它还提供了 MCP(模型上下文协议)服务器,可无缝集成到 Claude Desktop 等 LLM 应用中。 这款工具特别适合开发者、数据科学家及 AI 研究人员使用,尤其是那些需要构建文档检索增强生成(RAG)系统、进行批量文本分析或希望让 AI 助手直接“阅读”本地文件的用户。虽然生成的内容也具备一定可读性,但其核心优势在于为机器

93.4k|★★☆☆☆|1周前
插件开发框架