不做大模型的AI芯片,清华大学“ACCEL”有何不同?

提及人工智能AI相关的算力芯片,现在绝大多数人的第一反应都是英伟达NVIDIA的GPU,作为AI模型搭建的基础,英伟达的A100/H100几乎成为了一块块“金砖”,深受业界喜爱。

然而,一方面,外部管制在上月又一次收紧,国内人工智能行业很难再获取高端算力的支持;另一方面,以GPU为首的传统数字逻辑电路芯片在处理复杂的人工智能算法时,也存在速度有限、功耗较大的困境。

面对这一挑战,清华大学自动化系戴琼海院士、吴嘉敏助理教授与电子工程系方璐副教授、乔飞副研究员联合攻关,提出了一种全新的计算架构——“全模拟光电智能计算芯片”(ACCEL)。

这颗芯片的理论算力性能可以达到目前高性能商用芯片的3000余倍,成果发表在了《自然》杂志上。

用光计算,更迅速

今年10月的2023诺贝尔物理学奖,颁给了“阿秒激光技术”,光速作为人类已知的宇宙中最快速度拥有着很多独特的特性,在物理学中有很多应用。

“如何用光做计算”是业界、学界的重要课题之一。

根据清华大学发表的项目论文所述,“全模拟光电计算芯片”(all-analog chip combining electronic and light computing,ACCEL)主要是针对人工智能领域计算机视觉相关任务的芯片。

传统的计算机视觉处理方案,是外界光线投射到如相机CMOS这样的芯片上,经过光电转换后输出的数字电信号,再加以处理。

而ACCEL的处理方式完全不同,其输入的图像并非是一个以数字形式存在的“图片”,而是物理意义上的“光”,相当于给计算机加了一双人眼,而非摄像头。

不做大模型的AI芯片,清华大学“ACCEL”有何不同?

输入的图像从光学计算部分(optical analog computing,OAC)进入,经过数据压缩处理之后,投射到光电二极管阵列上(论文中称为电子模拟计算electronic analog computing,EAC),EAC通过OAC反馈的信息产生相应的输出,表现为“有或无”的“1或0”,从而实现从模拟信号到数字信号的转变,达成结果。

从技术层面看,光线在OAC部分仅仅是照射通过了一块类似光刻机掩膜版的组件,就完成了信号压缩和处理,省略了光信号到电信号的转换,理论上没有功耗,而且处理速度为光速。加上后续EAC的信号转换输出一共需要约4.4nJ能量和2ns时间,即可实现一次计算。

由于光子的高速特性,在处理信息时具有极高的速度和效率,同时功耗很低。根据论文提供的实验数据,在相同计算精度下以串行方式处理图像时,ACCEL在实验中实现了每帧72纳秒的计算延迟和每帧4.38纳焦耳的能耗,远小于英伟达A100 GPU的每帧0.26毫秒延迟和每帧18.5毫焦能耗数据。

不做大模型的AI芯片,清华大学“ACCEL”有何不同?

ACCEL的等效算力4600TOP/s,能效比74800TOP/s/W,是英伟达A100 GPU的3000倍以上。

摩尔定律已致极限

传统的集成电路技术进步在近些年开始逐步陷入瓶颈。影响了半导体行业半个多世纪的“摩尔定律”已经逐渐放缓,甚至有些失效的预兆。从近两年消费电子领域的困境可以窥见一二。

不做大模型的AI芯片,清华大学“ACCEL”有何不同?

近几年,手机、PC类处理器的性能提升速度已经放缓,现今最为先进的3nm工艺产量与良率都面临困境,即便是已经发布的产品,性能提升也比较有限,并且,随着晶体管尺寸一再逼近物理极限,密度大增的芯片带来了功耗与发热的双重考验。

用光替代电作为信息传输的新载体,是其中一条探索道路。

清华大学此次发布的这颗ACCEL只是一颗32×32阵列的小型芯片,工艺上用的是可以称之为“落后”的180nm工艺,更多是为了概念验证。如果换用相对成熟的28nm,甚至是7nm这样的先进工艺,都有望实现更高的处理速度,以及更大的神经网络以支持更复杂的任务。

另一方面,传统的集成电路芯片处理AI这样的复杂任务时,除了需要芯片本身的算力以外,还需要配合存储器来实现数据存取,比如现在的GPU一般都会搭配高带宽的HBM内存,这会造成能量的极大消耗。

清华大学电子工程系副教授方璐表示:除算力优势外,在智能视觉目标识别任务和无人系统(如自动驾驶)场景计算中,ACCEL的系统级能效(单位能量可进行的运算数)经实测是现有高性能芯片的400万余倍,这一超低功耗的优势将有助于改善限制芯片集成的芯片发热问题,有望为未来芯片设计带来突破。

有什么用?

恰如前文所说,ACCEL主要是针对人工智能领域计算机视觉相关任务的芯片,应用场景也是集中在如图像识别、高通量筛选、自动驾驶等。尤其在自动驾驶这种需要低延迟和低功耗的应用中可能会有优秀的表现。

在终端上,主要应用可能会是超低功耗的生物识别等等。

必须说明的是,ACCEL对目前发展火热的“大模型”训练几乎没有帮助,无法取代通用AI算力芯片。

但伴随着AI芯片竞争日趋激烈,如Intel、AMD、微软、谷歌等厂商都在积极布局,清华大学的研究者们也在努力将光电芯片向着通用计算应用的方向发展,算是为国产AI算力芯片的设计提供了一个新思路。

本文来自微信公众号“镁客网”(ID:im2maker),作者:Visssom

关联网址

关联标签

文章目录

发评论,每天都得现金奖励!超多礼品等你来拿

后,在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则
暂无评论...