如今火热的AI芯片到底是什么

从广义上讲,只要能够进行人工智能算法或者面向AI计算应用的芯片都叫做AI芯片。但是,通常意义上的AI芯片指的是针对人工智能算法做了特殊加速设计的芯片。他们的目的就是为了更高效地执行AI算法。

2007年以前,AI芯片产业一直没有发展成为成熟的产业,同时由于当时的算法、数据量等因素,这个阶段的AI芯片并没有特别强烈的市场需求,通用的CPU芯片即可满足应用需求。随着高清视频、VR、AR、游戏等行业的发展,GPU产品得到了快速的突破,同时人们发现GPU的并行计算特性恰好适应人工智能算法及大数据并行计算的需求。如GPU比之前传统的CPU在深度学习算法的运算上可以提升几十倍的效率,因此开始尝试使用GPU进行人工智能计算。

进入2010年后,云计算开始广泛推广,人工智能的研究人员通过云计算借助大量的CPU和GPU进行混合运算,进一步推进了AI芯片的深入应用,从而催生了各类AI芯片的研发和应用。人工智能对于计算能力的要求在不断地提升。

进入2015年后,GPU性能功耗比不高的特点使其在工作适用场合受到多种限制,业界开始研发针对人工智能的专用芯片,以其通过更好的硬件和芯片架构在计算效率、能耗比等性能上得到进一步的提升。

首先,从AI芯片的功能来看,AI实现包括两个环节:训练和推理。

所以根据承担的任务不同,AI芯片可以分为基于构建神经网络模型的训练芯片,和利用神经网络模型进行推理预测的推理芯片。训练环节通常需要通过大量的数据输入,训练出一个复杂的深度神经网络模型。训练过程由于涉及海量的训练数据和复杂的深度神经网络结构,运算量非常巨大,需要庞大的计算规模。对于处理器的计算能力、精度、可扩展性的性能要求非常高。比如英伟达的H100,基于FP16的算力达到了2000TOPS,即每秒可以进行2,000万亿次的操作。而推理则是利用训练好的模型,使用新的数据去推理出各种结论。这个环节的计算量相对于训练环节就少很多,但是仍然会涉及到大量的矩阵运算。比如英伟达的T4,基于INT8的算力为1,300TOPS。因此,训练芯片注重绝对的计算能力,而推理芯片更注重的是综合指标,单位能耗、算力、延时等各项成本都需要考虑。

从AI芯片的应用场景来看,也可以分为两大类:服务器端和移动端,也可以说是云端和终端。

服务器端,从刚刚提到的训练阶段,由于数据量和运算量巨大,单一的处理器几乎不可能独立完成一个模型的训练过程,因此训练环节只能在云端实现。而推理阶段,由于训练出来的深度神经网络模型仍然非常复杂,推理过程仍然属于计算密集型和存储密集型,同样可以选择部署在服务器端。移动端,如手机、智能家居、无人驾驶,移动端AI芯片在设计思路上与服务器端的AI芯片有着本质的区别。首先,它们对计算的能效要求非常之高;其次,在智能驾驶等实时性要求很高的场合,推理过程必须在设备本身完成,因此要求移动设备具备足够的推理能力。而某些场合还会有低功耗、低延迟、低成本的要求,从而要求移动端的AI芯片更是多种多样。总的来说,服务器端AI芯片的特点是性能强大,并且能够支持大量运算;而移动端的AI芯片特点是体积小、耗电少,并且有很快的计算效率。

最后,还可以从技术架构来划分,比如GPU、FPGA、ASIC和类脑芯片。

GPU:传统的CPU之所以不适合人工智能算法的执行,主要原因是在于计算指令遵循着串行执行的,没有办法发挥出芯片的全部潜力。CPU大部分面积为控制器和寄存器,而GPU拥有更多的逻辑运算单元,用于数据处理。这样的结构适合对于密集型数据进行并行计算,程序在GPU系统上运行速度相较于单行的CPU往往提升几十倍甚至上千倍。但是,GPU也有一定的局限性:深度学习算法分为训练和推断两个部分,GPU平台在算法训练上是非常高效,但是在推断中,由于单项输入进行处理的时候并行计算的优势不能完全发挥出来。此外,GPU无法单独工作,必须由CPU进行控制调用才能工作,而且功耗比较高。

FPGA:FPGA全称现场可编程门阵列,与GPU不同的是,FPGA同时拥有硬件流水线并行和数据并行处理能力,适用于以硬件流水线方式处理一条数据,且整体运算性更高。因此,常用于深度学习算法中的推断阶段。不过,FPGA通过硬件的配置实现软件算法,因此在实现复杂算法方面有一定的难度。相比于CPU,FPGA因为没有数据和指令存储和读取的功能,速度会变得更快,而功耗会更低。那么它的劣势就是价格比较高,编程相对复杂,而且整体运算能力不是很高。

ASIC:ASIC是专用集成电路,是专用的定制芯片,即是为实现特定要求而定制的芯片。定制的特性有助于提高ASIC的性能功耗比,缺点是电路设计需要定制,相对开发周期长,功能难以扩展。但在功耗、可靠性、集成度等方面都有优势,尤其在要求高性能、低功耗的移动端体现非常明显。因此在深度学习算法稳定后,AI芯片可以采用ASIC设计方法进行全面定制,使性能、功耗和面积等指标面向深度学习的算法做到最优。

神经拟态芯片,也就是类脑芯片。神经拟态计算是模拟生物神经网络的计算机制,神经拟态计算是从结构层面去逼近大脑。这种芯片把定制化的数字处理内核当作神经元,把内存作为突触。其逻辑结构与传统的冯·诺依曼结构完全不同,它的内存、CPU和通信部件完全是集成在一起,因此信息的处理在本地进行,克服了传统计算机的内存和CPU之间的速度瓶颈问题。同时,神经元之间可以方便快捷地相互沟通,只要接收到其他的神经元发过来的脉冲,那么这些神经元就会同时做出反应和动作。

AI芯片的发展向着更低功耗、更接近人脑、更靠近边缘的方向发展。现在用于深度学习的AI芯片,为了实现深度学习的庞大乘积累加运算和实现计算的高性能,芯片面积越做越大,带来了成本和散热等问题。AI芯片编程的成熟度和芯片的安全以及神经网络的稳定性等问题也都未能得到很好的解决。因此在现有的基础上进行改进和完善此类芯片,仍然是当前的主要研究方向。最终,AI芯片将进一步提高智能,向着更接近人脑的高度智能方向不断发展,并且向着边缘逐步移动,以获得更低的能耗。AI芯片的发展,计算范式随着创新方向以及硬件实现,AI硬件加速技术已经逐渐走向成熟。未来可能会有更多的创业会来自电路和器件级技术的结合,比如存内计算、类脑计算,或者是针对特殊的计算模式或者是新模型,还会有稀疏化计算和近似计算。关于深度计算的研究,也将持续进行。

THE END
1.投资者提问:请问开发ai芯片的聆思科技和贵公司什么关系?贵公司ai...请问开发ai芯片的聆思科技和贵公司什么关系?贵公司ai大模型预计什么时候发布 董秘回答(科大讯飞SZ002230): 您好,聆思科技是科大讯飞的生态合作伙伴之一。讯飞依托认知智能全国重点实验室(科技部首批20家标杆全国重点实验室之一)的长期积累,于2022年12月份启动生成式预训练大模型“1+N”任务攻关,其中“1”是通用认知智...https://finance.sina.cn/stock/relnews/dongmiqa/2023-03-25/detail-imynaxuw2584040.d.html
1.AI芯片最强科普机器之心GPU短期将延续AI芯片的领导地位。目前GPU是市场上用于AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次尚浅时期,GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。GPU的领军厂商英伟达仍在不断探寻GPU的技术突破,新推出的Volta架构使得GPU一定程度上克服了在深度学习推理阶段的...https://www.jiqizhixin.com/articles/2018-12-24-5
2.ai芯片是什么东西ai芯片和普通芯片的区别ai芯片是什么东西 ai芯片和普通芯片的区别 AI芯片是专门为人工智能应用设计的处理器,它们能够高效地执行AI算法,特别是机器学习和深度学习任务。AI芯片可以根据设计和应用的不同,大致分为以下几类: 1.通用芯片:这类芯片经过软硬件优化,可以高效支持AI应用,例如GPU(图形处理单元)和FPGA(现场可编程门阵列)。https://www.elecfans.com/d/2558003.html
3.AI芯片是什么?这种技术如何推动人工智能的发展和应用?在当今科技飞速发展的时代,AI 芯片作为一项关键技术,正以前所未有的影响力推动着人工智能的进步,并在众多领域实现广泛应用。 AI 芯片,顾名思义,是专门为人工智能计算任务而设计的芯片。与传统芯片相比,它具有独特的架构和优化,能够高效处理大量的数据和复杂的算法。 https://funds.hexun.com/2024-09-25/214709992.html
4.什么是人工智能芯片,什么是人工智能芯片?人工智能大家好,今天小编关注到一个比较有意思的话题,就是关于什么是人工智能芯片的问题,于是小编就整理了6个相关介绍什么是人工智能芯片的解答,让我们一起看看吧。 什么是ai芯片? al芯片是指是能处理AI通用任务且具有核心知识产权(IP)的处理器; 是融合运营AI算法的普通处理器; ...http://www.92mobi.com/rgzn/9f1b30ca2539968d.html
5.所谓的AI芯片到底指什么?ai芯片是什么所谓的AI芯片到底指什么? 进入公司AI产业快有3个年头,AI芯片和传统芯片,甚至AI芯片和GPU,还有AI芯片的发展历史,面向未来场景的挑战都有很多话题,下面我们一起来聊聊AI芯片和传统芯片的区别哈。 芯片是半导体元件产品的统称,而集成电路,缩写是IC,就是将电路小型化,通过电子学和光学,将电路制造在半导体晶圆上面。https://blog.csdn.net/m0_37046057/article/details/121172739
6.AI芯片概念是什么?(附十大概念股)AI芯片概念是什么?(附十大概念股) 所谓的AI芯片概念,泛指专门用于处理人工智能应用中的计算任务的模块,是诞生于人工智能应用快速发展时代的处理计算任务硬件,广义来讲,凡是面向人工智能应用的芯片均被称为AI芯片。 主要的技术路线有三种:通用型(GPU)、半定制型(FPGA)、定制型(ASIC)。https://ee.ofweek.com/2023-04/ART-8500-2816-30594232.html
7.AI芯片概述四强科技CPU可以拿来执行AI算法,但因为内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU并不能达到最优的性价比。因此,具有海量并行计算能力、能够加速AI计算的AI芯片应运而生。 二、什么是AI芯片 一般的说,AI芯片被称为AI加速器或计算卡,即专门用于加速AI应用中的大量计算任务的模块(...https://www.forthlink.com/gov/10788
8.什么是AI视觉感知芯片?视觉芯片作为从物理世界到数字孪生世界最重要的入口,受到了广泛的关注,尤其是那些能够恢复80%-90%物理世界的芯片AI视觉感知芯片。 那么什么是AI视觉感知芯片呢?从需求端的角度来看,AI视觉感知芯片需要具备两大功能:一是看得清楚,二是看得懂,其中AI-ISP负责的是看得清楚,AI-NPU负责看懂。 https://www.sensorexpert.com.cn/article/78508.html
9.英伟达价值1万美元的芯片是什么样的?它将成为AI行业的“主力...英伟达价值1万美元的芯片是什么样的?它将成为AI行业的“主力” 财联社消息,目前人工智能(AI)正在科技行业掀起一股淘金热。 正当微软、谷歌等大型科技公司着眼于将尖端的AI技术集成到他们的搜索引擎中、努力开发AI软件时,英伟达正试图在它最擅长的芯片领域开拓出一条新的道路。https://www.cqcb.com/shuzijingji/2023-02-24/5182646.html
10.什么是NPU:AI芯片的未来,你需要了解的一些事虽然GPU 和 CPU 也能执行 AI 计算,但 NPU 能将这些计算分解成更小的部分,从而实现更快速的处理。 推荐阅读:NPU 与 GPU 有什么区别? NPU 与 TPU Google Cloud TPU Google 开发的 TPU 同样专注于处理神经网络,与 NPU 功能相似。但它们在架构上有显著的不同。 https://www.sysgeek.cn/www.sysgeek.cn/what-is-npu/
11.AI芯片:前沿技术与创新未来本书从人工智能(AI)的发展历史讲起,介绍了目前非常热门的深度学习加速芯片和基于神经形态计算的类脑芯片的相关算法、架构、电路等,并介绍了近年来产业界和学术界一些著名的AI芯片,包括生成对抗网络芯片和深度强化学习芯片等。本书着重介绍了用创新的思维来设计AI芯片的各种计算范式,以及下一代AI芯片的几种范例,包括量...https://labs.epubit.com/bookDetails?id=UB77c78956e3aef