【解析】一文读懂AI芯片:短期内GPU主导,未来三大路线并存

百家 作者:OFweek 2020-12-05 22:11:06


当前以深度学习为代表的人工智能迎来第三次爆发,这对底层芯片计算能力更高需求。人工智能运算具有大运算量、高并发度、访存频繁的特点,且不同子领域(如视觉、语音与自然语言处理)所涉及的运算模式具有高度多样性,对于芯片的微架构、指令集、制造工艺甚至配套系统软件提出巨大挑战。


AI 芯片作为专门针对人工智能领域的新型芯片,相较传统芯片能更好满足人工智能应用需求。


根据部署位置,AI芯片可以分为云端(数据中心)芯片和边缘端(终端)芯片。云端芯片部署位置包括公有云、私有云或者混合云等基础设施,主要用于处理海量数据和大规模计算,而且还要能够支持语音、图片、视频等非结构化应用的计算和传输,一般情况下都是用多个处理器并行完成相关任务;边缘端AI 芯片主要应用于嵌入式、移动终端等领域,如摄像头、智能手机、边缘服务器、工控设备等,此类芯片一般体积小、耗电低,性能要求略低,一般只需具备一两种AI 能力。


按芯片承担的任务,可以分为用于构建神经网络模型的训练芯片,与利用神经网络模型进行推断的推断芯片。训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程。推断是指借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。训练芯片受算力约束,一般只在云端部署。因此,AI芯片可以分为云端训练芯片、云端推断芯片和边缘端训练芯片。


从AI芯片的技术路线看,主要包括基于传统架构的GPU、FPGA、ASIC。


短期内GPU仍将主导AI芯片市场,长期三大技术路线将并存。目前AI芯片并不能取代CPU的位置,正如GPU作为专用图像处理器与CPU的共生关系,AI芯片将会作为CPU的AI运算协处理器,专门处理AI应用所需要的大并行矩阵计算需求,而CPU作为核心逻辑处理器,统一进行任务调度。在服务器产品中,AI芯片被设计成计算板卡,通过主板上的PCIE接口与CPU相连;而在终端设备中,由于面积、功耗成本等条件限制,AI芯片需要以IP形式被整合进Soc系统级芯片,主要实现终端对计算力要求较低的AI推断任务。


FPGA 技术,因其低延迟、计算架构灵活可定制,正在受到越来越多的关注,微软持续推进在其数据中心部署FPGA,Xilinx 和Intel 均把FPGA 未来市场中心放到数据中心市场。Xilinx 更是推出了划时代的ACAP,第一次将其产品定位到超越FPGA 的范畴。相较云端高性能AI 芯片,面向物联网的AI 专用芯片门槛要低很多,因此也吸引了众多小体量公司参与。


长期来看,GPU 主要方向是高级复杂算法和通用型人工智能平台,FPGA 未来在垂直行业有着较大的空间,ASIC 长远来看非常适用于人工智能,尤其是应对未来爆发的面向应用场景的定制化芯片需求。


来源:OFweek维科号 作者:一起聊IT

The end


关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

公众号 关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接