【解析】一文读懂AI芯片:短期内GPU主导,未来三大路线并存
当前以深度学习为代表的人工智能迎来第三次爆发,这对底层芯片计算能力更高需求。人工智能运算具有大运算量、高并发度、访存频繁的特点,且不同子领域(如视觉、语音与自然语言处理)所涉及的运算模式具有高度多样性,对于芯片的微架构、指令集、制造工艺甚至配套系统软件提出巨大挑战。
AI 芯片作为专门针对人工智能领域的新型芯片,相较传统芯片能更好满足人工智能应用需求。
根据部署位置,AI芯片可以分为云端(数据中心)芯片和边缘端(终端)芯片。云端芯片部署位置包括公有云、私有云或者混合云等基础设施,主要用于处理海量数据和大规模计算,而且还要能够支持语音、图片、视频等非结构化应用的计算和传输,一般情况下都是用多个处理器并行完成相关任务;边缘端AI 芯片主要应用于嵌入式、移动终端等领域,如摄像头、智能手机、边缘服务器、工控设备等,此类芯片一般体积小、耗电低,性能要求略低,一般只需具备一两种AI 能力。
按芯片承担的任务,可以分为用于构建神经网络模型的训练芯片,与利用神经网络模型进行推断的推断芯片。训练是指通过大量的数据样本,代入神经网络模型运算并反复迭代,来获得各神经元“正确”权重参数的过程。推断是指借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。训练芯片受算力约束,一般只在云端部署。因此,AI芯片可以分为云端训练芯片、云端推断芯片和边缘端训练芯片。
从AI芯片的技术路线看,主要包括基于传统架构的GPU、FPGA、ASIC。
短期内GPU仍将主导AI芯片市场,长期三大技术路线将并存。目前AI芯片并不能取代CPU的位置,正如GPU作为专用图像处理器与CPU的共生关系,AI芯片将会作为CPU的AI运算协处理器,专门处理AI应用所需要的大并行矩阵计算需求,而CPU作为核心逻辑处理器,统一进行任务调度。在服务器产品中,AI芯片被设计成计算板卡,通过主板上的PCIE接口与CPU相连;而在终端设备中,由于面积、功耗成本等条件限制,AI芯片需要以IP形式被整合进Soc系统级芯片,主要实现终端对计算力要求较低的AI推断任务。
FPGA 技术,因其低延迟、计算架构灵活可定制,正在受到越来越多的关注,微软持续推进在其数据中心部署FPGA,Xilinx 和Intel 均把FPGA 未来市场中心放到数据中心市场。Xilinx 更是推出了划时代的ACAP,第一次将其产品定位到超越FPGA 的范畴。相较云端高性能AI 芯片,面向物联网的AI 专用芯片门槛要低很多,因此也吸引了众多小体量公司参与。
长期来看,GPU 主要方向是高级复杂算法和通用型人工智能平台,FPGA 未来在垂直行业有着较大的空间,ASIC 长远来看非常适用于人工智能,尤其是应对未来爆发的面向应用场景的定制化芯片需求。
来源:OFweek维科号 作者:一起聊IT
The end
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 总书记深深牵挂雪域高原上的人们 4992901
- 2 小米首款汽车起售21.59万 贵吗? 4938815
- 3 雷军“朋友圈”表情包火了 4833356
- 4 抓住“热辣滚烫”的“春日经济” 4723508
- 5 黄圣依杨子直播事件6人被刑拘 4608206
- 6 汪小菲宣布求婚成功 晒出超大钻戒 4570915
- 7 韩国留学女生找王婆说媒 4429544
- 8 李铁出庭受审时仍留着标志性刘海 4397562
- 9 面具男用病毒针扎人系谣言 4251088
- 10 电梯维修工带纸片人冒充同事工作 4181841