GPU最后用在PC和挪动端上运行绘图运算工作的微处理器,与CPU集成以集成显卡(核显)的状态施展性能。NVIDIA于2007年率先推出独立GPU(独显),使其作为“协处理器”在PC和服务器端负责减速计算,承接CPU计算密集局部的工作负载,同时由CPU持续运行其余程序代码。

作为独显的GPU由GPU外围芯片、显存和接口电路形成。

独GPU与CPU之间通过PCIe总线连贯,因此PCIe总线规范间接影响到通信带宽;而针对GPU之间的互连,Nvidia推出NVLink技术代替传统PCIe总线的形式,依据Nvidia官网数据,GPU性能晋升5倍。

目前因为AI性能开掘仍有空间,曾经部署的服务器中GPU算力尚有冗余,预计PCIe由3.0降级至4.0和5.0短期内对GPU影响不大。但支流参与者仍在依照工艺门路继续推动产品升级。

依据AIBResearch数据,Nvidia占据独显市场近80%的份额,目前NVIDIA Ampere A100产品7nm曾经投入生产。

NVIDIA、AMD和Intel在GPU市场三分天下。依据Jon Peddie Research数据,Intel、AMD和Nvidia别离占据63%、19%和18%的市场份额。Intel和ADM在PC端GPU市场占据强势位置,次要起因是PC端集成GPU(核显),而Intel和AMD在PC端x86 CPU市场别离占据84%和16%的份额。

在独立GPU(独显)市场,Nvida是行业的奠基者和龙头,占据近70%份额。AIB 数据显示,2019年Q4,Nvidia和AMD在独立GPU市场份额别离为81%和19%。针对HPC和AI场景,Nvidia推出的产品次要是Tesla系列,包含V100、P100、K40/K80、M40/M60等多个型号,K系列更适宜高精度计算,M系列更适宜深度学习。

2019年3月,Nvidia发表以49亿美元收买Mellanox,预计2020年4月底该项交易最终实现,成为Nvidia历史上最大的一笔收买。Mellanox是服务器和存储端到端连贯解决方案的供应商,产品波及HPC、云计算、数据中心、企业计算及存储市场,包含Smart NIC,网络交换机芯片和高速数据互联等。

AI芯片在智能摄像头、无人驾驶等畛域利用宽泛。数据、算力和算法是AI三大因素,CPU配合减速芯片模式成为典型的AI部署计划,CPU提供算力,减速芯片晋升算力并助推算法的产生。常见的AI减速芯片包含GPU、FPGA(Field Programmable Gate Array)和ASIC(Application Specific Integrated Circuit)三种类型。

CPU适宜逻辑管制和串行计算等通用计算,计算能力没有GPU强,次要由专为程序串行解决而优化的几个外围组成;

GPU用于大量反复计算,由数以千计的更小、更高效的外围组成大规模并行计算架构,装备GPU的服务器可取代数百台通用CPU服务器来解决HPC和AI业务(依据Nvida)。

FPGA是一种半定制芯片,灵活性强集成度高,但运算量小,量产老本高,实用于算法更新频繁或市场规模小的专用畛域;

ASIC专用性强,市场需求量大的专用畛域,但开发周期较长且难度极高。谷歌自主设计了一款基于ASIC的TPU(Tensor Processing Unit)专门用于机器学习工作负载。

训练和推断是云端AI两大运行过程,训练产生算法,推断实现算法利用。训练阶段须要大量数据运算,GPU预计占64%左右市场份额,FPGA和ASIC别离为22%和14%。

推理阶段无需大量数据运算,GPU将占据42%左右市场,FPGA和ASIC别离为34%和24%。AI芯片经营场景包含云端(服务器)、边缘端和终端三类,不同利用场景对AI芯片的需要不同。就云端芯片而言,2023年市场需求将达200亿美元(依据Nvidia)。