共计 1588 个字符,预计需要花费 4 分钟才能阅读完成。
GPU 最后用在 PC 和挪动端上运行绘图运算工作的微处理器,与 CPU 集成以集成显卡(核显)的状态施展性能。NVIDIA 于 2007 年率先推出独立 GPU(独显),使其作为“协处理器”在 PC 和服务器端负责减速计算,承接 CPU 计算密集局部的工作负载,同时由 CPU 持续运行其余程序代码。
作为独显的 GPU 由 GPU 外围芯片、显存和接口电路形成。
独 GPU 与 CPU 之间通过 PCIe 总线连贯,因此 PCIe 总线规范间接影响到通信带宽;而针对 GPU 之间的互连,Nvidia 推出 NVLink 技术代替传统 PCIe 总线的形式,依据 Nvidia 官网数据,GPU 性能晋升 5 倍。
目前因为 AI 性能开掘仍有空间,曾经部署的服务器中 GPU 算力尚有冗余,预计 PCIe 由 3.0 降级至 4.0 和 5.0 短期内对 GPU 影响不大。但支流参与者仍在依照工艺门路继续推动产品升级。
依据 AIBResearch 数据,Nvidia 占据独显市场近 80% 的份额,目前 NVIDIA Ampere A100 产品 7nm 曾经投入生产。
NVIDIA、AMD 和 Intel 在 GPU 市场三分天下。依据 Jon Peddie Research 数据,Intel、AMD 和 Nvidia 别离占据 63%、19% 和 18% 的市场份额。Intel 和 ADM 在 PC 端 GPU 市场占据强势位置,次要起因是 PC 端集成 GPU(核显),而 Intel 和 AMD 在 PC 端 x86 CPU 市场别离占据 84% 和 16% 的份额。
在独立 GPU(独显)市场,Nvida 是行业的奠基者和龙头,占据近 70% 份额。AIB 数据显示,2019 年 Q4,Nvidia 和 AMD 在独立 GPU 市场份额别离为 81% 和 19%。针对 HPC 和 AI 场景,Nvidia 推出的产品次要是 Tesla 系列,包含 V100、P100、K40/K80、M40/M60 等多个型号,K 系列更适宜高精度计算,M 系列更适宜深度学习。
2019 年 3 月,Nvidia 发表以 49 亿美元收买 Mellanox,预计 2020 年 4 月底该项交易最终实现,成为 Nvidia 历史上最大的一笔收买。Mellanox 是服务器和存储端到端连贯解决方案的供应商,产品波及 HPC、云计算、数据中心、企业计算及存储市场,包含 Smart NIC,网络交换机芯片和高速数据互联等。
AI 芯片在智能摄像头、无人驾驶等畛域利用宽泛。数据、算力和算法是 AI 三大因素,CPU 配合减速芯片模式成为典型的 AI 部署计划,CPU 提供算力,减速芯片晋升算力并助推算法的产生。常见的 AI 减速芯片包含 GPU、FPGA(Field Programmable Gate Array)和 ASIC(Application Specific Integrated Circuit)三种类型。
CPU 适宜逻辑管制和串行计算等通用计算,计算能力没有 GPU 强,次要由专为程序串行解决而优化的几个外围组成;
GPU 用于大量反复计算,由数以千计的更小、更高效的外围组成大规模并行计算架构,装备 GPU 的服务器可取代数百台通用 CPU 服务器来解决 HPC 和 AI 业务(依据 Nvida)。
FPGA 是一种半定制芯片,灵活性强集成度高,但运算量小,量产老本高,实用于算法更新频繁或市场规模小的专用畛域;
ASIC 专用性强,市场需求量大的专用畛域,但开发周期较长且难度极高。谷歌自主设计了一款基于 ASIC 的 TPU(Tensor Processing Unit)专门用于机器学习工作负载。
训练和推断是云端 AI 两大运行过程,训练产生算法,推断实现算法利用。训练阶段须要大量数据运算,GPU 预计占 64% 左右市场份额,FPGA 和 ASIC 别离为 22% 和 14%。
推理阶段无需大量数据运算,GPU 将占据 42% 左右市场,FPGA 和 ASIC 别离为 34% 和 24%。AI 芯片经营场景包含云端(服务器)、边缘端和终端三类,不同利用场景对 AI 芯片的需要不同。就云端芯片而言,2023 年市场需求将达 200 亿美元(依据 Nvidia)。