关于gpu:算力时代GPU开拓新场景

7次阅读

共计 1784 个字符,预计需要花费 5 分钟才能阅读完成。

一、人工智能经验过三个阶段,迎来爆发式增长

狭义上讲只有可能运行人工智能算法的芯片都叫作 AI 芯片。然而通常意义上的 AI 芯片指的是针对人工智能算法做了非凡减速设计的芯片。

AI 芯片也被称为 AI 加速器或计算卡,即专门用于解决人工智能利用中的大量计算工作的模块(其余非计算工作仍由 CPU 负责)。

第一阶段:因为芯片算力有余,所以神经网络没有受到重视;

第二阶段:通用芯片 CPU 的算力大幅晋升,但依然无奈满足神经网络的需要;

第三阶段:GPU 和和新架构的 AI 芯片推动人工智能落地。

事件 1:2014 年李天石博士“DianNao”系列论文让科学界看到,在冯诺依曼架构下也能够实现 AI 专用芯片;

事件 2:Google 推出的 TPU 运算架构的 AlphaGo,接连战胜李世石和柯洁,看到了专用芯片的商业价值。

二、举荐式零碎模型参数,复杂度大幅减少

GPT- 3 模型目前已入选了《麻省理工科技评论》2021 年“十大突破性技术。

GPT- 3 的模型应用的最大数据集在解决前容量达到了 45TB。依据 OpenAI 的算力统计单位 petaflops/s-days,训练 AlphaGoZero 须要 1800-2000pfs-day,而 GPT- 3 用了 3640pfs-day。

算力时代,GPU 开辟新场景

三、深度学习模型复杂度对芯片,算力需要激增

AI 运算指以“深度学习”为代表的神经网络算法,须要零碎可能高效解决大量非结构化数据(文本、视频、图像、语音等)。须要硬件具备高效的线性代数运算能力,计算工作具备:单位计算工作简略,逻辑管制难度要求低,但并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需要。

自 2012 年以来,人工智能训练任务所需要的算力每 3.43 个月就会翻倍,大大超越了芯片产业长期存在的摩尔定律(每 18 个月芯片的性能翻一倍)。

针对不同利用场景,AI 芯片还应满足:对支流 AI 算法框架兼容、可编程、可拓展、低功耗、体积及价格等需要。

算力时代,GPU 开辟新场景

四、部署地位对 AI 芯片性能,要求差别

依据机器学习算法步骤,可分为训练芯片和推断芯片。训练芯片次要是指通过大量的数据输出,构建简单的深度神经网络模型的一种 AI 芯片,运算能力较强。推断芯片次要是指利用训练进去的模型加载数据,计算“推理”出各种论断的一种 AI 芯片,偏重思考单位能耗算力、时延、老本等性能。

从部署的地位来看,AI 芯片可分为云端(服务器端)、终端(挪动端)两大类。

云端芯片,是指部署在私有云、公有云或混合云上的 AI 芯片,不仅可用于训练,还可用于推断,算力强劲。
终端芯片,是指利用于手机等嵌入式、挪动终端等畛域的 AI 芯片,此类芯片个别体积小、耗电低、性能无需特地弱小。

五、GPU 是较为成熟的通用型,人工智能芯片

从技术架构来看,AI 芯片次要分为图形处理器、现场可编程门阵列、专用集成电路、类脑芯片四大类。

其中,GPU 是较为成熟的通用型人工智能芯片,FPGA 和 ASIC 则是针对人工智能需要特色的半定制和全定制芯片,类脑芯片颠覆传统冯诺依曼架构,是一种模仿人脑神经元构造的芯片,类脑芯片的倒退尚处于起步阶段。

六、GPU 设计之初用于显示,图像应用

GPU 图形渲染流水线的具体实现可分为六个阶段,如图所示。

顶点着色器(VertexShader);
形态拆卸(ShapeAssembly),又称图元拆卸;
几何着色器(GeometryShader);
光栅化(Rasterization);
片段着色器(FragmentShader);
测试与混合(TestsandBlending)。
七、GPU 适宜并行运行,大量计算

GPU(图形处理器)又称显示外围、显卡、视觉处理器、显示芯片或绘图芯片,是一种专门在个人电脑、工作站、游戏机和一些挪动设施(如平板电脑、智能手机等)上运行绘图运算工作的微处理器。

GPU 使显卡缩小对 CPU 的依赖,并分担局部本来是由 CPU 所担当的工作,尤其是在进行三维绘图运算时,效用更加显著。图形处理器所采纳的核心技术有硬件坐标转换与光源、平面环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等。

GPU 是一种非凡类型的处理器,具备数百或数千个内核,通过优化,可并行运行大量计算。尽管 GPU 在游戏中以 3D 渲染而闻名,但它们对运行剖析、深度学习和机器学习算法尤其有用。

起源:本文整顿【驭势资本】

正文完
 0