关于机器学习:一文读懂GPU服务器的工作原理

67次阅读

共计 1127 个字符,预计需要花费 3 分钟才能阅读完成。

GPU 服务器是一种用于计算机科学技术畛域的计算机及其配套设施,于 2017 年 5 月 31 日启用。

一、GPU 服务器的用处

GPU 服务器是基于 GPU 性能的视频编解码、深度学习、科学计算等多种场景的疾速、稳固、弹性的计算服务,提供和规范云服务器统一的治理形式。杰出的图形处理能力和高性能计算能力提供极致计算性能,无效解放计算压力,晋升产品的计算解决效率与竞争力。

它能够使用于天文空间数据的 3D 可视化,视频稳像、过滤、马赛克、转码等利用钻研与教育,例如成像和解决、结构化分析和计算物理学等天体物理学,计算流媒体动力学,动画制作,高性能计算等气象预报,量子物理,生物化学,设计,地质勘查等行业用户。

二、GPU 服务器的工作原理

简略的说 GPU 就是可能从硬件上反对 T &L(Transform and LighTIng,多边形转换与光源解决)的显示芯片,因为 T &L 是 3D 渲染中的一个重要局部,其作用是计算多边形的 3D 地位和解决动静光线成果,也能够称为“几何解决”。一个好的 T &L 单元,能够提供粗疏的 3D 物体和高级的光线特效; 只不过大多数 PC 中,T&L 的大部分运算是交由 cpu 解决的(这就也就是所谓的软件 T &L),因为 CPU 的工作繁多,除了 T &L 之外,还要做内存治理、输出响应等非 3D 图形处理工作,因而在理论运算的时候性能会大打折扣,经常呈现显卡期待 CPU 数据的状况,其运算速度远跟不上明天简单三维游戏的要求。

CDCC 专家通过多年的材料收集和钻研,总结出了一套咱们认为比拟迷信的用电量计算方法。就是计算在线经营服务器的数量。CDCC 专家通过多年统计,2021 年在线运行服务器约 1390 万台,单台服务器的应用功率按 500W 计算,网络等设施 10% 计算,再乘以 PUE,年用电量 = 应用功率 x 24 x 365。2021 年全国数据中心总的用电量约 937 亿度,不到一个三峡水电站。

三、GPU 服务器的性能

1、GPU 云服务器归属于 BCC 云服务器产品,控制台所有操作与 BCC 云服务器保持一致;

2、提供 1 卡、2 卡、4 卡 GPU 实例套餐供您抉择,对应的 CPU、内存、本地磁盘配置线性减少;

3、GPU 卡类型多样:提供实用于深度学习离线训练场景的 NVIDIA Tesla P40、K40 和深度学习开发卡,也提供更实用于在线预测场景的 NVIDIA Tesla P4 GPU 卡;

4、默认提供集成 GPU 驱动和 CUDA 的 Ubuntu 16.04 镜像,同时也能够提供 Windows、Centos 镜像等更多发行版公共镜像反对;

5、GPU 服务器是百度云中装备独享 GPU 卡的高性能云计算服务,能够帮忙您疾速、便捷地取得高质量的 GPU 计算资源,可能大幅提高机器学习及科学计算等大规模计算框架的运行速度,为搭建人工智能及高性能计算平台提供基础架构反对。

正文完
 0