关于人工智能:飞桨与海光人工智能加速卡DCU系列完成互证助力国产AI加速-卡人工智能应用创新

7次阅读

共计 1642 个字符,预计需要花费 5 分钟才能阅读完成。

近日,百度飞桨深度学习框架与海光人工智能加速卡 DCU 系列进行了装置部署测试、根本功能测试和稳定性兼容性测试,联结测试结果显示百度飞桨深度学习框架在海光 DCU 系列以及海光 3000、5000、7000 系列 CPU 环境上均能顺利装置,能够牢靠、稳固、高性能地运行,满足用户的关键性利用需要。

 

图 1:飞桨与海光 DCU 生态兼容性认证证书

 

其中,DCU(Deep Computing Unit 深度计算器)是海光(HYGON)推出的一款专门用于 AI 人工智能和深度学习的加速卡。目前飞桨框架 ROCm 版基于海光 CPU(X86) 和 DCU 反对以下模型的单机单卡 / 单机多卡的训练与推理。

 

飞桨框架 ROCm 版装置阐明及测试环境阐明:

本次适配及测试工作是由飞桨团队和海光团队基于海光 7000 系列 CPU 以及海光 DCU-Z100 深度计算处理器芯片,在 CentOS7.6 操作系统下进行了相关性测试。目前飞桨框架 ROCm 版反对基于海光 CPU 和 DCU 的 Python 的训练和原生预测,以后反对的飞桨框架 ROCm 版本为 4.0.1, 飞桨框架版本为 2.1.0,提供两种装置形式:

  • 通过预编译的 wheel 包装置
  • 通过源代码编译装置

 

表 1:软件环境

 

表 2:硬件环境

 

飞桨框架 ROCm 版反对模型:

以后在海光 DCU 芯片上进行过 80+ 模型的官网验证,验证包含有图像分类(PaddleClas)、指标检测(PaddleDetection)、图像宰割(PaddleSeg)、文字辨认(PaddleOCR)、生成反抗网络(PaddleGAN)、自然语言解决(PaddleNLP)、举荐(PaddleRec)、语音(Parakeet)类别的模型。下表是反对的局部指标检测类模型的状况,残缺反对信息请见:

飞桨官网 > 文档 > 应用教程 > 硬件反对 > 海光 DCU 芯片运行飞桨 > 飞桨框架 ROCm 版反对模型。

(文档链接:

https://www.paddlepaddle.org….)

 

飞桨框架 ROCm 版训练及预测:

训练: 应用海光 CPU/DCU 进行训练与应用 Intel CPU/Nvidia GPU 训练雷同,以后飞桨框架 ROCm 版本齐全兼容飞桨框架 CUDA 版本的 API,间接应用原有的 GPU 训练命令和参数即可。

 

预测: 应用海光 CPU/DCU 进行预测与应用 Intel CPU/Nvidia GPU 预测雷同,反对飞桨原生推理库 (Paddle Inference),实用于高性能服务器端、云端推理。以后飞桨框架 ROCm 版本齐全兼容飞桨框架 CUDA 版本的 C++/Python API,间接应用原有的 GPU 预测命令和参数即可。

 

残缺训练及预测示例可参考官网海光 DCU 芯片运行飞桨文档。

 

 

海光信息技术股份有限公司(以下简称“海光公司”)自主研发的人工智能加速卡 DCU 系列能够全面笼罩反对深度学习训练场景,轻松应答简单神经网络训练,适宜为人工智能计算提供弱小的算力。产品曾经大量利用在电信、金融、教育、科研、人工智能等重要畛域。

 

 

北京百度网讯科技有限公司(以下简称“百度公司”)自主研发的深度学习平台飞桨,以百度多年的深度学习技术钻研和业务利用为根底,集深度学习外围训练和推理框架、根底模型库、端到端开发套件、丰盛的工具组件于一体,是中国首个自主研发、功能丰富、开源凋谢的产业级深度学习平台。

 

本次百度飞桨深度学习框架与海光人工智能加速卡 DCU 系列实现互认证,将进一步晋升单方在国产软、硬件畛域的产品竞争力,不断完善产品性能的同时,为客户晋升 AI 平台撑持能力,助力客户实现数字化、智能化降级转型。

百度 AI 开发者社区 https://ai.baidu.com/forum,为全国各地开发者提供一个交换、分享、答疑解惑的平台,让开发者在研发路上不再“孤军奋战”,通过一直地交换与探讨找出更好的技术解决方案。如果你想尝试各种人工智能技术、开辟利用场景,赶快退出百度 AI 社区,你对 AI 的所有畅想,在这里都能够实现!

扫描下方二维码,增加小助手微信「京东卡、小度定制周边、神秘礼盒、行李箱」等更多福利你来拿~

正文完
 0