关于硬件:携手NVIDIA等40余家国内外伙伴飞桨硬件生态狂飙

44次阅读

共计 5222 个字符,预计需要花费 14 分钟才能阅读完成。

深度学习框架与 AI 硬件厂商,相辅相成、独特倒退。百度飞桨与 NVIDIA 等 40 多家硬件搭档正在践行这一理念。

备受关注的 NVIDIA GTC 2023 大会曾经完结,NVIDIA CEO 黄仁勋仍然给所有人带来了震撼,搬出了为 ChatGPT 筹备的芯片,向世人展现了 GPU 继续在算力上赋能大模型乃至整个深度学习畛域的微小后劲。

大会期间,黄仁勋还与 OpenAI 联结创始人、首席科学家 Ilya Sutskever 进行了一场深度对话,他们统一认为深度学习的弱小能力曾经扭转了世界,真正推动了技术的提高。

确实,近年来,深度学习技术正在推动整个 AI 行业进入到一个全新的阶段。AI 畛域的技术创新和产业倒退离不开深度学习框架和平台,它联动了 AI 产业链上下游泛滥企业和用户,通过继续升高利用门槛将 AI 技术传递给千行百业,推动 AI 利用大规模落地。

作为国内 AI 领头雁的百度,其飞桨产业级深度学习开源开放平台集外围框架、产业级模型库、开发套件与工具组件于一体,其中百度生成式 AI 产品文心一言正是孕育自产业级常识加强大模型文心。截止 2022 年 11 月,飞桨曾经凝聚了 535 万开发者,服务了 20 万家企事业单位,创立了 67 万个 AI 模型。

百度依靠飞桨平台,围绕着技术、生态和产业构建了全方位、多层次的深度学习倒退格局。生态建设则是联动各方实现技术交融和落地的关键步骤,而作为生态建设重要的一环,硬件生态正是联结硬件厂商搞好 AI 芯片的适配与优化,最终达成单干共赢。

作为寰球 GPU 巨头的 NVIDIA,成为了百度飞桨人造的合作伙伴。 NVIDIA 本身也非常重视中国市场尤其中国的生态搭档,飞桨成为其在世界上反对的三大深度学习框架之一,更有专门的工程团队来赋能飞桨生态。

过来数年,飞桨与 NVIDIA 在硬件生态建设上始终放弃着全面深度的单干,做了大量的开发与优化工作,并通过技术共研开辟了泛滥软硬件协同产品与性能。尤其在 2022 年,单方的单干迈入了新的阶段。

建立硬件生态标杆

飞桨与 NVIDIA 深拓合作伙伴关系

咱们晓得,随着深度学习的疾速倒退尤其是大规模机器学习模型的涌现,AI 算力需要的增长达到了新的高度。这无疑给硬件厂商带来微小挑战,要求他们生产出十分弱小的 AI 芯片。同时,AI 芯片与深度学习框架的交融优化,能力带来前所未有的减速,将性能施展到极致。

不过,就拿 PyTorch 等罕用开源深度学习框架来说,开发团队不承受硬件厂商的代码进入骨干。这就导致硬件厂商反对新版本框架的老本昂扬,只能有选择地反对重点版本。这样一来,硬件厂商的 AI 芯片与深度学习框架之间存在适配问题,AI 根底软硬件产业链上下游也就无奈实现高效的协同倒退。

飞桨则不然,从 2020 年开始致力于 AI 芯片的适配,与国内外硬件厂商开展深度单干,共同开发更加便捷的外围框架,构建对立的硬件接入计划。通过与宽广硬件厂商构建单干生态,真正施展出 AI 芯片的算力。以 NVIDIA 为例,它早在 2020 年 5 月就退出了「飞桨硬件生态圈」打算,后续更与飞桨开展了一系列深度单干。

具体到硬件适配上,飞桨与 NVIDIA 次要在四个方面进行单干。在数据处理上帮忙飞桨集成 DALI,在大规模训练上反对各类数据格式以及 ASP、CUDA 等算子函数 API,在优化推理上开发 Paddle-TRT、Deep Learning Examples,在规模部署上集成了 NCCL、开发了 Triton PaddlePaddle Backend。多样化适配使得飞桨开发者的高性能推理训练成为可能,也为其与飞桨的进一步单干打下了根底。

2022 年,飞桨开启与硬件生态搭档全面共创的一年。在 5 月 20 日的 WAVE SUMMIT 2022 深度学习开发者峰会上,飞桨携手 NVIDIA 在内等十余家国内外硬件厂商公布了「飞桨硬件生态共创打算」,通过共享共创打造凋敝的 AI 生态。在此次峰会上,飞桨公布了其与 NVIDIA 的共研共创单干计划。

具体地,针对硬件适配仍然存在的高门槛以及用户的多层次需要,单方在已有单干的根底上开发了三大次要产品,包含了 NVIDIA NGC PaddlePaddle Container —— NGC 飞桨容器、NVIDIA Deep Learning Examples —— 飞桨深度学习模型示例、以及 NVIDIA DLI(Deep Learning Institute)—— 飞桨共建课程。对于应用 NVIDIA GPU 平台的飞桨用户,这些动作能够使他们取得绝佳用户体验与极致性能。

首先针对开发者用户的一些痛点需要,比方应用 NVIDIA 最新软件栈开发、训练、部署时须要大量手动配置工作,工程挑战微小。因而 飞桨联结 NVIDIA 开发了 NGC 飞桨容器,针对 NVIDIA GPU 减速进行优化,最大水平开释飞桨框架在 NVIDIA 最新硬件上的算力。

NGC 飞桨容器还蕴含了用于减速 ETL (DALI、RAPIDS)、训练(cuDNN、NCCL)以及推理(TensorRT)工作负载的软件,实现了飞桨与 NVIDIA 软件栈的无缝集成与性能优化。

有了 NGC 飞桨容器,用户在疾速开启 AI 利用的同时,还能在 AI 训练和推理工作上享受飞桨 +NVIDIA 带来的飞速体验。此外通过 NVIDIA NGC 欠缺的开发体系、品质治理、测试流程、文档标准、平安扫描等,单方开发了基于 NVIDIA GPU 平台最好的飞桨开发环境。

作为 NVIDIA 优化的工业级模型库,NVIDIA Deep Learning Examples 涵盖了机器人、数字孪生、金融等不同行业的模型,指标是让应用 NVIDIA GPU 平台的开发者复现 NLP 和 CV 等畛域领有极致性能的经典模型。

2022 年 10 月,NVIDIA Deep Learning Examples 仓库上线了基于飞桨实现的 ResNet50 模型 ,相干示例全面适配各类 NVIDIA GPU 以及单机单卡、单机多卡等各种硬件拓扑,实现了性能极致优化。值得一提的是, 飞桨 ResNet50 模型的训练速度超过了 PyTorch 版 ResNet50。之后还反对了 BERT 模型,后续将陆续反对 PP-YOLOE  等模型。

为了更好地进步推训性能并简化代码,NVIDIA 深度学习培训中心(DLI)不仅筹备了系列收费课程,还联名飞桨推出 DLI 课程证书,为开发者的能力和职业倒退提供了权威证实。 例如飞桨与 NVIDIA 联结打造了《应用 PaddlePaddle 与 TensorRT 实现深度学习优化与部署》课程,让开发者感触基于 PaddlePaddle 与 TensorRT 的优化部署最佳体验。

2022 年 11 月 30 日,在 WAVE SUMMIT 2022 深度学习开发者峰会上,飞桨又携手 NVIDIA 等 12 家硬件搭档公布了 飞桨生态发行版。对于用户而言,当在 NVIDIA GPU 平台上跑飞桨时,会提供专门的软件版本,使开发者享受更好的软硬一体化体验。至此飞桨与 NVIDIA 的硬件生态单干又进了一步。

在飞桨着力打造凋敝共赢生态、促成软硬件协同倒退的过程中,NVIDIA 是重要的参与者和见证者,并成为飞桨单干生态中最为深刻和标杆性的案例。随着单方单干内容的不断丰富,满足了 AI 开发者的多层次需要。同时,飞桨与 NVIDIA 的深度单干也为国内其余硬件厂商提供了一种可参照的单干模式。

共聚、共研、共创

飞桨摸索与硬件厂商共赢之路

从飞桨与 NVIDIA 的单干中能够看到,硬件生态建设这一环做得好不好,会粗浅地影响到深度学习框架本身的通用性、硬件厂商 AI 芯片的效率以及在 AI 畛域的广泛应用。正是这种单方的痛点需要为飞桨与硬件厂商的生态单干做好了铺垫

作为国内市场综合份额第一的深度学习平台,飞桨始终以来十分重视与国内外硬件厂商的单干,通过与他们的紧密联系继续拓展硬件生态。截至目前,与飞桨深度交融优化的国内外硬件厂商数量曾经超过了 40 家

对于飞桨来说,其与硬件生态搭档的单干是在摸索中后退,一直地翻新单干模式,经验了 2020 年的「共聚」、2021 年的「共研」、2022 年的「共创」三个阶段。每个阶段的侧重点不同,合作伙伴数量逐年增多,单干内容也更加宽泛和深刻。

首先回到 2020 年,飞桨率先对接了国内外当先的 CPU、GPU、ASIC、服务器等硬件厂商,并于 5 月联 合 Intel、NVIDIA、寒武纪、浪潮等 13 家国内外顶级硬件厂商公布了「飞桨硬件生态圈」打算,为起初的宽泛硬件生态单干打好了根底

过后,飞桨除了继续加强硬件厂商对飞桨平台投入的信念,还通过金融、能源等行业的最终用户来驱动硬件厂商与飞桨适配,建设起与他们的标准流程、专门团队等。这些动作开释出了飞桨携手硬件厂商共建硬件生态的信心,并启动了与重点厂商的硬件适配和技术优化工作。

在接下来的 2021 年,飞桨 开始与硬件搭档的软硬一体联结优化,进入到了「共研」阶段。不过,在执行硬件适配与技术优化过程中,单方也遇到了挑战。一是硬件厂商软件栈接入形式多样(算子库、图接入、编译器等),适配技术计划简单。国内厂商的 AI 软件栈建设起步晚,给理论适配带来新的挑战;二是如何使得硬件厂商以较低的老本接入飞桨。

针对这些挑战,飞桨联合对硬件厂商软件栈的了解设计了飞桨硬件对接计划,包含自定义算子库接入、自定义通信库等多项根底软件革新,极大升高了硬件厂商适配老本。在该阶段,飞桨反对的国产硬件数量实现了第一

进入到 2022 年,飞桨在 2021 年技术适配成绩的根底上进一步拓展与硬件搭档的单干。飞桨心愿更多的硬件开发者应用飞桨进行 AI 利用翻新,硬件厂商也心愿引入定制版的飞桨框架、模型库来丰盛本身 AI 软件栈,因而 单方的单干进入到全面的「共创」阶段

首先是上文提到的「飞桨硬件生态共创打算」,旨在与飞桨硬件生态搭档在 联结研发、资源共享、联结受权、培训赋能 等四个维度全面单干,更好地服务开发者,减速 AI 产业落地,实现生态凋敝共赢。

在联结研发环节,飞桨与硬件搭档成立技术研发虚构联结团队,独特打磨根底软件栈,推动硬件与飞桨的适配与性能优化工作。尤其针对国产 AI 硬件与深度学习框架继续适配与降级老本较高的问题,飞桨推出算子接入、子图接入、编译器接入等多种计划,与厂商共建继续集成基础设施,接管厂商适配的代码。在寰球前三大框架中,飞桨是惟一对所有硬件厂商凋谢单干、承受所有硬件厂商提交代码的框架

此外,飞桨还联结硬件搭档独特推出 飞桨生态发行版(针对特定 AI 硬件,定制优化的飞桨框架和飞桨模型库),大大晋升飞桨模型在各类 AI 硬件上的训练推理性能,为开发者提供更多更好抉择。

在资源共享环节,飞桨与硬件生态共创打算搭档共享推广宣传资源 ,包含独特撰写技术稿件,通过博客、论坛等社交媒体资源联动推广。 飞桨还对生态搭档联结受权,将与硬件搭档联结优化好的计划优先举荐给生态搭档,并基于硬件平台联合开发飞桨一体机,提供性能全面、便捷高效、稳固牢靠的一站式 AI 服务。

在培训赋能环节,飞桨联结生态搭档开发飞桨 + 硬件应用开发教程,与硬件厂商在单方的学习与实训社区提供系列课程及联名认证证书,如上文与 NVIDIA 联合开发的飞桨共建课程。飞桨还与硬件搭档在 AI Studio 中开设厂商专区,为国内深度学习开发者提供体验更多 AI 硬件的机会。目前飞桨 AI Studio 是国内最大的人工智能学习与实训社区,注册用户超过了 300 万。

从共聚、共研到共创,一路走来,飞桨在硬件生态建设上继续深入与硬件搭档的单干形式与内容,联合他们的理论需要,通过技术创新继续升高适配飞桨的老本,并利用产品共建、生态经营等路径放弃适配后的商业价值。对于国内硬件厂商而言,曾经具备相当规模的飞桨生态是其疾速拓展硬件市场的契机,因而应敢于拥抱并翻新本身与飞桨的生态单干,实现双赢。

作为整个 AI 产业链的重要一环,飞桨始终以来的凋谢单干态度是其硬件生态继续获得成绩的重要前提,接入 AI 芯片时联结硬件搭档优化 AI 软件工具链设计,充沛满足开发者在利用时对算力、模型和算力等各个层面的需要,升高开发、训练和部署的累赘,带来低门槛、繁难的应用体验。

飞桨深度学习框架和硬件厂商这两个主体的高效合作还加强了整个 AI 行业的生机,产生真正的商业价值,在一直健全、良性的硬件生态环境中推动 AI 利用规模化落地。将来飞桨将继续开源凋谢,找准与硬件厂商利益契合点,在更宽泛和深刻的软硬协同摸索中更好地服务开发者。

最初,在 NVIDIA GTC 2023 大会上,百度 AI 技术生态总经理马艳军等四位专家带来了精彩的内容分享。

参考链接

https://www.eet-china.com/mp/a134727.htmlhttps://www.eet-chin…

https://www.jiqizhixin.com/articles/2023-02-01-5

https://www.jiqizhixin.com/articles/2022-09-07-4

转载起源

文章转载自公众号【机器之心】

原文链接:https://mp.weixin.qq.com/s/4_wx8P3FHRflhTRsySmm8w

获取更多技术内容~

正文完
 0