12月12日,由深度学习技术及利用国家工程实验室主办的WAVE SUMMIT+ 2021深度学习开发者峰会在上海召开。此次峰会,最让开发者惊艳的是飞桨开源框架v2.2的重磅公布。百度深度学习技术平台部高级总监马艳军与百度AI产品研发部总监忻舟,就飞桨新版本个性与落地部署利用做了详尽解读,框架核心技术继续当先,落地部署升高利用门槛,飞桨正在为解决AI落地产业提供全新的答案。

 践行交融翻新,飞桨核心技术继续积攒与冲破 

峰会现场,马艳军示意,飞桨作为中国首个自主研发、功能丰富、开源凋谢的产业级深度学习平台,核心技术继续积攒与冲破,全新公布的开源框架2.2版本,波及深度学习开发、训练、文本工作极致优化、硬件高效适配、低门槛推理部署等多方面创新性技术,赋能开发者,为产业利用和前沿摸索提供技术源能源。

开发方面

飞桨提供丰盛的API,反对开发者便捷、高效地开发深度学习模型。飞桨框架v2.2的API更加丰盛、高效并保持良好的兼容性,有针对性地丰盛了100多个API,可反对更宽泛模型开发,尤其针对科学计算的模型利用,减少了傅里叶变换、Jacobian/Hessian/VJP/JVP等一系列API,反对量子计算、生命科学、计算流体力学、分子动力学等利用,助力前沿技术摸索。

训练方面

全新公布端到端自适应大规模分布式训练技术。针对不同的模型和硬件,形象成对立的分布式计算视图和资源视图,并通过硬件感知切分和映射性能及端到端的代价模型,搜寻出最优的模型切分和硬件组合策略,将模型参数、梯度、优化器状态依照最优策略调配到不同的计算卡上,达到节俭存储、负载平衡、晋升训练性能的目标。

基于全新的端到端自适应大规模分布式训练技术,百度飞桨在鹏城云脑II集群上采纳自适应优化,训练速度达到优化前2.1倍。而近期公布的寰球首个常识加强千亿大模型鹏城-百度·文心,也是基于端到端自适应大规模分布式训练技术。

文本工作方面

从文本处理、训练、解码到部署进行全面减速。降级对字符串张量的反对,为开发者提供端到端文本工作开发体验。在预训练模型方面,针对Transformer Encoder的网络结构实现了极致的性能优化,并通过自定义算子性能,交融了NVIDIA FasterTransformer的高性能算子。基于这些优化,框架针对预训练模型造成了训推一体全流程开发体验,让部署代码节俭94%。

硬件接入方面

多层次、低成本的硬件适配计划升高了框架与芯片的适配老本。百度自研Kernel Primitive API、NNAdapter、编译器CINN(预公布)三大优化计划,别离对AI算子库、图、编译器后端进行软硬件联合的深度交融优化,极大升高了硬件适配老本,赋能硬件生态圈。

\
继续升高利用门槛,飞桨模型库、企业版全新降级

除了飞桨深度学习框架技术的当先公布,峰会还带来了飞桨产业级开源模型库和企业版的全新降级。

马艳军在会上示意,目前,百度飞桨官网反对的产业级开源算法模型超过400个,并公布13个PP系列模型,在精度和性能上达到均衡,将推理部署工具链彻底买通。

\
飞桨产业利用能力全方位降级的同时,飞桨企业版也在着力晋升模型部署能力。会上,忻舟带来了飞桨企业版模型部署降级和飞桨EsayDL桌面版的全新公布。

飞桨企业版包含EasyDL和BML双平台开发模式,致力于晋升AI开发效率和资源应用效力,目前曾经成为利用和落地最宽泛的AI开发平台。此次模型部署的全新降级基于飞桨推理部署工具链,与平台深度交融,打造主动高效的企业级部署性能。

首先是全自动模型组合压缩,显著晋升推理性能。

基于PaddleSlim,依据不同模型和硬件的特点,设计了多条全自动组合压缩流水线,可能主动抉择最佳压缩门路。对常见的模型,精度损失管制在1%下,减速比能达到3-5倍。

其次基于飞桨推理引擎,宽泛适配推理芯片。

新版本采纳了飞桨推理引擎,宽泛适配推理芯片且性能优异。目前,平台已实现9345种模型芯片的组合的实在测试和调优,能够笼罩95%的需要场景,相比自行适配节俭97%的开发工夫。

最初是模型服务化与智能边缘控制台,大幅提高部署效率。

尤其是全新公布的智能边缘控制台,提供了全可视化的操作界面,使得模型与业务集成的效率显著晋升,模型部署工夫从天级别缩短至5分钟。忻舟现场演示了如何5分钟让机器狗学会手势辨认的新技能。

最初,飞桨EasyDL桌面版全新公布。开发者不用繁琐的配置各种环境,在桌面一键极速装置即可实现本地高效建模,1分钟装置实现,15分钟就可实现模型开发,本地实现数据管理、算力调度、部署利用,让AI“触手可得”。

源于产业实际的百度飞桨产业级深度学习开源开放平台,是百度践行交融翻新、升高行业倒退门槛的AI大生产平台。飞桨的一代一代迭代更新,更是中国人工智能产业的一步一步的向上攀登。AI促动中国产业凋敝,飞桨始终在路上。