关于nlp:性能加速最高可达28倍这个NLP工具包不容错过

31次阅读

共计 2305 个字符,预计需要花费 6 分钟才能阅读完成。

导读

PaddleNLP 是兼具科研学习和产业实际能力的 Python NLP 工具包,提供中文畛域丰盛的预训练模型和部署工具,被高校、企业开发者广泛应用。近日,PaddleNLP v2.1 正式公布,为开发者带来三项重要更新:

  • 开箱即用的工业级 NLP 预置工作能力 Taskflow:八大经典场景一键预测。
  • 预训练时代的微调新范式利用:三行代码显著晋升小样本学习效果。
  • 高性能预测减速:文本生成工作高达 28 倍减速成果。

传送门:

https://github.com/PaddlePadd…

PaddleNLP 整体开源能力速览

PaddleNLP 是飞桨生态的自然语言解决开发库,旨在晋升文本畛域的开发效率,为开发者带来模型构建、训练及预测部署的全流程优质体验。


PaddleNLP 性能全景图

PaddleNLP 我的项目自公布以来,就受到宽广 NLPer 的关注。在 2021 年 6 月 PaddleNLP 官网直播打卡课中,有 7000+ 用户加入 PaddleNLP 的我的项目学习和实际,减速了本身科研和业务实际过程,同时也带动 PaddleNLP 屡次登上 GitHub Trending 榜单。

那么最近的 2021 年 10 月份更新,PaddleNLP 又给大家带来哪些惊喜呢?下文将为您逐个细细解读。

PaddleNLP 全新降级深刻解读

** 开箱即用的工业级
NLP 预置工作能力——Taskflow**

依靠于百度在多年语言与常识畛域的业务积淀,PaddleNLP 面向 NLP 八种工作场景,聚合了泛滥百度自研的算法以及社区开源模型,并凭借飞桨外围框架的能力降级提供开箱即用、极致优化的高性能一键预测能力——Taskflow。

本次 Taskflow 降级笼罩自然语言了解(NLU)和生成(NLG)两大场景共八大工作,包含中文分词、词性标注、命名实体辨认、句法分析、文本纠错、情感剖析、生成式问答和智能写诗。

这些高质量模型的背地,一方面聚合了百度在语言与常识畛域多年的业务积淀和当先的开源成绩:如词法剖析工具 LAC、句法分析工具 DDParser、情感剖析零碎 Senta、文心 ERNIE 系列家族模型、凋谢域对话预训练模型 PLATO、文本常识关联框架解语等;另一方面也涵盖了开源社区优良的中文预训练模型如 CPM 等。

将来 Taskflow 会随着 PaddleNLP 的版本迭代一直裁减技能,如凋谢域对话、文本翻译、信息抽取等能力,以满足更多 NLP 开发者的需要。

如下图所示,通过 PaddleNLP Taskflow,只须要一行代码,传入工作名称即可主动抉择最优的预置模型,并且以极致优化的形式实现推理,开发者能够不便地集成到上游的利用中。


Taskflow 应用示意图

https://github.com/PaddlePadd…

** 预训练时代的微调新范式利用:
三行代码晋升小样本学习效果 **

Few-Shot Learning(以下简称 FSL)是机器学习的一个子畛域。在仅有多数监督样本的状况下,训练失去强泛化能力的模型,实现对新数据的分类。

联合最新的 Prompt Tuning 的思维,PaddleNLP 中集成了三大前沿 FSL 算法:

  • EFL(Entailment as Few-Shot Learner)[1],将 NLP Fine-tune 工作对立转换为二分类的文本蕴含工作;
  • PET(Pattern-Exploiting Training)[2],通过人工构建模板,将分类工作转成完形填空工作;
  • P-Tuning[3]:主动构建模板,将模版的构建转化为间断参数优化问题。

应用小样本学习策略,仅仅 32 条样本即可在电商评论分类工作上获得 87% 的分类精度[4]。此外,PaddleNLP 集成 R-Drop 策略作为 API,只须要减少三行代码即可在原工作上疾速涨点,如图所示:

https://github.com/PaddlePadd…

** 高性能预测减速:
文本生成场景高达 28 倍减速成果 **

PaddleNLP 与 NVDIA 强强联合,以 FasterTransformer[5]为根底,提供了 Faster 系列的推理 API,重点拓展了更多支流网络结构适配与解码策略反对。同时联合飞桨外围框架 2.1 版本全新的自定义 OP 的性能,提供了与飞桨框架无缝连接的应用体验。

FasterTransformer Decoding Workflow

(1) 大幅晋升生成工作的推理能力
在 Transformer 机器翻译、GPT 文本生成两个工作中,别离比照应用动态图版本的性能和内置 Faster 系列的推理 API 后,不同 batch size 下预测性能减速比,从比照数据能够看到无论 Transformer 还是 GPT,均可失去高达 28 倍推理速度晋升!


PaddleNLP Transformer 翻译模型减速优化前后的

Nsight Profling 比照图

(2)反对丰盛的经典解码策略
PaddleNLP v2.1 提供工业界支流的解码减速反对,包含经典的 Beam Search,以及多个 Sampling-based 的解码形式:如 Diverse Sibling Search[6]、T2T 版本的 Beam Search 实现[7]、Top-k/Top-p Sampling 等。丰盛的减速策略能够满足对话、翻译等工业场景的理论利用,同时 PaddleNLP 的减速实现也在百度外部通过了大规模互联网业务的实在考验。

表 1:PaddleNLP 2.1 反对减速的模型构造与解码策略

更多 PaddleNLP 减速应用文档能够参考:

https://github.com/PaddlePadd…

别的不须要多说了,大家拜访 GitHub 点过 star 之后本人体验吧:

图片

https://github.com/PaddlePadd…

正文完
 0