OpenGPT2我们复制了-GPT2因为你也可以

17次阅读

共计 200 个字符,预计需要花费 1 分钟才能阅读完成。

最近,BERT¹,XLNet²,GPT-2³和 Grover 等大型语言模型在生成文本和多个 NLP 任务方面取得了令人瞩目的成果。由于 Open-AI 目前尚未发布其最大型号(但已发布其 774M param 模型),他们寻求复制其 1.5B 模型,以允许其他人在他们的预训练模型上进行构建并进一步改进。

我们可以使用他们的 Google Colab 访问模型并生成文本,并且还单独提供了模型权重。

新闻来源:medium.com

正文完
 0