共计 512 个字符,预计需要花费 2 分钟才能阅读完成。
近几年来,AI 代码生成器非常风行,从 OpenAI 的 Codex 再到 DeepMind 的 AlphaCode。然而,这两个 AI 模型全都没有开源:AlphaCode 只给出了一些测试样例,而 Codex 只凋谢了 API。
卡内基梅隆大学的钻研人员示意:“只管大型语言代码模型获得了巨大成功,但最强的模型都尚未公开。这阻止了这些模型在资源短缺的公司之外的利用,并限度了资源匮乏的组织在这一畛域的钻研。”
因而,几个来自卡内基梅隆大学的钻研人员推出了一个开源的主动代码生成器模型 PolyCoder,具备 27B 参数,基于 GPT-2 架构,在 12 种编程语言的 249GB 代码数据库中进行训练。
这 12 种编程语言别离是:C、C#、C++、Go、Java、JavaScript、PHP、Python、Ruby、Rust、Scala 和 TypeScript。
训练结果表明,PolyCoder 在编写 C 语言方面的体现优于包含 Codex 在内的所有已知模型。和其余开源模型比拟,PolyCoder 在 C、JavaScript、Rust、Scala 和 TypeScript 方面的体现都比相似模型 GPT-Neo 2.7B 要好。但 Codex 在其余语言方面依然要胜过 PolyCoder。
正文完