关于人工智能:StarCoder-最先进的代码大模型

33次阅读

共计 3049 个字符,预计需要花费 8 分钟才能阅读完成。

对于 BigCode

BigCode 是由 Hugging Face 和 ServiceNow 独特领导的开放式迷信合作项目,该我的项目致力于开发负责任的代码大模型。

StarCoder 简介

StarCoder 和 StarCoderBase 是针对代码的大语言模型 (代码 LLM),模型基于 GitHub 上的许可数据训练而得,训练数据中包含 80 多种编程语言、Git 提交、GitHub 问题和 Jupyter notebook。与 LLaMA 相似,咱们基于 1 万亿个词元训练了一个约 15B 参数的模型。此外,咱们还针对一个 35B 词元的 Python 数据集对 StarCoderBase 模型进行了微调,从而取得了一个咱们称之为 StarCoder 的新模型。

咱们发现 StarCoderBase 在风行的编程基准测试中体现优于现有其余开源的代码 LLM,同时与闭源模型相比,如来自 OpenAI 的 code-cushman-001 (晚期版本的 GitHub Copilot 背地的原始 Codex 模型),其体现也相当甚至超过了闭源模型的体现。凭借超过 8,000 个词元的上下文长度,StarCoder 模型能够解决比任何其余开源 LLM 更多的输出,从而能够赋能更宽泛的乏味利用。例如,通过用多轮对话来提醒 StarCoder 模型,咱们能够让它们充当咱们的技术助理。此外,这些模型还可用于主动补全代码、依据指令批改代码以及用自然语言解释代码片段等工作。

为了实现开源模型的平安公布,咱们采取了一系列的措施,包含改良了 PII (Personally Identifiable Information,个人身份信息) 编辑流水线、对归因跟踪工具进行了翻新,并应用改良的 OpenRAIL 许可证公布 StarCoder。更新后的许可证简化了公司将模型集成到其产品中所需的流程。咱们置信,凭借其弱小的性能,StarCoder 模型将赋能社区将其利用或适配至宽泛的利用场景和产品中。

评估

咱们在不同的测试基准上对 StarCoder 及其他几个与其相似的模型进行了深刻的评估。其中之一测试基准是 HumanEval,这是一个比拟风行的 Python 基准测试,它次要测试模型是否能够依据函数的签名和文档来编写函数。咱们发现 StarCoder 和 StarCoderBase 在 HumanEval 上的体现均优于最大的模型,包含 PaLM、LaMDA 和 LLaMA,只管它们尺寸要小得多。同时,它们的性能还优于 CodeGen-16B-Mono 和 OpenAI 的 code-cushman-001 (12B) 模型。咱们还留神到该模型会生成 #Solution here 这样的正文代码,这可能是因为此类代码通常是训练数据中代码习题的一部分。为了强制模型生成一个理论的解决方案,咱们增加了提醒词 <filename>solutions/solution_1.py\n# Here is the correct implementation of the code exercise。这使得 StarCoder 的 HumanEval 分数有了显著进步,从 34% 晋升到 40% 以上,刷新了开源模型的最佳后果的记录。咱们也在 CodeGen 和 StarCoderBase 上尝试了此提醒词,但后果没有太大差别。

模型 HumanEvalMBPP
LLaMA-7B10.517.7
LaMDA-137B14.014.8
LLaMA-13B15.822.0
CodeGen-16B-Multi18.320.9
LLaMA-33B21.730.2
CodeGeeX22.924.4
LLaMA-65B23.737.7
PaLM-540B26.236.8
CodeGen-16B-Mono29.335.3
StarCoderBase30.449.0
code-cushman-00133.545.9
StarCoder33.652.7
StarCoder-Prompted40.849.5

StarCoder 的一个乏味方面是它是多语言的,因而咱们在 MultiPL-E 上对其进行了评估,MultiPL-E 是 HumanEval 的多语言扩大版。咱们察看到 StarCoder 在许多编程语言上与 code-cushman-001 的体现相当甚至更优。在 DS-1000 数据迷信基准测试中,它以显著劣势击败了 code-cushman-001 以及所有其余开源模型。好了,咱们来看看除了代码补全之外,StarCoder 还能做些什么!

技术助理

通过详尽的评估,咱们曾经晓得 StarCoder 十分善于编写代码。咱们还想测试它是否能够用作技术助理,毕竟它的训练数据中有大量的文档和 GitHub 问题。受 Anthropic 的 HHH 提醒 的启发,咱们构建了一个 技术助理提醒。令人惊喜的是,仅凭提醒,该模型就可能充当技术助理并答复与编程相干的问题!

训练数据

该模型是在 The Stack 1.2 的一个子集上训练的。该数据集仅蕴含许可代码,它还蕴含一个退出流程,以便代码贡献者能够从数据集中删除他们的数据 (请参见 Am I in The Stack)。此外,咱们从训练数据中删除了个人身份信息,例如姓名、明码和电子邮件地址。

咱们还公布了……

除了模型,咱们还公布了一系列其余资源和利用演示:

  • 模型权重,包含具备 OpenRAIL 许可证的 checkpoints
  • 所有数据预处理和训练代码,许可证为 Apache 2.0
  • 对模型进行全面评估的工具
  • 用于训练的删除掉 PII 信息的新数据集,以及用于评估 PII 信息删除成果的代码
  • 用于训练的预处理过的数据集
  • 用于在数据集中查找生成代码出处的代码归因工具

链接

模型

  • 论文: 对于 StarCoder 的技术报告。
  • GitHub: 你能够由此取得无关如何应用或微调 StarCoder 的所有信息。
  • StarCoder: 基于 Python 数据集进一步微调 StarCoderBase 所得的模型。
  • StarCoderBase: 基于来自 The Stack 数据集的 80 多种编程语言训练而得的模型。
  • StarEncoder: 在 The Stack 上训练的编码器模型。
  • StarPii: 基于 StarEncoder 的 PII 检测器。

工具和利用演示

  • StarCoder Chat: 和 StarCoder 聊天!
  • VSCode Extension: 应用 StarCoder 补全代码的 VSCode 插件!
  • StarCoder Playground: 用 StarCoder 写代码!
  • StarCoder Editor: 用 StarCoder 编辑代码!

数据与治理

  • StarCoderData: StarCoder 的预训练数据集。
  • Tech Assistant Prompt: 应用该提醒,你能够将 StarCoder 变成技术助理。
  • [Governance Card](): 无关模型治理的卡片。
  • StarCoder License Agreement: 该模型基于 BigCode OpenRAIL-M v1 许可协定。
  • StarCoder Search: 对预训练数据集中的代码进行全文搜寻。
  • StarCoder Membership Test: 疾速测试某代码是否存在于预训练数据集中。

你能够在 huggingface.co/bigcode 找到所有资源和链接!


英文原文: https://huggingface.co/blog/starcoder

原文作者: Leandro von Werra,Loubna Ben Allal

译者: Matrix Yao (姚伟峰),英特尔深度学习工程师,工作方向为 transformer-family 模型在各模态数据上的利用及大规模模型的训练推理。

审校 / 排版: zhongdongy (阿东)

正文完
 0