关于人工智能:PromptBench大型语言模型的对抗性基准测试

45次阅读

共计 679 个字符,预计需要花费 2 分钟才能阅读完成。

PromptBench 是微软钻研人员设计的一个用于测量大型语言模型 (llm) 对对抗性提醒鲁棒性的基准测试。这个的工具是了解 LLM 的重要一步,随着这些模型在各种利用中越来越广泛,这个主题也变得越来越重要。

钻研及其方法论

PromptBench 采纳多种对抗性文本攻打,钻研人员生成了 4000 多个对抗性提醒,而后通过 8 个工作和 13 个数据集对其进行评估。这种全面的办法确保了潜在破绽的宽泛笼罩,并提供了对 LLM 性能的牢靠评估。

钻研后果及影响

这项钻研的结果表明,当代 LLM 很容易受到对抗性提醒的影响。这个破绽是一个须要解决的关键问题,以确保 llm 在理论应用程序中的可靠性和健壮性。作为数据科学家,咱们必须意识到这些破绽,并致力开发可能抵挡此类对抗性攻打的模型。

论文还提供了疾速加重这些破绽的倡议。这些倡议对于任何应用大模型的人来说都是十分贵重的,并且能够领导开发更强壮的模型。

开源代码

钻研人员曾经公开了钻研中应用的代码、提醒和办法。咱们必须持续考察,在它们钻研的根底上进行更深刻的钻研,共同努力推动模型的改良,曾经包含的模型如下:

  • google/flan-t5-large
  • databricks/dolly-v1–6b
  • llama-13b
  • vicuna-13
  • cerebras/Cerebras-GPT-13B
  • EleutherAI/gpt-neox-20b
  • google/flan-ul2
  • chatgpt

论文和钻研地址:

https://avoid.overfit.cn/post/48766e3c21a8495bb991b0135912ce8e

作者:Praveen Govindaraj

正文完
 0