Prompt-“设计提醒模板:用更少数据实现预训练模型的卓越体现,助力Few-Shot和Zero-Shot工作”
通过设计提醒(prompt)模板,实现应用更大量的数据在预训练模型(Pretrained Model)上失去更好的成果,多用于:Few-Shot,Zero-Shot 等工作。
1.背景介绍
prompt 是以后 NLP 中钻研小样本学习方向上十分重要的一个方向。举例来讲,明天如果有这样两句评论:
- 什么苹果啊,都没有苹果味,怪怪的滋味,而且一点都不甜,超级难吃!
- 这破笔记本速度太慢了,卡的不要不要的。
当初咱们须要依据他们形容的商品类型进行一个分类工作,
即,第一句须要被分类到「水果」类别中;第二句则须要分类到「电脑」类别中。
一种直觉的形式是将该问题建模成一个传统文本分类的工作,通过人工标注,为每一个类别设置一个 id,例如:
{ '电脑': 0, '水果': 1, ....}
这样一来,标注数据集就长这样:
什么苹果啊,都没有苹果味,怪怪的滋味,而且一点都不甜,超级难吃! 1这破笔记本速度太慢了,卡的不要不要的。 0...
这种办法是可行的,然而须要「较多的标注数据」能力获得不错的成果。
因为大多数预训练模型(如 BRET)在 pretrain 的时候都应用了 [MASK] token 做 MLM 工作,而咱们在实在上游工作中往往是不会应用到 [MASK] 这个 token,这就意味着明天咱们在训练上游工作时须要较多的数据集去抹平上下游工作不统一的 gap。
那,如果咱们没有足够多的训练数据怎么办呢?
prompt learning 的呈现就是为了解决这一问题,它将 [MASK] 的 token 引入到了上游工作中,将上游工作结构成和 MLM 相似的工作。
举例来讲,咱们能够将上述评论改写为:
这是一条[MASK][MASK]评论:这破笔记本速度太慢了,卡的不要不要的。
而后让模型去预测两个 [MASK] token 的实在值是什么,那模型依据上下文能揣测出被掩码住的词应该为「电脑」。
因为上游工作中也应用了和预训练任务中同样的 MLM 工作,这样咱们就能够应用更少的训练数据来进行微调了。
但,这还不是 P-tuning。
通过下面的例子咱们能够察看到,构建句子最要害的局部是在于 prompt 的生成,即:
「这是一条[MASK][MASK]评论:」(prompt) + 这破笔记本速度太慢了,卡的不要不要的。(content)
被括号括起来的前缀(prompt)的生成是十分重要的,不同 prompt 会极大影响模型对 [MASK] 预测的正确率。
那么这个 prompt 怎么生成呢?
咱们当然能够通过人工去设计很多不同类型的前缀 prompt,咱们把他们称为 prompt pattern,例如:
这是一条[MASK][MASK]评论:上面是一条形容[MASK][MASK]的评论:[MASK][MASK]:...
然而人工列这种 prompt pattern 十分的麻烦,不同的数据集所须要的 prompt pattern 也不同,可复用性很低。
那么,咱们能不能通过机器本人去学习 prompt pattern 呢?
这,就是 P-Tuning。
1.1 P-Tuning
人工构建的模板对人类来讲是正当的,然而在机器眼中,prompt pattern 长成什么样真的要害吗?
机器对自然语言的了解和人类对自然语言的了解很有可能不尽相同,咱们已经有做一个 model attention 和人类对语言重要性的了解的比照试验,发现机器对语言的了解和人类是存在肯定的偏差的。
那么,咱们是不是也不必特意为模型去设定一堆咱们感觉「正当」的 prompt pattern,而是让模型本人去找它们认为「正当」的 prompt pattern 就能够了呢?
因而,P-Tuning 的训练一共分为:prompt token(s) 生成、mask label 生成、mlm loss 计算 三个步骤。
1.1.1 prompt token(s) 生成
既然当初咱们不必人工去构建 prompt 模板,咱们也不分明机器到底喜爱什么样的模板……
那不如咱们就轻易凑一个模板丢给模型吧。
听起来很粗率,但的确就是这么做的。
咱们选用中文 BERT 作为 backbon 模型,选用 vocab.txt 中的 [unused] token 作为形成 prompt 模板的元素。
[unused] 是 BERT 词表里预留进去的未应用的 token,其自身没有什么含意,随便组合也不会产生很大的语义影响,这也是咱们应用它来构建 prompt 模板的起因。
那么,构建进去的 prompt pattern 就长这样:
[unused1][unused2][unused3][unused4][unused5][unused6]
1.1.2 mask label 生成
实现 prompt 模板的构建后,咱们还须要把 mask label 给加到句子中,好让模型帮咱们实现标签预测工作。
咱们设定 label 的长度为 2('水果'、'电脑',都是 2 个字的长度),并将 label 塞到句子的结尾地位:
[CLS][MASK][MASK]这破笔记本速度太慢了,卡的不要不要的。[SEP]
其中 [MASK] token 就是咱们须要模型帮咱们预测的标签 token,当初咱们把两个局部拼起来:
[unused1][unused2][unused3][unused4][unused5][unused6][CLS][MASK][MASK]这破笔记本速度太慢了,卡的不要不要的。[SEP]
这就是咱们最终输出给模型的样本。
1.1.3 mlm loss 计算
上面就要开始进行模型微调了,咱们喂给模型这样的数据:
[unused1][unused2][unused3][unused4][unused5][unused6][CLS][MASK][MASK]这破笔记本速度太慢了,卡的不要不要的。[SEP]
并取得模型预测 [MASK] token 的预测后果,并计算和实在标签之间的 CrossEntropy Loss。
P-Tuning 中标签数据长这样:
水果 什么苹果啊,都没有苹果味,怪怪的滋味,而且一点都不甜,超级难吃!电脑 这破笔记本速度太慢了,卡的不要不要的。...
也就是说,咱们须要计算的是模型对 [MASK] token 的输入与「电脑」这两个标签 token 之间的 CrossEntropy Loss,以教会模型在这样的上下文中,被 [MASK] 住的标签应该被还原成「物品类别」。
1.1.4 试验
咱们选用 63 条评论(8 个类别)的评论作为训练数据,在 417 条评论上作分类测试,模型 F1 能收敛在 76%。通过试验后果咱们能够看到,基于 prompt 的形式即便在训练样本数较小的状况下模型也能获得较为不错的成果。相比于传统的分类形式,P-Tuning 可能更好的缓解模型在小样本数据下的过拟合,从而领有更好的鲁棒性。
论文链接:https://arxiv.org/pdf/2103.10385.pdf
2.PET (PatternExploiting Training)
- 环境装置
本我的项目基于pytorch
+transformers
实现,运行前请装置相干依赖包:
pip install -r ../../requirements.txt
2.1 数据集筹备
2.1.1 标签数据筹备
我的项目中提供了一部分示例数据,依据用户评论预测用户评论的物品类别(分类工作),数据在 data/comment_classify
。
若想应用自定义数据
训练,只须要仿照示例数据构建数据集即可:
水果 什么苹果啊,都没有苹果味,怪怪的滋味,而且一点都不甜,超级难吃!书籍 为什么不认真的检查一下, 发这么一本脏脏的书给顾客呢!酒店 性价比高的酒店,间隔地铁近,邻华师大,环境好。...
每一行用 \t
分隔符离开,前半部分为标签(label)
,后半部分为原始输出
。
2.1.2 Verbalizer筹备
Verbalizer用于定义「实在标签」到「标签预测词」之间的映射。
在有些状况下,将「实在标签」作为 [MASK] 去预测可能不具备很好的语义通顺性,因而,咱们会对「实在标签」做肯定的映射。
例如:
"日本爆冷2-1战败德国"是一则[MASK][MASK]新闻。 体育
这句话中的标签为「体育」,但如果咱们将标签设置为「足球」会更容易预测。
因而,咱们能够对「体育」这个 label 构建许多个子标签,在推理时,只有预测到子标签最终推理出实在标签即可,如下:
体育 -> 足球,篮球,网球,棒球,乒乓,体育...
我的项目中提供了一部分示例数据在 data/comment_classify/verbalizer.txt
。
若想应用自定义数据
训练,只须要仿照示例数据构建数据集即可:
电脑 电脑水果 水果平板 平板衣服 衣服酒店 酒店洗浴 洗浴书籍 书籍蒙牛 蒙牛手机 手机
在例子中咱们应用 1 对 1 的verbalizer,若想定义一对多的映射,只须要在前面用 ','
分隔即可, e.g.:
...水果 苹果,香蕉,橘子...
2.1.3 Prompt设定
promot是人工构建的模板,我的项目中提供了一部分示例数据在 data/comment_classify/prompt.txt
。
这是一条{MASK}评论:{textA}。
其中,用大括号括起来的局部为「自定义参数」,能够自定义设置大括号内的值。
示例中 {MASK} 代表 [MASK] token 的地位,{textA} 代表评论数据的地位。
你能够改为本人想要的模板,例如想新增一个 {textB} 参数:
{textA}和{textB}是{MASK}同的意思。
此时,除了批改 prompt 文件外,还须要在 utils.py
文件中 convert_example()
函数中批改 inputs_dict
用于给对应的给每一个「自定义参数」赋值:
...content = content[:max_seq_len-10] # 避免当[MASK]在尾部的时候被截掉inputs_dict={ # 传入对应prompt的自定义参数 'textA': content, 'MASK': '[MASK]', 'textB' = ... # 给对应的自定义字段赋值}...
2.2. 模型训练
批改训练脚本 train.sh
里的对应参数, 开启模型训练:
python pet.py \ --model "bert-base-chinese" \ --train_path "data/comment_classify/train.txt" \ --dev_path "data/comment_classify/dev.txt" \ --save_dir "checkpoints/comment_classify/" \ --img_log_dir "logs/comment_classify" \ --img_log_name "BERT" \ --verbalizer "data/comment_classify/verbalizer.txt" \ # verbalizer文件地位 --prompt_file "data/comment_classify/prompt.txt" \ # prompt_file文件地位 --batch_size 8 \ --max_seq_len 256 \ --valid_steps 40 \ --logging_steps 5 \ --num_train_epochs 200 \ --max_label_len 2 \ # 子标签最大长度 --rdrop_coef 5e-2 \ --device "cuda:0" # 指定应用GPU
正确开启训练后,终端会打印以下信息:
...DatasetDict({ train: Dataset({ features: ['text'], num_rows: 63 }) dev: Dataset({ features: ['text'], num_rows: 590 })})Prompt is -> 这是一条{MASK}评论:{textA}。100%|████████████████████████████████████████████████████████████████████████████████████████| 1/1 [00:00<00:00, 12.96ba/s]100%|████████████████████████████████████████████████████████████████████████████████████████| 1/1 [00:00<00:00, 2.55ba/s]global step 5, epoch: 0, loss: 3.74432, speed: 2.67 step/sglobal step 10, epoch: 1, loss: 3.06417, speed: 5.86 step/sglobal step 15, epoch: 1, loss: 2.51641, speed: 5.73 step/sglobal step 20, epoch: 2, loss: 2.12264, speed: 5.84 step/sglobal step 25, epoch: 3, loss: 1.80121, speed: 5.82 step/sglobal step 30, epoch: 3, loss: 1.52964, speed: 5.78 step/s...
在 logs/sentiment_classification
文件下将会保留训练曲线图:
2.3. 模型预测
实现模型训练后,运行 inference.py
以加载训练好的模型并利用:
...contents = [ '地理环境不错,但对面始终在盖楼,门前街道上打车不不便。', '跟好敌人一起凑单买的,很划算,洗发露是樱花香的,挺好的。。。' ] # 自定义评论res = inference(contents) # 揣测评论类型...
运行推理程序:
python inference.py
失去以下推理后果:
Prompt is -> 这是一条{MASK}评论:{textA}。Used 0.47s.inference label(s): ['酒店', '洗浴']
3.P-tuning:Auto Learning prompt pattern
- 环境装置
本我的项目基于pytorch
+transformers
实现,运行前请装置相干依赖包:
pip install -r ../../requirements.txttorchtransformers==4.22.1datasets==2.4.0evaluate==0.2.2matplotlib==3.6.0rich==12.5.1scikit-learn==1.1.2requests==2.28.1
3.1 数据集筹备
3.1.1 标签数据筹备
我的项目中提供了一部分示例数据,依据用户评论预测用户评论的物品类别(分类工作),数据在 data/comment_classify
。
若想应用自定义数据
训练,只须要仿照示例数据构建数据集即可:
水果 什么苹果啊,都没有苹果味,怪怪的滋味,而且一点都不甜,超级难吃!书籍 为什么不认真的检查一下, 发这么一本脏脏的书给顾客呢!酒店 性价比高的酒店,间隔地铁近,邻华师大,环境好。...
每一行用 \t
分隔符离开,前半部分为标签(label)
,后半部分为原始输出
。
3.1.2 Verbalizer筹备
Verbalizer用于定义「实在标签」到「标签预测词」之间的映射。
在有些状况下,将「实在标签」作为 [MASK] 去预测可能不具备很好的语义通顺性,因而,咱们会对「实在标签」做肯定的映射。
例如:
"日本爆冷2-1战败德国"是一则[MASK][MASK]新闻。 体育
这句话中的标签为「体育」,但如果咱们将标签设置为「足球」会更容易预测。
因而,咱们能够对「体育」这个 label 构建许多个子标签,在推理时,只有预测到子标签最终推理出实在标签即可,如下:
体育 -> 足球,篮球,网球,棒球,乒乓,体育...
我的项目中提供了一部分示例数据在 data/comment_classify/verbalizer.txt
。
若想应用自定义数据
训练,只须要仿照示例数据构建数据集即可:
电脑 电脑水果 水果平板 平板衣服 衣服酒店 酒店洗浴 洗浴书籍 书籍蒙牛 蒙牛手机 手机
在例子中咱们应用 1 对 1 的verbalizer,若想定义一对多的映射,只须要在前面用 ','
分隔即可, e.g.:
...水果 苹果,香蕉,橘子...
3.2 模型训练
批改训练脚本 train.sh
里的对应参数, 开启模型训练:
python p_tuning.py \ --model "bert-base-chinese" \ # backbone --train_path "data/comment_classify/train.txt" \ --dev_path "data/comment_classify/dev.txt" \ --verbalizer "data/comment_classify/verbalizer.txt" \ # verbalizer寄存地址 --save_dir "checkpoints/comment_classify/" \ --img_log_dir "logs/comment_classify" \ # loss曲线图寄存地址 --img_log_name "BERT" \ # loss曲线图文件名 --batch_size 16 \ --max_seq_len 128 \ --valid_steps 20 \ --logging_steps 5 \ --num_train_epochs 50 \ --max_label_len 2 \ # 标签最大长度 --p_embedding_num 15 \ # p_token长度 --device "cuda:0" # 指定应用哪块gpu
正确开启训练后,终端会打印以下信息:
...global step 5, epoch: 1, loss: 6.50529, speed: 4.25 step/sglobal step 10, epoch: 2, loss: 4.77712, speed: 6.36 step/sglobal step 15, epoch: 3, loss: 3.55371, speed: 6.19 step/sglobal step 20, epoch: 4, loss: 2.71686, speed: 6.38 step/sEvaluation precision: 0.70000, recall: 0.69000, F1: 0.69000best F1 performence has been updated: 0.00000 --> 0.69000global step 25, epoch: 6, loss: 2.20488, speed: 6.21 step/sglobal step 30, epoch: 7, loss: 1.84836, speed: 6.22 step/sglobal step 35, epoch: 8, loss: 1.58520, speed: 6.22 step/sglobal step 40, epoch: 9, loss: 1.38746, speed: 6.27 step/sEvaluation precision: 0.75000, recall: 0.75000, F1: 0.75000best F1 performence has been updated: 0.69000 --> 0.75000global step 45, epoch: 11, loss: 1.23437, speed: 6.14 step/sglobal step 50, epoch: 12, loss: 1.11103, speed: 6.16 step/s...
在 logs/sentiment_classification
文件下将会保留训练曲线图:
3.3 模型预测
实现模型训练后,运行 inference.py
以加载训练好的模型并利用:
...contents = [ "苹果卖相很好,而且很甜,很喜爱这个苹果,下次还会反对的", "这破笔记本速度太慢了,卡的不要不要的"] # 自定义评论res = inference(contents) # 揣测评论类型...
运行推理程序:
python inference.py
失去以下推理后果:
inference label(s): ['水果', '电脑']
参考链接:https://github.com/HarderThenHarder/transformers_tasks/blob/main/prompt_tasks/p-tuning
更多优质内容请关注公号:汀丶人工智能;会提供一些相干的资源和优质文章,收费获取浏览。