摘要:本文是对ACL2021 NER BERT化隐马尔可夫模型用于多源弱监督命名实体辨认这一论文工作进行初步解读。
本文分享自华为云社区《ACL2021 NER | BERT化隐马尔可夫模型用于多源弱监督命名实体辨认》,作者: JuTzungKuei 。
论文:Li Yinghao, Shetty Pranav, Liu Lucas, Zhang Chao, Song Le. BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised Named Entity Recognition[A]. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers) [C]. Online: Association for Computational Linguistics, 2021, 6178–6190.
链接:https://aclanthology.org/2021...
代码:https://github.com/Yinghao-Li...
0、摘要
- 钻研内容:应用多个弱监督数据的乐音标签学习NER
- 乐音数据:不全、不准、矛盾
提出一个条件隐马尔可夫模型(CHMM:conditional hidden Markov model)
- 利用BERT的上下文示意能力,加强了经典的HMM模型
- 从BERT嵌入中学习词的转移和发射概率,推断潜在的真标签
用交替训练方法(CHMM-ALT)进一步欠缺CHMM
- 用CHMM推导出的标签对BERT-NER模型进行微调
- BERT-NER的输入作为额定的弱源来训练CHMM
四份数据集上达到SOTA
1、介绍
NER是许多上游信息抽取工作的根底工作:事件抽取、关系抽取、问答
- 有监督、须要大量标注数据
- 许多畛域有常识源:知识库、畛域词典、标注规定
- 能够用来匹配语料库,从多角度,疾速生成大规模的噪声训练数据
- 近程监督NER:只应用知识库作为弱监督,未应用多源标注的互补信息
- 现有利用HMM办法,有局限性:one-hot词向量 或 不建模
奉献:
- CHMM:聚合多源弱标签
- 交替训练方法CHMM-ALT:轮流训练CHMM和BERT-NER,利用彼此的输入进行多回路,以优化多源弱监督NER性能
四份基准数据集取得SOTA
2、办法
CHMM-ALT 训练两个模型:多源标签聚合器CHMM和BERT-NER 模型,轮流作为彼此的输入
- 阶段I:CHMM依据K个源x_{1:K}^{(1:T)}x1:K(1:T),生成一个去噪标签y^{*(1:T)}y∗(1:T),微调BERT-NER模型输入\widetilde{y}^{(1:T)}y(1:T),作为额定的标注源,增加到原始弱标签汇合x_{1:K+1}^{(1:T)} = {x_{1:K}^{(1:T)} , \widetilde{y}^{(1:T)}}x1:K+1(1:T)={x1:K(1:T),y(1:T)}
- 阶段II:CHMM和BERT-NER在几轮循环中相互改良,每轮循环,先训练CHMM,后微调BERT-NER,更新前者的输出
- CHMM 进步Precision,BERT-NER进步Recall
隐马尔可夫模型
- 不细解
- 不细解
3、后果
号外号外:想理解更多的AI技术干货,欢送上华为云的AI专区,目前有AI编程Python等六大实战营供大家收费学习。
点击关注,第一工夫理解华为云陈腐技术~