这篇教程Adversarial Training for Large Neural Language Models写得很实用,希望能帮到您。
论文阅读 | Adversarial Training for Large Neural Language Models https://github.com/namisan/mt-dnn/tree/v0.2/alum#adversarial-training-for-large-neural-language-models-alum
本文把对抗训练用到了预训练和微调两个阶段,对抗训练的方法是针对embedding space,通过最大化对抗损失、最小化模型损失的方式进行对抗,在下游任务上取得了一致的效果提升。有趣的是,这种对抗训练方法不仅能够在BERT上有提高,而且在RoBERTa这种已经预训练好的模型上也能有所提高,说明对抗训练的确可以帮助模型纠正易错点。
方法:ALUM(大型神经语言模型的对抗性训练)。
做法:在embedding space添加扰动,最大化对抗损失。
适用:任何基于Transformer的语言模型的预训练或微调。
预备知识
BPE编码
为了解决词汇表外单词的问题,使用Byte-Pair Encoding(BPE)(Sennrich et al.,2015)或其变体(Kudo and Richardson,2018)将标记划分为子词单元,生成固定大小的子词词汇,以便在训练文本语料库中紧凑地表示单词。
BPE词表既存在char-level级别的字符,也存在word-level级别的单词。通过BPE得到了更加合适的词表,这个词表可能会出现一些不是单词的组合,但是这个本身是有意义的一种形式。
流程:
- 确定subword词表大小
- 统计每一个连续字节对的出现频率,并保存为code_file。这个是git中learn-bpe完成
- 将单词拆分为字符序列并在末尾添加后缀“ </w>”,而后按照code_file合并新的subword,首先合并频率出现最高的字节对。例如单词birthday,分割为['b', 'i', 'r', 't', 'h', 'd', 'a', 'y</w>'],查code_file,发现'th'出现的最多,那么合并为['b', 'i', 'r', 'th', 'd', 'a', 'y</w>'],最后,字符序列合并为['birth', 'day</w>']。然后去除'</w>',变为['birth', 'day'],将这两个词添加到词表。这个是apply-bpe完成。
- 重复第3步直到达到第2步设定的subword词表大小或下一个最高频的字节对出现频率为1
ALUM
基于几个关键想法:
1. 扰动embedding空间,优于直接对输入文本应用扰动。
2. 通过虚拟对抗训练为标准目标添加正则化项。
(预训练α = 10,微调α = 1)
- 因为有最大化操作,所以训练昂贵。
- 有利于embedding邻域的标签平滑。
文中观点:
虚拟对抗训练优于传统对抗训练,特别是当标签可能有噪声时。
例如,BERT pretraining使用masked words作为自监督的标签,但在许多情况下,它们可以被其他词取代,形成完全合法的文本。但BERT中,给到被替换的word的标签均为负。
算法:
首先使用标准目标(1)训练模型;然后使用虚拟对抗训练(3)继续训练。
第4-6行为求最大梯度步骤,以找到使对抗性损失最大化的扰动(反局部平滑性)。K越大的近似值越高,但成本更高。为了在速度和性能之间取得良好的平衡,本文实验K=1.
泛化与鲁棒性
文中表示,通过使用ALUM进行对抗性的预训练,能够提高广泛的NLP任务的泛化和鲁棒性(如后述实验结论所示)。之前的研究较多发现,对抗训练会损害泛化能力。
先前关于泛化和鲁棒性之间冲突的工作通常集中在有监督的学习环境中。调和两者的一些初显成果也利用了未标记的数据,例如自训练(Raghunathan等人,2020年)。
此外,假设通过扰动embedding空间而不是输入空间,NLP中的对抗训练可能无意中偏向于流形扰动而不是规则扰动。
什么是流形
流形学习的观点:认为我们所观察到的数据实际上是由一个低维流形映射到高维空间的。由于数据内部特征的限制,一些高维中的数据会产生维度上的冗余,实际上这些数据只要比较低的维度的维度就能唯一的表示。所以直观上来讲,一个流形好比是一个d维的空间,在一个m维的空间中(m>d)被扭曲之后的结果。需要注意的是流形不是一个形状,而是一个空间。举个例子,比如说一块布,可以把它看成一个二维的平面,这是一个二维的空间,现在我们把它扭一扭(三维空间),它就变成了一个流形,当然不扭的时候,它也是一个流形,欧氏空间是流形的一种特殊情况。
实验
提升泛化能力
- BERT BASE是使用与Devlin等人相同的设置训练的标准BERT base模型。(即1M步,batch size = 256)。
- BERT+BASE与BERT BASE相似,不同之处在于其训练步数为1.6M,与对抗预训练所需时间大致相同(ALUM BERT-BASE)。
- ALUM BERT-BASE是一个BERT模型,使用与BERT BASE相同的设置进行训练,但最后的500K步骤使用ALUM。每一个对抗训练步骤大约比标准训练步骤长1.5倍。
可以观察到后500k加了ALUM后提升明显。
提升鲁棒性
结合对抗预训练和对抗微调
之前都是在预训练阶段做的对抗,ALUM RoBERTa-LARGE-SMART在预训练和微调阶段均做对抗。
结论
提出了一种通用的对抗性训练算法ALUM:
- 对抗预训练可以显著提高泛化能力和鲁棒性。
- ALUM大大提高了BERT和RoBERTa在各种NLP任务中的准确性,并且可以与对抗微调相结合以获得进一步的收益。
- 未来的发展方向:
返回列表 什么是损失函数 |