Cross Attention Cross Attention是用来处理两个不同Sequence时的SelfAttention变体。 介绍 属于Transformer常见 2022-06-11 nlp pretrained-language-model nlp transformer 关于Bert的一切 作为NLP领域里程碑式的作品,对于其深刻的理解是很多后续学习工作的基础,更是面试找工作的利器。 介绍 Bert (Bidirection 2021-04-28 nlp pretrained-language-model nlp bert