NLP(二十四):注意力机制和自注意力机制

一、基本概念 1、为什么要因为注意力机制 在Attention诞生之前,已经有CNN和RNN及其变体模型了,那为什么还要引入attention机制?主要有两个方面的原因,如下: (1)计算能力的限制: … Continue reading NLP(二十四):注意力机制和自注意力机制