注意力机制Attention

Self-Attention

Multi-Head Attention

Transformer

BERT

参考资料

. 从Encoder-Decoder(Seq2Seq)理解Attention的本质


  1. 李宏毅  


如果你觉得这篇文章对你有帮助,不妨请我喝杯咖啡,鼓励我创造更多!