Home
»
Data_Science
»
Algorithm
»
自然语言处理
»
语言模型及特征抽取
» 注意力机制Attention
注意力机制Attention
Self-Attention
Multi-Head Attention
Transformer
BERT
参考资料
. 从Encoder-Decoder(Seq2Seq)理解Attention的本质
李宏毅
↩
如果你觉得这篇文章对你有帮助,不妨请我喝杯咖啡,鼓励我创造更多!