自然语言处理中的自注意力机制(Self-attention Mechanism) https://www.cnblogs.com/robert-dlut/p/8638283.html
大话注意力机制(Attention Mechanism) https://my.oschina.net/u/876354/blog/3061863
上一篇:机器学习中的范数规则化 L0、L1与L2范数
下一篇:长短期记忆网络 LSTM