5299 篇
13868 篇
408774 篇
16079 篇
9269 篇
3869 篇
6464 篇
1238 篇
72401 篇
37108 篇
12060 篇
1619 篇
2821 篇
3387 篇
640 篇
1229 篇
1965 篇
4866 篇
3821 篇
5293 篇
引入门控机制的Transformer模型探究-学界纵横系列之三
在时序依赖的任务中(如 RL),基于 RNN 的模型性能和稳定性优于 Transformer 架构。然而,Transformer 中的自注意力机制能够长时间跨度上有效整合信息并扩展到大量数据。为了提升时序依赖任务场景中的模型表现,在 Transformer-XL 基础上提出的 Gated Transformer-XL(GTrXL),该模型架构在稳定和性能上持平甚至赶超 LSTM 模型。