5379 篇
13902 篇
477807 篇
16280 篇
11761 篇
3926 篇
6532 篇
1251 篇
75590 篇
37740 篇
12156 篇
1656 篇
2859 篇
3418 篇
641 篇
1240 篇
1973 篇
4916 篇
3871 篇
5467 篇
稀疏率降低的白盒Transformers-AI前沿跟踪系列九
Yi Ma et al. 在论文《White-box transformers via sparse rate reduction: compression is all there is?》中提出了一个具备数学可解释性的白盒类 Transformer 模型 CRATE。文中引入了一个核心概念“稀疏率降低”(Sparse Rate Reduction),通过同时最大化内在信息增益和外在稀疏性来评估在深度学习网络学习到的表征的质量。基于 CRATE 架构的深度学习模型在多个基准测试中证明作为一种新型的网络架构在大规模真实数 据集上的有效性和潜力。