5379 篇
13902 篇
477807 篇
16280 篇
11761 篇
3926 篇
6532 篇
1251 篇
75590 篇
37740 篇
12156 篇
1656 篇
2859 篇
3418 篇
641 篇
1240 篇
1973 篇
4916 篇
3871 篇
5467 篇
Scaling Law启示录——大模型系列报告(二)
Scaling Law:实验科学的产物。Scaling Law 指的是大语言模型(LLM) 的最终性能主要与计算量、模型参数量和训练数据量的规模相关,而与模型的具体结构(如层数、深度或宽度)基本无关。随着模型规模、数据量和计算资源的增加,模型的性能会相应提升,并且这种提升呈幂律关系。Scaling Law 是实验科学的产物。2022 年 11 月,ChatGPT 的亮相震惊了业界,标志着大模型的重大突破,Scaling Law 并成为进一步扩展模型规模的核心指导思想。业界普遍认为,只要能够提供更大规模的参数、更多的数据和更强大的计算能力,模型的能力将持续提升,最终可能接近或实现通用人工智能(AGI)。