5401 篇
13911 篇
478084 篇
16320 篇
11773 篇
3942 篇
6548 篇
1254 篇
75673 篇
37947 篇
12175 篇
1667 篇
2870 篇
3423 篇
641 篇
1241 篇
1980 篇
4924 篇
3888 篇
5493 篇
HBM,算力之基强势增长,产业链确定性受益
英伟达 H200 搭载了 141GB 的 HBM3E,带宽达 4.8TB/s,相较于搭载 80GB HBM3 的 H100, 实现 76.25%的内存容量提升和 43.28%的内存带宽增长。与 H100 相比,在其他参数基本没变的背景下,H200 更高容量、更高带宽的 HBM3E 的搭载,在显著提升其性能的同时,有效降低了大模型训练时的能耗和总成本。作为 AI 算力之基石,HBM 产品容量和代际水平能够显著影响 AI 芯片的性能指标。