2630 篇
1086 篇
194574 篇
3308 篇
6316 篇
2230 篇
2779 篇
537 篇
29617 篇
9710 篇
3159 篇
756 篇
2299 篇
1317 篇
449 篇
752 篇
1387 篇
2609 篇
2739 篇
4022 篇
HBM,算力之基强势增长,产业链确定性受益
英伟达 H200 搭载了 141GB 的 HBM3E,带宽达 4.8TB/s,相较于搭载 80GB HBM3 的 H100, 实现 76.25%的内存容量提升和 43.28%的内存带宽增长。与 H100 相比,在其他参数基本没变的背景下,H200 更高容量、更高带宽的 HBM3E 的搭载,在显著提升其性能的同时,有效降低了大模型训练时的能耗和总成本。作为 AI 算力之基石,HBM 产品容量和代际水平能够显著影响 AI 芯片的性能指标。
