5408 篇
13915 篇
478257 篇
16334 篇
11777 篇
3948 篇
6564 篇
1254 篇
75723 篇
38123 篇
12190 篇
1672 篇
2873 篇
3423 篇
642 篇
1242 篇
1980 篇
4927 篇
3893 篇
5511 篇
AI服务器散热进入液冷时代,导热散热材料需求突显——AI系列深度(五)
英伟达 GB300 NVL72 服务器算力进一步提升,液冷散热需求迅速提升。英伟达今年即将发布其专为 AI 推理时代而打 造的 AI 服务器 NVIDIA DGX GB300 NVL72,AI 算力进一步提升,推论效能较 DGX GB200 提升了 1.5 倍。超高的芯片运算能力使得热设计功耗(TDP)进一步提升,传统风冷散热技术热导率较低,难以满足较高 TDP 的散热需求,GB300 服务器采用了完全液冷式机架设计,引领了 AI 服务器液冷的新潮流。AI 服务器液冷散热需求或将伴随 AI 服务器出货量的提升而迅速提升。