2610 篇
1075 篇
240086 篇
3270 篇
7550 篇
2222 篇
2772 篇
533 篇
37549 篇
9361 篇
3134 篇
747 篇
2293 篇
1315 篇
449 篇
752 篇
1387 篇
2597 篇
2740 篇
3988 篇
AI服务器散热进入液冷时代,导热散热材料需求突显——AI系列深度(五)
英伟达 GB300 NVL72 服务器算力进一步提升,液冷散热需求迅速提升。英伟达今年即将发布其专为 AI 推理时代而打 造的 AI 服务器 NVIDIA DGX GB300 NVL72,AI 算力进一步提升,推论效能较 DGX GB200 提升了 1.5 倍。超高的芯片运算能力使得热设计功耗(TDP)进一步提升,传统风冷散热技术热导率较低,难以满足较高 TDP 的散热需求,GB300 服务器采用了完全液冷式机架设计,引领了 AI 服务器液冷的新潮流。AI 服务器液冷散热需求或将伴随 AI 服务器出货量的提升而迅速提升。
