2583 篇
1049 篇
239759 篇
3230 篇
7540 篇
2196 篇
2746 篇
530 篇
37450 篇
9007 篇
3113 篇
730 篇
2285 篇
1309 篇
447 篇
752 篇
1383 篇
2580 篇
2737 篇
3913 篇
AI服务器散热进入液冷时代,导热散热材料需求突显——AI系列深度(五)
英伟达 GB300 NVL72 服务器算力进一步提升,液冷散热需求迅速提升。英伟达今年即将发布其专为 AI 推理时代而打 造的 AI 服务器 NVIDIA DGX GB300 NVL72,AI 算力进一步提升,推论效能较 DGX GB200 提升了 1.5 倍。超高的芯片运算能力使得热设计功耗(TDP)进一步提升,传统风冷散热技术热导率较低,难以满足较高 TDP 的散热需求,GB300 服务器采用了完全液冷式机架设计,引领了 AI 服务器液冷的新潮流。AI 服务器液冷散热需求或将伴随 AI 服务器出货量的提升而迅速提升。