自去年以来,NVIDIA的人工智能
GPU一直供不应求,这也导致了较长的交付周期。例如,基于H100构建的服务器的交付周期可以从36周到52周不等。负责芯片制造和封装的台积电在产能方面非常紧张,这很大程度上是因为CoWoS封装的产能不足。
据DigiTimes报道,有业内人士表示,目前H100计算卡供不应求的状况已有很大改善,出货量较之前明显走强。原本,20204上半年,AI服务器处于有单无料的窘境。然而,到了第二季度末,情况开始发生变化。预计2024年下半年,AI服务器的出货量将逐步增加,新一代Blackwell架构的出货量也将出现。B100/200。
二季度,不少长期挤压的订单终于圆满完成,供需差值降至个位数。要知道,2023年,供需差基本在30%到40%之间,缺口巨大。ODM厂商已经感受到了这一变化,6月份营收普遍呈现良好增速。随着B100/200的加入,ODM制造商将在AI服务器收入中占据更高的比例。
随着供应链中的材料问题得到解决,零部件供应商也受益良多。报道指出,人工智能
GPU的迭代也提升了粉丝的产值。例如,与配备H100和A100的AI服务器相比,粉丝的产值从350美元增加到550美元。下一架B100/200预计会更高。但由于尚未量产,具体规模尚待确认。