(资料图片)

据了解,尽管OpenAI的首席执行官曾否认,但业界普遍认为该公司已经在训练GPT-5大模型,其规模预计将是GPT-4的10倍以上。然而,这也意味着更高的成本,特别是在AI显卡极度稀缺的情况下。 全球许多从事AI大模型的公司,对于使用的AI显卡数量保持高度保密,很少公开准确数据。据推测,GPT-4可能是在10000-25000张A100显卡上训练的,而GPT-5所需的显卡数量仍然是个未知数,马斯克估计可能需要30000-50000张性能更强的H100显卡。 除了OpenAI外,其他公司对高性能AI显卡的需求也居高不下。包括Meta、谷歌、微软、苹果、特斯拉以及马斯克自己都在进行各种AI研究,预计总需求高达43.2万张H100显卡,价值超过150亿美元。 这只是美国科技行业的需求分析,实际上,国内的需求并不逊于美国。尽管只能购买特供版的A800、H800加速卡,但这并未阻止国内公司投身AI大模型的研究,甚至不惜加价抢购AI显卡。 在当前市场上,只有NVIDIA能满足AI显卡的需求。AMD和Intel的AI显卡不仅在性能和生态上存在问题,而且供货也跟不上。AMD的大杀器MI300X要到年底才能出货,2024年才能大批量上市。 总的来说,这波需求将使NVIDIA受益,AI显卡的需求预计将持续到2024年底。在这一年半的时间里,供应将一直无法满足需求,H100显卡的售价起步价为25万元,而加价的幅度则难以预测,可能会有很大的波动。

推荐内容