玉林实硕医疗科技有限公司

一邊暴漲20倍,一邊降價40%,服務器行業上演冰火兩重天_全球要聞

服務器市場正在呈現出兩級分化的態勢。

一方面,據證券時報報道,AI服務器價格不到一年暴增20倍。

東莞一家企業表示,去年6月其公司購買了8臺AI服務器,它的基礎配置為8顆英偉達A100GPU,存儲是80G,當時購買價格為8萬元/臺,今年3月已經漲到130萬/臺,現在大約160萬元/臺。


(資料圖片僅供參考)

另一方面,與AI服務器價格形成反差的,則是云服務器。

5月16日晚間,騰訊云、移動云宣布啟動降價;在此次降價計劃中,騰訊云將針對部分區域云服務器實例特惠時長進一步加大折扣力度,價格降幅最高將達40%。移動云部分產品線最高降幅達60%。此前4月26日,阿里云就已啟動史上最大規模降價。值得一提的是,微軟此前也大幅調降了今年服務器訂單。

資料顯示,按照用途劃分,服務器可以為通用型服務器和專用型服務器(比如AI服務器)兩類。

通用服務器一般是面向各類互聯網用戶提供綜合業務能力的服務平臺,主要是面向用戶提供公用化的互聯網基礎設施服務。

而AI服務器則是作為算力基礎設施單元服務器的一種類型,能夠快速準確地處理大量數據,可以滿足大模型所需強大的算力需求。

招商證券指出,從通用服務器到AI服務器,一個最顯著的變化就是GPU取代了CPU成為整機最核心的運算單元以及價值量占比最大的部分,傳統服務器通常至多配備4個CPU+相應內存和硬盤,在AI服務器中,通常是2顆CPU+8顆GPU,部分高配4U服務器中甚至可以搭配16顆GPU,預計AI服務器中GPU+CPU+存儲的價值量占比有望達到80%以上的水平。

市場空間方面,其預計未來5年AI大模型訓練端和推理端,AI服務器市場規模超2000億元。

ChatGPT能帶來多少AI服務器需求增量?

天風證券指出,在實現AI的過程中,訓練和推理是必不可少的;同時相比于推理,訓練所需的算力是幾何倍的增長。天風證券以A100服務器和H100服務器作為樣本,基于GPT-3模型估算了訓練階段的算力得出:

假設應用A100 640GB服務器進行訓練,該服務器AI算力性能為5 PFLOPS,最大功率為6.5 kw,則測算訓練階段需要服務器數量=訓練階段算力需求÷服務器AI算力性能=2.96×108臺(同時工作1秒),即3423臺服務器工作1日。

假設應用H100服務器進行訓練,該服務器AI算力性能為32 PFLOPS,最大功率為10.2 kw,則測算訓練階段需要服務器數量=訓練階段算力需求÷服務器AI算力性能=4.625×107臺(同時工作1秒),即535臺服務器工作1日。

此外其還表示,若后續GPT模型參數迭代向上提升(GPT-4參數量可能對比GPT-3倍數級增長),則測算所需AI服務器數量進一步增長。

其假設應用搭載16片V100 GPU的英偉達DGX2服務器進行訓練推理,該服務器算力性能為2 PFLOPS,最大功率為10kw,則測算需要服務器數量為=1.545×108臺(同時工作1秒),即1789臺服務器工作1日。

據TrendForce表示,在AIGC、自動駕駛、AloT、邊緣計算等新興應用帶動下,諸多大型云廠商加大AI相關基礎設施建設,預計搭載GPGPU(General Purpose GPU)的AI服務器2022年出貨量僅占整體服務器市場的1%,并有望在2026年增長至20萬臺,2022-2026年CAGR為10.8%。

最后附一張服務器產業鏈圖:

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: