ChatGPT背後的算力博弈 中國企業亟待打破美國桎梏

發表於 2023-04-26 10:59 作者: 區塊鏈情報速遞pro

華西證券預測,全球AI軟件市場規模將在2025年達到1260億美元,2021年到2025年復合增長率爲41.02%。

ChatGPT繁榮的背後,是堪稱天文數字的算力支持。

據測算,AI訓練服務器方面,單個大語言模型訓練驅動AI訓練服務器需求約2億美元;AI推理服務器方面,如ChatGPT在初期便可帶動推理服務器需求約45億美元。

一時間,ChatGPT們層出不窮,而它們背後的AI服務器賽道也开始隨之水漲船高。

算力決定ChatGPT

算力作爲大模型的核心引擎,它的計算公式很簡單:有多少枚GPU芯片就能產生多大的算力,高端GPU芯片的數量,能直接影響算力的大小。

ChatGPT所需要的算力並不是固定的,反而是逐次遞增。ChatGPT越聰明,背後的代價是所需算力越來越多。

據媒體推測,GPT-3訓練成本預計在500萬美元/次,GPT-3模型需花費訓練成本約140萬美元,Google的PaLM模型需花費訓練成本約1120萬美元。

據微軟高管透露,爲ChatGPT提供算力支持的AI超級計算機,是微軟在2019年投資10億美元建造的一台大型頂尖超級計算機,配備了數萬個英偉達A100 GPU,還配備了60多個數據中心總共部署了幾十萬個英偉達GPU輔助。

爲了滿足與日俱增的ChatGPT算力需求,微軟宣布將推出基於英偉達最新旗艦芯片H100 GPU和英偉達Quantum-2 InfiniBand網絡互連技術,推出Azure可大規模擴展的AI虛擬機系列,以顯著加速AI模型的开發。

看上去,ChatGPT的背後就是滿篇的英偉達、英偉達和英偉達。

實際上,英偉達作爲硬件霸主,不僅在消費級市場佔據大部分市場,也是AI服務器芯片領域的頭號選擇。

物以稀爲貴,目前英偉達的旗艦芯片H100,在一周時間漲價近7萬元人民幣,售價普遍高達30萬元左右;次旗艦A100芯片在短短三個月多時間裏,從6萬元一路漲至9萬元,漲幅超過50%。

不僅漲價买不到,甚至美國還禁止英偉達賣芯片。在去年8月,美國政府發布出口管制政策,禁止英偉達將A100、H100兩款芯片售往中國。

爲了不丟掉中國市場,又符合美國出口管制,英偉達隨後推出性能閹割版A800、H800芯片。但這兩款芯片同樣被供不應求的市場一搶而空,價格也隨之水漲船高。

以百度阿裏騰訊爲首,國內大部分互聯網公司都已經宣布進軍大模型。市場統計,從ChatGPT之後,中國年內即將推出的大模型數量已超10個。

如果想要達到ChatGPT的水准,至少需要3000枚A100芯片,以9萬/枚的價格來算就是2.7億人民幣才能完成一個大模型部署;10個大模型就需要3萬枚A100芯片,27億人民幣。

加上後期訓練成本,所需要的芯片更是天文數字。但按照目前英偉達的交貨時間來看,想要买到足夠的芯片,可不是一件容易的事情。

恍惚間,礦卡時代又再次來臨。

再次坐在風口的英偉達

在前些年虛擬貨幣火熱的時候,作爲挖礦必備的顯卡提供商,英偉達幾年時間大賺特賺了48億美元。如今又靠着ChatGPT活出第二世,讓歷史再次重演。

面對市場需求激增,借AI浪潮翻身的英偉達很雞賊的推出算力租賃服務。

3月21日,2023年GTC大會上,英偉達創始人兼首席執行官黃仁勳推出NVIDIA DGX Cloud,可以爲企業提供訓練生成式AI高級模型所需的基礎設施和軟件。DGX Cloud每個實例配有8個H100或A100 80GB GPU,企業可以雲租賃的形式按月租用DGX Cloud集群,價格爲每實例3.7萬美元/月起。

英偉達真的沒有替代品嗎?爲什么企業寧愿選擇租賃,也不選擇其他GPU芯片商?

IDC數據顯示,國內GPU服務器在2021年佔國內服務器市場規模的比例超過88.4%,使用英偉達的產品佔比超80%。

AI大模型所需要的芯片在處理信息的精細度和算力速度要求更高,在超算領域,雙精度浮點計算能力FP64是進行高算力計算的硬性指標。而英偉達的H100、A100是目前唯一具備這些能力的芯片。

美國卡脖子的並不只有英偉達芯片的售賣,從技術、設備、材料都限制中國企業的研發。但在美國的重重限制下,中國企業仍然頂着壓力跑出幾匹黑馬。

根據IDC最新發布的《中國加速計算市場(2021年下半年)跟蹤報告》,2021年全年中國AI服務器市場規模達350.3億元,同比增長68.6%。

在企業級GPU芯片領域,中國廠商壁仞科技在2022年推出BR100芯片、天數智芯推出了智鎧100芯片、寒武紀推出了思元270芯片。

其中壁仞科技稱,BR100擁有全球最高算力,峰值算力達到了市場在售旗艦產品的三倍以上,16位浮點算力達到1000T以上、8位定點算力達到2000T以上,單芯片峰值算力達到PFLOPS級別。

雖然數據良好,但缺少至關重要的處理FP64的能力,依然無法完全取代英偉達H100、A100倆兄弟。

並且,英偉達使用的CUDA平台早已成爲應用最爲廣泛的AI开發生態系統,只支持英偉達的Tesla架構GPU,在現階段根本無法用國產芯片取代。

雖然中國芯片廠商正在對GPU芯片領域奮起直追,但技術差距和美國卡脖子仍是關鍵性問題,還需要一段時間的努力。

不止AI服務器

借着大模型東風一路上揚的不止AI服務器和GPU芯片,還有儲存器市場。

ChatGPT的運行條件包括訓練數據、模型算法和高算力,其中高算力的底層基礎設施是完成對海量數據、訓練的基礎。

最顯而易見的特點就是ChatGPT經歷數次迭代之後,參數量從1.17億增加到1750億,近乎兩千倍的增長,也給計算存儲帶來極大的挑战。

AI新時代开啓,預計全球數據生成、儲存、處理量將呈等比級數增長,存儲器將顯著受益。而計算存儲是ChatGPT的重要基石,隨着阿裏、百度等科技巨頭類ChatGPT項目入局,整體計算存儲市場需求將進一步快速提升。

隨着AIGC持續火熱,北京、上海、廣州等數字經濟發達地區也出台了政策推進智算中心建設。比如,北京市提出新建一批計算型數據中心和人工智能算力中心,到2023年,培育成爲人工智能算力樞紐;上海市提出布局建設一批具有高性能、高吞吐的人工智能算力中心,推動公共算力服務平台建設等。

而各行各業都將面臨着ChatGPT的洗禮,在迎新一輪人工智能的浪潮下,和AI相關的行業將會迎來廣闊的市場空間。

而中國企業也勢必會衝破美國掣肘,打破不公平的桎梏。

標題:ChatGPT背後的算力博弈 中國企業亟待打破美國桎梏

地址:https://www.coinsdeep.com/article/12785.html

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。

你可能還喜歡
熱門資訊