當前位置: 妍妍網 > 碼農

驚呆,ChatGPT每天耗電量相當於5萬個家庭

2024-03-25碼農

看新聞說,ChatGPT每天的耗電量是50萬度,國內每個家庭日均的耗電量不到10度,ChatGPT耗電相當於國內5萬個家庭用量。

網上流傳,輝達創始人黃仁勛說:「AI的盡頭是光伏和儲能」,大佬的眼光就是毒辣,點出了AI發展的根基。

我覺得這樣的耗電算是稀松平常,訓練AI模型需要算力,使用者存取也需要算力,而算力要用到GPU顯卡,就像挖礦一樣,非常的耗電。以Chat GPT這樣的參數和存取規模,其耗電量只會越來越大。

微軟為訓練ChatGPT所使用的是輝達A100顯卡,其典型功耗是400W,也就是說一張A100訓練一天的能耗是400W * 24h = 9.6KWh,也就是9.6度電。

ChatGPT這樣規模的AI套用至少也得大幾千張A100,加上其他輔助系統(CPU、記憶體、降溫等)的功耗,一天50萬度電也只能算灑灑水。

AI不光耗電還耗水,AI訓練需要大量的水去冷卻電腦,據說GPT 3訓練過程中大約消耗了 70 萬升,如果一個使用者與 ChatGPT 進行 25~50 個問題的對話,大概就相當於請 ChatGPT 喝了 500ml 水。

所以AI基礎算力成為了一個非常大的壁壘,只有超級大公司才能拿到入場券。

回過頭來,計算一項技術耗費多少電,本身是沒有意義的,還要考慮它的產出,是否值得消耗這麽多電。

過去一百年裏,全球馬達消耗掉的電量就占到了總發電量的一半,但馬達所產生的價值遠超其耗電量,如果AI能夠給人類帶來足夠的價值,誰會去考慮它的耗電呢?當然這其中的公式還有待明確。

從能源的角度看,我的猜測是未來AI會主要依靠太陽能、風能等可再生能源,因為隨著算力的不斷擴大,僅僅靠煤炭、石油等傳統能源是無法持續的,所以說AI革命也是能源革命啊。

加入知識星球【我們談論數據科學】

600+小夥伴一起學習!