快科技3月10日消息,據媒體報道,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力。
作為參考,美國普通傢庭的日均用電量僅為29千瓦時,這意味著ChatGPT的能耗是普通傢庭的近1.7萬倍。
如果生成式AI被進一步采用,耗電量可能會更多。荷蘭國傢銀行數據科學傢Alex de Vries在一篇論文中估計,到2027年,整個人工智能行業每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發電量。
不過,要準確評估蓬勃發展的AI行業的實際電量消耗並非易事,盡管大型科技公司在AI領域處於領先地位,但它們對於自身的能源消耗情況卻諱莫如深。
此外,不同的人工智能模型在運行方式上也存在巨大差異,這使得電量消耗的估算變得更加復雜。
另據New Street Research的數據,英偉達在圖形處理器市場份額中占據約95%的份額。de Vries估計,到2027年,整個AI行業的電量消耗將達到85至134太瓦時之間。這是一個相當可觀的數字,甚至可能占到全球電量的一半左右。