據《紐約客》雜志報道,OpenAI的熱門聊天機器人ChatGPT每天可能要消耗超過50萬千瓦時的電力,以響應用戶的大約2億個請求。相比之下,美國傢庭平均每天使用約29千瓦時的電力。將ChatGPT每天的用電量除以普通傢庭的用電量,可以發現ChatGPT每天的用電量是傢庭用電量的1.7萬多倍。
聽起來很多,但如果生成式人工智能被進一步采用,耗電量可能會更多。
例如,根據荷蘭國傢銀行(Dutch National Bank)數據科學傢亞歷克斯·德弗裡斯(Alex de Vries)在可持續能源期刊《焦耳》(Joule)上發表的一篇論文中的計算,如果谷歌將生成式A技術整合到每次搜索中,它每年將消耗約290億千瓦時的電量。據《紐約客》報道,這比肯尼亞、危地馬拉和克羅地亞等國一年的用電量還要多。
“人工智能是非常耗能的,”德弗裡斯說,“每個人工智能服務器的耗電量已經相當於十幾個英國傢庭的總和。所以這些數字很快就會增加。”
然而,估計蓬勃發展的人工智能行業消耗多少電力是很難確定的。據the Verge報道,大型人工智能模型的運行方式存在相當大的差異,而推動人工智能繁榮的大型科技公司並沒有完全公開他們的能源使用情況。
然而,在他的論文中,德弗裡斯提出一個基於英偉達(Nvidia)公佈的數據的粗略計算。這傢芯片制造商占據圖形處理器市場約95%的份額。
德弗裡斯在論文中估計,到2027年,整個人工智能行業每年將消耗85至134太瓦時(1太瓦時相當於10億千瓦時)。
“到2027年,人工智能的用電量可能占全球用電量的0.5%,”德弗裡斯說,“我認為這是一個相當重要的數字。”