隨著ChatGPT的爆紅,微軟、Google、百度相繼宣佈對他們的搜索引擎進行重大改革,試圖將大型人工智能模型整合到搜索中,以便給用戶提供更豐富、更準確的體驗。但是興奮之餘,新工具背後可能隱藏著一個“骯臟的秘密”。
外媒指出,構建高性能人工智能搜索引擎的競賽很可能需要計算能力的大幅提升,它所產生的後果將是科技公司所需能源和碳排放量的大幅增加。
英國薩裡大學網絡安全教授艾倫·伍德沃德(Alan Woodward)表示:“已經有大量資源被用於索引和搜索互聯網內容,但人工智能的整合需要一種不同的火力。它需要處理能力、存儲和高效搜索。每當我們看到在線處理的步驟變化時,我們就會看到大型處理中心所需的電力和冷卻資源的顯著增加。我認為人工智能的整合可能是會走這一步。”
碳排放大增
訓練大型語言模型(LLMs)意味著在大量數據中解析和計算鏈接,這就是為什麼它們往往是由擁有大量資源的公司開發的原因,比如為微軟必應搜索提供動力的ChatGPT,為Google聊天機器人“巴德”(Bard)提供支持的那些語言模型。
“訓練這些模型需要大量的計算能力,”西班牙科魯尼亞大學(University of Coruña)計算機科學傢卡洛斯·戈麥茲·羅德裡古茲(Carlos Gómez-Rodríguez)表示,“現在,隻有大型科技公司才能訓練他們。”
微軟已在必應中整合ChatGPT
盡管OpenAI和Google都沒有透露其產品的計算成本是多少,但研究人員發佈的第三方分析預計,ChatGPT部分依賴的GPT-3模型的訓練會消耗1287兆瓦時電力,產生550多噸的二氧化碳當量,相當於一個人在紐約和舊金山之間往返550次。
“這個數字看起來沒有那麼糟糕,但你必須考慮到這樣一個事實:你不僅要訓練它,還要執行它,為數百萬用戶服務。”羅德裡古茲表示。
而且,把ChatGPT作為一個獨立產品使用與把它整合到必應中還有很大不同。投行瑞銀預計,ChatGPT日均獨立訪問用戶為1300萬。相比之下,必應每天要處理5億次搜索。
加拿大數據中心公司QScale聯合創始人馬丁·佈查德(Martin Bouchard)認為,根據他對微軟和Google搜索計劃的解,在搜索過程中添加生成式人工智能,需要“每次搜索至少增加4到5倍的計算量”。
為滿足搜索引擎用戶的需求,企業必須做出改變。“如果他們要經常重新訓練模型,並添加更多參數之類的東西,這是一個完全不同的規模,”佈查德表示,“這將需要在硬件上進行大量投資。我們現有的數據中心和基礎設施將無法應對生成式人工智能的消耗。它們對性能的需求太高。”
如何減少碳排放?
根據國際能源署發佈的數據,數據中心的溫室氣體排放量已經占到全球溫室氣體排放量的1%左右。隨著雲計算需求的增長,這一數字預計還會上升,但運營搜索引擎的公司已承諾減少它們對全球變暖的凈貢獻。
微軟已經承諾到2050年實現碳負排放,該公司計劃今年購買150萬噸碳信用額。碳信用又稱碳權,是指排放1噸二氧化碳當量的溫室氣體的權利。Google承諾到2030年在其整個業務和價值鏈實現凈零排放。
對於這些巨頭來說,減少將人工智能整合到搜索中的環境足跡和能源成本的一個方式就是將數據中心轉移到更清潔的能源上,並重新設計神經網絡讓讓變得更高效,減少所謂的“推斷時間”,也就是算法處理新數據所需的計算能力。
“我們必須研究如何減少這種大型模型所需要的推斷時間,”謝菲爾德大學自然語言處理講師納菲斯·薩達特·莫薩維(Nafise Sadat Moosavi)表示,她致力於自然語言處理的可持續性研究,“現在是關註效率方面的好時機。”
Google發言人簡·帕克(Jane Park)表示,Google最初發佈的“巴德”版本是一個由輕量級大型語言模型支持的版本。“我們還發表一項研究,詳細介紹最先進語言模型的能源成本,包括早期和更大版本的LAMDA,”帕克稱,“我們的研究結果表明,將高效的模型、處理器和數據中心與清潔能源相結合,可以將機器學習系統的碳足跡減少1000倍。”