本月早些時候,Google宣佈計劃推出Bard,這是一個人工智能,聊天機器人旨在通過自然語言模型幫助用戶尋找信息。微軟也宣佈新的必應搜索,它自己的聊天機器人結合微軟的技術和OpenAI的技術,後者是ChatGPT背後的公司。
然而,所有這些聊天機器人技術的一個重要方面,這些公司都沒有談及那麼多,那就是其運營成本。路透社的一份新報告就這項新技術的這一部分提供更多信息。它與Alphabet的主席John Hennessy閑聊時後者表示,使用具有大型語言模型的聊天機器人的運行成本可能是普通搜索的10倍之多。
早在2022年12月,就在ChatGPT推出後,OpenAI的首席執行官Sam Altman在Twitter上表示,"計算成本令人瞠目結舌"。這也是它在2月初推出ChatGPT Plus的部分原因,以每月20美元的價格提供更多的功能和更快的性能。
路透社引用摩根士丹利的一份報告,估計如果像巴德這樣的聊天機器人人工智能被投入使用,Google的搜索成本在2024年可能會增加60億美元。這是假設聊天機器人處理Google一半的搜索,提供包含50個單詞的答案的情況下。
當然,這些成本提高的原因是,需要更多的CPU來生成所有這些來自聊天機器人AI的文字與自然聲音的答案,這也意味著保持這些服務器工作的電力成本更高。
那麼,如何才能降低成本呢?可能發生的一件事是,這些聊天機器人將變得更有效率,從而降低運營成本,但目前還不清楚這對降低價格有多大作用。另一個解決方案是,Google和微軟可以在聊天機器人的回答中顯示廣告鏈接,這將產生收入,補償這些服務器的運行成本。
另一個解決方案是ChatGPT已經在做的事情;提供訂閱服務,用戶可以獲得更快和更好的聊天機器人答案。這種選擇可能是Google和微軟的最後手段。隨著越來越多的用戶使用這些新的人工智能驅動的搜索服務,他們將不得不弄清楚成本是否會下降到足以讓這些公司的財務底線在經濟上可行。