一份關於人工智能進展的年度報告強調,在部署和保障人工智能應用方面,行業參與者比學術界和政府更具有優勢。2023年人工智能指數--由斯坦福大學的研究人員以及包括Google、Anthropic和HuggingFace在內的人工智能公司編制--表明,人工智能世界正在進入一個新的發展階段。
在過去一年中,大量的人工智能工具已經成為主流,從ChatGPT這樣的聊天機器人到Midjourney這樣的圖像生成軟件。但是,關於如何部署這項技術以及如何平衡風險和機會的決定牢牢掌握在企業參與者手中。
尖端的人工智能需要巨大的資源,使研究超出學術界的范圍
人工智能指數指出,多年來,學術界在開發最先進的人工智能系統方面處於領先地位,但現在工業界已經堅定地接管。它說:"在2022年,有32個重要的工業界生產的機器學習模型,而學術界隻生產三個。這主要是由於創建此類應用程序所需的資源需求越來越大--在數據、人員和計算能力方面。"
例如,在2019年,OpenAI創建GPT-2,一個早期的大型語言模式,或LLM--與ChatGPT和微軟的Bing聊天機器人所使用的應用類別相同。GPT-2的訓練成本大約為50,000美元,包含15億個參數(一種跟蹤模型規模和相對復雜程度的指標)。跳到2022年,Google創建自己最先進的LLM,稱為PaLM。這個模型的訓練成本估計為800萬美元,包含5400億個參數,比GPT-2大360倍,成本高160倍。
人工智能發展對資源的要求越來越高,這使得力量的平衡向企業參與者轉移。人工智能領域的許多專傢擔心,商業世界的激勵機制也將導致危險的結果,因為公司急於推出產品,把安全問題放在一邊以努力超越對手。這是許多專傢目前呼籲放緩甚至暫停人工智能發展的原因之一,包括埃隆-馬斯克在內的人物上周簽署的公開信就是如此。
隨著人工智能系統被更廣泛地部署,濫用的事件也大量增加
該報告的作者指出,隨著行業參與者將人工智能應用納入主流,道德誤用事件的數量也在增加。(人工智能、算法和自動化事件和爭議庫是這些事件的索引,指出2021年和2012年之間增加26倍)。這些事件包括涉及特斯拉自動駕駛軟件的死亡事件;在企業詐騙中使用AI制作的假音頻;AI創建未經同意的假裸體圖像;以及由錯誤的面部識別軟件引起的許多誤捕案件,該軟件往往受到種族偏見的困擾。
隨著人工智能工具變得更加廣泛,錯誤和惡意使用案例的數量也會增加,這並不奇怪;就其本身而言,這並不表明缺乏適當的保護措施。但其他證據確實表明其中的聯系,例如微軟和Google等公司有削減其人工智能安全和道德團隊的趨勢。
該報告還指出,立法者和決策者對人工智能監管的興趣正在上升。對127個國傢的立法記錄的分析指出,包含"人工智能"這一短語的法案數量從2016年僅有的一項通過增加到2022年的37項。在美國,州一級的審查也在增加,2015年提出的此類法案有5個,到2022年提出的人工智能相關法案有60個。這種興趣的增加可以為企業自律提供一種平衡。
不過,人工智能指數報告涵蓋的內容遠不止這些。你可以在這裡閱讀它的全文(https://aiindex.stanford.edu/report/),或者看看下面一些精選的亮點:
人工智能領域的私人投資十年來首次減少。全球私人對人工智能的投資多年來一直在攀升,但從2021年開始下降26.7%,至2022年的919億美元。
訓練大型人工智能模型有環境成本。2022年的一篇論文估計,訓練一個名為BLOOM的大型人工智能語言模型所排放的碳,是一名乘客從紐約到舊金山的往返飛行的25倍。相比之下,OpenAI的GPT-3估計其碳成本是BLOOM的20倍。
人工智能有可能幫助減少排放。2022年,Google子公司DeepMind創建一個名為BCOOLER的人工智能系統,通過優化冷卻程序,在該公司的數據中心進行為期三個月的實驗,減少12.7%的能源消耗。(目前還不清楚Google是否曾更廣泛地采用這一系統)。
中國人比美國人對人工智能更抱有希望。2022年的一項益普索調查發現,78%的中國受訪者同意"使用人工智能的產品和服務的好處多於壞處"的說法。中國公民對人工智能的熱情最高,其次是沙特阿拉伯(76%)和印度(71%)的受訪者。美國受訪者是受訪者中最不熱情的,隻有35%的人同意上述說法。