3月30日消息,特斯拉首席執行官埃隆·馬斯克(ElonMusk)、蘋果聯合創始人史蒂夫·沃茲尼亞克(SteveWozniak)以及其他1000多人日前簽署一封公開信,呼籲暫停訓練比GPT-4更強大的AI系統。美國主流網絡媒體BI認為,為全社會的利益,AI開發需要放慢腳步。
在公開信中,沃茲尼亞克、馬斯克等人要求在AI技術變得日益強大之際,為其設置安全護欄,並暫停訓練更先進的AI模型。他們認為,對於像OpenAI的GPT-4這樣強大的AI模型,“隻有在我們確信它們的影響是積極的、風險是可控的情況下才應該開發”。
當然,這並不是人們首次呼籲為AI設置安全護欄。然而,隨著AI變得越來越復雜、越來越先進,要求保持謹慎的呼聲也在不斷升高。
美國康奈爾大學數字和信息法教授詹姆斯·格裡梅爾曼(James Grimmelmann)表示:“放慢新AI模型的開發速度是一個非常好的主意,因為如果AI最終對我們有利,那麼等待幾個月或幾年也沒有壞處,我們無論如何都會到達終點。而如果它是有害的,那我們也為自己爭取額外的時間,以制定應對的最佳方式,並解如何與其作對抗。”
ChatGPT崛起凸顯出行動過快存在潛在危險
去年11月,當OpenAI的聊天機器人ChatGPT上市公測時,引起巨大轟動。可以理解的是,人們開始推廣ChatGPT的功能,而它對社會的破壞性很快就顯現出來。ChatGPT開始通過醫生職業考試,給出如何制作炸彈的說明,甚至為自己創造另一個自我。
我們越多地使用AI,特別是ChatGPT或文本到圖像轉換工具Stable Diffusion等所謂的生成式人工智能(AIGC)工具,我們就越能看到它的缺點,它制造偏見的潛力,以及我們人類在使用它的力量時顯得多麼無力。
BI編輯哈桑·喬杜裡(Hasan Chowdhury)寫道,AI有可能“成為渦輪增壓機,加速我們的錯誤蔓延開來”。就像社交媒體那樣,它可以利用人類最好的和最壞的東西。但與社交媒體不同的是,AI將更多地融入人們的生活。
ChatGPT和其他類似的AI產品已經傾向於歪曲信息和犯錯誤,沃茲尼亞克曾公開談論過這一點。它很容易產生所謂的“幻覺”(不真實信息),就連OpenAI首席執行官薩姆·阿爾特曼(Sam Altman)也承認,該公司模型可能會產生種族、性別歧視和帶有偏見的答案。Stable Diffusion也遇到版權問題,並被指控從數字藝術傢的作品中竊取靈感。
隨著AI融入更多的日常技術中,我們可能會在更大范圍內給世界帶來更多錯誤信息。即使是對AI來說看似良性的任務,比如幫助策劃假期,也可能不會產生完全可信的結果。
當自由市場要求快速發展時,很難負責任地開發AI技術
需要明確的是,AI是一項令人難以置信的變革性技術,特別是像ChatGPT這樣的AIGC。開發機器來完成人們討厭的大部分乏味工作,從本質上講並沒有錯。
盡管這項技術在勞動力中造成生存危機,但它也被譽為科技行業的平等工具。目前也沒有證據表明,ChatGPT準備在未來幾年領導一場機器人叛亂。
許多AI公司都有倫理學傢參與,以負責任的態度開發這項技術。但是,如果匆忙推出產品的重要性高於其社會影響,專註於安全創建AI的團隊就無法安心完成工作。
速度似乎也是這股AI熱潮中不可忽略的因素。OpenAI認為,如果該公司行動足夠快,就可以抵禦競爭,成為AIGC領域的領導者。這促使微軟、谷歌和幾乎所有其他公司爭相效仿。
在強大的AI模型準備就緒之前就發佈給公眾體驗,並不能讓這項技術變得更好。人們還未找到AI的最佳用例,因為開發人員必須撲滅他們所創造技術引發的喧囂,而用戶則被噪音分散註意力。
並不是每個人都希望放慢速度
馬斯克等人的公開信也受到其他人批評,他們認為其沒有切中要害。
華盛頓大學教授艾米麗·本德(Emily M. Bender)在推特上表示,馬斯克和其他科技領袖在炒作周期中隻關註AI的強大程度,而不是它能造成的實際損害。
康奈爾大學數字和信息法教授格裡梅爾曼補充說,在這封公開信上簽名的科技領袖“姍姍來遲”,並打開一個潘多拉盒子,可能給自己帶來麻煩。他稱:“現在他們已經在這封信上簽名,那麼他們就不能轉身再說,不能對自動駕駛汽車等其他技術施行同樣的政策。”
暫停開發或施加更多監管可能會也不會取得成果。但現在,話題似乎已經轉向。AI已經存在幾十年,或許我們還可以再多等幾年。(小小)