聲明:本文來自於微信公眾號 新智元(ID:AI_era),作者:新智元,授權站長之傢轉載發佈。
【新智元導讀】前段時間,OpenAI CEO Sam Altman和CTO Mira Murati在WSJ的專訪裡,探討AGI、未來GPT的發展、以及AI對人類的影響。
「OpenAI的最終目標為什麼是AGI?什麼是AGI?」
「ChatGPT以及其他語言模型的用途是什麼?」
「人類與人工智能的關系在未來會發生什麼變化?」
在2023年《華爾街日報》(WSJ)的科技新聞發佈會上,OpenAI的首席執行官Sam Altman和首席技術官Mira Murati討論人工通用智能(AGI)、未來GPT模型的發展,以及人工智能對人類的影響。
而九年前,Sam Altman在《華爾街日報》會議上表示人工智能導致人類失業,是個不需要太擔心的很久以後才會發生的事。
不到十年時間,Altman和他共同創立的公司OpenAI發佈名為ChatGPT的人工智能聊天機器人。
它能夠撰寫電子郵件、商業計劃、甚至是代碼,而這在九年前是難以想象的。
在討論當下人工智能對人類社會帶來的沖擊和影響時,Altman仍然樂觀,但比九年前更加慎重。
OpenAI的終極目標:AGI
AGI,這個概念從誕生起,就被人們賦予無限美好的想象。
Altman同樣如此,他認為AGI會是人類有史以來最傑出的造物。
有這個偉大的工具,人類就能夠解決現今世界上的各種問題,並為人類自己、彼此和世界創造出難以想象的新鮮事物。
那時候,人類會有更具創意的自我表現手段。但Altman肯定,這些變化將為人類帶來巨大的好處。
「再過九年,華爾街日報邀請我時,你們可能會提問:那時候我們為什麼會認為人類不想要AGI到來呢?」
那麼AGI將會在什麼時候出現?人們又要如何分辨AGI的到來?
Altman將AGI定義為我們還沒有的東西。十年前,人們可能會覺得像GPT-4或GPT-5就是AGI。
但現在,GPT-4隻是被人們看作為一個還不錯的「小聊天機器人」。
人們對AGI的基準門檻要求變得越來越高,這要求人們對人工智能付出的努力也越來越多。
Altman表示,「人類現在已經足夠接近AGI的閾值,提升AI的能力變得不那麼重要。我們當前面臨的問題是如何定義AGI。」
GPT-5:解決「幻覺」與數據版權問題
OpenAI自成立後已發佈多個版本的GPT,每個版本都比上一個更強大。
今年3月,OpenAI發佈最新的模型——GPT-4。但關於OpenAI的下一個模型,人們依舊充滿期待:GPT-5是否正在研發?
面對這個問題,OpenAI的CTO Mira Murati的回答是,「我們還沒到這一步」。
但她也表示,OpenAI一直致力於下一件事,如減少模型幻覺:未來發佈的GPT-5將致力於解決現在困擾模型的幻覺問題。
Mira表示,雖然GPT-4已經在幻覺問題上取得很大的進展,但離完全解決幻覺問題還有一段距離。
但OpenAI一直沿著解決問題的正確的軌道:人類反饋強化學習(RLHF),讓模型輸出真正可靠的內容。
並且,OpenAI還通過整合多種技術來減少模型幻覺問題,如為模型增加檢查和搜索的能力,為模型提供更多的事實數據,以保證用戶能夠從模型中獲得更多的事實輸出。
但對OpenAI來說,版權一直是個爭議。
不僅是用來訓練模型的數據、模型生成的內容也常常涉及到版權保護問題。
多個出版商、以及作傢都對OpenAI的侵權行為多有抗議。
而Altman從另一個角度討論數據使用以及數據所有權問題。
在未來,OpenAI的新模型將成為每個人都能使用的基礎設施,這意味著思考數據所有權和經濟流動的方式都會發生改變。
現在,OpenAI正在努力與不同的數據版權所有者建立合作關系,但隨著模型的智能和能力變得越來越強,未來訓練模型所需的數據也會變得越來越少。
但當前的模型,在訓練時仍然需要盡可能多的人類所生產的每個數據。不過,Altman表示這不會是模型未來長期發展的路徑,因為未來真正重要的是有價值的數據。
隨著OpenAI在技術上的進步,關於數據和所有權的討論將會發生轉變。
人類與AI的未來
首先是人類與AI的關系問題。
9月25日,OpenAI為GPT-4加入更多的個性化功能。現在,ChatGPT可以看、聽和說話。
新增的GPT-4的語音功能相當人性化,與人的交流十分自然。
可以預見的是,無處不在的AI即將成為人類生活的現實。
未來,我們無法避免與人工智能的交互,而這帶來一個問題:人類應該如何對待自己與人工智能的關系。
而訓練模型的OpenAI以及其他公司,在某種程度上能夠控制與人們締結起關系的人工智能。
這將是一個令人不安的未來,這些人工智能很可能會成為人類的朋友、甚至是伴侶。
但Altman明確表示,自己不希望人們與人工智能建立起超出人類朋友的親密關系:人工智能與人類不同,也許這些系統充滿個性,但這與人性無關。
因此,與人工智能交流時,要和人類交流有所區別。
「我們之所以將模型命名為ChatGPT而不是一個人的名字,是為讓用戶明確和自己交流的是一個人工智能,而不是真正的人類。」Altman強調這點。
但就像人們擁有有很多不同的關系那樣,人也會與人工智能建立起特別的關系。但最終,人們會意識到人工智能與人類是不同的,但我們與其建立起的關系不會因此而破裂。
另一方面,AI的迅速發展也讓人們擔心其帶來的不可控風險:利用這些系統進行犯罪以及對就業市場的沖擊。
如命令AI入侵計算機系統或設計生化武器等。
這並非是遙不可及的未來,從生成式AI潮爆發後,利用AI進行詐騙和網絡攻擊的行為已屢見不鮮。
但Altman認為,在技術發展的過程中,這些負面的影響是不可避免的。
我們要去解決的是技術帶來的風險,而不是放棄發展。後者對人類來說,仍然是一種道德上的失敗。
而在人類歷史上,幾乎每一次技術革命都會深刻地影響就業市場,或是發生徹底的顛覆或是一半的工作崗位都會消失。
但事實上,舊的工作消失後,新的工作就會誕生。這正彰顯人類的進步,問題在於我們的社會適應變化的速度。
在兩代人、最多三代人的時間內,人類就可以適應幾乎任何程度的就業市場變化。
也許會有人不願意、不喜歡改變自己的工作,但工作的性質是會變化的。
對一個狩獵采集的原始部落裡的人來說,在電腦前敲敲字也不可能是真正的工作。
「工作僅僅是人類試圖用一些愚蠢的地位遊戲來娛樂自己。」Altman說道。
真正的挑戰是應對就業市場革新的過渡。
社會需要采取行動來確保人們在這個過渡中不會受到傷害,僅僅提供普遍基本收入是不夠的,人們需要擁有主動權和影響力,參與對未來的建設。
這也是OpenAI為什麼如此堅決地推廣ChatGPT的原因。
雖然不是每個人都能夠使用人工智能技術,但隨著越來越多人的參與,人們將有機會思考並劃定未來發展的方向。
這是我們最應重視的事。
參考資料:
https://www.youtube.com/watch?v=byYlC2cagLw