鳳凰網科技訊 《AI哨所》北京時間5月2日消息,有“AI教父”之稱的傑弗裡辛頓(Geoffrey Hinton)周一宣佈,他已經從谷歌公司離職。半個世紀以來,辛頓一直在培養ChatGPT等聊天機器人背後的核心技術。但是現在,他擔心AI會造成嚴重危害。
鳳凰網科技《AI哨所》解到,辛頓是AI先鋒。2012年,辛頓博士和他在多倫多大學所帶的兩名研究生開發的技術,成為AI系統的知識基礎。如今,科技行業的巨頭們認為,AI系統是它們未來發展的關鍵。
為發展AI而後悔
然而就在周一,他正式加入越來越多的AI批評人士的行列。他們認為,這些公司積極開發基於生成式AI的產品,ChatGPT等熱門聊天機器人等被快速研發,這是在奔向危險。
辛頓說,他已經辭去谷歌的工作,以便自己可以自由地談論AI的風險。他已經在谷歌工作十多年,成為該領域最受尊敬的人物之一。辛頓表示,他現在對自己一生從事的工作感到有些後悔。
“我用平常的借口來安慰自己:就算我沒做,別人也會做的。”上周,辛頓在多倫多傢中的餐廳接受長篇采訪時稱。那裡距離他和學生取得AI突破的地方隻有幾步之遙。
辛頓從AI開拓者到末日預言者的轉變,標志著科技行業在這個幾十年來也許最重要的拐點上經歷一個非凡時刻。業界領袖認為,新的AI系統可能與20世紀90年代初推出的網絡瀏覽器一樣重要,並可能引發從藥物研究到教育等領域的突破。
但是,令許多業內人士苦惱的是,他們擔心自己正在向野外釋放一些危險東西。生成式AI已經可以成為制造虛假信息的工具。很快,它可能會對就業構成威脅。科技行業最大的擔憂者表示,在未來的某個時候,它可能會對人類構成威脅。
辛頓對此表示,“很難想象你能如何阻止壞人利用它做壞事”。
自從OpenAI在3月份發佈最新版ChatGPT-4模型後,包括馬斯克在內的上千名科技領袖和高管簽署聯名信,呼籲暫停開發比ChatGPT-4更先進模型6個月時間,因為AI“對社會和人類構成深刻風險”。幾天後,有40年歷史的學術組織人工智能促進協會的19位現任和前任領導人發表他們自己的公開信,警告AI的風險。該組織包括微軟首席科學官埃裡克霍維茨(Eric Horvitz)。微軟已將OpenAI的技術應用於一系列產品,包括必應搜索引擎。
辛頓沒有在這兩封信上簽名。他說,在辭職之前,他不想公開批評谷歌或其他公司。上個月,他通知公司他將辭職。周四,他與谷歌母公司Alphabet CEO桑達爾皮查伊(Sundar Pichai)通電話。他拒絕公開討論與皮查伊談話的細節。
谷歌首席科學傢傑夫迪恩(Jeff Dean)在一份聲明中表示:“我們仍然致力於對AI采取負責任的態度。我們在不斷學習解新出現的風險的同時,也在大膽創新。”
AI危險更快到來
辛頓認為,隨著企業改進AI系統,它們會變得越來越危險。“看看五年前和現在的情況,”他在談到AI技術時說,“接受差異並將其傳播出去。太可怕。”
他表示,直到去年,谷歌一直是這項技術的“適當管理者”,小心翼翼地不釋放可能造成傷害的東西。但是現在,微軟用聊天機器人增強必應搜索引擎,挑戰谷歌的核心業務,導致谷歌也在競相部署同樣的技術。辛頓說,科技巨頭陷入一場可能無法阻止的競爭。
他目前最擔心的是,互聯網將充斥著虛假照片、視頻和文字,普通人將“無法再知道什麼是真的”。他還擔心AI技術最終會顛覆就業市場。如今,像ChatGPT這樣的聊天機器人往往是對人類工作者的補充,但它們也可能取代律師助理、個人助理、翻譯和其他處理機械化任務的人。“它省去繁重的工作,但它帶走的可能不止這些。”辛頓稱。
未來,他擔心未來版本的AI技術會對人類構成威脅,因為它們經常從分析的大量數據中學習意想不到的行為。他說,這成一個問題,因為個人和公司不僅允許AI系統生成自己的計算機代碼,還允許它們自己運行這些代碼。他擔心有一天真正的自主化武器——那些殺人機器人——會成為現實。
“一些人相信,這種東西實際上會變得比人更聰明,”他表示,“但大多數人認為這還很遙遠。 我也曾認為這還很遙遠。我認為這需要30到50年甚至更長的時間。顯然,我現在不再這麼想。”
辛頓說,當人們過去問他如何能研究有潛在危險的技術時,他會轉述美國“原子彈之父”羅伯特奧本海默(Robert Oppenheimer)的話:“當你看到某種從技術上感覺不錯的東西時,你就會去做。”鳳凰網科技《AI哨所》對此將持續關註。