快科技12月29日消息,2024年諾貝爾物理學獎得主、素有AI教父”之稱的辛頓(Geoffrey Hinton)表示,AI有10%-20%可能性在未來30年內導致人類滅亡。
在訪談中,當主持人詢問辛頓對可能出現的AI末日和10%發生機率是否有變化時,辛頓稱沒什麼變化,還是10%到20%。
主持人則表示機率增加”,辛頓接著表示如果一定要說,你看,我們以前從未和比我們聰明的東西打交道。”
他認為,建立AGI(通用人工智能)或比人類更聰明的系統,可能導致該技術躲過人類控制而構成人類生存威脅。
因為我們現在所處的情況是,這個領域大多數專傢都認為,也許未來20年內我們將開發出比人類更聰明的AI,這是一個非常可怕的想法。”辛頓表示。
辛頓直言:僅僅依靠大型公司的利潤動機,無法確保他們會安全開發技術。”,唯一能迫使這些大型公司投入更多資源進行安全研究,正是政府的監管。”