馬斯克等千人聯名呼籲暫停研發更強大的AI 人工智能專傢:一些說法“精神錯亂”


據報道,四名人工智能專傢的研究結果被一封公開信引用,公開信獲得埃隆·馬斯克聯合簽名並要求緊急暫停研究人工智能,專傢們對此表示擔憂。截至當地時間上周五,這封日期為3月22日的公開信已獲得超過1800個簽名。信中呼籲,在開發比微軟支持的人工智能研究公司OpenAI新GPT-4“更強大”的系統過程應中斷6個月時間。GPT-4可以進行類似人類的對話、作曲並總結冗長的文件。

自從GPT-4的前身ChatGPT於去年發佈以來,競爭對手也競相推出類似產品。

公開信中說,具有“人類競爭智能”的人工智能系統對人類具有深遠的風險,信中引用專傢的12項的研究結果,這些專傢包括大學學者,以及OpenAI、谷歌及其子公司DeepMind的現任和前任員工。

此後,美國和歐盟的民間社會團體一直向立法者施壓,要求約束OpenAI的研究。OpenAI沒有立即回應記者的置評請求。

公開信由未來生命研究所發出,而該研究所主要馬斯克基金會資助。批評人士指責研究所優先考慮想象中的世界末日場景,而忽略人工智能帶來的更緊迫的擔憂,比如編程到機器中的種族主義或性別歧視偏見。

信中引用的研究包括瑪格麗特·米歇爾(Margaret Mitchell)合著的著名論文《論隨機鸚鵡的危險》。她本人曾在谷歌負責人工智能倫理研究,現在是人工智能公司Hugging Face的首席倫理科學傢。

但米歇爾本人批評這封信,並表示目前還不清楚什麼東西“比GPT4更強大”。“這封信將許多值得商榷的想法視為假定事實,信中提出一系列有利於未來生命研究所支持者的人工智能優先事項和敘述”, 她說,“現在,我們沒有特權忽視主動傷害。”

米歇爾的合著者蒂姆尼特·格佈魯(Timnit Gebru)和艾米麗·M·本德(Emily M. Bender)也在Twitter上批評這封信,後者稱信中一些說法“精神錯亂”。

未來生命研究所總裁邁克斯·泰格馬克(Max Tegmark)則表示,這一舉動並不是為試圖阻礙OpenAI的企業優勢。

“這太搞笑。我看到有人說,‘埃隆·馬斯克正試圖減緩競爭,’”他說,並補充表示,馬斯克沒有參與起草這封信。“這件事關乎的不是一傢公司。”

目前的風險

康涅狄格大學的助理教授施裡·多裡-哈科恩(Shiri Dori-Hacohen)也對信中提到她的研究提出異議。去年她與他人合著一篇研究論文,論文認為人工智能的廣泛使用已經帶來嚴重的風險。

她的研究認為,今時今日人工智能系統的應用可能會對氣候變化、核戰爭和其他威脅生存相關的決策產生影響。

她表示:“人工智能不需要達到人類水平就會加劇這些風險。”

“有些非生存風險也真的非常非常重要,但這些風險沒有得到高度重視。”

當被問及如何評論這些批評意見時,未來生命研究所總裁泰格馬克表示,應該認真對待人工智能的短期和長期風險。

“如果我們引用某人的話語,這隻是意味著我們認為他們贊同這句話。這並不意味著他們認可這封信,或者我們認可他們的所有想法,”他說。

公開信中引用的另一個專傢是總部位於加州的人工智能安全中心主任丹·亨德裡克斯(Dan Hendrycks)。他支持信中內容,並表示,考慮黑天鵝事件是明智的。黑天鵝事件是指那些看起來不太可能發生,但會產生毀滅性後果的事件。

公開信還警告稱,生成式人工智能工具可能被用來在互聯網上充斥“宣傳和謊言”。

多裡-哈科恩表示,馬斯克簽署這份公開信“相當富有”,他援引民間社團組織Common Cause等機構記錄的消息稱,在馬斯克收購Twitter平臺後,Twitter上的錯誤信息有所增加。

Twitter將很快推出針對訪問其研究數據的一種新的收費架構,這可能會阻礙對該主題的研究。

“這直接影響我的實驗室工作,以及其他研究錯誤和虛假信息的人的工作,” 多裡-哈科恩說。“我們受到束縛。”

馬斯克和Twitter沒有立即回應置評請求。


相關推薦

2023-04-04

Meta首席人工智能科學傢楊立昆周一在社交平臺上發問,側面回應馬斯克等人聯盟呼籲暫停開發更強大的人工智能,將這比做飛機工程師害怕飛行。楊立昆問道:“人們害怕飛行嗎?不!不是因為飛機不會墜毀,而是因為工程師

2023-03-29

當地時間周二發佈的一封公開信中,埃隆·馬斯克和一群人工智能專傢以及科技高管呼籲所有人工智能(AI)實驗室立即暫停訓練比GPT-4更強大的AI系統。這封公開信由非營利性組織Future of Life Institute發佈,信的開頭寫道:“廣泛

2023-03-30

的主要有三類人群:學者、之前套現的公司創始人以及在人工智能競備賽中落後的公司負責人。馬斯克似乎是與人工智能最相關的上市公司負責人。人工智能風口正盛,一封呼籲暫停大型AI研究的公開信在矽谷科技圈流傳開來,

2023-03-29

響越大,我們就更加需要確信這一點。OpenAI最近關於通用人工智能的聲明指出,“某個階段,在開始訓練未來的系統之前,進行獨立的審查可能非常重要,而對於創建新模型所用算力的增長速度,也應該有所限制。”我們同意這

2023-03-29

命未來研究所(FutureofLife)向全社會發佈一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時間至少為6個月。該機構以“引導變革性技術造福生活,遠離極端

2023-03-30

不會。但無論如何,都有很多值得擔心的事情。”近日,人工智能領域內的“叛逆者”、紐約大學心理學和神經科學榮譽教授GaryMarcus發文稱,“我們需要停止擔心機器人接管世界,而是更多地考慮那些壞人可能會利用LLMs做什麼

2023-04-11

4月11日消息,據外媒報道,在OpenAI訓練的ChatGPT人工智能聊天機器人大火之後,多傢公司在加速相關或類似技術的研發和應用,OpenAI在3月14日也推出更先進的自然語言處理模型GPT-4。隨著各大公司相繼加快大型語言模型及類ChatGPT

2023-04-04

出的原則。許多業內人士確實認為,像ChatGPT這樣強大的人工智能的確會對社會構成一定的傷害,但暫停6個月的開發似乎隻是一廂情願,幾乎沒有現實基礎。從OpenAI去年11月開始公測GPT-3以來,生成式人工智能開發的高速列車就從

2023-04-06

據報道,最近,面對人工智能技術的新一輪火爆,馬斯克等1000多名專傢聯合發表一封公開信,呼籲在確保安全之前暫緩先進人工智能的開發。日前,Meta的首席技術官安德魯·博斯沃斯(AndrewBosworth)對公開信作出回應,表示這樣

2023-04-18

·馬斯克在采訪中透露,他將推出一個名為“TruthGPT”的人工智能(AI)聊天機器人。他表示:“我將開始一個我稱之為‘TruthGPT’的東西,或者說是一個最大限度尋求真理的人工智能,它試圖理解宇宙的本質。”“我認為這可能

2023-03-30

技界人士簽署的公開信在網上發佈。這封公開信呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統的訓練至少6個月。蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、AI

2023-03-30

ChatGPT或文本到圖像轉換工具Stable Diffusion等所謂的生成式人工智能(AIGC)工具,我們就越能看到它的缺點,它制造偏見的潛力,以及我們人類在使用它的力量時顯得多麼無力。BI編輯哈桑·喬杜裡(Hasan Chowdhury)寫道,AI有可能“

2023-04-18

歐盟立法者希望在法案中加入針對ChatGPT等高級人工智能工具的條款。當地時間周一,據媒體報道,負責起草《人工智能法案》的歐洲議會議員們計劃於當日發表一封公開信。他們表示,近幾個月來,隨著人工智能飛速發展,有

2023-04-02

級和高效版本的LAMDA模型上,這是一個專註於提供對話的人工智能語言模型。在某些方面,我覺得我們把一輛改裝過的思域汽車放在與更強大的汽車的比賽中。相比之下,PaLM模型規模更大,Bard在處理常識推理和編程問題等任務