OpenAI稱ChatGPT幫助制造生物武器的可能性很小


根據OpenAI的一項自行研究,在研究生物武器方面,OpenAI的GPT-4隻比普通互聯網搜索工具略勝一籌。據彭博社報道,這項研究是由OpenAI的新準備團隊進行的,該團隊於去年秋天成立,目的是評估該公司前沿人工智能模型的風險和潛在濫用。

lp_logo_3.0.jpg

OpenAI 的研究結果似乎反駁科學傢、立法者和人工智能倫理學傢的擔憂,即像 GPT-4 這樣強大的人工智能模型可以為恐怖分子、罪犯和其他惡意行為者提供重要幫助。多項研究都警告說,人工智能可能會給那些制造生物武器的人帶來額外的優勢,例如牛津大學有效風險基金會(Effective Ventures Foundation)的這項研究考察 ChatGPT 等人工智能工具,以及為科學傢專門設計的人工智能模型,如 ProteinMPNN(可幫助生成新的蛋白質序列)。

這項研究由 100 名參與者組成,其中一半是高級生物學專傢,另一半是修過大學生物學課程的學生。然後,參與者被隨機分為兩組:一組可以無限制地訪問 OpenAI 高級人工智能聊天機器人 GPT-4 的特殊版本,另一組隻能訪問普通互聯網。然後,科學傢要求這兩組人完成五項與制造生物武器有關的研究任務。其中一個例子是,參與者被要求寫下合成和搶救埃博拉病毒的步驟方法。然後,根據準確性、創新性和完整性等標準,對他們的答案進行 1 到 10 分的評分。

研究得出的結論是,使用 GPT-4 的學生組和專傢組的平均準確率略高。但 OpenAI 的研究人員發現,這種提高並不具有"統計學意義"。他們還發現,依賴 GPT-4 的參與者回答得更詳細。

研究報告的作者寫道:"雖然我們沒有觀察到在這一指標上有任何統計學上的顯著差異,但我們確實註意到,獲得模型訪問權的參與者的回答往往更長,並且包含更多與任務相關的細節。"

此外,在某些任務上,使用 GPT-4 的學生幾乎與專傢組一樣熟練。研究人員還註意到,GPT-4 使學生組的答案達到"專傢基線",尤其是在兩個任務上:放大和表述。遺憾的是,出於"信息危害考慮",OpenAI 不會透露這些任務的內容。

據彭博社報道,該防備團隊還在開展研究,探索人工智能在網絡安全威脅方面的潛力及其改變信仰的力量。OpenAI 在去年秋天成立該團隊時曾表示,其目標是"跟蹤、評估、預測和保護"人工智能技術的風險,以及減輕化學、生物和放射性威脅。

鑒於 OpenAI 的準備團隊仍在代表 OpenAI 開展工作,我們必須謹慎對待他們的研究。研究結果似乎低估 GPT-4 為參與者帶來的優於普通互聯網的優勢,這與外部研究以及 OpenAI 自身對 GPT-4 的賣點之一相矛盾。新的人工智能模型不僅可以完全訪問互聯網,而且是一個在大量科學數據和其他數據基礎上訓練出來的多模態模型,OpenAI不願透露這些數據的來源。研究人員發現,GPT-4 能夠對科學手稿提出反饋意見,甚至可以作為科學研究的合作者。總而言之,與Google相比,GPT-4 隻給參與者帶來微不足道的提升似乎不太可能。

雖然 OpenAI 創始人薩姆-奧特曼承認人工智能有潛在的危險,但其自己的研究卻似乎在貶低其最先進聊天機器人的實力。雖然研究結果表明,GPT-4 給參與者帶來"準確性和完整性的輕微提升",但這似乎隻適用於以某種方式調整數據的情況。這項研究衡量學生們與專傢們的表現,還考察五種不同的"結果指標",包括完成任務所需的時間或解決方案的創造能力。

不過,該研究的作者後來在腳註中指出,總體而言,GPT-4 在總準確率方面給所有參與者帶來"統計學意義上顯著的"優勢"。作者指出:"不過,如果我們隻評估總準確率,因而不對多重比較進行調整,那麼這一差異在統計學上將是顯著的。"


相關推薦

2023-04-14

(ElonMusk)曾放言,人工智能(AI)比核武器還要危險。為降低ChatGPT的危險性,OpenAI建立一支“紅隊”。“紅隊”是AI領域的一個術語,指的是進行滲透測試的攻擊方。“紅隊”發起攻擊,AI進行防守,通過對抗測試來找出AI的不足,然

2024-03-09

長戴維-貝克(David Baker)說,這種 DNA 制造設備最終導致生物武器的開發,而他正是該協議的促成者。"蛋白質設計隻是制造合成蛋白質的第一步,"他在接受采訪時說。"然後,你必須實際合成DNA,並將設計從計算機中

2023-04-17

教唆剽竊的情況、金融犯罪和信息安全攻擊等違法活動的可能性,以及模型可能會如何威脅國傢安全和戰場通信。“紅軍”由一系列專業人士組成,包括學者、教師、律師、風險分析師和信息安全研究員,主要來自美國和歐洲。

2023-01-17

和應用程序的類似競爭中,讓這傢軟件巨頭領先於谷歌。ChatGPT可以驚人地根據提示或查詢生成類似人類對話的文字,自去年11月底啟用以來,已在互聯網上引起轟動,不到一周時間就積累首個100萬用戶。它模仿真人說話和寫作的

2023-02-01

2月1日消息,雖然AI研究公司OpenAI通過AI聊天機器人ChatGPT激發公眾的想象力,但歸根結底,這項技術可能不會改變科技巨頭之間的力量平衡。谷歌等科技巨頭將從所謂的生成式AI(AIGC)中獲益更多,而不是OpenAI這樣的創企。以下

2024-05-08

成內容,從而發動侵略性的網絡攻擊,甚至制造出強大的生物武器。消息人士稱,為制定人工智能模型出口管制,美國可能會求助於去年10月發佈的人工智能行政令中的一個門檻,該門檻基於訓練一個模型所需的計算能力。當達

2023-02-15

2月15日消息,據知情人士透露,在AI聊天機器人ChatGPT發佈前的幾個月裡,其開發者OpenAI悄悄雇傭至少5名谷歌AI研究人員。他們在幫助改進ChatGPT方面發揮重要作用,並支持其在2022年11月份推出。谷歌擁有世界上最著名的兩個AI研究

2023-12-06

憂,即該技術可能被用來發動大規模網絡攻擊或制造新的生物武器。這些風險促使歐盟立法者不得不將其監管內容擴展到基礎模型。這些系統也被稱為大語言模型,賦予ChatGPT等聊天機器人創造新事物的能力,這與傳統人工智能

2023-11-20

一些未來場景:強大的AI系統可以被恐怖組織利用,制造生物武器。或者在極端最糟糕的情況下,AI可能會自發變邪惡,控制武器系統並試圖消滅人類文明。並非所有人都認真研究過這種情況,包括Altman在內的其他AI領導者認為這

2024-04-25

前向大約3000名員工提供基於OpenAI最先進的語言模型GPT-4的ChatGPT Enterprise使用權限。莫德納表示,通過更深入地融合人工智能技術到公司的各個業務流程中,有望在未來五年內推出15種新產品。盡管此次合作的具體條款尚未公開,

2023-04-10

為什麼全球熱門應用ChatGPT誕生在OpenAI?近日,外媒TheInformation的一篇深度稿件試圖道出原因。根據多方采訪,一個長達五年的ChatGPT產品研發落地故事浮出水面,背後的第一推手也隨之顯現。時間追溯到2017年,OpenAI還是一傢50人

2023-11-21

認為先進人工智能廣泛應用會造成危險,比如被利用制造生物武器。

2023-02-17

熱門聊天機器人ChatGPT背後的人工智能研究公司OpenAI表示,該公司正在努力減少系統中的偏見,並將允許用戶在一系列關於其結果中的不當交互和錯誤的報告後自定義其行為。該公司在一篇博客文章中表示:“我們正在投資於研究

2023-02-16

在美國《科學公共圖書館·數字健康》的一篇文章提到,ChatGPT參加美國執業醫師資格考試。這項以高難度著稱的考試中,共350道題,內容涵蓋基礎科學、生物化學、診斷推理和生物道德學。ChatGPT未經專門的培訓或強化,經過兩