備受矚目的人工智能新創公司Anthropic的首席執行官達裡奧-阿莫代(DarioAmodei)去年告訴美國國會,新的人工智能技術很快就能幫助不熟練但心懷惡意的人制造大規模的生物襲擊,比如釋放病毒或有毒物質,造成大范圍的疾病和死亡。
兩黨參議員都感到震驚,而工業界和學術界的人工智能研究人員則在爭論這種威脅有多嚴重。
現在,90 多名生物學傢和其他科學傢簽署一份協議,他們專門研究用於設計新蛋白質的人工智能技術--這種微觀機制驅動著生物學中的所有創造--該協議旨在確保他們在人工智能輔助下進行的研究不會對世界造成嚴重危害。
包括諾貝爾獎獲得者弗朗西斯-阿諾德在內的生物學傢代表美國和其他國傢的實驗室,他們還認為,最新技術的好處遠遠多於壞處,包括新疫苗和新藥。
協議寫道:"作為從事這項工作的科學傢,我們相信目前的人工智能技術對蛋白質設計的益處遠遠大於潛在的危害,我們希望確保我們的研究在未來對所有人都有益。"
該協議並不尋求壓制人工智能技術的開發或傳播。相反,生物學傢們的目標是規范制造新遺傳物質所需設備的使用。
華盛頓大學蛋白質設計研究所所長戴維-貝克(David Baker)說,這種 DNA 制造設備最終導致生物武器的開發,而他正是該協議的促成者。
"蛋白質設計隻是制造合成蛋白質的第一步,"他在接受采訪時說。"然後,你必須實際合成DNA,並將設計從計算機中轉移到現實世界中--而這正是進行調節的適當場所"。
該協議是權衡人工智能的風險和可能帶來的好處的眾多努力之一。一些專傢警告說,人工智能技術可能會幫助傳播虛假信息,以非同尋常的速度取代工作崗位,甚至可能毀滅人類,因此科技公司、學術實驗室、監管機構和立法者都在努力解這些風險,並找到應對方法。
阿莫迪博士的公司Anthropic建立大型語言模型,即L.L.M.s,這是一種驅動在線聊天機器人的新型技術。他在國會作證時指出,這種技術很快就能幫助攻擊者制造新的生物武器。
但他承認,這在今天是不可能的。人類學傢最近進行一項詳細研究,結果表明,如果有人試圖獲取或設計生物武器,L.L.M.s 比普通的互聯網搜索引擎要有用得多。
阿莫代博士和其他人擔心,隨著公司改進 L.L.M.,並將其與其他技術相結合,將會出現嚴重的威脅。他告訴國會,這種情況隻會在兩到三年後出現。
ChatGPT在線聊天機器人的制造商OpenAI後來也進行類似的研究,結果顯示L.L.M.s並不比搜索引擎危險得多。美國麻省理工學院計算機科學教授、OpenAI準備工作負責人亞歷山大-蒙德裡(Aleksander Mądry)說,他預計研究人員會繼續改進這些系統,但他還沒有看到任何證據表明這些系統能夠制造新的生物武器。
如今,L.L.M.s 是通過分析從互聯網上獲取的大量數字文本而創建的。這意味著,它們會重復或重組網上已有的信息,包括現有的生物襲擊信息。
但是,為加快新藥、疫苗和其他有用生物材料的開發,研究人員開始建立類似的人工智能系統,以生成新的蛋白質設計。生物學傢說,這種技術也可以幫助攻擊者設計生物武器,但他們指出,真正制造這種武器需要一個價值數百萬美元的實驗室,包括 DNA 制造設備。
非營利組織"未來之傢"(Future House)的聯合創始人、簽署協議的生物學傢之一安德魯-懷特(Andrew White)說:"有些風險並不需要數百萬美元的基礎設施建設,但這些風險已經存在一段時間,與人工智能無關。
生物學傢們呼籲制定安全措施,防止 DNA 制造設備與有害物質一起使用--盡管目前還不清楚這些措施將如何發揮作用。他們還呼籲在發佈新的人工智能模型之前對其進行安全和安保審查。
他們並不主張將這些技術封存起來。芝加哥大學生物化學和分子生物學教授拉瑪-蘭加納坦(Rama Ranganathan)說:"這些技術不應該隻由少數人或組織掌握,科學傢群體應該能夠自由地探索這些技術,並為之做出貢獻"。