安全研究人員證明可以利用聊天機器人系統傳播AI驅動的蠕蟲病毒


大科技公司繼續不計後果地投入數十億美元,為消費者提供人工智能助手。微軟的Copilot、Google的Bard、亞馬遜的Alexa和Meta的Chatbot都已經擁有生成式人工智能引擎。蘋果是少數幾個似乎在慢慢將Siri升級為LLM的公司之一。它希望與本地運行而非雲端運行的LLM競爭。

更糟糕的是,生成式人工智能(GenAI)系統,甚至像巴德(Bard)等大型語言模型(LLM),都需要大量的處理,因此它們通常通過向雲端發送提示來工作。這種做法會帶來一系列其他的隱私問題,並為惡意行為者提供新的攻擊載體。

ComPromptMized 公司的信息安全研究人員最近發表一篇論文,展示他們如何創建"零點擊"蠕蟲,從而"毒害"由 Gemini (Bard) 或 GPT-4 (Bing/Copilot/ChatGPT) 等引擎驅動的 LLM 生態系統。蠕蟲病毒是一組計算機指令,除打開受感染的電子郵件或插入U盤外,用戶幾乎不需要采取任何行動,就能隱蔽地感染多個系統。任何 GenAI 供應商都沒有防范措施來阻止此類感染。不過,將這種病毒引入 LLM 數據庫則比較棘手。

研究人員想知道"攻擊者能否開發惡意軟件,利用代理的 GenAI 組件,對整個 GenAI 生態系統發動網絡攻擊?"簡短的回答是肯定的。

ComPromptMized 創建一個蠕蟲病毒,他們稱之為莫裡斯二世(Morris the Second,簡稱 Morris II)。莫裡斯二號使用通俗易懂的"對抗性自我復制提示",誘騙聊天機器人在用戶之間傳播蠕蟲病毒,即使他們使用不同的 LLM。

icon-moris-ii-removebg-preview(PNG 圖像,580x394 像素).jpg

"這項研究表明,攻擊者可以在輸入中插入此類提示,當 GenAI 模型處理這些輸入時,會促使模型將輸入復制為輸出(復制),並從事惡意活動(有效載荷),"研究人員解釋說。"此外,這些輸入還能利用 GenAI 生態系統內的連通性,迫使代理將其傳遞(傳播)給新的代理"。

為驗證這一理論,研究人員創建一個孤立的電子郵件服務器,用於"攻擊"由 Gemini Pro、ChatGPT 4 和開源 LLM LLaVA 支持的 GenAI 助手。然後,ComPromptMized 使用包含基於文本的自我復制提示和嵌入相同提示的圖片的電子郵件。

這些提示利用人工智能助手對檢索增強生成(RAG)的依賴,也就是從本地數據庫之外獲取信息的方式。例如,當用戶詢問"Bard"閱讀或回復受感染的電子郵件時,它的 RAG 系統就會將內容發送給Gemini專業版,以便做出回復。然後,Morris II 復制到 Gemini 上,並執行蠕蟲的有效載荷,包括數據外滲。

這項研究的合著者本-納西博士說:"生成的包含敏感用戶數據的響應被用於回復發送給新客戶的電子郵件時,會感染新的主機,然後存儲在新客戶的數據庫中。"

不僅如此,基於圖像的變種可能更加難以捉摸,因為提示是不可見的。黑客可以將其添加到看似無害或預期的電子郵件中,如偽造的時事通訊。然後,蠕蟲就可以利用助手向用戶聯系人列表中的每個人發送垃圾郵件,汲取數據並將其發送到 C&C 服務器。

納西說:"通過將自我復制提示編碼到圖片中,任何包含垃圾郵件、濫用材料甚至宣傳內容的圖片都可以在最初的電子郵件發送後被進一步轉發給新客戶。"

他們還可以從郵件中提取敏感數據,包括姓名、電話號碼、信用卡號、社會保險號或"任何被視為機密的數據"。ComPromptMized 在發佈其工作之前通知Google、Open AI 等公司。

如果說 ComPromptMized 的研究表明什麼的話,那就是大科技公司可能需要放慢腳步,放遠目光,以免我們在使用他們所謂和善的聊天機器人時,需要擔心新的人工智能驅動的蠕蟲和病毒。


相關推薦

2023-04-25

線、維護,計算機、軟件及輔助設備(除計算機信息系統安全專用產品)的批發及零售,機電設備、傢用電器、五金交電、電子產品、數碼產品、電子元器件、通訊器材的銷售,從事貨物及技術的進出口業務,設計、制作、代理

2023-02-09

,但把模型做大很多並不意味著它們會變得更準確,一些研究人員懷疑,隨著模型的增長,準確性的回報會遞減。對微軟和Google來說,消除那些持續存在的少數錯誤可能會成為一項長期挑戰,就像自動駕駛技術迄今為止“即將實

2024-03-09

。兩黨參議員都感到震驚,而工業界和學術界的人工智能研究人員則在爭論這種威脅有多嚴重。現在,90 多名生物學傢和其他科學傢簽署一份協議,他們專門研究用於設計新蛋白質的人工智能技術--這種微觀機制驅動著生物學中

2023-04-21

日本網絡安全專傢周四(4月20日)提醒道,ChatGPT可能會生成能用於網絡犯罪的電腦病毒,隻要用戶用開發者指令要求ChatGPT回復。當用戶輸入偽裝成開發者的指令,人工智能(AI)聊天機器人就會以開發者模式來響應。這時通過

2023-02-26

域進行思考,並推理出物理世界來幫助機器人完成任務。研究人員預期ChatGPT能夠幫助用戶更容易地與機器人交互,而不需要學習復雜的編程語言或機器人系統的細節,其中的關鍵難題就是教 ChatGPT 如何使用物理定律、操作環境

2023-08-18

處理(NLP)促進高級客戶互動,而AI驅動的詐騙檢測則增強安全性。量子計算作為一個潛在的改變遊戲規則的因素出現,為復雜的金融計算提供無與倫比的處理能力。在2023年,人工智能對金融科技的影響有望優化服務,增強用戶體

2023-08-17

處理(NLP)促進高級客戶互動,而AI驅動的詐騙檢測則增強安全性。量子計算作為一個潛在的改變遊戲規則的因素出現,為復雜的金融計算提供無與倫比的處理能力。在2023年,人工智能對金融科技的影響有望優化服務,增強用戶體

2023-04-12

中,GPT-5 將利用其強大的模式識別和數據分析能力,幫助研究人員獲得突破性發展。例如,在氣候科學領域,GPT-5 可以分析衛星圖像、歷史氣候數據和復雜模型來預測氣候變化的影響並提出有效的緩解策略。在粒子物理學中,GPT

2023-08-17

處理(NLP)促進高級客戶互動,而AI驅動的詐騙檢測則增強安全性。量子計算作為一個潛在的改變遊戲規則的因素出現,為復雜的金融計算提供無與倫比的處理能力。在2023年,人工智能對金融科技的影響有望優化服務,增強用戶體

2023-04-04

ouTube等也都在運用人工智能技術,實現“平臺增強”……可以預見,一個半自動化的社交媒體時代即將到來。本文將從大型社交媒體的最新流量現狀、大型社交媒體應用AI的最新進展,以及AI如何影響社交媒體的未來三個方面徐

2024-03-19

元,這些公司在其產品中開發AI驅動的功能。OpenAI的頂級研究人員曾表示,LLM可能成為一種操作系統,類似於蘋果的iOS。再加上Altman建立AI芯片的企圖,顯示出OpenAI希望追隨蘋果的腳步。然而,iPhone上的早期熱門應用包括有趣的

2022-09-25

發惡意軟件本身也不是“有手就能做”的事情。畢竟安全研究人員會不斷修復並堵上所有漏洞,而惡意軟件開發者必須在他們修復前找到漏洞、開發出惡意軟件,還得讓它們“大流行”,最終實現自己的目的。要是你傢還有在用

2024-02-13

如果你還需要更多證據來證明GenAI容易胡編亂造,Google的雙子座聊天機器人(前身為Bard)認為2024年的超級碗已經舉行過。它甚至還有虛構的現場技術統計數據來證明這一點。在 Reddit 上,由Google "Gemini"GenAI 模型驅動的

2023-02-17

來自OpenAI、斯坦福大學和喬治敦大學的一批研究人員警告說,像ChatGPT使用的那種大型語言模型可能被用作虛假信息活動的一部分,以幫助更容易地傳播宣傳。在1月份發表的最新研究報告中,研究人員寫道,隨著生成性語言模型