歐洲刑警組織在周一的一份報告中說,犯罪分子已經在利用ChatGPT進行犯罪,該報告詳細介紹人工智能語言模型如何助長欺詐、網絡犯罪和恐怖主義。由OpenAI開發的ChatGPT於2022年11月發佈,並迅速成為互聯網上的一個熱點,因為網民們蜂擁而至,讓聊天機器人生成論文、笑話、電子郵件、編程代碼和其他各種文本。
現在,歐盟的執法機構歐洲刑警組織已經詳細說明這種模式如何被濫用於更邪惡的目的。事實上,人們已經在使用它來進行非法活動,警察聲稱。
歐洲刑警組織在其報告中說:"這些類型的模型可能對執法工作產生的影響已經可以預見。犯罪分子通常會迅速利用新技術,而且很快就能看到他們想出具體的犯罪利用方法,在ChatGPT公開發佈後僅幾個星期就提供第一個實際例子。"
盡管ChatGPT在拒絕遵守有潛在危害的輸入請求方面做得比較好,但用戶已經找到繞過OpenAI的內容過濾系統的方法。例如,有些人已經讓它吐出關於如何制造炸彈或合成可卡因的說明。網民可以要求ChatGPT解如何犯罪,並要求它提供一步步的指導。
"如果一個潛在的罪犯對某個特定的犯罪領域一無所知,ChatGPT可以通過提供關鍵信息,然後在後續步驟中進一步探索,從而大大加快研究過程。因此,ChatGPT可以用來解大量的潛在犯罪領域,而無需事先解,范圍包括如何入室犯罪、恐怖主義、網絡犯罪和兒童性虐待,"歐洲警察局警告說。
該機構承認,所有這些信息已經在互聯網上公開提供,但該模型使人們更容易找到和解如何進行具體的犯罪活動。歐洲刑警組織還強調,該模型可以被利用來冒充目標,為欺詐和網絡釣魚提供便利,或制作宣傳和虛假信息以支持恐怖主義。
ChatGPT擁有很強的生成代碼的能力--甚至是惡意代碼,也可以通過降低創建惡意軟件所需的技術能力來增加網絡犯罪的風險。"對於沒有什麼技術知識的潛在罪犯來說,這是一個寶貴的資源。同時,一個更高級的用戶可以利用這些改進的能力來進一步完善甚至自動化復雜的網絡犯罪手法,"該報告說。
大型語言模型(LLMs)並不復雜,仍處於起步階段,但隨著科技公司投入資源開發該技術,它們正在迅速改善。OpenAI已經發佈GPT-4,一個更強大的系統,而且這些模型正被越來越多地整合到產品中。自ChatGPT發佈以來,微軟和Google都在其搜索引擎中推出AI驅動的網絡搜索聊天機器人。
歐洲刑警組織表示,隨著越來越多的公司推出人工智能功能和服務,這將為利用該技術進行非法活動開辟新途徑。執法組織的報告建議:"多模態人工智能系統,將對話式聊天機器人與能夠產生合成媒體的系統結合起來,如高度令人信服的深度偽造,或包括感官能力,如視覺和聽覺。"
例如,秘密版本的語言模型沒有內容過濾器,並在有害數據上進行訓練,可以在暗網上托管。
"最後,關於LLM服務在未來如何處理用戶數據存在不確定性--對話是否會被存儲,並可能將敏感的個人信息暴露給未經授權的第三方?如果用戶產生有害的內容,是否應該向執法當局報告?"歐洲刑警組織問道。