以色列網絡安全公司Team8的最新報告顯示,使用ChatGPT等生成式人工智能的企業可能會因此泄露客戶信息和商業機密。該報告稱,新型人工智能聊天機器人和協作工具的廣泛普及,可能會令一些公司面臨數據泄露和法律風險。他們擔心黑客可能會利用聊天機器人獲取敏感的企業信息或對企業發動攻擊。此外,目前投喂給聊天機器人的機密信息未來也有可能會被人工智能公司利用。
包括微軟和Alphabet在內的大型科技公司都在爭相通過生成式人工智能技術改進聊天機器人和搜索引擎,利用互聯網上獲取的數據訓練他們的模型,從而為用戶提供一站式問答服務。報告稱,如果使用機密或私密數據來投喂這些工具,今後將很難刪除相關信息。
該報告寫道:“使用生成式人工智能的企業,其敏感信息、知識產權、源代碼、商業機密和其他數據,可能會通過用戶直接輸入或API等渠道被他人獲取和處理,其中包括客戶信息或私密信息以及機密信息。”Team8將這一風險標記為“高風險”。他們認為,如果采取適當的防范措施,該風險“可控”。
Team8在報告中強調,聊天機器人的查詢並不會被輸入大預言模型來訓練人工智能,而與之相悖的是,最近的報告聲稱這樣的提示信息有可能會被其他人看到。
“截至發稿,大語言模型還無法實時自我更新,因此無法將一個人輸入的信息反饋給另外一個人,從而有效打消這種顧慮。然而,在訓練未來版本的大語言模型時,未必不會采取這種方法。”該報告寫道。
該報告還標記另外3項與整合生成式人工智能工具有關的“高風險”問題,並強調通過第三方應用分享越來越多的信息所產生的威脅。微軟就將部分人工智能聊天機器人功能嵌入必應搜索和Office 365工具。
報告稱:“例如,在用戶端,第三方應用會利用生成式人工智能API,倘若遭到攻擊,就有可能提供電子郵件和網絡瀏覽器權限,攻擊者還有可能冒充用戶采取行動。”
該公司認為,使用人工智能也有可能加劇歧視問題、損害公司聲譽或導致企業遭遇侵權訴訟。這些都屬於“中風險”問題。
微軟公司副總裁安·約翰遜(Ann Johnson)參與起草這份報告。微軟向ChatGPT的開發商OpenAI投資數十億美元。
微軟發言人說:“微軟鼓勵對安全和人工智能領域的網絡風險展開透明的討論。”
OpenAI開發的ChatGPT聊天機器人的火爆引發監管呼聲。各界都擔心在企業試圖利用這項技術提高效率時,這種創新也有可能會被用於不法行為。
美國聯邦貿易委員會(FTC)官員周二表示,該機構將重點關註濫用人工智能技術違反反歧視法或存在欺騙行為的公司。
FTC主席莉娜·可汗(Lina Khan)和委員黎貝卡·斯勞特(Rebecca Slaughter)及阿爾瓦羅·貝多亞(Alvaro Bedoya)都參加美國國會舉行的聽證會,他們被問及與最近的人工智能創新有關的擔憂。這項技術可以用於制作高質量的“深度偽造”,從而產生更具欺騙性的騙局以及其他違法行為。
貝多亞表示,使用算法或人工智能的企業不得違反民權法律,也不得違規采取不公平或具有欺騙性的行為。
他表示,黑匣子不能成為無法解釋算法的借口。
可汗也認為最新的人工智能技術可以幫助不法分子開展欺詐活動。她同時表示,任何不當行為“都應該得到FTC的制裁”。
斯勞特指出,FTC在100年的歷史上一直都要適應不斷變化的技術,而適應ChatGPT和其他人工智能工具也並無不同。
按照組織設置,該委員會應該擁有5名委員,但目前隻有3名,而且全部為民主黨人。