BlackBerry的最新研究顯示,全球75%的企業目前正在禁止或考慮禁止在工作場所使用OpenAI旗下ChatGPT等生成式人工智能(AI)應用。其中,61%的企業表示,這些禁令是長期或永久性的,主要是出於對數據安全、隱私和企業聲譽的風險考慮。83%的企業還表示,擔心不安全的應用會對其企業IT環境帶來網絡安全威脅。
調查結果還顯示,企業內部的技術領導層在推動這些禁令的實施方面處於領先地位,在近一半的企業中,CEO也發揮主導作用。
ChatGPT是OpenAI於2022年11月30日推出的一種新型AI聊天機器人工具,可根據用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,並回答各類疑問。在推出僅兩個月後,它的月活躍用戶就達到1億人,成為歷史上增長最快的消費者應用之一。
隨著ChatGPT大火,人們對ChatGPT等生成式AI的興趣激增。然而,這些AI工具是不可預測的,並且容易泄露用戶數據。
雖然像ChatGPT這樣的生成式AI對於提高工作效率非常有幫助,但是將ChatGPT用於工作時還是有許多問題沒有解決。
今年4月初,外媒曾報道稱,三星引入ChatGPT不到20天就發生3起涉及ChatGPT的事故,其中2起與半導體設備有關,1起與會議內容有關。
今年5月初,在發現員工將敏感代碼上傳到ChatGPT後,考慮到機密信息泄露的可能性,三星決定暫時限制員工在部分辦公室使用包括ChatGPT和谷歌旗下對話聊天機器人Bard在內的生成式AI工具。
今年5月下旬,一份內部文件顯示,出於保密考慮,蘋果公司也限制員工使用ChatGPT、Bard和其他外部AI工具。
除三星和蘋果外,摩根大通、德意志銀行、Verizon和亞馬遜等其他公司也限制員工使用ChatGPT。