北京時間3月12日消息,由於擔心信息泄露和其他問題,軟銀、日立等日本公司已開始限制ChatGPT等交互式人工智能服務在商業運作中的使用。軟銀上月就使用ChatGPT和其他商業應用警告員工稱:“不要輸入公司身份信息或機密數據。”
盡管軟銀已經出臺使用交互式人工智能等雲服務的指導方針,但鑒於聊天機器人最近受到的關註越來越多,這些規則依舊被反復強調。軟銀計劃制定規則,規定哪些業務可以使用該技術,哪些應用可以被使用。
今年3月1日,ChatGPT開發商Open AI發佈一個應用程序接口,允許企業付費將ChatGPT集成到他們的服務中。Open AI表示,從ChatGPT中收集的數據不會用於提高性能,但其網站顯示,當這項服務被免費使用時,“我們可能會使用您提供的數據來改進我們的模型。在這種情況下,被輸入的信息,例如正在開發的產品,可以用來回答其他公司的問題”。
除軟銀外,日立將考慮制定新的道德規則,以規范交互式人工智能的使用以及數據是否被正確使用。該公司計劃完善2021年制定的人工智能使用指南。
富士通上月向員工通報有關ChatGPT和其他交互式人工智能服務的法律和道德問題,包括信息保護。該公司已經成立一個部門來決定人工智能的使用。2022年2月,富士通成立一個治理辦公室,來處理包含人工智能的產品開發和商業使用中的道德問題。該公司將通過這個辦公室提醒公眾交互式人工智能的風險。
今年1月,ChatGPT在發佈僅僅兩個月後用戶就超過1億。微軟上月在必應搜索中整合ChatGPT,推動該搜索引擎日用戶在一個月後首次突破1億人。而且,這一技術在企業運作中的應用預計也將顯著增加。然而,越來越多的人和企業使用交互式人工智能也令人擔憂,因為該技術可能會傳播虛假信息,引發數據泄露,導致一些公司禁止使用該技術。
日本瑞穗金融集團、三菱日聯金融集團和三井住友銀行已禁止在公司運營中使用ChatGPT和其他服務。瑞穗的限制措施會阻止員工從工作終端訪問該網站,目的是“防止因員工不當使用導致客戶和金融交易等重要信息泄露”。IT公司NEC也禁止員工使用ChatGPT。
日本情報安全大學院大學研究科教授後藤厚宏(Atsuhiro Goto)表示:“交互式人工智能可以在個人電腦上輕松使用,這讓員工變得不那麼謹慎,存在機密數據被意外輸入並在公司外部使用的風險。這些服務應該由一個專門的內部團隊進行測試,以澄清使用規則和可以輸入的信息。”
松下控股集團公司Panasonic Connect在采取措施防止數據泄露等問題後,開始使用交互式人工智能創建文件。為降低數據泄露的風險,該公司與軟件的聯合開發者微軟達成一項協議,不將內容用於人工智能培訓等次要目的。同時,員工們也被警告不要輸入個人信息。