近日,山東省濟南市商河縣公安局刑警大隊成功破獲一起利用AI換臉技術進行詐騙的案件。這起典型案件涉及一名小夥被以“表哥”身份欺騙,最終騙走 30 萬元人民幣。
據解,事發於今年 5 月份,當時一名叫黃某某的小夥在刷短視頻時收到一條私信,對方自稱是黃某某的表哥。通過寒暄幾句,詐騙者取得黃某某的信任,並讓他添加QQ號。表哥聲稱由於在體制內工作,因此以自己身份不便,請求黃某某幫忙給一個需要資金周轉的朋友轉賬。為表示誠意,詐騙者索要黃某某的銀行卡號,並聲稱會先讓朋友給黃某某轉款,然後再由他轉出。盡管收到“轉賬憑證”,黃某某並未立即轉賬,發現並未收到實際款項。
根據警方的調查,這是一起采用AI技術進行網絡詐騙的案件。犯罪團夥在境外實施詐騙,通過國內銷贓洗錢。商河警方通過技術手段兩次前往廣東東莞,成功抓獲 7 名犯罪嫌疑人,目前案件已進入法院審判階段。
在案件的偵破過程中,警方咨詢技術人員,指出這種實時通話的視頻合成技術難度較大,但即便如此,一般小公司也難以實現,但這種詐騙手段仍然可以防范。張振華中隊長表示,對於普通群眾而言,保護個人隱私信息至關重要。在面對熟人或親戚借錢的情況下,及時進行電話溝通,視頻通話時可以要求對方做出固定手勢或對面部進行遮擋,以判斷對方身份的真偽。
AI詐騙形式主要有兩種:一是通過技術手段合成換臉、換聲的視頻或語音,主要用於緊急情況下的網絡詐騙。為預防此類案件,相關部門已出臺管理規定,要求深度合成服務者審核使用者的輸入數據和合成結果。此外,人臉識別技術使用者也應每年對設備進行安全性評估,采取有效措施保護設備免受攻擊。
警方進一步強調,從源頭上預防此類詐騙案件的發生,保護好個人信息至關重要。不隨意接聽陌生電話,避免在社交賬戶上過度暴露個人信息,謹慎提供人臉照片,以及使用小眾軟件時都需要提高警惕。最後,公眾應當自覺樹立防詐騙意識,對涉及財務信息的電話請求采取其他方式與好友進行確認。