DeepFake換臉詐騙怎麼破?讓他側個身


DeepFake被用到電信詐騙裡,該怎麼破?讓他轉過頭,看看他的側臉就好。DeepFake一直以來都存在著這樣一個漏洞:當偽造的人臉完全側著(轉90°)時,真實性就會急劇下降。

為什麼會出現這樣的結果呢?

外網有這麼一篇文章,解析為什麼在側臉的情況下,面部偽造的效果大打折扣。

側臉失真的原因

橫向限制

使用DeepFake換臉,當人臉是側角度時,真實性會急劇下降。

這是因為大多數基於2D的面部對齊算法,視捕捉到側視圖的特征點數量僅為主視圖的50%-60%。

以“Joint Multi-view Face Alignment in the Wild”中的Multi-view Hourglass面部對齊模型為例。

通過從面部識別特征點,以此為學習數據來訓練模型。

從圖中可以看出,正面對齊時識別到68個特征點數量,而在側面對齊時,僅僅識別到39個特征點數量。

側面輪廓視圖隱藏50%特征點,這不僅會妨礙識別,還會幹擾訓練的準確性以及後續人臉的合成。

DeepFake專傢Siwei Lyu博士表示:

對於當前的DeepFake技術來說,側臉確實是一個大問題。面部對齊網絡(facial alignment network)對於正面效果非常好,但對於側面效果不太好。

這些算法有一個基本的限制:如果你隻覆蓋你的臉的一部分,對齊機制就可以很好地工作,並且在這種情況下非常強大,但是當你轉身時,超過一半的特征點丟失。

普通人影像資料“沙漠”

換臉要達到比較逼真的效果,還得經過大量的訓練,這意味著需要有足夠的訓練數據。

外網就有人通過訓練大量的數據,將傑瑞·宋飛人臉替換到到《低俗小說》(1994) 中的場景中。

獲得的側臉圖像也很難看出破綻:

但是達到如此逼真的效果,是經過大量數據的訓練,在上述這個例子中,電視節目“Seinfeld”就為此次訓練提供長達66個小時的可用鏡頭。

而相比之下,除電影演員之外,普通人的影像資料都少之又少,並且在平時拍照記錄時,很少有人會記錄完全呈90°的側臉照。

因此,通過DeepFake偽造的人臉很輕易就在側臉時露出破綻。

也有網友在Hacker News上調侃道:

最近去一傢不知名的銀行辦張卡,竟然需要我的側身照,當時我還很疑惑,現在我終於知道為什麼。

用手在面前晃動也可以識別偽造的臉

視頻通話時判斷對方是不是DeepFake偽造的,除通過側臉判斷,還有一個小方法:用手在面前晃動。

如果是偽造的人臉,手與臉部圖像的疊加可能會出現錯亂,並且手在晃動過程中會出現延遲現象。

在換臉寡姐和X教授時,手和面部疊加發生錯亂

實時的DeepFake都會面臨這樣一個問題:需要將真實的遮擋物疊加到不真實的面部圖像上,一般稱這個操作為“遮罩”或“背景去除”。

並且,實時DeepFake模型需要能夠根據要求隨意執行摳圖,達到可令人信服的水平。

但往往也會有很多混淆的遮擋物來影響“摳圖”的過程,比如說具有人臉特征的遮擋物會給模型造成“困擾”,使其“摳圖”過程很難進行。

用手在偽造的臉前晃動,遮擋物的快速移動會給“摳圖”帶來很大的困難,從而造成很大的延遲,並且會影響疊加的質量。

One More Thing

換臉犯罪並不遙遠,已經有媒體報道過有嫌疑犯通過DeepFake換臉進行IT工作的遠程面試,以試圖侵入公司,獲取他們的客戶或財務數據,以及企業IT數據和專業信息等。

美國聯邦調查局(FBI)曾致函其互聯網犯罪投訴中心,稱收到過多起投訴,有人利用竊取的信息和深度偽造的視頻、語音申請遠程技術工作。

在聯邦機構5月份報告中描述的案例中,一些換臉嫌疑人通過幾層空殼公司進行操作,這使得識別他們的身份變得更加困難。


相關推薦

2024-08-28

,2023年基於AI的深度偽造欺詐暴增3000%,深度偽造也就是deepfake,是learning和fake的組合,主要指用AI深度學習的技術,合成某個人的圖片或視頻、甚至聲音,最常見的便是AI換臉。工信部更是在近期表示,將推出AI換臉詐騙風險提

2023-06-05

的技術日新月異,帶來的副作用也日益顯現。深度偽造(deepfake)這一AI技術,能讓視頻中的人物變臉、變聲,有人用它詐騙,有人將自傢主播的臉換成明星的臉帶貨撈錢,還有人用它AI換臉“造黃謠”。或許很多人沒有意識到問

2024-02-11

個剛剛在視頻會議裡跟自己“面對面”聊過的人,完全是Deepfake出來的!先別著急罵這大兄弟警惕性太低,Ta也不是沒有過一絲絲懷疑,但是,這可不是什麼詐騙界常見的一對一視頻通話——參與會議的有好幾個熟面孔,無論是

2024-03-27

以,其實視頻不能算完全是AI。除AI之外,制作者還使用DeepFake和lipsync。嚴謹的說法是,視頻首先使用演員來預錄制,然後通過AI做同步的配音。也就是說,這其實是一個真實的人,在真正的汽車裡,有真實的衣服和手,然後使用

2023-11-22

山東省濟南市商河縣公安局刑警大隊成功破獲一起利用AI換臉技術進行詐騙的案件。這起典型案件涉及一名小夥被以“表哥”身份欺騙,最終騙走 30 萬元人民幣。據解,事發於今年 5 月份,當時一名叫黃某某的小夥在刷短視頻時

2024-04-16

hinaZ.com) 4月16日 消息:近年來,隨著生成式AI技術的發展,Deepfake(深度偽造)已成為一種新型的網絡犯罪手段,給數字世界的安全帶來嚴峻挑戰。為此,螞蟻數科旗下生物識別品牌ZOLOZ近日正式發佈針對Deepfake的綜合防控產品ZOLOZ

2023-05-26

夜追回何先生被騙的132萬元。專傢表示,AI詐騙主要是AI換臉,這項技術並非無任何破綻,可以要求對方用手指在其面部來回晃動,或者用手掌來擋住一部分臉,若面部出現扭曲,則斷定是AI換臉。轉賬之前,先確認身份,最好先

2023-01-17

是好東西,但是它也會帶來風險,這幾年很多人應該聽過deepfake換臉AI,這種換臉小視頻滿天飛,已經被濫用,如何識別AI小視頻也成為一件大事,現在日本國傢信息學研究所 (NII)的研究人員開發一種AI算法,可以用AI反AI,識別換

2023-05-26

快科技5月25日訊,也許阻擋一些人入手電動汽車最大的攔路虎就是充電樁不足或者充電體驗差。當然也應該看到,不少車企正砸錢興建充電網絡,比如特斯拉的超充站/樁。日前, Motor Authority在與奧迪高管交流時,犀利地提到JD P

2023-09-04

民警經研判分析,鏡頭中的崔某”應是嫌疑人使用的AI”換臉技術。隨後將資金凍結,不過隻凍結成功68萬元,另外30萬元已經被取走。後經偵查,民警確認銀行卡的主任身份,並趕赴四川成都將其抓捕,後續,又陸續抓走李某等

2022-08-24

帕特裡克·希爾曼(PatrickHillmann)聲稱,詐騙者對他進行deepfake,以誘騙聯系人參加會議。在最新發佈的博文中,希爾曼表示一支“老練的黑客團隊”使用采訪和電視露面的視頻片段進行deepfake,並將其用於視頻聊天對話中。希爾

2023-05-26

人,何先生沒有多想,就轉132萬元。但這又是一起利用AI換臉技術的電信詐騙。幸運的是,何先生及時報警,專案民警接到報警後,連夜趕赴北京抓獲3名涉詐嫌疑人。5月22日,警方將先行追回的132萬元被騙款及時返還給何先生,

2024-09-08

技9月7日消息,據媒體報道,博主濾鏡粉碎機用一段15秒AI換臉視頻,三小時就騙”走自己媽媽一年的收入,該視頻上線後引發關註。對此,有60%的受訪者表示,憑借肉眼辨認不出AI換臉視頻。據解,AI換臉技術的核心在於圖像識

2024-03-26

的大語言模型、割韭菜的AI風投騙局,以及無休無止的AI換臉糾紛和詐騙。我們聊過的“AI俄羅斯美女”和那些滿嘴“大模型”“未來趨勢”的專傢學者不同,對平頭老百姓來說,除偶爾在社交媒體上爆紅一下又立刻消失的“聊天