AI換臉,該抵制嗎?


聲明:本文來自於微信公眾號 定焦(dingjiaoone),作者:王璐,授權站長之傢轉載發佈。

眼見≠為實,AI換臉欺騙不少人。

前兩天,湖北公安破獲一起用AI換臉技術解鎖社交賬號並倒賣獲利的案件。不法分子通過AI換臉專門幫人解鎖被平臺凍結的交友賬號,每解鎖一個,收費15元-30元不等。該團夥共解凍2107個賬號,從中獲利40萬元。

有數據顯示,2023年基於AI的深度偽造欺詐暴增3000%,深度偽造也就是deepfake,是learning和fake的組合,主要指用AI深度學習的技術,合成某個人的圖片或視頻、甚至聲音,最常見的便是AI換臉。工信部更是在近期表示,將推出AI換臉詐騙風險提醒功能。

一邊是AI換臉詐騙案件屢屢發生,另一邊則是AI換臉技術不斷迭代。

AI圈最近被一款AI換臉項目——Deep-Live-Cam,炸開鍋。用戶隻需上傳一張照片,便可實時換臉成紮克伯格、董宇輝等任何想成為的人。

這一項目免費面向所有用戶開放,發佈在GitHub(代碼托管平臺)上,支持個人電腦安裝。項目開發者公佈安裝方法,沒有技術經驗的普通人可以邊學邊安裝。

由於操作簡單方便且換臉真實度高,Deep-Live-Cam出場便登上GitHub熱榜第一,24小時狂攬1600+星(星星代表項目點贊和關註指標,幾千顆星星是相當不錯的級別)。不少網友將自己換臉成馬斯克,體驗一把全球億萬富豪的感覺。

但大傢在感慨AI換臉技術取得突破的同時,也在擔憂“詐騙更變得容易”。AI換臉,該抵制嗎?

普通人都能用的AI換臉,

成本低至十幾塊

目前國內外出現的AI換臉工具不少,Deep-Live-Cam被熱議的原因主要在於,用戶隻用上傳一張圖但替換效果非常逼真,還支持實時換臉。

其實,“實時換臉”功能的技術門檻算不上高。

瑞萊智慧聯合創始人、算法科學傢蕭子豪介紹,想達到實時視頻換臉效果有兩種方式:一種是播放事先做好的換臉視頻,一種是接入實時換臉視頻。Deep-Live-Cam屬於後者。

無論哪種,AI換臉視頻都需兼顧前後幀的連貫性,而基於連續人臉視頻的處理,可根據前一幀的很多檢測資源做微小的調整,“這也讓基於連續幀的視頻/直播換臉,相比獨立幀的單張換臉,效率更高”,一位從事AI技術的研究員表示。

AI換臉依托的底層技術是Deepfake,從業者推測,Deep-Live-Cam采用的也是這一技術,所以僅從制作合成花費的素材和算力看,成本不會很高。

蕭子豪表示,如果不考慮其他硬件采購成本,大多數AI換臉成本,一次大概隻要十幾塊,主要包含照片和算力,Deep-Live-Cam可能更低。和其他AI換臉工具相比,Deep-Live-Cam用的照片數量更少,該工具還支持普通電腦使用,照片和算力成本更低。

相比之下,Deep-Live-Cam支持僅用一張圖片換臉,更讓從業者們震驚。因為過往的AI換臉產品需要用戶提供多張不同角度的至少十幾張照片。

照片難度的降低讓用戶玩嗨。AI追隨者小C表示,自己之前沒接觸過任何AI換臉工具,他覺得Deep-Live-Cam操作門檻不高,按照發佈者的說明便可完成,尋找換臉素材的難度也不是很高。

他將自己換臉成郭德綱、吳京、雷佳音等一眾名人,且都隻用他們各自的一張圖片。他表示,隻要提供的是正臉、額頭無遮擋、自然光,接近自己膚色、證件照比例的照片,一張便可成功,臉換效果也很自然。

不止一位從業者認為,部分影視劇采用的AI換臉技術,不僅門檻高、成本高昂,換臉效果也不夠自然,說話過程中經常出現變形、失真。“像不像是AI換臉工具最大的難題,Deep-Live-Cam能支持一張圖在直播過程中達到,臉邊緣沒有明顯貼圖痕跡,膚色和原人物差別不大的效果,逼真度領先很多AI換臉工具,”蕭子豪分析,其開發者應該是在圖片渲染模型上實現過往AI換臉工具沒有的突破。

不過,目前Deep-Live-Cam還存在一些Bug,比如支持換臉但不涉及換聲。但蕭子豪表示,想要實現此舉不難,接入實時換聲工具即可,稍有編程基礎的人就能完成。

AI換臉,

躲不掉的詐騙和侵權

Deep-Live-Cam等工具降低用戶的使用門檻,但大傢也開始恐懼,不法分子隻用一張圖就可以換臉行騙,對普通人而言,風險將會劇增。

瑞萊智慧數據指出,國內AI詐騙案件的涉案金額從2020年的0.2萬增長至2023年的1670萬,年復合增長率高達1928.8%。2024年上半年,AI詐騙案超過1.85億。奇安信發佈的《2024人工智能安全報告》顯示,2023年基於AI的深度偽造欺詐暴增3000%。

AI換聲、AI換臉、AI生成是AI詐騙常用的三種手段,其中AI生成內容,秒數有限,畫質和人物瑕疵明顯,因此不法分子最常用的是AI換聲、AI換臉。而大多人相信“眼見為實”,又讓AI換臉的欺騙性高於AI換聲。

AI換臉不僅騙到老年人,很多從事科技領域的年輕人也一夜失掉幾百萬。

據媒體公開報道,去年某科技公司CEO收到朋友轉賬求助,不到10分鐘被騙430萬元,騙子主要便是利用AI變臉技術。還有香港某跨國公司員工被騙入不法分子設計的高管視頻會議後,將2億港元打到對方賬戶。

AI換臉達到“能以假亂真”的程度,是從業者的共識。

李旭反傳防騙團隊負責人李旭對AI換臉技術的關註,便來源於各種詐騙案件。他表示,近兩年AI換臉詐騙案件頻發,市面上大概有三種AI換臉詐騙手段非常成熟。

第一種,利用AI換臉偽造色情視頻,對受害人進行敲詐。

比如犯罪團夥會從網上等各種渠道收集被害人圖片、視頻信息,然後進行一鍵去 衣、AI換臉等合成處理,將偽造的不雅視頻或者艷照發給受害者,用來敲詐勒索。

第二種,利用AI換臉冒充熟人詐騙。

比如詐騙團夥會用市面上的一些換臉工具偽裝成受害人的親人、朋友、同事、領導等,先虛構一個緊急事由,利用被騙目標的急迫心理實施詐騙行為,受害人在情急之下往往容易放松警惕將錢轉出。

現在使用Deep-Live-Cam更隻需要采集受害者一兩張照片即可深度仿造技出一段視頻,李旭覺得,AI換臉詐騙的程度超出大多數普通人的認知,也直接改變電信詐騙的劇本,防不勝防,愈演愈烈。

第三,利用AI換臉冒充名人進行直播帶貨,騙取用戶下單。

比如主播在直播間利用“AI換臉”給自己“換”一張名人臉,從而增加直播視頻流量,助力直播帶貨。

此外,未經他人允許,通過AI換臉對名人/普通人進行長短視頻二創、制作表情包等侵權問題也十分常見。

AI換臉詐騙案件頻發且手段多樣,與這一技術的成熟度和廣泛度密切相關。

瀚皓科技CEO吳傑茜告訴「定焦」,“目前,AI視頻生成、數字人和AI換臉技術都很成熟,而AI換臉是其中發展最早的領域。”

2014年Deepfake(深度偽造)技術的出現,標準著AI換臉誕生,但一直在小范圍傳播,直到2017年,有用戶利用該技術發佈不實色情圖片後,AI換臉才走入大眾視野,但同時也因為其帶來的大量造假內容,該技術一直備受爭議。

不止一位從業者表示,這些年,雖然大眾對AI換臉的討論多集中在拯救影視劇上,但由於不好監管,利用AI換臉進行造假詐騙的事情也一直沒斷過。且AI換臉技術一直在迭代,入局者也不少,目前除一些大廠涉及這一業務外,國內很多數字人、AI生成視頻初創公司都有開發AI換臉業務,技術普及度比較高,該類工具也越來越多。

技術成熟、普及度高,監管也有一定的難度,導致讓AI換臉技術這些年一直被濫用。

如何辨別越來越逼真的AI換臉?

近兩年AI換臉導致的各種違法犯罪行為不少,不可控性讓部分人覺得應該抵制AI換臉技術。

但也有很多從業者覺得,科技本身是中性的,其帶來的好壞影響主要取決於使用者。AI換臉技術的出現和迭代不應該被制止。

吳傑茜表示,目前國內外均沒有對AI換臉技術采取一刀切,更多是進行立法管理。

比如美國針對深度偽造進行專門立法,歐盟將深度偽造納入《通用數據保護條例》等現有法律框架規制度,德國、新加坡、英國等國傢也將深度偽造相關犯罪納入刑法體系。中國也在《互聯網信息服務深度合成管理規定》中明確對這一技術的規范。

多位從業者認為,對AI創作的內容進行標明等管理辦法,以及傳授給大眾一些防AI詐騙方法,是十分必要的。

比如,曾有技術人員提出,可以在視頻通話時,要求對方將手指放在臉部,仔細觀察人臉是否變形,或者讓對方張嘴,看牙齒和舌頭是否清晰完整,從而判斷圖像是真人還是AI合成。

去年這一方法還比較奏效,但今年隨著AI換臉技術的升級,已經讓其失靈。

蕭子豪表示,當下AI換臉技術可以實現有障礙物出現時人臉和動作不變形,且畫質清晰度很高。李旭也發現,近期發生的AI換臉詐騙案件都使用很強的技術手段,單純靠動作幾乎辨別不出。

鑒於AI換臉技術的快速發展,李旭認為,提高警惕是目前相對有效的方法。比如接到熟人借錢的視頻來電時,可以問對方一些隻有彼此才知道的隱私問題,並多向身邊人詢問核實。

部分從業者覺得,用AI辨別AI或許是個不錯的辦法。

比如先看畫面有沒有一些明顯違背常識的元素,重點看臉部邊緣是否有瑕疵,然後再借助一些AI工具。蕭子豪覺得用AI甄別AI,可識別出絕大多數騙局,目前很多公司和政府部門都找他們來合作AI換臉防禦系統。

但此舉在國內外也引發一定爭議。

首先,這種方式具有一定的使用門檻,用戶需要在手機/電腦端下載相關應用。其次,從本質上看,這類防禦工具存在一定的滯後性,主要對當下AI換臉工具見招拆招,但AI換臉技術和合成方法在時刻變化。

很多人寄希望於相關法律法規完善,比如提高對AI換臉詐騙、銷售AI換臉淫穢視頻、換臉名人進行帶貨等違法行為的懲罰力度。

去年,杭州蕭山區人民法院判決一起用AI換臉制作淫穢視頻的案例,被告人因提供AI換臉定制服務,通過AI換臉制作大量淫穢視頻,還用建群的方式吸引觀看者付費進群,涉案金額共6萬餘元,最終被判處有期徒刑七年三個月,並處罰金6萬元。

不過也提醒大傢一點,並不是所有的AI換臉都會侵犯肖像權。

今年6月北京互聯網法院宣判兩起AI換臉侵權案件,兩位國風短視頻模特在社交平臺上發現自己視頻出現在某一換臉APP中,於是將該APP背後的科技公司告上法庭,認為其損害自己的肖像權和個人權益。

法院的宣判是,認定被告使用原告出鏡的視頻,但由於涉案視頻中的原告面部已被替換,並未侵害原告的肖像權,因此僅認定此舉構成對原告個人信息權益的侵犯。

此刻,AI換臉技術還在不斷升級,也尚未被禁止,AI換臉工具還大量在市場上流傳。

「定焦」近期在某電商平臺上直接搜索“AI換臉”時,已經搜不到任何信息,但隻要把關鍵詞稍加改變,還是能找到相關換臉工具售賣,並且路徑更為隱秘,會跳轉到某二手網站進行交易。在技術和騙術都在不斷升級的當下,大傢能做的是提高警惕,防止被AI換臉侵害。


相關推薦

2023-06-05

整個過程不到10分鐘,事後郭先生才發現自己被騙子用AI換臉技術給騙。今年2月以來,AI相關的技術日新月異,帶來的副作用也日益顯現。深度偽造(deepfake)這一AI技術,能讓視頻中的人物變臉、變聲,有人用它詐騙,有人將自

2023-11-30

式下跌的趨勢。而除AI替代人類的話題,大傢對AI帶來的換臉、繪畫、詐騙等熱詞也多有關註。隨著AI在諸多領域有成熟的應用,在方便人們的同時也引發一系列法律問題,其中就涉及版權、詐騙等——有熱搜就提到“AI換臉用楊

2024-03-06

。於是,該男子特意刮去胡子,打扮成爸爸的樣子,用AI換臉復活”父親,以此寬慰奶奶。公開報道顯示,人臉交換技術在電影制作領域已經不是新鮮詞,但之前電影視頻中的人臉交換非常復雜,專業的視頻剪輯師和專傢需要花

2023-02-25

狂飆》的爆火激起網友們的二創”熱情,部分網友使用AI換臉技術創作視頻,獲得較高的流量。對於AI換臉術,有網友認為隻是大傢圖個樂”而已,而有人則表示擔憂:出門要戴好口罩,否則自己的臉也可能被換走。事實上,這

2023-05-26

看,原來這些“明星”帶貨的主播,其實隻是利用AI實時換臉技術的普通人。記者解到,有商傢推出“AI換臉視頻”套餐,每月收費高達1萬元。該商傢聲稱,他們的技術可以“用AI換臉拍電影”。還有一傢銷售“AI換臉特效插件”

2023-11-23

小夥發現上當受騙,經查證,這位表哥”實際是騙子用AI換臉技術合成的一段視頻,並非他真正的表哥。專傢表示,隨著AI技術的快速發展,AI換臉已經不再是很困難的事,隻需一張照片,依托人工智能,站在攝像頭前的你就能在

2024-09-08

技9月7日消息,據媒體報道,博主濾鏡粉碎機用一段15秒AI換臉視頻,三小時就騙”走自己媽媽一年的收入,該視頻上線後引發關註。對此,有60%的受訪者表示,憑借肉眼辨認不出AI換臉視頻。據解,AI換臉技術的核心在於圖像識

2024-02-01

兩倍。但若使用AI,情況會好很多。即使加上10天左右的AI換臉和配音工期,國內制作的周期也能比海外少一半時間。因此,部分公司會使用AI技術來降低成本,目前AI換臉基本約為每部3萬到10萬元,對口型匹配每部需要多加2萬元

2023-01-17

西,但是它也會帶來風險,這幾年很多人應該聽過deepfake換臉AI,這種換臉小視頻滿天飛,已經被濫用,如何識別AI小視頻也成為一件大事,現在日本國傢信息學研究所 (NII)的研究人員開發一種AI算法,可以用AI反AI,識別換臉視頻

2024-03-06

胡子,精心打扮,努力模仿父親的樣子。然後,他利用AI換臉技術,將自己的面容替換成父親的面容,仿佛讓父親“復活”一般。這個AI換臉的過程,不僅是為滿足奶奶對兒子的思念,也是為完成男子對父親的緬懷。通過這種方

2023-05-26

人,何先生沒有多想,就轉132萬元。但這又是一起利用AI換臉技術的電信詐騙。幸運的是,何先生及時報警,專案民警接到報警後,連夜趕赴北京抓獲3名涉詐嫌疑人。5月22日,警方將先行追回的132萬元被騙款及時返還給何先生,

2024-02-20

社交媒體上呼籲 HeyGen 的開發者采取行動,避免這種被 AI 換臉的事件發生在更多人身上。2 月 20 日,這個賬號才被“封禁”:沒有任何常規賬號封禁的相關提示,消失在平臺中。看起來這起事件告一段落,但在過去的數月中,黑

2023-09-04

民警經研判分析,鏡頭中的崔某”應是嫌疑人使用的AI”換臉技術。隨後將資金凍結,不過隻凍結成功68萬元,另外30萬元已經被取走。後經偵查,民警確認銀行卡的主任身份,並趕赴四川成都將其抓捕,後續,又陸續抓走李某等

2023-11-22

山東省濟南市商河縣公安局刑警大隊成功破獲一起利用AI換臉技術進行詐騙的案件。這起典型案件涉及一名小夥被以“表哥”身份欺騙,最終騙走 30 萬元人民幣。據解,事發於今年 5 月份,當時一名叫黃某某的小夥在刷短視頻時