AntiFake技術可以防止你的聲音被AI深度偽造


Deepfake人工智能系統最險惡的功能之一是能夠復制一個人的聲音,即使隻是一段簡短的錄音。人們聲音的深度偽造版本以及偽造的視頻可以用來使其聽起來和看起來好像政客或名人說一些他們實際上從未說過的話。此外,還有一些情況是,人們接到詐騙電話,其中朋友或傢人的深度偽造聲音要求他們因某種緊急情況盡快匯款。此外,復制的聲音可用於繞過語音識別安全系統。

圖片.png

然而,一種名為 AntiFake 的新軟件工具可以幫助防止這種情況發生。

已經有技術可以確定所謂的聲音是否是深度偽造的,AntiFake 是最早阻止此類偽造聲音產生的系統之一。 簡而言之,它是通過讓人工智能系統更難讀取真人聲音錄音中的關鍵聲音特征來實現這一點。

AntiFake-workflow.jpg

“該工具使用一種對抗性人工智能技術,該技術最初是網絡犯罪分子工具箱的一部分,但現在我們反過來用它來防禦他們,”發明者、聖路易斯華盛頓大學計算機科學與工程助理教授張寧說。

Ning-Zhang-Record.jpg

 “我們隻是稍微弄亂錄制的音頻信號,對其進行扭曲或擾動,使其對人類聽眾來說仍然聽起來不錯,但這與人工智能感知到的完全不同。”

這意味著,即使深度偽造是根據經過 AntiFake 修改的錄音創建的,它聽起來也不會像說話者的實際聲音。 迄今為止進行的測試表明,該技術在防止合成令人信服的深度贗品方面的有效性超過 95%。

張說:“雖然我不知道人工智能語音技術的下一步會是什麼——新的工具和功能一直在開發——但我確實認為我們利用對手的技術來對抗他們的策略將繼續有效。”

任何需要的人都可以免費獲得防偽代碼:

https://sites.google.com/view/yu2023antifake


相關推薦

2024-04-12

密碼管理器LastPass本周透露,有黑客嘗試使用深度偽造技術(Deepfake)對該公司一名員工進行釣魚,不過這名員工發現異常後立即報告,隨後LastPass安全團隊介入,黑客的詭計並未得逞。黑客並沒有使用深度偽造技術生成視頻,而是

2023-02-13

配音演員就是否加入這句話進行協商。但基於人工智能的技術"顯然完全規避這一點"。雖然看到重復性的工作落入機器人和人工智能手中是有道理的,但工業界正試圖取代人類的藝術方面,這一點有點難以消化。盡管如此

2024-02-09

動語音電話,打擊所謂的"深度偽造"技術,專傢稱這種技術可能會破壞選舉安全或加劇欺詐行為。聯邦通信委員會的一致投票將反騷擾電話規則的適用范圍擴大到未經請求的人工智能深度偽造電話,根據聯邦

2024-08-18

真實采訪,利用AI工具替換他的聲音。這個AI足夠先進,可以改變細微的嘴部動作,以匹配他們為這個數字假冒人物編寫的新臺詞。對普通觀眾來說,這種操控可能難以察覺。有業內人士評價稱,這些視頻往往非常逼真,模仿馬

2022-06-24

音數字助理Alexa在聽不到一分鐘音頻後模仿任何聲音。該技術研發的消息公佈時,人們隻是簡單地想到其帶來的好處,Alexa的首席科學傢Rohit Prasad也在周三的公司演示中充分展示瞭數字助理的人性化,演示瞭Alexa冒充一位祖母閱讀

2024-04-01

計劃通過申請流程向多達100傢開發商發佈該工具。其他AI技術已經在某些情境下被用來偽造聲音。今年1月,一通自稱喬·拜登(Joe Biden)總統打來的以假亂真的電話呼籲新罕佈什爾州居民不要在初選中投票,這一事件在全球關鍵

2024-02-20

依舊逍遙法外。可世上隻有千日做賊,哪有千日防賊。AI 技術的發展速度,明顯比人類目前的應對速度要快。在一年前, AI 技術還是被網友嘲笑的對象,網友看也隻會覺得這輩子的恐怖谷效應都犯完。然而現在, AI 技術已經可

2024-02-21

依舊逍遙法外。可世上隻有千日做賊,哪有千日防賊。AI 技術的發展速度,明顯比人類目前的應對速度要快。在一年前, AI 技術還是被網友嘲笑的對象,網友看也隻會覺得這輩子的恐怖谷效應都犯完。然而現在, AI 技術已經可

2024-02-21

依舊逍遙法外。可世上隻有千日做賊,哪有千日防賊。AI 技術的發展速度,明顯比人類目前的應對速度要快。在一年前, AI 技術還是被網友嘲笑的對象,網友看也隻會覺得這輩子的恐怖谷效應都犯完。然而現在, AI 技術已經可

2024-02-20

依舊逍遙法外。可世上隻有千日做賊,哪有千日防賊。AI 技術的發展速度,明顯比人類目前的應對速度要快。在一年前, AI 技術還是被網友嘲笑的對象,網友看也隻會覺得這輩子的恐怖谷效應都犯完。然而現在, AI 技術已經可

2023-06-05

過程不到10分鐘,事後郭先生才發現自己被騙子用AI換臉技術給騙。今年2月以來,AI相關的技術日新月異,帶來的副作用也日益顯現。深度偽造(deepfake)這一AI技術,能讓視頻中的人物變臉、變聲,有人用它詐騙,有人將自傢主

2024-02-02

自動語音電話的行為定為非法。該機構擔心音頻深度偽造技術被用來通過模仿"名人、政治候選人和近親屬"的聲音來混淆和欺騙消費者。FCC 主席傑西卡-羅森沃塞爾(Jessica Rosenworcel)的提案將規定,根據《電

2024-08-17

人工智能工具將他的聲音替換成復制品,並利用口型同步技術編輯馬斯克的口型,讓視頻看起來更加真實。監測深度偽造視頻的機構Sensity近日做一項調查,通過分析2000多段深度偽造視頻,發現馬斯克已經成為這類視頻中最常見

2024-03-02

雖然AI技術如今大火,帶來很多便利的功能,比如現在手機都自帶文生圖等創作功能,還可實現魔法消除、AI接聽騷擾電話等。但這也意味著,違法分子造假的技術也能得到進一步提升,需要大傢更加小心分辨。劉德華電影公司