莫迪AI合成跳舞視頻瘋傳 本人辟謠:深度偽造的“傑作”


近日一段“莫迪跳傳統舞蹈”的視頻在網上瘋傳,視頻中,“莫迪”和其他舞者圍成一個小圈歡快地旋轉著。然而,莫迪上周末在印度人民黨總部出席排燈節特別活動時親自辟謠,稱網上流傳的跳舞視頻是AI合成的,並就此發出警告。

據印度《加爾各答每日電訊報》網站報道,莫迪說:“我看到一段我在跳加爾巴(起源於印度古吉拉特邦的舞蹈)的視頻,‘多虧’深度偽造。AI時代深度偽造內容的傳播是一場大危機,值得註意的是,這很快引發社會的不滿。”“深度偽造”最常見的形式是AI換臉、語音模擬等。莫迪表示,深度偽造視頻是通過社交媒體傳播的,而社交媒體又有大公司的背書,因此許多人信以為真。他警告說:“人們會誤以為自己看見的是真實的,這會引發巨大危機。”他還表示,現在印度缺乏識別這種“深度偽造”的技術。

“莫迪已經成為深度偽造的受害者,這是令人擔憂的發展趨勢。”《印度時報》19日評論道。近期,深度偽造技術生成的虛假視頻在印度網絡上興風作浪,中招的不乏演藝圈名人,特別是女性藝人。這引發民眾憤怒,一些演藝界人士要求政府介入打假。

印度《鑄幣報》網站18日稱,印度電子和信息技術部部長阿什維尼·瓦希諾當天表示,政府已向所有大型社交媒體發出通知,要求他們采取措施識別深度偽造內容並刪除。“社交媒體平臺已經作出回應,並有所行動。”瓦希諾說,如果社交媒體平臺未能采取適當措施打擊深度偽造,之前保護社交媒體平臺的條款可能不再適用。另據印度“Times Now”網站報道,瓦希諾說,政府可能在未來三四天召集各大社交媒體平臺開會報告打擊深度偽造內容的進展,包括Meta和谷歌。

在這一事件中,莫迪成為深度偽造的受害者,這引發人們對這一技術發展趨勢的擔憂。深度偽造技術在印度網絡上造成虛假視頻的泛濫,尤其是演藝圈名人中的女性藝人成為中招對象。憤怒的民眾要求政府介入打假行動。

為應對這一問題,印度電子和信息技術部已向大型社交媒體發出通知,要求其采取措施來識別並刪除深度偽造內容。政府對社交媒體平臺采取行動,並警告稱,如果平臺未能打擊深度偽造,之前保護社交媒體平臺的條款可能不再適用。政府計劃召集各大社交媒體平臺開會,匯報打擊深度偽造的進展情況。

在這個信息時代,AI合成技術的濫用引發重大危機,深度偽造的視頻讓人們誤以為自己看到的是真實的。印度目前缺乏識別深度偽造的技術,因此這一問題迫切需要得到解決。政府、社交媒體平臺和技術公司需要共同努力,加強打擊深度偽造的措施,保護社會免受虛假信息的影響。


相關推薦

2024-01-29

社交平臺也要通過技術手段加強對於疑似AI生成圖,文,視頻內容的識別功能。然而說到底,這些防止AI和識別AI的技術手段是治標不治本的,隻有規范的立法和相應的懲處制度的推行才能從根本上解決這一問題。深度偽造技術之

2024-03-30

“印度總理莫迪警告比爾·蓋茨關於人工智能(AI)的危險”,“今日俄羅斯”電視臺(RT)3月29日以此為題註意到,莫迪與比爾·蓋茨近日舉行會談,討論新興技術、氣候等多項議題,期間,莫迪就AI的深度偽造技術發出警告。

2023-11-29

的實際聲音。 迄今為止進行的測試表明,該技術在防止合成令人信服的深度贗品方面的有效性超過 95%。張說:“雖然我不知道人工智能語音技術的下一步會是什麼——新的工具和功能一直在開發——但我確實認為我們利用對手

2023-06-05

中不少視頻並非明星真實錄制,而是運用AI換臉、AI語音合成等技術制作而成,不少人信以為真而選擇加入,結果陷入騙局。還有一些人利用AI生成圖片/視頻進行裸聊詐騙,要求受害者下載APP進而將其手機通訊錄拷貝過來,後續

2024-05-08

爭議已經給選舉蒙上陰影。上月底,印度總理納倫德拉-莫迪(Narendra Modi)抱怨說,有人使用假聲音,聲稱領導人發表他們"想都沒想過"的言論,並聲稱這是一場旨在制造社會緊張局勢的陰謀的一部分。印度警方逮捕來自

2024-08-28

fake,是learning和fake的組合,主要指用AI深度學習的技術,合成某個人的圖片或視頻、甚至聲音,最常見的便是AI換臉。工信部更是在近期表示,將推出AI換臉詐騙風險提醒功能。一邊是AI換臉詐騙案件屢屢發生,另一邊則是AI換臉

2023-01-17

息學研究所 (NII)的一個小組開發一種名為SYNTHETIQ VISION:合成視頻檢測器”的應用,可以自動判斷AI生成的偽造的面部圖像的真實性,會用於檢測各種知名人物的AI偽造視頻中。Synthetic Vision 使用經過大量數據訓練的深度學習模型

2023-04-25

ulated mediaTikTok最新推出的社群規范規定使用真實場景進行合成的內容必須被明確指出, 這就說明所有以生成合成式AI創造出的內容必須在標題或者tag中使用“合成”“虛假”等詞匯。雖然科技巨頭們在技術和預防上都在努力,但

2023-11-23

的錯誤信息方面存在很多道德問題。印度總理納倫德拉-莫迪(Narendra Modi)上周表達對深度偽造視頻的擔憂,IT 部隨即采取這一舉措。"Deepfake可以在沒有任何檢查的情況下更快地傳播,它們在上傳後幾分鐘內就會得到病毒式

2024-10-23

是否為AI換臉”,通過AI技術掃描後給出相關提示:AI換臉合成概率90%,果不其然,眼前的小姐姐實際是一名猛男,確認是AI換臉。當用戶在進行視頻通話時,用戶可以利用榮耀MagicOS 9.0的AI換臉檢測功能,對視頻中的人物進行人臉

2022-08-10

不僅會妨礙識別,還會幹擾訓練的準確性以及後續人臉的合成。DeepFake專傢Siwei Lyu博士表示:對於當前的DeepFake技術來說,側臉確實是一個大問題。面部對齊網絡(facial alignment network)對於正面效果非常好,但對於側面效果不太

2024-04-12

黑客的詭計並未得逞。黑客並沒有使用深度偽造技術生成視頻,而是偽造 LastPass 首席執行官 Karim Toubba 的聲音,通過 WhatsApp 聯系這名員工要求執行一些不合理的操作。這名員工看起來還是比較有經驗的,他很快就發現對方存在

2024-02-22

)是由人工智能算法創建的逼真而又虛假的圖像、音頻和視頻,最近的技術進步使它們與人類創建的內容越來越難以區分。這封題為"擾亂深度假貨供應鏈"的信就如何監管深度假貨提出建議,包括將深度假貨兒童色情制品

2024-03-02

辨。劉德華電影公司映藝娛樂就最新發佈一份《關於 AI 合成聲音侵權事件的嚴正聲明》,提醒大傢醒警惕AI語音合成騙局。據介紹,近期映藝娛樂發現微信用戶“華仔共享團”及其關聯視頻號“華仔集結號”,通過信息技術手段