AI生成兒童性虐待圖像或網絡泛濫,英國監管機構敦促采取行動


# 劃重點

1. 🌐 互聯網上已存在的兒童性虐待圖像問題可能進一步惡化,監管機構敦促對生成深度偽造照片的人工智能工具進行控制。

2. 🤖 以英國為基地的互聯網觀察基金(IWF)在一份報告中敦促政府和技術提供商在人工智能生成的兒童性虐待圖像泛濫之前迅速采取行動。

3. 📉 報告揭示生成式人工智能系統的黑暗面,可能導致調查人員被深度偽造的虛擬兒童拖慢,甚至擴大潛在受害者的范圍。

站長之傢(ChinaZ.com) 11月24日 消息:在一份寫給政府和技術提供商的報告中,總部位於英國的互聯網觀察基金(IWF)周二警告稱,互聯網上已存在的兒童性虐待圖像問題可能會變得更加嚴重,如果不對生成深度偽造照片的人工智能工具進行控制的話。該監管機構敦促各國政府和技術提供商在深度偽造的兒童性虐待圖像席卷執法調查人員、並極大擴大潛在受害者的范圍之前迅速采取行動。

互聯網觀察基金首席技術官丹·塞克斯頓(Dan Sexton)表示:“我們不是在談論它可能造成的危害,而是在說這正在發生,而且需要立即解決。”

報告中首次提到,韓國一名男子於9月被判刑2年半,因使用人工智能制作360度虛擬兒童虐待圖像,這是韓國首次發生這樣的案件。在西班牙西南部的一所學校,警方調查青少年使用手機應用程序使穿著衣服的同學在照片中顯露裸體的行為。

報告揭示生成式人工智能系統的黑暗面,該系統允許用戶用文字描述他們想要制作的內容,從電子郵件到小說藝術作品或視頻,然後由系統生成。如果不加以制止,深度偽造的兒童性虐待圖像可能會使調查人員陷入營救事實上是虛擬人物的困境。作惡者還可以利用這些圖像來勾引和脅迫新的受害者。

塞克斯頓表示,互聯網觀察基金分析人員發現在線上出現名人兒童的面孔,以及對“已經被虐待,可能是多年前”的兒童創建更多圖像的“巨大需求”。

報告強調建立生成式人工智能滿足用戶要求的同時,加強法律以更容易打擊人工智能生成的濫用的必要性。報告特別針對歐洲聯盟提出建議,目前正就是否自動掃描消息應用程序以尋找涉嫌兒童性虐待圖像的監控措施進行辯論,即使這些圖像在之前未被執法機構知曉。

互聯網觀察基金的工作重點之一是通過禁止重新傳播受害者照片來防止先前的性虐待受害者再次受到傷害。報告表示,技術提供商可以采取更多措施,使其產品難以用於這種方式,盡管由於一些工具難以收回而使問題復雜化。

報告指出,去年推出一批新的人工智能圖像生成器,並以其根據命令產生奇幻或逼真圖像的能力令公眾矚目。但由於它們大多包含阻止濫用的機制,因此大多數生成器不受制造兒童性虐待材料的制作者青睞。

對於具有完全控制其訓練和使用方式的封閉人工智能模型,例如OpenAI的圖像生成器DALL-E,塞克斯頓表示,它們更成功地阻止濫用。與之形成對比的是,制造兒童性虐待圖像的生產者青睞的工具是由倫敦初創公司Stability AI開發的開源工具Stable Diffusion。Stable Diffusion於2022年夏季首次亮相時,一些用戶迅速學會如何將其用於生成裸體和色情內容。盡管大多數內容描繪成年人,但通常是非自願的,例如用於制作以名人為靈感的裸體照片。

Stability後來推出新的過濾器,阻止不安全和不適當的內容,並使用Stability軟件的許可證禁止非法使用。然而,用戶仍然可以訪問Stable Diffusion的舊版本,這在“絕大多數情況下是創作涉及兒童的淫穢內容的首選軟件”,斯坦福互聯網觀察的首席技術專傢大衛·蒂爾(David Thiel)表示。

互聯網觀察基金的報告承認,試圖刑事化生成圖像工具本身的嘗試存在困難,即使這些工具被“微調”以產生濫用材料。塞克斯頓補充道:“你無法規定人們在他們的電腦上、在他們的臥室裡做什麼。這是不可能的。那麼,怎樣才能做到讓他們不能使用公開可用的軟件來創建這種有害內容呢?”大多數人工智能生成的兒童性虐待圖像在美國、英國和其他地方的現行法律下都被視為非法,但尚不清楚執法機構是否有能力打擊它們。


相關推薦

2024-04-24

生成式人工智能以各種方式被越來越多地使用,這引起人們對其可能被敵對分子和團體用來威脅兒童安全的擔憂。谷歌、Meta、OpenAI、微軟和亞馬遜等科技公司今天承諾,將對其人工智能訓練數據中的兒童性虐待材料(CSAM)進行

2022-07-06

能要求WhatsApp等高度加密的消息服務采用尖端技術來發現兒童性虐待材料,否則會面臨巨額罰款。在線安全法案的修正案將要求科技公司“盡最大努力”部署新技術,以識別和刪除兒童性虐待和剝削內容(CSAE)。圖片來自於 PxHere就

2023-11-09

示,作為"網絡安全監管機構",其首要任務是保護兒童。關於非法內容的建議草案包括:大型和高風險平臺應避免向兒童展示推薦好友列表;不得讓兒童用戶出現在他人的連接列表中;不得讓他人看到兒童的連接列表。它

2024-04-19

討如何將人工智能用於打擊一些同樣的行為,特別是與對兒童有害的內容有關的行為。負責執行英國《網絡安全法案》的監管機構--英國通信管理局宣佈,它計劃就目前和未來如何使用人工智能和其他自動化工具主動檢測和刪除

2022-10-12

。英國通信監管機構Ofcom最近發佈的一份報告表明,1/3的兒童在他們的社交媒體資料上謊報年齡以顯示18歲及以上。Twitter的敏感內容政策包括范圍廣泛的類別,包括成人內容、圖形暴力、無端的血腥和仇恨的圖像。雖然該公司並

2022-08-22

攝他的幼兒腹股溝感染的照片後,Google將這些圖片標記為兒童性虐待材料(CSAM)。該公司關閉他的賬戶並向美國傢失蹤和被剝削兒童中心(NCMEC)提交一份報告,這引發警方的調查。這一情況凸顯在潛在虐待和無辜照片成為用戶數字

2024-05-02

容訂閱服務公司OnlyFans進行調查,原因是該公司未能防止兒童通過該平臺訪問色情內容。英國廣播、電信和郵政行業的官方監管機構Ofcom表示,有理由懷疑OnlyFans的母公司FenixInternationalLimited沒有充分執行年齡驗證措施。監管機構

2023-04-25

自32個國傢的46個消費者組織。該組織表示,聊天機器人生成的很多內容看起來真實可靠,但實際上往往不正確,可能會誤導消費者,並導致欺騙性廣告。該組織還強調,年輕消費者和兒童更容易受到此類風險的影響。BEUC副總幹

2023-12-02

天發表的一篇博文中表示,它正在擴展和更新其旨在保護兒童的兒童安全功能,這是在有關其平臺如何推薦兒童性內容的報道正堆積如山的背景下的最新進展。幾個月來,《華爾街日報》詳細報道 Instagram 和 Facebook 如何向用戶提

2022-12-13

隨著文本-圖像生成器和智能聊天機器人不斷讓人們大開眼界,中國已經迅速采取行動,規定人們可以用建立在強大的人工智能模型上的工具做什麼。在涉及生成性人工智能的後果時,該國的監管機構顯然傾向於謹慎行事。這與

2022-07-12

件進行的研究發現,這三個平臺在其運營的所有市場上為兒童提供的隱私和安全保護水平並不相同。根據這份題為“全球平臺,部分保護”的新報告,未成年人在一項服務中得到的保護水平可能取決於他們恰好生活在世界的哪個

2022-08-24

在線服務機構采用越來越多的保障措施來識別和標記虐待兒童的圖像,但這些系統並不是萬無一失的,它們可能會對被錯誤指控的人產生毀滅性的影響。一位父親的情況就是如此,他的Google賬戶在該公司錯誤地將他剛學會走路的

2024-05-10

OpenAI正在探討是否應允許用戶使用其產品制作人工智能生成的色情和其他露骨內容。雖然該公司強調,其禁止深度偽造的規定將繼續適用於成人材料,但活動人士認為,該建議破壞其生產"安全、有益"人工智

2023-12-05

作的色情內容而設計的,而不是 OnlyFans 等網站上的用戶生成內容。在最大的色情網站上,這兩類內容經常並列在一起,因此這種區分很棘手。但通信管理局將在新的一年裡就用戶生成內容、搜索引擎和社交媒體網站的規則展開