# 劃重點
1. 🌐 互聯網上已存在的兒童性虐待圖像問題可能進一步惡化,監管機構敦促對生成深度偽造照片的人工智能工具進行控制。
2. 🤖 以英國為基地的互聯網觀察基金(IWF)在一份報告中敦促政府和技術提供商在人工智能生成的兒童性虐待圖像泛濫之前迅速采取行動。
3. 📉 報告揭示生成式人工智能系統的黑暗面,可能導致調查人員被深度偽造的虛擬兒童拖慢,甚至擴大潛在受害者的范圍。
站長之傢(ChinaZ.com) 11月24日 消息:在一份寫給政府和技術提供商的報告中,總部位於英國的互聯網觀察基金(IWF)周二警告稱,互聯網上已存在的兒童性虐待圖像問題可能會變得更加嚴重,如果不對生成深度偽造照片的人工智能工具進行控制的話。該監管機構敦促各國政府和技術提供商在深度偽造的兒童性虐待圖像席卷執法調查人員、並極大擴大潛在受害者的范圍之前迅速采取行動。
互聯網觀察基金首席技術官丹·塞克斯頓(Dan Sexton)表示:“我們不是在談論它可能造成的危害,而是在說這正在發生,而且需要立即解決。”
報告中首次提到,韓國一名男子於9月被判刑2年半,因使用人工智能制作360度虛擬兒童虐待圖像,這是韓國首次發生這樣的案件。在西班牙西南部的一所學校,警方調查青少年使用手機應用程序使穿著衣服的同學在照片中顯露裸體的行為。
報告揭示生成式人工智能系統的黑暗面,該系統允許用戶用文字描述他們想要制作的內容,從電子郵件到小說藝術作品或視頻,然後由系統生成。如果不加以制止,深度偽造的兒童性虐待圖像可能會使調查人員陷入營救事實上是虛擬人物的困境。作惡者還可以利用這些圖像來勾引和脅迫新的受害者。
塞克斯頓表示,互聯網觀察基金分析人員發現在線上出現名人兒童的面孔,以及對“已經被虐待,可能是多年前”的兒童創建更多圖像的“巨大需求”。
報告強調建立生成式人工智能滿足用戶要求的同時,加強法律以更容易打擊人工智能生成的濫用的必要性。報告特別針對歐洲聯盟提出建議,目前正就是否自動掃描消息應用程序以尋找涉嫌兒童性虐待圖像的監控措施進行辯論,即使這些圖像在之前未被執法機構知曉。
互聯網觀察基金的工作重點之一是通過禁止重新傳播受害者照片來防止先前的性虐待受害者再次受到傷害。報告表示,技術提供商可以采取更多措施,使其產品難以用於這種方式,盡管由於一些工具難以收回而使問題復雜化。
報告指出,去年推出一批新的人工智能圖像生成器,並以其根據命令產生奇幻或逼真圖像的能力令公眾矚目。但由於它們大多包含阻止濫用的機制,因此大多數生成器不受制造兒童性虐待材料的制作者青睞。
對於具有完全控制其訓練和使用方式的封閉人工智能模型,例如OpenAI的圖像生成器DALL-E,塞克斯頓表示,它們更成功地阻止濫用。與之形成對比的是,制造兒童性虐待圖像的生產者青睞的工具是由倫敦初創公司Stability AI開發的開源工具Stable Diffusion。Stable Diffusion於2022年夏季首次亮相時,一些用戶迅速學會如何將其用於生成裸體和色情內容。盡管大多數內容描繪成年人,但通常是非自願的,例如用於制作以名人為靈感的裸體照片。
Stability後來推出新的過濾器,阻止不安全和不適當的內容,並使用Stability軟件的許可證禁止非法使用。然而,用戶仍然可以訪問Stable Diffusion的舊版本,這在“絕大多數情況下是創作涉及兒童的淫穢內容的首選軟件”,斯坦福互聯網觀察的首席技術專傢大衛·蒂爾(David Thiel)表示。
互聯網觀察基金的報告承認,試圖刑事化生成圖像工具本身的嘗試存在困難,即使這些工具被“微調”以產生濫用材料。塞克斯頓補充道:“你無法規定人們在他們的電腦上、在他們的臥室裡做什麼。這是不可能的。那麼,怎樣才能做到讓他們不能使用公開可用的軟件來創建這種有害內容呢?”大多數人工智能生成的兒童性虐待圖像在美國、英國和其他地方的現行法律下都被視為非法,但尚不清楚執法機構是否有能力打擊它們。