生成式人工智能以各種方式被越來越多地使用,這引起人們對其可能被敵對分子和團體用來威脅兒童安全的擔憂。谷歌、Meta、OpenAI、微軟和亞馬遜等科技公司今天承諾,將對其人工智能訓練數據中的兒童性虐待材料(CSAM)進行審查,並在今後的模型中不再使用這些數據。
這些公司簽署一套新的原則,旨在限制 CSAM 的擴散。它們承諾確保訓練數據集不包含 CSAM,避免包含 CSAM 的高風險數據集,並從數據源中刪除 CSAM 圖像或 CSAM 鏈接。這些公司還承諾對人工智能模型進行 "壓力測試",以確保它們不會生成任何 CSAM 圖像,並且隻有在經過兒童安全評估後才會發佈模型。
其他簽署方包括 Anthropic、Civitai、Metaphysic、Mistral AI 和 Stability AI。
生成式人工智能引發人們對偽造圖像的日益關註,包括網上偽造 CSAM 照片的泛濫。斯坦福大學的研究人員在 12 月發佈的一份報告中發現,用於訓練某些人工智能模型的流行數據集包含 CSAM 圖像的鏈接。研究人員還發現,美國國傢失蹤與被剝削兒童中心(NCMEC)的舉報熱線在處理大量 CSAM 報告內容時已顯得力不從心,而人工智能生成的 CSAM 圖片很快就使其不堪重負。
這兩傢公司和其他公司與兩個團體合作,提出這些新的承諾。一個名為"Thorn",是一個致力於打擊兒童性虐待的非營利組織。另一個名為"所有科技都應以人為本"(All Tech Is Human),旨在幫助創建一個"負責任的科技生態系統"。
微軟在博文中表示,它將開發生成式人工智能模型,這些模型將不會在包含兒童性或剝削性內容的數據集上進行訓練。這也將有助於保護這些模型在發佈後免受此類內容的影響。
博文補充道:
今天的承諾標志著在防止濫用人工智能技術制作或傳播兒童性虐待材料(AIG-CSAM)和其他形式的兒童性傷害方面邁出重要一步。這一集體行動彰顯科技行業對兒童安全的重視,表明對道德創新和社會最弱勢群體福祉的共同承諾。
Google在博文中提到的兒童安全承諾與微軟 在其人工智能服務方面所做的一些承諾如出一轍。Google補充說,它有自己的團隊專門負責查找顯示兒童可能面臨危險的內容,此外他們還表示,正試圖通過"哈希匹配技術、人工智能分類器和人工審核的結合"來查找和刪除涉及兒童性虐待和性剝削的內容。
最後,Google宣佈支持美國國會關於保護兒童免受虐待和剝削的一系列法案。