Meta公司的監督委員會說,該公司應該對自動審核工具更加謹慎,並舉例批評它刪除一幅描繪哥倫比亞警察暴力的漫畫。這一決定是在委員會處理一系列新案件時作出的,包括一個關於印度性侵犯視頻的問題。
監督委員會是一個由Meta公司資助的半獨立機構,該委員會審議一幅描繪哥倫比亞警察用警棍毆打一名男子的政治漫畫。這幅漫畫在某個時候被添加到Meta的媒體匹配服務數據庫中,這意味著當用戶發佈該漫畫時,Meta的系統會自動將其標記為被刪除。但是,當用戶看到他們的帖子被刪除時,他們開始對這一決定提出上訴並贏得勝利。監督委員會說,有215人對刪除提出上訴,其中98%的上訴是成功的。然而,在監督委員會受理此案之前,Meta公司並沒有從其數據庫中刪除該漫畫。
自動化可以放大一個錯誤審核的影響
這一事實讓監督委員會感到不安。"決定說:"通過使用自動化系統來刪除內容,媒體匹配服務銀行可以放大個別人工審查員的錯誤決定的影響。一個反應更快的系統可以通過在具有該圖像的個別帖子被成功上訴時觸發銀行的審查來解決這個問題。否則,基於一個錯誤決定而被禁止的圖片可能會一直被無限期地秘密禁止,即使個別審查人員後來得出不同的結論。"
這是監督委員會質疑Facebook和Instagram的自動審核是否經過足夠的校準以避免過度攻擊正常內容的多個案例之一,和以前的案例一樣,監督委員會希望有更多的方法。"董事會特別關註的是,Meta公司沒有衡量媒體匹配服務庫對特定內容政策的準確性,"它指出。"沒有這些數據,而這些數據對改善這些庫的工作方式至關重要,該公司無法判斷這項技術是否對某些社區標準比其他標準更有效。"
監督委員會要求Meta公司公佈被錯誤地納入匹配庫的內容的錯誤率。按照委員會建立時聲明的原則慣例,Meta公司必須對該建議作出回應,但它可以選擇是否實施。
Meta公司對贊美極端主義團體的懲罰"不明確且嚴厲"
監督委員會還處理考驗Facebook在支持極端主義團體和報道極端主義團體之間界限的眾多事件之一。委員會認定,Meta公司刪除一篇報道塔利班重新為婦女和女孩開設學校和學院的烏爾都語Facebook帖子是錯誤的。該規則禁止"贊美"塔利班等組織,因此該帖子被撤下。該帖子在上訴後被轉到一個特殊的審核隊列中,但實際上從未被審核過--監督委員會指出,當時,Facebook分配給該隊列的講烏爾都語的審核員不到50人。
委員會說,這個案例"可能表明"關於危險組織的規則存在更廣泛的問題。在發生幾起事件後,它說該政策對用戶和版主來說都顯得不明確,而且對違反規則的懲罰"不明確而且很嚴厲"。它要求對"贊揚"危險人物有一個更明確和更狹窄的定義,並將更多版主投入到審查隊列中。
同時,監督委員會正在就兩個案件征求公眾意見。第一個是關於尼日利亞教堂大規模槍擊事件的視頻,該視頻因違反Meta的"暴力和圖片內容"政策而被禁止,但可能具有新聞價值,應該有理由保留它。同樣,它對是否應該允許一段描述印度性侵犯的視頻,以提高人們對種姓和性別暴力的認識,或者其對非自願觸摸的生動描述是否具有內在的危害性感興趣。這兩個案件的評論窗口將於9月29日關閉。