美國大多數州組成的聯盟起訴社交媒體巨頭Meta公司,指控其非法收集兒童賬戶信息,並堅持采用傷害未成年人精神健康的算法。根據最新公佈的法庭文件,至少從2019年開始,Meta就故意拒絕關閉13歲以下兒童的大部分賬戶,同時在未經父母同意的情況下收集他們的個人信息。
此外,Meta明知其算法損害未成年人心理健康,但拒絕更改其算法,表示這會觸發年輕用戶間歇性釋放多巴胺,導致其在平臺上的上癮性消費循環。該公司還被指控淡化平臺上錯誤信息、仇恨言論、歧視和其他有害內容的發生率。
這項起訴要求法院下令禁止Meta從事上述違法行為。Meta旗下擁有Facebook和Instagram兩大社交平臺,涉及數百萬青少年和兒童用戶,因此民事處罰可能高達數億美元。大多數州對每次違規行為處以1000至50000美元的罰款。
不尋常的大規模起訴
10月24日,美國33個州提起聯合訴訟,指控Meta故意在Facebook和Instagram中加入傷害未成年用戶的成癮性功能。哥倫比亞特區和另外8個州當天分別對Meta提起訴訟,其中大部分起訴內容相同。如此多的州聯合起來起訴一傢科技巨頭損害消費者利益,這是不尋常的舉動,顯示美國各州正在優先考慮兒童和網絡安全問題。
“Meta故意在其平臺上設計具有操控性的功能,讓兒童沉迷於其平臺,同時降低他們的自尊,從而從兒童的痛苦中獲利。”紐約州總檢察長利蒂西亞·詹姆斯(Letitia James)在一份聲明中表示,“包括Meta在內的社交媒體公司造成全國青少年的心理健康危機,他們必須承擔責任。”
這波范圍廣泛的訴訟基於2021年以來美國兩黨、多州調查的結果,此前Facebook舉報人弗朗西斯·豪根(Frances Haugen)提供數以萬計的公司內部文件,顯示該公司如何知道其產品可能會對年輕人的精神健康產生負面影響。
盡管起訴書長達兩百多頁,但各州引用的大部分證據都因最初提交的文件中的刪改而被刪除。當地時間11月26日晚,新提交的未密封起訴書提供各州訴訟的新細節,讓外界得以解更多詳情。
來自33個州的總檢察長指控Meta在2019年初至2023年中從父母、朋友和在線社區成員那裡收到超過100萬起Instagram上存在13歲以下用戶的投訴,但“Meta僅禁用其中一小部分帳戶”。
根據起訴書,Meta違反一系列州級消費者保護法規以及《兒童在線隱私保護規則》(COPPA),該規則禁止公司在未經父母同意的情況下收集13歲以下兒童的個人信息。每次違反該法律的罰款最高可達50000 美元以上。
“在公司內部,Meta實際知道數百萬Instagram用戶年齡在13歲以下,這是一個公開的秘密,並會定期記錄、嚴格分析和確認,並積極保護不向公眾披露。”起訴書稱。
根據法庭文件,Meta自己的記錄顯示,數十萬青少年用戶每天花費超過5個小時時間在Instagram上。一位Meta產品設計師在一封內部電子郵件中寫道,“年輕人是最好的”,“希望人們在年輕時盡早為你服務”。
在2019年的一個案例中,Meta員工在電子郵件中討論為什麼公司沒有刪除屬於一名 12歲女孩的4個賬戶,盡管女孩的母親提出要求,並且“投訴說她女兒隻有12歲”。員工得出的結論是,這些賬戶被“忽略”,部分原因是Meta代表“無法確定用戶是否未成年”。
“Instagram的使用條款禁止13歲以下(在某些國傢或地區為13歲以上)的用戶,我們已采取措施,在發現這些賬戶後將其刪除。然而,驗證網絡上人們的年齡是一項復雜的行業挑戰。”Meta在11月26日的一份聲明中告訴CNN,“例如,許多人——尤其是13歲以下的人——沒有身份證件。這就是 Meta支持聯邦立法的原因,該立法要求應用商店在16歲以下的青少年下載應用程序時必須獲得父母的批準。通過這種方法,不需要讓父母和青少年向數百個單獨的應用程序提供政府發放的身份證件等敏感信息來驗證他們的年齡。”
“對商業模式有價值”
起訴書還稱,Meta知道其算法可能會引導兒童接觸有害內容,從而損害他們的健康。根據文件中引用的公司內部通訊,員工寫道,他們擔心“IG(Instagram)上的內容會引發青少年的負面情緒並影響他們的心理健康(以及)我們的排名算法將(他們)帶入負面的螺旋和反饋循環,很難退出。”
例如,起訴書稱,Meta研究人員在2021年7月進行一項研究,得出的結論是Instagram的算法可能會放大負面的社交比較,並且“內容可能會導致用戶對自己的身體或外表感覺更糟”。在訴訟中引用的2021年2月的內部電子郵件中,Meta員工據稱認識到社交比較與在Meta的社交媒體平臺上“花費更多時間有關”,並討論這種現象如何“對Instagram的商業模式有價值,同時對少女造成傷害。”
在2021年3月針對飲食失調內容的內部調查中,Meta團隊對賬戶名提及饑餓、瘦弱和飲食失調的用戶進行跟蹤。起訴稱,Instagram的算法隨後開始生成推薦帳戶列表,“其中包括與厭食癥相關的帳戶”。
然而,Meta全球安全主管安提戈涅·戴維斯(Antigone Davis)於2021年9月在國會作證時稱,Meta不會“引導人們觀看宣揚飲食失調的內容。這實際上違反我們的政策,我們會在發現後刪除該內容。我們實際上使用人工智能來查找此類內容並將其刪除。”
起訴書稱,Instagram的高級領導層也知道有問題的內容對該平臺來說是一個關鍵問題。據稱,Instagram的負責人亞當·莫塞裡(Adam Mosseri)在一封內部電子郵件中寫道,“社交比較之於Instagram,就像選舉幹預之於Facebook。”
然而,盡管該公司的內部研究證實對其平臺上的社交比較的擔憂,但起訴書稱Meta拒絕改變其算法。一名員工在訴訟中引用的內部通訊中指出,煽動負面外觀比較的內容“是(在探索頁面上)最具吸引力的內容之一,因此這個想法與許多其他團隊的首要措施背道而馳。”與此同時,“Meta的外部溝通否認或掩蓋其推薦算法向年輕用戶推廣極負面的外觀比較內容的事實。”起訴書稱。
根據訴訟中引用的內部文件,Meta還意識到其推薦算法“會觸發年輕用戶間歇性的多巴胺釋放”。其演示文稿稱,“當涉及到‘感覺良好’的多巴胺效應時,青少年是永不滿足的”,該公司的現有產品已經非常適合提供能夠觸發這種強效神經遞質的刺激。“每當我們的青少年用戶發現一些意想不到的東西時,他們的大腦就會分泌出多巴胺。”
Meta在一份聲明中回應稱:“我們希望青少年能夠獲得安全、適合年齡的在線體驗,我們有30多種工具來支持他們及其父母。”“我們花十年的時間來解決這些問題,並聘請致力於保護年輕人安全和在線支持的人員。該起訴使用選擇性引用和精心挑選的文件來歪曲我們的工作。”
淡化錯誤信息、仇恨言論發生率
起訴書還稱,Meta可能大大淡化其平臺上錯誤信息、仇恨言論、歧視和其他有害內容的發生率。
起訴書指控Meta創建名為“社區標準執行報告”(CSER)的季度報告,該報告宣稱其平臺上社區標準違規率較低,但排除用戶體驗調查中的關鍵數據,這些數據證明用戶遇到有害內容的比率要高得多。
例如,Meta表示,根據其CSER報告中2020年7月至9月的數據,其平臺上每10000次內容瀏覽中隻有10或11次包含仇恨言論,即比例約為0.10%至0.11%。
但起訴書稱,幾個月前Meta的一項名為“誠信問題追蹤范圍調查”(TRIPS)的內部用戶調查報告的仇恨言論水平明顯更高。根據2020年5月的TRIPS報告,平均有19.3%的Instagram用戶和17.6%的Facebook用戶投訴稱,在平臺上目睹仇恨言論或歧視。平均有12.2%的Instagram用戶和16.6%的Facebook用戶投訴稱,在這些平臺上看到過暴力圖片,超過20%的用戶目睹欺凌和騷擾。
Meta將圖片暴力定義為“在Facebook和Instagram上美化暴力或慶祝他人遭受痛苦或羞辱的內容”,並指出欺凌和騷擾“本質上是高度個人化的”,因此“使用技術主動檢測這些行為可能比檢測其他類型的違規行為更具挑戰性”。
Meta的一位發言人通過電子郵件告訴“商業內幕”,從這些調查中收集的數據並沒有真正衡量“流行度”(Meta將其定義為違規內容的觀看次數占總觀看次數的百分比)。相反,該公司利用這些調查中的信息來開發新功能,例如有關傷害性評論或內容的通知或善意提醒,鼓勵人們在與不認識的人接觸時保持尊重態度。