公平衡量:MIT研究人員稱機器學習的可解釋性充滿偏見


麻省理工學院(MIT)的科學傢們,在近期的一篇新論文中提到——幫助用戶確定機器學習模型的預測是否可信的方法,對弱勢群體來說可能不太準確。由於解釋方法可能存在長期偏見,弱勢群體面臨的結果或變得更加糟糕。

研究配圖 - 1:非公正全局解釋示例(arXiv)

使用機器學習算法的時候,有時會造成相當高的風險 —— 比如通過模型來預測哪些候選認更有可能通過法律考試,然後在讓校方在招生時優先錄取哪些學生。

即使理想很豐滿,但現實往往有些骨感 —— 這些復雜模型動輒涉及數百萬個參數,而 AI 研究人員幾乎不可能完全解其運作機理。

研究配圖 - 2:神經網絡黑箱模型模擬

此外科學傢有時也會通過創建預測的簡單近似模型來簡化解釋,但這些易於理解的近似值,是否又能夠公平承托所有人的信任呢?

假設某種解釋方法讓男性獲得較女性更優的近似值、或讓白人較有色人種更具優勢,這種情況就會在兩組對照時產生潛在的巨大差異。

研究配圖 - 3:有無健壯訓練子組之間的保真度差距

實踐中,這意味著如果女性申請人的近似質量較低,則解釋與模型之間的預測可能存在不匹配,進而導致招生官員錯誤地回絕更多女性候選認。

為解這些公平差距到底有多普遍,MIT 研究人員嘗試多種技術來平衡競爭環境。但這麼做隻能適當縮小一些差距,而無法徹底根除。

研究配圖 - 4:即使底層黑箱足夠公正,非零保真差距仍存在。

研究一作、MIT 計算機科學與人工實驗室(CSAIL)健康機器學習小組研究生 Aparna Balagopalan 表示:

在現實世界中,這意味著人們可能會錯誤地相信某些子群(而不是其它子群)的預測。

正因如此,解釋模型的改進、以及將相關細節傳達給最終用戶,也顯得同樣重要。

隻有解到這些差距的存在,用戶才會更加平和地接受並調節其對結果的預期。

研究配圖 - 5:決策保真差的神經網絡模擬

研究人員發現,所有數據集和解釋模型都存在明顯的保真度差距。若是群體的保真度通常要低得多,某些情況下可能高達 21% 。

研究配圖 - 6:黑箱與解釋模型之間的 DP 差距與剩餘誤差

數據集在種族子組之間的保真度差距,近似值的平均錯誤率也高出 7% 。假如有 10000 名申請者,那很大一部分可能被錯誤地拒絕。

研究配圖 - 7:更少特征的稀疏模型的局部跨子組保真度差距

Ghassemi 補充道,他們對這些普遍存在於所有評估數據集中的保真度差距感到震驚,但也很難過分強調如何對相關機器學習模型進行修飾。

研究配圖 - 8:稀疏模型往往有著更大的平均逼近誤差

在確定保真度的差距後,研究人員嘗試訓練解釋模型,以解其識別數據集中可能容易出現低保真度的區域,然後對這些樣本給予更高的關註度。

研究配圖 - 9:保真度差距與準確性,在一系列抽樣方差中持續存在。

此外他們嘗試使用所有子組的相同數量樣本的平衡數據集,這些強大的訓練策略確實減少一些保真度差距,但終究還是無法徹底消除。

研究配圖 - 10:有無健壯 LIME 和基於樹的模型訓練子組之間的差距

研究人員隨後修改解釋模型,以探索為何會凸顯保真度差距。分析表明,解釋模型可能會間接地使用受保護、甚至隱藏的群體信息(比如性別或種族標簽)。

研究配圖 - 11:解釋保真度與組間決策準確性差距的正相關性

最後,MIT 研究人員希望能夠在未來的工作中深入探索相關難題,並且計劃進一步研究真實世界決策背景下的保真度差距的影響。


相關推薦

2023-11-26

習的基礎問題(也即這份研究關註的核心問題)便成:為衡量表征的優劣,有什麼有數學原理保證且有效的衡量方法?從概念上講,表征 z 的質量取決於它為後續任務找到 x 的最相關和充分信息的程度以及它表示該信息的效率。

2023-03-03

承諾而獲獎的。該獎學金項目旨在表彰計算機科學和工程研究人員在研究生和研究生階段的貢獻。今年一共有22位學生入選,其中11位是華人博士生。Yutong BaiYutong Bai是約翰霍普金斯大學計算機科學博士四年級學生,主修計算機視

2022-09-15

配體相互作用方面的預測能力較弱,並證明需要使用基於機器學習的方法進行建模來提高模型性能,以更好地利用AlphaFold2 進行藥物發現。該論文“Benchmarking AlphaFold-enabled molecular docking predictions for antibiotic discovery”發表在Molecular

2022-09-29

的軟件。IARPA 在一份 PDF 文檔中指出:“每一天,人類和機器都會生成大量的文本內容,而其中就包含可揭示作者身份的語言特征”。ONDI 表示,有正確的模型,IARPA 相信它能夠識別不同樣本中的作者風格一致性。當然這項技術

2023-04-18

為《ChatGPT能否解讀美聯儲表態?》,兩名來自美聯儲的研究人員發現,在識別美聯儲聲明是鴿派還是鷹派方面,ChatGPT與人類最為接近。裡士滿聯儲的Anne Lundgaard Hansen和Sophia Kazinnik通過研究顯示,ChatGPT擊敗常用的谷歌模型BERT,

2023-03-25

時還能讓用戶更信任自動駕駛技術。而對於算法工程師和研究人員來說,當發生極端情況時、或者發生故障(比如判斷錯誤)時,ADAPT可以幫助他們獲得更多信息,進而改進算法。作者們將進一步研究如何在模擬器和實際車輛上

2023-02-27

模型架構,它在自然語言處理領域中得到廣泛的應用,如機器翻譯、文本分類和生成模型等。GPT是基於Transformer模型的改進版本,主要是針對生成任務進行優化,通過預訓練學習自然語言的語義和語法規律,進而生成高質量的文

2024-03-04

麻省理工學院的一組研究人員利用人工智能來緩解交通擁堵,他們將這一領域的想法應用於解決倉庫中多個機器人的問題。通過將難以解決的問題分解成更小的塊,一種深度學習技術確定倉庫中疏導流量的最佳區域。在一個巨大

2023-02-17

模型,並將它們免費發佈給任何想要研究和改進該技術的研究人員。Meta構建並給出OPT,這是GPT-3的重構。Hugging Face領導一個由大約1000名志願研究人員組成的聯盟來構建和發佈BLOOM。OpenAI工作人員和Dota 2電子競技團隊OG的成員一起

2024-03-17

利用機器學習算法,研究人員可以預測可能幹擾藥物療效的相互作用。任何口服藥物都必須通過消化道內壁。消化道內壁細胞上的轉運蛋白有助於完成這一過程,但對於許多藥物來說,它們是通過哪種轉運蛋白進入消化道的還不

2022-08-13

,匯集計算機科學、神經生物學、經濟學、哲學等多學科研究人員,谷歌前首席執行官Eric Schmidt等為其顧問團隊成員。可以看出,收到科研資金最多的是美國國傢科學基金會(NSF)和能源部,未來5年內至少能獲得810億美元和679

2023-03-29

它們是:安全性、保障性和穩健性;透明度和可解釋性;公平性;問責制和治理;以及可競爭性和補救。政府沒有制定新的法規,而是呼籲監管機構應用現有的法規,並告知公司他們在白皮書中的義務。它已責成衛生和安全局、

2023-04-13

率低於1%。ChatGPT在人類情緒得分方面也擊敗商業數據集。研究人員表示,論文中的一個例子是關於一傢公司解決訴訟並支付罰款的標題,使用一種負面情緒,但ChatGPT的反應正確地認為這實際上是好消息。裡拉稱,已經有對沖基

2022-09-29

大約在今年年初,卡內基-梅隆大學的研究人員使用機器人系統又進行幾十次實驗,以創造能讓鋰離子電池更快充電的電解質。這是廣泛采用電動汽車的一個主要障礙。他們研發的Clio系統,包括自動泵、閥門和儀器,將各種化學