談到人工智能模型在日常使用中的應用,對於萬一發生某種事故該由誰來負責有一些爭論。例如,特斯拉在過去與自動駕駛汽車有關的道路事故中反復強調,它在一些汽車中提供的能力是一種輔助技術,目的是幫助司機,而不是取代他們。然而,現在看來,歐盟(EU)正在使起訴人工智能模型制造商的損害賠償變得更加容易。
路透社報道,歐盟委員會(EC)將於周三公佈AI責任指令,以協助厘清涉及AI模型和無人機時的責任。實質上,該指令將使受害者更容易證明在與這些技術打交道或受其影響時對其生命、健康或財產的傷害,這也適用於在招聘過程中被人工智能非法歧視的人。
基本上,原告的舉證責任將通過一個稱為"因果關系推定"的過程而減少。在這一點上,原告將被要求證明,由於制造商或產品使用者沒有遵守某些要求,他們被由這些技術驅動的產品所傷害。如果這一索賠與人工智能技術有關,原告就可以在法庭上尋求賠償。
此外,原告還將能夠要求"獲取證據的權利",通過這一權利,公司將被要求提供有關"高風險人工智能系統"的信息,並確定負有責任的人員。
這項指令不僅適用於人工智能產品用戶的過失,而且如果制造商發佈的軟件更新使產品不安全,或者沒有及時修復網絡安全問題,也將適用於制造商。
雖然該指令在紙面上聽起來對被告相當嚴格,但它隻有在得到歐盟國傢和立法者的批準後才會成為法律。