北京時間7月1日消息,多年來,谷歌、Facebook等科技巨頭投入數十億美元研發人工智能(AI),大肆宣傳它的潛力。但是現在,研究人員表示,是時候重新設定對AI的期望值瞭。
誠然,AI技術開發近期取得瞭一定的飛躍。企業已經開發出瞭更多的AI系統,可以產生看起來像人類的對話、詩歌和圖像。然而,AI倫理學傢和研究人員警告稱,一些企業正在誇大AI的能力,這種炒作正在制造廣泛的誤解,並扭曲政策制定者對AI力量和不可靠性的看法。
“我們失去瞭平衡。”西雅圖非營利研究機構艾倫人工智能研究所CEO奧倫·埃齊奧尼(Oren Etzioni)這麼說。埃齊奧尼和其他研究人員指出,這種失衡有助於解釋為何谷歌工程師稱AI有知覺的說法讓許多人搖擺不定。
谷歌工程師佈萊克·萊莫恩(Blake Lemoine)基於他的宗教信仰提出,該公司的一個AI系統應該被視為有感知能力。他聲稱,AI聊天機器人實際上已經成為瞭一個人,有權決定是否允許在它上面做實驗。谷歌隨後對他進行停職處理,並駁回瞭他的說法。谷歌表示,公司倫理學傢和技術專傢已經研究過這種可能性,並駁回瞭他的說法。
聲稱AI有知覺的萊莫恩
研究人員表示,在更廣泛的科學界,AI正變得有意識或可能有意識的看法仍然處於邊緣地位。
從現實來看,AI涵蓋的一系列技術在很大程度上依舊對一系列平淡無奇的後臺後勤工作有幫助,比如處理來自用戶的數據,以便更好地向用戶投放廣告、內容,進行產品推薦。
大力投入和宣傳
過去10年,谷歌、Facebook母公司Meta以及亞馬遜等公司投入瞭大量資金來提高此類能力,以驅動它們的增長和利潤引擎。例如,谷歌使用AI更好地解析復雜的搜索提示,幫助它提供相關廣告和網絡結果。
一些創業公司還萌發瞭更宏偉的雄心。其中一傢公司名為OpenAI,它從特斯拉CEO埃隆·馬斯克(Elon Musk)和微軟公司等捐贈者和投資者那裡籌集瞭數十億美元,旨在實現所謂的通用AI,也就是能夠匹配或超越人類智能每一個維度的系統。一些研究人員認為,這即使不是無法實現,也是幾十年後的事情。
這些公司為瞭超越對方而展開的競爭推動瞭AI的快速發展,並催生瞭越來越多引人註目的演示。這些演示抓住瞭公眾的想象力,吸引瞭人們對這項技術的關註度。
OpenAI的DALL-E系統可以根據用戶提示生成藝術品,例如“土星軌道上的麥當勞”或“穿著運動裝備參加鐵人三項的熊”,最近幾周在社交媒體上引發瞭許多表情包。隨後,谷歌仿效DALL-E系統推出瞭自己的基於文本的藝術品生成系統。
盡管這些成果十分驚人,但越來越多的專傢警告稱,企業沒有適當控制宣傳。
瑪格麗特·米切爾(Margaret Mitchell)曾是谷歌倫理AI團隊的共同負責人,在撰寫瞭一篇關於谷歌系統的批評論文後被解雇。她表示,谷歌向股東宣傳的一個賣點是,它在AI方面是世界上最好的。
AI的局限性
米切爾目前在一傢名為Hugging Face的AI創業公司工作,她和谷歌另一位AI倫理聯合負責人蒂姆尼特·格佈魯(Timnit Gebru)是最早對AI危險性提出警告的人之一。格佈魯也被谷歌解雇。
根據他們在谷歌任職時寫的最後一篇論文,他們認為這些技術有時會造成傷害,因為它們的類人能力意味著它們和人類一樣有失敗的可能性。例如,Facebook的AI系統誤譯瞭阿拉伯語的“早上好”,把它翻譯成英語時變成瞭“傷害他們”,翻譯成希伯來語時變成瞭“攻擊他們”,導致以色列警方逮捕瞭發佈這一問候語的巴勒斯坦男子,隨後才意識到錯誤。
去年曝光的Facebook內部文件也顯示,Facebook的AI系統無法一直識別第一人稱射擊視頻和種族主義言論,隻刪除瞭一小部分違反公司規定的內容。Facebook則表示,AI技術的提升大幅減少瞭仇恨言論和其他違反其規定的內容。
理想與現實的差距
理想很豐滿,現實很骨感。埃奇奧尼和其他人提到瞭IBM圍繞著沃森系統展開的營銷。沃森是IBM開發的AI系統,因為在智力競賽節目《危險邊緣》中打敗人類而聲名大噪。然而,經過10年和數十億美元的投資後,IBM在去年表示,正在研究出售沃森健康業務的可能性,該部門的主要產品本應幫助醫生診斷和治療癌癥。
由於AI現在已經無處不在,並涉及更多的公司,它們開發的軟件包括電子郵件、搜索引擎、新聞推送、語音助手,已經滲透到我們的數字生活中,所以它的風險就更大瞭。
谷歌發言人佈萊恩·加佈裡埃爾(Brian Gabriel)在否認AI有知覺的說法時稱,該公司的聊天機器人和其他對話工具“可以即興談論任何虛幻的話題”。“如果你問一隻冰淇淋恐龍是什麼樣子的,他們可以生成關於融化和咆哮等內容的文本,這與感知不同。”他表示。
AI認知差距滲透到政府政策
佈朗大學研究AI政策的計算機科學博士生伊麗莎白·庫馬爾(Elizabeth Kumar)表示,這種認知差距已經悄悄滲透到瞭政策文件中。
最近,地方、聯邦和國際法規和監管提案試圖解決AI系統通過歧視、操縱或以其他方式造成傷害的可能性,這些都是基於AI系統具有高度能力的假設。庫馬爾表示,他們在很大程度上忽略瞭這種AI系統“根本不起作用”造成傷害的可能性,而且這種可能性更大。
埃齊奧尼也是拜登政府的國傢人工智能研究資源特別工作組的成員。他指出,政策制定者往往難以把握這些問題。“從我和他們中的一些人的交談來看,我可以告訴你,他們的出發點是好的,問的問題也很好,但他們並非對一切瞭如指掌。”他表示。(作者/簫雨)