當今最熱的科技話題非AI莫屬。但是,並非所有人都對此滿懷期待。據媒體的最新曝光,兩名前Google員工表達他們對公司發佈新的AI聊天機器人的擔憂。今年3月,兩名負責審查AI產品的Google員工試圖阻止該公司推出自己的AI聊天機器人,他們認為該技術會產生“不準確和危險的陳述”。
幾個月前,微軟的倫理學傢也提出類似的擔憂。他們認為,這種AI聊天機器人將令用戶批判性思維的退化,同時可能會充斥虛假信息和侵蝕“現代社會的事實基礎”。
盡管如此,微軟依然在2月發佈其集成在Bing搜索引擎的聊天機器人;一個月後,Google在3月底發佈其Bard聊天機器人。
有媒體分析稱,這些通常在規避風險方面十分謹慎的大公司之所以在AI領域不管不顧地采取激進的舉措,是為在下一場可能的科技競賽中占得先機。
根據多名員工及內部文件的闡述,ChatGPT的驚人成功導致微軟和Google願意承擔更大的風險。微軟技術主管Sam Schillace上個月發送的一封內部電子郵件稱,第一個推出相關產品的公司將是長期贏傢,有時候兩傢公司的差距僅僅以周為單位。
自發佈以來,圍繞這些AI機器人的倫理爭議就持續不斷。包括馬斯克在內的1000多名技術領域的研究人員和意見領袖不久前發佈一封公開信表達對AI帶給社會影響的擔憂,他們呼籲放慢相關技術的發展步伐。
監管機構已經準備對AI技術進行幹預。歐盟提議立法監管人工智能,意大利上周暫時禁止ChatGPT。在美國,白宮和國會也在尋求對AI更強有力的監管。
更令外界擔憂的是,上個月底,微軟、Meta、Google、亞馬遜和Twitter等公司都裁減“負責任的人工智能團隊”成員,這些團隊主要為使用人工智能的消費產品的安全性提供建議。
業內專傢對此表示,各大科技公司裁減相關人員的決定令人擔憂,因為隨著越來越多的人開始試用新的人工智能工具,人們發現這項技術可能被濫用。在OpenAI推出ChatGPT並取得成功後,人們的這種擔憂進一步加劇。
Google旗下人工智能研究公司DeepMind的前倫理和政策研究員、研究機構Ada Lovelace Institute副主任Andrew Strait稱:
令人震驚的是,現在可以說是比以往任何時候都需要更多這類團隊的時候,但這些團隊的成員被解雇。
今年1月,微軟解散其“道德和社會”團隊,該團隊領導微軟在相關領域的早期工作。微軟表示,裁員人數不到10人,公司負責人工智能的辦公室仍有數百人在工作。
微軟人工智能業務主管Natasha Crampton稱:
我們已經顯著增加‘負責任的人工智能’努力,並努力在整個公司范圍內將其制度化。