科技巨頭幾百億研發AI被質疑吹噓:曾擊敗人類的AI要被賣瞭


北京時間7月1日消息,多年來,谷歌、Facebook等科技巨頭投入數十億美元研發人工智能(AI),大肆宣傳它的潛力。但是現在,研究人員表示,是時候重新設定對AI的期望值瞭。

誠然,AI技術開發近期取得瞭一定的飛躍。企業已經開發出瞭更多的AI系統,可以產生看起來像人類的對話、詩歌和圖像。然而,AI倫理學傢和研究人員警告稱,一些企業正在誇大AI的能力,這種炒作正在制造廣泛的誤解,並扭曲政策制定者對AI力量和不可靠性的看法。

“我們失去瞭平衡。”西雅圖非營利研究機構艾倫人工智能研究所CEO奧倫·埃齊奧尼(Oren Etzioni)這麼說。埃齊奧尼和其他研究人員指出,這種失衡有助於解釋為何谷歌工程師稱AI有知覺的說法讓許多人搖擺不定。

谷歌工程師佈萊克·萊莫恩(Blake Lemoine)基於他的宗教信仰提出,該公司的一個AI系統應該被視為有感知能力。他聲稱,AI聊天機器人實際上已經成為瞭一個人,有權決定是否允許在它上面做實驗。谷歌隨後對他進行停職處理,並駁回瞭他的說法。谷歌表示,公司倫理學傢和技術專傢已經研究過這種可能性,並駁回瞭他的說法。

hqdefault.jpg

聲稱AI有知覺的萊莫恩

研究人員表示,在更廣泛的科學界,AI正變得有意識或可能有意識的看法仍然處於邊緣地位。

從現實來看,AI涵蓋的一系列技術在很大程度上依舊對一系列平淡無奇的後臺後勤工作有幫助,比如處理來自用戶的數據,以便更好地向用戶投放廣告、內容,進行產品推薦。

大力投入和宣傳

過去10年,谷歌、Facebook母公司Meta以及亞馬遜等公司投入瞭大量資金來提高此類能力,以驅動它們的增長和利潤引擎。例如,谷歌使用AI更好地解析復雜的搜索提示,幫助它提供相關廣告和網絡結果。

一些創業公司還萌發瞭更宏偉的雄心。其中一傢公司名為OpenAI,它從特斯拉CEO埃隆·馬斯克(Elon Musk)和微軟公司等捐贈者和投資者那裡籌集瞭數十億美元,旨在實現所謂的通用AI,也就是能夠匹配或超越人類智能每一個維度的系統。一些研究人員認為,這即使不是無法實現,也是幾十年後的事情。

這些公司為瞭超越對方而展開的競爭推動瞭AI的快速發展,並催生瞭越來越多引人註目的演示。這些演示抓住瞭公眾的想象力,吸引瞭人們對這項技術的關註度。

OpenAI的DALL-E系統可以根據用戶提示生成藝術品,例如“土星軌道上的麥當勞”或“穿著運動裝備參加鐵人三項的熊”,最近幾周在社交媒體上引發瞭許多表情包。隨後,谷歌仿效DALL-E系統推出瞭自己的基於文本的藝術品生成系統。

盡管這些成果十分驚人,但越來越多的專傢警告稱,企業沒有適當控制宣傳。

瑪格麗特·米切爾(Margaret Mitchell)曾是谷歌倫理AI團隊的共同負責人,在撰寫瞭一篇關於谷歌系統的批評論文後被解雇。她表示,谷歌向股東宣傳的一個賣點是,它在AI方面是世界上最好的。

AI的局限性

米切爾目前在一傢名為Hugging Face的AI創業公司工作,她和谷歌另一位AI倫理聯合負責人蒂姆尼特·格佈魯(Timnit Gebru)是最早對AI危險性提出警告的人之一。格佈魯也被谷歌解雇。

根據他們在谷歌任職時寫的最後一篇論文,他們認為這些技術有時會造成傷害,因為它們的類人能力意味著它們和人類一樣有失敗的可能性。例如,Facebook的AI系統誤譯瞭阿拉伯語的“早上好”,把它翻譯成英語時變成瞭“傷害他們”,翻譯成希伯來語時變成瞭“攻擊他們”,導致以色列警方逮捕瞭發佈這一問候語的巴勒斯坦男子,隨後才意識到錯誤。

去年曝光的Facebook內部文件也顯示,Facebook的AI系統無法一直識別第一人稱射擊視頻和種族主義言論,隻刪除瞭一小部分違反公司規定的內容。Facebook則表示,AI技術的提升大幅減少瞭仇恨言論和其他違反其規定的內容。

理想與現實的差距

理想很豐滿,現實很骨感。埃奇奧尼和其他人提到瞭IBM圍繞著沃森系統展開的營銷。沃森是IBM開發的AI系統,因為在智力競賽節目《危險邊緣》中打敗人類而聲名大噪。然而,經過10年和數十億美元的投資後,IBM在去年表示,正在研究出售沃森健康業務的可能性,該部門的主要產品本應幫助醫生診斷和治療癌癥。

由於AI現在已經無處不在,並涉及更多的公司,它們開發的軟件包括電子郵件、搜索引擎、新聞推送、語音助手,已經滲透到我們的數字生活中,所以它的風險就更大瞭。

谷歌發言人佈萊恩·加佈裡埃爾(Brian Gabriel)在否認AI有知覺的說法時稱,該公司的聊天機器人和其他對話工具“可以即興談論任何虛幻的話題”。“如果你問一隻冰淇淋恐龍是什麼樣子的,他們可以生成關於融化和咆哮等內容的文本,這與感知不同。”他表示。

AI認知差距滲透到政府政策

佈朗大學研究AI政策的計算機科學博士生伊麗莎白·庫馬爾(Elizabeth Kumar)表示,這種認知差距已經悄悄滲透到瞭政策文件中。

最近,地方、聯邦和國際法規和監管提案試圖解決AI系統通過歧視、操縱或以其他方式造成傷害的可能性,這些都是基於AI系統具有高度能力的假設。庫馬爾表示,他們在很大程度上忽略瞭這種AI系統“根本不起作用”造成傷害的可能性,而且這種可能性更大。

埃齊奧尼也是拜登政府的國傢人工智能研究資源特別工作組的成員。他指出,政策制定者往往難以把握這些問題。“從我和他們中的一些人的交談來看,我可以告訴你,他們的出發點是好的,問的問題也很好,但他們並非對一切瞭如指掌。”他表示。(作者/簫雨)


相關推薦

2022-07-01

經歷高管離職、暴力裁員等一系列風波後,輕松籌被傳尋求出售。近日,有消息稱輕松集團正在市場上尋求整體出售,估值為20億元,並與眾安、水滴、陽光保險等意向方多次接洽,但最終未達成收購事宜。輕松集團隨後否認,

2023-04-18

據報道,谷歌母公司Alphabet旗下AI實驗室DeepMind的CEO戴密斯·哈薩比斯(DemisHassabis)近日在接受采訪時表示,未來有一天也許AI能擁有自我意識。哈薩比斯認為:“意識到底是什麼?至今哲學傢並沒有給出明確的定義,如果指的是

2023-11-30

將GPT融入全線業務中,一度叫板Google搜索。全球幾乎所有科技大廠悉數跳入AI軍備競賽,AI初創公司不斷冒出來。盡管OpenAI是以“致力於創辦對人類有益的通用人工智能(AGI)的非營利組織”為原點創辦的,並且這個原點在這熱

2023-02-10

暴跌7.4%,市值蒸發1000億美元,成為當天股價表現最差的科技公司。而導致谷歌股價大跌的直接原因竟然是,這傢搜索巨頭剛剛發佈的AI聊天工具Bard在產品演示中出現一個信息錯誤。 (谷歌展示AI工具Bard翻車

2023-04-07

應:我們會堅決保障AI安全,絕不“偷工減料”!圖靈三巨頭之一的Bengio,昨天專門在自己的博客上寫一篇長文,解釋自己為什麼簽名贊成暫停超強AI研發。而另一巨頭LeCun一再表示,這種暫停根本就沒有必要,而且與AI末日論者

2024-03-16

還有網友展開微表情分析,認為Murati很有可能是在說謊。科技專欄作傢Brian Merchant批評道,Murati的表現“要麼是對自己公司的產品驚人的無知,要麼就是在謊言——無論哪種可能,都非常可怕!”的確,對於一個AI公司CTO來說,

2024-05-14

站長之傢(ChinaZ.com) 5月14日 消息:OpenAI於2024年5月13日推出GPT-4o模型,其中的“O”代表全能(Omni),在人機互動的自然度上取得顯著進步。GPT-4o支持多模態輸入和輸出,包括語音、視頻、圖像和代碼,能夠實時與用戶進行無縫交

2024-03-03

一擁有算力層、中間層、模型層、應用層等全棧式能力的科技公司,蘋果的入局,會在AI界開辟新天地(break new ground)嗎?在這場席卷全球的AI戰爭中,後來者蘋果有哪些得天獨厚的優勢?縱覽環球AI,微軟攜OpenAI以令諸侯,然

2023-12-03

GPT-4無法通過圖靈測試!UCSD團隊研究證明60年前AI在測試中打敗ChatGPT,更有趣的是人類在測試中的勝率僅有63%。長久以來,「圖靈測試」成為判斷計算機是否具有「智能」的核心命題。上世紀60年代,曾由麻省理工團隊開發史上

2023-08-01

快科技8月1日消息,近日杭州動物園的一隻黑熊”火,很多遊客慕名前來觀看,導致園區人流量暴增。據悉,這隻熊火起來的原因就是太像人,尤其是它經常會用後腿直立站起來,雙手自然揮動,與人類的形態毫無二致,曾被質

2023-04-11

端,而是靠不斷的發明工具。當包括馬斯克在內的上千名科技界人士請求暫停訓練比GPT-4更強大的高級人工智能、以規避其對社會和人類存在的風險之際,周鴻禕又發表相反的觀點。周鴻禕認為,不發展GPT才是最大的不安全,目

2023-02-11

在因為ChatGPT的出現籌備一場關乎未來的AI大戰。而國內的科技公司,也在努力思考著如何搭上駛向未來的船票,無論是以蹭概念,還是真產品的方式。這一切,ChatGPT是如何做到的?本文,“甲子光年”將首先回答幾個最基礎的

2022-10-11

做出預測。這是DeepMind公司用來在圍棋和國際象棋遊戲中擊敗人類的方法。如果我們看什麼會影響我們喜歡什麼,而喜歡某些東西(比如說貓咪視頻)的人更有可能繼續看東西(更多的貓咪視頻),那麼推薦系統可能會推薦貓咪

2023-02-16

研究員、數字內容技術與服務研究中心主任張樹武在接受科技日報記者采訪時表示,人們可以把ChatGPT視為繼語音、圖像視頻識別技術之後最復雜的語言識別技術突破,也是基於模式識別和深度學習的感知智能技術發展的新躍遷