研究機構警告:人工智能的興起隻會讓科技巨頭變得更強大


4月26日消息,高昂的人工智能技術開發成本,致使許多初創公司需要依賴微軟或亞馬遜等大型科技公司的雲平臺來開發相應產品。研究組織AINow表示,這種狀況隻會讓大型科技公司越發強大。當下,急需立即解決這種不平衡的問題。

成立於2017年的研究組織AI Now上周發佈一份報告,詳細介紹大型科技公司對人工智能發展的影響,認為人工智能發展“從根本上依賴”大型科技公司所控制的數據和計算能力等資源。

報告稱,圍繞人工智能發展的很多說法都來自大型科技公司,比如人工智能需要不受限制的創新來造福社會,以及人工智能發展關系社會進步等等。AI Now認為,這種說法對大公司有利,甚至影響許多政策制定者對技術的看法。

“如果我們想在科技行業開展任何有意義的改革,我們需要首先從直面影響力的集中開始,”AI Now董事總經理莎拉·邁爾斯·韋斯特(Sarah Myers West)。

對於人工智能研發工作而言,支撐整個系統的數據模型需要密集開發和巨大算力才能發揮作用。

好消息是,開發這些數據模型的工具、資源和算力都是現成的,這導致近期各種人工智能出現爆發式增長,諸如OpenAI的人工智能聊天機器人ChatGPT以及Runway的文本和視頻編輯器等工具層出不窮。

但壞消息是,支持這些人工智能的基礎設施以及巨大算力都集中在少數大公司手中,這種繁榮隻會助長他們的影響力。幾乎所有能想到的人工智能工具都依賴於雲服務,比如亞馬遜AWS、微軟Azure或谷歌Cloud,或者三者間的某種組合。

實際上,即使人工智能初創公司與這些科技公司存在競爭關系,也在為這些大科技公司的利潤做出貢獻。初創公司使用主要雲平臺的次數越多,向競爭對手支付的費用就越多。

這種狀況表明,雖然人們一直擔心大型科技公司的壟斷,但人工智能的崛起隻會讓他們變得更強大。

對於人工智能研發工作而言,支撐整個系統的數據模型需要密集開發和巨大算力才能發揮作用。

人工智能的競爭不平衡

這種現狀帶來的一個嚴重問題是,大型科技公司正在與這些規模較小的初創公司展開正面競爭。不同之處在於,大型科技公司可以訪問外人無法獲得的資源和數據。韋斯特將這一概念稱為“看門人控制”。

例如,微軟曾警告Azure雲服務客戶,他們不能使用必應搜索引擎的數據來訓練人工智能。但微軟及其在人工智能領域的合作夥伴OpenAI正在使用這些數據開發新產品。

人工智能市場存在著激烈競爭。在ChatGPT走紅幾個月後,OpenAI發佈最新版的GPT旗艦模型,為的是強化領先優勢。這使得谷歌不得不倉促發佈自傢人工智能技術,來阻止微軟整合人工智能新必應的崛起。

韋斯特說,有一種方法可以鼓勵競爭,減少人工智能技術發展對大型科技公司的依賴。

“如果說我們從過去10年對大型科技公司的鬥爭中學到什麼,那就是我們不能讓公司成為這場對話的領導者,”她說,“要由監管機構和公眾來定義人工智能的未來。”

AI Now提出幾項政策方面的建議,阻止大型科技公司進一步強化固有地位。其中之一是數據最小化的概念,也就是允許公司隻收集必要數據,而不是大量數據。大型科技公司通常擁有的數據最多,而且在大多數情況下,它們擁有能利用這些數據的計算能力。

韋斯特表示,更好執行反壟斷法,並將競爭與隱私概念聯系起來,可能會限制大型科技公司的發展規模。一旦這些都到位,就能為其他公司提供一個更公平的競爭環境。

韋斯特表示:“我們要通過加強競爭執法來實現這一目標,好消息是競爭監管機構正在關註這一問題。”(辰辰)


相關推薦

2024-03-13

制!”他進一步指出,“如果問題僅僅是TikTok,那麼或許隻會提及‘外國控制’的問題,但事實並非如此。”本周一,特朗普表示,封禁TikTok將利好Facebook和Instagram的母公司Meta。特朗普的社交媒體應用TruthSocial與Instagram存在競爭

2024-03-14

更強大。這兩點是相互矛盾的。”對此,美國戰略與國際研究中心 (CSIS) 的研究員Caitlin Chin-Rothmann表示:“任何收購TikTok的公司都必須擁有非常充足的資源,而且必須非常有錢,也能夠在收購TikTok時獲得戰略方面的利益,同時不

2023-05-08

據美國《紐約時報》網站5月1日報道:人工智能之父離開谷歌並警告未來的風險被視為人工智能(AI)之父的傑弗裡·欣頓周一宣佈離開谷歌。欣頓博士和他在加拿大多倫多大學的兩名研究生在2012年創造一項技術,該技術成為人工智

2024-03-20

提出將訂閱價格從9.99歐元降至5.99歐元,以解決歐洲監管機構的擔憂。Meta的律師TimLamb在歐盟委員會聽證會上表示:一段時間以來,我們一直想加快這一進程,因為我們需要達到穩定的狀態。 因此,我們提出將單個賬戶的價格從

2023-04-16

鳳凰網科技訊 北京時間4月16日消息,盡管人工智能(AI)技術的主流應用令人興奮不已,但是如果不加以約束,一些科幻小說式的場景也會成為噩夢。AI安全專傢、AI安全中心主任丹亨德裡克斯(Dan Hendrycks)在最近撰寫的一篇論文中強

2023-04-06

美國總統拜登周二表示,人工智能(AI)的安全性仍然存在諸多不定因素,因此,科技公司有責任確保其產品在公開之前是安全的。在白宮當天的科技團隊會議上被問及人工智能是否危險時,拜登回答:“還有待觀察。有可能。”

2024-02-20

網站來說“有得有失”,AI 呢?但現在,像 OpenAI 這樣的人工智能公司提取網絡數據,是為訓練大語言模型,這些模型可能會再次從根本上改變我們訪問和共享信息的方式。現代互聯網通過下載、存儲、組織和查詢的能力,為任

2023-06-11

,最近一段時間,一些研究人員和行業領袖不斷警告稱,人工智能(AI)可能會對人類的生存構成威脅。但是,對於AI究竟如何摧毀人類,他們並未詳談。上個月,AI領域的數百名知名人士聯合簽署一封公開信,警告AI有朝一日可

2023-05-17

有趣的一幕發生。今天上午,在美國國會針對人工智能監管的聽證會開始時,參議員理查德·佈盧門撒爾(RichardBlumenthal)“講”一段宣言。他的聲音在大廳裡響起:“我們經常看到技術超過監管時會發生什麼。會加深對個人數

2023-03-30

不會。但無論如何,都有很多值得擔心的事情。”近日,人工智能領域內的“叛逆者”、紐約大學心理學和神經科學榮譽教授GaryMarcus發文稱,“我們需要停止擔心機器人接管世界,而是更多地考慮那些壞人可能會利用LLMs做什麼

2023-04-02

級和高效版本的LAMDA模型上,這是一個專註於提供對話的人工智能語言模型。在某些方面,我覺得我們把一輛改裝過的思域汽車放在與更強大的汽車的比賽中。相比之下,PaLM模型規模更大,Bard在處理常識推理和編程問題等任務

2023-04-18

,OpenAI的聊天機器人ChatGPT可謂是功能強大,引起人們對人工智能的極大興趣和投資。但該公司的CEO薩姆·奧爾特曼(SamAltman)認為,現有研究策略已經失效,未來的AI進步需要新的思路。近年來,OpenAI通過將現有的機器學習算法擴

2023-02-17

的網站HuggingFace取下之前被下載1500次。一個人利用生成性人工智能在網上產生如此大規模的活動的能力,揭示人們在沒有強大資源的情況下輕松發動影響力行動的潛力。該論文還指出,可以使用目標數據來訓練模型,包括修改模

2023-03-03

一年裡,類似的場景在不斷上演,比如最近爆火的生成式人工智能(AIGC)工具,這些工具可以產生看起來和感覺上都像是人類創造的文本、圖像、聲音和視頻。OpenAI和Stability AI等初創公司將自己的產品推向公眾,引起一波營銷