OpenAI把微軟電網搞崩 GPT-6被曝25年發佈 訓練刷爆10萬張H100


GPT-5還未發佈,GPT-6已經在路上?微軟工程師曝出,為GPT-6搭建10萬個H100訓練集群,整個電網卻被搞崩。通往AGI大關,還需要破解電力難題。GPT-6也被電力卡脖子——部署十萬個H100時,整個電網發生崩潰!

就在剛剛,微軟工程師爆料,10萬個H100基建正在緊鑼密鼓地建設中,目的就是訓練GPT-6。

微軟工程師吐槽說,團隊在部署跨區域GPU間的infiniband級別鏈接時遇到困難。

Corbitt:為何不考慮直接將所有設備部署在同一個地區呢?

微軟工程師:這確實是我們最初的方案。但問題是,一旦我們在同一個州部署超過100,000個H100 GPU,電網就會因無法負荷而崩潰。


這是創業者Kyle Corbitt在社交媒體上,分享自己與一位微軟工程師關於GPT-6訓練集群項目的對話

沒想到,GPT-5還沒發,微軟就已悄悄為OpenAI開始訓練GPT-6。

同在今天,一張“OpenAI內部時間線”圖片在網上瘋轉。

圖中清晰標註出:OpenAI早在2022年8月-10月之間開始GPT-5(代號Arrakis)的訓練,2023年4月GPT-4.5(代號Gobi)在訓練中。


並且圖中顯示,GPT-6的測試,預計早在去年9月就開始!

同時,關於GPT-5(Arrakis)的一個爆料帖,也隨之浮出水面。


太長不看版

貼中爆出許多內幕消息。

比如,GPT-4.5因為能力不夠,幹脆被跳過,所以今年OpenAI會直接發GPT-5。


另外還有若幹未經證實的消息(從上圖中也可以看出),關於OpenAI手中握著的一大把模型——

比如,Arrakis/GPT-5在GPT-4不久後訓練3個月,於22年10月結束;在GPT-5之後,GPT-4.5於23年4月完成訓練。

最勁爆的消息當然就是,現在GPT-6或許已經在訓練中。


但是,GPT-5並不是AGI,因為無法解決“量子引力”問題。同理,GPT-6也不是AGI。

接下來,讓我們一一盤點下,帖子中都有哪些信息點。

最接近AGI的模型,與人類專傢不相上下

去年8月,FeltSteam最先曝出OpenAI內部正在進行一個Arrakis多模態模型的項目,遠超GPT-4,非常接近AGI。


Arrakis項目被首次提及,是名叫FeltSteam的網友最先在Reddit一個評論區中爆料稱,“Arrakis和Gobi都很酷”。



並且,他在r/singularity板塊中另一個問題下, 介紹Arrakis的一些能力。

他提到,“這是一個無所不能的模型,可以輸入文本、圖像、音頻和視頻的任何組合”。

具體來說,Arrakis更多的細節包括:

- 多模態模型

- 性能遠超GPT-4

- 接近AGI

- 幻覺發生率明顯低於GPT-4

- Altman正試圖將Arrakis作為一種工具來推銷,盡管它是有感情的

- 推理成本略低於GPT-4

- 非常優秀的自主智能體

- 訓練一般數據是合成的


與此同時,Jimmy Apples在社交媒體上曝出OpenAI內部代號Gobi的項目——大規模多模態模型。


除以上兩個項目,一個代號名為“Sunshine”的項目逐漸浮出水面。


OpenAI這些秘密進行的項目,一時間引來許多網友的猜測和討論。

隨後,FeltSteam又爆出更多的細節,Arrakis據稱有125萬億參數,大約是GPT-4的100倍,並在2022年10月完成訓練。

值得一提的是,Arrakis不是通過計算資源實現的,而是通過提高計算效率實現的。

目前,OpenAI內部也在使用Arrakis進行研究,不過整體員工水平肯定優於Arrakis。另外,與GPT-5相比,Gobi更接近GPT-4.5。

到10月,FeltSteam再一次表示,一個比GPT-4大100倍的模型即將問世。


GPT-5將在2024年年中,或在2024年第三季度發佈。

最近BussinessInsider的報道稱,知情人士透露,GPT-5或將在今年夏天發佈。與FeltSteam預測的時間幾乎吻合。


而Arrakis是GPT-5一個更強大的候選者,在多個領域具備人類水平的專業知識能力。

GPT-5不是AGI

不過,Arrakis並不符合Altman對AGI的定義,即解決“量子引力”的問題。


量子引力,又稱量子重力,是描述對重力場進行量子化的理論,屬於萬有理論之一隅;主要嘗試結合廣義相對論與量子力學,為當前物理學尚未解決的問題

但正如之前所說,Arrakis模型還是能夠達到人類專傢水平。


GPT-5和GPT-6都不是AGI

FeltSteam表示,傳說中的AGI,是Arrakis以外的東西。

但是,為什麼我們能在這麼短的時間裡,訓練出一個125萬億參數的模型呢?

理論上來說,如果訓一個1.75萬億參數模型需要4-5個月,那麼如果訓練一個大百倍的模型,應該需要幾十年。

(目前已知,GPT-4在A100集群上訓100天,但是在訓練之後,OpenAI又花幾個月時間對它微調和對齊。)


顯然,要訓125萬億參數的模型,不僅要投入原始計算資源,還要顯著提高計算效率。

用90%合成數據訓練

另一個比較值得關註的信息是,據稱Arrakis去年訓練的數據集中約90%是合成數據。


此前,外媒報道稱:

Ilya Sutskever的突破讓OpenAI克服在獲取高質量數據以訓練新模型方面的限制,而這正是開發下一代模型的主要障礙。這項研究涉及使用計算機生成的數據,而不是真實世界的數據,如從互聯網上提取的文本或圖像來訓練新模型。


FeltSteam認為,OpenAI正遇到擴展(scaling)的難題,因為僅僅擴展註意力和模型參數是遠遠不夠的。

目前,GPT-4的訓練已經窮盡整個互聯網的數據,還需要進行強化學習,甚至更多的數據。


另外,Arrakis還是一個非常出色的自主智能體。


所有關於OpenAI項目信息匯總目錄一覽表。


十萬個H100訓GPT-6,被電力卡脖子

就在以上的爆料帖中,有一種說法是,GPT-6將於2025年發佈。


而就在爆料微軟工程師對話的帖子中,也再次證實:微軟正用10萬個H100來幫OpenAI訓練GPT-6!


有網友算一下,如果十萬個H100同時開啟,功耗將達到70兆瓦,電網肯定撐不住。


而熟悉電力行業的網友說,一般大型電廠的輸出功率將達到2000兆瓦,100兆瓦的負載其實並不大。但是突然在電網中增加100兆瓦的負載肯定會讓電網系統出問題。


核能也許是唯一的辦法,電力短缺將直接限制未來GPU的發展。


此前,ChatGPT每天耗電已超50萬千瓦時,登上熱搜,足見AI“吃電”非常兇猛。


根據波士頓咨詢集團的分析,到2030年,數據中心的用電量預計將增加兩倍,相當於為大約4000萬美國傢庭供電所需的電力量

沒想到,馬斯克預言的由AI導致的電力短缺,這麼快就卡住AGI的脖子。


馬斯克:“現在AI對算力的需求差不多每半年就會增加10倍,馬上會超過宇宙的質量。芯片短缺緩解後,馬上就會出現電力短缺。如果電網輸出100-300千伏的電壓,然後必須一路降壓至6伏,未來會出現變壓器短缺”。

包括Sam Altman在內的越來越多的AI行業大佬表示,AI的第一性原理,最重要的部分就是能源和智能的轉化率的問題。

而人工智能是能源的無底洞,AI未來將會被能源卡脖子。

因為Transformer本質上不是一個能效很高的算法,所以在未來,能源將會是困擾AI發展的一個大問題。


對此,網友們表示,長期看好中國基建。

而在Altman看來,滿足AI飆升能源需求的最有效方法,就是核聚變。


為此,他本人就在核聚變上投資真金白銀的數億美元。

沒有突破,就沒有辦法到達那裡,我們需要核聚變。

然而,真要達成核聚變,卻沒那麼快。

英國曼徹斯特大學核聚變研究員Aneeqa Khan表示,“在地球上重建太陽中心的條件是一個巨大的挑戰”,可能要到本世紀下半葉才能準備就緒。

“核聚變已經為時已晚,無法應對氣候危機。在短期內,我們可利用的是現有的低碳技術,比如裂變和可再生能源”。


國際能源署(IEA)最近的一項分析計算出,數據中心、某貨和人工智能的電力消耗在未來兩年內可能會翻一番。2022年,它們約占全球電力需求的2%。同時AI的需求將呈指數級增長,在2023年至2026年間至少增長10倍

此外,除電力的限制之外,網友還繼續腦洞大開,認為散熱也將成為一個問題。


10萬塊H100還會帶來散熱和空間堆疊的問題,其實最近3年這些問題一直都存在,未來還會越來越嚴重。

網友進一步調侃到,未來加拿大會成為AI大國,因為他們有取之不盡的寒冷且幹燥的空氣!這些在AI時代將會是寶貴的自然資源。


相關推薦

2024-04-09

耗電量幾乎是一般搜索耗電量的30倍。和Open AI合作密切的微軟,也計劃把AI大力“塞進”它的幾個主要產品線,如Office軟件、Windows操作系統、Bing搜索引擎、Azure雲服務等。為提供更充足的算力,以支撐AI大模型的訓練和使用,作

2023-08-07

快科技8月7日消息,盡管OpenAI CEO之前否認,但業界還是相信他們已經在訓練GPT-5大模型,規模將是GPT-4的10倍以上,但這也意味著更燒錢,尤其是用於訓練AI的顯卡極為稀缺。全球這麼多搞AI大模型的,到底用多少AI顯卡是各傢的秘

2024-03-05

馬斯克的一紙訴狀再次將OpenAI推上風口浪尖,或許還把GPT-5的發佈時間推遲。具體詳情可回顧先前的文章,這場官司的焦點主要歸納為以下幾個方面:OpenAI 的開源承諾和實際行動之間的矛盾:OpenAI 與微軟的合作是否背離其最初

2023-07-25

快科技7月24日消息,在生成式AI領域,推出ChatGPT的OpenAI是處於領先地位的,他們的GPT-4已經是萬億參數級別,還在訓練更先進的GPT-5,屆時又會在技術水平上甩開國內的追趕者。OpenAI能夠領先,先進AI顯卡用到的GPU是功不可沒的,

2024-02-22

生產,實測中也被詬病得不輕,但如同 Sam Altman計劃帶領OpenAI進軍7萬億芯片產業一樣,黃教主領導英偉達開辟本地AI戰場,將官方硬件資源和AI調用一鍵打包,是實力宣誓,也昭示著公司又多一條新的賺錢路徑。另外,英偉達昨

2023-11-26

人工智能工作的大部分最新功能。 公開資料顯示,今年OpenAI首次推出ChatGPT產品後,資本市場對生成性人工智能的關註度越來越高。 目前英偉達在人工智能芯片市場占據主導地位,它在AI處理器市場上占據大約80%的份額,其高

2023-11-10

一個任務需要20天,如今H20再跑可能要100天。”盡管美國發佈新一輪芯片限制措施,但英偉達似乎並沒有放棄中國巨大的 AI 算力市場。那麼,國產芯片是否可以替代?經過測試,目前在大模型推理方面,國內 AI 芯片910B僅能達到A

2024-02-11

,或者2/5個中國的GDP。這個數字實在令人難以理解,除非OpenAI確信,自己的技術就從根本上重塑整個世界。否則,人工智能就是處於極大的泡沫之中。7萬億美元,可以買到2.5個微軟,3.75個Google,4個英偉達,7個Meta,11.5個特斯拉

2023-03-31

TheInformation曝出一個驚天大瓜!Google的離職員工、已跳槽OpenAI的頂級研究員竟然曝出——Bard竟是用ChatGPT的數據訓練的!如果事情為真,這可真算得上是Google的頂級醜聞。對抗ChatGPT的AI,竟然用的是ChatGPT的訓練數據,這可太諷刺

2024-03-08

287億人民幣),是當前全球第四大生成式AI獨角獸。它是OpenAI的大語言模型勁敵之一,以“為每個人創造一個個性化的AI”為使命,2023年5月推出一款具有同理心、樂於助人和安全的個性化AI聊天助手Pi,11月推出基礎模型Inflection-2

2024-02-10

功能,此前在Messenger、Instagram和WhatsApp上都處於測試階段OpenAI工程師Jason Wei在Meta的一次AI活動中聽到,Meta現在有足夠的算力來訓練Llama 3和4。Llama 3計劃達到GPT-4的性能水平,但仍將免費提供不難看出,Meta的目標非常明確——在減

2023-11-03

一萬張A100作為算力基礎。也就是說,中國AI企業要想跟上OpenAI的腳步,最起碼要擁有一萬張A100 打底。而GPT-4大約要在25000個A100上訓練90到100天;至於下一代模型GPT-5,按照馬斯克的說法,可能需要30000-50000塊H100。別忘,這還隻是

2022-10-22

也尋求在AI上押下更多賭註。微軟公司正在就AI研究組織OpenAI的新一輪融資進行深入談判,後者是另外一傢正在競相開發軟件模型的創業公司,以希望在數年內實現通用人工智能,也就是讓機器理解人類所能理解的一切。OpenAI已

2023-05-11

為Google許多人工智能軟件和硬件能力的展示。在微軟將 OpenAI 的技術應用於 Bing 搜索和辦公生產力應用程序之後,Google加速其 AI 開發。該超級計算機面向希望訓練大型語言模型的客戶。Google為希望使用超級計算機的公司宣佈隨附