特斯拉可能擁有多達十餘萬片英偉達H100 而xAI也擁有大量高性能GPU儲備


特斯拉和埃隆-馬斯克(ElonMusk)的人工智能企業xAI共同儲備大量NVIDIAH100GPU,前者致力於徹底破解五級自動駕駛難題,後者則試圖實現馬斯克"最大限度尋求真理的人工智能"願景。

GKq62n-XMAEvr5a.jpeg

X 帳戶"技術兄弟"最近發佈消息稱,馬克-紮克伯格的 Meta 公司目前已擁有全球最大的 H100 GPU “武器庫”之一,數量約為 35 萬個。不過,馬斯克對該表格中特斯拉和 xAI 的排名不以為然,他指出:"如果衡量正確的話,特斯拉會排在第二位,X/xAI 會排在第三位。"

假設其他條件不變,這意味著特斯拉現在擁有 3 萬到 35 萬塊英偉達 H100 GPU。另一方面,xAI 現在可能擁有 2.6 萬到 3 萬塊英偉達AI計算卡。

早在今年 1 月,埃隆-馬斯克(Elon Musk)在確認對特斯拉 Dojo 超級計算機投資 5 億美元(相當於約 1 萬個 H100 GPU)的同時,還宣佈這傢電動汽車巨頭"今年在英偉達硬件上的花費將超過這個數字",因為"在人工智能領域具有競爭力的賭註目前每年至少有幾十億美元"。

圖片.png

在馬斯克從DeepMind、OpenAI、Google研究院、微軟研究院、特斯拉和多倫多大學聘請人才,從頭開始建立自己的人工智能企業時,xAI曾在2023年購買大約1萬臺英偉達的GPU。不過,可以合理推斷,這些采購很可能與 A100 GPU 有關。此後,從馬斯克最新發佈的 X 帖子中可以推斷,xAI 似乎還積累大量的 H100 GPU。

當然,考慮到人工智能領域的創新速度,這些 H100 GPU 很快就會過時。早在今年 3 月,英偉達就發佈GB200 Grace Blackwell 超級芯片,將一個基於 Arms 的 Grace CPU 與兩個 Blackwell B100 GPU 結合在一起。該系統可以部署一個包含27 萬億個參數的人工智能模型,在執行聊天機器人提供答案等任務時,速度有望提高30 倍。


相關推薦

2024-03-27

在公開演講中指出,AI未來發展與光伏和儲能緊密相連。特斯拉CEO馬斯克也提出類似看法,AI在兩年內年將由“缺矽”變為“缺電”,而這可能阻礙AI的發展。

2024-05-26

超級計算機中,並稱其為“算力超級工廠”。馬斯克旗下特斯拉的汽車工廠也被稱之為超級工廠(Gigafactory)。馬斯克表示,這些由英偉達H100連接起來的芯片組建成之後的規模,將至少是目前最大GPU 集群的4倍。英偉達在人工智

2024-04-24

僅在2024年第一季度,特斯拉的人工智能訓練計算能力就增加130%。不過,如果埃隆-馬斯克的雄心壯志得以實現,那麼到2024年,這種能力將增加近500%。作為2024年第一季度財報的一部分,特斯拉透露其人工智能訓練能力已增至近4

2023-11-15

規模集群(稱為亞馬遜EC2 UltraClusters)中。這些集群包括高性能計算、網絡資源和雲存儲。這些集群可容納多達20,000個H100 Tensor Core GPU,使用戶能夠部署參數高達數十億或數萬億的機器學習模型。微軟公司微軟的雲計算收入增長24

2024-02-22

遜(Amazon.com Inc.)、Facebook與Instagram母公司Meta Platforms、特斯拉、微軟以及谷歌母公司Alphabet都是英偉達最大規模客戶,占其總營收規模近50%,它們當前正傾盡全力投資與人工智能算力相關的硬件,比如英偉達AI芯片。特斯拉CEO

2024-03-14

去年9月,甲骨文董事長埃裡森、特斯拉CEO馬斯克,一起請英偉達創始人黃仁勛在矽谷一傢豪華餐廳吃日料。年屆八旬的埃裡森回想起那頓飯仍難以平靜。“席間埃隆(馬斯克)和我在乞求,我想用這個詞來形容我們再恰當不過

2024-03-14

nell認為,Cerebras的WSE-3人工智能芯片和CS-3系統可以使部分高性能計算用戶受益。他指出,“該芯片在相同的成本和功率下將性能提高一倍。”不過,Tirias Research創始人Jim McGregor則較為現實地指出,盡管這傢初創公司增長迅速,並

2023-12-07

,性能有著顯著的提升。它的最大特點是擁有192GB的尖端高性能內存,即HBM3,這種內存傳輸數據的速度更快,可以容納更大的人工智能模型。蘇姿豐直接將MI300X及其構建的系統與英偉達的(上代)旗艦GPU H100進行比較。就基礎規

2024-03-19

NVIDIA的H100AI芯片使其成為價值數億美元的公司,其價值可能超過Alphabet和亞馬遜。盡管競爭對手一直在奮力追趕,但也許NVIDIA即將擴大其領先優勢--憑借新的BlackwellB200GPU和GB200"超級芯片"。NVIDIA 首席執行官黃仁

2022-07-06

件架構以及相應的芯片架構支持)讓GPU在曾經CPU一統天下高性能計算領域的打出一片天,而在深度學習成為主流之後,NVIDIA的做法並非一味暴力增強算力,而是通過有針對性地優化來以最佳的效率提升性能,其中的例子包括支持

2023-12-06

3A090,是華盛頓出口管制中的ECCN編碼物項。3A090特指特定高性能集成電路,當一顆芯片輸入輸出雙向傳輸速率超過每秒600GB,或算力超過4800TOPS時就屬於3A090,也就意味著禁止向中國出口。上一次美國規定先進半導體出口措施的時

2023-12-04

,比去年同期幾乎翻兩番。這顯然得益於隨著人工智能和高性能計算(HPC)的發展而變得炙手可熱的H100GPU。市場跟蹤公司 Omdia 表示,Nvidia 售出近 50 萬個 A100 和 H100 GPU,龐大的需求量也導致,基於 H100 的服務器需要 36~52 周的時

2023-11-12

創公司01.AI已經儲備足夠使用18個月的英偉達人工智能和高性能計算GPU,以應對美國的出口禁令。看起來,01.AI的GPU采購狂潮將"要麼大幹一場,要麼回傢"的思路推向一個新的高度。他們基本上就是《霍比特人

2024-05-26

H20芯片運往中國,英偉達必須在價格上與華為競爭,才有可能在中國市場拿到足以消化這麼多芯片的訂單。