“最強算力芯片”登場,MI300X比H100快,但快多少?微軟會是勝負手嗎?


Meta、OpenAI和微軟在本周三舉行的AMD投資者大會上,表示將使用AMD最新的人工智能芯片InstinctMI300X。此舉表明,科技界正在積極尋求昂貴的英偉達GPU的替代品。MI300X被業界寄予厚望,畢竟“天下苦英偉達久矣”,後者的旗艦GPU不僅價格高昂,而且供貨數量也相當有限。如果MI300X能夠得到大規模采用,有望降低開發人工智能模型的成本,對英偉達形成競爭壓力。

比英偉達的GPU快多少?

AMD表示,MI300X基於全新架構,性能有著顯著的提升。它的最大特點是擁有192GB的尖端高性能內存,即HBM3,這種內存傳輸數據的速度更快,可以容納更大的人工智能模型。

蘇姿豐直接將MI300X及其構建的系統與英偉達的(上代)旗艦GPU H100進行比較。

就基礎規格而言,MI300X的浮點運算速度比H100高30%,內存帶寬比H100高60%,內存容量更是H100的兩倍以上。

當然,MI300X對標的更多是英偉達最新的GPU H200,雖然規格上同樣領先,但MI300X對H200的優勢就沒那麼大,內存帶寬僅比後者多出個位數,容量比後者大近40%。


蘇姿豐認為:

“這種性能可以直接轉化為更好的用戶體驗,當你向模型提問時,你希望它能更快地回答,尤其是當回答變得越來越復雜時。”

蘇姿豐:AMD不需要擊敗英偉達 第二名也可以過得很好

AMD面臨的主要問題是,那些一直依賴英偉達的公司是否會投入時間和金錢來增加另一傢GPU供應商。

蘇姿豐也承認,這些公司確實需要“付出努力”來轉向AMD芯片。

AMD周三告訴投資者和合作夥伴,公司已經改進對標英偉達CUDA的軟件套件ROCm。CUDA套件一直是AI開發者目前青睞英偉達的主要原因之一。

價格也很重要。AMD周三沒有透露MI300X的定價,但肯定會比英偉達的旗艦芯片更便宜,後者的單價在4萬美元左右。蘇姿豐表示,AMD的芯片必須比英偉達的購買和運營成本更低,才能說服客戶購買。

AMD還稱,已經和一些最需要GPU的大公司簽下MI300X的訂單。

Meta計劃把MI300XGPU用於人工智能推理任務,微軟首席技術官Kevin Scott也表示,公司會把MI300X部署在其雲計算服務Azure中,此外,甲骨文的雲計算服務也會使用MI300X。OpenAI也會在一款叫做Triton的軟件產品中使用AMD GPU.

根據研究公司Omidia的最新報告,Meta、微軟、甲骨文都是2023年英偉達H100 GPU的重要買傢。

AMD沒有給出MI300X的銷量預測,僅預計2024年數據中心GPU總收入約為20億美元。而英偉達僅最近一個季度的數據中心收入就超過140億美元,不過算上GPU之外的其他芯片。

展望未來,AMD認為,人工智能GPU的市場規模將攀升至4000億美元,比之前的預測翻一番。由此可見,人們對高端人工智能芯片的期望有多高、垂涎有多深。

蘇姿豐還對媒體坦然地說,AMD不需要擊敗英偉達,也能在市場上取得好成績。言下之意就是,第二名也可以活得很好。

她在談到AI芯片市場時表示:

“我認為可以明確地說,英偉達現在肯定是市場的領導者,我們相信,到2027年,這個市場的規模可能會達到4000多億美元。我們可以從中分得一杯羹。”

相關推薦

2023-12-07

周三,AMD發佈備受矚目的全新MI300系列AI芯片,包括MI300A和MI300X芯片,瞄準這一英偉達主導的市場。AMD發佈的新款芯片擁有超過1500億個晶體管,新款芯片內存是英偉達H100產品的2.4倍,內存帶寬是H100的1.6倍。AMD將2027年AI加速器市

2023-12-07

案的廠商,可以從各個角度滿足AI尤其是生成式AI對於超強算力、廣泛應用的需求:GPU方面有世界領先的EPYC處理器,GPU方面有不斷壯大的Instinct加速器,網絡方面則有Alveo、Pensando等技術,軟件方面還有ROCm開發平臺,從而形成一個

2024-03-20

該公司面臨著對其尖端MI300X人工智能加速器的巨大需求。微軟等巨型科技公司表示有意采用AMDInstinctMI300X人工智能加速器,挑戰英偉達的壟斷地位。縱觀人工智能市場的發展歷程,AMD 公司的身影已不見蹤影,自 2023 年開始,所有

2024-02-05

)工作。此前AMD首席執行官蘇姿豐博士表示,AMD在2024年AI芯片的銷售額預計將達到35億美元,高於之前20億美元的預期。雖然AMD沒有公開Instinct MI300X的定價,不過有知情人士透露,每塊計算卡的售價為1.5萬美元,相比於英偉達的

2024-03-29

的合作。McCurdy直言,無論是NVIDIA還是AMD,無論是Intel還是微軟,他們都會通力合作,不斷推出各自的新產品。此前有調查顯示,大約50%的受訪者表示對AMD MI300X充滿信心,原因是相比NVIDIA H100系列不但性價比更高,而且供貨充足

2023-12-07

OpenAI和微軟在AMD的一次會議上說,他們將使用AMD最新的AI芯片InstinctMI300X。這是迄今為止科技公司正在尋找昂貴的英偉達圖形處理器替代品的最大跡象,英偉達圖形處理器對於創建和部署像OpenAI的ChatGPT這樣的人工智能程序至關重

2024-03-12

集成CPU、GPU,但目前尚未鋪開。AMD蘇姿豐此前預測,AMD AI芯片2024年的收入將達到35億美元,大大高於此前預計的20億美元。當然,AMD在開發支持、生態建設方面還存在較大的差距,仍需努力追趕。

2023-11-03

,2024年隨著大量產品鋪貨,收入將超過20億美元。這得賣多少遊戲卡才能賺到啊!

2023-06-15

Fabric總線帶寬也有896GB/s。在IO性能上,不僅容量是英偉達最強計算卡H100的2.4倍,同時帶寬也遠超NVIDIA H100,因此AI性能極為強大,單卡就可以運行400億參數大模型。MI300A及MI300X性能強大,是AMD搶友商AI份額的大殺器,然而新品發

2023-12-06

不斷迭代,近期英偉達的最新AI芯片H200已經發佈。H200的算力與H100基本相當,其內存容量達到141GB,帶寬為4.8TB/s。不過,軟件生態的壁壘仍然是AMD需要面對的挑戰之一。Cambrian-AI Research LLC的首席分析師Karl Freund指出,AMD的軟件生

2023-08-07

練AI的顯卡極為稀缺。全球這麼多搞AI大模型的,到底用多少AI顯卡是各傢的秘密,很少公開準確數據,GPT-4猜測是在10000-25000張A100顯卡上訓練的,GPT-5所需的顯卡還是迷,馬斯克估計的是30000-50000張H100顯卡,性能強得多。除OpenAI

2024-03-12

集成CPU、GPU,但目前尚未鋪開。AMD蘇姿豐此前預測,AMD AI芯片2024年的收入將達到35億美元,大大高於此前預計的20億美元。當然,AMD在開發支持、生態建設方面還存在較大的差距,仍需努力追趕。

2023-11-14

怕。就在剛剛,老黃又一次在深夜炸場——發佈目前世界最強的AI芯片H200!較前任霸主H100,H200的性能直接提升60%到90%。不僅如此,這兩款芯片還是互相兼容的。這意味著,使用H100訓練/推理模型的企業,可以無縫更換成最新的H2

2024-03-29

的合作。McCurdy直言,無論是NVIDIA還是AMD,無論是Intel還是微軟,他們都會通力合作,不斷推出各自的新產品。此前有調查顯示,大約50%的受訪者表示對AMD MI300X充滿信心,原因是相比NVIDIA H100系列不但性價比更高,而且供貨充足