黃仁勛預警:下一代GPU 會非常難買


無論遊戲顯卡還是AI加速卡,NVIDIA GPU如今都是現象級的存在,尤其是AI加速卡,賣十幾萬都被瘋搶,訂單往往能排好幾個月,導致遊戲顯卡的產能也很緊張。

NVIDIA早就確認,下一代GPU Blackwell B100將在2024年發佈,可以輕松搞定1730億參數的大語言模型,是現在H200的兩倍甚至更多。

至於具體時間,曝料稱原計劃是第四季度,但提前到第二季度。

季度財報發佈後的溝通會上,黃仁勛在接受采訪時表示:我們所有的產品,都是嚴重供不應求,這也是新產品的天然屬性,所以我們在竭盡可能滿足需求,隻不過整體來看,我們的需求增長實在太快。”

NVIDIA CFO Colette Kress也補充說:我們預計下一代產品的供應會非常緊張,因為需求遠遠超過供應能力。”

至於RTX 50系列顯卡,很可能要等到今年底才會發佈。


相關推薦

2024-05-03

會有任何實質性威脅。黃仁勛之前已經預警:英偉達預計下一代GPU產品的供應會非常緊張,因為需求遠遠超過供應能力。”

2024-02-24

幾個月,導致遊戲顯卡的產能也很緊張。NVIDIA早就確認,下一代GPU Blackwell B100將在2024年發佈,可以輕松搞定1730億參數的大語言模型,是現在H200的兩倍甚至更多。至於具體時間,曝料稱原計劃是第四季度,但提前到第二季度。季

2023-11-30

11月30日消息,英偉達首席執行官黃仁勛周三在《紐約時報》的年度DealBook峰會上表示,人工智能正在超越人類。他指出,如果通用人工智能(AGI)被定義為一種計算機,能夠以與人類智能相媲美的方式完成測試,那麼“在接下來

2023-07-28

不能買到還要看關系國內廠商要想買到AI顯卡,還得跟CEO黃仁勛有關系,找NVIDIA中國去買,還是找NVIDIA總部去買,結果都是有差別的。由於各大公司搶購AI顯卡,NVIDIA CEO、創始人黃仁勛也更自信,此前在采訪中他放言計算機時代

2023-05-26

AI加速卡即便是加價也有人在搶。這也讓NVIDIA CEO、創始人黃仁勛更加自信,日前在采訪中他放言計算機時代已經變,數據中心需要用得CPU越來越少,不再是傳統上購買數百萬個CPU,而是轉而購買數百萬個GPU。黃仁勛預測數據中心

2024-02-22

的需求依然非常強勁。我們預見到,由於需求遠超供應,下一代產品的供應將面臨限制。”黃仁勛則表示,“無論何時我們推出新產品,正如你所知,它們都會從零增長到一個非常大的數字,但這個過程不可能一夜之間完成。”

2024-03-11

NVIDIACEO黃仁勛在近日的2024SIEPR經濟峰會上透露,下一代DGXGPU服務器將會采用水冷散熱,整個系統非常壯觀(magnificent)、非常迷人(beautiful)。黃仁勛還提到,新一代DGX服務器很快就會到來,暗示著BlacwellB100GPU加速卡距離發佈已經不遠

2022-08-25

在第2季度財報上,NVIDIA首席執行官黃仁勛確認下一代顯卡GeForceRTX40系列即將登場。NVIDIA證實,其對現有顯卡的價格調整是為擺脫多餘的庫存,為下一代產品騰出空間。黃仁勛表示,下一代顯卡和GPU架構將非常令人興奮。在財報

2024-02-24

最近,《連線》的記者采訪英偉達CEO黃仁勛。記者表示,與JensenHuang交流應該帶有警告標簽,因為這位NVIDIA首席執行官對人工智能的發展方向如此投入,以至於在經過近90分鐘的熱烈交談後,我(指代本采訪的記者,下同)確信

2024-02-13

英偉達首席執行官黃仁勛預計,在未來幾年的計算技術進步將使人工智能的開發成本遠低於據稱山姆·奧特曼正在籌集的7萬億美元。黃仁勛在周一迪拜世界政府峰會上表示:“你不能隻假設會購買更多的電腦。你還必須考慮到電

2024-03-19

合作。其中提到全球最大電動車公司比亞迪將采用英偉達下一代智能汽車芯片Thor。比亞迪同時將使用英偉達基礎設施進行自動駕駛模型訓練,以及英偉達Isaac來設計/模擬智能工廠機器人。開始提機器人。黃仁勛表示,在我們的

2023-03-08

能力就是矽谷的硬通貨。”黃仁勛展示該公司名為H100的下一代系統,該系統如今已經開始發貨。黃仁勛拿著一塊服務器主板表示:“新系統真正令人驚嘆的,是這種被稱為變換器引擎的新型處理方式。該引擎是GPT中的T,即生成

2024-03-21

個。”面對這個多少有點戲謔的問題,英偉達創始人、CEO黃仁勛遲疑片刻,非常認真地回答出來。當地時間 3 月 19 日,以堪比流行巨星的熱度完成 GTC 2024 的開場演講後第二天,黃仁勛接受全球媒體采訪。黃仁勛給在場媒體重新

2024-03-19

的四位而不是八位,實現計算、帶寬和模型大小的翻倍。下一代NVLink開關:允許多達576個GPU之間進行通信,提供每秒1.8太比特的雙向帶寬。新的網絡交換芯片:擁有500億晶體管和3.6 teraflops的FP8計算能力,用於支持大規模GPU集群