強大的NVIDIA H100 Tensor Core GPU將於10月發貨


在今天的GTC會議主題演講中,NVIDIA宣佈其H100TensorCoreGPU已全面投產,戴爾、聯想、思科、Atos、富士通、技嘉、惠普企業和超微等技術合作夥伴將在下個月開始交付圍繞H100構建的產品。

H100是"Hopper"架構的一部分,是NVIDIA有史以來最強大的以人工智能為重點的GPU,算力超過它之前的高端芯片A100。H100包括800億個晶體管和一個特殊的"Transformer Engine"以加速機器學習任務,除此之外它還支持NVIDIA NVLink,它將GPU連接在一起,使性能倍增。

根據NVIDIA的新聞稿,據說H100還提供效率方面的提升,提供與A100相同的性能,能源效率提高3.5倍,使得擁有成本降低3倍,使用的服務器節點減少5倍。

NVIDIA預計H100芯片將被用於各種工業、醫療保健、超級計算機和雲計算應用,包括大型語言模型、藥物發現、推薦系統、對話式人工智能等。根據早期A100"安培"架構GPU的記錄,分析師認為H100芯片將可能在人工智能領域產生巨大影響。它也將非常有可能在下一代圖像合成模型中發揮作用。

NVIDIA宣佈,不同公司的50多個基於H100的服務器型號將在今年年底前上市。而NVIDIA本身也將開始將H100集成到其NVIDIA DGX H100企業系統中,該系統包含8個H100芯片,提供32 petaflops的性能。


相關推薦

2023-11-14

這些都是英偉達公司面向未來的重大更新,它將繼續以其強大的硬件和軟件技術引領人工智能世界的發展。

2023-03-22

容理解的訓練和推理。英偉達與其主要合作夥伴宣佈推出強大的GPU NVIDIA H100 Tensor Core GPU新產品和服務,以滿足生成式AI訓練和推理需求。AWS宣佈即將推出的EC2超級集群(EC2 P5實例)可擴展至20000個互連的H100。Oracle Cloud Infrastructure

2023-05-11

模基礎設施方面的領導地位,為我們的 ML 工作負載提供強大的平臺。” -Noam Shazeer,Character.AI 首席執行官在Google雲,人工智能是我們的 DNA。我們應用數十年為 AI 運行全球規模計算的經驗。我們設計該基礎架構以擴展和優化以運

2022-07-06

仍然在機器學習訓練市場可以說是獨孤求敗,並沒有受到強大的挑戰。我們認為,這得益於NVIDIA在芯片和軟件方面的全面能力,而這從另一個角度又與人工智能芯片發展的規律相得益彰。首先,人工智能的發展規律中,人工智能

2024-02-22

等於是性價比提高100倍。Groq公司在演示中展示其芯片的強大性能,支持Mistral AI的Mixtral8x7B SMoE,以及Meta的Llama2的7B和70B等多種模型,支持使用4096字節的上下文長度,並可直接體驗Demo。不僅如此,Groq還喊話各大公司,揚言在三年

2022-07-04

輪的測試中,MLPerf新添加瞭一個對象檢測基準,用於在更大的OpenImages數據集上訓練新的RetinaNet,MLperf表示,這個新的對象檢測基準能夠更準確反映適用於自動駕駛、機器人避障和零售分析等應用的先進機器學習訓練成果。MLPerf2

2024-02-17

NVIDIA發佈一段視頻,首次向公眾展示其最新的數據中心級超級計算機Eos,讓人們一窺為先進的AI設備供應商提供動力的架構。作為一臺超大規模的英偉達DGX超級計算機,Eos是NVIDIA開發人員利用加速計算基礎設施和全面優化的軟件

2022-09-21

11月發佈。RTX Remix允許MOD愛好者輕松捕捉遊戲素材,利用強大的AI工具自動增強材質,並通過光線追蹤和DLSS快速將遊戲帶入RTX的世界。以下為DLSS 3支持遊戲和應用詳細名單(按照英文首字母排序):- 《瘟疫傳說:安魂曲》(A Plague

2023-11-15

Nova成為融資最多的AI芯片初創公司,也使其成為英偉達最強大的新興競爭對手之一,估值高達50億美元。SambaNova最近推出最新的第四代SN40L處理器。這款尖端芯片采用臺積電先進的5納米工藝制造,擁有超過1,020億個晶體管,計算

2023-12-07

比H100平臺更好的性能,很多情況下可以輕松翻倍。產品強大也離不開合作夥伴的支持,MI300X已經贏得多傢OEM廠商和解決方案廠商的支持,包括大傢耳熟能詳的慧與(HPE)、戴爾、聯想、超微、技嘉、鴻佰(鴻海旗下/富士康同門)、英

2023-11-16

造商的合作,為客戶提供更多選擇。微軟推出由英偉達(NVIDIA)H100 Tensor Core GPU驅動的新虛擬機預覽版。此外,這傢軟件巨頭還計劃采用英偉達 H200 Tensor Core 和 AMD 的 MI300X。這些新增產品將為中高端訓練和生成式人工智能帶來性

2023-11-14

現前所未有的性能飛躍,而H100持續的升級,和TensorRT-LLM強大的開源庫,都在不斷提高性能標準。H200的發佈,讓性能飛躍又升一級,直接讓Llama2 70B模型的推理速度比H100提高近一倍!H200基於與H100相同的Hopper架構。這就意味著,除

2023-08-10

我們也在為AI全面重新定義GPU。”隨之而來的,便是日益強大的計算系統。比如,集成8個GPU並擁有1萬億個晶體管的HGX H100。就在今天,老黃再次讓AI計算上一個臺階——除為GH200配備更加先進的HBM3e內存外,下一代GH200 Grace Hopper超

2024-03-20

B100控制在700W,和上代H100完全一致,B200則首次達到1000W。NVIDIA宣稱,Blackwell GPU能夠在10萬億參數的大模型上實現AI訓練和實時大語言模型推理。GB200 Grace Blackwell是繼Grace Hopper之後的新一代超級芯片(Superchip),從單顆GPU+單顆CPU升