北京時間6月30日,MLCommons社區發佈瞭最新的MLPerf2.0基準測評結果。在新一輪的測試中,MLPerf新添加瞭一個對象檢測基準,用於在更大的OpenImages數據集上訓練新的RetinaNet,MLperf表示,這個新的對象檢測基準能夠更準確反映適用於自動駕駛、機器人避障和零售分析等應用的先進機器學習訓練成果。
MLPerf2.0的結果與去年12月發佈的v1.1結果大致相同,AI的總體性能比上一輪發佈提高瞭大約1.8倍。
有21傢公司和機構在最新一輪的測試中提交瞭MLPerf基準測試的成績,提交的成績總數超過瞭260份。
英偉達依然“打滿全場”
本次測試中,英偉達依然是唯一一傢完成2.0版本中全部八項基準測試的參與者。這些測試包含瞭目前流行的AI用例,包括語音識別、自然語言處理、推薦系統、目標檢測、圖像分類等方面的內容。
除瞭英偉達之外,沒有其他加速器運行過所有基礎測試。而英偉達自2018年12月首次向MLPerf提交測試結果以來就一直完成所有基礎測試。
共有十六傢合作夥伴使用瞭英偉達平臺提交瞭本輪測試結果,包括華碩、百度、中國科學院自動化研究所、戴爾科技、富士通、技嘉、新華三、慧與、浪潮、聯想、寧暢和超微。在這一輪MLPerf的基準測試結果中,英偉達及其合作夥伴占瞭所有參賽生態夥伴的90%。
這顯示出瞭英偉達模型良好的通用性。
通用性在實際生產中,為模型協同工作提供瞭基礎。AI應用需要理解用戶的要求,並根據要求對圖像進行分類、提出建議並以語音信息的形式進行回應。
要完成這些任務,需要多種類型的人工智能模型協同工作。即使是一個簡單的用例也需要用到將近10個模型,這就對AI模型通用性提出瞭要求。
好的通用性意味著用戶在整個AI流程中可以盡可能的使用相同的設施工作,並且還能夠兼容未來可能出現的新需求,從而延長基礎設施的使用壽命。
AI處理性能三年半提高23倍
在本次基準測評結果中,NVIDIA A100仍然保持瞭其單芯片性能的領軍者地位,在八項測試中的四項中取得瞭最快速度的成績。
兩年前,英偉達在MLPerf 0.7的基準測試中首次使用瞭A100 GPU,這次已經是英偉達第四次使用該GPU提交基準測試成績。
自MLPerf問世以來的三年半時間裡,英偉達AI平臺在基準測試中已經實現瞭23倍的性能提升。而自首次基於A100提交MLPerf基準測試兩年以來,英偉達平臺的性能也已經提高瞭6倍。
性能的不斷提升得益於英偉達在軟件上的創新。持續釋放瞭Ampere架構的更多性能,如在提交結果中大量使用的CUDA Graphs可以最大限度地減少跨多加速器運行的啟動開銷。
值得註意的是在本輪測試中英偉達沒有選擇使用其最近發佈的Hopper GPU,而是選擇瞭基於英偉達Ampere架構的NVIDIA A100 Tensor Core GPU。
英偉達Narasimhan 表示英偉達更希望專註於商業上可用的產品,這也是英偉達選擇在本輪中基於 A100提交結果的的原因。
鑒於新的Hopper Tensor Cores能夠應用混合的FP8和FP16精度的數據,而在下一輪MLPerf測試中英偉達很有可能會采用Hopper GPU,可以預見在下一輪基準測試中,英偉達的成績有望取得更大的飛躍。