Supermicro 伺服器 GPU AI加速器 AI訓練 AIoM 記憶體

Supermicro推出創新伺服器

2021-12-08
Super Micro Compute(SMCI)宣布推出搭載NVIDIA Ampere architecture GPU以及內建AI加速器的第3代Intel Xeon可擴充處理器的全新系統(Supermicro X12系列)。這些伺服器是專為需要低延遲和高應用效能的AI應用所設計。2U NVIDIA HGX A100 4-GPU系統適於大規模部署具有高速CPU-GPU和GPU-GPU互連的現代AI訓練叢集。而Supermicro 2U 2-Node系統則可透過共享電源供應和冷卻風扇來減少能耗和成本,降低碳排放,同時可因應工作負載選用多款GPU加速器。

此款2U NVIDIA HGX A100伺服器採用第3代Intel Xeon可擴充處理器平台,支援Intel Deep Learning Boost Technology,且針對分析、訓練和推論工作負載進行了最佳化設計。此系統可搭載4顆A100 GPU並以NVIDIA NVLink技術完全互連,提供達2.5Petaflops的AI性能。其高達320GB的GPU記憶體,可加速企業資料科學及AI方面的突破。對於像是BERT大型推論等複雜型對話式AI模型,此系統比上一代GPU的演算快4倍,而在BERT大型AI訓練方面則有3倍的性能提升。

此外,這些系統採用進階的散熱和冷卻設計,成為優先考慮節點密度和電源效率的高效能叢集的較佳選擇。也可以採用液冷系統,進而省下更多的營運成本。此平台亦支援Intel Optane持續性記憶體(PMem),在GPU上進行處理之前,可以將更大的模型儲存在接近CPU的記憶體內。對於需要多系統互動的應用,系統還可以配備4張NVIDIA ConnectX-6 200Gb/s網速的InfiniBand卡,以1:1 GPU-DPU的比例支援GPUDirect RDMA。

全新的2U 2節點是一種節能、省資源的架構,設計能讓每個節點支援最多三張雙倍寬度GPU。每個節點還配備一個具有多達40個核心、內建AI及HPC加速器的第3代Intel Xeon可擴充處理器。各種AI、渲染和VDI應用都能從這種CPU和GPU的平衡設計中受益。該系統配備Supermicro的進階I/O模組(AIOM)擴充插槽,具有快速靈活的網路連線功能,可在執行工作負載及處理深度學習模式時負荷龐大的資料流量,滿足高度需求的AI/ML應用程式、深度學習訓練和推論。本系統也是多執行個體的高階雲端遊戲和許多其他運算密集型VDI應用程式的較佳選擇。

此外,虛擬內容交付網路(vCDN)能滿足對串流服務日益增長的需求。系統內建備援的電源供應器,發生故障時,任何一個節點都能使用相鄰節點的電源供應器。

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!