NVIDIA GPU 人工智慧 RDMA

NVIDIA推出Magnum IO套裝軟體

2019-11-25
輝達(NVIDIA)宣布推出NVIDIA Magnum IO軟體,可以協助資料科學家、AI與高效能運算研究人員在幾分鐘而非幾小時內處理海量資料。

NVIDIA創辦人暨執行長黃仁勳表示,處理大量收集或模擬的資料,是AI這般由資料帶動之科學研究領域的核心。隨著資料的規模和出現速度呈現指數級成長,資料中心所面臨的巨大挑戰和成本考量就是資料處理。極致的運算需要有極致的輸入/輸出功能,而Magnum IO將巔覆運算領域的NVIDIA GPU加速技術用在輸入/輸出功能和儲存裝置上,做到了這一點。如今AI研究人員與資料科學家不用再等待資料,反而能專心在他們的研究工作上。

經過優化後的Magnum IO能夠排除儲存及輸入/輸出的瓶頸,在執行如財務分析、建立氣侯模型與其他高效能運算作業時,可針對多伺服器與多GPU節點提供高達20倍的資料處理效能。NVIDIA與網路及儲存領域的頂尖業者密切合作,包括DataDirect Networks、Excelero、IBM、Mellanox和WekaIO,並肩開發出Magnum IO。

Magnum IO的核心是GPUDirect,資料可以藉此繞過CPU,在GPU、儲存裝置和網路設備提供的「開放高速公路」上進行傳輸。由點對點及遠端直接記憶體存取(RDMA)組成的GPUDirect,與眾多傳輸互連及API皆相容,其中包括NVIDIA NVLink、NCCL、OpenMPI及UCX。其最新元素是GPUDirect Storage,讓研究人員在存取儲存裝置之際可以繞過CPU,並且快速取得資料檔案來進行模擬、分析或視覺化等作業。

NVIDIA Magnum IO軟體現已上市,而特定早鳥計畫的客戶現已可取得尚未上市的GPUDirect Storage。NVIDIA計畫在2020年上半年讓更多客戶接觸到GPUDirect Storage。

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!