2019年11月19日--NVIDIA (輝達) 今天宣布推出 NVIDIA Magnum IO 軟體,可以協助資料科學家、 AI 與高效能運算研究人員在幾分鐘而非幾小時內處理海量資料。
經過優化後的 Magnum IO 能夠排除儲存及輸入/輸出的瓶頸,在執行如財務分析、建立氣侯模型與其他高效能運算作業時,可針對多伺服器與多 GPU 節點提供高達 20 倍的資料處理效能。
NVIDIA 與網路及儲存領域的頂尖業者密切合作,包括 DataDirect Networks、Excelero、IBM、Mellanox 和 WekaIO,並肩開發出 Magnum IO。
NVIDIA 創辦人暨執行長黃仁勳表示:「處理大量收集或模擬的資料,是 AI 這般由資料帶動之科學研究領域的核心。隨著資料的規模和出現速度呈現指數級增長,資料中心所面臨的巨大挑戰和成本考量就是資料處理。極致的運算需要有極致的輸入/輸出功能,而 Magnum IO 將巔覆運算領域的 NVIDIA GPU 加速技術用在輸入/輸出功能和儲存裝置上,做到了這一點。如今 AI 研究人員與資料科學家不用再等待資料,反而能專心在他們的研究工作上。」
Magnum IO 的核心是 GPUDirect,資料可以藉此繞過 CPU,在 GPU、儲存裝置和網路設備提供的「開放高速公路」上進行傳輸。由點對點及遠端直接記憶體存取 (RDMA) 組成的 GPUDirect,與眾多傳輸互連及 API 皆相容,其中包括 NVIDIA NVLink™、NCCL、OpenMPI 及 UCX。
其最新元素是 GPUDirect Storage,讓研究人員在存取儲存裝置之際可以繞過 CPU,並且快速取得資料檔案來進行模擬、分析或視覺化等作業。
NVIDIA Magnum IO 軟體現已上市,而特定早鳥計畫的客戶現已可取得尚未上市的 GPUDirect Storage。NVIDIA 計畫在 2020 年上半年讓更多客戶接觸到 GPUDirect Storage。
商業生態體系的支持
「現代的高效能運算與 AI 研究活動,得依賴驚人數量的資料來進行,而這個規模往往超過 PB 等級,這需要新的技術領先水準來善加因應。DDN 利用 NVIDIA 的 Magnum IO 軟體套件與我們的平行 EXA5 儲存架構,為資料傳輸另闢蹊徑,使得 GPU 透過高頻寬直接取得 PB 等級的資料量,而這是過去做不到的。」- DDN 研究長 Sven Oehme
「頂尖高效能運算與 AI 研究人員如今需要取得的資料量,不斷突飛猛進,使得許多單位難以因應輸入/輸出工作。任何想要加快 AI 及運行資料密集型作業負載的組織,IBM Spectrum Scale 可以滿足它們的需求。使用 IBM Spectrum Scale 和 NVIDIA GPU 加速技術,就能協助客戶緩解輸入/輸出作業的瓶頸,更快從資料中取得所需的見解。」— IBM 儲存裝置管理部門副總裁 Sam Werner
「頂尖的高效能運算與 AI 研究人員選擇使用 Mellanox,讓他們能夠運用各項最先進的技術,以盡可能高效率且快速的方式移動和處理大量資料。我們一直與 NVIDIA 合作,確保 Magnum IO 能夠跟 Mellanox 最先進的 InfiniBand 和乙太網路互連解決方案順利搭配,使得雙方的共同客戶能夠完全克服資料瓶頸、促進其科學、研究和產品開發活動的腳步。」— Mellanox Technologies 軟體架構部門資深副總裁 Dror Goldenberg
掌握NVIDIA最新動態
請訂閱NVIDIA官方部落格或追蹤Facebook、Twitter、LinkedIn與Instagram。瀏覽 NVIDIA 相關影片及圖片,請至YouTube或Flickr。
關於NVIDIA (輝達)
NVIDIA (輝達)自1999年發明GPU起,成功促進PC電競市場的成長並重新定義現代電腦顯示卡產品,掀起電腦平行運算革命。近年來GPU深度學習也促發被視為下一個運算時代的 AI ,透過GPU以類人腦方式運作於電腦、機器人與自駕車等,來感知並解讀真實世界。欲瞭解更多資訊,請瀏覽http://nvidianews.nvidia.com/。