歡迎來到新通訊元件網站
新電子首頁 | 加入會員 | 忘記密碼 | 設為首頁 | 加入書籤 | 訂閱雜誌  
【機會不再,慢來就向隅】自駕車暨車聯網關鍵技術與系統開發研習班
首頁 | 有線通訊 | 無線通訊 | 車載通訊 | 關鍵零組件 | 電源管理 | 傳輸介面 | 量測儀器 | 精選影音 | 資源下載
本期目錄
各期雜誌
訂電子報
2018年版工業4.0實戰寶典
2018年版通訊產業關鍵報告
智慧移動載具趨勢與關鍵技術全剖析
2017年版物聯網創新應用開發攻略
2017年版智慧型手機/穿戴式關鍵零組件完全剖析
更多
轉寄列印
NVIDIA為大規模資料中心擴充深度學習推論功能
2018/4/16
輝達(NVIDIA)近日宣布一連串新技術與合作夥伴,將推論的潛在市場拓展至全球3,000 萬部超大規模伺服器,同時大幅降低由深度學習技術所驅動的各種服務成本。

NVIDIA 創辦人暨執行長黃仁勳在 2018 GTC 發表開幕演說時,闡述深度學習推論如何透過在資料中心、車用以及如機器人和無人機等嵌入式裝置上,新增語音辨識、自然語言處理、推薦系統與影像辨識等技術支援,持續仰賴GPU加速。

對此,NVIDIA 宣布新版 TensorRT 推論軟體並將其整合至 Google 熱門的TensorFlow 框架中。 NVIDIA 也宣布將針對最受歡迎的語音辨識框架 Kaldi 進行 GPU 最佳化。此外,NVIDIA 與 Amazon、Facebook 以及 Microsoft 等夥伴的密切合作,也將讓開發人員更容易將 ONNX 格式與 WinML 模型透過 GPU 進行加速。

NVIDIA 揭露 TensorRT 4 軟體能為多種應用程式進行深度學習推論加速。TensorRT能提供 INT8 與 FP16 精準的推論內容,讓資料中心成本最高可減少70%。TensorRT 4 能用來快速進行最佳化、驗證以及將訓練完成的類神經網路部署到超大規模資料中心、嵌入式裝置和車用 GPU 平台。在處理包括電腦視覺、神經機器翻譯、自動語音辨識、語音合成與推薦系統等常見應用時,新版軟體在執行深度學習推論的速度是 CPU 的190倍。

為進一步加快研發效率,NVIDIA 與 Google 的工程師攜手將 TensorRT 整合到 TensorFlow 1.7,讓用戶更容易在 GPU 上運行各種深度學習推論應用。

這篇文章讓你覺得?
非常滿意 滿意 普通 不滿意 非常不滿意
Back Top Home
關於新通訊 廣告委刊 聯絡編輯部 聯絡發行部 隱私權政策
城邦文化事業股份有限公司版權所有、轉載必究.Copyright (c) 2016 Cite Publishing Ltd.