邊緣運算服務(wù)器 - 「效能」為決勝點(diǎn)
邊緣運算服務(wù)器需具備微型數據中心及邊緣云的能耐,不脫處理速度、傳輸速度與儲存效率。運算著(zhù)重實(shí)時(shí)與精準,傳輸必須低延遲,而在數據的存取上得有足夠的帶寬與空間,這些都剛好是服務(wù)器等級主板的特長(cháng)。
以 DFI ICX610-C621A-C621A 為例, 結合多核心多線(xiàn)程的第三代 Intel® Xeon® 處理器為多任務(wù)好手,能滿(mǎn)足來(lái)自多臺終端設備的數據處理需求,數量驚人的內外部傳輸埠口也提供了充裕的傳輸通道,同時(shí)可管理為數眾多的儲存裝置,這些邊緣服務(wù)器的功能在此張主板上全都能一次達成。
ICX610-C621A-C621A 專(zhuān)為 Intel® Ice Lake 平臺量身打造, 支持第三代 Intel® Xeon® 處理器。此代 Xeon® 處理器于 AI 的運算能力極為突出,包含以下三方面的提升:
-
Intel® Deep Learning Boost
-
Intel® AVX-512
-
支援PCIe 4.0
Intel® Deep Learning Boost 搭配 Intel® AVX-512
Intel®Deep Learning Boost 并非于此代 Xeon® 處理器才問(wèn)世,但這個(gè)立基于 Intel® AVX512 VNNI 指令集的技術(shù)隨著(zhù)處理器的更新而益發(fā)強勁,在深度學(xué)習及視覺(jué)分析效能方面都有顯著(zhù)提升。在 AI 應用的訓練階段,效能便獲得60% 的提升,而在實(shí)際進(jìn)行推論時(shí),也比××代快 30 倍以上。
用更嚴謹的數據來(lái)判斷及解析,VNNI 暴增了低精度運算在 AI 深度學(xué)習及推論的效能成長(cháng)。透過(guò)低精度運算的優(yōu)化,在進(jìn)行 AI 應用時(shí)處理器的資料吞吐量大幅增加,平均可創(chuàng )造約 2.19 倍的差距,這意味著(zhù)在時(shí)間上快了約 45%。
45% 的速度提升代表什么?試想在產(chǎn)在線(xiàn)原本辨識一處產(chǎn)品缺陷的耗時(shí)為 25 毫秒(注 1),節省了近一半的時(shí)間后會(huì )小于 15 毫秒,積沙成塔下,同樣的時(shí)間內能辨識的產(chǎn)品數量就會(huì )變多,大量布署下能節省的工時(shí)及產(chǎn)力提升更是不言而諭。
而在醫療應用上,辨識速度的提升對于受檢者而言,亦可大幅降低容易造成不適的生理掃描或幅射曝露時(shí)間,提供更優(yōu)質(zhì)的檢測體驗。