亚洲av成人精品日韩一区,97久久久精品综合88久久,玩弄japan白嫩少妇hd,亚洲av片不卡无码久久,玩弄人妻少妇500系列

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

FPGA與GPU計算存儲加速對比

劉杰 ? 來源:zrl12123456 ? 作者:zrl12123456 ? 2022-08-02 08:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

硬件制造商正在將加速方法應用于計算存儲,這是專門設計用于包含內(nèi)嵌計算元素的存儲。這種方法已經(jīng)被證明可以為分析和 AI 應用提供優(yōu)異的性能。使用或者不使用機器學習輔助的分析以及驗證,都可以借助計算存儲器件進行加速。這些器件提供了一個關(guān)鍵的優(yōu)勢,使得成本高昂的計算被卸載到存儲器件上,而不必在服務器 CPU 上完成。與標準的存儲/CPU 方法相比,通過計算存儲獲得的優(yōu)勢包括:

1. 借助應用專用編程定制可編程硬件,獲得更高性能

2. 將計算任務從服務器卸載到存儲器件,釋放 CPU 資源

3. 數(shù)據(jù)與計算共址,降低數(shù)據(jù)傳輸需求

這種新穎的方法前景光明。不過,您應根據(jù)具體用例評估這種方法,考量性能、成本、功耗和易用性。性價比和單位功耗性能在選擇加速硬件評估時,占據(jù)主要比率。在本文中,我們將研討單位功耗性能。

計算存儲功耗比較

在這個場景中,我們將比較以 CSV 數(shù)據(jù)讀取用例為主的三種工具:英偉達 GPUDirect 存儲 和RAPIDS存儲,以及基于賽靈思技術(shù)的三星 SmartSSD 存儲。CSV 讀取在計算密集型流水線中起著重要的作用(參見圖 1)。

在下文中,我們將性能定義成 CSV 的處理速率,或處理“帶寬”。我們先快速回顧一下三種系統(tǒng)的運行方式。

英偉達 GPUDirect 存儲

端到端滿足分析和 AI 需求

將 GPU 用作計算單元,緊貼基于 NVMe 的存儲器件布局 (GPUDirect)

使用 CUDA 進行編程 (RAPIDS)

英偉達用其 CSV 數(shù)據(jù)讀取技術(shù)衡量相對于標準 SSD 的性能提升。結(jié)果如圖 1 所示。使用 1 到 8 個加速器時,對應的吞吐量是 4 到 23GB/s。

三星 SmartSSD 驅(qū)動器

將賽靈思 FPGA 用作計算單元

與存儲邏輯內(nèi)嵌駐留在同一個內(nèi)部 PCIe 互聯(lián)上

通過編程在存儲平臺上開展運算

賽靈思數(shù)據(jù)分析解決方案合作伙伴 Bigstream 與三星合作,為 Apache Spark 設計加速器,包括用于 CSV 和 Parquet 處理的 IP。SmartSSD 的測試使用單機模式的 CSV 解析引擎,以便開展比較。結(jié)果如圖 2 所示,使用 1 到 12 個加速器時,對應的吞吐量是 4 到 23GB/s,同時也給出英偉達的結(jié)果(使用 1 到 8 個加速器)。請注意,本討論中的所有結(jié)果都按 x 軸上的加速器數(shù)量進行參數(shù)化。

這些結(jié)果令人振奮,但在選擇您的解決方案時,請務必將功耗情況納入考慮。

圖 2:SmartSSD 驅(qū)動器的 CSV 解析性能結(jié)果

單位功耗性能比較

圖 3 顯示了將功耗考慮在內(nèi)后的分析結(jié)果。它們代表單位功耗達到的性能水平,根據(jù)上述討論中引用的相關(guān)材料,給出了以下假設:

Tesla V100 GPU:最大功耗 200 瓦

SmartSSD 驅(qū)動器 FPGA:最大功耗 30 瓦

圖 3:CSV 解析的每瓦功耗帶寬比較

在這個場景下,計算表明,在全部使用 8 個加速器的情況下,SmartSSD 的單位功耗性能比 GPUDirect Storage 高 25 倍。

最終思考

計算存儲的優(yōu)勢在于能增強數(shù)據(jù)分析和 AI 應用的性能。然而,要讓這種方法具備可實際部署的能力和實用性,就必須在評估時將功耗納入考慮。

針對用于 CSV 數(shù)據(jù)解析的兩種不同的計算存儲方法,我們已經(jīng)提出按功耗參數(shù)化的吞吐量性能曲線。結(jié)果顯示,在使用相似數(shù)量的加速器進行比較時,SmartSSD 驅(qū)動器的單位功耗性能優(yōu)于 GPUDirect存儲方法。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1645

    文章

    22050

    瀏覽量

    618535
  • 驅(qū)動器
    +關(guān)注

    關(guān)注

    54

    文章

    8697

    瀏覽量

    149969
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4948

    瀏覽量

    131250
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    FPGA+AI王炸組合如何重塑未來世界:看看DeepSeek東方神秘力量如何預測......

    ...... 2) AI超算革命:FPGA集群功耗比GPU降低62%;混合精度計算效率提升5.8倍...... 3) 6G通信突破:軟件無線電實現(xiàn)Sub-6GHz/毫米波全頻段覆蓋;Massive MIMO波束
    發(fā)表于 03-03 11:21

    GPU加速計算平臺的優(yōu)勢

    傳統(tǒng)的CPU雖然在日常計算任務中表現(xiàn)出色,但在面對大規(guī)模并行計算需求時,其性能往往捉襟見肘。而GPU加速計算平臺憑借其獨特的優(yōu)勢,吸引了行業(yè)
    的頭像 發(fā)表于 02-23 16:16 ?432次閱讀

    GPU 加速計算:突破傳統(tǒng)算力瓶頸的利刃

    在數(shù)字化時代,數(shù)據(jù)呈爆炸式增長,傳統(tǒng)的算力已難以滿足復雜計算任務的需求。無論是人工智能的深度學習、大數(shù)據(jù)的分析處理,還是科學研究中的模擬計算,都對算力提出了極高的要求。而云 GPU 加速
    的頭像 發(fā)表于 02-17 10:36 ?293次閱讀

    GPU計算服務怎么樣

    在當今數(shù)字化快速發(fā)展的時代,高性能計算需求日益增長。為滿足這些需求,GPU計算服務應運而生。那么,GPU計算服務怎么樣呢?接下來,AI部
    的頭像 發(fā)表于 02-05 15:01 ?477次閱讀

    ASIC和GPU的原理和優(yōu)勢

    芯片”。 準確來說,除了它倆,計算芯片還包括大家更熟悉的CPU,以及FPGA。 行業(yè)里,通常會把半導體芯片分為數(shù)字芯片和模擬芯片。其中,數(shù)字芯片的市場規(guī)模占比較大,達到70%左右。 數(shù)字芯片,還可以進一步細分,分為:邏輯芯片、存儲
    的頭像 發(fā)表于 01-06 13:58 ?1761次閱讀
    ASIC和<b class='flag-5'>GPU</b>的原理和優(yōu)勢

    GPU加速云服務器怎么用的

    GPU加速云服務器是將GPU硬件與云計算服務相結(jié)合,通過云服務提供商的平臺,用戶可以根據(jù)需求靈活租用帶有GPU資源的虛擬機實例。那么,
    的頭像 發(fā)表于 12-26 11:58 ?458次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    許可證模型的加速令牌或SIMULIA統(tǒng)一許可證模型的SimUnit令牌或積分授權(quán)。 4. GPU計算的啟用 - 交互式模擬:通過加速對話框啟用,打開求解器對話框,點擊“
    發(fā)表于 12-16 14:25

    NPU與GPU的性能對比

    它們在不同應用場景下的表現(xiàn)。 一、設計初衷與優(yōu)化方向 NPU : 專為加速AI任務而設計,包括深度學習和推理。 針對神經(jīng)網(wǎng)絡的計算模式進行了優(yōu)化,能夠高效地執(zhí)行矩陣乘法、卷積等操作。 擁有眾多小型處理單元,配備專門的內(nèi)存體系結(jié)構(gòu)和數(shù)據(jù)流優(yōu)化策略,對深度學習任務的處理特別高
    的頭像 發(fā)表于 11-14 15:19 ?4191次閱讀

    PyTorch GPU 加速訓練模型方法

    在深度學習領(lǐng)域,GPU加速訓練模型已經(jīng)成為提高訓練效率和縮短訓練時間的重要手段。PyTorch作為一個流行的深度學習框架,提供了豐富的工具和方法來利用GPU進行模型訓練。 1. 了解GPU
    的頭像 發(fā)表于 11-05 17:43 ?1410次閱讀

    FPGA和ASIC在大模型推理加速中的應用

    隨著現(xiàn)在AI的快速發(fā)展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經(jīng)有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優(yōu)化,因此相比GPU這種通過
    的頭像 發(fā)表于 10-29 14:12 ?2035次閱讀
    <b class='flag-5'>FPGA</b>和ASIC在大模型推理<b class='flag-5'>加速</b>中的應用

    GPU加速計算平臺是什么

    GPU加速計算平臺,簡而言之,是利用圖形處理器(GPU)的強大并行計算能力來加速科學
    的頭像 發(fā)表于 10-25 09:23 ?600次閱讀

    FPGA加速深度學習模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學習模型是當前硬件加速領(lǐng)域的一個熱門研究方向。以下是一些FPGA加速深度學習模型的案例: 一、基于
    的頭像 發(fā)表于 10-25 09:22 ?1235次閱讀

    深度學習GPU加速效果如何

    圖形處理器(GPU)憑借其強大的并行計算能力,成為加速深度學習任務的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?615次閱讀

    Achronix Speedster7t FPGAGPU解決方案的比較

    這篇針對大模型推理跟GPU對比分析,雖然以Llama2為例,也適用于最新的Llama3,模型的日新月易也更進一步說明硬件平臺的可編程可擴展的重要性,FPGA是其中一個不錯的選擇。
    的頭像 發(fā)表于 09-18 16:19 ?757次閱讀
    Achronix Speedster7t <b class='flag-5'>FPGA</b>與<b class='flag-5'>GPU</b>解決方案的比較

    FPGA與MCU的應用場景

    大量計算任務,這在實時處理等應用中尤為重要。 高性能計算 FPGA在處理復雜算法和大規(guī)模數(shù)據(jù)時表現(xiàn)出色,特別是在人工智能(AI)和機器學習(ML)領(lǐng)域。它們可以加速神經(jīng)網(wǎng)絡的訓練和推理
    發(fā)表于 07-29 15:45