chinese直男口爆体育生外卖, 99久久er热在这里只有精品99, 又色又爽又黄18禁美女裸身无遮挡, gogogo高清免费观看日本电视,私密按摩师高清版在线,人妻视频毛茸茸,91论坛 兴趣闲谈,欧美 亚洲 精品 8区,国产精品久久久久精品免费

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

CUDA簡介:CUDA編程模型和接口

星星科技指導員 ? 來源:NVIDIA ? 作者:Ken He ? 2022-04-19 15:38 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本項目為CUDA官方手冊的中文翻譯版,有個人翻譯并添加自己的理解。主要介紹CUDA編程模型和接口。

1.1 我們?yōu)槭裁匆褂?a href="http://www.brongaenegriffin.com/tags/gpu/" target="_blank">GPU

GPU(Graphics Processing Unit)在相同的價格和功率范圍內(nèi),比CPU提供更高的指令吞吐量和內(nèi)存帶寬。許多應用程序利用這些更高的能力,在GPU上比在CPU上運行得更快(參見GPU應用程序)。其他計算設備,如FPGA,也非常節(jié)能,但提供的編程靈活性要比GPU少得多。

GPU和CPU在功能上的差異是因為它們的設計目標不同。雖然 CPU 旨在以盡可能快的速度執(zhí)行一系列稱為線程的操作,并且可以并行執(zhí)行數(shù)十個這樣的線程。但GPU卻能并行執(zhí)行成千上萬個(攤銷較慢的單線程性能以實現(xiàn)更大的吞吐量)。

GPU 專門用于高度并行計算,因此設計時更多的晶體管用于數(shù)據(jù)處理,而不是數(shù)據(jù)緩存和流量控制。

下圖顯示了 CPU 與 GPU 的芯片資源分布示例。

pYYBAGJeZ2KATOe0AABsHBaw-Os076.png

將更多晶體管用于數(shù)據(jù)處理,例如浮點計算,有利于高度并行計算。GPU可以通過計算隱藏內(nèi)存訪問延遲,而不是依靠大數(shù)據(jù)緩存和復雜的流控制來避免長時間的內(nèi)存訪問延遲,這兩者在晶體管方面都是昂貴的。

1.2 CUDA?:通用并行計算平臺和編程模型

2006 年 11 月,NVIDIA? 推出了 CUDA?,這是一種通用并行計算平臺和編程模型,它利用 NVIDIA GPU 中的并行計算引擎以比 CPU 更有效的方式解決許多復雜的計算問題。

CUDA 附帶一個軟件環(huán)境,允許開發(fā)人員使用 C++ 作為高級編程語言。 如下圖所示,支持其他語言、應用程序編程接口或基于指令的方法,例如 FORTRAN、DirectCompute、OpenACC。

poYBAGJeZ1yAKiiLAAH1q_EpXUQ299.png

1.3 可擴展的編程模型

多核 CPU 和眾核 GPU 的出現(xiàn)意味著主流處理器芯片現(xiàn)在是并行系統(tǒng)。挑戰(zhàn)在于開發(fā)能夠透明地擴展可并行的應用軟件,來利用不斷增加的處理器內(nèi)核數(shù)量。就像 3D 圖形應用程序透明地將其并行性擴展到具有廣泛不同內(nèi)核數(shù)量的多核 GPU 一樣。

CUDA 并行編程模型旨在克服這一挑戰(zhàn),同時為熟悉 C 等標準編程語言的程序員保持較低的學習曲線。

其核心是三個關鍵抽象——線程組的層次結構、共享內(nèi)存和屏障同步——它們只是作為最小的語言擴展集向程序員公開。

這些抽象提供了細粒度的數(shù)據(jù)并行和線程并行,嵌套在粗粒度的數(shù)據(jù)并行和任務并行中。它們指導程序員將問題劃分為可以由線程塊并行獨立解決的粗略子問題,并將每個子問題劃分為可以由塊內(nèi)所有線程并行協(xié)作解決的更精細的部分。

這種分解通過允許線程在解決每個子問題時進行協(xié)作來保留語言表達能力,同時實現(xiàn)自動可擴展性。實際上,每個線程塊都可以在 GPU 內(nèi)的任何可用multiprocessor上以亂序、并發(fā)或順序調(diào)度,以便編譯的 CUDA 程序可以在任意數(shù)量的多處理器上執(zhí)行,如下圖所示,并且只有運行時系統(tǒng)需要知道物理multiprocessor個數(shù)。

這種可擴展的編程模型允許 GPU 架構通過簡單地擴展multiprocessor和內(nèi)存分區(qū)的數(shù)量來跨越廣泛的市場范圍:高性能發(fā)燒友 GeForce GPU ,專業(yè)的 Quadro 和 Tesla 計算產(chǎn)品 (有關所有支持 CUDA 的 GPU 的列表,請參閱支持 CUDA 的 GPU)。

pYYBAGJeZ1WAWhqdAAAqnDtQ7Es238.png

注意:GPU 是圍繞一系列流式多處理器 (SM: Streaming Multiprocessors) 構建的(有關詳細信息,請參閱硬件實現(xiàn))。 多線程程序被劃分為彼此獨立執(zhí)行的線程塊,因此具有更多multiprocessor的 GPU 將比具有更少多處理器的 GPU 在更短的時間內(nèi)完成程序執(zhí)行。

關于作者

Ken He 是 NVIDIA 企業(yè)級開發(fā)者社區(qū)經(jīng)理 & 高級講師,擁有多年的 GPU 和人工智能開發(fā)經(jīng)驗。自 2017 年加入 NVIDIA 開發(fā)者社區(qū)以來,完成過上百場培訓,幫助上萬個開發(fā)者了解人工智能和 GPU 編程開發(fā)。在計算機視覺,高性能計算領域完成過多個獨立項目。并且,在機器人無人機領域,有過豐富的研發(fā)經(jīng)驗。對于圖像識別,目標的檢測與跟蹤完成過多種解決方案。曾經(jīng)參與 GPU 版氣象模式GRAPES,是其主要研發(fā)者。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5309

    瀏覽量

    106374
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4945

    瀏覽量

    131228
  • 人工智能
    +關注

    關注

    1806

    文章

    49014

    瀏覽量

    249419
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    英偉達:CUDA 已經(jīng)開始移植到 RISC-V 架構上

    ,著重介紹了將 CUDA 移植到 RISC-V 架構的相關工作和計劃,展現(xiàn)了對 RISC-V 架構的高度重視與積極布局。 ? Frans Sijstermanns 首先回顧了英偉達與 RISC-V 之間
    發(fā)表于 07-17 16:30 ?1308次閱讀

    進迭時空同構融合RISC-V AI CPU的Triton算子編譯器實踐

    Triton是由OpenAI開發(fā)的一個開源編程語言和編譯器,旨在簡化高性能GPU內(nèi)核的編寫。它提供了類似Python的語法,并通過高級抽象降低了GPU編程的復雜性,同時保持了高性能。目前
    的頭像 發(fā)表于 07-15 09:04 ?173次閱讀
    進迭時空同構融合RISC-V AI CPU的Triton算子編譯器實踐

    使用NVIDIA CUDA-X庫加速科學和工程發(fā)展

    NVIDIA GTC 全球 AI 大會上宣布,開發(fā)者現(xiàn)在可以通過 CUDA-X 與新一代超級芯片架構的協(xié)同,實現(xiàn) CPU 和 GPU 資源間深度自動化整合與調(diào)度,相較于傳統(tǒng)加速計算架構,該技術可使計算工程工具運行速度提升至原來的 11 倍,計算規(guī)模增加至 5 倍。
    的頭像 發(fā)表于 03-25 15:11 ?698次閱讀

    借助PerfXCloud和dify開發(fā)代碼轉(zhuǎn)換器

    隨著深度學習與高性能計算的迅速發(fā)展,GPU計算的廣泛應用已成為推動技術革新的一股重要力量。對于GPU編程語言的選擇,CUDA和HIP是目前最為流行的兩種選擇。CUDA是由NVIDIA推出的編程
    的頭像 發(fā)表于 02-25 09:36 ?989次閱讀
    借助PerfXCloud和dify開發(fā)代碼轉(zhuǎn)換器

    【「大模型啟示錄」閱讀體驗】對大模型更深入的認知

    的平衡,解釋得清清楚楚,讓我這個非專業(yè)人士也能明白大模型在實際應用中面臨的挑戰(zhàn)和限制,也對這些模型的復雜性和挑戰(zhàn)有了更深的理解。 而且,書中還提到了OpenAI的成功案例和CUDA技術壁壘的形成,這些
    發(fā)表于 12-20 15:46

    使用英特爾AI PC為YOLO模型訓練加速

    在以往的實踐中,當我們針對 ultralytics 的 YOLO 模型開展訓練工作時,可供選擇的計算設備通常局限于 CPU、mps 以及 cuda 這幾種。然而,自 PyTorch2.5 版本發(fā)布
    的頭像 發(fā)表于 12-09 16:14 ?1593次閱讀
    使用英特爾AI PC為YOLO<b class='flag-5'>模型</b>訓練加速

    FacenetPytorch人臉識別方案--基于米爾全志T527開發(fā)板

    算法實現(xiàn)人臉識別深度神經(jīng)網(wǎng)絡1.簡介 Facenet-PyTorch 是一個基于 PyTorch 框架實現(xiàn)的人臉識別庫。它提供了 FaceNet 模型的 PyTorch 實現(xiàn),可以用于訓練自己的人
    發(fā)表于 11-28 15:57

    NVIDIA與谷歌量子AI部門達成合作

    NVIDIA CUDA-Q 平臺使谷歌量子 AI 研究人員能夠為其量子計算機創(chuàng)建大規(guī)模的數(shù)字模型,以解決設計中面臨的各種挑戰(zhàn)
    的頭像 發(fā)表于 11-20 09:39 ?704次閱讀

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片GPU

    從而充分利用 GPU的強大計算能力。在CUDA編程模型中,GPU的計算資源被組織為線期線程塊和線程網(wǎng)格3級。線程是基本的執(zhí)行單元,線程塊是包含多個線程的組,線程網(wǎng)格包含多個線程塊的組。線程塊和線程網(wǎng)格
    發(fā)表于 11-03 12:55

    有沒有大佬知道NI vision 有沒有辦法通過gpu和cuda來加速圖像處理

    有沒有大佬知道NI vision 有沒有辦法通過gpu和cuda來加速圖像處理
    發(fā)表于 10-20 09:14

    【「大模型時代的基礎架構」閱讀體驗】+ 第一、二章學習感受

    今天閱讀了《大模型時代的基礎架構》前兩章,還是比較輕松舒適的;再就是本書知識和我的工作領域沒有任何關聯(lián),一切都是新鮮的,似乎每讀一頁都會有所收獲,這種快樂的學習過程感覺也挺不錯的。 第一章開始介紹了
    發(fā)表于 10-10 10:36

    接口芯片的編程模型方法是什么

    接口芯片的編程模型方法是一個復雜的話題,涉及到硬件設計、軟件編程、通信協(xié)議等多個方面。 1. 接口芯片概述
    的頭像 發(fā)表于 09-30 11:30 ?650次閱讀

    怎么在TMDSEVM6678: 6678自帶的FFT接口CUDA提供CUFFT函數(shù)庫選擇?

    請教一下gpgpu上包括4個Riscv cpu和一個DPU, 沒有6678,要替換原來信號處理用的6678,該怎么在6678自帶的FFT接口CUDA提供CUFFT函數(shù)庫選擇?
    發(fā)表于 09-27 07:20

    打破英偉達CUDA壁壘?AMD顯卡現(xiàn)在也能無縫適配CUDA

    電子發(fā)燒友網(wǎng)報道(文/梁浩斌)一直以來,圍繞CUDA打造的軟件生態(tài),是英偉達在GPU領域最大的護城河,尤其是隨著目前AI領域的發(fā)展加速,市場火爆,英偉達GPU+CUDA的開發(fā)生態(tài)則更加穩(wěn)固,AMD
    的頭像 發(fā)表于 07-19 00:16 ?5942次閱讀

    英國公司實現(xiàn)英偉達CUDA軟件在AMD GPU上的無縫運行

    7月18日最新資訊,英國創(chuàng)新科技企業(yè)Spectral Compute震撼發(fā)布了其革命性GPGPU編程工具包——“SCALE”,該工具包實現(xiàn)了英偉達CUDA軟件在AMD GPU上的無縫遷移與運行,標志著在GPU計算領域,NVIDIA長期以來的市場壟斷地位或?qū)⒂瓉碇卮筇魬?zhàn)。
    的頭像 發(fā)表于 07-18 14:40 ?1107次閱讀