自強課程
課程名稱
【AI人工智慧/機器、深度學習/平行運算】 CUDA平行運算技術及程式優化與TensorFlow深度學習(Deep Learning)應用實作實戰班
熱烈招生中
(講師DEMO)
AI人工智慧圍棋程式「AlphaGo」迎戰世界第一棋王柯潔,於2017年05月寫下三戰全勝紀錄;加上近期的虛擬/擴增實境(VR/AR)與自動駕駛技術造成科技界的高度關注,變成最夯的熱門話題。上述這些發展成果是拜機器學習的分支「深度學習」這項現代人工智慧技術出現大爆炸般的發展。但決定這些AI人工智慧能不能獲得更好發揮的關鍵,不只得靠機器學習的幫忙,甚至得借助深度學習的類神經演算法,才能加深AI人工智慧未來的應用。這也使得近年來,GPU開始在一些AI人工智慧應用當中逐漸嶄露頭角。這是因為不論是AI、VR/AR,還是自動駕駛技術的應用,雖然各有不同用途,但他們普遍都有一個共同的特色,都是需要大量平行運算(Parallel Computing)的能力,才能當作深度學習訓練模型使用,或者是將圖形繪製更貼近真實呈現。那 NVIDIA 的 CUDA 平行運算平台其擁有突破性優異性能的表現,可以達到創新功能,為消費者、教育者、科學家和設計師開創出嶄新體驗。
課程代碼:
07C046
上課時間:
8/28 (二)、9/4 (二)、9/11(二 ) 9:00~17:00共21小時
上課時數:
21 小時
上課地點:
課程費用:
12000元
(符合超值優惠價格者需送出報名表後,系統發出報名成功回函確認金額。)
超值優惠:
- VIP企業會員價:VIP企業會員可享優惠價格 (按我)
- 會員優惠價: 會員於開課前七天完成報名繳費者可享會員優惠價 11500 元
- 會員紅利折抵:本課程歡迎使用紅利折抵,最高可使用 200 點
課程特色:
CUDA是NVIDIA所開發的一種廣泛運用的平行運算架構,能讓繪圖處理器擁有足夠的能力,來解決複雜的運算問題。現今的C/C++程式設計師可以使用最普及的高階程式語言C&C++語言來撰寫CUDA架構的程式,且能以極佳的效能,讓程式在支援CUDA的處理器上運作執行。本課程詳細介紹CUDA架構、記憶體架構、常用API範例介紹 、平行運算設計技巧、CUDA實作練習
修課條件:
熟悉 C&C++ 程式語言,或上過【嵌入式 IOT C &C++程式設計實戰與應用班】(模組A+B)
課程大綱:
1. Introduction CUDA & CUDA環境建置與設定:Why is parallel computing important?、What Is the CUDA Architecture?、Why is it important?、Using the CUDA Architecture、Applications of CUDA
2. 介紹GPU平行運算(Introduction Parallelism with GPUs): 傳統的串行程式(Traditional Serial Code)、串行/平行化問題(Serial/Parallel Problems)、平行性的類型(Types of Parallelism)[ Data-based and Task-based ]
3. 第一支CUDA程式(First CUDA Program ): HELLO_WORLD、CUDA Kernel Call、Passing Parameters
4. CUDA 查詢設備和使用設備屬性(Querying Devices and Using Device Properties)5. Host、Device、Grids, Blocks, and Threads/ Threading Model
6. 編程模型(Programming Model):Kernels、Thread Hierarchy、Memory Hierarchy、Heterogeneous Programming
7. CUDA架構之記憶體處理(Memory Handling with CUDA) : Registers、Local Memory、Caches、Device Memory、Shared Memory、Constant Memory、Global Memory、Texture Memory
8.CUDA C平行運算程式設計 (Parallel Programming in CUDA C): Summing Vectors、A Fun Example
9. 線程合作(Thread Cooperation ): Splitting Parallel Blocks、Shared Memory and Synchronization
10. Atomics
11. 常見的CUDA C語言擴展(Common CUDA C Language Extensions):Function Type Qualifiers、Variable Type Qualifiers、Built-in Vector Types、Built-in Variables、Memory Fence Functions、Synchronization Functions、Mathematical Functions、Texture Functions、Time Function、Atomic Functions、Dynamic Global Memory Allocation and Operations
12. CUDA程式優化(Optimizing for CUDA)
13. CUDA TensorFlow深度學習(Deep Learning)應用(含LAB: 案例應用與操作方法)
13.1Tensorflow簡單案例
13.1 創建圖、啟動圖
13.2 變量
13.3 fetch and feed
13.4 CNN介紹和應用:卷積神經網路CNN
13.5 LSTM介紹和使用:遞歸神經網路RNN、長短時記憶網路LSTM
2. 介紹GPU平行運算(Introduction Parallelism with GPUs): 傳統的串行程式(Traditional Serial Code)、串行/平行化問題(Serial/Parallel Problems)、平行性的類型(Types of Parallelism)[ Data-based and Task-based ]
3. 第一支CUDA程式(First CUDA Program ): HELLO_WORLD、CUDA Kernel Call、Passing Parameters
4. CUDA 查詢設備和使用設備屬性(Querying Devices and Using Device Properties)5. Host、Device、Grids, Blocks, and Threads/ Threading Model
6. 編程模型(Programming Model):Kernels、Thread Hierarchy、Memory Hierarchy、Heterogeneous Programming
7. CUDA架構之記憶體處理(Memory Handling with CUDA) : Registers、Local Memory、Caches、Device Memory、Shared Memory、Constant Memory、Global Memory、Texture Memory
8.CUDA C平行運算程式設計 (Parallel Programming in CUDA C): Summing Vectors、A Fun Example
9. 線程合作(Thread Cooperation ): Splitting Parallel Blocks、Shared Memory and Synchronization
10. Atomics
11. 常見的CUDA C語言擴展(Common CUDA C Language Extensions):Function Type Qualifiers、Variable Type Qualifiers、Built-in Vector Types、Built-in Variables、Memory Fence Functions、Synchronization Functions、Mathematical Functions、Texture Functions、Time Function、Atomic Functions、Dynamic Global Memory Allocation and Operations
12. CUDA程式優化(Optimizing for CUDA)
13. CUDA TensorFlow深度學習(Deep Learning)應用(含LAB: 案例應用與操作方法)
13.1Tensorflow簡單案例
13.1 創建圖、啟動圖
13.2 變量
13.3 fetch and feed
13.4 CNN介紹和應用:卷積神經網路CNN
13.5 LSTM介紹和使用:遞歸神經網路RNN、長短時記憶網路LSTM
主辦單位:
財團法人自強工業科學基金會
學員須知:
注意事項