自強課程

課程名稱
【假日線上班】PyTorch深度學習瑕疵檢測於智慧製造之應用 熱烈招生中 全線上
📢早安鳥方案:會員於7/12前(含)報名,可享超值優惠價8500元(記得加入會員才能享早鳥方案喔)
📣舊生續報優惠:凡曾上過林哲聰老師Pytorch系列課程,即可再折500元💥~煩請來電或來信告知!!
每位學員必須有自己的Google 帳號以在Colab進行實作
 課程代碼:
14C359
 上課時間:
8/17、8/24,星期日,10:00-17:00,共12小時。 
 上課時數:
12 小時
 上課地點:
網路線上
 課程費用:
9500元 (符合超值優惠價格者需送出報名表後,系統發出報名成功回函確認金額。)
 超值優惠:
  • VIP企業會員價:VIP企業會員可享優惠價格 (按我)
  • 會員優惠價: 會員於開課前七天完成報名繳費者可享會員優惠價 9000 元
  • 團報價方案:會員2人同行,可享同行價 8500 元(須於課前告知)
  • 會員紅利折抵:本課程歡迎使用紅利折抵,最高可使用 100 點
 課程目標:
瑕疵檢測是製造業品質控制流程中的關鍵環節。傳統方法主要依賴人工目視檢測或基於規則的影像處理技術,然而,這些方法存在準確度、效率和環境適應性等方面的局限性。隨著人工智慧,特別是機器學習和電腦視覺技術的快速發展,瑕疵檢測領域正經歷著變革。運用深度學習在電腦視覺中的各種通用模型,各種瑕疵檢測的精度已能大幅提升,然而,瑕疵檢測常因為搜集資料不易,標記資料不足使得模型效能有限,近年來生成式AI已能生成極為真實的各類影像,運用這樣的模型合成瑕疵影像即可訓練出更為強大的模型,實現更精準、更適應快速迭代生產週期的瑕疵檢測解決方案。
本課程將會介紹如何運用圖片分類、語義分割、實例分割、物件偵測來實現瑕疵檢測,這四類技術具體的實現方式除了標記成本外,應用的情境也不同,例如,圖片分類通常需要精準對位,而且具體瑕疵位置無法獲得,物件偵測假設各類瑕疵適合以bounding box來確認位置,若瑕疵部份需要精確的像素位置且瑕疵種類又不同,則適合實例分割,假設瑕疵像素較多,外型不規則,同一種類不需要區分瑕疵數量,則可使用語義分割,因為其需要明確的逐像素標記資料。
在訓練神經網路的過程中,資料擴充是一個常用的技術,然而傳統的資料擴充通常是在色彩空間中做一些擾動,或是隨機剪切圖片中包括感興趣物體(例如瑕疵)的位置。近年來生成模型技術的興起,讓生成各式各樣的圖片變得可能,然而,單純生成圖片,而沒有標記資料,我們並無法運用生成的資料來訓練瑕疵檢測模型。本課程最大亮點在於介紹如何運用生成模型同時生成圖片與標記資料,使得瑕疵檢測模型的效果提升。
生成式AI技術的起源來自2014 年Ian Goodfellow提出的生成式對抗網路(Generative Adversarial Network, GAN),然而,近年來,生成模型的代名詞從GAN變成Diffusion model(擴散模型),本課程將分別介紹如何透過這兩類生成模型同時生成圖片與標記資料。

本課程的具體內容包括:
(1) 圖片分類模型基本原理與實作: 運用Alexnet, ResNet進行工業檢測中的瑕疵分類(工業軸承資料集)。
(2) 圖片分類模型辨識位置視覺化:使用Grad-CAM視覺化圖片分類模型分類所關注的像素。
(3) 物體偵測模型簡介與實作: 二階段以及單階段物體偵測模型(YOLOv1-v10)原理及其用於瑕疵偵測的實作(使用NEU Surface Defect資料集)。
(4) 語義影像分割模型原理與實作:各類語義分割模型原理以及運用FCN/DeepLabv3實現瑕疵檢測(使用Steel Defect資料集)。
(5) 實例分割模型原理與實作:各種實例分割模型原理(Mask-RCNN, YOLACT)及YOLACT實作(使用BSData)。
(6) 生成式對抗網路原理與實作: 各類生成式對抗網路原理以及運用DCGAN同時生成影像以及語義分割之標記資料。
(7) 擴散模型原理與實作: 運用DDPM/DDIM實現同時生成影像以及語義分割之標記資料。
 課程特色:
經過本次課程的洗禮,您將學會:
(1)從頭訓練一個基於圖片分類/物體偵測/語義分割/實例分割的瑕疵檢測模型。
(2)在影像生成效果不佳時,如何尋找較佳的生成模型以生成更為真實的影像。
(3)學會運用生成模型同時生成瑕疵檢測影像及對應的標記資料以訓練出更為強大的瑕疵檢測模型。
 課程大綱:
1.圖片分類模型基本原理與實作: 運用Alexnet, ResNet進行工業檢測中的瑕疵分類(工業軸承資料集)。
2.圖片分類模型辨識位置視覺化:使用Grad-CAM視覺化圖片分類模型分類所關注的像素。
3.物體偵測模型簡介與實作: 二階段以及單階段物體偵測模型(YOLOv1-v10)原理及其用於瑕疵偵測的實作(使用NEU Surface Defect資料集)。
4.語義影像分割模型簡介與實作:各類語義分割模型原理以及運用FCN/DeepLabv3實現瑕疵檢測(使用Steel Defect資料集)。
5.實例分割模型原理與實作:各種實例分割模型原理(Mask-RCNN, YOLACT)及YOLACT實作(使用BSData)
6.生成式對抗網路原理與實作: 各類生成式對抗網路原理以及運用DCGAN同時生成影像以及語義分割之標記資料。
7.擴散模型原理與實作: 運用DDPM/DDIM實現同時生成影像以及語義分割之標記資料
 課程師資:
自強基金會 林哲聰老師
現任瑞典Chalmers University of Technology博士後研究員

經歷
▻ 工研院機械所副研究員/研究員/資深研究員
▻ 馬來西亞偉特科技公司(ViTrox)研發顧問
▻ 馬來西亞10 EPOCH科技公司研發顧問
▻ 加州大學聖塔芭芭拉分校資工系訪問研究員

專長
電腦視覺、機器學習、深度學習及其在駕駛輔助系統以及自駕車之各種應用
  主辦單位:
財團法人自強工業科學基金會
  注意事項
  • 清華大學學生優惠方案:清華大學學生可享課程最低優惠價─VIP企業會員優惠價,完成報名後須來電告知修改費用(使用本優惠價須於報名同時檢附在學中有效的清華大學學生證,且不得開立抬頭「國立清華大學」以外的三聯式公司發票)。
  • 若遇不可預測之突發因素,基金會保有相關課程調整、取消及講師之變動權。
  • 無紙化環境,輕鬆達到減碳救地球,即日起16小時以上課程結業證書或未達16小時課程上課證明皆以電子方式提供。
  • 使用VIP廠商優惠之學員,上課當日報到時須查核該公司識別證(相關證明資料)。
  • 會員紅利折抵限以原價或會員優惠價再折抵,其他方案不適用。
  • 課前請詳閱簡章之課程內容或利用課程諮詢電話。
  • 課程嚴禁旁聽,亦不可攜眷參與。
  • 優惠方案擇一使用。
  • 課程查詢或相關作業時程,請洽以下聯絡窗口。
    聯絡資訊