自強課程

課程名稱
【假日線上】PyTorch生成式AI
熱烈招生中
全線上

📢早安鳥方案:會員於5/17前(含)報名,可享超值優惠價8500元(記得加入會員才能享早鳥方案喔) ~煩請來電或來信告知!!
課程代碼:
14C345
上課時間:
6/7、6/14,星期六,10:00-17:00,共二週12小時。
上課時數:
12 小時
上課地點:
網路線上
課程費用:
9500元
(符合超值優惠價格者需送出報名表後,系統發出報名成功回函確認金額。)
超值優惠:
- VIP企業會員價:VIP企業會員可享優惠價格 (按我)
- 會員優惠價: 會員於開課前七天完成報名繳費者可享會員優惠價 9000 元
- 團報價方案:會員2人同行,可享同行價 8500 元(須於課前告知)
- 會員紅利折抵:本課程歡迎使用紅利折抵,最高可使用 100 點
課程目標:
近年來生成式AI技術的效果大幅進化,而這一切的起源來自2014 年Ian Goodfellow提出的生成式對抗網路(Generative Adversarial Network, GAN),過去這幾年,更新、更強大的GAN不斷地被提出,使得各種影像生成或是影像轉換等應用的效果愈來愈好,例如StyleGAN已經能生成極為真實的人臉影像,StarGAN可分別轉換人臉的髮型、年齡或膚色; AugGAN可將一張白天影像轉換成晚上、雨天甚至是雨天夜晚,而這可以幫助自動駕駛車辨識系統產生巨量各式各樣行車情境下的訓練資料,以提升辨識率。
目前生成模型的代名詞從GAN變成Diffusion model(擴散模型),且在各類任務上已經被證實效果比GAN更好,2022年StableDiffusion的橫空出世,讓我們可以用一段充滿細節的文字,生成極為真實的影像,此模型的主要原理來自同一年的LDM(Latent Diffusion Model),而Diffusion model的主要突破來自2020年的DDPM模型,LDM最主要的突破在於將denoising的過程實現在Latent vector而不是影像中,因而能大幅提升模型訓練以及推論的速度。本課程在Diffusion model將會介紹經典的DDPM(Denoising Diffusion Probabilistic Models), DDIM(Denoising Diffusion Implicit Models)以及LDM如何實現影像生成,Palette是如何運用Diffusion model實現影像轉換。
2022年底開始,如何微調Stable Diffusion成為了一門顯學,Stable Diffusion剛出現時為人所詬病的就是人物的手指往往很不自然,隨著Controlnet的出現,我們可以控制生成人物的姿態,以及自然的手部,甚至我們可以文字搭配素描/深度圖/光線分佈,來產生我們心目中的那張"圖"。
為了讓Stable Diffusion學會新的概念,我們還可以使用Dreambooth微調模型,但又不會讓強大的Stable Diffusion忘記特定的影像, LORA的出現讓微調Stable Diffusion的檔案小到幾個MB,我們只要找到公開的LORA檔案,我們也可以生成某個明星,例如"迪麗熱巴",的照片,甚至我們可以使用Textual Inversion的技術,產生特定概念的token,讓Stable Diffusion學會生成在某種場景下的某種特定物品(例如小時候爸媽送你的一個玩偶)。最後,Stable Diffusion只能透過文字產生影像,我們可否使用文字這樣的指令修改一張圖的內容呢?Instruct-Pix2Pix的出現告訴我們可以運用GPT模型所生成的文字來訓練生成模型實現影像編輯。
本課程具體內容包括:
(1)生成式對抗網路原理以及量化指標。
(2)基礎人臉影像生成模型: CGAN與DCGAN原理。
(3)進階人臉影像生成模型: ProGAN與StyleGAN。
(4)圖片分類以及人臉辨識:人臉辨識是圖片分類最重要的應用之一,運用softmax loss,Triplet loss以及ArcFace我們可較佳的實現人臉辨識。
(5)人臉合成: Image2StyleGAN原理以及如何運用人臉重建以完成人臉合成,並運用人臉辨識模型來分析合成人臉與原始人臉的相似度。
(6)擴散模型原理:如何運用DDPM/DDIM/LDM實現影像生成。
(7)Stable Diffusion及其四大微調技術: 運用Dreambooth/LORA/Textual Inversion微調強大的生成模型,以生成明星或是特定物品在新情境下的影像。
經過本次課程的洗禮,您將學會:
(1)從頭訓練一個生成模型網路
(2)在影像生成效果不佳時,如何尋找較佳的生成模型以生成更為真實的影像,(3)學會運用生成模型生成影像分類、語義分割、物件偵測所需要的訓練影像,以降低標記資料的需求。
目前生成模型的代名詞從GAN變成Diffusion model(擴散模型),且在各類任務上已經被證實效果比GAN更好,2022年StableDiffusion的橫空出世,讓我們可以用一段充滿細節的文字,生成極為真實的影像,此模型的主要原理來自同一年的LDM(Latent Diffusion Model),而Diffusion model的主要突破來自2020年的DDPM模型,LDM最主要的突破在於將denoising的過程實現在Latent vector而不是影像中,因而能大幅提升模型訓練以及推論的速度。本課程在Diffusion model將會介紹經典的DDPM(Denoising Diffusion Probabilistic Models), DDIM(Denoising Diffusion Implicit Models)以及LDM如何實現影像生成,Palette是如何運用Diffusion model實現影像轉換。
2022年底開始,如何微調Stable Diffusion成為了一門顯學,Stable Diffusion剛出現時為人所詬病的就是人物的手指往往很不自然,隨著Controlnet的出現,我們可以控制生成人物的姿態,以及自然的手部,甚至我們可以文字搭配素描/深度圖/光線分佈,來產生我們心目中的那張"圖"。
為了讓Stable Diffusion學會新的概念,我們還可以使用Dreambooth微調模型,但又不會讓強大的Stable Diffusion忘記特定的影像, LORA的出現讓微調Stable Diffusion的檔案小到幾個MB,我們只要找到公開的LORA檔案,我們也可以生成某個明星,例如"迪麗熱巴",的照片,甚至我們可以使用Textual Inversion的技術,產生特定概念的token,讓Stable Diffusion學會生成在某種場景下的某種特定物品(例如小時候爸媽送你的一個玩偶)。最後,Stable Diffusion只能透過文字產生影像,我們可否使用文字這樣的指令修改一張圖的內容呢?Instruct-Pix2Pix的出現告訴我們可以運用GPT模型所生成的文字來訓練生成模型實現影像編輯。
本課程具體內容包括:
(1)生成式對抗網路原理以及量化指標。
(2)基礎人臉影像生成模型: CGAN與DCGAN原理。
(3)進階人臉影像生成模型: ProGAN與StyleGAN。
(4)圖片分類以及人臉辨識:人臉辨識是圖片分類最重要的應用之一,運用softmax loss,Triplet loss以及ArcFace我們可較佳的實現人臉辨識。
(5)人臉合成: Image2StyleGAN原理以及如何運用人臉重建以完成人臉合成,並運用人臉辨識模型來分析合成人臉與原始人臉的相似度。
(6)擴散模型原理:如何運用DDPM/DDIM/LDM實現影像生成。
(7)Stable Diffusion及其四大微調技術: 運用Dreambooth/LORA/Textual Inversion微調強大的生成模型,以生成明星或是特定物品在新情境下的影像。
經過本次課程的洗禮,您將學會:
(1)從頭訓練一個生成模型網路
(2)在影像生成效果不佳時,如何尋找較佳的生成模型以生成更為真實的影像,(3)學會運用生成模型生成影像分類、語義分割、物件偵測所需要的訓練影像,以降低標記資料的需求。
課程特色:
代碼 | 課程名稱 | 日期 | 時數 | 費用 | 會員價 | 早鳥價 | |
14C345 | PyTorch生成式AI | 6/7、6/14,(六), 10:00-17:00 | 12 | 9500 | 9000 | 8500 | 按我報名 |
14C346 | PyTorch深度學習生成模型實作:從GAN到Stable Diffusion | 6/21、6/28,(六), 10:00-17:00 | 24 | 9500 | 9000 | 8500 | 按我報名 |
14C347 | PyTorch深度學習YOLO物件偵測模型進階實作(從YOLOv1-v10) | 7/5、7/12,(六) 10:00-17:00 | 12 | 9500 | 9000 | 8500 | 按我報名 |
14C348 | PyTorch人臉辨識模型實作 | 7/6、7/13,(日) 10:00-17:00 | 12 | 9500 | 9000 | 8500 | 按我報名 |
課程大綱:
1.生成式對抗網路原理以及量化指標。
2.基礎人臉影像生成模型: CGAN與DCGAN原理。
3.進階人臉影像生成模型: ProGAN與StyleGAN。
4.人臉修改: Image2StyleGAN原理以及如何運用人臉重建以完成人臉修改。
5.圖片分類以及人臉辨識:人臉辨識是圖片分類最重要的應用之一,運用softmax loss,Triplet loss以及ArcFace我們可較佳的實現人臉辨識。
6.擴散模型原理:如何運用DDPM/DDIM/LDM實現影像生成。
7.Stable Diffusion及其四大微調技術: 運用Dreambooth/LORA/Textual Inversion微調強大的生成模型,以生成明星或是特定物品在新情境下的影像。
2.基礎人臉影像生成模型: CGAN與DCGAN原理。
3.進階人臉影像生成模型: ProGAN與StyleGAN。
4.人臉修改: Image2StyleGAN原理以及如何運用人臉重建以完成人臉修改。
5.圖片分類以及人臉辨識:人臉辨識是圖片分類最重要的應用之一,運用softmax loss,Triplet loss以及ArcFace我們可較佳的實現人臉辨識。
6.擴散模型原理:如何運用DDPM/DDIM/LDM實現影像生成。
7.Stable Diffusion及其四大微調技術: 運用Dreambooth/LORA/Textual Inversion微調強大的生成模型,以生成明星或是特定物品在新情境下的影像。
課程師資:
自強基金會 林老師
現任瑞典Chalmers University of Technology博士後研究員
經歷
▻ 工研院機械所副研究員/研究員/資深研究員
▻ 馬來西亞偉特科技公司(ViTrox)研發顧問
▻ 馬來西亞10 EPOCH科技公司研發顧問
▻ 加州大學聖塔芭芭拉分校資工系訪問研究員
專長
電腦視覺、機器學習、深度學習及其在駕駛輔助系統以及自駕車之各種應用
現任瑞典Chalmers University of Technology博士後研究員
經歷
▻ 工研院機械所副研究員/研究員/資深研究員
▻ 馬來西亞偉特科技公司(ViTrox)研發顧問
▻ 馬來西亞10 EPOCH科技公司研發顧問
▻ 加州大學聖塔芭芭拉分校資工系訪問研究員
專長
電腦視覺、機器學習、深度學習及其在駕駛輔助系統以及自駕車之各種應用
主辦單位:
財團法人自強工業科學基金會
學員須知:
注意事項