自強課程

課程名稱
大語言模型原理及其應用(Large Language Models: Principles and Applications) 熱烈招生中
📢超級早鳥優惠:➡會員114/6/19(含)前報名:7,800元/人!
 課程代碼:
14W321
 上課時間:
7/10、7/17,星期四,09:00-16:00,共二週12小時。 
 上課時數:
12 小時
 課程費用:
8500元 (符合超值優惠價格者需送出報名表後,系統發出報名成功回函確認金額。)
 超值優惠:
  • VIP企業會員價:VIP企業會員可享優惠價格 (按我)
  • 會員優惠價: 會員於開課前七天完成報名繳費者可享會員優惠價 8000 元
  • 團報價方案:會員2人同行,可享同行價 7800 元(須於課前告知)
  • 會員紅利折抵:本課程歡迎使用紅利折抵,最高可使用 100 點
 課程目標:
本課程從卷積與遞歸神經網路基礎開講,介紹傳統自然語言模型的發展瓶頸與沿革,漸次引入模仿人類閱讀學習記憶的並行注意力機制,以及摒除人工標記束縛的基於變形金剛雙向編碼器表示技術(Bi-directional Encoder Representations from Transformers, BERT),幫助學員理解ChatGPT背後大語言模型的原理,並運用Python語言實作NLP/NLU任務,進一步觸發學員思考工作場域中的新應用。
 1. 從傳統模型瓶頸走向最新的技術突破,幫助學員瞭解大語言模型背後的重要技術細節,活用自然語言資料分析建模技術,並抓住未來發展趨勢。
 2. 熟悉自然語言處理與理解等模型,奠定學習當代大語言模型原理的基礎。
 3. 運用Python套件TensorFlow、PyTorch實作NLP/NLU任務。
 課程大綱:
1. 大語言模型發展歷程
2. 大語言模型建構過程
3. 大語言模型基礎
 3-1多層感知機(multilayer perceptron):線性迴歸、羅吉斯分類、Softmax分類
 3-2卷積神經網路(convolution neural network)
 3-3遞歸神經網路(recurrent neural network)
 3-4長短期記憶(long short term memory)
 3-5注意力、自注意力與多頭機制
 3-6變形金剛(transformers)模型
4. 重要大語言模型
 4-1動態詞詞嵌入模型(ELMo)
 4-2基於變形金剛的雙向編碼器表示技術(BERT)
 4-3生成式預訓練模型(GPT)
5. 大語言模型預訓練資料
6. 大語言模型有監督微調
7. 大語言模型強化學習
8. 大語言模型應用
 課程師資:
鄒慶士 教授
專長:機率與統計學習、進化式多目標最佳化、賽局模型應用、系統模擬與強化學習、時間序列分析與控制
現任:國立臺北商業大學資訊與決策科學研究所暨智能控制與決策研究室教授
經歷:
香港科技大學(廣州)工業信息與智能研究所訪問教授(2024.10~2025.01)
國立臺北商業大學校務永續發展中心主任(2023.08~2024.07)暨推廣教育部主任(2024.02~2024.07)
  主辦單位:
財團法人自強工業科學基金會
  注意事項
  • 清華大學學生優惠方案:清華大學學生可享課程最低優惠價─VIP企業會員優惠價,完成報名後須來電告知修改費用(使用本優惠價須於報名同時檢附在學中有效的清華大學學生證,且不得開立抬頭「國立清華大學」以外的三聯式公司發票)。
  • 若遇不可預測之突發因素,基金會保有相關課程調整、取消及講師之變動權。
  • 無紙化環境,輕鬆達到減碳救地球,即日起16小時以上課程結業證書或未達16小時課程上課證明皆以電子方式提供。
  • 使用VIP廠商優惠之學員,上課當日報到時須查核該公司識別證(相關證明資料)。
  • 會員紅利折抵限以原價或會員優惠價再折抵,其他方案不適用。
  • 課前請詳閱簡章之課程內容或利用課程諮詢電話。
  • 課程嚴禁旁聽,亦不可攜眷參與。
  • 優惠方案擇一使用。
  • 課程查詢或相關作業時程,請洽以下聯絡窗口。
    聯絡資訊